View Full Version : Due GPU NVIDIA a 40 nanometri al debutto a Ottobre
Redazione di Hardware Upg
07-10-2009, 13:58
Link alla notizia: http://www.hwupgrade.it/news/skvideo/due-gpu-nvidia-a-40-nanometri-al-debutto-a-ottobre_30360.html
GeForce GT 210 e GeForce GT 220: questi i nomi delle due nuove schede di fascia entry level che NVIDIA presenterà a metà mese
Click sul link per visualizzare la notizia.
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Come mai dotate di ventola ? Fanless non sarebbe possibile usarle ? In un pc da salotto "low noise" sarebbero perfette!
riuzasan
07-10-2009, 14:05
Anche chi dice il contrario ...
Severnaya
07-10-2009, 14:07
HTPC???
TH4N4TOS
07-10-2009, 14:09
scusate, prezzi compresi tra 50 ed 80 euro, ho capito bene ? Ma non sono spaventosamente alti ? Dato l'utilizzo che se ne deve fare non serve andare in casa ATI, basta un'occhiata qui !! 8400GS
http://www.trovaprezzi.it/categoria.aspx?libera=8400gs&id=28&prezzoMin=&prezzoMax=&sbox=sb
appleroof
07-10-2009, 14:10
HTPC???
principalmente direi di si credo abbiano consumi davvero bassi, inoltre gt220 la vedrei perfetta come seconda scheda per physx, a chi piacesse questa soluzione..
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Sono schede low profile per htpc e media center, non vanno valutate certo per le prestazioni.
masty_<3
07-10-2009, 14:16
Ma sta notizia uscì diverso tempo fa!!! -.-
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Migliore o peggiore non so..
Però io stò smadonnando un po' per usare l'integrata della zotac 9300 con monitor e plasma... :( Con una 4350 mi veniva più facile.. :confused:
killer978
07-10-2009, 14:23
con 80€ ti compri una 4770 :asd: potevo capirle se erano fanless ma con le ventole sono inutili anche nei HTPC
Del tutto inutili, se proprio mi devo fare un htpc non scelgo di certo schede con una ventola per quanto silenziosa sia....prendo un bel 785g con grafica ati 4xxx integrata e buonanotte....
Secondo me non ce la fa. Dicono altri (visto che io sono fra quelli a cui non piace questa soluzione) che se non ci metti almeno un G92 non ce la fai.
Sicuro? Io avevo adirrittura letto che per gestire la fisica come scheda secondaria era sufficiente una 8600GT. :boh:
appleroof
07-10-2009, 14:37
Secondo me non ce la fa. Dicono altri (visto che io sono fra quelli a cui non piace questa soluzione) che se non ci metti almeno un G92 non ce la fai.
cut
Altri ancora qui sul forum dicono che una 9500gt (leggermente sotto g220) va già ottimamente per quello :boh:
cmq, questo shrink non doveva portare anche il supporto a dx10.1? Nella notizia non se ne dà menzione...
Voci maligne dicono che Nvidia non riesca a produrre un controller per le memorie GDDR5 e che è questa la ragione per cui non escono le soluzioni mainstream e performance della serie GT2xx a 40nm.
Se così fosse, con GT300 avrà risolto il problema?
masty_<3
07-10-2009, 14:45
Secondo me non ce la fa. Dicono altri (visto che io sono fra quelli a cui non piace questa soluzione) che se non ci metti almeno un G92 non ce la fai.
Ma le schede no... :rolleyes:
Certo se nVidia ha tutte queste difficoltà a produrre un chip grosso come questo emote: :asd: non si sa come possa riuscire infine a tirar fuori un chip gigantesco come G300...
scusa, cosa c'è nel tuo avatar? :stordita:
comunque realmente non capisco più nulla... ste schede non dovevano uscire millenni fa? o ricordo io male?:confused:
Evangelion01
07-10-2009, 14:53
Ecco la risposta nvidia alle 58x0 :asd:
Kimera O.C.
07-10-2009, 14:56
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Meglio una 4770 :Prrr:
Ho vinto qualche cosa :rotfl: :yeah: :winner: :tapiro:
Kimera O.C.
07-10-2009, 14:59
Sono state annunciate millenni fa e dovevano arrivare in volumi a settembre. Per ora non ce ne è nemmeno l'ombra, ma sono da integrazione per gli OEM, quindi dovresti cercarli nel listini di DELL, HP, ACER, anche se non mi risulta sia stata dottata da nessuno.
Nel mio avatar c'è la scheda tarocca che l'amministratore delegato di nVidia ha mostrato alla stampa come la nuova architettura. Nell'avatar si nota uno dei particolari che mostrano che è una patacca.
Sembra la Ferrari fatta in cina ..... ma quella almeno aveva la scocca uguale ma un motere diesel e funzionava :sofico:
capitan_crasy
07-10-2009, 15:14
Nvidia presenterà a metà mese queste prime sue GPU DX10.1 per il mercato entry lever, mentre ATI presenterà negli stessi giorni le GPU DX11 per il mercato mainstream...
:stordita:
Proprio un periodo nero per nvidia...:(
appleroof
07-10-2009, 15:21
Sono state annunciate millenni fa e dovevano arrivare in volumi a settembre. Per ora non ce ne è nemmeno l'ombra, ma sono da integrazione per gli OEM, quindi dovresti cercarli nel listini di DELL, HP, ACER, anche se non mi risulta sia stata dottata da nessuno.
Nel mio avatar c'è la scheda tarocca che l'amministratore delegato di nVidia ha mostrato alla stampa come la nuova architettura. Nell'avatar si nota uno dei particolari che mostrano che è una patacca.
senza offesa (se eri tu) ma lo preferisco senza dubbio a quel tipo con la faccia tatuata che avevi prima: nu se poteva guardà :D :D
Nvidia presenterà a metà mese queste prime sue GPU DX10.1 per il mercato entry lever, mentre ATI presenterà negli stessi giorni le GPU DX11 per il mercato mainstream...
:stordita:
Proprio un periodo nero per nvidia...:(
ah...allora sono dx10.1
g.luca86x
07-10-2009, 15:49
Nvidia presenterà a metà mese queste prime sue GPU DX10.1 per il mercato entry lever, mentre ATI presenterà negli stessi giorni le GPU DX11 per il mercato mainstream...
:stordita:
Proprio un periodo nero per nvidia...:(
considerando che si grattano dai tempi dell'esordio della serie 8800, rimaneggiando sempre la stessa architettura (e alla fine non vorrei finisse come quando si rimesta il letame...) direi che si sono adagiati troppo sugli allori! Che si dessero una bella mossa perchè voglio vedere fin quando gli dura la favola del marketing senza prodotti...
forse nvidia ha altri problemi, ben più gravi...
http://translate.google.it/translate?js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.semiaccurate.com%2F2009%2F10%2F06%2Fnvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market%2F&sl=en&tl=it&history_state0=
http://translate.googleusercontent.com/translate_c?hl=it&ie=UTF-8&sl=en&tl=it&u=http://www.semiaccurate.com/2009/10/06/nvidia-will-crater-gtx260-and-gtx275-prices-soon/&prev=_t&rurl=translate.google.it&usg=ALkJrhju4PEpFxjvDlkLSD0UHQL9ZAgwJg
g.luca86x
07-10-2009, 16:11
forse nvidia ha altri problemi, ben più gravi...
http://translate.google.it/translate?js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.semiaccurate.com%2F2009%2F10%2F06%2Fnvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market%2F&sl=en&tl=it&history_state0=
http://translate.googleusercontent.com/translate_c?hl=it&ie=UTF-8&sl=en&tl=it&u=http://www.semiaccurate.com/2009/10/06/nvidia-will-crater-gtx260-and-gtx275-prices-soon/&prev=_t&rurl=translate.google.it&usg=ALkJrhju4PEpFxjvDlkLSD0UHQL9ZAgwJg
Rientra tutto nell'altra news in cui si dice che sia nvidia che ati stiano spingendo per un abbandono dei chip a 55nm a favore dei loro 40nm, ricorrendo anche a limitazioni delle forniture di gpu. Su semiaccurate citano solo nvidia ma se non sbaglio è una pratica anche dei rossi. Il problema è che la cosa puzza quasi come un cartello perchè se ati dovrebbe uscire entro dicembre con la serie 5000 mainstream (le 5750 e 5770 se non erro), quindi passabile che cerchi di far migrare verso le nuove proposte, nvidia non ha uno straccio di nulla da controproporre. In sostanza se ati ha un motivo plausibile ma poco condivisibile per bvoicottare rv770 non vedo per nvidia altro motivo se non fare cartello per il boicottaggio del gt200!
edit: prossima volta metti il link alla news originale invece di quella tradotta da google, è orripilante le traduzioni che fa google e credo che qui l'inglese lo mastichino la maggioranza! :D Altrimenti non le capirebbe nessuno le news riportate perchè lessicalmente e grammaticalmente incomprensibili...
nudo_conlemani_inTasca
07-10-2009, 16:22
ma non è meglio il core integrato nelle mainboard di ultima generazione a sto punto???
boh.. :-\
forse nvidia ha altri problemi, ben più gravi...
http://translate.google.it/translate?js=y&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.semiaccurate.com%2F2009%2F10%2F06%2Fnvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market%2F&sl=en&tl=it&history_state0=
http://translate.googleusercontent.com/translate_c?hl=it&ie=UTF-8&sl=en&tl=it&u=http://www.semiaccurate.com/2009/10/06/nvidia-will-crater-gtx260-and-gtx275-prices-soon/&prev=_t&rurl=translate.google.it&usg=ALkJrhju4PEpFxjvDlkLSD0UHQL9ZAgwJg
Certo che se ti basi sulle affermazioni di Charlie Demerjian...
la domanda piu' scontata è: ma funziona physx con ste vga? è una settimana che nvida ci bombarda con physx cuda e cavolate varie e poi come probabile ste vga se cosi si possono definire non avranno nessuna di queste feature......integrate nella scheda madre o nel processore potrebbero avere un senso ma discrete addirittura.....:rolleyes:
Erythraeum
07-10-2009, 17:05
la domanda piu' scontata è: ma funziona physx con ste vga?
Per il Physx c'è bisogno di almeno 256mb di vram e di 32sp... quindi solo la GT220
Certo che se ti basi sulle affermazioni di Charlie Demerjian...
calma, ho detto "forse", è una news da verificare...... mica è un delitto postare news, quando qui alcune cose "sfuggono"...
edit: prossima volta metti il link alla news originale invece di quella tradotta da google, è orripilante le traduzioni che fa google e credo che qui l'inglese lo mastichino la maggioranza! :D Altrimenti non le capirebbe nessuno le news riportate perchè lessicalmente e grammaticalmente incomprensibili...
si, mi sa che è meglio, cmq è facile, basta togliere la parte iniziale dell'indirizzo e si ha l'originale.
80 euro per una GT220 sono tantissimi, allo stesso prezzo (ma anche minore) ci si prendono schede ben più potenti.
la domanda piu' scontata è: ma funziona physx con ste vga? è una settimana che nvida ci bombarda con physx cuda e cavolate varie e poi come probabile ste vga se cosi si possono definire non avranno nessuna di queste feature......integrate nella scheda madre o nel processore potrebbero avere un senso ma discrete addirittura.....:rolleyes:
Tutte le GPU da G80 in poi supportano CUDA.
Tanto per la cronaca, non è che in questo periodo NVIDIA abbia emesso chissà quanti comunicati stampa, sono i giornalisti che dopo aver partecipato ad alcune sessioni della GTC hanno scritto le news.
g.luca86x
07-10-2009, 17:23
80 euro per una GT220 sono tantissimi, allo stesso prezzo (ma anche minore) ci si prendono schede ben più potenti.
restando tra i verdi c'è una ben migliore 9600gt... Queste, se ricordo bene la vecchia news, sono schede nate per gli oem solo per poter avere il supporto ad aero in concomitanza con l'uscita di seven. All'epoca (luglio :asd:) non si era parlato di mercato retail per tali scheducole... Boh, con nvidia chi ci capisce qualcosa è bravo! Sembrano i topi su una nave che affonda (pur essendo nvidia una nave che non affonda)!
g.luca86x
07-10-2009, 17:25
Tutte le GPU da G80 in poi supportano CUDA.
Tanto per la cronaca, non è che in questo periodo NVIDIA abbia emesso chissà quanti comunicati stampa, sono i giornalisti che dopo aver partecipato ad alcune sessioni della GTC hanno scritto le news.
il peggiore resta sempre quello che dice che le dx11 sono inutili! Ora che si è visto che gt300 non dovrebbe avere il tesseletor in hardware capisco il perchè di tali affermazioni...
calma, ho detto "forse", è una news da verificare...... mica è un delitto postare news, quando qui alcune cose "sfuggono"...
Basarsi su Charlie Demerjian anche solo per delle supposizioni è come tirare a sorte, ha più e più volte dimostrato di essere totalmente inaffidabile.
Poi io non mi sono lamentato del fatto che hai postato le sue "news", volevo soltanto sottolineare che non si può fare molto affidamento su quello che dice, per usare un eufemismo, sopratutto se sta parlando di NVIDIA.
Credo che il marketing di AMD o Intel potrebbe fornire informazioni più oggettive.
il peggiore resta sempre quello che dice che le dx11 sono inutili! Ora che si è visto che gt300 non dovrebbe avere il tesseletor in hardware capisco il perchè di tali affermazioni...
Vedi? è proprio questo che volevo dire.
Mi trovi la parte dove Hara dice che le dx11 sono inutili?
Meglio una 4770 :Prrr:
Ho vinto qualche cosa :rotfl: :yeah: :winner: :tapiro:
Dato che sie stato cortese e simpatico hai vinto, si!
g.luca86x
07-10-2009, 17:50
Vedi? è proprio questo che volevo dire.
Mi trovi la parte dove Hara dice che le dx11 sono inutili?
http://www.tomshw.it/news.php?newsid=19403&comment_page=0
g.luca86x
07-10-2009, 17:58
comunque nvidia stupisce tutti con queste grandi novità mentre ati: http://www.bit-tech.net/hardware/graphics/2009/10/07/first-look-ati-radeon-hd-5770/1
capitan_crasy
07-10-2009, 18:05
comunque nvidia stupisce tutti con queste grandi novità mentre ati: http://www.bit-tech.net/hardware/graphics/2009/10/07/first-look-ati-radeon-hd-5770/1
"Page not found"
Mi sa che NDA di ATI/AMD si è incazzato...:asd::D
roccia1234
07-10-2009, 18:09
possono essere schede interessanti per un htpc, ma a 50€ e 80 € secondo me sono completamente fuori mercato. Se le vendessero a 30 e 40-45 euro, già la cosa avrebbe più senso.
quando ho letto il titolo mi è venuta in mente subito un'altra ideea...purtroppo ancora niente...
Futura12
07-10-2009, 18:17
Il GT220 a me pare una scheda ridicola....voglio dire 80€? neanche gli OEM che sicuramente avranno forti sconti a simili cifre le prendono in considerazione.
A quel prezzo ora c'è la 4850.
g.luca86x
07-10-2009, 18:19
"Page not found"
Mi sa che NDA di ATI/AMD si è incazzato...:asd::D
:doh: allora ho fatto giusto in tempo a leggerla! Sostanzialmente era la preview della 5770! Ve la descrivo: lunga 21cm con dissipatore e porte uguali alla serie 5800. Si parla per 5750 di 1120sp a 700MHz che salgono a 825 per la 5770. Memoria GDDR5 @1150MHz per entrambe con bus a 128bit. Curiosa la disposizione dei moduli di memoria sulla scheda con 512MB posti sotto il piano della gpu, sul retro del pcb insomma! Un solo connettore a 6pin di alimentazione e prezzi indicativi tra 130e 150€ per la 5770 e sui 120e per la 5750. Altra curiosità: in quella review si vedeva la gpu sul pcb non ruotata di 45° come 4770&company ma orientata seguendo le direttrici del pcb...
Più brutte non potevano?
Magari mettendoci un dissipatore passivo...
masty_<3
07-10-2009, 19:34
-
leggero ot, ho trovato anche io le immagini fasulle, in arrivo una bella firma :fagiano:
Futura12
07-10-2009, 20:05
Le immagini sono vere, è la scheda ad essere fasulla (anche opportunamente segata in modo da sembrare corta visto che le 5870 sono particolarmente lunghe :asd: )
Na cosa più ridicola non si vedeva da tempo. Non era meglio dire ''annatevene a casa che c'è poco da guardare ma tanto da lavorare?:asd:''
http://www.tomshw.it/news.php?newsid=19403&comment_page=0
Saro ceco forse ma io non vedo scritto da nessuna parte "le DX11 sono inutili".
g.luca86x
07-10-2009, 20:30
Na cosa più ridicola non si vedeva da tempo. Non era meglio dire ''annatevene a casa che c'è poco da guardare ma tanto da lavorare?:asd:''
sarebbe stato decisamente più onorevole! in fondo non hanno presentato nulla lo stesso ma con l'aggravante di aver cercato di prendere la gente per i fondelli...
Futura12
07-10-2009, 20:43
sarebbe stato decisamente più onorevole! in fondo non hanno presentato nulla lo stesso ma con l'aggravante di aver cercato di prendere la gente per i fondelli...
Che poi...sono dei perfetti idioti,lo potevano fare meglio il sample ''finto'' cioè...gli overclockers,appassionati vari,smanettoni...non vedono l'ora di vedere il PCB di una scheda...e quando viene presentata controllano condensatore per condesatore..figurati se ci potevano fregare cosi:mbe:
Facciamo degli esempi dai.
Per esempio quando tirò fuori la storia delle GPU nVidia dei portatili che esplodevano.
Ah no. Era vero.
Oppure quando ha detto che G300 sarebbe stato in ritardo mostruoso.
Ah no. Era vero.
Oppure quando disse che G300 sarebbe stato tutto votato al GPGPU.
Ah no. Era vero.
Oppure quando ha sputtanato nVidia sulla presentazione di Fermi e la scheda patacca che l'amministratore delegato di nVidia aveva in mano.
Ah no. Era vero pure quello.
Oppure quando spara un sacco di cazzate.
Ma andiamo, stai scherzando spero.
Voresti dire che tu consideri Charlie Demerjian una fonte affidabile?
Non sto li ha farti una lista perché non ho voglia di perdere tempo a parlare di un pagliaccio, la cui professionalità con cui presenta le notizie rasenta il ridicolo.
E comunque, gli esempi (imprecisi) che mi hai fatto non sono di certo sue esclusive, ne temporalmente ne nel contenuto.
capitan_crasy
07-10-2009, 20:55
Scusate la domanda:
ma chi diavolo è Charlie Demerjian?
Xam the elder
07-10-2009, 21:05
dai prendiamo 1 ati e 1 nvidia a testa così torniamo tutti amici
Certo. Fammene solo uno di esempi, invece che una lista... :rolleyes:
Quando disse che GT200 sarebbe stato "un nuovo NV30" per NVIDIA.
E visto che ci sei dimmi in cosa gli esempi sarebbero imprecisi, visto che dovevi proprio dirlo... :rolleyes:
Non credo esistano GPU che esplodono.
Il ritardo di GT300 non si conosce, e si possono fare solo congetture.
Dai dati disponibili ad ora GT300 non sarà "tutto votato al GPGPU".
Lui non ha sputtanato nessuno, i giornalisti presenti all'evento si sono accorti subito delle incongruenze presenti nella scheda, hanno chiesto spiegazioni e gli è stato detto che in effetti non avevano a disposizione una scheda che fosse presentabile.
Uno che parte da un'informazione e scava. Insomma uno che fa il lavoro da giornalista.
In più sembra che nVidia gli abbia ammazzato il gatto da come scrive le cose.
A causa di ciò la gente preferisce liquidarlo come cretino invece di leggere quello che scrive. Anche perché lo fa di solito con una certa logica e acume, motivo per cui è difficile andare a controargomentare e molto più facile dire che è un fanboy e infilare la testa sotto la sabbia.
Infatti lavora a semiaccurate.com...
Ed è tenuto in grandissima considerazione dai suoi colleghi.
dai prendiamo 1 ati e 1 nvidia a testa così torniamo tutti amici
io le ho assieme nel case :asd: va bene cosi? :asd:
Io ho la 4550 Low Profile Fanless e credo sia meglio di ste 2 anche se a 55nm
capitan_crasy
07-10-2009, 22:48
Uno che parte da un'informazione e scava. Insomma uno che fa il lavoro da giornalista.
In più sembra che nVidia gli abbia ammazzato il gatto da come scrive le cose.
A causa di ciò la gente preferisce liquidarlo come cretino invece di leggere quello che scrive. Anche perché lo fa di solito con una certa logica e acume, motivo per cui è difficile andare a controargomentare e molto più facile dire che è un fanboy e infilare la testa sotto la sabbia.
Al di là del "vero o falso" degli articoli ti devo dar ragione sull' incredibile astio che nutre verso Nvidia...
Cose del genere le ho viste molto spesso in ambito politico...
Na cosa più ridicola non si vedeva da tempo. Non era meglio dire ''annatevene a casa che c'è poco da guardare ma tanto da lavorare?:asd:''
E aggiungerei
http://i35.tinypic.com/255kys7.jpg
:asd: :asd: :asd: :asd:
Non è stato un nuovo NV30, ma è stato finora impossibile scalarlo nelle fasce basse, tant'è che a distanza di un anno ancora non ci sono derivati, impossibile shrinkarlo a 40nm, ed è stato il primo convinto passo verso il GPGPU con una perdita di efficienza architetturale notevole nei giochi, tant'è che è grande il doppio per andare poco più di RV770. Non è stato un NV30 solo come prestazioni assolute, in tutto il resto forse è stato peggio...
Lo shadercore di GT200 è molto efficente, + di quello di RV770.
GT200 rispetto a G92 guadagna molto in efficenza, l'area del die ha poco a che fare con l'efficenza di un architettura.
In GT200 è stato scelto di introdurre il calcolo in doppia precisione attraverso delle unità dedicate, questo ovviamente a portato ad un aumento dell'area del die per inserire una funzione che non sarebbe stata usata nei giochi.
Non c'è nulla che impedisca la produzione di chip derivati dall'architettura di GT200 attraverso il pp a 40nm, i chip per portatili della serie GTS 200 dovrebbero esserne un esempio andando a coprire la CUDA compute capability 1.2 (stesse funzioni della 1.3 - i calcoli DP) finora rimasta scoperta con G92 alla 1.1 e GT200 alla 1.3.
Siamo agli attacchi semantici, tipico segno di carenze argomentative...
Già che c'eri allora potevi dire che le GPU fissionano, tanto è tutto un discorso di semantica.
nVidia ha detto che è in ritardo... :rolleyes:
Io non ho scritto che non lo sia, NVIDIA a detto entro il 2009, o ci si crede o si possono fare delle ipotesi un po' campate in aria dato che non disponiamo di informazioni sufficienti
Dai dati disponibili ora è certo che è votato al GPGPU.
Io non ho sostenuto il contrario, anzi, ma tu hai scitto "tutto votato al GPGPU"
Sbagliato. I giornalisti presenti, dopo che è uscito quell'articolo di Charlie, si sono accorti dell'inghippo e nVidia ha detto "ma no, non volevamo prendervi per il culo, abbiamo Fermi funzionante ma è brutto a vedersi e quindi vi abbiamo fatto vedere questa (patacca assoluta dicendovi che era fermi)".
Probabilmente è quello che va a raccontare in giro lui.
forse nvidia ha altri problemi, ben più gravi...
http://translate.google.it/translate...istory_state0=
http://translate.googleusercontent.c...SD0UHQL9ZAgwJg
Solitamente evito le notizie provenienti da Charlie Demerjian ma un amico me ne ha parlato cosi vi ho dato un occhiata.
Le news sono state riprese da una rivista in lingua cinese, chiamata Commercial Times.
Quelle che vengono descritte sono chiaramente indice di una fase preparatoria per il lancio di un nuovo prodotto che sostituirà quello corrente.
Ovvero lo stop delle consegne del vecchio prodotto per esaurire le scorte ed un possibile taglio di prezzo per mantenere il prodotto concorrenziale e favorire lo svuotamento dei magazzini.
Quindi se queste informazioni fossero fondate sarebbe un segno positivo riguardo un lancio non troppo inoltrato di GT300.
Bisogna però considerare che la rivista cinese non è un monumento all'affidabilità.
sintopatataelettronica
08-10-2009, 01:24
Molto belle e hypertech: sembrano le schede seriali/PS2 dei 486 :-PPPP
Ma ce l'hanno la porta joystick ? :-P
Na cosa più ridicola non si vedeva da tempo. Non era meglio dire ''annatevene a casa che c'è poco da guardare ma tanto da lavorare?:asd:''
Eppure succede spesso che i produttori utilizzino un cosiddetto "mock up" durante una presentazione, solo che questa volta si è alzato un polverone per niente.
Veramente niente di nuovo, succede anche in altri settori, come quello automobilistico dove spesso le nuove auto presentate non sono altro che una carrozzeria provvisoria costruita su un vecchio modello.
il peggiore resta sempre quello che dice che le dx11 sono inutili! Ora che si è visto che gt300 non dovrebbe avere il tesseletor in hardware capisco il perchè di tali affermazioni...
Fonte?
g.luca86x
08-10-2009, 10:20
basta rileggersi l'articolo di presentazione di fermi, quello del fake per intendersi e soprattutto i commenti di yossarian dove spiega anche ai profani il contenuto delle slides dove è descritta l'architettura nvidia! Il tesselletor inteso nel senso vero delle specifiche manca sul gt300...
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Allora ho vinto, guarda qua: http://www.trovaprezzi.it/prezzo_schede-grafiche_ati_hd3850.aspx
Futura12
08-10-2009, 13:40
Il primo che dice che con lo stesso prezzo si compra una ATI migliore vince un premio...
Allora ho vinto, guarda qua: http://www.trovaprezzi.it/prezzo_schede-grafiche_ati_hd3850.aspx
Anche una 9600GT costa 2 lire e va il triplo di questa inutile GT220.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.