PDA

View Full Version : GT-200: GPU NVIDIA al debutto in estate


Redazione di Hardware Upg
14-04-2008, 15:40
Link alla notizia: http://www.hwupgrade.it/news/skvideo/gt-200-gpu-nvidia-al-debutto-in-estate_24976.html

200 stream processors per la prossima generazione di GPU top di gamma di NVIDIA, attesa al debutto nel corso dei prossimi mesi

Click sul link per visualizzare la notizia.

Praetorian
14-04-2008, 15:45
ottimo direi...speriamo spariscano presto ste 9800

Micene.1
14-04-2008, 15:46
un miliardo di transistor...pazzesco...anche solo 5 anni fa era impensabile in una gpu

Dexther
14-04-2008, 15:48
Ooooooh! Finalmente qualcosa di realmente nuovo :cool:

lowenz
14-04-2008, 15:49
Un miliardo è veramente tanto :|

Non oso immaginare i tempi di simulazione.....

D4N!3L3
14-04-2008, 15:53
"Una scelta tecnica di questo tipo, a fronte di un incremento della complessità del chip video, sembra per molti versi scontata da parte di NVIDIA in quanto le memorie GDDR5, capaci di un sensibile incremento nelle frequenze di clock rispetto ai moduli GDDR3 e GDDR4, non saranno disponibili prima della fine dell'anno per utilizzi in schede video."

Ma quindi non ho capito, le schede usciranno a fine anno perchè monteranno GDDR5 o usciranno prima ma monteranno GDDR3? :mbe:

D3stroyer
14-04-2008, 15:54
ma chi progetta ste cose con miliardi di componenti? o.o

halduemilauno
14-04-2008, 15:55
mi pare che Jeff Brown abbia detto approsimativamente 200 shader infatti dovrebbero essere i 192 che si va dicendo da tempo.
;)

mircocatta
14-04-2008, 15:58
considerando le specifiche più realistiche di quelle dette precedentemente penso e spero che il core sia grande quanto g92, così da non cambiare il dissi che ho già sulla mia 8800gt :D

cmq non penso che faranno più modelli di gt200 (cioè non con g80 e g92 che hanno gioato con rops e SP) ma giocheranno sulla memoria, almeno spero, perchè non ho voglia di comprare la top per poi scoprire che a breve ne esce una ancora più pompata :asd:

Crysis90
14-04-2008, 16:02
Incredibile, dopo 1 anno e mezzo, qualcosa di nuovo, era ora!!!!

TheDarkAngel
14-04-2008, 16:02
sinceramente speravo di più, ero convinto che dopo tanto tempo a propinare sempre lo stesso chip avrebbero partorito un bel 256shader bello ottimizzato :(

mircocatta
14-04-2008, 16:03
se non sbaglio, il reparto prestazioni della memoria è legato sia con la frequenza delle memorie sia con l'ampiezza del memory controller...
quindi, se da una parte non si hanno le gddr5 si può benissimo recuperare ampliando i 256bit...
tra l'altro passare alle gddr5 chissà quanto ci si perderebbe in latenza..o semplicemente ho detto una marea di caxxate :asd:

mircocatta
14-04-2008, 16:05
sinceramente speravo di più, ero convinto che dopo tanto tempo a propinare sempre lo stesso chip avrebbero partorito un bel 256shader bello ottimizzato :(

dopo il core sarebbe stato un tantinello troppo grosso non credi? scalderebbe troppo.. ;)
per quello dovremo aspettare i 45nm ;)

pierluigi86
14-04-2008, 16:13
chissa se il chip supererà le dimensioni del g80 ovvero 480mm

halduemilauno
14-04-2008, 16:13
cmq i 250 milioni in + di transistor sono/saranno dovuti anche all'aumento delle TU e delle Rops mica solo degli shader. si parla di 96 TU invece di 64 e 32 Rops al posto di 24.
;)

Helldron
14-04-2008, 16:20
Una vocina malefica mi sta dicendo che dovrei aspettare il debutto di GT-200 dato che si prospetta una bomba..però se uno fa così non compra mai e avevo progettato di prendere la 9800 gtx

mircocatta
14-04-2008, 16:23
cmq i 250 milioni in + di transistor sono/saranno dovuti anche all'aumento delle TU e delle Rops mica solo degli shader. si parla di 96 TU invece di 64 e 32 Rops al posto di 24.
;)
24 tra l'altro di una ultra, visto che g92 ne ha 16 di rops :)
per le dimensioni si può fare una proporzione? cioè un aumento generale del 50% per l'aumento delle caratteristiche e una diminuzione del 15% per il passaggio ai 55nm? quindi un 430 mm quadrati?? uff mi sa che l'accelero s1 non ci sta..

appleroof
14-04-2008, 16:24
Una vocina malefica mi sta dicendo che dovrei aspettare il debutto di GT-200 dato che si prospetta una bomba..però se uno fa così non compra mai e avevo progettato di prendere la 9800 gtx

io seguirei la vocina malefica, visto che evidentemente vuoi il massimo, tenuto conto ovviamente che "difficilmente" GT200 costerà quanto la 9800gtx...:asd:

mircocatta
14-04-2008, 16:25
Una vocina malefica mi sta dicendo che dovrei aspettare il debutto di GT-200 dato che si prospetta una bomba..però se uno fa così non compra mai e avevo progettato di prendere la 9800 gtx
ok che non si compra mai però:
se prendi la 9800gtx prendi un chip fatto e rifatto e sempre lo stesso
se prendi gt200 farai un bel passo in avanti..

halduemilauno
14-04-2008, 16:47
ok che non si compra mai però:
se prendi la 9800gtx prendi un chip fatto e rifatto e sempre lo stesso
se prendi gt200 farai un bel passo in avanti..

io ho sempre chiamato questo chip mega chippone sottolineando il lato prestazionale dello stesso. ma esso è imparentato con il G80. per carità un G80 straveduto e stracorretto.
;)

CarmackDocet
14-04-2008, 16:49
...su un altro sito di informazione dice:

"25 Agosto. e saranno 192 shader." e conferma le GDDR5

Non so se si tratta della stessa persona che scrive qui. Questo da come parla sembra uno interno (o almeno molto vicino) ad NVidia.

Un altro dice:

"Il 25 Agosto inizia Nvision 08 e 192 SP dovrebbero essere quelli della GT, se non erro, la prima presentata. Per salire fino ai 256 delle TOP.
Sono notizie (o meglio, "voci molto probabili") che si trovano in rete, se si sa cercare.

http://resources.vr-zone.com/newzhun...0/3dmark06.jpg

quasi 17000 punti a 2560x1600."


In ogni caso sembra un vero MOSTRO!!!

Lunica cosa che non capisco... hanno cambiato nome alla "famiglia" per una minestra riscaldata (G92 = die shrink di G80) ma si dice che la nuova architettura si chiamerà 9900... boh!

Ciao

Praetorian
14-04-2008, 16:53
x800? :asd:

fukka75
14-04-2008, 16:54
io ho sempre chiamato questo chip mega chippone sottolineando il lato prestazionale dello stesso. ma esso è imparentato con il G80. per carità un G80 straveduto e stracorretto.
;)

Cioè? GT200 è un'ulteriore evoluzione di G80? :confused: :confused: :mbe:

M4R1|<
14-04-2008, 16:55
ottima news, finalmente nell'aria c'è qualcosa di nuovo!!!

cmq l'aumento prestazionale nn sarà solo dato dall'aumento degli shader e delle altre caratteristi che del chip, ma anche dal bus, dalle memorie e dalla superiori frequenze date dal processo produttivo a 55nm

halduemilauno
14-04-2008, 17:11
...su un altro sito di informazione dice:

"25 Agosto. e saranno 192 shader." e conferma le GDDR5

Non so se si tratta della stessa persona che scrive qui. Questo da come parla sembra uno interno (o almeno molto vicino) ad NVidia.

Un altro dice:

"Il 25 Agosto inizia Nvision 08 e 192 SP dovrebbero essere quelli della GT, se non erro, la prima presentata. Per salire fino ai 256 delle TOP.
Sono notizie (o meglio, "voci molto probabili") che si trovano in rete, se si sa cercare.

http://resources.vr-zone.com/newzhun...0/3dmark06.jpg

quasi 17000 punti a 2560x1600."


In ogni caso sembra un vero MOSTRO!!!

Lunica cosa che non capisco... hanno cambiato nome alla "famiglia" per una minestra riscaldata (G92 = die shrink di G80) ma si dice che la nuova architettura si chiamerà 9900... boh!

Ciao

sono io ma non confermo le gddr5 anzi tutt'altro. leggi bene.
;)

Mparlav
14-04-2008, 17:12
Mi sembra ovvio che l'architettura G80 non venga buttata all'aria di punto in bianco, visto che è ben riuscita.
Altrimenti il testing di 1B di transistor finirebbe l'anno prossimo :-)

Verrà ampliato ed ulteriormente rivisto e corretto il G80, così come un primo passo è stato fatto con G94 e G92 (vedi ottimizzazione del frame buffer)
D'altronde è la stessa cosa che intende fare Amd con RV770.

CarmackDocet
14-04-2008, 17:16
...pensavo confermassi il dubbio sulle GDDR4 :P

Sarà che voglio fortemente le GDDR5... alla fine ho capito quello che volevo :D

grazie

Ciao

mircocatta
14-04-2008, 17:29
Cioè? GT200 è un'ulteriore evoluzione di G80? :confused: :confused: :mbe:

la base è sempre quella, ed è validissima. perchè cambiarla?
e non consideriamolo un rimpasto, perchè di uguale al g80 ha solo il modo in cui fare lavorare le cose(come credo che sia successo con g80 rispetto ai suoi predecessori.. tranne per gli shader unificati ecc), il resto nvidia ha rifatto tutto per metterci tanta tanta roba dentro.
mentre con il g92 ha fatto un semplice rimpasto, portando il g80 da 90nm a 65nm...niente di più e niente di meno

Snyto
14-04-2008, 17:35
"Una scelta tecnica di questo tipo, a fronte di un incremento della complessità del chip video, sembra per molti versi scontata da parte di NVIDIA in quanto le memorie GDDR5, capaci di un sensibile incremento nelle frequenze di clock rispetto ai moduli GDDR3 e GDDR4, non saranno disponibili prima della fine dell'anno per utilizzi in schede video."

Ma quindi non ho capito, le schede usciranno a fine Hanno perchè monteranno GDDR5 o usciranno prima ma monteranno GDDR3? :mbe:
http://gaming.ngi.it/forum/images/ngismiles/arg.gif

halduemilauno
14-04-2008, 17:53
"Una scelta tecnica di questo tipo, a fronte di un incremento della complessità del chip video, sembra per molti versi scontata da parte di NVIDIA in quanto le memorie GDDR5, capaci di un sensibile incremento nelle frequenze di clock rispetto ai moduli GDDR3 e GDDR4, non saranno disponibili prima della fine dell'anno per utilizzi in schede video."

Ma quindi non ho capito, le schede usciranno a fine hanno perchè monteranno GDDR5 o usciranno prima ma monteranno GDDR3? :mbe:

nel titolo è scritto estate.
;)

D4N!3L3
14-04-2008, 18:23
http://gaming.ngi.it/forum/images/ngismiles/arg.gif

Cavolo sorry, stavo scivendo alla svelta e nel frattempo pensavo ad altro.
Può capitare un errore. Edito subito. :stordita:

D4N!3L3
14-04-2008, 18:25
nel titolo è scritto estate.
;)

Si lo so, ma quella frase che ho evidenziato mi ha messo un po' di dubbi addosso. :D

Cocco83
14-04-2008, 20:01
GDDR5 sensibile aumento di frequenza????:confused: :muro: :muro: per quello che ne so io i modelli rullano a 4ghz..... chiamalo piccolo incremento.....

gianni1879
14-04-2008, 20:27
cmq i 250 milioni in + di transistor sono/saranno dovuti anche all'aumento delle TU e delle Rops mica solo degli shader. si parla di 96 TU invece di 64 e 32 Rops al posto di 24.
;)

bei numeri davvero :)

ale0bello0pr
14-04-2008, 21:19
altro che 9800GX2 :rolleyes:

questa è la vera bomba:sofico:
grandi prospettive e grandi numeri...:cool:
Crysis sarà all'altezza?:doh:

Mister Tarpone
14-04-2008, 21:20
altro che 9800GX2 :rolleyes:

questa è la vera bomba:sofico:
grandi prospettive e grandi numeri...:cool:
Crysis sarà all'altezza?:doh:

questa GT200 lo macella Crysis ;)

aaasssdddfffggg
14-04-2008, 21:38
E' questa la scheda video che gli appassionati stanno aspettando.Come ho scirtto in precedenza le 9800gtx e 9800x2 non sono altro che "mosse di mercato"per ingannare l'attesa.

marchigiano
14-04-2008, 21:50
una scheda del genere quindi dovrebbe stracciare tutte le attuali 2x? buono... finalmente si ritorna sani di mente...

spero che la ram non faccia da collo di bottiglia, il bus dovrebbe essere almeno da 512bit secondo me... e come quantitativo credo che 1gb sia l'optimum dato che con una scheda del genere si dovrebbe giocare ad oltre 1900 di risoluzione e texture e ombre al massimo che succhiano un sacco di memoria...

prezzi? sui 400 euro? certo tutto dipende da quello che butta fuori amd...

gervi
14-04-2008, 22:07
ottima news, finalmente nell'aria c'è qualcosa di nuovo!!!

cmq l'aumento prestazionale nn sarà solo dato dall'aumento degli shader e delle altre caratteristi che del chip, ma anche dal bus, dalle memorie e dalla superiori frequenze date dal processo produttivo a 55nm

nuovo un corno!

non capisco poi , ancora , x che xazzo non integrino il supporto alla tassellazione e quindi alle api directx 10.1 , dato che sono lo standard di vista!!

non tanto x le prestazioni , ma quanto x la compatibilità e la maggiore facilità di sviluppo che le dx 10.1 consentono di fare.

Ati si........nvidia no.boo??????

poi dicono che non c'è anarchia hardware!!!!!!!!!!:muro:

A sto punto non supportssero proprio le dx 10 e facesero chip solo dx 9!!!!!!!!!! che senso ha rimanere alle dx 10??????? e non upgradare a 10.1?????

Poi qualcuno si lamenta che con vista , la compatibilità driver dei geforce fà schifo!!!!

Grazie ar xazzo!!!!!

ed_hunter_83
15-04-2008, 00:04
@Cocco83

"sensibile aumento" letteralmente non significa mica che aumenta di poco, ma in modo tangibile... quindi è scritto bene! :D

MenageZero
15-04-2008, 10:33
mi pare che Jeff Brown abbia detto approsimativamente 200 shader infatti dovrebbero essere i 192 che si va dicendo da tempo.
;)

infatti mi pareva strano che improvvisamente fossero ufficialmente 200 esatti ...

... ma cìò potrebbe essere una conferma indiretta che, seppur nettamente potenziato (e forse era anche ora di un movimento almeno in questo), architetturalmente siamo sempre lì al g80 ... :(
(per chi non cogliesse al volo il riferimento, consiglio di cercare lo schema a blocchi di g8x/g9x che è auto esplicativo relativamente all'importanza di "192 vs 200" ;) )

non che, ovviamente, g8x/g9x sia qualcosa di negativo in sé ... solo che mi piace leggere gli articoli sulle novità ... :sofico:
(va be' a questo punto :sperem: in una nuova arch. per il 2009 da nv e/o amdi)

simplelight
15-04-2008, 10:42
finalmente un bel balzo prestazionale in vista! cmq volevo dire a chi è in ballo adesso ad aggiornare la scheda video che da soddisfattissimo possessore di una 8800 GTS 512 consiglio tutt'ora caldamente questa scheda dall'ottimo rapporto prezzo/prestazioni! (e Crysis mi funge fluido a 1920x1200 tutto elevato senza AA e filtri vari che reputo futili a quella risoluzione...) a meno che si voglia a tutti i costi andare sulla famiglia 9xxx che a parer mio non vale la pena considerare (anche in virtù della nuova architettura in debutto) e per la quale il costo non vale la candela... in alternativa aspettate ancora un pò ;)

mircocatta
15-04-2008, 14:30
nuovo un corno!

non capisco poi , ancora , x che xazzo non integrino il supporto alla tassellazione e quindi alle api directx 10.1 , dato che sono lo standard di vista!!

non tanto x le prestazioni , ma quanto x la compatibilità e la maggiore facilità di sviluppo che le dx 10.1 consentono di fare.

Ati si........nvidia no.boo??????

poi dicono che non c'è anarchia hardware!!!!!!!!!!:muro:

A sto punto non supportssero proprio le dx 10 e facesero chip solo dx 9!!!!!!!!!! che senso ha rimanere alle dx 10??????? e non upgradare a 10.1?????

Poi qualcuno si lamenta che con vista , la compatibilità driver dei geforce fà schifo!!!!

Grazie ar xazzo!!!!!

e chi ci dice che non siano supportate??
ti chiedo, le 10.1 devono avere per forza la tessellazione? sarebbe l'ora che nvidia si metta sotto anche in questo visto che porta vantaggi

gervi
15-04-2008, 15:39
e chi ci dice che non siano supportate??
ti chiedo, le 10.1 devono avere per forza la tessellazione? sarebbe l'ora che nvidia si metta sotto anche in questo visto che porta vantaggi

e certo.........le dx 10.1 non possono prescindere , dall tassellazione , xchè è uno standard.

I vantaggi sono:


1 Maggior facilità di sviluppare contenuti grafici

2 possibilità di generare oggetti con milioni di poligoni, partendo da superfici bidimensionali con pochissimi poligoni , Ergo: nessul calo prestazionale pur avendo immagini di oggetti poligonali da rendering cinematico eccellente.

Ecco xchè mi chiedo , come mai nvidia non parla a tal proposito.

A prescindere dall'architettura di un chip video, e di come gestisce le risorse, la TASSELLAZIONE è una Manna dal cielo, un algoritmo eccellente.

mircocatta
15-04-2008, 15:43
e certo.........le dx 10.1 non possono prescindere , dall tassellazione , xchè è uno standard.

I vantaggi sono:


1 Maggior facilità di sviluppare contenuti grafici

2 possibilità di generare oggetti con milioni di poligoni, partendo da superfici bidimensionali con pochissimi poligoni , Ergo: nessul calo prestazionale pur avendo immagini di oggetti poligonali da rendering cinematico eccellente.

Ecco xchè mi chiedo , come mai nvidia non parla a tal proposito.

A prescindere dall'architettura di un chip video, e di come gestisce le risorse, la TASSELLAZIONE è una Manna dal cielo, un algoritmo eccellente.

scusami l'ignoranza, per prescindere intendi che sono nelle 10.1 quindi per avere le 10.1 bisogna per forza avere la tassellazione? scusami :stordita:

cmq nvidia non ha detto da nessuna parte che non avrà le 10.1...anche se trovo strano il fatto ce tempo addietro le abbia snobbate perchè ritenute quasi inutili e portava pochi vantaggi..boh!:fagiano:

gervi
15-04-2008, 15:56
scusami l'ignoranza, per prescindere intendi che sono nelle 10.1 quindi per avere le 10.1 bisogna per forza avere la tassellazione? scusami :stordita:

cmq nvidia non ha detto da nessuna parte che non avrà le 10.1...anche se trovo strano il fatto ce tempo addietro le abbia snobbate perchè ritenute quasi inutili e portava pochi vantaggi..boh!:fagiano:

si bisogna x forza avere la tassellazione.

perchè l'aggiornamento a dx 10.1 è stato fatto proprio x questo.

ma i vantaggi che porta sono notevoli alivello di facilità di sviluppo, qiundi si fanno giochi + velocemente all'atto pratico , e oggetti molto molto ma molto + dettagliati , con un calo di prestazioni praticamente insignificante.

un pò come fu l'introduzione delle 3dc normal map compresse, ai tempi delle ATI X800!

D4N!3L3
15-04-2008, 16:00
e certo.........le dx 10.1 non possono prescindere , dall tassellazione , xchè è uno standard.

I vantaggi sono:


1 Maggior facilità di sviluppare contenuti grafici

2 possibilità di generare oggetti con milioni di poligoni, partendo da superfici bidimensionali con pochissimi poligoni , Ergo: nessul calo prestazionale pur avendo immagini di oggetti poligonali da rendering cinematico eccellente.

Ecco xchè mi chiedo , come mai nvidia non parla a tal proposito.

A prescindere dall'architettura di un chip video, e di come gestisce le risorse, la TASSELLAZIONE è una Manna dal cielo, un algoritmo eccellente.

Figo, certo che se non aggiungono il supporto alle DX10.1 nemmeno a queste schede mi sembrano davvero bischeri come si dice dalle mie parti. :mbe:

Che aspettano? :rolleyes:

gervi
15-04-2008, 17:36
Figo, certo che se non aggiungono il supporto alle DX10.1 nemmeno a queste schede mi sembrano davvero bischeri come si dice dalle mie parti. :mbe:

Che aspettano? :rolleyes:

e si x questo da mesi , mi chiedo come mai nvidia non parla di dx 10.1.

si è vero, hanno compiuto un ottimo passo integrando physix nel loro cuda e quindi nei loro chip, x elaborare la fisica , ma se supportassero dx 10.1.......sarebbero davvero a "cavallo" come si suol dire.

ora ati , invece ha dx 10.1 , xò nel supporto della fisica nelle sue gpu è ancora a zero.

insomma ora entrambi i concorrenti hanno comunque in verità , la mancanza di 2 importanti tasselli x il prossimo futuro.

Vedremo , spero che almeno ati riesca a supportare la fisica, comprando in licenza almeno uno standar algoritmico, tipo Havok di intel o physix di nvidia.

ci spero.

alex oceano
15-04-2008, 17:43
gt 200 ancor più potenza!!!???? incredibile la mia asus 8800 Gt è una bomba!!! giocando a need for speed pro street a 1680x1050 e tutti i filtri attivi non rallenta mai!!!!!

D4N!3L3
15-04-2008, 18:31
gt 200 ancor più potenza!!!???? incredibile la mia asus 8800 Gt è una bomba!!! giocando a need for speed pro street a 1680x1050 e tutti i filtri attivi non rallenta mai!!!!!

Hai mai giocato a Crysis? :asd:

aaasssdddfffggg
15-04-2008, 18:31
Il GT200 dovrebbe essere DirectX 10.1 ma prima della sua uscita ci saranno ancore i g92 a 55nm questa volta.Soltanto dopo questi uscirà il gt200 quindi è molto problabile dopo l'estate:

"More and more GT200 information has started circulating and that could only mean that we're closing in on the final tuning. The chip was taped out just recently, which means that it's lagging the RV770 by a couple of months, but most importantly, NVIDIA doesn't have to launch a new chip today. It already has competitive chips on the market. While G92 and G92b (55nm) will not offer any architectural advancements, GT200 will. DirectX 10.1 is suppose to be one of them. We know for a fact that the chip will be in the 1 billion transistor range, some say even up to 1.3 billion, at 65nm.

Unlike AMD/ATI, NVIDIA is not expected to use GDDR5. Instead it will go for a more complex PCB with GDDR3, which means a wider bus instead of higher memory frequency. GDDR3 chips tops out at 1100MHz today. We expect GT200 to use these chips, and with a 512-bit bus it puts it on par with RV770 and its 256-bit bus and 4GHz GDDR5 memory.

The clusters have changed from 16 shaders per cluster to 24 per cluster, most likely MADD + MUL, and 10 clusters with the high-end part, which means 240 shaders all in all. These will be accompanied by 32 ROPs, 120 TMUs and 120 TFUs. The core clock will hopefully be in the area of 600-650MHz, which means shader clocks around 1500MHz.

As mentioned above, you won't see the card anytime soon, but it's not because it won't be ready but because NVIDIA doesn't have to launch it to stay on top. This is a single core chip, and rumors are that there will be more than plenty of stripped down versions, if needed. It all depends on what AMD/ATI delivers.

We're guessing late Q3 or early Q4, time will tell. And this is not the GeForce 9900 series. The 9900 series will be based on the 55nm G92b core.

http://www.nordichardware.com/news,7644.html

D4N!3L3
15-04-2008, 18:44
Il GT200 dovrebbe essere DirectX 10.1 ma prima della sua uscita ci saranno ancore i g92 a 55nm questa volta.Soltanto dopo questi uscirà il gt200 quindi è molto problabile dopo l'estate:

"More and more GT200 information has started circulating and that could only mean that we're closing in on the final tuning. The chip was taped out just recently, which means that it's lagging the RV770 by a couple of months, but most importantly, NVIDIA doesn't have to launch a new chip today. It already has competitive chips on the market. While G92 and G92b (55nm) will not offer any architectural advancements, GT200 will. DirectX 10.1 is suppose to be one of them. We know for a fact that the chip will be in the 1 billion transistor range, some say even up to 1.3 billion, at 65nm.

Unlike AMD/ATI, NVIDIA is not expected to use GDDR5. Instead it will go for a more complex PCB with GDDR3, which means a wider bus instead of higher memory frequency. GDDR3 chips tops out at 1100MHz today. We expect GT200 to use these chips, and with a 512-bit bus it puts it on par with RV770 and its 256-bit bus and 4GHz GDDR5 memory.

The clusters have changed from 16 shaders per cluster to 24 per cluster, most likely MADD + MUL, and 10 clusters with the high-end part, which means 240 shaders all in all. These will be accompanied by 32 ROPs, 120 TMUs and 120 TFUs. The core clock will hopefully be in the area of 600-650MHz, which means shader clocks around 1500MHz.

As mentioned above, you won't see the card anytime soon, but it's not because it won't be ready but because NVIDIA doesn't have to launch it to stay on top. This is a single core chip, and rumors are that there will be more than plenty of stripped down versions, if needed. It all depends on what AMD/ATI delivers.

We're guessing late Q3 or early Q4, time will tell. And this is not the GeForce 9900 series. The 9900 series will be based on the 55nm G92b core.

http://www.nordichardware.com/news,7644.html

Speriamo per le DX10.1, immaginavo comunque con l'uscita di un ulteriore refresh che GT200 non sarebbe arrivato prestissimo. Secondo me si finisce a Novembre.

gervi
15-04-2008, 18:56
Il GT200 dovrebbe essere DirectX 10.1 ma prima della sua uscita ci saranno ancore i g92 a 55nm questa volta.Soltanto dopo questi uscirà il gt200 quindi è molto problabile dopo l'estate:

"More and more GT200 information has started circulating and that could only mean that we're closing in on the final tuning. The chip was taped out just recently, which means that it's lagging the RV770 by a couple of months, but most importantly, NVIDIA doesn't have to launch a new chip today. It already has competitive chips on the market. While G92 and G92b (55nm) will not offer any architectural advancements, GT200 will. DirectX 10.1 is suppose to be one of them. We know for a fact that the chip will be in the 1 billion transistor range, some say even up to 1.3 billion, at 65nm.

Unlike AMD/ATI, NVIDIA is not expected to use GDDR5. Instead it will go for a more complex PCB with GDDR3, which means a wider bus instead of higher memory frequency. GDDR3 chips tops out at 1100MHz today. We expect GT200 to use these chips, and with a 512-bit bus it puts it on par with RV770 and its 256-bit bus and 4GHz GDDR5 memory.

The clusters have changed from 16 shaders per cluster to 24 per cluster, most likely MADD + MUL, and 10 clusters with the high-end part, which means 240 shaders all in all. These will be accompanied by 32 ROPs, 120 TMUs and 120 TFUs. The core clock will hopefully be in the area of 600-650MHz, which means shader clocks around 1500MHz.

As mentioned above, you won't see the card anytime soon, but it's not because it won't be ready but because NVIDIA doesn't have to launch it to stay on top. This is a single core chip, and rumors are that there will be more than plenty of stripped down versions, if needed. It all depends on what AMD/ATI delivers.

We're guessing late Q3 or early Q4, time will tell. And this is not the GeForce 9900 series. The 9900 series will be based on the 55nm G92b core.

http://www.nordichardware.com/news,7644.html

cioè scusa, siccome siamo italiani, tradotto, significa che GT 200 non sarà la 9900 gtx in uscita x giugno luglio, giusto???

Ma GT 200 sarà una diciamo ipotetica " 10800 GTX " Con numeri , da quelli che vedo da capogiro , impresionanti..e dovrebbe uscire x novembre dicembre 2008.

Giusto???

D4N!3L3
15-04-2008, 19:02
cioè scusa, siccome siamo italiani, tradotto, significa che GT 200 non sarà la 9900 gtx in uscita x giugno luglio, giusto???

Ma GT 200 sarà una diciamo ipotetica " 10800 GTX " Con numeri , da quelli che vedo da capogiro , impresionanti..e dovrebbe uscire x novembre dicembre 2008.

Giusto???

Io la penso così ed è quello che ho capito dalla news.

gervi
15-04-2008, 19:06
Io la penso così ed è quello che ho capito dalla news.

Ma questo chippone di nuova architettura è prefisto comunque x fine anno???

cioè quelo con 120 tmu ecc eccc.

Oppure si slitta al 2009???

D4N!3L3
15-04-2008, 19:23
Ma questo chippone di nuova architettura è prefisto comunque x fine anno???

cioè quelo con 120 tmu ecc eccc.

Oppure si slitta al 2009???

Mah, non saprei, da una parte penso di si ma IMHO nel periodo natalizio o giù di lì, da un'altra penso anche che Nvidia nel frattempo ha tirato fuori una miriade di schede compresa quella a 55nm che deve uscire e killare i suoi prodotti in così poco tempo mi sembra strano. :boh:

aaasssdddfffggg
15-04-2008, 20:16
Si penso che non la vedremo prima di ottobre e comunque il 9900gtx sarà un g92 a 55nm che uscirà quest'estate quindi non il GT200 che verrà subito dopo (immagino ottobre o novembre).

gervi
16-04-2008, 12:11
chissa se il chip supererà le dimensioni del g80 ovvero 480mm

ultimi minuti............si dice vocine solite, che GT 200 dovrebbe essere a 45 nm x novembre......pare stiano collaborando con tsmc x i 45 nm x le 9900 di fascia media..e subito dopo 45 nm su GT 200....

se le vocine malefiche son vere...........allora meglio aspettare GT 200:)

D4N!3L3
16-04-2008, 12:49
ultimi minuti............si dice vocine solite, che GT 200 dovrebbe essere a 45 nm x novembre......pare stiano collaborando con tsmc x i 45 nm x le 9900 di fascia media..e subito dopo 45 nm su GT 200....

se le vocine malefiche son vere...........allora meglio aspettare GT 200:)

Eh allora aspettiamolo. :D

aaasssdddfffggg
16-04-2008, 12:59
Ecco un ulteriore conferma nel quale si capisce che entro la fine di quest'anno sarà fuori il GT200 sicuramente :

"Nvidia will also have a refresh of its Geforce 9800 GX2 series and these cards will get a faster iteration of the same marchitecture.

We previously reported about GT200 and it looks that the next generation Nvidia is an improved version of its well-known G92, D8P chip. The thing we cannot confirm or deny is alleged 512-bit memory controller but we are certain that the new chip has more than billion transistors. G92 has 754 and making a chip 25 percent bigger shouldn't be an issue.

We suspect that the current 9800 GX2 might drop in price to make the space for the new ultra high-end card, and make them coexist. We simply cannot see Nvidia killing the current GX2 after three months life cycle but you have to bear in mind that Nvidia was late with this dual card but the GT200 remained on its original Q2 2008 schedule.

With the same analogy, the new single card solution might be a GTX / GT / GTS look alike card with one of these chips behind a cooler."

Amph
16-04-2008, 13:34
secondo me a crysis non lu butta giu, al max tutto su very high senza filtri 1680x1050 niente di + per avere 30 fps

corradobernardi
16-04-2008, 14:53
secondo me a crysis non lu butta giu, al max tutto su very high senza filtri 1680x1050 niente di + per avere 30 fps

secondo me a febbraio 2009, un nehalem + GT200 + DDR3 a 1680 tutto al max e aa16 sarà piu che giocabile... mi sa che il Q1 2009 investo nel pc nuovo :D

Amph
16-04-2008, 16:38
secondo me a febbraio 2009, un nehalem + GT200 + DDR3 a 1680 tutto al max e aa16 sarà piu che giocabile... mi sa che il Q1 2009 investo nel pc nuovo :D

non tieni in considerazione che alcuni livelli di crysis ti buttano gli fps anche a -15, non basterà la g200 per giocarlo anche con filtri ed avere SEMPRE 30fps IMHO

D4N!3L3
16-04-2008, 16:55
non tieni in considerazione che alcuni livelli di crysis ti buttano gli fps anche a -15, non basterà la g200 per giocarlo anche con filtri ed avere SEMPRE 30fps IMHO

No ma dai, già con la GX2 non è perfetto ma non va malaccio, secondo me sarà proprio giocabile invece, inoltre ancora non si sanno gli esatti dettagli architetturali sul nuovo chip, aspettiamo quelli per poi fare considerazioni prestazionali.

Imho se Crysis non girasse perfettamente neanche con questa avrebbero toppato alla grande.

!fazz
16-04-2008, 17:01
No ma dai, già con la GX2 non è perfetto ma non va malaccio, secondo me sarà proprio giocabile invece, inoltre ancora non si sanno gli esatti dettagli architetturali sul nuovo chip, aspettiamo quelli per poi fare considerazioni prestazionali.

Imho se Crysis non girasse perfettamente neanche con questa avrebbero toppato alla grande.

x me hanno toppato alla grande i creatori del cryengine non nvidia

aaasssdddfffggg
17-04-2008, 10:10
According to Dailytech GT200 taped out early March. This term means that the GPU-designing part would be pretty much over and they would start to make these chips. They also said that they have had ready GT200-GPUs ready for few weeks [testing + PCB design].

This would mean that Nvidia would be ahead of schedule with GT200; their original roadmap said that GT200 would be launched "Fall 2008", but now it looks more like "Summer 2008". They also said that they would present this next gen at Computex [June 3.]

They also said that Nvidia would start to phase out 9800 GTX and GX2 as early as next month..to make room for GT200.
diet

Dai che ci siamo...

gervi
17-04-2008, 10:29
According to Dailytech GT200 taped out early March. This term means that the GPU-designing part would be pretty much over and they would start to make these chips. They also said that they have had ready GT200-GPUs ready for few weeks [testing + PCB design].

This would mean that Nvidia would be ahead of schedule with GT200; their original roadmap said that GT200 would be launched "Fall 2008", but now it looks more like "Summer 2008". They also said that they would present this next gen at Computex [June 3.]

They also said that Nvidia would start to phase out 9800 GTX and GX2 as early as next month..to make room for GT200.
diet

Dai che ci siamo...


si manon ho capito, allora, questo GT 200 è la 9900 gtx..............o un chip nuovo con , come si vociferava " 240 SP+120 TMU+ DX10.1" ????

cioè se è il G92 refresh a 55 nm, se lo possono tenere, non ci sarebbe nessuna novità!!!

:confused: