chiudi X

I nomi in codice di due future GPU NVIDIA: GT200b e GT300

I nomi in codice di due future GPU NVIDIA: GT200b e GT300

Su un sito di e-commerce appaiono le specifiche tecniche di due prossime schede video NVIDIA destinate al segmento top di gamma del mercato

di pubblicata il , alle 09:44 nel canale Schede Video
NVIDIA
 
70 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
JohnPetrucci22 Settembre 2008, 11:01 #21
Originariamente inviato da: paolox86
E lo slogan del lancio sarà: Gioca a Crysis a dettagli altissimi a 30 fps!!!!!

LOL
Spellsword22 Settembre 2008, 11:05 #22
tutte balle ste notizie sul gt350, pensateci bene, chip a 55 nm a 830 con ram gddr5 3360 Mhz ci possono anche stare, ma 480 SP a 2075 Mhz assolutamente no! apparte che il die diventerebbe gigantesco, ma già adesso la gtx280 con 240 sp a poco + di 1300 Mhz consuma e dissipa una follia, questa con 480 SP? no no no tutte balle fatte filtrare ad arte per creare attesa e tamponare la situazione..
Mister Tarpone22 Settembre 2008, 11:05 #23
Originariamente inviato da: MiKeLezZ
Una GTX240 a 55nm con 800MHz di core, 2000MHz di sp, 1GB di GDDR5, e 160sp, imho spanerebbe il culo a tutto il mercato, come fece la 8800GT...

Ormai le schedone da 300 euro chi le compra più?


quoto...
A.L.M.22 Settembre 2008, 11:18 #24
Originariamente inviato da: Kharonte85
Quelle del gt300 mi sembrano abbastanza inverosimili...


Infatti.

Originariamente inviato da: DarKilleR
mi chiedo io...

GT300, con 480 SP e bus a 512 bit che occupa meno spazio del GTX280 (anche se è costruita a 55 nm invece di 65 nm) ...a mio avviso è praticamente impossibile...

Poi può essere tutto, ma è più facile che si tratti di una scheda dual GPU...
però dubito enormemente che nVidia riesca a proporla ad un prezzo paragonabile alla 4870X2

Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??


In effetti raddoppiare praticamente G200, mantenendo la stessa superficie, con solo un half node di differenza, mi pare un po' troppo, soprattutto mantenendo il crossbar a 512.
Tra l'altro il bus a 512bit + le GDDR5 non ha molto senso, quando RV770 ha mostrato che il segreto per sfruttare al meglio la banda è aumentare quella interna. E' inutile avere una banda verso la memoria mostruosa (si toccherebbero i 215 GB/s) quando poi internamente avrebbe una banda di sì e no 50 GB/s, con un crossbar classico come quello di G200...
yossarian22 Settembre 2008, 11:33 #25
Questa GPU integrerebbe il doppio di stream processors rispetto alla GPU GT200 utilizzata nelle schede GeForce GTX 280, con una marginale riduzione della superficie complessiva del chip passata a 576 millimetri quadrati. Il bus memoria da 512bit di ampiezza, in abbinamento all'utilizzo di memorie GDDR5, permetterebbe di ottenere un valore di bandwidth massima teorica estremamente elevato, prossimo a 216 Gbytes al secondo ma inferiore ai 230 Gbytes al secondo che hanno a disposizione, in modo congiunto, le due GPU montate sulle schede ATI Radeon HD 4870 X2.

il die size di GT200 è di 576 mm^2; se lo fosse anche quello di GT350 sarebbe delle stesse dimensioni

Originariamente inviato da: DarKilleR
mi chiedo io...

GT300, con 480 SP e bus a 512 bit che occupa meno spazio del GTX280 (anche se è costruita a 55 nm invece di 65 nm) ...a mio avviso è praticamente impossibile...


uno shrink a 55 nm di GT200 farebbe guadagnare circa un 30-35%. Di sicuro un Gt200x2 non entra in un die delle stesse dimensioni dell'attuale. A meno che non si siano fatte altre modifiche (eliminazione delle alu fp64? Aumento del rapporto alu/texture?)

Originariamente inviato da: DarKilleR
mi chiedo io...

Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??


forse per gestire i 2 GB di ram di cui si vocifera

Originariamente inviato da: Spellsword
tutte balle ste notizie sul gt350, pensateci bene, chip a 55 nm a 830 con ram gddr5 3360 Mhz ci possono anche stare, ma 480 SP a 2075 Mhz assolutamente no! apparte che il die diventerebbe gigantesco, ma già adesso la gtx280 con 240 sp a poco + di 1300 Mhz consuma e dissipa una follia, questa con 480 SP? no no no tutte balle fatte filtrare ad arte per creare attesa e tamponare la situazione..


più che altro poco credibile che esca a settembre un refresh di GT200 a 55 nm e dopo neppure 3 msi un chip che, sulla carta, sarebbe un GT200x2 e poco credibile il fatto che la cosa venga annunciata (le vendite della 280+ sarebbero pressochè nulle). In quanto alle dimensioni, dipende da quali modifiche, eventualmente, si farebbero sull'architettura di GT200, però parliamo comunque di un chip, nella migliore delle ipotesi, comunque più grande del GT200 attuale (e non certo più piccolo).
Altre ipotesi:
- hype creato per cercare di frenare le vendite della concorrenza (non sarebbe la prima volta)
- tentativo di farsi pubblicità da parte di qualche sito
- serie di notizie raccolte da varie fonti, tutte con un qualche fondamento, ma assemblate in maniera tale da rendere tutto inverosimile.
A.L.M.22 Settembre 2008, 11:53 #26
Originariamente inviato da: yossarian
forse per gestire i 2 GB di ram di cui si vocifera


Ma non sarebbe inutile, visto che comunque avresti un collo di bottiglia non da poco nel trasferimento delle informazioni interno al chip?
Più aumenta il divario banda interna / vs la memoria più diminuisce l'efficienza nell'uso della banda esterna, no?
man2tek22 Settembre 2008, 11:59 #27
Probabilmente in casa nVidia si parla di una gx2 basata su due gtx200 con processo produttivo a 55nm e di un refresh dello stesso gtx200 a 55 nm con ddr5. Sicuramente qualche appasionato di frankenstain ha pensato di prendere una gx2 fondere i due processori gtx200 e creare il mostro gtx300 con 480 sp e 2G di ram ddr5
gianni187922 Settembre 2008, 12:14 #28
Originariamente inviato da: Kharonte85
Quelle del gt300 mi sembrano abbastanza inverosimili...


ma proprio di pochissimo
yossarian22 Settembre 2008, 12:20 #29
Originariamente inviato da: A.L.M.
Ma non sarebbe inutile, visto che comunque avresti un collo di bottiglia non da poco nel trasferimento delle informazioni interno al chip?
Più aumenta il divario banda interna / vs la memoria più diminuisce l'efficienza nell'uso della banda esterna, no?


attualmente sia RV770 che GT200 hanno MC che gestiscono 2 banchi di ram per ogni canale (256 con 512 MB da un lato e 512 bit con 1 GB dall'altro, con canali di 64 bit, ovvero 32+32).
Passando alle GDDR5 si inizieranno ad adottare moduli di taglio più grande rispetto agli attuali da 64 MB, il che permetterà, ad ogni canale, di gestire un quantitativo di ram maggiore ma sempre suddiviso in due soli banchi. Poichè è improbabile che, per un bel pezzo, si avranno tagli superiori ai 128 MB, qualora un ipotetico chip dovese avere 2 GB di ram sarebbe auspicabile che sia dotato di un bus da 512 bit, in modo da evitare che auemntino le latenze per gli accessi alla ram (4 banchi per canale significa avere più problemi nella gestione di accessi multipli allo stesso gruppo di chip di ram, serviti dallo stesso canale). L'idea del ring bus nasce proprio per ovviare a questo inconveniente, ma, al momento, presenta delle criticità qualora si dovesse gestire un numero di gruppi unità di calcolo superiore a 4 (il cell ne ha 8+1 ma ha codice ottimizzato per la sua architettura, mentre una gpu deve lavorare su codice decisamente più generico)
A.L.M.22 Settembre 2008, 12:25 #30
Originariamente inviato da: yossarian
attualmente sia RV770 che GT200 hanno MC che gestiscono 2 banchi di ram per ogni canale (256 con 512 MB da un lato e 512 bit con 1 GB dall'altro, con canali di 64 bit, ovvero 32+32).
Passando alle GDDR5 si inizieranno ad adottare moduli di taglio più grande rispetto agli attuali da 64 MB, il che permetterà, ad ogni canale, di gestire un quantitativo di ram maggiore ma sempre suddiviso in due soli banchi. Poichè è improbabile che, per un bel pezzo, si avranno tagli superiori ai 128 MB, qualora un ipotetico chip dovese avere 2 GB di ram sarebbe auspicabile che sia dotato di un bus da 512 bit, in modo da evitare che auemntino le latenze per gli accessi alla ram (4 banchi per canale significa avere più problemi nella gestione di accessi multipli allo stesso gruppo di chip di ram, serviti dallo stesso canale). L'idea del ring bus nasce proprio per ovviare a questo inconveniente, ma, al momento, presenta delle criticità qualora si dovesse gestire un numero di gruppi unità di calcolo superiore a 4 (il cell ne ha 8+1 ma ha codice ottimizzato per la sua architettura, mentre una gpu deve lavorare su codice decisamente più generico)


Beh, però ora col bus interno a 1024bit ed il "distributed crossbar" pare che siano riusciti ad unire the best of both worlds.
Ma credi che abbia un senso avere 2GB di ram oggi?
Ossia, non sarebbe meglio puntare ad ottimizzare l'uso di 1GB (sia per le latenze, che per l'uso della banda in percentuale sul totale disponibile, ecc...), che da qui a diversi anni a venire dovrebbe bastare?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^