GT300, primi dettagli sulla prossima architettura Nvidia

GT300, primi dettagli sulla prossima architettura Nvidia

Emergono le prime informazioni circa l'architettura di nuova generazione con cui Nvidia intende supportare DirectX 11

di pubblicata il , alle 10:11 nel canale Schede Video
NVIDIA
 

A distanza di circa due anni dall'introduzione sul mercato di G80, il processore grafico con cui il colosso americano ha introdotto il supporto a DirectX 10, cominciano ad emergere alcune indiscrezioni circa GT300, specificatamente progettata per le prossime DirectX 11.

Hardware-infos offre così le prime informazioni circa la GPU di nuova generazione che caratterizzerà la roadmap del colosso californiano e che si contraddistinguerà non solo per la compatibilità piena alle nuove DirectX di Microsoft, ma anche per una architettura completamente rinnovata, in grado di offrire performance degne di nota.

Se GT200 è basata su di un meccanismo computazionale SIMD (Single instruction multiple data), GT300 introdurrà il concetto di MIMD (multiple instructions multiple data), consentendo così un aumento prestazionale in diversi scenari di utilizzo. L'organizzazione del cluster ALU (Arithmetic-logic unit), che si occupa della gestione delle operazioni aritmetiche, sarà dinamica e gestita da uno switch "crossbar".

Come per i precedenti salti architetturali, anche in questo caso, Nvidia diminuirà le frequenze di clock e il consumo energetico, introducendo così anche il nuovo processo produttivo a 40nm. In corrispondenza del lancio della prossima generazione di GPU sono anche attese importanti novità sul fronte GPGPU e la piattaforma CUDA. I primi modelli sviluppati sul nuovo processore grafico dovrebbero apparire, secondo le indiscrezioni, nel corso della fine dell'anno, in corrispondenza del lancio di Microsoft Windows 7.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Automator19 Gennaio 2009, 10:17 #1
speriamo davvero in un calo consistente dei consumi.... cavolaccio
zani8319 Gennaio 2009, 10:17 #2
...bah....la vedo grigia x nvidia...non so quanto ridurrà i consumi con una mimd......sono sempre + convinto ke verrà staccata da ati...ma....spettiamo e vediamo....
bs8219 Gennaio 2009, 10:21 #3

Ohhhhh

E si copia da Ati ;-) ... beh dopottuto è la soluzione più efficente.... vedi prestazioni per transistori di Rv770 vs Gt2xx ;-)
giaballante19 Gennaio 2009, 10:22 #4
diminuirà le frequenze di clock?

siamo sicuri di questa affermazione?
viper-the-best19 Gennaio 2009, 10:24 #5
mah..ce n'è di tempo da aspettare..possono succederne di cose...
2012comin19 Gennaio 2009, 10:26 #6
"Nvidia diminuirà le frequenze di clock e il consumo energetico"

cioè?
da quel che mi ricordo la freq della gpu Nvidia sono mediamente attorno ai 650 Mhz dalla serie 7900 o prima... con un range tra i 500 e i 700 circa

è possibile avere qualche info in più?
Joxer19 Gennaio 2009, 10:33 #7
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.
Cialtrone19 Gennaio 2009, 10:35 #8
Di per se, quando si cambia architettura di un processore, un aumento o una diminuzione di frequenza non implicano necessariamente un aumento delle prestazioni e/o dei consumi..dipende tutto da come sono strutturate le unità logiche all'interno! La progettazione di un processore è una cosa terribilmente complessa!
XFer19 Gennaio 2009, 10:38 #9
Premetto che sono uno sviluppatore CUDA.
Le frequenze delle GPU Nvidia sono più complicate.
Gli shader di una 9800 GTX sfiorano gli 1.7 GHz, mentre i ROP vanno attorno a 700 MHz e gli instruction issuer degli shader a 1/4 degli shader.
Per calcolare la capacità di calcolo di picco va preso come riferimento il clock degli shader, quindi nell'esempio che ho fatto circa 1.7 GHz.
Con la serie GT200 a parità di processo (65nm) i clock sono stati abbassati (shader attorno a 1.3 GHz) per via dell'aumento di transistor e quindi di consumo.
Forse con la nuova architettura NVidia userà un clock unico per tutto il chip, e a quel punto gli shader potrebbero viaggiare ad un clock più basso rispetto all'attuale, com'è appunto il caso di ATI.

Piccola osservazione del tutto personale: ho l'impressione che NVidia da G80 in poi abbia iniziato a puntare più sulla flessibilità, e quindi allo sfruttamento della GPU per CUDA e PhysX, che sulle prestazioni "hardcore" in ambito gaming. Ecco che ATI si è rifatta prepotentemente sotto... vedremo, bella comunque la competizione!
halduemilauno19 Gennaio 2009, 11:04 #10
Originariamente inviato da: Joxer
Che belle notizie da uno che aspetta a momenti la gtx295. Ma questo è da sempre il mondo dell'hardware c'è poco da fare.


il GT300 è previsto per novembre.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^