View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
ok non ho tenuto conto dell fasi per cui è impensabile un g300 corto come la 5850?
infatti non sono daccordo, preferisco una scheda corta che vada tanto e che consumi poco!
diciamo che il limite per me è la dim atx 24.4cm ossia come la 5850 9.5".
non ho ancora preso una gtx perchè sono troppo lunghe e non ho preso ancora una ati serie 4 perchè consumavano troppo in idle, adesso prenderò una 5850 anche se spero che nvidia sforni un g300 corto ma mi sa che mi illudo o forse un shrink di g200 a 40nm corto!
Non puoi avere la botte piena e la moglie ubriaca.. o 10 cm in più, oppure 200 mhz in meno, oppure 30 euro in più.. scegli :D
Speriamo che Fermi aiuti gli ingegneri nvidia :sofico:
kiriranshelo
29-09-2009, 14:58
... certo che un 20% di prestazioni in piu' non sono un granchè...
con driver acerbi però
io presumo che la x2 nvida sarà costituita da un chip leggermente depotenziato di Fermi per intenderci gtx380, magari avrà quello della gtx360 oppure magari per ragioni tecniche non riusciranno manco a farlo....chissa vedremo, certo che un 20% di prestazioni in piu' non sono un granchè per una vga che nvida avrebbe voluto lanciare alla modica cifra di 599$ (vedi gtx280 al lancio); direi che dovrà studiare per bene i margini di guadagno perchè a mio avviso la nuova single gpu nvida dovrà avere un prezzo compreso tra i 370$ della 5870 e i presunti 550$ della 5870x2
ma della 5870X2 non si parlava di 670 euro?
Avranno risolto i problemi di produzione di GT 300?
ciccionamente90
29-09-2009, 15:00
599$
:cry:
ma della 5870X2 non si parlava di 670 euro?
Avranno risolto i problemi di produzione di GT 300?
questo per ora non si sa,io mi auguro di si per aver maggiore concorrenza nel mercato.....:)
ed inoltre se ci sono ancora tali problemi, il costo è caricato sul cliente ovviamente, in questo scenario nvida la vedo molto in difficoltà: chip enorme e piu' costoso di evergreen, prestazioni comprese tra le proposte ati high end che non permettono all'azienda di santa clara di fissare il prezzo come vuole (situazione a lei sfavorevole), presunti problemi di produzione e vari posticipi del lancio delle nuove vga, vga in versione depotenziata che si dovrà collocare come prezzo alla 5870......staremo a vedere che succede :)
analizzando meglio il mercato il best scenario delle due aziende monopolistiche è quello che è avvenuto con il lancio di gt200 e evergreen perchè i prezzi, essendo prodotti innovativi rispetto alla concorrenza potevano essere fissati come le due aziende volevano senza una soglia massima di prezzo. Poi il caso g80 non ne parliamo....
ma della 5870X2 non si parlava di 670 euro?
Avranno risolto i problemi di produzione di GT 300?670 in un negozio che la dava in preorder :asd:
ciccionamente90
29-09-2009, 15:03
670 in un negozio che la dava in preorder :asd:
mattacchioni :asd:
ilratman
29-09-2009, 15:05
Non puoi avere la botte piena e la moglie ubriaca.. o 10 cm in più, oppure 200 mhz in meno, oppure 30 euro in più.. scegli :D
Speriamo che Fermi aiuti gli ingegneri nvidia :sofico:
direi invece che si può basta volerlo, io voglio 30 euro in più ma pcb corto!
Per i consumi, in idle(che alla fine è quello che conta a meno che uno non usi un piccì come una console) sarà come le nuove ati?
PS: che cavolo di nome è Fermi:confused:
PS: che cavolo di nome è Fermi:confused:
Mah, hanno usato il nome di un poveraccio di nome Enrico Fermi che, come Tesla, nel tempo libero inventava delle cosette :)
Per i consumi, in idle(che alla fine è quello che conta a meno che uno non usi un piccì come una console) sarà come le nuove ati?
PS: che cavolo di nome è Fermi:confused:
Fermi è stato colui che ha inventato il primo reattore nucleare, han scelto questo nome per rievocare la cosa. Comunque secondo me anche il nome in codice di ati non è dei piu' appropriati, le nuove vga hanno il nome di sempre verde, casomai le avrei chiamate sempre rosse :asd:
ilratman
29-09-2009, 15:13
670 in un negozio che la dava in preorder :asd:
potrei aprire un negozio e mettere le gtx380 in preorder a 750€! :D
poi quando esce le compro a 400 e ci guadagno tantissimo! :sofico:
Mah, hanno usato il nome di un poveraccio di nome Enrico Fermi che, come Tesla, nel tempo libero inventava delle cosette :)
Insomma questa è una lotta di un cipresso contro Fermi.. chissà chi vincerà alla fine.. forse nessuno :stordita:
Insomma questa è una lotta di un cipresso contro Fermi.. chissà chi vincerà alla fine.. forse nessuno :stordita:
direi hemlock contro fermi ;) cipresso a quanto pare è già fuori dai giochi :)
Fermi è stato colui che ha inventato il primo reattore nucleare, han scelto questo nome per rievocare la cosa. Comunque secondo me anche il nome in codice di ati non è dei piu' appropriati, le nuove vga hanno il nome di sempre verde, casomai le avrei chiamate sempre rosse :asd:
in effetti :D comunqe sì mi è venuto in mente ora di questo nome in codice :) sempre meglio fermi come nome italiano, NVIDIA per i suoi sofware usa anche GELATO, SORBETTO ecc.. :asd:
Severnaya
29-09-2009, 15:22
potrei aprire un negozio e mettere le gtx380 in preorder a 750€! :D
poi quando esce le compro a 400 e ci guadagno tantissimo! :sofico:
ma sii pronto a scappare in brasile :asd:
ilratman
29-09-2009, 15:26
direi hemlock contro fermi ;) cipresso a quanto pare è già fuori dai giochi :)
http://www.sustainable-gardening.com/images/hemlock250.jpg VS http://www.davebruns.com/fermi1L.jpg
direi hemlock contro fermi ;) cipresso a quanto pare è già fuori dai giochi :)
che vuol dire hemlock?
Come mostra ratman è molto meglio il confronto tra Fermi e le piante :O
Poi cmq hemlock alla fine sono in pratica 2 cipressi
io tifo per cipresso, scherzi a parte enfatizzavo i codename delle due gpu concorrenti ;)
che vuol dire hemlock?
Come mostra ratman è molto meglio il confronto tra Fermi e le piante :O
Poi cmq hemlock alla fine sono in pratica 2 cipressi
:asd:
http://iosonomia.fotoblog.it/photos/medium_lazise%20066.JPG
hemlock vuol dire cicuta :) stando a google translate :asd:
dai torniamo seri......
Per fortuna non hanno chiamato Gt 300 "Socrate" :O
ilratman
29-09-2009, 15:37
che vuol dire hemlock?
Come mostra ratman è molto meglio il confronto tra Fermi e le piante :O
Poi cmq hemlock alla fine sono in pratica 2 cipressi
hemlock è anche usato per un tipo di pino canadese, ati è canadese, che è quello di cui ho messo la foto!
:asd:
http://iosonomia.fotoblog.it/photos/medium_lazise%20066.JPG
hemlock vuol dire cicuta :) stando a google translate :asd:
dai torniamo seri......
praticamente due cipressi fanno un pino! :D
chissà cosa faranno due fermi? :D
ok tornati seri! :)
Per fortuna non hanno chiamato Gt 300 "Socrate" :O
:sbonk:
comunque tornando seri analizziamo le future gpu high end e le rispettive performance:
5850 80%
5870 100%
gtx295 110% best scenario
gtx380 120%-130% best scenario
5870x2 150% stando alle recensioni attuali di due 5870
sickofitall
29-09-2009, 15:39
:asd:
[IMG]http://iosonomia.fotoblog.it/photos/medium_lazise%20066.JPG[IMG]
hemlock vuol dire cicuta :) stando a google translate :asd:
dai torniamo seri......
come lunghezza direi ci siamo :asd:
a parte gli scherzi, a me non interessa come si chiamano, ma voglio vedere quanti dati macina :sofico:
:sbonk:
comunque tornando seri analizziamo le future gpu high end e le rispettive performance:
5850 80%
5870 100%
gtx295 110% best scenario
gtx380 120%-130% best scenario
5870x2 150% stando alle recensioni attuali di due 5870
dimentichi 5850X2.. probabile 130-140%
dimentichi 5850X2.. probabile 130-140%
vero, quindi la gtx380 è "ingabbiata" prestazionalmente tra le due proposte dual gpu ati.....sempre se con la 5870 non si riuscirà a guadagnare qualche fps in piu' grazie ai driver.....direi che si ripresenta lo stesso scenario di gt200 rv770 o sbaglio?
vero, quindi la gtx380 è "ingabbiata" prestazionalmente tra le due proposte dual gpu ati.....sempre se con la 5870 non si riuscirà a guadagnare qualche fps in piu' grazie ai driver.....direi che si ripresenta lo stesso scenario di gt200 rv770 o sbaglio?
più o meno.. parte l'incognita GT 300, del quale però penso che i valori dati possano essere realistici, bisognerà vedere l'effettivo prezzo di hemlock (sinceramente non ricordo però a quanto uscì la 280GTX..) che potrebbe condizionare il prezzo di reattore nucleare
IMHO Nvidia avrà comunque delle ottime schede, il problema è che non deve sparare dei prezzi troppo alti come con le prime GT200 per poi diventare competitiva solo successivamente(vedi GTX275) :)
più o meno.. parte l'incognita GT 300, del quale però penso che i valori dati possano essere realistici, bisognerà vedere l'effettivo prezzo di hemlock (sinceramente non ricordo però a quanto uscì la 280GTX..) che potrebbe condizionare il prezzo di reattore nucleare
la gtx280 costava 599$ al lancio mentre la gtx260 499$ rispettivamente sui 500 euro e 400 euro :)
la gtx280 costava 599$ al lancio mentre la gtx260 499$ rispettivamente sui 500 euro e 400 euro :)
appunto :(
halduemilauno
29-09-2009, 15:50
Per i consumi, in idle(che alla fine è quello che conta a meno che uno non usi un piccì come una console) sarà come le nuove ati?
PS: che cavolo di nome è Fermi:confused:
Enrico. oggi sarebbe stato il suo compleanno.
la gtx280 costava 599$ al lancio mentre la gtx260 499$ rispettivamente sui 500 euro e 400 euro :)
Allora se è così il rischio è che la situazione si ripeta in maniera quasi identica..
Speriamo solo che nvidia non aspetti il prossimo compleanno di Fermi per farla uscire (ma non credo) :)
IMHO Nvidia avrà comunque delle ottime schede, il problema è che non deve sparare dei prezzi troppo alti come con le prime GT200 per poi diventare competitiva solo successivamente(vedi GTX275) :)
concordo, il problema di nvidia sono i prezzi di lancio troppo alti
ilratman
29-09-2009, 16:13
concordo, il problema di nvidia sono i prezzi di lancio troppo alti
beh se g300 va solo il 20% in più di rv870 la vedo dura proporre una scheda a 600euro quando la 5870 si troverà già sotto i 300!
beh se g300 va solo il 20% in più di rv870 la vedo dura proporre una scheda a 600euro quando la 5870 si troverà già sotto i 300!
spero che nvidia questa volta nn faccia questo sbaglio
ilratman
29-09-2009, 16:18
spero che nvidia questa volta nn faccia questo sbaglio
sarebbe cmq la prima volta i prezzi di nvidia sono sempre stati alineati alle prestazioni rispetto alla concorrenza anche interna alla stessa nvidia!
se esce veramente a 600euro allora avrà le prestazioni almeno doppie della gtx295!
michelgaetano
29-09-2009, 16:19
spero che nvidia questa volta nn faccia questo sbaglio
Beh questa volta non è come GT200 (ricordo: 649$ e 449$ rispettivamente per 280 e 260, subito poi tagliati con l'uscita di RV770, con le povere case come BFG e eVGA a dovere rimborsare addirittura), dove lanciò Nvidia per prima, quindi un minimo si adeguerà ai prezzi.
sarebbe cmq la prima volta i prezzi di nvidia sono sempre stati alineati alle prestazioni rispetto alla concorrenza anche interna alla stessa nvidia!
Vedi sopra :asd:
Beh questa volta non è come GT200 (ricordo: 649$ e 449$ rispettivamente per 280 e 260, subito poi tagliati con l'uscita di RV770, con le povere case come BFG e eVGA a dovere rimborsare addirittura), dove lanciò Nvidia per prima, quindi un minimo si adeguerà ai prezzi.
beh si in effetti la situazione è differente con la serie 5xxx già in circolazione, quindi nvidia se è furba (e spero che lo sia) proporrà un prezzo relativo alla prestazione, rispetto alle vga Ati
michelgaetano
29-09-2009, 16:25
beh si in effetti la situazione è differente con la serie 5xxx già in circolazione, quindi nvidia se è furba (e spero che lo faccia) proporrà un prezzo relativo alla prestazione rispetto alle vga Ati
O lo fa o non vende, semplicemente. Possiamo stare certi che lo farà comunque, certo non può permettersi di perdere clienti in modo sconsiderato :D
O lo fa o non vende, semplicemente. Possiamo stare certi che lo farà comunque, certo non può permettersi di perdere clienti in modo sconsiderato :D
sicuramente e questo poi giocherà a nostro favore :D
sickofitall
29-09-2009, 17:14
sicuramente e questo poi giocherà a nostro favore :D
sicuramente farà prezzi allineati alle sue prestazioni, se per esempio andrà come una 295, il suo prezzo si aggirerà sui 300€ giu di lì, giusto per indurre ati ad abbassare a sua volta il prezzo per vendere le sue schede :D
il cliente ovviamente ringrazia :O
sicuramente farà prezzi allineati alle sue prestazioni, se per esempio andrà come una 295, il suo prezzo si aggirerà sui 300€ giu di lì, giusto per indurre ati ad abbassare a sua volta il prezzo per vendere le sue schede :D
il cliente ovviamente ringrazia :O
è quello che spero :ciapet:
Horizont
29-09-2009, 18:37
se nvidia non muove il :ciapet: mi compro la 5870 :D
sickofitall
29-09-2009, 19:07
se nvidia non muove il :ciapet: mi compro la 5870 :D
auguri
halduemilauno
30-09-2009, 10:05
http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png
;)
ps la parola d'ordine è:
sempre in attesa.
sickofitall
30-09-2009, 10:10
http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png
;)
ps la parola d'ordine è:
sempre in attesa.
bene bene, secondo me un fondo di verità su questo grafico c'è, tutti parlano di una scheda leggermente superiore alla 295...
Andrea deluxe
30-09-2009, 10:23
dopo aver visto la tabella......
mi sono eccitato..... ed ho messo su un film porno in 720p per festeggiare....:sbonk:
Crysis90
30-09-2009, 10:30
http://www.fudzilla.com/content/view/15741/1/
Ci siamo!! Ci siamo!!!
"we can confirm that the card is real and that Nvidia will talk about it today." (parla di GT300).
michelgaetano
30-09-2009, 10:31
http://www.fudzilla.com/content/view/15741/1/
Ci siamo!! Ci siamo!!!
"we can confirm that the card is real and that Nvidia will talk about it today." (parla di GT300).
LOL Fud :asd:
Interessanti i toni con cui scrivono ora, se prima erano semplicemente stupidi, ora mi sa che sono anche pagati :stordita:
dopo aver visto la tabella......
mi sono eccitato..... ed ho messo su un film porno in 720p per festeggiare....:sbonk:
:asd: :asd: :asd:
quoto!!!!!
Andrea deluxe
30-09-2009, 10:39
http://img98.imageshack.us/img98/9090/catturad.png (http://img98.imageshack.us/i/catturad.png/)
freedom07
30-09-2009, 10:45
:yeah: :yeah: :yeah: olè finalmente qualkosa di concreto anke se dovessi aspetta fino a gennaio ma sono sicuro di aver una ottima vga
Kharonte85
30-09-2009, 10:47
http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png
;)
ps la parola d'ordine è:
sempre in attesa.
WoW che numeri! Se facessero tutte le altre versioni riportate in tabella sarebbe molto bello :)
27 Novembre :sperem:
leoneazzurro
30-09-2009, 10:47
Humm..il bus a 512 bit si scontra abbastanza con il diagramma di Rys che mostrava chiaramente 3 blocchi ROPs -> 384 bit.
Chi avrà ragione?
Kharonte85
30-09-2009, 10:49
LOL Fud :asd:
Interessanti i toni con cui scrivono ora, se prima erano semplicemente stupidi, ora mi sa che sono anche pagati :stordita:
Puo' essere comunque è un passo avanti perchè significherebbe che almeno da quel lato sono informati...:asd:
freedom07
30-09-2009, 10:50
Humm..il bus a 512 bit si scontra abbastanza con il diagramma di Rys che mostrava chiaramente 3 blocchi ROPs -> 384 bit.
Chi avrà ragione?
secondo mè conviene aspettare una dimostrazione pratica sempre se la faranno . o la rinvieranno al 22 ottobre ..
Kharonte85
30-09-2009, 10:51
Humm..il bus a 512 bit si scontra abbastanza con il diagramma di Rys che mostrava chiaramente 3 blocchi ROPs -> 384 bit.
Chi avrà ragione?
In effetti in quella tabella si riporta ancora un Bus a 512bit...mmm...così a naso mi paiono piu' probabili i 384bit pero' :boh:
michelgaetano
30-09-2009, 10:55
Se fosse 512, quella tabella sarebbe un fake? :stordita:
Foglia Morta
30-09-2009, 10:59
Humm..il bus a 512 bit si scontra abbastanza con il diagramma di Rys che mostrava chiaramente 3 blocchi ROPs -> 384 bit.
Chi avrà ragione?
Quanto tempo ci vuole per un respin di solito ?
elminister1
30-09-2009, 11:05
Se vogliono fermare le vendite di ATI qualcosa di concreto lo dovranno pur far vedere, giusto per giustificare l'attesa.
halduemilauno
30-09-2009, 11:15
http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx
Just like we disclosed in the first article "nVidia GT300 specifications revealed – it's a cGPU!", nVidia GT300 chip is a computational beast like you have never seen before. In fact, we would go as far out and state that this is as closest as GPU can be to a CPU in the whole history of graphics technology. Now, time will tell whatever GT300 was the much needed revolution.
Beside the regular NV70 and GT300 codenames [codename for the GPU], nVidia's insiders called the GPU architecture - Fermi. Enrico Fermi was an Italian physicist who is credited with the invention of nuclear reactor. That brings us to one of codenames we heard for one of the GT300 board itself - "reactor".
When it comes to boards themselves, you can expect to see configurations with 1.5, 3.0 GB and 6GB of GDDR5 memory, but more on that a little bit later.
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
•3.0 billion transistors
•40nm TSMC
•384-bit memory interface
•512 shader cores [renamed into CUDA Cores]
•32 CUDA cores per Shader Cluster
•1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
•768KB L2 unified cache memory
•Up to 6GB GDDR5 memory
•Half Speed IEEE 754 Double Precision
As you can read for yourself, the GT300 packs three billion transistors of silicon real estate, packing 16 Streaming Multiprocessor [new name for former Shader Cluster] in a single chip. Each of these sixteen multiprocessors packs 32 cores and this part is very important - we already disclosed future plans in terms to this cluster in terms of future applications. What makes a single unit important is the fact that it can execute an integer or a floating point instruction per clock per thread.
TSMC was in charge of manufacturing the three billion transistor mammoth, but it didn't stop there. Just like the G80 chip, nVidia GT300 packs six 64-bit memory controllers for a grand total of 384-bit, bringing back the odd memory capacity numbers. The memory controller is a GDDR5 native controller, which means it can take advantage of built-in ECC features inside the GDDR5 SDRAM memory and more importantly, GT300 can drive GDDR5 memory in the same manner as AMD can with its really good Radeon HD 5800 series. The additional two memory interfaces will have to wait until 28nm or 22nm full node shrinks, if we get to them with an essentially unchanged architecture. You can expect that the lower-end variants of GT300 architecture will pack less dense memory controller for more cost efficiency, especially on the memory side.
GPGPU is dead, cGPU lives!
Just like we reported earlier, GT300 changed the way how the GPU is functioning. If we compare it to the old GT200 architecture, comparisons are breathtaking. Fermi architecture operates at 512 Fused Multiply-Add [FMA] operations per clock in single precision mode, or 256 FMA per clock if you're doing double precision.
The interesting bit is the type of IEEE formats. In the past, nVidia supported IEEE 754-1985 floating point arithmetic, but with GT300, nVidia now supports the latest IEEE 754-2008 floating-point standard. Just like expected, GT300 chips will do all industry standards - allegedly with no tricks.
A GPU supports C++ natively?
Ferni architecture natively supports C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2. Now, you've read that correctly - Ferni comes with a support for native execution of C++. For the first time in history, a GPU can run C++ code with no major issues or performance penalties and when you add Fortran or C to that, it is easy to see that GPGPU-wise, nVidia did a huge job.
To implement ISA inside the GPU took a lot of bravery, and with GT200 project over and done with, the time came right to launch a chip that would be as flexible as developers wanted, yet affordable.
In a nutshell, this is just baseline information about what nVidia is going to introduce in the next couple of weeks. Without any doubt, we can see that nVidia reacted to Larrabee by introducing a part that is extremely efficient, natively support key industry standards and more importantly, doesn't cost an arm and a leg.
The line-up is consisted out of high-end consumer part [GeForce], commercial [Quadro] and scientific [Tesla]. You can expect memory sizes from 1.5GB for consumer GeForce 380 to 6GB for commercial Quadro and Tesla parts.
;)
halduemilauno
30-09-2009, 11:20
WoW che numeri! Se facessero tutte le altre versioni riportate in tabella sarebbe molto bello :)
27 Novembre :sperem:
In effetti in quella tabella si riporta ancora un Bus a 512bit...mmm...così a naso mi paiono piu' probabili i 384bit pero' :boh:
ripeto nel tempo son stati provati ambedue i bus e pare che quello definitivo sia il 384. dopotutto con l'addozione della gddr5 il 512 sarebbe stato esagerato e inutilmente costoso.
;)
Kharonte85
30-09-2009, 11:22
ripeto nel tempo son stati provati ambedue i bus e pare che quello definitivo sia il 384. dopotutto con l'adozione della gddr5 il 512 sarebbe stato esagerato e inutilmente costoso.
;)
Concordo
ripeto nel tempo son stati provati ambedue i bus e pare che quello definitivo sia il 384. dopotutto con l'addozione della gddr5 il 512 sarebbe stato esagerato e inutilmente costoso.
;)
Sulla tabella postata qualche reply fa si parlava di 512; mi chiedo se anche gli altri dati siano una bufala.
mircocatta
30-09-2009, 11:23
i chip nvidia saranno estremamente "cudizzati"?? bene, non comprerò nvidia, non voglio trovarmi con una ciofeca di scheda video che supporta una tecnologia che di qui a poco sparirà
halduemilauno
30-09-2009, 11:24
http://www.fudzilla.com/content/view/15741/1/
Ci siamo!! Ci siamo!!!
"we can confirm that the card is real and that Nvidia will talk about it today." (parla di GT300).
alla fine sta dicendo quel che ho detto io tempo fa ovvero la possibilità che il 30 settembre nvidia poteva parlare del nuovo chip.
staremo a vedere se effettivamente questo avverrà.
;)
halduemilauno
30-09-2009, 11:25
Sulla tabella postata qualche reply fa si parlava di 512; mi chiedo se anche gli altri dati siano una bufala.
no per quel che mi risulta solo il bus e i nomi. e cmq gia dissi dei bus provati.
;)
i chip nvidia saranno estremamente "cudizzati"?? bene, non comprerò nvidia, non voglio trovarmi con una ciofeca di scheda video che supporta una tecnologia che di qui a poco sparirà
cuda è una tecnologia molto importante in ambiti diversi dal gaming e serve per veloccizzare alcuni processi tramite la gpu, cosa che puo' fare assai comodo. Ovviamente per i videogamers è una cosa che non interessa assai
p.s. non confondere cuda con physx, sebbene la fisica sia "protetta" alla concorrenza sfruttando le librerie cuda, son due cose totalmente diverse :)
mircocatta
30-09-2009, 11:29
chissà se, come ati, anche nvidia migliorerà l'af, per ora con le nuove vga ati ha passato gt200, chissà se gt300 sarà almeno al pari di ati, perchè con quei numeri, porca miseria, una ipotetica gtx380 andà mooolto più della gtx295, e varrà la pena aspettare fino al prossimo anno
certo con le ddr5 un bus da 384bit basta e avanza...
ot:oggi mi si è scassata la mia povera 9800gtx,è in rma:cry:
Bastoner
30-09-2009, 11:52
Ma LOL, i Cuda Cores :D che nome ridicolo :asd:
Cmq si prospetta un chip molto potente, speriamo che esca presto.
Simedan1985
30-09-2009, 11:55
Prevedo un attesa molto bollente su questo thread ,pari a quelle delle rosse.....
Cmq nn so se prendere 5870x2 o aspettare gt300 ,cmq mi sembra che come date siamo li li ...inoltre pare essere veramente un 30% piu potende di rv870 questo g300,almeno da quello che si dice adesso.:)
devAngnew
30-09-2009, 12:15
http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx
cut.............
A GPU supports C++ natively?
Ferni architecture natively supports C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2. Now, you've read that correctly - Ferni comes with a support for native execution of C++. For the first time in history, a GPU can run C++ code with no major issues or performance penalties and when you add Fortran or C to that, it is easy to see that GPGPU-wise, nVidia did a huge job.
.............
;)
Ottimo la nuova gpu dovrebbe riuscire similmente a larrabee ad eseguire codice C++ in modo nativo :sbav: , Fortran...oltre a supportare Dx11 OpenGL etc.
nico88desmo
30-09-2009, 12:21
Ottimo la nuova gpu dovrebbe riuscire similmente a larrabee ad eseguire codice C++ in modo nativo :sbav: , Fortran...oltre a supportare Dx11 OpenGL etc.
Tra le cose più interessanti secondo me :D
leoneazzurro
30-09-2009, 12:46
Eh si, sembra un chip molto orientato al GPGPU, ad esempio l"half speed DP" sembra particolarmente indicativo. Da notare che se venissero confermati i clock, avremmo, per i teraflop di picco:
GF100: 1,64 TeraFLOP (SP), 0,82 TeraFLOP (DP)
Cypress: 2.72 TeraFLOP (SP), 0.68 TeraFLOP (DP)
Probabilmente ci sono anche parecchi aggiustamenti verso la capacità GPGPU che non sono ancora rivelati, ad esempio gestione della memoria e della coerenza dei dati, ecc.
ilratman
30-09-2009, 12:49
Ma LOL, i Cuda Cores :D che nome ridicolo :asd:
Cmq si prospetta un chip molto potente, speriamo che esca presto.
potevano chiamarli Cuda Boys! :D
Ottimo la nuova gpu dovrebbe riuscire similmente a larrabee ad eseguire codice C++ in modo nativo :sbav: , Fortran...oltre a supportare Dx11 OpenGL etc.
per supporto indendi che finalmente andrà a meraviglia con le opengl o che "saranno" supportate ma non si sa come?
martinez1983
30-09-2009, 12:56
Ottimo la nuova gpu dovrebbe riuscire similmente a larrabee ad eseguire codice C++ in modo nativo :sbav: , Fortran...oltre a supportare Dx11 OpenGL etc.
Sarebbe un bel colpo!!!;)
Alla luce delle ultime indiscrezioni questo chip implementerrebbe delle belle novità!!!
Oltre al GPGPU, voglio vedere che cosa tira fuori nei giochi!!!!;)
Eh si, sembra un chip molto orientato al GPGPU, ad esempio l"half speed DP" sembra particolarmente indicativo. Da notare che se venissero confermati i clock, avremmo, per i teraflop di picco:
GF100: 1,64 TeraFLOP (SP), 0,82 TeraFLOP (DP)
Cypress: 2.72 TeraFLOP (SP), 0.68 TeraFLOP (DP)
Probabilmente ci sono anche parecchi aggiustamenti verso la capacità GPGPU che non sono ancora rivelati, ad esempio gestione della memoria e della coerenza dei dati, ecc.
Cypress ha 544Gigaflops in DP (versione HD5870).
La differenza in singola precisione sarà enorme! Mi chiedo come possa essere più veloce di Cypress: necessiterebbe di raggiungere un efficenza vicina al 100%, contro uno sfruttamento di solo il 60% degli shader da parte di Cypress. E il caso medio mi pare sia già intorno al 70%!
Mi sa che tantissimi di quei 3B di transistor sono utilizzati per la logica..
nVidia GT300's Fermi architecture unveiled: 512 cores, up to 6GB GDDR5 (http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx)
nVidia GT300's Fermi architecture unveiled: 512 cores, up to 6GB GDDR5 (http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx)
Ma significa che ci saranno versioni di vga a 6 GB di memoria?
E quanto costeranno? Minimo come un monolocale in centro a Milano..:mbe:
sickofitall
30-09-2009, 15:16
Ma significa che ci saranno versioni di vga a 6 GB di memoria?
E quanto costeranno? Minimo come un monolocale in centro a Milano..:mbe:
6gb saranno montati sulle quadro, ossia le schede professionali per grafica ;)
halduemilauno
30-09-2009, 15:21
nVidia GT300's Fermi architecture unveiled: 512 cores, up to 6GB GDDR5 (http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx)
prima di postare link date almeno un'occhiata all'ultima pagina magari ultime due.
;)
6gb saranno montati sulle quadro, ossia le schede professionali per grafica ;)
A ok, meno male, se no toccava fare un leasing per comprarle..
leoneazzurro
30-09-2009, 15:48
Cypress ha 544Gigaflops in DP (versione HD5870).
La differenza in singola precisione sarà enorme! Mi chiedo come possa essere più veloce di Cypress: necessiterebbe di raggiungere un efficenza vicina al 100%, contro uno sfruttamento di solo il 60% degli shader da parte di Cypress. E il caso medio mi pare sia già intorno al 70%!
Mi sa che tantissimi di quei 3B di transistor sono utilizzati per la logica..
Si, hai ragione, Cypress va ad 1/5, non 1/4 (l'1/4 è definito sulle 4 "thin ALU")
devAngnew
30-09-2009, 17:41
potevano chiamarli Cuda Boys! :D
per supporto indendi che finalmente andrà a meraviglia con le opengl o che "saranno" supportate ma non si sa come?
Intendo che probabilmente visto che usi la scheda video a livello professionale dovrai sempre acquistare le Quadro....mentre a livello game farà sempre la sua bella figura....
Sarebbe un bel colpo!!!;)
Alla luce delle ultime indiscrezioni questo chip implementerrebbe delle belle novità!!!
Oltre al GPGPU, voglio vedere che cosa tira fuori nei giochi!!!!;)
Ciao Martinez....
Quoto.
Eh si, sembra un chip molto orientato al GPGPU, ad esempio l"half speed DP" sembra particolarmente indicativo. Da notare che se venissero confermati i clock, avremmo, per i teraflop di picco:
GF100: 1,64 TeraFLOP (SP), 0,82 TeraFLOP (DP)
Cypress: 2.72 TeraFLOP (SP), 0.68 TeraFLOP (DP)
Probabilmente ci sono anche parecchi aggiustamenti verso la capacità GPGPU che non sono ancora rivelati, ad esempio gestione della memoria e della coerenza dei dati, ecc.
Cypress ha 544Gigaflops in DP (versione HD5870).
La differenza in singola precisione sarà enorme! Mi chiedo come possa essere più veloce di Cypress: necessiterebbe di raggiungere un efficenza vicina al 100%, contro uno sfruttamento di solo il 60% degli shader da parte di Cypress. E il caso medio mi pare sia già intorno al 70%!
Mi sa che tantissimi di quei 3B di transistor sono utilizzati per la logica..
Prima di dare sentenze aspettiamo informazioni più dettagliate no....
Quei valori sia in SP che DP sono tutti da verificare...
leoneazzurro
30-09-2009, 18:06
Prima di dare sentenze aspettiamo informazioni più dettagliate no....
Quei valori sia in SP che DP sono tutti da verificare...
Per Cypress no :D
Comunque, che sia un chip piú orientato al GPGPU si capisce anche per certi cambiamenti (oltre che per dichiarazione di Nvidia stessa) come il probabile abbandono del MUL aggiuntivo.
Mercuri0
30-09-2009, 18:12
Bién Bién :D
Imo però nVidia ha impellente necessità di tirar fuori qualche programma anche in campo consumer per rendere concrete le capacità di calcolo di queste robe.
Ci vuole però un vero "salto quantico". Riconoscimento vocale/video come si deve? Processing spinto su Photoshop o programmi video (e già usciamo dal settore consumer....)?
Non vorranno mica convincerci a far girare Folding@Home, che pare sia l'applicazione GPGPU più in voga tra gli enthusiast (che è tutto dire... :rolleyes: )
Inoltre mi chiedo come questa architettura andrà a scalare sui chip mainstream... non vorranno rimarchiare ancora il G92?
Anche perché un un mondo dove ormai si guarda gli Atom e i CULV, l'efficenza e la silenziosità ormai sono prioritarie.
(stesso discorso per Larrabee, sarà un bello scozzo :D)
devAngnew
30-09-2009, 18:13
Per Cypress no :D
Comunque, che sia un chip piú orientato al GPGPU si capisce anche per certi cambiamenti (oltre che per dichiarazione di Nvidia stessa) come il probabile abbandono del MUL aggiuntivo.
Sull'orientamento penso proprio che non ci siano dubbi (visti anche le recenti dichiarazioni di NVIDIA).... io mi riferivo solo alla potenza di calcolo....
leoneazzurro
30-09-2009, 18:24
Sull'orientamento penso proprio che non ci siano dubbi (visti anche le recenti dichiarazioni di NVIDIA).... io mi riferivo solo alla potenza di calcolo....
Beh, da quel poco che si é visto pare chiaro che GF100 sia un chip che é evoluzione di GT200 ma ancora piú orientato al GPGPU. Se l´architettura é quella vista nel diagramma di B3D, possiamo valutare grossomodo la potenza di calcolo a partire dai rumors sul clock. ovvio che i clock poi devono essere finalizzati. La questione é se é vero o meno quell´"half speed DP", ma considerando la propensione di Nvidia verso il GPGPU non mi stupirei piú di tanto. Quello che invece é ancora in dubbio é quanto e cosa potrebbe essere stato sacrificato sull´altare del GPGPU in termini di "potenza utile al gaming per mm^2".
Simedan1985
30-09-2009, 19:49
Scusate la mia ignoranza con i linguaggi tecnici:stordita: ..Ma alla fine per quanto riguarda le prestazioni dei game questo gt300 va meglio o peggio di cypress??Ovviamente ciò che si evince per quello che si sa fino ad adesso.
leoneazzurro
30-09-2009, 19:51
E´ancora tutto da scoprire. Si pensa meglio, peró ad un costo piú elevato.
Nvidia Fermi spec is out, 512 shader cores http://bit.ly/4BHu48
Sara' un mostro nei fatti!
Nvidia e' leader del settore! Che uno sia fanboy o meno,questo e' un dato di fatto!
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura ed il 99% dei lettori non ne capisce niente di grafici o matematica, complice la tendenza ad accettare come reali, veritieri ed assoluti i valori prestazionali in fps, (per giunta calcolati come media) di siti internet molto trafficati! pff!
Sara' un mostro nei fatti!
Nvidia e' leader del settore! Che uno sia fanboy o meno,questo e' un dato di fatto!
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura ed il 99% dei lettori non ne capisce niente di grafici o matematica, complice la tendenza ad accettare come reali, veritieri ed assoluti i valori prestazionali in fps, (per giunta calcolati come media) di siti internet molto trafficati! pff!
:mbe:
michelgaetano
30-09-2009, 20:34
ma che stai a dì?? :asd:
Ignora john, ignora :asd:
Sara' un mostro nei fatti!
Nvidia e' leader del settore! Che uno sia fanboy o meno,questo e' un dato di fatto!
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura ed il 99% dei lettori non ne capisce niente di grafici o matematica, complice la tendenza ad accettare come reali, veritieri ed assoluti i valori prestazionali in fps, (per giunta calcolati come media) di siti internet molto trafficati! pff!
:mbe: :rotfl:
Bastoner
30-09-2009, 20:41
Sara' un mostro nei fatti!
Nvidia e' leader del settore! Che uno sia fanboy o meno,questo e' un dato di fatto!
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura ed il 99% dei lettori non ne capisce niente di grafici o matematica, complice la tendenza ad accettare come reali, veritieri ed assoluti i valori prestazionali in fps, (per giunta calcolati come media) di siti internet molto trafficati! pff!
Oddio :sbonk:
Tu scommetto che fai parte dell'altro 1% :asd:
Mercuri0
30-09-2009, 20:42
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura
Anche l'86% dei post che circolano nei forum
buaahh che post assurdo :D
buaahh che post assurdo :D
Anche l'86% dei post che circolano nei forum
ma che stai a dì?? :asd:
:mbe: :rotfl:
Oddio :sbonk:
Tu scommetto che fai parte dell'altro 1% :asd:
Ignora john, ignora :asd:
Al posto di commentare, segnalate ;) ho fatto io......
gianni1879
30-09-2009, 20:51
Sara' un mostro nei fatti!
Nvidia e' leader del settore! Che uno sia fanboy o meno,questo e' un dato di fatto!
Gli utenti ancora non hanno capito che il 80% dei bench che circolano in rete e' pura spazzatura ed il 99% dei lettori non ne capisce niente di grafici o matematica, complice la tendenza ad accettare come reali, veritieri ed assoluti i valori prestazionali in fps, (per giunta calcolati come media) di siti internet molto trafficati! pff!
direi un pò di vacanza ti potrà schiarire meglio le idee
3gg dovrebbero andare
leoneazzurro
30-09-2009, 21:05
Tornando seri, ecco delle descrizioni della nuova architettura:
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=1
http://forum.beyond3d.com/showthread.php?t=55289
leoneazzurro
30-09-2009, 21:16
Documentazione ufficiale Nvidia:
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf
Chip estremamente orientato al GPGPU, ancora é da capire quali saranno e se ci saranno rinunce in altri settori piú orientati al gaming.
EDIT: Anandtech scrive che difficilmente si vedrá GF100 in volumi prima del Q1, 2010.
http://www.anandtech.com/video/showdoc.aspx?i=3651
Foglia Morta
30-09-2009, 21:25
http://www.anandtech.com/video/showdoc.aspx?i=3651
Documentazione ufficiale Nvidia:
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf
Chip estremamente orientato al GPGPU, ancora é da capire quali saranno e se ci saranno rinunce in altri settori piú orientati al gaming.
Nvidia ha fatta una scelta di campo pesante. Dubito che riusciranno ad essere competitivi contro Cypress nel gaming, ma dal punto di vista del GPGPU hanno fatto un passo avanti ENORME, con prestazioni DP 10x volte superiori dall'architettura di GT200 e tanto altro. Dal punto di vista performance/watt performance/costo in DP sono superiori a tutti i processori sul mercato, rendendo questa GPU una manna del cielo per chi ha necessità di potenza di calcolo a basso costo.
Grande innovazione! Complimenti ad nVidia! :)
For sixteen years, NVIDIA has dedicated itself to building the world’s fastest graphics
processors. While G80 was a pioneering architecture in GPU computing, and GT200 a major
refinement, their designs were nevertheless deeply rooted in the world of graphics. The Fermi
architecture represents a new direction for NVIDIA. Far from being merely the successor to
GT200, Fermi is the outcome of a radical rethinking of the role, purpose, and capability of the
GPU.
Rather than taking the simple route of adding execution units, the Fermi team has tackled
some of the toughest problems of GPU computing. The importance of data locality is
recognized through Fermi’s two level cache hierarchy and its combined load/store memory
path. Double precision performance is elevated to supercomputing levels, while atomic
operations execute up to twenty times faster. Lastly, Fermi’s comprehensive ECC support
strongly demonstrates our commitment to the high-performance computing market.
On the software side, the architecture brings forward support for C++, the world’s most
ubiquitous object-orientated programming language, and Nexus, the world’s first integrated
development environment designed for massively parallel GPU computing applications.
With its combination of ground breaking performance, functionality, and programmability, the
Fermi architecture represents the next revolution in GPU computing.
Nvidia ha fatta una scelta di campo pesante. Dubito che riusciranno ad essere competitivi contro Cypress nel gaming, ma dal punto di vista del GPGPU hanno fatto un passo avanti ENORME, con prestazioni DP 10x volte superiori dall'architettura di GT200 e tanto altro. Dal punto di vista performance/watt performance/costo in DP sono superiori a tutti i processori sul mercato, rendendo questa GPU una manna del cielo per chi ha necessità di potenza di calcolo a basso costo.
Grande innovazione! Complimenti ad nVidia! :)
:confused:
While Fermi will play games, and NVIDIA claims it will do so better than the Radeon HD 5870, it is designed to be a general purpose compute machine.
leoneazzurro
30-09-2009, 21:36
Intende su un piano di prezzo/prestazioni.
3 miliardi di transistors significa avere un chip di circa 500 mm^2
Bastoner
30-09-2009, 21:38
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=1
Bellissimo questo articolo, ti ringrazio per averlo segnalato.
Non conoscevo quel sito, certo che di gente competente in giro ce n'è.....
ovvio che è quasi sicuro che Fermi sia più veloce di cipresso.. ma il dubbio è che a che costo' e quanto più veloce? viceversa è un po' scontato
Intende su un piano di prezzo/prestazioni.
3 miliardi di transistors significa avere un chip di circa 500 mm^2
a quindi che costerà uno sproposito ecco che cosa intende.....
ovvio che è quasi sicuro che Fermi sia più veloce di cipresso.. ma il dubbio è che a che costo' e quanto più veloce? viceversa è un po' scontato
Di sicuro c'è solo una cosa... e non è quella che dici :D
a quindi che costerà uno sproposito ecco che cosa intende.....
Si, e non solo per il consumatore, ma per Nvidia stessa.
Pianificano di guadagnare tonnellate dal settore HPC (militare e scientifico etc), ma se li perdono vendendo GPU sotto costo dove è il guadagno? E comunque si parla di Gennaio per il lancio.. almeno AnandTech dice Q1 2010.
Di sicuro c'è solo una cosa... e non è quella che dici :D
ho detto quasi :O
I asked Jonah if that meant Fermi would take a while to move down to more mainstream pricepoints. Ujesh stepped in and said that he thought I'd be pleasantly surprised once NVIDIA is ready to announce Fermi configurations and price points. If you were NVIDIA, would you say anything else?
... Attendiamo al varco..
Dal silenzio di nVidia mi sa tanto che sto chippone lo vedremo tra un bel pò, probabilmente devono calibrarlo in qualche modo per pareggiare (perchè può essere) o superare Cypress, una nVidia così silenziosa non l'avevo mai vista :rolleyes:
goldorak
30-09-2009, 21:48
Se Maometto non viene alla montagna, portiamo la montagna da Maometto.
E cio' che mi viene in mente leggendo le ultime notizie sulla nuova architettura Nvidia.
Nvidia delle tre aziende che operano nel campo grafico (le altre due sono AMD che ha acquistato ATI, ed Intel che bene o male fornisce le sue gpu integrate) e' l'unica a non avere una licenza x86.
E questo a lungo andare le sarebbe stato fatale. L'ironia della sorte e' che Intel cerca tramite Larrabee di avvicinare le tecniche tradizionali di cpu nel campo gpu, Nvidia con questa nuova architettura invece ha fatto l'opposto. Sta cercando di rendere la gpu molto piu' simile ad una cpu, ed in questo superano il problema di non avere alcuna licenza x86.
E una grossa scomessa, ma che ha senso in ambito "professionale" non certo in ambito consumer.
Vedremo come si evolvera' la situazione, ma un bestione del genere non lo vedo competitivo per niente in ambito consumer.
Foglia Morta
30-09-2009, 21:52
Si, e non solo per il consumatore, ma per Nvidia stessa.
Pianificano di guadagnare tonnellate dal settore HPC (militare e scientifico etc), ma se li perdono vendendo GPU sotto costo dove è il guadagno? E comunque si parla di Gennaio per il lancio.. almeno AnandTech dice Q1 2010.
Si parla di presentazione nel Q4 2009 e disponibilità a Febbraio - Marzo
http://www.hardocp.com/article/2009/09/30/amds_ati_radeon_hd_5850_video_card_review/8
If you are waiting for NVIDIA to jump out of the GPU closet with a 5800 killer and put the fear into you for making a 5800 series purchase for Halloween, we suggest paper dragons are not that scary. We feel as though it will be mid-to-late Q1’10 before we see anything pop out of NVIDIA’s sleeve besides its arm. We are seeing rumors of a Q4’09 soft launch of next-gen parts, but no hardware till next year and NVIDIA has given us no reason to believe otherwise.
Se Maometto non viene alla montagna, portiamo la montagna da Maometto.
E cio' che mi viene in mente leggendo le ultime notizie sulla nuova architettura Nvidia.
Nvidia delle tre aziende che operano nel campo grafico (le altre due sono AMD che ha acquistato ATI, ed Intel che bene o male fornisce le sue gpu integrate) e' l'unica a non avere una licenza x86.
E questo a lungo andare le sarebbe stato fatale. L'ironia della sorte e' che Intel cerca tramite Larrabee di avvicinare le tecniche tradizionali di cpu nel campo gpu, Nvidia con questa nuova architettura invece ha fatto l'opposto. Sta cercando di rendere la gpu molto piu' simile ad una cpu, ed in questo superano il problema di non avere alcuna licenza x86.
E una grossa scomessa, ma che ha senso in ambito "professionale" non certo in ambito consumer.
Vedremo come si evolvera' la situazione, ma un bestione del genere non lo vedo competitivo per niente in ambito consumer.
quoto, più si va avanti è più vedo che nvidia bene o male si sposta anche su altri orizzonti, CUDA ed il GPU computing da quel che che vedo, sia su internet che parlandone con professionisti, sembrano incominciare ad avere visibilità e convenienza(in alcuni casi).
Andrea deluxe
30-09-2009, 21:55
Articolo tradotto con Google!
Se vi da fastidio edito e cancello!
Introduzione
Negli ultimi anni diversi, il paesaggio per l'informatica è diventata sempre più interessante e vario. Forse il primo segno è l'architettura alternativa del processore Cell, che è stata una partenza radicalmente dagli sforzi di CPU da AMD, Fujitsu, IBM, Intel e Sun - buttare parecchi decenni di progressi programmabilità a favore di maggiori prestazioni ed efficienza. Purtroppo, i cambiamenti radicali sembrano relativamente soccombente rispetto alle pressioni graduale di evoluzione e perfezionamento - Cell dimostrato questo punto, in quanto è al di fuori gran parte inutilizzata della PlayStation 3 e non sembra avere molto di un futuro in uso mainstream.
GPU si sono progressivamente evoluti per essere meno specifica applicazione e un po 'più generalizzata rispetto ai loro antenati funzione fissi. Le modifiche iniziata nel DirectX 9 tempo previsto, con reali in virgola mobile (FP) i tipi di dati, ma ancora fissato vertice, la geometria e l'elaborazione dei pixel. Hardware DX10 è stato veramente il punto di svolta con shader unificati, i tipi di dati relativamente completi (interi vale a dire sono stati aggiunti) e controllo di flusso leggermente più flessibile. Oggi l'high-end è una gara tra i quattro cavalli nee AMD ATI, Intel e grafica integrata AMD e Larrabee, e Nvidia. Tutti di fronte a quattro diversi obiettivi, i vincoli e, quindi, hanno avuto percorsi leggermente diversi.
Gli sforzi di AMD si sono concentrati principalmente sulla grafica eccellenza e migliorare la loro quota di mercato e la presenza in quel campo - sono contento di lasciare che gli altri sopportare lo standard per il calcolo ai fini generali, fino a quando esiste un mercato vero. AMD è consapevole dei costi con la strategia del 'sweet spot' che ottimizza per il cuore del mercato e rifuggendo gli oneri di una maggiore programmabilità, ma non di costo limitato.
D'altra parte, il processore Intel e la grafica integrata AMD (IGP) sono gravemente costo limitato; assegnate solo una striscia sottile di silicio in un Northbridge, e presto nello stesso pacchetto o morire come la CPU. Raramente hanno un budget molto grande potenza o di memoria ad alta velocità. Nonostante i risultati conseguenti bassi, sono i titani dei quattro, con circa il 50-60% del mercato, e di accelerare la crescita. NVIDIA è una specie di uomo strano qui, in questo IGP sono fortemente integrata con CPU, di cui sono carenti.
Larrabee è un altro paio di maniche interamente. E 'una nuova iniziativa da parte di Intel, promettendo progressi sostanziali in termini di programmabilità che metterà GPU alla pari con le CPU, i programmatori che offrono un potenziale illimitato. Questa visione è convincente, ma non i prodotti arriveranno fino al prossimo anno.
Viene per ultimo in ordine alfabetico, ma in prima linea di programmabilità è Nvidia. Storicamente, hanno spinto la programmabilità GPU in avanti, piuttosto che AMD. Essi sperano di percorrere un percorso illuminato di mezzo, tensione verso la programmabilità completa, senza cedere il loro patrimonio grafico per una combinazione di AMD si è concentrata prodotti discreti e IGP. Prodotti programmabili Nvidia sono concentrati sul calcolo ad alte prestazioni (HPC) del mercato, dove i margini sono piuttosto elevati rispetto alle schede grafiche consumer.
Prodotto di Nvidia di ultima generazione, il GT200 ha colpito un buon equilibrio. L'architettura certamente spinto la busta di programmabilità, aggiungendo il supporto a doppia precisione, le operazioni atomiche e di un ecosistema l'involo del software, mentre si tiene il massimo delle prestazioni per un prodotto a GPU singola. Al momento, la corona che appartiene in realtà alla Radeon di AMD 5870, che ha lanciato la scorsa settimana. Ottimizzazione focalizzata AMD sta mostrando guadagni in molti segmenti del mercato delle schede grafiche, in particolare quelle sotto i punti 'estreme' dei prezzi, sul mercato mainstream.
E 'in questo contesto che Nvidia ha annunciato una architettura di nuova generazione, che mira per prestazioni ancora maggiori, l'affidabilità e la programmabilità, liberare le capacità del software ancora di più. Questa nuova architettura va da diversi nomi per la mantenere gli incauti sulle loro dita: Fermi o GF100, anche se alcuni in stampa sono erroneamente bandying su GT200. NVIDIA ha scelto di discutere principalmente di architettura e di non divulgare microarchitettura più o realizzazione, dettagli in questo annuncio. Dove possibile, il nostro speculazione educato colma le lacune e saranno chiaramente notare come tale. La mancanza di dettagli è in parte dovuto al fatto che i prodotti basati su Fermi, non sarà fuori per diversi mesi - e anche questa linea temporale non è chiaro.
Curiosamente, non sono discutendo anche le capacità grafiche di questo chip e invece concentrarsi solo sul calcolo. Di qui la nostra discussione è incentrata principalmente sulla GPU come un dispositivo di calcolo. Pertanto, cercheremo di utilizzare una terminologia standard e indicare dove e come si differenzia la terminologia GPU.
The Road to Enlightenment
La programmazione CUDA e il modello di memoria sono stati descritti in dettaglio nella nostra analisi precedente del GT200. Questo modello è discendente di DirectX e OpenGL, piuttosto che i modelli tipici di programmazione esposti da PowerPC, x86 e ARM. Come risultato, CUDA e altri modelli di programmazione GPU svolgere molte delle limitazioni di queste API grafiche - una collezione bizantina di spazi di indirizzi e ricordi, con strutture molto semplici dati come array o matrici. Una delle tendenze chiare per prossima generazione di Nvidia di hardware è quello di abbattere questi ostacoli e consentire un maggiore grado di indirezione e supporto alla programmazione.
Modello di programmazione
La prima serie di questi cambiamenti sono quelli che il flusso di controllo di impatto. Ci sono tre principali miglioramenti qui. Il primo è indiretto ramificate, che è abbastanza comune per le CPU per meritare il suo tipo predictor proprio ramo, ma è stato precedentemente vietato per le GPU NVIDIA. Rami indirette sono quelle in cui l'indirizzo di destinazione non è esplicitamente codificati nelle istruzioni. Invece l'istruzione specifica un registro delle aziende il target ramo (ad esempio,% eax JMP in x86), che consente a un unico ramo di target più indirizzi, in situazioni diverse. Flusso di controllo indiretto consente funzioni virtuali per C + +, e altre lingue.
In secondo luogo, la gestione delle eccezioni a grana fine è stato aggiunto. In precedenza non vi era alcuna manipolazione vera eccezione. Ora, ogni corsia singoli vettori (che Nvidia chiama un thread), può innescare un gestore di eccezioni, che sono necessari per il tentativo di raggiungerlo metodi comunemente utilizzati in C + +. Ciò è del tutto non banale - per far scattare un eccezione dello Stato per la corsia vettore devono essere spostati in modo sicuro da qualche parte, in modo che quando si avvia il gestore di eccezioni può ispezionare lo stato.
La cosa interessante è che le due caratteristiche di cui sopra può essere abilmente combinati per ottenere il terzo cambiamento programmabilità importante - che consente alla GPU ad effettuare chiamate. La possibilità di salvare lo stato prima di una deroga può essere riutilizzato per salvare lo stato del chiamante, e quindi, indirettamente ramificazione può essere utilizzata per raggiungere una funzione che è già stato caricato nello spazio di indirizzi. Chiamate ricorsive sono supportati come bene, anche se Nvidia non ha al momento rivelato l'ABI e le convenzioni di chiamata. Questo è un bel passo in avanti notevole in termini di programmabilità, ancora una volta si allontana da un modello semplicistico GPU verso un ambiente più completo.
Modello di memoria
Uno dei passaggi chiave per Nvidia, con il loro hardware di prossima generazione è quello di ripulire il loro modello di memoria confusa e creare uno spazio unico indirizzo unificato per locali (thread privati), in comune (per ogni blocco di thread) e memoria globale (dispositivo e per tutto il sistema ). Essi sono stati consolidati nel esistenti a 40 bit virtuale e fisica dello spazio degli indirizzi utilizzati dagli GT200. In precedenza istruzioni di carico separate sono stati utilizzati per accedere a ogni spazio indirizzo, e questi sono stati soppiantati da una singola istruzione di carico. Al momento della compilazione, gli indirizzi per queste memorie sono determinati, e l'hardware sia configurato correttamente il percorso prende il sub adeguato spazio.
Con uno spazio unificato indirizzo, indirezione di strutture di dati è possibile. NVIDIA supporta ora puntatori e riferimenti agli oggetti, che sono necessarie per C + + e linguaggi di livello più alto di altri che passano di riferimento. Sulla stessa nota, Nvidia ha aggiunto una nuova modalità di indirizzamento, come richiesto dalla OpenCL. Le immagini sono un cittadino di prima classe per OpenCL e richiedono (x, y) affrontare la modalità per migliorare il trattamento dei dati grafici.
Questi sono i cambiamenti più significativi a livello mondiale a ISA Nvidia, ma ci sono altre più sottili cambiamenti che verranno spiegate successivamente in la sub-sezione appropriata.
System Architecture
Architettura Nvidia sistema continua a concentrarsi sul rendimento più elevato per un monolitico GPU, e quasi il reticolo di riempimento per i sistemi di TSMC litografia. Ciò è determinato da tre fattori. Dal punto di vista del calcolo, cercando di programma di due GPU in parallelo è estremamente scomodo, in modo da massimizzare le prestazioni di una GPU singola è indispensabile per i programmatori. Inoltre, la competizione per computer ad alte prestazioni (HPC), i sistemi non è una singola CPU, ma piuttosto un sistema dual socket HPC orientato con 4-6 core per socket. GPU Nvidia massiccia costruzione consente di mantenere la corona di più le prestazioni delle GPU singola, che viene percepito di avere un 'Halo', un valore di marketing che si estende in tutta l'intera linea di prodotti (anche schede di fascia bassa). Il rovescio della medaglia, naturalmente, è che i chip di grandi dimensioni non sono a buon mercato per la produzione, come i rendimenti non drop-lineare con la dimensione del die. Figura 1 qui sotto mostra l'architettura del sistema di Fermi, GT200 e G80. Nonostante le etichette, G80 ha solo cache consistenza, proprio come GT200.
Figura 1 - Fermi e GT200 System Architecture
L'architettura di Fermi sistema è molto più pulito e più elegante rispetto alla generazione attuale, in cui tre nuclei condivisa una pipeline di memoria. Fermi dispositivo è di 16 core, ma ciascun core (o SM nel gergo Nvidia) è cresciuto in modo sostanziale con 32 unità funzionali e di un semi-coerente cache L1, che possono essere 16KB e 48KB di dimensione. Si tratta effettivamente di semi-cache coerente, a differenza delle generazioni attuali e precedenti, anche se i dettagli saranno toccati in seguito nella sezione appropriata. Le cache L1 sono legati insieme da una 768KB di cache L2 condivisa, che è l'agente di memoria e può aiutare con alcuni di sincronizzazione.
Fermi ha sei controller di memoria GDDR5, che operano ciascuna due canali di memoria. L'interfaccia di memoria 384-bit wide e può anche essere configurato per accedere alla memoria DDR3. Dal momento che Nvidia non è di comunicare qualsiasi prodotto o le caratteristiche operative del Fermi, dobbiamo fare alcune ipotesi plausibili per quanto riguarda la larghezza di banda di memoria. A velocità GDDR5 di 3.6gbps, ciò comporterebbe 172.8GB / s di banda passante di memoria, appena fuori bordo che offre più recenti di AMD. Una interfaccia di memoria DDR3 operanti a norma 1.6gpbs tasso produrrebbe solo 76.8GB / s, mentre un 1,575 volt, 2Gbps interfaccia otterrebbe 96GB / s. Qualcosa da tenere a mente, però, è che il calcolo GPU operano tipicamente orientato la loro memoria interfacce a frequenze inferiori - Tesla ha raggiunto la posizione 1.6GT / s GDDR3 rispetto 2.2GT / s per i prodotti di consumo orientati, probabilmente per motivi di stabilità e di capacità.
DRAM utilizzando x16 in un unico grado, possono accedere Fermi 24 dispositivi. In teoria, ciò significa che il satellite Fermi supportano fino a 6GB con DRAM 2Gbit e 12GB con dispositivi 4GBit. Al momento, però, non ci sono ad esempio nella produzione di DRAM, solo offerte 1GBit da Qimonda, Samsung e Hynix. Qimonda ha annunciato pubblicamente che si terra dispositivi 2Gbit po 'di tempo nel 2010, però, e ha espresso l'interesse delle DRAM 4GBit ulteriormente sulla loro tabella di marcia. Un'altra alternativa per aumentare la capacità sarebbe utilizzando due file di DRAM, anche se questo probabilmente ridurre la frequenza di funzionamento.
L'interfaccia esterna al resto del sistema è invariato, sempre basandosi su PCI-Express Gen 2, ma la logica di controllo è migliorato. Fermi possono ora trasferire simultaneamente i dati da e verso l'host, che permette il calcolo della GPU per essere meglio pipeline rispetto al resto del sistema.
Pianificazione gerarchica
La gerarchia di controllo è simile a quello GT200, con uno scheduler globale che questioni di lavoro per ogni SM. In precedenza l'utilità di pianificazione a livello mondiale (e quindi la GPU) potrebbero avere solo un singolo kernel in volo. Più recenti scheduler Nvidia può mantenere lo stato per un massimo di 16 kernel diversi, uno per ogni SM. Ogni SM gestisce un singolo kernel, ma la capacità di mantenere kernel multipli in volo l'utilizzo aumenta soprattutto quando un kernel comincia a finire e ha meno blocchi di sinistra. Ancora più importante, l'assegnazione di un kernel per mezzo di base che i kernel più piccoli possono essere spediti in modo efficiente alla GPU.
La latenza di context switch tra il kernel è stato inoltre ridotto da 10X a circa 25 microsecondi, questo ritardo è dovuto in gran parte per la pulizia dello Stato che ogni kernel deve brano - come TLB, i dati sporchi in cache, registri, la memoria condivisa e gli altri kernel contesto.
Figura 2 - Fermi e GT200 Panoramica
Come sopra illustrato nella figura 2, Fermi è un grande cambiamento da GT200, in particolare per la gerarchia di memoria. I core in GT200 non sono completi e ogni gruppo di tre nuclei azioni di una pipeline di memoria - questo ente è chiamato Thread Processing Cluster (TPC). Fermi sopprime questa disposizione e dà a ciascuno la sua unità core store proprio carico (LSU) e L1D, anche se uno condivisa tra i due gasdotti di esecuzione.
Fermi SM Panoramica
I nuclei (o SMS) di Fermi è stata notevolmente rinforzati e le risorse sono state spostate in modo sostanziale. Ad alto livello, le risorse di esecuzione sono quadruplicati, ma sono condivisi tra due condotte di esecuzione scalare; ogni gasdotto ha il doppio delle risorse di esecuzione corsie vettore (o), del core GT200. È essenziale notare che, mentre i due gasdotti in grado di eseguire due orditi dal blocco stesso thread, non sono superscalare, nel senso di una CPU. La pipeline di memoria è stato portato nel nucleo, mentre in precedenza ogni pipeline di memoria è stata condivisa fra tre core. Ancora più importante, la memoria condivisa è stato piegato in un (semi-coerente) L1 cache di dati, dando ogni core di una gerarchia di memoria reale.
Per molti aspetti, queste modifiche sono concettualmente ricorda i miglioramenti tra Niagara I e II. Niagara II raddoppiato il numero di thread a 8, ma ogni set di 4 thread aveva uno scheduler e dedicato interi (ALU) gasdotto, rispetto al ALU dedicata e in virgola mobile (FPU) gasdotti per il Fermi. Tutti e 8 i fili in un nucleo Niagara II condotte di memoria condivisa, come Fermi, e FPU, che sono analoghe alle unità speciali di funzione (SFU).
Di utilizzare tali risorse di esecuzione, il numero di thread in volo per ciascun core Fermi è aumentata del 50% a 1536, dislocate su 8 blocchi di thread simultanei. Questo significa che per utilizzare appieno uno dei nuovi nuclei, 192 fili per blocco sono necessari fino da 128 in GT200. Come per l'attuale generazione, l'esecuzione all'interno di un SM avviene a granularità di una trama, che è un insieme di 32 thread. Con l'aumento delle discussioni, ciascun core può avere fino a 48 orditi in volo alla volta.
Come con tutto l'hardware Nvidia DX10, Fermi ha diversi domini di clock differenti in ciascun core - principalmente per regolare l'orologio front-end e la programmazione, e quindi l'orologio veloce per le unità di esecuzione effettiva che funziona a due volte l'orologio regolare.
Front End
I cambiamenti nel nucleo (o SM) comincia a front-end e la cascata da lì. Fermi ogni core ha una cache istruzioni, con la lettura standard semantica solo - anche se ogni altro dettaglio sulla cache L1I è attualmente sconosciuto, sia per quanto riguarda la GT200 e Fermi. In Fermi, la cache di istruzioni è condivisa tra i due gasdotti ed è quasi certamente una scenografia associative. La Figura 3 illustra i core da Fermi e GT200.
Figura 3 - Front-end per Fermi e GT200 Cores
Purtroppo, Nvidia non è ancora rivelare la dimensione della cache istruzioni, che potrebbe anche ricordare il suo scopo e la funzionalità. Se l'obiettivo è quello di cache più di un kernel (o shader) e sfruttare le località temporale, la dimensione della cache dovrebbe essere una frazione ragionevole di un singolo kernel. Tuttavia, se il punto è quello di amplificare solo la larghezza di banda, che potrebbe essere fatto con una cache molto piccolo, o forse da abilmente trasmissione un'istruzione fetch alle code Instruction Multiple curvatura. Ciò che è chiaro però è che le cache istruzioni sono state modificate in modo sostanziale Fermi, dal momento che ciascun core può essere in esecuzione di un diverso flusso di istruzioni.
Fermi introduce predicazione completa per tutte le istruzioni per migliorare l'istruzione fetch eliminando le bolle causate da rami presa. In GT200, una divergenza si tradurrebbe in un ordito di esecuzione e quindi attraverso la diramazione tra ogni percorso del flusso di controllo. Ad ogni ramo, la curvatura di stallo fino a quando il ramo potrebbe essere risolto e l'indirizzo successivo recupero. Con la predicazione, la curvatura è possibile eseguire in modo sequenziale attraverso tutti i percorsi divergenti del flusso di controllo, senza rami, e semplicemente mascherare le corsie inutilizzati vettore.
Il prossimo cambio della GT200 è solo dopo la cache. Fetched istruzioni sono consegnati dalla cache e poi depositati in due buffer di istruzione logica ordito per Fermi, uno per ciascuno dei due gasdotti. Questi buffer probabilmente implementato come un insieme di 48 code, una per ogni curvatura. Ogni coda contiene probabilmente almeno due voci - che richiedono 128-bit come la maggior parte istruzioni prime sembrano essere a 64 bit [1]. Se 96 voci sono state attuate che consumano un totale di 768B di SRAM. Tuttavia, supponendo che le linee di cache istruzioni sono 64B ampio, allora è più probabile che ogni operazione di recupero in 4-8 porta le istruzioni per ordito, con un buffer più grande (circa 1.5-3KB). Una volta che le istruzioni sono depositati nel code di curvatura, essi devono essere decodificati in modo che possano essere programmati.
Ogni ciclo, i due di pianificazione può emettere (o della spedizione in gergo Nvidia) due orditi dalla testa di queste code - uno per ciascuno dei due gasdotti. Ancora una volta, per ciascuna condotta è ancora scalare, ma ora ci sono due per un throughput aggiunto. Nonostante l'idea che core GPU sono più semplici di core della CPU, l'utilità di pianificazione devono affrontare notevole complessità. Una complicazione per lo scheduler è la varietà di istruzioni di calcolo con una latenza di esecuzione diversi. Istruzioni Pianificazione con una latenza uniforme o quasi uniforme è molto più semplice che cercare di gestire un pool di istruzioni in cui la latenza di esecuzione varia di un fattore 4.
Le curvature sono scoreboarded per tenere traccia della disponibilità degli operandi e anche diffidare di eventuali rischi strutturali. I rischi strutturali, in particolare, sono molto più complicate per Fermi che la GT200. Le risorse condivise di esecuzione presente parte della sfida qui - il gasdotto di memoria e unità di funzione speciale (SFUs) sono i punti evidenti di contesa tra le due condotte, ma a 64-bit operazioni FP sono anche una questione sottile. In particolare, una curvatura doppia precisione utilizza entrambe le condotte contemporaneamente da eseguire. Così le combinazioni consentite ordito sono più memoria / ALU, ALU / ALU, ALU / SFU e la memoria / SFU; doppia precisione non può essere rilasciata con qualsiasi altra cosa.
Pianificatori emetterà la priorità più alta, pronta a eseguire curvature e quindi contrassegnare le code di alcuni come 'non è pronto', sulla base della latenza atteso l'istruzione - e l'utilità di pianificazione permette di saltare su di loro fino a quando non diventano di nuovo pronto. Come per l'attuale generazione, non c'è nessuna penalità per la commutazione tra le diverse code, ed è probabile che la stessa coda potrebbe continuare a rilasciare pure. Priorità può essere determinato sulla base di diversi fattori come il tipo di shader (vertex, geometria, pixel, calcolare), l'utilizzo di registro, ecc
Un altro grande cambiamento per i programmatori e lo scheduler è la latenza relativa esecuzione. Dal momento che ogni unità dispone di 16 pipeline di esecuzione, una trama semplice prende ora solo 2 cicli veloci per finire (o un ciclo di pianificazione). Ciò significa che nasconde un importo fisso di latenza della memoria avrà il doppio di orditi molti come prima.
Non è chiaro se il buffer di curvatura e di pianificazione è effettivamente messo in atto come una entità unitaria o frazionata. Un scheduler split sarebbe probabilmente più efficace, dal momento che ogni scheduler avrebbe solo di valutare 24 del 48 curvature potenziale; la parte difficile sarebbe comunicare quando uno scheduler ha riservato una risorsa condivisa, come il gasdotto di memoria o SFU.
Registri
Come mostra la figura 3 nella pagina precedente ha mostrato, le risorse già massiccia di archiviazione per ciascun core sono stati raddoppiati a sostenere il secondo gasdotto. Registrati Fermi file aumentata a 32K voci o 128KB totale, sebbene il numero di registri per unità di esecuzione che dimezzato, a 1K, le voci contro l'attuale generazione. Nella GT200, un singolo thread può essere assegnato 4-128 registri - anche se non è chiaro se Fermi offre la stessa gamma. Come nel caso di implementazioni precedenti, interi a 64 bit o valori in virgola mobile si consumano due registri. Il file di registro è stato progettato per sostenere la piena a 32-bit per ogni ciclo di throughput, che richiede 96 i valori di input e 32 i valori di uscita, nel caso di un multiply-add.
Operando Collectors
Uno degli aspetti più sconcertanti di hardware Nvidia attuali e passate, è la lettura e writeback per le unità di lunga latenza funzionali, come la SFU e pipeline di memoria.
Nella GT200, un ordito di SFU può essere rilasciato, seguita da un ordito FMAD, poiché l'istruzione SFU prende un po 'di eseguire, i due saranno eseguiti contemporaneamente. Forse ancora più importante, le due curvature sembrano aver bisogno di input simultanei - che pone la questione, come possono essere alimentati tutti in una volta?
La risposta, un pezzo di hardware chiamato collettore operando, è venuta alla luce nelle nostre discussioni in merito Fermi. I collettori operando sono unità hardware che leggono i valori registrati molti e li buffer per il consumo dopo, una sorta di cache registro temporale per le unità funzionali (abbastanza interessante, il EV8 aveva qualcosa di simile). Probabilmente fornire anche altri vantaggi - forse trasmissione dei valori tra le unità funzionali. Così il collezionista operando in grado di leggere tutti 64 operandi necessari per un'operazione di SFU, e allora che li alimentano la SFU per i prossimi 16 cicli. Questo semplifica radicalmente la pianificazione, consentendo ingressi per essere raccolte in una sola volta, anche per le istruzioni di latenza elevata.
Inoltre, i collezionisti operando può essere cablato con una traversa per consentire numerose a basso numero di porte (ad esempio, 1R 1 W o 1R / W) registrare i file di apparire come se fossero un unico file di registro molto portato. Mentre il collettore operando più, ovviamente, funziona con i file di registro, si può anche essere in grado di raccogliere operandi da altre fonti, come memoria condivisa e costante o texture cache. Fermi, la GT200 e le generazioni G80 probabilmente tutti comprendono i collezionisti operando, e le dimensioni minime sono probabilmente 64 o 96 operandi.
Risultati coda
Gli stessi conflitti potenziali che si verificano per il registro si legge, di cui sopra, si applicano anche alle scrive nel file di registro. Il duale al collettore operando è la coda di risultati, che il buffer di uscita da unità funzionali prima di essere scritta nel file registro. Per essere efficace la coda risultati dovrebbero essere almeno la dimensione di un ordito - 32 operandi. Anche se non necessariamente presenti in hardware Nvidia, la coda di risultati crea un'opportunità per l'ottimizzazione supplementari. In particolare, non tutte le operazioni devono writeback nel file di registro - alcune operazioni di esistere solo per produrre un risultato intermedio che viene consumato da un'altra operazione. In tale situazione, se i due può essere dinamicamente in programma abbastanza vicino, è ipotizzabile che il valore di uscita potrebbe essere trasmessa con l'ingresso della prossima operazione - proprio come una rete di CPU di inoltro, fatta eccezione nella corsia vettore.
Esecuzione Unità
Il cuore di hardware Nvidia di nuova generazione è in realtà le risorse all'interno di ciascun core di esecuzione, non solo hanno questi stata aumentata, ma essi sono stati sostanzialmente raffinati pure. Il solo numero di ALU e FPU per core ha quadruplicato nel corso degli GT200 attuale generazione, ma ora sono divisi tra due condotte indipendenti con 16 unità ciascuna. Così la latenza di un singolo ordito viene dimezzata a due cicli e il volume è raddoppiato con due bracci da diversi gasdotti. Per inciso, questo mette in evidenza uno dei motivi per utilizzare un concetto microarchitectural come l'ordito - che consente di ampliare le risorse di base di esecuzione. Figura 4 qui sotto mostra le carote per la GT200 e Fermi.
Figura 4 - Esecuzione Locale Fermi e GT200 Cores
Ogni unità di esecuzione (che Nvidia chiama un core "CUDA") ha dedicato un intero (ALU) e uno in virgola mobile (FPU) il percorso dei dati. I due percorsi dati parti una porta problema e non possono essere rilasciati contemporaneamente.
La ALU è stato aggiornato con nuove operazioni e una maggiore precisione. Moltiplica Integer sono nativi a 32-bit adesso, invece di 24 in GT200, anche se eseguite a velocità dimezzata - ogni pipeline in grado di eseguire 8 moltiplica per intero ciclo. Inoltre, il bit-wise operazioni necessarie per DX11 sono supportati, tra cui bit-conta, inserti, estratti e molti altri. Sostegno maggiore precisione è una priorità anche per Fermi. Operazioni a 64-bit semplice ALU, come l'addizione e sottrazione, può essere fatto da cracking l'operazione in metà di 32 bit a basso e alto, e utilizzando la ALU con mezza throughput. 64-bit richiede la moltiplicazione di interi quattro operazioni, in modo che ciascun pipeline in grado di eseguire 4 moltiplica per ciclo e il nucleo di tutto in grado di eseguire 8 per ciclo.
La microarchitettura a virgola mobile è stato interamente rinnovato nel corso degli GT200. La GT200 presenta una singola dedicato doppia precisione (DP) FPU per ogni core (versus 8 FPU singola precisione), con conseguente prestazioni unimpressive. Questo approccio è stato senza dubbio guidato da tempo estrema alle pressioni del mercato, in quanto è chiaro che ci sono altri metodi più efficienti anche se con una sostanziale complessità della progettazione di più.
Per Fermi, Nvidia è chiaramente volto a massimizzare le prestazioni doppia precisione FP e abbracciato la complessità aggiuntivi necessari. Ciascun core può eseguire un DP fusa multiply-add (FMA), ordito in due cicli utilizzando tutte le FPU in entrambi gli oleodotti. Significativamente, questa è l'unica istruzione ordito che richiede l'uso di entrambi gli oleodotti problema, il che suggerisce alcuni dettagli di implementazione. Mentre l'approccio di Nvidia osta che rilascia due orditi, invece di un rapporto di 8:1 di SP: throughput DP (o 12:1 contare la questione apocrifi doppia), il rapporto di Fermi è di 2:1. Questo è alla pari con Intel e AMD attuazione di SSE e in vista del rapporto di 4:1 per AMD processori grafici. Ricerca suggeriscono che l'area e le sanzioni di ritardo per questo stile di precisione più FPU sono circa il 20% e del 10% su una singola DP FPU [2], ma è probabile che il sovraccarico di Nvidia è leggermente inferiore. Il risultato finale dovrebbe essere un ordine di grandezza aumento delle prestazioni doppia precisione con la stessa frequenza - un bel salto in avanti di una sola generazione.
La singola precisione (SP), le prestazioni in virgola mobile, con un aumento del numero di corsie vettore, ma anche diventato più raffinato e utile da un punto di vista numerico. Nella GT200, SP era quasi IEEE-754 conforme, ma mancava di alcune modalità di arrotondamento e la manipolazione denormalizzati. Questo non è un problema per la grafica, ma per reale applicazioni numeriche certamente lasciato un po 'a desiderare. NVIDIA rettificato questi problemi, e ha anche sostituito il precedente 32-bit multiply-add con istruzioni a 32-bit fusi multiply-add (FMA), portandolo in linea con il comportamento DP (che aveva FMA dal GT200). Qui la distinzione è sottile e ha a che fare con arrotondamento intermedi. In un normale multiply-add, il risultato della moltiplicazione viene arrotondato a 32-bit di precisione, prima l'aggiunta è fatta. Con un FMA, non vi è alcun arrotondamento intermedio, così la precisione interna è più alta - che è vantaggiosa per la divisione e l'emulazione radice quadrata.
L'ultima modifica alle risorse di esecuzione si trova nella funzione speciale Unità (SFUs). Poiché il numero di ALU e FPU per oleodotto è raddoppiato in tal modo dimezzare la latenza di queste curvature, Nvidia anche raddoppiato il numero di SFUs fino a 4 per core in modo che la latenza di un ordito SFU è diminuito in tandem. Tuttavia, per risparmiare spazio e del potere, SFUs sono condivisi tra le due condotte di esecuzione - una scelta eminentemente design ragionevole dato l'uso frequente. Come con la generazione precedente, l'esecuzione SFU possono sovrapporsi con ALU o l'esecuzione FPU, grazie ai collezionisti operando e le code di risultato.
È interessante notare che, mul extra apocrifi ', che sembrava solo a sollevare la sua testa nelle prove di sintesi non c'è più, un artefatto della storia Nvidia marketing. Per fortuna, è stato sostituito da due condotte reali che possono essere utilizzati in applicazioni reali.
Nucleo della memoria
I cambiamenti nel core di esecuzione sono importanti e migliorare sostanzialmente le prestazioni. Ma ancora più importante ed emozionante è il fatto che gli ingegneri e gli architetti Nvidia ha deciso di utilizzare un semi-coerente L1D cache per ogni core pipeline di memoria, che consente la comunicazione implicita tra i thread in un blocco di cache e una porzione dello spazio unificato indirizzo per ridurre off -chip requisiti di larghezza di banda.
Pipeline Fermi di memoria ha un throughput fino a 16x32-bit o 8x64-bit accede a ogni ciclo, né alla memoria condivisa, ovvero l'unità di carico store (LSU), che accede alla cache L1D, ma non entrambi. Le ragioni sarà evidente a breve, ma questo crea un pericolo strutturale che lo scheduler deve rappresentare, per esempio, un ALU / Mem dove la combinazione di fonti di dati operazione ALU dalla memoria condivisa non è permesso.
Memoria condivisa
La memoria condivisa in Fermi ha subito una radicale trasformazione della GT200. In Fermi, la memoria condivisa e L1 cache dati sono rispettivamente utilizzati per la comunicazione esplicita ed implicita tra i thread. I due sono implementate come un'unica struttura fisica, si sono divisi a 16 singola sopraelevate, 64KB array. L'accesso simultaneo sarebbe possibile, ma solo replicando l'ingresso e uscita e aumentando ulteriormente il settore bancario. L'array può essere configurato con una memoria di 16KB e 48KB condiviso, con il resto utilizzato per la cache L1D.
Per i grandi carichi di lavoro che vengono scritti e raccolti 16KB di memoria condivisa (ad esempio GT200), può essere preferibile utilizzare una 48KB di cache L1, dal momento che una memoria condivisa più grande può andare inutilizzata. Lo stesso vale per OpenCL che supporta solo 16KB di memoria condivisa al momento. Una cache più grande è benefico anche sui carichi di lavoro irregolare e imprevedibile, soprattutto quelli con maggiori gradi di rinvio (ad esempio, strutture dati complesse come liste collegate). Per DirectCompute però, un maggiore spazio di memoria condivisa (fino a 32KB) è necessaria e quindi avrebbe bisogno di una dotazione di 48KB. Fortunatamente la configurazione è semi-dinamico. La cache e la memoria condivisa può essere riconfigurato, se l'intero nucleo è quiesced, in genere tra due diverse applicazioni, ma in teoria la configurazione potrebbe essere fatto tra i noccioli. E 'piuttosto chiaro per quale motivo non vi è una opzione per 48KB di memoria condivisa; mi sembra uno spreco. Né DirectCompute né OpenCL possibile utilizzare l'intero 48KB - mi sembra una scissione 32KB/32KB sarebbe più sensato, ma presumibilmente architetti Nvidia ha avuto le loro ragioni.
La memoria condivisa è stato anche influenzato dalla conduttura ulteriori modifiche e unità di esecuzione. In GT200, il 16KB intero e 16 provenienti da banche di memoria condivisa è stato utilizzato solo da una singola pipeline, e potrebbe fornito 16 operandi di una curvatura. Ora che la memoria condivisa può essere diviso tra due condotte, la capacità disponibile per ciascun pipeline può diminuire (in una configurazione 16KB) impatto occupazione, e l'accesso condiviso a ridurre la larghezza di banda disponibile per ciascun curvatura.
Data Cache
Il gasdotto di memoria, che inizia con la semi-coerente L1D, ha enormi cambiamenti. Prima di tutto, non è più comune tra i vari core. L'intera nozione di una TPC è quindi andato, come è stato in gran parte un artefatto di come la gerarchia di memoria diversa dalla gerarchia di controllo in GT200 e G80. La Figura 5 riporta i gasdotti di memoria per Fermi e GT200.
Figura 5 - Memory Pipeline di Fermi e GT200
La pipeline di memoria inizia con unità di produzione dedicate indirizzo (AGUS). Il AGUS sono stati modificati per supportare il nuovo (x, modalità y) affrontare, su richiesta del OpenCL. Questa terza modalità affrontare, completa il registro esistenti indiretta e la consistenza di indirizzamento. In Fermi, vi è un solo carico e memorizzare le istruzioni per quasi tutti i tipi di memoria, anche se texturing possono richiedere un insegnamento diverso dal momento che è così diversa da altri punti di accesso.
Una volta che l'40-bit indirizzo virtuale è stato calcolato, si è tradotta da un 40-bit indirizzo fisico da parte delle TLB. TLB Fermi, ovviamente, il supporto 4KB dimensioni di pagina per ragioni di interoperabilità, ma non ha voluto rivelare il più grande sostegno dimensioni della pagina. GT200 sembra sostenere 512KB pagine [3] [4] ed è probabile Fermi ha le stesse capacità.
La dimensione o associatività del TLB non è stato divulgato anche per Fermi, ma ha solo bisogno di coprire i dati accessibili da un unico core. Il TLB L1 in GT200 si crede di essere una voce di 16-32, design completamente associativo con 4KB e 512KB di sostegno [3] [4], ed è probabile che il TLB Fermi sono le stesse dimensioni o leggermente più grandi. TLB di controllare anche i privilegi - e le pagine possono essere contrassegnati come di sola lettura (ad esempio, le costanti).
Una volta che gli indirizzi sono tradotti, la cache è sondato per accessi 16x32-bit, o 8x64-bit accede a ogni ciclo. La cache L1D è probabilmente una riscrittura e scrivere destinare 64B design con linee e supporto per lo streaming di alcuni dati direttamente alla memoria principale. La politica di sostituzione è sconosciuta, ma è probabile che uno pseudo-Least Recently Used (LRU) variante. Come accennato in precedenza, il L1D o è 16KB e 48KB, con 16 banche per un throughput elevato. L'associatività dei L1D è sconosciuto, ma l'organizzazione implica che ogni modo è 16KB o più piccoli. Data la cache altamente associativa nelle generazioni precedenti [3c], è probabile che il L1D è effettivamente a 16 o associative modo migliore.
Nel caso di perdere, l'accesso andrà alla cache L2, che è discusso (accanto alla semi-coerenza) nella sezione successiva.
L2 Cache
La cache L2 merita propria sezione per una serie di motivi - non solo è la chiave per la coerenza e le operazioni atomiche, ma è anche nel suo dominio orologio.
Il 768KB di cache L2 unificata è l'agente esclusivo di memoria, carichi di movimentazioni, negozi e texture recupera - in modo da agire come un punto di inizio di sincronizzazione globale. Come la cache L1, probabilmente ha 64B linee e molte banche, la scrittura politiche saranno discussi di seguito. Mentre Nvidia non ha discusso i dettagli di attuazione, il GT200 ha una cache di 256 KB texture L2, implementato come 8 fette di 32KB, una fetta per la memoria del controllore. Se Fermi segue questo modello, la cache L2 può essere implementato come 6 fette di 128KB, uno per ogni controller di memoria.
A differenza di una CPU, la cache di Fermi sono semi-coerenti solo a causa del modello relativamente debole coerenza delle GPU. Il modo più semplice di pensare la consistenza è quella di default è la sincronizzazione tra il kernel, e se il programmatore utilizza qualsiasi primitive di sincronizzazione (ad esempio Atomics o barriere), ma nessun ordinamento altrimenti.
Ciascun core può accedere a tutti i dati in suo L1D cache condivisa, ma in generale non può vedere il contenuto della cache remota L1D. Alla fine di un kernel, le carote devono write-through lo sporco dati L1D per la L2 per renderlo visibile ad altri in entrambi i core della GPU e l'host. Questo potrebbe essere descritto come un pigro politica write-through per la L1D, ma sembra più accuratamente descritto come scrivere indietro con la sincronizzazione periodica.
Politica di scrittura per la L2 è probabilmente una sorta di write-back con il supporto per lo streaming accessi. Alcuni dati è improbabile da essere riutilizzato come si sta in streaming e la memoria - i dati devono essere scritti con la memoria globale, senza alcuna assegnazione L1 e L2. Altri dati sono suscettibili di essere riutilizzati o condiviso, e dovrebbe essere scritto indietro e assegnati in L2. In genere le CPU hanno writeback con l'assegnazione per i loro nascondigli, ma alcune aree di memoria sono in cache e utilizzati per lo streaming - questa sembra una ipotesi ragionevole per la progettazione L1 e L2 di Fermi. La politica di sostituzione di cache L2 è attualmente sconosciuto, ma è probabile che alcuni pseudo-LRU variante.
Poiché la L2 è utilizzato per rendere visibili i risultati a livello globale, ma può anche essere utilizzata per accelerare l'esecuzione delle operazioni a livello mondiale atomica, che permette la sincronizzazione più efficiente tra i blocchi thread in tutto il chip.
In precedenza, le operazioni atomiche doveva scrivere torna alla memoria globale per rendere visibili i loro risultati a livello mondiale. In tal modo la latenza minima è stata di circa 350-400ns per GT200 [3] [4]. Se le operazioni multiple in un ordito si contendevano lo stesso indirizzo, ogni atomica avrebbe eseguito serialmente, provocando un ulteriore viaggio nella memoria - una sanzione fino a 32X, nel caso peggiore (~ 13.000 ns). Atomics memoria condivisa sono stati di gran lunga più veloce, ma la memoria condivisa è ovviamente limitata capacità e non possono essere utilizzati per comunicare tra i blocchi o core.
In Fermi, la cache L2 ed extra unità di esecuzione atomiche sono utilizzati per accelerare le operazioni atomiche. Fermi cache L2 unificata serializza operazioni atomiche in modo diverso, per ridurre il numero di memoria riprese di valore nette. Nel caso di contesa pieno (32x32-bit accessi allo stesso indirizzo), il nuovo percorso di esecuzione atomica probabilmente fare tutto serializzazione prima di scrivere alla memoria - in modo che solo uno o due accessi alla memoria sono necessarie. C'è overhead aggiuntivo dalle operazioni reali, in modo da Nvidia superiore pretesa fine di una velocità di 20X fino riferisce solo al caso estremo di ridurre gli accessi di memoria 32-1, con un overhead di esecuzione. Questo a sua volta implica che l'esecuzione di 32 operazioni atomiche (escluso il write-back) è di circa la latenza come mezzo un viaggio nella memoria, forse intorno a 100-200ns.
In più realistici scenari di utilizzo, i vantaggi che le nuove operazioni atomiche saranno notevolmente inferiori, e in ultima analisi dipende la realizzazione delle operazioni atomiche, che non è stato divulgato. NVIDIA ha affermato incrementi nella velocità di 5-20X, purtroppo è difficile prendere in giro lo scenario corrispondente a una velocità di 5X up - e quindi per determinare se si applica davvero comuni usi atomica. Essa può avere a che fare con le unità supplementari atomica, che possono essere utilizzati in parallelo per le operazioni di uncontended, o può essere che molti casi di operazioni atomiche procedere con la latenza come prima - certamente condivisa Atomics memoria sono rimasti gli stessi. Fino a quando l'hardware viene rilasciato e analizzato, è solo un gioco di indovinare.
Per le attività non nucleari, la L2 atti anche a confluire molte richieste di memoria differenti (per esempio da un ordito complesso) in operazioni di meno, migliorando l'utilizzo della larghezza di banda.
Affidabilità
Come avevamo previsto in precedenza, Fermi avrà il sostegno ECC opzionale per proteggere i dati memorizzati nella memoria, sia per le DDR3 e GDDR5, e l'on-array chip SRAM sono inoltre protetti.
Il primo è sorprendente, come è stato progettato per DDR3 ECC fin dall'inizio. Tuttavia, ECC per la memoria grafica è molto più interessante, in quanto gli ingegneri Nvidia ha dovuto andare al di là delle specifiche GDDR5 per raggiungere tale livello di protezione. Purtroppo, Nvidia non ha svelato gli algoritmi e le tecniche utilizzate per ECC. Tuttavia, essi hanno detto che quando si usa ECC hanno osservato un calo delle prestazioni dell'applicazione del 5-20%, con alcune applicazioni che soffrono ancora di più. Questo probabilmente corrisponde a un calo del 25-30% nella larghezza di banda di memoria. Sarà interessante vedere i reali meccanismi e quanto la larghezza di banda e la capacità realmente costo, soprattutto se hanno fatto qualcosa di particolarmente nuovo.
Utilizzando ECC consente di proteggere i dati memorizzati in DRAM, ma non necessariamente proteggere i comandi, gli indirizzi ei dati che vengono inviati dal DRAM al controller di memoria (e vice versa) - che è il ruolo delle specifiche di interfaccia di memoria. GDDR5 è facoltativamente CRC e riprovare la protezione per le linee di trasmissione dei dati che corrono tra i controller di memoria e le DRAM, che Nvidia sicuramente uso. Tuttavia, la specifica GDDR5 non ha nessun supporto per proteggere il comando e affrontare le linee [5].
Così, mentre la trasmissione di dati possono essere protetti, non vi è alcuna garanzia che i dati siano effettivamente proveniente dalla posizione destra. Nvidia sostiene di avere un qualche tipo di protezione per il comando e affrontare le linee in GDDR5, che è possibile, ma sembra un po 'improbabile, senza una spiegazione del modo in cui esattamente raggiungere questo obiettivo. Ad esempio, ciascuna delle linee di comando e di indirizzo potrebbe essere replicata sul controller e di bordo e quindi verificata una contro l'altra prima di terminare al DRAM - ma questo sarebbe solo di individuare una classe molto limitato di errori. Questo non vuol dire che le affermazioni di Nvidia sono irragionevoli, ma a questo punto, lo scetticismo è meritato fino a quando i metodi effettivi sono resi noti.
Astute lettori noteranno che DDR3 non ha alcuna protezione di sorta. Tuttavia, questa non è la carenza grave sembra essere, come le linee dati sono sostanzialmente in esecuzione più lenta (massimo di 2 Gbps, rispetto a un minimo di 3.6gbps per GDDR5), quindi la possibilità di errori di trasmissione è di gran lunga inferiore.
Ingegneri Nvidia ha inoltre deciso di proteggere la 3.75MB on-array di chip SRAM con ECC, utilizzando un unico standard di errore corretto e duplice errore di rilevare (SECDED) algoritmo. Questo comprende i file 16x128KB registro, le cache 16x64KB L1D e 768KB di cache L2. La cache L1I non può essere protetto, in quanto è di sola lettura.
Per ora più ottimizzazioni avanzate, come tollerare fallimenti DRAM, pro-memoria attiva o lavaggio SRAM, non vengono attuate. Ma CPU di fascia alta come quelli di IBM e Intel hanno già calcato molto lontano su questa strada, lasciando una chiara tabella di marcia dovrebbe Nvidia e gli altri scelgono di seguire.
Software
Tutti i progressi in termini di programmabilità sono interessanti, ma fondamentalmente contare su team di Nvidia software per sbloccare loro per gli sviluppatori.
Le API standard sono ovvi candidati qui - Fermi è stato progettato per i più grandi: DX11 e DirectCompute su Windows, OpenCL e OpenGL per il resto del mondo. OpenCL 1,0 è relativamente nascente, essendo stato solo di recente finalizzato, e DX11 e DirectCompute non sono ancora fuori. Mentre questi sono indubbiamente il futuro per le GPU, OpenCL e DirectCompute mancano molte delle sottigliezze che NVIDIA offre con l'ambiente CUDA e API proprietarie.
CUDA è generalmente focalizzata sulla fornitura di supporto a livello di lingua per le GPU. Questo ha senso in quanto sfrutta una certa familiarità da parte degli sviluppatori. Ma la realtà è che le lingue che sostiene CUDA sono varianti delle lingue originali con estensioni proprietarie e solo un sottoinsieme degli impianti di piena del linguaggio. Attualmente, Nvidia ha CUDAfied C e Fortran, e in futuro con Fermi, che avrà una versione di C + +. Marketing di Nvidia è makinig sostiene ridicolo che prima o poi dovrà Python e il supporto Java, ma la realtà è che né la lingua può essere eseguito in modo nativo su una GPU. Un linguaggio interpretato, come Python avrebbe ucciso le prestazioni, e quindi ciò che probabilmente voleva dire è che Python e Java può chiamare librerie che sono scritti per sfruttare CUDA.
Pur essendo proprietario, l'ecosistema che Nvidia sta creando per gli sviluppatori CUDA è promettente. Anche se non è il ricco ecosistema di x86, ARM o PPC, è miglia davanti alla OpenCL o DirectCompute. Alcuni degli strumenti includono l'integrazione con Visual Studio e GDB, un profiler visiva, il monitoraggio delle prestazioni migliorate con Fermi, standard e formati binari (ELF e nano). NVIDIA ha anche il proprio set di librerie, che ora può essere aumentata con 3 librerie di terze parti che sono chiamati dalla GPU.
Ora che le norme alternative basate, come OpenCL esistono, CUDA è probabile che vedere più lento assorbimento. Molti clienti hanno imparato ad evitare le soluzioni da un'unica fonte, ad esempio IBM con processore Intel x86 chip nel PC originale. Ma CUDA manterrà importanza strategica per Nvidia come un modo per impostare il ritmo per OpenCL e DirectCompute.
Conclusioni
L'architettura di Fermi è chiaramente un passo verso una maggiore programmabilità e GPU based computing. Vi è una lista di nuove funzionalità, tutti che permetterà Fermi, quando viene rilasciato a farsi strada una maggiore nello spazio relativamente elevato margine di HPC. Alcune delle modifiche più importanti includono l'aggiornamento del modello di programmazione e di memoria, che abbraccia semi-cache coerente e una migliore performance a doppia precisione e la conformità IEEE meglio. E 'chiaro che Nvidia sta facendo un investimento generazione multi-GPU per il computing a spingere in fascia alta, anche se dovremo aspettare fino a prodotti di arrivare a determinare la reception.
Poiché non ci sono dettagli sui prodotti, molti aspetti chiave della performance sono sconosciute. La frequenza è probabile che nello stesso intervallo (+ / -30%) come GT200, e il GDDR5 probabilmente eseguito tra il 3,6-4.0GT / s, ma alimentazione e di raffreddamento sono sconosciuti e che potrebbero essere ovunque da 150-300W. La larghezza di banda e la capacità di una soluzione basata DDR3 è sconosciuto. Quindi da un punto di stand delle prestazioni, è molto difficile fare un confronto significativo per GPU di AMD, che è in realtà di spedizione. Le date di spedizione per la grafica e di calcolo prodotti a base di Fermi sono poco chiare, ma Q4 fine sembra essere il più presto possibile, con bassi volumi, mentre il volume effettivo non si verificheranno fino al 2010 - così valutare le prestazioni dovranno aspettare fino ad allora.
Forse la dimostrazione più significativi dell'impegno di Nvidia per calcolare è il fatto che una grande quantità di nuove funzionalità non sono particolarmente utili per la grafica. Doppia precisione non è molto importante, e durante la pulizia del modello di programmazione è attraente, è quasi obbligatorio. La vera questione è se Nvidia ha allontanato troppo dal sentiero della grafica, che dipende ancora una volta l'osservazione e l'analisi comparativa dei prodotti leader in tutta AMD, Nvidia e Intel line up, ma sembra che il rischio c'è, in particolare con AMD Graphics messa a fuoco.
Queste sono tutte domande importanti a riflettere nelle prossime settimane, e in realtà alimenterà la domanda finale tecnico - il destino di CPU e GPU di convergenza. Sarà la GPU essere messo da parte solo per la grafica, o come sarà il coprocessore in virgola mobile, un elemento essenziale di qualsiasi sistema? Will it get integrata on-die, e in che misura il mercato restano discrete? Queste sono tutte difficili da prevedere, ma è chiaro che Nvidia è il raddoppio sulla GPU come elemento integrante dell'ecosistema PC per la grafica e di calcolo e il tempo ci dirà il resto.
Sugli scaffali tra 5 o 6 mesi??? :eek:
goldorak
30-09-2009, 22:01
Sugli scaffali tra 5 o 6 mesi??? :eek:
Se e' vero, adesso stanno stappando lo champagne in AMD. :asd:
Direi che e' un ottima notizia per loro, sopratutto considerando come vanno le cose con le cpu.
Sugli scaffali tra 5 o 6 mesi??? :eek:
a quanto pare si e mi sa che per quanto i riguarda li rimarranno, 1000-1200 euro di scheda video (prezzo che ipotizzo visto che in ambito professionale sarà un mostro) non me la compro di sicuro ....
Se e' vero, adesso stanno stappando lo champagne in AMD. :asd:
Direi che e' un ottima notizia per loro, sopratutto considerando come vanno le cose con le cpu.
amd ha un approcio al mercato diverso da nvida da qui in avanti: amd punta a schede video consumer ottimizzate per il gaming, nvida si è spostata anche pesantemente in ambiti ultra professionali facendo una gpu enorme e molto costosa, cio' si traduce che i gamers (visti gli ipotizzabili costi delle nuove vga saran cosi alti) si riverseranno a comprare ati.
goldorak
30-09-2009, 22:02
Beh io lo dico da sei mesi :D
:ave: :ave: a Nostradamus.
:ave: :ave: a Nostradamus.
però mi pare strano che intanto se ne stiano a guardare. Credete che faranno uscire qualche altra scheda con gt200 per evitare di perdere una buona fetta di mercato?
Sugli scaffali tra 5 o 6 mesi??? :eek:
Peggio di quanto pensassi precedentemente. 6 mesi di leadership per RV870, quando GF100 sarà sul mercato, il refresh di Ati non sarà lontano. Nvidia è out per questo giro. Quoto goldrak, alla fine Nvidia sta agendo anche con lungimiranza. Tutti i principali attori hanno CPU e GPU, Nvidia sta tentando la sua strada: se avrà successo potrebbere portare grossi guadagni e la trasformazione del mercato.
goldorak
30-09-2009, 22:06
però mi pare strano che intanto se ne stiano a guardare. Credete che faranno uscire qualche altra scheda con gt200 per evitare di perdere una buona fetta di mercato?
E cosa ? A parte versioni overclockate delle schede G92 e GT200 non vedo cos'abbiano di disponibile. Sara' una stagione natalizia nera per Nvidia.
però mi pare strano che intanto se ne stiano a guardare. Credete che faranno uscire qualche altra scheda con gt200 per evitare di perdere una buona fetta di mercato?
Ne dubito. Per agguantare Cypress servirebbero clock superiori al 30%, e comunque non converrebbe a Nvidia.
Se e' vero, adesso stanno stappando lo champagne in AMD. :asd:
Direi che e' un ottima notizia per loro, sopratutto considerando come vanno le cose con le cpu.
Se è vero per nVidia equivale ad una martellata nelle parti intime, evidentemente i problemi non sono solo le rese, ma c'è ben altro che ha fatto slittare così tanto il progetto, non dimentichiamoci che nVidia va avanti con rebrand da tanto ormai...
O davvero vuole spostare il target dei suoi prodotti un pò fuori dal consumer, ma la vedo un pò difficile, o non so che pensare. Intanto da il tempo ad ATI sia di riempire tutte le fascie di mercatoa saturazione sia di tirar fuori un'altra versione single chip potenziata, cosa fatta in passato con la 4890, solo che a questo giro la possibilità di usare SP dormienti è alta, ci sono, stanno li!
Peggio di quanto pensassi precedentemente. 6 mesi di leadership per RV870, quando GF100 sarà sul mercato, il refresh di Ati non sarà lontano. Nvidia è out per questo giro. Quoto goldrak, alla fine Nvidia sta agendo anche con lungimiranza. Tutti i principali attori hanno CPU e GPU, Nvidia sta tentando la sua strada: se avrà successo potrebbere portare grossi guadagni e la trasformazione del mercato.
Allora il mercato attuale vede Amd e Ati assieme quindi gpu+cpu futuro buldozzer 2011 cpu e gpu integrate con knowhow alto in entrambi gli ambiti
Intel potentissima e leader in tutto e per tutto, fa sia gpu sia cpu e tra poco usciranno le cpu con gpu integrata, entro il 2011 esce larabbee
Nvida: solo knowhow in ambito gaming, migrazione verso utilizzi professionali e accellerazione tramite la gpu prezzi elevati per le proprie vga e presumibile perdita di una fetta di mercato consumer, tentativo di non stagnarsi perchè dopo il 2011 la vedo durissima per l'azienda di santa clara se non trova sbocchi.
Secondo me nel mercato professionale potrebbe farcela, ma andando avanti cosi nel mercato desktop avrà veramente pochi sbocchi, dovrebbe comprare una ditta con licenza x86, ma la vedo durissima, anche perchè sia amd sia intel metteranno dentro le proprie configrazioni complete sia nei desktop sia nei portatili tutti i loro prodotti....
Io mi aspetto nel Q4 almeno uno SKU GeForce 3xx basato su G200 shrinkato a 40nm. Ma come dicevo tempo addietro non so quanto sia fattibile il bus 512b in quel caso (deve ridurlo e passare quindi alle GDDR5?) e se non dovrebbe almeno agguantare le DX10.1, visto che nel low end ci sono riusciti, anche se con qualche travaglio nel percorso.
il bus pare non essere di 512 bit alla luce delle slide....
comunque non mi stupirei già se l'anno prossimo nvida destinerà molto meno i propri sforzi nell'ambito gaming, dove i profitti son limitati, e che migri verso altri settori di nicchia potendo anche mettere il prezzo delle proprie vga a 3000-4000 euro garantendole grandi profitti....
goldorak
30-09-2009, 22:14
Se è vero per nVidia equivale ad una martellata nelle parti intime, evidentemente i problemi non sono solo le rese, ma c'è ben altro che ha fatto slittare così tanto il progetto, non dimentichiamoci che nVidia va avanti con rebrand da tanto ormai...
O davvero vuole spostare il target dei suoi prodotti un pò fuori dal consumer, ma la vedo un pò difficile, o non so che pensare. Intanto da il tempo ad ATI sia di riempire tutte le fascie di mercatoa saturazione sia di tirar fuori un'altra versione single chip potenziata, cosa fatta in passato con la 4890, solo che a questo giro la possibilità di usare SP dormienti è alta, ci sono, stanno li!
Questo e' quanto riportato da Anandtech :
I asked two people at NVIDIA why Fermi is late; NVIDIA's VP of Product Marketing, Ujesh Desai and NVIDIA's VP of GPU Engineering, Jonah Alben. Ujesh responded: because designing GPUs this big is "fucking hard".
:sofico: quindi di problemi ne hanno eccome
Fonte : http://www.anandtech.com/video/showdoc.aspx?i=3651
halduemilauno
30-09-2009, 22:15
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png
;)
goldorak
30-09-2009, 22:18
Halduemilauno : ti dispiace rimpicciolire un po' la slide ?
Chissà perchè quando sento che nVidia si sta spostando nell'ambito più professionale mi viene in mente Matrox!! Sappiamo com'è finita e non era certo una casetta da due lire :mbe:
E' un parallelismo sicuramente forzatissimo, ma mollare gradualmente il lato game per uno che fa solo schede video mi pare un suicidio :fagiano:
Foglia Morta
30-09-2009, 22:20
Intende su un piano di prezzo/prestazioni.
3 miliardi di transistors significa avere un chip di circa 500 mm^2
Dovrebbero aver migliorato molto la densità dei transistors. Ma CJ aveva detto che il die è quasi come quello di GT200 a 65nm
A 55nm ATi ha infilato circa il 22% di transistors in più in ciascun mm^2 . Cypress ha una densità di 6,5 milioni di transistors per mm^2 ( hanno migliorato dai 6 milioni per mm^2 di RV740 ). Se dovesse esserci un vantaggio del 20% circa allora una gpu da 3 miliardi transistors avrà un die size di circa 550 mm^2
Questo e' quanto riportato da Anandtech :
:sofico: quindi di problemi ne hanno eccome
Fonte : http://www.anandtech.com/video/showdoc.aspx?i=3651
Vabè noi non sappiamo tutto. Spero che ad Nvidia abbiano un piano di riserva e che tra un paio di mesi possiamo vedere gt 200 a 40 nm. Secondo me converrebbe anche vendere un po' in perdita pur di non passare 6 mesi tagliati fuori (sempre che effettivamente gt 300 esca tra 6 mesi)
Dei 512bit parlavo di G200 e possibile shrink @40nm.
Il mercato GPGPU potrebbe essere molto redditizio, ma mai quanto mettere una propria GPU nei notebook e nei desktop dei grandi marchi (HP, Acer, DELL). I soldi veri si fanno li.
sta strategia nvida la vedo l'unica via d'uscita: intel ha mostrato larabbe, amd ati secondo me hanno già buldozzer a breve da testare a partire dal q1 2010 quindi venderanno insieme alla cpu anche una gpu integrata, nvida o si dedica ad altro oppure ha pochi sbocchi per far profitti......e i soldi per usi professionali si fanno, le aziende nè hanno molti di piu' degli utenti consumer.....
Foglia Morta
30-09-2009, 22:27
Penso sia Fermi :stordita:
http://img28.imageshack.us/img28/6070/dieshot1s.jpg
dimensioni reali? :sofico:
Foglia Morta
30-09-2009, 22:40
There is no hardware tessellation unit, the function is implemented on a program level
A sentire ATi il tessellatore sono una miseria di transistors e l'implementazione in hardware dovrebbe essere più veloce :confused:
dimensioni reali? :sofico:
Impossibile dirlo da quell' immagine :)
http://i35.tinypic.com/2yvs2sn.jpg
Sergio_Di_Rio
30-09-2009, 22:44
Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=7
Ah! Dio salvi la concorrenza (non sleale :grrr: )..cmq anche se si conoscono solo dettagli sull'architettura, soprattutto in relazione alle funzioni di GPGPU, "Fermi" potrebbe essere una bella bomba. Certo se non lo fosse, con 3 miliardi di transistor (!!!) sarebbe un' "epic fail".
Perhaps Fermi will be different and it'll scale down to $199 and $299 price points with little effort? It seems doubtful, but we'll find out next year.
Se non vedo non credo :asd:
If Fermi doesn't significantly increase Tesla revenues then we know that NVIDIA is in serious trouble.
The architecture looks good, Fermi just needs to be priced right. Oh and the chip needs to hurry up and come out.
Concordo.
halduemilauno
30-09-2009, 22:53
una serie di slides...
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/offiziell_fermi_gt300/
http://pics.computerbase.de/2/7/0/4/2/1.png
sickofitall
30-09-2009, 23:04
spero solo che con queste premesse poi nvidia non fissi il prezzo d'acquisto troppo in alto, sennò si tirerebbe la zappa sui piedi :rolleyes:
leoneazzurro
30-09-2009, 23:07
16 valori INT8 per clock per cluster significano 256 sul chip.
Quindi per il texturing, si ha l´equivalente di 256 TMU.
Probabile peró che per risparmiare spazio i vari di filtraggio FP16 e FP32 siano rispettivamente dimezzati e 1/4.
Problemi di banda per gestire tutte queste TMU?
Hmm.. possibile che non ci siano piú le TMU in senso classico, il filtraggio sarebbe svolto negli shader
mister-x
30-09-2009, 23:28
Nvidia's 'Fermi' GPU architecture revealed (http://techreport.com/articles.x/17670)
"Fermi chip dovrebbe essere vicino ai 467 mm ² contro i 334 mm² di Cypress "
"GFLOPS 1536 in precisione singola, circa la metà del picco della Radeon HD 5870, ma non è molto diverso dal divario tra la GeForce GTX280 e la Radeon HD 4870 tuttavia la GTX280 risulta globalmente più veloce nelle applicazioni 3D"
"768 GFLOPS in precisione doppia che è del 50% superiore alla Radeon HD 5870"
"larghezza di banda memoria pari a 230 GB / s, di nuovo circa il 50% superiore alla Radeon HD 5870"
Kharonte85
01-10-2009, 00:21
Mamma mia che roba...potrebbe essere una svolta abbastanza storica, e comunque non credo affatto che le prestazioni nel 3d possano risentirne piu' di tanto...tutto di guadagnato; resta solo da sapere quando...:fagiano:
goldorak
01-10-2009, 00:36
Nvidia's 'Fermi' GPU architecture revealed (http://techreport.com/articles.x/17670)
"Fermi chip dovrebbe essere vicino ai 467 mm ² contro i 334 mm² di Cypress "
"GFLOPS 1536 in precisione singola, circa la metà del picco della Radeon HD 5870, ma non è molto diverso dal divario tra la GeForce GTX280 e la Radeon HD 4870 tuttavia la GTX280 risulta globalmente più veloce nelle applicazioni 3D"
"768 GFLOPS in precisione doppia che è del 50% superiore alla Radeon HD 5870"
"larghezza di banda memoria pari a 230 GB / s, di nuovo circa il 50% superiore alla Radeon HD 5870"
Scusa ma da dove viene la stima di 230 GB/s di banda passante ?
Sul sito Real World Technologies hanno fatto una analisi in profondita' di Fermi e la larghezza di banda stimata e' molto meno di 230 GB/s.
Fermi has six GDDR5 memory controllers, each operating two channels of memory. The memory interface is 384-bit wide and can also be configured to access DDR3 memory. Since Nvidia is not disclosing any product or operational characteristics of Fermi, we must make some educated guesses regarding memory bandwidth. At GDDR5 speeds of 3.6gbps, this would yield 172.8GB/s of memory bandwidth, barely edging out AMD’s latest offering. A DDR3 memory interface operating at the standard 1.6gpbs rate would yield just 76.8GB/s, while a 1.575 volt, 2gbps interface would achieve 96GB/s. Something to keep in mind though, is that compute oriented GPUs typically operate their memory interfaces at lower frequencies – Tesla peaked at 1.6GT/s GDDR3 versus 2.2GT/s for consumer oriented products, likely for stability and capacity reasons.
Fonte : http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=3
Kharonte85
01-10-2009, 00:52
Scusa ma da dove viene la stima di 230 GB/s di banda passante ?
Sul sito Real World Technologies hanno fatto una analisi in profondita' di Fermi e la larghezza di banda stimata e' molto meno di 230 GB/s.
Fonte : http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=3
Quel conto sarebbe corretto se il bus fosse a 512bit e memoria @ 3600 (ormai ipotesi da scartare)...oppure con gddr5 @ 4800 ---> *384/8 = 230 GB/s
sarà 190 GB/s circa se le Gddr5 saranno @ 4000, che comunque è un valore enorme (150GB/s circa la Hd5870)
Mamma mia che roba...potrebbe essere una svolta abbastanza storica, e comunque non credo affatto che le prestazioni nel 3d possano risentirne piu' di tanto...tutto di guadagnato; resta solo da sapere quando...:fagiano:
Nvidia ha bisogno di una architettura efficente per il rapporto performance/mm^2, sopratutto per la fascia media e bassa.
Come è possibile che questa architettura sopperisca a questa necessità? Buona parte dei transistor saranno dedicate alla logica e alla cache per il DP, inutili su schede da 100$.
16 valori INT8 per clock per cluster significano 256 sul chip.
Quindi per il texturing, si ha l´equivalente di 256 TMU.
Probabile peró che per risparmiare spazio i vari di filtraggio FP16 e FP32 siano rispettivamente dimezzati e 1/4.
Problemi di banda per gestire tutte queste TMU?
Hmm.. possibile che non ci siano piú le TMU in senso classico, il filtraggio sarebbe svolto negli shader
Ma in Larabee il filtraggio lo fanno le TMU o i core?
Comunque sia che ATi che Nvidia stanno pian piano riducendo le fixed function unit.
PS: Qualcuno chiama yoss :D
Visit Our GPU Tech Conference Blog for Real-time Event Coverage: Welcome to nTersect, NVIDIA’s (http://blogs.nvidia.com/gtc/)
goldorak
01-10-2009, 06:15
Nvidia ha bisogno di una architettura efficente per il rapporto performance/mm^2, sopratutto per la fascia media e bassa.
Come è possibile che questa architettura sopperisca a questa necessità? Buona parte dei transistor saranno dedicate alla logica e alla cache per il DP, inutili su schede da 100$.
Difatti, questa scheda non la vedremo mai nella fascia bassa, e dubito anche in quella media. Secondo me Nvidia dovra' per forza di cose eliminare tutte le unita' DP (o una buona parte di esse) insieme a qualche cluster e le funzionalita' di ecc per ottenere una versione adatta alla fascia bassa e media. E anche cosi' ho grossi dubbi che possa competere con RV870.
Nvidia's 'Fermi' GPU architecture revealed (http://techreport.com/articles.x/17670)
"Fermi chip dovrebbe essere vicino ai 467 mm ² contro i 334 mm² di Cypress "
"GFLOPS 1536 in precisione singola, circa la metà del picco della Radeon HD 5870, ma non è molto diverso dal divario tra la GeForce GTX280 e la Radeon HD 4870 tuttavia la GTX280 risulta globalmente più veloce nelle applicazioni 3D"
"768 GFLOPS in precisione doppia che è del 50% superiore alla Radeon HD 5870"
"larghezza di banda memoria pari a 230 GB / s, di nuovo circa il 50% superiore alla Radeon HD 5870"la cosa assurda è che da GT200 a GF100 (fermi) , la situazione si è capovolta
cioè GF100 fermi è regredito in singola precisione , rispetto alla ati 5870 , ma è + potente in DP.
quindi è chiaro con la DP l'orientamento GPGPU.
Ma se in singola precisione , che è quella sfruttata nei giochi , è circa 1,5 Tflops , contro in 2,7 Tflops di ati 5870 , allora significa che nei giochi il GT300 sarà quasi metà + lento di ati 5870 ???
Non riesco acapire, non mitornano diversi conti..:confused: :confused:
E poi , addirittura 1000 euro all'uscita???
Non credo che xacchio!!!
penso sui 500 euri ....:confused: :confused:
Ma se in singola precisione , che è quella sfruttata nei giochi , è circa 1,5 Tflops , contro in 2,7 Tflops di ati 5870 , allora significa che nei giochi il GT300 sarà quasi metà + lento di ati 5870 ???Ovviamente no.
Foglia Morta
01-10-2009, 07:32
6 + 8 pin
http://img38.imageshack.us/img38/909/001238703.th.jpg (http://img38.imageshack.us/i/001238703.jpg/)http://img38.imageshack.us/img38/774/001238705.th.jpg (http://img38.imageshack.us/i/001238705.jpg/)http://img194.imageshack.us/img194/5690/001238704.th.jpg (http://img194.imageshack.us/i/001238704.jpg/)http://img30.imageshack.us/img30/1913/001238706.th.jpg (http://img30.imageshack.us/i/001238706.jpg/)http://img30.imageshack.us/img30/9715/001238708.th.jpg (http://img30.imageshack.us/i/001238708.jpg/)
goldorak
01-10-2009, 07:39
:eek: ma quanto e' grande la gpu ?
Interessante la soluzione dell'alimentazione. 8 pin dietro e 6 pin sopra.
bye
Andrea deluxe
01-10-2009, 07:54
mi sono letto un po le analisi dell'architettura.....
e noto che:
l'architettura e' allo stesso tempo diversa da gt200, ma ottimizzata per scopi grafici.(sembra che siano partiti da un progetto molto gp-gpu oriented e abbiano apportato le modifiche per renderla graficamente performante)
che la cache unificata ha un ruolo importante nelle performance dell'intera architettura(sia grafica che gp)
che la gpu ha il supporto al controllo ECC DDR3, ma quando viene attivata ci sono perdite di performance(banda) fino al 30%.(e penso sara' utilizzata solo sulle tesla visto che chip a doppia densita' sono solo le ddr3(vedi sk da 6gb))
halduemilauno
01-10-2009, 07:54
un utile riassunto...
http://www.hardware-infos.com/news.php?news=3226
;)
halduemilauno
01-10-2009, 07:57
mi sono letto un po le analisi dell'architettura.....
e noto che:
l'architettura e' allo stesso tempo diversa da gt200, ma ottimizzata per scopi grafici.(sembra che siano partiti da un progetto molto gp-gpu oriented e abbiano apportato le modifiche per renderla graficamente performante)
che la cache unificata ha un ruolo importante nelle performance dell'intera architettura(sia grafica che gp)
che la gpu ha il supporto al controllo ECC DDR3, ma quando viene attivata ci sono perdite di performance fino al 30%.(e penso sara' utilizzata solo sulle tesla visto che chip a doppia densita' sono solo le ddr3(vedi sk da 6gb))
si infatti le unità a singola precisione sono passate da 240 a 512(2,2 volte)ma le unità a doppia precisione sono passate da 30 a 256(8,5 volte).
aggiungo una foto...
http://i34.tinypic.com/34inz9j.jpg
mi pare + corta della 5870.
michelgaetano
01-10-2009, 07:57
Sarò un pignolo, ma l'utilità di un connettore davanti e uno dietro?
Cioè leva spazio da entrambe le parti... :stordita:
goldorak
01-10-2009, 07:59
Sarò un pignolo, ma l'utilità di un connettore davanti e uno dietro?
Cioè leva spazio da entrambe le parti... :stordita:
Si infatti e' una scelta ridicola.
Forse si sono messi a far concorrenza sulla disposizione dei connettori non avendo nient'altro sotto mano. :asd:
Andrea deluxe
01-10-2009, 08:03
e' corta!
Skullcrusher
01-10-2009, 08:05
e' corta!
Già, decisamente corta, c'è qualcosa che non mi torna :mbe:
michelgaetano
01-10-2009, 08:21
Ottimo che sia corta, ma peccato appunto perda poi lunghezza nel connettore posteriore :doh:
Dalla foto sembrerebbe qualcosa alla 4870/5850, cioè sui 24 cm e poco più, cosa molto buona.
Secondo voi la versione castrata (ipotetica 360 o come la si vuole chiamare) scenderà ad un 6+6 pin?
molochgrifone
01-10-2009, 08:24
Sarò un pignolo, ma l'utilità di un connettore davanti e uno dietro?
Cioè leva spazio da entrambe le parti... :stordita:
Quotone! :eek:
Però il look nero lucido+simil carbonio mi piace assai:sbav:
Piuttosto vi faccio una domanda e vi chiedo scusa se magari vi farò ripetere qualcosa di già scritto, ma purtroppo ho pochissimo tempo per seguire il forum (infatti seguo solo questo thread per cercare di capire se la prox VGA sarà una 5870 toxic o qualcos'altro, e tra l'altro seguo il thread saltando qua e là e saltando a piè pari le vostre squisite disamine tecniche - tanto non ci capirei niente - e i link di rimando ad altri siti): parlate di nVidia poco competitiva nei confronti di RV870 per una questione di performance assolute o per una questione di costi nei confronti delle soluzioni ATI?
michelgaetano
01-10-2009, 08:27
Quotone! :eek:
Però il look nero lucido+simil carbonio mi piace assai:sbav:
Piuttosto vi faccio una domanda e vi chiedo scusa se magari vi farò ripetere qualcosa di già scritto, ma purtroppo ho pochissimo tempo per seguire il forum (infatti seguo solo questo thread per cercare di capire se la prox VGA sarà una 5870 toxic o qualcos'altro, e tra l'altro seguo il thread saltando qua e là e saltando a piè pari le vostre squisite disamine tecniche - tanto non ci capirei niente - e i link di rimando ad altri siti): parlate di nVidia poco competitiva nei confronti di RV870 per una questione di performance assolute o per una questione di costi nei confronti delle soluzioni ATI?
Sicuramente costi.
Le stesse 5870 e 5850, per quanto come prestazioni superiori alla gpu singola migliore Nvidia (285), non vedono un abisso di vantaggio (parliamo di un 10/15 % per la 5850 e di un 30/35 %, entrambe medie che saliranno col naturale miglioramento dei drivers).
In questo senso è quasi impossibile pensare che Nvidia non sfornerà una gpu più veloce, viste le specifiche rumorate e, soprattutto, il ritardo con cui esce.
halduemilauno
01-10-2009, 08:36
http://www.hwupgrade.it/news/skvideo/presentata-fermi-la-nuova-architettura-nvidia-per-gaming-e-calcolo-parallelo_30288.html
Il debutto era atteso proprio in occasione del GTC, GPU Technology Conference di San José, California, in presenta di un folto pubblico di giornalisti (fra cui noi), analisti e operatore del settore in genere. Così è stato: la nuova architettura di casa Nvidia, ufficialmente chiamata "Fermi", è stata mostrata direttamente da Jen-Hsun Huang, presidente e CEO di Nvidia Corporation.
L'architettura, indicata in precedenza anche con la sigla GT300, mette le basi alla produzione di fascia alta destinata al mondo high-end desktop, professionale e High Performance Computer, rispettivamente con le linee GeForce, Quadro e Tesla. Diverse le novità architetturali rispetto all'attuale produzione, fra cui spicca in primis il processo produttivo a 40nm, che ha permesso di integrare ben 3 miliardi di transistor nel chip.
Le novità non si fermano qui: il numero di shader, ora battezzati Cuda Core, salgono a ben 512, raccolti in 16 Shader Cluster da 32 Cuda Core ciascuno. Oltre ad una memoria cache L1 da 1MB, fa la sua comparsa una memoria L2 unificata da 768KB. Per quanto riguarda il quantitativo di memoria video "classica", a seconda dei modelli già citati in precedenza, si parla di valori che andranno da 1,5GB a ben 6GB per il modello Tesla, sfruttando chip di tipo DDR5 su frame buffer da 384bit di ampiezza.
Con questa news abbiamo voluto fornire un'anticipazione su alcune delle caratteristiche dell'architettura Nvidia Fermi (nome preso in prestito proprio dal nostro premio Nobel Enrico Fermi), che verrà trattata con maggiore dettaglio attraverso un articolo dedicato previsto per la giornata odierna.
cmq il ceo di nvidia ha dichiarato che la commercializzazione sarà entro l'anno(il solito martedi)ovviamente non specificato.
http://www.clubic.com/actualite-302848-nvidia-cgpu-gt300-fermi.html
in quanto alle prestazioni confidenzialmente si è parlato di 50% in + rispetto alla 5870(ovviamente si aspettano tutti i riscontri del caso).
;)
Come molti ho atteso con ansia la presentazione della nuova architettura ma devo dire di essere piuttosto confuso; non riesco ad immaginare se e quanto GF100 sarà efficiente in ambito gaming visto che sembra un aspetto quasi secondario. Molto incerte anche date e prezzi :confused: :confused: :confused: . Per Ati almeno si era capito qualcosa in più :doh:
Sarò un pignolo, ma l'utilità di un connettore davanti e uno dietro?
Cioè leva spazio da entrambe le parti... :stordita:
Scelta pessima, cmq sia è una Tesla spero che la versione Geforce sia diversa in tal senso e che abbia i due connettori adiacenti!
michelgaetano
01-10-2009, 08:42
in quanto alle prestazioni confidenzialmente si è parlato di 50% in + rispetto alla 5870(ovviamente si aspettano tutti i riscontri del caso).
;)
Anche Ati diceva 56 % meglio di gtx 285 dalle slide, un 20 % l'ha perso per strada :asd:
Se davvero fosse un 30 % migliore di 5870, avremmo una ipotetica versione castrata (360 o per lei) a battagliare con 5870.
Ricorda niente? :fagiano:
leoneazzurro
01-10-2009, 08:46
Ma in Larabee il filtraggio lo fanno le TMU o i core?
Comunque sia che ATi che Nvidia stanno pian piano riducendo le fixed function unit.
PS: Qualcuno chiama yoss :D
In Larrabee le TMU sono unità fixed function, come in Cypress.
Ne parlano anche sul sito ufficiale:
http://www.nvidia.it/object/fermi_architecture_it.html
michelgaetano
01-10-2009, 08:50
Scelta pessima, cmq sia è una "Tesla" spero che la versione Geforce sia diversa in tal senso e che abbia i due connettori adiacenti!
Spero anch'io :D
sickofitall
01-10-2009, 09:06
ma se già hanno mostrato la scheda fatta e rifinita (di solito gli ES sono senza sticker), secondo me non passeranno 2 mesi come si dice, ma è più probabile fine ottobre/inizio novembre
ma se già hanno mostrato la scheda fatta e rifinita (di solito gli ES sono senza sticker), secondo me non passeranno 2 mesi come si dice, ma è più probabile fine ottobre/inizio novembre
Chi ci dice che non sia tutta una montatura per invogliare gli indecisi ad aspettare ? magari è solo una "scatola vuota" :)
Erythraeum
01-10-2009, 09:08
C'è qualcosa che non torna: sul dietro mi pare di vedere solo le saldature per... un 8 pin! :confused: :stordita:
michelgaetano
01-10-2009, 09:16
ma se già hanno mostrato la scheda fatta e rifinita (di solito gli ES sono senza sticker), secondo me non passeranno 2 mesi come si dice, ma è più probabile fine ottobre/inizio novembre
Chi ci dice che non sia tutta una montatura per invogliare gli indecisi ad aspettare ? magari è solo una "scatola vuota" :)
Ottimisticamente sarà sotto dicembre, altrimenti Q1 come si è sempre vociferato, visto che dovrebbero ancora decidere i clock e tutto.
Intanto, bel design :D
http://www.tomshw.it/articles/20091001/scheda-video-gt300-2_c.jpg
Chi ci dice che non sia tutta una montatura per invogliare gli indecisi ad aspettare ? magari è solo una "scatola vuota" :)
tutto è possibile al giorno d'oggi ;)
Andrea deluxe
01-10-2009, 09:18
Chi ci dice che non sia tutta una montatura per invogliare gli indecisi ad aspettare ? magari è solo una "scatola vuota" :)
il lancio della gtx 380 avverra' probabilmente il 18 Novembre........
cosi' come fu lanciata nel 2006 la 8800gtx!
e poi uscira' tutto il resto......della line-up
ps: qui ci vorrebbe Ratatosk con i suoi Bookmark...... :sbonk:
Bastoner
01-10-2009, 09:20
Ma come mai non una parola in ambito gaming?:confused:
è davvero un peccato che fermi non abbia le tecnologie eyefinity, havock e stream senno mi sarei orientato su questa gpu.....per quanto riguarda il gaming non saprei perchè non parlano, magari come dicevo ieri si vorranno dedicare ai professionisti.....
michelgaetano
01-10-2009, 09:23
il lancio della gtx 380 avverra' probabilmente il 18 Novembre........
cosi' come fu lanciata nel 2006 la 8800gtx!
e poi uscira' tutto il resto......della line-up
ps: qui ci vorrebbe Ratatosk con i suoi Bookmark...... :sbonk:
Sei spacciato :asd:
halduemilauno
01-10-2009, 09:23
http://www.hardware.fr/medias/photos_news/00/27/IMG0027025.gif
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
Andrea deluxe
01-10-2009, 09:25
Ma come mai non una parola in ambito gaming?:confused:
la presentazione dura 3 giorni.....
forse oggi e domani si dedicheranno a farci vedere qualcosa nel gaming.....
(cmq la gente che ha bisogno di potenza di calcolo specifica e' tanta.... se questi qui hanno fatto una gpu che va bene nel gaming e nel gp hanno preso 2 piccioni con una fava.....)
ma il riscio e' davvero elevatissimo....
coraggiosi alla nvidia....con ste mosse di sti tempi si rischia il fallimento (se vanno male)
Andrea deluxe
01-10-2009, 09:25
Sei spacciato :asd:
:O
Simedan1985
01-10-2009, 09:44
Cmq vedendo ste schede pronte ,mi viene da pensare che i tempi si accorcino notevolmente.Ci può essere qualcosa per windows 7???
halduemilauno
01-10-2009, 09:47
Cmq vedendo ste schede pronte ,mi viene da pensare che i tempi si accorcino notevolmente.Ci può essere qualcosa per windows 7???
windows 7 è previsto per il 22 ottobre credo che per quel giorno ci saranno slides ufficiali. la commercializzazione è prevista nel corso di novembre.
tocca aspettare.
martinez1983
01-10-2009, 10:02
Mi pare di aver capito,che il tessellatore non ci sarà???
Ma non sarà una mossa sbagliata??? Ma le dx11 non lo prevedevano come specifica???
http://www.hardware.fr/medias/photos_news/00/27/IMG0027025.gif
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
Oddio, vedendo questa slide non è che sia poi un mostro come potenza di calcolo...o meglio lo è in confronto a GT200, ma rispetto a RV870 mica tanto
halduemilauno
01-10-2009, 10:08
Oddio, vedendo questa slide non è che sia poi un mostro come potenza di calcolo...o meglio lo è in confronto a GT200, ma rispetto a RV870 mica tanto
sono architetture diverse infatti gia nel passato le nvidia andavano meglio con molti Gflops di meno a loro disposizione. e cmq li su sette parametri presi in esame nvidia è in vantaggio su 4.
sono architetture diverse infatti gia nel passato le nvidia andavano meglio con molti Gflops di meno a loro disposizione. e cmq li su sette parametri presi in esame nvidia è in vantaggio su 4.
Si ma dove è in vantaggio non lo è poi di moltissimo.
Più che altro, visto che è così votata al gpu computing mi aspettavo potenze di calcolo molto superiori.
Cmq personalmente la cosa che più mi interessa è l'ambito gaming, toccherà aspettare ancora un pò.
Athlon 64 3000+
01-10-2009, 10:14
Se riescono a commercializzarla già a novembre state certi che per la concorrenze è una vero toccasana e se le prestazioni saranno superiori alla HD 5870 facciamo di un 30-35% e se la mettono a 399$ dara parecchio filo da torcere alla scheda ATI e AMD di conseguenza abbasserà il prezzo.
Altra cosa che mi lascia sopreso è che il pcb è lungo come la HD 4870 1gb nonostante le dimensioni della GPU e il bus più ampio rispetto a RV870.
Lo ho sempre detto che con la HD 5870 il pcb è eccessivamente troppo lungo e questa scheda ne è la dimostrazione.
Ricordo inoltre che in Fermi alias GT300 il controller di memoria dovrebbe essere stato completamente riprogettato perchè quello del G8x/GT2xx era incompatibile con le gddr5.
Anche Ati diceva 56 % meglio di gtx 285 dalle slide, un 20 % l'ha perso per strada :asd:
Se davvero fosse un 30 % migliore di 5870, avremmo una ipotetica versione castrata (360 o per lei) a battagliare con 5870.
Ricorda niente? :fagiano:
GT200 vs 4870 :) . Comunque in questo caso ATI una scena del genere l'ha prevista, come per le 4870 solo che in quel caso è stato necessario più tempo per molte e diverse ragioni. In questo caso con le 5870 che sono uscite per prime, quando usciranno queste gtx300 stai tranquillo che si incomincerà a vociferare delle 5890, a questo punto sul GHz di core a default.
Pensavo e speravo comunque che queste 5870 fossero potenti almeno quanto una 4870x2 in ambito dx9 e dx10, così non mi sembra che sia stato perché ci sono casi in cui vanno meno e secondo il mio punto di vista non è accettabile. Volevo prendermene una ma ci ho seriamente ripensato. C'è da dire comunque che sono appena uscite e quindi i driver sono acerbi, e poi cosa non da poco c'è da considerare l'aspetto dx11. Le premesse ci sono, le potenzialità anche ma la situazione non è sempre così rosea :
http://www.pctunerup.com/up/results/_200910/20091001113043_pcgh.JPG
Ottime le 5850, specialmente dell'asus (+38% di performance in OC con voltmod software, 1050 di core a detta di asus, al vantage extreme 300 punti in meno di una 5870 oc a 1030 :p ) ma le 5870 non è che mi convincano molto. Alla fine comunque sono ottime schede per via di tutte le nuove feature, specialmente sotto il punto di vista della qualità grafica e dei meravigliosi consumi, però in quanto a prestazioni il divario non è così brutale, come sarebbe dovuto essere secondo me. Però il discorso è relativo e varia da engine ad engine, senza parlare dell'ottimizzazione driver e dei discorsi legari al ''TWIMTBP'' e conseguenti '' sovvenzioni in sede di sviluppo. Relativamente a quest'ultimo discorso il ceo di amd ha detto che per quanto riguarda l'ultimo need for speed e resident evil5 non gli è stato concesso nemmeno di avere una beta pre-release del gioco, per fare tutti i test e per ottimizzare le proprie soluzioni. Il che è assurdo ed allucinante, concorrenza sleale a mio avviso. Ricordiamoci poi i discorsi delle dx10.1 e dell'aa di assassins creed
Queste nuove nvidia sembrano interessanti ma il problema potrebbe essere il prezzo. Si riporta che punteranno grossomodo alle stesse fasce di prezzo di ati però sicuramente i prezzi saranno relativi alle prestazioni complessive, e logicamente ai costi di produzione parecchio elevati, perlomeno iniziamente.
Se nvidia dovesse tirare fuori una vga mostruosa per loro sarebbe quasi necessario però ati sotto questo punto di vista è pronta : 5850x2 magari con frequenze leggermente pompate. Sono risolti i problemi della memoria, per via del fatto che ogni gpu ha 1gb onboard quindi già si parte senza potenziali problemi. Insomma, a gennaio ne vedremo delle belle :) .
Mi pare di aver capito,che il tessellatore non ci sarà???
Ma non sarà una mossa sbagliata??? Ma le dx11 non lo prevedevano come specifica???
Davvero ? Spero che magari sarà emulato mediante qualche altra unità perché sembra davvero interessante. Non ce l'aveva già la 2900xt ? Si sa nulla su una qualche migliore gestione delle texture (algoritmi di compressione) in queste gt300 ? Le 5870 hanno migliorato notevolmente questo aspetto, con algoritmi che ridimensionano notevolmente il rumore di fondo nell'atto della compressione ed infatti come si è visto in alcuni screenshot il risultato è molto evidente, netta qualità grafica migliore. Vediamo se trovo lo screenshot : eccoli .. http://www.pcgameshardware.com/aid,695861/Stalker-Call-of-Pripyat-The-first-DirectX-11-screenshots/News/&menu=browser&entity_id=217981&image_id=1197512&article_id=695861&page=1&show=original cliccate qui e guardate l'immagine precedente. Allineatele con il broswer ed automaticamente con un click si vedranno le differenze. Guardate le texture sulle mattonelle, sui muri, l'illuminazione generale, le ombre. Poi se ci mettiamo anche il tessellatore, quando sfruttato, la qualità grafica è notevole.
ps: GT220 http://www.pcgameshardware.com/aid,696356/Nvidia-Geforce-GT-220-pictured/News/
GT210 recensione http://www.pcgameshardware.com/aid,694223/Geforce-G210-Nvidias-first-DirectX-101-card-reviewed/Reviews/
martinez1983
01-10-2009, 10:25
GT200 vs 4870 :)
Davvero ? Spero che magari sarà emulato mediante qualche altra unità perché sembra davvero interessante. Non ce l'aveva già la 2900xt ? Si sa nulla su una qualche migliore gestione delle texture (algoritmi di compressione) in queste gt300 ? Le 5870 hanno migliorato notevolmente questo aspetto, con algoritmi che ridimensionano notevolmente il rumore di fondo nell'atto della compressione ed infatti come si è visto in alcuni screenshot il risultato è molto evidente, netta qualità grafica migliore. Vediamo se trovo lo screenshot :
Già prima un utente aveva fatto notare sta cosa!!! Ed io chiedo conferma!!!(stiamo parlando sempre di notizie ancora embrionali)
Ma sembra che il tessellatore non ci sarà(come chip) ma verrà emulato in software!!!
Poi credo che nel pomeriggio(se esce un articolo) ne sapremo di più!!!
ilratman
01-10-2009, 10:31
Una scelta assurda che toglie spazio sia in profondità che in larghezza -.-
già rendendo di fatto la scheda inutilizzabile da chi ha uno dei due problemi!
michelgaetano
01-10-2009, 10:42
Una scelta assurda che toglie spazio sia in profondità che in larghezza -.-
Ma mi chiedevo a riguardo: semplicemente se ne fregano della cosa (qualcosa tipo: spendi 599 $ [o giù di lì] per una vga top, se hai un case nanico sei un pirla), o è plausibile pensare che l'unico modo per ficcarli nel pcb fosse metterli in due posizioni diverse?
Ma mi chiedevo a riguardo: semplicemente se ne fregano della cosa (qualcosa tipo: spendi 599 $ [o giù di lì] per una vga top, se hai un case nanico sei un pirla), o è plausibile pensare che l'unico modo per ficcarli nel pcb fosse metterli in due posizioni diverse?
sicuramente saranno stati obbligati dal progetto a fare così, consapevoli dei problemi che ne derivano, non è che fanno schede video da due giorni ;)
michelgaetano
01-10-2009, 10:48
sicuramente saranno stati obbligati dal progetto a fare così, consapevoli dei problemi che ne derivano, non è che fanno schede video da due giorni ;)
Se come dici, il pcb dovrebbe non presentare mezzo millimentro libero.
Magari sono stati costretti dalla dimensione del PCB. Forse un PCB più lungo avrebbe permesso altro. Lo sanno solo loro comunque.
Riguardo all'8pin+6pin è possibile che quella vista sia una scheda con un quantitativo di memoria particolarmente elevato, quindi con grandi consumi. Non è detto che una versione consumer, quando ci sarà, non possa avere solo un doppio 6pin.
Vedremo l'anno prossimo...
o magari ci stiamo facendo un sacco di seghe mentali e quella in foto è una scheda tesla da montare in rack in cui non è difficile utilizzare l'alimentazione in quel modo :)
michelgaetano
01-10-2009, 11:08
Magari sono stati costretti dalla dimensione del PCB. Forse un PCB più lungo avrebbe permesso altro. Lo sanno solo loro comunque.
Riguardo all'8pin+6pin è possibile che quella vista sia una scheda con un quantitativo di memoria particolarmente elevato, quindi con grandi consumi. Non è detto che una versione consumer, quando ci sarà, non possa avere solo un doppio 6pin.
Vedremo l'anno prossimo...
Sì infatti, speriamo nel solito 6+6 laterale :D
Benzamen
01-10-2009, 11:35
Ciao ragazzi mi iscrivo pure io, sono molto interessato a questa scheda volevo sapere un'informazione da voi più esperti, per il 3d ci saranno problemi?
o magari ci stiamo facendo un sacco di seghe mentali e quella in foto è una scheda tesla da montare in rack in cui non è difficile utilizzare l'alimentazione in quel modo :)
ma infatti sicuramente è la versione professionale, magari con 6gb, e non è detto che siano per forza GDDR5 perché potrebbero essere pure GDDR3 ! ;)
Iscritto...e poche pippementali sulle connessioni..xd.
Senza offesa, è di dimensioni minori di una hd5870 e con i cavi disposti in quel modo non vedo un problema, a differenza della concorrenza.
Mi sà che qui bisogna sempre trovare qualcoa di negativo su cui appigliarsi in ogni cosa eh...certo appena usciranno schede x2 da 28 cm ci sarà da ridere ..poi voglio vedere chi pensa ai cavi di alimentazione in quale lato stiano..:asd:
halduemilauno
01-10-2009, 12:01
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeg
;)
Non ha il tesselation in hardware ? :eek:
Tutto sto chippone e gli mancano ancora pezzi :doh:
michelgaetano
01-10-2009, 12:24
Beh io ho 58cm disponibili per la VGA. Questo non toglie che la scelta peggiore è senz'altro mettere i connettori sia di fianco che in fondo...
Tra l'altro, è personalmente la prima volta che vedo questa furbata. :stordita:
Kharonte85
01-10-2009, 12:26
6 + 8 pin
http://img38.imageshack.us/img38/909/001238703.th.jpg (http://img38.imageshack.us/i/001238703.jpg/)http://img38.imageshack.us/img38/774/001238705.th.jpg (http://img38.imageshack.us/i/001238705.jpg/)http://img194.imageshack.us/img194/5690/001238704.th.jpg (http://img194.imageshack.us/i/001238704.jpg/)http://img30.imageshack.us/img30/1913/001238706.th.jpg (http://img30.imageshack.us/i/001238706.jpg/)http://img30.imageshack.us/img30/9715/001238708.th.jpg (http://img30.imageshack.us/i/001238708.jpg/)
Sembra abbastanza corta (e molto bella) peccato per quella scelta dei connettori 8+6 pin e quella posizione...io li avrei preferiti laterali entrambi...
Andrea deluxe
01-10-2009, 12:40
http://www.youtube.com/watch?v=RMtQ62CnBMA
:eek:
ilratman
01-10-2009, 12:43
Sembra abbastanza corta (e molto bella) peccato per quella scelta dei connettori 8+6 pin e quella posizione...io li avrei preferiti laterali entrambi...
c'e' qualcosa che non quadra, nella vista da dietro c'e' solo il conn 8pin.
martinez1983
01-10-2009, 12:45
http://www.youtube.com/watch?v=RMtQ62CnBMA
:eek:
Ma veramente stava rendizzando in tempo reale????:eek:
La scimmia mi sta devastando!!!
Di solito in un rack di spazio ce ne è meno, non di più, rispetto ad un tower ;)
lo spazio nel rack è indifferente, mi riferivo ai blade server in cui andava installata la scheda tesla, comunque:
http://images.google.it/imgres?imgurl=http://www.hwupgrade.it/articoli/skvideo/1989/server_4_s.jpg&imgrefurl=http://www.hwupgrade.it/articoli/skvideo/1989/nvidia-tesla-t10-gpu-computing-di-seconda-generazione_4.html&usg=__oZb8vwD0vML_95_UpMc9DoQeRkQ=&h=352&w=550&sz=80&hl=it&start=2&um=1&tbnid=BaDA86RC-quauM:&tbnh=85&tbnw=133&prev=/images%3Fq%3Drack%2Btesla%26hl%3Dit%26sa%3DN%26um%3D1
probabilmente in un blade del genere avere l'alimentazione in quella posizione facilita i cablaggi interni.
Ma veramente stava rendizzando in tempo reale????:eek:
La scimmia mi sta devastando!!!
http://media.mtv.it/t_thebest_wlazio/1/103848/600x0.jpg
non mi sembra comunque qualcosa di così innovativo, o perlomeno legato strettamente alle nuove GPU :)
Kharonte85
01-10-2009, 13:07
http://www.youtube.com/watch?v=RMtQ62CnBMA
:eek:
Bello!
c'e' qualcosa che non quadra, nella vista da dietro c'e' solo il conn 8pin.
Che vuoi dire? :stordita: L'altro da 6pin è sopra/laterale come nelle GTX di adesso :fagiano:
ilratman
01-10-2009, 13:13
Bello!
Che vuoi dire? :stordita: L'altro da 6pin è sopra/laterale come nelle GTX di adesso :fagiano:
guarda la foto ci sono solo i pin per un 8 pin laterale.
Erythraeum
01-10-2009, 13:13
c'e' qualcosa che non quadra, nella vista da dietro c'e' solo il conn 8pin.
L:D L non me ne ero accorto solo io!
C'è qualcosa che non torna: sul dietro mi pare di vedere solo le saldature per... un 8 pin! :confused: :stordita:
Kharonte85
01-10-2009, 13:23
guarda la foto ci sono solo i pin per un 8 pin laterale.
Ho capito, ho visto...:boh:
Bellissima, davvero :eek:
Comunque ragazzi in teoria quella dovrebbe essere una Tesla (e infatti mi pare strano che ci siano dei connettori DVI) quindi in teoria si potevano risparmiare lo spazio per il TMDS e contenere le dimensioni in lunghezza o no? :stordita: (chiedo aiuto ai più esperti :))
Anche se pare strano il fatto che abbia uscite DVI (almeno uno c'è) mi fa pensare che il chip di gestione dell'I/O ci sia già o che magari sia nativamente integrato nella GPU...
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeg
;)
che poi stessa alimentazione della vecchia tesla:
http://www.hwupgrade.it/articoli/skvideo/1989/nvidia-tesla-t10-gpu-computing-di-seconda-generazione_3.html
Su Tom's confermano che vedremo il tutto nel 2010 :cry:
http://www.tomshw.it/news.php?newsid=19571
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_index.html
La presentazione di HWUpgrade :)
mirmeleon
01-10-2009, 14:31
http://www.youtube.com/watch?v=dVsvvcn1AUE&NR=1
:D :D
OMG 512sp che mostro :eek:
mirmeleon
01-10-2009, 14:45
Su Tom's confermano che vedremo il tutto nel 2010 :cry:
http://www.tomshw.it/news.php?newsid=19571
E vabbè vorrà dire che aspettamo!!!!
:D :D
mirmeleon
01-10-2009, 16:02
http://www.dinoxpc.com/News/news.asp?ID_News=17762&What=News&tt=NVIDIA+afferma+che+GT300+sar%E0+pronta+per+la+fine+di+Novembre
GT300 per fine novembre...
:stordita: :stordita:
kiriranshelo
01-10-2009, 16:04
http://www.dinoxpc.com/News/news.asp?ID_News=17762&What=News&tt=NVIDIA+afferma+che+GT300+sar%E0+pronta+per+la+fine+di+Novembre
GT300 per fine novembre...
:stordita: :stordita:
si ma solo la top di gamma... GTX380, per il resto bisogna aspettare il 2010
halduemilauno
01-10-2009, 16:08
si ma solo la top di gamma... GTX380, per il resto bisogna aspettare il 2010
no intanto saran due la 512 e la 480.
mirmeleon
01-10-2009, 16:08
si ma solo la top di gamma... GTX380, per il resto bisogna aspettare il 2010
Quella vojo!!!!
:D :D :stordita: :stordita:
mirmeleon
01-10-2009, 16:09
no intanto saran due la 512 e la 480.
Davvero??
:) :D
halduemilauno
01-10-2009, 16:18
Davvero??
:) :D
intanto si.
;)
mircocatta
01-10-2009, 16:19
Non ha il tesselation in hardware ? :eek:
Tutto sto chippone e gli mancano ancora pezzi :doh:
Questo mi fa veramente storcere il naso
non vorrei che nvidia continuerà con la sua politica di "ostruzionismo" solo perchè non ha il tassellatore... come ha già fatto con assassin creed
già mi immagino che il tassellatore verrà utilizzato da pochissime software house...spero di no ovviamente
sickofitall
01-10-2009, 16:32
Questo mi fa veramente storcere il naso
non vorrei che nvidia continuerà con la sua politica di "ostruzionismo" solo perchè non ha il tassellatore... come ha già fatto con assassin creed
già mi immagino che il tassellatore verrà utilizzato da pochissime software house...spero di no ovviamente
ma il tessellatore non è una caratteristicha delle dx11?
mircocatta
01-10-2009, 16:40
ma il tessellatore non è una caratteristicha delle dx11?
si, ma a quanto pare ati ha dedicato una parte hardware ad essa, nvidia no, ci arriverà in altri modi, ma se questi "altri modi" non renderanno come il tassellatore ATI, sono pronto a scommettere che nvidia incomincerà a presentarsi davanti alle software house con le valigione piene di soldi:rolleyes:
ragazzi si sà qualcs sul prezzo del top di marca per le gt300???
no non si sa.. sicuramente però non lo regaleranno
si, ma a quanto pare ati ha dedicato una parte hardware ad essa, nvidia no, ci arriverà in altri modi, ma se questi "altri modi" non renderanno come il tassellatore ATI, sono pronto a scommettere che nvidia incomincerà a presentarsi davanti alle software house con le valigione piene di soldi:rolleyes:
Secondo me una features c'è se c'è la parte "hardware", sta cosa dell'emulazione è una presa in giro... per me non è un chip DX11, non è completo :muro:
halduemilauno
01-10-2009, 17:05
ragazzi si sà qualcs sul prezzo del top di marca per le gt300???
499$.
;)
halduemilauno
01-10-2009, 17:06
particolare dei due connettori...
http://i35.tinypic.com/10yqrmt.jpg
;)
goldorak
01-10-2009, 17:07
499$.
;)
Ma dove ? :mbe:
Ma dove ? :mbe:
Infatti.. io non l'ho ancora letto.
Si tratta dunque di un'ipotesi?
Foglia Morta
01-10-2009, 17:15
Ma dove ? :mbe:
Infatti.. io non l'ho ancora letto.
Si tratta dunque di un'ipotesi?
L'hanno detto ad hal ma non ad Anand Tech :D
Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=1
http://img183.imageshack.us/img183/3240/42609730.th.jpg (http://img183.imageshack.us/i/42609730.jpg/)http://img183.imageshack.us/img183/6813/88724417.th.jpg (http://img183.imageshack.us/i/88724417.jpg/)
499$.
;)
Mi sembrano pochini, ma è il prezzo consigliato ? Quindi in euro dovrebbe costare sui 400€ ?!
goldorak
01-10-2009, 17:34
Mi sembrano pochini, ma è il prezzo consigliato ? Quindi in euro dovrebbe costare sui 400€ ?!
Ma se neanche Nvidia ha la minima idea sul prezzo perche' non hanno ancora deciso niente in merito, cosa puo' saperne Halduemilauno ?
I suoi 499$ sono tanto affidabili quanto la mia stima di 199 $. :asd:
Ma se neanche Nvidia ha la minima idea sul prezzo perche' non hanno ancora deciso niente in merito, cosa puo' saperne Halduemilauno ?
I suoi 499$ sono tanto affidabili quanto la mia stima di 199 $. :asd:
ma certo.. dipenderà da molte cose:
- la resa produttiva sarà quella delle voci o migliorerà?
- ati farà davvero uscire la 5870X2 e poi la 5890 oppure aspetterà nvidia?
- le prestazioni di Fermi di preciso dove si collocheranno rispetto alle concorrenti?
E da ultimo direi se nvidia deciderà di vendere sottoprezzo oppure sovrapprezzo (di quanto)?.. il prezzo principalmente credo che dipenderà da queste cose :)
halduemilauno
01-10-2009, 17:54
Mi sembrano pochini, ma è il prezzo consigliato ? Quindi in euro dovrebbe costare sui 400€ ?!
diciamo che il prezzo dovrebbe rispettare il mercato dove esso si pone. credo almeno un 450€. un 100€ almeno di meno per la nr2.
;)
michelgaetano
01-10-2009, 17:55
diciamo che il prezzo dovrebbe rispettare il mercato dove esso si pone. credo almeno un 450€. un 100€ almeno di meno per la nr2.
;)
Spero sui 300 (sorella minore, si intende) così da essere più concorrenziale, fa già più cifra psicologica :P
halduemilauno
01-10-2009, 17:59
ma certo.. dipenderà da molte cose:
- la resa produttiva sarà quella delle voci o migliorerà?
- ati farà davvero uscire la 5870X2 e poi la 5890 oppure aspetterà nvidia?
- le prestazioni di Fermi di preciso dove si collocheranno rispetto alle concorrenti?
E da ultimo direi se nvidia deciderà di vendere sottoprezzo oppure sovrapprezzo (di quanto)?.. il prezzo principalmente credo che dipenderà da queste cose :)
la resa produttiva di quelle voci è gia stata smentita ufficialmente. si la 5870x2 si è gia vista e dovrebbe esser presentata/rilasciata anch'essa verso novembre. per le prestazioni delle GeForce su base fermi confidenzialmente si pongono sul 40/50% in + della 5870.
cmq aspettiamo tutti i riscontri del caso.
devAngnew
01-10-2009, 18:19
Già prima un utente aveva fatto notare sta cosa!!! Ed io chiedo conferma!!!(stiamo parlando sempre di notizie ancora embrionali)
Ma sembra che il tessellatore non ci sarà(come chip) ma verrà emulato in software!!!
Poi credo che nel pomeriggio(se esce un articolo) ne sapremo di più!!!
Ciao Marty veramente quell'utente sono io....:asd: (è sempre un ipotesi) Da una prima occhiata dell'archittettura di Fermi sembrerebbe proprio di si, cmq la potenza dei cuda core è aumentata grazie alla cache L1 e L2 aumentate e ai due dispatch unit all'interno di ogni SM che permettono di gestire più theads rispetto gt200.
Bisogna capire come sono organizzate le TMU e soprattutto come vengono gestiti i filtri ...spero di avere tempo per documentarmi...
;)
Sergio_Di_Rio
01-10-2009, 18:22
per le prestazioni delle GeForce su base fermi confidenzialmente si pongono sul 40/50% in + della 5870.
dove lo hai letto?
la resa produttiva di quelle voci è gia stata smentita ufficialmente. si la 5870x2 si è gia vista e dovrebbe esser presentata/rilasciata anch'essa verso novembre. per le prestazioni delle GeForce su base fermi confidenzialmente si pongono sul 40/50% in + della 5870.
cmq aspettiamo tutti i riscontri del caso.
Bene comincia il trallallero
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.