PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

halduemilauno
11-11-2009, 14:46
vedo che hai molta ansia di vedere queste gpu, Rata: immagino te ne farai subito una :sofico:

l'errore di nvidia, a mio giudizio, è stato quello di addormentarsi troppo sui fasti di G80 e derivati (alla fine anche G200 è una versione ottimizzata e pompata di questo chip).
Col vantaggio che avevano dovevano darsi una svegliata molto prima

non è quello l'errore il fatto è che han cambiato strategia han deciso di sviluppare una gpu che con tutti gli accorgimernti del caso soddisfacesse sia il ruolo di GeForce che di Quadro che di Tesla. Quindi magari(come dici) dovevano si iniziare prima ma con le difficoltà intrinseche del nuovo chip, il pp a 40nm e in + mettiamoci pure le dx11 ecco che prima di cosi era difficile fare.
;)

Gabriyzf
11-11-2009, 14:51
non è quello l'errore il fatto è che han cambiato strategia han deciso di sviluppare una gpu che con tutti gli accorgimernti del caso soddisfacesse sia il ruolo di GeForce che di Quadro che di Tesla. Quindi magari(come dici) dovevano si iniziare prima ma con le difficoltà intrinseche del nuovo chip, il pp a 40nm e in + mettiamoci pure le dx11 ecco che prima di cosi era difficile fare.
;)

caro Hal, è un periodo che ti vedo molto diplomatico e imparziale.
Comunque rimango della convinzione che hanno dormito un pò sugli allori ;)

Gabriyzf
11-11-2009, 14:51
Son talmente ansioso che alla fine delle fini ho deciso di non prendere nemmeno la 5850 che la scimmia mi aveva imposto e aspettare il prossimo giro a fine 2010 visto che non cambio il monitor perché il DELL che avevo selezionato manca del displayport a cui non voglio rinunciare e spero che ce l'abbia la versione del prossimo anno, e visto che non lo cambio finché un gioco non mi piega l'attuale VGA che la cambio a fare?

scelta saggia e matura :O

Foglia Morta
11-11-2009, 14:56
See “Fermi” in Action (http://www.nvidia.com/object/sc09.htm)

sempre sul gpu computing

halduemilauno
11-11-2009, 14:58
caro Hal, è un periodo che ti vedo molto diplomatico e imparziale.
Comunque rimango della convinzione che hanno dormito un pò sugli allori ;)

Guarda che il cambio di strategia è sotto i nostri occhi e non è che lo hanno deciso a primavera 2009 minimo a primavera 2008 se non prima(molto + probabile ad autunno 2007). il fatto che hanno lisciato la controparte di un 2/3 mesi è dovuto a un'insieme di fattori non ultimo(anzi il primo)proprio perchè la controparte è rimasta molto conservativa e quindi in un certo senso facilitata nell'approcciarsi ai 40nm.
Poi sulla bontà delle strategie per carità se ne potrà parlare solo fra diverso tempo.
Ciao.
;)


PS ecco un'altro martedi...
http://www.nvidia.com/object/sc09.htm

Foglia Morta
11-11-2009, 15:00
La posto qui: http://pcper.com/article.php?aid=815&type=expert&pid=1

è una preview con un po di test con Hydra , testato con schede nVidia , e anche GTX 260 + 4890

Alex656
11-11-2009, 15:11
Guarda che il cambio di strategia è sotto i nostri occhi e non è che lo hanno deciso a primavera 2009 minimo a primavera 2008 se non prima(molto + probabile ad autunno 2007). il fatto che hanno lisciato la controparte di un 2/3 mesi è dovuto a un'insieme di fattori non ultimo(anzi il primo)proprio perchè la controparte è rimasta molto conservativa e quindi in un certo senso facilitata nell'approcciarsi ai 40nm.
Poi sulla bontà delle strategie per carità se ne potrà parlare solo fra diverso tempo.
Ciao.
;)


PS ecco un'altro martedi...
http://www.nvidia.com/object/sc09.htm

Mi sembra di capire che anche questa conferenza sarà incentrata sul gpu computing; chissà se anche questa volta uscirà fuori qualche scheda farlocca :)

DVD2005
11-11-2009, 15:16
Son talmente ansioso che alla fine delle fini ho deciso di non prendere nemmeno la 5850 che la scimmia mi aveva imposto e aspettare il prossimo giro a fine 2010 visto che non cambio il monitor perché il DELL che avevo selezionato manca del displayport a cui non voglio rinunciare e spero che ce l'abbia la versione del prossimo anno, e visto che non lo cambio finché un gioco non mi piega l'attuale VGA che la cambio a fare?

se posso chiedere, che scheda hai ?

sonnet
11-11-2009, 15:24
le GTS340/350(chiamiamole cosi)son previste a marzo.

Cosa ti fa credere che le gts340/350 che tu dici per tutte le tasche (quindi immagino anche poco sotto i 100 euro) saranno superiori alla serie 57xx di ATI?(sempre che nel frattempo ATI non risposizioni la serie 58xx in quella fascia per marzo).
Dici che schede come la serie 57xx non saranno capaci di far giocare giochi dx11 mentre le fermi fascia media si?

DjBaldux
11-11-2009, 15:30
Se escono un po di tempo dopo (circa 6 mesi) comunque è molto probabile che siano leggermente migliori.

Cmq le schede 57xx hanno potenze inferiori alla 4890-gtx260, la fascia di prezzo è ormai praticamente quella, in + hanno solo il fatto di essere dx11

Andrea deluxe
11-11-2009, 15:32
http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocessors.html

appleroof
11-11-2009, 15:38
http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocessors.html

certo che è proprio "capatosta" :D :D

pur capendo il suo punto di vista, a quei livelli dovresti vedere cosa ti conviene di più di volta in volta, imho

fatelo fuori!! :read: :D :D


domanda: ma UMC non era l'altra grande fonderia taiwanese? che morte ha fatto?

halduemilauno
11-11-2009, 15:55
Cosa ti fa credere che le gts340/350 che tu dici per tutte le tasche (quindi immagino anche poco sotto i 100 euro) saranno superiori alla serie 57xx di ATI?(sempre che nel frattempo ATI non risposizioni la serie 58xx in quella fascia per marzo).
Dici che schede come la serie 57xx non saranno capaci di far giocare giochi dx11 mentre le fermi fascia media si?

le GTS340/350(continuiamo a chiamarle cosi)saranno le sostitute delle attuali gts250/240 ma con l'innalzamento generale delle prestazioni saranno + o - come le attuali gtx260. difficile credere che amd posizioni le attuali 5800 da 240/350€ a 90/120€ quelle se la vedranno sempre con le gtx 360/370(chiamiamole cosi). le 5700 sono gia adesso sotto alle gtx260.

halduemilauno
11-11-2009, 15:57
certo che è proprio "capatosta" :D :D

pur capendo il suo punto di vista, a quei livelli dovresti vedere cosa ti conviene di più di volta in volta, imho

fatelo fuori!! :read: :D :D


domanda: ma UMC non era l'altra grande fonderia taiwanese? che morte ha fatto?

una fa parte della concorrenza l'altra non ha i requisiti.
;)

DVD2005
11-11-2009, 15:58
Una 4870 512



grazie.

appleroof
11-11-2009, 16:02
una fa parte della concorrenza l'altra non ha i requisiti.
;)

ho capito, ma se ti risolve i problemi adesso (insomma, nel breve periodo) allora usala :D

appleroof
11-11-2009, 16:06
Sono indeciso. Il punto di vista di Hal è corretto, così come il fatto che rimanere vincolati a solo TSMC rende vulnerabili. Onestamente non so cosa sia peggio fra rimanere indietro e affidarsi ad una fonderia che è controllata dal tuo unico concorrente (attuale).

Il tutto però è deciso dai grossi problemi di TMSC, mi pare proprio su questo tread che anche per i 32nm qualcuno sosteneva che TMSC stesse avendo forti problematiche (chissà poi)

quando produci un chippone che ha assolutamente bisogno di pp inferiori sai com'è...

halduemilauno
11-11-2009, 16:29
ho capito, ma se ti risolve i problemi adesso (insomma, nel breve periodo) allora usala :D

ci sono molti + contro che pro.
;)

appleroof
11-11-2009, 16:38
ci sono molti + contro che pro.
;)

...evidentemente sarà così :boh:

devAngnew
11-11-2009, 18:55
Sono indeciso. Il punto di vista di Hal è corretto, così come il fatto che rimanere vincolati a solo TSMC rende vulnerabili. Onestamente non so cosa sia peggio fra rimanere indietro e affidarsi ad una fonderia che è controllata dal tuo unico concorrente (attuale).

Poichè per Nvidia sarebbe poco intelligente ad affidarsi ad AMD tanto vale che si rivolga ad IBM no...:p

Andrea deluxe
11-11-2009, 19:55
ot

http://pcper.com/article.php?aid=815
http://www.techreport.com/articles.x/17934

appleroof
11-11-2009, 20:12
ot

http://pcper.com/article.php?aid=815
http://www.techreport.com/articles.x/17934

una mobo con quel chip la prenderei quasi ad occhi chiusi, Nvidia farebbe bene a non contrastare questa soluzione (anzi io mi comprerei Lucid fossi in lei :asd: :asd: :asd: )

The_SaN
11-11-2009, 20:28
una mobo con quel chip la prenderei quasi ad occhi chiusi, Nvidia farebbe bene a non contrastare questa soluzione (anzi io mi comprerei Lucid fossi in lei :asd: :asd: :asd: )La fuzion é il mio sogno di consumo.
Purtroppo, non riusciró a prenderla, devo acquistare tutto a metá-fine dicembre. :(

devAngnew
11-11-2009, 20:41
Non ha il processo giusto.

L'unico ad averlo ad oggi è TSMC e al prossimo nodo anche GF. Avendo a disposizione un solo partner si è legati anche ai suoi problemi. D'altra parte una volta scelto il partner e finito il progetto sulle sue librerie non è che si può cambiare partner al volo, quindi comunque mi sembra che sia più sensato non andare da GF, per nVidia, nonostante i contro.

Oh, per una volta io e Hal siamo daccordo, quindi dovete crederci tutti :sofico:

Il fatto delle librerie lo sapevo ma non avrebbe lo stesso problema con Global funderies alias AMD :mbe:

The_SaN
11-11-2009, 23:24
Sì, per questo dico che il male minore è probabilmente rimanere con TSMC, perché in caso di problemi comunque ormai non puoi cambiare.

La cosa diventerebbe veramente un problema grosso se TSMC comincia a sbagliare processi di fila, come sembrerebbe stia accadendo con i 32nm dopo i 40nm.Giá, purtroppo le notizie non sono affatto buone per i 32nm di TSMC...

Milotto
12-11-2009, 00:15
una mobo con quel chip la prenderei quasi ad occhi chiusi, Nvidia farebbe bene a non contrastare questa soluzione (anzi io mi comprerei Lucid fossi in lei :asd: :asd: :asd: )



Tutto ciò che Nvidia ha comperato è finito con l'esser "distrutto" : 3DFX, ULI et AGEA docet....

devil_mcry
12-11-2009, 00:22
come prestazioni si sa gia qualcosa?

Pelvix
12-11-2009, 00:22
Tutto ciò che Nvidia ha comperato è finito con l'esser "distrutto" : 3DFX, ULI et AGEA docet....

Beh, come sempre ogni volta che una società ne acquista un' altra: il marchio "secondario" sparisce, è la norma no.. :mbe:

The_SaN
12-11-2009, 00:35
Beh, come sempre ogni volta che una società ne acquista un' altra: il marchio "secondario" sparisce, è la norma no.. :mbe:Il caso peggiore é stato quello di ULI, visto che la sezione chipset di nVidia ormai é chiusa.
3dfx é diventata parte integrante del know how dell'azienda.
Adesso bisogna vedere in quale dei 2 gruppi apparterrá Ageia. Io la mia idea ce l'ho giá...

paolox86
12-11-2009, 09:58
Scusate, sono rimasto indietro di qualche giorno, come siamo messi? Sempre voci sulla disponibilità nel primo trimestre 2010 e presentazione entro fine anno? Oppure probabilmente slitterà pure la presentazione?

halduemilauno
12-11-2009, 11:11
Scusate, sono rimasto indietro di qualche giorno, come siamo messi? Sempre voci sulla disponibilità nel primo trimestre 2010 e presentazione entro fine anno? Oppure probabilmente slitterà pure la presentazione?

dovrebbe esser la prima che hai detto.
;)

paolox86
12-11-2009, 18:07
dovrebbe esser la prima che hai detto.
;)

Grazie per la risposta! Speriamo di aver la presentazione entro l'anno! Anche se fosse un super-mega paper launch almeno sapremmo le prestazioni, per acquistarla mi va bene anche Marzo non ho fretta, ma sono curiosissimo di vedere come andrà questo mostro.:)

Pike79
13-11-2009, 09:42
http://www.guru3d.com/news/nvidia-to-show-fermi-at-sc09/

Alex656
13-11-2009, 09:46
http://www.guru3d.com/news/nvidia-to-show-fermi-at-sc09/
Già visto sulla pagina precedente ;)
Parleranno dell'interessantissimo :mad: gpu computing :muro:

Severnaya
13-11-2009, 11:09
bella la società in cui si vendono le parole :asd:

Alex656
13-11-2009, 11:15
bella la società in cui si vendono le parole :asd:

Beh, stavolta dovremmo vedere "Fermi in Action" :D
Magari una scheda funzionante la metteranno in piedi ma, anche in quest'occasione, non si parlerà certo di Directx, fps nei giochi, ecc.

appleroof
14-11-2009, 08:19
interessa Nvidia e AMd...

http://www.tgdaily.com/hardware-features/44664-lucidlogix-preps-hydra-soc-for-early-2010-launch

Foglia Morta
14-11-2009, 10:18
Beh, stavolta dovremmo vedere "Fermi in Action" :D
Magari una scheda funzionante la metteranno in piedi ma, anche in quest'occasione, non si parlerà certo di Directx, fps nei giochi, ecc.

Evga non dovrebbe essere particolarmente interessata al gpu computing, forse periodicamente intendono proporre eventi di marketing : http://www.evga.com/blackfriday/

halduemilauno
14-11-2009, 10:35
una giornata interessante pare che possa essere il prossimo 24. (un'altro martedi ma che riguarda un venerdi)
http://www.evga.com/blackfriday/
;) ma anche :boh: e aggiungo un :fiufiu:





ps si gioca un pochino.
ps2 intanto ricordo che anche martedi 17 si parlerà di fermi.

MetalPonch
14-11-2009, 11:09
Grazie per la risposta! Speriamo di aver la presentazione entro l'anno! Anche se fosse un super-mega paper launch almeno sapremmo le prestazioni, per acquistarla mi va bene anche Marzo non ho fretta, ma sono curiosissimo di vedere come andrà questo mostro.:)

Mah...magari pure prima...almeno per sapere se sotto l'albero di natale dovremo sperare di trovare una 5870 :ave: o una GT300/Fermi :ave:
Certo è ke tutto questo gossip informatico,nessuna notizia certa,voci degli addetti ai lavori confermate e poi smentite iniziano far girare le @@. :incazzed:
Siamo arrivati ad un punto in cui ke alla gente interessa piu sapere quando esce veramente piuttosto di sapere com'è e come va.
Basterebbe una data in modo ke almeno ci mettiamo l'anima in pace sapendo quando esce...poi se Nvidia floppa alla grande o sfodererà una vga con le contro @@ lo vedremo dopo...ma almeno una cavolo di DATA CERTA!:mad:

Alex656
14-11-2009, 11:40
Evga non dovrebbe essere particolarmente interessata al gpu computing, forse periodicamente intendono proporre eventi di marketing : http://www.evga.com/blackfriday/

Ho ordinato la 5850 2 giorni fa, visti i tempi d'attesa chissà che Nvidia non riesca in extremis ad impedirmi di passare alla concorrenza; posso ancora disdire :D

halduemilauno
14-11-2009, 11:52
Ho ordinato la 5850 2 giorni fa, visti i tempi d'attesa chissà che Nvidia non riesca in extremis ad impedirmi di passare alla concorrenza; posso ancora disdire :D

se sei disposto a spendere il doppio aspetta pure altrimenti...
;)

Kharonte85
14-11-2009, 12:30
hai perfettamente ragione sul discorso di base, ma quello che intendevo è che cmq vedo la situazione barcollante, adesso

i dati cui ti riferisci sono figli dei tempi migliori (sono a consuntivo) mentre gli effetti della politica sbagliata, cui mi riferivo, si cominciano a vedere ora (ritardo ecc)

considera che è da gt200 che non riescono a proporre una nuova fascia media e bassa, è grave ancor più perchè credo che nemmeno con gt300 ci riusciranno (ecco le scelte sbagliate a monte) e non possono continuare a propinare l'eccellente g80 per sempre (forse per la fascia bassa ma anche lì per quanto, un altro anno?)

poi mi sbaglierò e lo spero per la concorrenza ecc (sai pure che per nove anni di fila ho sempre avuto Nvidia) e se sforneranno una soluzione interessante sarò il primo a prenderla, ma ribadisco che secondo me devono ripensare tutta la strategia legata ai chip grafici/per il GPGPU (che è ancora il core-business) e farlo in fretta (leggi= chip subito dopo Fermi) e chissà come dicevo che non lo abbiano già fatto...
I problemi (ritardi) di adesso ce li ha anche AMD e si sa di chi è la colpa (pp @40nm) quindi non mi sento del tutto di condannare Nvidia, dopotutto Fermi sembra un progetto davvero rivoluzionario...sono più preoccupato di queste difficoltà di passaggio produttivo, se cominciano a rallentare è la fine della pacchia (per tutti).

Riguardo al passato credo che nvidia dopo G80 si sia un po' rilassata (impressione che è venuta a molti), pero' i rilsultati indicano che anche GT200 è stato di successo nonostante non siano riusciti/non abbiano voluto derivarne una serie di fascia medio-bassa (ma questo è anche attribuibile alla bontà di g92, alla concorrenza, e al fatto che tecnologicamente non avesse nulla in meno rispetto a gt200) e/o per notebook...ora mi pare ovvio che Nvidia non potrà più riscaldare la minestra quindi non ci resta altro da fare di vedere se Fermi riuscirà a fare meglio della concorrenza (una situazione che ciclicamente ormai ci viene riproposata) per le altre scelte di campo si vedrà, pero' ripeto: chiedere un cambio alla guida adesso mi parrebbe assurdo.


p.s.: sono d'accordo che dire che Nvidia sbaglia a buttarsi su un nuovo mercato (che sarebbe il GPGPU) è una vaccata colossale, laddove è proprio il contrario e cioè la scelta più intelligente (e per certi versi obbligata) che potevano fare
Infatti ;)
La posto qui: http://pcper.com/article.php?aid=815&type=expert&pid=1

è una preview con un po di test con Hydra , testato con schede nVidia , e anche GTX 260 + 4890

ot

http://pcper.com/article.php?aid=815
http://www.techreport.com/articles.x/17934
Soluzioni interessanti...l'unica cosa che mi preoccupa è il casino coi driver e il software :fagiano:
una giornata interessante pare che possa essere il prossimo 24. (un'altro martedi ma che riguarda un venerdi)
http://www.evga.com/blackfriday/
;) ma anche :boh: e aggiungo un :fiufiu:

ps si gioca un pochino.
ps2 intanto ricordo che anche martedi 17 si parlerà di fermi.

Mah speriamo di vedere qualcosa di serio...:)

Andrea deluxe
14-11-2009, 20:43
http://www.hardware-infos.com/news.php?news=3302

Alex656
14-11-2009, 23:26
http://www.hardware-infos.com/news.php?news=3302

Ancora ce la stanno a menare con 'sto gpu computing ad 1/20 del consumo e 1/10 del costo (l'unica cosa che ho capito) :muro:
Bastaaaaa :D

hardstyler
15-11-2009, 11:30
date certe che mi son sfuggite riguardo l'uscita della top di gamma gt300 (non doppia gpu)??

Iantikas
15-11-2009, 12:28
marzo 2010??? :stordita:

Legolas84
15-11-2009, 12:36
marzo 2010??? :stordita:

Purtroppo anche un noto shop mi ha dato quella data indicativa.... Fortuna che la GTX275 spinge ancora tutto al massimo altrimenti sarei ancora indeciso se aspettare o andare di 5870....

Iantikas
15-11-2009, 12:44
Purtroppo anche un noto shop mi ha dato quella data indicativa.... Fortuna che la GTX275 spinge ancora tutto al massimo altrimenti sarei ancora indeciso se aspettare o andare di 5870....

te pensa ke io mi sto togliendo la gtx295 e sto continuando con la fida 8800ultra xkè x me oramai era sprecata...


...figurati se ho fretta ke escano le nuove nvidia :D ...oramai tra xbox360 e ps3 col pc gioco pokissimo e ai gioki ke uso la 8800ultra sul 24" riesce a soddisfarmi in pieno (feci bene ad aggiornare il sistema ma col senno di poi avrei dovuto trasferire l'8800ultra sul pc nuovo piuttosto ke cambiare anke la gpu)...

...ciao

luX0r.reload
15-11-2009, 12:46
Purtroppo anche un noto shop mi ha dato quella data indicativa.... Fortuna che la GTX275 spinge ancora tutto al massimo altrimenti sarei ancora indeciso se aspettare o andare di 5870....
Sostituire ora la 275?!?! :confused:
Se gira ancora tutto alla grande, io ti consiglierei di aspettare... così dai un'occhiata anche alle nuove proposte nVidia e, male che vada, potresti portarti a casa una 5870 a buon prezzo ;)

devAngnew
15-11-2009, 14:24
Sostituire ora la 275?!?! :confused:
Se gira ancora tutto alla grande, io ti consiglierei di aspettare... così dai un'occhiata anche alle nuove proposte nVidia e, male che vada, potresti portarti a casa una 5870 a buon prezzo ;)

Quoto :O attenti alle scimmie Urlatrici.... :asd: :asd: :asd:

Legolas84
15-11-2009, 14:58
Sostituire ora la 275?!?! :confused:
Se gira ancora tutto alla grande, io ti consiglierei di aspettare... così dai un'occhiata anche alle nuove proposte nVidia e, male che vada, potresti portarti a casa una 5870 a buon prezzo ;)

Infatti ho detto che per fortuna la 275 spinge tutto al massimo così non ho la voglia di cambiare.... non ho mica detto che voglio cambiarla... ;)

The_SaN
15-11-2009, 15:07
Infatti ho detto che per fortuna la 275 spinge tutto al massimo così non ho la voglia di cambiare.... non ho mica detto che voglio cambiarla... ;)E fai bene. Hai l'opportunitá di poter aspettare (con qualitá) le nuove nVidia, o addirittura la seconda generazione dx11 se non esce molta roba dx11 di peso.

Io invece DEVO comprare a Dicembre, e quindi la/le 5850 sono la mia scelta obbligata, visto che per un po' lascio stare gli upgrade...

Iantikas
15-11-2009, 16:34
E fai bene. Hai l'opportunitá di poter aspettare (con qualitá) le nuove nVidia, o addirittura la seconda generazione dx11 se non esce molta roba dx11 di peso.

Io invece DEVO comprare a Dicembre, e quindi la/le 5850 sono la mia scelta obbligata, visto che per un po' lascio stare gli upgrade...

potresti anke pensare ad una hd4850 (ke + o - ha le prestazioni di una 8800ultra) e tirare avanti finkè nn s'assesta il mercato delle gpu dx11 (col gt300 di nvidia e i refresh delle hd58xx di ati)...


...ciao

The_SaN
15-11-2009, 16:59
potresti anke pensare ad una hd4850 (ke + o - ha le prestazioni di una 8800ultra) e tirare avanti finkè nn s'assesta il mercato delle gpu dx11 (col gt300 di nvidia e i refresh delle hd58xx di ati)...


...ciaoAbito in Brasile, qui i componenti di informatica hanno un prezzo improponibile (a causa di tasse ABUSIVE vicine al 70%).
Quindi approfitto del mio imminente viaggio in Italia per comprare il pc. Siccome non so quando avró l'opportunitá di ritornare, non posso rischiare di rimanere 2 anni o piú senza una vga che regga il full HD :cry:

luX0r.reload
15-11-2009, 17:54
Abito in Brasile, qui i componenti di informatica hanno un prezzo improponibile (a causa di tasse ABUSIVE vicine al 70%).
Quindi approfitto del mio imminente viaggio in Italia per comprare il pc. Siccome non so quando avró l'opportunitá di ritornare, non posso rischiare di rimanere 2 anni o piú senza una vga che regga il full HD :cry:
Azz...

Ywes
15-11-2009, 19:12
Abito in Brasile, qui i componenti di informatica hanno un prezzo improponibile (a causa di tasse ABUSIVE vicine al 70%).
Quindi approfitto del mio imminente viaggio in Italia per comprare il pc. Siccome non so quando avró l'opportunitá di ritornare, non posso rischiare di rimanere 2 anni o piú senza una vga che regga il full HD :cry:

Má sorte é assim!

Bastoner
15-11-2009, 19:14
Abito in Brasile, qui i componenti di informatica hanno un prezzo improponibile (a causa di tasse ABUSIVE vicine al 70%).
Quindi approfitto del mio imminente viaggio in Italia per comprare il pc. Siccome non so quando avró l'opportunitá di ritornare, non posso rischiare di rimanere 2 anni o piú senza una vga che regga il full HD :cry:

Scusa ma lì non puoi comprare dagli States?

Ywes
15-11-2009, 20:15
Scusa ma lì non puoi comprare dagli States?

Dagli states no perche cmq dovrebbe pagare i dazzi doganali e le tasse, però basterebbe passare il confine con uno dei paesi confinanti vale a dire nord con la Colombia, il Venezuela, la Guyana, il Suriname e la Guyana Francese, a sud con l'Uruguay o ad ovest con l'Argentina, il Paraguay, la Bolivia e il Perù. Insomma di scelte ce ne sono ed i viaggi con bus non costano tanto.

The_SaN
15-11-2009, 22:58
Má sorte é assim!É assim mesmo :(
Scusa ma lì non puoi comprare dagli States?Eh magari :D
Le tasse si pagano lo stesso, e ultimamente a causa del contrabbando di robaccia cinese hanno rinforzato i controlli in dogana...
Insomma, devo approfittare dei miei ritorni in patria :D
Dagli states no perche cmq dovrebbe pagare i dazzi doganali e le tasse, però basterebbe passare il confine con uno dei paesi confinanti vale a dire nord con la Colombia, il Venezuela, la Guyana, il Suriname e la Guyana Francese, a sud con l'Uruguay o ad ovest con l'Argentina, il Paraguay, la Bolivia e il Perù. Insomma di scelte ce ne sono ed i viaggi con bus non costano tanto.Avessi il tempo, un viaggettino in colombia :faccinacolcannabis: me lo farei :asd:

Quello che piú mi fa inc...arrabbiare é che il presidente parla sempre di informatizzare il paese. (e gli do ragione)
Come diavolo fai se hai queste tasse?

Ywes
16-11-2009, 00:36
É assim mesmo :(
Avessi il tempo, un viaggettino in colombia :faccinacolcannabis: me lo farei :asd:


Hahaha.... tambien dos bellas nenas Colombianas no serian mal!

halduemilauno
16-11-2009, 08:48
http://www.hwupgrade.it/news/skvideo/prime-demo-di-nvidia-fermi-in-ambito-htpc-al-sc09_30761.html

In occasione del SuperComputing Conference 2009, evento che si terrà tra il 15 e il 20 Novembre a Portland, NVIDIA ha programmato una prima dimostrazione pubblica della propria nuova generazione di GPU appartenente alla famiglia di soluzioni Fermi.

Ricordiamo come le prime informazioni pubbliche sull'architettura delle GPU Fermi siano state rese pubbliche da NVIDIA alla fine del mese di Settembre, in occasione della propria conferenza GTC (GPU Technology Conference) tenuta a San Jose. In quella occasione NVIDIA ha mostrato alcuni demo di un sistema dotato di scheda Fermi in funzione ma non effettivamente una scheda Fermi al pubblico.

A causa dello stato di prototipo delle soluzioni Fermi, NVIDIA aveva infatti mostrato in pubblico quella che viene indicata come dummy board, cioè una scheda non funzionante che doveva rappresentare di fatto una soluzioni Fermi ma che sul proprio PCB non integrava una GPU di questa famiglia. La cosa aveva destato notevoli polemiche in quanto era stato implicitamente inteso che la scheda mostrata in pubblico fosse un prototipo funzionante, mentre questo era presente all'interno dei sistemi utilizzati per le dimostrazioni ma non visibile all'esterno.

NVIDIA, nel proprio sito web, indica in questo modo quello che verrà mostrato al proprio Booth in occasione dell'SC09:

See “Fermi” in Action
Come see a live demonstration of the next generation CUDA™ GPU computing architecture, codenamed “Fermi”. The Fermi-based Tesla™ GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost.

Il debutto delle prime soluzioni Fermi avverrà non prima del primo trimestre 2010, stando alle informazioni attualmente disponibili. Questa architettura verrà utilizzata sia in sistemi per GPU Computing appartenenti alla famiglia Tesla, sia in quelli per workstation grafiche della serie Quadro oltre ovviamente alle proposte per gaming della serie GeForce. L'architettura Fermi è di tipo modulare: questo implicherà che le soluzioni della famiglia GeForce non integreranno alcune delle funzionalità che verranno invece fornite nelle schede della serie Tesla, in quanto specificamente sviluppate per le esigenze degli ambiti HTPC e del GPU Computing.

;)

ally
16-11-2009, 08:55
http://www.hwupgrade.it/news/skvideo/prime-demo-di-nvidia-fermi-in-ambito-htpc-al-sc09_30761.html

In occasione del SuperComputing Conference 2009, evento che si terrà tra il 15 e il 20 Novembre a Portland, NVIDIA ha programmato una prima dimostrazione pubblica della propria nuova generazione di GPU appartenente alla famiglia di soluzioni Fermi.

Ricordiamo come le prime informazioni pubbliche sull'architettura delle GPU Fermi siano state rese pubbliche da NVIDIA alla fine del mese di Settembre, in occasione della propria conferenza GTC (GPU Technology Conference) tenuta a San Jose. In quella occasione NVIDIA ha mostrato alcuni demo di un sistema dotato di scheda Fermi in funzione ma non effettivamente una scheda Fermi al pubblico.

A causa dello stato di prototipo delle soluzioni Fermi, NVIDIA aveva infatti mostrato in pubblico quella che viene indicata come dummy board, cioè una scheda non funzionante che doveva rappresentare di fatto una soluzioni Fermi ma che sul proprio PCB non integrava una GPU di questa famiglia. La cosa aveva destato notevoli polemiche in quanto era stato implicitamente inteso che la scheda mostrata in pubblico fosse un prototipo funzionante, mentre questo era presente all'interno dei sistemi utilizzati per le dimostrazioni ma non visibile all'esterno.

NVIDIA, nel proprio sito web, indica in questo modo quello che verrà mostrato al proprio Booth in occasione dell'SC09:

See “Fermi” in Action
Come see a live demonstration of the next generation CUDA™ GPU computing architecture, codenamed “Fermi”. The Fermi-based Tesla™ GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost.

Il debutto delle prime soluzioni Fermi avverrà non prima del primo trimestre 2010, stando alle informazioni attualmente disponibili. Questa architettura verrà utilizzata sia in sistemi per GPU Computing appartenenti alla famiglia Tesla, sia in quelli per workstation grafiche della serie Quadro oltre ovviamente alle proposte per gaming della serie GeForce. L'architettura Fermi è di tipo modulare: questo implicherà che le soluzioni della famiglia GeForce non integreranno alcune delle funzionalità che verranno invece fornite nelle schede della serie Tesla, in quanto specificamente sviluppate per le esigenze degli ambiti HTPC e del GPU Computing.

;)

...rinnovo la domanda...quali demo in settembre giravano su una scheda funzionante?...

...ciao Andrea...

halduemilauno
16-11-2009, 09:22
...rinnovo la domanda...quali demo in settembre giravano su una scheda funzionante?...

...ciao Andrea...

pubblicamente si son viste slide di comparazione, di demo mi pare di averne vista una ma forse, ripeto forse, le (altre) le avranno viste solo gli addetti ai lavori.
;)

ally
16-11-2009, 09:34
pubblicamente si son viste slide di comparazione, di demo mi pare di averne vista una ma forse, ripeto forse, le (altre) le avranno viste solo gli addetti ai lavori.
;)

...trovo strano che avessero demo funzionanti su Tesla senza avere completato ancora la revisione della scheda...tutto qui...

...ciao Andrea...

Alex656
16-11-2009, 09:39
...rinnovo la domanda...quali demo in settembre giravano su una scheda funzionante?...

...ciao Andrea...


Forse questa:
http://www.youtube.com/watch?v=RMtQ62CnBMA

halduemilauno
16-11-2009, 09:40
...trovo strano che avessero demo funzionanti su Tesla senza avere completato ancora la revisione della scheda...tutto qui...

...ciao Andrea...

Corsini da subito disse che fermi gia da allora era funzionante e disse che il fatto che la scheda mostrata era in realtà un dummy era una non notizia visto che era pratica comune agire in questo senso. e cmq gia durante quell'occasione si seppe di questo anche se in maniera non ufficiale.
;)

halduemilauno
16-11-2009, 09:44
Forse questa:
http://www.youtube.com/watch?v=RMtQ62CnBMA

oltre quello fu mostrato un vero demo(personalmente visto su un sito tedesco)se lo trovo lo posto.
;)

ally
16-11-2009, 09:48
Corsini da subito disse che fermi gia da allora era funzionante e disse che il fatto che la scheda mostrata era in realtà un dummy era una non notizia visto che era pratica comune agire in questo senso. e cmq gia durante quell'occasione si seppe di questo anche se in maniera non ufficiale.
;)

...ma se Fermi era funzionate in settembre perchè ancora tutti questi crucci su frequenze...rilasci...revisioni...etc?...

...ciao Andrea...

halduemilauno
16-11-2009, 10:01
...ma se Fermi era funzionate in settembre perchè ancora tutti questi crucci su frequenze...rilasci...revisioni...etc?...

...ciao Andrea...

una cosa è avere chip funzionanti da far vedere o far capire di cosa si sta parlando sia come impiego che come prestazioni e un'altra è avere un chip pronto per la produzione di massa e quindi vendita. in quell'occasione nvidia fece vedere la sua nuova strategia ovvero un chip che con modifiche minori al suo interno fosse valido per tutti gli impieghi ovvero Tesla, Quadro e ovviamente quella che + interessa noi le GeForce. è normale far seguire alla prima versione la A0(uscita il 16 aprile)revisioni successive la prima la A1 è del 9 luglio mentre una seconda la A2 è di metà ottobre. domani se ne saprà di +.
;)

ally
16-11-2009, 10:08
una cosa è avere chip funzionanti da far vedere o far capire di cosa si sta parlando sia come impiego che come prestazioni e un'altra è avere un chip pronto per la produzione di massa e quindi vendita. in quell'occasione nvidia fece vedere la sua nuova strategia ovvero un chip che con modifiche minori al suo interno fosse valido per tutti gli impieghi ovvero Tesla, Quadro e ovviamente quella che + interessa noi le GeForce. è normale far seguire alla prima versione la A0(uscita il 16 aprile)revisioni successive la prima la A1 è del 9 luglio mentre una seconda la A2 è di metà ottobre. domani se ne saprà di +.
;)

...si ok...ma non avere il pcb orginale tesla...non avere le frequenze di funzionamento...non mostrare bench...continuare a spostare le date di commercializzazione...collide un po' con l'affermazione che avessero schede funzionati a settembre...inoltre quando nVida avrebbe parlato di modularità del chip?...parli del tassellator esterno?...altri elementi presenti nel chip e disabilitabili o integrabili in seconda istanza?...

...ciao Andrea...

halduemilauno
16-11-2009, 10:33
...si ok...ma non avere il pcb orginale tesla...non avere le frequenze di funzionamento...non mostrare bench...continuare a spostare le date di commercializzazione...collide un po' con l'affermazione che avessero schede funzionati a settembre...inoltre quando nVida avrebbe parlato di modularità del chip?...parli del tassellator esterno?...altri elementi presenti nel chip e disabilitabili o integrabili in seconda istanza?...

...ciao Andrea...

nvidia non ha mai parlato di date di commercializzazione ha detto sin da subito che gli esemplari di GeForce sarebbero stati presentati entro il 2009 e sin da subito ha parlato di tre varianti su base fermi Tesla appunto, Quadro e GeForce. e ripeto è inutile star a fare domande ora quando domani se ne potrà sapere di +. il 30 settembre è stato presentato il nuovo progetto anzi per dire meglio una nuova architettura(e in una occasione ben precisa chiamata appunto GPU conference)che senso aveva dire le frequenze si dovevano dire(e mettere in evidenza)la capacità computazionale e infatti subito è stato detto il numero degli shader, delle altre unità presenti e del bus e da subito le slide di confronto con gli altri chip.
aspettiamo domani.
;)

Alex656
16-11-2009, 10:35
Secondo me il maggior cruccio per i videogiocatori potrebbe essere rappresentato dal fatto che si continua a prestare attenzione esclusivamente al gpu computing ma non c'è ancora alcun accenno a directx e via dicendo; probabilmente se ne parlerà in seguito ma questo fa capire che l'interesse in questo ambito è secondario o addirittura marginale; poi può anche darsi che, alla prova dei fatti le nuove schede vadano da dio anche per i giochi ma non lo sapremo tanto presto.

zorco
16-11-2009, 11:34
intanto domani uscirà la gt 240 gpu a 40nm

http://www.hwstation.net/news/4/2816.html

Sealea
16-11-2009, 11:35
immagino le prestazioni :asd:

okorop
16-11-2009, 11:40
immagino le prestazioni :asd:

quella si che è una gran bella vga :asd: con anni di ritardo pero' :asd:

Foglia Morta
16-11-2009, 15:32
La scheda Tesla. Sul sito dicono che sarà disponibile nel Q2 2010 , ma precisano Q1 per la versione geforce ( però cinesi ben'informati dicevano proprio ieri che mancano 6 mesi , sarebbe Aprile ). parlano di Gigaflops e solite cose... la geforce dovrebbe avere le frequenze del 10% superiori ( se fanno come con la presente generazione )

http://www.nvidia.com/object/io_1258360868914.html

http://www.nvidia.com/docs/IO/83975/Tesla_C2050-C2070_1929-3qtr_large.jpg

Edit: QUI (http://translate.google.it/translate?u=http%3A%2F%2Fwww.heise.de%2Fnewsticker%2Fmeldung%2FSC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html&sl=de&tl=en&hl=it&ie=UTF-8) dicono 190 watt di consumo medio in full load, ma il TDP massimo sarà 225W e sarà disponibile a Maggio ( la Tesla )

Kharonte85
16-11-2009, 15:56
The Tesla C2050 and C2070 products will retail for $2,499 and $3,999 and the Tesla S2050 and S2070 will retail for $12,995 and $18,995. Products will be available in Q2 2010. For more information about the new Tesla 20-series products, visit the Tesla product pages.

Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010.

http://www.nvidia.com/object/io_1258360868914.html




Quindi è ufficiale che non le vedremo nei negozi per un bel po'...come al solito commercializzeranno la versione prima consumer, invece è molto significativo ed in linea con la strada che si stanno tracciando che stiano mostrando molto (facendo pubblicità) della versione "Professional".

http://img132.imageshack.us/img132/9930/teslac2050c20701915bd19.th.jpg (http://img132.imageshack.us/i/teslac2050c20701915bd19.jpg/)

La scheda sembra vera stavolta? :D

halduemilauno
16-11-2009, 16:01
Dossier Tesla...
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/nvidia_tesla-fermi-grafikkarten/
http://www.computerbase.de/bildstrecke/27497/1/
in attesa di quello GeForce ovviamente che cmq uscirà prima.
;)

leoneazzurro
16-11-2009, 16:21
EDIT: già postato

okorop
16-11-2009, 22:09
be che dire fermi è sventurato

At this moment, we can only hope for "hidden" or "magical" gaming features which might bring about a revolution in how GPUs work. Short of that, all signs point to Fermi being in real trouble.

qui si riferisce alle maggiori mazzette agli sviluppatori di titoli? be innovazioni nvida ne ha fatte anche con gt200, si l'aa in batman :asd:

Andrea deluxe
17-11-2009, 08:24
be che dire fermi è sventurato



qui si riferisce alle maggiori mazzette agli sviluppatori di titoli? be innovazioni nvida ne ha fatte anche con gt200, si l'aa in batman :asd:

no praticamente dice che a meno di caratteristiche magiche, fermi e' nei guai.....

atomo37
17-11-2009, 08:39
no praticamente dice che a meno di caratteristiche magiche, fermi e' nei guai.....

a me sembra che nvidia stia prendendo troppo la direzione del data center e del (super)computing.

zorco
17-11-2009, 08:48
per ora ci dobbiamo consolare con questa scheda :sofico:

http://www.hwupgrade.it/news/skvideo/zotac-geforce-gt-240-amp-nuova-scheda-video-per-la-fascia-mainstream_30781.html

;)

David 93
17-11-2009, 09:14
per ora ci dobbiamo consolare con questa scheda :sofico:

http://www.hwupgrade.it/news/skvideo/zotac-geforce-gt-240-amp-nuova-scheda-video-per-la-fascia-mainstream_30781.html

;)

Che due palle...a cosa serve commercializzare un'altra 9600 ADESSO, che costera' poco meno di 100 €, quando con 110€ e rotti mi prendo una 5750 con supporto dx11 e con potenza mooolto superiore alla fantomatica GT240 .. :mbe:

atomo37
17-11-2009, 09:20
Che due palle...a cosa serve commercializzare un'altra 9600 ADESSO, che costera' poco meno di 100 €, quando con 110€ e rotti mi prendo una 5750 con supporto dx11 e con potenza mooolto superiore alla fantomatica GT240 .. :mbe:

credo intorno ai 50 piuttosto, con meno di 100 euro ormai prendi la 9800gt

zorco
17-11-2009, 09:25
http://www.trovaprezzi.it/prezzo_schede-grafiche_gt_240.aspx

Iantikas
17-11-2009, 09:46
ke stava sbagliando piani è un pensiero ke mi frulla in testa già dalle prime slide di presentazione di qualke mese fa...


...cmq è ancora tutta tanto fumosa la faccenda ke nn si possono dare giudizi definitivi...se cmq nvidia con fermi in campo geforce ripeterà la situazione ke si è avuta con gt200 vs rv770 (e lo farà pure con parekki mesi di ritardo xkè uscirà minimo ad aprile 2010) la vedo molto male x nvidia...


...c'è di buono almeno ke pare funzioni ke proprio nei periodi di maggiore crisi queste aziende si svegliano è iniziano a frullare come si deve (nvidia post nv30, ati post r600 e ora, forse, nvidia post fermi)...


...ke si prenda la sua mazzata se tanto ci tiene...quello ke m'interessa è ke continui a ben supportare i prodotti finora in commercio...ciao

devAngnew
17-11-2009, 10:16
Che due palle...a cosa serve commercializzare un'altra 9600 ADESSO, che costera' poco meno di 100 €, quando con 110€ e rotti mi prendo una 5750 con supporto dx11 e con potenza mooolto superiore alla fantomatica GT240 .. :mbe:

Efettivamente non è una 9600 rimarchiada poichè la scheda è DX 10.1 necessaria per avere accelerazione lato gpu per Win 7.
;)
oltre a questo stanno sperimentando quel disastro di processo produttivo a 40nm di TSMC :muro:

;)

atomo37
17-11-2009, 11:07
Efettivamente non è una 9600 rimarchiada poichè la scheda è DX 10.1 necessaria per avere accelerazione lato gpu per Win 7.
;)
oltre a questo stanno sperimentando quel disastro di processo produttivo a 40nm di TSMC :muro:

;)

buona giusto per un pc da ufficio con aero attivo, niente di più, di sicuro non ci giochi con dx 10.1 con una scheda del genere.
oppure buona anche per la fisica come seconda o terza scheda.

okorop
17-11-2009, 11:09
buona giusto per un pc da ufficio con aero attivo, niente di più, di sicuro non ci giochi con dx 10.1 con una scheda del genere.
oppure buona anche per la fisica come seconda o terza scheda.

diciamo che sono esperimenti di nvida, ma che secondo me oltre al fattore sperimentale serviranno a poco.....

devAngnew
17-11-2009, 11:11
buona giusto per un pc da ufficio con aero attivo, niente di più, di sicuro non ci giochi con dx 10.1 con una scheda del genere.
oppure buona anche per la fisica come seconda o terza scheda.

Bhe su questo non c'era nessu dubbio......:O :asd: :asd: :asd:

;)

atomo37
17-11-2009, 11:13
diciamo che sono esperimenti di nvida, ma che secondo me oltre al fattore sperimentale serviranno a poco.....

macchè, questa secondo loro è una scheda mainstream da grandi numeri e in effetti vedrai che su assemblati di marca la troverai.

devAngnew
17-11-2009, 11:14
diciamo che sono esperimenti di nvida, ma che secondo me oltre al fattore sperimentale serviranno a poco.....

Questo dipende ..... nel tuo e mio caso sicuramente ma i videogiocatori o appassionati di grafica in rt su PC sono una minoranza diciamo che vanno bene
nel 90% degli uffici come giustamente ha detto Atomo37.

;)

okorop
17-11-2009, 11:17
Questo dipende ..... nel tuo e mio caso sicuramente ma i videogiocatori o appassionati di grafica in rt su PC sono una minoranza diciamo che vanno bene
nel 90% degli uffici come giustamente ha detto Atomo37.

;)

90% degli uffici sta vga? è troppo potente per i miei gusti basta una 9400gs per rimanere in nvida, inoltre 7 nei pc degli uffici è pochissimo usato, adottano tutti o xp o 2003 server ergo non serve proprio a un bel niente: spropositata per il 2d, troppo poco performante per il 3d alias un esperimento per non dir di peggio

atomo37
17-11-2009, 11:22
90% degli uffici sta vga? è troppo potente per i miei gusti basta una 9400gs per rimanere in nvida, inoltre 7 nei pc degli uffici è pochissimo usato, adottano tutti o xp o 2003 server ergo non serve proprio a un bel niente: spropositata per il 2d, troppo poco performante per il 3d alias un esperimento per non dir di peggio

infatti si sta parlando di acquisti di nuovi pc, che per forza di cose ti ritrovi con win7, basta che vai su siti come next vedi che i preassemblati da 600 euro montano la 9800gt per esempio.
aero succhia, e queste schede hanno di buono che non necessitano manco di alimentazione esterna.

devAngnew
17-11-2009, 11:41
macchè, questa secondo loro è una scheda mainstream da grandi numeri e in effetti vedrai che su assemblati di marca la troverai.

infatti si sta parlando di acquisti di nuovi pc, che per forza di cose ti ritrovi con win7, basta che vai su siti come next vedi che i preassemblati da 600 euro montano la 9800gt per esempio.
aero succhia, e queste schede hanno di buono che non necessitano manco di alimentazione esterna.

Mi spiace Oko ma non posso fare altro che Quotare Atomo37

:asd: :asd: :asd:

zorco
17-11-2009, 12:17
tò una review:

http://www.goldfries.com/hardware-reviews/galaxy-geforce-gt240-512mb-gddr5-graphic-card-review/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+Goldfries+(goldfries)

devAngnew
17-11-2009, 12:27
tò una review:

http://www.goldfries.com/hardware-reviews/galaxy-geforce-gt240-512mb-gddr5-graphic-card-review/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+Goldfries+(goldfries)

Questa 240 sembra una ventola su slot PCE :asd: :asd: :asd:

atomo37
17-11-2009, 13:10
tò una review:

http://www.goldfries.com/hardware-reviews/galaxy-geforce-gt240-512mb-gddr5-graphic-card-review/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+Goldfries+(goldfries)

come sprecare due slot inutilmente ;)

Alex656
17-11-2009, 14:25
http://www.hwupgrade.it/news/business/nvidia-annuncia-le-prime-soluzioni-tesla-della-famiglia-fermi_30789.html

Sh0K
18-11-2009, 00:16
raga ho letto non ricordo dove che GT300 va un 20-30% in + di una 5870... sarà vero? :D

Ywes
18-11-2009, 00:55
:Prrr: raga ho letto non ricordo dove che GT300 va un 20-30% in + di una 5870... sarà vero? :D

Sono tutte speculazioni, GT300 sulla carta può andare anche 3000 volte più veloce di una 5870, resta il fatto che non ci sono ne l'ombra di una psecifica ne tantomeno bench preliminari su tale architettura. Insomma GT300 dicono che sarà 30% più veloce di una 5870, peccato solo che uscirà forse nel periodo di marzo-aprile mentre la 5870 c'è da un bel pò ed da domani sono già pronte anche le 5970 che vanno ben il 40% in più di una 5870. Mi dispiace dirlo però nVidia sta volta è messa male.... spero che non faccia come con l'FX5800!

The_SaN
18-11-2009, 01:16
raga ho letto non ricordo dove che GT300 va un 20-30% in + di una 5870... sarà vero? :DInsomma...ero pronto a dire di si quando si speculava lo shader core a 1600MHz.
Adesso si parla di 1200 e rotti, non ci andrei piú cosi sicuro.
Comunque é un' architettura completamente nuova, la scheda non é pronta e alcuni dettagli possono cambiare...oltre al fatto che le specifiche non sono ancora ufficiali (o mi sono perso qualcosa?) ...direi che solo le rece potranno rivelarci tutto :)

Foglia Morta
18-11-2009, 06:58
Stando a quel che dice nVidia è una scheda con Fermi:

http://www.pctunerup.com/up/results/_200911/th_20091118075626_43599219.jpg (http://www.pctunerup.com/up/image.php?src=_200911/20091118075626_43599219.jpg)

halduemilauno
18-11-2009, 07:18
http://www.pctunerup.com/up/results/_200911/20091118075626_43599219.jpg
Looks like it's running Uningine’s Heaven DirectX 11 benchmark on a Dell 24-inch monitor, so we can rationally assume that the benchmark resolution is 1920x1200. The core hardware configuration appears to be composed of an ASUS Rampage II Extreme LGA 1366 motherboard coupled with undetermined Core i7 processor and DDR3 memory.
GF100 ovvero la GeForce con il chip Fermi.
;)

okorop
18-11-2009, 07:56
Looks like it's running Uningine’s Heaven DirectX 11 benchmark on a Dell 24-inch monitor, so we can rationally assume that the benchmark resolution is 1920x1200. The core hardware configuration appears to be composed of an ASUS Rampage II Extreme LGA 1366 motherboard coupled with undetermined Core i7 processor and DDR3 memory.
GF100 ovvero la GeForce con il chip Fermi.
;)

parole parole parole, ma la vga dov'è io negli shop non la vedo

Andrea deluxe
18-11-2009, 08:00
Stando a quel che dice nVidia è una scheda con Fermi:

http://www.pctunerup.com/up/results/_200911/th_20091118075626_43599219.jpg (http://www.pctunerup.com/up/image.php?src=_200911/20091118075626_43599219.jpg)

lo e'!

infatti si nota la feritoia sul pcb in prossimita' della ventola, proprio come le soluzioni tesla di nuova gen.

faber80
18-11-2009, 08:05
lo e'!

infatti si nota la feritoia sul pcb in prossimita' della ventola, proprio come le soluzioni tesla di nuova gen.

già, proprio come questa...
http://i35.tinypic.com/255kys7.jpg

peccato che non si possa vedere bene anche questa..... :asd:
attendiamo qualche cosa di concreto, invece di foto anonime....

okorop
18-11-2009, 08:07
già, proprio come questa...
http://i35.tinypic.com/255kys7.jpg

peccato che non si possa vedere bene anche questa..... :asd:
attendiamo qualche cosa di concreto, invece di foto anonime....

:rotfl: :rotfl: :rotfl: :asd: :asd: :asd: :asd:

sickofitall
18-11-2009, 08:07
parole parole parole, ma la vga dov'è io negli shop non la vedo

e che c'entra scusa? :confused:

persa
18-11-2009, 08:08
http://www.pctunerup.com/up/results/_200911/20091118075626_43599219.jpg
Looks like it's running Uningine’s Heaven DirectX 11 benchmark on a Dell 24-inch monitor, so we can rationally assume that the benchmark resolution is 1920x1200. The core hardware configuration appears to be composed of an ASUS Rampage II Extreme LGA 1366 motherboard coupled with undetermined Core i7 processor and DDR3 memory.
GF100 ovvero la GeForce con il chip Fermi.
;)

sarei curioso di sapere che risultato da in quel benchmark!!

cmq anche questa sembra uno sfilatino da 30cm o sbaglio?

okorop
18-11-2009, 08:09
e che c'entra scusa? :confused:

cosa c'entra? che tutti i giorni esce una notizia delle nuove nvida, ma io sinceramente non le ho ancora viste negli shop, nvida adesso sta facendo concorrenza all'ansa, basta parole foto voglio bench concreti, voglio le schede presentate, le parole servono a poco

ally
18-11-2009, 08:11
già, proprio come questa...
http://i35.tinypic.com/255kys7.jpg

peccato che non si possa vedere bene anche questa..... :asd:
attendiamo qualche cosa di concreto, invece di foto anonime....

...già...non vorrei la ventola fosse ferma in questa foto...sarebbe interessante vedere almeno un dato a video...fps...aa...frequenze...risoluzione reale non dedotta...

...ciao Andrea...

floop
18-11-2009, 08:19
speriamo per natale così vedo se prendere la 5850 o gt300 e eliminare la 4850:D

sickofitall
18-11-2009, 08:19
cosa c'entra? che tutti i giorni esce una notizia delle nuove nvida, ma io sinceramente non le ho ancora viste negli shop, nvida adesso sta facendo concorrenza all'ansa, basta parole foto voglio bench concreti, voglio le schede presentate, le parole servono a poco

quelle che chiami notizie finora sono tutti rumor non confermati, quindi che motivo c'è per lamentarsi?

da fastidio anche a me questo ritardo, ma mica sto lì a mangiarmi le unghie e rodermi il fegato.... :asd:

goditi la tua 5870, che non è per niente male da quel che vedo ;)

halduemilauno
18-11-2009, 08:22
sarei curioso di sapere che risultato da in quel benchmark!!

cmq anche questa sembra uno sfilatino da 30cm o sbaglio?

e credo di si. cmq per ammissione di responsabili di Nvidia i clock della versione Tesla(come la Quadro)sono inferiori a quelli della versione GeForce oltre ad altre modifiche...

Update #2, November 18 2009 02:17AM GMT - Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers. The way to win the HPC contract is more complex than the CPUs itself.
Bear in mind that Intel flew heads out of Oak Ridge with their otherwise superior Core 2 architecture after Woodcrest had a reject rate higher than 8% [the results of that Opteron vs. Xeon trial in 2006 are visible today, as Oak Ridge is the site of AMD-powered Jaguar, world's most powerful supercomputer]. In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:

•Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
•ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.

•ECC will be disabled on GeForce cards and most likely on Quadro cards
•The capacitors used are of highest quality
•Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
•Multiple fault-protection

•DVI was brought in on demand from the customers to reduce costs
•Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
•Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.

Since Andy is the General Manager for Tesla business, he has no contact with the Quadro Business or GeForce Business units, thus he was unable to answer what the developments are in those segments. We challenged nVidia over several issues and we'll see what the resolve of those open matters will be. In any case, we'll keep you informed.
;)

Alex656
18-11-2009, 08:23
Secondo me anche in questa foto c'è un trucco :D
In realtà il monitor è collegato ad un pc sotto il tavolo che ha una 5870 :D :D

Andrea deluxe
18-11-2009, 08:25
il pcb bucato e' una soluzione..... usata sia sulle tesla c2050/c2070 che nelle nuove geforce....

http://img696.imageshack.us/img696/1226/2009111807562643599219.jpg (http://img696.imageshack.us/i/2009111807562643599219.jpg/)


http://img696.imageshack.us/img696/3334/nvidiateslac2070back.jpg (http://img696.imageshack.us/i/nvidiateslac2070back.jpg/)

okorop
18-11-2009, 08:25
Secondo me anche in questa foto c'è un trucco :D
In realtà il monitor è collegato ad un pc sotto il tavolo che ha una 5870 :D :D

ma lol :rotfl: ci tentano di fregare tutte le volte :asd: effettivamente non si vede se la vga è collegata o meno :asd:

ricordo che quel bench va anche con le dx10 e dx9 avranno usato una gt240 :asd:

halduemilauno
18-11-2009, 08:26
http://www.brightsideofnews.com/news/2009/11/17/nvidia-shows-nv100gf100-gpu-running-unigine-dx11-benchmark.aspx

The card in question looks quite ready for retail, as far as lack of wiring goes, and is running Unigine's DirectX 11 benchmark. The corner showing framerates is naturally, "cut by accident" but nevertheless, nVidia has desktop parts working, and in just a few weeks, members of the media and partners should start to see these cards live.

The board itself packs an 8-pin plus 6-pin power, meaning the GPU and memory can suck up to 300W, giving a very healthy overclocking headroom. In our discussions with members of nVidia staff, clock expectations and performance are running quite high, and if we compare the thermal characteristics of Tesla 20-Generation, you can see that "GeForce 380" has around 107W for overclocking purposes.

If you are wondering why are we calling the Fermi GPU "NV100", the reason is actually quite simple.

The name for the architecture is Fermi, while the previous architecture [GT200] was called Tesla. But the actual ASIC has several different names, depending on product where it is going to end up. As a generation of silicon, Fermi ASIC carries the name NV100 is the name for GPU itself, GF100 is name for the GeForce part, and we saw GT300GL for Quadro parts and GT300 for Tesla on several Tesla-based documents back in early 2009.

In any case, regardless of how many codenames the company use [AMD's own HD5970 was codenamed Evergreen as the architecture, Hemlock as the dual GPU part, R800 as the internal name for external companies and finally the board itself was codenamed as Zaphod Beeblebrox].

At the end of the day, it is important what this DirectX 11-class GPUs are doing and are they working properly or not.
;)

okorop
18-11-2009, 08:28
http://www.brightsideofnews.com/news/2009/11/17/nvidia-shows-nv100gf100-gpu-running-unigine-dx11-benchmark.aspx

The card in question looks quite ready for retail, as far as lack of wiring goes, and is running Unigine's DirectX 11 benchmark. The corner showing framerates is naturally, "cut by accident" but nevertheless, nVidia has desktop parts working, and in just a few weeks, members of the media and partners should start to see these cards live.

The board itself packs an 8-pin plus 6-pin power, meaning the GPU and memory can suck up to 300W, giving a very healthy overclocking headroom. In our discussions with members of nVidia staff, clock expectations and performance are running quite high, and if we compare the thermal characteristics of Tesla 20-Generation, you can see that "GeForce 380" has around 107W for overclocking purposes.

If you are wondering why are we calling the Fermi GPU "NV100", the reason is actually quite simple.

The name for the architecture is Fermi, while the previous architecture [GT200] was called Tesla. But the actual ASIC has several different names, depending on product where it is going to end up. As a generation of silicon, Fermi ASIC carries the name NV100 is the name for GPU itself, GF100 is name for the GeForce part, and we saw GT300GL for Quadro parts and GT300 for Tesla on several Tesla-based documents back in early 2009.

In any case, regardless of how many codenames the company use [AMD's own HD5970 was codenamed Evergreen as the architecture, Hemlock as the dual GPU part, R800 as the internal name for external companies and finally the board itself was codenamed as Zaphod Beeblebrox].

At the end of the day, it is important what this DirectX 11-class GPUs are doing and are they working properly or not.
;)

bene c'è un prototipo di fermi che va :eek: sono stupito

faber80
18-11-2009, 08:37
bene c'è un prototipo di fermi che va :eek: sono stupito

io son stupito che nell'articolo non abbiano fornito alcun dato prestazionale sul test.....
chissà perchè.... :rolleyes:
vaporware proprio ora che viene presentata la 5970 ?
http://www.tomshw.it/cont/articolo/radeon-hd-5970-ati-e-la-piu-la-grossa-e-la-piu-potente/22847/1.html
http://www.hwupgrade.it/articoli/skvideo/2326/ati-radeon-hd-5970-il-momento-di-hemlock_index.html


:asd:

okorop
18-11-2009, 08:41
215 di tdp per la vga tesla non oso immaginare i consumi della gtx380 visto che aumentano anche le frequenze 250 watt da sola in full load? fermi batte il record a mio avviso si, dei consumi

Andrea deluxe
18-11-2009, 08:48
215 di tdp per la vga tesla non oso immaginare i consumi della gtx380 visto che aumentano anche le frequenze 250 watt da sola in full load? fermi batte il record a mio avviso si, dei consumi

se si assesta intorno ai 220W-250W e' un problema...

okorop
18-11-2009, 08:50
se si assesta intorno ai 220W-250W e' un problema...

la tesla è sui 215 di tdp maggiori frequenze cavolate in piu' aggiungeranno un 20-30w di tdp alla vga, è un problema si

persa
18-11-2009, 08:57
se si assesta intorno ai 220W-250W e' un problema...

non dipende anche delle prestazioni che avrà questa scheda?
nel senso che se has quel tdp e va come una 5870 che lo ha più basso, allora sarebbe un cattivo risultato!
ma se ad un tdp + alto corrispondono anche prestazioni + alte allora potrebbe andare bene!! :stordita:

okorop
18-11-2009, 08:59
non dipende anche delle prestazioni che avrà questa scheda?
nel senso che se has quel tdp e va come una 5870 che lo ha più basso, allora sarebbe un cattivo risultato!
ma se ad un tdp + alto corrispondono anche prestazioni + alte allora potrebbe andare bene!! :stordita:
a mio modo di vedere c'è un range in cui le vga singole gpu non dovrebbero consumare che è sui 180 200 di tdp, oltre scaldano consumano un sacco. Nvida inoltre la dual gpu non la potrà fare visti i consumi, per le performance, se va come due 5870 in crossfire, ipotesi alquanto remota, ci sta senno a mio a modo di vedere puo' rimanere sugli scaffali proprio per i problemi sopra citati :)

persa
18-11-2009, 09:17
no che andrà come 2 5870 mi sembra molto difficile :D , ma forse sarà una via di mezzo tra la 5870 e 5970 :boh: ?

la dual la potrebbero fare con una versione di questo chip a frequenze + basse, e bus ridotto. così penso che il tdp si potrebbe abbassare!!

okorop
18-11-2009, 09:18
no che andrà come 2 5870 mi sembra molto difficile :D , ma forse sarà una via di mezzo tra la 5870 e 5970 :boh: ?

la dual la potrebbero fare con una versione di questo chip a frequenze + basse, e bus ridotto. così penso che il tdp si potrebbe abbassare!!

ergo frequenze castrate 256 mb di bus castrato, be una dual gpu castrata tra 6-7 mesi, proprio per la nuova generazione nvida ce la risparmi che poi prenderà mazzate dalla 6870 che esce ad agosto

persa
18-11-2009, 09:23
ce la risparmi xchè? ti ricordo che anche la 295 monta un chip castrato di bus e frequenze, ma è venuta una bella scheda, più veloce in generale della controparte ati :D
imho invece di dire subito "ce la risparmi" forse è meglio aspettare di vedere se effettivamente sarà o no una brutta scheda ;)

atomo37
18-11-2009, 09:30
ce la risparmi xchè? ti ricordo che anche la 295 monta un chip castrato di bus e frequenze, ma è venuta una bella scheda, più veloce in generale della controparte ati :D
imho invece di dire subito "ce la risparmi" forse è meglio aspettare di vedere se effettivamente sarà o no una brutta scheda ;)

quoto, secondo me sarà una buona scheda, che cavolo praticamente è dalla gtx280 che non fanno più qualcosa di minimamente innovativo. Francamente spero sia un mostro la nuova Fermi, se lo è e mi convince stavolta aspetterò che maturino i driver, che si assestino i prezzi e poi ne prendo un paio ;)

Iantikas
18-11-2009, 09:33
no che andrà come 2 5870 mi sembra molto difficile :D , ma forse sarà una via di mezzo tra la 5870 e 5970 :boh: ?

la dual la potrebbero fare con una versione di questo chip a frequenze + basse, e bus ridotto. così penso che il tdp si potrebbe abbassare!!

la top di gamma basata su fermi x essere competitiva a mio modo di vedere dovra andarà almeno quanto una hd5970...


...dipende tutto da ke freq riusciranno a raggiungere...nn lo so quante migliorie hanno fatto all'arkitettura ma se si tengono bassi così come pare dalle soluzioni tesla dubito riusciranno ad affermarsi in maniera convincente (anzi riskiano di ripetere il confronto GTX280 vs. HD4870)...


...e poi nn lo so ma nel lungo periodo (e anke a livello di supporto) l'arkitettura ATI mi sembra da preferire...in un prox futuro se dovessi cambiare gpu mi vedo + propenso ad acquistare una gpu ati...

...ciao

halduemilauno
18-11-2009, 09:35
http://www.fudzilla.com/content/view/16471/1/

A3 should be the one to ship



For evaluation, testing, playing and toying with pre-production Fermi based Geforce card, Nvidia is using Fermi A2 silicon based card. Nvidia has quite a few of them inside its fortress and it still didn't ship many outside of its offices, as it is afraid of leaks.

We heard that A3 version of chip should be the final one to ship and that currently it all looks like they can make it for January launch, but this launch is likely to take place after CES.

The performance of A2 silicon is good but for some reason Nvidia has decided to go for A3 silicon on retail products. This caused a delay and forced Nvidia to push the product from November to January time, and we hope for Nvidia's sake that this will be the last delay.

Multiple sources are claiming that January should be the time that they might start selling Fermi based Geforce cards.

;)

Pike79
18-11-2009, 09:37
...dipende tutto da ke freq riusciranno a raggiungere...
...ciao

La frequenza è relativa. La mia ex 8800gt andava a 700mhz di core, l' attuale 280 va (a default) a 600, ma come prestazioni è il doppio malcontato.

atomo37
18-11-2009, 09:39
La frequenza è relativa. La mia ex 8800gt andava a 700mhz di core, l' attuale 280 va (a default) a 600, ma come prestazioni è il doppio malcontato.

vero, le frequenze lasciano il tempo che trovano

ippo.g
18-11-2009, 09:40
ma lol :rotfl: ci tentano di fregare tutte le volte :asd: effettivamente non si vede se la vga è collegata o meno :asd:
mah, si vede un cavo attaccato alla scheda :confused:

ricordo che quel bench va anche con le dx10 e dx9 avranno usato una gt240 :asd:

no, no, sul drago si vede che la tessellation è attiva

persa
18-11-2009, 09:40
quoto, secondo me sarà una buona scheda, che cavolo praticamente è dalla gtx280 che non fanno più qualcosa di minimamente innovativo. Francamente spero sia un mostro la nuova Fermi, se lo è e mi convince stavolta aspetterò che maturino i driver, che si assestino i prezzi e poi ne prendo un paio ;)

infatti ;)
cmq per ora butta male xchè sono in ritardo (in questo sono deluso, xchè pensavo ce la facessero prima). ma spero per loro che, quando usciranno, almeno abbiano delle prestazioni molto alte :D

ally
18-11-2009, 09:42
http://www.fudzilla.com/content/view/16471/1/

The performance of A2 silicon is good but for some reason Nvidia has decided to go for A3 silicon on retail products.



...l'A2 funziona ma così tanto per perdere tempo hanno deciso di usare l'A3 e spostare l'uscita da novembre a gennaio...almeno AMD ha avuto l'umiltà di ammettere di aver cannato il Phenom...

...ciao Andrea...

okorop
18-11-2009, 09:42
vero, le frequenze lasciano il tempo che trovano

il problema è di tdp, lasciando stare frequenze performance, alle frequenze della tesla ignote per adesso consuma 215 di tdp, le tesla nei prototipi visti dovrebbero essere lo step a3, ergo non han risolto tale problema, con frequenze maggiorate consumerà di piu' ed una vga da 230-240 di tdp è inimmaginabile dissiparla, inoltre aggiungo siam sicuri che il memroy controller di fermi puo sia avere 384 bit di bus sia 256bit? be vedremo se non lo è sarà difficile quanto improbabile vedere la dual gpu nvida......

Alex656
18-11-2009, 09:47
mah, si vede un cavo attaccato alla scheda :confused:



Sì, ma dove andrà a finire? :D :)

Si scherza, eh ;)

persa
18-11-2009, 09:50
La frequenza è relativa. La mia ex 8800gt andava a 700mhz di core, l' attuale 280 va (a default) a 600, ma come prestazioni è il doppio malcontato.

e si :D

atomo37
18-11-2009, 09:54
il problema è di tdp, lasciando stare frequenze performance, alle frequenze della tesla ignote per adesso consuma 215 di tdp, le tesla nei prototipi visti dovrebbero essere lo step a3, ergo non han risolto tale problema, con frequenze maggiorate consumerà di piu' ed una vga da 230-240 di tdp è inimmaginabile dissiparla, inoltre aggiungo siam sicuri che il memroy controller di fermi puo sia avere 384 bit di bus sia 256bit? be vedremo se non lo è sarà difficile quanto improbabile vedere la dual gpu nvida......

ma sono realistici sti dati? se veramente dovesse consumare così tanto se la vedrebbe scomoda nvidia, secondo me al momento le informazioni certe su fermi sono meno di zero.

okorop
18-11-2009, 09:56
ma sono realistici sti dati? se veramente dovesse consumare così tanto se la vedrebbe scomoda nvidia, secondo me al momento le informazioni certe su fermi sono meno di zero.

è una news come tutte le altre, e visto che per qualcuno è scomoda io la ritengo piu' veritiera di molte altre che chiamo fudzillate
http://vr-zone.com/articles/fermi-in-trouble-/8054.html?doc=8054

The other, much less common rumour is the possibility of a dual-GPU Fermi product. Well, considering "Typical" power of Tesla 20 is 190W, this will be highly unlikely, at least for a while. Not to mention, Geforce products might end up clocked higher. A HD 5870s peak TDP is 188W, lower than GF100's "typical" power! TDP is expected to be 220W, at least, and that is just too hot for a dual GPU product.

devAngnew
18-11-2009, 10:16
è una news come tutte le altre, e visto che per qualcuno è scomoda io la ritengo piu' veritiera di molte altre che chiamo fudzillate
http://vr-zone.com/articles/fermi-in-trouble-/8054.html?doc=8054

Più che news io le chiamerei gossip Informatico :asd: ..... quindi prima di mettere il carro davanti ai buoi è meglio aspettare notizie ufficiali.

;)

atomo37
18-11-2009, 10:26
è una news come tutte le altre, e visto che per qualcuno è scomoda io la ritengo piu' veritiera di molte altre che chiamo fudzillate
http://vr-zone.com/articles/fermi-in-trouble-/8054.html?doc=8054

se sarà così è piuttosto inquietante, 220w di tpd sono un'esagerazione, pensare a una scheda dual gpu, se non pesantemente downclockata, è difficile.
vedremo.

devAngnew
18-11-2009, 10:34
Sono notizie ufficiali in effetti...

Scusami ma vr-zone non è un sito simile a fudzilla anche se più attendibile ?

Visto ciò che viene detto IMO mi sembra più che altro pubblicità negativa nei confronti di Nvidia volendo far credere che sia una gpu simile alla fx5800 tutta calore e niente altro io aspetto notizie più sicure.

Kharonte85
18-11-2009, 10:35
Vedo un po' di deliri attorno al TDP e allora vi ricordo che il TDP della gtx 280 era di 236W, il che significa che sicuramente Fermi consumerà meno.

okorop
18-11-2009, 10:38
Vedo un po' di deliri attorno al TDP e allora vi ricordo che il TDP della gtx 280 era di 236W, il che significa che sicuramente Fermi consumerà meno.

olè allora le notizie ufficiali non van bene, pero' le sparate si...... bene cosi, compari la gtx280 con processo produttivo a 65nm e molti meno transiustor circa la metà con una a 40nm con problemi produttivi e 3 mld di transistors, si che tu ne sai allora.....per caso lavori a santa clara o a tsmc?

devAngnew
18-11-2009, 10:40
Vedo un po' di deliri attorno al TDP e allora vi ricordo che il TDP della gtx 280 era di 236W, il che significa che sicuramente Fermi consumerà meno.

IMO questo come fai a dirlo, la gpu è diversa da g200 ha 512 CUDA core e la tesselation unit (interna o esterna questo è il problema :asd: :asd: :asd: ) ecc....ecc di questa gpu si sà ben poco di preciso ma guarda caso il tdp bhoo.

Foglia Morta
18-11-2009, 10:46
Scusami ma vr-zone non è un sito simile a fudzilla anche se più attendibile ?

Visto ciò che viene detto IMO mi sembra più che altro pubblicità negativa nei confronti di Nvidia volendo far credere che sia una gpu simile alla fx5800 tutta calore e niente altro io aspetto notizie più sicure.

La fonte è ufficiale : http://www.computerbase.de/bildstrecke/27497/23/

225W di consumo massimo

Da un lato bisogna dire che quella scheda monta più ram ( meno consumi ) , dall'altro va detto che deve avere frequenze inferiori alla controparte geforce ( più consumi )

Kharonte85
18-11-2009, 10:50
olè allora le notizie ufficiali non van bene, pero' le sparate si...... bene cosi, compari la gtx280 con processo produttivo a 65nm e molti meno transiustor circa la metà con una a 40nm con problemi produttivi e 3 mld di transistors, si che tu ne sai allora.....per caso lavori a santa clara o a tsmc?

IMO questo come fai a dirlo, la gpu è diversa da g200 ha 512 CUDA core e la tesselation unit (interna o esterna questo è il problema :asd: :asd: :asd: ) ecc....ecc di questa gpu si sà ben poco di preciso ma guarda caso il tdp bhoo.
Se il TDP è quello ipotizzato attorno ai 220-225w è così e basta mica me lo invento...mai una scheda consumerà in una situazione reale come il TDP, il tdp è solo un indice della potenza massima che il sistema di raffeddamento deve dissipare, non è un valore dei consumi ma ovviamente ci si aspetta che i consumi finali in situazioni reali saranno inferiori.

Quindi come riuscivano a dissipare le gtx 280 riusciranno a dissipare anche fermi, l'interrogativo per la dual è lecito, ma è probabile che verrà fatta utilizzando versioni depotenziate del chip (come sempre è avvenuto)...non credo che la vedremo a breve pero'.

devAngnew
18-11-2009, 10:52
La fonte è ufficiale : http://www.computerbase.de/bildstrecke/27497/23/

225W di consumo massimo

Da un lato bisogna dire che quella scheda monta più ram ( meno consumi ) , dall'altro va detto che deve avere frequenze inferiori alla controparte geforce ( più consumi )

La news di VR-Zone riporta in calce le fonti, che sono ufficiali nVidia.

Ok, speriamo in performance di nota..:fagiano:

Kharonte85
18-11-2009, 10:58
Con furmark ho visto più di una scheda video consumare più del TDP dichiarato (anche perché il TDP non è il consumo).

Concordo comunque che furmark non è alla fine una situazione reale (nel senso di uso reale, per quanto si fossa fare fine a sé stesso)
Puo' capitare (anche se bisogna vedere se gli strumenti sono precisi)...ed in effetti Furmark è un animale...:asd:

okorop
18-11-2009, 10:58
Con furmark ho visto più di una scheda video consumare più del TDP dichiarato (anche perché il TDP non è il consumo).

Concordo comunque che furmark non è alla fine una situazione reale (nel senso di uso reale, per quanto si fossa fare fine a sé stesso)

ergo con furmark l'ipotetica dual gpu nvida farebbe spegnere il pc? bene, comunque si sa già raga fermi deve andare meglio delle hd5x00 series.....fonte lincata sotto
http://www.hwupgrade.it/forum/showpost.php?p=29731901&postcount=51

ally
18-11-2009, 11:01
ergo con furmark l'ipotetica dual gpu nvida farebbe spegnere il pc? bene, comunque si sa già raga fermi deve andare meglio delle hd5x00 series.....
http://www.hwupgrade.it/forum/showpost.php?p=29731901&postcount=51

...penso che Corsini volesse dire che vista la data di rilascio e la carne al fuoco non è nemmeno di augurarselo performance inferiori alla nuova serie ATI...infatti performance e bench non li sa nessuno...come conferma lo stesso Paolo...

...ciao Andrea...

Kharonte85
18-11-2009, 11:03
ergo con furmark l'ipotetica dual gpu nvida farebbe spegnere il pc?
No le tolleranze ci sono, solo nel caso che il tdp fosse stato pesantemente sottostimato potrebbe accadere, sicuramente farebbe alzare la temperatura più del solito.

bene, comunque si sa già raga fermi deve andare meglio delle hd5x00 series.....
http://www.hwupgrade.it/forum/showpost.php?p=29731901&postcount=51
E' altamente probabile, e questo lo pensano in molti...non mi pare che Corsini abbia fatto riferimento a dati certi.

Alex656
18-11-2009, 11:25
Come dice Corsini:

Parlare comunque in questo momento delle capacità prestazionali di Fermi è decisamente inutile, in quanto nessuno ne ha pubbliche informazioni e francamente di persone con la sfera di cristallo ne ho sentite tante, viste mai nessuna.

Sealea
18-11-2009, 11:32
E' altamente probabile, e questo lo pensano in molti...non mi pare che Corsini abbia fatto riferimento a dati certi.

ma per forza.. se no verrebbe un mega fallimento... e ati rimarrebbe in testa :D

sickofitall
18-11-2009, 11:42
Come dice Corsini:

Parlare comunque in questo momento delle capacità prestazionali di Fermi è decisamente inutile, in quanto nessuno ne ha pubbliche informazioni e francamente di persone con la sfera di cristallo ne ho sentite tante, viste mai nessuna.


purtroppo chi vuole denigrare (per quale motivo poi) una cosa lo fa anche senza dati certi, molto spesso da fonti non attendibili/ufficiali....

L'unica cosa da fare è portare pasienza, oppure usare il tasto "ignora" se proprio non possiamo leggere ;)

ally
18-11-2009, 11:51
purtroppo chi vuole denigrare (per quale motivo poi) una cosa lo fa anche senza dati certi, molto spesso da fonti non attendibili/ufficiali....

L'unica cosa da fare è portare pasienza, oppure usare il tasto "ignora" se proprio non possiamo leggere ;)

...non penso siano uscite per denigrare...la politica nVidia degli ultimi mesi non è condivisibile...ci auguriamo tutti che il competitor resti...e che di conseguenza i prezzi restino bassi...come aveva detto qualcuno qui sul forum : sono fanboy del mio portafoglio...

...ciao Andrea...

SnakeHead
18-11-2009, 11:52
sono stato un po assente e son troppe le paggine da leggere.qualke novità riguardo la data o ancora buio assoluto? illuminatemi!:fagiano:

Alex656
18-11-2009, 11:59
...... sono fanboy del mio portafoglio...

...ciao Andrea...


Siamo in 2 :D
Ho sempre scelto la scheda in base al rapporto qualità prezzo, ora ho ordinato la 5850 ma se nel frattempo (finchè arriva, campa cavallo) dovesse accadere un miracolo e Fermi si dovesse rivelare migliore ed alla portata non avrei alcun problema a rimanere su Nvidia.

halduemilauno
18-11-2009, 13:56
sono stato un po assente e son troppe le paggine da leggere.qualke novità riguardo la data o ancora buio assoluto? illuminatemi!:fagiano:

RE: GeForce launch by: Theo Valich on 11/18/2009

We know when nVidia is going to show the card to the press.

The date is not in 2010. Given the "volume launch" of HD5970 and what happened to many partners [we will probably have a separate story on this - went to bed at 8:24AM after talkign with AIB/SI/OEM], there should be no issue for nVidia to launch the card in 2009 with 1000 units and still claim a hard launch.

Ed.

;)

Gabriyzf
18-11-2009, 13:57
RE: GeForce launch by: Theo Valich on 11/18/2009

We know when nVidia is going to show the card to the press.

The date is not in 2010. Given the "volume launch" of HD5970 and what happened to many partners [we will probably have a separate story on this - went to bed at 8:24AM after talkign with AIB/SI/OEM], there should be no issue for nVidia to launch the card in 2009 with 1000 units and still claim a hard launch.

Ed.

;)

nvidia sente il fiato di amd sul collo

halduemilauno
18-11-2009, 14:11
nvidia sente il fiato di amd sul collo

se la disponibilità è quella che si vede e presume credo fiato corto. per le note vicende il vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente(vedere Q3)ora vedremo il Q4/Q1 e per carità soprattutto tutti i riscontri prestazionali del caso.


;)

atomo37
18-11-2009, 14:16
se la disponibilità è quella che si vede e presume credo fiato corto. per le note vicende il vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente(vedere Q3)ora vedremo il Q4/Q1 e per carità soprattutto tutti i riscontri prestazionali del caso.


;)

mi sembra un po' eccessivo "vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente", nXXt ha in pronta consegna le 5970 tanto per dirne una, e ad oggi ancora non si sa nemmeno quando verrà lanciata l'alternativa nvidia, presumibilmente tra circa 3 mesi.

halduemilauno
18-11-2009, 14:24
mi sembra un po' eccessivo "vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente", nXXt ha in pronta consegna le 5970 tanto per dirne una, e ad oggi ancora non si sa nemmeno quando verrà lanciata l'alternativa nvidia, presumibilmente tra circa 3 mesi.

ma perchè non leggi ed eventualmente quoti tutto? ho parlato chiarissimamente di Q3. e in base ai risultati del Q3 la situazione è quella 35 giorni di serie 5xxx e non è cambiato nulla. infatti poi ho detto aspettiamo i risultati di Q4 e di Q1. capisco che ti sei appena fatto un paio di 5870 ma giusto un paio di milioni possono cambiare un qualcosa.
accidentaccio nxxt ha le 5970. in pronta consegna poi quasi quasi.
suvvia.

atomo37
18-11-2009, 14:29
ma perchè non leggi ed eventualmente quoti tutto? ho parlato chiarissimamente di Q3. e in base ai risultati del Q3 la situazione è quella 35 giorni di serie 5xxx e non è cambiato nulla. infatti poi ho detto aspettiamo i risultati di Q4 e di Q1. capisco che ti sei appena fatto un paio di 5870 ma giusto un paio di milioni possono cambiare un qualcosa.
accidentaccio nxxt ha le 5970. in pronta consegna poi quasi quasi.
suvvia.

hal semmai è poco chiaro quello che hai scritto e te lo puoi rileggere, in particolare la frase "per le note vicende il vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente(vedere Q3)" non è che sia così chiara, per quello che l'avevo intesa io mi pareva opinabile, poi la puoi spiegare meglio e se ne può sempre riparlare.
come ben sai ora ho due 5870, prima avevo una gtx295, presumibilmente domani avrò due fermi, e forse poi ancora ati, questo credo faccia di me un utente piuttosto obiettivo e senza bandierine rosse o verdi sul pc :)

halduemilauno
18-11-2009, 14:36
hal semmai è poco chiaro quello che hai scritto e te lo puoi rileggere, in particolare la frase "per le note vicende il vantaggio temporale di amd mi pare molto risicato se non addirittura inesistente(vedere Q3)" non è che sia così chiara, per quello che l'avevo intesa io mi pareva opinabile, poi la puoi spiegare meglio e se ne può sempre riparlare.
come ben sai ora ho due 5870, prima avevo una gtx295, presumibilmente domani avrò due fermi, e forse poi ancora ati, questo credo faccia di me un utente piuttosto obiettivo e senza bandierine rosse o verdi sul pc :)

infatti ho detto "note vicende" perchè presupponevo che erano veramente note evidentemente no. le note vicende alle quali facevo e faccio riferimento sono le(appunto)note difficoltà di TSMC nel PP a 40nm. in quanto al tuo passato possessore di gtx295 mi era perfettamente noto ma che centra con quanto sto dicendo?

atomo37
18-11-2009, 14:40
infatti ho detto "note vicende" perchè presupponevo che erano veramente note evidentemente no. le note vicende alle quali facevo e faccio riferimento sono le(appunto)note difficoltà di TSMC nel PP a 40nm. in quanto al tuo passato possessore di gtx295 mi era perfettamente noto ma che centra con quanto sto dicendo?

per ribadire che non credo di essere un fanboy

halduemilauno
18-11-2009, 14:48
per ribadire che non credo di essere un fanboy

e io invece ribadisco che ho semplicemente risposto alla faccenda fiato che prendendo come dato il Q3 è quantomeno corto. e ho anche aggiunto aspettiamo i successivi e poi anche tutti i riscontri prestazionali del caso.

atomo37
18-11-2009, 14:50
e io invece ribadisco che ho semplicemente risposto alla faccenda fiato che prendendo come dato il Q3 è quantomeno corto. e ho anche aggiunto aspettiamo i successivi e poi anche tutti i riscontri prestazionali del caso.

sisi sicuramente liberissimo di avere le tue opinioni.
la mia è che nvidia è arrivata veramente lunghissima coi tempi e che nel frattempo ati cavalcherà l'onda, il che va sicuramente a vantaggio di tutti noi perchè stava veramente messa male e una boccata di ossigeno ad ati potrebbe un po' riequilibrare la situazione, ripeto a vantaggio di noi tutti utenti.

Kharonte85
18-11-2009, 15:00
sisi sicuramente liberissimo di avere le tue opinioni.
la mia è che nvidia è arrivata veramente lunghissima coi tempi e che nel frattempo ati cavalcherà l'onda, il che va sicuramente a vantaggio di tutti noi perchè stava veramente messa male e una boccata di ossigeno ad ati potrebbe un po' riequilibrare la situazione, ripeto a vantaggio di noi tutti utenti.

:sofico:

Bene che AMD/ATI sopravviva/si riprenda ma per i consumatori i prezzi si stanno rigonfiando ed è un male che nvidia non ci sia.

halduemilauno
18-11-2009, 15:16
sisi sicuramente liberissimo di avere le tue opinioni.
la mia è che nvidia è arrivata veramente lunghissima coi tempi e che nel frattempo ati cavalcherà l'onda, il che va sicuramente a vantaggio di tutti noi perchè stava veramente messa male e una boccata di ossigeno ad ati potrebbe un po' riequilibrare la situazione, ripeto a vantaggio di noi tutti utenti.

lunghissima quanto ti pare ma al Q3 con 35 giorni di serie 5xxx il fiato di amd su nvidia era tra il corto e l'inesistente. e questo è un dato di fatto. cosa accadrà nei Q immediatamente successivi io non lo so tu invece gia sai che ati cavalcherà l'onda. ripeto se tsmc non cambia l'onda in realtà è una risacca. questo sempre in attesa dei riscontri sui tempi e prestazioni di fermi. che sia chiaro.

Foglia Morta
18-11-2009, 15:18
azz che demo... http://www.youtube.com/watch?v=wkJTgv6IA7c&fmt=18

http://www.vizworld.com/2009/11/nvidias-fermi-sc09/

dewwwxx84
18-11-2009, 15:30
azz che demo... http://www.youtube.com/watch?v=wkJTgv6IA7c&fmt=18

http://www.vizworld.com/2009/11/nvidias-fermi-sc09/

Scusa ma non riesco a capire, c'e' scritto GT200 :confused: ed il titolo parla di FERMI......... :confused:

Alex656
18-11-2009, 15:31
azz che demo... http://www.youtube.com/watch?v=wkJTgv6IA7c&fmt=18

http://www.vizworld.com/2009/11/nvidias-fermi-sc09/

Interessante, abbiamo la conferma che la scheda in doppia precisione va come un treno................nel frattempo si potrà fantasticare su come potrebbe andare nel gaming .

atomo37
18-11-2009, 15:31
lunghissima quanto ti pare ma al Q3 con 35 giorni di serie 5xxx il fiato di amd su nvidia era tra il corto e l'inesistente. e questo è un dato di fatto. cosa accadrà nei Q immediatamente successivi io non lo so tu invece gia sai che ati cavalcherà l'onda. ripeto se tsmc non cambia l'onda in realtà è una risacca. questo sempre in attesa dei riscontri sui tempi e prestazioni di fermi. che sia chiaro.

ci vorrà mica la sfera di cristallo per affermare che q4 ati farà i numeri?
non lo so, io sono un professionista di marketing ma non mi pare che ci vogliano grandi competenze per fare una previsione del genere.

Foglia Morta
18-11-2009, 15:33
Scusa ma non riesco a capire, c'e' scritto GT200 :confused: ed il titolo parla di FERMI......... :confused:

sul monitor a sinistra il demo che gira su Fermi , sul monitor a destra lo stesso demo su GT200

halduemilauno
18-11-2009, 15:33
Scusa ma non riesco a capire, c'e' scritto GT200 :confused: ed il titolo parla di FERMI......... :confused:

non hai visto che sono due monitor? due schede, fermi e gt200?

Andrea deluxe
18-11-2009, 15:34
Scusa ma non riesco a capire, c'e' scritto GT200 :confused: ed il titolo parla di FERMI......... :confused:

guarda bene il video!

halduemilauno
18-11-2009, 15:35
ci vorrà mica la sfera di cristallo per affermare che q4 ati farà i numeri?
non lo so, io sono un professionista di marketing ma non mi pare che ci vogliano grandi competenze per fare una previsione del genere.

se permane la penuria di 40nm???? ripeto se permane. per carità ripeto in attesa di tutti i riscontri del caso. di + non che dirti. e ripeto pure che io ho sempre ribadito al termine fiato facendo riferimento al Q3.
STOP.

atomo37
18-11-2009, 15:38
se permane la penuria di 40nm???? ripeto se permane. per carità ripeto in attesa di tutti i riscontri del caso. di + non che dirti. e ripeto pure che io ho sempre ribadito al termine fiato facendo riferimento al Q3.
STOP.

che sta penuria sia fortemente penalizzante è assolutamente fuori di dubbi, sicuramente una sventura, basti vedere i prezzi osceni in giro. speriamo che risolvano al più presto.

dewwwxx84
18-11-2009, 16:08
Porcamiseria ragazzi :D mi sembrava una cosa del genere.......

Forse e' meglio se mi sveglio un po' vista l'ora. GRAZIE.

Sealea
18-11-2009, 16:16
Almeno rispetto a GT200.

si appunto.. non mi pare che la gt200 sia sto mostro...

dewwwxx84
18-11-2009, 16:19
si appunto.. non mi pare che la gt200 sia sto mostro...

gt200 a mio parere va' confrontata com la serie 4xxx ati.

okorop
18-11-2009, 16:19
si appunto.. non mi pare che la gt200 sia sto mostro...

i calcoli in doppia precisione come nel bench mostrato evidenziano la potenza di fermi a calcolarli rispetto a gt200 e di questo ne eravamo tutti ben consci, bisognerà vedere nell'utilizzo reale (gaming) come andrà fermi :)

Alex656
18-11-2009, 16:22
i calcoli in doppia precisione come nel bench mostrato evidenziano la potenza di fermi a calcolarli rispetto a gt200 e di questo ne eravamo tutti ben consci, bisognerà vedere nell'utilizzo reale (gaming) come andrà fermi :)

E' proprio questo il dubbio amletico che tutti vorremmo risolvere :D

okorop
18-11-2009, 16:23
E' proprio questo il dubbio amletico che tutti vorremmo risolvere :D

guardando quel bench non ci toglieremo questo dubbio di sicuro, lasciamo lavorare gli adetti nvida ancora per un po sulla revision a3 poi vedremo quando sarà pronta la scheda :)

Alex656
18-11-2009, 16:26
guardando quel bench non ci toglieremo questo dubbio di sicuro, lasciamo lavorare gli adetti nvida ancora per un po sulla revision a3 poi vedremo quando sarà pronta la scheda :)

Da quello che ho letto, la revision A2 dovrebbe essere già adatta ai test interni e probabilmente anche per i benchmark, anche se sarà la A3 ad essere commercializzata. Speriamo che trapeli qualcosa prima o poi.

okorop
18-11-2009, 16:32
Da quello che ho letto, la revision A2 dovrebbe essere già adatta ai test interni e probabilmente anche per i benchmark, anche se sarà la A3 ad essere commercializzata. Speriamo che trapeli qualcosa prima o poi.

guarda l' a3 puo' solo migliorare rispetto all'a2, siccome l'han pronto in settimana a quanto letto nelle news la devono mandare a tsmc e produrla, ovviamente bisogna aspettare i 2 mesi prima del commercio quindi l'ipotesi piu' probabile è verso il 20 gennaio la data della commercializzazione, sempre se non subiranno ulteriori intoppi con il processo produttivo, mi auguro che riusciranno con la revision nuova ad abbassare il tdp, son supposizioni, ma penso che sia mirato il per raggiungere tale obiettivo: vedremo......

persa
18-11-2009, 16:32
nelle news di questo sito dicono che la gtx380 dovrebbe essere lunga 28cm.
se è così, anche questa riuscirebbe ad entrare in un case tipo il mio :D

persa
18-11-2009, 16:36
cmq pensavo che non si andasse oltre i 27cm...ma vedo che il mercato delle vga sta prendendo una brutta piega... ormai le schede di fascia alta superano i 27cm, le dual 30..
in futuro c'è da pregare che non si arrivi a 30-32cm con le single gpu nvidia 400 e ati 6000... :stordita:

Alex656
18-11-2009, 16:40
Io invece spero che, come successo per le Ati, ci siano anche versioni più umane, tipo 5850 visto che la GTX 380 dovrebbe essere la top di gamma.

persa
18-11-2009, 16:41
Io invece spero che, come successo per le Ati, ci siano anche versioni più umane, tipo 5850 visto che la GTX 380 dovrebbe essere la top di gamma.

vedremo.. :boh:

DVD2005
18-11-2009, 17:24
cmq pensavo che non si andasse oltre i 27cm...ma vedo che il mercato delle vga sta prendendo una brutta piega... ormai le schede di fascia alta superano i 27cm, le dual 30..
in futuro c'è da pregare che non si arrivi a 30-32cm con le single gpu nvidia 400 e ati 6000... :stordita:

ho visto che abbiamo lo stesso case, a tuo avviso fino a che cm possiamo stare tranquilli ?

persa
18-11-2009, 17:26
ho visto che abbiamo lo stesso case, a tuo avviso fino a che cm possiamo stare tranquilli ?

direi fino a 29cm, non oltre!!

appleroof
18-11-2009, 17:28
ho visto che abbiamo lo stesso case, a tuo avviso fino a che cm possiamo stare tranquilli ?

direi fino a 29cm, non oltre!!

azz..

io di sicuro non lo cambio tutto il case per una vga, non ora ne per un bel pò almeno :read:

persa
18-11-2009, 17:29
la 5870 ci sta bene ed è 28cm. quindi spero che le altre schede a singola gpu che usciranno + avanti stiano su questa lungezza..max 1cm +.

mentre la 5970 con i suoi 30.4cm, non ci entra in un case come il mio.

Sealea
18-11-2009, 17:29
azz..

io di sicuro non lo cambio tutto il case per una vga, non ora ne per un bel pò almeno :read:

stessa cosa x me... con tutta la fatica che ho fatto per moddarlo :D

persa
18-11-2009, 17:30
azz..

io di sicuro non lo cambio tutto il case per una vga, non ora ne per un bel pò almeno :read:

ma nemmeno io!!! poi a me il mio case piace troppo!!! :D

DarkNiko
18-11-2009, 17:33
Ciao a tutti, mi unisco anche io al thread di coloro che attendono l'arrivo delle nuove ammiraglie NVidia.
Tuttavia ho come la strana sensazione che a questo giro NVidia abbia un pò cannato il progetto. I continui ritardi non depongono di certo a favore e non so quanto la prossima soluzione Fermi sarà in grado di scalzare la HD 5870/5970 di ATi dal trono, voi che dite ?

Ovviamente parlo da felicissimo possessore di GTX280 NVidia con cui mi sono trovato e continuo a trovarmi benissimo, ma non disdegnerei la soluzione ATi. ;)

DVD2005
18-11-2009, 17:33
la 5870 ci sta bene ed è 28cm. quindi spero che le altre schede a singola gpu che usciranno + avanti stiano su questa lungezza..max 1cm +.

mentre la 5970 con i suoi 30.4cm, non ci entra in un case come il mio.

speriamo Fermi non superi i 28.5 max 29 altrimenti sono fregato.

persa
18-11-2009, 17:35
speriamo Fermi non superi i 28.5 max 29 altrimenti sono fregato.

e si :asd:

sickofitall
18-11-2009, 17:36
speriamo Fermi non superi i 28.5 max 29 altrimenti sono fregato.

un colpetto di flex e risolvi il problema :asd:

okorop
18-11-2009, 17:37
un colpetto di flex e risolvi il problema :asd:

mi immagino già il case metto sfasciato :asd: scherzo con cura si fa tutto io non saprei dove cominciare :asd:
Ciao a tutti, mi unisco anche io al thread di coloro che attendono l'arrivo delle nuove ammiraglie NVidia.
Tuttavia ho come la strana sensazione che a questo giro NVidia abbia un pò cannato il progetto. I continui ritardi non depongono di certo a favore e non so quanto la prossima soluzione Fermi sarà in grado di scalzare la HD 5870/5970 di ATi dal trono, voi che dite ?

Ovviamente parlo da felicissimo possessore di GTX280 NVidia con cui mi sono trovato e continuo a trovarmi benissimo, ma non disdegnerei la soluzione ATi. ;)

per quanto rigurada le performance di fermi posta la gtx285 (l'attuale single gpu nvida) a 100%, la 5870 starebbe a 134% dato preso da (http://www.hwupgrade.it/articoli/skvideo/2287/285_5870_1920x1200.png), la gtx295 starebbe a 1.43 sempre mediamente (http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_19.html)ed infine la 5970 sarebbe a 170% (http://www.hwupgrade.it/articoli/skvideo/2326/295_5970_1920x1200.png), significa che gt100 dovrebbe andare il 70% in piu della gtx285 per eguagliare la top di gamma ati, se ce la farà tanto di cappello :)

DVD2005
18-11-2009, 17:39
un colpetto di flex e risolvi il problema :asd:

conoscendo la mia abilità con i lavori manuali, se impugno un flexi.. allargo pure la stanza :p

persa
18-11-2009, 17:40
ma dai io il mio case non lo segherei mai. poi dentro è tutto nero quindi si rovinerebbe....., verrebbe una zozzeria :ciapet:

Foglia Morta
18-11-2009, 18:04
Da xtremesystems:

http://www.aijaa.com/img/b/00828/5282536.png

appleroof
18-11-2009, 18:09
conoscendo la mia abilità con i lavori manuali, se impugno un flexi.. allargo pure la stanza :p

:asd: :asd: :asd:

Andrea deluxe
18-11-2009, 18:09
Da xtremesystems:

http://www.aijaa.com/img/b/00828/5282536.png

va be dai.....


in quella foto ci si potrebbe vedere anche il significato della vita nell'universo.....:O

Kharonte85
18-11-2009, 18:14
conoscendo la mia abilità con i lavori manuali, se impugno un flexi.. allargo pure la stanza :p
:asd:

va be dai.....


in quella foto ci si potrebbe vedere anche il significato della vita nell'universo.....:O
Eh già...:D

devAngnew
18-11-2009, 18:43
RE: GeForce launch by: Theo Valich on 11/18/2009

We know when nVidia is going to show the card to the press.

The date is not in 2010. Given the "volume launch" of HD5970 and what happened to many partners [we will probably have a separate story on this - went to bed at 8:24AM after talkign with AIB/SI/OEM], there should be no issue for nVidia to launch the card in 2009 with 1000 units and still claim a hard launch.

Ed.

;)

Quindi se ho capito bene Nvidia farà un hard launch di 1000 unità nel 2009 :eek:

persa
18-11-2009, 18:44
Quindi se ho capito bene Nvidia farà un hard launch di 1000 unità nel 2009 :eek:

ma che è un miracolo? :confused: :D

devAngnew
18-11-2009, 18:51
ma che è un miracolo? :confused: :D

Speriamo :sperem: visto i problemi di TSMC per 40nm riscontrato già con la penuria di schede ATI serie 5xxx ....

Sealea
18-11-2009, 18:51
ma che è un miracolo? :confused: :D

1000 unità? e quando durano, 3 secondi?

persa
18-11-2009, 18:54
Speriamo :sperem: visto i problemi di TSMC per 40nm riscontrato già con la penuria di schede ATI serie 5xxx ....

è vero.. per fortuna sono riuscito a prendermela una 5800, nonostante questi problemi...
1000 unità? e quando durano, 3 secondi?

neanche, 1.5sec.

:D

jok3r87
18-11-2009, 19:00
Quindi se ho capito bene Nvidia farà un hard launch di 1000 unità nel 2009 :eek:

Addirittura 1000 unità...

persa
18-11-2009, 19:33
Domanda: è normale che la scheda sia quasi sopra al secondo slot PCIe? Sulla mia mobo c'è un'autostrada :confused:



in questa foto c'è una gtx285 montata su una rampage II extreme, guarda come ci sta: http://www.guru3d.com/imageview.php?image=16195

persa
18-11-2009, 19:56
Sta come la mia, coma fa questa a stare quasi a coprire il PCIe x16 blu che sta sotto?

a me sinceramente sembra che la gtx380 ci stia uguale alla gtx285 :boh:

Andrea deluxe
18-11-2009, 19:59
Sta come la mia, coma fa questa a stare quasi a coprire il PCIe x16 blu che sta sotto?

io ho avuto la r2e con una 280 e lo slot si copre come nell'immagine leaked..

atomo37
18-11-2009, 20:03
Sta come la mia, coma fa questa a stare quasi a coprire il PCIe x16 blu che sta sotto?

ci stanno due, un po' strette in effetti ma ci stanno, io per spaziarle ho messo uno spessorino di gomma tra le due, almeno la prima respira meglio, ho guadagnato 4/5 gradi sulla prima vga in questo modo, ma in effetti potevano fare un po' più spazio.

Sealea
18-11-2009, 21:01
Nvidia Fermi demonstrated at SC '09

Following the release of ATI's flagship Hemlock, we first witnessed the first picture of a working Fermi based Geforce system, and now at SC '09, Nvidia have demonstrated Fermi going up against GT200. All in one day!

The demonstration is a N-body simulation running on CUDA with 20,480 body interactions in double precision. This demonstration was designed to show off Fermi's massive DP performance increase over GT200. Of course, being a supercomputing conference, these results are hardly relevent for gaming. The GT200 GPU was a Tesla C1060 and the Fermi was an Tesla 20 sample. The results? 3.5 fps for the C1060, 21.72 fps for Fermi.

The end result is a 6.2x increase in a DP simulation, not far off from previous expectations of 8x. This 8x figure is compared to the GTX 285, whereas the C1060 is based on the slower GTX 280, so we should've been expecting 9-10x improvements (768 vs. 78 Gflops). Even considering scaling inefficiencies, it is clear Nvidia have missed their previous expectations by missing their clock target as 6.2x is nowhere near 9-10x. Do remember that this is A2 silicon, and the final A3 silicon might be a tad faster. However, what this demonstration really does is shows GT200's weakness in double precision computation. The Tesla C1060 boasts of 78 GFlops, whereas Tesla 20 reportedly brings DP performance to over 600 GFlops (short of the 768 GFlops target). AMD has always been stronger in double precision however, with the modest 18 month old HD 4870 managing 240 GFlops. The current generation HD 5870 performs at 544 Gflops, not far away from Fermi in what is supposed to be one of Fermi's strong points.

So what does double precision have to do with gaming graphics? Almost nothing. The fact remains that in raw theoretical (single precision) compute performance, Fermi is miles behind HD 5870 (<1.5 TFlops vs. 2.72 TFlops). And unlike RV770, which had a significant disadvantage in ROP and TMU over GT200, the gap has narrowed bridged with Cypress vs. Fermi. The only gaming graphics related advantage Fermi holds right now is memory bandwidth. Normally, we could say Nvidia has the more efficient driver team (thanks in part to TWIMTBP) as an advantage, but AMD have just too long a lead time to get their drivers matured. Though, we cannot count out the Geforce Fermi being different from Tesla Fermi and there being specific gaming optimizations. But we are not aware of any such features as of now.

On the bright side, we have seen Fermi - in both Tesla and Geforce form - up and running today, and that is a real sigh of relief! These are likely to be A2 silicon, whereas the final shipping products will be A3. Geforce products are expected in late Q1 2010, and Tesla products in Q2 2010, assuming everything goes smoothly.

You can watch a video of the N-body demonstration on Youtube.

http://vr-zone.com/articles/nvidia-fermi-demonstrated-at-sc-09/8071.html?doc=8071

tradotto in poche parole? :asd:

eXeS
18-11-2009, 21:22
tradotto in poche parole? :asd:
In doppia precisione va come una treno, ma doppia precisione e gaming non sono particolarmente affini

In precisione singola è inferiore alla 5870, siamo in una situazione simile a quanto era successo tra GT200 e R770, ma se tra le due la minore capacità in singola precisione era in qualche modo compensata dal numero di unita TMU e ROPS che GT200 aveva in più rispetto a R770, ora la situazione dovrebbe essere meno sfavorevole per R870.

Rimane comunque l'interrogativo banda, che grazie ai 512bit e alla DDR5 potrebbe dare qualcosa in più.

Ma la cosa più importante a mio avviso è che finalmente hanno mostrato una versione di Fermi funzionante.

halduemilauno
18-11-2009, 22:28
http://www.siliconmadness.com/2009/11/nvidia-announces-tesla-20-series.html


Nvidia unveils more details about it's number crunching baby and we take a look deeper inside the chip.

The following new specs were released:


520-630 GFLOPS/s
Total Memory: 3 or 6 GiB GDDR5, 2.625 or 5.625 GiB when using ECC
Power consumption: 190W
Two models: Tesla C2050 and Tesla C2070

ECC is optional, which is great as far as I'm concerned. Power consumption is not bad and the desktop cards should be similar. Since the card seems to have rendering hardware enabled(DVI is there), power consumption should only be lower on cards inside the Tesla S 1U part.
We do have an interesting number: 520-630GFLOPS/s, a disappointing number for someone who only looks at theoretical performance. Single precision performance will be lower than ATI, my predictions point to 1.66TFLOPS/s and this number will be detailed shortly. AMD cards can do 544 GFLOPS/s in double precision, due to the way the shader processors are designed:


AMD hardware can't do two double precision FP MAD operations per clock, only one, so what you get is 850MHz * 320 SPs * 2 ops (MAD = ADD+MUL) = 544 GFLOPS/s. A good number, it's a shame that the hardware is capped. Don't take AMD's theoretical capabilities to be reflective of relative performance. Nvidia, among other things, has a bandwidth advantage of 50% with "Fermi".

Let's move along to a more detailed explanation of Nvidia's architecture, to get out that number: 1.89TFLOPS/s.



Third Generation Streaming Multiprocessor (SM)
32 CUDA cores per SM, 4x over GT200
8x the peak double precision floating point performance over GT200
Dual Warp Scheduler simultaneously schedules and dispatches instructions from two independent warps
64 KB of RAM with a configurable partitioning of shared memory and L1 cache

This is the core of the new Tesla cards, 16 shader multiprocessors (SMs) with 32 cores each. These cores are more tightly coupled together than in previous architectures, where Nvidia coupled them in two(G80) or three(GT200) per thread processor cluster(TPC):


Picture courtesy of Anandtech


"Fermi", looks more like this:


The scheduler can dispatch two independent warps(a group of 32 threads from the same thread block) to each of the 16 cores, the SFUs or the load/store units. Previous hardware dispatched half-threads and ran them twice the SPs, once clock cycle for each 8 threads of an half-warp. The same happens in the new hardware but only full warps are scheduled. Nvidia had already hinted this would happen in future hardware when it referred to warps in some parts of the CUDA programming guide.
The hardware sends a warp to each group of SPs and they process 32 threads along two clocks, 16 per clock. To the scheduler.

Theoretical performance on Nvidia's hardware can only be achived by using the SFUs as units capable of performing 4 single precision MUL or MAD FLOPS/s per SFU, but not FMAD. This is due to the flexibility of the interpolation hardware, which allows this to happen. Assuming that SFUs are unchanged from the GT200 design, that equals:

( 32 SPs * 2 (FMAD) + 4 * 4 SFUs ) * 16 (SMs) * 1.296MHz (core clock) = 1.66 TFLOPS/s
This is possible because - or at least in the two previous architectures - the SFUs could be schedulled in parallel with the SPs. The clock frequency is obtained from the number of dual precision operations that we know the hardware supports:


630 GFLOPS / (256 ops * 2 (FMA)) = 1.23GHz ~ 1.296MHz, a number more commong in Nvidia's graphics cards due to the clock generators generally used. The C2050 card will work at a slower ~1020MHz.
If SFUs are upgraded to process information more single precision FLOPS per second, the hardware may be capable of 1.89TFLOPS, assuming the same proportion as in the GT200. This doesn't seem likely, hence Nvidia releasing just the double precision performance(sligthly better than AMD) or they would risk having some people jumping the fence to the other green side - the AMD card is capable of 64% more theoretical performance, at 2.72 TFLOPS/s. Remember, ATI throttles their new cards to an almost ridiculous extent, so it's very likely that such peak is like Pentium 4's performance: an order from the marketing department.

The apparently low theoretical peak performance is saying nothing about the performance of the card in games. HPC users already know they're getting the card, but we don't know anything about the hardware dedicated to graphics rendering that is not at the core. We know Nvidia has bandwidth on it's side and I think that will help Nvidia regain the single-GPU graphics card performance crown. At which cost and when, that is the real question. Two or three months from now, an AMD Radeon card properly overclocked may result in very disappointing launch.
My guess is that the card will be 60-75% faster than a GTX 285, which has higher clocks than what "Fermi" will be capable at launch.

The Radeon 5970 is out today. Nvidia will have to hurry up or be forced to move to a better place.
;)

eXeS
18-11-2009, 22:41
In realtà va poco più di una HD5870, in quello che però è battuto come il punto di forza di Fermi, cosa non molto incoraggiante.

Ma come ben sai la realtà è ben diversa dai numeri, soprattutto se le architetture sono diverse, anche un confronto tra architetture simili vedi ad esempio serie 4 vs 5 di ATI nel quale a fronte di numeri praticamente doppi, abbiamo prestazioni che non riflettono il rapporto numerico

Non erano 384b?

Bo, mi sembrava a suo tempo d'aver letto 512

halduemilauno
18-11-2009, 22:44
Ma come ben sai la realtà è ben diversa dai numeri, soprattutto se le architetture sono diverse, anche un confronto tra architetture simili vedi ad esempio serie 4 vs 5 di ATI nel quale a fronte di numeri praticamente doppi, abbiamo prestazioni che non riflettono il rapporto numerico

Bo, mi sembrava a suo tempo d'aver letto 512

512 sono gli shader mentre il bus è a 384 bit.

dewwwxx84
18-11-2009, 22:46
Ma non dovrebbero presentarla a breve? :mbe:

eXeS
18-11-2009, 22:53
512 sono gli shader mentre il bus è a 384 bit.
Gli shader ero certo fossero 512, sull'ampiezza del bus ne prendo atto ora :)

The_SaN
18-11-2009, 23:43
Ma come ben sai la realtà è ben diversa dai numeri, soprattutto se le architetture sono diverse, anche un confronto tra architetture simili vedi ad esempio serie 4 vs 5 di ATI nel quale a fronte di numeri praticamente doppi, abbiamo prestazioni che non riflettono il rapporto numericoCerto che le prestazioni non sono doppie. C'é una caratteristica importante che é quasi rimasta invariata; la banda passante.
Oltre al fatto che lo scaling NON é lineare, vedi g80/g92 vs gt200.

Quello a cui si riferisce ratatosk é il GPU computing, dove conta molto la forza bruta, i GigaFlops (e qui la doppia precisione é importantissima).
In questo caso non é importante come si ottengono i GFlops, ma il numero di GFlops ottenuti.
Per questo lo stupore di molti (compresa la testata, a vedere dai toni), in vista della piccola differenza tra 5870 e gt300: il gpu computing é il carro trainante di questa nuova generazione nVidia, e la distanza sembra essere piuttosto corta.

L'architettura diversa e le sue prestazioni, invece, sono un'incognita nelle applicazioni 3D, soprattutto nei games.

Ywes
19-11-2009, 02:28
ci stanno due, un po' strette in effetti ma ci stanno, io per spaziarle ho messo uno spessorino di gomma tra le due, almeno la prima respira meglio, ho guadagnato 4/5 gradi sulla prima vga in questo modo, ma in effetti potevano fare un po' più spazio.

Che ingegnerizzazione del piffero -.-

Mah infatti, poi quello che dico è, ma possibile che dopo anni di pci-e multigpu tra SLI e CrossfireX ancora nessuno abbia pensato a fare delle speciali shcede girate di 180° in modo che la ventola del dissipatore della GP1 prenda l'aria dall'alto mentre quella della GPU2 dal basso. Et voila, problema risolto!

molochgrifone
19-11-2009, 09:56
azz che demo... http://www.youtube.com/watch?v=wkJTgv6IA7c&fmt=18

http://www.vizworld.com/2009/11/nvidias-fermi-sc09/

Provo a dire la mia ca__ata del mattino, tenete presente che tecnicamente ne so zero e che inoltre sono in ufficio e non so come farmi passare il tempo :asd:

Quotando dal link di vizworld:

"In other words, the Fermi GPU is running 6.2 times faster, whether you look at interactions per second, or frames per second. Nvidia says that Fermi can run double precision up to 8x faster. Double precision is running at half the speed of
single precision in Fermi. In the previous generation, the G200, double precision was running one-tenth of the speed."

mi sono divertito a fare questo stupidissimo calcolo: se GT200 in DP andava teoricamente un valore che impostiamo a 10, Fermi andrà teoricamente a 80 (dicono che va 8 volte tanto). Quindi in SP Fermi andrebbe teoricamente a 160 (infatti dicono che in DP va la metà che in SP), mentre GT200 andava sempre più teoricamente a 100 (dicono che GT200 in DP andava un decimo rispetto che in SP).

Dopo questa elucubrazione assurda risulterebbero numericamente i valori in SP di 100 per GT200 e 160 per Fermi, ovvero 1,6 volte tanto...

Che dite, devo smettere di drogarmi alla mia età? :doh:

PS: anche io ho il CM 690, ma è un po' che non ci metto le mani dentro... dite che più lunga di 30 cm non ci starebbe? Tra l'altro a me il tubo del liquido già rischia di toccare la 8800 GTX :cry:

halduemilauno
19-11-2009, 10:10
altra immagine...
[IMG]http://www.pctunerup.com/up/results/_200911/20091119105603_180764.jpg[IMG]
;)

Foglia Morta
19-11-2009, 10:16
altra immagine...
[IMG]http://www.pctunerup.com/up/results/_200911/20091119105603_180764.jpg[IMG]
;)

è la stessa postata qui ieri : http://www.hwupgrade.it/forum/showpost.php?p=29737096&postcount=8266

è :old:

Elendil_1
19-11-2009, 10:35
lunghissima quanto ti pare ma al Q3 con 35 giorni di serie 5xxx il fiato di amd su nvidia era tra il corto e l'inesistente. e questo è un dato di fatto. cosa accadrà nei Q immediatamente successivi io non lo so tu invece gia sai che ati cavalcherà l'onda. ripeto se tsmc non cambia l'onda in realtà è una risacca. questo sempre in attesa dei riscontri sui tempi e prestazioni di fermi. che sia chiaro.

Ehm, ma guarda che mica le schede non si vendono o sono prodotte in quantità risibili. Il lancio c'è stato, magari non hanno invaso il mercato con milioni di schede ma con centinaia di migliaia sì. Gli shop ogni una due settimane ne ricevono una decina, e le vendono in un giorno.
C'è anche la domanda che è altissima, evidentemente.

atomo37
19-11-2009, 10:35
Già, delle belle schede vendute a coppia CrossFire Edition o SLi Edition fatte in questo modo :)

Ad ogni modo io sulla Maximus avrei un'autostrada fra le due VGA (se ne avessi due), quindi è proprio quella mobo ad essere pensata coi piedi (fra le altre cose tengo la VGA nel secondo slot, quello più basso, così la zona chipset/cpu ha più agio)

non solo ma nella mia rampage la prima vga sta attaccatissima pure alla scheda audio x-fi e pure questa cosa non è che sia il massimo.

Kharonte85
19-11-2009, 11:22
Notavo i connettori di alimentazione, non è che siano proprio uguali...
La versione Tesla dovrebbe avere i connettori a L mentre la Geforce dovrebbe averli paralleli come nella foto (vale tutt'ora per le schede in commercio derivate da gt200)

molochgrifone
19-11-2009, 11:31
Il ragionamento mi sembra corretto (ovvio poi che mentre le prestazioni DP danno un'idea chiara delle potenzialità in GPGPU la stessa cosa non fanno le prestazioni SP per il gaming).



Dai miei calcoli risulta essere fra i 26 ed i 27 cm, ovviamente se le foto viste sono vere ;)

Mi sa che sia che io scelga la 5870 sia che scelga la futura nVidia avrò qualche problema, dovrò spostare la pompa, meno male che nel mio 690 la gabbia degli HD non esiste più e quindi ho quel posto libero :D però dovrò far fare un giro del cavolo ai tubi (mannaggia a me quando ho preso il tygon grosso :muro: ).

Severnaya
19-11-2009, 11:40
ma si raffreddano in qualche modo :mbe:

persa
19-11-2009, 11:46
Dai miei calcoli risulta essere fra i 26 ed i 27 cm, ovviamente se le foto viste sono vere ;)

da quello che ho potuto vedere la 380 è un 27.5-28cm. un pizzico + lunga di una gtx285, sembrerebbe lunga come una 5870. quindi entra anche in un mid tower da 50€ come antec three hundred.

persa
19-11-2009, 11:50
cmq mi domando se un eventuale gtx360 utilizzerà un pcb + corto, come ha fatto ati tra 5850 e 5870.

Alex656
19-11-2009, 12:02
cmq mi domando se un eventuale gtx360 utilizzerà un pcb + corto, come ha fatto ati tra 5850 e 5870.

Magari; però se non sbaglio già tutte le schede dalla 260 in su sono più lunghe della 5850.

persa
19-11-2009, 12:13
Magari; però se non sbaglio già tutte le schede della famigia 2XX sono più lunghe della 5850.

esatto, la 5850 mi sembra che stia sui 25cm, le gtx200 sono tutte sui 27cm,
nvidia le ha fatte tutte lunghe uguali, per differenziarle a solo cambiato frequenze e disattivato sp e una parte di bus.

bisogna vedere se anche adesso farà così, o come fece con le g80 8800gts ed 8800gtx.. che avevano anche il pcb diverso :boh:

Alex656
19-11-2009, 12:17
esatto, la 5850 mi sembra che stia sui 25cm, le gtx200 sono tutte sui 27cm,
nvidia le ha fatte tutte lunghe uguali, per differenziarle a solo cambiato frequenze e disattivato sp e una parte di bus.

bisogna vedere se anche adesso farà così, o come fece con le g80 8800gts ed 8800gtx.. che avevano anche il pcb diverso :boh:


La 5850, come la 4890, è lunga 24 cm, nel mio case entra perfettamente; non potrei andare molto oltre.

http://www.hwupgrade.it/articoli/skvideo/2298/ati-radeon-hd-5850-rv870-in-formato-ridotto_2.html

persa
19-11-2009, 12:25
24cm, meglio ancora.. :D

x curiosità che case hai?

Alex656
19-11-2009, 12:33
24cm, meglio ancora.. :D

x curiosità che case hai?

Il più grosso errore che potessi fare : è un Asus Vento mi pare TA-861, devo controllare a casa; l'avevo preso perchè mi piaceva il sistema di aerazione frontale ma è troppo piccolo e c'è poco spazio per le vga.

persa
19-11-2009, 12:42
ah... capito, come grandezza mi sembra che sia tipo un cooler master elite 330...

eXeS
19-11-2009, 13:33
Certo che le prestazioni non sono doppie. C'é una caratteristica importante che é quasi rimasta invariata; la banda passante.
Oltre al fatto che lo scaling NON é lineare, vedi g80/g92 vs gt200.

Quello a cui si riferisce ratatosk é il GPU computing, dove conta molto la forza bruta, i GigaFlops (e qui la doppia precisione é importantissima).
In questo caso non é importante come si ottengono i GFlops, ma il numero di GFlops ottenuti.

Ma anche no, prima che vengano coinvolte le unità dedicate a svolgere operazioni in virgola mobile, ci sarà sicuramente una fase di preparazione dei dati.

Questa fase richiederà un tempo sicuramente proporzionale alle performance del resto del sistema, ma potrebbe dipendere anche dall'archittettura della GPU, e dalla infrastruttura software sottostante, CUDA in un caso, STREAM nell'altro.

Supponiamo ad esempio che il tempo necessario per preparare i dati su cui eseguire 10^9 operazioni in virgola mobile richieda 1 secondo, il processo di elaborazione nel suo complesso eseguito su una ipotetica GPU da 1 GigaFlops, richiederebbe due secondi, e quindi dovremmo parlare di 0.5GigaFlops, che alla fine è il dato più rilevante per l'utilizzatore.

Insomma, un giudizio sulla base di soli numeri mi sembra veramente troppo semplicistico.

Andrea deluxe
19-11-2009, 14:17
Notavo i connettori di alimentazione, non è che siano proprio uguali...

infatti stavo notando il foro nel pcb...

nella tesla serie 20