PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 [90] 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

betha
13-03-2010, 12:44
ragazzi, nn cascate ad ogni provocazione, d'altronde nn potete aspettarvi discussioni ragionate su chi ha già deciso di comprare a priori per un dogma di fede incrollabile o ritiene sprovveduti i "colleghi" verdi che hanno fuso la vga con driver certificati (magari pure difendendo i driver...). Basta su, tanto la pensa così, e con certe persone che fanno tali figure barbine si rischia solo di andare nel torto. Tanto, tranne che nella loro visione mistica, nn cambierà il risultato di questo Fermi, ormai si è capito, inutile continuare e flammare. La realtà nn sarà cambiata dalla fede.

eddai..questo è solo flame

faber80
13-03-2010, 12:50
eddai..questo è solo flame

non direi, ho solo detto come stanno le cose. Imho naturalmente.

Iantikas
13-03-2010, 13:08
pvt me appena le trovi che ordino pure io....

se non'è troppo disturbo pvt anche me :) (magari uno shop che ha la 480 della evga pronta consegna :sofico: )...


...ciao

ghiltanas
13-03-2010, 13:10
Lo ripeto: qui c'è qualcuno che non la racconta giusta: o le schede non hanno i TDP che i rumors indicano oppure la notizia della Dual GPU è inventata.

Tanto il 26 si saprà la verità

dipende anche come hanno in mente di ottenere la dual :)
Se per farlo prendono 2 gtx470, però decisamente castrate, allora nn dovrebbe essere un problema restare entro le specifiche pci-e...A quel punto però bisognerebbe vedere l'effettivo guadagno prestazionale :stordita:

aledemo
13-03-2010, 13:14
Ammazza 550 euro veramente?
Costa uguale alla 5970 quindi..

gianni1879
13-03-2010, 13:27
1) non generializziamo.
2) basta co sti flame.
3) se odi ATI sono problemi tuoi. ;)

vi ho lasciato correre in questi gg non mi costringete a fermare qualcuno... con le brutte maniere.

Rsdj
13-03-2010, 13:36
Lo ripeto: qui c'è qualcuno che non la racconta giusta: o le schede non hanno i TDP che i rumors indicano oppure la notizia della Dual GPU è inventata.

Tanto il 26 si saprà la verità

Ti ricordo che la notizia della dual è partita da Fudzilla, e lo staff stesso di vr-zone era molto critico e scettico... fai un pò tu :asd:

Kharonte85
13-03-2010, 14:10
dipende anche come hanno in mente di ottenere la dual :)
Se per farlo prendono 2 gtx470, però decisamente castrate, allora nn dovrebbe essere un problema restare entro le specifiche pci-e...A quel punto però bisognerebbe vedere l'effettivo guadagno prestazionale :stordita:
Questo conto lo abbiamo già fatto...se davvero la gtx 470 avesse un TDP di 220w una versione dual GPU sarebbe non fattibile/conveniente perchè dovrebbe essere talmente castrata per rientrare nei consumi da non avere più niente da dire.
Ti ricordo che la notizia della dual è partita da Fudzilla, e lo staff stesso di vr-zone era molto critico e scettico... fai un pò tu :asd:
In origine la notizia dell'intenzione di nvidia di proporre una Dual GPU arriva dalle interviste di Alibrandi sul sito turco, poi si sono susseguite varie notizie riguardo alle tempistiche.

Volete la mia?

I consumi TDP saranno più bassi di quanto riportato da VR-zone, semiaccurate ecc...e secondo me la dual GPU arriverà, ma non prima del Q3.

aaasssdddfffggg
13-03-2010, 14:16
Questo conto lo abbiamo già fatto...se davvero la gtx 470 avesse un TDP di 220w una versione dual GPU sarebbe non fattibile/conveniente perchè dovrebbe essere talmente castrata per rientrare nei consumi da non avere più niente da dire.

In origine la notizia dell'intenzione di nvidia di proporre una Dual GPU arriva dalle interviste di Alibrandi sul sito turco, poi si sono susseguite varie notizie riguardo alle tempistiche.

Volete la mia?

I consumi TDP saranno più bassi di quanto riportato da VR-zone, semiaccurate ecc...e secondo me la dual GPU arriverà, ma non prima del Q3.

Sposo la tua analisi in pieno e credo che la dualGPU su base Fermi la vedremo entro l'anno.NVIDIA la tirerà fuori.;)

Rsdj
13-03-2010, 14:23
Questo conto lo abbiamo già fatto...se davvero la gtx 470 avesse un TDP di 220w una versione dual GPU sarebbe non fattibile/conveniente perchè dovrebbe essere talmente castrata per rientrare nei consumi da non avere più niente da dire.

In origine la notizia dell'intenzione di nvidia di proporre una Dual GPU arriva dalle interviste di Alibrandi sul sito turco, poi si sono susseguite varie notizie riguardo alle tempistiche.
Volete la mia?

I consumi TDP saranno più bassi di quanto riportato da VR-zone, semiaccurate ecc...e secondo me la dual GPU arriverà, ma non prima del Q3.

Alibrandi è un'altra fonte ottima eh? :rolleyes:
Quello che aveva detto che il debutto delle schede Fermi sarebbe stato al CES... che le nuove vga sarebbero state ufficialmente presentate un martedì, quando il 26 marzo è venerdì. E' un PR e il suo compito è creare hype dicendo tante belle cose delle quali alla fine se ne realizzerà si e no il 10%. Questo vale per tutti i PR, sia chiaro... alla fine è il loro mestiere ;)

ghiltanas
13-03-2010, 14:35
Sposo la tua analisi in pieno e credo che la dualGPU su base Fermi la vedremo entro l'anno.NVIDIA la tirerà fuori.;)

entro l'anno è tutto un altro paio di maniche però :p .
Se nn sbaglio alcuni parlavano di q2, e qui ero molto scettico a riguardo. Entro l'anno cambia tutto, potrebbero usare la revision di fermi a quel punto

bronzodiriace
13-03-2010, 14:35
addio 5870 che hai nel case...:asd:

sisi pure a me
non vedo l'ora

:asd:

aaasssdddfffggg
13-03-2010, 14:48
entro l'anno è tutto un altro paio di maniche però :p .
Se nn sbaglio alcuni parlavano di q2, e qui ero molto scettico a riguardo. Entro l'anno cambia tutto, potrebbero usare la revision di fermi a quel punto

Si infatti,nel q2 proprio non ci credo ma entro l'anno sono quasi certo che la vedremo.;)

NOOB4EVER
13-03-2010, 15:25
imho,venendo da vari 3 way SLI e Quad SLI ,ora le 5970 (ne ho una ) vanno da paura,vediamo come si comporteranno queste nuove 480 e quante ce ne vogliono per superare le prestazioni che ho adesso e poi procedo sul da farsi,per il momento me ne sto a godermi i giochi e ben venga la novita' nvidia ,ma vediamo quanto sara' performante rispetto alla dual ati e quindi facciamoci 2 conti per settare i vari sli e 3 way ... personalmente sono molto curioso e sto soffrendo comunque (da appassionato) :asd:

goku1981_01
13-03-2010, 15:36
imho,venendo da vari 3 way SLI e Quad SLI ,ora le 5970 (ne ho una ) vanno da paura,vediamo come si comporteranno queste nuove 480 e quante ce ne vogliono per superare le prestazioni che ho adesso e poi procedo sul da farsi,per il momento me ne sto a godermi i giochi e ben venga la novita' nvidia ,ma vediamo quanto sara' performante rispetto alla dual ati e quindi facciamoci 2 conti per settare i vari sli e 3 way ... personalmente sono molto curioso e sto soffrendo comunque (da appassionato) :asd:







SCUSATE RAGAZZI,, NN HO VOGLIA DI LEGGERE 1000 PAGINE DI POST:D ma volevo sapere la gtx 480 dovrebbe essere + performante della 5970 di quanto? invece la gtx 470? io aspetto perche voglio cambiar scheda ma ora le ati costano troppo e voglio vedere fermi come si conporta i qualita' prezzo

veltosaar
13-03-2010, 15:37
SCUSATE RAGAZZI,, NN HO VOGLIA DI LEGGERE 1000 PAGINE DI POST:D ma volevo sapere la gtx 480 dovrebbe essere + performante della 5970 di quanto? invece la gtx 470? io aspetto perche voglio cambiar scheda ma ora le ati costano troppo e voglio vedere fermi come si conporta i qualita' prezzo

Magari.. :D

la scaletta dovrebbe essere:

5850
470
5870
480
5970

Rsdj
13-03-2010, 15:41
SCUSATE RAGAZZI,, NN HO VOGLIA DI LEGGERE 1000 PAGINE DI POST:D ma volevo sapere la gtx 480 dovrebbe essere + performante della 5970 di quanto? invece la gtx 470? io aspetto perche voglio cambiar scheda ma ora le ati costano troppo e voglio vedere fermi come si conporta i qualita' prezzo

Dunque stando agli ultimi rumors, sempre più ufficiali visto che ci avviciniamo al 26 la GTX 480 dovrebbe essere più performante della HD 5870 del 5-10%... la HD 5970 non mettercele per niente in mezzo perchè non sarà raggiunta da nessuna delle 2 nuove GTX. La GTX 470 dovrebbe posizionarsi tra la HD 5850 e la HD 5870, però da come dicono con un consumo e un calore maggiore. Cmq ormai manca poco al 26 marzo, perciò attendiamo fiduciosi ;)

fedexxx84
13-03-2010, 15:43
eppure penso che la gtx480 non adrà di tanto più forte della 5870...al max di un 15% PENSO (ho detto penso, è una mia pura e semplice credenza) e poi contando che costa più di 600€, con 529 ti prendi la 5970 e se ti senti "inferiore" prendi la seconda....una cosa buona c'è: a settembre troveremo 5970 a 450€! viva la concorrenza!

Simedan1985
13-03-2010, 15:44
imho,venendo da vari 3 way SLI e Quad SLI ,ora le 5970 (ne ho una ) vanno da paura,vediamo come si comporteranno queste nuove 480 e quante ce ne vogliono per superare le prestazioni che ho adesso e poi procedo sul da farsi,per il momento me ne sto a godermi i giochi e ben venga la novita' nvidia ,ma vediamo quanto sara' performante rispetto alla dual ati e quindi facciamoci 2 conti per settare i vari sli e 3 way ... personalmente sono molto curioso e sto soffrendo comunque (da appassionato) :asd:

Quotone:asd: ...in perfetta armonia con la mostruosa 5970,ma la curiosità mi amazza:D ...la passione è passione....Cmq non sono molto attirato da sli/crossfire di singole vga,mi piacciono assai le dual e spero in una fermi dual gpu,con tdp entro i 300w

appleroof
13-03-2010, 15:46
edit :p

Kharonte85
13-03-2010, 15:49
Alibrandi è un'altra fonte ottima eh? :rolleyes:
Quello che aveva detto che il debutto delle schede Fermi sarebbe stato al CES... che le nuove vga sarebbero state ufficialmente presentate un martedì, quando il 26 marzo è venerdì. E' un PR e il suo compito è creare hype dicendo tante belle cose delle quali alla fine se ne realizzerà si e no il 10%. Questo vale per tutti i PR, sia chiaro... alla fine è il loro mestiere ;)

Non ho detto nulla sull'affidabilità della fonte. Ho semplicemente precisato che non è Fudzilla che ha messo in giro le voci...a sentire Alibrandi la Dual GPU è certa.

Personalmente non ho motivo di dubitarne (salvo il verificarsi dei TDP astronomici ma questo lo verificheremo il 26): sono convinto che Nvidia non rinuncerà facilmente a costruire la dual GPU per strappare lo scettro prestazionale ad AMD/ATI, magari non la vedremo presto ma credo che ci sarà.

appleroof
13-03-2010, 15:52
Non ho detto nulla sull'affidabilità della fonte. Ho semplicemente precisato che non è Fudzilla che ha messo in giro le voci...a sentire Alibrandi la Dual GPU è certa.

Personalmente non ho motivo di dubitarne (salvo il verificarsi dei TDP astronomici ma questo lo verificheremo il 26): sono convinto che Nvidia non rinuncerà facilmente a costruire la dual GPU per strappare lo scettro prestazionale ad AMD/ATI, magari non la vedremo presto ma credo che ci sarà.

a come stanno i rumors, credo sia facile scommettere che ad ogni modo la dual avrà un tdp mostruoso, cioè cmq superiore ai già tantissimi 300W della 5970....che poi sia una scheda da entusiasth ai quali del tdp importa una s.g@ ok, ma si riproporrà imho lo stesso scenario -in proporzione- delle altre due...

vediamo :)

AnonimoVeneziano
13-03-2010, 16:02
a come stanno i rumors, credo sia facile scommettere che ad ogni modo la dual avrà un tdp mostruoso, cioè cmq superiore ai già tantissimi 300W della 5970....che poi sia una scheda da entusiasth ai quali del tdp importa una s.g@ ok, ma si riproporrà imho lo stesso scenario -in proporzione- delle altre due...

vediamo :)

Non è possibile che il TDP superi i 300W.

Il limite massimo imposto dallo standard ATX è 300W di TDP . Se una scheda supera i 300W di TDP allora non può essere venduta come conforme allo standard. Se quindi la facessero non potrebbero venderla.

In ogni caso devono ridurre le frequenze/voltaggi fino a che la dual non rientra dei 300W di TDP (o migliorano il processo produttivo)

Ciao

appleroof
13-03-2010, 16:05
Non è possibile che il TDP superi i 300W.

Il limite massimo imposto dallo standard ATX è 300W di TDP . Se una scheda supera i 300W di TDP allora non può essere venduta come conforme allo standard. Se quindi la facessero non potrebbero venderla.

In ogni caso devono ridurre le frequenze/voltaggi fino a che la dual non rientra dei 300W di TDP (o migliorano il processo produttivo)

Ciao

allora non vedo come possano farla: il tdp della gtx470 pare viaggiare sui 225W, non vedo possibile abbassarlo a 150W con un semplice affinamento del pp se non accompagnato da una forte riduzione delle frequenze, ma i questo caso -sempre stando ai rumors sulle prestazioni- credo non supererebbe la 5970....

Kharonte85
13-03-2010, 16:07
a come stanno i rumors, credo sia facile scommettere che ad ogni modo la dual avrà un tdp mostruoso, cioè cmq superiore ai già tantissimi 300W della 5970....che poi sia una scheda da entusiasth ai quali del tdp importa una s.g@ ok, ma si riproporrà imho lo stesso scenario -in proporzione- delle altre due...

vediamo :)
in proporzione se la gtx 480 avesse davvero un TDP di 275w contro i 188w della HD5870 non vedo come potrebbe essere possibile fare una dual GPU con raffreddamento ad aria.


Non è possibile che il TDP superi i 300W.

Il limite massimo imposto dallo standard ATX è 300W di TDP . Se una scheda supera i 300W di TDP allora non può essere venduta come conforme allo standard. Se quindi la facessero non potrebbero venderla.

In ogni caso devono ridurre le frequenze/voltaggi fino a che la dual non rientra dei 300W di TDP (o migliorano il processo produttivo)

Ciao

Questa non la sapevo, sei sicuro?

Rsdj
13-03-2010, 16:11
in proporzione se la gtx 480 avesse davvero un TDP di 275w contro i 188w della HD5870 non vedo come potrebbe essere possibile fare una dual GPU con raffreddamento ad aria.




Questa non la sapevo, sei sicuro?
Si, il limite massimo è di 300W... però occorre considerare anche che lo slot pci-e eroga 75W di suo. Quindi in teoria il limite dovrebbe essere di 375W, oppure non so se nei 300W sono già inclusi i 75W dello slot pci-e...

TheDarkAngel
13-03-2010, 16:15
Si, il limite massimo è di 300W... però occorre considerare anche che lo slot pci-e eroga 75W di suo. Quindi in teoria il limite dovrebbe essere di 375W, oppure non so se nei 300W sono già inclusi i 75W dello slot pci-e...

pciex 2.0 sarebbero 150w ;) ma non vengono considerati per problemi di compatibilità

Rsdj
13-03-2010, 16:22
nVidia rimanda le schede dual GPU GF100 (http://www.onehardware.it/11/03/2010/nvidia-rimanda-le-schede-dual-gpu-gf100/#comment-3862)

roccia1234
13-03-2010, 16:24
eppure penso che la gtx480 non adrà di tanto più forte della 5870...al max di un 15% PENSO (ho detto penso, è una mia pura e semplice credenza) e poi contando che costa più di 600€, con 529 ti prendi la 5970 e se ti senti "inferiore" prendi la seconda....una cosa buona c'è: a settembre troveremo 5970 a 450€! viva la concorrenza!

missà che la 5970 tarderà un bel po ad abbassarsi di prezzo. Se la gtx 480, che costerà sui 600€, consuma e scalda tantissimo ma va soltanto il 5-10% più di una 5870 (da come si legge in giro e su questo thread), che però costa poco più della metà, (consumando e scaldando molto meno), la gtx 480 avrà pochissimo mercato, visto che non avrà nessun vantaggio rispetto ai prodotti ati (physx a parte, ma spendere 250€ in più solo per physx mi sembra una follia).
la 5970? costa 530 € circa, anche se la gtx 480 costasse uguale, la 5970 andrebbe almeno il 50-60% in più.
Se prezzo, prestazioni, consumi, ecc fossero confermati, oggettivamente non c'è alcuna convenienza ad acquistare gtx480 (o almeno, io non la vedo, fanboysmi a parte).

Nel caso in cui la gtx480 costasse come la 5870, potrebbe portare una guerra dei prezzi nella sua fascia (si abbassa 5870 e 5850 a causa di gtx470), però in questo senso ati potrebbe (mia opinione) avere più margine, più che altro perchè avendo un chip più piccolo ha minori costi di materia prima, visto che da un wafer (a parità di dimensioni di questo) ottiene più chip. Ovviamente bisogna anche vedere il costo del resto della scheda, ma credo che qua non cambi molto, forse i costi delle ram...

A.L.M.
13-03-2010, 17:05
dipende anche come hanno in mente di ottenere la dual :)
Se per farlo prendono 2 gtx470, però decisamente castrate, allora nn dovrebbe essere un problema restare entro le specifiche pci-e...A quel punto però bisognerebbe vedere l'effettivo guadagno prestazionale :stordita:

Il rischio che una ipotetica GTX495 vada meno di una HD5970 è forte già se la basano sulla GTX470 "normale", figuriamoci spompata...
Con la penuria di chip che c'è, alla fine meglio tenerseli per una scheda probabilmente competitiva come la GTX470, che buttarli su un esercizio di stile che manco sarebbe la top card in assoluto, quindi una scheda completamente inutile.
Di fatto però questa situazione mi fa ricordare quanto disse non ricordo se Huddy o chi altro di ATI, quando diceva che stando alle sue informazioni AMD avrebbe avuto lo scettro delle prestazioni per la maggior parte del 2010, Fermi o non Fermi. Come pensavo aveva ragione, nonostante qui dentro in pochi ci credessero ai tempi... Evidentemente le aspettative su Fermi si sono ridotte di molto. ;)

Non ho detto nulla sull'affidabilità della fonte. Ho semplicemente precisato che non è Fudzilla che ha messo in giro le voci...a sentire Alibrandi la Dual GPU è certa.

Personalmente non ho motivo di dubitarne (salvo il verificarsi dei TDP astronomici ma questo lo verificheremo il 26): sono convinto che Nvidia non rinuncerà facilmente a costruire la dual GPU per strappare lo scettro prestazionale ad AMD/ATI, magari non la vedremo presto ma credo che ci sarà.

Penso anch'io che ci sarà, ma la questione è: basterà un affinamento di pp per produrre una dual competitiva con la HD5970? Io vedrei meglio un GF100b con frequenze pompate, ma i 28nm sembrano essere troppo lontani...

Non è possibile che il TDP superi i 300W.

Il limite massimo imposto dallo standard ATX è 300W di TDP . Se una scheda supera i 300W di TDP allora non può essere venduta come conforme allo standard. Se quindi la facessero non potrebbero venderla.

In ogni caso devono ridurre le frequenze/voltaggi fino a che la dual non rientra dei 300W di TDP (o migliorano il processo produttivo)

Ciao

In teoria su uno slot PCI-X 2.0 e 2 connettori 8 pin (come la MSI Lightning) puoi arrivare a 450w... No? Non credo esista un espresso divieto, seppure le specifiche in effetti contemplino solo schede fino a 300W...
Credo che già oggi la Lightining in OC spintissimo (tipo quello che ho visto su HWBot a LN2 :asd: , oltre 1.4 GHz sul core :eek: ) abbia un assorbimento superiore ai 300W (altrimenti non avrebbe senso il dual 8 pin).

nVidia rimanda le schede dual GPU GF100 (http://www.onehardware.it/11/03/2010/nvidia-rimanda-le-schede-dual-gpu-gf100/#comment-3862)

CVD, la notizia viene da Fudzilla, il quale prende le notizie dal nostro forum. :O

ghiltanas
13-03-2010, 17:15
In teoria su uno slot PCI-X 2.0 e 2 connettori 8 pin (come la MSI Lightning) puoi arrivare a 450w... No? Non credo esista un espresso divieto, seppure le specifiche in effetti contemplino solo schede fino a 300W...
Credo che già oggi la Lightining in OC spintissimo (tipo quello che ho visto su HWBot a LN2 :asd: , oltre 1.4 GHz sul core :eek: ) abbia un assorbimento superiore ai 300W (altrimenti non avrebbe senso il dual 8 pin).




che dopo una la overclocchi e la porta su ok, però nn ti possono vendere un prodotto che sfori uno standard, quindi essendo il limite imposto di 300w, in fase di progettazione devono attenersi a tale specifica...
Sul discorso disponibilità hai ragione, prima devono raggiungere un certo volume di produzione e principalmente si dedicherenno alle schede a singola gpu...
Per le dual occorre attendere insomma

Mparlav
13-03-2010, 17:18
allora non vedo come possano farla: il tdp della gtx470 pare viaggiare sui 225W, non vedo possibile abbassarlo a 150W con un semplice affinamento del pp se non accompagnato da una forte riduzione delle frequenze, ma i questo caso -sempre stando ai rumors sulle prestazioni- credo non supererebbe la 5970....

La GTX275 ha un TDP di 219W, la GTX285 di 204W e la GTX280 di 236W.

Ciò nonostante la GTX295 da 296W l'hanno tirata fuori.

Ponendo la GTX470 con 448SP - 625/1250/3800 a 225W, significa che una dual gpu del tipo 2x448SP, oltre ad aver clock inferiori, come già la GTX295 vs GTX275, dovrà avere anche vgpu ridotto.

Per una dual con 2x480 o 2x512 è un "problema" che riguarda produttori che vorranno produrre schede custom senza il limite dei 300W.

faber80
13-03-2010, 17:18
che dopo una la overclocchi e la porta su ok, però nn ti possono vendere un prodotto che sfori uno standard, quindi essendo il limite imposto di 300w, in fase di progettazione devono attenersi a tale specifica...

esatto, lo steso motivo per cui Ati ha dovuto "ridurre" le frequenze alla 5970;
imho sicuramente con i 40nm nn avremo la dual Fermi, facciamocene una ragione (forse i partner faranno l'esperimento tipo Asus Rog, tuttavia resterebbe un esercizio di stile)

A.L.M.
13-03-2010, 17:27
La GTX275 ha un TDP di 219W e la GTX280 di 204W.

Ciò nonostante la GTX295 da 296W l'hanno tirata fuori.

Ponendo la GTX470 con 448SP - 625/1250/3800 a 225W, significa che una dual gpu del tipo 2x448SP, oltre ad aver clock inferiori, come già la GTX295 vs GTX275, dovrà avere anche vgpu ridotto.

Per una dual con 2x480 o 2x512 è un "problema" che riguarda produttori che vorranno produrre schede custom senza il limite dei 300W.

La gpu della GTX275 (GT200b) era anche sensibilmente più piccola di GF100 (400mm2 vs 500 e forse oltre mm2). Finora non si è mai vista una dual con 2 gpu così grandi. GT200 (576mm2) era troppo grande, tanto per dire, quindi si è dovuto aspettare lo shrink. :)

P.S.: queste sono già state postate?

http://images.tweaktown.com/news/1/4/14468_10.jpg

http://images.tweaktown.com/news/1/4/14468_11.jpg

http://images.tweaktown.com/news/1/4/14407_01.jpg

La scritta 7.1 audio sulla Gigabyte fa sperare che finalmente anche NVidia abbia messo un chip audio sulle proprie schede per poter veicolare segnali video e audio attraverso HDMI senza alcun collegamento interno ulteriore.

Mparlav
13-03-2010, 18:01
La gpu della GTX275 (GT200b) era anche sensibilmente più piccola di GF100 (400mm2 vs 500 e forse oltre mm2). Finora non si è mai vista una dual con 2 gpu così grandi. GT200 (576mm2) era troppo grande, tanto per dire, quindi si è dovuto aspettare lo shrink. :)



Sono 470 mmq per il G200b vs 576 mmq (stima) per la G100, ma lo spazio occupato sul pcb è lo stesso, ed inoltre le GDDR5 hanno il vantaggio sulle GDDR3, di maggior tolleranza per la realizzazione del layout (è un discorso legato alle lunghezza delle "piste", c'era sulla documentazione Qimonda).

Ma puoi starne che non sarà economica :)
Per inciso, non che me ne freghi molto di sto' genere di schede, ma si parla solo di fattibilità tecnica entro le specifiche.

In merito all'audio, secondo me non è integrato: c'è una foto in cui si vede il connettore spdif per veicolare l'audio dell'hdmi:


http://www.techeye.net/assets/upload/Nvidia/Fermi/Fermi6.JPG

halduemilauno
13-03-2010, 18:04
La GTX275 ha un TDP di 219W e la GTX280 di 204W.

Ciò nonostante la GTX295 da 296W l'hanno tirata fuori.

Ponendo la GTX470 con 448SP - 625/1250/3800 a 225W, significa che una dual gpu del tipo 2x448SP, oltre ad aver clock inferiori, come già la GTX295 vs GTX275, dovrà avere anche vgpu ridotto.

Per una dual con 2x480 o 2x512 è un "problema" che riguarda produttori che vorranno produrre schede custom senza il limite dei 300W.

prima di arrivare all'eventuale dual c'è uno step intermedio da eventualmente tener conto che si chiama B1.

A.L.M.
13-03-2010, 18:31
In merito all'audio, secondo me non è integrato: c'è una foto in cui si vede il connettore spdif per veicolare l'audio dell'hdmi:


http://www.techeye.net/assets/upload/Nvidia/Fermi/Fermi6.JPG

Speranza vana, dunque? :stordita:
Peccato, un motivo in meno per comprarle...

Kharonte85
13-03-2010, 19:05
Speranza vana, dunque? :stordita:
Peccato, un motivo in meno per comprarle...
di che te ne faresti dell'audio su HDMI :wtf:

A me non sembra un difetto così grave, anzi non mi sembra nemmeno un difetto...

AnonimoVeneziano
13-03-2010, 19:07
di che te ne faresti dell'audio su HDMI :wtf:

A me non sembra un difetto così grave, anzi non mi sembra nemmeno un difetto...

Beh, ognuno ha le sue esigenze ...

calabar
13-03-2010, 19:07
la 5970? costa 530 € circa, anche se la gtx 480 costasse uguale, la 5970 andrebbe almeno il 50-60% in più.
Esagerato! :asd:
La 5970 va circa il 30-40% in più della 5870, quindi secondo le stime che hai fatto potrebbe andare un 25-30% in più della gtx 480.

TheDarkAngel
13-03-2010, 19:11
di che te ne faresti dell'audio su HDMI :wtf:

A me non sembra un difetto così grave, anzi non mi sembra nemmeno un difetto...

ambito htpc truehd/dtshdma?

marco XP2400+
13-03-2010, 19:11
onestamente penso che la questione "stime prestazioni" si mescolerà ulteriormente con l'uscita dei nuovi driver 10.3 ati

Kharonte85
13-03-2010, 19:18
ambito htpc truehd/dtshdma?
Con una scheda da 600e non ti puoi permettere un cavo coassiale/ottico? :sofico:

Senza contare che le schede non integrate sono n volte meglio...oh magari a qualcuno farà comodo, io preferisco che non ci sia.

TheDarkAngel
13-03-2010, 19:25
Con una scheda da 600e non ti puoi permettere un cavo coassiale/ottico? :sofico:

Senza contare che le schede non integrate sono n volte meglio...oh magari a qualcuno farà comodo, io preferisco che non ci sia.

E' diverso, senza hdmi 1.3a non hai la possibilità di veicolare quel segnale, qui c'è la necessità di buttare fuori la traccia in bitstream in modo tale che sia il sintoampli ad occuparsi della sua decodifica.
Non è possibile portare le codifiche truehd/dtshdma su analogico/coassiale/fibra/qualunque cosa che ti possa venire in mente che non sia >=hdmi 1.3a per l'hdcp, tutti i tentativi porteranno a un downsampling del segnale in uscita.

ghiltanas
13-03-2010, 19:28
Con una scheda da 600e non ti puoi permettere un cavo coassiale/ottico? :sofico:

Senza contare che le schede non integrate sono n volte meglio...oh magari a qualcuno farà comodo, io preferisco che non ci sia.

apparte che in un htpc nn ci metti certo una scheda da 600euro, cmq di un cavo ottico nn te ne fai nulla, perchè l'audio hd in bitstream lo veicoli solo con l'hdmi. Personalmente la trovo una features, nn utile, ma utilissima, tanto + che le 5000 sono uno dei pochissimi sistemi per fare ciò mediante pc. Le altre 2 soluzioni sono l'asus xonar hdav 1.3 e l'auzentech hometheatre hd, entrambe piene di problemi.
Avrei decisamente gradito che nvidia si degnasse di implementare sta cosa.

ghiltanas
13-03-2010, 19:31
E' diverso, senza hdmi 1.3a non hai la possibilità di veicolare quel segnale, qui c'è la necessità di buttare fuori la traccia in bitstream in modo tale che sia il sintoampli ad occuparsi della sua decodifica.
Non è possibile portare le codifiche truehd/dtshdma su analogico/coassiale/fibra/qualunque cosa che ti possa venire in mente che non sia >=hdmi 1.3a per l'hdcp, tutti i tentativi porteranno a un downsampling del segnale in uscita.

esatto, il segnale audio nn viene toccato dalla scheda, è un semplice passthrought, viene gestito dall'avr, però ci vuole l'hdmi 1.3 o superiore

NOOB4EVER
13-03-2010, 19:33
Quotone:asd: ...in perfetta armonia con la mostruosa 5970,ma la curiosità mi amazza:D ...la passione è passione....Cmq non sono molto attirato da sli/crossfire di singole vga,mi piacciono assai le dual e spero in una fermi dual gpu,con tdp entro i 300w

per quanto mi riguarda invece,esperienze personali ,io andro di triple sli se questa soluzione si dimostrera' MOLTO piu performante di un QuadfireX...sulla mia pelle ho imparato che e' meglio un 3ple sli di un quad ,come frame minimi e stuttering ,poi ovviamente dipende dai gusti ma questa sara' la mia linea di condotta per i prossimi acquisti in campo vga...se poi contiamo che ho preso la XFX5970 BE usata una settimana a 450€ :asd: grande Sick ..dai vediamo ste schede e speriamo che buttino fuori valanghe di giochi ultrafichi da macellare il reparto grafico come piace a noi ,intanto godiamoci BC2,AVP etc.. e buon gaminga tutti ;)

A.L.M.
13-03-2010, 19:46
di che te ne faresti dell'audio su HDMI :wtf:

A me non sembra un difetto così grave, anzi non mi sembra nemmeno un difetto...

Chi spende 600€ per una scheda magari vuole anche avere la possibilità di vedere (e sentire) film di qualità attraverso il suo pc, non mi pare una richiesta stratosferica... :stordita:
Il bello che NVidia cerca di spingere su usi extragaming oggi francamente limitati tipo il gpu computing quando invece dal lato multimediale, che è l'uso più immediato e di diffusione più larga, è parecchio indietro, imho.
Sinceramente non ho nemmeno ancora capito se con Fermi si potrà veicolare il segnale video a 3 schermi contemporaneamente con una scheda sola o no...

E' diverso, senza hdmi 1.3a non hai la possibilità di veicolare quel segnale, qui c'è la necessità di buttare fuori la traccia in bitstream in modo tale che sia il sintoampli ad occuparsi della sua decodifica.
Non è possibile portare le codifiche truehd/dtshdma su analogico/coassiale/fibra/qualunque cosa che ti possa venire in mente che non sia >=hdmi 1.3a per l'hdcp, tutti i tentativi porteranno a un downsampling del segnale in uscita.

apparte che in un htpc nn ci metti certo una scheda da 600euro, cmq di un cavo ottico nn te ne fai nulla, perchè l'audio hd in bitstream lo veicoli solo con l'hdmi. Personalmente la trovo una features, nn utile, ma utilissima, tanto + che le 5000 sono uno dei pochissimi sistemi per fare ciò mediante pc. Le altre 2 soluzioni sono l'asus xonar hdav 1.3 e l'auzentech hometheatre hd, entrambe piene di problemi.
Avrei decisamente gradito che nvidia si degnasse di implementare sta cosa.

Esatto. ;)

Adone_1985
13-03-2010, 19:47
per quanto mi riguarda invece,esperienze personali ,io andro di triple sli se questa soluzione si dimostrera' MOLTO piu performante di un QuadfireX...sulla mia pelle ho imparato che e' meglio un 3ple sli di un quad ,come frame minimi e stuttering ,poi ovviamente dipende dai gusti ma questa sara' la mia linea di condotta per i prossimi

Sei fantastico:D

Kharonte85
13-03-2010, 19:50
E' diverso, senza hdmi 1.3a non hai la possibilità di veicolare quel segnale, qui c'è la necessità di buttare fuori la traccia in bitstream in modo tale che sia il sintoampli ad occuparsi della sua decodifica.
Non è possibile portare le codifiche truehd/dtshdma su analogico/coassiale/fibra/qualunque cosa che ti possa venire in mente che non sia >=hdmi 1.3a per l'hdcp, tutti i tentativi porteranno a un downsampling del segnale in uscita.
Tutto questo a patto di avere un Amplificatore con ingresso HDMI 1.3 e un gioco/film che trasmette in trueHD/DTShdma giusto? :stordita:
apparte che in un htpc nn ci metti certo una scheda da 600euro, cmq di un cavo ottico nn te ne fai nulla, perchè l'audio hd in bitstream lo veicoli solo con l'hdmi. Personalmente la trovo una features, nn utile, ma utilissima, tanto + che le 5000 sono uno dei pochissimi sistemi per fare ciò mediante pc. Le altre 2 soluzioni sono l'asus xonar hdav 1.3 e l'auzentech hometheatre hd, entrambe piene di problemi.
Avrei decisamente gradito che nvidia si degnasse di implementare sta cosa.
La volta che provai ad attaccare il PC nel 42" full HD ho usato un normalissimo cavo ottico attaccato all'amplificatore (a sua volta collegato a 5.1) e il DVI convertito in HDMI era perfetto tutto, ma avrei anche il coraggio di uscire con la cuffia in doppio stereo :sofico: ...quindi perdonate la mia ignoranza sui nuovi flussi HD bitstream...o la mia mancanza di $$ :asd:

Ero solo curioso di sapere come mai ALM aveva definito addirittura un motivo in più per non prenderla :)

Chi spende 600€ per una scheda magari vuole anche avere la possibilità di vedere (e sentire) film di qualità attraverso il suo pc, non mi pare una richiesta stratosferica... :stordita:
Il bello che NVidia cerca di spingere su usi extragaming oggi francamente limitati tipo il gpu computing quando invece dal lato multimediale, che è l'uso più immediato e di diffusione più larga, è parecchio indietro, imho.
Sinceramente non ho nemmeno ancora capito se con Fermi si potrà veicolare il segnale video a 3 schermi contemporaneamente con una scheda sola o no...

Probabilmente perchè la maggior parte dei PC usa il monitor, alla fine per il multimediale ci sono i lettori Blu Ray, la PS3, gli HD multimediali ecc ecc...insomma tante alternative all'htpc da pc

Mercuri0
13-03-2010, 19:55
allora non vedo come possano farla: il tdp della gtx470 pare viaggiare sui 225W, non vedo possibile abbassarlo a 150W con un semplice affinamento del pp se non accompagnato da una forte riduzione delle frequenze, ma i questo caso -sempre stando ai rumors sulle prestazioni- credo non supererebbe la 5970....

Io penso che anche per le 4xx nvidia abbia sovradimensionato il dissipatore in modo da tenere le schede molto più fredde di quanto "servirebbe", perché il leakage aumenta con la temperatura.

Cmq tutti i pronostici vogliono dire ben poco, se davvero nVidia non riuscirà a produrre veramente le schede prima della revisione.
(ci sono novità al riguardo che mi son perso?)

Anche parlare di dual o varie... ma se ancora le 4xx sono solo schede "da esposizione"...

TheDarkAngel
13-03-2010, 19:59
Tutto questo a patto di avere un Amplificatore con ingresso HDMI 1.3 e un gioco/film che trasmette in trueHD/DTShdma giusto? :stordita:

La volta che provai ad attaccare il PC nel 42" full HD ho usato un normalissimo cavo ottico attaccato all'amplificatore (a sua volta collegato a 5.1) e il DVI convertito in HDMI era perfetto tutto, ma avrei anche il coraggio di uscire con la cuffia in doppio stereo :sofico: ...quindi perdonate la mia ignoranza sui nuovi flussi HD bitstream...o la mia mancanza di $$ :asd:

Ero solo curioso di sapere come mai ALM aveva definito addirittura un motivo in più per non prenderla :)


Probabilmente perchè la maggior parte dei PC usa il monitor, alla fine per il multimediale ci sono i lettori Blu Ray, la PS3, gli HD multimediali ecc ecc...insomma tante alternative all'htpc da pc

Si ma parliamo di sintoamplificatori di qualunque fascia ormai, dai 200€ in su tutti hanno queste codifiche, non credere che sia qualcosa fuori dal mondo, certo che se uno interpreta l'htpc come qualcosa da attaccare alla tv e finita, chiaramente non ci siamo ^_^

traider
13-03-2010, 20:23
Sono daccordo con chi si indigna che le FERMI non abbiano le nuove codifiche audio via HDMI .

Infatti per il mio PC2 HTPC in firma ho dovuto prendere una ATI RADEON 5770 1gb GDDR 5 , con HDMI , da attaccare ad un futuro Sinto Ampli 1.3A HDMI .

Cmq non cè ancora nemmeno una minima comparativa in rete ? parlo di siti stranieri .

Code-TR
13-03-2010, 20:35
Ciao ragazzi. Vorrei porvi alcune domande. So che non ci sono ancora recensioni ufficiali sulle prestazioni delle nuove geforce fermi però dato che sto costruendo un nuovo pc ad elevate prestazioni vorrei porvi alcuni quesiti. Il primo è questo: avevo fatto un pensierino di acquistare 2 sapphire radeon 5970 e fare un QuadCrossfire ma poi ho pensato che sarebbe meglio aspettare fine marzo per vedere le prestazioni di fermi. Ma secondo voi uno SLI di due Geforce 480 GTX potrà essere equiparato a livello prestazionale a 2 radeon 5970? Così sui due piedi mi direte di no perchè la 5970 è una dual-gpu ma di solito le prestazioni delle geforce non sono maggiori di quelle di ati radeon?

Il secondo quesito: dato che ultimamente sono sempre stato un pro-geforce passare ad ati un pò mi spaventa... ho sentito tanto parlare di driver inefficaci, problemi con alcuni giochi, bugs ecc. ecc. Qualcuno di voi può aiutarmi a capire attualmente come è la situazione?

Terzo quesito: se acquisto ati radeon non posso sfruttare psysx nei giochi, ma è così importante?

Grazie a tutti per l'aiuto.

A.L.M.
13-03-2010, 20:39
Tutto questo a patto di avere un Amplificatore con ingresso HDMI 1.3 e un gioco/film che trasmette in trueHD/DTShdma giusto? :stordita:

La volta che provai ad attaccare il PC nel 42" full HD ho usato un normalissimo cavo ottico attaccato all'amplificatore (a sua volta collegato a 5.1) e il DVI convertito in HDMI era perfetto tutto, ma avrei anche il coraggio di uscire con la cuffia in doppio stereo :sofico: ...quindi perdonate la mia ignoranza sui nuovi flussi HD bitstream...o la mia mancanza di $$ :asd:

Ero solo curioso di sapere come mai ALM aveva definito addirittura un motivo in più per non prenderla :)


Probabilmente perchè la maggior parte dei PC usa il monitor, alla fine per il multimediale ci sono i lettori Blu Ray, la PS3, gli HD multimediali ecc ecc...insomma tante alternative all'htpc da pc

Parlavo in generale, non del mio caso specifico... Al PC ormai gioco poco, al max prenderò un notebook con una DX11 di fascia media nell'arco dei prossimi 12 mesi...
Per esempio il caso delle gpu dei notebook è lampante... Sempre più laptop hanno il bluray integrato, se magari vivi in affitto, per caso hai un tv full hd ma non il lettore dedicato, quindi vuoi vederti il film su un bello schermo (perchè comunque gli schermi tv sono quasi sempre meglio dei monitor per qualità di immagine e caratteristiche in generale), con un solo cavo hai fatto tutto e con una qualità maggiore.
Ovvio che se una GTX470 andasse sensibilmente meglio di una HD5870 allora tutto questo potrebbe passare in secondo piano, ma dato che i gap saranno minimi tutto conta per differenziarsi, imho.
Poi ognuno ha le sue esigenze, tipo tu non dicevi che non prendevi la HD5870 per via delle dimensioni? ;)

P.S.: è uscita una versione della HD5870 non reference più corta, casomai GF100 fosse una chiavica io un pensierino ce lo farei... :asd:

http://www.hwupgrade.it/articoli/skvideo/2398/sapphire-e-powercolor-due-schede-video-custom_index.html

Ciao ragazzi. Vorrei porvi alcune domande. So che non ci sono ancora recensioni ufficiali sulle prestazioni delle nuove geforce fermi però dato che sto costruendo un nuovo pc ad elevate prestazioni vorrei porvi alcuni quesiti. Il primo è questo: avevo fatto un pensierino di acquistare 2 sapphire radeon 5970 e fare un QuadCrossfire ma poi ho pensato che sarebbe meglio aspettare fine marzo per vedere le prestazioni di fermi. Ma secondo voi uno SLI di due Geforce 480 GTX potrà essere equiparato a livello prestazionale a 2 radeon 5970? Così sui due piedi mi direte di no perchè la 5970 è una dual-gpu ma di solito le prestazioni delle geforce non sono maggiori di quelle di ati radeon?

Il secondo quesito: dato che ultimamente sono sempre stato un pro-geforce passare ad ati un pò mi spaventa... ho sentito tanto parlare di driver inefficaci, problemi con alcuni giochi, bugs ecc. ecc. Qualcuno di voi può aiutarmi a capire attualmente come è la situazione?

Terzo quesito: se acquisto ati radeon non posso sfruttare psysx nei giochi, ma è così importante?

Grazie a tutti per l'aiuto.

1) Stando a quanto si vede in giro una GTX480 non sarà molto più veloce di una singola HD5870, figuriamoci raggiungere una HD5970. Con due GTX480 (sempre che le si riesca a trovare, perchè pare ce ne saranno pochissime) spenderesti sensibilmente più che un'unica HD5970, con un increase di performance penso trascurabile (10%? 20%?) Ovvio che un multi-gpu è sempre più problematico (e forse un quad lo è di più) ma naturalmente il livello prestazionale di una HD5970 al momento è ineguagliabile da una single.

2) I problemi coi drivers AMD sono al 50% fesserie, al 40% dovuti all'inesperienza di chi li installa, al 10% reali, ma comuni a qualunque prodotto.

3) Imho per quanto visto finora no, ma quello va a preferenze. :)

marco XP2400+
13-03-2010, 21:03
Cmq tutti i pronostici vogliono dire ben poco, se davvero nVidia non riuscirà a produrre veramente le schede prima della revisione.
(ci sono novità al riguardo che mi son perso?)

Anche parlare di dual o varie... ma se ancora le 4xx sono solo schede "da esposizione"...

penso che circa la disponibilità si possa dire che ultimamente sono circolati rumors che danno la commercializzazione da fine marzo a inizio maggio di un quantitativo superiore alle 10000 unità; penso si parlasse di tipo 60000 unità ma che sono sempre poco.
Ovviamente questo dato circa la disponibilità è molto poco affidabile, anzitutto perchè non ufficiale, poi perchè in contrasto con il vecchio dato che era stato estrapolato da dichiarazioni di nvidia, poi perchè trapelato negli stessi giorni in cui si parlava di uno step B1 prodotto in soli 3-4 mesi.
Quindi con tutta l'incertezza che contempla la tematica, forse si potrebbe pensare ad una disponibilità un pò superiore alle 10000 unità in maggior parte costituita da modelli 470 in versione step A3.

Per quanto riguarda le prestazioni e il loro posizionamento dopo aver visto certi grafici nel thread complementare a questo mi sono fatto l'opinione che con la nuova struttura dei driver 10.3 ati le supposizioni prestazionali dovranno essere aggiornate

Elendil_1
13-03-2010, 22:28
Il secondo quesito: dato che ultimamente sono sempre stato un pro-geforce passare ad ati un pò mi spaventa... ho sentito tanto parlare di driver inefficaci, problemi con alcuni giochi, bugs ecc. ecc. Qualcuno di voi può aiutarmi a capire attualmente come è la situazione?


Posso dirti che ho preso una 5870 dopo Geforce 2, 4, 6, 8, l'ho installata senza neppure formattare (una passatina con driver sweeper sì, però) e finora l'unico problema che ho avuto è stato con physx che non si disintallava :)

Kharonte85
13-03-2010, 23:48
Parlavo in generale, non del mio caso specifico... Al PC ormai gioco poco, al max prenderò un notebook con una DX11 di fascia media nell'arco dei prossimi 12 mesi...
Per esempio il caso delle gpu dei notebook è lampante... Sempre più laptop hanno il bluray integrato, se magari vivi in affitto, per caso hai un tv full hd ma non il lettore dedicato, quindi vuoi vederti il film su un bello schermo (perchè comunque gli schermi tv sono quasi sempre meglio dei monitor per qualità di immagine e caratteristiche in generale), con un solo cavo hai fatto tutto e con una qualità maggiore.
Infatti sul portatile già la capisco di più la sua presenza ed utilità (la 9600M gt del mio portatile ha l'uscita HDMI con driver audio), ma su un sistema fisso non ne capivo l'obbligatorietà...ma se serve per forza a gestire i nuovi flussi HD come detto allora puo' essere che prima o poi (quando magari saranno più diffusi) Nvidia si deciderà a proporre una soluzione simile.


Ovvio che se una GTX470 andasse sensibilmente meglio di una HD5870 allora tutto questo potrebbe passare in secondo piano, ma dato che i gap saranno minimi tutto conta per differenziarsi, imho.
Poi ognuno ha le sue esigenze, tipo tu non dicevi che non prendevi la HD5870 per via delle dimensioni? ;)

P.S.: è uscita una versione della HD5870 non reference più corta, casomai GF100 fosse una chiavica io un pensierino ce lo farei... :asd:

http://www.hwupgrade.it/articoli/skvideo/2398/sapphire-e-powercolor-due-schede-video-custom_index.html
Esatto, ma credo che la mia sia una esigenza più comune nel senso che a tanti quella misura della HD5870 ha dato fastidio e ben vengano versioni più corte!

Ma da quello che si è visto la GTX 470 dovrebbe essere lunga 24cm quindi dovrebbe essere MOLTO chiavica per farmi rinunciare (oppure MOLTO costosa) :sofico:

Rsdj
13-03-2010, 23:51
Infatti sul portatile già la capisco di più la sua presenza ed utilità (la 9600M gt del mio portatile ha l'uscita HDMI con driver audio), ma su un sistema fisso non ne capivo l'obbligatorietà...ma se serve per forza a gestire i nuovi flussi HD come detto allora puo' essere che prima o poi (quando magari saranno più diffusi) Nvidia si deciderà a proporre una soluzione simile.


Esatto, ma credo che la mia sia una esigenza più comune nel senso che a tanti quella misura della HD5870 ha dato fastidio e ben vengano versioni più corte!

Ma da quello che si è visto la GTX 470 dovrebbe essere lunga 24cm quindi dovrebbe essere MOLTO chiavica per farmi rinunciare (oppure MOLTO costosa) :sofico:

Scusa Karonte ma che case hai?

Kharonte85
13-03-2010, 23:55
Scusa Karonte ma che case hai?
OT/ Cooler Master Centurion 534 Nero

Rsdj
14-03-2010, 00:00
OT/ Cooler Master Centurion 534 Nero

Ho capito, allora mi sa che già con 24cm sei al limite con lo spazio. Sperò per te che la GTX 470 sia veramente molto corta allora, altrimenti ti converebbe cambiare case...

Kharonte85
14-03-2010, 00:07
Ho capito, allora mi sa che già con 24cm sei al limite con lo spazio. Sperò per te che la GTX 470 sia veramente molto corta allora, altrimenti ti converebbe cambiare case...
OT/ Con i 24cm c'è ancora spazio, il problema comincia coi 27cm delle gtx 260 ad esempio ma so che ci entra ad "incastro", mentre la HD5870 è fuori portata...

Code-TR
14-03-2010, 00:30
Parlavo in generale, non del mio caso specifico... Al PC ormai gioco poco, al max prenderò un notebook con una DX11 di fascia media nell'arco dei prossimi 12 mesi...
Per esempio il caso delle gpu dei notebook è lampante... Sempre più laptop hanno il bluray integrato, se magari vivi in affitto, per caso hai un tv full hd ma non il lettore dedicato, quindi vuoi vederti il film su un bello schermo (perchè comunque gli schermi tv sono quasi sempre meglio dei monitor per qualità di immagine e caratteristiche in generale), con un solo cavo hai fatto tutto e con una qualità maggiore.
Ovvio che se una GTX470 andasse sensibilmente meglio di una HD5870 allora tutto questo potrebbe passare in secondo piano, ma dato che i gap saranno minimi tutto conta per differenziarsi, imho.
Poi ognuno ha le sue esigenze, tipo tu non dicevi che non prendevi la HD5870 per via delle dimensioni? ;)

P.S.: è uscita una versione della HD5870 non reference più corta, casomai GF100 fosse una chiavica io un pensierino ce lo farei... :asd:

http://www.hwupgrade.it/articoli/skvideo/2398/sapphire-e-powercolor-due-schede-video-custom_index.html



1) Stando a quanto si vede in giro una GTX480 non sarà molto più veloce di una singola HD5870, figuriamoci raggiungere una HD5970. Con due GTX480 (sempre che le si riesca a trovare, perchè pare ce ne saranno pochissime) spenderesti sensibilmente più che un'unica HD5970, con un increase di performance penso trascurabile (10%? 20%?) Ovvio che un multi-gpu è sempre più problematico (e forse un quad lo è di più) ma naturalmente il livello prestazionale di una HD5970 al momento è ineguagliabile da una single.

2) I problemi coi drivers AMD sono al 50% fesserie, al 40% dovuti all'inesperienza di chi li installa, al 10% reali, ma comuni a qualunque prodotto.

3) Imho per quanto visto finora no, ma quello va a preferenze. :)

Grazie mille sei stato molto chiaro. Intanto aspetto fine mese e poi vedo un pò cosa fare.

calabar
14-03-2010, 09:04
Sinceramente non ho nemmeno ancora capito se con Fermi si potrà veicolare il segnale video a 3 schermi contemporaneamente con una scheda sola o no...
No, non possono farlo. Per gestire tre schermi in game hai bisogno di 2 schede iin SLI.

A.L.M.
14-03-2010, 10:26
Da R6xx a Evergreen l'architettura è molto diversa, è sparito il ring-bus, le TMU sono passate da una configurazione slegata ai SIMD a una in cui ogni SIMD ha la sua sezione di TMU dedicata, sono state aggiunte cache prima inesistenti e le logiche di controllo relative, è stato rivisto il memory controller per il supporto alle DDR5, sono stati aggiunti HS e DS allo stadio di tessellation e la gestione dell'output è stata completamente rivista per consentire l'Eyefinity.

Se questo non è cambiare architettura non so cosa possa esserlo...

Lo so, ma il discorso che facevo è legato al concetto dietro l'architettura. Nè GF100 nè RV870 sono un completo cambio di approccio (sotto ogni punto di vista) rispetto a G80 e R600, come invece lo furono questi ultimi vs R520 e G70. Anche qui forse AMD fece un cambio un po' meno netto per certi aspetti rispetto a NVidia perchè probabilmente già R520 era un ibrido tra una gpu DX9 "vecchia maniera" ed una gpu DX10, vista la parentela con Xenos: c'è comunque da dire che probabilmente il forte cambio architetturale NVidia lo aveva già compiuto con NV40...
Per dire secondo me R520 era molto più diverso rispetto a R420 di quanto non lo sia RV870 vs RV770, nonostante il cambio di librerie sottostanti...
Ad esempio, per ATI si potrebbe vedere qualcosa di interessante imho qualora le serie HD6xxx fossero ancora a 40nm... Con RV870 si sono evidenziate alcune problematiche che andranno corrette: forse una gestione migliore della tessellation, un bus che con le attuali gddr5 castra le schede di fascia alta, il tutto da coordinare con un chip da tenere sotto i 400mm2.
Per NVidia un cambio architetturale importante dovrebbe esserci qualora si accorgessero che andare avanti coi chipponi li sta portando ad una dead end, quindi si dovrebbero convertire a chip più piccoli...
Se poi uno oltre un certo numero di modifiche al chip li considera cambi di architettura, allora RV770 fu un cambio di architettura, GF100 sarà un cambio di architettura, ecc...
Ma tanto per farti un esempio, le GT21x, che di fatto sono dei derivati di G92b con le DX10.1 sono una nuova architettura? Anche lì ci sono stati sensibili ritocchi... ;) Secondo me no, come all'epoca non fu un'architettura veramente nuova RV770, tanto per dire...
Sarei curioso di sapere cosa ne pensano anche gli altri... :)
A mio modo di vedere le cose, per avere un vero cambio di architettura in una gpu o cambi completamente il modo in cui il chip è fatto / organizzato (es. NV40 vs NV30, R520 vs R420), o cambi completamente il modo in cui fai le cose, anche se magari per certi aspetti il chip non varia più di tanto (es G80 vs G70).
Io queste due situazioni finora non le ho viste, forse l'unico caso che potrebbe essere classificato come vero cambio d'architettura è in effetti Fermi, per via delle notevoli innovazioni proposte rispetto al chip precedente... :boh:

No, non possono farlo. Per gestire tre schermi in game hai bisogno di 2 schede iin SLI.

Altra cavolata, imho. ;)

calabar
14-03-2010, 10:47
Altra cavolata, imho. ;)
Beh, non che potessero farci molto a riguardo.
Hanno semplicemente cercato di mettere una pezza alla mancanza di una tecnologia come EyeFinity di ATI implementando qualcosa di simile via software.
Non potevano certo rimettere mano a tutta la gestione dell'output di Fermi per permettere l'utilizzo di una sola scheda, erano già abbastanza in ritardo così :p
Del resto tutto sommato per la fascia alta va bene, l'enthusiast che vuole giocare su tre monitor potrebbe puntare comunque ad uno SLI, poi magari con la revision di Fermi (fermi II?) verrà implementato in hardware, sempre che nvidia ne abbia interesse.

Per la questione della architetture, in effetti è difficile stabilire il confine.
Secondo ATI rv870 è stato il più massiccio cambio di architettura dai tempi di R600 (ricordo la dichiarazione).
Secondo me si potrebbe parlare di cambio di architettura quando cambia proprio il modo di lavorare della scheda: per esempio il passaggio a shader unificati dovrebbe essere considerato tale. Oppure quando cambia il tipo di architettura (passare da un superscalare ad un vliw per esempio, anche se stiamo estremizzando un po').
Certo, in questo modo rischiamo di non vedere come cambio d'architettura alcuni progetti invece per altri versi molto innovativi.
Forse alla fine fine il cambio di architettura si ha quando l'azienda fa quasi tabula rasa del lavoro precedente riprogettando un chip dalle basi con obiettivi specifici (il che ovviamente non impedisce di riutilizzare qualcosa di fatto in passato) anzichè ottimizzare qualcosa che già si trova in mano.

A.L.M.
14-03-2010, 10:59
Beh, non che potessero farci molto a riguardo.
Hanno semplicemente cercato di mettere una pezza alla mancanza di una tecnologia come EyeFinity di ATI implementando qualcosa di simile via software.
Non potevano certo rimettere mano a tutta la gestione dell'output di Fermi per permettere l'utilizzo di una sola scheda, erano già abbastanza in ritardo così :p
Del resto tutto sommato per la fascia alta va bene, l'enthusiast che vuole giocare su tre monitor potrebbe puntare comunque ad uno SLI, poi magari con la revision di Fermi (fermi II?) verrà implementato in hardware, sempre che nvidia ne abbia interesse.

Boh, secondo me la possibilità di pilotare 3, 5 e 6 schermi contemporaneamente è uno dei punti di forza delle HD5xxx. Qualche tempo fa un mio amico mi chiedeva una scheda non troppo costosa con la quale pilotare almeno 3 schermi in contemporanea ed in effetti l'unica alternativa erano le nuove ATI...
Semplicemente con questa mossa vai a sconfinare nel mondo delle vga professionali come le Matrox, proponendo dei prodotti a prezzi molto più bassi e molto più versatili...

Per la questione della architetture, in effetti è difficile stabilire il confine.
Secondo ATI rv870 è stato il più massiccio cambio di architettura dai tempi di R600 (ricordo la dichiarazione).
Secondo me si potrebbe parlare di cambio di architettura quando cambia proprio il modo di lavorare della scheda: per esempio il passaggio a shader unificati dovrebbe essere considerato tale. Oppure quando cambia il tipo di architettura (passare da un superscalare ad un vliw per esempio, anche se stiamo estremizzando un po').
Certo, in questo modo rischiamo di non vedere come cambio d'architettura alcuni progetti invece per altri versi molto innovativi.
Forse alla fine fine il cambio di architettura si ha quando l'azienda fa quasi tabula rasa del lavoro precedente riprogettando un chip dalle basi con obiettivi specifici (il che ovviamente non impedisce di riutilizzare qualcosa di fatto in passato) anzichè ottimizzare qualcosa che già si trova in mano.

Sono d'accordo. :)

Andrea deluxe
14-03-2010, 11:06
http://translate.google.com.tr/translate?js=y&prev=_t&hl=tr&ie=UTF-8&layout=1&eotf=1&u=http://www.donanimhaber.com/GeForce_GTX_480nin_hiz_asirtmali_ilk_tesmcilsinde_guc_tuketimi_305_Watt_olabilir-18648.htm&sl=tr&tl=en

appleroof
14-03-2010, 11:06
Lo so, ma il discorso che facevo è legato al concetto dietro l'architettura. Nè GF100 nè RV870 sono un completo cambio di approccio (sotto ogni punto di vista) rispetto a G80 e R600, come invece lo furono questi ultimi vs R520 e G70. Anche qui forse AMD fece un cambio un po' meno netto per certi aspetti rispetto a NVidia perchè probabilmente già R520 era un ibrido tra una gpu DX9 "vecchia maniera" ed una gpu DX10, vista la parentela con Xenos: c'è comunque da dire che probabilmente il forte cambio architetturale NVidia lo aveva già compiuto con NV40...
Per dire secondo me R520 era molto più diverso rispetto a R420 di quanto non lo sia RV870 vs RV770, nonostante il cambio di librerie sottostanti...
Ad esempio, per ATI si potrebbe vedere qualcosa di interessante imho qualora le serie HD6xxx fossero ancora a 40nm... Con RV870 si sono evidenziate alcune problematiche che andranno corrette: forse una gestione migliore della tessellation, un bus che con le attuali gddr5 castra le schede di fascia alta, il tutto da coordinare con un chip da tenere sotto i 400mm2.
Per NVidia un cambio architetturale importante dovrebbe esserci qualora si accorgessero che andare avanti coi chipponi li sta portando ad una dead end, quindi si dovrebbero convertire a chip più piccoli...
Se poi uno oltre un certo numero di modifiche al chip li considera cambi di architettura, allora RV770 fu un cambio di architettura, GF100 sarà un cambio di architettura, ecc...
Ma tanto per farti un esempio, le GT21x, che di fatto sono dei derivati di G92b con le DX10.1 sono una nuova architettura? Anche lì ci sono stati sensibili ritocchi... ;) Secondo me no, come all'epoca non fu un'architettura veramente nuova RV770, tanto per dire...
Sarei curioso di sapere cosa ne pensano anche gli altri... :)
A mio modo di vedere le cose, per avere un vero cambio di architettura in una gpu o cambi completamente il modo in cui il chip è fatto / organizzato (es. NV40 vs NV30, R520 vs R420), o cambi completamente il modo in cui fai le cose, anche se magari per certi aspetti il chip non varia più di tanto (es G80 vs G70).
Io queste due situazioni finora non le ho viste, forse l'unico caso che potrebbe essere classificato come vero cambio d'architettura è in effetti Fermi, per via delle notevoli innovazioni proposte rispetto al chip precedente... :boh:

cut

cut
Per la questione della architetture, in effetti è difficile stabilire il confine.
Secondo ATI rv870 è stato il più massiccio cambio di architettura dai tempi di R600 (ricordo la dichiarazione).
Secondo me si potrebbe parlare di cambio di architettura quando cambia proprio il modo di lavorare della scheda: per esempio il passaggio a shader unificati dovrebbe essere considerato tale. Oppure quando cambia il tipo di architettura (passare da un superscalare ad un vliw per esempio, anche se stiamo estremizzando un po').
Certo, in questo modo rischiamo di non vedere come cambio d'architettura alcuni progetti invece per altri versi molto innovativi.
Forse alla fine fine il cambio di architettura si ha quando l'azienda fa quasi tabula rasa del lavoro precedente riprogettando un chip dalle basi con obiettivi specifici (il che ovviamente non impedisce di riutilizzare qualcosa di fatto in passato) anzichè ottimizzare qualcosa che già si trova in mano.

anche io sono completamente d'accordo

appleroof
14-03-2010, 11:12
in proporzione se la gtx 480 avesse davvero un TDP di 275w contro i 188w della HD5870 non vedo come potrebbe essere possibile fare una dual GPU con raffreddamento ad aria.
cut

si insomma, la vedo dura prima dei 28nm...poi potrebbe pure essere...

La GTX275 ha un TDP di 219W, la GTX285 di 204W e la GTX280 di 236W.

Ciò nonostante la GTX295 da 296W l'hanno tirata fuori.

Ponendo la GTX470 con 448SP - 625/1250/3800 a 225W, significa che una dual gpu del tipo 2x448SP, oltre ad aver clock inferiori, come già la GTX295 vs GTX275, dovrà avere anche vgpu ridotto.

Per una dual con 2x480 o 2x512 è un "problema" che riguarda produttori che vorranno produrre schede custom senza il limite dei 300W.

è questo uno dei "problemi": se è vero che la gtx470 viaggia poco sopra la 5850, allora una dual con gpu ancora più castrata per problemi di tdp starebbe a rigor di logica sotto la 5970 quindi non ne vedrei il senso..

Io penso che anche per le 4xx nvidia abbia sovradimensionato il dissipatore in modo da tenere le schede molto più fredde di quanto "servirebbe", perché il leakage aumenta con la temperatura.

Cmq tutti i pronostici vogliono dire ben poco, se davvero nVidia non riuscirà a produrre veramente le schede prima della revisione.
(ci sono novità al riguardo che mi son perso?)

Anche parlare di dual o varie... ma se ancora le 4xx sono solo schede "da esposizione"...

bè, si chiacchera sempre a livello di rumors, questo tread è mesi che và avanti così :D (e non potrebbe essere diversamente)

Kharonte85
14-03-2010, 11:14
anche io sono completamente d'accordo
Idem pure io...poi questo non significa che le evoluzioni non ci sono state tutt'altro (infatti il GF100 ha parecchie novità)

Andrea deluxe
14-03-2010, 11:18
è questo uno dei "problemi": se è vero che la gtx470 viaggia poco sopra la 5850, allora una dual con gpu ancora più castrata per problemi di tdp starebbe a rigor di logica sotto la 5970 quindi non ne vedrei il senso..


questa si che e' una osservazione....;)

calabar
14-03-2010, 11:19
Boh, secondo me la possibilità di pilotare 3, 5 e 6 schermi contemporaneamente è uno dei punti di forza delle HD5xxx. Qualche tempo fa un mio amico mi chiedeva una scheda non troppo costosa con la quale pilotare almeno 3 schermi in contemporanea ed in effetti l'unica alternativa erano le nuove ATI...
Semplicemente con questa mossa vai a sconfinare nel mondo delle vga professionali come le Matrox, proponendo dei prodotti a prezzi molto più bassi e molto più versatili...
Esatto ;)
Però c'è da dire che fermi sicuramente non rientra nella descrizione "scheda non troppo costosa con la quale pilotare almeno 3 schermi"... quindi per il momento il problema può non essere troppo grave.
Se nvidia non proporrà qualcosa di simile anche per la fascia media (quando uscirà quella basata su fermi, ossia non nell'immediato), allora si che avrà perso una buona occasione.
Ma ha ancora alcuni mesi per porre rimedio al problema, del resto la parte software già ce l'ha.
Fino ad allora però per questo impiego è verissimo, non ci sono alternative alle ATI.

è questo uno dei "problemi": se è vero che la gtx470 viaggia poco sopra la 5850, allora una dual con gpu ancora più castrata per problemi di tdp starebbe a rigor di logica sotto la 5970 quindi non ne vedrei il senso..
Il fatto è che il trono delle prestazioni in fin dei conti va a chi ha la migliore efficienza energetica in fascia alta, ossia a chi riesce a mettere più potenza in quei 300w.
Insomma, se si volesse mantenere il trono delle prestazioni, bisognerebbe progettare dei chip che abbiano massima efficienza consumando "la metà" di quei 300w (non è proprio la metà, come sappiamo, ma per capirci...).
Da quel chip ne tiro poi fuori una versione più pompata singolo chip per la fascia alta, con minore efficienza energetica ma prestazioni elevate senza dover ricorrere a configurazioni multigpu, e una schede con due chip, che dia le massime prestazioni senza superare quei 300w.
Facendo il paragone con le attuali schede, secondo me rv870 è un po' troppo potente in questo senso (difatti la versione 5970 è un bel po' castrata), ma non di molto. Nvidia invece con un singolo chip che raggiunge consumi così elevati ovviamente non ha centrato l'obiettivo.
Ovviamente ci sarebbe un'alternativa a riguardo, ossia riuscire a fare un chip singolo efficientissimo che consumi al più quei fatidici 300w, dato che l'efficienza nel singolo chip è tendenzialmente superiore. Questo garantirebbe si lo scettro delle prestazioni, ma il prezzo sarebbe: costo di produzione elevato, maggiore difficoltà a scalare nelle fasce più basse, difficoltà a produrre un chip con tali caratteristiche (GF100 che già è al limite come dimensioni e complessità avrebbe dovuto consumare meno, il fatto che si avvicini alla soglia dei 300w in questo caso non è affatto un pregio!)

A.L.M.
14-03-2010, 11:23
http://translate.google.com.tr/translate?js=y&prev=_t&hl=tr&ie=UTF-8&layout=1&eotf=1&u=http://www.donanimhaber.com/GeForce_GTX_480nin_hiz_asirtmali_ilk_tesmcilsinde_guc_tuketimi_305_Watt_olabilir-18648.htm&sl=tr&tl=en

Ma sbaglio o si parla di un TDP "base" di 298W? :stordita:
Spero per NVidia che non sia vero, perchè ottenere prestazioni del 10-20% più alte di una HD5870 con circa 110W-120W di consumo in più (ossia quasi il TDP di un i7 esacore... :asd: ), quando magari quelle prestazioni in più sono più dovute a banda / framebuffer che altro, mi parrebbe quanto di più vicino ad un fail ci possa essere...
Praticamente per un Quad SLI pure un PSU da 1500W sarebbe poco... :asd:

Andrea deluxe
14-03-2010, 11:24
Ma sbaglio o si parla di un TDP "base" di 298W? :stordita:
Spero per NVidia che non sia vero, perchè ottenere prestazioni del 10-20% più alte di una HD5870 con circa 110W-120W di consumo in più (ossia quasi il TDP di un i7 esacore... :asd: ), quando magari quelle prestazioni in più sono più dovute a banda / framebuffer che altro, mi parrebbe quanto di più vicino ad un fail ci possa essere...
Praticamente per un Quad SLI pure un PSU da 1500W sarebbe poco... :asd:

stando al rumor le oc di fabbrica stanno sui 305w.....:stordita:

appleroof
14-03-2010, 11:24
Idem pure io...poi questo non significa che le evoluzioni non ci sono state tutt'altro (infatti il GF100 ha parecchie novità)

certo, come dicevano gli altri le evoluzioni ci sono state e pure pesanti, ma il concetto di base è assolutamente quello del 2006/7 per entrambe :)

questa si che e' una osservazione....;)

poi chissà, senza dati definitivi è ovvio che è tutto un "per parlare" ma sulla base dei rumors direi che non si scappa da quelle considerazioni...

Kharonte85
14-03-2010, 11:38
stando al rumor le oc di fabbrica stanno sui 305w.....:stordita:
Continuo a ritenerlo abbastanza improbabile :fagiano:

la GTX 470 sta sicuramente sotto i 225W con margine (dato il 6+6pin) ed ormai è quasi certo che ha 448 SP; mi chiedo come sia possibile che una ipotetica GTX 480 con 512SP riesca ad arrivare ai 300w...mah

appleroof
14-03-2010, 11:39
Continuo a ritenerlo abbastanza improbabile :fagiano:

la GTX 470 sta sicuramente sotto i 225W con margine (dato il 6+6pin) ed ormai è quasi certo che ha 448 SP; mi chiedo come sia possibile che una ipotetica GTX 480 con 512SP riesca ad arrivare ai 300w?

forse frequenze molto maggiori? :boh:

calabar
14-03-2010, 11:41
@Kharonte85
Dipenderà anche dalle frequenze.
Magari gli SP in più non garantivano un incremento di prestazioni ragionevole e hanno dovuto un po' sollevare le frequenze per la 480, perdendoci in efficienza energetica (che magari era ottimale alle frequenze della 470).

Insomma, non la vedo così impossibile, e oltretutto qui si parla di versioni OC (gli ultimi rumors per le versioni normali parlavano di 275w se non erro).
La verità naturalmente si saprà quando si potranno misurare realmente in consumi della scheda.

A.L.M.
14-03-2010, 12:15
la GTX 470 sta sicuramente sotto i 225W con margine (dato il 6+6pin) ed ormai è quasi certo che ha 448 SP; mi chiedo come sia possibile che una ipotetica GTX 480 con 512SP riesca ad arrivare ai 300w...mah

Il "con margine" della GTX470 potrebbe essere una delle discriminanti...
Se la GTX470 rientrasse al pelo con le sue frequenze in quel TDP (precludendo quindi grosse chance di OC), la GTX480, per i 64SP in più, il bus più ampio, il maggior quantitativo di memoria, magari anche frequenze un pelo più alte, più spazio per l'OC, potrebbe tranquillamente consumare 70W in più... Tra la GTX280 e la GTX260 prima versione c'era meno differenza hw che tra la GTX470 e GTX480 e già c'erano 54W di TDP di differenza (236W vs 182W), tanto per dire... ;)

appleroof
14-03-2010, 12:20
tasselletion Nvidia al gdc

http://www.bjorn3d.com/viewnews.php?id=4258

ziosante73
14-03-2010, 12:26
si vocifera sui 500 euro circa, ma nessuna notizia ufficiale
Se sono 500 ci sta alla grande di più passo ad ati

PConly92
14-03-2010, 12:27
tasselletion Nvidia al gdc

http://www.bjorn3d.com/viewnews.php?id=4258

roba già vista:(

Kharonte85
14-03-2010, 12:45
Il "con margine" della GTX470 potrebbe essere una delle discriminanti...
Se la GTX470 rientrasse al pelo con le sue frequenze in quel TDP (precludendo quindi grosse chance di OC), la GTX480, per i 64SP in più, il bus più ampio, il maggior quantitativo di memoria, magari anche frequenze un pelo più alte, più spazio per l'OC, potrebbe tranquillamente consumare 70W in più... Tra la GTX280 e la GTX260 prima versione c'era meno differenza hw che tra la GTX470 e GTX480 e già c'erano 54W di TDP di differenza (236W vs 182W), tanto per dire... ;)

Sono proprio curioso di sapere come sarà la verità finale su questa cosa...

aaasssdddfffggg
14-03-2010, 16:04
tasselletion Nvidia al gdc

http://www.bjorn3d.com/viewnews.php?id=4258

Sempre notevole quello riferito all'acqua.:)

Ren
14-03-2010, 17:55
Noi ci focalizziamo sempre sul settore gaming, ma il design di nvidia deve coprire maggiori settori di mercato, quindi determinate scelte sono imposte dalla scalabilità del progetto. Puntare su una tassellation che non scala con il numero di blocchi funzionali, magari è di ostacolo nel settore delle workstation o in quelle soluzioni che richiedono interi Rack di GPU.
Trascurare il settore delle workstation vuol dire non tener conto di un comparto che con il solo 2% della produzione assorbe ben il 15% del fatturato...

appleroof
14-03-2010, 18:26
Sempre notevole quello riferito all'acqua.:)

devo dire che pure quello dei capelli è strabiliante ;)

Noi ci focalizziamo sempre sul settore gaming, ma il design di nvidia deve coprire maggiori settori di mercato, quindi determinate scelte sono imposte dalla scalabilità del progetto. Puntare su una tassellation che non scala con il numero di blocchi funzionali, magari è di ostacolo nel settore delle workstation o in quelle soluzioni che richiedono interi Rack di GPU.
Trascurare il settore delle workstation vuol dire non tener conto di un comparto che con il solo 2% della produzione assorbe ben il 15% del fatturato...

verissimo...

Simedan1985
14-03-2010, 18:48
Sempre notevole quello riferito all'acqua.:)

A mio avviso non tanto distante da come la vedo in bad company 2,sempre dx11

PConly92
14-03-2010, 18:52
Noi ci focalizziamo sempre sul settore gaming, ma il design di nvidia deve coprire maggiori settori di mercato, quindi determinate scelte sono imposte dalla scalabilità del progetto. Puntare su una tassellation che non scala con il numero di blocchi funzionali, magari è di ostacolo nel settore delle workstation o in quelle soluzioni che richiedono interi Rack di GPU.
Trascurare il settore delle workstation vuol dire non tener conto di un comparto che con il solo 2% della produzione assorbe ben il 15% del fatturato...

se è per questo anche ati è molto attiva in questo settore: http://www.dvhardware.net/article38967.html solo che il suo comparto marketting non è al pari di quello nvidia;)

roccia1234
14-03-2010, 18:55
Esagerato! :asd:
La 5970 va circa il 30-40% in più della 5870, quindi secondo le stime che hai fatto potrebbe andare un 25-30% in più della gtx 480.

ops, in effetti hai ragione :fagiano:

però il succo del discorso non cambia, e in ogni caso una 5970 (a quanto leggo nel thread ufficiale) raggiunge senza troppi problemi le frequenze della 5870, e anche qualcosa in più, quindi il divario si allarga.
Overcloccare fermi? si, si potrebbe fare, ma con i tdp che si ritrova il megachippone dubito che si riesca a salire più di tanto, a meno che non si abbia un impianto di raffreddamento con le controp@lle.

luX0r.reload
14-03-2010, 19:52
se è per questo anche ati è molto attiva in questo settore: http://www.dvhardware.net/article38967.html solo che il suo comparto marketting non è al pari di quello nvidia;)
... nessuno ha detto il contrario. Ogni occasione è buona eh?!
Avete dimenticato che siamo nel thread dedicato a gtx480 e gtx470 e non nel thread "Vota Antonio (La Trippa)"? :ciapet:

Adone_1985
14-03-2010, 19:53
... nessuno ha detto il contrario. Ogni occasione è buona eh?!
Avete dimenticato che siamo nel thread dedicato a gtx480 e gtx470 e non nel thread "Vota Antonio (La Trippa)"? :ciapet:

:D :D :D non lo volevo dire

betha
14-03-2010, 20:04
... nessuno ha detto il contrario. Ogni occasione è buona eh?!
Avete dimenticato che siamo nel thread dedicato a gtx480 e gtx470 e non nel thread "Vota Antonio (La Trippa)"? :ciapet:

:asd:

Ren
14-03-2010, 20:42
se è per questo anche ati è molto attiva in questo settore: http://www.dvhardware.net/article38967.html solo che il suo comparto marketting non è al pari di quello nvidia

Quel super-computer che hai linkato è una soluzione custom da diversi milioni di dollari. Nvidia vuole proporre un alternativa alle CPU(non producendole), già bella che pronta in rack da programmare in C con tools esistenti. Se avrà successo lo scopriremo solo in futuro...

Il mio discorso sulla modularità del tassellator era riferito ad in sistemi Quadro in rack per utilizzo professionale.

ps. nvidia ha in mano quasi tutto il mercato delle workstation grafiche con la serie quadro. (il supporto software si fa sentire molto)

Deviling Master
14-03-2010, 22:07
Chiedo scusa se non leggo 1100 e passa pagina ma non ho trovato un post riassuntivo per la mia domanda.

Ho smesso di seguire questo thread un mese fa perchè non uscivano informazioni rilevanti.

Ho giusto un paio di domande da fare
1) Le schede in arrivo (dal titolo 480 e 470) che serie sono? Nel senso medio/medio-alta/alta

2) Se sono di fascia alta, esagerate per me, sono in arrivo anche schede più ridotte? (seppure della nuova serie Fermi)

Spiego il motivo, io stavo acquistando il pc con una 9750 ma mi è stato detto di aspettare l'uscita di queste nuove schede.
Vorrei capire se ci sarà un equivalente più economico o uno maggiore allo stesso prezzo

marco XP2400+
14-03-2010, 22:10
Chiedo scusa se non leggo 1100 e passa pagina ma non ho trovato un post riassuntivo per la mia domanda.

Ho smesso di seguire questo thread un mese fa perchè non uscivano informazioni rilevanti.

Ho giusto un paio di domande da fare
1) Le schede in arrivo (dal titolo 480 e 470) che serie sono? Nel senso medio/medio-alta/alta

2) Se sono di fascia alta, esagerate per me, sono in arrivo anche schede più ridotte? (seppure della nuova serie Fermi)

Spiego il motivo, io stavo acquistando il pc con una??9750?? ma mi è stato detto di aspettare l'uscita di queste nuove schede.
Vorrei capire se ci sarà un equivalente più economico o uno maggiore allo stesso prezzo

1) alte!
la 470 starà prestazionalmente nel campo 5850-5870

2)no, forse ti è stato detto di aspettare perchè nell'ipotesi di schede piazzate ad un prezzo competitivo e con disponibilità dovrebbe risultare automatico un posizionamento verso il basso delle schede ati per mantenere dalla loro parte il rapporto prezzo/convenienza...tuttavia se il prezzo di una 470 starà sui 400euro è improbabile una ridefinizione dei prezzi, anche se di ufficiale non si sa nulla e quindi non si può confermare nulla...

NOOB4EVER
15-03-2010, 00:07
A mio avviso non tanto distante da come la vedo in bad company 2,sempre dx11

molto bella in bc2 anche se a volte lampeggia :) cmq dovremo esserci con i primi test non vedo l'ora di capire sotto il profilo sli cosa hanno cambiato,secondo le fonti nvidia adottera' un approccio diverso dal precedente per SLI etc... sbaglio? qualcuno ha dettagli a riguardo? avevo sentito che hanno risolto i problemi di stuttering ma non conosco i dettagli e mi farebbe piacere se qualcuno me li anticipasse in parole povere :)

persa
15-03-2010, 07:23
siamo sempre più vicini al 26... :D ( http://www.pctunerup.com/up//results/_201003/20100315082105_terrorizzato.gif)

aledemo
15-03-2010, 08:00
sono troppo curioso anche io..

Deviling Master
15-03-2010, 08:05
1) alte!
la 470 starà prestazionalmente nel campo 5850-5870

2)no, forse ti è stato detto di aspettare perchè nell'ipotesi di schede piazzate ad un prezzo competitivo e con disponibilità dovrebbe risultare automatico un posizionamento verso il basso delle schede ati per mantenere dalla loro parte il rapporto prezzo/convenienza...tuttavia se il prezzo di una 470 starà sui 400euro è improbabile una ridefinizione dei prezzi, anche se di ufficiale non si sa nulla e quindi non si può confermare nulla...

Io stavo per comprare la 5850 quando mi hanno fermato quindi mi conviene vedere come saranno queste? (anche perchè magari nel caso prendessi un modello attuale potrebero scendere i prezzi)

paolox86
15-03-2010, 09:11
Oramai manca davvero poco, secondo voi quando faranno uscire la 460? Io punterò decisamente a quella!

gianni1879
15-03-2010, 09:32
:asd:

:D :D :D non lo volevo dire

... nessuno ha detto il contrario. Ogni occasione è buona eh?!
Avete dimenticato che siamo nel thread dedicato a gtx480 e gtx470 e non nel thread "Vota Antonio (La Trippa)"? :ciapet:

che dite evitiamo stuzzicamente vari??

vale anche per te PConly92

persa
15-03-2010, 10:04
Home Geforce GTX 480 aims for €450 price
Written by Fuad Abazovic
Monday, 15 March 2010 10:15



Shops might go higher

It is quite natural that the most famous and yet delayed chip called Fermi won’t be cheap but it turns out that it won't be that expensive either.

People have expected single GPU Geforce GTX 480 to end up at close to $600 or €600 in Europe after tax but it turns out that the amount Nvidia wants for its new high end card should be closer to €450.

Note that high demand might easily make shops push this price even further but Nvidia's suggested retail price should end up around €450 including VAT. Higher prices will be reserved for some dual card that is supposed to come in the next few months.

Since most available Radeon 5870 cards are selling at €375 and higher, we believe that Nvidia's price is quite OK, and some partners have told us that Nvidia might have plenty of cards to launch on the 27th.




lo so, è Fudzilla.. ma che è sempre meglio della merd...emmhh di niente come news

LurenZ87
15-03-2010, 10:06
450€ per la GTX 480??? mmm non è male anzi, il problema di fondo (alla fine sempre quello è) tocca vedere quello che riesce a combinare...

LurenZ87
15-03-2010, 10:11
E' sempre così, il solo prezzo o le sole prestazioni dicono poco o nulla, servono entrambi i parametri per valutare un prodotto :)

A parità di quello poi entrano in gioco gli altri fattori, come consumi in idle, consumi in full, calore rilasciato nel case, features proprietarie etc...

verissimo, ma è già tanto che Nvidia non abbia messo il top di gamma sui 600€ :sofico:

Simedan1985
15-03-2010, 10:15
Forse sarà una caxxxxx ma dal rapporto prestazioni ,quello dovrebbe essere il prezzo

Mparlav
15-03-2010, 10:15
Si potrebbe ipotizzare 300-350 euro per la GTX470 e 450-500 euro per la GTX480.
Mentre a meno di ritocchi di prezzo di una cinquantina di euro, le HD5850 dovrebbero restare a 250, le HD5870 a 350, le 2Gb Eyefinity sui 400 e la HD5970 a 550-600 euro.
Staremo a vedere.

sec_death
15-03-2010, 10:16
[ piccolo ot ] si sa nulla di schede fermi (dtx 11) in fascia media (quado usciranno)? magari qualche rumors mi è scappato

paolox86
15-03-2010, 10:18
verissimo, ma è già tanto che Nvidia non abbia messo il top di gamma sui 600€ :sofico:

Sarebbe la prima volta che una top gamma Nvidia costa così "poco" al lancio. Se fosse così, probabilmente è vero che le prestazioni non si distanziano più di tanto dalla 5870, ma era abbastanza chiaro ormai. Restano da vedere gli altri fattori come consumo etc...

Mparlav
15-03-2010, 10:18
[ piccolo ot ] si sa nulla di schede fermi (dtx 11) in fascia media (quado usciranno)? magari qualche rumors mi è scappato

Credo l'estate prossima.

persa
15-03-2010, 10:18
[ piccolo ot ] si sa nulla di schede fermi (dtx 11) in fascia media (quado usciranno)? magari qualche rumors mi è scappato

guarda... tempo fa era saltato fuori qualche rumors di un chip GF104 256bit... destinato a schede di fascia media... ma poi non si è saputo più nulla :boh:
forse uscirà qualche mese dopo le 2 GTX 400.

persa
15-03-2010, 10:20
Credo l'estate prossima.

credo anche io... :fagiano:

LurenZ87
15-03-2010, 10:22
Sarebbe la prima volta che una top gamma Nvidia costa così "poco" al lancio. Se fosse così, probabilmente è vero che le prestazioni non si distanziano più di tanto dalla 5870, ma era abbastanza chiaro ormai. Restano da vedere gli altri fattori come consumo etc...

eggià, potrebbe essere che con la tecnologia a 40nm non siano riusciti a tirar fuori le sue reali frequenze di utilizzo sul chippone (troppo calore ed hanno dovuto scendere drasticamente con le frequenze) e così và più o meno come la rivale e magari con i 28nm andrà come un treno... mah vedremo tanto ormai manca pochissimo...

persa
15-03-2010, 10:25
Non si sa. Se devo fare un'ipotesi direi non prima dell'anno prossimo.

mentre la fascia bassa nel 2012 ;)

traider
15-03-2010, 10:36
Le 3XX sono direct X 10 giusto ? non sono state rifatte per supportare le DX 11 ? sono i soliti rimarchiamenti di Nvidia .

persa
15-03-2010, 10:36
La fascia bassa c'è già, è la serie 2xx rinominata in 3xx

si ma intendevo quella basata su fermi.

la fascia media su fermi nel 2011 la fascia bassa nel 2012.
fermi 2 nel 2014.

la dual esce nel 2023

faber80
15-03-2010, 10:37
Evidentemente non va come una 5970 ;)

in effetti è una stranezza nel panorama di Nvidia, che si è sempre evidenziata negativamente nei listini. Cmq, la maggior attesa di Fermi riguarda il taglio dei listini Ati... lì si che mi aspetto faville, con un boom commerciale di 5850, ormai hanno fatto abbastanza cassa da permetterselo abbondantemente.

Rsdj
15-03-2010, 10:38
Le 3XX sono direct X 10 giusto ? non sono state rifatte per supportare le DX 11 ? sono i soliti rimarchiamenti di Nvidia .
Infatti, niente DX11 per le 3xx... che cmq imho per chi gioca a 1280x1024 andrebbe più che bene.

si ma intendevo quella basata su fermi.

la fascia media su fermi nel 2011 la fascia bassa nel 2012.
fermi 2 nel 2014
Forse non hai capito che la fascia bassa sviluppata su architettura Fermi non esisterà... è per questo che hanno fatto rebranding sulla serie 2xx :)

sickofitall
15-03-2010, 10:38
guarda... tempo fa era saltato fuori qualche rumors di un chip GF104 256bit... destinato a schede di fascia media... ma poi non si è saputo più nulla :boh:
forse uscirà qualche mese dopo le 2 GTX 400.

personalmente vedo inutili per ora le schede di fascia media in dx11, già le top di gamma ati hanno un'importante decadimento degli fps quando si attivano quei 2-3 effetti implementati(dirt2 da 100 a 65fps), non oso immaginare con la metà della potenza disponibile....

le dx11 in fascia media ci finiscono solo per marketing, il tutto IMHO

persa
15-03-2010, 10:40
cmq tornando seri... a 10gg dalla presentazione mi sarei aspettato scappasse fuori qualche bench in più.

invece si è visto poco...della 480 praticamente NIENTE.

Rsdj
15-03-2010, 10:41
personalmente vedo inutili per ora le schede di fascia media in dx11, già le top di gamma ati hanno un'importante decadimento degli fps quando si attivano quei 2-3 effetti implementati(dirt2 da 100 a 65fps), non oso immaginare con la metà della potenza disponibile....
Chi compra una scheda video di fascia bassa/media non gioca a 1920x1200... giocherà a 1280x1024 o giù di li, quindi secondo me potrebbe giocare bene lo stesso con le DX11 ;)

faber80
15-03-2010, 10:42
invece si è visto poco...della 480 praticamente NIENTE.

dovendo scegliere preferiresti offrire certezze negative o hype ?

betha
15-03-2010, 10:42
Sarebbe la prima volta che una top gamma Nvidia costa così "poco" al lancio. Se fosse così, probabilmente è vero che le prestazioni non si distanziano più di tanto dalla 5870, ma era abbastanza chiaro ormai. Restano da vedere gli altri fattori come consumo etc...

..o forse semplicemente perchè non ne trovi in commercio, se fosse un paper launch possono anche venderle a 100 €, trovarle diventa il problem

persa
15-03-2010, 10:44
una scheda di fascia media potrebbe essere adatta per una 1680x1050...

la fascia alta e medio alta per 1920x1200 e le dual per la 2560x1600

persa
15-03-2010, 10:49
Forse non hai capito che la fascia bassa sviluppata su architettura Fermi non esisterà... è per questo che hanno fatto rebranding sulla serie 2xx :)

ma dove sta scritto che non esisterà? :) la fascia bassa basata sulla nuova architettura ci scommetto che ci sarà . ovviamente taaardi e nel frattempo tirano avanti con il rebranding...ma poi ci sarà anche quella. su questo sono sicuro perchè non può tirare avanti a vita con schede dx10 per le fasce inferiori.
sarebbe da idioti fare una nuova architettura ed utilizzarla solo per la fascia alta.

traider
15-03-2010, 10:51
Infatti, niente DX11 per le 3xx... che cmq imho per chi gioca a 1280x1024 andrebbe più che bene.



:mbe: ...

Ma se io con la 8800 Ultra 768 mb che ha quasi 4 anni gioco a 1920 x 1080 tutto alto AA 2X .

persa
15-03-2010, 10:53
:mbe: ...

Ma se io con la 8800 Ultra 768 mb che ha quasi 4 anni gioco a 1920 x 1080 tutto alto AA 2X .

in dx9 però :D

paolox86
15-03-2010, 10:55
Vabbè in effetti quando mai sono esistite le Dx10 per non parlare per ora delle Dx11??

faber80
15-03-2010, 10:55
Non ci scommetterei un € su un taglio di prezzi del listino AMD.

Dici ? mmmm....
Beh, se Fermi fa proprio schifo magari hai ragione, ma io credo che con la svendita di Fermi (se fosse confermata la news di 450 euro) qualcosa si muove.

traider
15-03-2010, 10:56
Bhè certo ma non vedo tutta questa differenza tra 9 e 11 per il momento :D , con la 5770 mi sembra identica la grafica ( visto con AvP ) .

persa
15-03-2010, 10:58
Bhè certo ma non vedo tutta questa differenza tra 9 e 11 per il momento :D , con la 5770 mi sembra identica la grafica ( visto con AvP ) .

sisi.. lo so lo so... :D anche io ho avuto l'opportunità di vedere i giochi in dx11...dirt 2 per esempio...in dx11 fa ridere.. :D

AvP l'ho visto in qualche screen nel forum di guru3d ed anche questo non mi ha impressionato per niente.

adesso tocca a Metro 2033.

Cyfer73
15-03-2010, 11:03
:mbe: ...

Ma se io con la 8800 Ultra 768 mb che ha quasi 4 anni gioco a 1920 x 1080 tutto alto AA 2X .

Quando esce una nuova architettura, immediatamente la scheda top di gamma della generazione precedente, diventa appena sufficente per giocare a 1280x1024, non lo sapevi...? :asd: :rolleyes:

traider
15-03-2010, 11:04
Infatti nutro grandi speranze su Metro 2033 , sperando che cmq sia scalabile anche su altre configurazioni , insomma potrebbe essere il nuovo metro di paragone dopo Crisys , però mi aspetto che la programmazione sia di altissimo livello e adattabile a un pò tutte le configurazioni .

persa
15-03-2010, 11:07
Ma secondo te se ancora hannod a completare il full respin di GF100 si mettono a fare tapeout di altri chip nel frattempo con il rischio di cannarne due invece di uno?

Se va bene il tapeout del B1 lo vedi a Luglio, anche a stringere i tempi per il tapeout del chip successivo, non vedo come possa arrivare sul mercato prima del Q1. A meno che non abbiano fatto sviluppo contemporaneo, buttando via altri soldi visto che se non hanno capito il problema con GF100 non l'hanno capito nemmeno con il derivato.

ma perchè un chip di fascia inferiore che dovrebbe venire meno complesso o molto meno complesso (a seconda della fascia a cui è destinato) dovrebbe cannare come è successo con quelli di fascia alta?? :confused:

io cmq non sto dicendo che sono dietro l'angolo. ma semplicemente che cmq poi arriveranno anche quelle. non come dice l'utente più su che dice che non esisterà alcuna fascia bassa basata sulla nuova architettura.
ma che scherziamo? nvidia ha sempre fatto la gamma completa di schede.
mi riesce difficile credere quindi che non ci sarà mai una fascia media e bassa rinnovata.

Andrea deluxe
15-03-2010, 11:10
€ 450......
http://91.121.132.199/gifs/10105.gif

faber80
15-03-2010, 11:11
ma perchè un chip di fascia inferiore che dovrebbe venire meno complesso o molto meno complesso (a seconda della fascia a cui è destinato) dovrebbe cannare come è successo con quelli di fascia alta?? :confused:

potrebbe per questa serie prevedere una fascia bassa con gli scarti di gpu.... ne avrebbero tanti immagino. Altrimenti credo proprio che dovrai attendere i 28nm. Certo in entrambi i casi nn abbiamo un bel panorama.....

persa
15-03-2010, 11:11
era stato postato anche uno schema (se lo ritrovo lo posto) che mostrava come l'architettura potesse scalare arrivando fino ad un bus a 64bit...o no?

quindi mi domando perchè, deve essere così impossibile che -in futuro- arrivino i derivati di fascia più bassa con questa architettura :boh: :confused:

GabryICE
15-03-2010, 11:13
Infatti nutro grandi speranze su Metro 2033 , sperando che cmq sia scalabile anche su altre configurazioni , insomma potrebbe essere il nuovo metro di paragone dopo Crisys , però mi aspetto che la programmazione sia di altissimo livello e adattabile a un pò tutte le configurazioni .

continua pure a sognare.. :asd:

faber80
15-03-2010, 11:16
Ad oggi sono in dubbio entrambe le cose.

ovviamente, navighiamo nelle ipotesi (come sempre)

Danielao
15-03-2010, 11:20
ma perchè un chip di fascia inferiore che dovrebbe venire meno complesso o molto meno complesso (a seconda della fascia a cui è destinato) dovrebbe cannare come è successo con quelli di fascia alta?? :confused:

io cmq non sto dicendo che sono dietro l'angolo. ma semplicemente che cmq poi arriveranno anche quelle. non come dice l'utente più su che dice che non esisterà alcuna fascia bassa basata sulla nuova architettura.
ma che scherziamo? nvidia ha sempre fatto la gamma completa di schede.
mi riesce difficile credere quindi che non ci sarà mai una fascia media e bassa rinnovata.

trovami la fascia media basata sul GT200

traider
15-03-2010, 11:22
continua pure a sognare.. :asd:

Hai poco da ridere :rolleyes: .

persa
15-03-2010, 11:23
trovami la fascia media basata sul GT200

per farci cosa? se c'era già quella del G9X a 55nm..., quella del GT200 55nm non avrebbe offerto niente di +
.

persa
15-03-2010, 11:29
mahhhh...a rata vedremo.. ;)

qualche chip
http://www.pctunerup.com/up/results/_201003/20100315122824_7_4b9debabf411a.jpg

faber80
15-03-2010, 11:29
per farci cosa? se c'era già quella del G9X a 55nm..., quella del GT200 55nm non avrebbe offerto niente di +
.

nn è una risposta, Danielao è stato chiaro, se ci sono difficoltà tecniche, una serie può non coprire tutte le fasce; Fermi potrebbe fare la stessa fine visto che già hanno fatto lo stesso gioco.

G9x bassa / G2xx alta
g3xx (g2xx) bassa / Fermi alta

Danielao
15-03-2010, 11:32
per farci cosa? se c'era già quella del G9X a 55nm..., quella del GT200 55nm non avrebbe offerto niente di +
.

il chip costa caro. Ti sembra possibile che dopo anni vadano avanti con un G9X che, seppur validissimo, ha diversi anni? Per Fermi sarà la stessa cosa ihmo

LurenZ87
15-03-2010, 11:33
Sono così pochi da numerarli uno a uno? o.O

beh guarda i numeri riportati sopra, non arrivano nemmeno a 900 :stordita:

persa
15-03-2010, 11:34
+ che altro.. ma è normale che siano in quelle condizioni? :confused:

me li aspettavo un pò più pulitini :D

persa
15-03-2010, 11:37
costa quel chip è grosso e costa caro. Ti sembra possibile che dopo anni vadano avanti con un G9X che, seppur validissimo, ha diversi anni? Per Fermi sarà la stessa cosa ihmo


certo, se il successore (gt200) non da niente di + lo trovo possibilissimo.

per fermi non sarà la stessa cosa. dato che un chip di fascia media e bassa porterebbe a qualcosa di nuovo e migliore rispetto ai vari G9x. (anche solo per il fatto che si tratta di una architettura dx11)

persa
15-03-2010, 11:42
ed il G84-86 usciti qualche mese dopo le 8800GTX e GTS non era basato sull'architettura del G80 ?? che era un altro chip gigantesco? eppure lo hanno fatto =.

yossarian
15-03-2010, 11:54
per farci cosa? se c'era già quella del G9X a 55nm..., quella del GT200 55nm non avrebbe offerto niente di +
.

un diverso rapporto alu/tmu e il suppporto ai calcoli fp64, per esempio.

yossarian
15-03-2010, 11:58
potrebbe per questa serie prevedere una fascia bassa con gli scarti di gpu.... ne avrebbero tanti immagino. Altrimenti credo proprio che dovrai attendere i 28nm. Certo in entrambi i casi nn abbiamo un bel panorama.....

costerebbe troppo agli assemblatori di vga lavorare con gli scarti di un chip delle dimensioni e della complessità di gf100. In pratica lo stesso motivo per cui non esistono prodotto derivati da gt200 inferiori ad una 260 da 192 alu, nonostante nVidia avesse a disposizione scarti con un minor numero di alu funzionanti.

Mparlav
15-03-2010, 12:02
G100 senza coldplate:

http://img.ngacn.cc/attachments/mon_201003/15/7_4b9df9952cd99.jpg

zorco
15-03-2010, 12:04
costerebbe troppo agli assemblatori di vga lavorare con gli scarti di un chip delle dimensioni e della complessità di gf100. In pratica lo stesso motivo per cui non esistono prodotto derivati da gt200 inferiori ad una 260 da 192 alu, nonostante nVidia avesse a disposizione scarti con un minor numero di alu funzionanti.
quindi,pensi non faranno prodotti di fascia più bassa derivanti dal chip fermi?

Foglia Morta
15-03-2010, 12:08
http://www.donanimhaber.com/Fuar/CeBT_2010_Zotac_GeForce_GTX_480li_sistem_ON_2_nettop_ve_kompakt_anakartlarini_gosterdi-18650.htm

http://img.donanimhaber.com/images/haber/zotac_cebit2010_2_dh_fx57.jpg

yossarian
15-03-2010, 12:10
quindi,pensi non faranno prodotti di fascia più bassa derivanti dal chip fermi?

poco probabile che li facciano con gli scarti di GF100; più probabile che li facciano derivare da GF100 riducendo il numero delle unità e diminuendo le dimensioni del die (basta eliminare, ad esempio, 1 raster engine con i relativi 4 PE e 4 cluster di alu, oltre ad un paio di RBE, per ridurre di circa 1/4 la complessità del chip.

persa
15-03-2010, 12:15
a faber80

cioè fammi capire...per la fascia bassa useresti un chip da 500mm2 (mettiamo..xchè non lo so di preciso quanto è grande) ultra castrato? ma stiamo scherzando?

mrbick
15-03-2010, 12:17
Hai poco da ridere :rolleyes: .

mi sa che non sai cosa è metro. con la tua vga è già tanto se va su low.

yossarian
15-03-2010, 12:19
Home Geforce GTX 480 aims for €450 price
Written by Fuad Abazovic
Monday, 15 March 2010 10:15



Shops might go higher

It is quite natural that the most famous and yet delayed chip called Fermi won’t be cheap but it turns out that it won't be that expensive either.

People have expected single GPU Geforce GTX 480 to end up at close to $600 or €600 in Europe after tax but it turns out that the amount Nvidia wants for its new high end card should be closer to €450.

Note that high demand might easily make shops push this price even further but Nvidia's suggested retail price should end up around €450 including VAT. Higher prices will be reserved for some dual card that is supposed to come in the next few months.

Since most available Radeon 5870 cards are selling at €375 and higher, we believe that Nvidia's price is quite OK, and some partners have told us that Nvidia might have plenty of cards to launch on the 27th.




lo so, è Fudzilla.. ma che è sempre meglio della merd...emmhh di niente come news

quest'uomo è un mito

http://www.fudzilla.com/content/view/17952/34/

http://www.fudzilla.com/content/view/18072/65/

sarà stato frainteso? :fiufiu:

persa
15-03-2010, 12:22
mahh...una volta dice 600€ ora 450€

faber80
15-03-2010, 12:26
a faber80

cioè fammi capire...per la fascia bassa useresti un chip da 500mm2 (mettiamo..xchè non lo so di preciso quanto è grande) ultra castrato? ma stiamo scherzando?

personalmente nn lo farei mai, infatti resto dell'idea che se ne parla l'anno prox, con i 28nm (sempre imho, naturalemnte). Tanto secondo Nvidia starete benissimo con la serie 3xx, quindi, nn vedo la fretta... per voi.

Andrea deluxe
15-03-2010, 12:26
qualcuno bravo mi traduce.....:D

http://img.ngacn.cc/attachments/mon_201003/15/7_4b9df5437a005.jpg

halduemilauno
15-03-2010, 12:28
qualcuno bravo mi traduce.....:D

http://img.ngacn.cc/attachments/mon_201003/15/7_4b9df5437a005.jpg

è la vecchia news(22/2) dei prezzi di quello shop.
piuttosto ecco il chip della GTX480...
http://www.expreview.com/img/news/2010/03/15/nvidia_07s.jpg

persa
15-03-2010, 12:30
yes..il 375 è il chip della 480 mentre il 275 quello della 470

halduemilauno
15-03-2010, 12:32
altre news...
http://www.hardware-infos.com/news.php?news=3473

aaasssdddfffggg
15-03-2010, 12:48
mi sa che non sai cosa è metro. con la tua vga è già tanto se va su low.

se ne accorgerà presto...:asd:

.XaRaBaS.
15-03-2010, 12:52
mahh...una volta dice 600€ ora 450€

Speriamo 450€ .. ma anche meno!!

aaasssdddfffggg
15-03-2010, 12:52
altre news...
http://www.hardware-infos.com/news.php?news=3473

Il primo screen è proprio di METRO 2033 dove gli ingegneri NVIDIA hanno lavorato a stretto contatto con i ragazzi di 4a Games.

The_SaN
15-03-2010, 12:58
Il primo screen è proprio di METRO 2033 dove gli ingegneri NVIDIA hanno lavorato a stretto contatto con i ragazzi di 4a Games.Spero che stretto contatto non significhi $$ e basta...

persa
15-03-2010, 12:59
a stretto contatto praticamente significa che andrà meglio su nvidia.

aaasssdddfffggg
15-03-2010, 13:00
Spero che stretto contatto non significhi $$ e basta...

Beh,NVIDIA tira l'acqua al suo mulino al fine di soddisfare i suoi clienti e non quelli di ATI.Sono cose che si sanno ormai.

LurenZ87
15-03-2010, 13:09
Spero che stretto contatto non significhi $$ e basta...
significa proprio quello, gli avranno mollato fior di $ per far andare il gioco meglio sulle loro vga e magari anche castrando lo stesso su quelle della concorrenza...

persa
15-03-2010, 13:10
$fps = ($gpu != 'NVDA') ? $fps/2 : $fps;

:confused: cos'è un post in codice? :confused:

aaasssdddfffggg
15-03-2010, 13:13
:confused: cos'è un post in codice? :confused:

Non ha digerito bene oggi a pranzo?Rata che ti è successo?:D

persa
15-03-2010, 13:17
io ancora non ho capito una cosa


ma alla fine quanti sp ha la 480?

480 o 512? :confused:

aaasssdddfffggg
15-03-2010, 13:20
io ancora non ho capito una cosa


ma alla fine quanti sp ha la 480?

480 o 512? :confused:

Tralasciando tutti i rumors su questo aspetto, io sono sicuro di vedere le 480 sin da subito con 512 sp.Comunque il 26 è dietro l'angolo ormai quindi non si scappa più.

A.L.M.
15-03-2010, 13:33
http://we.pcinlife.com/attachments/forumid_206/1003151816089e48b731dd356c.png.thumb.jpg

Se è davvero quella la superficie del chip credo che una nuova dual NVidia non la vedremo fino ai 28nm... Non la fecero con G80 ai tempi, con una gpu più piccola e che consumava meno, figuriamoci ora... ;)

persa
15-03-2010, 13:49
hahahha...ora ho capito :D


Se è davvero quella la superficie del chip credo che una nuova dual NVidia non la vedremo fino ai 28nm... Non la fecero con G80 ai tempi, con una gpu più piccola e che consumava meno, figuriamoci ora... ;)

ma a questo ragazzo non gli torna qualcosa di quella foto... leggi un pò: http://forum.beyond3d.com/showpost.php?p=1407607&postcount=3594

:confused:

Giustaf
15-03-2010, 14:29
E' una battuta, in PHP perché in C++ era graficamente più brutta :D

Si traduce così:

$fps =
Assegna agli FPS il risultato della seguente espressione

($gpu != 'NVDA')
Se la GPU non è nVIDIA

? $fps/2
Dimezza gli FPS

: $fps;
Altrimenti lasciali invariati

:eek: 'mmazza che nerdata! :fagiano:

però fatta molto bene! :D

A.L.M.
15-03-2010, 14:46
hahahha...ora ho capito :D




ma a questo ragazzo non gli torna qualcosa di quella foto... leggi un pò: http://forum.beyond3d.com/showpost.php?p=1407607&postcount=3594

:confused:

Onestamente io non ci leggo niente proprio, potrebbe anche essere 10mm^2 per quanto ci leggo in quella foto :asd:

Foto più grande. Se il chip è quello giusto, le dimensioni sono quelle, 529mm2 esatti (2.30mmx2.30mm).

http://img138.imageshack.us/img138/2917/gpun.th.png (http://img138.imageshack.us/i/gpun.png/)

Pat77
15-03-2010, 14:55
Manca poco, penso che trapelerà a poco qualcosa sulle performance.

goten
15-03-2010, 15:00
Il primo screen è proprio di METRO 2033 dove gli ingegneri NVIDIA hanno lavorato a stretto contatto con i ragazzi di 4a Games.

Piu' che stretto contatto mi sa che il gioco è quasi interamente finanziato da Nvidia visto come si è formato il team di sviluppo... :asd:

persa
15-03-2010, 15:02
ooooookkk, quindi torna tutto :D


Manca poco, penso che trapelerà a poco qualcosa sulle performance.

speriamo... qualche benchino in più aspettando il fatidico giorno...., non mi farebbe schifo :D

inkSnake
15-03-2010, 15:02
E' una battuta, in PHP perché in C++ era graficamente più brutta :D

Si traduce così:

$fps =
Assegna agli FPS il risultato della seguente espressione

($gpu != 'NVDA')
Se la GPU non è nVIDIA

? $fps/2
Dimezza gli FPS

: $fps;
Altrimenti lasciali invariati
ah ecco è php,mi sembrava strano vedere tutti quei $ XDDD.
xke in c graficamente è più brutta? alla fine è uguale:

fps=(gpu!='nvda')? fps/2:fps;

ma forse i $ rendono l'idea di denaro in modo migliore XDDD.

che ne pensi di questa? XD

if(!nvidia)
{
fps=fps/2;
textureQ=textureQ/2;
Fanspd=100%;
}

:sofico:

persa
15-03-2010, 15:03
3Dmark06 con la 480 http://forum.beyond3d.com/showpost.php?p=1407727&postcount=3649

persa
15-03-2010, 15:04
quasi 26000pt

persa
15-03-2010, 15:05
no ma un momento... ma è a 1920x1200 :confused:

Pike79
15-03-2010, 15:06
quasi 26000pt

Perchè la memoria usata è negativa? :eek:

A.L.M.
15-03-2010, 15:07
**fixed**

Non mi vengono in mente altri chip nVIDIA di quella dimensione, quindi potrebbe essere quello vero.

Ah sì, sorry! :doh:
In effetti se avessero un chip 2.3mmx2.3mm alla NVidia farebbero i salti di gioia... :sofico:

persa
15-03-2010, 15:08
Perchè la memoria usata è negativa? :eek:

:confused:

Simedan1985
15-03-2010, 15:08
Non so se è stato postato:
http://www.tomshw.it/cont/news/geforce-gtx-480-overclock-di-pochi-megahertz/24427/1.html?commenti=ultima

Di meglio in peggio:(

persa
15-03-2010, 15:09
SE non è fake, la 480 allora ha 512sp

persa
15-03-2010, 15:09
E' positivo o negativo?



E quindi... :confused:



Immagino perché GPU-Z sbarella.


Ma in definitiva... 3DMark... who cares? :D

considerata la risoluzione sarebbe positivo

Mparlav
15-03-2010, 15:09
3DMARK06 su GTX470 (se la lettura del quantitativo di memoria su Gpu-z è corretto)

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

25824 punti

10427 - 11850 - 7318 cpu score (i7 920 - 4.2GHz)

Qualcuno indicativamente sa' il punteggio della HD5870 con quella cpu?

PConly92
15-03-2010, 15:10
quasi 26000pt

si ma bisogna considerare che c'è anche physx e la cpu a @4200mhz;)
quindi non si può minimamente confrontare con le hd5xxx

persa
15-03-2010, 15:11
come fa ad essere la 470 se li ci sta scritto 512sp?

persa
15-03-2010, 15:13
3DMARK06 su GTX470 (se la lettura del quantitativo di memoria su Gpu-z è corretto)

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

25824 punti

10427 - 11850 - 7318 cpu score (i7 920 - 4.2GHz)

Qualcuno indicativamente sa' il punteggio della HD5870 con quella cpu?

facevo un punteggio simile a 1280x1024 con gpu e cpu (4160mhz) occate

halduemilauno
15-03-2010, 15:13
3Dmark06 con la 480 http://forum.beyond3d.com/showpost.php?p=1407727&postcount=3649

dalla ram pare GTX470.

Mparlav
15-03-2010, 15:13
Ho trovato questo per confronto:

EDIT: non va bene. Ce ne vuole uno a 1920x1200

persa
15-03-2010, 15:14
dalla ram pare GTX470.

però dal numero di sp no.

quindi dobbiamo dar ragione al dato sulla ram?

PConly92
15-03-2010, 15:14
si ma bisogna considerare che c'è anche physx e la cpu a @4200mhz;)
quindi non si può minimamente confrontare con le hd5xxx

faccevo un punteggio simile a 1280x1024 con gpu e cpu (4160mhz) occate

;) non si possono confrontare

Pike79
15-03-2010, 15:18
;) non si possono confrontare

Ma lo 06 supporta physx? Non ricordo nulla del genere, ma potrei sbagliarmi...

persa
15-03-2010, 15:20
Ma lo 06 supporta physx? Non ricordo nulla del genere, ma potrei sbagliarmi...

no, solo il vantage

persa
15-03-2010, 15:23
470 480 480U GTX
448 480 512 Cuda Cores
56 60 64 TMUs
40 48 48 ROPs
1280 1536 1536 MiB
320 384 384 Bit GDDR5
225 250 270 Watt TDP

http://www.xtremesystems.org/forums/showpost.php?p=4288051&postcount=2655

mi domando se è un tipo serio o spara cazz... :confused:

halduemilauno
15-03-2010, 15:25
però dal numero di sp no.

quindi dobbiamo dar ragione al dato sulla ram?

pare strano che il gpuz è tutto oscurato meno il nr degli shader.


cmq altri rumors...
470 480 480U GTX
448 480 512 Cuda Cores
56 60 64 TMUs
40 48 48 ROPs
1280 1536 1536 MiB
320 384 384 Bit GDDR5
225 250 270 Watt TDP
e altri nominano la Ultra come GTX490.
cmq sempre in attesa di tutti i riscontri del caso.

Andrea deluxe
15-03-2010, 15:26
secondo il rumor, esisterebbe pure una Ultra......:confused:

PConly92
15-03-2010, 15:26
no, solo il vantage

completamente sbagliato;)
uno dei tanti esempi: http://www.aoaforums.com/forum/benchmarking/45509-177-83-physx-enabled-drivers-3dmark06.html
poi se guardi varie recensioni con il 3dmark06 lo dicono che le nvidia sono avvantaggiate perché hanno il physx attivo che "dona" molti punti in più:)
MI PARE che ci fosse uno che ha attivato physx su una hd 3850 facendo 23000 punti mi sembra con "physx attivo" poi non so potrei sbagliarmi

ertruffa
15-03-2010, 15:28
470 480 480U GTX
448 480 512 Cuda Cores
56 60 64 TMUs
40 48 48 ROPs
1280 1536 1536 MiB
320 384 384 Bit GDDR5
225 250 270 Watt TDP

http://www.xtremesystems.org/forums/showpost.php?p=4288051&postcount=2655

mi domando se è un tipo serio o spara cazz... :confused:

quindi 3 schede???:confused:

persa
15-03-2010, 15:29
quindi 3 schede???:confused:

SE fosse vero...si... :confused:

ertruffa
15-03-2010, 15:31
SE fosse vero...si... :confused:

ok restiamo in attesa......

persa
15-03-2010, 15:35
ma charlie non diceva che questa scheda sarebbe stata a 70gradi in idle con ventola al 70%?? io li invece ci vedo scritto 34gradi.

Andrea deluxe
15-03-2010, 15:35
completamente sbagliato;)
uno dei tanti esempi: http://www.aoaforums.com/forum/benchmarking/45509-177-83-physx-enabled-drivers-3dmark06.html
poi se guardi varie recensioni con il 3dmark06 lo dicono che le nvidia sono avvantaggiate perché hanno il physx attivo che "dona" molti punti in più:)
MI PARE che ci fosse uno che ha attivato physx su una hd 3850 facendo 23000 punti mi sembra con "physx attivo"

3d mark 06 & physx

http://91.121.132.199/gifs/30.gif

PConly92
15-03-2010, 15:36
3d mark 06 & physx

http://91.121.132.199/gifs/30.gif

non ti ho capito??!!:D

persa
15-03-2010, 15:37
3d mark 06 & physx

http://91.121.132.199/gifs/30.gif

:asd:

Paskyno
15-03-2010, 15:39
Comunque una 5870 fai su i 19000 con il processore i920 a 3 ghz
http://www.overclockersclub.com/reviews/sapphire_hd5870/13.htm

mrbick
15-03-2010, 15:41
3DMARK06 su GTX470 (se la lettura del quantitativo di memoria su Gpu-z è corretto)

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

25824 punti

10427 - 11850 - 7318 cpu score (i7 920 - 4.2GHz)

Qualcuno indicativamente sa' il punteggio della HD5870 con quella cpu?

mio sembra un fake comunque 1236MB è la memoria usata non quella totale. 512 unifield è la 480.
34° la GPu con ventola a 80% ? quindi saranno 45° all'incirca con ventola a regime decente all'incirca quindi.

Mparlav
15-03-2010, 15:41
il 3dmark è cpu limited a 1280x1024 e pure a 1920x1200 con quelle schede. Più inutile del solito, se non si prende a riferimento la stessa cpu e Mhz.

Mparlav
15-03-2010, 15:42
mio sembra un fake comunque 36° la GPU ? AZZ miracolo :D

Non è una fake.
Più facile che gpu-z non rilevi correttamente il sensore.

persa
15-03-2010, 15:43
il 3dmark è cpu limited a 1280x1024 e pure a 1920x1200 con quelle schede. Più inutile del solito, se non si prende a riferimento la stessa cpu e Mhz.

io di punteggio te l'ho detto quanto facevo... con cpu e gpu ben occate...purtroppo però ero a 1280x1024...

PConly92
15-03-2010, 15:49
:asd:

vabbe qua nessuno può dire niente...
se mi sono sbagliato mi scuso in anticipo!
però mi sembra che sia cosi come ho detto io...

yossarian
15-03-2010, 15:57
Comunque una 5870 fai su i 19000 con il processore i920 a 3 ghz
http://www.overclockersclub.com/reviews/sapphire_hd5870/13.htm

qui dà un risultato differente con cpu a 4 GHz e 1280*1024 (24200 per la 5870, 25100 per la vapor-x)

http://www.nexthardware.com/recensioni/schede-video/265/sapphire-radeon-hd-5870-vapor-x_4.htm

dal test che hai postato, inoltre, pare che le prestazioni, fino a 2560*1600 siano pressochè indipendenti dalla risoluzione

mrbick
15-03-2010, 16:05
Quant è regime decente per la ventola della VGA in idle? 5%? 10?

D'altra parte non c'è motivo per avere una ventola al 79% con la GPU a 34°C.

Quindi le alternative sono:

- Il sensore della ventola non è letto correttamente da GPU-Z
- Il sensore della temperatura non è letto correttamente da GPU-Z
- I sensori di ventola e temperatura non sono letti correttamente da GPU-Z
- E' un fake
- La ventola deve girare sempre a regimi mostruosi per non far scoppiare la scheda

Scegliete quello che più vi aggrada, tanto rimarranno illazioni :asd:

di norma un regime in media si assesta dai 25 ai 40% in idle.
fra l'altro queste GTX non avranno grosse ventole perciò non mi sembra il amssimo della silenziosità.

il motivo per tenerla a 80% non lo sappiamo, magari per non far apparire le temperatura reale della scheda, a me sembrano temperature simili alla 295.

appleroof
15-03-2010, 16:05
pare strano che il gpuz è tutto oscurato meno il nr degli shader.


cmq altri rumors...
470 480 480U GTX
448 480 512 Cuda Cores
56 60 64 TMUs
40 48 48 ROPs
1280 1536 1536 MiB
320 384 384 Bit GDDR5
225 250 270 Watt TDP
e altri nominano la Ultra come GTX490.
cmq sempre in attesa di tutti i riscontri del caso.

mmm....sarebbe un pò più credibile solo se avessimo anche le frequenze, già così vedo troppo vicine le gtx480/gtx480ultra...

halduemilauno
15-03-2010, 16:24
mmm....sarebbe un pò più credibile solo se avessimo anche le frequenze, già così vedo troppo vicine le gtx480/gtx480ultra...

per vederle troppo vicine o lontane tocca per l'appunto aspettare quantomeno i valori e poi giudicare.

Iceman69
15-03-2010, 16:26
Ho letto che la GTX 480 costerà 450 euro iva inclusa.

http://www.fudzilla.com/content/view/18072/34/

Vi risulta?

Secondo me il prezzo è credibile, sopratutto dato che le 5870 stanno intorno ai 350 e la GTX 480 non andrà tanto di più.

Chiaramente la Ultra costerà i soliti 600 euro.

traider
15-03-2010, 16:32
Torna la Ultra :D , chissà se anche questa è lunga 27 cm come la mia 8800 Ultra .

sickofitall
15-03-2010, 16:38
magari la ultra sarà il respin della 480 :D

aaasssdddfffggg
15-03-2010, 16:51
Non è così assurdo, anche se potrebbero anche chiamarla 485, ma probabilmente Ultra fa più cool :fagiano:

Interessato alle Ultra allora...:stordita:

Simedan1985
15-03-2010, 16:51
Loro sono liberi anche di fare la versione Top ,che costa 600 euriii e la chiamano ULTRA.....ma se poi questa Ultra prende gli schiaffi da una 5970 con i driver 10.3(magari costa uguale o di +),io gli chiederei:

Ma ultra di che??

Rsdj
15-03-2010, 16:53
Non so se è stato postato:
http://www.tomshw.it/cont/news/geforce-gtx-480-overclock-di-pochi-megahertz/24427/1.html?commenti=ultima

Di meglio in peggio:(

L'avevo detto io :)
Vedremo se sarà confermata questa news ;)

sickofitall
15-03-2010, 16:53
Loro sono liberi anche di fare la versione Top ,che costa 600 euriii e la chiamano ULTRA.....ma se poi questa Ultra prende gli schiaffi da una 5970 con i driver 10.3(magari costa uguale o di +),io gli chiederei:

Ma ultra di che??

si stanno facendo supposizioni e tu salti subito alle conclusioni (come se fosse già in commercio) :confused::doh:

Pike79
15-03-2010, 16:54
Loro sono liberi anche di fare la versione Top ,che costa 600 euriii e la chiamano ULTRA.....ma se poi questa Ultra prende gli schiaffi da una 5970 con i driver 10.3(magari costa uguale o di +),io gli chiederei:

Ma ultra di che??

ULTRA- Single GPU? :D

Simedan1985
15-03-2010, 17:01
si stanno facendo supposizioni e tu salti subito alle conclusioni (come se fosse già in commercio) :confused::doh:

Ho scritto il MA:) ...apparte tutto ,io non penso che il 26 marzo dopo tutto quello che si è sentito,visto e detto,ci troveremo di fronte al contrario!

Smentitemi ,ma io in questo thread le conclusioni che percepisco sono queste:

E' in ritardo
Consuma tanto
Scalda tanto
Costa troppo
E non va come tutti si aspettavano

Fino ad adesso da gennaio a questa parte non si è sentita una cosa buona(solo quella del tassellatore)...io spero che vadi bene ,però sono anche realista!!

Luiprando
15-03-2010, 17:07
volevo fare una domanda forse un pò stupida...

secondo voi il mio ormai obsoleto Q6600 potrebbe fare da collo di bottiglia con una eventuale 470 che acquisterei in aprile?

yossarian
15-03-2010, 17:09
Ho scritto il MA:) ...apparte tutto ,io non penso che il 26 marzo dopo tutto quello che si è sentito,visto e detto,ci troveremo di fronte al contrario!

Smentitemi ,ma io in questo thread le conclusioni che percepisco sono queste:

E' in ritardo
Consuma tanto
Scalda tanto
Costa troppo
E non va come tutti si aspettavano

Fino ad adesso da gennaio a questa parte non si è sentita una cosa buona(solo quella del tassellatore)...io spero che vadi bene ,però sono anche realista!!

hai dimenticato di aggiungere la scarsa disponibilità :sofico:

brain75
15-03-2010, 17:09
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

Foglia Morta
15-03-2010, 17:13
3DMARK06 su GTX470 (se la lettura del quantitativo di memoria su Gpu-z è corretto)

http://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

25824 punti

10427 - 11850 - 7318 cpu score (i7 920 - 4.2GHz)

Qualcuno indicativamente sa' il punteggio della HD5870 con quella cpu?

dalla ram pare GTX470.

però dal numero di sp no.

quindi dobbiamo dar ragione al dato sulla ram?

Io la RAM non la vedo, vedo solo i 512SP :mbe:

Considerate cmq che GPU-Z non è che può andare dentro la scheda a chiedergli quanti SP ha, ha un DB, quindi il dato di ram negativa che è evidentemente sbagliato dipende senza dubbio da quello, mentre i 512SP non li darei comunque per certi...

il link è: h*tp://img.photobucket.com/albums/v455/lixianglover/GTX4803DMark2006.jpg

nicolasmagister
15-03-2010, 17:17
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

No no, io ho comprato a dicembre la mia 5850 (con bios della 5870, 3d mark 2006 cpu 965AMD a 4 giga sfioro i 22000 a 1280 x 1024), e sto facendo un tifo pazzesco per nvidia, così se fa uscire un prodotto più forte, speriamo con prezzi concorrenziali, mi faccio subito la seconda 5850 :D
Viva Fermi

okorop
15-03-2010, 17:23
No no, io ho comprato a dicembre la mia 5850 (con bios della 5870, 3d mark 2006 cpu 965AMD a 4 giga sfioro i 22000 a 1280 x 1024), e sto facendo un tifo pazzesco per nvidia, così se fa uscire un prodotto più forte, speriamo con prezzi concorrenziali, mi faccio subito la seconda 5850 :D
Viva Fermi

un certo NickShih e non l'ultimo arrivato ha le 470 e dice che van peggio delle 5870 nei benchmark, ovviamente 200 mhz sul procesosre in piu' son tanti poi ottimizzazioni varie e so alleggerito contano molto, e fidatevi avere tutte le cose a posto fa guadagnare un sacco
;)

per quanto possa valere....
http://hwbot.org/signature.img?iid=263347&thumb=false&iehack=.jpg

Simedan1985
15-03-2010, 17:25
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

Io ti posso dire(da non fanboy ma da appassionato) che speravo vivamente che nvidia dopo 6 mesi che Ati aveva fatto uscire le 5870,mi faceva uscire una gpu che prendeva la mia e me la spezzava a metà:) .....

Ma come già detto in questi mesi che sono quà non ne ho sentita una buona su queste nvidia (e ripeto ...Correggetemi)....cioè Da quando il Ceo ha presentato quella scheda fasulla ,se ne sono sentite sempre di peggio!!!

Dico solamente che adesso in 10 giorni rimanenti ,non penso che si possa gridare al miracolo!!!
Poi se uno ci spera,posso anche capirlo!!

Ma non dire a chi è obbiettivo di essere Fanboy perche io ti dico che non è così

Blackcat73
15-03-2010, 17:26
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

E' diverso non ha aspettato è stata costretta ad aspettare.

okorop
15-03-2010, 17:27
Torna la Ultra :D , chissà se anche questa è lunga 27 cm come la mia 8800 Ultra .

la ultra c'è già è la 5870 Lightning..... :ciapet: ;)

LurenZ87
15-03-2010, 17:30
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

e chi l'ha detto??? :mbe:

io invece spero proprio in un "miracolo" da parte di Nvidia, così riparte la bella battaglia sui prezzi che a me piace tanto :sofico: ... perchè comunque facciamo i seri, adesso ne le HD5870 e ne le nuove GTX servono molto (adesso sto testando una Evga 8800 GTX e tengo la HD5870 in scatola, pensate un pò :asd:) se togliete AvP le dx11 sono praticamente inesistenti, e stessa identica cosa per giochi veramente pesanti (strano ma vero, con questa GTX, in dx9 riesco a giocare sia ad AvP, CoD 6 e Bioshock 2 tranquillamente anche con i filtri a manetta)... cioè per come la vedo io non ha molto senso prendersi una vga potente per far a gara con gli altri a "chi ce l'ha più grosso" :sofico: (ammeno che non vi capita la "botta di cxlo" come al sottoscritto :asd:) , perchè in fondo, chiunque di noi se gli girano pò comprarsi un sistema della Madonna, anche con 2 HD5970, poi mi spiegate a cosa vi serve??? suvvia :)

Blackcat73
15-03-2010, 17:34
e chi l'ha detto??? :mbe:

io invece spero proprio in un "miracolo" da parte di Nvidia, così riparte la bella battaglia sui prezzi che a me piace tanto :sofico: ... perchè comunque facciamo i seri, adesso ne le HD5870 e ne le nuove GTX servono molto (adesso sto testando una Evga 8800 GTX e tengo la HD5870 in scatola, pensate un pò :asd:) se togliete AvP le dx11 sono praticamente inesistenti, e stessa identica cosa per giochi veramente pesanti (strano ma vero, con questa GTX, in dx9 riesco a giocare sia ad AvP, CoD 6 e Bioshock 2 tranquillamente anche con i filtri a manetta)... cioè per come la vedo io non ha molto senso prendersi una vga potente per far a gara con gli altri a "chi ce l'ha più grosso" :sofico: (ammeno che non vi capita la "botta di cxlo" come al sottoscritto :asd:) , perchè in fondo, chiunque di noi se gli girano pò comprarsi un sistema della Madonna, anche con 2 HD5970, poi mi spiegate a cosa vi serve??? suvvia :)

Emh senza offesa fai molto in fondo alle mie tasche.. preferisco mangiare il mese prossimo( e pure quello dopo:D ).

LurenZ87
15-03-2010, 17:35
Emh senza offesa fai molto in fondo alle mie tasche.. preferisco mangiare il mese prossimo( e pure quello dopo:D ).

vabbè mica ho detto che me le posso comprare con uno stipendio :asd: (magari qualcuno di voi si :))

Rsdj
15-03-2010, 17:35
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

Perchè aveva altra scelta?

brain75
15-03-2010, 17:37
Simedan1985,visto che hai avuto la mia stessa gtx 295 sai come si comporta in overclock temperature e tutto il resto...qualche giorno fa ho letto su guru3d che NVIDIA non ha avuto così fretta di far uscire le nuove schede visto il notevole lavoro svolto con le vga della generazione prima che ancora tengono perfettamente il mercato(si sa che il 90% del mercato delle vga siano quelle di fascia medio-bassa) e la stessa gtx 295 è ancora ricercatissima e si riesce a vendere bene anche usata a 350/400€ anche se nuova non si trova piu'.

Iceman69
15-03-2010, 18:13
E' incredibile come tutti quelli che hanno acquistoto ATI stiano pregando affinche' le loro schede restino superiori alle nuove nvidia...soprattutto quelli che han preso la 5970 :D
Io faccio la mia supposizione...ma secondo voi NVIDIA ha aspettato fino ad ora per nulla ? :sofico:

Non proprio, io ho la 5870, ma aspetto con ansia Fermi perchè con i drivers Ati proprio non mi trovo, poi per carità gran scheda la 5870, spero che Fermi sia ancora superiore :cool:

Foglia Morta
15-03-2010, 18:15
http://www.brightsideofnews.com/news/2010/3/15/geforce-gtx-480-has-480-cores2c-aibs-confirm.aspx

Dice che gli AIB hanno confermato 480 sp e solo le Tesla e le Quadro avranno 512 sp

Andrea deluxe
15-03-2010, 18:18
http://www.brightsideofnews.com/news/2010/3/15/geforce-gtx-480-has-480-cores2c-aibs-confirm.aspx

Dice che gli AIB hanno confermato 480 sp e solo le Tesla e le Quadro avranno 512 sp

http://91.121.132.199/gifs/885.gif

Bramino
15-03-2010, 18:19
http://www.brightsideofnews.com/news/2010/3/15/geforce-gtx-480-has-480-cores2c-aibs-confirm.aspx

Dice che gli AIB hanno confermato 480 sp e solo le Tesla e le Quadro avranno 512 sp

Ciò significa purtroppo resa bassissima sui 512 sp con l'attuale processo a 40 nm e revisione A3 della gpu. :(

Si spera che l'eventuale futuro step B1 e affinamenti del processo di fotolitografia a 40 nm possano far uscire una gpu a 512 sp anche per il mercato consumer; magari per Natale 2010.