View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
aaasssdddfffggg
15-01-2010, 17:00
Easily beyond the HD 5870
GF 100 實際效能表現,備受業界及用家關注。 GF 100 actual performance, highly concerned about the industry and users. 消息指,單核版本、擁有 448 CUDA Core 的 GF 100 顯示卡,3D 效能將輕易超越同級對手即 Ati Radeon HD 5870,在主流遊戲如:Crysis Warhead、Far Cry 2、 HAWX 及 Fallout 3,GF 100 的效能分別為 HD 5870的 1.6倍、1.2倍、1.55倍及1.2倍。 Sources indicated that single-core version, with 448 CUDA Core of the GF 100 graphics card, 3D performance will easily exceed that same level opponents Ati Radeon HD 5870, in the mainstream games, such as: Crysis Warhead, Far Cry 2, HAWX, and Fallout 3, GF 100's performance of HD 5870, respectively 1.6 times, 1.2 times, 1.55 times and 1.2 times.
http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F10903044.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
se fosse vero la prendo appena esce :asd:
:Prrr: Forza che qui si deve upgradare!:D
"NVIDIA also has plans to launch limited edition GF 100 GX2 dual-core models"
:Prrr: Forza che qui si deve upgrare!:D
se andrà bene si farà l'alienata :D
:Prrr: Forza che qui si deve upgrare!:D
Qualcuno traudce please?
aaasssdddfffggg
15-01-2010, 17:02
se andrà bene si farà l'alienata :D
non sottovalutate il lato oscuro della Forza...:cool:
aaasssdddfffggg
15-01-2010, 17:04
Se leggi bene la differenza massima tra GF100 e 5870 è 0,05 :D
io miro alla dual.Ormai è deciso (sempre se le prestazioni saranno degne di nota).Mi tocca aspettare di più ma non ho alcun problema.:)
non sottovalutate il lato oscuro della Forza...:cool:
:fagiano: :sborone:
aaasssdddfffggg
15-01-2010, 17:05
Qualcuno traudce please?
editato.;)
448 CUDA Core 的 GF 100
questi numeri mi sembrano strani... ma le hanno castrate veramente??
Qualcuno traudce please?
rispetto alla 5870 leggendo li...
Crysis Warhead 60% + veloce
Far Cry 2 20% + veloce
HAWX 55% + veloce
Fallout 3 20% + veloce
tutto questo --se quella notizia non è una sola ;)-- e non si capisce se parla di un modello a 448 shader o di quello a 512 :boh:
Qualcuno traudce please?
In soldoni Crysis Warhead + 60%, Far Cry 2 + 20%, HAWX +55% e Fallout 3 +20% sulla 5870. I numeri sembrano ottimi ma sono controcorrente rispetto alla numeroso dichiarazioni di testate giornalistiche che hanno un'attendibilità di fatto.
Cmq l'attendibilità dell'utente quale è?
edit: Fake assoluto: 448 shader se avessero dato questo risultato, al CES l'avremmo visto tutti indirette e nn avrebbero detto di andare a cercarsele le VGA
da notare che la percentuale di farcry quasi torna :fagiano:
rispetto alla 5870 leggendo li...
Crysis Warhead 60% + veloce
Far Cry 2 20% + veloce
HAWX 55% + veloce
Fallout 3 20% + veloce
tutto questo --se quella notizia non è una sola ;)-- e non si capisce se parla di un modello a 448 shader o di quello a 512 :boh:
su farcry coinciderebbe con i precedenti video.
edit, mi hai preceduto :D
su farcry coinciderebbe con i precedenti video.
e già
resta da capire a questo punto se il video che abbiamo visto girava su una versione castrata a 448 shader :boh:
caurusapulus
15-01-2010, 17:12
da notare che la percentuale di farcry quasi torna :fagiano:
in effetti... :mc:
Andrea deluxe
15-01-2010, 17:14
[img]http://www.framebuffer.com.br/sites/default/files/u535/GF100_FC2_.jpg[img]
a questo punto sempre se quella notizia è affidabile
GTX360 = 448 shader
GTX380 = 512 shader
:fagiano:
[img]http://www.framebuffer.com.br/sites/default/files/u535/GF100_FC2_.jpg[img]
Bho rimango convito che se nvidia avesse queste prestazioni l'avrebbe sbandierato ai 4 venti molte tempo fa. Cmq se così fosse meglio i prezzi si abbassano per tutti :D
ps: cmq nn tutti i valori sono in ultra high, magari tu che hai una 5870 fai il confronto con quelli che leggi e per l'AF prova con e senza ;)
GIAMPI87
15-01-2010, 17:19
Qualche video:
http://vimeo.com/8754848
http://vimeo.com/8754676
http://vimeo.com/8754728
http://vimeo.com/8754813
http://vimeo.com/8754874
Scusate ragazzi ma solo io non riesco a vedere i video, mi dice "sorry, questo è un video privato e non mi fa vedere una mazza" :muro:
Voi come avete fatto... ???
:confused: :confused: :confused:
ps: cmq nn tutti i valori sono in ultra high, magari tu che hai una 5870 fai il confronto con quelli che leggi e per l'AF prova con e senza ;)
è full ultra high.
altrimenti su overall quality non ci sarebbe scritto Ultra High
Bho rimango convito che se nvidia avesse queste prestazioni l'avrebbe sbandierato ai 4 venti molte tempo fa. Cmq se così fosse meglio i prezzi si abbassano per tutti :D
ps: cmq nn tutti i valori sono in ultra high, magari tu che hai una 5870 fai il confronto con quelli che leggi e per l'AF prova con e senza ;)
ah qualcun altro l ha notato allora..
edit: ah ok allora quello è il massimo per quei valori
sertopica
15-01-2010, 17:22
Qualche video:
http://vimeo.com/8754848
http://vimeo.com/8754676
http://vimeo.com/8754728
http://vimeo.com/8754813
http://vimeo.com/8754874
Ehm, come faccio a vederli? Mi dice che sono video privati... :confused:
EDIT: vedo che più sopra c'è chi ha il mio stesso problema :asd:
Scusate ragazzi ma solo io non riesco a vedere i video, mi dice "sorry, questo è un video privato e non mi fa vedere una mazza" :muro:
Voi come avete fatto... ???
:confused: :confused: :confused:
anche a me... li hanno tolti evidentemente
Andrea deluxe
15-01-2010, 17:23
Ehm, come faccio a vederli? Mi dice che sono video privati... :confused:
lo son diventati poco fa.
cmq un utente su xs sta uplodando almeno 3 di quelli su youtube.....
aaasssdddfffggg
15-01-2010, 17:24
Comunque credo che già da inizio febbraio dovrebbe venir fuori tutto.Ci dovremmo essere ormai per bench e slides attendibili....
è full ultra high.
altrimenti su overall quality non ci sarebbe scritto Ultra High
Nn per fare il pignolo ma io nn lo vedo.... :cry:
Greifi Grishnackh
15-01-2010, 17:25
dopo una settimana buia si intravede una vena ottimistica :)
son contento....speriamo bene nei prezzi.
in ogni caso si sta muovendo qualcosa...quindi chi affermava che si dovesse vedere qualcosa tra il 12 e il 14 con possibili dati ufficiali il 18 (lunedi) era attendibile.
aspettiamo tutti i riscontri del caso e incrociamo le dita ;)
GIAMPI87
15-01-2010, 17:25
lo son diventati poco fa.
cmq un utente su xs sta uplodando almeno 3 di quelli su youtube.....
Grazie Andrea, allora appena ci sono i link, puoi postarli qui, sono molto curioso di vedere questa scheda in azione :sofico:
sertopica
15-01-2010, 17:25
lo son diventati poco fa.
cmq un utente su xs sta uplodando almeno 3 di quelli su youtube.....
Azz... Pazienterò allora, grazie.
Cosa fanno vedere comunque? :D
Andrea deluxe
15-01-2010, 17:26
http://img204.imageshack.us/img204/2563/copyofruko.png
http://img97.imageshack.us/img97/8383/ruko.png
aaasssdddfffggg
15-01-2010, 17:27
Grazie Andrea, allora appena ci sono i link, puoi postarli qui, sono molto curioso di vedere questa scheda in azione :sofico:
Il video del Tessellatore applicato sull'acqua è spettacolare.Molto fluido direi.Speriamo che ci sia di nuovo in uno di quei tre.Vorrei rivederlo.
http://img204.imageshack.us/img204/2563/copyofruko.png
è vero nn c è scritto overall quality:ultra high...
questo è il test del gt200, probabilmente una 275
è vero nn c è scritto overall quality:ultra high...
come no? ;)
sertopica
15-01-2010, 17:29
è vero nn c è scritto overall quality:ultra high...
Come no? :stordita:
EDIT: :asd:
Andrea deluxe
15-01-2010, 17:29
questo è il test del gt200, probabilmente una 275
ho aggiunto l'altra...
come no? ;)
ahahah l ho notato ora... mi sono perso nelle scritte oblique :fagiano:
mister-x
15-01-2010, 17:30
ps: cmq nn tutti i valori sono in ultra high, magari tu che hai una 5870 fai il confronto con quelli che leggi e per l'AF prova con e senza ;)
Quoto, qualcuno con hd5870 può fare la prova con quelle impostazioni?
Grazie mille!
ho aggiunto l'altra...
si l'ho visto ora... :fagiano:
sertopica
15-01-2010, 17:31
Il video del Tessellatore applicato sull'acqua è spettacolare.Molto fluido direi.Speriamo che ci sia di nuovo in uno di quei tre.Vorrei rivederlo.
Caspita, peccato siano spariti, qua tocca stare a premere F5 ogni due minuti! :D
Walrus74
15-01-2010, 17:31
Comunque non so se l'avevate notato ma l'articolo sul forum cinese linkato prima che dava 448 cuda core e performances di 1,6 sulla 5870 in crysis sembra datato 01/01/2010...
Mi fido molto di più dei filmati che sono veramente spettacolari...soprattutto quello dei capelli!
Roba da rimanere così: :sbavvv:
Oramai la mia espressione facciale (in attesa della 380) sta assumendo le sembianze di questa gif -> http://www1.pconline.com.cn/itbbs/080506/old/emot/em201.gif
sertopica
15-01-2010, 17:32
Cioè, cosa mostra? :fagiano:
Guardate questo test della 5870 con i nuovi catalyst 9.12: http://www.tweaktown.com/articles/3074/ati_catalyst_9_12_windows_7_driver_analysis/index5.html
High-end models will deploy the full array of 16 Cluster A total of 512 CUDA Core computing unit, to support 384-bit GDDR5 memory body structure, body has a memory capacity of 1.5GB.Fermi 40nm 250W / 300W PCI-E 6-pin + PCI-E 8-pin Although the Fermi core has adopted 40nm manufacturing process, provided that such cards power up to 250W to 300W, and called for PCI-E 6-pin + PCI-E 8-pin power supply. 2 Cluster 1 448 CUDA Core 320-bit GDDR5 1.28GB 225W PCI-E 6-pin A second level model will take away the two Cluster group memory array and a body controller, which fell to 448 CUDA Core and 320-bit GDDR5, memory body with a total capacity of 1.28GB, power consumption is reduced to 225W, and only need two PCI-E 6-pin power supply.
Guardate questo test della 5870 con i nuovi catalyst 9.12: http://www.tweaktown.com/articles/3074/ati_catalyst_9_12_windows_7_driver_analysis/index5.html
si ma sono in very high...
si ma sono in very high...
Lo so, non ho trovato di meglio per ora :D
Andrea deluxe
15-01-2010, 17:44
http://www.youtube.com/watch?v=jcXmV5Je_gc
http://www.youtube.com/watch?v=5Juxq2tqHyI
http://www.youtube.com/watch?v=4Ie0t_LkImk
occhio che sono rippati in malomodo da vimeo.....
sertopica
15-01-2010, 17:44
High-end models will deploy the full array of 16 Cluster A total of 512 CUDA Core computing unit, to support 384-bit GDDR5 memory body structure, body has a memory capacity of 1.5GB.Fermi 40nm 250W / 300W PCI-E 6-pin + PCI-E 8-pin Although the Fermi core has adopted 40nm manufacturing process, provided that such cards power up to 250W to 300W, and called for PCI-E 6-pin + PCI-E 8-pin power supply. 2 Cluster 1 448 CUDA Core 320-bit GDDR5 1.28GB 225W PCI-E 6-pin A second level model will take away the two Cluster group memory array and a body controller, which fell to 448 CUDA Core and 320-bit GDDR5, memory body with a total capacity of 1.28GB, power consumption is reduced to 225W, and only need two PCI-E 6-pin power supply.
Quindi, in pratica, una è la "GTX380" e l'altra è la "GTX360"? :fagiano:
Quindi, in pratica, una è la "GTX380" e l'altra è la "GTX360"? :fagiano:
e si... :fagiano: la 360 avrebbe 1280mb di vram e 320bit di bus
PConly92
15-01-2010, 17:50
Guardate questo test della 5870 con i nuovi catalyst 9.12: http://www.tweaktown.com/articles/3074/ati_catalyst_9_12_windows_7_driver_analysis/index5.html
uguali ai risultati della gf100:(
ah edit sono in very high
appleroof
15-01-2010, 17:58
Guardate questo test della 5870 con i nuovi catalyst 9.12: http://www.tweaktown.com/articles/3074/ati_catalyst_9_12_windows_7_driver_analysis/index5.html
uguali ai risultati della gf100:(
ah edit sono in very high
già....ma sopratutto di un'attinenza totale a questo tread...:rolleyes:
sertopica
15-01-2010, 17:59
http://www.youtube.com/watch?v=jcXmV5Je_gc
http://www.youtube.com/watch?v=5Juxq2tqHyI
http://www.youtube.com/watch?v=4Ie0t_LkImk
occhio che sono rippati in malomodo da vimeo.....
Ottimo, grazie!
Manca quello dell'acqua di cui parlava Nemesis Elite e stiamo apposto. :D
Il video dei capelli, beh, impressionante, ma quello del raytracing in tempo reale lo è ancora di più, sebbene non sia ancora fluido.
e si... :fagiano: la 360 avrebbe 1280mb di vram e 320bit di bus
Quindi se fosse vero crollerebbero parecchi falsi miti... :stordita:
già....ma sopratutto di un'attinenza totale a questo tread...:rolleyes:
Era per fare il paragone perchè qualche post fa chiedevano delle recensioni per fare paragoni...
Cmq sulle frequenze ancora non si sa nulla??
no ma nn intendevo quel confronto... se vedi il cross di 5870 va ancora troppo poco in piu...40 percento?? il doppio non lo raggiungerai mai ma un 60/70 percento almeno Hanno bisogno di pesanti ottimizzazioni al crossfire sulla serie 5xxx x me...
se ho detto caxxate o nmeri sparati correggetemi...
Che io sappia mi risulta che il gioco non è molto ottimizatto per il dual gpu... infatti anche la GTX295 non va forte come dovrebbe in quei test...
mister-x
15-01-2010, 18:02
http://www.nexthardware.com/image/oo_60138_export_html_m264f968f.htm
...possono andar bene come paragone?
appleroof
15-01-2010, 18:03
Ottimo, grazie!
Manca quello dell'acqua di cui parlava Nemesis Elite e stiamo apposto. :D
Il video dei capelli, beh, impressionante, ma quello del raytracing in tempo reale lo è ancora di più, sebbene non sia ancora fluido.
Quindi se fosse vero crollerebbero parecchi falsi miti... :stordita:
quoto...impressionante :)
Era per fare il paragone perchè qualche post fa chiedevano delle recensioni per fare paragoni...
cut
ah ok, non avendo seguito ho letto il post fuori contesto ;)
Ma al TDP compreso tra 250 e 300W per la 380 nessuno ci ha fatto caso?? :confused:
ma che importa? nelle schede di questa fascia vado a guardare le prestazioni, altro che TDP...che quello lo guardo nelle schedine per portatili :asd:
sertopica
15-01-2010, 18:10
Ma al TDP compreso tra 250 e 300W per la 380 nessuno ci ha fatto caso?? :confused:
Purtroppo sì... :(
Infatti se si dimostrerà all'altezza punterò sicuramente ad una GTX360 (se così si chiamerà), così come ho fatto con GT200 (ho la 260).
ertruffa
15-01-2010, 18:10
ma il test di fermi con far cry 2 era con af*16 attivo? scusate mo non trovo nei vari post se qualcuno l'ha specificato.penso che sia importante.;)
IlGranTrebeobia
15-01-2010, 18:11
Ma al TDP compreso tra 250 e 300W per la 380 nessuno ci ha fatto caso?? :confused:
Si, non oso pensare la dual :eek:
mister-x
15-01-2010, 18:12
ma il test di fermi con far cry 2 era con af*16 attivo? scusate mo non trovo nei vari post se qualcuno l'ha specificato.penso che sia importante.;)
Non è specificato ma si pensa di no.
sertopica
15-01-2010, 18:12
ma che importa? nelle schede di questa fascia vado a guardare le prestazioni, altro che TDP...che quello lo guardo nelle schedine per portatili :asd:
Beh insomma... Puntare a consumi più contenuti, anche su schede potenti, sarebbe cosa buona e giusta, imo.
Beh insomma... Puntare a consumi più contenuti, anche su schede potenti, sarebbe cosa buona e giusta, imo.
ma, a me frega nulla, basta vada a razzo :D
Greifi Grishnackh
15-01-2010, 18:14
Beh insomma... Puntare a consumi più contenuti, anche su schede potenti, sarebbe cosa buona e giusta, imo.
almeno per quelli in idle ;)
ma che importa? nelle schede di questa fascia vado a guardare le prestazioni, altro che TDP...che quello lo guardo nelle schedine per portatili :asd:
sinceramente nemmeno io ci guardo mai :stordita:
PConly92
15-01-2010, 18:15
ma che importa? nelle schede di questa fascia vado a guardare le prestazioni, altro che TDP...che quello lo guardo nelle schedine per portatili :asd:
neanche che sarà un forno?
secondo me anche se va un 15-20% in più sarà un flop.Non dimenticate le dimensioni del chip (doppie a rv870) e la difficoltà di produrlo...
di sicuro la scheda verrà venduta ad un prezzo troppo alto, si vocifera tra 500-600 euro ed è questo che mi preoccupa, non voglio i prezzi di g80:(
Non è specificato ma si pensa di no.
Concordo...pero la cosa diventa un po meno rosea... perche senza af la 5870 farebbe sui 77fps e la 5970 passa a 113 o giu di li..
il tdp è davvero troppo alto... se davvero sara vicino ai 300 watt e costera 600 euro a sto punto la dual ati è preferibile come soluzione perche sicuramente ora di aprile maggio sara calata di un 50 euro buoni e a 450 credo la si possa poortare a casa... (problemi delle dual compresi xoXD)
ertruffa
15-01-2010, 18:15
Non è specificato ma si pensa di no.
grazie;)
Spiegalo agli ingegneri cui il reparto marketing sta dicendo che entro un mese o due dall'uscita deve uscire anche la versione dual...
quoto.la dual con tdp 500watt:ciapet:
sertopica
15-01-2010, 18:16
ma, a me frega nulla, basta vada a razzo :D
:asd:
Vabbé te stai a fà l'entusiastO! :O :asd:
almeno per quelli in idle ;)
Già. Per quelli in idle non credo ci saranno problemi, basterà implementare il solito calo di frequenze in ambito desktop-navigazione e si sta a posto.
Comunque è vero, la dual quanto succhierà se stanno messi così? :asd:
appleroof
15-01-2010, 18:17
ma, a me frega nulla, basta vada a razzo :D
quoto, in questa fascia il discorso consumi è molto più relativo che in altre...anche perchè credo tutti vorremmo che l'ultima top vada il doppio della precedente consumando la metà, ma così non è mai stato purtroppo :stordita:
ma che importa? nelle schede di questa fascia vado a guardare le prestazioni, altro che TDP...che quello lo guardo nelle schedine per portatili :asd:
Importa eccome invece... la Dual quanto consumerà?? 550W??
Spiegalo agli ingegneri cui il reparto marketing sta dicendo che entro un mese o due dall'uscita deve uscire anche la versione dual...
x la dual non capisco come faranno a farla.
forse prendono 2 360 e diminuiscono di brutto le frequenze? ma basterà? :boh:
quoto, in questa fascia il discorso consumi è molto più relativo che in altre...anche perchè credo tutti vorremmo che l'ultima top vada il doppio della precedente consumando la metà, ma così non è mai stato purtroppo :stordita:
e infatti :D
sertopica
15-01-2010, 18:19
x la dual non capisco come faranno a farla.
forse prendono 2 360 e diminuiscono di brutto le frequenze? ma basterà? :boh:
Direi che intanto è meglio far uscire le single... :stordita:
appleroof
15-01-2010, 18:19
x la dual non capisco come faranno a farla.
forse prendono 2 360 e diminuiscono di brutto le frequenze? ma basterà? :boh:
può essere...un pò come per la gtx295
credo che o non la vedremo molto presto, oppure sarà una soluzione del tipo che indichi, ammesso che quei valori di tdp siano veri
Andrea deluxe
15-01-2010, 18:19
HD
http://www.youtube.com/watch?v=Cbnv_z6VDj8&fmt=18
http://www.youtube.com/watch?v=uEieu-OKVvs&fmt=22
IlGranTrebeobia
15-01-2010, 18:19
A casa mia può fare la differenza tra salto della corrente o no :D
x la dual non capisco come faranno a farla.
forse prendono 2 360 e diminuiscono di brutto le frequenze? ma basterà? :boh:
Che tra l'altro anche quella danno con un consumo di 225W... castrarla tanto da stare sotto i 300W la renderebbe quasi inutile a livello di performance. E tra l'altro a quanto pare faranno il classico panino... :doh:
appleroof
15-01-2010, 18:21
HD
http://www.youtube.com/watch?v=Cbnv_z6VDj8&fmt=18
http://www.youtube.com/watch?v=uEieu-OKVvs&fmt=22
ragazzi, il demo dei capelli è davvero incredibile! Chissà quanto tempo deve passare per vedere effetti del genere nei giochi :eek:
Che tra l'altro anche quella danno con un consumo di 225W... castrarla tanto da stare sotto i 300W la renderebbe quasi inutile a livello di performance. E tra l'altro a quanto pare faranno il classico panino... :doh:
secondo me dipende tutto dalle frequenze...la 360 è data per 225w ma con che frequenze? se le avesse molto alte...allora penso che forse la dual con frequenze abbassate ci potrebbe scappare...ma se già la 360 avrà frequenze basse...allora...allora... :boh:
appleroof
15-01-2010, 18:23
Che tra l'altro anche quella danno con un consumo di 225W... castrarla tanto da stare sotto i 300W la renderebbe quasi inutile a livello di performance. E tra l'altro a quanto pare faranno il classico panino... :doh:
scusa la franchezza...ma chissenefrega: panino, sfilatino di 40cm, quadrata ma triple slot, basta che entri nel case e faccia quello che deve fare :boh:
scusa la franchezza...ma chissenefrega: panino, sfilatino di 40cm, quadrata ma triple slot, basta che entri nel case e faccia quello che deve fare :boh:
quotone :fagiano:
http://www.youtube.com/watch?v=QLu8DyzoVMs
sertopica
15-01-2010, 18:26
ragazzi, il demo dei capelli è davvero incredibile! Chissà quanto tempo deve passare per vedere effetti del genere nei giochi :eek:
Beh, qualcosa del genere (non con quel livello di dettaglio però) l'ho visto in MGS4, vedi i capelli di Naomi Hunter... :D
aaasssdddfffggg
15-01-2010, 18:27
ma, a me frega nulla, basta vada a razzo :D
Si vede che sei un alieno anche te : la pensi esattamente come me.:D
sertopica
15-01-2010, 18:28
http://www.youtube.com/watch?v=QLu8DyzoVMs
Notevole... 140 FpS poi non è cosa da poco.
aaasssdddfffggg
15-01-2010, 18:29
scusa la franchezza...ma chissenefrega: panino, sfilatino di 40cm, quadrata ma triple slot, basta che entri nel case e faccia quello che deve fare :boh:
quoto alla grande.Il panino ben venga se è quello il modo migliore di fare la dual su base Fermi.;)
Si vede che sei un alieno anche te : la pensi esattamente come me.:D
ehehehe.... si, uguale :mano:
Andrea deluxe
15-01-2010, 18:30
quoto alla grande.Il panino ben venga se è quello il modo migliore di fare la dual su base Fermi.;)
[IMG]http://img192.imageshack.us/img192/6129/immaginesd.png[IMG] (http://img192.imageshack.us/i/immaginesd.png/)
aaasssdddfffggg
15-01-2010, 18:31
Notevole... 140 FpS poi non è cosa da poco.
Lo sto rivedendo.Impressionante.:)
Come disse qualcuno qualche pagina fa, ho un improvviso attacco di "perplessevolezza"... a quanto pare anche se vi portano una centrale idro elettrica come vga non v'importa nulla... se le conse continuano così andiamo bene... :doh:
aaasssdddfffggg
15-01-2010, 18:32
Grande Andrea.;)
140 FpS poi non è cosa da poco.
quoto.
Lo sto rivedendo.Impressionante.:)
e si..è fatto in maniera eccezionale!
mister-x
15-01-2010, 18:36
Concordo...pero la cosa diventa un po meno rosea... perche senza af la 5870 farebbe sui 77fps e la 5970 passa a 113 o giu di li..
Sei sicuro?
Quelli di nexthardware sono senza af16x.
aaasssdddfffggg
15-01-2010, 18:37
Come disse qualcuno qualche pagina fa, ho un improvviso attacco di "perplessevolezza"... a quanto pare anche se vi portano una centrale idro elettrica come vga non v'importa nulla... se le conse continuano così andiamo bene... :doh:
in casa mia ,la bolletta dell'enel è l'ultima cosa a cui dò importanza.Se Fermi andrà bene ma consumerà molto io sono sistemato lo stesso e procederò all'upgrade delle VGA.:p
sertopica
15-01-2010, 18:42
Come disse qualcuno qualche pagina fa, ho un improvviso attacco di "perplessevolezza"... a quanto pare anche se vi portano una centrale idro elettrica come vga non v'importa nulla... se le conse continuano così andiamo bene... :doh:
Leggendo le pagine del thread mi rendo conto che cerchi sempre la polemica, in ogni modo: innanzitutto non abbiamo le specifiche definitive, quindi è ancora presto per parlarne, in secondo luogo s'è capito che la cosa ti scoccia, come scoccia anche a me che guardo al risparmio (entro certi limiti). Io direi che una volta detto il concetto ci si può anche fermare. :)
http://www.youtube.com/watch?v=XFgzG9WyGNQ
in casa mia ,la bolletta dell'enel è l'ultima cosa a cui dò importanza.Se Fermi andrà bene ma consumerà molto io sono sistemato lo stesso e procederò all'upgrade delle VGA.:p
Si ma qui parliamo di ottimizzazione del prodotto... del rapporto prezzo/prestazioni... di quanto si è riusciti a far lavorare bene il dissipatore... di quanto si è riusciti ad ottimizzare il riscaldamento della vga. Scusa ma se ci dimentichiamo di questo ci ritroveremo in un futuro dove per far accendere un pc avremo bisogno di un alimentore da 10.000W e dovremo mettere il pc in una cella frigorifera. Sono contrario sinceramente a questa filosofia... avere un prodotto top di gamma vuol dire che deve essere top sotto tutti gli aspetti, non solo nelle performance... e alla fine si fa la somma di tutto. Ovviamente IMHO ;)
Leggendo le pagine del thread mi rendo conto che cerchi sempre la polemica, in ogni modo: innanzitutto non abbiamo le specifiche definitive, quindi è ancora presto per parlarne, in secondo luogo s'è capito che la cosa ti scoccia, come scoccia anche a me che guardo al risparmio (entro certi limiti). Io direi che una volta detto il concetto ci si può anche fermare. :)
Ma quale polemica, il fatto è che vedo sempre noi consumatori messi peggio... cmq la chiudo qui tranquillo ;)
Andrea deluxe
15-01-2010, 18:45
per comparare....
http://images.anandtech.com/graphs/5670_011310215500/21348.png
ertruffa
15-01-2010, 18:50
edit
sertopica
15-01-2010, 18:50
Ma quale polemica, il fatto è che vedo sempre noi consumatori messi peggio... cmq la chiudo qui tranquillo ;)
Lo dico solo per il "quieto vivere" del thread. ;)
Andrea deluxe
15-01-2010, 19:03
http://www.youtube.com/watch?v=W-0iFBiLw_k&feature=player_embedded
Possiamo postare link e bench da ora a domani mattina, ma qualcno di voi ha preso seriamente questi test?
solo per sapere se sono solo io quello che non li sta considerando per nulla!!!:D
Possiamo postare link e bench da ora a domani mattina, ma qualcno di voi ha preso seriamente questi test?
solo per sapere se sono solo io quello che non li sta considerando per nulla!!!:D
C' è un 50% di possibilità che siano reali ed attendibili e un 50% che invece non lo siano. Il test definitivo per quanto mi riguarda non è neanche una recensione, in quanto non ne si trova mai una uguale all' altra, bensì la prova diretta.
Il postare video ha la funzione di condividere i rumors con gli altri. Il ritenerli attendibili è soggettivo.
:)
St. Jimmy
15-01-2010, 19:14
mmmmh...ma ammettiamo che il TDP della 380 sarà davvero fra i 250W e i 300W un alimentatore da 750W può reggere?
magari ad alcuni di voi può sembrare una domanda banale, ma io purtroppo non riesco a regolarmi...anche se onestamente credo non ci siano problemi preferisco sentire l'opinione di chi ne sa di più ed è quindi certo
goldorak
15-01-2010, 19:16
Ma al TDP compreso tra 250 e 300W per la 380 nessuno ci ha fatto caso?? :confused:
Quei valori di TDP decretano la scheda come DOA.
Sono letteralmente fuori dal mondo per una single GPU.
Che nella fascia alta il consumo passi in secondo piano e' cosa assodata, con Fermi invece gli ingegneri se ne sono sbattuti allegramente.
Vediamo se almeno nella fascia media riescono a proporre qualcosa di decente. :sperem:
appleroof
15-01-2010, 19:22
Quei valori di TDP decretano la scheda come DOA.
Sono letteralmente fuori dal mondo per una single GPU.
Che nella fascia alta il consumo passi in secondo piano e' cosa assodata, con Fermi invece gli ingegneri se ne sono sbattuti allegramente.
Vediamo se almeno nella fascia media riescono a proporre qualcosa di decente. :sperem:
bisogna anche vedere le prestazioni reali: se và come una 5970 allora nulla questio, se si colloca a metà strada tra quest'ultima e la 5870, allora uno valuta se il maggior consumo è bilanciato dalle maggiori rese rispetto alle proprie esigenze, se và meno di una 5870 allora il problema non si pone. In tutto questo devi vedere la differenza di prezzo rispetto alle vga Ati che ho citato, per valutare il costo anche in funzione di qualche euro in più di bolletta all'anno
il tutto guarnito dal fattore scimmia/affezione alla marca che potrebbe influire su ragionamenti vari
come vedi, il ragionamento diventa un pochino più complesso di semplicistiche sentenze ;)
p.s.: ovviamente il tutto in attesa di dati definitivi sul TDP.
goldorak
15-01-2010, 19:31
bisogna anche vedere le prestazioni reali: se và come una 5970 allora nulla questio, se si colloca a metà strada tra quest'ultima e la 5870, allora uno valuta se il maggior consumo è bilanciato dalle maggiori rese rispetto alle proprie esigenze, se và meno di una 5870 allora il problema non si pone. In tutto questo devi vedere la differenza di prezzo rispetto alle vga Ati che ho citato, per valutare il costo anche in funzione di qualche euro in più di bolletta all'anno
il tutto guarnito dal fattore scimmia/affezione alla marca che potrebbe influire su ragionamenti vari
come vedi, il ragionamento diventa un pochino più complesso di semplicistiche sentenze ;)
p.s.: ovviamente il tutto in attesa di dati definitivi sul TDP.
Mi spiace Appleroof ma a tutto ce' un limite. Intel investe milioni e milioni di $ per produrre cpu ad alte prestazioni e estremamente efficienti dal lato energetico mentre dall'altra parte Nvidia se ne esce fuori con una gpu che DA SOLA consuma quanto e piu' di tutto il resto di un pc ad alte prestazioni.
Non ci siamo, non ci siamo proprio.
E questo non ha niente a che vedere che essere fanboy Intel/AMD ATI o Nvidia.
Una gpu che ha un tdp da 300W non ha senso di esistere. Caspita Nvidia non si azzarda lontamente a proporre un forno simile nella sua fascia professionale e noi poveri utenti consumer dobbiamo accontentarci di questo forno ? Ma manco per idea. Qui bisogno criticare aspramente la scelta di Nvidia, che uno porti o meno la bandiera verde. Cosi' come si critico' qualche mese fa ATI con la serie 4870/90 che aveva consumi in idle di 90W.
L'essere un prodotto di fascia alta non e' una scusante per usciscerne fuori con questi aborti dal punto di vista energetico.
Gigapixel
15-01-2010, 19:35
mi dispiace deludere qualcuno ma su questo portale con gli ultimi driver ATI a default fa questo risultato.
link completo : http://www.xtremehardware.it/forum/f14/aspettando_fermi-16819/index52.html
questo utente fa 76 di media con la VGA a default
Cmq i risultati aggiornati vedono la 5870 a Far Cry 2 con impostazioni 1920x1200 - AA 4x - AF 16x - Ultra High fare 76 fps di media con frequenze a default e ultimi driver, testato con i7 920 @ 3 Ghz (bench fatto da un amico). Aggiungo che il risultato finale dipende molto dalla cpu...
Gigapixel mi hai anticipato, cmq potresti ridimensionare l'immagine per favore? Grazie ;)
Gigapixel
15-01-2010, 19:40
Cmq i risultati aggiornati vedono la 5870 a Far Cry 2 con impostazioni 1920x1200 - AA 4x - AF 16x - Ultra High fare 76 fps di media con frequenze a default e ultimi driver, testato con i7 920 @ 3 Ghz (bench fatto da un amico). Aggiungo che il risultato finale dipende molto dalla cpu...
si ma considera che Nvidia ha fatto un frames minimo di 65frames quindi che sia superiore è sicuro.
Cmq i risultati aggiornati vedono la 5870 a Far Cry 2 con impostazioni 1920x1200 - AA 4x - AF 16x - Ultra High fare 76 fps di media con frequenze a default e ultimi driver, testato con i7 920 @ 3 Ghz (bench fatto da un amico). Aggiungo che il risultato finale dipende molto dalla cpu...
quindi, con questi dati attuali (finalmente oggi ci smuoviamo un pò con numeri concreti) 76/84= circa il 10%. :muro:
viene da piangere.....anche se fosse il 15% :cry: :incazzed:
se overvoltassimo/cloccassimo la 5870 staremmo pari, e ancora ancora consumerebbe meno la 5870.......
cmq, quoto totalmente goldorack...... liberi di fregarsene, chiariamoci, ognuno fa quel che vuole, ma 250W o oltre per una singola gpu che va il 10-20% in + è obiettivamente un fail, non esiste che per salvare (parzialmnente) la faccia sulle prestazioni se ne spuntino con un microonde. Poi, ripeto, fregarsene dei consumi è un altro paio di maniche.
quindi, con questi dati attuali (finalmente oggi ci smuoviamo un pò con numeri concreti) 76/84= circa il 10%. :muro:
viene da piangere.....anche se fosse il 15% :cry: :incazzed:
se overvoltassimo/cloccassimo la 5870 staremmo pari, e ancora ancora consumerebbe meno la 5870.......
Infatti, se verranno confermati i problemi relativi a consumi e temperature non avrà senso dire che GF100 va di più perchè sarebbe più o meno come una 5870 overcloccata se non peggio.
Fantomatico
15-01-2010, 20:02
per comparare....
http://images.anandtech.com/graphs/5670_011310215500/21348.png
Piccolo OT: interessante sta tabella, non la ricordavo...ma la gts 250 fa tutti quei fps in più rispetta alla 4850 perchè ha 1 gb di memoria, che a quella risoluzione è utile no??
Cicciuzzone
15-01-2010, 20:08
WoW...finalmente si vede qualcosa su fermi.
Bello il video della parrucca....
Pardon, di quale video parli? Non vorrei dover leggere tutti post... :confused:
EDIT: Ok, visti i video. Carina la parrucca e l'acqua. L'auto che aveva di speciale?
Fantomatico
15-01-2010, 20:10
Penso più ad un problema di banda della 4850 a quelle impostazioni :)
Accidenti....ma la banda passante a quanto ammonta sulla gts 250? Chiedo perchè nn trovo una tabella con quell' info...^^
Se è un margine raggiungibile, overclocco a morte la scheda. :sofico: :sofico:
Fantomatico
15-01-2010, 20:14
No mi riferisco al fatto che rispetto alla 4870 come vedi sta molto sotto, quindi probabilmente la 50 soffre proprio la strozzatura delle GDDR3 (la 70 ha le GDDR5).
Ah scusami, avevo capito male...così tanto addirittura? :asd:
Meno male che la uso a 1280 x 1024, sennò mi preoccuperei. :D
Grazie per il chiarimento cmq.
gianni1879
15-01-2010, 20:31
Leggendo le pagine del thread mi rendo conto che cerchi sempre la polemica, in ogni modo: innanzitutto non abbiamo le specifiche definitive, quindi è ancora presto per parlarne, in secondo luogo s'è capito che la cosa ti scoccia, come scoccia anche a me che guardo al risparmio (entro certi limiti). Io direi che una volta detto il concetto ci si può anche fermare. :)
state boni ;)
Vediamo se dobbiamo trovare altri cloni che postano... (non riferito a te ovviamente)
Kharonte85
15-01-2010, 20:46
Qualcosa sta cominciando a uscire, ma allora siamo vicini ad avere delle preview...:D
Riassumendo pare:
GTX 360 448SP TDP 225W
GTX 380 512SP TDP >250W
Se ho capito bene i test di farcry sono fatti con una GTX 360 (non ne sono sicuro) e una gtx 275 (di questo sono praticamente sicuro)
Interrogativi:
- con questi TDP la dual si puo' fare?
- lecito aspettarsi prestazioni molto elevate?
ragazzi, il demo dei capelli è davvero incredibile! Chissà quanto tempo deve passare per vedere effetti del genere nei giochi :eek:
Secondo me parecchio, visto che con i capelli in primo piano (e nient'altro, di fatto, da renderizzare) GF100 fa 26fps (si sente il tizio che lo dice).
Almeno almeno altre 2 generazioni di vga ci sono tutte...
Molto bello, però, mostra che in effetti la rasterizzazione ha ancora molto da dire. :)
Quei valori di TDP decretano la scheda come DOA.
Sono letteralmente fuori dal mondo per una single GPU.
Che nella fascia alta il consumo passi in secondo piano e' cosa assodata, con Fermi invece gli ingegneri se ne sono sbattuti allegramente.
Vediamo se almeno nella fascia media riescono a proporre qualcosa di decente. :sperem:
Non penso questo.
Penso piuttosto che quella fosse l'unica strada percorribile col chippone, e questo probabilmente dà da pensare: il chippone è ancora una scelta valida?
Per il momento, se le performance degli altri bench per i quali non c'è video (ossia quelli con le % più aggressive, se non sbaglio) fossero confermate, nella fascia alta può ancora avere un perchè (ma bisogna giustamente vedere il rapporto vs la HD5970, in termini di perf/watt).
Ma per tutte le altre fasce potrebbe non avere più senso, visto che non puoi servire immediatamente il mercato più in crescita, ossia quello laptop.
La prossima generazione cosa faranno per la fascia alta notebook? GT200 a 32 o a 28nm? G92b a 40nm (cioè un chip shrinkato più volte) in versione mobile a 128SP consuma ancora 60-75W...
Detto questo, direi che imho le performance in FarCry 2 possono essere considerate veritiere e molto valide, seppur con il limite che non sappiamo che cpu avesse (in modo da confrontare in maniera più realistica le schede, visto che con Farcry2, la HD5970 ed un i7 920 solo clockando la cpu da stock a 4GHz si guadagnano 6-8 fps a 1920x1200 AA4x su Ultra High), nè quali siano i clocks della vga stessa, nè quale versione di GF100 sia stata usata (nel video nessuno lo dice, mi pare, sento solo "GF100").
Gli altri bench valgono quanto gli altri visti finora, ossia pochino. :)
Links di quanto dico sul clock della cpu:
Stock -> http://www.ixbt.com/video/itogi-video/1109/itogi-video-fc-wxp-aaa-1920-pcie.html
4GHz -> http://www.nexthardware.com/recensioni/schede-video/271/sapphire-radeon-hd-5970-2-gb-e-crossfirex_9.htm
Kharonte85
15-01-2010, 21:06
Detto questo, direi che imho le performance in FarCry 2 possono essere considerate veritiere e molto valide, seppur con il limite che non sappiamo che cpu avesse (in modo da confrontare in maniera più realistica le schede, visto che con Farcry2, la HD5970 ed un i7 920 solo clockando la cpu da stock a 4GHz si guadagnano 6-8 fps a 1920x1200 AA4x su Ultra High), nè quali siano i clocks della vga stessa, nè quale versione di GF100 sia stata usata (nel video nessuno lo dice, mi pare, sento solo "GF100").
Gli altri bench valgono quanto gli altri visti finora, ossia pochino. :)
Links di quanto dico sul clock della cpu:
Stock -> http://www.ixbt.com/video/itogi-video/1109/itogi-video-fc-wxp-aaa-1920-pcie.html
4GHz -> http://www.nexthardware.com/recensioni/schede-video/271/sapphire-radeon-hd-5970-2-gb-e-crossfirex_9.htm
Edit: ho detto caxxata :stordita:
Secondo me parecchio, visto che con i capelli in primo piano (e nient'altro, di fatto, da renderizzare) GF100 fa 26fps (si sente il tizio che lo dice).
Almeno almeno altre 2 generazioni di vga ci sono tutte...
Molto bello, però, mostra che in effetti la rasterizzazione ha ancora molto da dire. :)
Non penso questo.
Penso piuttosto che quella fosse l'unica strada percorribile col chippone, e questo probabilmente dà da pensare: il chippone è ancora una scelta valida?
Per il momento, se le performance degli altri bench per i quali non c'è video (ossia quelli con le % più aggressive, se non sbaglio) fossero confermate, nella fascia alta può ancora avere un perchè (ma bisogna giustamente vedere il rapporto vs la HD5970, in termini di perf/watt).
Ma per tutte le altre fasce potrebbe non avere più senso, visto che non puoi servire immediatamente il mercato più in crescita, ossia quello laptop.
La prossima generazione cosa faranno per la fascia alta notebook? GT200 a 32 o a 28nm? G92b a 40nm (cioè un chip shrinkato più volte) in versione mobile a 128SP consuma ancora 60-75W...
Detto questo, direi che imho le performance in FarCry 2 possono essere considerate veritiere e molto valide, seppur con il limite che non sappiamo che cpu avesse (in modo da confrontare in maniera più realistica le schede, visto che con Farcry2, la HD5970 ed un i7 920 solo clockando la cpu da stock a 4GHz si guadagnano 6-8 fps a 1920x1200 AA4x su Ultra High), nè quali siano i clocks della vga stessa, nè quale versione di GF100 sia stata usata (nel video nessuno lo dice, mi pare, sento solo "GF100").
Gli altri bench valgono quanto gli altri visti finora, ossia pochino. :)
Links di quanto dico sul clock della cpu:
Stock -> http://www.ixbt.com/video/itogi-video/1109/itogi-video-fc-wxp-aaa-1920-pcie.html
4GHz -> http://www.nexthardware.com/recensioni/schede-video/271/sapphire-radeon-hd-5970-2-gb-e-crossfirex_9.htmTanto per rafforzare la tua tesi :)
http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=2
Aggiungo un altro test che gentilmente mi ha fatto un utente che ringrazio molto, per farvi capire che in quel gioco la CPU cloccata bene regala parecchi frame:
ATI Radeon HD 5850 @ 800-1100mhz
Catalyst 9.12 senza hotfix (impostazioni a default)
Bench con Intel Core i7 920 @ 3,8Ghz
Settings: Demo(Ranch Small), 1920x1080 (60Hz), D3D10, Fixed Time Step(No), Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(None), VSync(No), Overall Quality(Custom), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High), Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High), Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)
Sono i massimi valori impostabili mi sembra
Settings: Demo(Ranch Small), 1920x1080 (60Hz), D3D10, Fixed Time Step(No), Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(4x), VSync(No), Overall Quality(Custom), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High), Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High), Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)
loop1
* Total Frames: 3313, Total Time: 51,01s
* Average Framerate: 64,95
* Max. Framerate: 132,71 (Frame:1, 0,02s)
* Min. Framerate: 48,61 (Frame:2276, 35,55s)
loop2
* Total Frames: 3318, Total Time: 51,00s
* Average Framerate: 65,06
* Max. Framerate: 124,98 (Frame:1, 0,02s)
* Min. Framerate: 49,41 (Frame:2231, 34,58s)
loop3
* Total Frames: 3292, Total Time: 51,00s
* Average Framerate: 64,55
* Max. Framerate: 97,61 (Frame:2, 0,03s)
* Min. Framerate: 45,85 (Frame:2222, 34,76s)
loop media
* Average Framerate: 64,85
* Max. Framerate: 106,32
* Min. Framerate: 48,53
Da notare che è stato fatto con una 5850 che è stata agevolmente overcloccata, e che parliamo di una scheda che costa € 250. Se quei test fossero veri a questo punto mi chiedo come possa avere mercato una vga che (secondo alcuni rumors sempre più ufficiali) ha prestazioni sicuramente superiori ma non abbastanza da giustificare più del doppio del costo rispetto alla vga di casa ATI, per non parlare di altri fattori quali temperatura, consumo, overclock quasi inesistente (sempre stessi rumors).
Specifico che con questo post non intendo fare polemica o altro, ma solamente mettere a confronto le vga che il mercato ci offre e magari anche rendere più chiare le idee a chi è confuso e si appresta a fare un'acquisto del genere.
Tanto per rafforzare la tua tesi :)
http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=2
Già... Pazzesco, vero?
Mi ricordavo di aver notato già tempo fa che le schede di fascia alta odierna sono cpu limited anche a risoluzioni ed impostazioni mostruose. :)
gianni1879
15-01-2010, 21:57
Già... Pazzesco, vero?
Mi ricordavo di aver notato già tempo fa che le schede di fascia alta odierna sono cpu limited anche a risoluzioni ed impostazioni mostruose. :)
la potenza elaborativa delle attuali vga è elevatissima e le cpu se non opportunamente spinte fanno da collo di bottiglia anche a risoluzioni elevate, lo si era già notato nelle vecchie dual.
Aggiungo un altro test che gentilmente mi ha fatto un utente che ringrazio molto, per farvi capire che in quel gioco la CPU cloccata bene regala parecchi frame:
ati 5850 @ 800-1100mhz
Allora catalyst 9.12 senza hotfix.(impostazioni a default)
Bench con i7 920 a 3,8Ghz
Settings: Demo(Ranch Small), 1920x1080 (60Hz), D3D10, Fixed Time Step(No), Disable Artificial Intelligence(No), Full Screen, Anti-Aliasing(None), VSync(No), Overall Quality(Custom), Vegetation(Very High), Shading(Ultra High), Terrain(Ultra High), Geometry(Ultra High), Post FX(High), Texture(Ultra High), Shadow(Ultra High), Ambient(High), Hdr(Yes), Bloom(Yes), Fire(Very High), Physics(Very High), RealTrees(Very High)
SONO I MASSIMI VALORI IMPOSTABILI MI SEMBRA
loop1
* Total Frames: 4101, Total Time: 51,00s
* Average Framerate: 80,41
* Max. Framerate: 133,03 (Frame:0, 0,01s)
* Min. Framerate: 50,23 (Frame:3, 0,08s)
loop2
* Total Frames: 4107, Total Time: 51,00s
* Average Framerate: 80,53
* Max. Framerate: 129,94 (Frame:5, 0,05s)
* Min. Framerate: 64,12 (Frame:1775, 20,93s)
loop3
* Total Frames: 4100, Total Time: 51,01s
* Average Framerate: 80,38
* Max. Framerate: 134,19 (Frame:0, 0,01s)
* Min. Framerate: 63,91 (Frame:1765, 20,84s)
loop media
* Average Framerate: 80,44
* Max. Framerate: 132,13
* Min. Framerate: 64,78
Da notare che è stato fatto con una 5850 che è stata agevolmente overcloccata, e che parliamo di una scheda che costa € 250. Se quei test fossero veri a questo punto mi chiedo come possa avere mercato una vga che (secondo alcuni rumors sempre più ufficiali) ha prestazioni pressocchè simili ma costerebbe più del doppio, per non parlare di altri fattori (sempre stessi rumors).
Specifico che con questo post non intendo fare polemica o altro, ma solamente mettere a confronto le vga che il mercato ci offre e magari anche rendere più chiare le idee a chi si appresta a fare un'acquisto del genere.
Il test che hai postato non ha l'AA. Nel caso della GF100 c'è l'AA 4x attivo.
Direi che questo test è molto più indicativo:
http://www.xtremehardware.it/forum/f14/aspettando_fermi-16819/index52.html
76 fps a stock con cpu overclockata ad un livello elementare. Con un i7 spinto a 3,6-4GHz si guadagnerebbe parecchio... arrivando a performance pressochè identiche al GF100 mostrato.
Il tutto con consumi nettamente più bassi, probabilmente (ed ancora lo spazio per prendere qualche frame con l'OC della gpu).
Piccola nota: il consumo conta eccome, visto che all'epoca di R600 una 8800 GTS 640MB era più conveniente perchè andava pressochè uguale ad una HD2900XT, ma consumava e scaldava decisamente meno.
E ricordo benissimo che c'era parecchia gente che si lamentava all'epoca di questo. Giustamente, aggiungerei. Quindi se qualcuno facesse lo stesso ragionamento per Fermi (qualora ce ne fossero le condizioni), non mi parrebbe affatto strano, tutt'altro. :)
Il test che hai postato non ha l'AA. Nel caso della GF100 c'è l'AA 4x attivo.
Direi che questo test è molto più indicativo:
http://www.xtremehardware.it/forum/f14/aspettando_fermi-16819/index52.html
76 fps a stock con cpu overclockata ad un livello elementare. Con un i7 spinto a 3,6-4GHz si guadagnerebbe parecchio... arrivando a performance pressochè identiche al GF100 mostrato.
Il tutto con consumi nettamente più bassi, probabilmente (ed ancora lo spazio per prendere qualche frame con l'OC della gpu).
Piccola nota: il consumo conta eccome, visto che all'epoca di R600 una 8800 GTS 640MB era più conveniente perchè andava pressochè uguale ad una HD2900XT, ma consumava e scaldava decisamente meno.
E ricordo benissimo che c'era parecchia gente che si lamentava all'epoca di questo. Giustamente, aggiungerei. Quindi se qualcuno facesse lo stesso ragionamento per Fermi (qualora ce ne fossero le condizioni), non mi parrebbe affatto strano, tutt'altro. :)
Ops!! Grazie per avermelo fatto notate, ne faccio fare subito un'altro con AA 4x!!
Cmq anche così quel test fa capire parecchie cose ;)
Il test che hai postato non ha l'AA. Nel caso della GF100 c'è l'AA 4x attivo.
Direi che questo test è molto più indicativo:
http://www.xtremehardware.it/forum/f14/aspettando_fermi-16819/index52.html
76 fps a stock con cpu overclockata ad un livello elementare. Con un i7 spinto a 3,6-4GHz si guadagnerebbe parecchio... arrivando a performance pressochè identiche al GF100 mostrato.
Il tutto con consumi nettamente più bassi, probabilmente (ed ancora lo spazio per prendere qualche frame con l'OC della gpu).
Piccola nota: il consumo conta eccome, visto che all'epoca di R600 una 8800 GTS 640MB era più conveniente perchè andava pressochè uguale ad una HD2900XT, ma consumava e scaldava decisamente meno.
E ricordo benissimo che c'era parecchia gente che si lamentava all'epoca di questo. Giustamente, aggiungerei. Quindi se qualcuno facesse lo stesso ragionamento per Fermi (qualora ce ne fossero le condizioni), non mi parrebbe affatto strano, tutt'altro. :)
Purtroppo quoto alla fine far cry 2 dice tutto e niente. Infatti con i7 cloccati parecchio tipo sui 3.6, 3.8 o 4ghz si recuperano parecchi frame...
Ops!! Grazie per avermelo fatto notate, ne faccio fare subito un'altro con AA 4x!!
Cmq anche così quel test fa capire parecchie cose ;)
Sicuramente se alla fine il guadagno sulla 5870 sarà di uno scarso 20% con consumi decisamente superiori moltissimi utenti saranno insoddisfatti oltre che nessuno sta tenendo conto della 5890 e della politica di prezzi che attuerà sicuramente Nvidia (certo se fermi uscisse a 600€ con un +20% credo che ATI li ritoccherà con un + qualcosa :asd:)
Sicuramente se alla fine il guadagno sulla 5870 sarà di uno scarso 20% con consumi decisamente superiori moltissimi utenti saranno insoddisfatti oltre che nessuno sta tenendo conto della 5890 e della politica di prezzi che attuerà sicuramente Nvidia (certo se fermi uscisse a 600€ con un +20% credo che ATI li ritoccherà con un + qualcosa :asd:)
bisogna vedere con che sistema abbiano fatto il benchmark e con che scheda video certo che un +20% sulla ati sarebbe bassino per la gtx380 se si tratta effettivamente di quest'ultima....
aaasssdddfffggg
15-01-2010, 22:26
edit
goldorak
15-01-2010, 22:32
E ricordo benissimo che c'era parecchia gente che si lamentava all'epoca di questo. Giustamente, aggiungerei. Quindi se qualcuno facesse lo stesso ragionamento per Fermi (qualora ce ne fossero le condizioni), non mi parrebbe affatto strano, tutt'altro. :)
Meglio non fare nomi. :asd:
Ad ogni modo hai ragione, allora come adesso ha senso eccome criticare gpu dal consumo esagerato sopratutto se le prestazioni sono in linea con quelle della concorrenza il cui consumo pero' e' di gran lunga inferiore.
bisogna vedere con che sistema abbiano fatto il benchmark e con che scheda video certo che un +20% sulla ati sarebbe bassino per la gtx380 se si tratta effettivamente di quest'ultima....
Quasi la totalità del thread aveva detto prima del CES che Fermi in versione 512 sp avrebbe dovuto avere almeno un margine sulla 5870 del 30% per due motivi
1) minore sarebbe stato ingiustificato dal ritardo
2) 5890
Se ripeto se Nvidia nn è riuscita ad avere un Fermi dal +30% medio sulla 5870 allora per quanto mi rigurda è un insuccesso se poi aggiungiamo consumi, dubbie capacità di oc, temperatura e giusto per finire 5890 c'è davvero da sperare che i 28 nm arrivino il prima possibile per nvidia
Meglio non fare nomi. :asd:
Ad ogni modo hai ragione, allora come adesso ha senso eccome criticare gpu dal consumo esagerato sopratutto se le prestazioni sono in linea con quelle della concorrenza il cui consumo pero' e' di gran lunga inferiore.
Quoto
Comunque ragazzi...quei test valgono meno di zero....ci sono troppe variabili...
Bisogna aspettare test decisamente più seri.:)
Una cosa non capisco...come mai dai grafici postati in precedenza la HD5970 con le stesse impostazioni fa 92 Frame?.....
http://www.xtremeshack.com/immagine/t42599_1.jpg (http://www.xtremeshack.com/scheda/42599_1.jpg.html)
C'è veramente differenza....
appleroof
15-01-2010, 22:48
Mi spiace Appleroof ma a tutto ce' un limite. Intel investe milioni e milioni di $ per produrre cpu ad alte prestazioni e estremamente efficienti dal lato energetico mentre dall'altra parte Nvidia se ne esce fuori con una gpu che DA SOLA consuma quanto e piu' di tutto il resto di un pc ad alte prestazioni.
Non ci siamo, non ci siamo proprio.
E questo non ha niente a che vedere che essere fanboy Intel/AMD ATI o Nvidia.
Una gpu che ha un tdp da 300W non ha senso di esistere. Caspita Nvidia non si azzarda lontamente a proporre un forno simile nella sua fascia professionale e noi poveri utenti consumer dobbiamo accontentarci di questo forno ? Ma manco per idea. Qui bisogno criticare aspramente la scelta di Nvidia, che uno porti o meno la bandiera verde. Cosi' come si critico' qualche mese fa ATI con la serie 4870/90 che aveva consumi in idle di 90W.
L'essere un prodotto di fascia alta non e' una scusante per usciscerne fuori con questi aborti dal punto di vista energetico.
Goldorak su, ma proprio non ci riesci? La 5970 quanto ha di tdp? Ti aiuto io: 300w http://www.amd.com/it/products/desktop/graphics/ati-radeon-hd-5000/hd-5970/Pages/ati-radeon-hd-5970-specifications.aspx
Non mi dirai che non è di fascia alta o chissà quale altro ragionamento "difensivo"? Li non si critica, nonostante tu non porti la bandiera rossa :nonio:
questo se mi parli esclusivamente di tdp, io cercavo di fare un ragionamento più complesso, ma vedo che non cogli come al solito e ti poni con i soliti toni polemici.
Occorre vedere quanto andrà Fermi ed il vero tdp, poi avrai tempo di strapparti i capelli o meno ;)
Occhio che la GTX295 parte da chip che alla massima espressione (GTX285) hanno un TDP di 204W ma che sono stati castrati pesantemente in termini di frequenze per riuscire a stare in coppia su una sola scheda. Qui si partirebbe già da molto sopra in TDP, e 225W per quella già castrata. Il rischio è di doverla castrare così tanto da andare quanto la single top...
ma infatti se Fermi in versione "spinta" avesse davvero un tdp da 300w, non credo riuscirebbero a fare la dual, ma come dicevo quotanto Persa prima, probabilmente non vedremmo subito la dual
Secondo me parecchio, visto che con i capelli in primo piano (e nient'altro, di fatto, da renderizzare) GF100 fa 26fps (si sente il tizio che lo dice).
Almeno almeno altre 2 generazioni di vga ci sono tutte...
Molto bello, però, mostra che in effetti la rasterizzazione ha ancora molto da dire. :)
si, credo anche io almeno due
Non penso questo.
Penso piuttosto che quella fosse l'unica strada percorribile col chippone, e questo probabilmente dà da pensare: il chippone è ancora una scelta valida?
Per il momento, se le performance degli altri bench per i quali non c'è video (ossia quelli con le % più aggressive, se non sbaglio) fossero confermate, nella fascia alta può ancora avere un perchè (ma bisogna giustamente vedere il rapporto vs la HD5970, in termini di perf/watt).
Ma per tutte le altre fasce potrebbe non avere più senso, visto che non puoi servire immediatamente il mercato più in crescita, ossia quello laptop.
La prossima generazione cosa faranno per la fascia alta notebook? GT200 a 32 o a 28nm? G92b a 40nm (cioè un chip shrinkato più volte) in versione mobile a 128SP consuma ancora 60-75W...
cut
credo che il chippone abbia smesso di dimostrare di essere una scelta valida da g200, per le ragioni che dici e che per quanto mi riguarda ripeto da settimane qui: non è tanto o non solo la top il problema di Nvidia, ma sopratutto il non poterne ricavare chip per la fascia media e bassa e per il mercato mobile (a meno di conigli dal cappello)
Goldorak su, ma proprio non ci riesci? La 5970 quanto ha di tdp? Ti aiuto io: 300w http://www.amd.com/it/products/desktop/graphics/ati-radeon-hd-5000/hd-5970/Pages/ati-radeon-hd-5970-specifications.aspx
Non mi dirai che non è di fascia alta o chissà quale altro ragionamento "difensivo"? Li non si critica, nonostante tu non porti la bandiera rossa :nonio:
questo se mi parli esclusivamente di tdp, io cercavo di fare un ragionamento più complesso, ma vedo che non cogli come al solito e ti poni con i soliti toni polemici.
cut
Veramente più che il ragionamento suo "rosso", mi sembra che il tuo sia unilaterale. Non hai considerato che la 5970 ha quel TDP ma con la "piccola" differenza che monta due GPU? Allora non hai considerato nemmeno che la diretta rivale della 380 non è la 5970 che sembra essere irraggiungibile, ma la 5870 che consuma molto di meno.
Questo sempre a fronte dei rumors, niente di ufficiale.
p.s: io cmq non vedo alcun tono polemico ;)
appleroof
15-01-2010, 23:03
Veramente più che il ragionamento suo "rosso", mi sembra che il tuo sia unilaterale. Non hai considerato che la 5970 ha quel TDP ma con la differenza che monta due GPU? Allora non hai considerato nemmeno che la diretta rivale della 380 non è la 5970 che sembra essere irraggiungibile, ma la 5870 che consuma molto di meno.
Questo sempre a fronte dei rumors, niente di ufficiale.
quello che contesto a Goldorak è la filippica contro Nvidia che alla faccia di noi "poveri utenti" (lì in effetti mi stavo commuovendo) sforna schede top da 300 (ancora ipotetici, mi pare) watt. A questa considerazione secca (e faziosa, per i motivi che ho detto e qui ripeto) rispondevo facendo notare che anche Ati ha sfornato una scheda da 300W: il fatto che l'abbia fatto con 2 chip piuttosto che con uno non cambia nulla in sostanza, perchè appunto parliamo di schede di fascia alta (ma li leggete i post, o quotate e rispondete solo, diciamo così, "d'istinto"?)
a meno che mi venite a dire che la 5970 non è di fascia alta
dimmi cos'è che non ti torna di questo ragionamento.
Questo parlando del fatto che le aziende sfornano schede che consumano molto; se poi spostiamo il discorso più in profondità e cominciamo a parlare di performance/watt ecc ecc allora potremo fare discorsi a mio modesto avviso anche più interessanti, ma che cmq senza dati certi sono ancora una volta destinati ad essere fini a se stessi.
quello che contesto a Goldorak è la filippica contro Nvidia che alla faccia di noi "poveri utenti" (lì in effetti mi stavo commuovendo) sforna schede top da 300 (ancora ipotetici, mi pare) watt. A questa considerazione secca (e faziosa, per i motivi che ho detto e qui ripeto) rispondevo facendo notare che anche Ati ha sfornato una scheda da 300W: il fatto che l'abbia fatto con 2 chip piuttosto che con uno non cambia nulla in sostanza, perchè appunto parliamo di schede di fascia alta (ma li leggete i post, o quotate e rispondete solo, diciamo così, "d'istinto"?)
a meno che mi venite a dire che la 5970 non è di fascia alta
dimmi cos'è che non ti torna di questo ragionamento.
Questo parlando del fatto che le aziende sfornano schede che consumano molto; se poi spostiamo il discorso più in profondità e cominciamo a parlare di performance/watt ecc ecc allora potremo fare discorsi a mio modesto avviso anche più interessanti, ma che cmq senza dati certi sono ancora una volta destinati ad essere fini a se stessi.
Credo che Rsdj volesse sottolineare il fatto che cmq la 5970 è una dual-GPU mentre Fermi è cmq un single e da quello che si è visto fin'ora la 5970 se la sogna veramente molto, credo (riferito a Rsdj nn alle prestazioni)
quello che contesto a Goldorak è la filippica contro Nvidia che alla faccia di noi "poveri utenti" (lì in effetti mi stavo commuovendo) sforna schede top da 300 (ancora ipotetici, mi pare) watt. A questa considerazione secca (e faziosa, per i motivi che ho detto e qui ripeto) rispondevo facendo notare che anche Ati ha sfornato una scheda da 300W: il fatto che l'abbia fatto con 2 chip piuttosto che con uno non cambia nulla in sostanza, perchè appunto parliamo di schede di fascia alta (ma li leggete i post, o quotate e rispondete solo, diciamo così, "d'istinto"?)
a meno che mi venite a dire che la 5970 non è di fascia alta
dimmi cos'è che non ti torna di questo ragionamento.
Questo parlando del fatto che le aziende sfornano schede che consumano molto; se poi spostiamo il discorso più in profondità e cominciamo a parlare di performance/watt ecc ecc allora potremo fare discorsi a mio modesto avviso anche più interessanti, ma che cmq senza dati certi sono ancora una volta destinati ad essere fini a se stessi.
Infatti a me pare, sempre dai stessi rumors, che la 5970 vada più forte di GF100... quindi il consumo è giustificato in quel caso. Aggiungo che gli altri utenti si riferivano al fatto che considerando il bench (Far Cry 2), rumors o no che sia, pare evidente che un TDP così elevato possa essere giustificato da performance altrettanto elevate, in quanto GF100 non riuscirebbe (sempre secondo i rumors) a stassare nettamente la 5870.
Credo che Rsdj volesse sottolineare il fatto che cmq la 5970 è una dual-GPU mentre Fermi è cmq un single e da quello che si è visto fin'ora la 5970 se la sogna veramente molto, credo (riferito a Rsdj nn alle prestazioni)
Già ;)
goldorak
15-01-2010, 23:20
Appleroof ma proprio non riesci a leggere quello che scrivo eh ? :muro: :muro:
Ho criticato la versione SINGLE GPU. E chiaro ?
Le dual per me sono esercizi di stile che non mi interessano.
Ma quando una versione SINGLE GPU !!!!!!!!!!! si ritrova con un TDP che sfiora i 300W scusa tanto ma e' un esagerazione che si tratti di Nvidia o di ATI.
E per inciso, quando uscirono le 4870/4850 fui tra i detrattori proprio per il consumo esagerato che avevano in idle. Quindi come vedi caro zombie ambulante, io non pateggio per nessuno ne' ATI ne' Nvidia. A me interessano schede che vanno forte e consumano normalmente.
Ma quando mi ritrovo davanti una scheda che consuma lei da sola quanto e piu' di un pc di fascia alta beh mi girano i cosidetti. Perche' in quest'epoca non si puo' piu' prescindere dal rapporto prestazione/watt. D'altronde se fai attenzione noterai bene come Nvidia eviti accuratamente di proporre questi mostri succhia-elettricita' nelle sue soluzioni professionali. Non te la fa accendere una lampadina questa cosa ? No eh ? Peccato.
appleroof
15-01-2010, 23:21
Credo che Rsdj volesse sottolineare il fatto che cmq la 5970 è una dual-GPU mentre Fermi è cmq un single e da quello che si è visto fin'ora la 5970 se la sogna veramente molto, credo (riferito a Rsdj nn alle prestazioni)
e io credo che rsdj non avesse capito che goldorak parlava di tutt'altro, o almeno dal suo post contro la cattivona Nvidia a tutto faceva riferimento tranne che a dscorsi su performace/watt (poi il suo post è lì, ognuno lo legga e valuti)
Credo che tu non abbia capito che io avevo capito cosa volesse dire rsdj
Questo parlando del fatto che le aziende sfornano schede che consumano molto; se poi spostiamo il discorso più in profondità e cominciamo a parlare di performance/watt ecc ecc allora potremo fare discorsi a mio modesto avviso anche più interessanti, ma che cmq senza dati certi sono ancora una volta destinati ad essere fini a se stessi.
ma poi cos'è, parlate solo in presenza del vostro avvocato? :asd:
appleroof
15-01-2010, 23:23
Appleroof ma proprio non riesci a leggere quello che scrivo eh ? :muro: :muro:
Ho criticato la versione SINGLE GPU. E chiaro ?
Le dual per me sono esercizi di stile che non mi interessano.
Ma quando una versione SINGLE GPU !!!!!!!!!!! si ritrova con un TDP che sfiora i 300W scusa tanto ma e' un esagerazione che si tratti di Nvidia o di ATI.
Goldorak con me non ci riesci :asd: :asd:
il tuo post non fà alcun riferimento a single o doppia gpu, parla di scheda top e punto.
Rispondi secco alla mia domanda allora: se Fermi andasse quanto la 5970 saresti pronto a ritirare quella filippica non-sense?
E per inciso, quando uscirono le 4870/4850 fui tra i detrattori proprio per il consumo esagerato che avevano in idle. Quindi come vedi caro zombie ambulante, io non pateggio per nessuno ne' ATI ne' Nvidia. A me interessano schede che vanno forte e consumano normalmente.
Ma quando mi ritrovo davanti una scheda che consuma lei da sola quanto e piu' di un pc di fascia alta beh mi girano i cosidetti. Perche' in quest'epoca non si puo' piu' prescindere dal rapporto prestazione/watt. D'altronde se fai attenzione noterai bene come Nvidia eviti accuratamente di proporre questi mostri succhia-elettricita' nelle sue soluzioni professionali. Non te la fa accendere una lampadina questa cosa ? No eh ? Pecato.
questo te lo quoto casomai qualche mod decidesse di intervenire, giusto nel caso tu pensassi di editare :)
per il resto ti dico: giudico la situazione attuale di Nvidia disastrosa, lo vengo dicendo da settimane su questo tread, fai una ricerca
quello che non sopporto è l'ipocrisia, tutto qui ;)
p.s.: almeno il tuo avatar cosa sta a significare, invece? :)
Goldorak con me non ci riesci :asd: :asd:
il tuo post non fà alcun riferimento a single o doppia gpu, parla di scheda top e punto.
Rispondi secco alla mia domanda allora: se Fermi andasse quanto la 5970 saresti pronto a ritirare quella filippica non-sense?
Anche se quella domanda non è rivolta a me, posso dirti che se avesse quelle performance sarei il primo a ritirare quanto detto :D
EDIT: va bene tutto, però ragazzi almeno le offese in prima persona cerchiamo di evitarle...
EDIT 2: Appleprof però credo che goldorak non si riferisse a te ma al tuo avatar.
appleroof
15-01-2010, 23:36
Sarebbe un capolavoro.
Certo se la farebbero pagare una cifra allucinante, con un premium pazzesco, quindi sarebbero in pochi a godersi il capolavoro. Non si può avere tutto :D
Ad ogni modo le probabilità che ciò avvenga per quanto mi riguarda sono nulle, ma come si vede dalla nota firma, apprezzo la fantascienza ;)
anche secondo me, era una provocazione diretta a centrare il punto del discorso con goldorak, non a dire che sarà così o meno, capisci? ;)
goldorak
15-01-2010, 23:38
Goldorak con me non ci riesci :asd: :asd:
il tuo post non fà alcun riferimento a single o doppia gpu, parla di scheda top e punto.
Rispondi secco alla mia domanda allora: se Fermi andasse quanto la 5970 saresti pronto a ritirare quella filippica non-sense?
Ma :sbonk: non sai piu' su cosa arrampiccarti.
Da diverse pagine parliamo di GTX 360/380 che sono soluzioni sigle gpu. Non cera modo di fraintendere il mio intervente, ma tu ovviamente l'hai frainteso. Chissa' perche' ?
questo te lo quoto casomai qualche mod decidesse di intervenire, giusto nel caso tu pensassi di editare :)
per il resto ti dico: giudico la situazione attuale di Nvidia disastrosa, lo vengo dicendo da settimane su questo tread, fai una ricerca
quello che non sopporto è l'ipocrisia, tutto qui ;)
Oh manco ti avessi insultanto. :rolleyes:
Il tuo avatar e' o non e' uno zombie ambulante ?
Tu giudichi la situazione attuale di Nvidia disastrosa. Ok.
Io giudico il consumo della single pu GTX 360/380 esagerato e fuori da ogni limite che si tratti o meno di fascia alta.
Io non sono ipocrita, ho sempre criticato le aziende che producevano schede da consumi esagerati sia che trattasse di ATI che di Nvidia. Uno dei motivi per cui non ho comprato una 4870/4850 era il consumo in idle esagerato. E all'epoca una 9800gtx+ consumava in idle meno della meta' di quanto non consumasse una scheda ATI di pari prestazioni.
p.s.: almeno il tuo avatar cosa sta a significare, invece? :)
Cosa dovrebbe significare ? Ho messo in questi anni avatar di goldrake, di paperone che nuota nell'oro e ora un batman che si riferesce ai dissipatori extralunghi delle schede ATI. Dimmi cosa ne desumi da tutto questo ? :fagiano:
appleroof
15-01-2010, 23:42
Certo :mano:
bene, allora sono io che non capisco il tuo intervento :)
Ma :sbonk: non sai piu' su cosa arrampiccarti.
Da diverse pagine parliamo di GTX 360/380 che sono soluzioni sigle gpu. Non cera modo di fraintendere il mio intervente, ma tu ovviamente l'hai frainteso. Chissa' perche' ?
Oh manco ti avessi insultanto. :rolleyes:
Il tuo avatar e' o non e' uno zombie ambulante ?
Tu giudichi la situazione attuale di Nvidia disastrosa. Ok.
Io giudico il consumo della single pu GTX 360/380 esagerato e fuori da ogni limite che si tratti o meno di fascia alta.
Io non sono ipocrita, ho sempre criticato le aziende che producevano schede da consumi esagerati sia che trattasse di ATI che di Nvidia. Uno dei motivi per cui non ho comprato una 4870/4850 era il consumo in idle esagerato. E all'epoca una 9800gtx+ consumava in idle meno della meta' di quanto non consumasse una scheda ATI di pari prestazioni.
Cosa dovrebbe significare ? Ho messo in questi anni avatar di goldrake, di paperone che nuota nell'oro e ora un batman che si riferesce ai dissipatori extralunghi delle schede ATI. Dimmi cosa ne desumi da tutto questo ? :fagiano:
Batman: CrossFire Asylum?
no i dissipatori extralunghi delle schede Ati
:asd: :asd: :asd:
Batman: CrossFire Asylum?E spartan overclocked :stordita:
appleroof
15-01-2010, 23:45
E spartan overclocked :stordita:
vedo che ci siamo tutti :asd: (in effetti non proprio tutti)
ha detto "i dissipatori extralunghi delle schede Ati", se lo dice lui...;)
appleroof
15-01-2010, 23:49
Certo...
Io avevo la Sparta Edition™
Qualcuno aveva la Standard Edition e qualcuno aveva addirittura la PhysX edition. Bei tempi. Poi JHH ha sventolato alla stampa la scheda patacca e la magia si è interrotta perché ho dovuto sostituirla con la "This puppy, here... is Fermi. O'Rly!? Edition™"
Stiamo divagando vero?
:asd:
in realtà stiamo dicendo tutti la stessa cosa, ma divertendoci a dirla in modi diversi :)
sarà l'ora tarda che gioca questi scherzi, cmq si, stiamo divagando meglio chiuderla qui ;)
Quindi come vedi caro zombie ambulante
il fatto che tu ti nasconda dietro al suo avatar imho è anche peggio ad un insulto diretto, almeno uno dimostra carattere (anche se maleducazione), ma almeno si dicono le cose chiaramente.
sospeso 3gg, perchè cmq le furbate danno noia soprattutto se fatte da chi ne fa già troppe.
>bYeZ<
Severnaya
16-01-2010, 02:31
il fatto che tu ti nasconda dietro al suo avatar imho è anche peggio ad un insulto diretto, almeno uno dimostra carattere (anche se maleducazione), ma almeno si dicono le cose chiaramente.
sospeso 3gg, perchè cmq le furbate danno noia soprattutto se fatte da chi ne fa già troppe.
>bYeZ<
ma che stiamo scherzando? :mbe:
come uno dimostra carattere...? e "perchè cmq le furbate danno noia soprattutto se fatte da chi ne fa già troppe" una perla di sagegzza questo post" :mbe:
ogni sua riga
e io credo che rsdj non avesse capito che goldorak parlava di tutt'altro, o almeno dal suo post contro la cattivona Nvidia a tutto faceva riferimento tranne che a dscorsi su performace/watt (poi il suo post è lì, ognuno lo legga e valuti)
Credo che tu non abbia capito che io avevo capito cosa volesse dire rsdj
ma poi cos'è, parlate solo in presenza del vostro avvocato? :asd:
Mi chiamo fuori da questa guerra :asd: nn ho il tempo materiale per leggere tutti i post e formare un discorso di senso compiuto :sofico:
Batman: CrossFire Asylum?
Era più bella la versione Physx :O
cut
meglio che editi, manda un pvt piuttosto ;) ;)
Qualcosa sta cominciando a uscire, ma allora siamo vicini ad avere delle preview...:D
Riassumendo pare:
GTX 360 448SP TDP 225W
GTX 380 512SP TDP >250W
Se ho capito bene i test di farcry sono fatti con una GTX 360 (non ne sono sicuro) e una gtx 275 (di questo sono praticamente sicuro)
Interrogativi:
- con questi TDP la dual si puo' fare?
basta che fanno una 416 shader x2 = GTX390 con 832shader e frequenze della 360. e non ho dubbi che una scheda così macellerebbe il 380...quindi avrebbe senso ;)
IMHO!!
x la fascia inferiore invece andrebbe fatto un nuovo chip + piccolo, la metà del fermi full con 256shader e bus a 256bit..e di li ci fai derivati meno spinti..
a ri-IMHO
edit:
oppure fanno un altra variante del chip + castrata..., con 416 o 384 shader
gianni1879
16-01-2010, 07:53
@ Severnaya sei sospeso 3gg.
Dovresti leggere il regolamento:
5. Contestazioni
L'operato dei moderatori è insindacabile e può essere giudicato solo dall'Amministratore del forum.
E' comunque permesso chiedere spiegazioni, non utilizzando però lo spazio pubblico del forum. Eventuali contestazioni vanno effettuate via e-mail oppure tramite i messaggi interni (pvt) e comunque in forma privata. Verrà immediatamente chiuso ogni thread avente come oggetto argomenti di contestazione in chiave polemica. Chi dovesse inserire messaggi di contestazione, diretta o indiretta, dell'operato del moderatore vedrà la discussione chiusa e utenza sospesa o bannata, a discrezione del moderatore intervenuto.
Per quale motivo si chiede di esporre le proprie contestazioni in forma privata?
In primo luogo per ordine pubblico: aprire topic dichiaratamente polemici di certo non aiuta a mantenere costruttivo il clima del forum. D'altro canto, nella comunicazione privata tra utente e moderatore-amministratore diviene più semplice poter chiarire le posizioni divergenti e, se possibile, cercare punti d'incontro costruttivi.
Da parte dei moderatori e dell'amministrazione del forum vi è sempre piena disponibilità al dialogo, in forma privata (via mail o messaggi privati) per cercare di appianare possibili rimostranze. Cercare il dialogo è in ogni caso la strada preferibile per appianare discordie o, quantomeno, meglio capire il perché di interventi da parte dei moderatori e/o degli amministratori. Segnaliamo che l'elevato numero di utenti registrati e di messaggi inviati tutti i giorni rende particolarmente esoso, in termini di tempo e risorse, poter dialogare via pvt/mail con tutti gli utenti che si ritengono oggetto di un atteggiamento persecutorio da parte dei moderatori, moderatori che non sono obbligati a dare loro continue risposte a continui pvt trattanti sempre gli stessi argomenti .
Kharonte85
16-01-2010, 09:15
basta che fanno una 416 shader x2 = GTX390 con 832shader e frequenze della 360. e non ho dubbi che una scheda così macellerebbe il 380...quindi avrebbe senso ;)
IMHO!!
x la fascia inferiore invece andrebbe fatto un nuovo chip + piccolo, la metà del fermi full con 256shader e bus a 256bit..e di li ci fai derivati meno spinti..
a ri-IMHO
edit:
oppure fanno un altra variante del chip + castrata..., con 416 o 384 shader
Cala cala, devi scendere ad almeno 150-160w a GPU per poter fare una dual in grado di dissiparla...forse 384SP x 2 con frequenze conservative...
Comunque la cosa non mi quadra del tutto, nel senso che mi pare strano che ci sia una differenza di così pochi SP fra la GTX 380 e la GTX 360, personalmente mi pareva più sensata la differenza di 512 e 384...magari quest'ultima la vedremo lo stesso (GTX 350?)
Cala cala, devi scendere ad almeno 150-160w a GPU per poter fare una dual in grado di dissiparla...forse 384SP x 2 con frequenze conservative...
e allora si, mi sa che al max è fattibile una 384shader x2 :fagiano:
Comunque la cosa non mi quadra del tutto, nel senso che mi pare strano che ci sia una differenza di così pochi SP fra la GTX 380 e la GTX 360, personalmente mi pareva più sensata la differenza di 512 e 384...magari quest'ultima la vedremo lo stesso (GTX 350?)
ma... a me sembra un pò la differenza che c'era tra 260 vs 280-285...
con 2 blocchi di shader disattivati per la prima rispetto alla seconda... e pare così anche adesso...
x la GTX o GTS 350 anche a me viene da pensare ad un modello con 384shader...bo vedremo
aaasssdddfffggg
16-01-2010, 09:26
basta che fanno una 416 shader x2 = GTX390 con 832shader e frequenze della 360. e non ho dubbi che una scheda così macellerebbe il 380...quindi avrebbe senso ;)
IMHO!!
x la fascia inferiore invece andrebbe fatto un nuovo chip + piccolo, la metà del fermi full con 256shader e bus a 256bit..e di li ci fai derivati meno spinti..
a ri-IMHO
edit:
oppure fanno un altra variante del chip + castrata..., con 416 o 384 shader
Stai tranquillo che gli ingengneri NVIDIA sapranno trovare la migliore soluzione possibile per fare la dual gpu su base FERMI e le prestazioni non mancheranno.;)
Stai tranquillo che gli ingengneri NVIDIA sapranno trovare la migliore soluzione possibile per fare la dual gpu su base FERMI e le prestazioni non mancheranno.;)
se hanno detto che la fanno sicuramente si saranno fatti i suoi calcoli x fare una scheda valida :D
aaasssdddfffggg
16-01-2010, 09:29
se hanno detto che la fanno sicuramente si saranno fatti i suoi calcoli x fare una scheda valida :D
...anche perchè ricordiamoci sempre che è NVIDIA l'azienda per cui la leadership prestazionale è un punto fermo da tenere presente per le sue VGA.Se la 380 supererà la 5870 la dualgpu surclasserà la 5970.Stai pur certo di questo.:)
...anche perchè ricordiamoci sempre che è NVIDIA l'azienda per cui la leadership prestazionale è un punto fermo per le sue VGA.Se la 380 supererà la 5870 la dualgpu surclasserà la 5970.:)
io cmq punto alla 380 nemesis edition ;) :asd:
TheDarkAngel
16-01-2010, 09:31
...anche perchè ricordiamoci sempre che è NVIDIA l'azienda per cui la leadership prestazionale è un punto fermo da tenere presente per le sue VGA.Se la 380 supererà la 5870 la dualgpu surclasserà la 5970.Stai pur certo di questo.:)
tra il dire e il fato c'è in mezzo il mare, attualmente hanno ben altre gatte da pelare prima di pensare a un dual efficace
aaasssdddfffggg
16-01-2010, 09:32
io cmq punto alla 380 nemesis edition ;) :asd:
:eek: :asd:
aaasssdddfffggg
16-01-2010, 09:32
tra il dire e il fato c'è in mezzo il mare, attualmente hanno ben altre gatte da pelare prima di pensare a un dual efficace
si,mai stai tranquillo pure te che in casa NVIDIA gli ingegneri sanno cosa fare.Non devono mica entrare in questo Thread per capire cosa devono fare....
Non devono mica entrare in questoThread per capire cosa devono fare....
eheheh... :sofico:
Kharonte85
16-01-2010, 09:33
ma... a me sembra un pò la differenza che c'era tra 260 vs 280-285...
con 2 blocchi di shader disattivati per la prima rispetto alla seconda... e pare così anche adesso...
Solo che in proporzione 448 su 512 (12% circa in meno) differenziano meno le prestazioni che 192 su 240 (20% in meno) mentre se fossero 384 sarebbe il 25% in meno.
Comunque giocando sulle frequenze puo' ottenere cio' che gli pare quindi tutto e niente puo' avere senso :D
x la GTX o GTS 350 anche a me viene da pensare ad un modello con 384shader...bo vedremo
Spero proprio di vederlo così la scelta diventa più ampia (e converrebbe ad nvidia dato che potrebbe utilizzare i chip venuti un po' male)
Spero proprio di vederlo così la scelta diventa più ampia (e converrebbe ad nvidia dato che potrebbe utilizzare i chip venuti un po' male)
infatti!! ;)
gianni1879
16-01-2010, 09:38
...anche perchè ricordiamoci sempre che è NVIDIA l'azienda per cui la leadership prestazionale è un punto fermo da tenere presente per le sue VGA.Se la 380 supererà la 5870 la dualgpu surclasserà la 5970.Stai pur certo di questo.:)
Nvidia non ha sempre tenuto la leadership prestazionale,
dimentichi la possibile revisione delle attuali HD5000, si discute da tempo già di una hd5890, Ati non sta di sicuro 6 mesi a grattarsi senza far nulla nel frattempo.
Nvidia per il momento ha ben altri problemi da risolvere.
aaasssdddfffggg
16-01-2010, 09:39
Nvidia non ha sempre tenuto la leadership prestazionale,
dimentichi la possibile revisione delle attuali HD5000, si discute da tempo già di una hd5890, Ati non sta di sicuro 6 mesi a grattarsi senza far nulla nel frattempo.
Nvidia per il momento ha ben altri problemi da risolvere.
per tirare fuori le sue schede più veloci sul mercato.Aspettiamo qualche mesetto ancora.;)
io cmq vorrei solo capire il test di farcry2 a quale scheda appartiene... :fagiano:
appleroof
16-01-2010, 09:44
Cala cala, devi scendere ad almeno 150-160w a GPU per poter fare una dual in grado di dissiparla...forse 384SP x 2 con frequenze conservative...
Comunque la cosa non mi quadra del tutto, nel senso che mi pare strano che ci sia una differenza di così pochi SP fra la GTX 380 e la GTX 360, personalmente mi pareva più sensata la differenza di 512 e 384...magari quest'ultima la vedremo lo stesso (GTX 350?)
edit: aveva già risposto Persa :p
Kharonte85
16-01-2010, 09:46
Nvidia non ha sempre tenuto la leadership prestazionale,
E' anche vero che da quando ha presentato la prima Gx2 le sue Dual GPU sono state sempre più veloci della controparte alla fine di ogni "ciclo", da G80 in poi la leadership anche sul singolo chip è stata sempre sua, non credo che Nvidia voglia rinunciare a ripetersi anche questa volta (poi che ci riesca o meno si vedrà).
dimentichi la possibile revisione delle attuali HD5000, si discute da tempo già di una hd5890, Ati non sta di sicuro 6 mesi a grattarsi senza far nulla nel frattempo.
Mi aspetto di vedere una versione con frequenze pompate, cosa che ovviamente ridurrà l'eventuale vantaggio di Gf100 ed andrà a favore della maggiore scelta per noi
Nvidia per il momento ha ben altri problemi da risolvere.
Non credo, nel senso che probabilmente la tabella di marcia si è spostata tutta e se esce Gf100 a seguire vedremo il resto (è sempre stato così e così ha fatto anche AMD/ATI).
gianni1879
16-01-2010, 09:48
per tirare fuori le sue schede più veloci sul mercato.Aspettiamo qualche mesetto ancora.;)
state dando per scontato che nvidia tirerà subito una dual, cosa non affatto semplice, state dando per scontato che Ati non farà nulla.
aaasssdddfffggg
16-01-2010, 09:51
state dando per scontato che nvidia tirerà subito una dual, cosa non affatto semplice, state dando per scontato che Ati non farà nulla.
Mai detto questo.Si parla infatti di un paio di mesi dopo il lancio della singola.;)
...ed io aspetto senza fretta alcuna,seduto in riva al mare...:D
gianni1879
16-01-2010, 09:55
E' anche vero che da quando ha presentato la prima Gx2 le sue Dual GPU sono state sempre più veloci della controparte alla fine di ogni "ciclo", da G80 in poi la leadership anche sul singolo chip è stata sempre sua, non credo che Nvidia voglia rinunciare a ripetersi anche questa volta (poi che ci riesca o meno si vedrà).
facevo un discorso generico riferito agli anni passati, poi non è stato sempre così le prime dual gpu non surclassavano le singole avversarie.
Da G80 in poi ha avuto il singolo chip più veloce, ma come appunto sottolineavo nella storia delle due aziende si sono alternate la leadership prestazionale, non è stata sempre una sola azienda a dominare sull'altra.
Mi aspetto di vedere una versione con frequenze pompate, cosa che ovviamente ridurrà l'eventuale vantaggio di Gf100 ed andrà a favore della maggiore scelta per noi
sicuramente, però non è detto che non ci sia una revisione anche del chip, e poi "sicuramente" 6 mesi dopo ci sarà la nuova serie (HD6000).
Non credo, nel senso che probabilmente la tabella di marcia si è spostata tutta e se esce Gf100 a seguire vedremo il resto (è sempre stato così e così ha fatto anche AMD/ATI).
Lo state dando per scontato, quando non è ancora uscita la singola gpu, mai dare per scontato le cose.
Ovviamente si spera che Nvidia possa far uscire dei bei mostriciattoli, l'utente ne beneficerà al massimo.
gianni1879
16-01-2010, 09:56
Mai detto questo.Si parla infatti di un paio di mesi dopo il lancio della singola.;)
...ed io aspetto senza fretta alcuna,seduto in riva al mare...:D
la pazienza è la virtù dei forti. ;)
aaasssdddfffggg
16-01-2010, 09:56
la pazienza è la virtù dei forti. ;)
ben detto Moderatore.;)
la pazienza è la virtù dei forti. ;)
quoto ;)
si,mai stai tranquillo pure te che in casa NVIDIA gli ingegneri sanno cosa fare.Non devono mica entrare in questo Thread per capire cosa devono fare....
La situazione attuale è ben diversa... nVidia sta faticando troppo con Fermi per poter avere carta bianca su una eventuale dual, vedremo cosa esce, se esce ovvio!
AMD dal canto suo ha tirato fuori la sua linea ormai mesi fa, fino ad oggi di certo gli ingegneri non hanno bevuto Martini in rima al mare... ;)
Serio 6xxx ben avviata, refresh serie 5xxx... ;)
A me pare davvero che la leadership prestazionale ora stia molto a cuore ad ATI, chissà xchè ma la vedo così :)
aaasssdddfffggg
16-01-2010, 10:16
Quin potrete avere tutti i video di Fermi mostrati sottomano :
http://www.pantip.com/tech/hardware/topic/HS2872288/HS2872288.html
comunqune il tessellatore applicato sull'acqua è favoloso.;)
aaasssdddfffggg
16-01-2010, 10:17
La situazione attuale è ben diversa... nVidia sta faticando troppo con Fermi per poter avere carta bianca su una eventuale dual, vedremo cosa esce, se esce ovvio!
AMD dal canto suo ha tirato fuori la sua linea ormai mesi fa, fino ad oggi di certo gli ingegneri non hanno bevuto Martini in rima al mare... ;)
Serio 6xxx ben avviata, refresh serie 5xxx... ;)
A me pare davvero che la leadership prestazionale ora stia molto a cuore ad ATI, chissà xchè ma la vedo così :)
è normale che gli sta a cuore ora.....deve ancora uscire Fermi.:p
Quin potrete avere tutti i video di Fermi mostrati sottomano :
http://www.pantip.com/tech/hardware/topic/HS2872288/HS2872288.html
comunqune il tessellatore applicato sull'acqua è favoloso.;)
spero siano vere le voci che il fermi sarebbe particolarmente veloce con il tessellone ;)
se la Ati 6xxx in uscita a ottobre circa sarà superiore a GT300 allora possiamo ipotizzare che GT300 sarà un vero fallimento dal punto di vista commerciale.
Per far uscire GT300 ad aprile almeno si devono assicurare un certo gap prestazionale nei confronti di Ati altrimenti è solo una strategia kamikaze per come la vedo io
aaasssdddfffggg
16-01-2010, 10:20
spero siano vere le voci che il fermi sarebbe particolarmente veloce con il tessellone ;)
Si infatti.
aaasssdddfffggg
16-01-2010, 10:21
se la Ati 6xxx in uscita a ottobre circa sarà superiore a GT300 allora possiamo ipotizzare che GT300 sarà un vero fallimento dal punto di vista commerciale.
Per far uscire GT300 ad aprile almeno si devono assicurare un certo gap prestazionale nei confronti di Ati altrimenti è solo una strategia kamikaze per come la vedo io
la serie 6000 ad ottobre? Dubito che la vedremo prima dell'inizio del 2011.
yossarian
16-01-2010, 10:26
facevo un discorso generico riferito agli anni passati, poi non è stato sempre così le prime dual gpu non surclassavano le singole avversarie.
Da G80 in poi ha avuto il singolo chip più veloce, ma come appunto sottolineavo nella storia delle due aziende si sono alternate la leadership prestazionale, non è stata sempre una sola azienda a dominare sull'altra.
La situazione attuale è ben diversa... nVidia sta faticando troppo con Fermi per poter avere carta bianca su una eventuale dual, vedremo cosa esce, se esce ovvio!
AMD dal canto suo ha tirato fuori la sua linea ormai mesi fa, fino ad oggi di certo gli ingegneri non hanno bevuto Martini in rima al mare... ;)
Serio 6xxx ben avviata, refresh serie 5xxx... ;)
A me pare davvero che la leadership prestazionale ora stia molto a cuore ad ATI, chissà xchè ma la vedo così :)
fino alla serie R5x0 è stato così, infatti anche ATi ha seguito la politica del "chippone". Da R600 in poi le cose sono cambiate; la differenza la fa la scelta architetturale differente. Con la supesclarare, nVIDIA deve per forza fare die di grandi dimensioni se vuole le prestazioni e, nonostante ciò, è costretta a tenere alta la frequenza dello shader core. Questo perchè quel tipo di architettura non permette di integrare tante unità di calcolo all'interno, data la loro enorma complessità (riferita anche e soprattutto alla logica di controllo). ATi ha scelto la strada delle alu vliw che occupano poco spazio e possono essere integrate in gran numero. Se volesse le prestazini a tutti i costi, potrebbe, anche con architettura differente, seguire la strada di nVIDIA, ossia fare chip enormi con molte più unità di calcolo. Al contrario, ha scelto la strada di un'architettura che affida parte dell'ILP al compilatore perchè questo permette di realizzare anche chip di piccole dimensioni che sino, comunque, competitivi. Quindi non è che non guardi alle prestazioni ma di sicuro queste non sono l'unico obiettivo e neppure il principale. Cerca piuttosto un compromesso tra prestazioni e costi di progettazione e produzione
è normale che gli sta a cuore ora.....deve ancora uscire Fermi.:p
Con la 5870 AMD si è tenuta conservativa con i clock, e sappiamo tutti dove può arrivare con tranquillità questa scheda... io la vedo come una carta da tirar fuori per Fermi nel caso vada di più, soprattutto ora che il processo produttivo si è affinato e le rese oltre a non essere più un problema danno chip più raffinati ;)
La 5890 a mio avviso è sicura, e già questa è una bella bestiolina, se servirà potrebbe uscire anche un 5990, i margini per farla ci sono tutti.
aaasssdddfffggg
16-01-2010, 10:27
Non ci resta che attendere bench ufficiali.;)
fino alla serie R5x0 è stato così, infatti anche ATi ha seguito la politica del "chippone". Da R600 in poi le cose sono cambiate; la differenza la fa la scelta architetturale differente. Con la supesclarare, nVIDIA deve per forza fare die di grandi dimensioni se vuole le prestazioni e, nonostante ciò, è costretta a tenere alta la frequenza dello shader core. Questo perchè quel tipo di architettura non permette di integrare tante unità di calcolo all'interno, data la loro enorma complessità (riferita anche e soprattutto alla logica di controllo). ATi ha scelto la strada delle alu vliw che occupano poco spazio e possono essere integrate in gran numero. Se volesse le prestazini a tutti i costi, potrebbe, anche con architettura differente, seguire la strada di nVIDIA, ossia fare chip enormi con molte più unità di calcolo. Al contrario, ha scelto la strada di un'architettura che affida parte dell'ILP al compilatore perchè questo permette di realizzare anche chip di piccole dimensioni che sino, comunque, competitivi. Quindi non è che non guardi alle prestazioni ma di sicuro queste non sono l'unico obiettivo e neppure il principale. Cerca piuttosto un compromesso tra prestazioni e costi di progettazione e produzione
E' vero che ATI fa chip piccoli in ottica risparmio ma è anche vero che fa GPU che viaggiano parecchio nonostante le dimensioni ridotte, poi lo sappiamo bene che AMD ha previsto per il top di gamma sempre una proposta a 2 gpu, che riesce poi a confezionare senza nessun problema dati i limitati consumi delle sue proposte.
La 5890 a mio avviso è sicura, e già questa è una bella bestiolina, se servirà potrebbe uscire anche un 5990, i margini per farla ci sono tutti.
una 5890 con frequenze tirate me l'aspetto pure io ;)
aaasssdddfffggg
16-01-2010, 10:35
una 5890 con frequenze tirate me l'aspetto pure io ;)
certo anche io me l'aspetto ma dimenticatevi i 512 bit di interfaccia o addirittura i 768 bit di cui si vocifera anche qui dentro pagine fa.Cose dell'altro mondo.E poi ve la prendete (parlo in generale)con i rumors che circolano per Fermi.:p
gianni1879
16-01-2010, 10:36
certo anche io me l'aspetto ma dimenticatevi i 512 bit di interfaccia o addirittura i 768 bit.Cose dell'altro mondo.E poi ve la prendete (parlo in generale)con i rumors che circolano per Fermi.:p
chi ha parlato di 512bit o 768bit??
si è sempre detto una 5870 pompata.
cmq il thread apposito per le Ati è un altro ;)
certo anche io me l'aspetto ma dimenticatevi i 512 bit di interfaccia o addirittura i 768 bit.Cose dell'altro mondo.E poi ve la prendete con i rumors che circolano per Fermi.:p
AMD non modificherà nulla nel bus, pomperà le frequenze, rimane qualche dubbio sul numero di SP attivi, non è detto che non ci sia qlc in più della 5870 ;)
Con la 5870 AMD si è tenuta conservativa con i clock, e sappiamo tutti dove può arrivare con tranquillità questa scheda... io la vedo come una carta da tirar fuori per Fermi nel caso vada di più, soprattutto ora che il processo produttivo si è affinato e le rese oltre a non essere più un problema danno chip più raffinati ;)
La 5890 a mio avviso è sicura, e già questa è una bella bestiolina, se servirà potrebbe uscire anche un 5990, i margini per farla ci sono tutti.
quoto maury alla grande, in tutti questi mesi la 5870 e la 5970 hanno dimostrato di avere margini di clock abbastanza ampi e dopo un bel po di mesi che la serie 5 è sul mercato credo che abbiano affinato il processo produttivo al punto di potersi permettere di spingere ancora questi chip mantenendo immutate le capacità di overclock.
C'è poco da dubitare sul fatto che a ottobre-dicembre ATI avrà già presentato la serie 6 con relativa batosta per Nvidia che dubito abbia iniziato lo sviluppo di una possibile GT400
GT300 ad ogni modo venderà e venderà tanto grazie al GPGPU, anche io non mi farò scappare la possibilità di renderizzare su gpu
Non ci resta che attendere bench ufficiali.;)
e intanto mi piacerebbe avere anche ulteriori informazioni su quei 84 frames di farcry2.
è da capire se hanno usato la 360 o 380.
e chissà in overclock dove potrebbe arrivare, imho potrebbe toccare i 90 frames :fagiano:
aaasssdddfffggg
16-01-2010, 10:37
chi ha parlato di 512bit o 768bit??
Hehehe,moderatore.Sfogliamo un po' di pagine indietro dentro questo Thread ed il colpevole viene fuori.Diciamo qualche "Atista" esaltato (e più di uno)?Non faccio nomi.:D
aggiungo anche che in quel test i driver potrebbero non dare ancora il massimo.
insomma c'è troppa roba da capire ancora :asd:
aaasssdddfffggg
16-01-2010, 10:39
e intanto mi piacerebbe avere anche ulteriori informazioni su quei 84 frames di farcry2.
è da capire se hanno usato la 360 o 380.
e chissà in overclock dove potrebbe arrivare, imho potrebbe toccare i 90 frames :fagiano:
si infatti,il mistero circola tutto intorno a questo punto su quei numeri.Che Fermi cera lì sotto?:)
certo anche io me l'aspetto ma dimenticatevi i 512 bit di interfaccia o addirittura i 768 bit di cui si vocifera anche qui dentro pagine fa.Cose dell'altro mondo.E poi ve la prendete (parlo in generale)con i rumors che circolano per Fermi.:p
guarda che io ho sempre ip0otizato una operazione stile 4890, q1uindi semplicemente una 5870 con frequenze + spinte e basta.
appleroof
16-01-2010, 10:41
E' vero che ATI fa chip piccoli in ottica risparmio ma è anche vero che fa GPU che viaggiano parecchio nonostante le dimensioni ridotte, poi lo sappiamo bene che AMD ha previsto per il top di gamma sempre una proposta a 2 gpu, che riesce poi a confezionare senza nessun problema dati i limitati consumi delle sue proposte.
quoto, io non penso che abbiano abbandonato la ricerca della leadership prestazionale, non è nel dna dell'azienda e non è proprio del mercato in cui si muove
penso piuttosto che è vero che abbiano deliberatamente abbandonato la scelta del chippone -nessuno potrebbe dire il contraro :D - ma all'inizio non sono riusciti ad avere le prestazioni che desideravano, che sono arrivate con continue evoluzioni che sappiamo
insomma, credo che fare le dual per la fascia top non sia stato un "incidente" (tipo "vabbè il chip singolo và meno della concorrenza, proviamo ad affiancarlo ad un altro") ma sia stato frutto di una precisa scelta sin dall'inizio: per quello sostengo che chi dice che Ati abbia abbandonato la ricerca delle prestazioni assolute dica una cosa non verosimile
Aggiungo solo che vediamo come quelle scelte oggi si dimostrano assolutamente vincenti, rispetto a quanto scelto da Nvidia stiamo a vedere cosa ci aspetta per il futuro...
aaasssdddfffggg
16-01-2010, 10:42
guarda che io ho sempre ip0otizato una operazione stile 4890, q1uindi semplicemente una 5870 con frequenze + spinte e basta.
Ma mica era rivolto a te.Ho preso spunto dal tuo post per puntualizzare.;)
Anzi,a dire il vero,sono certo che anche tu sai a chi mi riferivo su quelle sparate.:asd:
appleroof
16-01-2010, 10:43
guarda che io ho sempre ip0otizato una operazione stile 4890, q1uindi semplicemente una 5870 con frequenze + spinte e basta.
qualcuno sostiene che rv870 abbia già sp dormienti...non so se è vero, di certo lo sapremo solo con l'uscita di Fermi :D
gianni1879
16-01-2010, 10:44
Hehehe,moderatore.Sfogliamo un po' di pagine indietro dentro questo Thread ed il colpevole viene fuori.Diciamo qualche "Atista" esaltato (e più di uno)?Non faccio nomi.:D
appunto Atisti esaltati, ma una persona di buon senso non si aspetta certo questo ;)
sul thread adatto si è sempre +- detto frequenze pompate e forse sp dormienti da svegliare.
qualcuno sostiene che rv870 abbia già sp dormienti...non so se è vero, di certo lo sapremo solo con l'uscita di Fermi :D
Che ci siano è una certezza, sono le ridondanze previste da ATI per aumentare le rese, quindi per esserci ci sono, pensate che storia attivarli tutti :cool:
aaasssdddfffggg
16-01-2010, 10:45
appunto Atisti esaltati, ma una persona di buon senso non si aspetta certo questo ;)
sul thread adatto si è sempre +- detto frequenze pompate e forse sp dormienti da svegliare.
Appunto.Un bel quotone da parte mia.;)
si infatti,il mistero circola tutto intorno a questo punto su quei numeri.Che Fermi cera lì sotto?:)
e bo... se fosse il GTX360 sarebbe ottimo il risultato...
considera che io in farcry 2 con cpu @ 4ghz e 5870 overclock @ 900-1300 faccio 75frames con minimi di 53frames... a 1920x1080..., quindi a 1920x1200 leviamoci altri 1-2frames...
sarebbe sempre 10frames + avanti la nvidia di media e 12frames + avanti come frames minimi... overclockando anche questa magari prende altri 5 frames andando sui 90 di media ehehehe... non sarebbe male...
qualcuno sostiene che rv870 abbia già sp dormienti...non so se è vero, di certo lo sapremo solo con l'uscita di Fermi :D
e be vediamo, con frequenze + spinte e basta andrebbe poco più di una 5870. quindi mi auguro che attivino anche qualche shader :D
aaasssdddfffggg
16-01-2010, 10:49
e bo... se fosse il GTX360 sarebbe ottimo il risultato...
considera che io in farcry 2 con cpu @ 4ghz e 5870 overclock @ 900-1300 faccio 75frames con minimi di 53frames... a 1920x1080..., quindi a 1920x1200 leviamoci altri 1-2frames...
sarebbe sempre 10frames + avanti la nvidia di media e 12frames + avanti come frames minimi... overclockando anche questa magari prende altri 5 frames andando sui 90 di media ehehehe... non sarebbe male...
e sono i frame minimi quelli più importanti da tenere in vista e 12 frame più + alti non sono affatto pochi.E' un bel risultato eccome.
appleroof
16-01-2010, 10:51
Che ci siano è una certezza, sono le ridondanze previste da ATI per aumentare le rese, quindi per esserci ci sono, pensate che storia attivarli tutti :cool:
io, visti i rumors che danno Fermi in versione top in competizione con 5870, dico che se fosse così non vedremo rv870 con più sp, ma al massimo la versione attuale con frequenze pompate (e vista la presenza di rv870x2 credo che a quel punto non ci sarebbe nemmeno bisogno, se non per questioni forse d'immagine), piuttosto arriveremo già a rv970 :D
Kharonte85
16-01-2010, 10:56
facevo un discorso generico riferito agli anni passati, poi non è stato sempre così le prime dual gpu non surclassavano le singole avversarie.
Quando dici le "prime" a cosa ti riferisci?
Se penso alla 7950 Gx2 e alla 9800Gx2 entrambe surclassavano la concorrenza se consideri che una aveva la x1950xtx come rivale mentre l'altra la hd3870X2.
Da G80 in poi ha avuto il singolo chip più veloce, ma come appunto sottolineavo nella storia delle due aziende si sono alternate la leadership prestazionale, non è stata sempre una sola azienda a dominare sull'altra.
Ovviamente (se pensiamo alla serie FX lì la cosa era molto evidente), ed anche all'interno dei periodi ci sono stati momenti che vedevano prevalere l'una sull'altra (ad esempio la 9800gx2 era uscita 2 mesi dopo la hd3870x2)...pero' pensare che Nvidia non ci stia pensando a mettere la zampa davanti all'avversaria e che non sia importante ho dei dubbi.
sicuramente, però non è detto che non ci sia una revisione anche del chip, e poi "sicuramente" 6 mesi dopo ci sarà la nuova serie (HD6000).
Vedremo.. :)
Lo state dando per scontato, quando non è ancora uscita la singola gpu, mai dare per scontato le cose.
Ovviamente si spera che Nvidia possa far uscire dei bei mostriciattoli, l'utente ne beneficerà al massimo.
Non è che lo sto dando per scontato, è solo quello che mi aspetto vedendo come sono andate le cose in passato: prima esce la GPU top (poi forse la dual) e poi via via fascia media e bassa.
L'alternativa (brutta) a questo per coprire la fascia media è riproporre un GT200 rifatto @40nm con dx10.1, come di fatto sta facendo per le schede di fascia bassa e per i portatili con i derivati poveri di G92.
Non farlo significherebbe ammettere da parte di Nvidia che il mercato consumer non è più di suo interesse e non vuole farci ricavi :D
Kharonte85
16-01-2010, 11:23
fino alla serie R5x0 è stato così, infatti anche ATi ha seguito la politica del "chippone". Da R600 in poi le cose sono cambiate; la differenza la fa la scelta architetturale differente. Con la supesclarare, nVIDIA deve per forza fare die di grandi dimensioni se vuole le prestazioni e, nonostante ciò, è costretta a tenere alta la frequenza dello shader core. Questo perchè quel tipo di architettura non permette di integrare tante unità di calcolo all'interno, data la loro enorma complessità (riferita anche e soprattutto alla logica di controllo). ATi ha scelto la strada delle alu vliw che occupano poco spazio e possono essere integrate in gran numero. Se volesse le prestazini a tutti i costi, potrebbe, anche con architettura differente, seguire la strada di nVIDIA, ossia fare chip enormi con molte più unità di calcolo. Al contrario, ha scelto la strada di un'architettura che affida parte dell'ILP al compilatore perchè questo permette di realizzare anche chip di piccole dimensioni che sino, comunque, competitivi. Quindi non è che non guardi alle prestazioni ma di sicuro queste non sono l'unico obiettivo e neppure il principale. Cerca piuttosto un compromesso tra prestazioni e costi di progettazione e produzione
Dato che sei a tiro ne approfitto per chiederti una cosa...
Quindi ok per die size nvidia ha un chiaro svantaggio con architetture superscalari e questo si traduce in un maggiore costo in produzione e meno guadagni (Azzacci suoi :ciapet: )
Pero' nella nostra ottica quello che conta è altro...diciamo che mi pare che fino a GT200 nella sua versione@55nm (pari quindi al pp della concorrenza) avesse un rapporto performance/watt non tanto diverso, anzi in alcuni casi anche migliore (GTX 285 Vs HD4890).
La domanda ora sarebbe: quali difficoltà Nvidia potrebbe incontrare a fare (derivare) un chip con circa la metà delle caratteristiche di GF100? Ovvero 256SP e così via dal quale far derivare con gli scarti altre versioni (non diverso da quello che sta facendo AMD/ATI)...quanto occuperebbe di spazio considerando anche la logica di controllo riprogettata ecc...? Converrebbe?
E poi potrebbe ancora dimezzare le caratteristiche per un'altro chip e così via fino a coprire tutte le fasce? Del resto l'adozione delle GDDR5 ti consente di tagliare il bus pur mantenendo una BandaPassante sufficiente.
appunto Atisti esaltati, ma una persona di buon senso non si aspetta certo questo ;)
sul thread adatto si è sempre +- detto frequenze pompate e forse sp dormienti da svegliare.
Ma qualcuno ha confermato con certezza se e quante sp "dormienti" ci sono?
Cmq anche qualora vi fossero, non credo amd possa proporre una una 5890 con i sp dormienti riattivati.
Con rv770 sembra ormai certo vi fossero 80 sp dormienti.
Si e' sempre detto si dal principio che le rese di rv770 fossero buone sin dal principio (un chip circa il 20% piu' piccolo di rv870), e inoltre il processo a 55nm di tmsc non aveva tutti i problemmi che si stanno riscontrando con i 40nm.
La 4890 inoltre fu presentata 9-10 mesi dopo la 4870 quindi le rese immagino fossero eccellenti, avendo pure rivisitato il chip.
Se non le hanno potute attivare allora, come potrebbero farlo ora?
La 4890 monta un chip diverso dalla 4870 ;)
questo lo so benissimo, ma alla fine come specifiche è uguale alla 4870 (800 shader, 16rop, 256bit ecc), tranne le frequenze ;)
luX0r.reload
16-01-2010, 12:31
Ieri girovagando in rete ho letto che i ritardi di nVidia non dipendono dalla versione gaming delle loro schede, ma dalle schede che dovrebbero prendere posto nelle workstation... non ricordo la fonte e quindi, come ogni altro rumors su fermi&co., prendetela con le pinze.
Anche se mi puzza... perchè se con le gaming non hanno problemi, intanto non hanno rilasciato qualcosa di concreto su queste ultime? :confused:
luX0r.reload
16-01-2010, 12:45
Perché i problemi sono gli stessi. Solo che quegli stessi problemi sono molto più gravi per il mercato "Quadro" e "Tesla".
Che ci sarebbero stati problemi per Tesla era quasti scontato.
Architettura completamente nuova (e spero veramente innovativa) e processo produttivo con i problemi che ha avuto anche ATI.
Comunque arrivati a questo punto penso che nVidia, almeno per ora, abbia perso il treno. Sicuramente con la prossima generazione, avendo già sbattuto la testa con la nuova architettura, si riprenderà sicuramente, ma con fermi la vedo dura... a meno che i bench di farcry che si sono visti non siano relativi alla 360. Ma dubito...
Kharonte85
16-01-2010, 12:47
Aspetta, qui fai due confronti diversi: performance/diesize prima e performance/watt dopo. L'unico difetto delle HD48xx è forse proprio il consumo (soprattutto in idle), mentre G200b da questo punto di vista si comporta meglio e di fatto pareggiano i conti sull'indicatore performance/watt. Sull'indicatore performance/diesize continua ad essere in pesante svantaggio su RV770, tanto che ho dei dubbi sui margini che possono averci fatto (a parte la GTX285, chiaro).
Infatti il performance/diesize è un problema che non ci tange ma che riguarda l'azienda quando è costretta a vendere il prodotto a prezzi competitivi, quello che a noi interessa al massimo è il performance/watt, a volte solo il performance.
Il problema sta proprio negli spazi incomprimibili di un'architettura superscalare rispetto ad una vliw che di fatto permettono di scalare in prestazioni molto sublinearmente rispetto alla dimensione del chip.
Ho capito ma vuoi che un coso che è la metà di Fermi (550mm2) non si riesca a farlo stare in un die-size di 300mm2 @40nm?
http://i119.photobucket.com/albums/o142/MrWizard6600/freeforallG92G92bG80RV770GT200-1.jpg
Cioè prendendo come esempio a parità di pp Gt200 e G92 che più o meno sono la stessa roba e che più o meno uno è la metà dell'altro, non riesco a capire dove sarebbe il problema di fare una versione con 256SP con un'area di circa 300mm2 che comunque potrebbero essere competitivi forse quanto un GT200@40nm che comunque non credo sarebbe molto più grande.
Kharonte85
16-01-2010, 13:27
A dirla tutta con ottica miope ci interessa solo performance/price, per pochi sparuti casi anche solo performance :)
Il performance/watt è un dato interessante sulla bontà di un chip, ma i watt diventano un problema solo nel caso in cui obblighino ad un cambio di PSU o nel caso in cui accendere il PC significhi non accendere la lavatrice per non far staccare il contatore ( :asd: ), anche se siamo tutti daccordo che in idle vorremmo consumi il più possibile ridotti (e qui il tallone di achille, forse l'unico, di RV770, è diventato un punto di forza in Cypress).
E' vero...comunque dato che si parlava di bonta' del chip in relazione a quello che ci viene in tasca come prestazioni/consumi momentaneamente ho trascurato il fattore prezzo...anche perchè quello è fatto perlopiù dal mercato più che dall'azienda [l'azienda vorebbe vendere ogni scheda a 1000e ma forse non gli conviene :asd:].
Invece il parametro performance/diesize è molto più importante, perché rende fattibile un certo chip per l'azienda, in base ai costi di produzione e le performance attese.
Supponendo che un chip del genere possa stare in 300mm^2 (io penso più a un intorno di 350mm^2), quindi un die size confrontabile a Cypress, le prestazioni sarebbero confrontabili con Juniper, visto che il chippone di 550+ mm^2 si confronterà con Cypress. Non c'è spazio per un chip del genere sul mercato, perché avrebbe prestazioni risibili rispetto ai costi di produzione.
E se fossero confrontabili nel senso di superiori a Juniper non sarebbe esattamente possibile guadagnarci sopra come teoricamente dovrebbero guadagnarci con Gf100?
Cioè Nvidia adesso (dopo GF100) per le altre fasce di prezzo presenterà qualcosa?
Se no, Nvidia rinuncia al mercato consumer di colpo e fa seppuku.
Se invece volesse continuare nel settore in cui è ancora oggi (nonostante le difficoltà) Leader in termini di market Share come credo che farà...le sue alternative sono:
- riprogettare GT200 @ 40nm Dx10.1 riproporlo come fascia media (cosa che potrebbe avere un senso [calano i consumi, i costi di produzione, aumentano le frequenze, si rinuncia alle dx11 ma tanto quelle servono sulle fasce enthusiast ecc...] dato che le prestazioni sono da fascia media ora)
- progettare ex novo un derivato di Gf100 in grado di piazzarsi nella fascia media, sfruttando così tutte le evoluzioni e ottimizzazioni derivate dal progetto del nuovo chip.
Va da se che la seconda alternativa mi pare molto più furba, pero' chiaramente potrebbe non essere quella + redditizia ma se Fermi come ha detto Nvidia rappresenterà la base dei suoi prodotti di qui in avanti non vedo motivo di dubitare che vedremo riempirsi tutti i segmenti di mercato con questo progetto...magari nel solito modo schizofrenico di Nvidia (vedere epoca post G80 dove oggettivamente nn si capiva più una sega tra le mille versioni che proponevano, rinominazioni varie, anche se le schede proposte erano ultravalide) e in tempi diversi ma io credo che arriveranno ;)
Una cortesia raga.:)
Soffermandosi sul test di Far Cry 2 con la scheda Fermi, riuscite a vedere il totale dei Frame un secondo prima che finisca il test? Insomma appena prima che compaia la tabella dei grafici.
scorpion73
16-01-2010, 13:41
scusate io ho letto i post precedenti ma onestamente non ho capito i detrattori a priori di fermi su cosa si basano. Da quello che ho capito io:
- i test erano su una 448 SP con gap del 20% (quasi) sulla 5870, per cui direi che, se ciò è vero, con la 512 SP il gap vada ben oltre e quindi è ipotizzabilissimo il gap del 30% che tutti auspicavano
- i driver della Fermi ancora non sono usciti e come tale sono migliorabilissimi (e sono sicuro che lo saranno). ATI è già alla seconda revisione dei drivers per Hemlock e ancora di più per Cypress: ciò mi fa pensare francamente che il gap delle prestazioni migliorabili via drivers sia a favorissimo di Nvidia.
- è vero che uscirà la 5890, ma se già una 448SP supera la 5870 al limite mi aspetto un pareggio con quest'ultima, non con la 512SP, visto che secondo me ci sarà al max un 15% fra la 5870 e la 5890.
- AMD stessa ha fatto uscire la 5970 castrata nelle frequenze per tenere il TDP non superiore ai 300W, quindi come fa a far uscire la 5990 senza superare questo TDP? Single o doppia GPU che sia, quello che conta sono le differenze in prestazioni, e se Fermi 512SP si avvicina alla 5970 forse il TDP simile alla 5970 ci potrebbe anche stare (mi pare che la 5970 vada un 40% in più della 5870 per cui se è vero che la 380 può andare un 30% in più, un TDP fra 250 e 300 watt potrebbe essere, anche se sono io il primo a cui non piacciono i TDP alti).
Poi è chiaro che se i test sono della 512SP la situazione cambia, ma da quello che si diceva non mi pareva proprio sia stato questo lo scenario, quindi direi come al solito di attendere per dire che è un flop o per fare confronti.
Per ora limitiamoci solo a dire a cosa potererebbero i rumors a livello prestazionale, poi a bocce ferme si tirano le somme.
Altri discorsi boh, lasciano secondo me il tempo che trovano in questo momento
PS: questo è il mio post n.448 :D
Kharonte85
16-01-2010, 13:46
Una cortesia raga.:)
Soffermandosi sul test di Far Cry 2 con la scheda Fermi, riuscite a vedere il totale dei Frame un secondo prima che finisca il test? Insomma appena prima che compaia la tabella dei grafici.
Non credo che sia possibile, l'inquadratura è lontana nel momento in cui compaiono le tabelle (che cmq contengono il dato)...ma cosa te ne faresti di questo dato? :confused:
scorpion73
16-01-2010, 13:53
Attualmente il discorso che hai fatto si basa su:
448SP
+20%
Ma non si sa se ha 448SP, né se le freuquenze a cui operava fossero quelle definitive.
Non si sa se quelle mostrate siano le frequenze definitive.
Non si sa la configurazione di sistema per fare un confronto di prestazioni (e se avessero una CPU sotto @ 5 GHz? Oppure un Atom? Il confronto non è possibile).
Quindi lascia decisamente il tempo che trova ;)
io avevo capito dai dati postati dagli utenti che fosse la 448SP
Le frequenze non definitive ok, ma secondo me questo gioca solo a favore di fermi: se anche non fossero definitive, non penso alla fine possano essere più basse (secondo me), quindi il divario potrebbe solo aumentare
Per quanto riguarda la conf, spero vivamente che il sistema fosse il medesimo fra le due versioni, sennò certo che non vale.
Ma dato tutto questo, se i punti da te indicati fossero:
- test effettivamente su una 448SP
- sistema identico fra le due schede di prova (fermi e gt200)
sei d'accordo con me che allora i discorsi fatti dai fermi-detrattori crollerebbero?
scusate io ho letto i post precedenti ma onestamente non ho capito i detrattori a priori di fermi su cosa si basano. Da quello che ho capito io:
- i test erano su una 448 SP con gap del 20% (quasi) sulla 5870, per cui direi che, se ciò è vero, con la 512 SP il gap vada ben oltre e quindi è ipotizzabilissimo il gap del 30% che tutti auspicavano
- i driver della Fermi ancora non sono usciti e come tale sono migliorabilissimi (e sono sicuro che lo saranno). ATI è già alla seconda revisione dei drivers per Hemlock e ancora di più per Cypress: ciò mi fa pensare francamente che il gap delle prestazioni migliorabili via drivers sia a favorissimo di Nvidia.
- è vero che uscirà la 5890, ma se già una 448SP supera la 5870 al limite mi aspetto un pareggio con quest'ultima, non con la 512SP, visto che secondo me ci sarà al max un 15% fra la 5870 e la 5890.
- AMD stessa ha fatto uscire la 5970 castrata nelle frequenze per tenere il TDP non superiore ai 300W, quindi come fa a far uscire la 5990 senza superare questo TDP? Single o doppia GPU che sia, quello che conta sono le differenze in prestazioni, e se Fermi 512SP si avvicina alla 5970 forse il TDP simile alla 5970 ci potrebbe anche stare (mi pare che la 5970 vada un 40% in più della 5870 per cui se è vero che la 380 può andare un 30% in più, un TDP fra 250 e 300 watt potrebbe essere, anche se sono io il primo a cui non piacciono i TDP alti).
Poi è chiaro che se i test sono della 512SP la situazione cambia, ma da quello che si diceva non mi pareva proprio sia stato questo lo scenario, quindi direi come al solito di attendere per dire che è un flop o per fare confronti.
Per ora limitiamoci solo a dire a cosa potererebbero i rumors a livello prestazionale, poi a bocce ferme si tirano le somme.
Altri discorsi boh, lasciano secondo me il tempo che trovano in questo momento
PS: questo è il mio post n.448 :D
ch lasciano il tempo che trovano. Stiamo facendo un castello di sabbia, senza avere certezze di niente.... Era + interessante se mettevano in comparazione sia "Fermi" che una HD5870. Porca miseria, potevano farlo!:D
Non credo che sia possibile, l'inquadratura è lontana nel momento in cui compaiono le tabelle (che cmq contengono il dato)...ma cosa te ne faresti di questo dato? :confused:
Una mia curiosità.:) E' un peccato che non si veda bene.:(
io avevo capito dai dati postati dagli utenti che fosse la 448SP
Le frequenze non definitive ok, ma secondo me questo gioca solo a favore di fermi: se anche non fossero definitive, non penso alla fine possano essere più basse (secondo me), quindi il divario potrebbe solo aumentare
Per quanto riguarda la conf, spero vivamente che il sistema fosse il medesimo fra le due versioni, sennò certo che non vale.
Ma dato tutto questo, se i punti da te indicati fossero:
- test effettivamente su una 448SP
- sistema identico fra le due schede di prova (fermi e gt200)
sei d'accordo con me che allora i discorsi fatti dai fermi-detrattori crollerebbero?
Io sono d'accordissimo con quanto hai detto. Se fosse realmente la versione a 448sp sarebbe ottimo.
gianni1879
16-01-2010, 13:59
Ma qualcuno ha confermato con certezza se e quante sp "dormienti" ci sono?
Cmq anche qualora vi fossero, non credo amd possa proporre una una 5890 con i sp dormienti riattivati.
Con rv770 sembra ormai certo vi fossero 80 sp dormienti.
Si e' sempre detto si dal principio che le rese di rv770 fossero buone sin dal principio (un chip circa il 20% piu' piccolo di rv870), e inoltre il processo a 55nm di tmsc non aveva tutti i problemmi che si stanno riscontrando con i 40nm.
La 4890 inoltre fu presentata 9-10 mesi dopo la 4870 quindi le rese immagino fossero eccellenti, avendo pure rivisitato il chip.
Se non le hanno potute attivare allora, come potrebbero farlo ora?
è opportuno parlarne nell'apposito thread e non quì ;)
Kharonte85
16-01-2010, 14:00
Il punto è: di quanto superiori?
Se GF100 ha prestazioni comparabili e vicine a 5870 con un chip immensamente più grande e rese molto minori i margini che sarà possibile farci sopra saranno risicati nella top e insostenibili nei modelli inferiori (come GTX280 e GTX260).
Se fanno un derivato che va poco più di Juniper con il die size di Cypress capisci che il problema è lo stesso, Juniper è 180mm^2.
...
I problemi in questo caso sono quelli detti, poche performance per il die size che raggiungerebbe, quindi prodotto non vendibile con margine vista la situazione del mercato.
Non farlo sarebbe peggio forse...comunque i margini si calcolano all'interno di Nvidia non guardando quello che fa AMD/ATI...che AMD/ATI guadagni il doppio per ogni scheda non danneggia Nvidia. Nvidia si farà i suoi conti, come si fa a dire a priori che non avrà margini di guadagno?
Questo è quello che ci chiediamo tutti, mi auguro proprio di sì, ma non so come può farlo con un derivato di GF100.
Come lo fece per G80 io credo...
Ci ha provato, era il GT212, ma è stato cancellato. Così come il GT214 (un 128SP DX10.1) che è stato rimaneggiato in GT215 (96SP DX10.1).
Non credo che non essendoci riuscita a suo tempo torni indietro ora a farlo, e sarebbe comunque un chip troppo grande per competere sul mercato.
In verità si presume in base a qualche rumors che siano stati cancellati, rimaneggiati ecc... io credo che non lo abbiano fatto per il semplice fatto che il chip di fascia media c'era già ed era G92.
Ora col salto alle dx11 mi pare diverso quindi spero e credo che Nvidia pensi a qualche derivato di GF100 per la fascia medio-bassa.
Una cortesia raga.:)
Soffermandosi sul test di Far Cry 2 con la scheda Fermi, riuscite a vedere il totale dei Frame un secondo prima che finisca il test? Insomma appena prima che compaia la tabella dei grafici.
E' veramente troppo lontana l'inquadratura... cmq i frame totali visualizzati nei grafici non vanno bene lo stesso?
Non farlo sarebbe peggio forse...comunque i margini si calcolano all'interno di Nvidia non guardando quello che fa AMD/ATI...che AMD/ATI guadagni il doppio per ogni scheda non danneggia Nvidia. Nvidia si farà i suoi conti, come si fa a dire a priori che non avrà margini di guadagno?
Come lo fece per G80 io credo...
In verità si presume in base a qualche rumors che siano stati cancellati, rimaneggiati ecc... io credo che non lo abbiano fatto per il semplice fatto che il chip di fascia media c'era già ed era G92.
Ora col salto alle dx11 mi pare diverso quindi spero e credo che Nvidia pensi a qualche derivato di GF100 per la fascia medio-bassa.
la penso esattamente come te :D ;)
la penso esattamente come te :D ;)
Persa cmq prima hai postato il risultato di un tuo bench a Far Cry 2 e ho notato che come fps non stai allineato considerando anche che hai overcloccato procio e vga... forse questo dipende dalla scheda madre che è P55 e non ICH10R. Perciò bisogna anche valutare con quale mobo e procio è stato fatto il test su GF100.
Lo dico da 5 pagine :asd:
Non si possono confrontare test con configurazioni diverse e visto che non sappiamo la configurazione usata in quei video non si possono fare considerazioni numeriche che abbiano una qualche attendibilità ;)E poi proprio farcry2, che notoriamente é molto influenzato dal processore pure a 1920x1200.
davide155
16-01-2010, 14:26
Mi sta salendo una scimmia assurda di prendere la Ati 5870 :mc:
Però voglio aspettare questo Fermi del caiser........ma continuano ad avere problemi ed a rimandare :muro:
Persa cmq prima hai postato il risultato di un tuo bench a Far Cry 2 e ho notato che come fps non stai allineato considerando anche che hai overcloccato procio e vga... forse questo dipende dalla scheda madre che è P55 e non ICH10R. Perciò bisogna anche valutare con quale mobo e procio è stato fatto il test su GF100.
in che senso non sto allineato? :confused:
E' veramente troppo lontana l'inquadratura... cmq i frame totali visualizzati nei grafici non vanno bene lo stesso?
Si, mi va bene. Passami l'immagine.
Grazie.:)
in che senso non sto allineato? :confused:
Nel senso che con un processore a 4 ghz e la vga occata dovresti andare di poco oltre gli 80 fps in quel bench.
papafoxtrot
16-01-2010, 14:31
Mi pare che il discorso sui test trapelati sia su quale scheda e quale configurazione ha usato nvidia...
A mio parere però i dubbi non sono molti...
Devo mostrare che ho il chip più potente... vale la pena di aspettare... è un mostro rispetto alla concorrenza...
Che faccio mostro quello spompato????
Ovviamente cerco di usare il chip migliore che ho... quello da 512 shader...
Non ce l'ho?? Allora lo dico!!!
"questa era solo la gtx360!! Aspetta e e vedrete!!"
Invece nvidia informazioni in tal senso non ne ha date, si è limitata a mostrare di poter superare ATI... Io non mi stupirei se in quella versione la 380 avesse frequenze addirittura superiori a quelle che saranno sostenibili in una produzione in volumi...
E sulla configurazione... anche qui...
devo mostrare che produco framerate bestiali... assolutamente impensabili per la concorrenza... Andiamo, chiunque tende ad esaltare il proprio prodotto... lo metto su un core 2 duo?? Core i7 975 e anche qui non mi stupirei che fosse overcloccato!!
E per chiudere in bellezza di sicuro non scelgo un software in cui vado male... Se hanno scelto Far cry vuol dire che in far cry riescono ad avere prestazioni migliori che in altri giochi, rispetto alla concorrenza...
Per cui sinceramente questi risultati non li trovo per nulla eccezionali... Uniamo questi alle voci sui costi di produzione...
Nel senso che con un processore a 4 ghz e la vga occata dovresti andare di poco oltre gli 80 fps in quel bench.
si magari.. guarda che la 5870 da 850 a 900mhz da un guadagno piccolissimo in termini di frames nei giochi :D
aaasssdddfffggg
16-01-2010, 14:34
Persa cmq prima hai postato il risultato di un tuo bench a Far Cry 2 e ho notato che come fps non stai allineato considerando anche che hai overcloccato procio e vga... forse questo dipende dalla scheda madre che è P55 e non ICH10R. Perciò bisogna anche valutare con quale mobo e procio è stato fatto il test su GF100.
Che diamine vuol dire quello che hai scritto?l'ICH10R è il soutbridge che equipaggia entrambi le piattaforme per socket 1366 e 1156 di INTEL mentre il P55 è il northbridge usato sulle piattaforme per socket 1156 di INTEL.:doh:
inoltre qui c'è un test di okorp http://www.hwupgrade.it/forum/showpost.php?p=30464681&postcount=16729 con i7 e 5870 (questa a default? bo), fatto con gli stessi driver miei, ed ha fatto meno di me come fps minimi e medi a 1920x aa4x...
quindi sono in linea ;)
si magari.. guarda che la 5870 da 850 a 900mhz da un guadagno piccolissimo in termini di frames nei giochi :D
Beh si questo è vero, ma hai il procio a 4 ghz e a Fra Cry 2 può regalarti qualche manciata di fps in più. Un bench postato qualche pagina fa vede la 5870 a frequenze standard fare 76 fps con procio a 3 ghz... stesse impostazioni delle tue tranne la risoluzione che è 1920x1200 (pochissimo più alta dell tua). Il test di okorop è fatto con i driver Catalyst 9.10... è un test parecchio vecchio.
@Nemsis: chiedo venia, volevo dire X58 :D
Mi sta salendo una scimmia assurda di prendere la Ati 5870 :mc:
Però voglio aspettare questo Fermi del caiser........ma continuano ad avere problemi ed a rimandare :muro:
ma perchè farti del male prendila :D
Beh si questo è vero, ma hai il procio a 4 ghz e a Fra Cry 2 può regalarti qualche manciata di fps in più. Un bench postato qualche pagina fa vede la 5870 a frequenze standard fare 76 fps con procio a 3 ghz... stesse impostazioni delle tue.
saranno i driver, il test mio e di okorop è stato fatto con driver + vecchi :D
aaasssdddfffggg
16-01-2010, 14:43
Beh si questo è vero, ma hai il procio a 4 ghz e a Fra Cry 2 può regalarti qualche manciata di fps in più. Un bench postato qualche pagina fa vede la 5870 a frequenze standard fare 76 fps con procio a 3 ghz... stesse impostazioni delle tue. Il test di okorop è fatto con i driver 9.10... è un test parecchio vecchio.
@Nemsis: chiedo venia, volevo dire X58 :D
Ok ci siamo,ma considera che il P55 è una piattaforma anch'essa velocissima.Non credo ci siamo sostanziali differenze tra le 2 piattaforme prese in esame.;)
Ok ci siamo,ma considera che il P55 è una piattaforma anch'essa velocissima.Non credo ci siamo sostanziali differenze tra le 2 piattaforme prese in esame.;)
non cambia una sega ;) la differenza se mai ci fosse è da imputare ai driver... il test che feci io era con i cat 9.10 ;)
aaasssdddfffggg
16-01-2010, 14:45
non cambia una sega ;)
ecco appunto.Sei stato più diretto di me.;)
inoltre qui c'è un test di okorp http://www.hwupgrade.it/forum/showpost.php?p=30464681&postcount=16729 con i7 e 5870 (questa a default? bo), fatto con gli stessi driver miei, ed ha fatto meno di me come fps minimi e medi a 1920x aa4x...
quindi sono in linea ;)
Io con La HD5870 a default stesse impostazioni e processore Core i7 920@3000Mhz ma driver beta, faccio 76 Frame di meda.
HD5870:
http://www.xtremeshack.com/immagine/t42647_1.jpg (http://www.xtremeshack.com/scheda/42647_1.jpg.html)
Fa molto meglio una HD5970.
HD5970:
http://www.xtremeshack.com/immagine/t42648_2.jpg (http://www.xtremeshack.com/scheda/42648_2.jpg.html)
Comunque è inutile fare supposizioni, non ci sono metri "reali" di paragone.:) I test lasciano il tempo che trovano....
Bisogna solo aspettare test + indicativi.
ecco appunto.Sei stato più diretto di me.;)
e si, direttissimo :D
Io con La HD5870 a default stesse impostazioni e processore Core i7 920@3000Mhz ma driver beta, faccio 76 Frame di meda.
HD5870:
http://www.xtremeshack.com/immagine/t42647_1.jpg (http://www.xtremeshack.com/scheda/42647_1.jpg.html)
Fa molto meglio una HD5970.
HD5970:
http://www.xtremeshack.com/immagine/t42648_2.jpg (http://www.xtremeshack.com/scheda/42648_2.jpg.html)
Comunque è inutile fare supposizioni, non ci sono metri "reali" di paragone.:) I test lasciano il tempo che trovano....
Bisogna solo aspettare test + indicativi.
Prendere un game che così soggetto alla CPU è poco furbo, per quanto mi riguarda nulla è cambiato aspetto le recensioni o almeno test leak per farmi un'idea dei consumi ma sulle prestazioni purtroppo ormai imho nn spero più in nessun miracolo
non cambia una sega ;) la differenza se mai ci fosse è da imputare ai driver... il test che feci io era con i cat 9.10 ;)
Ok ci siamo,ma considera che il P55 è una piattaforma anch'essa velocissima.Non credo ci siamo sostanziali differenze tra le 2 piattaforme prese in esame.;)
Invece ho visto ieri una recensione dove c'erano 4-5 fps di differenza tra le prove fatte con mobo P55 e X58... purtroppo non riesco a ritrovarla ma mi pare fosse stata postata su questo Thread.
Invece ho visto ieri una recensione dove c'erano 4-5 fps di differenza tra le prove fatte con mobo P55 e X58... purtroppo non riesco a ritrovarla ma mi pare fosse stata postata su questo Thread.
nono non cambia nulla ;) sono uguali queste cpu come potenzialità nei giochi ;)
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3634&p=16
Prendere un game che così soggetto alla CPU è poco furbo, per quanto mi riguarda nulla è cambiato aspetto le recensioni o almeno test leak per farmi un'idea dei consumi ma sulle prestazioni purtroppo ormai imho nn spero più in nessun miracolo
x esempio SE le prestazioni di farcry 2 fossero veramente di una 360 (chissà vedremo) significa che già questa va + di una 5870 (basandomi su un mio test e su molte review) e la 380 andrebbe quindi ancora di +.
+ mettiamoci driver non ottimizzati al massimo.. e ci potrebbe essere un altro pò di miglioramento ;)
un pò di ottimismo dai :D
nono non cambia nulla ;) sono uguali queste cpu come potenzialità nei giochi ;)
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3634&p=16
Qualche fps di differenza c'è: http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=2
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.