View Full Version : [THREAD UFFICIALE] Geforce GTX280
Brutale910
10-08-2008, 18:24
Raga cerco disperatamente una guida per nibitor, me ne linkate 1?
Andrea deluxe
10-08-2008, 19:43
Raga cerco disperatamente una guida per nibitor, me ne linkate 1?
perche' cosa c'e' di cosi difficile?
Demon Requiem
10-08-2008, 19:46
Raga cerco disperatamente una guida per nibitor, me ne linkate 1?
Prova questa (http://www.mvktech.net/content/view/2069/37/)
Comunque basta una ricerca veloce su google ;)
sertopica
11-08-2008, 09:39
Ciao ragazzi, a breve mi arriverà la gtx260... ma questa storia del flash del bios cosa comporta? Migliori margini d'overclock e migliori temperature?
Sono bios moddati?
Scusatemi, magari ne avete sicuramente già parlato, qualcuno sarebbe gentile da postarmi la discussione in merito o qualche link?
Grazie :)
UPPETE!
Nessuno? Una guida? Si possono anche installare bios di altre marche sulla propria scheda?
Demon Requiem
11-08-2008, 09:53
UPPETE!
Nessuno? Una guida? Si possono anche installare bios di altre marche sulla propria scheda?
Di solito si scelgono i BIOS delle marche che hanno le schede più clocckate tipo XFX, E-VGA e BGF ma si può mettere i BIOS di qualsiasi marca.
Suhadi_Sadono
11-08-2008, 09:58
Di solito si scelgono i BIOS delle marche che hanno le schede più clocckate tipo XFX, E-VGA e BGF ma si può mettere i BIOS di qualsiasi marca.
Ma per mettere il bios di queste marche basta usare nbitor e per salvarlo fare update witouth cecksum? :rolleyes:
Demon Requiem
11-08-2008, 10:07
Ma per mettere il bios di queste marche basta usare nbitor e per salvarlo fare update witouth cecksum? :rolleyes:
Qui (http://www.hwupgrade.it/forum/showthread.php?t=1021016) c'è la guida al BIOS Flash nVidia
sertopica
11-08-2008, 10:21
Grazie per l'aiuto... a me sta arrivando una zotac gtx260 (nonostante avessi ordinato la xfx :mbe: , ma è meglio così perchè c'è grid :asd: )...
Quindi mi scarico un bios e poi con nibitor lo flescio su quello vecchio...
Ci possono essere rischi?
Suhadi_Sadono
11-08-2008, 10:43
Grazie per l'aiuto... a me sta arrivando una zotac gtx260 (nonostante avessi ordinato la xfx :mbe: , ma è meglio così perchè c'è grid :asd: )...
Quindi mi scarico un bios e poi con nibitor lo flescio su quello vecchio...
Ci possono essere rischi?
Infatti la mia paura è questa... se qualcosa va male e ho buttato via 250€ :asd: Magari mi compro una 8500GT e faccio gli esperimenti con questa....
sertopica
11-08-2008, 10:52
Infatti la mia paura è questa... se qualcosa va male e ho buttato via 250€ :asd: Magari mi compro una 8500GT e faccio gli esperimenti con questa....
:asd:
Anche io vorrei evitare... Mi documenterò per bene prima di farlo, semmai lo farò... tanto queste schede già sono dei mostri di puténza :asd:
Se solo mi arrivasse a casa... Com'è bartolini come corriere?
Tommy_83
11-08-2008, 11:04
Ragazzi per alimentare una GTX 280 basta un enermax liberty da 620W???
up,interessa anche a me
Suhadi_Sadono
11-08-2008, 11:07
up,interessa anche a me
Si che basta ;)
Demon Requiem
11-08-2008, 11:08
Com'è bartolini come corriere?
E' uno dei migliori :asd:
sertopica
11-08-2008, 11:12
E' uno dei migliori :asd:
Ho appena letto sul forum dedicato alle spedizioni cosa succede con bartolini... :rolleyes:
Ora comprendo l' :asd: ...
Fortuna che il pagamento lo devo fare alla consegna, sennò ero veramente ma veramente incazzato... Ma un po' di serietà no eh?
NOOB4EVER
11-08-2008, 12:59
io sono il piu nabbone e grazie a Delly ho imparato a farlo,ci metti 3 secondi e' semplice e non va male nulla a meno che non hai il pc che si impalla a random ;)
NOOB4EVER
11-08-2008, 20:23
E' uno dei migliori :asd:
non lo e'??:confused: sai qualcosa che non so? a me arriva quasi sempre barto lmao fammi sapere :stordita:
Andrea deluxe
11-08-2008, 21:26
con questa review si capisce decisamente l'andazzo e basta una semplice mobo con uno slot aggiuntivo pciexpress 8x o 16x per piazzarci una 8600-9600gt da dedicare alla fisica!
MITICO!
http://www.guru3d.com/article/physx-by-nvidia-review/1
Demon Requiem
11-08-2008, 21:38
Sinceramente a me bartolini ha sempre fatto le consegne puntuali ed in ottimo stato
Demon Requiem
11-08-2008, 21:40
con questa review si capisce decisamente l'andazzo e basta una semplice mobo con uno slot aggiuntivo pciexpress 8x o 16x per piazzarci una 8600-9600gt da dedicare alla fisica!
MITICO!
http://www.guru3d.com/article/physx-by-nvidia-review/1
Molto interessante, su Warmonger si guadagnano molti FPS usando la 2° GPU come PPU ;)
P.S:scusate doppio post :stordita:
Molto interessante, su Warmonger si guadagnano molti FPS usando la 2° GPU come PPU ;)
Si guadagna moltissimo anche usando la sola GPU sia per la fisica che per il resto, si passa infatti a 1600 da 35 a 66.
L'incremento sono riuscito a verificarlo direttamente con i miei occhi :eek: dopo aver scaricato da qui http://en.expreview.com/img/software/0808/PhysX_8.07.18_SystemSoftware.exe gli ultimi 8.07.18
Demon Requiem
11-08-2008, 22:24
Si guadagna moltissimo anche usando la sola GPU sia per la fisica che per il resto, si passa infatti a 1600 da 35 a 66.
L'incremento sono riuscito a verificarlo direttamente con i miei occhi :eek: dopo aver scaricato da qui http://en.expreview.com/img/software/0808/PhysX_8.07.18_SystemSoftware.exe gli ultimi 8.07.18
Usando GPU abbastanza potenti, vedi GTX280 credo che si possa fare a meno di comprare un'altra scheda dedicata alla fisica, il top sarebbe prendere una GPU Multi Core e usare un GPU per i normali calcoli e l'altra per la fisica ;)
una domanda da nubbio,
ma come alimentazione che richiede? 1 da 8 e 1 da 6??? :confused:
una domanda da nubbio,
ma come alimentazione che richiede? 1 da 8 e 1 da 6??? :confused:
Sì,entrambe quelle che hai citato ;)
Sì,entrambe quelle che hai citato ;)
che dici un 580 W basta?
Più che altro devo rimediare il connettore da 8.. ho solo quelli da 6... (non è che con 2 da 6 ce la faccio uguale come si riusciva con la 2900xt??)
Suhadi_Sadono
12-08-2008, 16:04
Sono usciti i driver WHQL con physics integrato 177.83 . ;) http://downloads.guru3d.com/
che dici un 580 W basta?
Più che altro devo rimediare il connettore da 8.. ho solo quelli da 6... (non è che con 2 da 6 ce la faccio uguale come si riusciva con la 2900xt??)
-Dovrebbe bastarti.
-No,non puoi utilizzare 2 connettori a 6 pin e basta,devi per forza connettere anche 1 a 8 pin.
tigershark
12-08-2008, 16:51
Sono usciti i driver WHQL con physics integrato 177.83 . ;) http://downloads.guru3d.com/
perfetti..adesso la scheda in idle va tranquillamente a 300 100...grande lavoro di mamma nvidia :)
Suhadi_Sadono
12-08-2008, 16:53
perfetti..adesso la scheda in idle va tranquillamente a 300 100...grande lavoro di mamma nvidia :)
A me andava in idle a 300 / 100 anche con i beta 177.79 :Prrr:
tigershark
12-08-2008, 17:20
A me andava in idle a 300 / 100 anche con i beta 177.79 :Prrr:
mi rimangio ciò che ho scritto, stesso inconveniente..ma come cavolo è possibile??
mi rimangio ciò che ho scritto, stesso inconveniente..ma come cavolo è possibile??
Provato a chiudere il browser ?
tigershark
12-08-2008, 18:00
Provato a chiudere il browser ?
si, niente...a te come si comportano??
si, niente...a te come si comportano??
Io ho ancora i 177.79, stasera installo gli 83 e poi ti faccio sapere :)
halduemilauno
12-08-2008, 18:51
http://www.expreview.com/news/hard/2008-08-13/1218556872d9726.html
;)
Io ho ancora i 177.79, stasera installo gli 83 e poi ti faccio sapere :)
Ti confermo che le frequenze in 2d si abbassano, ma se stai visitando un sito che usa Shockwave si rialzano.
http://www.expreview.com/news/hard/2008-08-13/1218556872d9726.html
;)
http://www.nvidia.com/content/forcewithin/us/download.asp :)
tigershark
12-08-2008, 19:02
Io ho ancora i 177.79, stasera installo gli 83 e poi ti faccio sapere :)
risolto, in modo un po roccambolesco disinstallando, ripulendo il tutto con driver cleaner e reinstallando..
in ogni caso vedrete che le frequenze schizzano in 3d anche se si apre solo il windows media player..infatti se andate nel pannello di controllo nvidia noterete che applicazioni come acrobat reader e media player (e altre) utilizzano l'accelerazione grafica 3d :D, chiaramente uso windows vista x32
OverClocK79®
12-08-2008, 20:15
che dici un 580 W basta?
Più che altro devo rimediare il connettore da 8.. ho solo quelli da 6... (non è che con 2 da 6 ce la faccio uguale come si riusciva con la 2900xt??)
dipende anche del resto del sistema
comunque l'importante che colleghi i 6 pin e l'eventuale 8 pin
su altra linea 12V
(guarda le specifiche del tuo ali per capirlo)
in quanto se colleghi scheda video e magari HDD tutto sulla stessa lienea nonostante i Watt massimi dell'ALi bastino potresti andare incontro a RESET
BYEZZZZZZZZZZZZ
Alla fine NVIDIA ha seguito la cosa che da tempo proponevo, cioé fare un chippone enorme con miriadi di transistors (davvero miliardi!).
Sarà stata la scelta giusta :confused:
OverClocK79®
12-08-2008, 22:10
sto provando questi nuovi 177.83
così a spanne mi sembrano migliori rispetto ai precedenti
noto a occhio qualcosa in + (magari è solo soggezione :D)
unica cosa, la gestione della ventola mi sembra migliorata, prima mi restava al 100% a volte quando uscivo da qualche game mentre adesso torna correttamente attorno a volori del 40/45%
però
le frequenze in 2D non mi si abbassano in auto
restano sempre a default
forse qualche casino con il pannello di controllo o qualche opzione che non trovo? :D
BYEZZZZZZZZZZZZ
Suhadi_Sadono
12-08-2008, 22:40
A me continua a crashare GRAW2 dopo qualche ora che gioco online :muro: Credo sia colpa dei physics...
sto provando questi nuovi 177.83
così a spanne mi sembrano migliori rispetto ai precedenti
noto a occhio qualcosa in + (magari è solo soggezione )
Ma non potresti provare qualche benchmark? :D
tigershark
12-08-2008, 22:50
le frequenze in 2D non mi si abbassano in auto
restano sempre a default
forse qualche casino con il pannello di controllo o qualche opzione che non trovo? :D
BYEZZZZZZZZZZZZ
no è normale, prova a chiudere internet explorer, steam se lo hai ed anche eventualmente il messenger di microsoft, a me solo cosi passa alle frequenze 300/100
OverClocK79®
12-08-2008, 23:06
mmmmmmm non è che abbia molto senso
ALMENO firefox o IE li tengo aperti quando sono al pc
altrimenti tanto vale che lo spengo se non sta facendo niente di niente ma c'è solo il desktop
speravo, come le altre schede nVidia
che almeno in 2D desktop/internet/Immagini no video
si decloccasse normalmente
pazienza forse sistemeranno meglio più avanti
non è un grave bug
BYEZZZZZZZZZZ
NOOB4EVER
13-08-2008, 08:07
sto provando questi nuovi 177.83
così a spanne mi sembrano migliori rispetto ai precedenti
noto a occhio qualcosa in + (magari è solo soggezione :D)
unica cosa, la gestione della ventola mi sembra migliorata, prima mi restava al 100% a volte quando uscivo da qualche game mentre adesso torna correttamente attorno a volori del 40/45%
però
le frequenze in 2D non mi si abbassano in auto
restano sempre a default
forse qualche casino con il pannello di controllo o qualche opzione che non trovo? :D
BYEZZZZZZZZZZZZ
dai test sui vari giochi rilevo 3 - 4 frame in meno rispetto ai 177.41 :confused: :confused: :confused:
che skifo ma andiamo indietro?? e poi sta benedetta phisX dove la uso?? non mi pare ci siano giochi nuovi che la sfruttano,che tristezza , sistemi da milioni per non avere poi neanche i titoli per divertirsi,diciamolo francamente ste schede sono poco sfruttabili per il momento e figuriamoci se non ne usciranno altre ...boh comincio a capirci sempre meno
Marscorpion
13-08-2008, 08:48
A breve uscirà qualcosa di sicuro! Secondo me AMD-ATI a questo giro ha fatto meglio di Nvidia. Fino ad ora si sono vendute poche GTX280 e ancora meno GTX260.Figuriamoci poi quando il prezzo della 4870X2 si assesterà sotto i 400 euro. Vediamo cosa tirerà fuori Nvidia, anche se secondo me ci sarà il solito problema del prezzo elevato! :(
Se fanno la versione a 55nm della GTX260 penso che mi orienterò su uno sli di GTX260,sempre che il prezzo sia fattibile; non + di 250 euro.
NOOB4EVER
13-08-2008, 09:42
A breve uscirà qualcosa di sicuro! Secondo me AMD-ATI a questo giro ha fatto meglio di Nvidia. Fino ad ora si sono vendute poche GTX280 e ancora meno GTX260.Figuriamoci poi quando il prezzo della 4870X2 si assesterà sotto i 400 euro. Vediamo cosa tirerà fuori Nvidia, anche se secondo me ci sarà il solito problema del prezzo elevato! :(
Se fanno la versione a 55nm della GTX260 penso che mi orienterò su uno sli di GTX260,sempre che il prezzo sia fattibile; non + di 250 euro.
e mi chiedo io per giocare a che cosa !!! lol
Suhadi_Sadono
13-08-2008, 10:54
dai test sui vari giochi rilevo 3 - 4 frame in meno rispetto ai 177.41 :confused: :confused: :confused:
che skifo ma andiamo indietro?? e poi sta benedetta phisX dove la uso?? non mi pare ci siano giochi nuovi che la sfruttano,che tristezza , sistemi da milioni per non avere poi neanche i titoli per divertirsi,diciamolo francamente ste schede sono poco sfruttabili per il momento e figuriamoci se non ne usciranno altre ...boh comincio a capirci sempre meno
Ho fatto 300 punti in meno al 3dmark06 rispetto ai 177.79. :confused:
_morghan_1968
13-08-2008, 10:59
e mi chiedo io per giocare a che cosa !!! lol
mega quotone...
prendere delle ferrari x andare in giro nei campi sullo sterrato...
tanto hardware e nessun gioco :doh:
NOOB4EVER
13-08-2008, 11:08
Ho fatto 300 punti in meno al 3dmark06 rispetto ai 177.79. :confused:
io quasi 500 ma del 3dmark non me ne frega na mazza sono i giochi che contano ;)
mega quotone...
prendere delle ferrari x andare in giro nei campi sullo sterrato...
tanto hardware e nessun gioco :doh:
la sensazione e' proprio quella :muro:
Suhadi_Sadono
13-08-2008, 11:11
io quasi 500 ma del 3dmark non me ne frega na mazza sono i giochi che contano ;)
la sensazione e' proprio quella :muro:
Lo so, però già da quello capisci se sono dei buoni driver o meno.
OverClocK79®
13-08-2008, 12:02
sono anni che seguo il mercato delle scheda video End-game
ed è da sempre così
vuoi l'ultimo ritrovato??
lo paghi....e non lo sfrutti a pieno per XXXX mesi
quando ho preso la GTX280 lo sapevo
ma sono un malato dei Filtri
e con un 24" vivo solo a 1920x1200
che poi ci siano DX10.....psy etc etc per me è oro che cola
cmq ho provato solo Crysis per ora
Bench etc etc ancora nulla
BYEZZZZZZZZZZZZZZ
Nvidia is giving ATI no quarter and dropping GTX280 prices as a traditional sign of welcome for the new Cannuck high end cards.
As of this morning you can get a reference GTX260 for €199 or a reference GTX280 for €319. The cards launched at €349 and €499 respectively, so the GTX260 dropped €150, while the GTX280 is down €180 in two months. This is not something early birds will like, but at least the new prices are much more appealing, especially when it comes to the GTX260.
ATI AIBs are selling the new HD4870 X2 around the €400 mark, but bare in mind that it outperforms the GTX280. The really interesting showdown comes with the DDR3 version, or HD4850 X2, as we're expecting the cheapest models to retail just under €300
gtx280 319€ :eek:
so the GTX260 dropped €150, while the GTX280 is down €180 in two months
ridicoli...
tigershark
13-08-2008, 13:20
Ho fatto 300 punti in meno al 3dmark06 rispetto ai 177.79. :confused:
quello che non capisco è....se sono driver ufficiali per quale arcano motivo non sono presenti ancora nella lista dei whql nvidia??? Sia sul sito italiano che su quello americano siamo ancora fermi alla versione 177.41.
In ogni caso a me continua a non piacere che anche aprendo internet explorer o banalmente il media player per ascoltare una canzone debba farmi schizzare le frequenze in 3d..:confused: :muro:
Nvidia is giving ATI no quarter and dropping GTX280 prices as a traditional sign of welcome for the new Cannuck high end cards.
As of this morning you can get a reference GTX260 for €199 or a reference GTX280 for €319. The cards launched at €349 and €499 respectively, so the GTX260 dropped €150, while the GTX280 is down €180 in two months. This is not something early birds will like, but at least the new prices are much more appealing, especially when it comes to the GTX260.
ATI AIBs are selling the new HD4870 X2 around the €400 mark, but bare in mind that it outperforms the GTX280. The really interesting showdown comes with the DDR3 version, or HD4850 X2, as we're expecting the cheapest models to retail just under €300
gtx280 319€ :eek:
so the GTX260 dropped €150, while the GTX280 is down €180 in two months
ridicoli...
+ scesa più di 200€ in meno di 2 mesi...e nvidia ancora ci guadagna, altrimenti non lo farebbe...che schifidus...a sto punto potrebbe scendere ancora un pelo anche ATI:D (braccine corte...ma ati si merita di fare un po di cassa sto giro)
Suhadi_Sadono
13-08-2008, 14:11
quello che non capisco è....se sono driver ufficiali per quale arcano motivo non sono presenti ancora nella lista dei whql nvidia??? Sia sul sito italiano che su quello americano siamo ancora fermi alla versione 177.41.
In ogni caso a me continua a non piacere che anche aprendo internet explorer o banalmente il media player per ascoltare una canzone debba farmi schizzare le frequenze in 3d..:confused: :muro:
Quoto. Non ho ancora capito perchè siano gli altri siti ad avere i driver nvidia e non il principale :confused:
fr4nc3sco
13-08-2008, 14:25
Quoto. Non ho ancora capito perchè siano gli altri siti ad avere i driver nvidia e non il principale :confused:
ci sono anche sul ufficiale ma nn nella sezione driver nella home cliccate sull immagini e vi portera in un altra sezione dove vi farà scaricare i driver e molto altro
http://forums.vr-zone.com/showthread.php?t=313872
se fosse vero le cose iniziano ad essere alquanto interessanti... :asd:
http://forums.vr-zone.com/showthread.php?t=313872
se fosse vero le cose iniziano ad essere alquanto interessanti... :asd:
tutto vero
GTX280 319€ (http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Gainward/GTX280/275155/?articleId=275155)
GTX260 199€ (http://www.alternate.de/html/search/result.html?action=2&id=5795&searchHandle=A%253DGTX260%257EB%253DGTX260%257EK%253D4%257EL%253D1%257EM%253D1%257E&searchCriteria=GTX260)
e nn stiamo parlando del solito negoziello di trovaprezzi sbucato dal nulla...
NOOB4EVER
13-08-2008, 14:52
nvidia comincia a farmi cagare,spero davvero ati faccia il mostro cosi do i soldi piu volentieri a chi se li merita per i prezzi di mercato dei propri prodotti...
Marscorpion
13-08-2008, 16:05
tutto vero
GTX280 319€ (http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Gainward/GTX280/275155/?articleId=275155)
GTX260 199€ (http://www.alternate.de/html/search/result.html?action=2&id=5795&searchHandle=A%253DGTX260%257EB%253DGTX260%257EK%253D4%257EL%253D1%257EM%253D1%257E&searchCriteria=GTX260)
e nn stiamo parlando del solito negoziello di trovaprezzi sbucato dal nulla...
Peccato che qui in Italia siamo sempre gli ultimi ad aggiornare i prezzi! :(
Suhadi_Sadono
13-08-2008, 16:13
Peccato che qui in Italia siamo sempre gli ultimi ad aggiornare i prezzi! :(
Quoto :rolleyes:
Peccato che qui in Italia siamo sempre gli ultimi ad aggiornare i prezzi! :(
Quoto :rolleyes:
i negozietti vari sono in vacanza con i soldi che hanno guadagnato...se ne riparla ai primi di settembre qua in Italia...vedrete che appena uno aggiorna i prezzi, tutti gli altri lo seguono a ruota :D
tigershark
13-08-2008, 17:18
Quoto. Non ho ancora capito perchè siano gli altri siti ad avere i driver nvidia e non il principale :confused:
ingreeedibbbbbileeeeee :eek: con questa release dei drivers hanno finalmente risolto il bug della velocità della ventola che non tornava più al 40%!!!!!!!! Allora me li tengo :) nonostante la gestione clock che lascia a desiderare. Sarà merito delle miriadi di segnalazioni con screenshot a seguito che ho mandato al customer service americano???
Finalmenteeeeeeeeeeeeeeee :Prrr:
DarkVampire
13-08-2008, 17:25
dai test sui vari giochi rilevo 3 - 4 frame in meno rispetto ai 177.41 :confused: :confused: :confused:
che skifo ma andiamo indietro?? e poi sta benedetta phisX dove la uso?? non mi pare ci siano giochi nuovi che la sfruttano,che tristezza , sistemi da milioni per non avere poi neanche i titoli per divertirsi,diciamolo francamente ste schede sono poco sfruttabili per il momento e figuriamoci se non ne usciranno altre ...boh comincio a capirci sempre meno
gioki nuovi?...Unreal tournament nn ti basta? (a me fa cagare)...cellshock?...cmq per ora nn conviene niente sti driver...ho trovato fra i piu' veloci soltanto i driver 175.80...tutti quelli successivi hanno vantaggi solo nei benk ma nei gioki sono inferiori in framerate
ingreeedibbbbbileeeeee :eek: con questa release dei drivers hanno finalmente risolto il bug della velocità della ventola che non tornava più al 40%!!!!!!!! Allora me li tengo :) nonostante la gestione clock che lascia a desiderare. Sarà merito delle miriadi di segnalazioni con screenshot a seguito che ho mandato al customer service americano???
Finalmenteeeeeeeeeeeeeeee :Prrr:
Noooooo.... ed io che proprio la settimana scorsa ho aggiornato il Bios impostando sul Fan IC Automatic al posto di Dynamic... :doh:
Vuoi vedere che adesso con Automatic non ritornerà più al 40% ? :cool:
tigershark
13-08-2008, 17:29
gioki nuovi?...Unreal tournament nn ti basta? (a me fa cagare)...cellshock?...cmq per ora nn conviene niente sti driver...ho trovato fra i piu' veloci soltanto i driver 175.80...tutti quelli successivi hanno vantaggi solo nei benk ma nei gioki sono inferiori in framerate
prima di pensare alle ottimizzazioni in termini velocistici devono riuscire a sistemare i tanti difetti delle release precedenti, tipo ventola, clock ecc ecc.
Poi c'è da ottimizzare tutta la questione interfacciamento con i driver della fisica. Io credo che troveremo grandi cambiamenti con la release 180 prevista a settembre....promette grandi cose
OverClocK79®
13-08-2008, 17:31
che ci vuoi fare
era prevedibile scendessero i prezzi
le schede di questa fascia si svalutano ad una velocità folle
del resto con i prezzi delle ATI doveva accadere
magari qua da noi nn li vedrai mai a quei prezzi di certo cmq scenderanno
BYEZZZZZZZZZZZZ
tigershark
13-08-2008, 17:31
Noooooo.... ed io che proprio la settimana scorsa ho aggiornato il Bios impostando sul Fan IC Automatic al posto di Dynamic... :doh:
Vuoi vedere che adesso con Automatic non ritornerà più al 40% ? :cool:
guarda finalmente, sono contento di questo, in più ho riveuto la mail del customer service, in particolare del tizio nvidia che ha seguito il caso, in cui mi hanno scritto ufficialmente che il bug è stato risolto con la versione 177.83 dei forceware...adesso devo martellarli per la quetione clock :D :D :D Posso dire di essere contento di pagare qualcosa in più il prodotto Nvidia, ma almeno hanno un'assistenza tecnica degna di nota e che mi ha dato molte soddisfazioni, questa per ultima.
Un consiglio...ripristina il bios originale e vivi felice e sereno.
OverClocK79®
13-08-2008, 17:33
ingreeedibbbbbileeeeee :eek: con questa release dei drivers hanno finalmente risolto il bug della velocità della ventola che non tornava più al 40%!!!!!!!!
ah bene
allora non ero l'unico
era un bug intrinseco delle schede ^^
si ora funziona alla grande....la si sente rallentare anche se "altabbi" dal game al desk per qlk minuto
BYEZZZZZZZZZZZZ
tigershark
13-08-2008, 17:44
ah bene
allora non ero l'unico
era un bug intrinseco delle schede ^^
si ora funziona alla grande....la si sente rallentare anche se "altabbi" dal game al desk per qlk minuto
BYEZZZZZZZZZZZZ
si, non immagini quanto ci ho sbattuto, ho pure inviato la vecchia gtx280 in rma pensando che fosse un difetto hardware..:ciapet:
NOOB4EVER
13-08-2008, 18:38
prima di pensare alle ottimizzazioni in termini velocistici devono riuscire a sistemare i tanti difetti delle release precedenti, tipo ventola, clock ecc ecc.
Poi c'è da ottimizzare tutta la questione interfacciamento con i driver della fisica. Io credo che troveremo grandi cambiamenti con la release 180 prevista a settembre....promette grandi cose
nvidia promette di qua e promette di la ultimamente,speriamo con la release 180 recuperi un po dei punti persi in questi ultimi tempi
NOOB4EVER
13-08-2008, 18:40
gioki nuovi?...Unreal tournament nn ti basta? (a me fa cagare)...cellshock?...cmq per ora nn conviene niente sti driver...ho trovato fra i piu' veloci soltanto i driver 175.80...tutti quelli successivi hanno vantaggi solo nei benk ma nei gioki sono inferiori in framerate
:D :D :D :D davvero stupefacenti :D :D :D :D
Mercuri0
13-08-2008, 21:33
+ scesa più di 200€ in meno di 2 mesi...e nvidia ancora ci guadagna, altrimenti non lo farebbe...che schifidus...
Non è così semplice... e i risultati finanziari di nVidia sono in rosso, a 'sto giro.
Forse senza la storia dei chip per notebook difettosi sarebbe riuscita a pareggiare.
Alla fine NVIDIA ha seguito la cosa che da tempo proponevo, cioé fare un chippone enorme con miriadi di transistors (davvero miliardi!).
Sarà stata la scelta giusta :confused:
Fare il superchippone è una strada rischiosissima, con il G80 andò bene, ma con il GT200 no, a causa del cambio di strategia di AMD e del fatto che RV770 è uscito meglio di quanto tutti si aspettassero.
Quando va bene si fanno un sacco di soldi (G80) quando va male sò cazzi amarissimi a causa dei costi di produzione enormi.
tigershark
14-08-2008, 07:05
Non è così semplice... e i risultati finanziari di nVidia sono in rosso, a 'sto giro.
Forse senza la storia dei chip per notebook difettosi sarebbe riuscita a pareggiare.
Fare il superchippone è una strada rischiosissima, con il G80 andò bene, ma con il GT200 no, a causa del cambio di strategia di AMD e del fatto che RV770 è uscito meglio di quanto tutti si aspettassero.
Quando va bene si fanno un sacco di soldi (G80) quando va male sò cazzi amarissimi a causa dei costi di produzione enormi.
io non lo vedo tutto questo flop, gt200 va bene, è molto performante..ok la 4870 x2 lo sarà di più ma costerà anche di più...il prezzo attuale renderà la gtx 280 la scheda con il miglior rapporto prezzo / prestazioni, in fin dei conti i vantaggi della 4870 x2 si faranno sentire notevolmente solo con titoli ben ottimizzati...ma a mio parere la differenza di prezzo unita ai consumi esagerati, calore ecc ecc non la renderanno una scelta moooolto appetibile o comunque, non diamo per scontato che la gente comprerà solo questa al posto della gtx 280:ciapet:
michelgaetano
14-08-2008, 09:24
io non lo vedo tutto questo flop, gt200 va bene, è molto performante..ok la 4870 x2 lo sarà di più ma costerà anche di più...il prezzo attuale renderà la gtx 280 la scheda con il miglior rapporto prezzo / prestazioni, in fin dei conti i vantaggi della 4870 x2 si faranno sentire notevolmente solo con titoli ben ottimizzati...ma a mio parere la differenza di prezzo unita ai consumi esagerati, calore ecc ecc non la renderanno una scelta moooolto appetibile o comunque, non diamo per scontato che la gente comprerà solo questa al posto della gtx 280:ciapet:
Beh, trovaprezzi ad oggi dice gtx 280 369 e HD4870X2 a 384, e gli shop sono ancora pochissimi.
GIochi ottimizzati o meno, la 4870X2 non sembra soffrire in niente, e siamo oltre il 25 % di prestazioni in più in media!
Insomma, a quel prezzo, prendi lei, non la gtx 280.
Suhadi_Sadono
14-08-2008, 09:27
Beh, trovaprezzi ad oggi dice gtx 280 369 e HD4870X2 a 384, e gli shop sono ancora pochissimi.
GIochi ottimizzati o meno, la 4870X2 non sembra soffrire in niente, e siamo oltre il 25 % di prestazioni in più in media!
Insomma, a quel prezzo, prendi lei, non la gtx 280.
Quoto. Senza considerare che tutti le prove le hanno fatte con driver non sviluppati per sta scheda.
tigershark
14-08-2008, 09:35
Beh, trovaprezzi ad oggi dice gtx 280 369 e HD4870X2 a 384, e gli shop sono ancora pochissimi.
GIochi ottimizzati o meno, la 4870X2 non sembra soffrire in niente, e siamo oltre il 25 % di prestazioni in più in media!
Insomma, a quel prezzo, prendi lei, non la gtx 280.
se davvero la 4870x2 costerà 384 euro, allora sicuramente la gtx 280 calerà ulteriormente...sono le leggi del mercato, nemmeno nvidia si può sottrarre ad esse...sto dando ovviamente per scontato che sia reale questo 25% di prestazioni in più di media...che poi ti dirò sinceramente, per una scheda dual GPU che sembrava dover spaccare il mondo in due son pure pochi..considera che non è lontanissima l'introduzione del gt200 con processo a 55nm che non può fargli che bene, questo divario è destinato ad essere colmato.
Marscorpion
14-08-2008, 09:46
Non dimendicate che è una dualgpu, vorrei vedere se va meno della singola GTX280! Il confronto andrebbe fatto con due GTX280 e li son c...i :D .
Certo però che per compare due GTX280 ora ci vogliono + di 700 euro, mentre per la 4870X2 meno di 400. Ati ha fatto un buon lavoro.
Vedremo Nvidia come risponde, anche se non potrà colmare il divario con una scheda singola.Secondo me dovrebbe puntare sul prezzo aggressivo. Tra poco nel mercatino sarà pieno di GTX280!
mircocatta
14-08-2008, 09:51
domanda: all'uscita della 4870 c'è chi comprava la gtx280 dicendo: costa molto ma voglio il meglio su piazza...
voglio vedere ora se queste persone compreranno o no la 4870x2 palesemente migliore sotto quasi tutti i punti di vista (prestazioni prezzo in primis)..vediamo se manterranno fede alla frase sopra citata o se era semplicemente fanboysmo per nvidia :D
tigershark
14-08-2008, 09:51
Non dimendicate che è una dualgpu, vorrei vedere se va meno della singola GTX280! Il confronto andrebbe fatto con due GTX280 e li son c...i :D .
Certo però che per compare due GTX280 ora ci vogliono + di 700 euro, mentre per la 4870X2 meno di 400. Ati ha fatto un buon lavoro.
Vedremo Nvidia come risponde, anche se non potrà colmare il divario con una scheda singola.Secondo me dovrebbe puntare sul prezzo aggressivo.
beh si ovvio, ma non penso uscirà mai una versione dual gpu di gt200, piuttosto aspettiamoci una nuova gpu dx11 tra non molto tempo. Io credo che questo gt200 sia quasi l'anello di congiunzione tra la vecchia generazione (g80) e la nuova che verrà. In ogni caso c'è da dire che la 4870 x2 dovrebbe offrire un incremento medio del 25 - 30% di prestazioni a costo di un esorbitante consumo energetico e livelli di rumore a mio modesto parere inaccettabili.
Computerbase ha testato i 177.83
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_geforce_17783/#abschnitt_einleitung
Su crysis in vh a 1600x1200 hanno limato circa il 5%
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_geforce_17783/7/
tigershark
14-08-2008, 09:54
domanda: all'uscita della 4870 c'è chi comprava la gtx280 dicendo: costa molto ma voglio il meglio su piazza...
voglio vedere ora se queste persone compreranno o no la 4870x2 palesemente migliore sotto quasi tutti i punti di vista (prestazioni prezzo in primis)..vediamo se manterranno fede alla frase sopra citata o se era semplicemente fanboysmo per nvidia :D
io sono uno di quelli che ha comprato la gtx 280 prima ancora che uscisse la 4870, non è questione di essere fan boy, personalmente ho acquistato la gtx280 per i seguenti motivi:
1) non amo le soluzioni dual gpu
2) a livello di compatibilità e supporto games nvidia è la numero uno, non ci sono santi che tengano
3) mi affascina molto la tecnologia CUDA e phsyx, cose che dimostrano l'impegno di nvidia su tutti i fronti
4) amo i camaleonti :D :D
Marscorpion
14-08-2008, 09:57
domanda: all'uscita della 4870 c'è chi comprava la gtx280 dicendo: costa molto ma voglio il meglio su piazza...
voglio vedere ora se queste persone compreranno o no la 4870x2 palesemente migliore sotto quasi tutti i punti di vista (prestazioni prezzo in primis)..vediamo se manterranno fede alla frase sopra citata o se era semplicemente fanboysmo per nvidia :D
Ma che discorso :rolleyes: . In quel periodo la GTX280 era la sceda più potente, certo che oggi chi vuole il meglio compra una 4870X2 ! Oppure per chi ha la possibilità di fare lo SLI si prende 2 GTX260 e sta dietro alle 4870X2 con una spesa simile.
mircocatta
14-08-2008, 09:58
3) mi affascina molto la tecnologia CUDA e phsyx, cose che dimostrano l'impegno
ati dalla sua ha la tessellation e in programma di usare il ray tracing e rendering in tempo reale, novità imho molto più importanti su cui si dovrebbe puntare per avere più fotorealismo, la fisica posso tranquillamente lasciare alla cpu ;)
mircocatta
14-08-2008, 10:00
Ma che discorso :rolleyes: . In quel periodo la GTX280 era la sceda più potente, certo che oggi chi vuole il meglio compra una 4870X2 ! Oppure per chi ha la possibilità di fare lo SLI si prende 2 GTX260 e sta dietro alle 4870X2 con una spesa simile.
io non parlo della gente comune, ma quelli fuori dal comune, che di queste schede ne hanno prese 3 in un solo botto
poi, appunto, siccome lo dicevano perchè era il meglio, dovrebbero ora andare a comprare la 4870x2 (ps: la mia non era critica, volevo solo sapere le intenzioni di questi super enthusiast)
michelgaetano
14-08-2008, 10:02
2*gtx280 = almeno 700 euro, che dolore :asd: Ma non credo vi sia in programma.
Inoltre un refresh a 55nm non avvicinerebbe tanto la gtx 280 per prestazioni (vedi 9800gtx+), ma solo nel prezzo di produzione, per Nvidia.
Le prestazioni comunque si sapevano, quindi c'è poco da dire "doveva spaccare il mondo".
L'obiettivo era riprendere la testa del mercato, lo ha fatto. Personalmente, quello che non mi aspettavo era un simile prezzo al lancio, anche considerando che gli shop più concorrenziali sono ancora in ferie.
Spero caleranno di conseguenza gtx 260, 280, HD4870 :)
In fondo la 4870X2 (384 € al momento) costa meno di due 4870.
tigershark
14-08-2008, 10:03
ati dalla sua ha la tessellation e in programma di usare il ray tracing e rendering in tempo reale, novità imho molto più importanti su cui si dovrebbe puntare per avere più fotorealismo, la fisica posso tranquillamente lasciare alla cpu ;)
si hai detto bene...in programma..perchè per i prossimi 2 - 3 anni di giochi fotorealistici ne vedrai ben pochi. Non esiste al momento scheda che possa reggerli, nemmeno le ati con la tesselation unit, è solo pura trovata pubblicitaria renditene conto, quindi ora come ora è meglio puntare su soluzioni che possano gestire elementi importanti, quali la fisica, senza appesantire troppo il sistema e soprattutto in modo tale da sfruttare queste bestie e e tutti i soldi che costano
tigershark
14-08-2008, 10:09
2*gtx280 = almeno 700 euro, che dolore :asd: Ma non credo vi sia in programma.
Inoltre un refresh a 55nm non avvicinerebbe tanto la gtx 280 per prestazioni (vedi 9800gtx+), ma solo nel prezzo di produzione, per Nvidia.
Le prestazioni comunque si sapevano, quindi c'è poco da dire "doveva spaccare il mondo".
L'obiettivo era riprendere la testa del mercato, lo ha fatto. Personalmente, quello che non mi aspettavo era un simile prezzo al lancio, anche considerando che gli shop più concorrenziali sono ancora in ferie.
Spero caleranno di conseguenza gtx 260, 280, HD4870 :)
In fondo la 4870X2 (384 € al momento) costa meno di due 4870.
si ok, ma tieni sempre presente che parliamo di una soluzione dual GPU, 2 GPU vs 1 GPU che per quanto mega galattica e complessa rimane sempre e solo una GPU. Certo, si tratta di approcci diversi, ma ripeto, a me gli accrocchi non piacciono.
Se continueranno cosi, la prox generazione di schede video vedrà Nvidia con un chippone ancora più mega galattico e Ati che per dimostrare di essere la più "forte" monterà 3 - 4 gpu su un unico pcb, magari 2 su un lato e 2 sull'altro :stordita:
Marscorpion
14-08-2008, 10:10
2*gtx280 = almeno 700 euro, che dolore :asd: Ma non credo vi sia in programma.
Inoltre un refresh a 55nm non avvicinerebbe tanto la gtx 280 per prestazioni (vedi 9800gtx+), ma solo nel prezzo di produzione, per Nvidia.
Le prestazioni comunque si sapevano, quindi c'è poco da dire "doveva spaccare il mondo".
L'obiettivo era riprendere la testa del mercato, lo ha fatto. Personalmente, quello che non mi aspettavo era un simile prezzo al lancio, anche considerando che gli shop più concorrenziali sono ancora in ferie.
Spero caleranno di conseguenza gtx 260, 280, HD4870 :)
In fondo la 4870X2 (384 € al momento) costa meno di due 4870.
Si davvero ottimo lavoro da parte di Ati! Era ora che desse del filo da torcere a Nvidia, che in questi ultimi periodi ha fatto il "bello ed il cattivo tempo".
Se non caleranno le GTX260 e soprattutto le GTX280 sono del tutto fuori mercato. Se continua così la 4870X2 la troveremo tra poche settimane a 350 euro.
tigershark
14-08-2008, 10:13
Si davvero ottimo lavoro da parte di Ati! Era ora che desse del filo da torcere a Nvidia, che in questi ultimi periodi ha fatto il "bello ed il cattivo tempo".
Se non caleranno le GTX260 e soprattutto le GTX280 sono del tutto fuori mercato. Se continua così la 4870X2 la troveremo tra poche settimane a 350 euro.
si...ma mi sa che tutta questa gente che si tufferà di testa su questo fon per capelli, si troverà a dover sborsare altri bei dindini per Alimentatore e sistemi di raffreddamento adeguati...oltre che di un bel contatore enel da 4 kw
domanda: all'uscita della 4870 c'è chi comprava la gtx280 dicendo: costa molto ma voglio il meglio su piazza...
voglio vedere ora se queste persone compreranno o no la 4870x2 palesemente migliore sotto quasi tutti i punti di vista (prestazioni prezzo in primis)..vediamo se manterranno fede alla frase sopra citata o se era semplicemente fanboysmo per nvidia :D
Molti, quando vogliono cambiare una scheda scelgono sulla base di quello che in quel momento è relmente disponibile, non su quello che lo diverrà, e quest'ultimi cambiano la scheda perchè hanno, o pensano d'avere, necessita di farlo...
tigershark
14-08-2008, 10:19
Molti, quando vogliono cambiare una scheda scelgono sulla base di quello che in quel momento è relmente disponibile, non su quello che lo diverrà, e quest'ultimi cambiano la scheda perchè hanno, o pensano d'avere, necessita di farlo...
a me personalmente, i ragionamenti che non sopporto sono...
...nvidia con il gt200 ha fatto un flop...la 4870x2 è piu veloce del 25%!!!!!!!!!!!
Grazie al piffero ha 2 GPU...
...ati monta la tesselation unit, grazie alla quale avremo i giochi fotorealistici....
ma che fotorealismo!!!! Qui ci facciamo abbindolare dai video demo pubblicitari che parlano di cose che saranno possibili chissà tra quanti anni!!! :mbe:
Ormai il mercato delle schede video è pari alla sagra della salsiccia
michelgaetano
14-08-2008, 10:22
si...ma mi sa che tutta questa gente che si tufferà di testa su questo fon per capelli, si troverà a dover sborsare altri bei dindini per Alimentatore e sistemi di raffreddamento adeguati...oltre che di un bel contatore enel da 4 kw
Credo tu stia esagerando, la 3870X2 non ha ucciso nessuno.
Inoltre, guardando ai db, fa 5-6 db in meno in idle, e 5-6 in più sotto sforzo.
Non diventerai sordo per 5 decibel.
Poi, se io avessi un 30" e una 4870X2, me ne fregherei ampiamente dei consumi, anche se questo è opinabile.
La scheda va troppo forte al momento, c'è poco da fare.
michelgaetano
14-08-2008, 10:24
a me personalmente, i ragionamenti che non sopporto sono...
...nvidia con il gt200 ha fatto un flop...la 4870x2 è piu veloce del 25%!!!!!!!!!!!
Grazie al piffero ha 2 GPU...
...ati monta la tesselation unit, grazie alla quale avremo i giochi fotorealistici....
ma che fotorealismo!!!! Qui ci facciamo abbindolare dai video demo pubblicitari che parlano di cose che saranno possibili chissà tra quanti anni!!! :mbe:
Ormai il mercato delle schede video è pari alla sagra della salsiccia
Non capisco il problema del dual gpu francamente, nulla vieta a Nvidia di farlo.
Se ha scelto questa strategia, ne paga le conseguenze/ne sfrutta i vantaggi.
Prima è andata alla grande, ora meno.
Suhadi_Sadono
14-08-2008, 10:29
Non capisco il problema del dual gpu francamente, nulla vieta a Nvidia di farlo.
Se ha scelto questa strategia, ne paga le conseguenze/ne sfrutta i vantaggi.
Prima è andata alla grande, ora meno.
Si grazie... allora facciamo schede con 10 gpu su ogni pcb solo per avere prestazioni increbibili... tanto i consumi sono una cosa secondaria no? :asd:
tigershark
14-08-2008, 10:30
Poi, se io avessi un 30" e una 4870X2, me ne fregherei ampiamente dei consumi, anche se questo è opinabile.
La scheda va troppo forte al momento, c'è poco da fare.
ok sul lato consumi....è opinabile..opiniamolo allora..io personalmente uso il pc non solo per giocare, mi capita di lasciarlo acceso anche per molte ore a svolgere determinati lavori ok??
La gtx 280 in idle consuma appena 25W...la 4870 x2???
E' importante anche quello secondo me..soprattutto in un momento in cui si dovrebbe fare attenzione anche ai consumi.
La scheda va troppo forte ok....mettiamo un 30% di prestazioni in più, ipotizziamo un gioco che giri su gtx 280 a 15 fps...ingiocabile direi per un entusiasta di schede video...
grazie al suo buon 30% di prestazioni in più sulla 4870x2 lo stesso gioco girerà niente poco di meno che a 19.5 fps...direi malaccio anche in questo caso. Non stiamo parlando come vedi di una scheda che performa esattamente il doppio
io non parlo della gente comune, ma quelli fuori dal comune, che di queste schede ne hanno prese 3 in un solo botto
poi, appunto, siccome lo dicevano perchè era il meglio, dovrebbero ora andare a comprare la 4870x2 (ps: la mia non era critica, volevo solo sapere le intenzioni di questi super enthusiast)
L'appassionato che si è fatto un tri-sli non ha come obbiettivo primario la giocabilità, ma il punteggio al 3dmark.
Se un crossfire di x2 gli consentirà di incrementare il punteggio, è molto facile che venderà il tri-sli per farsi un crossfire di x2, per altro a costo quasi nullo vendendo le 3 280.
tigershark
14-08-2008, 10:30
Si grazie... allora facciamo schede con 10 gpu su ogni pcb solo per avere prestazioni increbibili... tanto i consumi sono una cosa secondaria no? :asd:
è proprio qui il problema...adesso alla Ati ragionano cosi :D in particolare ragionano cos' dal momento in cui si son resi conto di non poter competere alla pari con Nivdia, sul lato architettura la seconda bisogna ammetterlo, è notevolmente in vantaggio
Suhadi_Sadono
14-08-2008, 10:31
Fra un po' ati tra i requisiti metterà: contatore Enel da 3.5kw secondario solo per la scheda :asd:
L'importante è giocare fluido a Crysis... :asd:
Poi, se io avessi un 30" e una 4870X2, me ne fregherei ampiamente dei consumi, anche se questo è opinabile.
Quoto, ma quando le bollette iniziano ad essere addebitate sul proprio c/c e non su quello dei genitori molte cose cambiano :)
La scheda va troppo forte al momento, c'è poco da fare.
Vero
NOOB4EVER
14-08-2008, 10:38
aime to do ragione in pieno,se non si danno una regolata e cominciano a progettare componentistiche con consumi inferiori o davvero ,tra pochi anni,queste cose resteranno solamente per enthusiast nel vero senso della parola :rolleyes:
michelgaetano
14-08-2008, 10:38
Quoto, ma quando le bollette iniziano ad essere addebitate sul proprio c/c e non su quello dei genitori molte cose cambiano :)
Vero
Beh sai, in un ipotetico scenario, dopo aver speso 400 euro di GPU e 200 euro di Ali, di spednere 50 euro in più in un anno (tanto, potendo permettermi simili cifre, cestino anche la gpu dopo 12 mesi :asd:) non sono tanti.
E con 50 euro non è detto che abbia esagerato ^^
Voglio dire: ricordo alcune accese discussioni di un mesetto fa
Il succo era: la gtx 280 è una scheda enthusiast, chi la compra se ne frega di prezzo, consumi, architettura:è il top.
Lo stesso vale ora per la 4870X2.
Che abbia 2 GPU, in questo senso, non dovrebbe fregare, o nessuno avrebbe preso, ad esempio, la 9800gx2, che seppur superata, va da paura.
Chiunque poi gioca a tutto con una 4870 vanilla, che di euro ne costa la metà, rispetto ai bestioni sovracitati :)
Mercuri0
14-08-2008, 10:47
io non lo vedo tutto questo flop, gt200 va bene, è molto performante..
Non ho mai detto che la GTX280 sia stata un flop per gli utenti. Adesso è anzi una ottima scheda per rapporto prezzo prestazioni, mentre qualche settimana fa era una inc**** pazzesca, ma capisco che a cuor non si comanda.
Il GT200 non è stato un buon affare per nVidia: il trimeste precedente nVidia aveva fatto utili per 2 miliardi di $, mentre questo trimeste ha perso 200 milioni di dollari circa. Una differenza di 2.2 miliardi di dollari in un trimeste!! (ovviamente non è "colpa" solo del GT200)
Io assolutamente non capisco i fanboy che parlano di flop o non flop guardando solo le barrette: qualsiasi prestazione abbia una scheda, se ben prezzata, per noi utenti può essere un affare.
E' più realistico guardare cosa rappresenta la scheda per i produttori, sopratutto perché ci fa capire perché i produttori facciano certe scelte, e quello che possiamo aspettarci per il futuro.
Se continueranno cosi, la prox generazione di schede video vedrà Nvidia con un chippone ancora più mega galattico e Ati che per dimostrare di essere la più "forte" monterà 3 - 4 gpu su un unico pcb, magari 2 su un lato e 2 sull'altro :stordita:
Non penso che andrà così. ;)
a me personalmente, i ragionamenti che non sopporto sono...
...nvidia con il gt200 ha fatto un flop...la 4870x2 è piu veloce del 25%!!!!!!!!!!!
Grazie al piffero ha 2 GPU...
L'area del GT200 è il doppio di un singolo RV770. Quello di veramente inaspettato che è successo è che un chip come RV770 pur avendo area meno della metà (e costando ad ATI un quarto) è della stessa classe di prestazioni del GT200! Non c'era bisogno di aspettare la 4870x2 per capire a chi era andata meglio a 'sto giro. (le "mazzate" nVidia le aveva prese prima dell'uscita della 4870x2... la 4870x2 ha solo un valore simbolico e da argomento di conversazione per bar)
...ati monta la tesselation unit, grazie alla quale avremo i giochi fotorealistici....
ma che fotorealismo!!!! Qui ci facciamo abbindolare dai video demo pubblicitari che parlano di cose che saranno possibili chissà tra quanti anni!!! :mbe:
Il tessellatore non c'entra coi giochi fotorealistici, nonostante sia passato questo messaggio.
Comunque sui meriti del tessellatore nVidia farà un bel pò di pubblicità tra gli sviluppatori a partire dall'nVision (probabilmente ha già cominciato al Siggraph) perché un tessellatore sarà montato sulle sue schede future, e richiesto dal DX11.
Se vuoi ti linko qualche slide dove nVidia o Microsoft parlano delle meraviglie del tessellatore ;) Ma a dire il vero secondo Jon Carmack non è che sia tutto questo granché, a dirla tutta, e se io dovessi valutare l'acquisto di una scheda ATI o nVidia del tessellatore (come del dx 10.1 e Physix) me ne sbatterei :D
Foglia Morta
14-08-2008, 10:49
è proprio qui il problema...adesso alla Ati ragionano cosi :D in particolare ragionano cos' dal momento in cui si son resi conto di non poter competere alla pari con Nivdia, sul lato architettura la seconda bisogna ammetterlo, è notevolmente in vantaggio
2 RV770 costano la metà di un GT200 da produrre. Chiaro ora come ragionano ?
tigershark
14-08-2008, 10:54
L'area del GT200 è il doppio di un singolo RV770. Quello di veramente inaspettato che è successo è che un chip come RV770 pur avendo area meno della metà (e costando ad ATI un quarto) è della stessa classe di prestazioni del GT200! Non c'era bisogno di aspettare la 4870x2 per capire a chi era andata meglio a 'sto giro.
vabbe ce ne vogliono 2 in realtà per avere prestazioni confrontabili, quindi non direi che è cosi inaspettata come cosa....
poi non puoi confrontare le 2 aree di silicio in quanto realizzate una a 65nm l'altra a 55nm.
Io la vedo diversamente..ciè che 240 unità di elaborazioni nvidia tengono testa abbondantemente a 400 unità di elaborazione Ati....
michelgaetano
14-08-2008, 10:57
vabbe ce ne vogliono 2 in realtà per avere prestazioni confrontabili, quindi non direi che è cosi inaspettata come cosa....
Stai scherzando spero, hai visto come è vicina la 4870 alla gtx 280, con un area del core che è la metà?
:D
ma la suddetta scheda ci sta in un soprano dx?
Mercuri0
14-08-2008, 10:59
è proprio qui il problema...adesso alla Ati ragionano cosi :D in particolare ragionano cos' dal momento in cui si son resi conto di non poter competere alla pari con Nivdia, sul lato architettura la seconda bisogna ammetterlo, è notevolmente in vantaggio
Mi dispiace ma non è così: la scheda tecnologicamente più figa di questa generazione è la 4870 ;)
Il motivo per cui AMD non ha fatto un "lenzuolo" dome il GT200, non è che non siano capaci di fare il copia & incolla nei cad, ma per motivi di ritorno economico.
Inolte quello che sfugge ai più è che si progetta con dei target di prezzo. RV770, era progettato per essere un chip di fascia performance (sotto i 300€), mentre il GT200 un chip di fascia ultra enthusiast (sopra i 550€), ed è andata come è andata.
Quello che ci aspettavamo era che RV770 andasse molto più lento del GT200, e che la 4870x2 avrebbe potuto vedersela con la GTX280. Anche così, ad AMD sarebbe andate "bene". Invece a 'sto giro le cose per AMD sono andate meglio del previsto.
Ma ribadisco che questo non toglie nulla al fatto che la GTX280 per noi possa essere un ottimo acquisto!! (al prezzo "giusto")
Al di là di tutto e delle solite dispute tra sostenitori ati/nvidia...
per chi dovesse usare ste schede per giocare a 1600 o massimo a 1920, è effettivamente "utile" prendere sto altoforno della ATI o è sufficiente la gtx280per giocare con filtri attivi e immagini fluide?
Voglio dire, avessi un monitor da 30'' un pensierino ce lo farei pure, ma per un 24 ne vale davvero la pena?
tigershark
14-08-2008, 11:07
Stai scherzando spero, hai visto come è vicina la 4870 alla gtx 280, con un area del core che è la metà?
:D
ancora con sto discorso della metà, stai confrontando un core a 65nm con uno a 55nm!!!! E poi, sono 2 cose non paragonabili per il semplice motivo che l'architettura nvidia è totalmente differente da quella Ati. Il singolo SP Nvidia è molto più efficiente del singolo SP Ati, lo vedi da quanti ce ne mettono in una singola GPU 48xx, poi usano un controller di memoria completamente differente!!! 512bit per nvidia, 256bit per Ati e forse non hai idea di quanto sia complesso un controller a 512bit
Mercuri0
14-08-2008, 11:07
vabbe ce ne vogliono 2 in realtà per avere prestazioni confrontabili, quindi non direi che è cosi inaspettata come cosa....
:confused: Ne basta uno per avere prestazioni confrontabili!
poi non puoi confrontare le 2 aree di silicio in quanto realizzate una a 65nm l'altra a 55nm.
Dalle stime rv770 sarà la metà anche del GT200 a 55nm. Lo vedremo presto, comunque. Inoltre nessuno vietava a nVidia di usare i 55nm pure lei, eh, visto che entrambi si fanno produrre i chip dalla stessa fonderia.
Io la vedo diversamente..ciè che 240 unità di elaborazioni nvidia tengono testa abbondantemente a 400 unità di elaborazione Ati....
Questo non è un parametro significativo perché "Unità di elaborazione" possono voler dire "carciofi" in un caso e "patate" nell'altro.
I parametri che devi considerare per giudicare la bontà di una tecnologia sono solo prestazioni/area, cioè quanto il chip costa da produrre e prestazioni/consumi, quest'ultimo ormai sempre più importante perché i consumi fanno da muro alle prestazioni, anche in ottica di evoluzioni future dell'architettura.
Non è stato un cappotto totale perché RV780 è della stessa classe di consumi del GT200. nVidia e AMD hanno "pareggiato" sulla tecnologia pura, ma nVidia la prese sonoramente sui costi di produzione.
sul lato architettura la seconda bisogna ammetterlo, è notevolmente in vantaggio
Ma... con tutta onestà, e nonostante la mia simpatia per le tonalità verdi, non credo che nVidia sia in vantaggio sul fronte architetturale rispetto ad Ati, anzi.
Ati, con soli 200Mln di transitors in più rispetto a 3870, ha quasi triplicato gli stream processor e credo tmu, nonostante i soli 256bit, e comunque una banda inferiore verso la ram rispetto a GT200, con l'AA, ha drop prestazionali mediamente inferiori.
Il divario prestazionale tra serie 3 e 4 è nettamente superiore rispetto al divario tra G80 e GT200, e questo nonostante i 700Mln di transistors in più che nVidia è riuscita ad infilare in GT200.
Se hai due archittetture e la prima con il 50% dei transistors in meno riesce a produrti framerate inferiori che mediamente si attestano al 10-20%, a mio avviso l'architettura migliore è la prima, e non la seconda :)
Personalmente sono portato a giudicare un risultato sulla base degli sforzi ottenuti/risorse impiegate, e do tendenzialmente un maggiore riscontro/fiducia verso chi
producendo un risultato qualitativamente ottimale, riesce a minimizzare i costi, e in questo giro, secondo i miei personalissimi criteri di valutazione, ATI ha indubbiamente lavorato meglio.
tigershark
14-08-2008, 11:09
Al di là di tutto e delle solite dispute tra sostenitori ati/nvidia...
per chi dovesse usare ste schede per giocare a 1600 o massimo a 1920, è effettivamente "utile" prendere sto altoforno della ATI o è sufficiente la gtx280per giocare con filtri attivi e immagini fluide?
Voglio dire, avessi un monitor da 30'' un pensierino ce lo farei pure, ma per un 24 ne vale davvero la pena?
direi che ' più che sufficiente la gtx 280..del resto ripeto il mio ragionamento..
se un gioco ti gira a 15fps sulla gtx280, in media girerà a 19.4 fps sulla 4870x2..per cui se è ingiocabile sulla prima lo sarà anche sulla seconda.
allora posso inserirla in un soprano dx?
tigershark
14-08-2008, 11:13
:confused:
Questo non è un parametro significativo perché "Unità di elaborazione" possono voler dire "carciofi" in un caso e "patate" nell'altro.
a maggior ragione non potete fare confronti sulle dimensioni del die e sul numero di transistor..vuol dire veramente poco, quelli necessari per costruire il carciofo son diversi da quelli necessari per costruire la patata
Mercuri0
14-08-2008, 11:15
E' importante anche quello secondo me..soprattutto in un momento in cui si dovrebbe fare attenzione anche ai consumi.
direi che ' più che sufficiente la gtx 280..del resto ripeto il mio ragionamento..
se un gioco ti gira a 15fps sulla gtx280, in media girerà a 19.4 fps sulla 4870x2..per cui se è ingiocabile sulla prima lo sarà anche sulla seconda.
Curiosamente erano le stesse cose che dicevano gli atisti nel confronto 4870 vs GTX280 :asd: Basta cercare qualche pagina fa. Vabbé.
Io valuterei anche se l'acquisto della GTX260 o della 4870 risponda alle proprie necessità. La GTX280 non è destinata a passare alla storia tra le schede nVidia, e se il "premium price" che si è disposti a pagare per lei non riguarda effettive necessità ma solo un "fattore fighezza", quest'ultimo è destinato ad essere perso all'uscita delle GTX280 a 55nm, che sembrerebbe imminente.
Tra la GTX260 o la 4870 a pari prezzo consiglierei di scegliere a secondo se si ha una scheda con supporto crossfire o SLI, che non si sa mai.
tigershark
14-08-2008, 11:18
:confused:
Ne basta uno per avere prestazioni confrontabili!
scusa bisogna essere obiettivi...è questione di pura logica.
il gtx 280 è mediamente superiore del 30% alla 4870
il gtx 280 è mediamente inferiore del 30% alla 4870x2
Allora io ti rispondo....basta una singola gpu gt200 per avere prestazioni confrontabili a 2 gpu RV770!!!!!
mircocatta
14-08-2008, 11:18
poi non puoi confrontare le 2 aree di silicio in quanto realizzate una a 65nm l'altra a 55nm.
cosa vuol dire? se ati è tecnologicamente più avanti ben venga che sfrutti questo vantaggio
l'architetturea di rv770 è migliore di ft200..stop, perchè a parità di area, rv770 da la polvere a gt200
cavoli loro se non hanno voluto fare il monolitico come nvidia e hanno preferito fare le due gpu, ma alla fine, è solo 1 scheda e non due
Mister Tarpone
14-08-2008, 11:19
Io valuterei anche se l'acquisto della GTX260 o della 4870 risponda alle proprie necessità. La GTX280 non è destinata a passare alla storia tra le schede nVidia, e se il "premium price" che si è disposti a pagare per lei non riguarda effettive necessità ma solo un "fattore fighezza", quest'ultimo è destinato ad essere perso all'uscita delle GTX280 a 55nm, che sembrerebbe imminente.
ma quanto andrà secondo te?? rispetto alla attuale 280??
il miglioramento sarà come quel 8 - 10% che si è visto con la GTX+ vs GTX??? o anche meglio.. ??
dai ipotizza :O
ciao :O
Mercuri0
14-08-2008, 11:20
a maggior ragione non potete fare confronti sulle dimensioni del die e sul numero di transistor..vuol dire veramente poco, quelli necessari per costruire il carciofo son diversi da quelli necessari per costruire la patata
Le dimensioni del die si misurano in $$ sia che siano carciofi o patate, e il confronto in $$ si fa molto, molto, bene ;)
Tiger contestare l'uso della dimensione del die come parametro di merito, e veramente da "dilettanti" dell'elettronica, e siccome prima o poi te ne renderai conto anche tu, tutto quello che scrivi a proposito serve solo per poter riderne quando lo rileggerai tra qualche mese ;)
Io invece contesto l'uso del numero dei transistor: i transistor non costano niente di persé.
direi che ' più che sufficiente la gtx 280..del resto ripeto il mio ragionamento..
se un gioco ti gira a 15fps sulla gtx280, in media girerà a 19.4 fps sulla 4870x2..per cui se è ingiocabile sulla prima lo sarà anche sulla seconda.
indubbiamente!
Però il problema che mi pongo è per i casi in cui sull'una un gioco gira a 30 e sull'altra a 40... lì diventa rilevante la differenza, perchè sarà poco giocabile sulla prima e decentemente giocabile sulla seconda.
Mi chiedo con che frequenza possa verificarsi questa condizione giocando con filtri attivi a 1920 o a 1600.... forse nel secondo caso mai, ma nel primo?
tigershark
14-08-2008, 11:22
cosa vuol dire? se ati è tecnologicamente più avanti ben venga che sfrutti questo vantaggio
l'architetturea di rv770 è migliore di ft200..stop, perchè a parità di area, rv770 da la polvere a gt200
cavoli loro se non hanno voluto fare il monolitico come nvidia e hanno preferito fare le due gpu, ma alla fine, è solo 1 scheda e non due
scusa questo non lo capisco...è solo una scheda fisicamente...ma con 2 processori e doppia memoria, è tutto doppiato...che ragionamento fai
E' una scheda a doppia gpu, quindi equivalente ad un qualsiasi crossfire di 2 singole 4870
tigershark
14-08-2008, 11:24
indubbiamente!
Però il problema che mi pongo è per i casi in cui sull'una un gioco gira a 30 e sull'altra a 40... lì diventa rilevante la differenza, perchè sarà poco giocabile sulla prima e decentemente giocabile sulla seconda.
Mi chiedo con che frequenza possa verificarsi questa condizione giocando con filtri attivi a 1920 o a 1600.... forse nel secondo caso mai, ma nel primo?
in nessun caso..oggi come oggi ti ritrovi giochi che girano a 100 fps, quindi che girino a 100 su nvidia e 200 su ati poco cambia, il tuo occhio non lo percepisce...e giochi tipo crysis che risultano ingiocabili a tali risoluzioni sia con una che con l'altra, e quindi con valori di fps ben al di sotto dei 30 ipotizzati
grazie del parere :)
quand'è che si notano le differenze FPS, dopo i 50/60? mi pare di aver letto così in giro.. ma la cosa pare essere assai dibattuta :D
Foglia Morta
14-08-2008, 11:29
scusa bisogna essere obiettivi...è questione di pura logica.
il gtx 280 è mediamente superiore del 30% alla 4870
il gtx 280 è mediamente inferiore del 30% alla 4870x2
Allora io ti rispondo....basta una singola gpu gt200 per avere prestazioni confrontabili a 2 gpu RV770!!!!!
A dire cose oggettivamente sbagliate aiuti il thread a non parlare di GTX 280 ma a sterili confronti ATi - nVidia ( e poi la gente si lamenta ed ha ragione :rolleyes: )
Le medie dei risultati di molte recensioni sono abbastanza in linea con questo riassunto :
http://www.hardware.fr/medias/photos_news/00/23/IMG0023915.gifhttp://www.hardware.fr/medias/photos_news/00/23/IMG0023916.gif
Come vedi la 4870 è una via di mezzo tra GTX260 e GTX280 , la 4870 X2 ha un vantaggio del 35% a 1920x1200 AA4X , 50-55% a 2560x1600 AA4X e 60% a 1920x1200 AA8X
Hai la GTX 280 e sei contento così va bene a tutti... ma i dati con tutte le rece che sono uscite sono lì
tigershark
14-08-2008, 11:32
grazie del parere :)
quand'è che si notano le differenze FPS, dopo i 50/60? mi pare di aver letto così in giro.. ma la cosa pare essere assai dibattuta :D
assai dibattuta per il semplice motivo che è molto soggettiva, per me un gioco a 30 può essere fluido, per te ingiocabile. Più che il picco è importante la media, poco te ne fai se un gioco ti raggiunge i 200fps in un momento e i 15 subito dopo e c'è da dire che le soluzioni a singola gpu nvidia sono molto più costanti sotto questo punto di vista, vuoi perchè i driver che gestiscono i profili multi gpu non sono un granchè, vuoi per altro ma è cosi.
Io personalmente quando compro una scheda giudico anche il parco giochi che la supporta per bene e mi spiace ma non c'è nulla da fare, in quanto a supporto nvidia è molto ben messa rispetto ad Ati.
TWIMTBP per alcuni è sinonimo di trucchetti...per me di piena compatibilità, supporto e prestazioni...punti di vista
tigershark
14-08-2008, 11:34
Come vedi la 4870 è una via di mezzo tra GTX260 e GTX280 , la 4870 X2 ha un vantaggio del 35% a 1920x1200 AA4X , 50-55% a 2560x1600 AA4X e 60% a 1920x1200 AA8X
mediamente dovrebbe essere più veloce del 30%, non parlano di risoluzioni, parlano in generale, quindi una media dei risultati a tutte le risoluzioni testate...
Mercuri0
14-08-2008, 11:35
ma quanto andrà secondo te?? rispetto alla attuale 280??
il miglioramento sarà come quel 8 - 10% che si è visto con la GTX+ vs GTX??? o anche meglio.. ??
dai ipotizza :O
ciao :O
Boh coi passaggi di architettura è sempre un terno a lotto fare previsioni.
Di sicuro il chip a 55nm dovrebbe (sperabilmente) consentire a nVidia di avere un miglior grado di scelta nel rapporto frequenza di clock (=prestazioni) / yeld (=costi).
Le prestazioni che nVidia sceglierà per le sue schede dipendono da fattori economici, non tecnici. Se gli son rimasti dei GT200 a 65nm in magazzino, finirà per vendere delle GTX280 a 55nm con prestazioni esattamente uguali alle attuali 65nm per poter finire di vendere quest'ultime. (magari mettendo nella stessa scatola chip a 65nm e a 55nm... mi sembra già lo faccia per le 9800GT).
Comunque la versione a 55nm "uber super clocked" che di certo ci sarà, difficilmente acchiappa la 4870x2, mi sa.
Però c'è un'altra speranza per gli nVidiari: a 55nm con il bus a 512bit, il chip risulta pad limited, e non di poco. Cioè le dimensioni sono vincolate dai contatti e non dalla logica interna. Quasto "spazio" che rimane per forza all'interno del chip, nVidia potrebbe deciderlo di usare per aumentare gli yeld, o per fare una GTX290 (aumentando le unità all'interno del chip).
Boh, si vedrà. Le priorità di nVidia sono sopratutto di fare "ordine" nei suoi "magazzini". E' dalla 8800GT che hanno cominciato a incartarsi.
Certo però che per nVidia è anche importante recuperare la leadership, per una questione di immagine. Imo per questo fine anche una x2 nVidia, magari con i 55nm, è possibile. Coi consumi ci starebbe, e magari i costi più alti potrebbero essere giustificati dal ritorno di immagine. Deve però essere decisamente più veloce della 4870x2, il che non è così scontato.
Foglia Morta
14-08-2008, 11:38
mediamente dovrebbe essere più veloce del 30%, non parlano di risoluzioni, parlano in generale, quindi una media dei risultati a tutte le risoluzioni testate...
neanche i test ti fanno cambiare idea... :muro:
fa lo stesso
tigershark
14-08-2008, 11:38
Deve però essere decisamente più veloce della 4870x2, il che non è così scontato.
attualmente basterebbe uno sli di gtx 260 per superare la singola 4870 x2, sicuramente i suoi driver devono migliorare, ma la superiorità di una ipotetica soluzione dual GTX280 a me sembra più che scontata
Mister Tarpone
14-08-2008, 11:38
Come vedi la 4870 è una via di mezzo tra GTX260 e GTX280 , la 4870 X2 ha un vantaggio del 35% a 1920x1200 AA4X , 50-55% a 2560x1600 AA4X e 60% a 1920x1200 AA8X
lì
performance globali basate su 16giochi testati a svariate risoluzioni e filtri
http://img59.imageshack.us/img59/5059/perfrelek3.gif (http://imageshack.us)
http://img59.imageshack.us/img59/5059/perfrelek3.71410bcc22.jpg (http://g.imageshack.us/g.php?h=59&i=perfrelek3.gif)
:O :O
ciao !! :ops:
indubbiamente!
Però il problema che mi pongo è per i casi in cui sull'una un gioco gira a 30 e sull'altra a 40... lì diventa rilevante la differenza, perchè sarà poco giocabile sulla prima e decentemente giocabile sulla seconda.
Mi chiedo con che frequenza possa verificarsi questa condizione giocando con filtri attivi a 1920 o a 1600.... forse nel secondo caso mai, ma nel primo?
Rev, la differenza coi filtri attivi è mediamente superiore al 30%, e credo che in fullhd (1920) potrbbe attestarsi sul 50%
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/
Se devi acquistare una nuova scheda, considerando che oggi una X2 la pagheresti pochi euro in meno rispetto alla 280, non vedo perchè non scegliere la soluzione ATI.
L'unica cosa da verificare è se effettivamente il microstuttering, nonchè tormentone estivo del 2008, http://www.pcgameshardware.com/aid,653711/Practice/PCGH_proves_micro_stuttering_on_the_Radeon_HD_4870_X2/, possa in qualche modo interferire con l'esperienza di gioco.
Ma qui ti conviene sentire direttamente i possessori della X2 :)
Mercuri0
14-08-2008, 11:40
Io personalmente quando compro una scheda giudico anche il parco giochi che la supporta per bene e mi spiace ma non c'è nulla da fare, in quanto a supporto nvidia è molto ben messa rispetto ad Ati.
TWIMTBP per alcuni è sinonimo di trucchetti...per me di piena compatibilità, supporto e prestazioni...punti di vista
Per me è sinonimo di inculata di marketing, e rimarrà tale anche quando i giochi Blizzard usciranno marchiati ATI (e in bundle con le schede). Magari allora mi darai ragione :D
(pagina a caso da google http://www.gamespot.com/news/6195824.html)
La cosa simpatica del fanboysmo è che fa cambiare parere a secondo di come va il vento. Per esempio secondo me si può rispondere a tiger solo quotando post precedenti di halduemilauno (e ho detto tutto :asd: ). Ma sarebbe troppa fatica :)
Foglia Morta
14-08-2008, 11:42
performance globali basate su 16giochi testati a svariate risoluzioni e filtri
http://img59.imageshack.us/img59/5059/perfrelek3.gif (http://imageshack.us)
http://img59.imageshack.us/img59/5059/perfrelek3.71410bcc22.jpg (http://g.imageshack.us/g.php?h=59&i=perfrelek3.gif)
:O :O
ciao
:O :O
ho preso quella di prima perchè riflette la media di molte recensioni.
Guru3D , Anandtech , Techreport etc etc... i dati son quelli.
tigershark
14-08-2008, 11:45
Per me è sinonimo di inculata di marketing, e rimarrà tale anche quando i giochi Blizzard usciranno marchiati ATI (e in bundle con le schede). Magari allora mi darai ragione :D
(pagina a caso da google http://www.gamespot.com/news/6195824.html)
La cosa simpatica del fanboysmo è che fa cambiare parere a secondo di come va il vento. Per esempio secondo me si può rispondere a tiger solo quotando post precedenti di halduemilauno (e ho detto tutto :asd: ). Ma sarebbe troppa fatica :)
beh ma è normale che ognuno tiri acqua al proprio mulino, lo si vide pure con half - life 2
Mercuri0
14-08-2008, 11:49
attualmente basterebbe uno sli di gtx 260 per superare la singola 4870 x2, sicuramente i suoi driver devono migliorare, ma la superiorità di una ipotetica soluzione dual GTX280 a me sembra più che scontata
Direi di no, su TechReport il confronto è stato fatto esplicitamente nell'ottica che dici
http://techreport.com/articles.x/15293/2
Comunque bisogna anche valutare il fatto che non è detto che i chip sulle X2 siano cloccati come quelli sulle schede singole per motivi di TDP
(anche se per fare la 4870x2 a 'sto giro AMD non s'è fatta troppi problemi... a parte forse disattivare il crossfire sideport per contenere i consumi)
Mister Tarpone
14-08-2008, 11:50
Però c'è un'altra speranza per gli nVidiari: a 55nm con il bus a 512bit, il chip risulta pad limited, e non di poco. Cioè le dimensioni sono vincolate dai contatti e non dalla logica interna. Quasto "spazio" che rimane per forza all'interno del chip, nVidia potrebbe deciderlo di usare per aumentare gli yeld, o per fare una GTX290 (aumentando le unità all'interno del chip).
interessante... ma se oltre alle frequenze aumentassero anche gli sp, a sto punto il modello "segato" potrebbero farlo con 240 sp... mi riferisco ad una ipotetica GTX 270 (per sostituire la 260) ... mentre la GTX 290 ovviamente completa con gli sp in + grazie ai 55nm.
solo che mi piacerebbe capire quanti sp ci potrebbero entrare.
secondo te?? :confused:
tigershark
14-08-2008, 11:51
Direi di no, su TechReport il confronto è stato fatto esplicitamente nell'ottica che dici
http://techreport.com/articles.x/15293/2
Comunque bisogna anche valutare il fatto che non è detto che i chip sulle X2 siano cloccati come quelli sulle schede singole per motivi di TDP
(anche se per fare la 4870x2 a 'sto giro AMD non s'è fatta troppi problemi... a parte forse disattivare il crossfire sideport per contenere i consumi)
la questione del crossfire sideport è una bella fregatura, l'avevano tanto pubblicizzata e poi..
Mercuri0
14-08-2008, 11:52
beh ma è normale che ognuno tiri acqua al proprio mulino, lo si vide pure con half - life 2
Zi ma spesso i programmi come TWIMTBP non sono accordi tecnologici ma solo accordi di co-marketing (cioè solo di "pubblicità"), parole di nVidia che se vuoi ti quoto, e a volte rallentano lo sviluppo tecnologico.
Io quindi di queste cose, sia da parte AMD che nVidia posso solo parlarne male :mad: , perché secondo me lo scopo dei forum non è fare il tifo ma aiutarci a fare chiarezza dietro la cortina di pubblicità che ci sparano addosso.
tigershark
14-08-2008, 11:53
La cosa simpatica del fanboysmo è che fa cambiare parere a secondo di come va il vento. Per esempio secondo me si può rispondere a tiger solo quotando post precedenti di halduemilauno (e ho detto tutto :asd: ). Ma sarebbe troppa fatica :)
mercurio non me ne volere, ma la cosa simpatica è che i fan boy ati vengano a parlare delle loro amate schede in un post aperto per la gtx 280...i miei ci stanno, i loro no:ciapet: :D
mircocatta
14-08-2008, 11:54
scusa questo non lo capisco...è solo una scheda fisicamente...ma con 2 processori e doppia memoria, è tutto doppiato...che ragionamento fai
E' una scheda a doppia gpu, quindi equivalente ad un qualsiasi crossfire di 2 singole 4870
scusa ma allora un q6600 non andrebbe confrontato con i vari E6600 perchè in realtà è due di questi dual core, no? eppure la gente li confronta per mostrarne le differenze in prestazioni
Mercuri0
14-08-2008, 11:57
interessante... ma se oltre alle frequenze aumentassero anche gli sp, a sto punto il modello "segato" potrebbero farlo con 240 sp... mi riferisco ad una ipotetica GTX 270 (per sostituire la 260) ... mentre la GTX 290 ovviamente completa con gli sp in + grazie ai 55nm.
Naaaah la GTX270 potrebbe già uscire dal GT200.
Se non l'hanno già fatta è per mettere "distanza" di prestazioni (e forse anche di costi) tra la GTX260 e la GTX280. Improbabile che la facciano.
E poi a nvidia quello ci manca! (alcune GTX260OC la supererebbero di certo, sai che casino, che già)
Certo che dalle ultime mosse di nVidia non potrei metterci la mano sul fuoco sul fatto che non la farebbero, magari mettendo fuori commercio la GTX260...
solo che mi piacerebbe capire quanti sp ci potrebbero entrare.
secondo te?? :confused:
Una stima si potrebbe in effetti fare ma a me non piace fare conti :D . Se provi a postare su beyon3d qualcuno che lo fa lo trovi di certo (ammesso che non l'abbiano già fatto)
Suhadi_Sadono
14-08-2008, 11:59
allora posso inserirla in un soprano dx?
Se hai 27cm di spazio si. Ovviamente ti riferisci alla GTX ?
Mister Tarpone
14-08-2008, 12:03
Naaaah la GTX270 potrebbe già uscire dal GT200.
Se non l'hanno già fatta è per mettere "distanza" di prestazioni (e forse anche di costi) tra la GTX260 e la GTX280. Improbabile che la facciano.
abbi pazienza ma se la 290 uscisse con 292sp (sparo a caso perchè bisognerebbe calcolare i cluster e tutte quelle robe li per capire quanti sp ci potrebbero stare :asd:) una 270 avrebbe senso eccome...
e così tutte le nuove schede nvidia subirebbero un bel potenziamento (la 270 andrebbe come o più della attuale GTX280).
ORA con le 65nm una 270 non avrebbe senso... perchè a farla con 240 sp sarebbe praticamente uguale ad una GTX 280... :asd:
raga non sono molto IT...ma state perlando di queste gtx280 e 4870X2...entrambe non consumano poco e il trend per ora è stato sempre quello di fare schede che consumino sempre di più (molto di più), ma quand'è che si avrà una inversione di tendenza (un po' come per le cpu...)?? mai??
Mercuri0
14-08-2008, 12:12
abbi pazienza ma se la 290 uscisse con 292sp (sparo a caso perchè bisognerebbe calcolare i cluster e tutte quelle robe li per capire quanti sp ci potrebbero stare :asd:) una 270 avrebbe senso eccome...
Ma guarda il discorso è che mentre per "il top" più o meno si può fare qualche previsione (e il "massimo" a costi ragionevoli) per la collocazione delle schede intermedie bisogna anche contare le distanze tra loro (i discorsi sulla "scelta" delle prestazioni della 4850 rispetto alla 4870 ci hanno insegnato qualcosa) e quel che è rimasto in magazzino!
nVidia ultimamente sta "indispettendo" non poco i patner che producono le sue schede, non so se hai notato che molti stanno cominciando a tradirla.
Imo per nVidia meglio prendersi qualche mese di umiltà e sistemare le cose nella sua line-up che mettersi a fare la lotta all'ultimo Mhz con ATI col rischio di far fallire qualche patner e continuare a scartavetrare i gioielli a noialtri, che per scegliere una scheda nVidia ormai bisogna guardare tutto fuorché la sigla!
Mister Tarpone
14-08-2008, 12:19
fammi finire di fantasticare mercuri0 :O
ecco le nuove schede
GTX 290X2 basata su 2 GTX 270 ma con frequenze un pò + basse.
GTX 290 tanti sp in + e frequenze esagerate :asd:
GTX 270 uguale alla 280 a 65nm. con 240sp e frequenze + tirate.
GTX 250 uguale alla 260 a 65nm.con 192sp e stesse frequenze.. e 896mb o 448mb di ram.
:sborone: :sborone:
Mercuri0
14-08-2008, 12:20
raga non sono molto IT...ma state perlando di queste gtx280 e 4870X2...entrambe non consumano poco e il trend per ora è stato sempre quello di fare schede che consumino sempre di più (molto di più), ma quand'è che si avrà una inversione di tendenza (un po' come per le cpu...)?? mai??
La cosa dipende da chi compra: a parità di tecnologia e architettura, una scheda da 100watt sarà sempre più veloce di una da 10watt (per quanto possa essere veloce quella da 10watt).
AMD & nVidia si stanno sforzando di fare schede sempre più efficienti, ma se gli utenti sono disposti a pagare in consumi le prestazioni "uber", fanno anche quelle schede.
Per la verità c'è anche un limite tecnico: oltre una certa soglia, il raffreddamento ad aria non basta. Io mi aspettavo che la GTX280 fosse il massimo ragionevole di consumi, ma AMD l'ha superata con la 4870x2 senza troppi problemi, dando ragione ad halduemilauno che ripeteva che per la fascia enthusiast i consumi non contano ^^''
A me tutte queste schede, proprio per i consumi, fanno veramente poco figo, e mi danno anche fastidio perché aumentano la distanza coi portatili (vincolati da un limite di potenza molto inferiore).
Per me personalissimamente la 4850 è il massimo di consumi (uguale rumore, dimensioni, alimentatore, etc etc) che sono disposto a tollerare per giocare ai soliti porting da console, ma gli enthusiast ancora non si sono sensibilizzati all'argomento.
Andrea deluxe
14-08-2008, 12:40
http://img229.imageshack.us/img229/2129/chiphell4870x2djpgnr5.jpg
:stordita: :doh:
molto stabile!
giacomo2007
14-08-2008, 12:45
scusate mi servirebbe un'informazione. ho appena comprato una evga superclocked 280 gtx , ma ho un problema , quando faccio partire un videogioco dopo poco mi si riavvia il pc , potrebbe dipendere dall'alimentatore poco potente, ( ho un tr2 termaltake da 550 watt ) se fosse questo potreste consigliarmi un buon alimentatore sui 100 euro? . fatemi sapere. grazie:D
Suhadi_Sadono
14-08-2008, 12:49
scusate mi servirebbe un'informazione. ho appena comprato una evga superclocked 280 gtx , ma ho un problema , quando faccio partire un videogioco dopo poco mi si riavvia il pc , potrebbe dipendere dall'alimentatore poco potente, ( ho un tr2 termaltake da 550 watt ) se fosse questo potreste consigliarmi un buon alimentatore sui 100 euro? . fatemi sapere. grazie:D
Quanti Ampere ha la +12v del tuo ali?
Iceman69
14-08-2008, 12:53
scusate mi servirebbe un'informazione. ho appena comprato una evga superclocked 280 gtx , ma ho un problema , quando faccio partire un videogioco dopo poco mi si riavvia il pc , potrebbe dipendere dall'alimentatore poco potente, ( ho un tr2 termaltake da 550 watt ) se fosse questo potreste consigliarmi un buon alimentatore sui 100 euro? . fatemi sapere. grazie:D
Direi di sì, megli che cambi alimentatore, già un 700W potrebbe bastare. Il Cooler Master super silent non è male, se vuoi di meglio devi salire però sopra i 150 euro.
grazie mille per la spiegazione! :)
Rev, la differenza coi filtri attivi è mediamente superiore al 30%, e credo che in fullhd (1920) potrbbe attestarsi sul 50%
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/
Se devi acquistare una nuova scheda, considerando che oggi una X2 la pagheresti pochi euro in meno rispetto alla 280, non vedo perchè non scegliere la soluzione ATI.
L'unica cosa da verificare è se effettivamente il microstuttering, nonchè tormentone estivo del 2008, http://www.pcgameshardware.com/aid,653711/Practice/PCGH_proves_micro_stuttering_on_the_Radeon_HD_4870_X2/, possa in qualche modo interferire con l'esperienza di gioco.
Ma qui ti conviene sentire direttamente i possessori della X2 :)
in effetti era la ragione per la quale mi stavo orientando a prendere la gtx280 al posto della 9800x2 o del crossfire di 4870.
Se la questione, come dice l'articolo, è lungi dall'essere risolta in modo definitivo e rimane affidata alla buona volontà degli sviluppatori dei singoli titoli e delle relative patch, allora preferisco andare al 30% in meno COSTANTI anzichè avere picchi in alto del 60% e in basso del 50%...
massimomarc
14-08-2008, 12:57
fammi finire di fantasticare mercuri0 :O
ecco le nuove schede
GTX 290X2 basata su 2 GTX 270 ma con frequenze un pò + basse.
GTX 290 tanti sp in + e frequenze esagerate :asd:
GTX 270 uguale alla 280 a 65nm. con 240sp e frequenze + tirate.
GTX 250 uguale alla 260 a 65nm.con 192sp e stesse frequenze.. e 896mb o 448mb di ram.
:sborone: :sborone:
imho nvidia con un semplice refresh di gt200 non aggiungerà sp, questo per il semplice motivo che deve assolutamente aumentare le rese dei suoi chip in fonderia, e l'unico modo per farlo in maniera sicura è quello di scalare la stessa architettura collaudata ad un processo produttivo inferiore, perchè già semplicemente scalando processo produttivo incontrerà difficoltà di vario genere, a soli 3 mesi di distanza da gt200 65nm.
nvidia ora ha un problema molto più grande di quello delle semplici prestazioni assolute, deve riuscire a contenere i costi dei sui gt200 perchè ora come ora nvidia ci guadagna poco o nulla, se non addirituttura in perdita ( facile pensando che dovevano vendere la 280 a 650 dollari dai primi prezzi diffusi... ) . Inoltre i vari partner non stanno al gioco di avere margini cosi insignificanti sulle schede e stanno già guardando di rivolgersi ad AMD che al contrario non ha ancora deprezzato nessuna sua scheda dal lancio ( parlo di listino del produttore )
anche perchè ragazzi non è cosi scontato che aumentando gli sp aumentino di conseguenza in maniera significativa le prestazioni, sopratutto mantenendo l'architettura attuale ... molto più facile e sicuro sarà salire un pò con le frequenze, ma se adesso siamo a 600 mhz di core, si arriverà a 660\670 di core, non oltre... non riuscirà cmq a colpire R700 ( che indipendentemente da quello che dige tigershark che ha una 280 :asd: , ha prestazioni DI MEDIA superiori del 50% a gtx280, significa che di minimo ha 30, e di massimo anche 70\80% superiori....i bench li avete visti tutti mi pare..)
Mister Tarpone
14-08-2008, 13:02
al 90% è come dici tu. le schede avranno solo le frequenze aumentate.
però, come dice mercuri0 (:O) una piccola possibilità che aumentino pure gli sp ci potrebbe essere.
il fatto è che nvidia punta a riconquistare il top delle prestazioni..
perchè il suo successo fino ad oggi era basato proprio su questo.
e allora mi domando come farà. visto che non bastano solo le frequenze + tirate per superare una X2 nei vari bench ( :asd:)
forse faranno una nuova GX2.. bohh..
massimomarc
14-08-2008, 13:30
imho le architetture dei chip le abbiamo viste tutte, cosi come le prestazioni. da qui a otto\nove mesi dubito cambierà qualcosa. L'unica possibilità per nvidia di scavalcare r700 è una doppia scheda gt200b a 55 nm , potrebbero essere due chip 192 sp tipo gtx260 a frequenze elevate tipo 700 mhz in parallelo, ma bisogna vedere la fattibilità tecnica\economica, quanto costerà una scheda del genere ? sicuramente non 400 euro...... mentre r700 offre quelle prestazioni a 400 euro, nvidia imho meno di 550 euro non potrà fare, e anche facendo così potrebbe essere tirata per il collo con i guadagni, lei e sopratutto i suoi partner .
il problema di nvidia è che se basi il tuo marketing unicamente sull avere sempre le schede enthsusiast più potenti , facendo in modo che queste schede uberpotenti ti facciano vendere anche i prodotti delle altre fasce di prezzo, quando il tuo concorrente ti supera in questo campo, sono cazzi..
imho questa generazione di schede nvidia se la deve passare in fase ricerca e sviluppo dei nuovi chip, piuttosto che migliorare gt200 se non per aumentarne le rese e far respirare la cassa...
anche perchè imho se presenta un gtx290 con frequenze superiori del 10\15 % rispetto a gtx280, con un prezzo sui 330 euro.........questa scheda avrebbe ampi consensi dal pubblico, non andrebbe come r700, ma costa 70 euro in meno , consumerebbe molto meno e sarebbe cmq un architettura single chip con i vantaggi che ne derivano... significa perdere la fascia enthusiast ma creare un prodotto estremamente competitivo nella fascia alta...... per tirare avanti fino a gt300
in effetti era la ragione per la quale mi stavo orientando a prendere la gtx280 al posto della 9800x2 o del crossfire di 4870.
Se la questione, come dice l'articolo, è lungi dall'essere risolta in modo definitivo e rimane affidata alla buona volontà degli sviluppatori dei singoli titoli e delle relative patch, allora preferisco andare al 30% in meno COSTANTI anzichè avere picchi in alto del 60% e in basso del 50%...
Giusto, comunque fossi in te il parere di qualche possessore di X2 lo sentirei.
tigershark
14-08-2008, 13:39
http://img229.imageshack.us/img229/2129/chiphell4870x2djpgnr5.jpg
:stordita: :doh:
molto stabile!
RAV come vedi è proprio come ti dicevo prima...picchi alti, ma frame rate altamente inconstanti...questo è il maggior problema di tutte le soluzioni multi gpu, motivo in più per cui ho preferito la gtx 280
halduemilauno
14-08-2008, 13:44
fammi finire di fantasticare mercuri0 :O
ecco le nuove schede
GTX 290X2 basata su 2 GTX 270 ma con frequenze un pò + basse.
GTX 290 tanti sp in + e frequenze esagerate :asd:
GTX 270 uguale alla 280 a 65nm. con 240sp e frequenze + tirate.
GTX 250 uguale alla 260 a 65nm.con 192sp e stesse frequenze.. e 896mb o 448mb di ram.
:sborone: :sborone:
al 90% è come dici tu. le schede avranno solo le frequenze aumentate.
però, come dice mercuri0 (:O) una piccola possibilità che aumentino pure gli sp ci potrebbe essere.
il fatto è che nvidia punta a riconquistare il top delle prestazioni..
perchè il suo successo fino ad oggi era basato proprio su questo.
e allora mi domando come farà. visto che non bastano solo le frequenze + tirate per superare una X2 nei vari bench ( :asd:)
forse faranno una nuova GX2.. bohh..
a beh se è per fantasticare...
;)
halduemilauno
14-08-2008, 13:51
imho le architetture dei chip le abbiamo viste tutte, cosi come le prestazioni. da qui a otto\nove mesi dubito cambierà qualcosa. L'unica possibilità per nvidia di scavalcare r700 è una doppia scheda gt200b a 55 nm , potrebbero essere due chip 192 sp tipo gtx260 a frequenze elevate tipo 700 mhz in parallelo, ma bisogna vedere la fattibilità tecnica\economica, quanto costerà una scheda del genere ? sicuramente non 400 euro...... mentre r700 offre quelle prestazioni a 400 euro, nvidia imho meno di 550 euro non potrà fare, e anche facendo così potrebbe essere tirata per il collo con i guadagni, lei e sopratutto i suoi partner .
il problema di nvidia è che se basi il tuo marketing unicamente sull avere sempre le schede enthsusiast più potenti , facendo in modo che queste schede uberpotenti ti facciano vendere anche i prodotti delle altre fasce di prezzo, quando il tuo concorrente ti supera in questo campo, sono cazzi..
imho questa generazione di schede nvidia se la deve passare in fase ricerca e sviluppo dei nuovi chip, piuttosto che migliorare gt200 se non per aumentarne le rese e far respirare la cassa...
anche perchè imho se presenta un gtx290 con frequenze superiori del 10\15 % rispetto a gtx280, con un prezzo sui 330 euro.........questa scheda avrebbe ampi consensi dal pubblico, non andrebbe come r700, ma costa 70 euro in meno , consumerebbe molto meno e sarebbe cmq un architettura single chip con i vantaggi che ne derivano... significa perdere la fascia enthusiast ma creare un prodotto estremamente competitivo nella fascia alta...... per tirare avanti fino a gt300
imho aspetterei.
Mister Tarpone
14-08-2008, 14:05
imho aspetterei.
aspetterei cosa hal??
non ti ho capito... :confused: ;)
massimomarc
14-08-2008, 14:18
io cmq ci vedo solo cose positive in quello che sta accadendo... nvidia tornerà presto alla ribalta con nuove architetture che se la batteranno ad armi pari con le architetture amd, è sempre stato così infondo...
volevo farvi notare invece quanto sia positiva per noi consumatori questa concorrenza serrata.
avete per caso visto annunci di GTX230\240 ? o di hd 4830 \ 4840 ? con questo tipo di concorrenza, le case si sono di fatto distrutte le basi per la creazione di una fascia media ( dove in genere si facevano i soldi... ) abbiamo schede da 130 a 180 euro che offrono prestazioni fantastiche per quello che costano . con una 4850 a 140 euro, o una 9800gtx+ a 180 euro, chi ha bisogno di una fascia media ? ricordiamoci le 8600gts a 200 euro che andavano una sega, oppure le x1600 sempre intorno a quel prezzo... ora si combatte aspramente anche sulla fascia media, e siamo noi a beneficiarne.
adesso ad esempio se qualcuno mi chiede una "buona scheda grafica che costa poco" , che lo indirizzo su una 4850 o una 9800gtx sui 150\160 euro vado sul sicuro, sono schede potenti, che fanno girare tutto , senza nessuna castrazione..
halduemilauno
14-08-2008, 14:18
aspetterei cosa hal??
non ti ho capito... :confused: ;)
in effetti non è il termine + esatto per quello che volevo dire. non mi trova d'accordo su alcune cose e dicevo appunto di attendere. cmq ha detto + volte imho e per carità un imho che dico anch'io.
;)
Mister Tarpone
14-08-2008, 14:21
in effetti non è il termine + esatto per quello che volevo dire. non mi trova d'accordo su alcune cose e dicevo appunto di attendere. cmq ha detto + volte imho e per carità un imho che dico anch'io.
;)
capito.
attendiamo per vedere cosa salterà fuori.... ;)
halduemilauno
14-08-2008, 14:44
capito.
attendiamo per vedere cosa salterà fuori.... ;)
ultima news...
http://www.hardware-infos.com/news.php?news=2311
;)
Marscorpion
14-08-2008, 14:50
ultima news...
http://www.hardware-infos.com/news.php?news=2311
;)
Non ci capisco una mazza! :D :sofico:
Suhadi_Sadono
14-08-2008, 14:53
Non ci capisco una mazza! :D :sofico:
Quoto :asd: Per fortuna c'è il traduttore di google... :D
halduemilauno
14-08-2008, 15:02
Non ci capisco una mazza! :D :sofico:
che grazie al pp a 55nm nvidia sta pensando a una scheda con due chip analoghi agli attuali gtx260 ovvero 192 shader 64 tmu con la ram gddr5 associato al bus da 256 bit. cmq il titolo gia dice tutto.
Mercuri0
14-08-2008, 16:49
che grazie al pp a 55nm nvidia sta pensando a una scheda con due chip analoghi agli attuali gtx260 ovvero 192 shader 64 tmu con la ram gddr5 associato al bus da 256 bit. cmq il titolo gia dice tutto.
Nah, dice "questa potrebbe essere..." sono tutte speculazioni sparate dal sito.
In particolare sarei sorpreso se nVidia usasse la GDDR5 sul "GT200b". Del resto questo non è affatto necessario per farci la x2.
L'unica notizia ufficiale di quell'articolo è che nvidia non esclude la possibilità di fare una X2, ma di sicuro la faranno solo se riescono a superare con margine la 4870x2, e due "GTX260" non bastano.
Mister Tarpone
14-08-2008, 16:56
Nah, dice "questa potrebbe essere..." sono tutte speculazioni sparate dal sito.
In particolare sarei sorpreso se nVidia usasse la GDDR5 sul "GT200b". Del resto questo non è affatto necessario per farci la x2.
L'unica notizia ufficiale di quell'articolo è che nvidia non esclude la possibilità di fare una X2, ma di sicuro la faranno solo se riescono a superare con margine la 4870x2, e due "GTX260" non bastano.
lo stavo per scrivere io per rispondere ad un messaggio di massimomarc in cui ipotizzava la possibilità di una GX2 con 2x192sp..
non basterebbe neanche secondo me.
una scheda così si tira fuori se si riesce a staccare discretamente la concorrenza.
e quindi imho ci vorrebbe una Gx2 con 2x240sp... ;)
overclock83
14-08-2008, 18:12
io ho una bfg gtx280 oc ma e possibile che con il mio sistema in firma qualsiasi gioco a scatti mosstruosi e ripetuti pensavo fosse l'ali ma poi mi sono ricreduto perche il corsair tx650 supera abbondantemente l'ampereggio richiesto dalla gtx280
Marscorpion
14-08-2008, 18:18
io ho una bfg gtx280 oc ma e possibile che con il mio sistema in firma qualsiasi gioco a scatti mosstruosi e ripetuti pensavo fosse l'ali ma poi mi sono ricreduto perche il corsair tx650 supera abbondantemente l'ampereggio richiesto dalla gtx280
No non è possibile! C'è qualcosa che non va.
Una GTX280 su un 20" è addirittura sprecata.
pioss~s4n
14-08-2008, 18:38
io ho una bfg gtx280 oc ma e possibile che con il mio sistema in firma qualsiasi gioco a scatti mosstruosi e ripetuti pensavo fosse l'ali ma poi mi sono ricreduto perche il corsair tx650 supera abbondantemente l'ampereggio richiesto dalla gtx280
l'ali fa scattare i giochi? :mbe:
io ho una bfg gtx280 oc ma e possibile che con il mio sistema in firma qualsiasi gioco a scatti mosstruosi e ripetuti pensavo fosse l'ali ma poi mi sono ricreduto perche il corsair tx650 supera abbondantemente l'ampereggio richiesto dalla gtx280
No, è invece possibile che tu abbia un problema di surriscaldamento che ti manda la GPU a 105°, il BIOS interviene riducendo le frequenze di clock provocando quindi un abbattimento del framerate, quindi scatti.
http://img229.imageshack.us/img229/2129/chiphell4870x2djpgnr5.jpg
:stordita: :doh:
molto stabile!
Non vorrei dire cazzate :D, ma il picco è molto vicino alla media, questo non significa al contrario che le prestazioni sono molto costanti e quel minimo molto basso magari è durato solo qualche frazione di secondo?
overclock83
14-08-2008, 19:18
ho pensato anchio a surriscaldamento anche se in idlesta a 58° come posso fare?
ho pensato anchio a surriscaldamento anche se in idlesta a 58° come posso fare?
Ma prima che scheda video avevi?Hai provato a togliere la scheda e dare una pulita al slot con dell'aria?
overclock83
14-08-2008, 19:29
prima avevo una 9800 gtx no pero posso provare
tigershark
14-08-2008, 19:32
Non vorrei dire cazzate :D, ma il picco è molto vicino alla media, questo non significa al contrario che le prestazioni sono molto costanti e quel minimo molto basso magari è durato solo qualche frazione di secondo?
infatti questi test mi sanno molto di fake...picchi così bassi provocherebbero un fastidiosissimo effetto di stuttering
ho pensato anchio a surriscaldamento anche se in idlesta a 58° come posso fare?
Usa rivatuner o evga precision mentre giochi, e dopo 5-10 minuti esci dal gioco, e controlli il grafico della temperatura.
overclock83
14-08-2008, 20:13
ho provato a soffiare ma niente il problema me lo fa solo co devil maycry 4 ma e ingiocabile con il 3dmark o con assassin creed e fluido pero la scheda che avevo prima una 9800gtx nn aveva sto problema
overclock83
14-08-2008, 20:25
ho provato a vedere le temp mentre gioco ma stanno sui 60° nn di piu'
ho provato a vedere le temp mentre gioco ma stanno sui 60° nn di piu'
E la madonna.... mentre giochi hai temperature da idle, ma non è che con DMC la scheda rimane sui clock del 2d ?
ho provato a vedere le temp mentre gioco ma stanno sui 60° nn di piu'
Ma che driver hai installato?
Hai provato a toglierli e dare una bella pulita con Driver Cleaner?
Ciao
overclock83
14-08-2008, 21:02
i 177.41 ho provato a mettere anche gli ultimi ma niente da fare o pulito con ccleaner e driver sweeper ma come quella storia del 2d a me gpuz nn mi riconosce quasi nulla della scheda e in sensor mi vede 300mhz per la gpu e memory clock 100mhz ma e normale????
OverClocK79®
14-08-2008, 22:24
prova i 177.83
cmq hai temp decisamente troppo basse
con cosa le misuri??
bYEZZZZZZZZZZZZ
overclock83
14-08-2008, 23:14
con gpuz ho provato quei driver con il supporto phisix pero funzionano uguale lo stesso problema
Suhadi_Sadono
14-08-2008, 23:26
i 177.41 ho provato a mettere anche gli ultimi ma niente da fare o pulito con ccleaner e driver sweeper ma come quella storia del 2d a me gpuz nn mi riconosce quasi nulla della scheda e in sensor mi vede 300mhz per la gpu e memory clock 100mhz ma e normale????
È normale che le frequenze si abbassino in 2D, cioè mentre visualizzi il desktop.
È normale che le frequenze si abbassino in 2D, cioè mentre visualizzi il desktop.
Infatti,dovresti controllare con Rivatuner! ;)
overclock83
15-08-2008, 07:03
ho fatto il test di dmc stamattina presto e nessun scatto o paura sia proprio un problema di temp ero arrivato sugli 80° per il resto o solo aggiornato il bios e i driver della scheda madre ma nn penso sia quello
Suhadi_Sadono
15-08-2008, 09:32
ho fatto il test di dmc stamattina presto e nessun scatto o paura sia proprio un problema di temp ero arrivato sugli 80° per il resto o solo aggiornato il bios e i driver della scheda madre ma nn penso sia quello
Puoi controllare le temperature mentre giochi con rivatuner, mettendole in alto sullo schermo.... Ho spiegato qualche post dietro come fare.
Scusate, e possibile sapere cosa c'è nella scatola oltre la scheda?
Per esempio adattatori per l'alimentazione a 8 pin, adattatore DVI to HDMI, cavetteria per TV-OUT etc. Facendo una ricerca in internet non ho trovato nulla.
Grazie 1000
Suhadi_Sadono
15-08-2008, 15:23
Scusate, e possibile sapere cosa c'è nella scatola oltre la scheda?
Per esempio adattatori per l'alimentazione a 8 pin, adattatore DVI to HDMI, cavetteria per TV-OUT etc. Facendo una ricerca in internet non ho trovato nulla.
Grazie 1000
Dipende dalla marca. Nella mia c'era un convertitore dvi-vga, un tappetino in pelle per il mouse, un porta cd in pelle e il cd con i driver e un cavo per la tv.
overclock83
15-08-2008, 15:42
adesso gli scatti li fa anche a spacesiege ma puo' essere la scheda difettosa??
OverClocK79®
15-08-2008, 15:47
Scusate, e possibile sapere cosa c'è nella scatola oltre la scheda?
Per esempio adattatori per l'alimentazione a 8 pin, adattatore DVI to HDMI, cavetteria per TV-OUT etc. Facendo una ricerca in internet non ho trovato nulla.
Grazie 1000
la dotazione dipende dal produttore
al 99% ci sono sempre:
cavi adattatori per l'alimentazione vari 8 pin to molex
6 pin to molex
doppio 6 pin in 8 pin etc etc
cavo TV-Out
adattatori DVI to D-SUB
il resto è surplus
BYEZZZZZZZZZZZ
Suhadi_Sadono
15-08-2008, 16:06
adesso gli scatti li fa anche a spacesiege ma puo' essere la scheda difettosa??
Hai guardato le temperature mentre giochi?
overclock83
15-08-2008, 16:46
stanno sui 80 85° quindi nn alte giusto??
Suhadi_Sadono
15-08-2008, 16:50
stanno sui 80 85° quindi nn alte giusto??
Beh abbastanza alte. sono ;) Tieni conto che io in overclock 700Mhz sul core 1500 gli shader e 2400 le memorie non vado oltre i 68°C con la ventola all'80%
overclock83
15-08-2008, 16:57
quindi dovrei cambiare case forse il mio e troppo piccoloe nn c'e ricircolo d'aria il mio e alto 41cm lungo 45e largo 20
dariox am2
15-08-2008, 17:13
ragazzi qualche bench con 280gtx in sli/triple sli vs resto del mondo?
Andrea deluxe
15-08-2008, 17:47
http://www.techpowerup.com/68554/NVIDIA_OpenGL_3.0_and_GLSL_1.30_Supporting_Driver_Released.html
quindi dovrei cambiare case forse il mio e troppo piccoloe nn c'e ricircolo d'aria il mio e alto 41cm lungo 45e largo 20
Non penso sia quello il problema,dovresti settare la ventola al 100% con rivatuner mentre giochi così ti togli ogni dubbio! ;)
tigershark
15-08-2008, 18:48
Beh abbastanza alte. sono ;) Tieni conto che io in overclock 700Mhz sul core 1500 gli shader e 2400 le memorie non vado oltre i 68°C con la ventola all'80%
per me sono perfettamente nella norma, anche io sono intorno agli 85 - 86° mentre gioco a titoli tipo Crysis.
overclock83
15-08-2008, 19:02
la ventola e sempre al 100% quindi nn so piu che pensare ho messoo anche gli ultimi driver 177.89
la ventola e sempre al 100% quindi nn so piu che pensare ho messoo anche gli ultimi driver 177.89
Ma non è che hai qualche processo trojan o quant'altro, che porta via delle risorse alla cpu e quindi inevitabilmente ne risenti mentre giochi ?
Quando non giochi com'è l'uso della cpu ?
overclock83
15-08-2008, 20:52
no e al 1% se nn uso il pc beh poi se apro docukmenti o masterizzo arriva anche al 40%
Suhadi_Sadono
15-08-2008, 21:17
per me sono perfettamente nella norma, anche io sono intorno agli 85 - 86° mentre gioco a titoli tipo Crysis.
In effetti si, non avevo visto avesse la versione overcloccata...
la dotazione dipende...
Dipende dalla marca...
Grazie 1000 ;)
Ho anche scoperto che non tutte sono HDMI, come indicato in prima pagina.
Per esempio ASUS le identifica con HTDP (senza HDMI) e HTDI (con HDMI).
Sono combattuto tra la gtx280 e la 4870X2.
Ati mi sembra un po più avanti come tecnologia grazie al 48XX, ma la 4870X2 mi pare ancora acerba. Però per i primi di settembre volevo far l'acquisto.
La GTX280 com'è come driver ? Stabile o sono ancora un po poco maturi ?
Il TV-OUT prevede anche S-Video giusto ?
michelgaetano
15-08-2008, 23:05
Grazie 1000 ;)
Ho anche scoperto che non tutte sono HDMI, come indicato in prima pagina.
Per esempio ASUS le identifica con HTDP (senza HDMI) e HTDI (con HDMI).
Sono combattuto tra la gtx280 e la 4870X2.
Ati mi sembra un po più avanti come tecnologia grazie al 48XX, ma la 4870X2 mi pare ancora acerba. Però per i primi di settembre volevo far l'acquisto.
La GTX280 com'è come driver ? Stabile o sono ancora un po poco maturi ?
Il TV-OUT prevede anche S-Video giusto ?
Su un 30" la 4870X2 è quasi obbligata.
Ma dal momento che va di media intorno al 25 % in più della gtx 280, per 10 euro in più, preferisco le prestazioni.
NOOB4EVER
16-08-2008, 03:06
provati nuovi driver sono tornato ai migliori per quanto mi riguarda , i 177.41
IMHO se giocate enon badate ai bench sono quelli che danno meno artefatti,anzi a dire il vero nessun artefatto..ottimi pure con config SLI
_morghan_1968
16-08-2008, 07:44
quoto: attualmente sono i migliori........
quelli dopo devono essere esperimenti x aver + prestazioni
oppure sono una specie di ponte verso i 180
tigershark
16-08-2008, 08:31
In effetti si, non avevo visto avesse la versione overcloccata...
dipende molto da cosa ci esegui, per esempio con Crysis arrivo anche a 87°C (però devo dire che difficilmente la ventola mi arriva al 100%), con altri giochi (TF2, COD4, Bioshock) non supera i 77 - 78°C (c'è anche da dire che nella mia stanza in questi giorni ci sono non meno di 30°C!!!)
Non forzo mai la velocità della ventola, per cui le mie sono temperature perfettamente nella norma, nonostante non abbia la versione OC della GTX 280
Scrambler77
16-08-2008, 09:52
Su un 30" la 4870X2 è quasi obbligata.
:asd:
tigershark
16-08-2008, 10:10
quoto: attualmente sono i migliori........
quelli dopo devono essere esperimenti x aver + prestazioni
oppure sono una specie di ponte verso i 180
ma stanno risolvendo ancora qualche bug, vedi per esempio la gestione ventola e dovranno comunque prima sistemare per bene la gestione del clock
michelgaetano
16-08-2008, 10:10
:asd:
Lieto di averti rallegrato e di averti fatto postare un così utile intervento :)
Suhadi_Sadono
16-08-2008, 10:12
Sono usciti i 177.89 ;)
http://downloads.guru3d.com/
:asd:
Be ha ragione, a quella risoluzione sia senza filtri che con i filtri la X2 va dal 40 al 60% meglio della 280.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/
Certo, la variabile driver potrebbe essere un deterrente, ma nel caso peggiore andrà come una 4870 1GB che a quelle risoluzioni dovrebbe ridurre il gap attuale del 30% che c'è tra 280 e 4870 512MB :)
tigershark
16-08-2008, 10:17
Sono usciti i 177.89 ;)
http://downloads.guru3d.com/
vanno molto bene, ho guadagnato ~3 fps su crysis
vanno molto bene, ho guadagnato ~3 fps su crysis
No, ancora crysis ;)
Io l'ho finito per la la seconda volta la settimana scorsa per mettere alla frusta la 280, rivenduto, e proprio ieri prenotato su multigioco che offre la spedizione gratuita, warahead :)
tigershark
16-08-2008, 10:52
qualche confronto tra 280gtx e 4870x2 ...
http://www.madshrimps.be/?action=getarticle&number=1&artpage=3652&articID=864
a me non sembra tutta questa ultra sensazionale potenza, si è più veloce ma a mio parere il gioco non vale la candela (consumi in primis)
:D
michelgaetano
16-08-2008, 11:06
qualche confronto tra 280gtx e 4870x2 ...
http://www.madshrimps.be/?action=getarticle&number=1&artpage=3652&articID=864
a me non sembra tutta questa ultra sensazionale potenza, si è più veloce ma a mio parere il gioco non vale la candela (consumi in primis)
:D
Pensi che chi è attento ai consumi scelga gtx 280 o 4870X2? :asd:
tigershark
16-08-2008, 11:10
Pensi che chi è attento ai consumi scelga gtx 280 o 4870X2? :asd:
ma non sto parlando di attenzione esclusiva ai consumi..è normale che una persona che bada solo a quello non compra schede di questa fascia, sto dicendo che il rapporto prestazione / watt è a favore della 280 GTX...e se scende un'altro po di prezzo mi sa che sarà la 4870 x2 a rimanere in bella mostra sugli scaffali
ma non sto parlando di attenzione esclusiva ai consumi..è normale che una persona che bada solo a quello non compra schede di questa fascia, sto dicendo che il rapporto prestazione / watt è a favore della 280 GTX...e se scende un'altro po di prezzo mi sa che sarà la 4870 x2 a rimanere in bella mostra sugli scaffali
Mi sà hai beccato proprio la recensione sfigata tra le decine disponibili che danno risultati abbastanza diversi :asd:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/
pioss~s4n
16-08-2008, 11:16
ma non sto parlando di attenzione esclusiva ai consumi..è normale che una persona che bada solo a quello non compra schede di questa fascia, sto dicendo che il rapporto prestazione / watt è a favore della 280 GTX...e se scende un'altro po di prezzo mi sa che sarà la 4870 x2 a rimanere in bella mostra sugli scaffali
e quando scenderà di prezzo la 4870X2? tenere presente che una scheda appena uscita è maggiormente soggetta a scendere di prezzo piuttosto che una scheda fuori da più tempo, e già scesa prepotentemente di prezzo. Sugli scaffali dubito resterà, anzi temo (perchè non condivido schede video di fascia alta con questi consumi elevati) venderà parecchio.
tigershark
16-08-2008, 11:19
Mi sà hai beccato proprio la recensione sfigata tra le decine disponibili che danno risultati abbastanza diversi :asd:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/
perchè tu ti fidi di un performance rating sparato a c.... così senza nemmeno dire con che titoli le stanno testando?? :mbe: Insomma dai, è una buona scheda questa 4870 x2, ma non è la bestia da strappa capelli (da asciuga capelli sicuramente si...) che volevano farci bere tutti gli Ati fan's :)...
perchè tu ti fidi di un performance rating sparato a c.... così senza nemmeno dire con che titoli le stanno testando?? :mbe: Insomma dai, è una buona scheda questa 4870 x2, ma non è la bestia da strappa capelli (da asciuga capelli sicuramente si...) che volevano farci bere tutti gli Ati fan's :)...
Ho beccato una recensione a caso (e pure di un sito abbastanza autorevole), poi se tu cerchi quelle in cui sembra che vada meno allora è un altro discorso ;)
PS. il performance rating lo fanno in base a tutti gli altri test fatti in precedenza, quinti non è sparato alla c...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/#abschnitt_einleitung
michelgaetano
16-08-2008, 11:55
perchè tu ti fidi di un performance rating sparato a c.... così senza nemmeno dire con che titoli le stanno testando?? :mbe: Insomma dai, è una buona scheda questa 4870 x2, ma non è la bestia da strappa capelli (da asciuga capelli sicuramente si...) che volevano farci bere tutti gli Ati fan's :)...
Ancora con gli asciugacapelli, credo tu sia fissato. Posta questi valori, che non siano una sola recensione, ma almeno 5-6 che convengano, e vediamo.
Tanto, se vuoi la scheda top prendi la 4870X2, se vuoi il miglior rapporto prezzo/prestazioni rimanendo in fascia alta prendi la 4870.
tigershark
16-08-2008, 12:14
Ancora con gli asciugacapelli, credo tu sia fissato. Posta questi valori, che non siano una sola recensione, ma almeno 5-6 che convengano, e vediamo.
no non sono fissato con gli asciugacapelli credimi, è solo che esiste gente che valuta in una scheda video SOLO il punteggi oal 3dmark o i numeretti che precedono FPS nei giochi e c'è chi vede il prodotto nel suo insieme...scheda, prestazioni, calore, rumorosità, consumi, supporto ecc ecc ecc
Comunque la 4870 X2 è una bella scheda non ci piove e del resto ci mancherebbe, dopo il fallimento colossale della 2900XT una mossa doveva pure darsela, altrimenti avrebbe fatto meglio a disegnare plantari.
Marscorpion
16-08-2008, 12:20
Da quelle prove neanche uno SLI di GTX260 non è male! Come prezzo +o- siamo li con la 4870X2.
tigershark
16-08-2008, 12:22
Da quelle prove neanche uno SLI di GTX260 non è male! Come prezzo +o- siamo li con la 4870X2.
beh si, ma credo perderesti in termini di consumi totali, quindi a quel punto meglio la 4870 x2..perchè non sono importanti solo le prestazioni :D :D :D
michelgaetano
16-08-2008, 12:23
no non sono fissato con gli asciugacapelli credimi, è solo che esiste gente che valuta in una scheda video SOLO il punteggi oal 3dmark o i numeretti che precedono FPS nei giochi e c'è chi vede il prodotto nel suo insieme...scheda, prestazioni, calore, rumorosità, consumi, supporto ecc ecc ecc
Comunque la 4870 X2 è una bella scheda non ci piove e del resto ci mancherebbe, dopo il fallimento colossale della 2900XT una mossa doveva pure darsela, altrimenti avrebbe fatto meglio a disegnare plantari.
Voglio dei numeri in base ai quali tu dici che questa scheda è un'asciugacapelli.
Il resto non mi interessa, che va ben più forte già si sa.
Marscorpion
16-08-2008, 12:24
beh si, ma credo perderesti in termini di consumi totali, quindi a quel punto meglio la 4870 x2..perchè non sono importanti solo le prestazioni :D :D :D
Beh io il pc lo tengo acceso due ore al giorno, quindi dei consumi non mi importa molto! :D
Beh io il pc lo tengo acceso due ore al giorno, quindi dei consumi non mi importa molto! :D
Considera comunque che due 260 le paghi 500 euro, mentre una 4870x2 la paghi quasi 100 euro in meno :)
Marscorpion
16-08-2008, 13:44
Considera comunque che due 260 le paghi 500 euro, mentre una 4870x2 la paghi quasi 100 euro in meno :)
Attualmente il prezzo + basso che si trovano on-line è 219, presso uno shop! ;)
michelgaetano
16-08-2008, 13:50
Attualmente il prezzo + basso che si trovano on-line è 219, presso uno shop! ;)
Di che scheda parli?
La 260 parte da 249 su trovaprezzi o.O
Marscorpion
16-08-2008, 14:28
Di che scheda parli?
La 260 parte da 249 su trovaprezzi o.O
Parlo della GTX260 marca Evga! La si trova sulla baia, venduta da uno shop, quindi con regolare fattura o scontrino. Altrimenti su sito Tedesco la si trova a 199 euro + spedizione di 20 euro.( X 2 GTX260 quindi 420 euro).
Non esiste mica solo trovaprezzi!
Di che scheda parli?
La 260 parte da 249 su trovaprezzi o.O
trovaprezzi è una vetrina autorevole e molto ampia, ma non un motore di ricerca come google, dove è sufficiente segnalare il proprio sito affinchè venga registrato nei loro database.
Per diventare inserzionista devi contattarli per email, ed attendere un'offerta commerciale che dipende dal tipo di esigenza che hai:
http://wwwpuntotrovaprezzipuntoit/partnerinfo.aspx
Quindi, non vedo nulla di strano nel fatto che un utente abbia trovato uno shop online che vende una 260, ad un prezzo inferiore del minimo prezzo segnalato da trovaprezzi :)
Mister Tarpone
16-08-2008, 15:03
trovaprezzi è una vetrina autorevole e molto ampia, ma non un motore di ricerca come google, dove è sufficiente segnalare il proprio sito affinchè venga registrato nei loro database.
Per diventare inserzionista devi contattarli per email, ed attendere un'offerta commerciale che dipende dal tipo di esigenza che hai:
http://wwwpuntotrovaprezzipuntoit/partnerinfo.aspx
Quindi, non vedo nulla di strano nel fatto che un utente abbia trovato uno shop online che vende una 260, ad un prezzo inferiore del minimo prezzo segnalato da trovaprezzi :)
infatti :) quoto :)
sta 4870x2 nn mi sembra questa grande scheda da farmi cambiare la 280..........
NOOB4EVER
17-08-2008, 12:30
sta 4870x2 nn mi sembra questa grande scheda da farmi cambiare la 280..........
:read: figurati !!
Su un 30" la 4870X2 è quasi obbligata.
Ma dal momento che va di media intorno al 25 % in più della gtx 280, per 10 euro in più, preferisco le prestazioni.
:ciapet::rolleyes: :fagiano:
Mister Tarpone
17-08-2008, 12:35
:ciapet::rolleyes: :fagiano:
:asd:
Marscorpion
17-08-2008, 16:26
A quanto pare da ciò che si legge in giro il 26 Agosto Nvidia dovrebbe rilasciare la
versione a 55nm della GTX280 !
Queste le sue caratteristiche:
Year: Aug 26, 08
Code Name: GT200B
Fab: 55nm
Transistors: 1400M+
Die Size: 470mm2
Memory: 1024mb
Core: 648mhz
Shader: 1620mhz
Memory: 2216mhz
Staremo a vedere...............:D
Mister Tarpone
17-08-2008, 16:30
ho letto da qualche parte che nvidia ha detto che a sto giro ha sottovalutato la concorrenza. anche per via di un mercato delle vga da tempo poco competitivo (riferendosi probabilmente alle varie Ati hd2000 e 3000) ..poi hanno aggiunto che con le 55nm vedranno di fare meglio.
beh.. vediamo che viene fuori :D
massimomarc
17-08-2008, 16:46
sta 4870x2 nn mi sembra questa grande scheda da farmi cambiare la 280..........
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating
a 1600x1200 8xAA\16xAF, facendo una MEDIA tra tutti i giochi provati da comperbase ( Assassin's Creed, Bioshock, Call of Duty 4, Call of Juarez, Clive Barker's Jericho, Company of Heroes, Crysis, F.E.A.R., Gothic 3, Lost Planet, Rainbow Six Vegas, Stalker, Unreal Tournament 3, World in Conflict....trovami una recensione più completa e affidabile) amd hd4870x2 va il 90% ( novanta percento) più veloce di una gtx280. Praticamente il doppio ;)
non voglio andare OT , ma contanto che i prezzi tra gtx280 e 4870x2 si stanno allineando e hanno una differenza di 20 euro oggi....
samsung19/88
17-08-2008, 16:50
devo dire che la nuova 4870x2 è davvero una bomba...
forse invida correrà ai ripari con uno gtx280 gx2...
Suhadi_Sadono
17-08-2008, 17:05
Visto l'abbassamento dei prezzi della 9800GX2 ti fai uno sli di queste con qualche euro in più e la 4870x2 la saluti. Basta vedere lo sli di 260GTX. In molti casi supera o è alla pari... ;) Quel 90% si verifica solo in determinate situazioni
fdadakjli
17-08-2008, 17:15
la 4870x2 andrebbe confrontata con lo sli di gtx280... ;)
qualcuno ha provato i nuovi 177.89???
massimomarc
17-08-2008, 17:18
Visto l'abbassamento dei prezzi della 9800GX2 ti fai uno sli di queste con qualche euro in più e la 4870x2 la saluti. Basta vedere lo sli di 260GTX. In molti casi supera o è alla pari... ;) Quel 90% si verifica solo in determinate situazioni
no, quel 90 percento è un risultato di media, non si verifica in determinate condizioni :) crossfire e sli oramai scalano molto bene con quasi tutti i giochi, è normale che due rv770 siano cosi prestazionali.
un sli di 9800gx2 va meno di R700 non appena metti 8xAA, e sei limitato nel frame buffer sulle alte risoluzioni...ergo perchè superi r700 lo devi usare fino a 1600x1200 senza filtri...scenario alquanto limitato con queste schede :) .....non scala bene come un dualGPU, poi ci devi mettere in conto un alimentatore da 1 kw nel prezzo..
uno sli di gtx260 è sotto del 20% a R700, costa di media 100 euro in più e consuma decisamente più.. dati da computerbase che fa bench su 13 giochi diversi più i vari 3dmark.
cmq siamo OT ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.