PDA

View Full Version : ATI Radeon HD 4870 X2: R700 in preview


Redazione di Hardware Upg
14-07-2008, 17:06
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2007/ati-radeon-hd-4870-x2-r700-in-preview_index.html

AMD anticipa quelle che saranno le caratteristiche prestazionali della propria nuova scheda video top di gamma, ricavata montando su un singolo PCB due GPU della serie ATI Radeon HD 4870. Con questa preview mostriamo di cosa sia capace una soluzione di questo tipo, compatibile con qualsiasi scheda madre con un singolo Slot PCI Express.

Click sul link per visualizzare l'articolo.

Evangelion01
14-07-2008, 17:11
Ecco, adesso la situazione comincia a delinearsi meglio. ;)
Interessante vga, soprattutto in rapporto al prezzo della gtx280 che di fatto è fuori mercato. :)
Inoltre non rende vincolante la scelta della mobo. Più che altro mi preoccupa la rumorosità e il fatto che non esistano dissy aftermarket per queste soluzioni multi-gpu.
Cmq Ati sta sfornando ottimi prodotti ed era ora, i risultati si vedono : a guardar bene i prezzi, la 260 per es. è uscita 2 mesi fà e costava sui 350€, adesso ne costa già 100€ in meno. Ecco cosa fa la concorrenza...

okorop
14-07-2008, 17:11
Gran bella scheda video per tutti coloro che non hanno 2 pcie 2.0 a 16x....attendo anche la 4850x2 che dovrebbe essere anche quella una grande scheda video....Grande amd-ati
Alla redazione, quali sarebbero gli 8.6 beta press? gli hotfix?E poi volevo sapere quale hd avete usato per il test che non è specificato cosi da saper la vostra configurazione completa

cracovia
14-07-2008, 17:13
Si consuma un botto... E va un botto. Vale la pena?

okorop
14-07-2008, 17:16
Si consuma un botto... E va un botto. Vale la pena?

Nelle configurazioni estreme a mio avviso ne vale la pena......:)

al135
14-07-2008, 17:18
Si consuma un botto... E va un botto. Vale la pena?

secondo me si. non è che sto 18 ore al giorno a giocare e alla fine è una scheda dedicata a chi guarda le prestazioni non tanto i consumi.
e poi imo quello che conta è che in idle consumi una cosa modesta...
cmq la tecnologia crossfireX DEVE essere completamente supportata altrimenti , altrimenti come per lo sli , il multigpu on ha senso di esistere.
e cmq devono supportarla per forza non avrebbe senso non farlo se non per boicottare amd.

Dev42
14-07-2008, 17:19
Nelle configurazioni estreme a mio avviso ne vale la pena......:)

Si quoto, però consuma 70watt in + della 3870x2 con crysis...
Va anche parecchio di più però 430 watt sono tanti....
La mia lavatrice consuma meno dell'intero sistema sotto stress[570 watt]:sofico: :sofico:

qingge
14-07-2008, 17:21
nn vedo il test di crisis con la dx10, andateci piano a fare recensione
ma deve essere completo

okorop
14-07-2008, 17:22
Si quoto, però consuma 70watt in + della 3870x2 con crysis...
Va anche parecchio di più però 430 watt sono tanti....
La mia lavatrice consuma meno dell'intero sistema sotto stress[570 watt]:sofico: :sofico:

peccato che lo sli di gtx280 non sia incluso nel test sui consumi :confused:
come i vari crossfire x di 4850 e 4870.....
p.s. mi sa che il tutto è stato fatto su xp.....

lele980
14-07-2008, 17:26
magari 2 di queste in crossfire riusciranno a far girare decentemente crysis very high a 1920*1200

:asd: :asd:

Dev42
14-07-2008, 17:29
peccato che lo sli di gtx280 non sia incluso nel test sui consumi :confused:


Non oso immaginare cosa consumano 2 GTX280 o 2 HD 4870x2......:help:
La potenza e tanta ma i consumi sono tanti pure quelli, e con quello che costa la corrente, sta roba non costa solo comprarla ma anche mantenerla...
Un po come con una BMW o una Mercedes costa comprarla e costa mantenerla.....
Che paragone ehhh:mc:

paolo.guidx
14-07-2008, 17:32
Beh, la potenza (di calcolo) richiede potenza (elettrica).....
In effetti consuma un pò troppo secondo me, dubito che il mio Galaxy da 1000W ne possa alimentare due sotto stress con il QX9770 clokkato ben bene....
Merda, mi tocca cambiare anche l'ali (e non l'avevo preventivato:mad: )

okorop
14-07-2008, 17:32
Non oso immaginare cosa consumano 2 GTX280 o 2 HD 4870x2......:help:
La potenza e tanta ma i consumi sono tanti pure quelli, e con quello che costa la corrente, sta roba non costa solo comprarla ma anche mantenerla...
Un po come con una BMW o una Mercedes costa comprarla e costa mantenerla.....
Che paragone ehhh:mc:

hai ragione son cose costose per ultra entushiast e per tutti coloro che non pagano di persona la corrente elettrica.......:asd:
p.s. anche le 4850 in crossfire non scehrzano :)

Denny21
14-07-2008, 17:34
Si consuma un botto... E va un botto. Vale la pena?

il segmento è quello del botto.
Se vuoi fare il botto,vale la pena.

Joxer
14-07-2008, 17:35
Dopo più di un anno e mezzo ATI riconquista la vetta delle prestazioni.

okorop
14-07-2008, 17:37
Dopo più di un anno e mezzo ATI riconquista la vetta delle prestazioni.

sono commosso, w ati!!!!!!!!e adesso voglio vedere il quad e l'octa crossfire x ....devone essere mostruosi e li si che solo il pc fa scattare il contatore dell'eletricità :asd:

paolo.guidx
14-07-2008, 17:43
sono commosso, w ati!!!!!!!!e adesso voglio vedere il quad e l'octa crossfire x ....devone essere mostruosi e li si che solo il pc fa scattare il contatore dell'eletricità :asd:

Chissà come risponderà nVidia, appurato che le GTX280 GX2 probabilmente non usciranno mai ci dovremo accontentare di una GTX280 AMP????

In ogni caso bisogna fare i complimenti ad ATI (amd), è riuscita a mettere due fornetti su un solo PCB e tenere le GDDR5 (altri fornetti) senza diminuire le temperature. A nVidia questa cosa con le GX2 non è mai riuscita....

In ogni caso GODO!!!!! Welcome Back ATI

okorop
14-07-2008, 17:45
Chissà come risponderà nVidia, appurato che le GTX280 GX2 probabilmente non usciranno mai ci dovremo accontentare di una GTX280 AMP????

In ogni caso bisogna fare i complimenti ad ATI (amd), è riuscita a mettere due fornetti su un solo PCB e tenere le GDDR5 (altri fornetti) senza diminuire le temperature. A nVidia questa cosa con le GX2 non è mai riuscita....

In ogni caso GODO!!!!! Welcome Back ATI

ti straquoto w ati!!!!
la gtx280 amp è gia uscita e sotto sia al crossfire di 4870 sia sotto la 4870x2:D
Prepare to dominate

Spellsword
14-07-2008, 17:47
continuo a chiedermi perchè si usi crysys come benchmark.. un simile aborto di programmazione dovrebbe essere messo da parte dalla stampa specializzata..
tornando IT direi che bella scheda, nettamente cpu limited come tutte quelle di questa generazione, nvidia compresa..

Dev42
14-07-2008, 17:48
Be almeno comincia ad avere un senso e uno scopo l'alimentatore ULTRA X3 1600-Watt:asd: :asd:

Denny21
14-07-2008, 17:48
sono commosso, w ati!!!!!!!!e adesso voglio vedere il quad e l'octa crossfire x ....devone essere mostruosi e li si che solo il pc fa scattare il contatore dell'eletricità :asd:

sssssh,che ti sentono.:D :D :D

dubito in una gtx X2.
ricominciano da capo,se ci sarà una X2 sarà un tampone... :read:

paolo.guidx
14-07-2008, 17:49
magari 2 di queste in crossfire riusciranno a far girare decentemente crysis very high a 1920*1200

:asd: :asd:


no no :nonsifa: , crysis si ha uno speciale loop di controllo che non lo fà mai andare sopra i 20 fps indipendentemente dalla potenza del PC :asd: :asd:
Ragazzi, se non gira fluido in DX10 nemmeno con un 3Way-SLI di GTX280 come faranno due sole 4870X2.....
Ho sentito che ci sarebbe la possibilità di utilizzare anche 4 di queste schede contemporaneamente (chissà che consumi e che temperature :cool: ), ma che ATI non svilupperà driver in questa direzione.

jacopoide
14-07-2008, 17:49
mamma faccio una partita al computer, mi raccomando non accendere la lavatrice che salta tutto!!


..si tesoro!

paolo.guidx
14-07-2008, 17:51
ti straquoto w ati!!!!
la gtx280 amp è gia uscita e sotto sia al crossfire di 4870 sia sotto la 4870x2:D
Prepare to dominate

Che io sappia è uscita la 260 AMP, ma non importa, se pure la 280 AMP è più lenta di una X2 per nVidia SON DOLORI.......

Edit: sembra sia uscita ora.... la Extreme.... mamma mia, quelli di nVidia se la son fatta addosso appena hanno visto le rece della X2....

okorop
14-07-2008, 17:52
sssssh,che ti sentono.:D :D :D

dubito in una gtx X2.
ricominciano da capo,se ci sarà una X2 sarà un tampone... :read:

macche tampone sara un mr tarpone :asd:
Che io sappia è uscita la 260 AMP, ma non importa, se pure la 280 AMP è più lenta di una X2 per nVidia SON DOLORI.......

quello che il mercato aspettava da tempo.....

paolo.guidx
14-07-2008, 17:52
mamma faccio una partita al computer, mi raccomando non accendere la lavatrice che salta tutto!!


..si tesoro!

E nemmeno la lavastoviglie, e nemmeno il forno, e nemmeno il microonde. Anzi, stacca pure il frigo......

okorop
14-07-2008, 17:54
E nemmeno la lavastoviglie, e nemmeno il forno, e nemmeno il microonde. Anzi, stacca pure il frigo......

manno dai sei troppo esagerato :asd:

Dev42
14-07-2008, 17:54
E nemmeno la lavastoviglie, e nemmeno il forno, e nemmeno il microonde. Anzi, stacca pure il frigo......

Giusto almeno comincia ad avere un senso e uno scopo l'alimentatore ULTRA X3 1600-Watt ........:D :D :D

harlock10
14-07-2008, 17:55
Potreste inserire anche un test con age of conan ? sarebbe molto interessante vedere come si comportano questi mostri con quel gico pesantissimo.

fukka75
14-07-2008, 17:56
Al di là dei consumi, si possono fare due calcoli: una HD4870 la si trova in media intorno ai 220/230€, quindi due fanno ca. 450€; una GTX280 si trova sui 410/430€. Se questa HD4870X2, che va uguale a due HD4870, sarà venduta quanto una GTX280 (diciamo leggermente meno di due HD4870, e dato che è prestazionalmente identica, non vedo perché non dovrebbe essere così), farà davvero il botto, e sarà la volta buona che inizieranno a circolare GTX280 a meno di 400€ (già ora qualcosina si trova)? La GTX280 quanto costava solo un mese fa quando è stato presentata? Sbaglio o in un mese è scesa di oltre 100€ (se penso che per scendere di 100€ la 8800GTX ci ha messo quanto, un anno? :asd:)
Complimenti AMD, hai riacceso in me l'interesse per le schede video (peccato che non abbia al momento i soldi pr il pc nuovo)

Dev42
14-07-2008, 17:58
Gia me lo immagino,
2 salvavita uno per la casa e uno per la presa del PC,
e poi sentire:
Maaa!!!! Maaaa! vai a staccare il salvavita della casa che devo gioca a Crysis..:sofico: :sofico:
:asd: :asd: :asd: :asd:

Mercuri0
14-07-2008, 18:03
Potreste inserire anche un test con age of conan ? sarebbe molto interessante vedere come si comportano questi mostri con quel gico pesantissimo.
Sono vincolati a pubblicare al massimo 4 test per questo prelancio.

Fortunatamente AoC è stato testato approfonditamente da [H]entusiast con la 4870x2
http://enthusiast.hardocp.com/article.html?art=MTUzMSw0LCxoZW50aHVzaWFzdA==

"Gioco pesantissimo?" :D
(devono testarlo con l'AA a 12x...)

Rotzcha
14-07-2008, 18:10
Personalmente non venderei la pelle dell'orso prima di averla venduta, questa è una preview e le schede non sono ancora in commercio, cosa succederà tra due mesi con l'ottimizzazione dei driver delle GTX 280. E per riferimento una GTX 280 consuma molto meno, oltretutto se la si abbina a un sistema Hybrid i consumi vengono praticamente dimezzati. 100€ in meno subito per poi doverne spendere 200 in più in pochi mesi. Non mi sembra che il gioco valga la Candela.

okorop
14-07-2008, 18:11
Personalmente non venderei la pelle dell'orso prima di averla venduta, questa è una preview e le schede non sono ancora in commercio, cosa succederà tra due mesi con l'ottimizzazione dei driver delle GTX 280. E per riferimento una GTX 280 consuma molto meno, oltretutto se la si abbina a un sistema Hybrid i consumi vengono praticamente dimezzati. 100€ in meno subito per poi doverne spendere 200 in più in pochi mesi. Non mi sembra che il gioco valga la Candela.
hibrid crossfire va anche nei sistemi amd ;)

Dev42
14-07-2008, 18:12
Personalmente non venderei la pelle dell'orso prima di averla venduta

:mbe: :mbe: :mbe:

Denny21
14-07-2008, 18:16
manco io :D :D :D

sanderconfusion
14-07-2008, 18:19
Personalmente non venderei la pelle dell'orso prima di averla venduta, questa è una preview e le schede non sono ancora in commercio, cosa succederà tra due mesi con l'ottimizzazione dei driver delle GTX 280. E per riferimento una GTX 280 consuma molto meno, oltretutto se la si abbina a un sistema Hybrid i consumi vengono praticamente dimezzati. 100€ in meno subito per poi doverne spendere 200 in più in pochi mesi. Non mi sembra che il gioco valga la Candela.

:rolleyes: :( :cry:

gianni1879
14-07-2008, 18:24
Si quoto, però consuma 70watt in + della 3870x2 con crysis...
Va anche parecchio di più però 430 watt sono tanti....
La mia lavatrice consuma meno dell'intero sistema sotto stress[570 watt]:sofico: :sofico:

la tua lavatrice quando entra in funzione la resistenza non hai idea di quanto consumi :asd:

Dev42
14-07-2008, 18:25
la tua lavatrice quando entra in funzione la resistenza non hai idea di quanto consumi :asd:

Be se la usi pocooo:D :D :D

al135
14-07-2008, 18:27
Personalmente non venderei la pelle dell'orso prima di averla venduta, questa è una preview e le schede non sono ancora in commercio, cosa succederà tra due mesi con l'ottimizzazione dei driver delle GTX 280. E per riferimento una GTX 280 consuma molto meno, oltretutto se la si abbina a un sistema Hybrid i consumi vengono praticamente dimezzati. 100€ in meno subito per poi doverne spendere 200 in più in pochi mesi. Non mi sembra che il gioco valga la Candela.

penso succedera' molto poco.
piu probabile che succeda qualcosa di meglio lato driver by ati vista l'immaturita della scheda e degli stessi driver.
imho sono schede di fascia alta, non si guarda troppo il consumo , tu giochi 10 ore al giorno tutti i giorni full throttle? :rolleyes:

okorop
14-07-2008, 18:27
la tua lavatrice quando entra in funzione la resistenza non hai idea di quanto consumi :asd:

si ma a parita di consumi mi diverto di piu a giocare al pc rispetto a vedere la lavatrice funzionare :asd:

gianni1879
14-07-2008, 18:28
si ma a parita di consumi mi diverto di piu a giocare al pc rispetto a vedere la lavatrice funzionare :asd:

sui gusti non si discute :asd: :eek: :D

Dev42
14-07-2008, 18:32
sui gusti non si discute :asd: :eek: :D

Già già, ma su una cosa discuto...
Quando ariva la bolletta della luce.....:p :p

capitan_crasy
14-07-2008, 18:32
hibrid crossfire va anche nei sistemi amd ;)

e no, la tecnologia PowerXPress è disponibile solamente sul chipset M780G cioè sulla piattaforma mobile chiama "PUMA" accoppiata con le GPU mobile serie HD3000.
Forse nessuno se ne accorto ma Nvidia ha un vantaggio notevole sul consumo in idle con la serie 9800 - GTX 200 accoppiati con i chipset Nforce 7 per piattaforma AMD; in pratica la scheda video si spegne letteralmente a riposo in favore della IGP presente su tutti i nuovi chipset Nvidia per socket AM2+ (disponibile solamente su Vista ).
E' un peccato che questa caratteristica venga del tutto ignorata solamente perchè la piattaforma AMD vive un momento di difficoltà...

appleroof
14-07-2008, 18:33
si ma a parita di consumi mi diverto di piu a giocare al pc rispetto a vedere la lavatrice funzionare :asd:

bella questa :D

okorop
14-07-2008, 18:35
Già già, ma su una cosa discuto...
Quando ariva la bolletta della luce.....:p :p

non la pago io :asd:
p.s. io sto col mio crossfire in firma che per adesso va bene.....il micronde col pc acceso non va quindi il risultato sperato l'ho ottenuto :sofico:

Dev42
14-07-2008, 18:39
non la pago io :asd:
p.s. io sto col mio crossfire in firma che per adesso va bene.....il micronde col pc acceso non va quindi il risultato sperato l'ho ottenuto :sofico:

Peccato sarebbe comodo.......
Che risultato sarebbe???????:D :D :D ù
Anche se lo immagino preferisco che lo dica tu....:D :D

okorop
14-07-2008, 18:40
Peccato sarebbe comodo.......
Che risultato sarebbe???????:D :D :D ù
Anche se lo immagino preferisco che lo dica tu....:D :D

non ho raggiunto nessun risultato l'unica cosa che ho raggunto è che poi quando tornano i miei mi buttano fuori dalla finestra il pc :asd:

appleroof
14-07-2008, 18:41
Il consumo di queste schede (di tutte le schede top quando escono rispetto a quanto visto fino a quel momento) è esagerato, ma ogni volta che esce una scheda da prestazioni uber assistiamo allo solito teatrino sul consumo: non si possono avere prestazioni uber con consumi da fascia bassa (almeno da anni e finora :D), rassegnatevi

Mparlav
14-07-2008, 18:43
Il prezzo più basso che trovo ora per la HD 4870 è 205 euro, quindi ad occhio una HD4870 X2 con 1Gb di GDDR5 non dovrebbe costare più di 400 euro. Per la 2Gb, ci vorranno quei 50-100 euro in più.

Sul noto sito d'aste, in Italia le Asus GTX 280 e 260, vengono 370 e 250 euro ivate, rispettivamente.

Alla luce di come sono state sorpassate le dual gpu della precedente generazioni, resta il mio parere anche per questa HD 4870 X2: pressochè inutile. Sempre Crossfire e dipendenza dal profiling dei giochi.

Esce ad agosto, si diffonde a settembre, ma appena escono le schede a 40nm, diventa ridicola.

Dev42
14-07-2008, 18:43
non ho raggiunto nessun risultato l'unica cosa che ho raggunto è che poi quando tornano i miei mi buttano fuori dalla finestra il pc :asd:

Lo immaginavo...:p :p
Forse perchè mi capiterebbe la stessa cosa....:D

Cappej
14-07-2008, 18:44
[OT]

ATTENZIONE!!!

MESSAGGIO ALLA POPOLAZIONE GAMER-HARDCORE!!!!!

POSSESSORI DI SUPER VGA!!!!

GIOCATE DI NOTTE!!! COSTA MENO !!!!!

okorop
14-07-2008, 18:46
Il prezzo più basso che trovo ora per la HD 4870 è 205 euro, quindi ad occhio una HD4870 X2 con 1Gb di GDDR5 non dovrebbe costare più di 400 euro. Per la 2Gb, ci vorranno quei 50-100 euro in più.

Sul noto sito d'aste, in Italia le Asus GTX 280 e 260, vengono 370 e 250 euro ivate, rispettivamente.

Alla luce di come sono state sorpassate le dual gpu della precedente generazioni, resta il mio parere anche per questa HD 4870 X2: pressochè inutile. Sempre Crossfire e dipendenza dal profiling dei giochi.

Esce ad agosto, si diffonde a settembre, ma appena escono le schede a 40nm, diventa ridicola.

non è la 4870x2 inutile è il tuo commento........le gpu a 40nm usciranno sul finire del 2009 quindi il tuo discorso lo si potrebbe fare per tutto, i penryn non servono a nulla saranno delle schifezze quando usciranno le cpu nehalem a 32nm.....:rolleyes:

Marko91
14-07-2008, 18:55
non è la 4870x2 inutile è il tuo commento........le gpu a 40nm usciranno sul finire del 2009 quindi il tuo discorso lo si potrebbe fare per tutto, i penryn non servono a nulla saranno delle schifezze quando usciranno le cpu nehalem a 32nm.....:rolleyes:

Per me non ha tutti i torti. Una scheda del genere ha significato solo per chi ha uno schermo da 30 pollici e vuole giocare a 2560x1600 con i filtri. Per tutte le altre risoluzioni una HD4870 è perfetta..
I 40nm sono attesi per la prima metà del 2009, Nvidia ci sta già lavorando sopra secondo i rumor. ATI forse produrrà anche a 45nm verso fine 2008. Un RV780@45nm con 15 SIMD (1200sp, 60TMU) a 800Mhz/4500 per dicembre sarebbe interessante no? :Perfido:

appleroof
14-07-2008, 18:56
Il prezzo più basso che trovo ora per la HD 4870 è 205 euro, quindi ad occhio una HD4870 X2 con 1Gb di GDDR5 non dovrebbe costare più di 400 euro. Per la 2Gb, ci vorranno quei 50-100 euro in più.

Sul noto sito d'aste, in Italia le Asus GTX 280 e 260, vengono 370 e 250 euro ivate, rispettivamente.

Alla luce di come sono state sorpassate le dual gpu della precedente generazioni, resta il mio parere anche per questa HD 4870 X2: pressochè inutile. Sempre Crossfire e dipendenza dal profiling dei giochi.

Esce ad agosto, si diffonde a settembre, ma appena escono le schede a 40nm, diventa ridicola.

quoto, sopratutto se quelle sono dx11

ma per questi motivi vale imho per qualsiasi scheda odierna sopra i 300 euro, lato-consumatore...

bs82
14-07-2008, 19:02
ci manca solo il commento di hal2001...

intanto in age fo conan, grid, cod4, urneal t, ecc ecc ecc ecc trancia le gambe anche allo SLI di gtx280...


certo che è una scheda inutile, se sei uno degli idioti che la comprerà per usarla a 1024 o usarla senza AA....

già i test con aa4x a 1900 sono INUTILI per queste schede.

andatevi a vedete le prox rece SERIE che usciranno in agosto.

confido in quelle di computerbase che sono le uniche SERIE e che usano veramente le caratteristiche di queste schede.

vedi aa8x che qua sembra una bestemmia.

sarà che con aa8x una 4870 va come una gtx280 e nn si vuole infierire troppo?

Lud von Pipper
14-07-2008, 19:06
http://www.hwupgrade.it/articoli/skvideo/2007/crysis.png
Non capisco, a guardare questi grafici è come se crysis avesse problemi con le schede XFire/SLI :confused:

La differenza tra una e due schede dice poco o nulla (24fps per una 280 e 26 per due in SLI, 20 per le 4870 singole o doppie)

okorop
14-07-2008, 19:07
Per me non ha tutti i torti. Una scheda del genere ha significato solo per chi ha uno schermo da 30 pollici e vuole giocare a 2560x1600 con i filtri. Per tutte le altre risoluzioni una HD4870 è perfetta..
I 40nm sono attesi per la prima metà del 2009, Nvidia ci sta già lavorando sopra secondo i rumor. ATI forse produrrà anche a 45nm verso fine 2008. Un RV780@45nm con 15 SIMD (1200sp, 60TMU) a 800Mhz/4500 per dicembre sarebbe interessante no? :Perfido:

si giusto la 4870x2 serve per i 2560x1600 con i filtri e dici poco......un anno fa erano soluzioni irraggiungibili....i 45 nm per ati a novembre sono molto interessanti per poi rivederli a giugno i r800.....
quoto, sopratutto se quelle sono dx11

ma per questi motivi vale imho per qualsiasi scheda odierna sopra i 300 euro, lato-consumatore...

le dx11 non le vedremo fino a winzoz 7

Immortal
14-07-2008, 19:09
e dopo che un chip di fascia medio-alta era di poco sotto al chip di punta di nvidia, ecco che con r700 hanno prepotentemente preso la corona delle prestazioni e credo che stavolta ati rimmarrà per tempo in testa.

per chi si lamenta dei consumi: "agli enthusiast non interessano i consumi" (cit.) :sofico:

Marko#88
14-07-2008, 19:12
nn vedo il test di crisis con la dx10, andateci piano a fare recensione
ma deve essere completo

non è una rece vera e propria ma solo una preview....comunque le prestazioni ci sono tutte, dipende quanto andrà a costare effettivamente...

appleroof
14-07-2008, 19:15
cut

le dx11 non le vedremo fino a winzoz 7

non è detto, e non è nemmeno detto che una vga dx11 (e retrocompatibile al 100%) debba uscire solo dopo o in contemporanea alle dx11

cmq di sicuro per ora è un discorso molto relativo, diciamo che per me ha un certo peso, tutto qui

floc
14-07-2008, 19:25
secondo me, come giustamente sottolinea l'articolo, ste schede dual gpu sono troppo dipendenti dai driver, dovrebbero trovare una soluzione a questo problema infilando qsa in mezzo

Marko91
14-07-2008, 19:27
e dopo che un chip di fascia medio-alta era di poco sotto al chip di punta di nvidia, ecco che con r700 hanno prepotentemente preso la corona delle prestazioni e credo che stavolta ati rimmarrà per tempo in testa.

per chi si lamenta dei consumi: "agli enthusiast non interessano i consumi" (cit.) :sofico:

mmm... vedremo. Nulla impedisce ad Nvidia di mettere 2 Gtx260@55nm su unica scheda (dual-pcb). Certo sarà durissima, perchè una soluzione simile sarebbe costosissima per la stessa Nvidia (2 chipponi da 450+ mm^2 + 2 pcb a tanti strati). Probabilmente comunque una soluzione simile sarebbe leggermente sotto a R700. Quindi penso che per almeno 4-6 mesi ATi sarà al top e Nvidia punterà velocemente su un nuovo chip.. un GT300.

Lud von Pipper
14-07-2008, 19:41
Non lo so, noto valori strani anche con Bioshock e COD... come se ad un certo framerate si inchiassero alle alte risoluzioni...
non è detto, e non è nemmeno detto che una vga dx11 (e retrocompatibile al 100%) debba uscire solo dopo o in contemporanea alle dx11

cmq di sicuro per ora è un discorso molto relativo, diciamo che per me ha un certo peso, tutto qui certo puoi ragionare così perché hai gia nel case una 8800GTX, ma per chi ancora è alla generazione precedente è un discorso di la da venire il tuo.

E poi consideriamo un altra cosa: per ora a parte alcuni esempi poco significativi, di giochi DX10 se ne sono visti pochini, quindi, con la larga disponibilità di Hardware a basso costo che abbiamo oggi mi viene il dubbio che non ne vedremo affatto, e tanto meno potremo sperare in una generazione DX11

Visto anche l'attuale livello di giochi PC direi che la scelta giusta è stata fatta da chi, a parità di spesa si è comprato una consolle: a chi non piacciono i giochi da consolle non resta comunque nulla vista che praticamente tutto ciò che circola è mero porting.
Francamente oggi credo sia un errore spendere più di 200€ in una scheda video oggi, non per le qualità intrinseche dell'hardware ma per la carenza assoluta del software dove usarlo.
Il 99% degli utenti cambia hardware quando si accorge che i suoi giochi non girano più e non legge siti per appassionati di Hardware.
Ora trovatemi un solo gioco che non funzioni più che bene su una scheda da 200€ oggi (e nel prossimo futuro): per come la vedo io prima lo capiscono i produttori di schede video e prima vedremo migliorare il panorama dei videogiochi sugli scaffali.

Diversamente corriamo tutti a comprarci una consolle e lasciamo perdere i PC.

appleroof
14-07-2008, 19:41
mmm... vedremo. Nulla impedisce ad Nvidia di mettere 2 Gtx260@55nm su unica scheda (dual-pcb). Certo sarà durissima, perchè una soluzione simile sarebbe costosissima per la stessa Nvidia (2 chipponi da 450+ mm^2 + 2 pcb a tanti strati). Probabilmente comunque una soluzione simile sarebbe leggermente sotto a R700. Quindi penso che per almeno 4-6 mesi ATi sarà al top e Nvidia punterà velocemente su un nuovo chip.. un GT300.

slurp :D

però 4-6 mesi per gt300 mi sembra troppo ottimistico...vedremo...;)

appleroof
14-07-2008, 19:48
Non lo so, noto valori strani anche con Bioshock e COD... come se ad un certo framerate si inchiassero alle alte risoluzioni...
certo puoi ragionare così perché hai gia nel case una 8800GTX, ma per chi ancora è alla generazione precedente è un discorso di la da venire il tuo.

E poi consideriamo un altra cosa: per ora a parte alcuni esempi poco significativi, di giochi DX10 se ne sono visti pochini, quindi, con la larga disponibilità di Hardware a basso costo che abbiamo oggi mi viene il dubbio che non ne vedremo affatto, e tanto meno potremo sperare in una generazione DX11

Visto anche l'attuale livello di giochi PC direi che la scelta giusta è stata fatta da chi, a parità di spesa si è comprato una consolle: a chi non piacciono i giochi da consolle non resta comunque nulla vista che praticamente tutto ciò che circola è mero porting.
Francamente oggi credo sia un errore spendere più di 200€ in una scheda video oggi, non per le qualità intrinseche dell'hardware ma per la carenza assoluta del software dove usarlo.
Il 99% degli utenti cambia hardware quando si accorge che i suoi giochi non girano più e non legge siti per appassionati di Hardware.
Ora trovatemi un solo gioco che non funzioni più che bene su una scheda da 200€ oggi (e nel prossimo futuro): per come la vedo io prima lo capiscono i produttori di schede video e prima vedremo migliorare il panorama dei videogiochi sugli scaffali.

Diversamente corriamo tutti a comprarci una consolle e lasciamo perdere i PC.

si è ovvio che la 88gtx mi facilita il tutto (è stata anche una questione di fortuna, ma se solo ripenso a quanti la menavano quando la comprai a novembre 2006...) e che per questo sottolineavo che il discorso dx11 assumerebbe una certa rilevanza del tutto personale:

a me non frega che ci siano per forza giochi dx11 (come giustamente notavi, sarebbe già senzazionale averne uno veramente dx10) ma che a parità di spesa (e sopratutto a distanza di pochi mesi, non anni, sennò tutto il discorso perde senso) possa avere una vga (dx11) che quel gioco ancora dx10 me lo faccia girare meglio di quella "vecchia", se mi spiego, e che "in più" sia eventualmente pronta per il futuro (il discorso che feci quando spesi 600 euri per quella che ho tuttora nel case, poi giochi dx10 nisba, ma quelli "pseudo dx10" come viaggiano? :D )

cmq per questi motivi sono d'accordo con te: ora come ora, ed in attesa di sviluppi spero dopo l'estate, (cambierei il tetto massimo) max 300€ per una vga nuova, a stare tirati

bracco_baldo
14-07-2008, 19:53
non ho capito una cosa, voi in queste recensioni riciclate i risultati dei vecchi test, oppure per dire la 9800gtx la ritestate sul benchmarck ogni volta?

no perchè se riciclate i risultati ste recensioni valgono davvero molto poco... e a me sembra sia così

Zodd_Il_nosferatu
14-07-2008, 20:10
è possibile avere i catalyst 8.52 beta che avete usato nella preview o non vi è possibile?:mc:

M4R1|<
14-07-2008, 20:17
be inanzitutto questa vga è perfetta per il full hd visto che può garantire un IQ veramente elevato con frame eccezionali;)
poi sono proprio curioso di conoscere nel dettaglio come è la connessione delle due gpu... per le prestazioni invece mi fa sorridere il fatto che nn essendoci ancora driver che supportino la scheda ci sia un enome vataggio sulla gtx280, che nn è colmabile ne con GTX280 XXX Super OC ne GT200b visto che sul 3d di aspettando r700 è stata calcolata la media delle prestazioni a favore della 4870x2 e a parte crysis che è intorno al 30% con gli altri giochi si va dal 50 all'80% (per nn parlare delle situazioni in cui tiene testa allo sli di gtx 280....)
nn c'è proprio storia AMD ha lavorato molto bene invece nvidia.....


@ bs82: concordo pienamente con quello che hai detto ;)

@ bracco_baldo: HW ad ogni recensione fa tutti i test da capo su macchiene sempre pulite, fidati può nn sembrarlo ma è un lavoraccio e anche il buon corsini invecchia (:D) ;) invece per esempio ComputerBase fa i test sempre su quella postazione, quindi fatti una volta sono fatti finchè nn ci sono nuovi driver e siccome cmq nemmeno loro li cambiano spessisimo (es le 38x0 usano gli 8.5) è molto più veloce rilascire una recensione.... ;)

Kharonte85
14-07-2008, 20:36
A quanto pare la scheda va uguale identica ad un crossfire di hd4870....i consumi sono ovviamente da paura...be' diciamo che è perfetta per chi non ha la possibilita' di farsi il crossfire...ora resta solo da vedere quale delle due soluzioni (x2 Vs crossfire) dara' meno problemi...

halduemilauno
14-07-2008, 20:44
in attesa delle rece esaustive e dei prezzi ufficiali qui da noi. una considerazione ma intanto una premessa a scanso di equivoci la 4870x2 è ottima e prima della classe. la considerazione è ma gli è convenuto ad ati far vedere le proprie carte con un mese di anticipo e calcolando che il lancio ufficiale sarà in mezzo ad agosto un 40/50 giorni prima dell'effettiva commercializzazione????? visto gli attuali prezzi delle gtx280(e probabili ulteriori cali)non credo che tale annuncio vada a modificare + di tanto la commercializzazione delle stesse.
ma questo imho.
cmq ormai è chiaro a tutti(no a tutti no)che nvidia sta lavorando a una versione delle attuali gtx a 55nm e questo significa oltre a costi e quindi prezzi diciamo + adeguati soprattutto frequenze ben superiori(la gtx280 extreme a 738/1666/2520 ne è un'esempio)e quindi a che prò? capirei, la presento, sfrutto tutte le polluzioni del caso e voilà comincio ad incassare ma invece cosi?
:boh:


lo ripeto la 4870x2 è la prima della classe e complimenti ad ati.

Morgan Leah
14-07-2008, 21:00
ragazzi, io tutto questo problema sui consumi non ce lo vedo...
mettiamo che io gioco per 4 ore al giorno tutti i giorni e che il mio sistema consumi 600W in totale... sono circa 2,4kw al giorno, giusto?
io pago un kw circa 0,12€...
in un mese sono circa 7 euro al mese... se non ho fatto male i conti.
Se spendo 350 euro di scheda e la monto su un pc che sicuramente mi sarà costato un migliaio di euro, e se sto tutto sto tempo a giocare ne avro comprati di giochi, che a 40-50 euro l'uno fanno altri bei soldini...
Cosa cavolo me ne vuole fregare dei 7-8 euro di corrente al mese?
Mi preoccuperei di più per i soldi che dovro dare all'oculista e all'ottico perchè tutto sto tempo al pc mi si massacrano gli occhi!!! :)

magnusll
14-07-2008, 21:19
capirei, la presento, sfrutto tutte le polluzioni del caso e voilà comincio ad incassare ma invece cosi?
:boh:


Ci ho pensato anch'io a questo; l' unico effetto che riesco a immaginare, facendo un pre-lancio con un mese d' anticipo, e' spingere ulteriormente i prezzi verso il basso. Forse ATI vuole giocare pesante su quel fronte, mettendo nVidia nella scomoda posizione di dover scegliere tra vendere in perdita o perdere quote di mercato. Questo tra l' altro confermerebbe i vari rumours che si sentono in giro su un costo per chip nettamente inferiore per ATI rispetto ad nVidia.

L' unica altra cosa che mi viene in mente e' fare una specie di "prova generale" per evidenziare eventuali magagne (soprattutto a livello drivers / CrossFire) e poterle correggere al volo prima del lancio effettivo. Ma, a parte il fatto che ATI i test coi videogiochi puo' benissimo farseli in casa, questo contrasta con l' aver richiesto ai recensori di fare le preview con soli 4 giochi al massimo.

yossarian
14-07-2008, 21:47
crossposting per crossposting :D

in attesa delle rece esaustive e dei prezzi ufficiali qui da. una considerazione ma intanto una premessa a scanso di equivoci la 4870x2 è ottima e prima della classe. la considerazione è ma gli è convenuto ad ati far vedere le proprie carte con un mese di anticipo e calcolando che il lancio ufficiale sarà in mezzo ad agosto un 40/50 giorni prima dell'effettiva commercializzazione?????
ormai è chiaro a tutti(no a tutti no)che nvidia sta lavorando a una versione delle attuali gtx a 55nm e questo significa oltre a costi e quindi prezzi diciamo + adeguati soprattutto frequenze ben superiori(la gtx280 extreme a 738/1666/2520 ne è un'esempio)e quindi a che prò? capirei, la presento, sfrutto tutte le polluzioni del caso e voilà comincio ad incassare ma invece cosi?
:boh:


lo ripeto la 4870x2 è la prima della classe e complimenti ad ati.

probabilmente perchè il lancio della versione a 55 nm di GT200 non è così imminente. Oppure, magari, si stima che anche una versione a 55 nm di GT200 non supererebbe le prestazioni di R700. In entrambi i casi, uno shrink di GT200 potrebbe non costituire un problema. In tal caso, un annuncio anticipato potrebbe servire solo per frenare le vendite della GTX280. A questo nVidia potrebbe rispondere, come sta facendo, con un calo dei prezzi per rendere appetibili i propri prodotti.
Inoltre, anche ATi sta lavorando ad una versione a 45 nm di RV770 (e non solo). Basta tener conto della progressione dei processi produttivi degli utlimi anni (2005 passaggio da 110 a 90; 2006 passaggio da 90 a 80; 2007 passaggio da 80 a 65 e poi a 55)

appleroof
14-07-2008, 22:00
crossposting per crossposting :D

arieccomi, infatti :D



probabilmente perchè il lancio della versione a 55 nm di GT200 non è così imminente. Oppure, magari, si stima che anche una versione a 55 nm di GT200 non supererebbe le prestazioni di R700. In entrambi i casi, uno shrink di GT200 potrebbe non costituire un problema. In tal caso, un annuncio anticipato potrebbe servire solo per frenare le vendite della GTX280. A questo nVidia potrebbe rispondere, come sta facendo, con un calo dei prezzi per rendere appetibili i propri prodotti.
Inoltre, anche ATi sta lavorando ad una versione a 45 nm di RV770 (e non solo). Basta tener conto della progressione dei processi produttivi degli utlimi anni (2005 passaggio da 110 a 90; 2006 passaggio da 90 a 80; 2007 passaggio da 80 a 65 e poi a 55)

come dicevo di là, nuovi chip dx11 sia per Ati che per Nvidia tra un annetto :D :D

killer978
14-07-2008, 22:01
Scheda inutile, come del resto la GTX280 e GTX260 :asd: credo che il miglior acquisto oggi sia 4850 o 4870, una scheda da 200€ che permette di giocare a tutto anche su schermi da 30 pollici (4870) che è a ridosso della GTX280 in molte situazioni.

è una scheda da numeri che consuma un botto

4870 the best buy

IMHO!!! il resto è spazzatura :asd:

man2tek
14-07-2008, 22:07
Bhe 4870X2 è una bella bestiola ma come molti di voi dicono i consumi sono troppo elevati. Per chi gioca molto com me non va bene. Del resto anche una gtx280 non è di certo una scheda che consuma poco. Spero che arrivino il più presto possibile ai processi produttivi delle cpu. Non è un impresa così semplice ma occorre arrivarci il più rapidamente possibile. Si perchè il costo dell'energia
sale costantenmente e me ne accorgo sulla bolletta.

thecatman
14-07-2008, 22:28
scusate un chiarimento: ma hybrid power è solo x nvidia? e ati che sta facendo in campo analogo?

Gianoxx
14-07-2008, 23:11
questa scheda video è stupenda!!!! magnifica!!!! e casca prorpio a pennello visto che a settembre mi faccio il pc nuovo!!!!!! YESSSS!!!! ATI RULEZZZZ!!!!

paxxo1985
14-07-2008, 23:12
se mi compro una 4870 risparmio in energia rispetto a una x1900xt? bisgonerebbe fare anke confronti con le schede vekkie per vedere se oltre al salto di prestazioni si ha anke un abbassamento dei consumi ;D

DvDx21
14-07-2008, 23:47
IMHO è un'ottima scheda per chi vuole il massimo senza compromessi....
Per il resto penso che la scelta migliore per le tasche rimane la 4850 ed eventualmente una futura x2 potrebbe essere davvero interessante.

Il discorso di rilasciare una preview con 1 mese di anticipo può essere legato a spingere Nvidia ad adeguare subito prezzi o gpu. Questo per decidere più facilmente come regolarsi con i costi al lancio.

paolo.guidx
14-07-2008, 23:51
Personalmente non venderei la pelle dell'orso prima di averla venduta, questa è una preview e le schede non sono ancora in commercio, cosa succederà tra due mesi con l'ottimizzazione dei driver delle GTX 280. E per riferimento una GTX 280 consuma molto meno, oltretutto se la si abbina a un sistema Hybrid i consumi vengono praticamente dimezzati. 100€ in meno subito per poi doverne spendere 200 in più in pochi mesi. Non mi sembra che il gioco valga la Candela.

Se uno compra queste schede non guarda certo a 50W.... Poi, ammesso che nVidia migliori i driver per le sue GTX, ma non credi che lo possa fare anche ATI con le X2?...... Visto che al momento della rece non esistono ancora driver ufficiali che le supportino il fatto che già siano in vantaggio rispetto alle GTX (che sono uscite da un mese) ha del miracoloso.....

Zannawhite
15-07-2008, 08:26
Io sono abbastanza convinto che questa fascia di VGA, gamma 9800GTX in su sia ormai Cpu limited.
Con il mio Quad core @2.4Ghz. noto molto differenza nei test che ho condotto su Company of Heroes.

Ho notato il raddoppio dei frame rate minimi passando da 2.4Ghz. a 3Ghz. a 1280x1024.

A mio avviso tutte queste scelte, portano a essere Cpu limited.

Cosa ne pensate :wtf:

TheThane
15-07-2008, 09:17
Bhe non sarebbe per niente male un test con vari proccessori piu "umani" fino agli extreme mantenendo lo stesso sistema per vedere l'impatto sul cpu-limited o differenze ad alte risoluzioni!!

Mparlav
15-07-2008, 09:37
x okorop: quanto è utile la HD3870 X2 ora, dopo l'uscita della HD 4850?
Quanti mesi sono passati? Quanto costano la prima e la seconda?
Dal punto di vista architetturale, qual'è migliore tra le 2?

Sono domande semplici semplici, a cui è facile dare una risposta, senza commenti inutili.

Ah, i 40nm erano previsti a Q4 2008.
Alcune voci lo danno al Q1 2009, non a fine 2009, ma vedremo che succede sotto Natale, con la fretta che c'è di recuperare sulle vendite e sugli utili.

Per me la HD4870 X2 resta una scheda inutile, ma non dubito che a 350-400 euro, avrà vendite notevoli.
D'altronde i produttori di alimentatori devono pur campare :-)

Mr_Paulus
15-07-2008, 09:49
ottima rece, scheda (x me ovviamente) inutile come le corrispondenti proposte nvidia visto che con una 4870 giochi da dio a qualsiasi cosa a risoluzioni umane
;)

EDIT

al135
15-07-2008, 09:56
ottima rece, scheda (x me ovviamente) inutile come le corrispondenti proposte nvidia visto che con una 4870 giochi da dio a qualsiasi cosa a risoluzioni umane
;)

EDIT

quoto, il mio problema è che ho una dannatissima 1900 1200 come risoluzione avendo u n24".. spero non mi deluda sta scheda :oink:

paolo.guidx
15-07-2008, 10:24
Io sono abbastanza convinto che questa fascia di VGA, gamma 9800GTX in su sia ormai Cpu limited.
Con il mio Quad core @2.4Ghz. noto molto differenza nei test che ho condotto su Company of Heroes.

Ho notato il raddoppio dei frame rate minimi passando da 2.4Ghz. a 3Ghz. a 1280x1024.

A mio avviso tutte queste scelte, portano a essere Cpu limited.

Cosa ne pensate :wtf:

Beh, a quella risoluzione una 9800 è inutile ed è sicuro che è limitata dal procio. Se avessi un 24'' come me magari la penseresti diversamente.
In ogni caso anche un QX9770 due X2 sono CPU limited alla grande, se non fai un bell' overclock fino a 4GHz.

dasheroll
15-07-2008, 10:48
paolo.guid nn sarebbe ora di cambiare scheda video?! io ho appena comprato 2 Ati Sapphire HD4870... forse ti converebbe cambiare GPU:D

rollocarmelo
15-07-2008, 13:42
ma che diavolo dite cpu limited??? da 2.4 a 3.0 ghz la differenza è minima, ho fatto un test accuratissimo con crysis, si parla di 3-4 fps di differenza!!! Se per voi questo è essere cpu limited friggetevi i processori ed okkateli senza motivo fino a 4ghz

rollocarmelo
15-07-2008, 13:46
il cpu limited è qualcosa che va ad assotigliarsi sempre più man mano che il gioco diventa più pesante. Ad esempio se con un gioco fai 100fps ed okkando il procio ne fai 120 non vuol dire che quando ci sarà un gioco con cui fai 10fps okkato ne farai 30. è semplice matematica!!!

Zannawhite
15-07-2008, 13:59
ma che diavolo dite cpu limited??? da 2.4 a 3.0 ghz la differenza è minima, ho fatto un test accuratissimo con crysis, si parla di 3-4 fps di differenza!!! Se per voi questo è essere cpu limited friggetevi i processori ed okkateli senza motivo fino a 4ghzRiporto la discussione dove ho trattato l'argomento:

link (http://www.hwupgrade.it/forum/showpost.php?p=21653990&postcount=2023)

rollocarmelo
15-07-2008, 15:04
mi sa tanto che hai sbagliato qualcosina, il divario degli fps min tra cpu overclokkata e non, è enorme. io non ho notato assolutamente differenze del genere con nessun gioco per il quale ho fatto il test per cui mi tengo il mio q6600 a default. Ti consiglio di leggerti questo bellissimo articolo sul cpu limited così capirai quanto ridicolo sia il vantaggio nel passaggio da 2.4 a 3.0ghz con q6600. Quel poco di cpu limited inizia a sparire già a 2.6ghz.

http://www.tomshw.it/cpu.php?guide=20080515

viacolle
15-07-2008, 15:16
Ma hanno ddr4 o ddr5? Mi sembra che si parli a volte dell'una a volte dell'altra...

thecatman
15-07-2008, 15:23
scusate un chiarimento: ma hybrid power è solo x nvidia? e ati che sta facendo in campo analogo?
:confused:

Ginger79
15-07-2008, 15:52
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

paolo.guidx
15-07-2008, 16:07
paolo.guid nn sarebbe ora di cambiare scheda video?! io ho appena comprato 2 Ati Sapphire HD4870... forse ti converebbe cambiare GPU:D

Appena ho tempo aggiorno la firma.... cosi dopo :sbavvv: :sbavvv:

paolo.guidx
15-07-2008, 16:12
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

Come ??? La GTX280 è il meglio che tu possa avere? Quando costerà 300 euro forse, adesso no. Il top è la 4870x2, come prestazioni (e speriamo anche come prezzo). Vorrei farti notare che al momento non ci sono catalyst ufficiali per il supporto di questa bestiolina, per cui il fatto che sia già più veloce indica la bontà della scheda.

gianni1879
15-07-2008, 16:15
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

un mese 300€?? come se la Ati non stassero scendendo di prezzo, poi non capisco come mai tutta questa avversione al consumo, non ci diceva che gli utenti esigenti non guardavano questo fattore?? :boh:

HD4870x2 in alcuni casi va come la gtx280 (solo a quanto pare Crysis) e negli altri va pure al raddoppio, io tutta questa convenienza a parità di prezzo non c'è la vedo per nulla.

Il miglior acquisto rimangono la HD4850 e la HD4870, punterei anzi ad una hd4870 1GB quando saranno disponibili per evitare di saturare i 512MB dell'altro modello, in quel caso le prestazioni sono solo 15% in meno della gtx280

al135
15-07-2008, 16:25
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

non credo la pagherai 300 tra un mese dato che queste cominceranno a uscire proprio tra un mese. e cmq sia non sono daccordo. anche io la pensavo come te fino a 1 anno - 6 mesi fa sul discorso del single chip. ma ormai sembra che il multigpu sia destinato a crescere, non avrebbero senso neanche CF E SLI altrimenti. sono migliorati. e molto. soprattutto il CF che qua va veramente tanto CRYSIS a parte ovviamente per chiari motivi di programmazione e scelte commerciali (un altro modo per dire mazzette) viene vergognosamente CASTRATO. ma non me ne puo' fregar di meno io crysis l'ho giocato e finito con l'attuale e incredibile 8800 gtx.
vengo dalle vecchie glorie dell'ati , 9700, x1800-1900 , bombe prestazionali.
e questa scheda con driver neanche proprio ottimizzati riesce a superare la top di gamma nvidia e neanche di poco.
quindi , sorprese a parte sara' la mia prox scheda. la prenderei anche se costasse 500 €. pagai 550 la mia 8800gtx. ma ne valeva la pena. come questa. poi ogniuno fa le scelte che vuole ma non mi lascio certo influenzare dai colori ipnotici verdi all'introduzione dei giochi ;)

magnusll
15-07-2008, 16:47
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

Salve signor Huang. Come vanno le cose li da voi? So che avete avuto qualche problema con i chip per laptop che erano difettosi...

atomo37
15-07-2008, 16:54
io concordo con ginger79, un paio di mesi e mi porto a casa una bella gtx280 a prezzo stracciato, ottime prestazioni senza gravare troppo sull'elettricità :)

rollocarmelo
15-07-2008, 16:58
lasciate perdere quello che dice GINGER 79
l'ho conosciuto sul forum ed è uno sfegatato fanboy di nvidia, ma di quelli che si vestono solo di verde ed hanno le bandiere per casa, se vede del rosso inizia a gridare e scappa. Non sto scherzando andate a leggervi i suoi interventi sul forum riguardo hd4870 vs gtx260, sono al limite del ridicolo, non ammetterebbe mai che le ATI questa volta hanno battutto NVIDIA neppure se una ATI costa 10 euro e fa 100fps ed una NVIDIA costa 100euro e ne fa 10fps, lui comprerebbe NVIDIA e non sto SCHERZANDO!!! evitate di dargli corda altrimenti non la smette + di scrivere boiate:)

atomo37
15-07-2008, 17:02
bah io mi sento super partes avendo comprato negli anni più ati che nvidia, ma secondo me ginger stavolta ha ragione, se uno non ha necessità di risoluzioni spaziali e quindi può scegliere su una mono gpu a vantaggio del risparmio energetico la migliore scelta secondo me è la gtx280, specialmente se il prezzo si avvicinerà veramente ai 300 euro.

Ginger79
15-07-2008, 17:29
di quelli che si vestono solo di verde ed hanno le bandiere per casa, se vede del rosso inizia a gridare e scappa.

[OT]Su questo concordo al 100%. Il colore del mio partito mi porta ad amare il verde e ad odiare il rosso... e meno male che il 70% degli elettori (nelle ultime politiche) l'ha pensata come me. ;)

"Loro non hanno potuto mettere regole all'immigrazione... ora vivono nelle riserve"

P.s. Segnalato cmq

Ginger79
15-07-2008, 17:33
Salve signor Huang. Come vanno le cose li da voi? So che avete avuto qualche problema con i chip per laptop che erano difettosi...

Salve signor. Magnusll,
si abbiamo ritirato i nuovi chip per il settore mobile perchè consumavano troppo poco rispetto alla concorrenza... sa com'è... anche noi abbiamo un anima. :)

Marko91
15-07-2008, 17:39
[OT]Su questo concordo al 100%. Il colore del mio partito mi porta ad amare il verde e ad odiare il rosso... e meno male che il 70% degli elettori (nelle ultime politiche) l'ha pensata come me. ;)

"Loro non hanno potuto mettere regole all'immigrazione... ora vivono nelle riserve"

P.s. Segnalato cmq

OT

Cosa??????!!!! :eek:
Brutto comunista che non sei altro!!
Lega + MPA + PDL insieme hanno preso ben il 150%! E la Lega da sola il 101%!


:asd: smettila di comprare Il Giornale, Libero e la Padania e torna nel mondo reale. L'immigrazione incide per il 10% del PIL italiano e quando sarai vecchio saranno i figli degli immigrati a pagarti la pensione. :)

Fine OT

Ginger79
15-07-2008, 17:54
smettila di comprare Il Giornale, Libero e la Padania e torna nel mondo reale. L'immigrazione incide per il 10% del PIL italiano e quando sarai vecchio saranno i figli degli immigrati a pagarti la pensione.

No comment. Povera Italia...

...va beh che a 17 anni ne hai così di strada da fare... e di cose da imparare. :)

Marko91
15-07-2008, 18:35
No comment. Povera Italia...

...va beh che a 17 anni ne hai così di strada da fare... e di cose da imparare. :)

E cosa dovrei imparare? L'Italia è un paese in declino, un declino anche demografico. La spesa sociale in Italia è ridicola, si fanno sempre meno figli. Ci sono sempre più anziani e sempre meno giovani. Attualmente in Italia ci sono 3 milioni di immigrati regolari e 1 milione di immigrati clandestini (non difendo l'immigrazione clandestina sia chiaro). Se vogliamo sopravvivere come nazione nel 2050 ci servono almeno 10 milioni di immigrati.
In realtà vi andrebbe benissimo, l'importante è non vederli giusto? "Cercavamo braccia, sono arrivati uomini". O forse preferite voi ad iniziare ad immigrare?

capitan_crasy
15-07-2008, 19:05
chissà se nei thread dove si parla di politica quando vanno OT salta fuori il discorso ATI Vs Nvidia...:asd: :asd: :asd:

Marko91
15-07-2008, 19:18
chissà se nei thread dove si parla di politica quando vanno OT salta fuori il discorso ATI Vs Nvidia...:asd: :asd: :asd:

Beh io frequento anche la sezione politica e non è mai successo. :D
Comunque scusate per l'ot.

thecatman
15-07-2008, 19:27
scusate un chiarimento: ma hybrid power è solo x nvidia? e ati che sta facendo in campo analogo? :confused:
:confused: :confused:

magnusll
15-07-2008, 19:29
bah io mi sento super partes avendo comprato negli anni più ati che nvidia, ma secondo me ginger stavolta ha ragione, se uno non ha necessità di risoluzioni spaziali e quindi può scegliere su una mono gpu a vantaggio del risparmio energetico la migliore scelta secondo me è la gtx280, specialmente se il prezzo si avvicinerà veramente ai 300 euro.

Se non hai bisogno di risoluzioni spaziali, la GTX280 e' uno spreco tanto quanto la 4870X2.

b4stardo
15-07-2008, 19:30
Non è stato fatto il test di Crysis in Dx10 perchè ha valori di frame troppo bassi.....e con le schede precedenti non era la stessa cosa???Non mi convince questa mancanza di test...

leoneazzurro
15-07-2008, 21:47
Grazie a questa preview ho finalmente potuto trarre le mie conclusioni: La GTX280 sarà il miglior acquisto che si possa fare entro Settembre. Quasi 150Watt in meno di consumo e un prezzo (oggi di 380€) che tra circa 1 mese si assesterà sui 300€.

GTX280 è una scheda che fornisce prestazioni al top indipendentemente dai driver (è ridicolo dipendere da un supporto multiGPU per avere le prestazioni per cui da subito si PAGA) e questo, dal mio punto di vista, è essenziale.

Grazie AMD per la concorrenza. Con questo forno a microonde prodotto da Ati mi permetterai di portare a casa una scheda top di gamma (GTX280) allo stesso prezzo di quanto pagai 2 anni fa la 8800GTS (scheda di fascia media). Ottimo.

Il discorso per alcuni passi ipotrebbe anche essere condivisibile, tranne per il passaggio sui "forni a microonde". Non creiamo flame.

lasciate perdere quello che dice GINGER 79
l'ho conosciuto sul forum ed è uno sfegatato fanboy di nvidia, ma di quelli che si vestono solo di verde ed hanno le bandiere per casa, se vede del rosso inizia a gridare e scappa. Non sto scherzando andate a leggervi i suoi interventi sul forum riguardo hd4870 vs gtx260, sono al limite del ridicolo, non ammetterebbe mai che le ATI questa volta hanno battutto NVIDIA neppure se una ATI costa 10 euro e fa 100fps ed una NVIDIA costa 100euro e ne fa 10fps, lui comprerebbe NVIDIA e non sto SCHERZANDO!!! evitate di dargli corda altrimenti non la smette + di scrivere boiate:)

d'altra parte questo tipo di risposte non va proprio bene. Ammonizione.

[OT]Su questo concordo al 100%. Il colore del mio partito mi porta ad amare il verde e ad odiare il rosso... e meno male che il 70% degli elettori (nelle ultime politiche) l'ha pensata come me. ;)

"Loro non hanno potuto mettere regole all'immigrazione... ora vivono nelle riserve"

P.s. Segnalato cmq


OT

Cosa??????!!!! :eek:
Brutto comunista che non sei altro!!
Lega + MPA + PDL insieme hanno preso ben il 150%! E la Lega da sola il 101%!


:asd: smettila di comprare Il Giornale, Libero e la Padania e torna nel mondo reale. L'immigrazione incide per il 10% del PIL italiano e quando sarai vecchio saranno i figli degli immigrati a pagarti la pensione. :)

Fine OT

No comment. Povera Italia...

...va beh che a 17 anni ne hai così di strada da fare... e di cose da imparare. :)

E cosa dovrei imparare? L'Italia è un paese in declino, un declino anche demografico. La spesa sociale in Italia è ridicola, si fanno sempre meno figli. Ci sono sempre più anziani e sempre meno giovani. Attualmente in Italia ci sono 3 milioni di immigrati regolari e 1 milione di immigrati clandestini (non difendo l'immigrazione clandestina sia chiaro). Se vogliamo sopravvivere come nazione nel 2050 ci servono almeno 10 milioni di immigrati.
In realtà vi andrebbe benissimo, l'importante è non vederli giusto? "Cercavamo braccia, sono arrivati uomini". O forse preferite voi ad iniziare ad immigrare?

E questo OT politico vi garantisce un'ammonizione a testa. Per piacere, evitate.

marco_djh
15-07-2008, 22:50
Le stesse prestazioni di 2 4870 in CrossfireX...Col vantaggio di utilizzare un solo slot e con la compatibilità per schede madri nVidia...Peccato che manchino i consumi di 2 4870 per ultimare il confronto. Comunque sia non è male...Attendiamo una (probabile ormai???) 280GX2

Kar0nt3
15-07-2008, 23:46
La cosa triste è che c'è hardware da paura...sia ATI che Nvidia...ma si spera sempre nei driver... :muro: e giu' euro :asd:

by_xfile™
16-07-2008, 00:46
Ottima bestiola promette bene
per quanto riguarda il consumi l' intero PC consuma meno di un PC di 4/5 anni fa in qui non era otimizzato nulla a partire dall' alimentatore.
ho visto con mano la differenza in bolletta , visto che le pago io.
e comunque queste schede non sono da mettere su PC accesi 24 ore su 24
e poi comunque tiriamo i conti, se consumo io di più con la mia bestiola o voi coi i PC a basso consumo sul PxP 24 su 24.

Scusatemi ma quando ci vuole ci vuole,

secondo me, come giustamente sottolinea l'articolo, ste schede dual gpu sono troppo dipendenti dai driver, dovrebbero trovare una soluzione a questo problema infilando qsa in mezzo
sarebbe ora che tutti i produttori ottimizassero all' estremo i propi driver vedi che i PC di qualche anno fa girerebbero come quelli prodotti adesso.
ai tempi del Basic e del Cobol si ottimizzava tutto all' estremo non cera nulla o poco a disposizzione, mentre adesso abbiamo troppo e non ottimizzato.

rollocarmelo
16-07-2008, 03:07
in effetti uno non si compra una scheda video da 400euro e poi si lamenta di 100 euro all'anno in più di bolletta, anche perchè sono schede da abbinare a lcd enormi dai grandi consumi. Mi dispiace per la risposta forse ho esagerate ma se aveste visto quello che ho visto io avreste reagito anche voi così.

Comunque alla fine ognuno butta i soldi come crede se preferite spendere di più per avere una cosa che va MOLTO meno fate pure. Almeno vi godete lo stemmino della nvidia:)

Nino Grasso
16-07-2008, 13:58
La HD4870x2 non va al raddoppio rispetto una GTX280. Sono state pubblicate in giro recensioni in cui il CrossFire funziona, e pure bene. Oltretutto su giochi in cui le ATi single GPU vanno già benissimo, talvolta sorpassando anche nVIDIA (Grid o CoD4 ad esempio). Da notare inoltre che 2 GTX260 siano la soluzione più perfomante (a parte 2 GTX280 improponibili a livello di consumi e costo però), e ormai coi prezzi che avranno mi sa che sarà davvero un best buy.

Le prestazioni di 2 HD4870 in CF le sappiamo tutti, e sono in contrasto con quelle della GTX280 (le schede di ATi vanno un 10% in più mediamente rispetto alla singola GTX280, come pubblicato nella recensione di HWUpgrade e non solo). Alla luce di questo secondo me la "scelta" ricade su tantissimi fattori (che sto valutando visto che devo cambiare scheda video, attualmente sto su una X1300 ed è una bomba!!! :D). Escludo a priori una HD4870x2, troppo rumorosa e troppo calda, non voglio distruggere il precario equilibrio del mio piccolo case.

Secondo me le opzioni da valutare (nel mio caso) sono 2 HD4870 in CF (opportunamente raffreddate da una serie di ventole da 12cm :D) o 1 GTX280. Il prezzo si aggirerebbe intorno ai 420/440€ per la prima soluzione, e circa 380€ per la seconda.

Propendo maggiormente per la soluzione di nVIDIA per alcuni fattori: 1) è una singola scheda, ed avendo avuto soluzioni multigpu mi è parso che il gioco non ne vale la candela (quando scatta una scheda spesso ne scattano anche 2, i valori nei benchmark sui frame MEDI sono fortemente influenzati dai massimi e danno un valore leggermente sballato); 2) Costa meno; 3) Consuma meno; 4) Produce meno rumore (se consideriamo di dover riconfigurare le ventole sulle HD4870 specie in configurazione CF).
Di contro 2 HD4870 in CF in alcune circostanze vanno davvero forte. Inoltre la mia scheda madre in CF supporta il PCI Express 8x, e non so quanto questo possa influire sulle prestazioni.

Tutto questo IMHO, felicissimo di essere smentito. :)

thecatman
16-07-2008, 20:01
nessuno che mi risponda?

Marko91
16-07-2008, 20:25
Le prestazioni di 2 HD4870 in CF le sappiamo tutti, e sono in contrasto con quelle della GTX280 (le schede di ATi vanno un 10% in più mediamente rispetto alla singola GTX280, come pubblicato nella recensione di HWUpgrade e non solo).

Tutto questo IMHO, felicissimo di essere smentito. :)


http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_17.html

Non è corretto. Oscilla tra il 10 e il 20% a seconda della risoluzione.

In altri siti è anche molto maggiore.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

Come puoi vedere è intorno al 30%-40%.
Tutto dipende dal tipo dei test, dalla scena etc etc.
Su alcune review e in alcuni giochi le prestazioni sono superiori ad una Sli di GTX280.

Marko91
16-07-2008, 20:50
nessuno che mi risponda?

Si è di Nvidia. Per il mercato mobile la piattaforma Puma permette qualcosa di simile.
http://www.hwupgrade.it/articoli/portatili/1981/amd-puma-la-nuova-piattaforma-notebook_5.html
Per il mercato desktop non c'è nulla di simile da parte di AMD, anche se le HD4800 con powerplay attivo dovrebbero consumare meno di 10W in idle. Siccome powerplay sarà operativo dalla prossima release dei driver le HD4800 consumano in idle una 30ina di W.

paolo.guidx
18-07-2008, 13:09
http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_17.html

Non è corretto. Oscilla tra il 10 e il 20% a seconda della risoluzione.

In altri siti è anche molto maggiore.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet

Come puoi vedere è intorno al 30%-40%.
Tutto dipende dal tipo dei test, dalla scena etc etc.
Su alcune review e in alcuni giochi le prestazioni sono superiori ad una Sli di GTX280.

Molto dipende dai driver, comunque finchè non escono sul mercato non esaltiamo troppo ste schede, GTX280 insegna, vero?;)

Si è di Nvidia. Per il mercato mobile la piattaforma Puma permette qualcosa di simile.
http://www.hwupgrade.it/articoli/portatili/1981/amd-puma-la-nuova-piattaforma-notebook_5.html
Per il mercato desktop non c'è nulla di simile da parte di AMD, anche se le HD4800 con powerplay attivo dovrebbero consumare meno di 10W in idle. Siccome powerplay sarà operativo dalla prossima release dei driver le HD4800 consumano in idle una 30ina di W.

Secondo me questa tecnologià di nVidia è quasi inutile, risparmiare 20W non cambia la vita. Quando accendo il PC gioco, non lo tengo mica sul desktop....

Edit: mi riferivo a hybrid sui desktop, sui notebook ovviamente serve eccome

realista
20-07-2008, 15:13
paolo guidx- ma che diavolo dici... se TU qnd accendi il pc GIOCHi... sono problemi tuoi..( si fa x dire) .. ma io come la maggior parte delel persone il pc l oaccende al70% delel volte per far altro che giocare ed è li che erve tale tecnologia per risparmiare.

paolo.guidx
20-07-2008, 15:22
paolo guidx- ma che diavolo dici... se TU qnd accendi il pc GIOCHi... sono problemi tuoi..( si fa x dire) .. ma io come la maggior parte delel persone il pc l oaccende al70% delel volte per far altro che giocare ed è li che erve tale tecnologia per risparmiare.


Ammazza che rompi....
Se lo utilizzi per fare altro usa la scheda video integrata, se ci giochi (e ti preoccupi dei consumi) accontentati di una scheda meno potente.
Oppure ti fai (come me) un muletto a basso consumo che frulla 24h al giorno e un PC degno del nome per dedicarlo ad un utilizzo ludico o di programmi più pesanti.
Poi son problemi tuoi se non dormi pensando alla bolletta.;)

efis007
19-08-2008, 17:12
In effetti Paolo.guidx non ha tutti i torti.
Per navigare, leggere forum, scrivere la posta, etc etc, io uso il mio buon vecchio portatile centrino.
Quando invece ho bisogno di sprigionare cavalli a iosa accendo il desktop..e vai col liscio.
Oltretutto faccio notare una cosa.
Si continua a parlare di consumi mostruosi di questa scheda, oppure di "è fatta per le altissime risoluzioni, altrimenti non serve a niente".
Non sono daccordo.
Una scheda così può essere usata benissimo anche a risoluzioni più basse.
Sul mio monitor CRT posso usare (che fortuna) qualunque risoluzione voglio (il massimo che arrivo è 1600 x 1200) e non mi passa neanche per la testa di cambiarlo.
Non ho quindi nessun obbligo di "risoluzione nativa" e di conseguenza non ho l'obbligo di tirare il collo per forza alle schede video per andare in risoluzione nativa.
Tirandogli meno il collo mi garantisco automaticamente consumi più bassi, un'immagine sempre perfetta con tutti filtri a paletta (se voglio metterli), e durata della scheda superiore.
Usassi una scheda meno potente mi rimane comunque più "tirata" di una bestia come questa ATI, e non so alla fine se arrivi a consumare di più quella tirata all'osso oppure quella potente fatta lavorare al minimo delle sue capacità.
Non ci metto la mano sul fuoco, ma con questa belva potrei teoricamente giocare a Crysis a 1600 x 1200 con le DX10 e con un frame davvero buono.
Oppure a 1280 x 1024 (sempre con settaggi al massimo).
Insomma non ho l'obbligo della risoluzione nativa, non ho l'obbligo di portare Crysis (o altri titoli) per forza a 1950 x chi cavolo lo sa, pena una qualità dell'immagine schifosa.
Col CRT l'immagine è sempre perfetta, sempre, a qualunque risoluzione, quindi posso spremere questa scheda su tutte le risoluzioni e con un dettaglio allucinante, garantendomi sempre un frame da urlo e un'immagine eccezionale, nonchè anche consumi più bassi rispetto a che è obbligato alle risoluzioni native dettate dagli LCD (i quali cercano sempre la risoluzione nativa MASSIMA, mai quella minima).
Ho sempre odiato gli LCD proprio per questo.
Sono loro (soprattutto) ad obbligare alla scheda di "consumare" di più (della serie "o mi fai lavorare in risoluzione nativa, e quindi consumi, oppure mi fai lavorare fuori risoluzione nativa, e consumi meno, ma per contro ti restituisco un'immagine schifosa").
Non cambierò mai il mio Hitachi CRT sin quando non schiatta.
Non ce n'è per nessuno.
:-))

08-10-2008, 11:13
Si ma non ci siamo ancora però , le prestazioni con crysis non sono ancora al top , cosa hanno combinato con quel gioco ?
Cioè mi spiego meglio , possibile che si deve avere una scheda super mega enthusiast , e crysis gira ancra sotto i 100 frs a risoluzioni alte ?Cosa devo mettere 4 schede 4870x2 in crossfire ? O di più ancora ?
Secondo me il motore della crytek è tanto bello quanto fatto male a sto punto .

phil anselmo
05-11-2008, 15:43
io ancora non riesco a capire se vanno meglio le GTX280 o queste e quali siano le reali differenze prestazionali...
a seconda del sito che consulti 'ste schede vanno in modo diverso... :mbe:

Zannawhite
05-11-2008, 15:54
io ancora non riesco a capire se vanno meglio le GTX280 o queste e quali siano le reali differenze prestazionali...
a seconda del sito che consulti 'ste schede vanno in modo diverso... :mbe:A mio avviso ati ma giochi 2 contro 1

phil anselmo
05-11-2008, 16:01
A mio avviso ati ma giochi 2 contro 1

ok, è vero! ma di quanto sia superiore non l'ho capito...
alcuni siti internazionali, non faccio nomi, la danno fino al doppio più veloce!
altri invece le danno molto più vicine... io non ci sto capendo nulla...
stesso discorso fra le GTX260 e le HD4870, ai tempi della serie 7 vs X1000 c'era molta più chiarezza! :boh:

Zannawhite
05-11-2008, 16:14
ok, è vero! ma di quanto sia superiore non l'ho capito...
alcuni siti internazionali, non faccio nomi, la danno fino al doppio più veloce!
altri invece le danno molto più vicine... io non ci sto capendo nulla...
stesso discorso fra le GTX260 e le HD4870, ai tempi della serie 7 vs X1000 c'era molta più chiarezza! :boh:I veri protagonisti a mio avviso sono i driver in questa fase. Da come la vedo io credo che GTX260 sia inferiore a HD4870 e se la giochi di più con HD4850. Mentre la GTX280 in base ai titoli se la gioca con la HD4870 1gb.

Mentre la HD4870X2 può capitare che ci siano dei giochi che non supportano correttamente la doppia scheda a causa dei driver e quindi lavora una singola Gpu. :boh:

phil anselmo
05-11-2008, 16:16
I veri protagonisti a mio avviso sono i driver in questa fase. Da come la vedo io credo che GTX260 sia inferiore a HD4870 e se la giochi di più con HD4850. Mentre la GTX280 in base ai titoli se la gioca con la HD4870 1gb.

Mentre la HD4870X2 può capitare che ci siano dei giochi che non supportano correttamente la doppia scheda a causa dei driver e quindi lavora una singola Gpu. :boh:

:boh: ma che casino...

spapparo82
28-01-2009, 00:13
SCusate ma in una foto dell'articolo hanno scritto che la 4870x2 con un giga di ram, ma non ne ha 2? e non può essere considerata sli rispetto a una 280, perchè ha sullo stesso pbc 2 gpu che lavorano in parallelo?
quindi pure se i valori della corrente andranno a farsi fottere con 2 280 rispetto alla ati, però non dovrenno ottenere fps + elevati?:mbe: