View Full Version : Due GeForce 9800GX2 fanno la differenza?
Redazione di Hardware Upg
09-04-2008, 11:33
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1942/due-geforce-9800gx2-fanno-la-differenza_index.html
La recente presentazione della scheda GeForce 9800GX2 ha permesso ad NVIDIA di riconquistare il primato di scheda più performante in commercio, lasciando aperta la possibilità di essere affiancata da una scheda identica ed ottenere un sistema video Quad SLI. Per ottenere le massime prestazioni conviene davvero passare a tale configurazione?
Click sul link per visualizzare l'articolo.
X1l10on88
09-04-2008, 11:42
Esilarante vedere che in molti giochi le prestazioni addirittura diminuiscono!
daboss87
09-04-2008, 11:45
MA PROPRIO TANTO FASTIDIO VI FA FARE I BENCH DI CRYSIS CON DX10?!??!!?!?!
mamma mia, questo dimostra quanto crysis sia un mattone con qualunque configurazione :D
Ma noooo!!! Non sconsigliatene l'acquisto!!! Io ci godo a vedere i supernerd che spendono migliaia di euro del papi per comprarsi sta roba per poi vedere che non serve a nulla!!!
:D :rolleyes:
PS: Attendo fiducioso la venuta del mitico NEMESIS ELITE a sollazzarci con le sue uscite... :O
io non vorrei dire caxxate ma credo non abbiate attivato realmente il crossfire se i risultati sono quelli che avete mostrato.
esiste un espediente per attivare il croosfire realmente ed una volta attivato (solo in modalità dx9 per il momento) il boost è enorme.
Esilarante vedere che in molti giochi le prestazioni addirittura diminuiscono!
Caso limite dovuto a problemi Driver.
Purtroppo molti test sono CPU limited
se vinco alla snai, allora forse leggero' la recensione
Zannawhite
09-04-2008, 11:59
Un articolo molto interessante e che delinea uno scenario ben preciso :mano:
Rimane una delusione comunque scoprire molte volte di avere a disposizione Cpu ormai Quad core con 2 Cpu dormienti in ambito videoaulico
Poi ritrovarsi Cpu limited anche con una semplice 8800GT :eekk:
Questo mi è successo con Company of heroes a risoluzione 1280x1024, tutto al massimo a livello di dettagli e AA 4x.
il processore Q6600 a 2.4Ghz dava dei frame rate minimi di circa 17fps mentre a 3.0Ghz. salivano a 30 gli fps minimi
Cpu 2.4Ghz.:
FPS med :136.6
FPS max :266.0
FPS min :17.0
Cpu 3.0Ghz.:
FPS med :141.8
FPS max :290.0
FPS min :35.0
letsmakealist
09-04-2008, 12:02
ottima prova, come al solito.
ma non capisco il senso di questa precisazione:
Crysis attira su di sé un'attenzione a nostro avviso eccessiva: sia AMD ed NVIDIA non nascondono di sviluppare driver più o meno ottimizzati per questo titolo, come è sempre stato in ogni caso nei confronti del gioco di riferimento in un dato periodo.
Crysis è l'unico gioco che mette davvero alla frusta le schede top di gamma portandole (alle alte risoluzioni) ai limiti della giocabilità.
ed è l'unica pietra di paragone valida in ambito gaming per schede di questa fascia , visto che la differenza, ad esempio, fra 133 fps e 126 fps a 2560x1600 non cambia la vita a nessuno.
cagnaluia
09-04-2008, 12:04
piu di 700WATT ???????????????
:D RIDICOLO...
Il QX6850 che fa da collo di bottiglia è la prima volta che lo sento!
Abbiamo tutti compreso che questo tipo di configurazione varrà solo per calcolo GPGP(forse) perchè onestamente se fossi uno sviluppatore l'ultima cosa che mi interesserebbe fare è mettermi lì a garantire la compatibilità con tutte le configuarazioni di schede possibili: SLI, Crossfire, CrossfireX3, CrossfireX4, Crossfire 2x2, TripleSLI, QuadSLI... e mamma che palle, datemi una buona ragione per perdere tempo dietro a qualcosa utilizzato dal 2-3% (sparo a caso, ma basta guardare le alzate di mano ai convegni quando si pone la fatidica domanda: chi di voi ha intenzione di sviluppare con tecnologia SLI... ... ... 3 su 100) mentre l'altro 98% se ne frega anzi non vuole che il massimo livello di dettaglio sia tarato su soluzioni simili, dopotutto 700€ 800€ per una configurazione video mi sono sempre sembrate anti-concorrenziali, volgio dire quella cifra non la spende uno che i giochi li sviluppa e quando ha poco ha 300000$ di budget...
Evangelion01
09-04-2008, 12:08
Beh, era ovvio che sarebbe finita così....
Già queste vga da sole sono fortemente driver-limited, figuriamoci 2 insieme!
Imho nvidia e Ati con sta storia del multi gpu stanno andando nella direzione sbagliata e diametralmente opposta a quello che sta avvenendo nel settore cpu, e hd , dove si cerca giustamente di privilegiare il rendimento e i consumi bassi...
Sarebbero più interessanti gpu multi core , come avviene nei processori, ne beneficerebbero costi, consumi e anche prestazioni. Ma forse è ancora troppo presto.
il problema del processore è la frequenza; già non vengono sfruttati nei giochi 2 core, 4 poi...
basterebbe un single core di nuova generazione a 4GHz e oltre...
io non vorrei dire caxxate ma credo non abbiate attivato realmente il crossfire se i risultati sono quelli che avete mostrato.
esiste un espediente per attivare il croosfire realmente ed una volta attivato (solo in modalità dx9 per il momento) il boost è enorme.:mc:
Quindi è meglio se non parli, non avresti nessun aumento prestazionale con 2 schede se crossfire non fosse attivo.
Poi se adesso tocca ricorrere ad "espedienti" per attivarlo realmente è proprio una tecnologia interessante:muro:
Beh, era ovvio che sarebbe finita così....
Già queste vga da sole sono fortemente driver-limited, figuriamoci 2 insieme!
Imho nvidia e Ati con sta storia del multi gpu stanno andando nella direzione sbagliata e diametralmente opposta a quello che sta avvenendo nel settore cpu, e hd , dove si cerca giustamente di privilegiare il rendimento e i consumi bassi...
Sarebbero più interessanti gpu multi core , come avviene nei processori, ne beneficerebbero costi, consumi e anche prestazioni. Ma forse è ancora troppo presto.
Ma che diavolo stai dicendo:mbe:
Le GPU sono già multi core, e a livelli che le CPU si sognano!
Dumah Brazorf
09-04-2008, 12:17
Tornando alla rece... ottima davvero, a dir la verità ci sbavo su da un bel po nei riguardi di un sistema fatto da 790i ultra + QX9770 + 4GB DDR3 2000MHZ + QUAD SLI 9800GX2. :sbavvv:
Per consumare 200W in idle? :asd:
Ma che se lo tengano!
E' dal tempo delle Nvidia TNT che le GPU sono multi core!!
REPERGOGIAN
09-04-2008, 12:23
sotto ai grafici dei watt e °C penso siano fuori luogo le scritte delle risoluzioni video
Sistemi del genere sono uno spreco assurdo, soprattutto pensando che tra 3 mesi, è probabile che le single gpu della prossima generazione, siano esse Amd o Nvidia, saranno veloci quanto le attuali dual gpu (quanto meno più costanti nelle prestazioni).
Sono pronto a scommettere che 2 schede in SLI/Crossfire della prossima generazione saranno più veloci di queste in prova oggi (perchè scalano meglio ovviamente), più economiche, e perchè no, più parche nei consumi.
Vabbè essere enthusiast, ma fessi no :-)
Darkgift
09-04-2008, 12:25
Speriamo che la finiscano con ste stronzate dello sli e del crossfire....non se ne puo piu......
Murakami
09-04-2008, 12:37
il problema del processore è la frequenza; già non vengono sfruttati nei giochi 2 core, 4 poi...
basterebbe un single core di nuova generazione a 4GHz e oltre...
Quoto, è che non si può tecnicamente fare. Salire all'infinito con la frequenza sarebbe stato più comodo per chi programma, ma non si riesce. Per come la vedo io, l'abbondanza di core può essere ben sfruttata in ambito console: su PC le CPU multicore resteranno sempre sottosfruttate e, quindi, collo di bottiglia per configurazioni video mostruose come quella oggetto dell'articolo... soggette, a loro volte, ad altrettanto importanti limitazioni, dal codice del driver a quello del gioco, con i risultati decisamente modesti che sono sotto gli occhi di tutti.
Sinceramente, non capisco neppure la motivazione commerciale per cui ATI ed nVidia si ostinino a proporre soluzioni simili: sono puri esercizi di tecnica, nemmeno tanto raffinata.
Per me, l'SLI è una cagata pazzesca!!!
92 minuti di applausi...
Guarda che nessuna gpu mai prodotta da amd e nvidia è davvero dual core come lo si intende per le cpu attuali.
Infatti, G80 integra 128 processori...
Erano le TNT ad integrarne due...
La 3870 è una scheda grafica a singolo pcb con sopra due singole gpu
mentre 9800gx2 (come 7900gx2\7950gx2) è una scheda grafica su due pcb con sopra una singola gpu per pcb.
Il tuo ragionamento è assolutamente sbagliato... :read:
Io mica parlavo di SLI o crossfire!
Questo è tutto un altro discorso!!
letsmakealist
09-04-2008, 12:40
Guarda che nessuna gpu mai prodotta da amd e nvidia è davvero dual core come lo si intende per le cpu attuali.
in realtà credo si riferisse al fatto che all'interno delle gpu attuali ci sono diverse decine di unità specializzate per il calcolo parallelo.
in effetti anche io non ho mai capito in che senso una gpu possa essere multicore "come lo si intende per le cpu attuali".
Guarda che nessuna gpu mai prodotta da amd e nvidia è davvero dual core come lo si intende per le cpu attuali.
La 3870 è una scheda grafica a singolo pcb con sopra due singole gpu
mentre 9800gx2 (come 7900gx2\7950gx2) è una scheda grafica su due pcb con sopra una singola gpu per pcb.
Il tuo ragionamento è assolutamente sbagliato... :read:
Invece ha perfettamente ragione lui, e non sta parlando delle varie versioni X2, ma di tutte le GPU esistenti oggi in commercio.
Una GPU è architetturalmente molto diversa da una CPU proprio perchè è formata da tanti minicore estremamente semplici che lavorano in parallelo, ed è questo che la rende estremamente più performante nel calcolo grafico rispetto ad una CPU.
mamma mia, questo dimostra quanto crysis sia un mattone con qualunque configurazione :DNon vorrei sembrare pedante ma... di quanti altri test avete bisogno per capirlo??
Ehm guarda che gli stream processors sono un'altra cosa...
inutile continuare a parlare se mi confondi le due cose.
Lo so, gli StreamProcessor non sono paragonabili a alle unità del chip della TNT, ma sempre di più unità nello stesso chip si parla.
Gli SP hanno una programmabilità illimitata come le CPU, quindi in questo caso sono comparabili con le CPU.
E come per i processori anche alle GPU si possono aggiungere o togliere core o StreamProcessor, nel caso di G80 a gruppi di sedici.
Solo che a differenza di alcune CPU i core sono sempre su un unico pezzo di silicio che è molto più vantaggioso, ad esempio i vecchi p4 dualcore erano formati da due core separati collegati tramite FSB mentre i Dore Duo sono 2 core im un pezzo unico
aaasssdddfffggg
09-04-2008, 13:01
Chiunque abbia nel case una 8800 puo' tranquilamente saltare la generazione 9 che non porta a nessun miglioramento significativo ed attendere l'arrivo del gt100/200 prossimo durante quest'anno.
Beh... credo che sia scontato chi sia più performante nel calcolo grafico no?! :D
La GPU è più performante nel calcolo in generale.
Sto solo dicendo che il concetto di dual core delle cpu è diverso dal quello applicabile attualmente ad una scheda video.
Siamo daccordo che le gpu attuali integrano più SP che lavorando in parallelo offrono maggiore potenza di calcolo (rispetto ad una cpu); il discorso è che il processore grafico è e resta uno.
E' qui che ti sbagli, il fatto che il chip grafico resti uno non vuol dire niente.
AMD per esempio produce i quad core in un unico blocco, Intel invece affianca 2 dual core.
se vinco alla snai, allora forse leggero' la recensione
Se i soldi della SNAI te li fossi messi da parte, probabilmente adesso l'avresti già letta :asd:
HackaB321
09-04-2008, 13:04
Infatti, G80 integra 128 processori...
Integra 128 stream processors. Di core ne integra 8 in versione GTX e 6 in versione GTS
HackaB321
09-04-2008, 13:06
Queste soluzioni sono aberrazioni tecnologiche...
Senza dubbio. Le peggiori performance per watt della storia delle schede video.
Evangelion01
09-04-2008, 13:07
Ma che diavolo stai dicendo:mbe:
Le GPU sono già multi core, e a livelli che le CPU si sognano!
Ma che diavolo stai dicendo tu... :mbe:
Io intendo multicore, non multi processore! Prendi la 3870x2 : monta due processori ( ognuno integrante un certo numero di sp ) su un unico pcb, ma non un unico processore con all' interno due core. Quello che vorrei vedere sarebbe una vga a singolo chip ma con più core integrati, esattamente come avviene nel mondo delle cpu.
Guarda che nessuna gpu mai prodotta da amd e nvidia è davvero dual core come lo si intende per le cpu attuali
La 3870 è una scheda grafica a singolo pcb con sopra due singole gpu
mentre 9800gx2 (come 7900gx2\7950gx2) è una scheda grafica su due pcb con sopra una singola gpu per pcb.
Il tuo ragionamento è assolutamente sbagliato... :read:
Esattamente ciò che intendevo io. :mano:
Infatti, G80 integra 128 processori...
Erano le TNT ad integrarne due...
Io mica parlavo di SLI o crossfire!
Questo è tutto un altro discorso!!
Non sono processori in senso stretto, ma steam processors che sono un' altra cosa.
Beh... credo che sia scontato chi sia più performante nel calcolo grafico no?! :D
Sto solo dicendo che il concetto di dual core delle cpu è diverso dal quello applicabile attualmente ad una scheda video.
Siamo daccordo che le gpu attuali integrano più SP che lavorando in parallelo offrono maggiore potenza di calcolo (rispetto ad una cpu); il discorso è che il processore grafico è e resta uno.
Anzi non so se lo avete notato... ma c'è molta attenzione intorno a RV770 proprio perchè si dice che sarà la prima gpu ad integrare un doppio processore grafico (ovvero due processori grafici nello spazio di uno... perdonatemi la spiegazione barbara ma così rendo l'idea) ottenendo finalmente una soluzione, come concetto, paragonabile a quella delle attuali cpu dual core (x2 o c2d che siano).
Esattamente. Il core grafico è uno, e viene coadiuvato nel suo lavoro dagli sp che sono adibiti all'elaborazione di vertici, pixel, geometria o fisica, a seconda delle necessità della scena da visualizzare.
Sto solo dicendo che il concetto di dual core delle cpu è diverso dal quello applicabile attualmente ad una scheda video.
Siamo daccordo che le gpu attuali integrano più SP che lavorando in parallelo offrono maggiore potenza di calcolo (rispetto ad una cpu); il discorso è che il processore grafico è e resta uno.
Anzi non so se lo avete notato... ma c'è molta attenzione intorno a RV770 proprio perchè si dice che sarà la prima gpu ad integrare un doppio processore grafico (ovvero due processori grafici nello spazio di uno... perdonatemi la spiegazione barbara ma così rendo l'idea) ottenendo finalmente una soluzione, come concetto, paragonabile a quella delle attuali cpu dual core (x2 o c2d che siano).
Ti faccio un esempio:
Cos'è una CPU dual core?
Due processori in un unica CPU in grado di eseguire due operazioni contemporaneamente.
Cose una moderna GPU(es. G80)?
128 processori(sono processori a tutti gli effetti) in un unica GPU in grado di eseguire 128 operazioni contemporaneamente.
Informatevi!!
Gli streamprocessor sono processori completamente programmabili al pari delle CPU!!!!
Hanno una loro cache L1 e L2 e si appoggiano ad un controller di memoria, possono svolgere qualsiasi tipo di calcolo, per quello le chiamano General Propose
QUALCUNO MI SPIEGHI LA DIFFERENZA TRA CPU E STREAMPROCESSOR!!
Evangelion01
09-04-2008, 13:15
Però a sto punto mi fate venire un dubbio.
Osservate questa immagine (http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_3.html)
Da li si evince che vi sono 8 "core" grafici composti dai sp + tu + cache. Ma le istruzioni elaborate da questi "core" a chi finiscono ? Cioè, sono core diciamo "effettivi" oppure il vero core è quel "thread processor" che si vede a lato?
Di fatto quindi g80 è considerabile multicore alla stregua di una cpu , o è monocore come penso io, cioè non ha più core che sono esattamente identici e integrano tutte le parti necessarie al funzionamento anche in singolo, come avviene quando si disabilita uno o più core di una cpu?
Chiedo lumi a qualcuno davvero esperto. :)
Beh... credo che sia scontato chi sia più performante nel calcolo grafico no?! :D
Sto solo dicendo che il concetto di dual core delle cpu è diverso dal quello applicabile attualmente ad una scheda video.
Siamo daccordo che le gpu attuali integrano più SP che lavorando in parallelo offrono maggiore potenza di calcolo (rispetto ad una cpu); il discorso è che il processore grafico è e resta uno.
Quello che volevo sottolineare è che essendo per loro natura già unità altamente parallele non c'è nessun beneficio a fare due GPU distinte sullo stesso die e poi impacchettarle in un solo contenitore, se hai la tecnologia per farlo, puoi fare direttamente una sola GPU con il doppio delle SP.
Per intenderci, quello che proponi tu è mettere in parallelo due unità già "parallele", cioè quello che ha fatto Intel con i suoi primi quadcore.
Ok, detta così potrebbe anche sembrare una buona idea :Prrr:
Però se ci pensi Intel ha abbandonato abbastanza in fretta quella strada, che si è dimostrata eccellente per arrivare prima e meglio di AMD, ma ha già abbandonato quella strada per puntare sui quad-core nativi.
E si tratta comunque di tecnologie recenti, dove ci si può aspettare che una soluzione più "rozza", come quella di affiancare due dual-core, possa permettere di evitare almeno all'inizio i problemi legati allo sviluppo di core paralleli. Ma nel caso delle GPU abbiamo già unità con centinaia di mini-core, è difficile credere che ad un certo punto possa risultare più conveniente affiancare e sincronizzare due unità da 200 core piuttosto che farne una da 400.
Certo, non lavorando ne per AMD ne per NVIDIA non posso esserne sicuro, ma sono convinto che questa tanto richiesta GPU dual-core non sia l'uovo di colombo che molti credono.
Anzi non so se lo avete notato... ma c'è molta attenzione intorno a RV770 proprio perchè si dice che sarà la prima gpu ad integrare un doppio processore grafico (ovvero due processori grafici nello spazio di uno... perdonatemi la spiegazione barbara ma così rendo l'idea) ottenendo finalmente una soluzione, come concetto, paragonabile a quella delle attuali cpu dual core (x2 o c2d che siano).
Link? E' la prima volta che sento parlare di questo rumor.
In compenso su Wikipedia (sezione rumor) parlano di un R700 che dovrebbe essere un set di due RV770 affiancati sullo stesso PCB (come la 3780X2). E questo lascia più credere che il RV770 sia "single-core" come i suoi predecessori
Però a sto punto mi fate venire un dubbio.
Osservate questa immagine (http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_3.html)
Da li si evince che vi sono 8 "core" grafici composti dai sp + tu + cache. Ma le istruzioni elaborate da questi "core" a chi finiscono ? Cioè, sono core diciamo "effettivi" oppure il vero core è quel "thread processor" che si vede a lato?
Di fatto quindi g80 è considerabile multicore alla stregua di una cpu , o è monocore come penso io, cioè non ha più core che sono esattamente identici e integrano tutte le parti necessarie al funzionamento anche in singolo, come avviene quando si disabilita uno o più core ?
Chiedo lumi a qualcuno davvero esperto. :)
Il Thread processor si occupa solo di dividere e di assegnare i compiti agli SP.
Non sono 8 core ma 128 raggruppati in 8 gruppi di 16 processori, in questo modo ogni gruppo ha il suo controller di memoria aumentano la banda disponibile e riducendo le latenze.
Zannawhite
09-04-2008, 13:25
A mio avviso l'unico ragionamento abbastanza plausibile si può riassumere in 2 punti:
2 Gpu montate separate permettono di essere più flessibili come architetture, un giorno monto 2 Gpu-A , fra 6 mesi monto 2 Gpu-B e mantengo una unica linea produttiva di Gpu
Altra questione che ritengo valida nello sdoppiare Gpu (ma che non condivido come scelta commerciale) è la dissipazione termica, evitano di creare delle piccole fonderie :D
In realtà... ogni stream processor è in grado di esere dinamicamente allocato per gestire operazioni legate all'elaborazione di vertici, pixel, geometria o fisica della scena 3D. ;)
appunto!!
Ma non solo vertici, pixel, geometria o fisica della scena 3D, ma qualsiasi tipo di calcolo!!!
Evangelion01
09-04-2008, 13:31
Mah, forse allora mi sono espresso male io all' inizio. :D
Quello che volevo dire è che vorrei vedere anzichè soluzioni come la 3870x2 o la 9800gx2, soluzioni con più gpu integrate in un unico PACKAGE , alla stregua di quanto avviene con le cpu quad core odierne sia intel ( che integra 2 cpu dual core in un unico package ) che Amd ( dove il phenom è un quad "nativo" , cioè con 4 processori singoli in un unico package ). :O
certo che non pensavo di scatenare un tale putiferio.. :asd:
Mah, forse allora mi sono espresso male io all' inizio. :D
Quello che volevo dire è che vorrei vedere anzichè soluzioni come la 3870x2 o la 9800gx2, soluzioni con più gpu integrate in un unico PACKAGE , alla stregua di quanto avviene con le cpu quad core odierne sia intel ( che integra 2 cpu dual core in un unico package ) che Amd ( dove il phenom è un quad "nativo" , cioè con 4 processori singoli in un unico package ). :O
certo che non pensavo di scatenare un tale putiferio.. :asd:
Ora è chiaro, ma il fatto è che in questo modo ci sarebbero grossi problemi di dissipazione e complessità del PCB
HackaB321
09-04-2008, 13:48
Però a sto punto mi fate venire un dubbio.
Osservate questa immagine (http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_3.html)
Da li si evince che vi sono 8 "core" grafici composti dai sp + tu + cache. Ma le istruzioni elaborate da questi "core" a chi finiscono ? Cioè, sono core diciamo "effettivi" oppure il vero core è quel "thread processor" che si vede a lato?
Di fatto quindi g80 è considerabile multicore alla stregua di una cpu , o è monocore come penso io, cioè non ha più core che sono esattamente identici e integrano tutte le parti necessarie al funzionamento anche in singolo, come avviene quando si disabilita uno o più core di una cpu?
Chiedo lumi a qualcuno davvero esperto. :)
G80 è una gpu composta in versione GTX da 8 "cores": ogni core è composto da un cluster di 16 sp e condivide rigidamente l'accesso a 4 TAU, 8 TFU e alla cache L1. Il thread processor è invece l'unità sovrastante lo shader core che si occupa di ripartire i thread fra i cluster disponibili. R600 ha una struttura diversa perchè la condivisione delle TMU non è così rigida (per ridurre le latenze ogni blocco di texture units serve un sottoinsieme di ogni cluster di stream processors).
In un certo senso le GPU sono multicore da sempre perchè hanno da sempre la capacità di eseguire calcoli paralleli (ossia applicare nello stesso ciclo di clock la stessa istruzione su più thread). La parallelizzazione consente però di eseguire solo poche istruzioni diverse su oggetti dello stesso tipo: ad esempio G80 può processare solo 8 istruzioni diverse su 8 gruppi di 16 vertex l'uno o 4 istruzioni diverse su gruppi di 32 pixel l'uno (per ciclo di clock), R600 può eseguire fino a 40 istruzioni diverse su 64 pixel per volta. Oltre a ciò la condivisione delle risorse e la struttura SIMD dei cluster non permette di eseguire istruzioni diverse su thread di diverso tipo all'interno dei cluster (non accadrà mai cioè che uno sp di un cluster lavora su un vertex e un altro sp dello stesso cluster lavora su un pixel)
occultamento attivo.. :D credo di aver fatto un affare a prendere l'ati hd2600xt attualmente va che è una bomba consuma poco e con i giochi che pratico è più che sufficiente.. mi garantisce ottime risoluzioni (1440x900) a giochi come moto gp4, assassin's creed, pes 2008 e giù di li con una spesa minima.. quando ci sarà un gioco che non mi soddisferà credo che cambierò la scheda per un altro ottimo compromesso prezzo prestazioni ovvero la 8800gt altro che ste crossfire e sli.. volevo prendere un'altra hd2600 per far crossfire con la minima spesa ma non ci penso proprio visto i risultati di queste configurazioni.
leddlazarus
09-04-2008, 14:37
Un articolo molto interessante e che delinea uno scenario ben preciso :mano:
Rimane una delusione comunque scoprire molte volte di avere a disposizione Cpu ormai Quad core con 2 Cpu dormienti in ambito videoaulico
Poi ritrovarsi Cpu limited anche con una semplice 8800GT :eekk:
Questo mi è successo con Company of heroes a risoluzione 1280x1024, tutto al massimo a livello di dettagli e AA 4x.
il processore Q6600 a 2.4Ghz dava dei frame rate minimi di circa 17fps mentre a 3.0Ghz. salivano a 30 gli fps minimi
Cpu 2.4Ghz.:
FPS med :136.6
FPS max :266.0
FPS min :17.0
Cpu 3.0Ghz.:
FPS med :141.8
FPS max :290.0
FPS min :35.0
bhe è normale che alzando la freq si alzino le prestazioni.
il tuo confronto ha poco senso.
avrebbe senso se la cpu a 3GHz fosse un dual, cioè se avvessi confrontato un quad a 2,4 con un dual a 3
occultamento attivo.. :D credo di aver fatto un affare a prendere l'ati hd2600xt attualmente va che è una bomba consuma poco e con i giochi che pratico è più che sufficiente.. mi garantisce ottime risoluzioni (1440x900) a giochi come moto gp4, assassin's creed, pes 2008 e giù di li con una spesa minima.. quando ci sarà un gioco che non mi soddisferà credo che cambierò la scheda per un altro ottimo compromesso prezzo prestazioni ovvero la 8800gt altro che ste crossfire e sli.. volevo prendere un'altra hd2600 per far crossfire con la minima spesa ma non ci penso proprio visto i risultati di queste configurazioni.
Si be conta che qui si parla di quad crossfire e quadsli con 2 VGA che gia' vanno bene da sole per miracolo xd^^ un semplice sli con 2 VGA singole da sicuramente meno problemi, tipo per esempio la ottima configurazione di 2 8800GTX che da dei risultati davvero buoni, io cmq tra breve provo lo sli con 2 8800GT e la XFX780i, installero' tutti i vari fix e cazzatine varie e spero di avere dei risultai decenti, altrimenti vendo tutto e mi prendo una 9800GX e basta^^, poi e' evidetene come in alcuni casi con 2 VGA 3870x2o9800GX2 si hanno dei risultati peggiori per via di drive oppure perche' il gioco e' stato creato senza minimamente pensare all'utilizzo di 4 VGA ma al massimo solo di 3, forse quando faranno un gioco+drive che supporti in maniera eccellente 4VGA qualche risultato decente arrivera'^^
Poi per solo il discorso dei consumi e' davvero' ridicolo fare una cofigurazione cosi, cioe' se ste VGA consumano cosi tanto devono andare nn ci sono cazzi, una ferrari consuma un botto ma va un disastro, una yaris TD nn va na sega ma consuma ancora meno; consumi/prestazione se nn si rispeta questo rapporto allora nn ci siamo propio, e se ATI/AMD e Nvida sviluppano la possibilita' di fare il QUAD-VGA si devono anche impegnare a farla andare bene, nn e' certo perche' poca gente usufruisce di una tecnologia del genere un buon motivo per nn farla andare bene;)
Ho visto che Delly ha preso 2 9800GX2, mi piagerebbe un suo pare da diretto interessato xd
PS.meno male che nn ho preso le 2 3870x2.......ci sono andato molto vicino, ci ho rinuciato solo all'utimo che :ciapet:
leddlazarus
09-04-2008, 14:39
ottima prova, come al solito.
ma non capisco il senso di questa precisazione:
Crysis è l'unico gioco che mette davvero alla frusta le schede top di gamma portandole (alle alte risoluzioni) ai limiti della giocabilità.
ed è l'unica pietra di paragone valida in ambito gaming per schede di questa fascia , visto che la differenza, ad esempio, fra 133 fps e 126 fps a 2560x1600 non cambia la vita a nessuno.
crysis è si l'unico gioco veramente "tosto" ma cmq rimane programmato con i piedi.
dual o quad core, single , dual o quad sli non si schioda dai soliti frames.
morale non sfrutta in pieno tutta la tecnologia odierna.
Zannawhite
09-04-2008, 14:55
bhe è normale che alzando la freq si alzino le prestazioni.
il tuo confronto ha poco senso.
avrebbe senso se la cpu a 3GHz fosse un dual, cioè se avessi confrontato un quad a 2,4 con un dual a 3Guarda che il Quad viene sfruttato solo per 2 Core nei giochi che ho visto fino ad ora.
A parte i frame max e medio, sono rimasto allibito dal frame minimo, nonostante che in questo gioco sfrutto 1 core e 3/4 del secondo core
Non vorrei sembrare pedante ma... di quanti altri test avete bisogno per capirlo??
ehm..guarda che io l'ho scritto in senso ironico, manco ce l'ho crysis, mi diverte solo vedere che nonostante l'incremento prestazionale continuo delle schede video e dei processori non ci sia un incremento nelle prestazioni degli stessi con un programma uscito prima, indipendentemente dai drivers :D tutto qua!
letsmakealist
09-04-2008, 15:25
crysis è si l'unico gioco veramente "tosto" ma cmq rimane programmato con i piedi.
dual o quad core, single , dual o quad sli non si schioda dai soliti frames.
morale non sfrutta in pieno tutta la tecnologia odierna.
appunto.
se ho i soldoni da spendere per una scheda video, secondo te, mi interessa o no che il gioco più tosto (al di là del fatto che sia ottimizzato o meno per la tecnologia delle VGA attuali) giri bene ?
peraltro, se è vero che crysis non sta sfruttando appieno le VGA attuali, è anche vero che Nvidia e Ati non sembrano far nulla per superare la stasi.
tant'è vero che che non si è mai visto prima che una scheda (la 8800GTX) possa permanere al vertice delle prestazioni per quasi due anni.
Raga, quello che si intende come gpu dual core (almeno nel thread su r700) é una scheda video con 2 chip (come avviene oggi con le X2 e GX2), ma entrambe con accesso alla stessa memoria.
Oggi ogni core, per limitazione dell' SLI e del Xfire, ha bisogno di una porzione di memoria separata (con conseguente spreco e limitazione di banda).
Ma il nome é sicuramente un po' fuorviante, perché é un concetto diverso da quello delle cpu. Infatti le schede video sono giá unitá molto parallelizzate.
Peró ad un certo punto conviene fare (ad esempio) un chip con 640sp o 2 da 320sp che condividono la stessa memoria? Chiaramente bisognerebbe trovare il modo per far lavorare i 2 core in parallelo senza troppe perdite.
Ma il costo dei chip sarebbe molto piú basso ;)
IlNiubbo
09-04-2008, 16:00
Che brutta prova per le configurazioni multi scheda...
Comunque certi limiti sono dovuti anche alla scarsa memoria: fisicamente ci sono 2GB ma è come se fossero solo 512, da quanto ho capito leggendo altri commenti.
Infatti tutti i blocchi da 512 hanno lo stesso contenuto e ogni gpu legge solo la parte che le interessa della propria gddr. A risoluzioni così elevate fanno presto a finire la memoria a disposizione.
appunto.
se ho i soldoni da spendere per una scheda video, secondo te, mi interessa o no che il gioco più tosto (al di là del fatto che sia ottimizzato o meno per la tecnologia delle VGA attuali) giri bene ?
Beh fanno già schifino in dx9 con impostazioni high (45 fps con un sistema che costa 900€ solo di vga fanno piangere) figuriamoci in dx10 con impostazioni very high.
peraltro, se è vero che crysis non sta sfruttando appieno le VGA attuali, è anche vero che Nvidia e Ati non sembrano far nulla per superare la stasi.
tant'è vero che che non si è mai visto prima che una scheda (la 8800GTX) possa permanere al vertice delle prestazioni per quasi due anni.
Qualche miglioramento in fascia media c'è stato: le 8800GTS da 640MB costavano sui 330€, mentre un odierna 8800gt 512MB va di più e si trova anche a meno di 180€ ... a me sembra un ottimo miglioramento.
Le schede high end hanno per il mercato che hanno servono solo a dare lustro all'azienda... chiedilo ad intel che è leader del mercato delle vga facendo solo chip integrati.
letsmakealist
09-04-2008, 16:22
Beh fanno già schifino in dx9 con impostazioni high (45 fps con un sistema che costa 900€ solo di vga fanno piangere) figuriamoci in dx10 con impostazioni very high.
sono d'accordo.
ma una differenza di pochi frames è rilevante a 45 fps, assolutamente risibile a 133 fps. ecco perchè quando leggo una prova di VGA high end, l'unico confronto che mi interessa è quello fatto con Crysis.
Qualche miglioramento in fascia media c'è stato: le 8800GTS da 640MB costavano sui 330€, mentre un odierna 8800gt 512MB va di più e si trova anche a meno di 180€ ... a me sembra un ottimo miglioramento.
Le schede high end hanno per il mercato che hanno servono solo a dare lustro all'azienda... chiedilo ad intel che è leader del mercato delle vga facendo solo chip integrati.
anche qui son d'accordo, tant'è vero che ho sempre comprato schede di fascia media, dove a parità di prezzo si migliora.
ma se si parla di schede high end, secondo me, le differenze da due anni a questa parte son state davvero minime.
e chi ha preso all'epoca la 8800GTX se la ride beato...
MadMax of Nine
09-04-2008, 17:18
Sarebbero stati interessanti i test fatti con qx9650/9770 a 4 GHz se non oltre dato che per dare da mangiare a 4 Gpu ce ne vuole...
Un articolo molto interessante e che delinea uno scenario ben preciso :mano:
Rimane una delusione comunque scoprire molte volte di avere a disposizione Cpu ormai Quad core con 2 Cpu dormienti in ambito videoaulico
Poi ritrovarsi Cpu limited anche con una semplice 8800GT :eekk:
Questo mi è successo con Company of heroes a risoluzione 1280x1024, tutto al massimo a livello di dettagli e AA 4x.
il processore Q6600 a 2.4Ghz dava dei frame rate minimi di circa 17fps mentre a 3.0Ghz. salivano a 30 gli fps minimi
Cpu 2.4Ghz.:
FPS med :136.6
FPS max :266.0
FPS min :17.0
Cpu 3.0Ghz.:
FPS med :141.8
FPS max :290.0
FPS min :35.0
cioè tu con 140fps medi stai a guardare i 17 o i 30 frames minimi?? :asd:
Evangelion01
09-04-2008, 17:39
e chi ha preso all'epoca la 8800GTX se la ride beato...
come il sottoscritto.. :asd:
Cmq la cambierò per la prox gen almeno : a questo giro posso tranquillamente aspettare e godermela ancora, che tanto rulla alla grande. :p
cioè tu con 140fps medi stai a guardare i 17 o i 30 frames minimi?? :asd:
Se il monitor é a 60Hz meglio avere min 30 e media 70 che avere min 17 e media 140...;)
viper-the-best
09-04-2008, 17:50
Cavolo..allora sono davvero troppo in anticipo le multigpu. Quindi davvero fino a quando non cambierà l'architettura dei processori i benefici di un SLI/Crossfire saranno minimi.
E poi il consumo è davvero troppo, troppo sproporzionato..
1974benny
09-04-2008, 18:01
O.T.
Mahh.
Quando si parla di GPU si arriva sempre sulla soglia del flame..
fine O.T.
Cavolo..allora sono davvero troppo in anticipo le multigpu. Quindi davvero fino a quando non cambierà l'architettura dei processori i benefici di un SLI/Crossfire saranno minimi.
E poi il consumo è davvero troppo, troppo sproporzionato..
cosa centrano i processori adesso??
IlNiubbo
09-04-2008, 18:23
cioè tu con 140fps medi stai a guardare i 17 o i 30 frames minimi?? :asd:
tu non giochi tanto a giochi sparatutto vero :D
Se il monitor é a 60Hz meglio avere min 30 e media 70 che avere min 17 e media 140...;)
anche se il monitor fosse a 200Hz darebbe fastidio lostesso. E' l'occhio che non vede differenze dopo una certa frequenza a prescindere dallo schermo.
Monitor sotto i 50Hz non li fanno proprio... sennò alla sera tutti con un bel mal di testa :)
O.T.
Mahh.
Quando si parla di GPU si arriva sempre sulla soglia del flame..
fine O.T.
da wikipedia:
"deliberatamente ostile e provocatorio inviato da un utente alla comunità o a un altro individuo specifico"
A me i toni sembrano pacati, e un commento così dopo sole 4 pagine :mbe:
Kharonte85
09-04-2008, 18:30
Difficile aggiungere altro alle conclusioni...al momento queste configurazioni non pagano proprio...bell'articolo ;)
anche se il monitor fosse a 200Hz darebbe fastidio lostesso. E' l'occhio che non vede differenze dopo una certa frequenza a prescindere dallo schermo.
Monitor sotto i 50Hz non li fanno proprio... sennò alla sera tutti con un bel mal di testa :)
Si si, questo lo so :)
Ho messo 60Hz perché oggi sono i piú diffusi (LCD).
Avevo letto un articolo, non mi ricordo dove, in cui si analizzava proprio questo: A partire da quanti fps la differenza non si nota piú.
La risposta era, in grosso modo, 60 immagini statiche (come nei giochi per pc) e 30 immagini in movimento (come nei film). Quindi andare oltre é puro esercizio di stile...
PS: poi a che serve avere 140 fps se il monitor cambia immagine solo 60 volte? :asd:
Io mi metto nei panni degli sviluppatori...con il divario tra soluzioni mono scheda base fino alle multi Gpu da 1200 euro.. mamma mia, bisognerà istituire corsi annuali per comprendere a fondo la scalabilità dei sistemi attuali.
Tutto comunque va a nostro discapito e Crysis ne è un esempio, visto che non si capisce per quale cosa lo abbiano programmato per farlo girare.
Fino ad ora nella tecnologia quad Sli e Crossx ho visto solo grande confusione, casini tra driver...ma chi ce lo fa fare? Un gioco quando lo installi deve funzionare subito e scorrere liscio, senza troppi casini. Quando le top di gamma erano le 1900XTX o 1800XTX ATI, i giochi viaggiavano al max e non c'era nessun problema e nessun dubbio su quale fosse la configurazione top. Ma erano vecchi tempi, anche se migliori a mio avviso.
Più di 700 watt per giocare al computer...non so...mi impressiona. Spero davvero che ati e nvidia riescano a fare della vera innovazione, lo sli a mio parere non lo é. Peraltro i benchmark evidenziano bene quanto sia inutile una configurazione del genere...
Io mi metto nei panni degli sviluppatori...con il divario tra soluzioni mono scheda base fino alle multi Gpu da 1200 euro.. mamma mia, bisognerà istituire corsi annuali per comprendere a fondo la scalabilità dei sistemi attuali.
Nessuno mette in dubbio che sta diventando sempre piú difficile programmare, con questo tipo di evoluzione hardware.
Programmare efficientemente in parallelo é difficile, e diventa sempre piú difficile ad ogni aumento di unitá parallele.
Quello che non va giú a molti é il fatto che crysis é stato pubblicizzato come il gioco che avrebbe sfruttato al meglio tutto l' hardware disponibile (citando proprio il multi cpu e il multi gpu).
Questa pubblicitá é ingannevole e la gente lo ha capito. Di qui l'astio verso il gioco ;)
Più di 700 watt per giocare al computer...non so...mi impressiona. Spero davvero che ati e nvidia riescano a fare della vera innovazione, lo sli a mio parere non lo é. Peraltro i benchmark evidenziano bene quanto sia inutile una configurazione del genere...
Secondo te fino ad adesso non hanno fatto innovazione?
Secondo te fino ad adesso non hanno fatto innovazione?
Da 1 anno e mezzo a questa parte....no :D
Hanno scalato g80 di fascia, e quindi abbiamo la stessa scheda che prima era il top relegata ai 200 euro (e questo é un bene).
Nella fascia alta invece ci hanno proposto questi obrobri di X2 e GX2...l' innovazione, ahimé, é ben lontana ... :(
Da 1 anno e mezzo a questa parte....no :D
Hanno scalato g80 di fascia, e quindi abbiamo la stessa scheda che prima era il top relegata ai 200 euro (e questo é un bene).
Nella fascia alta invece ci hanno proposto questi obrobri di X2 e GX2...l' innovazione, ahimé, é ben lontana ... :(
E tu credi che l'innovazione si possa fare ogni 3 mesi? I die-shrink fanno parte della tecnica.
Klingon-iTa
10-04-2008, 08:47
facendo il confronto con http://www.hwupgrade.it/articoli/skvideo/1936/nvidia-geforce-9800gtx-potenza-a-basso-consumo_6.html
le 8800gtx(ultra) in SLI sono sempre le migliori.
Ottimo articolo, molto interessante!
Ps. non so se è già stato segnalato, ma darei una ricontrollatina alle percentuali nelle tabelle relative a "PTBoats" e "Crysis", a pag.4.
;)
superbau
10-04-2008, 09:14
quando mi elegeranno emmbro onorario e quindi bollette enel gratuite, pondererò la cosa...
Ah, mi ha fatto propio sorridere l'affermazione: il problema di fondo è l'ecosistema attorno ^_^ ... spero mi crescano anche da me delle piantine nel mio case ^_^.... cmq davvero deludenti sti sli, ed a mio avviso, chi trae maggior beneficio in questo alla fine siamo sempre noi consumatori incalliti, che risparmiamo € su € vistoc he il gioco nn vale la candela.
Assenzio70
10-04-2008, 09:30
Ciao a tutti,
considerando che pes08 è uno dei gioki piu' diffusi si potrebbe pensare di fare dei test anche con il suddetto gioco? io ad esempio dovrei assembare un pc hard game :D però sono indeciso su cosa prendere xkè sarei verso la 9800gx2 ma se poi con la metà dei soldi prendendo una ati quest'ultima è più performante in quel gioco? mi uccido? :D
anke xkè gioco solo a quello!
il crossfireX vedo che fa ancora molto pena, anche il quad sli, ma sempre un pò meglio. cmq mi accontento di 2, xè 4 ciucciano troppo e migliorano di poco
DiablosLoD
10-04-2008, 10:57
Scusate ma questi la corrente la pagano? Forse hanno lo sconto con i bollini della Esso!!! più schede video = maggiore consumo e prestazioni leggermente superiori (se non addirittura inferiori). eh eh eh ... w il progresso !!! Cmq qualcuno mi sa spiegare perchè la 3870 X2 ogni volta che viene presa in considerazione aumenta ogni volta i consumi a parità di configurazione?? Si può sapere quanto consuma preciso stà scheda??? bye bye
Ciao a tutti,
considerando che pes08 è uno dei gioki piu' diffusi si potrebbe pensare di fare dei test anche con il suddetto gioco? io ad esempio dovrei assembare un pc hard game :D però sono indeciso su cosa prendere xkè sarei verso la 9800gx2 ma se poi con la metà dei soldi prendendo una ati quest'ultima è più performante in quel gioco? mi uccido? :D
anke xkè gioco solo a quello!
Non si prende in considerazione pes 08 perchè le richieste hardware sono di molto inferiori rispetto a uno sparatutto di ultima generazione che necessita di prestazioni maggiori, con pes va bene anche una 9600gt e gira che è una meraviglia...
Shotokhan
10-04-2008, 11:44
certo che spingono verso questo tipo di soluzioni.... costano di più e loro guadagnano di più! per quanto mi riguarda sto bene con una scheda normale al di sopra della norma!
ThePunisher
10-04-2008, 11:49
Una configurazione a singola scheda è ancora sicuramente la scelta migliore... il rapporto prestazioni\prezzo di un Quad SLI Crossfire è assurdamente basso (fino a diventare NEGATIVO in alcuni ambiti).
l.fugaro
10-04-2008, 13:24
:D
Scusate ma questi la corrente la pagano? Forse hanno lo sconto con i bollini della Esso!!! più schede video = maggiore consumo e prestazioni leggermente superiori (se non addirittura inferiori). eh eh eh ... w il progresso !!! Cmq qualcuno mi sa spiegare perchè la 3870 X2 ogni volta che viene presa in considerazione aumenta ogni volta i consumi a parità di configurazione?? Si può sapere quanto consuma preciso stà scheda??? bye bye
A dire il vero, confrontando il dato dei consumi riportato nella prova della 9800gtx di qualche settimana fa, il consumo della 3870 X2 riportato in questa prova è parecchio più basso. Idem per la singola 9800gx2. Mi sa che l'Enermax Galaxy che HWU usa di solito per le prove ha un'efficienza molto più bassa del Coolermaster Realpower di questa prova. Sicuramente anche i chipset Intel X48 ed NV790 al posto dell'"usuale" NV780 hanno fatto la loro parte, forse anche la memoria ddr3 al posto della ddr2. Insomma, confrontare i dati di consumo di questa prova con quelli delle prove precedenti ha poco significato (perchè cambia quasi tutto tranne il processore e le schede grafiche stesse) tranne che per il fatto che apparentemente la configurazione di questa prova è (da un punto di vista del risparmio energetico e di tutto quanto ne consegue) molto migliore di quella della prova della 9800gtx del primo aprile :)
E tu credi che l'innovazione si possa fare ogni 3 mesi? I die-shrink fanno parte della tecnica.
Peró quando c'erano le x1800xt e dopo uscirono le x1900xt...un salto, seppur non troppo marcato c'é stato...e anche lí era solo un affinamento della tecnologia disponibile...stesso dicasi per 7800/7900 (anche se qui il divario era minore).
Con questa generazione questo non é accaduto, e abbiamo ancora le stesse prestazioni di 1 anno e mezzo fa (le dual non le considero neanche).
Peró quando c'erano le x1800xt e dopo uscirono le x1900xt...un salto, seppur non troppo marcato c'é stato...e anche lí era solo un affinamento della tecnologia disponibile...stesso dicasi per 7800/7900 (anche se qui il divario era minore).
Con questa generazione questo non é accaduto, e abbiamo ancora le stesse prestazioni di 1 anno e mezzo fa (le dual non le considero neanche).
Non direi. Direi che abbiamo le stesse prestazioni con minor consumi. Evoluzione. Per le rivoluzioni siamo nei tempi giusti, devono ancora uscire i cavalli di battaglia di nVidia.
ThePunisher
10-04-2008, 15:44
:D
Stai macinando post?
Dott.Wisem
10-04-2008, 16:13
Schede video del tutto inutili al momento, se non per lo sborone di turno. I driver fanno pena e non tutti gli engine 3D riescono a beneficiare del multi-GPU. Sembrano più dei tentativi, da parte delle case, di far vedere chi ce l'ha più lungo. Cosa inutile uguale, essendo che nVidia ha ripreso la supremazia nelle GPU già da un bel pezzo.
Ridicolo anche che esistano dei videogiochi che riescono a saltare da 15 a 30fps semplicemente aumentando da 2.4 a 3GHz la velocità di CPU dual-core. Chiaro segno che anche il multi-processore è sfruttato malissimo.
Insomma:
multi-processore: sfruttato male dagli attuali engine...
multi-GPU: pure peggio...
Chi me lo fa fare oggi di spendere 1000euro di scheda video? Vedo solo 3 alternative: o sono pazzo, o sono stupido, o sono ricco e sborone... :D
Chi me lo fa fare oggi di spendere 1000euro di scheda video? Vedo solo 3 alternative: o sono pazzo, o sono stupido, o sono ricco e sborone... :D
Io ne vedo pure una quarta: mi tolgo una soddisfazione personale. :D
alex oceano
10-04-2008, 19:58
nu consumo di corrente molto elevato ma che differenza c'è tra la 8800gt di asus la maggior cifra da sborsare vale veramente la pena??
Evangelion01
10-04-2008, 20:24
Io ne vedo pure una quarta: mi tolgo una soddisfazione personale. :D
la 5° : tanto paga papà
la 6° : ho una scimmia sulla schiena
la 7° : sono benefattore dell' Enel
:sofico:
by_xfile™
10-04-2008, 23:00
Efettivamente avrei pensato a prestazioni nettamente superiori su entrambe le tecnologie, ma giustamente come più di qualcuno a fatto notare tutte queste CPU e GPU faranno impazzire i programmatori, ma io dico di no, come già al DFI (http://www.hwupgrade.it/articoli/portatili/1939/intel-developer-forum-spring-2008-day-2_9.html) si è visto che la strada sarà quella di molte CPU e qui vedendo le GPU sono nelle stesso percorso, i produttori insieme a M$ Linus OS e chi più ne + ne metta dovranno far in modo di realizzare un compilatore che compili in software a multi CPU e multi GPU in modo da risolvere queste lacune. come si fa attualmente per i 32Bit e i 64Bit :read:
altrimenti vedendo la direzzione di tutti i produttori finiremo conto :muro: o ci dovremmo :mc:
che comunque se notiamo in ambito server sfruttano a pieno altro che 8 - 16 0 140 ++ core ;)
la 5° : tanto paga papà
la 6° : ho una scimmia sulla schiena
la 7° : sono benefattore dell' Enel
:sofico:
8° : Devo trovare un modo per ricevere piu' punti fiammella :asd: :rotfl:
Evangelion01
10-04-2008, 23:24
8° : Devo trovare un modo per ricevere piu' punti fiammella :asd: :rotfl:
:asd:
Vabbè dai si scherza, è chiaro che ognuno spende i propri soldi come meglio crede...:O
dimenticavo :
9° : uso il pc solo per benchare e guardare pornazzi.
10° : voglio riempire il case, mi piacciono le vga-suv. :D
:rotfl:
10° : voglio riempire il case, mi piacciono le vga-suv. :D
:rotfl:
Oh mamma :rotfl:
Le VGA-SUV... :rotfl:
Questo governo ci proporrà la tassa sul lusso pure sulle VGA? :asd:
Secondo me se ce le propinano ancora ste "troverie".... è colpa nostra! ... è colpa "nostra". :muro:
AGENTE SMITH: Perché il siero non funziona?
AGENTE BROWN: Perché gli facciamo la domanda sbagliata, probabilmente. :ahahah:
Chiaro no?
Lud von Pipper
11-04-2008, 13:48
Ma noooo!!! Non sconsigliatene l'acquisto!!! Io ci godo a vedere i supernerd che spendono migliaia di euro del papi per comprarsi sta roba per poi vedere che non serve a nulla!!!
:D :rolleyes:
PS: Attendo fiducioso la venuta del mitico NEMESIS ELITE a sollazzarci con le sue uscite... :O
C'è differenza tra "Nerd" e "Bimbominchia"
Un Nerd probabilmente non perderebbe tempo su un gioco inutile come Crysis... :rolleyes:
In fiduciosa attesa di NEMESIS ELITE, prendiamo atto che hai fatto la tua parte. ;)
Il dato fondamentale che si evince da questo test è uno solo: erano anni che in giro non si vedevano giochi mal programmati come Crysis! :rolleyes:
Raga volevo tornare sul discorso delle 9800 gx2 in sli
Se date un'occhiata ai bench su computerbase le conclusioni sono molto contrastanti con quelle di hwupgrade!
Insomma i giochi che non sfruttano il quad sli sono pochi e a vedere dai bench non direi che si sia presentato nessun problema di collo di bottiglia!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_crossfire_x_nvidia_quad-sli/
alex oceano
14-04-2008, 18:32
Secondo me per ora è meglio non acquistare questa tipologia di scheda anche perchè spndere diversi euro e poi non sono sfrttabili a palla è uno spreco!!!
BlueKnight
15-04-2008, 06:21
Scusate un attimo...è da un pò che me lo chiedo...
ma come cavolo fanno le prove del consumo del sistema in redazione?
Purtroppo non ho mai avuto la possibilità di chiedere, ma se guardate per esempio gli ultimi 3 test su schede video:
http://www.hwupgrade.it/articoli/skvideo/1906/nvidia-geforce-9600-gt-torna-la-fascia-media_6.html
http://www.hwupgrade.it/articoli/skvideo/1936/nvidia-geforce-9800gtx-potenza-a-basso-consumo_7.html
http://www.hwupgrade.it/articoli/skvideo/1942/due-geforce-9800gx2-fanno-la-differenza_6.html
Come è possibile che ottengano valori sempre tanto differenti nonostante il sistema di prova sia sempre lo stesso? E i risultati non cambiano poco, ma di molto...vedi la stessa 9800GX2 o anche la 8800GT.
A questo punto o i risultati vengono copiati da qualche parte...o le misurazioni non reggono e vengono fatte proprio a spanne!
SingWolf
19-04-2008, 19:00
Magari quando ci saranno i Catalyst 9.0 forse ci sarà un miglioramento delle prestazioni con quattro gpu...
SingWolf
19-04-2008, 19:08
Guardando bene le prestazioni ho notato una cosa...
Qui Unreal III a 1920 fa 73 fps con una X2 e 108 con CrossfireX (2 X2)
http://www.hwupgrade.it/articoli/skvideo/1910/ati-crossfirex-preview-4-gpu-in-parallelo_3.html
Qui invece ne fa 138 con una, e 141 con due...
http://www.hwupgrade.it/articoli/skvideo/1942/due-geforce-9800gx2-fanno-la-differenza_3.html
A questo punto QUOTO BlueKnight che dice che i risultati sono un pò sballati... oppure vengono copiati...
NickOdemuS
04-06-2008, 21:37
Complimenti ragazzi di HWUPGRADE siete riusciti a fare 2 articoli particamente identici anche come test sul CrossfireX di HD3870x2!! dove in quest'ultimo dite che ora come ora un CrossifreX di HD3870x2 non da benefici, e nel primo invece mostravate che vi erano degli effettivi e rali incrementi di prestazioni tra singola HD3870x2 e 2 di queste in CrossfireX!!.. e il bello che l'articolo in cui dite questo è più vecchio!!.. quindi con driver più immaturi!!.. bhè!.. questa si che si chiama coerenza!.. poi, lasciatevi dire una cosa, io Posseggo un CrossfireX di queste schede, e la differenza c'è!... e anche molta tra 2 e 4 GPU!.. ;)
NickOdemuS
04-06-2008, 21:42
Aggiungo qui di seguito il link all'artico di cui parlavo per correttezza!... http://www.hwupgrade.it/articoli/skvideo/1910/ati-crossfirex-preview-4-gpu-in-parallelo_5.html
Ma scusate gente che ha 2 9800GX2 e 2 3870x2 avranno postato i loro risultati con annesse considerazione no? tenete ocnto della parola degli utenti che penso sia la migliore, io mi ricordo che quando avevano provato le 2 9800GX2 era da pocho uscito il chip 790i ed era molto immaturo, forse ora coi nuovi bios e i nuovi drive Nvidia va molto meglio il quad sli, e' un mio pensiero nulla d+.
Ma scusate gente che ha 2 9800GX2 e 2 3870x2 avranno postato i loro risultati con annesse considerazione no? tenete ocnto della parola degli utenti che penso sia la migliore, io mi ricordo che quando avevano provato le 2 9800GX2 era da pocho uscito il chip 790i ed era molto immaturo, forse ora coi nuovi bios e i nuovi drive Nvidia va molto meglio il quad sli, e' un mio pensiero nulla d+.
Può darsi che vada meglio, in ogni caso per come sono progettati questi sistemi SLI, l'incremento in percentuale rispetto alla potenza delle singole schede è assai risicato. E questo indipendentemente da quanto bene funzionano driver & co.
In definitiva, io i sistemi quad-SLI li ho sempre visti come soldi buttati e considerando l'incremento di performance, continuano a farmi pensare ciò.
Evangelion01
05-06-2008, 11:59
Può darsi che vada meglio, in ogni caso per come sono progettati questi sistemi SLI, l'incremento in percentuale rispetto alla potenza delle singole schede è assai risicato. E questo indipendentemente da quanto bene funzionano driver & co.
In definitiva, io i sistemi quad-SLI li ho sempre visti come soldi buttati e considerando l'incremento di performance, continuano a farmi pensare ciò.
Già l' sli / cf è al limite in quanto a convenienza....
- Ti trovi 2 vga da vendere quando devi cambiare tutto
- Ingombri, consumi, calore e rumore elevati
- Prestazioni altalenanti in base ai driver
- Incremento praticamente MAI del 100% ,quindi rendimento inferiore rispetto la singola vga
- Necessità di mobo e ali adeguati
- Comparto video già v-ram limited in alcune situazioni, visto che dati vengono copiati in parità su ogni vga
Il quad sli poi è l' inutilità fatta configurazione. :asd:
Già l' sli / cf è al limite in quanto a convenienza....
- Ti trovi 2 vga da vendere quando devi cambiare tutto
- Ingombri, consumi, calore e rumore elevati
- Prestazioni altalenanti in base ai driver
- Incremento praticamente MAI del 100% ,quindi rendimento inferiore rispetto la singola vga
- Necessità di mobo e ali adeguati
- Comparto video già v-ram limited in alcune situazioni, visto che dati vengono copiati in parità su ogni vga
Il quad sli poi è l' inutilità fatta configurazione. :asd:
Esatto. Io non sono contro i PC super costosi e potenti, intendiamoci. E solo che a tutto c'è un limite e il quad significa buttare soldi nel cesso. Quei soldi li si spende lo stesso, ma tanto vale cambiare VGA, come hai detto tu, alla successiva generazione. Già si parla che la nuova serie 9 che verrà sarà piu' veloce di queste soluzioni...
se volete vedere il meglio dell'informatica, andate qui
http://www.alienware.com/customize/area-51-alx-desktop.aspx?Syscode=PC-AREA51-ALX-R8&SubCode=SKU-ENT
con poche migliaia di euro vi prendete un computer che fra 2 mesi (in media il tempo che impiegano ad aggiornarsi alla alienware) varrà circa un terzo.
con questa evoluzione, coloro che si accontentano possono vedere i prezzi scendere da un giorno all'altro.
quindi è meglio non commentare troppo i sistemi quad sli o crossfirex... sono quelli che faranno scendere di almeno 300€ i prezzi di tutti gli altri pc
MA PROPRIO TANTO FASTIDIO VI FA FARE I BENCH DI CRYSIS CON DX10?!??!!?!?!
se non ti costa un braccio+ una mano, a me male non fà:stordita:
se volete vedere il meglio dell'informatica, andate qui
http://www.alienware.com/customize/area-51-alx-desktop.aspx?Syscode=PC-AREA51-ALX-R8&SubCode=SKU-ENT
con poche migliaia di euro vi prendete un computer che fra 2 mesi (in media il tempo che impiegano ad aggiornarsi alla alienware) varrà circa un terzo.con questa evoluzione, coloro che si accontentano possono vedere i prezzi scendere da un giorno all'altro.
infatti vanno a ruba:asd:, accettano pagamenti a rate? :sbonk: sto ordinando un pc da 14247$ :asd:
quindi è meglio non commentare troppo i sistemi quad sli o crossfirex... sono quelli che faranno scendere di almeno 300€ i prezzi di tutti gli altri pc
perchè non scendono abbastanza i prezzi?
perchè non scendono abbastanza i prezzi?
caro user111, ti posso assicurare due cose: primo alla alienware accettano pagamenti a rate, secondo un computer portatile su cui avevo posato lo sguardo due mesi fa era venduto a 1200 €, adesso lo vendono a 850€ (senza sconti!). direi che i prezzi scendono piuttosto bene!
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.