PDA

View Full Version : Multi GPU roundup: Crossfire, SLI e Quad SLI


Redazione di Hardware Upg
18-09-2006, 10:33
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1562/index.html

Confronto prestazionale tra le tecnologie multi scheda video di ATI e NVIDIA, destinate ai videogiocatori più esigenti. Filtri spinti al massimo e risoluzioni elevate per sistemi basati sulle soluzioni ATI Radeon X1900 e X1950 Crossfire, NVIDIA GeForce 7900 GTX SLI e 7950 GX2 Quad SLI

Click sul link per visualizzare l'articolo.

omega726
18-09-2006, 10:44
Articolo molto interessante, dato che sto per allestire crossfire...
Se devo muovere una critica (ma piccolina, l'articolo va comunque benone!) sarebbe stato utile e interessante avere anche delle tabelle con i consumi di watt e ampere necessari....
Comunque credo che sulla lunga Crossfire sara tra i due sistemi il più elastico...

Darkangel666
18-09-2006, 10:44
Man mano che si aumenta con le impostazioni dei filtri e la risoluzione, le unità multi GPU nVidia fanno sempre più la differenza, anche nei titoli storicamente a vantaggio di Ati.

icoborg
18-09-2006, 11:00
in effetti la prima cosa che ho pensato assurdo consumero come un carroarmato anche navigando.

dwfgerw
18-09-2006, 11:05
molto interessante, si vede benissimo che in OGL il quad sli funziona molto bene non essendo limitato dalle Dx9. Vedremo come scaleranno con le nuove DX10

ThePunisher
18-09-2006, 11:24
Complimenti ad HWU per questa recensione! Aggiungete i consumi e otterrete l'eccellenza! :D

Gerardo Emanuele Giorgio
18-09-2006, 11:30
ottima prova.
Però secondo me andare oltre lo sli o il crossfire è da matti. Troppi troppi soldi investiti con le DX10 in arrivo. Il quad è una cosa per gli sviluppatori di videogames...

Feanortg
18-09-2006, 11:34
Alle risoluzioni "umane" il quad SLI direi che è praticamente inutile. Anche perchè tra 110 e 120 fps per l'utente non vi è differenza.

Più che altro è triste sapere che qualunque soluzione grafica uno dovesse scegliere oggi... Da gennaio sarebbe "OLD".

Jackal84
18-09-2006, 11:46
Alle risoluzioni "umane" il quad SLI direi che è praticamente inutile. Anche perchè tra 110 e 120 fps per l'utente non vi è differenza.

Più che altro è triste sapere che qualunque soluzione grafica uno dovesse scegliere oggi... Da gennaio sarebbe "OLD".


Quoto appieno.

E come sempre un plauso ad hwupgrade per l'eccellente articolo :) ;)

DakmorNoland
18-09-2006, 11:52
Io vorrei chiedere alla redazione HWU perchè i test in Oblivion vengono fatti nelle aree chiuse, tipo le città e non invece nel mondo dove avrebbe + senso. Visto che le GPU sarebbero maggiormente spremute. E le ATI mostrerebbero tutto il loro potenziale. Questa decisione di benchare in città avvantaggia ingiustamente nvidia. Ovviamente parere personale. Qualcuno mi potrebbe rispondere e spiegare il perchè di questa scelta? Grazie!

Jackal84
18-09-2006, 12:00
Io vorrei chiedere alla redazione HWU perchè i test in Oblivion vengono fatti nelle aree chiuse, tipo le città e non invece nel mondo dove avrebbe + senso. Visto che le GPU sarebbero maggiormente spremute. E le ATI mostrerebbero tutto il loro potenziale. Questa decisione di benchare in città avvantaggia ingiustamente nvidia. Ovviamente parere personale. Qualcuno mi potrebbe rispondere e spiegare il perchè di questa scelta? Grazie!


si effettivamente hai ragione, in città o comunque negli interni la scheda nn soffre... sarebbe da testare in mezzo al bosco... magari tra lejawin e cheydinal... :read:

Catan
18-09-2006, 12:18
bellima rece per cose che pochi si possono permettere.
oggettivamente mi unisco al coro di quelli che richiedevano un test di oblivion nel bosco dovre credo che tutte quelle belle gpu sarebbero morte sia in single che in multi gpu.
evidentemente un test del genere avrebbe fatto si segnare un incremento di prestazione del 100% ma da 10fps si sarebbe passati a 20 rendendo cmq ingiocabile il titolo e mostrado cosi forse l'inutilità di un accoppiamento sli e cf visto che cmq a 1600x1200 le sk top a adesso reggono benissimo senza esser messi in accoppiata

lucasantu
18-09-2006, 12:21
già , possiedo un sli di gtx7800 e sinceramente il guadagno nn vale la candela in termine di soldi .
un quad sli è ancora + sprecato , almeno per ora .
forse in futuro riusciranno a migliorarlo ancora da poterne valutare l'acquisto .

bell'articolo

omega726
18-09-2006, 12:22
@Darkangel666
Si si vede che lo sli spinge leggermente di più di crossfire per non parlare del quad aggiungendo i filtri...
Però continuo a preferire crossfire, perchè cerca di dividere il carico con tutte le applicazioni e anche se a volte il guadagno è irrisorio tra una o due schede perlomeno c'è....
Invece lo sli se non ha il profilo del gioco incluso nei driver di due vga ne lavora sempre e solo una sola....e la cosa mi infastidisce un po...
Poi ovviamente va a gusti però continuo a pensare che in futuro crossfire sarà sempre più flessibile dello sli...

bonzuccio
18-09-2006, 12:25
si effettivamente hai ragione, in città o comunque negli interni la scheda nn soffre... sarebbe da testare in mezzo al bosco... magari tra lejawin e cheydinal... :read:


Già.. e poi i test con hdr + aa sono stati saltati a piè pari.. giustamente mancava la controparte nvidia ma sarebbe stato fico vedere a risoluzioni umane come andava..
complimenti alla redazione che si è sentita di approfondire l'argomento sui top di gamma e ha spiegato le limitazioni nvidia non dovute ai driver ma proprio alle librerie grafiche di winzozz
praticamente 2 gx2 in parallelo hanno potenzialità mostruose sfruttate solo in parte, cosa che ne fa da una parte un' inspiegabile mostrare i muscoli senza avere risultati adeguati dall'altra un investimento utile quasi a nessuno se non per i soli giochi ogl con monitor da 24 pollici in su e risoluzioni "piene" oltre a dover abilitare aa e ai al massimo (anche su directx a dire il vero coi filtri al massimo ma sempre senza hdr)..
come soluzione top invece le 1950 in cf fanno la loro figura anche se anche qui i costi perplimono (sempre meno di 7950 in sli) e mi sarei aspettato di più alle alte risoluzioni
tra 1950 e 7950 sceglierei sempre ati per un discorso di qualità di immagine anche se la nvidia scala da paura.. ma costa pure di +

DakmorNoland
18-09-2006, 12:27
Aspettando una risposta dalla redazione, per chi fosse interessato, lascio questo link http://www.anandtech.com/video/showdoc.aspx?i=2746&p=4 e questo http://www.tomshw.it/graphic.php?guide=20060807&page=quad_sli_geforce_7950_gx2-07 dove ci sono test fatti anche all'esterno, che secondo me sono poi quelli che contano veramente. Peccato solo che in quella di Tom's manchino delle ATI in crossfire come riferimento. Cmq ATI sta nettamente avanti come si vede anche nei test di anandtech dove addirittura due x1800xt 512 stanno davanti a due 7900GTX, difatti anche se a prima vista potrebbe sembrare il contrario vi invito a guardare la linea bianca che indica gli FPS minimi, e mentre due 7900gtx hanno cali mostruosi, due x1800xt al contrario vanno alla grande :)

tizianoattan
18-09-2006, 12:28
si dimostra come la tecnologia hardware sia di gran lunga in avanti rispetto i software odierni. immaginiamo un sistema quad su direct 10 ed ovviamente un gioco programmato su tale sistema......

altra considerazione: se eliminiamo i sistemi sli, crossfire e dual gpu il chip video più performante è quallo dell' ati x1950xtx

nextstyle
18-09-2006, 12:53
che cosa totalmente assurda e inutile lo sli (figurarsi il quad sli)
che senso avrebbe comprare due o 4 vga di fascia alta quando nel giro di 6 mesi saranno già superate da qualcosa di più performante? è uno sbattimento assurdo considerato che devi stare dietro a cpu e mobo, oltre che ram e altre nuove tecnologie ultimamente in continua evoluzione... gli hdd ad esempio
magari assembli un pc che è al top con una configurazione quad sli, poi quando si tratta di aggiornare cosa fai? cambi QUATTRO vga per poi scoprire che sei cpu limited? oppure peggio compri la seconda coppia in seguito e poi scopri, anche in questo caso, di essere cpu limited?
e quanto consumano, poi? io guardo oggi una ti4800 che è più lunga della scheda madre su cui monta e mi dico "pheega!!! che coioni che erano all'epoca!"
quando tra 5 anni vedremo sti sistemi cosa diremo? "pheega!!! che megacoioni che erano all'epoca!" quando invece potrebbero già da tempo puntare ad un processo produttivo più piccolo (parallelo ai processori) per migliorare le prestazioni di una SOLA vga
la verità è che vogliono pompare 'sta possibilità di raddoppiare le prestazioni con il pci express... ma il quad sli è una cagatona colossale onestamente...

WarDuck
18-09-2006, 12:54
Quando ATi tirerà fuori il Quad CrossFire ci sarà da divertirsi :sofico:

Speriamo che risolvono i problemi dei consumi e del calore :stordita:

DakmorNoland
18-09-2006, 12:59
Quando ATi tirerà fuori il Quad CrossFire ci sarà da divertirsi :sofico:

Speriamo che risolvono i problemi dei consumi e del calore :stordita:

Si quando ATI lancierà il quad crossfire è la volta che va in palla l'intero sistema di distribuzione di energia elettrica del mondo! :asd:

Duvis
18-09-2006, 13:12
la cosa che mi stupisce di più è che nessuno si "accorto"
che la ati x1950 tiene testa alla 7950....
1 cpu contro 2

int main ()
18-09-2006, 13:17
questo test è fatto male!!! ma scusa ke motivo c'è di usare ankora quelle ciofeche d fx62 quando c sono processori ke costano di meno e sono molto + potenti?? non è così ke si fà la comparativa!

ally
18-09-2006, 13:31
questo test è fatto male!!! ma scusa ke motivo c'è di usare ankora quelle ciofeche d fx62 quando c sono processori ke costano di meno e sono molto + potenti?? non è così ke si fà la comparativa!


...penso sia dovuto al fatto di mantenre la piattaforma di test piu' simile a quella utilizzata dai precedenti articoli e comparative...

...ciao...

int main ()
18-09-2006, 13:39
si ti posso anke dare ragione ma a stò punto avrebbero dovuto fare per forza n'altra config cn i conroe perkè tutti i gamer entro natale faranno il passaggio... e lo sappiamo benissimo

ally
18-09-2006, 13:44
si ti posso anke dare ragione ma a stò punto avrebbero dovuto fare per forza n'altra config cn i conroe perkè tutti i gamer entro natale faranno il passaggio... e lo sappiamo benissimo


...penso che il cambio della piattaforma di test verso conroe si farà con l'avvento di Vista...anche se potranno emergere problemi a livello hardware e driver...possono sembrare sciocchezze ma la scelta della giusta base di test non è poi cosi banale...

...ciao...

hfish
18-09-2006, 13:57
ma una recebsione quad sli + matrox triple head?? :sperem: :sperem: :sperem:

leoneazzurro
18-09-2006, 14:05
si ti posso anke dare ragione ma a stò punto avrebbero dovuto fare per forza n'altra config cn i conroe perkè tutti i gamer entro natale faranno il passaggio... e lo sappiamo benissimo

Attualmente non ci sono in commercio tante MB con supporto Core 2 E SLI.
Magari semplicemente non si è fatto in tempo a trovarle.
Ad ogni modo, a quelle risoluzioni e con i filtri non si è tanto CPU limited.

velorius
18-09-2006, 14:12
quindi 2 7950 vanno di piu avendo winxp con dx10 e quake4 compilato a dx9?

bonzuccio
18-09-2006, 14:29
quindi 2 7950 vanno di piu avendo winxp con dx10 e quake4 compilato a dx9?


non so se andranno meglio in termini di fps di una fascia medio-alta nativa dx10 :Perfido: :old:

velorius
18-09-2006, 14:31
una SLI dx10 contro quad sli a dx9 vorrei quantomeno una parità dopo sto spesone -.-

bonzuccio
18-09-2006, 14:36
è vero pure che i primi problemi si avranno tra un paio di anni quando si farà massiccio uso di dx10 e sm4.0..
ma effettivamente si tratta di troppi soldi per scommettere su questo e sulle performance dell'emulatore software.. si rischia

GordonFreemanLP
18-09-2006, 15:29
Provando a fare qualche comparativa in quei giochi/bench che girano anke su vista si può notare come già in versione beta le DX10 facciano viaggiare meglio le schede DX9, provato sulla mia 9800.

Win2003 super ottimizzato, driver impostati su performance, qualità texture minima, no AA no AF e clock @ 425/375
AquaMark 3 - 36.416:
http://img404.imageshack.us/img404/9976/acquapt1.th.jpg (http://img404.imageshack.us/my.php?image=acquapt1.jpg)

Vista avviato @ default (con aero, sidebar e gadget attivi), drivers beta @ default (qualità ottima texture, prestazioni bilanciate), no AA, no AF e clock standard @ 378/337
AquaMark 3 - 37.566:
http://img148.imageshack.us/img148/1273/aquady4.th.png (http://img148.imageshack.us/my.php?image=aquady4.png)
http://img148.imageshack.us/img148/1557/dx10zd8.th.png (http://img148.imageshack.us/my.php?image=dx10zd8.png)

nudo_conlemani_inTasca
18-09-2006, 15:33
Ciao,
finalmente posso esprimere il mio dissenso (e disgusto) per queste soluzioni Multi-VGA per 3 ragioni:

[1] Costo improponibile, consumi e componentistica necessaria al funzionamento (veramente introvabile -> vedi alimentatore) e dal grande spreco di denaro.

[2] Architetture ancora "acerbe" mal supportate giusto per spennare i quattro ricconi che col PC si vantano (credo che una XBox 360°) possa fare q.cosa se non del genere, pur inferiore ma con 1 costo di 1/10.. vergogna!

[3] La durabilità e la vita media di queste soluzione è prossima alla vita di una zanzara.. tempo q.che mese (massimo 1/2 anni) che usciranno le soluzioni Multi-GPU.. in grado di fare con + core quello che fanno oggi con + VGA..
però con un sensibile abbattimento di costi, e consumi di potenza elettrica
(senza infognarsi in alimentatori prossimi a quelli dell' ENEL)! :asd:

Mi fa sorridere come ad esempio una soluzione che nel 2004 (quindi solo 2 anni fa) del tipo di nVidia 6800Ultra.. (dal costo prossimo ai 500€) che era appunto in non-plus-utra delle prestazioni Video 3D sia stata stra-soppiantata da una misera
7600GT @ 12pipeline!!! (tra l'altro dal costo di 150€.. attuali)

Quindi le soluzioni da "nababbo" mal sfruttate e mal integrate (già lo stato dei driver parla da sè..) fanno optare per una SOLA scelta:
scartare a priori queste soluzioni. (pur valutando le loro potenzialità)

Ciao & amen. :mc:

coschizza
18-09-2006, 15:36
Provando a fare qualche comparativa in quei giochi/bench che girano anke su vista si può notare come già in versione beta le DX10 facciano viaggiare meglio le schede DX9, provato sulla mia 9800.


il tuo test non è stato directx 9 vs directx 10

vista ha si le directx 10 ma solo per le gpu che lo supportano e la tua (che è anche la mia ;) ) ) non le supporta.

quindi il tuo test è stato directx9 vs directx 9L cioè la versione modificata per funzionare con il nuovo driver e kernel del SO.

le directx 9L a detta della MS dovrebbero cumunque essere superiori alla 9c che abiamo sui pc odierni, questo perche il vantaggio di utilizzare il nuovo driver delle gpu supera da un punto di vista delle prestazioni il calo di performance che è dovuto all'ulteriore strato di software che esiste tra le directx 9L e il driver stesso.

gr@z!
18-09-2006, 15:39
Ciao,
finalmente posso esprimere il mio dissenso (e disgusto) per queste soluzioni Multi-VGA per 3 ragioni:

[1] Costo improponibile, consumi e componentistica necessaria al funzionamento (veramente introvabile -> vedi alimentatore) e dal grande spreco di denaro.

[2] Architetture ancora "acerbe" mal supportate giusto per spennare i quattro ricconi che col PC si vantano (credo che una XBox 360°) possa fare q.cosa se non del genere, pur inferiore ma con 1 costo di 1/10.. vergogna!

[3] La durabilità e la vita media di queste soluzione è prossima alla vita di una zanzara.. tempo q.che mese (massimo 1/2 anni) che usciranno le soluzioni Multi-GPU.. in grado di fare con + core quello che fanno oggi con + VGA..
però con un sensibile abbattimento di costi, e consumi di potenza elettrica
(senza infognarsi in alimentatori prossimi a quelli dell' ENEL)! :asd:

Mi fa sorridere come ad esempio una soluzione che nel 2004 (quindi solo 2 anni fa) del tipo di nVidia 6800Ultra.. (dal costo prossimo ai 500€) che era appunto in non-plus-utra delle prestazioni Video 3D sia stata stra-soppiantata da una misera
7600GT @ 12pipeline!!! (tra l'altro dal costo di 150€.. attuali)

Quindi le soluzioni da "nababbo" mal sfruttate e mal integrate (già lo stato dei driver parla da sè..) fanno optare per una SOLA scelta:
scartare a priori queste soluzioni. (pur valutando le loro potenzialità)

Ciao & amen. :mc:

Pienamente d'accordo..

Byez & Cosìssia. :D

Snickers
18-09-2006, 17:39
MMMh, io non scarterei il Quad-Sli a priori, cioé, diciamolo, è una follia pura e semplice, ma penso che le prestazioni "scadenti" risiedano solo parzialmente nei driver Nforce, quanto piuttosto ad un contesto in cui la CPU è ESTREMAMENTE satura. Io proverei a fare dei test con Quad Sli sempre con gli ultimi Nforce, ma con un Core 2 Duo X6800 overcloccato a circa 3.5-3.6Ghz, appena chiaramente uscirà una scheda con chipset Nforce Sli che supporti decentemente i Core 2 Duo.

stop81
18-09-2006, 17:51
Grazie, era ora di fare un po' di chiarezza su queste soluzioni ottima recensione.

Peccato che il guadagno prestazionale sia solo a risoluzioni stratosferiche con filtri a palla, il mio sogno è sempre stato quello di vedere un Oblivion che tiene 60 fps all'aperto con 2 schede video ma purtroppo non ci siamo, rimandiamo questa tecnologia alle nuove GPU e DX10 e vediamo che succede :sperem:

LightForce
18-09-2006, 22:29
bellissima comparativa ,gran lavoro , complimenti ;)

GordonFreemanLP
18-09-2006, 22:36
il tuo test non è stato directx 9 vs directx 10

vista ha si le directx 10 ma solo per le gpu che lo supportano e la tua (che è anche la mia ;) ) ) non le supporta.

quindi il tuo test è stato directx9 vs directx 9L cioè la versione modificata per funzionare con il nuovo driver e kernel del SO.

le directx 9L a detta della MS dovrebbero cumunque essere superiori alla 9c che abiamo sui pc odierni, questo perche il vantaggio di utilizzare il nuovo driver delle gpu supera da un punto di vista delle prestazioni il calo di performance che è dovuto all'ulteriore strato di software che esiste tra le directx 9L e il driver stesso.

Che siano 9L o 10 sempre solo su vista c'è stato il miglioramento, e alla fine è quello che importa.

kais
18-09-2006, 22:44
sono daccordissimo anche io....questo continua corsa all'up mi pare inutile e senza senso

nudo_conlemani_inTasca
19-09-2006, 00:33
sono daccordissimo anche io....questo continua corsa all'up mi pare inutile e senza senso

Si, è proprio così.
Mentre leggevo (il Monumentale lavoro svolto da Hw Up.it) però pensavo all'assurdità di questa soluzione, credo che una doppia GPU (esattamente come sta accadendo per il mercato µP) possa dare la "birra" a tutte le soluzioni // siano esse nVidia o ATi.. che dir si voglia.

Mi chiedo che senso abbia (oltre al fatto di fare figo) avere 4 schede Video in // nel Case del PC.. ma se solo pensi allo spreco di componentistica, materiale (lungo tutto il loro processo), e poi i consumi ASSURDI di potenza elettrica (assorbimenti).. ah dimenticavo: aumenta NOTEVOLMENTE anche il rischio di rottura, perchè 4 SVGA hanno la possibilità che almeno 1 di essa si guasti 4 volte di più di una singola SVGA.. magari a doppia-GPU! :cool:
(giusto per fare 1 esempio)

Ma è questo che vogliono fare non l'avete ancora capito...? :muro:
Ora vi faranno infognare con 2 o 4 SVGA.. perchè sta merda di F.E.A.R.
va a 3fps/minuto.. e poi quando vi sarete ILLUSI che potrete dominare il Mondo (famo a gara a chi ce l'ha più lungo) usciranno belli belli.. quatti quatti
con 1 SOLA VGA che metterà in fila pure le 4 schede Video in parallelo..
come?

CON LA MULTI-GPU!!!

Sveglia.. è tutta aria fritta..

Sembra proprio una coincidenza:
ora non voglio dire, ma ieri è uscita la notizia sul microprocessore VIA C7-D "carbon free" che non inquina.. che non sporca.. non fa le puzzette
e inoltre con le nuove normative RoHS durante il suo processo di realizzazione
produce poche sostanze tossiche.. Woww.. FIGO!!! :eek:

E allora mi chiedo cosa c@zzo serve costruire 4 SVGA che nel realizzarle, confezionarle, alimentarle e buttarle via (perchè OBSOLETE per prestazioni o perchè surclassate dopo 1 o 2 anni!).

Questo è proprio il massimo della demenza, dello spreco (anche di soldi) e
del favorire l'inquinamento per produzione di materiale elettronico (inutile)!!!
:doh: :doh: :doh:

Complimenti davvero.. :Puke:

Speriamo escano le multi GPU (analogamente al corrispettivo 2al Core)
altrimenti qui per 1 Gioco schifoso oltre a doverti far indebitare economicamente.. nel realizzare il PC ti fanno inquinare 1/2 Mondo!

Ma daiiii.... VERGOGNA! :rolleyes:

Iantikas
19-09-2006, 01:19
Si, è proprio così.
Mentre leggevo (il Monumentale lavoro svolto da Hw Up.it) però pensavo all'assurdità di questa soluzione, credo che una doppia GPU (esattamente come sta accadendo per il mercato µP) possa dare la "birra" a tutte le soluzioni // siano esse nVidia o ATi.. che dir si voglia.

Mi chiedo che senso abbia (oltre al fatto di fare figo) avere 4 schede Video in // nel Case del PC.. ma se solo pensi allo spreco di componentistica, materiale (lungo tutto il loro processo), e poi i consumi ASSURDI di potenza elettrica (assorbimenti).. ah dimenticavo: aumenta NOTEVOLMENTE anche il rischio di rottura, perchè 4 SVGA hanno la possibilità che almeno 1 di essa si guasti 4 volte di più di una singola SVGA.. magari a doppia-GPU! :cool:
(giusto per fare 1 esempio)

Ma è questo che vogliono fare non l'avete ancora capito...? :muro:
Ora vi faranno infognare con 2 o 4 SVGA.. perchè sta merda di F.E.A.R.
va a 3fps/minuto.. e poi quando vi sarete ILLUSI che potrete dominare il Mondo (famo a gara a chi ce l'ha più lungo) usciranno belli belli.. quatti quatti
con 1 SOLA VGA che metterà in fila pure le 4 schede Video in parallelo..
come?

CON LA MULTI-GPU!!!

Sveglia.. è tutta aria fritta..

Sembra proprio una coincidenza:
ora non voglio dire, ma ieri è uscita la notizia sul microprocessore VIA C7-D "carbon free" che non inquina.. che non sporca.. non fa le puzzette
e inoltre con le nuove normative RoHS durante il suo processo di realizzazione
produce poche sostanze tossiche.. Woww.. FIGO!!! :eek:

E allora mi chiedo cosa c@zzo serve costruire 4 SVGA che nel realizzarle, confezionarle, alimentarle e buttarle via (perchè OBSOLETE per prestazioni o perchè surclassate dopo 1 o 2 anni!).

Questo è proprio il massimo della demenza, dello spreco (anche di soldi) e
del favorire l'inquinamento per produzione di materiale elettronico (inutile)!!!
:doh: :doh: :doh:

Complimenti davvero.. :Puke:

Speriamo escano le multi GPU (analogamente al corrispettivo 2al Core)
altrimenti qui per 1 Gioco schifoso oltre a doverti far indebitare economicamente.. nel realizzare il PC ti fanno inquinare 1/2 Mondo!

Ma daiiii.... VERGOGNA! :rolleyes:

ke perle di saggezza :D...mi sapresti anke spiegare xkè milioni di persone giocano dazzardo magari facendo fare la fame alla famiglia o xkè altri milioni di persone spendono cifre astronomike in alcool magari tornando facilmente irrascibbili la sera a casa? oppure xkè altri venderebbero la madre x comprarsi una dose?

...e tu te ne esci ke spendere 600€ (e in questo campo di solito ki lo fa se lo può permettere) è il max della demenza e dello spreco? a questo punto xkè spendere 80000€ in un auto o 3000€ in un impianto stereo o 2000€ di vestiti? oppure xkè spendere 100€ x andare al risotrante quando un bel piatto di pasta poco condita e una fettina in padella con un filo d'olio è + ke sufficente e anke + salutare? (e mai sia abbia beccato anke una delle tue passioni :rolleyes: )...

...bah...

myrdrwin
19-09-2006, 03:22
Si, è proprio così.
Mentre leggevo (il Monumentale lavoro svolto da Hw Up.it) però pensavo all'assurdità di questa soluzione, credo che una doppia GPU (esattamente come sta accadendo per il mercato µP) possa dare la "birra" a tutte le soluzioni // siano esse nVidia o ATi.. che dir si voglia.

Mi chiedo che senso abbia (oltre al fatto di fare figo) avere 4 schede Video in // nel Case del PC.. ma se solo pensi allo spreco di componentistica, materiale (lungo tutto il loro processo), e poi i consumi ASSURDI di potenza elettrica (assorbimenti).. ah dimenticavo: aumenta NOTEVOLMENTE anche il rischio di rottura, perchè 4 SVGA hanno la possibilità che almeno 1 di essa si guasti 4 volte di più di una singola SVGA.. magari a doppia-GPU! :cool:
(giusto per fare 1 esempio)

Ma è questo che vogliono fare non l'avete ancora capito...? :muro:
Ora vi faranno infognare con 2 o 4 SVGA.. perchè sta merda di F.E.A.R.
va a 3fps/minuto.. e poi quando vi sarete ILLUSI che potrete dominare il Mondo (famo a gara a chi ce l'ha più lungo) usciranno belli belli.. quatti quatti
con 1 SOLA VGA che metterà in fila pure le 4 schede Video in parallelo..
come?

CON LA MULTI-GPU!!!

Sveglia.. è tutta aria fritta..

Sembra proprio una coincidenza:
ora non voglio dire, ma ieri è uscita la notizia sul microprocessore VIA C7-D "carbon free" che non inquina.. che non sporca.. non fa le puzzette
e inoltre con le nuove normative RoHS durante il suo processo di realizzazione
produce poche sostanze tossiche.. Woww.. FIGO!!! :eek:

E allora mi chiedo cosa c@zzo serve costruire 4 SVGA che nel realizzarle, confezionarle, alimentarle e buttarle via (perchè OBSOLETE per prestazioni o perchè surclassate dopo 1 o 2 anni!).

Questo è proprio il massimo della demenza, dello spreco (anche di soldi) e
del favorire l'inquinamento per produzione di materiale elettronico (inutile)!!!
:doh: :doh: :doh:

Complimenti davvero.. :Puke:

Speriamo escano le multi GPU (analogamente al corrispettivo 2al Core)
altrimenti qui per 1 Gioco schifoso oltre a doverti far indebitare economicamente.. nel realizzare il PC ti fanno inquinare 1/2 Mondo!

Ma daiiii.... VERGOGNA! :rolleyes:

Le Multi-GPU come dici te sono uscite da un bel pezzo, vedi le vecchie 3dfx. Anche la 7950GX2 è una VGA (occupa uno slot sulla MB) con 2 processori. Se quello a cui ti riferisci è avere processori video multi-core, in un certo senso lo sono già, l'utilità di avere 2 core fisici sulla CPU è la possibilità di eseguire contemporaneamente 2 istruzioni. I processori delle VGA sono costruiti con un apporoccio completamente diverso rispetto alle CPU; all'interno le pipeline di rendering eseguono molti più di 2 processi in parallelo, la 1950 ne ha 48 per i pixel, sono quindi già un bel po avanti.

leoneazzurro
19-09-2006, 09:05
Vediamo di non far partire un flame, mi raccomando

:read:

Nemevalensis
19-09-2006, 10:58
A parte gli scleri, per me questi presentati sono test inutili.
Il Quad-Sli non ha a disposizione ancora giochi o applicazioni che supportano quattro video core, quindi la comparazione è limitante.
I giochi per ora supportano dual gpu non quad gpu e non sono neanche tutti interamente adattati.
Il problema è che il mercato avanza troppo in fretta da 1 anno e mezzo a questa parte ed uno non fa in tempo a comprare il conroe dual core (agosto) che esce in conroe quad core (ottobre). Questo è il vero scandalo. Quanto tempo siete riusciti a tirare avanti con il Barton XP socket A? Io quasi 2 anni, poi sono passato a nForce4 939 ed è iniziato il calvario: ogni mese una mobo nuova, un procio nuovo, una video nuova e ram nuove (le vitesta 566 le ho tenute per 2 anni e mezzo).
Dall'altra parte non condanno assolutamente chi può permettersi e compra 2 7950 GX2 o 2 x1950 XTX perchè ognuno è libero di spendere quanto vuole, ma si tenga ben presente che il mercato avanza se c'è chi compra, ergo la colpa è soltanto la nostra se continuano ad uscire prodotti hardware superflui.
Dico ultima cosa e chiudo OT: prima quanta differenza in money dovevate aggiungere vendendo il vostro usato per comprare hardware nuovo? Io il Barton dopo 2 anni l'ho riveduto alla cifra che l'avevo pagato; ora dopo 1 mese, il vostro usato svaluta come minimo di 100 euro (almeno per quanto riguarda CPU e Sk Video).
Solo colpa nostra!

nudo_conlemani_inTasca
19-09-2006, 11:39
A parte gli scleri, per me questi presentati sono test inutili.
Il Quad-Sli non ha a disposizione ancora giochi o applicazioni che supportano quattro video core, quindi la comparazione è limitante.
I giochi per ora supportano dual gpu non quad gpu e non sono neanche tutti interamente adattati.
Il problema è che il mercato avanza troppo in fretta da 1 anno e mezzo a questa parte ed uno non fa in tempo a comprare il conroe dual core (agosto) che esce in conroe quad core (ottobre). Questo è il vero scandalo. Quanto tempo siete riusciti a tirare avanti con il Barton XP socket A? Io quasi 2 anni, poi sono passato a nForce4 939 ed è iniziato il calvario: ogni mese una mobo nuova, un procio nuovo, una video nuova e ram nuove (le vitesta 566 le ho tenute per 2 anni e mezzo).
Dall'altra parte non condanno assolutamente chi può permettersi e compra 2 7950 GX2 o 2 x1950 XTX perchè ognuno è libero di spendere quanto vuole, ma si tenga ben presente che il mercato avanza se c'è chi compra, ergo la colpa è soltanto la nostra se continuano ad uscire prodotti hardware superflui.
Dico ultima cosa e chiudo OT: prima quanta differenza in money dovevate aggiungere vendendo il vostro usato per comprare hardware nuovo? Io il Barton dopo 2 anni l'ho riveduto alla cifra che l'avevo pagato; ora dopo 1 mese, il vostro usato svaluta come minimo di 100 euro (almeno per quanto riguarda CPU e Sk Video).
Solo colpa nostra!

;)

ste_jon
19-09-2006, 12:01
A parte gli scleri, per me questi presentati sono test inutili.
Il Quad-Sli non ha a disposizione ancora giochi o applicazioni che supportano quattro video core, quindi la comparazione è limitante.
I giochi per ora supportano dual gpu non quad gpu e non sono neanche tutti interamente adattati.
Il problema è che il mercato avanza troppo in fretta da 1 anno e mezzo a questa parte ed uno non fa in tempo a comprare il conroe dual core (agosto) che esce in conroe quad core (ottobre). Questo è il vero scandalo. Quanto tempo siete riusciti a tirare avanti con il Barton XP socket A? Io quasi 2 anni, poi sono passato a nForce4 939 ed è iniziato il calvario: ogni mese una mobo nuova, un procio nuovo, una video nuova e ram nuove (le vitesta 566 le ho tenute per 2 anni e mezzo).
Dall'altra parte non condanno assolutamente chi può permettersi e compra 2 7950 GX2 o 2 x1950 XTX perchè ognuno è libero di spendere quanto vuole, ma si tenga ben presente che il mercato avanza se c'è chi compra, ergo la colpa è soltanto la nostra se continuano ad uscire prodotti hardware superflui.
Dico ultima cosa e chiudo OT: prima quanta differenza in money dovevate aggiungere vendendo il vostro usato per comprare hardware nuovo? Io il Barton dopo 2 anni l'ho riveduto alla cifra che l'avevo pagato; ora dopo 1 mese, il vostro usato svaluta come minimo di 100 euro (almeno per quanto riguarda CPU e Sk Video).
Solo colpa nostra!

esatto solo colpa vostra... personalmente non cambio il pc da più di 4 anni e ancora non ne sento l'esigenza! per i giochi console a vita

Snickers
19-09-2006, 13:45
E' inutile dire Multi GPU = Multi CPU, sono mondi completamente diversi, le pipeline della sk video, sono in un certo senso una soluzione MultiGPU, Xché ognuna può svolgere un compito diverso, quindi evitiamo di dire fandonie, il Multi Gpu è = spiccicato allo Sli/crossfire con come risultato, una scheda video parecchio lunga X risparmiare materiale. la prima Multi GPU fu la Ati Rage Fury Maxx, poi Sapphire ci provo a fare una cosa simile, costruendo una 9800 MAXX, che espose in non mi ricordo più quale fiera, ma X problemi elettrici e di dissipazione di calore non era possibile commercializzarla.

Diablo_lord_of_terror
19-09-2006, 13:51
Piccola analisi prestazionale:
un cross-fire di x1950xtx appena uscito che sbandiera sulla carta molte innovazioni (vedi le ddr molto spinte) si traduce in un guadagno che va da 3 a 10 frame in più rispetto ad un cross-fire di x1900 (che se portato a 650mhz di core annulla il vantaggio delle x1950), ma si attesta in una media di 4-5 frame di più, quindi è una delusione di vga che in un momento di transito come questo poteva almeno avere prestazioni ben superiori (directx9), visto che a conti fatti conviene comprare ora come ora una x1900, che è anche più facile da reperire. Cosa ne pensate?

LZar
19-09-2006, 14:09
Piccola analisi prestazionale:
un cross-fire di x1950xtx appena uscito che sbandiera sulla carta molte innovazioni (vedi le ddr molto spinte) si traduce in un guadagno che va da 3 a 10 frame in più rispetto ad un cross-fire di x1900 (che se portato a 650mhz di core annulla il vantaggio delle x1950), ma si attesta in una media di 4-5 frame di più, quindi è una delusione di vga che in un momento di transito come questo poteva almeno avere prestazioni ben superiori (directx9), visto che a conti fatti conviene comprare ora come ora una x1900, che è anche più facile da reperire. Cosa ne pensate?
Che se ho capito bene i prossimi passi di ATI, la X1900XT/XTX 512MB uscirà di produzione, rimarranno la X1900XT 256MB (che a mio giudizio come rapporto prezzo/prestazioni teme pochi rivali e se dovessi acquistare ora una scheda nuova sarebbe il mio obbiettivo) e la X1950XTX come modello di punta.

Quindi la tua considerazione mi pare perfetta nel breve termine, ma se si punta ad una X1900XTX 512 meglio sbrigarsi (anche X approfittare delle numerose offerte che compaiono in questi giorni), perchè poi non ci sarà più ....

bonzuccio
19-09-2006, 14:33
Che se ho capito bene i prossimi passi di ATI, la X1900XT/XTX 512MB uscirà di produzione, rimarranno la X1900XT 256MB (che a mio giudizio come rapporto prezzo/prestazioni teme pochi rivali e se dovessi acquistare ora una scheda nuova sarebbe il mio obbiettivo) e la X1950XTX come modello di punta.

Quindi la tua considerazione mi pare perfetta nel breve termine, ma se si punta ad una X1900XTX 512 meglio sbrigarsi (anche X approfittare delle numerose offerte che compaiono in questi giorni), perchè poi non ci sarà più ....

E perchè escono di produzione?
256 mega se li fanno pagare bene mi pare
da cosa deduci una uscita di produzione o anche una futura penuria di questo tipo di bene? per imparare io eh :)

LZar
19-09-2006, 14:37
E perchè escono di produzione?
256 mega se li fanno pagare bene mi pare
da cosa deduci una uscita di produzione o anche una futura penuria di questo tipo di bene? per imparare io eh :)
Non la deduco: l'ho letta mentre cercavo informazioni sulla 1900 256 MB. Se ritrovo il link, lo posto (ma il tempo oggi è tiranno, non so se faccio in tempo).

JohnPetrucci
19-09-2006, 16:32
Si quando ATI lancierà il quad crossfire è la volta che va in palla l'intero sistema di distribuzione di energia elettrica del mondo! :asd:
Quoto. :D

Nemevalensis
19-09-2006, 18:19
Ragazzi ma basta co sti bench!

NVIDIA = + SPEED
ATI = + QUALITY

Stop fine discorso :P

Snickers
19-09-2006, 18:28
Ragazzi ma basta co sti bench!

NVIDIA = + SPEED
ATI = + QUALITY

Stop fine discorso :P
se, vabbé, ci mancava pure il niubbo di turno..... :doh:

Nemevalensis
19-09-2006, 19:04
niubbo forse sarai tu!!!
io di schede video ne ho cambiate tante e intendevo dire che, anche se ATI fa meno fps di NVIDIA, la qualità video è indiscussa e superiore.
non capisco come certa gente si permetta di dare giudizi sulle persone.
ma xkè non fai un commento per il thread?

leoneazzurro
19-09-2006, 20:54
Stop the flame. Evitate commenti personali.

richie_kotzen
20-09-2006, 00:07
Ragazzi ma basta co sti bench!

NVIDIA = + SPEED
ATI = + QUALITY

Stop fine discorso :P

Dato che molti utenti di questo forum sono d'accordo su questo punto, ne vorrei approfittare per esternare un mio pensiero.
Perchè solitamente la qualità di immagini con le schede ATI è migliore di quella di NVIDIA e perchè nella fascia altissima allo stesso tempo le soluzioni nVIDIA sono mediamente più veloci di quelle ATI?
Dato che non credo che gli ingegneri di nVIDIA siano degli incompetenti, e che non capisco come possa nVIDIA avere una qualità di immagine mediamente inferiore a quella di ATI non potrebbe essere che la velocità maggiore venga ottenuta volontariamente da nVIDIA a scapito della qualità?
Non è che magari se ATI abbassasse anche lei la qualità video sarebbe più veloce di nVIDIA? O che magari se nVIDIA alzasse la qualità video alla pari delle soluzioni ATI sarebbe più lenta?

Iantikas
20-09-2006, 00:37
Dato che molti utenti di questo forum sono d'accordo su questo punto, ne vorrei approfittare per esternare un mio pensiero.
Perchè solitamente la qualità di immagini con le schede ATI è migliore di quella di NVIDIA e perchè nella fascia altissima allo stesso tempo le soluzioni nVIDIA sono mediamente più veloci di quelle ATI?
Dato che non credo che gli ingegneri di nVIDIA siano degli incompetenti, e che non capisco come possa nVIDIA avere una qualità di immagine mediamente inferiore a quella di ATI non potrebbe essere che la velocità maggiore venga ottenuta volontariamente da nVIDIA a scapito della qualità?
Non è che magari se ATI abbassasse anche lei la qualità video sarebbe più veloce di nVIDIA? O che magari se nVIDIA alzasse la qualità video alla pari delle soluzioni ATI sarebbe più lenta?

guarda ke sul fronte della qualità video la linea ke divide ati da nvidia nn'è netta...ci sarebbe da scrivere un trattato corredato da milioni di screen in merito e sinceramente x farlo leggere a gente ke si rivela peggio dei muri nn ho ne tempo ne la voglia...

...sintetizzando all'eccesso si potrebbe dire...l'AA x le "trasparent texture" in modalità alta qualità di nvidia produce immaggini di migliore qualità di quello ati...nvidia soffre soprattutto con i driver impostati di default di "sfarfallio delle texture", problema ke viene quasi eliminato nella maggior parte dei gioki mettendo i driver in alta qualità ma ke tuttavia rimane evidente in alcuni titoli tipo x es. Battlefield 2 (anke se sempre questo titolo è uno di quelli dove è + evidente la migliore applicazione del trasparent antialiasing da parte di nvidia...inoltre anke ati, anke se in maniera molto sporadica rispetto a nvidia e solitamente con titoli ke nn sono "best seller", soffre di tale problema)...ati applicando l'impostazione alta qualità x quanto riguarda il filtro anisotropico produce immaggini di migliore qualità nella pressokkè totalità dei titoli con un minimo impatto sulle performance...tutto questo sempre tenendo presente ke giocando ad un gioco nella frenesia dell'azione a parità di impostazioni nn si riuscirebbe mai a capire quale skeda video ati o nvidia lo stia facendo girare...x osservare differenze a parità di impostazioni servono screen d scene particolari adatte a cogliere le differenze in ciò ke si vuole analizzare e devono essere ad alta risoluzione ed ingranditi...

...tutto ciò naturalmente IMHO, ciao

johnson
20-09-2006, 10:59
IHMO, ste vga sono ridicole. Con un crossfire di x1900 e uno sli di 7900 non si riescono a fare più di 30 fps (1280x1024) di minimo e 43 di media ad oblivion, gioco uscito ormai da 6 mesi...

Secondo me l'hw è nettamente più indietro del software, 43 fps (30 di minimo) con il non plus ultra della tecnologia è una vergogna.

bonzuccio
20-09-2006, 11:41
Secondo me l'hw è nettamente più indietro del software, 43 fps (30 di minimo) con il non plus ultra della tecnologia è una vergogna.


E' vero anche (e sopratutto) il contrario,
queste schede singolarmente in una console di gioco sarebbero dei veri e propri mostri per giochi fatti ad hoc per una specifica piattaforma hardware,
i tempi di sviluppo ridotti dei giochi impongono alle software house una attività di ottmizzazione che si risolve sempre in risultati solo appena sufficienti

poz72
20-09-2006, 13:19
...ma una soluzione 4sli sembra più un proof of concept che qualcosa di effettivamente utilizzabile per costi consumi e calore.

Io aspetto con impazienza quello che AMD-ATI tirerà fuori dal cilindro: se sono furbi dato che il core business di ATI è costruire GPU e non schede video in fututo ptremmo ritrovarci mobo con un apposito socket dove inserire la GPU (upgradabile) collegata direttamente alla CPU via bus HTT ed apposto slot dove inserire 256-512-1024(?)MB di GDDR4

latenza a livello di console e prezzi più contenuti (non serve cambiare la ram) che permetterebbero un aggiornamento più frequente e quindi maggiori vendite di chip da parte di AMD-ATI

speriamo

Snickers
20-09-2006, 13:20
IHMO, ste vga sono ridicole. Con un crossfire di x1900 e uno sli di 7900 non si riescono a fare più di 30 fps (1280x1024) di minimo e 43 di media ad oblivion, gioco uscito ormai da 6 mesi...

Secondo me l'hw è nettamente più indietro del software, 43 fps (30 di minimo) con il non plus ultra della tecnologia è una vergogna.
IMHO è il contrario, sono quelli che fanno i giochi che se la prendono comoda con le ottimizzazioni.

Snickers
20-09-2006, 13:24
niubbo forse sarai tu!!!
io di schede video ne ho cambiate tante e intendevo dire che, anche se ATI fa meno fps di NVIDIA, la qualità video è indiscussa e superiore.
non capisco come certa gente si permetta di dare giudizi sulle persone.
ma xkè non fai un commento per il thread?
Se leggi i post indietro, ne ho fatti ben due prima della tua poco arguta uscita.
Quella tua considerazione valeva fino alla Radeon 8500 Vs GF3/Gf4 o più avanti quando si andava a confrontare in alcuni campi 9800 Vs 5900. Oramai le prestazioni, così come la qualità si sono "allineate" nel senso che difficilmente si nota un grosso miglioramento di prestazioni o qualità, cambiando sk video rimanendo nel segmento Hi-end, HDR+AA escluso, che cmq alla fine dei conti è troppo pesante X essere gestito a risoluzioni buone nei giochi di ultima generazione.

bonzuccio
20-09-2006, 14:05
L' anti alias ati a è migliore qualitativamente di quello nvidia a più sample che oltretutto risulta + oneroso
e quindi fa perdere in speed nvidia a meno che non usi 4 gpu in parallelo e spendi 1200 euro
in questo senso si ha un miglior compromesso

darkquasar
20-09-2006, 16:05
Se leggi i post indietro, ne ho fatti ben due prima della tua poco arguta uscita.
Quella tua considerazione valeva fino alla Radeon 8500 Vs GF3/Gf4 o più avanti quando si andava a confrontare in alcuni campi 9800 Vs 5900. Oramai le prestazioni, così come la qualità si sono "allineate" nel senso che difficilmente si nota un grosso miglioramento di prestazioni o qualità, cambiando sk video rimanendo nel segmento Hi-end, HDR+AA escluso, che cmq alla fine dei conti è troppo pesante X essere gestito a risoluzioni buone nei giochi di ultima generazione.
già concordo, infatti io per scegliere la marca di scheda video uso 1 altro parametro:
nVidia ---> driver Linux ottimi
ATI ---> driver Linux scarsi

Siccome io uso anche Linux, scelgo nVidia... :D

Snickers
20-09-2006, 16:48
già concordo, infatti io per scegliere la marca di scheda video uso 1 altro parametro:
nVidia ---> driver Linux ottimi
ATI ---> driver Linux scarsi

Siccome io uso anche Linux, scelgo nVidia... :D
Vabbé, è chiaro che io parlavo X win, dato che in Linux i driver Ati sono a dir poco atroci

nextstyle
20-09-2006, 16:52
...ma una soluzione 4sli sembra più un proof of concept che qualcosa di effettivamente utilizzabile per costi consumi e calore.

Io aspetto con impazienza quello che AMD-ATI tirerà fuori dal cilindro: se sono furbi dato che il core business di ATI è costruire GPU e non schede video in fututo ptremmo ritrovarci mobo con un apposito socket dove inserire la GPU (upgradabile) collegata direttamente alla CPU via bus HTT ed apposto slot dove inserire 256-512-1024(?)MB di GDDR4

latenza a livello di console e prezzi più contenuti (non serve cambiare la ram) che permetterebbero un aggiornamento più frequente e quindi maggiori vendite di chip da parte di AMD-ATI

speriamo

sarebbe una pacchiona! :eek:

DjLode
20-09-2006, 17:30
...ma una soluzione 4sli sembra più un proof of concept che qualcosa di effettivamente utilizzabile per costi consumi e calore.

Io aspetto con impazienza quello che AMD-ATI tirerà fuori dal cilindro: se sono furbi dato che il core business di ATI è costruire GPU e non schede video in fututo ptremmo ritrovarci mobo con un apposito socket dove inserire la GPU (upgradabile) collegata direttamente alla CPU via bus HTT ed apposto slot dove inserire 256-512-1024(?)MB di GDDR4

latenza a livello di console e prezzi più contenuti (non serve cambiare la ram) che permetterebbero un aggiornamento più frequente e quindi maggiori vendite di chip da parte di AMD-ATI

speriamo

Dio ti prego...
Sarebbe la morte di Amd. Leghi l'utenza a comprarsi una sola marca di gpu. Anche chi è legato ad Ati lo vedrebbe come un vincolo. Oltretutto nel giro di un anno o due il socket diventerebbe obsoleto (dimmi tu come pensi di attaccare allo stesso socket una, diciamo, 9700 e una X1900...) per consumi e tutto il resto.
Insomma diciamo che il socket è una vaccata :)

Paolo Corsini
20-09-2006, 18:04
Saluti a tutti; riesco solo ora a rispondere ai commenti.

Io vorrei chiedere alla redazione HWU perchè i test in Oblivion vengono fatti nelle aree chiuse, tipo le città e non invece nel mondo dove avrebbe + senso. Visto che le GPU sarebbero maggiormente spremute. E le ATI mostrerebbero tutto il loro potenziale. Questa decisione di benchare in città avvantaggia ingiustamente nvidia. Ovviamente parere personale. Qualcuno mi potrebbe rispondere e spiegare il perchè di questa scelta? Grazie!
Domanda: dove hai letto che i test che abbiamo effettuato vengono fatti nelle aree chiuse?
Risposta: non in questo articolo. Ergo, le tue deduzioni lasciano il tempo che trovano ;)
questo test è fatto male!!! ma scusa ke motivo c'è di usare ankora quelle ciofeche d fx62 quando c sono processori ke costano di meno e sono molto + potenti?? non è così ke si fà la comparativa!
Dubito fortemente che un FX62, confrontato con un Conroe a 2,93 GHz, possa avere una differenza prestazionale di più di qualche punto percentuale ad una risoluzione video di 2048x1560 con aa 4x e anisotropico 16x. Se vuoi un po' di background sulla scalabilità delle configurazioni Crossfire con diversi processori, guarda qui:
http://www.hwupgrade.it/articoli/skvideo/1539/intel-core-2-duo-incontra-ati-crossfire_index.html
quindi 2 7950 vanno di piu avendo winxp con dx10 e quake4 compilato a dx9?
Quake 4 è Open GL; con le DirectX 9 o con quelle 10, in termini di rendering video, ha ben poco a che spartire.
A parte gli scleri, per me questi presentati sono test inutili.
Il Quad-Sli non ha a disposizione ancora giochi o applicazioni che supportano quattro video core, quindi la comparazione è limitante.
Non è una questione del gioco che deve supportare un'architettura video precisa, ma il contrario. Si consiglia bella rilettura della parte introduttiva.
la cosa che mi stupisce di più è che nessuno si "accorto"
che la ati x1950 tiene testa alla 7950....
1 cpu contro 2
Dipende dalla tua definizione di "tenere testa"; la 7950 GX2 è mediamente sempre più veloce, come puoi del resto anche vedere qui:

http://www.hwupgrade.it/articoli/skvideo/1548/ati-radeon-x1950-xtx-memorie-gddr4-al-via_index.html

Detto questo, la X1950 XTX è una soluzione che va molto bene e viene proposta ad un prezzo medio inferiore a quello della 7950 GX2; quest'ultima è mediamente la scheda video a singolo Slot di connessione più veloce tra quelle disponibili in commercio.
...ma una soluzione 4sli sembra più un proof of concept che qualcosa di effettivamente utilizzabile per costi consumi e calore.

Io aspetto con impazienza quello che AMD-ATI tirerà fuori dal cilindro: se sono furbi dato che il core business di ATI è costruire GPU e non schede video in fututo ptremmo ritrovarci mobo con un apposito socket dove inserire la GPU (upgradabile) collegata direttamente alla CPU via bus HTT ed apposto slot dove inserire 256-512-1024(?)MB di GDDR4

latenza a livello di console e prezzi più contenuti (non serve cambiare la ram) che permetterebbero un aggiornamento più frequente e quindi maggiori vendite di chip da parte di AMD-ATI
E' questo uno scenario futuro sicuramente molto interessante, e a mio avviso non così teorico come si potrebbe pensare.

kelendil
20-09-2006, 18:07
Mah... non capisco perchè ogni volta venga fatto un test su un prodotto di fascia alta ci siano almeno 20 commenti che dicono quanto sia un'inutile spreco di denaro. Molti non potranno permetterselo (tra cui vige anche il sottoscritto, povero studente universitario :D ), ma dire che un sistema crossfire o sli è inutile, è fondalmentalmente sbagliato (IMHO), anche perchè è l'unica maniera per giocare a risoluzioni alte a giochi come Oblivion in modo fluido. Inoltre, il mondo non è fatto solo di videogichi... E qui sollevo una piccolissima critica verso la redazione... Ma solo benchmark di videogiochi si fanno? Se ad un professionista interessa un Quad Sli per rendering, animazione o altre cose pesantissime sulla GPU non può utilizzare questa rece... (se ho scritto qualcosa di non corretto, vi prego di dirmelo).

ps: per un grafico 3D un sistema SLI non è troppo costoso... e nemmeno per un programmatore di giochini... almeno penso...

Ciao

DjLode
20-09-2006, 18:19
Non è una questione del gioco che deve supportare un'architettura video precisa, ma il contrario. Si consiglia bella rilettura della parte introduttiva.


C'è scritto però tra le conclusioni (se non ricordo male). Anche a me ha stupito come affermazione però mi son dimenticato di segnalarlo :stordita:


E' questo uno scenario futuro sicuramente molto interessante, e a mio avviso non così teorico come si potrebbe pensare.

Non trovi, come ho detto prima, che sia invece una chiusura di una piattaforma (AMD lato cpu) verso una gpu (AMD lato gpu o Ati che dir si voglia)? Perchè io, attratto dalla piattaforma AMD mi devo legare per forza ad una marca di gpu? O parli invece di sistemi integrati non per sistemi top di gamma (dove effettivamente le specifiche delle gpu in termini di consumi/banda/ram non cambiano così spesso come nell'alto di gamma)?

Paolo Corsini
20-09-2006, 19:15
C'è scritto però tra le conclusioni (se non ricordo male). Anche a me ha stupito come affermazione però mi son dimenticato di segnalarlo :stordita: )?
Nelle conclusioni ho scritto:

http://www.hwupgrade.it/articoli/skvideo/1562/multi-gpu-roundup-crossfire-sli-e-quad-sli_19.html

"Quad SLI, al momento attuale, sembra soffrire di tutte quelle limitazioni che hanno contraddistinto al debutto le prime soluzioni SLI di NVIDIA: la dipendenza dallo sviluppo driver è così elevata da rendere un sistema Quad spesso più lento di altre configurazioni SLI o Crossfire, in quanto i titoli non sono ottimizzati per l'utilizzo con 4 GPU. Quando il supporto è presente, i risultati sono di tutto rispetto come testimoniato ad esempio dai valori ottenuti con Prey; d'altro canto vi sono scenari nei quali una configurazione Quad SLI sfigura nei confronti di un sistema SLI dal costo ben inferiore."

Non sono i giochi che non sfruttano le 4 GPU, ma i driver con alcuni titoli e la differenza è sostanziale. Aggiungiamo a questo il problema delle DirectX 9 con AFR e 4 GPU e il quadro si completa.

Non trovi, come ho detto prima, che sia invece una chiusura di una piattaforma (AMD lato cpu) verso una gpu (AMD lato gpu o Ati che dir si voglia)? Perchè io, attratto dalla piattaforma AMD mi devo legare per forza ad una marca di gpu? O parli invece di sistemi integrati non per sistemi top di gamma (dove effettivamente le specifiche delle gpu in termini di consumi/banda/ram non cambiano così spesso come nell'alto di gamma)?
Chiusura di una piattaforma? Assolutamente si, se verrà implementata in questo modo. E' un bene o un male? Ti rispondo con il nome di una piattaforma chiusa, "Intel Centrino Duo": si può fare di meglio in tutto, ma non mi pare si possa parlare di progetto fallimentare.
Però quando scrivi
"Sarebbe la morte di Amd"
o possiedi la macchina del futuro, o fai un'affermazione quantomeno azzardata.

DjLode
20-09-2006, 19:28
Nelle conclusioni ho scritto:

http://www.hwupgrade.it/articoli/skvideo/1562/multi-gpu-roundup-crossfire-sli-e-quad-sli_19.html

"Quad SLI, al momento attuale, sembra soffrire di tutte quelle limitazioni che hanno contraddistinto al debutto le prime soluzioni SLI di NVIDIA: la dipendenza dallo sviluppo driver è così elevata da rendere un sistema Quad spesso più lento di altre configurazioni SLI o Crossfire, in quanto i titoli non sono ottimizzati per l'utilizzo con 4 GPU. Quando il supporto è presente, i risultati sono di tutto rispetto come testimoniato ad esempio dai valori ottenuti con Prey; d'altro canto vi sono scenari nei quali una configurazione Quad SLI sfigura nei confronti di un sistema SLI dal costo ben inferiore."

Non sono i giochi che non sfruttano le 4 GPU, ma i driver con alcuni titoli e la differenza è sostanziale. Aggiungiamo a questo il problema delle DirectX 9 con AFR e 4 GPU e il quadro si completa.


C'è scritto però "in quanto i titoli non sono ottimizzati per l'utilizzo con 4 Gpu". A me il dubbio è sorto, perchè c'è scritto altrove (non ricordo di preciso) che il sistema è troppo legato all'ottimizzazione dei driver.
Insomma secondo me la frase è quanto meno poco chiara.



Chiusura di una piattaforma? Assolutamente si, se verrà implementata in questo modo. E' un bene o un male? Ti rispondo con il nome di una piattaforma chiusa, "Intel Centrino Duo": si può fare di meglio in tutto, ma non mi pare si possa parlare di progetto fallimentare.


Anzi, il Centrino è un'ottima piattaforma. Ma è comunque una piattaforma per portatili. Quindi effettivamente vedi la chiusura una cosa positiva ma in certi campi. Io ad esempio nel mercato desktop non la vedo una scelta vincente.
Su portatili o sistemi "chiusi" non può che giovare (vedi Centrino).


Però quando scrivi
"Sarebbe la morte di Amd"
o possiedi la macchina del futuro, o fai un'affermazione quantomeno azzardata.

Vedi sopra la differenza che faccio. Diciamo che legare l'utente a comprare una piattaforma (in questo caso processore e chipset amd) e poi anche una scheda video (in questo caso sempre Amd/Ati), per chi cambia spesso o per chi ha intenzione di cambiare, è una cosa che non credo sarà vista di buon occhio. Ovvio che non ho la macchina del futuro (magari :)) semplicemente per come concepisco io i personal computer (che sono macchine "aperte", uno ci monta quello che ci pare), una "chiusura" di questo tipo è quanto meno rischiosa. Non so se mi sono spiegato chiaramente :)

Paolo Corsini
20-09-2006, 19:34
C'è scritto però "in quanto i titoli non sono ottimizzati per l'utilizzo con 4 Gpu". A me il dubbio è sorto, perchè c'è scritto altrove (non ricordo di preciso) che il sistema è troppo legato all'ottimizzazione dei driver.
Insomma secondo me la frase è quanto meno poco chiara.In effetti lo è; ho sistemato in questo momento e penso che ora riesca a chiarire meglio il concetto:

"Quad SLI, al momento attuale, sembra soffrire di tutte quelle limitazioni che hanno contraddistinto al debutto le prime soluzioni SLI di NVIDIA: la dipendenza dallo sviluppo driver è così elevata da rendere un sistema Quad spesso più lento di altre configurazioni SLI o Crossfire, in quanto in quegli specifici titoli viene a mancare quell'ottimizzazione da lato driver tale da permettere di sfruttare al meglio la presenza di 4 GPU. Quando il supporto è presente, i risultati sono di tutto rispetto come testimoniato ad esempio dai valori ottenuti con Prey; d'altro canto vi sono scenari nei quali una configurazione Quad SLI sfigura nei confronti di un sistema SLI dal costo ben inferiore."

DjLode
20-09-2006, 22:20
In effetti lo è; ho sistemato in questo momento e penso che ora riesca a chiarire meglio il concetto:

"Quad SLI, al momento attuale, sembra soffrire di tutte quelle limitazioni che hanno contraddistinto al debutto le prime soluzioni SLI di NVIDIA: la dipendenza dallo sviluppo driver è così elevata da rendere un sistema Quad spesso più lento di altre configurazioni SLI o Crossfire, in quanto in quegli specifici titoli viene a mancare quell'ottimizzazione da lato driver tale da permettere di sfruttare al meglio la presenza di 4 GPU. Quando il supporto è presente, i risultati sono di tutto rispetto come testimoniato ad esempio dai valori ottenuti con Prey; d'altro canto vi sono scenari nei quali una configurazione Quad SLI sfigura nei confronti di un sistema SLI dal costo ben inferiore."

Certo, ora è chiaro :)

DakmorNoland
21-09-2006, 10:32
Domanda: dove hai letto che i test che abbiamo effettuato vengono fatti nelle aree chiuse?
Risposta: non in questo articolo. Ergo, le tue deduzioni lasciano il tempo che trovano ;)


Vedendo gli FPS registrati nei test, che sono relativamente elevati, si capisce che i test sono stati svolti in città.
Facendo anche il confronto con i test ad esempio di Tom's hardware o di anandtech è piuttosto evidente.
Magari le schede video andassero così bene anche girando per il mondo! :D

johnson
21-09-2006, 10:58
IMHO è il contrario, sono quelli che fanno i giochi che se la prendono comoda con le ottimizzazioni.

Certo che si può ottimizzare, ma fino ad un certo punto.

Un gioco come Oblivion, che ha nel gameplay stesso la ragione del numero cosi basso di fps, come potrebbe essere ottimizzato? Riducendo il mondo esterno in una serie infinita di corridoi alla doom3?
E' evidente che il progetto oblivion è troppo ambizioso per quest ultima generazione di vga, con la prossima sarà meglio spero.

DjLode
21-09-2006, 11:02
Considera anche che un gioco come Oblivion pur ottimizzato deve essere fatto per girare sia su una 9600 che su una X1900... Insomma puoi pur ottimizzare ma devi farlo anche per schede video umane che sono poi il grosso del mercato.

poz72
21-09-2006, 11:13
Dio ti prego...
Sarebbe la morte di Amd. Leghi l'utenza a comprarsi una sola marca di gpu. Anche chi è legato ad Ati lo vedrebbe come un vincolo. Oltretutto nel giro di un anno o due il socket diventerebbe obsoleto (dimmi tu come pensi di attaccare allo stesso socket una, diciamo, 9700 e una X1900...) per consumi e tutto il resto.
Insomma diciamo che il socket è una vaccata :)


1o - ma tu vai avanti con una modo più di 2 anni ?
2o - se il bus verso la ram rimane uguale il socket perchè dovrebbe cambiare ?

ad ogni modo questa da me illustrata è solo un implementazione estrema di torrenza, se non erro AMD ha previsto anche l'utilizzo di schede da inserire in apposito slot ma di nuovo mi chiedo perchè devo ri-pagare mezzo giga di GDDR3/4 per cambiare solo la GPU ?

DjLode
21-09-2006, 11:19
1o - ma tu vai avanti con una modo più di 2 anni ?


Sì, perchè? Lo trovi strano?


2o - se il bus verso la ram rimane uguale il socket perchè dovrebbe cambiare ?


Quindi tu mi stai dicendo che una 9700 e una X1900 pur rimanendo con il bus a 256bit possono essere pin to pin compatibili?
Dai, consumi, calore, richiesta di alimentazione... Non credo che sia io a doverti dire cosa cambia.


ad ogni modo questa da me illustrata è solo un implementazione estrema di torrenza, se non erro AMD ha previsto anche l'utilizzo di schede da inserire in apposito slot ma di nuovo mi chiedo perchè devo ri-pagare mezzo giga di GDDR3/4 per cambiare solo la GPU ?

A dire il vero Torrenza integrava cpu e gpu nello stesso core... Non su slot.

DakmorNoland
21-09-2006, 11:21
Cmq riguardo ad oblivion c'è da dire che se si lasciano le impostazioni di default del gioco già con la mia x1800gto2 @default, in pratica una x1800xl con 512mb, va tutto alla grande! Anche mettendo tutte le barre al max va bene. Secondo me il problema è quando si va a smanettare troppo nell'ini per migliorare la qualità, soprattutto ugridload, è vero che le cose non spuntano all'ultimo, ma come è ovvio è micidiale! Cmq meglio degli sparatutto che sono divise ad aree! propio non li sopporto!

poz72
21-09-2006, 11:27
Perchè io, attratto dalla piattaforma AMD mi devo legare per forza ad una marca di gpu?

e xchè per avere lo SLi devi avere anche il chipset nVidia ?

ognuno tira acqua al suo mulino.... e comuque:

una simile implementazione può benissimo avere anche uno uno slot PCIe x16 per schede video "tradizionali"

AMD-ATi può comunque produrre chipset tradizinali per gli affezionati nVidia

esistono sempre i chipset nVidia

DjLode
21-09-2006, 11:32
e xchè per avere lo SLi devi avere anche il chipset nVidia ?

ognuno tira acqua al suo mulino.... e comuque:


Ti sfugge però che sul pc una scheda video la devi avere per forza. Lo Sli è praticamente inutile :)


una simile implementazione può benissimo avre anche uno uno slot PCIe x16 per schede video "tradizionali"


Quindi io devo pagare per forza un qualcosa che poi non uso? Ma è ancora peggio...


AMD-ATi può comunque produrre chipset tradizinali per gli affezionati nVidia


Quindi dei "doppioni", quindi fornire la gpu come opzione, quindi stai dando ragione a me :)


esistono sempre i chipset nVidia

Quindi mi stai di nuovo dando ragione, molti si rivolgeranno alla concorrenza...
Come vedi sei partito da una teoria e poi hai sposato perfettamente la mia :)

poz72
21-09-2006, 11:59
Quindi mi stai di nuovo dando ragione, molti si rivolgeranno alla concorrenza...
Come vedi sei partito da una teoria e poi hai sposato perfettamente la mia :)

ascolta: se vogliamo fare polemica tanto per fare polemica chiudiamola quì, non mi interessa....



Quindi io devo pagare per forza un qualcosa che poi non uso? Ma è ancora peggio...


esistono i chipset invida per lo SLI e quelli senza, perchè AMD non può fare uno con torrenza ed uno senza ?

RIASSUMENDO:

una soluzione come quella da me illustrata avrebbe indubbi vantaggi prestazionali (latenza sopratutto)

nel caso fosse data la possibilità di cambiare solo la GPU avremmo sicuramente dei vantaggi economici (vi immaginate se vendessero le mobo solo con cpu e ram SALDATE ?)

8310
21-09-2006, 13:50
Articolo scritto benissimo ma (IMHO) il quadsli è una *FOLLIA* allo stato puro :muro:

DjLode
21-09-2006, 15:14
ascolta: se vogliamo fare polemica tanto per fare polemica chiudiamola quì, non mi interessa....


Dove avrei cercato di fare polemica? Sto semplicemente dicendo che mi stai dando ragione...


esistono i chipset invida per lo SLI e quelli senza, perchè AMD non può fare uno con torrenza ed uno senza ?


Quindi esattamente come ora. Dove sta la rivoluzione? Crei un qualcosa di nicchia. Mi stai dando di nuovo ragione :)


RIASSUMENDO:

una soluzione come quella da me illustrata avrebbe indubbi vantaggi prestazionali (latenza sopratutto)


Hai qualche link? ;) Sai com'è di indubbio oggi come oggi non c'è niente...


nel caso fosse data la possibilità di cambiare solo la GPU avremmo sicuramente dei vantaggi economici (vi immaginate se vendessero le mobo solo con cpu e ram SALDATE ?)

Ne vedo tutti i giorni di mobo "componibili" e, fidati, non sono niente di comodo. Sopratutto quando ci devi far girare qualcosa ;)
Su, stai fantasticando perdendo di vista quello che realmente serve, si va verso l'integrazione di tutto e tu ti vuoi spingere verso l'esatto contrario. Una mobo che oltre a dover funzionare con mille mila periferiche deve anche andare con mille mila componenti da saldara/inserire in uno slot. Ti ci vedo poi, tu, tecnico di computer ad aprire la finestra e fare il grande salto...

bonzuccio
21-09-2006, 16:13
Poz diceva che la fusione amd e ati porterà a soluzioni integrate tipo gli accelleratori intel integrati dei pc di fascia bassa o gli htpc.. e c'è una certa differenza
per il socket mi pare che è un ideona a cui staranno già pensando,
se il problema è che uno standard va a farsi friggere (pci-ex) si farà lo standard per il socket e si da melgio l'idea di piattaforma aperta nel senso che l'aria passa meglio :asd:

aaasssdddfffggg
23-09-2006, 11:18
l futuro chip grafico di NVIDIA compatibile con le DirectX 10, il G80, dovrebbe avere le seguenti caratteristiche (informazioni non ufficiali):

• architettura unificata
• 700 milioni di transistor (278 milioni per il G71 del GeForce 7900 GTX)
• frequenza massima di funzionamento a 1500 MHz
• 48 pipelines
• 96 Vertex Shaders
• • supportto della memoria GDDR4
• 768 MB di memoria (512 MB + 256 MB)
• interfaccia di memoria a 384 bit (256 bit + 128 bit)
• supporto FP16 HDR + MSAA
• nuova modalità di AA, il VCAA
• 8 TCP e 128 co-processori
Il nome commerciale dovrebbe essere GeForce 8800 e due sarebbero le versioni proposte:

• GeForce 8800 GTX con 7 chip TCP, interfaccia di memoria a 384 bit, sistema di raffreddamento ibrido aria/liquido, prezzo circa 650 euro;
• GeForce 8800 GT con 6 chip TCP, interfaccia di memoria a 320 bit (256 + 64), sistema di raffreddamento ad aria, prezzo 500 euro.

Le specifiche, se dovessero rivelarsi esatte, sarebbero da brivido: mai vista tanta potenza in una scheda grafica. La nuova GPU di NVIDIA non dovrebbe consumare più di 180 Watt.

ALTRO CHE R600 DI ATI!!.qUESTA VOLTA Nvidia LA SOTTERRA ATI!!!

int main ()
23-09-2006, 11:52
l futuro chip grafico di NVIDIA compatibile con le DirectX 10, il G80, dovrebbe avere le seguenti caratteristiche (informazioni non ufficiali):

• architettura unificata
• 700 milioni di transistor (278 milioni per il G71 del GeForce 7900 GTX)
• frequenza massima di funzionamento a 1500 MHz
• 48 pipelines
• 96 Vertex Shaders
• • supportto della memoria GDDR4
• 768 MB di memoria (512 MB + 256 MB)
• interfaccia di memoria a 384 bit (256 bit + 128 bit)
• supporto FP16 HDR + MSAA
• nuova modalità di AA, il VCAA
• 8 TCP e 128 co-processori
Il nome commerciale dovrebbe essere GeForce 8800 e due sarebbero le versioni proposte:

• GeForce 8800 GTX con 7 chip TCP, interfaccia di memoria a 384 bit, sistema di raffreddamento ibrido aria/liquido, prezzo circa 650 euro;
• GeForce 8800 GT con 6 chip TCP, interfaccia di memoria a 320 bit (256 + 64), sistema di raffreddamento ad aria, prezzo 500 euro.

Le specifiche, se dovessero rivelarsi esatte, sarebbero da brivido: mai vista tanta potenza in una scheda grafica. La nuova GPU di NVIDIA non dovrebbe consumare più di 180 Watt.

ALTRO CHE R600 DI ATI!!.qUESTA VOLTA Nvidia LA SOTTERRA ATI!!!
ma dove hai preso queste informazioni?? ame sembrano a dir poco incredibili... possibile ke sia davvero così?? la premoto da ora!!!

aaasssdddfffggg
23-09-2006, 12:12
www.geforceitalia.it
www.wintricks.it

vatti a fare un giro ed informati

aaasssdddfffggg
23-09-2006, 12:13
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=724


uscito 3 giorni fa

aaasssdddfffggg
23-09-2006, 12:15
http://www.pctuner.net/php/Descrizione/Descrizione.php?id=newsweb&n=3897

eccone un altro

aaasssdddfffggg
23-09-2006, 12:17
ALTRO CHE 32 PIPELINE E 16 SHER UNIT COME GIRAVA LA NOTIZA FINO A QUALCHE GIORNO FA.NVIDIA SI STA TENENDO NASCOSTO UN PROGETTO A DRIPOCO INCREDIBILE.GIA' DA OTTOBRE POTREBBERO DIVENTARE UFFICIALI QUESTE NOTIZIE.MA LA VERA G80 SEMBRA ESSERE PROPRIO QUESTA!!!!L'R600 SAREBBE RIDICOLIZZATO!!!!

jp77
23-09-2006, 13:04
ALTRO CHE 32 PIPELINE E 16 SHER UNIT COME GIRAVA LA NOTIZA FINO A QUALCHE GIORNO FA.NVIDIA SI STA TENENDO NASCOSTO UN PROGETTO A DRIPOCO INCREDIBILE.GIA' DA OTTOBRE POTREBBERO DIVENTARE UFFICIALI QUESTE NOTIZIE.MA LA VERA G80 SEMBRA ESSERE PROPRIO QUESTA!!!!L'R600 SAREBBE RIDICOLIZZATO!!!!


c'è gia il thread aspettando G80...cmq io non credo a queste indiscrezioni

- 700 milioni di transistor :confused: impossibile potrebbe essere credibile solo se si tratta di una dual gpu
- frequenza della gpu 1500mhz :confused: fantascienza...sempre che come sopra non si tratti di una dual gpu 750+750

int main ()
23-09-2006, 13:09
c'è gia il thread aspettando G80...cmq io non credo a queste indiscrezioni

- 700 milioni di transistor :confused: impossibile potrebbe essere credibile solo se si tratta di una dual gpu
- frequenza della gpu 1500mhz :confused: fantascienza...sempre che come sopra non si tratti di una dual gpu 750+750
anke a me sembra assurdo ma metti caso ke si ci siano impegnati da anni per arrivare di nascosto a questa frequenza? sarebbe fico e poi cn tutta quella ram e quei bit reali i gioki di ora andrebbero come furie scatenate!!!!

bonzuccio
23-09-2006, 13:41
ALTRO CHE 32 PIPELINE E 16 SHER UNIT COME GIRAVA LA NOTIZA FINO A QUALCHE GIORNO FA.NVIDIA SI STA TENENDO NASCOSTO UN PROGETTO A DRIPOCO INCREDIBILE.GIA' DA OTTOBRE POTREBBERO DIVENTARE UFFICIALI QUESTE NOTIZIE.MA LA VERA G80 SEMBRA ESSERE PROPRIO QUESTA!!!!L'R600 SAREBBE RIDICOLIZZATO!!!!

Ma che sono gli urlatori che vendono i giornali dell'800?

DakmorNoland
23-09-2006, 13:47
Si ma io vorrei vedere i consumi di questo G80 :( se le indescrizione sono vere, anche se mi sembrano un tantino esagerate, siamo fritti! Per fare andare uno di sti mostri cosa mi devo comprare il galaxy da 1000W? :eek:

aaasssdddfffggg
23-09-2006, 13:47
R600 la gpu più attesa dell'anno?......Adoro le sorprese!

aaasssdddfffggg
23-09-2006, 13:52
io il galaxy 1000 l'ho già montato.Quindi adesso aspetto 2 di questi mostri ovviamente da mettere in SLI

aaasssdddfffggg
23-09-2006, 14:00
http://uk.theinquirer.net/?article=34495


Eccone un'altra di notizia sul G80.Sembra esserci qualcosa di più che dire "non è vero è solo fantascienza"
Mi sa tanto che stavolta sono nVIDIA vuole affondare ATI annientando il suo milgior gioiello alias R600.
Comunqe se queste notizie ormai apparse da qualche giorno risulteranno vere non ci saraà storia con la rivale ATI.Qui siamo veramente su un altro pianeta con quelle caratteristiche tecniche.

jp77
23-09-2006, 14:03
Si ma io vorrei vedere i consumi di questo G80 :( se le indescrizione sono vere, anche se mi sembrano un tantino esagerate, siamo fritti! Per fare andare uno di sti mostri cosa mi devo comprare il galaxy da 1000W? :eek:


si parla (sempre indiscrezioni) di 180w...che non sono tantissimi...mentre per ATi R600 250W :eek: cmq con un buon ali da 500w fai girare un pc normale anche con sli o xfire...le potenze degli ali sanno molto di marketing

bonzuccio
23-09-2006, 14:06
Bumping: termine usato nei forum. Azione che consiste nel postare intenzionalmente(aldilà di contenuti rilevanti) in un thread al fine di riportarlo in cima alla lista per porlo all’attenzione del pubblico.

DjLode
23-09-2006, 14:14
ALTRO CHE R600 DI ATI!!.qUESTA VOLTA Nvidia LA SOTTERRA ATI!!!

Seeeeee dai che stavolta quei Canadesi li facciamo fuori. Sempre sia lodata Nvidia. Vado ad accendere un cero sotto il mio tempietto e stasera champagne. Sono troppo contento.

aaasssdddfffggg
23-09-2006, 14:20
Sono sempre stato convinto e continuop ad esserloal contrario di quasi tutti gli altri che dopo il predominio dell 7950x2 (scheda pèiù veloce del pianeta attualmente senza discussione) nVIDIA continuerà a stare davanti anche con ilò G80.Vediamo se il tempo mi darà ragione ma se le caratteristiche sono quelle che circolano adesso allora resterà davanti ATI senza problemi e con anni luce di vantaggio rispetto all'R600.

DakmorNoland
23-09-2006, 14:26
Ma ste info da che fonte provengono. Poi chi dice che siano veritiere? Io dico che è meglio aspettare il lancio. Non doveva essere il prossimo mese?

aaasssdddfffggg
23-09-2006, 14:26
eccone un'altra:

http://www.hwsetup.it/news/puntatore.php?uid=3591

Stanno apparendo su tutti i siti.C'è per forza qualcosa di vero su questo progetto alieno!

aaasssdddfffggg
23-09-2006, 14:28
QUI ATI rischia di essere ridicolizzata sul serio con il suo progetto più caro a lei!!!Non vedo l'ora.Si parla di novembre o dicembre al massimo per l'ingresso in scena.

aaasssdddfffggg
23-09-2006, 14:31
700 milioni di transistor vuol dire che ci farà lo sli avrà dentro il pc 1 miliardo e 400 milioni di transistor solo su reparto video.Questa si che è tecnologia con i controcazzi.

DakmorNoland
23-09-2006, 14:33
QUI ATI rischia di essere ridicolizzata sul serio con il suo progetto più caro a lei!!!Non vedo l'ora.Si parla di novembre o dicembre al massimo per l'ingresso in scena.

Scusa ma perchè tu conosci le specifiche dell'R600??? Non mi sembra...Poi se non ricordo male quest'ultimo era prodotto a 65nm e se consuma 250W significa che avrà frequenze e numero di transistor spaventosi!

aaasssdddfffggg
23-09-2006, 14:35
Sull'R600 si sa già tutto!!16 PIPELINE e 64 SHADER UNIT sono ridicoli se paragonati ai 48 pipeline e 96 shader unit del G80 !!!!Per non parlare delle altre caratteristiche che ho già messo sul forum.

Raven
23-09-2006, 14:35
700 milioni di transistor vuol dire che ci farà lo sli avrà dentro il pc 1 miliardo e 400 milioni di transistor solo su reparto video.Questa si che è tecnologia con i controcazzi.

Grazie, ma qua i troll fanboys non li vogliamo! :)

Regolati!... :rolleyes:

aaasssdddfffggg
23-09-2006, 14:39
Ma come?Avete elogiato l'R600 mesi e mesi e adesso che esce una notiza bomba come questa volete spegnere la luce?

DakmorNoland
23-09-2006, 14:40
Sull'R600 si sa già tutto!!16 PIPELINE e 64 SHADER UNIT sono ridicoli se paragonati ai 48 pipeline e 96 shader unit del G80 !!!!Per non parlare delle altre caratteristiche che ho già messo sul forum.

Si ehm tuttavia se una consuma 250W con processo produttivo a 65nm e l'altra 180W con processo a 80, ci sarà un motivo. Sempre che queste indiscrezioni siano veritieri sia per una casa che per l'altra, visto che per ora stiamo parlando di qualcosa che non esiste.

aaasssdddfffggg
23-09-2006, 14:41
E ne avete dette di tutti i coli contro il g80 quando circolavano le specifiche di 32 pipeline e 16 shader unit senza shader unificati.Invece nVIDIA stessa si è divertita a quanto pare su chi non crede sulle sue potenzialità.Se queste specifiche sono vere NVIDIA si è divertita da matti con i sostenitori ATI a più non posso.

Raven
23-09-2006, 14:41
Ma come?Avete elogiato l'R600 mesi e mesi e adesso che esce una notiza bomba come questa volete spegnere la luce?

no no... ma se si evitasse di cadere nella più becera ed ignorante delle partigianerie forse allora se ne potrebbe discutere in mnaiera obiettiva...

Raven
23-09-2006, 14:42
Se queste specifiche sono vere

ecco bravo... "se"... e sinceramente the inquirer ha la stessa autorevolezza di tgcom...

adesso vogliamo chiuderla qua?!... :rolleyes:

int main ()
23-09-2006, 14:43
E ne avete dette di tutti i coli contro il g80 quando circolavano le specifiche di 32 pipeline e 16 shader unit senza shader unificati.Invece nVIDIA stessa si è divertita a quanto pare su chi non crede sulle sue potenzialità.Se queste specifiche sono vere NVIDIA si è divertita da matti con i sostenitori ATI a più non posso.
ma hai una mezza idea d ke figura fai e poi nn sono quelle le spec?? :sofico:

aaasssdddfffggg
23-09-2006, 14:46
no perchè se le specifiche sono vere come si fa a non essere così contenti di fronte ad un mostro del genere.Io sono convinto che siano quelle.Il prossimo mese escono le specifiche ufficiali quindi le voci che cominciano a circolare adesso devono essere per forza veritiere.

aaasssdddfffggg
23-09-2006, 14:50
http://www.nvidiazone.it/news/reader.php?objid=3585



GUARDATE QUESTO TITOLO : NVIDIA HA GIA' BATTUTO ATI

bonzuccio
23-09-2006, 14:50
no perchè se le specifiche sono vere come si fa a non essere così contenti di fronte ad un mostro del genere.Io sono convinto che siano quelle.Il prossimo mese escono le specifiche ufficiali quindi le voci che cominciano a circolare adesso devono essere per forza veritiere.

Ma mi hai messo in /ignore??
Noooo toc toc nooooooooo
nvidia soca, sono capaci tutti a far girare notizie false e tendenziose toh toh!

Foglia Morta
23-09-2006, 14:51
no perchè se le specifiche sono vere come si fa a non essere così contenti di fronte ad un mostro del genere.Io sono convinto che siano quelle.Il prossimo mese escono le specifiche ufficiali quindi le voci che cominciano a circolare adesso devono essere per forza veritiere.
eri convinto anche che G71 avesse 32 pipe e andasse a 750Mhz. Poi si è visto. Quel rumour è ancora più ridicolo.

Comunque discutere con te è inutile... quando uscirà G80 ti linko questi tuoi post ;)

Raven
23-09-2006, 14:52
no perchè se le specifiche sono vere come si fa a non essere così contenti di fronte ad un mostro del genere.Io sono convinto che siano quelle.Il prossimo mese escono le specifiche ufficiali quindi le voci che cominciano a circolare adesso devono essere per forza veritiere.

Ceeeeeerto! http://digilander.libero.it/arosati76/sisi.gif

ps: siamo comunque OT rispetto all'argomento del thread... quindi Nemesis, se vuoi continuare ti invito ad aprire un apposito thread nella sezione apposita del forum...

aaasssdddfffggg
23-09-2006, 14:53
Ok chiudo ragazzi.Aspettiamo il prossimo mese e vediamo come sarà la situazione.Ciao a tutti.

DjLode
23-09-2006, 14:55
Ceeeeeerto! http://digilander.libero.it/arosati76/sisi.gif

ps: siamo comunque OT rispetto all'argomento del thread... quindi Nemesis, se vuoi continuare ti invito ad aprire un apposito thread nella sezione apposita del forum...

Bhè considerando che G80 sarà almeno 2 volte più veloce di tutto il resto (anche di R600) ricordiamocelo, non era poi tanto OT. Diciamo che è uno Sli su single gpu :asd:

jp77
23-09-2006, 14:59
Ok chiudo ragazzi.Aspettiamo il prossimo mese e vediamo come sarà la situazione.Ciao a tutti.

aspettiamo il prossimo mese....penso saranno in molti a ricordarti quanto scritto qui....cmq anchio sono convinto che inizialmente il G80 bastonerà quell'esercizio di stile che è R600 :asd: in quanto i giochi in circolazione o che usciranno a breve non sfrutteranno a dovere un'architettura "unificata" anche se sul lungo periodo questa potrebbe essere la strada corretta visto "l'inciucio" ATI/Microsoft

aaasssdddfffggg
23-09-2006, 15:16
Vi ringrazio che mi ricorderete.
NEMESIS ELITE = nVIDIA ......nel bene e nel male.
Ciauz!

Evanghelion001
24-09-2006, 16:46
ottimo articolo!

preciso.