View Full Version : Radeon X800: è il momento di R420
Redazione di Hardware Upg
04-05-2004, 18:22
Link all'Articolo: http://www.hwupgrade.it/articoli/1013/index.html
Con il chip R420 ATI raddoppia di fatto le prestazioni della precedente top della gamma, sferrando un duro colpo alle soluzioni NV40 di NVIDIA. Che però non resta a guardare, presentando due nuove schede GeForce 6800 in grado di battagliare ad armi pari con le schede Radeon X800
Click sul link per visualizzare l'articolo.
halduemilauno
04-05-2004, 18:25
complimenti ottima rece.
:) :)
TheDarkAngel
04-05-2004, 18:25
bella ati ;)
falcon.eddie
04-05-2004, 18:27
Ottima conclusione,stavolta è stata una svolta epocale sul versante video,complimenti al lavoro!
xxx Alcatraz xxx
04-05-2004, 18:28
Ottima recensione. Interessante il confronto con le CPU: sarebbe bello che amd ed intel, ad ogni modello, sfornassero una potenza doppia rispetto al precedente.
è da tempo che si aspettava una svolta così grossa, con il temporalAA su R3xx giàle schede attuali godranno di una vita parecchio lunga, e il nuovo R420 si preannuncia già come il degno successore :cool:
ATi mi sta piacevolmente supendo da tempo, ora aspetto con ansia dei driver decenti per linux però
PS: complimenti veramente per la recensione: Velocissimi e precisi e esaurienti come al solito :cool:
Max Power
04-05-2004, 18:34
ATI! ATI! ATI!
ATI RULLEZ!!!!!!
Adesso manca solo la fascia media derivata dall'X800 e ci siamo!!!!!
Beccati questo Tom's Hardware ke spara bench fasulli!!!!!!!!
Ha ha ha ha!!!!!
W ATI!
WLF!!!!!!!!!!!!!
Ati c'è -___- Ati c'è!!!!
Bravissimi, una recensione davvero ben fatta ed esauriente, sicuramente la migliore che ho letto on-line finora (e penso che lo rimarrà...).
:D
Max Power
04-05-2004, 18:37
Adesso voglio i nuovi catalyst
5.0 !!!!!!
:yeah:
:winner:
We are the champion....
:cool:
Complimenti davvero...
bellissima rece ... lasciatemi fare un appunto però... dite che le soluzioni ati vanno con un ali da 300W ... ma anche quelle nvidia immagino.... al al max ce ne vuole uno da 320W... perchè va bene tutto ma che ati ne richieda uno da 300 e nvidia uno da 480W... che è... 180 W di differrenza? :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: ma tanto :sofico: :sofico: :sofico:
Feanortg
04-05-2004, 18:38
Beh.... Che dire... Grandi schede per grandi prestazioni. La mia scelta cadrà su Ati non tanto per le prestazioni (che non sono poi così nettamente diverse) quanto per il minor ingombro, l'assenza del secondo molex ed il minor calore generato. Odio le turbine :)
la prima tabella è sbagliata... la 6800GT da quanto dite ha 12 pipeline non 16 ... :Prrr: :read: :read:
menestrello
04-05-2004, 18:40
ottima veram la recensione...
e darei un 10 agli ingegneri ati... ora aspettiamo i prezzi!
Originariamente inviato da Max Power
ATI! ATI! ATI!
ATI RULLEZ!!!!!!
Adesso manca solo la fascia media derivata dall'X800 e ci siamo!!!!!
Beccati questo Tom's Hardware ke spara bench fasulli!!!!!!!!
Ha ha ha ha!!!!!
W ATI!
WLF!!!!!!!!!!!!!
Ati c'è -___- Ati c'è!!!!
Cominciano ad inquinare il thread con commenti da stadio?! :rolleyes: :muro:
Grandissima rece!!! :) ... Raffaele ci ha ormai abituati ad uno standard davvero elevato! ;)
halduemilauno
04-05-2004, 18:43
Paolo Corsini & Raffaele Fanizzi.
"Se con la precedente generazione di schede video NVIDIA ha combattuto mese dopo mese, cercando di colmare l'enorme gap accumulato nei confronti di ATI, il quadro è ora nettamente cambiato. ATI e NVIDIA si scontrano su un piano che non è ancora forse di perfetta parità, ma molto vicino a questa condizione. NV40 e R420 sono soluzioni estremamente potenti: se le schede ATI hanno un margine di vantaggio attuale, quelle NVIDIA necessitano ancora di un notevole sviluppo dal versante driver a fronte dell'architettura completamente nuova."
Con la scheda Radeon X800 XT Premium Edition ATI è stata capace di raddoppiare, in media, le prestazioni velocistiche della propria precedente top della gamma, modello Radeon 9800 XT. E' questo un risultato la cui portata è forse difficilmente comprensibile e per il quale un esempio può essere d'aiuto: pensate di avere a disposizione, da questo momento, un processore di sistema che è potente esattamente il doppio, in tutte le applicazioni, rispetto a quello che utilizzate in questo momento. Un eventualità di questo tipo è scenario pressoché irrealizzabile nel mercato delle cpu, ma è quanto ci hanno abituato ad ottenere ogni cambio generazionale sia ATI che NVIDIA. E, a pensarci bene, è un risultato strabiliante.
Questo paragrafo mi piace molto. Effettivamente il passo che stanno tenendo nello sviluppo delle GPU e' impressionante.
Da quello che ho potuto notare, direi che l'architettura ATI e' incredibilmente veloce e ottimizzata, l'architettura NVIDIA e' ancora piu' programmabile e flessibile.
E' bello lavorare in questo campo con questi mostri :)
falcon.eddie
04-05-2004, 18:46
Prediligendo risoluzioni elevate all'utilizzo di filtri e osservando con attenzione i risultati dei test nonchè dei giochi che utilizzo questa volta tornerò a Nvidia,mi aspetto una bella 6800Ultra Extreme dalla XFX. :p
JuanDiaz
04-05-2004, 18:53
Eccellente recensione. Eccellenti entrambe le schede. Però, il fatto che la Radeon X800 XT fornisca risultati leggermente superiori alla Geforce 6800 Ultra e non richieda un sistema di raffreddamento particolare, la rende quella di gran lunga preferibile. Questo lo dico anche considerando che gli Shader 3.0 potranno essere un punto decisivo non si sa bene quando e che il modello 6800 ultra extreme avrà dei prezzi stratosferici
Originariamente inviato da 737373
la prima tabella è sbagliata... la 6800GT da quanto dite ha 12 pipeline non 16 ... :Prrr: :read: :read:
La GeForce 6800 GT ha 16 pipeline, non 12.
cloud125
04-05-2004, 18:59
Originariamente inviato da Max Power
ATI! ATI! ATI!
ATI RULLEZ!!!!!!
Adesso manca solo la fascia media derivata dall'X800 e ci siamo!!!!!
Beccati questo Tom's Hardware ke spara bench fasulli!!!!!!!!
Ha ha ha ha!!!!!
W ATI!
WLF!!!!!!!!!!!!!
Ati c'è -___- Ati c'è!!!!
ridicolo....:rolleyes:
Ottima rece, mi spiace solo di non poter vedere schede Hercules :sob:
Originariamente inviato da Vifani
La GeForce 6800 GT ha 16 pipeline, non 12.
La scheda Radeon X800PRO integra 12 pipeline di rendering, al pari della scheda GeForce 6800, con frequenza di clock del chip pari a 475 MHz e 256 Mbytes di memoria GDDR3 a 900 MHz di clock.
ah allora vi riferivate alla 6800 liscia?? io pensavo parlaste della GT visto che la liscia non è ancora stata testata... chiedo scusa
:cry: :mc:
E strepitoso quello che una scheda ATI riesce a fare con un alimentatore normale, ventole normali.
ad nvidia servono 500-600Watt due molex ventoloni pazzeschi e schede stufa... ed a volte non la raggiunge.
:D
permaloso
04-05-2004, 19:06
per favore nn rigirare il dito nella piaga già cosparsa di sale...
complimenti alla redazione di hwupgrade per la recensione,complimenti ad ATI per aver realizzato un prodotto al livello della concorrenza per quello che riguarda le prestazioni,ora non ci resta che sperare nell'onestà dei rivenditori,ho già visto per la 6800ultra prezzi assurdi(650 euri)
Originariamente inviato da permaloso
per favore nn rigirare il dito nella piaga già cosparsa di sale...
complimenti alla redazione di hwupgrade per la recensione,complimenti ad ATI per aver realizzato un prodotto al livello della concorrenza per quello che riguarda le prestazioni,ora non ci resta che sperare nell'onestà dei rivenditori,ho già visto per la 6800ultra prezzi assurdi(650 euri)
Vedrai che quella stufa della 6800ultra, specialmente adesso che si avvicina l'estate e con ATI come concorrente a 650euri non la vendono a nessuno :)
manu@2986
04-05-2004, 19:09
non mi pareva che la 6800 fosse una stufa, per lo meno x quello che ho letto....IMHO
Originariamente inviato da pg08x
Vedrai che quella stufa, specialmente adesso che si avvicina l'estate e con tale concorrente per 650euri non la vendono a nessuno :)
secondo me tu finisci bannato... :O
flammatore :p
Dumah Brazorf
04-05-2004, 19:10
Stò ancora leggendo, volevo far presente che i grafici a pagina 17 sono invertiti, non prendetemi per pignolo la rece è ottima come sempre! Bravi Fanizzi e Corsini.
Ciao.
Ah, ehm, pure a pagina 18, anche la 6800 Ultra non si fa superare in Asbestos... ok, sono pignolo... :D
...complimenti, ottima recensione.
...incredibile le prestazioni della nuova serie X800 XT rispetto alla ex regina 9800 XT... un salto in avanti ottimo!
Comunque questa è la frase che preferisco...
ATI ha sempre ricercato, con le ultime generazioni di soluzioni video, la massima compatibilità con tutti i tipi di sistema. Niente requisiti particolari anche per le soluzioni Radeon X800, entrambe capaci di operare stabilmente con un alimentatore da almeno 300 Watt, uno standard per i PC odierni. Il calore generato durante il funzionamento da queste schede è addirittura inferiore a quello della soluzione Radeon 9800 XT, con un sistema di raffreddamento proporzionato e tale da non creare ingombri anomali
nvidia per contro ricerca overclock estremi, trucchi, accordi commerciali il tutto si traduce in prezzi assurdi - dimensioni eccessive - consumi eccessivi - rumorosità eccessiva ed alcuni prodotti che non valgono il prezzo richiesto.
lo sapevo e l'avevo accennato ora la dimostrazione.
lzeppelin
04-05-2004, 19:14
Impressionante!
Ma perchè in ATI e in NVIADIA non pensano a fare una CPU?
Se sono in grado di fare questi capolavori con 200 M di transistor!
Wing_Zero
04-05-2004, 19:15
Sarebbe stato interessante vedere l'x800 pro con la 6800 liscia, suo vero concorrente in quanto entrambe quete skede hanno 12 pipes. in + bisognera' aspettare per i prezzi!
Generalmente con i filtri attivati vanno meglio le ati, pero' in molti test se nn alziomo la risoluzione ad 1600X1200 le sk video nividia sono sopra.
una dura lotta considerando 'ottimizzazione per i drivre da parte di nvidia.
Poi da una parte ati ha il vnataggio di avere un solo molex supplementare, e di far meno casino, ma ha "solo" gli shaders 2.0 e una preciusone a 24 bit invece che 32 come nvidia...vedremo i prezzi e decideremo! :D
Cmq mi smebra esagerato dire che la gt ha prestazioni equilibrate alla x800 pro, in clacuni casi e' anche sotto, e' vero, pero' nell amaggiorn parte dei tsti e' migliore! o no? :D h anche 16 pipes contro le 12 della pro!
vdremo vedremo...cmq la vera bataglia di mercata sara la fascia media(per noi mortali) quindi consiglio a corsini un confronto molto utile, con solo 2 skede, che fate subito subito:
6800 VS X800 PRO. LE SKEDE A 12 PIPES. CHI LA SPUNTERA'????(relazionadoci anche al prezzo ovvio! ).
ciaoz! e grande redazione di hwupgrade, sempr ei migliori sulla piazza!
ma cambiare il pc per i test no eh...
bella scheda la ati, sono curioso di vedere il prezzo :D
nonikname
04-05-2004, 19:31
Secondo me la vera vincitrice di questa generazione è la 6800GT.......
Cambiate sto sistema di test , per favore ..... un sito del vostro livello non può testare delle schede grafiche che raddoppiano le prestazioni della generazione precedente , con una CPU di 2 generazioni fa : credo sia l'unico neo (anzi bubbone) su una recensione complessivamente ben fatta
P.S. con un FX53 vi avrei dato un 10+ :D
Perfectdavid
04-05-2004, 19:34
dimentichi però che la 6800liscia ha le ddr1...
(IH)Patriota
04-05-2004, 19:34
Davvero un bel gioiellino.
Le differenze tra le due schede sono veramente minime se paragonate al vecchio e storico scontro 9700PRO Vs NV3x. Ati resta davanti in molti bench qualora vengano applicati i filtri in modo pesante a risoluzioni elevate.
Le specifiche di alimentazione restano al pari delle soluzioni top gamma odierne senza dover ricorrere ad alimentatori particolarmente performanti , anche le dimensioni restano identiche a quanto gia' visto e questo anche se non determinante è cmq a favore dei canadesi.(L' ali consigliato da 480W per NVidia non credo che vada inteso +180W rispetto ad un consumo di soli 20W in piu' sualla GPU ma considerando che PSU di qualita' statisticamente ce ne sono in giro pochi e che quindi per mantenere piena stabilità operativa è meglio sparare alto piuttosto che rischiare di avere alimentazioni poco stabili durante un sessione di gioco che sfrutta la macchina sempre al 100% in ogni sua componente)
NV40 dal canto suo con un' architettura piu' "tecnologica" supporta già PS e VS 3.0 , che pero' non sappiamo se faremo in tempo a vederli prima di cambiare di nuovo scheda con una PCI express magari su mobbo con socket 939 e DDRII , prodotti che ancora non sono stati presentati oppure non regalano performance degne della spesa a cui si va incontro.
Ottima recensione.Davvero
Complimenti.
Originariamente inviato da 737373
secondo me tu finisci bannato... :O
flammatore :p
Allora dimostrami come una scheda che richiede 500 e più watt di alimentazione (ed una ventola che può arrivare a regimi di rotazione molto fastidiosi, vedasi accensione) possa non sfruttare tale ventola e non scaldare d'estate mentre giochi al tuo giochino preferito.
E soprattutto come tu possa paragonarla ad una scheda (LA ATI) che scalda meno (sono parole di corsini) della generazione precedente. Evidentemente c'è qualcosa che non va... ed il tutto per 670euro. Complimenti a nvidia che riuscirà a venderla come ha venduto le 5800Ultra con le 9700 di ATI ancora in giro
I tuoi pittosto sono flame, attaccami pure ma porta delle argomentazioni prima.
Originariamente inviato da nonikname
Secondo me la vera vincitrice di questa generazione è la 6800GT.......
Cambiate sto sistema di test , per favore ..... un sito del vostro livello non può testare delle schede grafiche che raddoppiano le prestazioni della generazione precedente , con una CPU di 2 generazioni fa : credo sia l'unico neo (anzi bubbone) su una recensione complessivamente ben fatta
P.S. con un FX53 vi avrei dato un 10+ :D
beh... credoi che un sistema del genere sia comunque più diffuso nella massa che non una fx53! ;)
halduemilauno
04-05-2004, 19:38
Originariamente inviato da nonikname
Secondo me la vera vincitrice di questa generazione è la 6800GT.......
si credo di si. credo che abbia il miglior rapporto prezzo/prestazione.
ciao Nik.
:) :)
halduemilauno
04-05-2004, 19:40
Originariamente inviato da pg08x
Allora dimostrami come una scheda che richiede 500 e più watt di alimentazione (ed una ventola che può arrivare a regimi di rotazione molto fastidiosi, vedasi accensione) possa non sfruttare tale ventola e non scaldare d'estate mentre giochi al tuo giochino preferito.
E soprattutto come tu possa paragonarla ad una scheda (LA ATI) che scalda meno (sono parole di corsini) della generazione precedente. Evidentemente c'è qualcosa che non va... ed il tutto per 670euro. Complimenti a nvidia chi riescirà a venderla come ha venduto le 5800Ultra con le 9700 di ATI ancora in giro
non li richiede consiglia. molte rece sono state fatte con ali da 350 watt. quindi presumo che con un 400 watt si vada tranquilli.
Perfectdavid
04-05-2004, 19:41
vero.meglio testare su p4..
Originariamente inviato da halduemilauno
si credo di si. credo che abbia il miglior rapporto prezzo/prestazione.
ciao Nik.
:) :)
Aspettiamo di vederle sugli scaffali degli shop italiani ed avere quindi i prezzi FINALI per entrambe le schede! ;)
Dumah Brazorf
04-05-2004, 19:44
Originariamente inviato da Raven
beh... credoi che un sistema del genere sia comunque più diffuso nella massa che non una fx53! ;)
Sì ma quando è stato introdotto nelle recensioni + di un annetto fa non lo era! :)
Inoltre come si fa a cogliere le differenze prestazionali tra 2 schede se nei test fanno gli stessi framerates causa cpu limitation?
Ciao.
DioBrando
04-05-2004, 19:44
Esaustiva recensione come sempre ;)
Anche se dai risultati visti c'è una competizione abb stretta, tanti dei numeri proposti vanno a favore delle soluzioni Ati e il divario è davvero evidente con il filtro AA.
IMHO Nvidia n ne esce con le ossa rotte però per essere stata quella che doveva far vedere qlc in + del concorrente forse ha un pò "mancato".
L'architettura ripensata da cima a fondo è stata un strada coraggiosa, ma se Ati ha potuto ottenere queste prestazioni "semplicemente" migliorando un'architettura che già aveva piacevolmente colpito è il segno che in questi ultimi due anni lo staff canadese dai progettisti al marketing ha davvero lavorato bene.
E si dovrebbe prendere spunto da questo successo per far capire cosa si intenda per ottimizzazioni
Il tutto poi diminuendo i consumi rispetto all'ex modello di punta 9800Xt incredibile :eek:
Un'ultima considerazione.
Vero è che le schede Ati e Nvidia n mostrano superiorità schiaccianti in un quadro complessivo, ma c'è anche da chiedersi quanti saranno disposti ad upgradare proprio sistema e a spendere quindi altri soldi per cambiare l'alimentatore.
E se effettivamente ATI stà pensando seriamente di introdurre l'architettura R5xx ( saltando la 480) in tempi n remoti, non dico possa essere un colpo da KO, ma sicuramente una bella mazzata nei confronti di Nvidia.
halduemilauno
04-05-2004, 19:46
Originariamente inviato da Raven
Aspettiamo di vederle entrambi sugli scaffali ed avere quindi i prezzi FINALI per entrambe le schede! ;)
d'accordo. parlavo dei prezzi annunciati in €. per nVidia si parla di 349€ per ati addirittura 449€ che forse possono scendere a 399€. cmq certo che aspetto.
ciao.
:) :)
Mr.Gamer
04-05-2004, 19:46
mmm... allora vediamo un pò
la soluzione di nvidia non mi sembra scarsa come la nv3x, ma purtroppo c'è sempre il neo riguardo gli shaders e la "dualità" nel rendering dei colori...
cmq secondo me questo non è il punto focale, io sono piu interessato ai consumi, dissipazione... e quindi magari anche limite di overclock :-/
mi fà un pò schifetto vedere che già le schede di fascia top (6800 GT e X800 pro) sono con 12 pipeline, poi se bisogna analizzare i consumi....
forse l'unica è la X800 pro che è simile alla 9600, visto che per ora di soldi ne ho a bizzeffe, ma non intendo mettermi un forno dentro il mio bel case.. manco me lo regalassero (bhe ... forse... con quel che costano ste vga oggigiorno :D potrei fare uno strappo alla regola)... per non parlare della alimentazione "dual" (quanto la odio :mad: :mad: )
il punto resta: quanto in REALTA consumano queste 2 vga ? e ... quanto scaldano? la 9600pro che ho nel case, overcloccata alle frequenze scritte qui sotto e con dissipatore di default non và mai oltre i 35-40°
se qualcuno ha altre info... sarei molto interessato ;)
Originariamente inviato da halduemilauno
d'accordo. parlavo dei prezzi annunciati in €. per nVidia si parla di 349€...
... per la GT o per la liscia?! :mbe:
Originariamente inviato da pg08x
Allora dimostrami come una scheda che richiede 500 e più watt di alimentazione (ed una ventola che può arrivare a regimi di rotazione molto fastidiosi, vedasi accensione) possa non sfruttare tale ventola e non scaldare d'estate mentre giochi al tuo giochino preferito.
La prima scheda di una nuova generazione NVIDIA e' sempre un sample per sviluppatori e non e' pensata per il pubblico, ma per gli sviluppatori, per questo non e' ottimizzata dal punto di vista termico, ma solo dal punto di vista architetturale, essendo un'architettura sostanzialmente innovativa.
Come sempre accade la seconda revisione viene prodotta in volumi e ottimizzata per uso domestico.
E soprattutto come tu possa paragonarla ad una scheda (LA ATI) che scalda meno (sono parole di corsini) della generazione precedente. Evidentemente c'è qualcosa che non va... ed il tutto per 670euro. Complimenti a nvidia che riuscirà a venderla come ha venduto le 5800Ultra con le 9700 di ATI ancora in giro
L'R420 e' sostanzialmente un'incredibile ottimizzazione di un'architettura gia' performante e il progetto ha semplicemente ottimizzato ogni aspetto di un'architettura gia' ottima di suo. "Semplicemente" e' un termine un po' debole visto il risultato strabiliante in termini prestazionali che e' stato ottenuto. Decisamente la GPU da scegliere per l'utente finale. Qualche riserva sulla progragrammabilita' di questo GPU che non sembra al passo della concorrenza, ma direi che e' una precisa scelta ingegneristica che mira all'utente finale e da questo punto di vista altro mi trova perfettamente d'accordo.
In sintesi: R420 migliore per l'utente finale, NV40 migliore per gli sviluppatori.
Grande rece, complimenti Corsini&Fanizzi ;) sono d'accordissimo con Fek... volevo sapere se secondo te è una mancanza grave il mancato supporto agli shaders 3.0, tenendo conto che a livello visivo, come dice corsini, il risultato è il medesimo; magari sarà necessario uno shader 2.0 più "complesso" al posto di uno shader 3.0 più "semplice", ma secondo te è una mancanza fondamentale?
Originariamente inviato da [JaMM]
Grande rece, complimenti Corsini&Fanizzi ;) sono d'accordissimo con Fek... volevo sapere se secondo te è una mancanza grave il mancato supporto agli shaders 3.0, tenendo conto che a livello visivo, come dice corsini, il risultato è il medesimo; magari sarà necessario uno shader 2.0 più "complesso" al posto di uno shader più "semplice", ma secondo te è una mancanza fondamentale?
Secondo me oggi non e' una mancanza grave per l'utente finale. Lo sara' in futuro, ma in quel futuro ci saranno soluzioni con il supporto shader 4.0.
Dal punto di vista del programmatore, beh, piu' cose mi danno per giocarci piu' sono contento :)
Originariamente inviato da fek
Secondo me oggi non e' una mancanza grave per l'utente finale. Lo sara' in futuro, ma in quel futuro ci saranno soluzioni con il supporto shader 4.0.
Dal punto di vista del programmatore, beh, piu' cose mi danno per giocarci piu' sono contento :)
ok grazie :D
secondo me è incredibile che la scheda ati fa registrare velocità molto vicine se non superiore alla nvidia con ben 60 milioni di transistor in meno:eek: :eek: :eek:
halduemilauno
04-05-2004, 20:07
Originariamente inviato da Raven
... per la GT o per la liscia?! :mbe:
mi sa che ho fatto confusione. si parla per la GT di 399$. quindi 449€. però strano avevo letto un'altro prezzo. vedremo.
ciao.
:) :)
zerothehero
04-05-2004, 20:08
ottima e completa recensione..ma non è meglio differenziare con colori diversi le soluzioni ati (rosso) e nvidia(verde)? ....secondo me ne guadagnerebbe la leggibilità.
ehm... il truform... sulla x800 c'è ancora?!?! :confused:
(tanto per sapere se seppellirla definitivamente come "feature inutile" :p )
halduemilauno
04-05-2004, 20:14
Originariamente inviato da Mr.Gamer
mmm... allora vediamo un pò
la soluzione di nvidia non mi sembra scarsa come la nv3x, ma purtroppo c'è sempre il neo riguardo gli shaders e la "dualità" nel rendering dei colori...
cmq secondo me questo non è il punto focale, io sono piu interessato ai consumi, dissipazione... e quindi magari anche limite di overclock :-/
mi fà un pò schifetto vedere che già le schede di fascia top (6800 GT e X800 pro) sono con 12 pipeline, poi se bisogna analizzare i consumi....
forse l'unica è la X800 pro che è simile alla 9600, visto che per ora di soldi ne ho a bizzeffe, ma non intendo mettermi un forno dentro il mio bel case.. manco me lo regalassero (bhe ... forse... con quel che costano ste vga oggigiorno :D potrei fare uno strappo alla regola)... per non parlare della alimentazione "dual" (quanto la odio :mad: :mad: )
il punto resta: quanto in REALTA consumano queste 2 vga ? e ... quanto scaldano? la 9600pro che ho nel case, overcloccata alle frequenze scritte qui sotto e con dissipatore di default non và mai oltre i 35-40°
se qualcuno ha altre info... sarei molto interessato ;)
la 6800GT è a 16 pipe.
Ottima Recensione!
Iniziando con le considerazioni:
Peccato per i nVidia che il consumo superiore e le frequenze inferiori (credo x limite fisico), contro il Low-K e le freq di ATi può poco.
Cmq secondo me è stata una ripresa (quasi vittoria) per nVidia e una conferma per ATi: ripresa perchè nVidia è riUscita con un nuovo progetto portandosi ai livelli della rivale ATi, mentre ATi cotinuando il progetto precedente ed aggiungendo (ovviamente) novità ha confermato le sue qualità.
Alla prossima sperando in recensioni con un sistema superiore e aspettando le sk video di fascia media.
Ciao!
PS: i grafici di Vertex e Pixel Shader e quelli del Fill Rate a pag 17 sono stati scambati
sanitarium
04-05-2004, 20:33
Ecco la recensione che aspettavo per fugare ogni dubbio riguardo lo scontro R420 vs NV40. :)
Sinceramente se dovessi trovarmi nelle condizioni di poter (e voler) cambiare scheda, credo proprio che opterei per la X800XT.
La qualità eccelsa dell'AA, l'introduzione del TAA (tecnologia immediatamente sfruttabile), l'AF praticamente a costo zero, il fatto che quando si va su di risoluzione e si spinge l'acceleratore sui filtri sta spesso e volentieri davanti alla soluzione concorrente, il consumo relativamente contenuto mi fanno propendere per la soluzione canadese.
Non ho digerito invece i test condotti in OpenGL, ma credo che ci sia moooooolto su cui lavorare...
Ciò che non ho apprezzato affatto di NV40 è il fatto che nel calcolo degli shader in FP32, a fronte di una qualità praticamente indistinguibile rispetto a quella offerta da R420 con i suoi 24-bit, le prestazioni calano vistosamente rispetto a quando viene usata una precisione a 16-bit, davvero inaccettabile a livello qualitativo.
Originariamente inviato da sanitarium
Non ho digerito invece i test condotti in OpenGL, ma credo che ci sia moooooolto su cui lavorare...
Ho letto che Ati starebbe riprogrammando da zero il driver OpenGL... (sto cercando conferme in tal senso...)
Ottima recensione ...... come sempre d'altronde. ;)
Poco importa se le prestazioni alla fine sono alla pari .............
NVidia ha perso secondo me lo scontro diretto con ATI dal punto di vista dell'evoluzione tecnologica.
Perchè?
- ATI ha raddoppiato le prestazioni rispetto al top della sua generazione precedente mantenendo le dimensioni della scheda nella norma con consumi praticamente identici (vedi unico molex) e con minor produzione di calore/rumore durante il suo funzionamento.
- NVidia con i suoi 222 milioni di transistor costringe l'utente ad acquistare un'alimentatore spropositato e ripropone una "turbina" come sistema di raffreddamento che occupa slot AGP + slot PCI adiacente!
Come al solito la differenza in termini di vendite la faranno le schede di fascia medio-bassa .............. ma per quanto mi riguarda ATI è sempre davanti e NVidia insegue!!! :O
Gio&Gio
sanitarium
04-05-2004, 20:41
Originariamente inviato da Raven
Ho letto che Ati starebbe riprogrammando da zero il driver OpenGL... (sto cercando conferme in tal senso...)
Questa è davvero un'ottima notizia, se trovo qualcosa di ufficiale (o quasi) mi faccio vivo. :)
Fan-of-fanZ
04-05-2004, 20:43
quello che non capisco è come fanno a presentare prodotti praticamente in contemporanea, che hanno architetture diverse ma che alla fine hanno prestazioni molto simili!(???)
sanitarium
04-05-2004, 20:44
A proposito della riscrittura dei driver OpenGL (link postato da MaBru sul thread della X800):
http://www.beyond3d.com/forum/viewtopic.php?t=12041&postdays=0&postorder=asc&start=60
OverClocK79®
04-05-2004, 20:44
veramente ottima rece come sempre ;)
volevo porre alcune domande che forse per qlkuno potrebbero suonare strane....
perchè nn avete fatto un test di OC della 10800XT???
mi sembra sulla 6800 sia stato fatto :)
l'interasse dei fori della nuova raddy è uguale alla vekkia XT??
intendo i fori di fissaggio del raff GPU
a okkio sembra di si....
devo recuperare il WB
un test interessante sarebbe stato quello di aver messo le skede alla stessa freq e aver fatto un test di resa dell'architettura....
lascia il tempo che trova ma è pure sempre interessante....
per il resto del prodotto ati sono stato deluso sul discorso PS 3.0
l'ATi da sembre avanti nel supporto di nuove tecnologie ecc ecc
questa cosa nn me la sarei aspettata nonostante molti voci portavano a questa conclusione.....
resta da dire che è vero che ora che vedremo un gioko ful 3.0 ce ne vorrà e farò ora a cambiare skeda fra 6/7mesi....
però è una makkia su tutto l'ottimo lavoro fatto da ATI
:)
BYEZZZZZZZZZZZZZZ
Dark Schneider
04-05-2004, 20:51
Innanzitutto grande recensione. Complimenti davvero...per di più sto guardando anche altre review...ci son alcuni che la 6800 Ultra Extreme manco ce l'avevano..voi si!! :)
Praticamente due GPU sullo stessissimo livello queste R420 e NV40!!
Sul D3D a volte meglio l'uno a volte meglio l'altro...stessa cosa con i filtri. Anche se però l'Ati X800XT diciamo va un po' più forte in un maggior numero di test...sopratutto quando si parla di 1280x1024 e 1600x1200.
D'altro canto nVidia deve lavorare sui drivers più di Ati, cito le parole del Corsini:
NV40 e R420 sono soluzioni estremamente potenti: se le schede ATI hanno un margine di vantaggio attuale, quelle NVIDIA necessitano ancora di un notevole sviluppo dal versante driver a fronte dell'architettura completamente nuova.
L'Open GL invece che sempre è stato un punto di forza nVidia...ed un punto debole Ati..anche qui la situazione è invariata: nVidia va più forte.
Tra l'altro ho visto anche altri test altrove...con giochi Open GL in cui di solito non si hanno fps altissimi e le nVidia confermano le prestazioni superiori. Penso che SE Doom 3 dovesse uscire è cmq un bell'asso nella manica per nVidia visto che è un titolo Open GL dove appunto di solito nVidia va meglio. Non son un veggente, però se i giochi Open GL solitamente vanno meglio con nVidia, probabilmente accadrà la stessa cosa col titolo ID. HL2 poi sarà meglio Ati...ma cmq siamo alle solite:ci son titoli che va meglio l'una altri in cui va meglio l'altra. Appunto sono sullo stesso livello.
Cmq non c'è niente da dire...R420 è davvero una gran bella GPU..in D3D va un po' meglio di nVidia..anche se poi alla fine son entrambe ad altissimo livello.
Open GL invece conferma la classica tradizione: NV40 e nVidia in generale superiore.
L'unica pecca davvero..di nVidia..l'unica minchiata che ha fatto secondo me con NV40 è non andare sul Low-K o qlc di simile. Secondo me se adottava il Low-K...saliva parecchio ma parecchio. Già senza Low-K è salita tantissimo...chissà se adottavano il Low-K.Con NV40 non son saliti, ma il contrario. Probabilmente sarebbe stata la GPU FINALE con il Low-K incluso in D3D! ;)
La X800XT infatti secondo me molto si avvantaggia dal fatto che Ati è riuscita a salire molto. Cavolo ragà sui 100 Mhz di Core mi pare.....e oltre 400 Mhz come memorie rispetto alla 9800XT son un salto molto elevato. Direi che il Low-K si è rivelata una bella arma!! :)
La scheda migliore del gruppo cmq mi è sembrata la GeForce 6800 GT...migliore nel senso di prezzo/prestazioni. Scheda NON castrata...con tutte le 16 Pipeline e che non consuma granchè. Scheda secondo me da preferire a 6800 Ultra anche.
In definitiva: brava Ati e brava nVidia. Le vostre due nuove GPU mi son piaciute davvero tanto!! :)
Che continuino così.......adesso aspettiamo i prezzi!! :)
Athlon 64 3000+
04-05-2004, 20:58
Ho notato un cosa.Con le R3xx e L'NV3x le GPU Ati erano molto più efficienti delle GPU Nvidia a Partià di frequenza,mentre adesso la situazione si è completamente ribaltato.la X800XT nonstante abbia ben 125 Mhz in più di frequenza rispetto al 6800 Ultra non gli un grande distacco in termini prestazione che stanno a significare che le GPU Nvidia sono più efficienti a parità di frequenza.
Paolo Corsini
04-05-2004, 20:59
Originariamente inviato da cloud125
ridicolo....:rolleyes:
Abbastanza lamer, infatti.
E pensare che conosco Lars Weinard di Tom's Hardware, editor per la parte video, ed è una persona estremamente cordiale oltre che molto professionale nel suo lavoro.
T. Alexius
04-05-2004, 21:00
che dire... sfida ad altissimi livelli..vien solo tristezza a paragonare la Volari a queste bellezze :)
Paolo Corsini
04-05-2004, 21:00
Originariamente inviato da *ReSta*
ma cambiare il pc per i test no eh...
problemi di tempo; se leggi il mio blog di questo tardo pomeriggio capisci in che condizioni è nato questo articolo.
Poco male, comunque: per scrupolo rifaremo nei prox giorni tutti i test su piattaforma FX53.
In ogni caso c'è poco di cpu limited, anche con questi mostri di schede video, a 1600x1200 FSAA 4x anis 8x
Recensione praticamente perfetta per due schede mostruose ... fa un po' effetto vedere la 9800xt e 5950ultra cosi' indietro ... fino a qualche giorno fa erano il meglio ^^; !
So gia' che non comprero' niente perche' al momento non posso permettermelo ma ... c'e' curiosita' morbosa sui prezzi ... eheh :)
Se dovessi scegliere ora come ora andrei su ati...pur considerando nv40 un qualcosa di eccezzionale ma per ora poco fruibile.....
Paolo Corsini
04-05-2004, 21:03
Originariamente inviato da zerothehero
ottima e completa recensione..ma non è meglio differenziare con colori diversi le soluzioni ati (rosso) e nvidia(verde)? ....secondo me ne guadagnerebbe la leggibilità.
Hai ragione, ci stavo pensando oggi.
Ma considerando che questo mi avrebbe fatto perdere molto tempo, che eravamo già molto in ritardo sulla scaletta e che sia io che Raffaele questo pomeriggio eravamo piuttosto sul fuso, spero capirai il perché di questa scelta.
Paolo Corsini
04-05-2004, 21:05
Originariamente inviato da OverClocK79®
perchè nn avete fatto un test di OC della 10800XT???
mi sembra sulla 6800 sia stato fatto :)
l'interasse dei fori della nuova raddy è uguale alla vekkia XT??
intendo i fori di fissaggio del raff GPU
a okkio sembra di si....
devo recuperare il WB
un test interessante sarebbe stato quello di aver messo le skede alla stessa freq e aver fatto un test di resa dell'architettura....
lascia il tempo che trova ma è pure sempre interessante....
Ciao,
all'ultimo test ci avevamo pensato, ma i sample sono frequency lock con tutte le utility a disposizione. Non so se questo valga in generale o solo, come sospetto, per queste board di preproduzione.
la risposta alla domanda sull'overclock viene automaticamente.
Fori di fissaggio: a questo deve rispondere Raffaele
JoeLatino
04-05-2004, 21:08
Scusate,ma voglio porvi un quesito..tralasciando per un momento i giochi sapete come si comportano le varie schede in ambito opengl,e,cioe' con applicazioni grafiche 3d tipo lightwave,maya,3dmax? un'altra cosa che non se ne e' ancora parlato:da quello che so' io le schede Nvidia hanno la decodifica hardware mpeg/divx e la tv incorporata.Cosa mi dite di cio'?Grazie Joe
Athlon 64 3000+
04-05-2004, 21:09
Sulla Radeon X800Pro sarà mai possibile montarci il Termaltake Crystal Orb?
Ati, a mio avviso, esce vincitrice. non richiede i due molex e la turbina,cosa non meno importante delle prestazioni e ha pure meno transistor della nv40, e nonostante ciò la supera pure. a vederla sta x800 con quel pcb tanto pulito mi sembra meno potente della mia 9700pro...invece è il doppio più veloce :cool:
brava Ati!
vorrei sapere, per pura curiosità, che punteggio ti spara al 3dmark2003....ihihih:D
secondo me ATI ha dato ancora prova di essere un'azienda in grado di portare a termine progetti seri e dare alla luce prodotti realistici.
Un'altra grande scheda, dalle dimensioni giuste, dall'assorbimento di corrente giusto, senza sorprese.
Nvidia al contrario per l'ennesima volta ha rilasciato un prodotto poco convincente e pieno di compromessi. Credo che appena cambierò scheda video prenderò ancora ATI.
Athlon 64 3000+
04-05-2004, 21:19
Io tra le due schede Promuovo L'R420 e boccio sonoramente L'NV40.
La mia scheda prefertita e la Radeon X800Pro
Complimenti per la rece, grandiosa come sempre :mano: :cincin:
Saeba Ryo
04-05-2004, 21:26
Ok ok potenti lo sono, ma le caratteristiche aggiuntive di cui si era parlato? Per esempio la codifica DivX in tempo reale? Non ci sono? Era solo un'ipotesi? Spero di no!
P.S. scusate la domanda da niubbi, ma come si fa (se si può) ad ricevere la notifica di eventuali risposte ai propri interventi sul forum? (e qui?). Help!
Feanortg
04-05-2004, 21:35
Vedendo il salto di prestazioni posso notare con piacere una cosa:
Tra la X800 XT e il 9800 XT c'e' una differenza di prestazioni maggiore che, ad esempio, tra la 9800 XT e la 9600 XT
Questo mi fa ben sperare sul fatto che le prossime serie "depotenziate" abbiano comunque prestazioni da primato, ovvero che l'equivalente (anche di prezzo) della 9000 Pro della nuova serie X ottenga framerate elevatissimi. Non sarebbe male se un'ipotetico X200 vada come una 9800pro!!! Soprattutto se il prezzo fosse equivalente. Così l'utente che su un 17 pollici non va a piu' di 1024x768 protrebbe comunque giocare a costi contenuti con tutte le ulltime novità.
Forse finalmente anche la fascia economica avrà decenti prestazioni in directx 9...
Quanta bella gente che vende (ora 80 utenti) che vendono su ebay le 9800 ehehehehehehehe :)
Aria di upgrade ;)
Speriamo abbiano l'ati 9100IGP per sostituire provvisoriamente il loro mostro!
Ciao!
Feanortg
04-05-2004, 21:37
Quanta bella gente (ora 80 utenti) che vendono su ebay le 9800 ehehehehehehehe
grammatica rulezzz ;)
Io nn venderò di certo la 9800pro adesso....prrr :D
Cmq bellissima recensione, l'ho letta tutta, certo che un salto così epocale sul versante prestazioni di schede video è raro, veramente impressionante! :)
Kicco_lsd
04-05-2004, 21:41
Chiudete bene la redazione che visto e considerato che il pcb della mia 9700pro è identico alla X800XT potrebbe avvenire uno spiacevole scambio :D
BlackAndrew
04-05-2004, 22:08
ATI rulez! :D
Immaginavo che le 2 soluzioni N40 e R420 avrebbero avuto prestazioni simili, cmq ci sono diverse cosette che fanno propendere l'acquirente verso Ati...
Intanto l'uso decisamente migliore dei filtri , ora che se + che mai se ne fa largo uso in tutti i giochi.
Poi Ati è riuscita a migliorare addirittura la dissipazione del calore, sfornando una bomba di scheda con un dissipatore veramente ottimo e di certo nn esagerato come Nvidia, inoltre nn richiede all'acquirente di equipaggiarsi con una centrale nucleare necessitando di un solo molex e di un ali "umano".
Infine ho avuto l'impressione che le versioni Ultra di Nvidia siano parecchio tirate soprattutto l'extreme: :wtf:
Discorso a parte merita la scheda GeForce 6800 Ultra Extreme. Questo prodotto, facendo un paragone con il mercato dei processori, può essere tranquillamente confrontato con la cpu Intel Pentium 4 Extreme Edition. E' una soluzione di nicchia, che verrà proposta solo da alcuni partner di NVIDIA in soluzioni del tutto particolari; la produzione di queste schede sarà presumibilmente molto limitata, a motivo della difficoltà di ottenere buone rese per i chip NV40 all'elevata frequenza di clock di 450 MHz.che è quella che + si avvicina al modello di punta Ati il quale tutto sommato si comporta egregiamente sia come temperature che come consumi facendo ben sperare x qualche possibile overclock...Chissa!!!
Byez
Dark Schneider
04-05-2004, 22:18
Un appunto al Vifani e al Corsini: nella pagina dove c'è il test del Fillrate e del PS e VS...sono invertiti guardando i commenti tecnici. ;)
DeMonViTo
04-05-2004, 22:29
G R E A T ! ! ! ! ! !
Inutile dire altro :))
p.s. : scusa raver..
per cosa?
per questo...
VAFFANCULO NDA
:eek: :eek: :eek: 6 giorni di sofferenza :cry:
(da quando Corsini ha detto quando scadeva questo maledetto NDA :asd: )
OverClocK79®
04-05-2004, 22:34
Originariamente inviato da Paolo Corsini
all'ultimo test ci avevamo pensato, ma i sample sono frequency lock con tutte le utility a disposizione. Non so se questo valga in generale o solo, come sospetto, per queste board di preproduzione.
la risposta alla domanda sull'overclock viene automaticamente.
Fori di fissaggio: a questo deve rispondere Raffaele
tnx
cordiale come sempre :)
allora per l'OC dovremo aspettare i primi pezzi in scatola sperando nn ci sia alcun blocco di sorta sulle freq......
aspetto la risposta di Vifani allora.....
sempre se ha tempo di verificare.....
credo che da dietro la skeda si faccia presto senza dover smontare il tutto :)
tnx
ankora.....
BYEZZZZZZZZZZZZZZZZ
Originariamente inviato da OverClocK79®
l'interasse dei fori della nuova raddy è uguale alla vekkia XT??
intendo i fori di fissaggio del raff GPU
a okkio sembra di si....
devo recuperare il WB
R420 fissa il dissipatore sulla GPU attraverso tre viti disposte (ad occhio e croce) allo stesso modo rispetto alla 9800XT. Non sono presenti invece su R420 i fori dedicati al fissaggio del dissipatore di rame delle memorie. Esistono altri fori vuoti, ma non mi sembrano nella stessa posizione.
DeMonViTo
04-05-2004, 22:39
Cmq dubito che ci siano le frequenze bloccate nelle versioni "vendita"
Perche' il tanto blassonato "overdrive" a ke servirebbe? :rolleyes:
Sicuramente queste schede saranno ultra overcloccabili.... per dare la mazzata finale a Nvidia...
P.s. Paolo riesci mica a fare un confronto da x800Platinum e 6800 Ultra Extreme Overcloccata?
Cosi' vediamo quale e' ATTUALMENTE la migliore :)
ghghgh sono pazzo :p ma mi ci sballo :yeah:
MEDi0MAN
04-05-2004, 22:48
Pure io ho notato la mancanza del capitolo "overclock" mentre nella rece della GeForce 6800 Ultra il tema era stato trattato raggiungendo 450/1.140Mhz che guardacaso :rolleyes: sono le frequenze della 6800 Ultra Extreme:D :rolleyes: ....
come mai per Ati il capitolo è saltato?:(
Byz
JoeLatino
04-05-2004, 22:51
scusa potresti fare anche un test opengl x grafica 3d? grazie
Originariamente inviato da MEDi0MAN
pure io ho notato la mancanza del capitolo "overclock" mentre nella rece della GeForce 6800 Ultra il tema era stato trattato.... come mai per Ati il capito è saltato?:(
Le schede sono bloccate. Abbiamo provato con moltissimi programmi: Powerstrip, rivaturner, ATitool, ecc... Niente di niente. Nella migliore delle ipotesi si bloccava il sistema anche se la downclocchi di 1 Mhz.
Bisogna attendere che escano le versioni aggiornate di questi software.
DeMonViTo
04-05-2004, 22:58
E con l'overdrive? avete provato? :rolleyes:
MEDi0MAN
04-05-2004, 23:04
Originariamente inviato da Vifani
Abbiamo provato con moltissimi programmi: Powerstrip, rivaturner, ATitool, ecc... Niente di niente. Nella migliore delle ipotesi si bloccava il sistema anche se la downclocchi di 1 Mhz.
Bisogna attendere che escano le versioni aggiornate di questi software.
quindi è solo questione di tempo....:D
^TiGeRShArK^
04-05-2004, 23:13
semplicemente incredibile!
prestazioni migliori di una skeda con 60 (SESSANTA:eek: ) milioni di transistor in più, soprattutto con i filtri...
x nn parlare del Temporal anti aliasing ke permetterà di distanziare ancora + nettamente nv40 in quanto con le prestazioni di un 2x sarà possibile ottenere la qualità di un 4x o di un 6x!!!!
x quanto riguarda l'antialiasing, quindi nvidia, nonostante la copia pedissequa delle tecnologie di ati, è ancora indietro.
infine, altro neo di nv40, è l'elevata dissipazione.
Il problema a mio parere non risiede nel wattaggio dell'alimentatore, perchè ovviamente in questo caso basterebbe un normale 350w, ma il nodo gordiano è l'amperaggio.
Infatti x questo motivo è stato necessario l'uso di due molex, in quanto con un rail solo non sarebe stato possibile sopperire al fabbisogno di ampere di questo mostriciattolo.
X quanto detto sopra sono completamente d'accordo con l'analisi fatta da fek e qdi è da consigliare assolutamente r420 x gli utenti, mentre è meglio lasciare nv40 agli sviluppatori (in particolar modo la versione extreme ke si vociferava fosse stata prodotta in soli 200 pezzi.....)
A questo risultati si è giunti grazie principalmente a due elementi: le memorie GDDR3, capaci di operare con un consumo più ridotto rispetto a quelle DDR e GDDR2, e i vantaggi del processo produttivo 0.13 micron Low-K utilizzato per il chip R420.
Altro che "qualcuno" che aveva usato lo 0,13 solo per guadagnare qualche Mhz in + fregandosene come al solito di consumi rumorosità etx etx.
In sintesi: R420 migliore per l'utente finale, NV40 migliore per gli sviluppatori.
Quando i ps3 verranno usati dagli sviluppatori nv40 sarà già vecchio con tutti i suoi difetti e sarà ormai lento per i tempi.
La scheda di ATI fra qualche anno anche se non + al top rimmarrà sempre un hardware pensato per i gamers e senza compromessi come è stata la 9700 di cui raddoppia le prestazioni.
JoeLatino
04-05-2004, 23:41
dunque ricapitolando:
Ati + veloce ma niente di particolare per quanto riguarda l'hardware
Nvidia e' piu' programmabile,puo' avere un futuro migliore (visto che ha delle funzioni in piu') ma sopratutto per chi come me usa anche appz grafiche,da quello che ho capito ha dei drivers opengl nettamente migliori,senza contare che di serie dovrebbe avere tv in*out
per contro maggiori consumi e richieste di configurazione (quindi anche maggiori costi)
giusto? o mi sfugge ancora qualcosa?
Originariamente inviato da DeMonViTo
E con l'overdrive? avete provato? :rolleyes:
L'overdrive non era presente nei driver da noi utilizzati. Vi ricordo che stiamo parlando di una versione BETA dei Catalyst.
DeMonViTo
04-05-2004, 23:53
Originariamente inviato da Vifani
L'overdrive non era presente nei driver da noi utilizzati. Vi ricordo che stiamo parlando di una versione BETA dei Catalyst.
Bhe' via non male.. ci sara' un motivo se ati non ha voluto scoprire questa carta...
VERO? ;)
OverClocK79®
05-05-2004, 00:01
Originariamente inviato da Vifani
R420 fissa il dissipatore sulla GPU attraverso tre viti disposte (ad occhio e croce) allo stesso modo rispetto alla 9800XT. Non sono presenti invece su R420 i fori dedicati al fissaggio del dissipatore di rame delle memorie. Esistono altri fori vuoti, ma non mi sembrano nella stessa posizione.
tnx delle info meglio così
Sulla destra si nota un connettore di colore giallo, simile ai connettori audio integrati sul PCB delle schede madri. ATI ci ha confermato che è un connettore che è stato montato solo sulle reference board per uso interno e che non sarà presente nelle schede destinate alla produzione
questo connettore si pensava fosse riferito alla funzione vivo per qlkosa di relativo all'audio o altro
meglio così un filo in meno nel case che gira :D
BYEZZZZZZZZZZZZZ
P.S. nella pagine configurazione di prova avete scritto che la X800XT ha il core a 525 credo sia un errore visto che dalle altre parti scrivete che è a 520 :)
grande recensione.. come sempre
...la mia idea sarebbe di prendere la 6800GT, migliore come rapporto prezzo/prestazioni.
TaK
Complimenti x la rece,gran lavoro!
Una sola critica,la config di prova,in particolar modo la cpu.
Credo sia un po' absoleta ormai.
BYe
Originariamente inviato da Paolo Corsini
problemi di tempo; se leggi il mio blog di questo tardo pomeriggio capisci in che condizioni è nato questo articolo.
Poco male, comunque: per scrupolo rifaremo nei prox giorni tutti i test su piattaforma FX53.
In ogni caso c'è poco di cpu limited, anche con questi mostri di schede video, a 1600x1200 FSAA 4x anis 8x
I test sono totalmente falsati per via della CPU. I test fatti con un ben più potente A64 3400+ su altri siti mostrano una musica ben diversa, dove le X800 prendono il sopravvento.
Imho è tutto da rifare.
Paolo Corsini
05-05-2004, 08:33
Originariamente inviato da devis
I test sono totalmente falsati per via della CPU. I test fatti con un ben più potente A64 3400+ su altri siti mostrano una musica ben diversa, dove le X800 prendono il sopravvento.
Imho è tutto da rifare.
Ti sbagli, period. A 1600x1200 AA 4x anis 8x la stragrande maggioranza dei test recenti non è cpu limited. Poi certo, se il metro di paragone è Quake 3 sto zitto perché quella è l'eccezione.
Comunque non è un problema: come ho già scritto prima i test verranno rieseguiti nei prossimi giorni su piattaforma FX53.
Se vuoi un consiglio, non confrontare test fatti da diverse fonti: con le schede video ci sono troppi parametri differenti che possono influire sul risultato finale. Con quetso non voglio dire che i nostri sono giusti, gli altri completamente sbagliati, ma che buona parte dei parametri non sono sotto controllo e chiaramente visibili se non dall'autore dello specifico articolo, e di certo non da chi lo legge da fuori.
melomanu
05-05-2004, 08:49
Originariamente inviato da DioBrando
Esaustiva recensione come sempre ;)
Anche se dai risultati visti c'è una competizione abb stretta, tanti dei numeri proposti vanno a favore delle soluzioni Ati e il divario è davvero evidente con il filtro AA.
IMHO Nvidia n ne esce con le ossa rotte però per essere stata quella che doveva far vedere qlc in + del concorrente forse ha un pò "mancato".
L'architettura ripensata da cima a fondo è stata un strada coraggiosa, ma se Ati ha potuto ottenere queste prestazioni "semplicemente" migliorando un'architettura che già aveva piacevolmente colpito è il segno che in questi ultimi due anni lo staff canadese dai progettisti al marketing ha davvero lavorato bene.
E si dovrebbe prendere spunto da questo successo per far capire cosa si intenda per ottimizzazioni
Il tutto poi diminuendo i consumi rispetto all'ex modello di punta 9800Xt incredibile :eek:
Un'ultima considerazione.
Vero è che le schede Ati e Nvidia n mostrano superiorità schiaccianti in un quadro complessivo, ma c'è anche da chiedersi quanti saranno disposti ad upgradare proprio sistema e a spendere quindi altri soldi per cambiare l'alimentatore.
E se effettivamente ATI stà pensando seriamente di introdurre l'architettura R5xx ( saltando la 480) in tempi n remoti, non dico possa essere un colpo da KO, ma sicuramente una bella mazzata nei confronti di Nvidia.
uellà... injegner :D
cmq, concordo con quaesta linea di pensiero...
Temo che ATI abbia sfornato questa scheda per far capire che per ora, il dominio è suo...per ribadirlo alla concorrenza...
Per questo, niente shader 3.0 et similia, non xè non ne sia capace ( credo ), ma xè era sufficiente assestare un bel colpo in termini di prestazioni e di marketing ( credo sia giusto notare che il consumare di meno, l'occupare meno spazio, e lo scaldare di meno, non sono qualità da valutare marginalmente..), per poi , in un arco magari di 4 / 6 mesi, piazzare la scheda tecnologicamente-mostro, con tutte le caratteristiche avanzate che il futuro mercato game rikiederà...
Il tempo ci darà le risposte cercate...
Detto questo, mi godo la mia bella 8500 :sofico: :sofico:
halduemilauno
05-05-2004, 09:07
Originariamente inviato da pg08x
Quando i ps3 verranno usati dagli sviluppatori nv40 sarà già vecchio con tutti i suoi difetti e sarà ormai lento per i tempi.
La scheda di ATI fra qualche anno anche se non + al top rimmarrà sempre un hardware pensato per i gamers e senza compromessi come è stata la 9700 di cui raddoppia le prestazioni.
ma tu ti rendi conto di quello che scrivi? credo proprio di no.
Originariamente inviato da Paolo Corsini
Ti sbagli, period. A 1600x1200 AA 4x anis 8x la stragrande maggioranza dei test recenti non è cpu limited. Poi certo, se il metro di paragone è Quake 3 sto zitto perché quella è l'eccezione.
Comunque non è un problema: come ho già scritto prima i test verranno rieseguiti nei prossimi giorni su piattaforma FX53.
Vedremo i risultati che verranno fuori con l'FX 53..;)
(IH)Patriota
05-05-2004, 09:34
Originariamente inviato da halduemilauno
ma tu ti rendi conto di quello che scrivi? credo proprio di no.
Sul discorso dello sfruttamento dei VS e PS 3.0 non credo si possa dargli torto , le features implementate nel settembre 2002 dalla 9700PRO vengono sfruttate in modo importante solo da motori che hanno visto la luce recentemente , l'esempio di far cry è abbastanza evidente.
Di fatto con i filtri attivati la 9700PRO non e' in grado di far girare quel gioco in modo sempre fluido senza muoversi troppo dai 1024*768 , per giocarci decentemente a risoluzioni elevate magari con filtri bisogna spostarsi su 6800Ultra o X800XT.
In questo caso non credo si possa negare che la 9700PRO ha implementato nuove tecnologie ma che quando queste sono mature per essere applicate nei giochi la potenza di calcolo rischia di venire meno.
Le differenze cmq tra 6800ultra e X800XT sono comunque cosi' sottili che quando la 6800 sara' obsoleta e lenta per i PS&VS 3.0 lo sara0 certamente anche la X800XT.
Di fatto quello che fa la differenza per ora a mio avviso sara' il prezzo , la reperibilità , il rumore , il calore , il consumo ... insomma tutte cose che non sono direttamente legate alle prestazioni dei rispettivi chip grafici , una vince con i filtri , l' altra vince in Open Gl ... insomma sfida all' ultimo sangue.
Saluti
Pat
halduemilauno
05-05-2004, 10:04
Originariamente inviato da (IH)Patriota
Sul discorso dello sfruttamento dei VS e PS 3.0 non credo si possa dargli torto , le features implementate nel settembre 2002 dalla 9700PRO vengono sfruttate in modo importante solo da motori che hanno visto la luce recentemente , l'esempio di far cry è abbastanza evidente.
Di fatto con i filtri attivati la 9700PRO non e' in grado di far girare quel gioco in modo sempre fluido senza muoversi troppo dai 1024*768 , per giocarci decentemente a risoluzioni elevate magari con filtri bisogna spostarsi su 6800Ultra o X800XT.
In questo caso non credo si possa negare che la 9700PRO ha implementato nuove tecnologie ma che quando queste sono mature per essere applicate nei giochi la potenza di calcolo rischia di venire meno.
Le differenze cmq tra 6800ultra e X800XT sono comunque cosi' sottili che quando la 6800 sara' obsoleta e lenta per i PS&VS 3.0 lo sara0 certamente anche la X800XT.
Di fatto quello che fa la differenza per ora a mio avviso sara' il prezzo , la reperibilità , il rumore , il calore , il consumo ... insomma tutte cose che non sono direttamente legate alle prestazioni dei rispettivi chip grafici , una vince con i filtri , l' altra vince in Open Gl ... insomma sfida all' ultimo sangue.
Saluti
Pat
ma tu stai dicendo altro con le quali posso essere d'accordo. quindi che centra? se tu dici che l'NV40 equivale alla r420 allora fra qualche anno saranno valide tutte e due. lui invece dice.
"Quando i ps3 verranno usati dagli sviluppatori nv40 sarà già vecchio con tutti i suoi difetti e sarà ormai lento per i tempi.
La scheda di ATI fra qualche anno anche se non + al top rimmarrà sempre un hardware pensato per i gamers e senza compromessi come è stata la 9700 di cui raddoppia le prestazioni."
capito.
ciao.
;)
Sarà interessante vedere tra una decina di giorni questa nuova scheda muovere HL2 all E3 (è già prevista una bella presentazione in grande stile), così vedremo cosa saranno realmente in grado di fare queste schede nei mesi venturi....
TyGerONE
05-05-2004, 10:26
R420 e NV40 (parlo di prestazioni pure) sono testa a testa, a volte predomina una, a volte l'altra. Nelle scorse settimane qualcuno postava che R420 avrebbe surclassato/distanziato NV40. Cosi non è stato
DioBrando
05-05-2004, 11:35
Originariamente inviato da melomanu
uellà... injegner :D
cmq, concordo con quaesta linea di pensiero...
Temo che ATI abbia sfornato questa scheda per far capire che per ora, il dominio è suo...per ribadirlo alla concorrenza...
Per questo, niente shader 3.0 et similia, non xè non ne sia capace ( credo ), ma xè era sufficiente assestare un bel colpo in termini di prestazioni e di marketing ( credo sia giusto notare che il consumare di meno, l'occupare meno spazio, e lo scaldare di meno, non sono qualità da valutare marginalmente..), per poi , in un arco magari di 4 / 6 mesi, piazzare la scheda tecnologicamente-mostro, con tutte le caratteristiche avanzate che il futuro mercato game rikiederà...
Il tempo ci darà le risposte cercate...
Detto questo, mi godo la mia bella 8500 :sofico: :sofico:
Esatto...
Potendo lavorare su un'ottima base di partenza è riuscita ad ottenere prestazioni all'avanguardia senza stravolgere troppo il panorama con nuove tecniche di visualizzazione.
Il Pixel Shader 3.0 ora è + un'idea che una realtà sfruttata dalle sw houses ( intendo la maggiorparte di queste ovviamente).
Solo che nvidia partendo da una posizione svantaggiata doveva far vedere qlc di nuovo, mentre ATI si è potuta sedere di + forse, con il risultato però di calarsi meglio nella realtà attuale.
"Se quasi tutti i giochi n supportano il 3.0, per quale motivo dovremmo implementarlo adesso?"...questo credo sia stato il loro messaggio.
aloha injegner :D
P.S.: quando mi laureo e per fortuna n in questo corso ( odio la mate :p), sgrat sgrat@@, ti invito alla festa perchè sei simpatico :D
(IH)Patriota
05-05-2004, 11:45
Originariamente inviato da TyGerONE
R420 e NV40 (parlo di prestazioni pure) sono testa a testa, a volte predomina una, a volte l'altra. Nelle scorse settimane qualcuno postava che R420 avrebbe surclassato/distanziato NV40. Cosi non è stato
A me è parso di leggere più volte invece che mai R420 avrebbe potuto raggiungere con 60 milioni di transistor in meno le prestazioni di NV40 ;)
Di fatto siamo li , una vince con filtri l' altra vince in open GL. Come ho gia' detto secondo me queste schede se la giocheranno tutta su prezzo , disponibilità , rumore , consumo , calore , overcloccabilità , alimentazione etc..
Unica cosa un po' strana è che proprio in coincidenza con l' uscita della X800XT sia uscita la versione ultra extreme che ha ridotto il gap di NV40 nei confronti di R420 nei test con filtri attivati al massimo , ultra extreme che con ogni probabilita' costera' il 20% in piu' rispetto a 6800ultra ed X800XT.. e montera' un sistema di dissipazione probabilmente di dimensioni piu' generose rispetto alla versione slim della 6800ultra.
Interessante il discorso vociferato che ati stia riscrivendo ex novo tutti i driver GL , dove il distacco dalla concorrente è netto.. fosse cosi' non è escluso che nel tempo la casa candese riesca a recuperare qualcosa alla rivale , ma ora un discorso simile non puo' che essere definito prematuro.
Credo che in una situazione simile sia i fan dell' una che dell' altra casa non possano lamentarsi , certamente una lotta cosi' serrata è tutta a nostro vantaggio visto che cmq una scheda high end costa sempre 500€ perlomeno non ci dobbiamo accontentare di incrementi prestazionali nell' ordine del 15/20 ma ad ogni generazione abbiamo il doppio delle rpestazioni rispetto alla precedente.
BYez
PAt
Bell'articolo come sempre ;)
Cavolo l'r420 è proprio una bella bestia...ed in più non necessita di 460w di alimentatore (e di un sistema di dissipazione del calore oneroso :)).
A meno che non ci siano grosse novità da parte di nvidia...mi sa che torno ad ATi....appena i prezzi saranno un pò più "tranqui"...
ciauz!
sbav l'nv40 mi fa veramente gola... anche se il prezzo è alto potrei fare un'eccezzione.... :D l'r420 non mi convince, basta vedere i risultati a far cry...
Originariamente inviato da KuWa
sbav l'nv40 mi fa veramente gola... anche se il prezzo è alto potrei fare un'eccezzione.... :D l'r420 non mi convince, basta vedere i risultati a far cry...
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif
hai postato l'unico test in cui vince x800 dai almeno nn postare cavolate posta dati reali se vuoi sostenere un tipo di scheda. I test forniti da questo sito parlano chiaro... in alcuni campi nv40 prevale, in altri r420. Per ora siamo lì... il problema restano i prezzi ma la GT nvidia a mio parere ha il miglior rapporto prezzo/prestazioni (ovviamente il prezzo è da confermare quindi anche questo è incerto) se si trattasse del prezzo annunciato allora sarebbe la mia scelta futura. pg08x tu sempre con la sfera di cristallo in mano a prevedere il futuro eh? :D
OTTIMA RECENSIONE !!!!!!1
bravissimi come sempre i ragazzi e non deludono mai, ora però per completare l'opera perchè non mettete a disposizione di tutti quel bellissimo software per attivare il temporal AA?
che ne dite ?
Originariamente inviato da devis
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif
http://www.hwupgrade.it/articoli/1013/fc_8.gif
beh tu posti un benchmark e io te ne posto un altro
sanitarium
05-05-2004, 13:32
errore
su 60 grafici, nvidia è davanti ad ati 35 volte!
per adesso è meglio nvidia poi si vedrà!
l'unico difetto è che è ingombrante e assorbe molto se no sarebbe molto meglio di ati invece è un "po" meglio!:)
plunderstorm
05-05-2004, 13:34
rivoglio una matrox ke spacca di brutto ^_^
Originariamente inviato da KuWa
http://www.hwupgrade.it/articoli/1013/fc_8.gif
beh tu posti un benchmark e io te ne posto un altro
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2120.png
ma è inutile postare a ripetizione!
nvidia batte ati 35 a 26!basta!
http://www.techreport.com/reviews/2004q2/radeon-x800/farcry.gif
http://www.nvnews.net/images/news/200405/comparison.png
anche nel tuo grafico! purtroppo per te nvidia batte ati 26 a 24!
ritenta sarai piu fortunato:sofico: :sofico:
Chi prende una scheda del genere non è certo per giocarci con i tecnicamente preistorici QIII, RTCW e compagnia bella(tantovale prendersi un R3X0 o NV35, che sono già grasso che colano), bensì a game recenti come Far Cry, Painkiller ecc.
Inoltre non capisco come si faccia ancora a testare QIII nel 2004 :confused:
(IH)Patriota
05-05-2004, 14:07
Prima di parlare a vanvera sarebbe utile magari leggere bene la recensione , capire magari cosa c'è nei grafici e non solo guardare cosa sta scritto a fianco della barretta piu' lunga.
Far Cry.
La 6800 è davanti solo con shader FP16 , con FP32 resta sempre inesorabilmente dietro.
Nell' articolo viene evidenziata chiaramente come la qualità a 16bit porti ad un evidente degrado qualitativo mentre tra precisione a 24bit (X800XT) e 32bit (6800Ultra) la differenza è cosi' sottile che quasi non si riesce a distinguerne la differenza.
Con una scheda da 500€ credo che sceglierei per ogni gioco cosi' come sto facendo ora una profondita' colore di 32bit rispetto ai 16.Certo ATI furbescamente lavora con una via di mezzo a 24bit che permette di mantenere prestazioni grafiche ottime senza decadimento delle prestazioni,approccio molto pratico ma anche molto efficace a quanto pare.
Contare i grafici non so a quanto possa servire visto e considerato che è evidente oltre alla risoluzione di 1600x1200 con filtri entrambe le schede sono cpu limited...
Mi chiedo quindi , qualora la CPU non tarpasse le ali anche a risoluzioni inferiori e considerando che (escluso il GL) in caso di bench non cpu limited con filtri l' X800XT è quasi sempre davanti siamo proprio sicuri che con un FX53 o chissa' che altro , ATI non sara' ugualmente veloce ? (tra l' altro se non sbaglio piu' volt Corsini e Vifani hanno evidenziato la miglior capacità della 6800 a produrre framerate leggermente piu' elevati nei bench in cui sicuramente si era CPU limited... a buon intenditor..)
Spero di non sentire poi le solite panzane sul' uso o meno dei filtri , chi compra schede del genere vuole framerate e qualita' grafica elevate (quindi AA ed ANISO se possibile al massimo) di fare 8000fps a 1024x768 senza filtri mi sembra evidente che non possa essere di grande interesse per chi intende mettersi nel case dei gioiellini come questi.
Fate poi un calcolo delle differenze in % tra una scheda e l' altra , una differenza di 2,5 fps su 300 forse non è la stessa cosa di 2,5fps su 30 ... :rolleyes:
Feanortg
05-05-2004, 14:14
Evidentemente la gente perde tempo a guardare grafici senza leggere il resto... Pensano agli shader 3.0 Vs 2.0 quando di default la Nvidia ha una qualità FP16 in farcry per far sembrare piu' veloci le schede fregandosene della qualità.... Guardiamo il presente!
HyperOverclock
05-05-2004, 14:34
Di una cosa sono sicuro.
La geforce 6800 GT è la degna erede della favolosa geforce 4 TI 4200!
Secondo me la scelta migliore, e credo si overclocckerà alla grande per arrivare alle frequenze della ultra.
DevilMalak
05-05-2004, 14:40
Originariamente inviato da HyperOverclock
Di una cosa sono sicuro.
La geforce 6800 GT è la degna erede della favolosa geforce 4 TI 4200!
Secondo me la scelta migliore, e credo si overclocckerà alla grande per arrivare alle frequenze della ultra.
la 6800 GT e la X800PRO mi sembrano 2 buonissime schede... ora resta da vedere i costi... nonostante le 12 pipeline della x800pro è simile alla 6800GT come prestazioni per cui aspetterò di vedere i prezzi e deciderò :D
Paolo Corsini
05-05-2004, 14:51
Originariamente inviato da devis
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif
Ciao,
ti avevo detto in precedenza che confrontare i risultati di review fatte da autori diversi è molto errato.
Sono andato a verificare su Firingsquad; l'articolo dal quale hai preso quel bench è questo:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/
In quell'articolo, nella pagina di metodologia di test:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page4.asp
non è indicato Far Cry. Ho controllato per scrupolo se in altro articolo ne hanno parlato:
http://www.firingsquad.com/hardware/ati_radeon_x800/
ma niente, come tu stesso puoi vedere:
http://www.firingsquad.com/hardware/ati_radeon_x800/page10.asp
Non sai che mappa stanno utilizzando, quindi non sai se prendendo a riferimento la nostra recensione stai comparando mele e pere, o cavoli e rape. Ma metti quel bench, cercando di convincere che i nostri risultati siano sbagliati in quanto cpu limited.
Per giunta in altra risposta metti un risultato di altro sito, Anandtech, fatto a risoluzione differente dalla nostra e dove comunque non viene specificato con precisione quale mappa sia stata utilizzata:
http://www.anandtech.com/video/showdoc.html?i=2044&p=8
http://www.anandtech.com/video/showdoc.html?i=2044&p=11
Contento tu, contenti tutti. A risposta del tuo primo post ho chiesto solo pazienza, perché avremo test anche su piattaforma FX53. Poi se vuoi convincerti di aver ragione a priori liberissimo di farlo, non ho nessun motivo e nessuna voglia di farti cambiare idea.
Melandir
05-05-2004, 15:01
Quote:
___________________________________________________________
Commento # 131 di : HyperOverclock
Di una cosa sono sicuro.
La geforce 6800 GT è la degna erede della favolosa geforce 4 TI 4200!
Secondo me la scelta migliore, e credo si overclocckerà alla grande per arrivare alle frequenze della ultra
___________________________________________________________
Te lo quoto in pieno la vera scheda vincitrice e' la 6800GT per rapporto prezzo/prestazioni, dato che dai prezzi annunciati (da verificare in negozio) sembra + economica della X800PRO di circa 50-100 eur e anche senza overclock va molto ma molto bene, dopo tutto 16 pipeline contro 12 si fa sentire quasi sempre
Credo di aver trovato la mia scheda per upgradare la mia GF4 4200
Se le premesse sono queste di 6800GT ne venderanno a camionate
I mostri sacri li lascio a chi ha + soldini di me
Paolo Corsini
05-05-2004, 15:05
Originariamente inviato da Melandir
Quote:
___________________________________________________________
Commento # 131 di : HyperOverclock
Di una cosa sono sicuro.
La geforce 6800 GT è la degna erede della favolosa geforce 4 TI 4200!
Secondo me la scelta migliore, e credo si overclocckerà alla grande per arrivare alle frequenze della ultra
___________________________________________________________
Te lo quoto in pieno la vera scheda vincitrice e' la 6800GT per rapporto prezzo/prestazioni, dato che dai prezzi annunciati (da verificare in negozio) sembra + economica della X800PRO di circa 50-100 eur e anche senza overclock va molto ma molto bene, dopo tutto 16 pipeline contro 12 si fa sentire quasi sempre
Credo di aver trovato la mia scheda per upgradare la mia GF4 4200
Se le premesse sono queste di 6800GT ne venderanno a camionate
I mostri sacri li lascio a chi ha + soldini di me
I prezzi annunciati da ATI e NVIDIA per GeForce 6800 GT e Radeon X800 PRO sono identici: 399 dollari per entrambe le schede. Non penso vi saranno sostanziali differenze a regime.
Non vi fate trarre in inganno dalle notizie che indicano 499 dollari il prezzo della X800 PRO, apparse in questi giorni: si tratta di cifre chieste a schede in prenotazione, che è ovvio sono sempre superiori a quelle che ci saranno a regime una volta che le schede arriveranno in volumi
DevilMalak
05-05-2004, 15:05
quanto costerà circa la 6800GT ?
ghiandolo
05-05-2004, 15:08
Sicuramente la migliore recensione in rete ... ottimo lavoro! e' valsa la pena aspettare!!
Per tutti i polemici, che devono afferamre la propria personalita' sull'interpretazione dei risultati.. dico una cosa: SIETE COME CHI TIFA ROSSI O BIAGGI!!
A UNO DEVONO FARE I CIRCUITI SU MISURA (YAMAHA) ALL'ALTRO DANNO SEMPRE UNA MOTO (HONDA) CON DIFETTI!
BASTA BASTA BASTA ... ANDATE PER RAGAZZE O DONNE! OGNI TANTO FATE UNA PAUSA... E USCITE..
Si ma datti 'na calmata pure te, ghiandolo =)
399 dollari ... uhm ... e in Italia quanto saranno, 450 euro ? (e pensare l'euro e' piu' forte tsk ...)
Paolo, se vai a vedere tutte le altre recensioni fatte con le CPU più potenti,constaterai che in Far Cry le ATI hanno la supremazia, sia in FP16 che FP32. Con questo non voglio certo sminuire il tuo lavoro, solo che dei mostri del genere dovrebbero essere testate su macchine all'altezza della situazione proprio eliminare dei possibili colli di bottiglia che possono falsare i risultati.
http://www.nvnews.net/images/news/200405/comparison.png
BTW, aspetterò con ansia i test con la FX53.
Saluti
Paolo Corsini
05-05-2004, 15:22
Originariamente inviato da devis
Paolo, se vai a vedere tutte le altre recensioni fatte con le CPU più potenti,constaterai che in Far Cry le ATI hanno la supremazia, sia in FP16 che FP32. Con questo non voglio certo sminuire il tuo lavoro, solo che dei mostri del genere dovrebbero essere testate su macchine all'altezza della situazione proprio eliminare dei possibili colli di bottiglia che possono falsare i risultati.
http://www.nvnews.net/images/news/200405/comparison.png
BTW, aspetto con ansia i test con la FX53.
Saluti
Quella tabella è senza senso: confrontano il titolo, senza neppure verificare quale mappa sia stata utilizzata.
Giusto per confermarti quanto sia sbagliato questo modo di fare, guardati i nostri risultati, e solo i nostri, con Unreal Tournament 2004. Stessi settaggi e risoluzione, due mappe diverse. Stessa piattaforma di test, stesso recensore.
http://www.hwupgrade.it/articoli/1013/ut_asbestos_4.gif
http://www.hwupgrade.it/articoli/1013/ut_antalus_4.gif
Ci sono un ben po' di differenze relative tra le schede, non trovi?
Questo nuovamente per farti capire che confrontare il lavoro fatto da persone diverse, su sistemi differenti, è una emerita fesseria, che non serve ad altro se non a generare flames e a far perdere di vista il vero quadro complessivo all'interno di un'analisi.
noto ocn piacere che, se pur in qualke bench la 6800 ultra extreme, superi la bambina ati,in tutte le evoluzioni di core ati, r3x + alte risoluzioni + filtri e FSAA sono un connubbio perfetto nel quale la "bimba" riesce sempre e sottolineo sempre a battere nvidia...
infatti non capisco uno di voi ke ha scritto: "visto ke preferisco risoluzioni alte e filtraggi sceglierò nvidia...." bhuu??? :confused:
cmq BRAVI ottima rece!
cmq complimenti a tutte e due le case, ottimi prodotti, secondo me cmq nvidia cerca sempre l'overclock più estremo x poter salire di qualke punticello... :mc:
ciao raga
Originariamente inviato da ghiandolo
BASTA BASTA BASTA ... ANDATE PER RAGAZZE O DONNE! OGNI TANTO FATE UNA PAUSA... E USCITE..
Comincia prima te che mi sa che ne hai + bisogno :rolleyes:
Paolo Corsini
05-05-2004, 15:34
Originariamente inviato da devis
Paolo, se vai a vedere tutte le altre recensioni fatte con le CPU più potenti,constaterai che in Far Cry le ATI hanno la supremazia, sia in FP16 che FP32.
Questa tua mi ha incuriosito, quindi sono andato a fare un po' di "ricerchina". Sono andato a vedere le recensioni dei siti inseriti nel documento che tui hai segnalato
http://www.nvnews.net/images/news/200405/comparison.png
e questi siti, quando indicato, utilizzano mappe diverse con Far Cry. Quando indicato, perché in alcuni casi manca il riferimento.
Differenze tra FP16 e FP32 con Far Cry:
http://www.extremetech.com/article2/0,1558,1583557,00.asp
non vengono evidenziate nei bench testing per FP16 e FP32
http://www.tomshardware.com/graphic/20040504/ati-x800-30.html
non vengono evidenziate nei bench testing per FP16 e FP32; menzione nella parte di qualità d'immagine, ma niente dati
http://www.anandtech.com/video/showdoc.html?i=2044&p=11
non vengono evidenziate nei bench testing per FP16 e FP32
http://www.firingsquad.com/hardware/ati_radeon_x800/page23.asp
non vengono evidenziate nei bench testing per FP16 e FP32
http://www.hothardware.com/viewarticle.cfm?articleid=517
non vengono evidenziate nei bench testing per FP16 e FP32
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=9
non vengono evidenziate nei bench testing per FP16 e FP32
http://www.gamers-depot.com/hardware/video_cards/ati/x800/004.htm
non vengono evidenziate nei bench testing per FP16 e FP32
Dato che sei una persona attenta ai particolari, avrai anche tu notato quanto ho visto anche io aprendo qualche pagina di explorer e vedendo i link che qui sopra ho riportato. Parli di differenze tra FP16 e FP32: peccato che nessuno dei siti da te indicati abbia fatto queste analisi.
Originariamente inviato da devis Con questo non voglio certo sminuire il tuo lavoro, solo che dei mostri del genere dovrebbero essere testate su macchine all'altezza della situazione proprio eliminare dei possibili colli di bottiglia che possono falsare i risultati.
E' stato spiegato ben prima del tuo primo post il perché della configurazione di test, ma evidentemente scrivo in un italiano poco chiaro e comprensibile.
Sminuire il lavoro altrui? Scusa, ma allora come commenteresti questo? La risposta libertà d'opinione è corretta, ovviamente, ma non ci si può sempre salvare davanti a questo:
Originariamente inviato da devis
I test sono totalmente falsati per via della CPU. I test fatti con un ben più potente A64 3400+ su altri siti mostrano una musica ben diversa, dove le X800 prendono il sopravvento.
Imho è tutto da rifare.
Originariamente inviato da Paolo Corsini
problemi di tempo; se leggi il mio blog di questo tardo pomeriggio capisci in che condizioni è nato questo articolo.
Poco male, comunque: per scrupolo rifaremo nei prox giorni tutti i test su piattaforma FX53.
In ogni caso c'è poco di cpu limited, anche con questi mostri di schede video, a 1600x1200 FSAA 4x anis 8x
Questa è un' ottima notizia, in molti test mi è sembrato che le schede non fossero sufficientemente saturate ;)
Originariamente inviato da devis
I test sono totalmente falsati per via della CPU. I test fatti con un ben più potente A64 3400+ su altri siti mostrano una musica ben diversa, dove le X800 prendono il sopravvento.
Imho è tutto da rifare.
Scusa? falsati??
Ma hai idea di cosa significhi falsati??
Originariamente inviato da pandyno
Scusa? falsati??
Ma hai idea di cosa significhi falsati??
quoto perfettamente!
cmq non è la prima volta ke "noto" sul forum un "Estrema" attenzione a quello ke uno "fa", "scrive" ... "respira"... "sbaglia", insomma questi ragazzi si sono fatti il c******o per noi un po' di gratitudine, poi indipendentemente da tutto il discorso, c'è una "Extreme Ultra 1000 x8000 Deluxe" attenzione su "tutto" sempre pronti ad obbiettare a ridire.... calma raga ;) tranquillità!!!
ciao raga :D ;)
"infatti non capisco uno di voi ke ha scritto: "visto ke preferisco risoluzioni alte e filtraggi sceglierò nvidia...." bhuu???"
chi intendi tu non ha scritto così, ha scritto che predilige alte risoluzioni ai filtri attivati, non entrambe le cose... ;)
Originariamente inviato da Paolo Corsini
Questa tua mi ha incuriosito, quindi sono andato a fare un po' di "ricerchina". Sono andato a vedere le recensioni dei siti inseriti nel documento che tui hai segnalato
Dato che sei una persona attenta ai particolari, avrai anche tu notato quanto ho visto anche io aprendo qualche pagina di explorer e vedendo i link che qui sopra ho riportato. Parli di differenze tra FP16 e FP32: peccato che nessuno dei siti da te indicati abbia fatto queste analisi.
Dato che l'FP16 è la modalità predefinita sia sui 60.72 che 61.11, mi pareva comprensibile che quanto ho affermato sia una logica conseguenza dei quei test, dal momento che l'FP32 è giocoforza più lento dell'FP16.
E' stato spiegato ben prima del tuo primo post il perché della configurazione di test, ma evidentemente scrivo in un italiano poco chiaro e comprensibile.
Sminuire il lavoro altrui? Scusa, ma allora come commenteresti questo? La risposta libertà d'opinione è corretta, ovviamente, ma non ci si può sempre salvare davanti a questo:
Ho scritto che, imho, i test sono da rifare perchè sono falsati (oppure non completamente veritieri sulla reale capacità delle schede, ditela come volete) da una configurazione palesamente CPU limited (per i motivi che hai citato) per delle schede del genere. Personalmente avrei preferito che la recensione fosse uscita con un paio di gg di ritardo, per consentire i test nelle migliori condizioni possibili, piuttosto che delle prove fatte in fretta su un sistema gambizzato, per dare modo di essere letta all'esatto scadere dell'NDA. Mi scuso se ho urtato la tua sensibilità e ne sei rimasto offeso.
Originariamente inviato da Mainas
"infatti non capisco uno di voi ke ha scritto: "visto ke preferisco risoluzioni alte e filtraggi sceglierò nvidia...." bhuu???"
chi intendi tu non ha scritto così, ha scritto che predilige alte risoluzioni ai filtri attivati, non entrambe le cose... ;)
ok, e non è lo stesso??? :confused: alte risoluzioni: 1600x1200 ai filtri attivati: FSAA 4x anys 8x giusto???
quindi non è meglio ati???!!! secondo me si rifacendomi anke a quello ke ho scritto cioè tutte le bimbe ati ad alte ris con filtri attivati spazzano via la nvidia su tutti le implementazioni di r3x in su...
ciaoooooooo
falcon.eddie
05-05-2004, 16:56
A parte che ho un nick... :P Ho scritto:
"Prediligendo risoluzioni elevate all'utilizzo di filtri[...]"
Mainas ha capito bene e ti ha spiegato,io parlo itaGLIano! :D
complimenti per l'articolo, davvero dettagliato e stilato con un invidiabile senzo del giudizio, anche nelle conclusioni finali, a mio giudizio largamente condivisibili.
Geniale poi l'idea di mostrare il temporal AA sovrapponendo 2 screen con l'alpha impostato al 50%.
Peccato che l'arcolo sia solo in Italiano, un lavoro, lo dico sinceramente, così ben stilato sarebbe stato sicuramente molto apprezzato in ambito"internazionale".
Dubito che svedesi, tedeschi, francesi e chi + ne ha + ne metta possano contare su un sito madrelingua che abbia saputo sintetizzare ed analizzare così approfonditamente e obiettivamente le schede, e sinceramente mi sembra senza esagerare fra i migliori in assoluto anche rispetto a quelli in inglese.
Sarà interessante anche il confronto con cpu + potenti, ma nulla toglie al davvero ammirevole lavoro svolto sia in questa che nella precedente recensione.
Non che gliene possa fregare a nessuno, ma il mio giudizio + che sulla scheda va all'articolo, mi fa sentire fortunato per il fatto che parli italiano, peccato che venga letto solo dalle alpi a pantelleria, escuse poche eccezzioni.
Originariamente inviato da falcon.eddie
A parte che ho un nick... :P Ho scritto:
"Prediligendo risoluzioni elevate all'utilizzo di filtri[...]"
Mainas ha capito bene e ti ha spiegato,io parlo itaGLIano! :D
x il nick, ho letto di fretta i commenti e alla fine dopo averli letti tutti ho scritto il mio e non mi ricordava il tuo nick :p
ah ecco hai scritto "Prediligendo risoluzioni elevate all'utilizzo di filtri[...]" all'utilizzo, non "ai filtri" oppure "e i filtri" all'utilizzo è un'altra cosa, Mainas pure aveva scritto ai filtri e quindi avevo ribadito...
cmq preferisci vVidia??? ma x le alte risoluzioni cmq mi sembra ke abbia risoluzioni più performanti la "bimba", cmq ok ;):D
P.S. intendiamoci, non è per afre polemica!!!!!!!!!!!! era x curiosità... non voglio passare come le persone ke stanno attente a TUTTO!!!!!!! anche le "," come ho scritto su ;)
cmq si l'itaLLiano non è il mio forte :( :cry: :mc: ehehehehehahahahahahahah lo si evince anke dal post qui sopra ....... eheheheh meglio materie tecnike ok??? :D ciauuuuuuuuu
secondo me le schede sono identiche: chi predilige ati ne prende una ati, chi predilige nvidia ne prende una nvidia. ati ha + qui nvidia ha + lì... siamo allo stesso livello all'incirca...ogni scheda ha i suoi punti forti e i suoi punti deboli che sono però compensati dall'altra scheda. Mi fanno solo ridere le uscite come: ATI RICONFERMA LA SUA SUPREMAZIA. oppure OGGI PRENDO NVIDIA PERCHE' A FAR CRY FA DI +. Per me son cavolate. Nessuna delle due schede esce a testa bassa dal test, riescono a tenersi testa a vicenda. Cosa c'è di negativo? niente, solo che si combatteranno sino alla morte per darci schede sempre migliore al fine di prevalere l'una sull'altra.
Originariamente inviato da Black87
secondo me le schede sono identiche: chi predilige ati ne prende una ati, chi predilige nvidia ne prende una nvidia. ati ha + qui nvidia ha + lì... siamo allo stesso livello all'incirca...ogni scheda ha i suoi punti forti e i suoi punti deboli che sono però compensati dall'altra scheda. Mi fanno solo ridere le uscite come: ATI RICONFERMA LA SUA SUPREMAZIA. oppure OGGI PRENDO NVIDIA PERCHE' A FAR CRY FA DI +. Per me son cavolate. Nessuna delle due schede esce a testa bassa dal test, riescono a tenersi testa a vicenda. Cosa c'è di negativo? niente, solo che si combatteranno sino alla morte per darci schede sempre migliore al fine di prevalere l'una sull'altra.
quoto!!!
ma cmq fare gossip sui tests è bello ci si scambiano opinioni interessanti, come la tua ad esempio ;)
e NON come quelle "allora compro questa xkè far cry fa di più"!............. non ho parole eheheh ;) ciauuuuuu
intendiamoci, però... possono essere opinioni "siocche" a mio giudizio, o a nostro se me lo permetti, però, almeno secondo me, tutti hanno diritto di dire e pensare e FARE quello ke credono, se lui la compra xkè a far cry fa di più magari è innamorato di quel gioco e quindi per lui è importante ke QUEL gioco vada da "paura"...
;) cmq ok!
Originariamente inviato da Heretic
intendiamoci, però... possono essere opinioni "siocche" a mio giudizio, o a nostro se me lo permetti, però, almeno secondo me, tutti hanno diritto di dire e pensare e FARE quello ke credono, se lui la compra xkè a far cry fa di più magari è innamorato di quel gioco e quindi per lui è importante ke QUEL gioco vada da "paura"...
;) cmq ok!
era il 100 esimo!!!!!!!!!!!:D
scusate:(
DeMonViTo
05-05-2004, 18:09
oddio povero Paolo che e' dovuto andare per mezza internet a guardare quelle brutte recensioni degli altri....
PAOLO RESTA QUI CON NOI :p
Cmq anche io ho girato molto in internet e questa e' stata la recensione che ho preferito... molto tecnica dove serviva, molto semplice dove serviva...
e' questo che serve... far capire le cose sia ai Tecnici che agli Utenti meno esperti...
(gli utonti e i troll non serve ke kapiscano perche' tanto flammano uguale :asd: )
:)
ke significa flammare???????? eheheh cmq quoto anke te, io di grafica non ne capisco molto, ma ho potuto almeno "capire di cosa si parlava" cmq bravi
sanitarium
05-05-2004, 18:28
Originariamente inviato da Heretic
ke significa flammare???????? eheheh cmq quoto anke te, io di grafica non ne capisco molto, ma ho potuto almeno "capire di cosa si parlava" cmq bravi
Flammare significa in gergo postare dei messaggi dai contenuti chiaramente e volutamente provocatori, atti a scatenare dei "flame" appunto, cioè delle diatribe molto accese su una certa questione.
Scusate eh pero' francamente dire che le schede siano identiche mi pare un po' riduttivo. Sia nelle conclusioni qui, che su Anandtech, che su thomas hardware si leggono cose differenti, permettemi. Inoltre in linea di massima direi che Ati e' un passo almeno piu' avanti, dove con Amd il paragone non sussiste, mentre col P4 qui si vede che se la giocano, mentre su Thomas pare che nVidia (come sempre a dire la verita' su quel sito) non abbia rivali.
E' bene anche notare come in OGNI review si sia citata la superiorita' della qualita' di Ati, soprattutto con fsaa e dove ADDIRITTURA thomas dica che nvda e' piu' avanti solo nelle prestazioni lisce... anche se dai loro test non mi pare sia proprio cosi' ;) Cmq dai identiche e' troppo, non esageriamo. Se poi contiamo nVidia occupa 2 slot e 2 alimentazioni il gioco e' fatto. In ogni caso: buona scelta e w tutti!
leoneazzurro
05-05-2004, 20:29
Mah, ATI con La X800 PE è sicuramente più veloce, ma alla fine le vendite reali si faranno sulle soluzioni midrange ( lì diciamo che se la giocano bene entrambe, dato che dalla 6800 Gt in giù anche le NVIDIA sono a singolo slot), anche perchè, diciamocelo francamente, giocare a UT a 1600x1200 con AA 4x e AF 8x mi sembra un tantinello esagerato, e la differenza di prestazioni tra le soluzioni mid e high a mio parere non giustifica assolutamente l'esborso.
Feature set: mah, bisognerà vedere 'sti benedetti Shader model 3.0 quando verranno utilizzati per bene. Non credo presto (attenzione: ho detto "per bene"). Invece al codifica/decodifica Mpeg in HW mi pare una cosa molto allettante, se NVIDIA mantiene le promesse. Come dicevo in un altro thread, a quando una analisi di questa caratteristica?
Dark Schneider
05-05-2004, 20:36
Per Vifani: la 6800 GT ho visto alcuni test non li ha fatti....ma è un problema di bios o drivers come detto nella recensione o forse magari era un po' difettosa?:(
Goku sinceramente io tutte 'ste differenze non le vedo... dire un passo avanti mi sembra esagerato.
Originariamente inviato da halduemilauno
ma tu ti rendi conto di quello che scrivi? credo proprio di no.
Ho semplicemente detto che dopo 1 o 2 anni, quando ci sono in giro schede dalle prestazioni 2 o 3 volte superiori quelle che si vendono meglio, e lasciano il miglior "ricordo" negli utenti sono le schede performanti ma equilibrate.
Se oggi mi chiedessero per 100 euro quale scheda usata mi compro, una 5800ultra più veloce (ma troppo esasperata) oppure una 9700liscia (non la ultra), direi sicuramente la 9700liscia (tanto ormai non sono più schede al top).
Anche se la 5800ultra costava il doppio oggi come oggi la 9700liscia è più vendibile.
Quelle di ATI sono schede che lasciano il segno, alcune di nvidia sono solo esperimenti.
In pratica le schede di nvidia durano meno
La gente è disposta a compromessi fino a quando le prestazioni sono al top, quando, dopo sei mesi escono schede performanti come l'attuale top di nvidia e costano la metà l'attuale top di nvidia (e pure usato) vale più pochissimo (ed in alcuni rimane pure il rimorso di averlo strapagato per cui magari lo difendono a spada tratta).
Il top di ATI si svaluta meno perchè resta comunque una scheda senza compromessi.
pg08x ste cose le vedi solo tu. Molta gente ha nvidia. Solo xkè a te piace ati nn vuol dire ke le schede nvidia siano meglio... se si fa il tuo discorso e ripeto SE SI FA IL TUO DISCORSO allora la 9800 con tutti i suoi motori, dato che oggi viene sfruttata appieno solo da far cry, è una scheda inutile e ti sfido a dire che far cry non è l'unico gioco sul mercato ad usare appieno le dx9. Poi queste conclusoni sulle schede nvidia... sono un felice possessore di una ti4200 che campa sul mio pc da secoli ormai. Sull'altro pc in rete ho una radeon 9000 e funziona benissimo anch'essa da molto tempo. a mio parere ti manca solo la bandiera con su scritto ATi, un cappellino ed una sciarpa da tifoso, 2 petardi ed un adesivo sulla macchina con su scritto ultra' ATi. Scusate un po va bene ma è tutto il thread che continuo a leggere 'ste baggianate. Se ho esagerato mi scuso ma mi viene dal cuore.
scusate mi correggo "solo xkè a te piace ati non vuol dire che le schede ATi siano meglio"
Poi ci sono gli sviluppatori come fek, lui sul lavoro preferisce una 6800 perchè giustamente gli permette di farsi una cultura sperimentando i pixel shader 3 ma per casa, come videogiocatore si comprerebbe una scheda Ati.
Per uno sviluppatore è indispensabile tenersi costantemente aggiornato, sperimentare e studiare.
Personalmente preferisco sviluppare l'ultima tecnologia anche se inizialmente mi richiede più tempo e tanto, tanto studio, lo considero un investimento.
I videogiocatori invece dovrebbero guardare ai propri interessi.
Originariamente inviato da Black87
pg08x ste cose le vedi solo tu. Molta gente ha nvidia. Solo xkè a te piace ati nn vuol dire ke le schede nvidia siano meglio... se si fa il tuo discorso e ripeto SE SI FA IL TUO DISCORSO allora la 9800 con tutti i suoi motori, dato che oggi viene sfruttata appieno solo da far cry, è una scheda inutile e ti sfido a dire che far cry non è l'unico gioco sul mercato ad usare appieno le dx9. Poi queste conclusoni sulle schede nvidia... sono un felice possessore di una ti4200 che campa sul mio pc da secoli ormai. Sull'altro pc in rete ho una radeon 9000 e funziona benissimo anch'essa da molto tempo. a mio parere ti manca solo la bandiera con su scritto ATi, un cappellino ed una sciarpa da tifoso, 2 petardi ed un adesivo sulla macchina con su scritto ultra' ATi. Scusate un po va bene ma è tutto il thread che continuo a leggere 'ste baggianate. Se ho esagerato mi scuso ma mi viene dal cuore.
scusa, evidentemente non mi sono spiegato bene.
La Geforce4 è un'ottima scheda, consuma pochissimo, fa poco rumore ed è stata performante per i tempi.
Amche la 9800 è un'ottima scheda perchè è a misura di utente.
Se la 9800 avesse richiesto 2molex >500Watt ventolone gigante con l'incubo che d'estate fa un casino pazzesco allora sarebbe una scheda di merda ! perchè adesso con l'uscita dei nuovi modelli la gente si renderebbe conto che trattasi solo di un esperimento tecnologico esasperato, srapagato e senza più mercato.
Stesso discorso per la tua ottima ti4200, l'avresti già cambiata !!!
Ma c'è gente che non può permettersi di cambiare scheda video ogni sei mesi, bene a questa gente consiglio ATI
Nvidia per star dietro ad ATI ha iniziato a fare alcune schede che non sono più a misura di utente.
Poi mi limito a segnalarvi questa cosa che sento ed è questo uno dei vari motivi per cui ora come ora preferisco di gran lunga i prodotti di ATI. Mi danno un'idea di maggior onestà e chiarezza. Anche il fatto di andar bene così, senza ottimizzazioni o cheat per me è molto importante.
Dark Schneider
05-05-2004, 22:11
Originariamente inviato da pg08x
In pratica le schede di nvidia durano meno
La gente è disposta a compromessi fino a quando le prestazioni sono al top, quando, dopo sei mesi escono schede performanti come l'attuale top di nvidia e costano la metà l'attuale top di nvidia (e pure usato) vale più pochissimo (ed in alcuni rimane pure il rimorso di averlo strapagato per cui magari lo difendono a spada tratta).
Il top di ATI si svaluta meno perchè resta comunque una scheda senza compromessi.
Ma che durano meno...c'è gente che ancora gioca egregiamente con "l'esperimento" GeForce 3.:rolleyes:
Originariamente inviato da Dark Schneider
Per Vifani: la 6800 GT ho visto alcuni test non li ha fatti....ma è un problema di bios o drivers come detto nella recensione o forse magari era un po' difettosa?:(
Ho paura che la 6800 GT abbia qualche problema a livello hardware. In realtà inizialmente ho pensato ad un problema dei nuovi driver 61.11 perché è stata la prima scheda che ho provato con questi driver. Tuttavia mettendo la Ultra Extreme ho visto che su questa non c'era alcun problema.
Il problema che mi ha dato è che il sistema in fase di inzializzazione di un test o di deinizializzazione (quindi alla fine o all'inizio) si pianta con schermo nero. Nessuna possibilità di uscire da questo blocco, solo il RESET.
Molti dei test che avete visto sono stati il frutto di numerosi riavii. Alcuni li ho saltati perché dopo cinque riavii che si bloccava evidentemente la scheda aveva dei problemi.
Io faccio tre ipotesi:
-driver immaturi (improbabile perché sempre di NV40 parliamo e le altre andavano benissimo);
-bios immaturo (probabile perché la versione è differente da quello delle altre NV40);
-problema hardware (questa penso sia l'ipotesi più verosimile in quanto ho notato una cosa che si vede anche nella foto)
http://www.hwupgrade.it/articoli/1013/nv40_gt_front_s.jpg
Zona destra, tra il dissipatore grosso e quello passivo delle componenti elettroniche. Ci sono solo tre condensatori elettrolici contro i cinque della Extreme e della Ultra. Ho pensato che fossero meno a causa della mancanza di un MOLEX... però guardandoli bene (ho la scheda nella mia mano) non sembrano alloggiamenti lasciati appositamente vuoti, ma piuttosto il frutto di saltature mal riuscite con conseguente distaccamento della componente.
pg08x io sono stato abbastanza chiaro riguardo ai ps3... cosa dici in merito? confermi che quindi tutti i motori dx9 supportati da una 9800 rendono la scheda inutile? (x me non lo è ma ragiono secondo una tua logica) o forse non ho capito bene?
Da SD la X800 pro la pago 475€, da listino normale è sopra i 500€, che bella sberla
Dark Schneider
06-05-2004, 00:38
Originariamente inviato da Vifani
Ho paura che la 6800 GT abbia qualche problema a livello hardware. In realtà inizialmente ho pensato ad un problema dei nuovi driver 61.11 perché è stata la prima scheda che ho provato con questi driver. Tuttavia mettendo la Ultra Extreme ho visto che su questa non c'era alcun problema.
Il problema che mi ha dato è che il sistema in fase di inzializzazione di un test o di deinizializzazione (quindi alla fine o all'inizio) si pianta con schermo nero. Nessuna possibilità di uscire da questo blocco, solo il RESET.
Molti dei test che avete visto sono stati il frutto di numerosi riavii. Alcuni li ho saltati perché dopo cinque riavii che si bloccava evidentemente la scheda aveva dei problemi.
Io faccio tre ipotesi:
-driver immaturi (improbabile perché sempre di NV40 parliamo e le altre andavano benissimo);
-bios immaturo (probabile perché la versione è differente da quello delle altre NV40);
-problema hardware (questa penso sia l'ipotesi più verosimile in quanto ho notato una cosa che si vede anche nella foto)
http://www.hwupgrade.it/articoli/1013/nv40_gt_front_s.jpg
Zona destra, tra il dissipatore grosso e quello passivo delle componenti elettroniche. Ci sono solo tre condensatori elettrolici contro i cinque della Extreme e della Ultra. Ho pensato che fossero meno a causa della mancanza di un MOLEX... però guardandoli bene (ho la scheda nella mia mano) non sembrano alloggiamenti lasciati appositamente vuoti, ma piuttosto il frutto di saltature mal riuscite con conseguente distaccamento della componente.
Ahia che peccato! Praticamente è uscita male di fabbrica se le saldature son mal riuscite!! :(
argh scusate la niubbata ma nn mi intendo di elettronica: la mancanza dei condensatori può influire sulle prestazioni?
Originariamente inviato da Black87
argh scusate la niubbata ma nn mi intendo di elettronica: la mancanza dei condensatori può influire sulle prestazioni?
Non sulle prestazioni.... ma molto sulla stabilità.
Paoletta Corsini
06-05-2004, 01:06
Quindi era difettosa, Raffele perchè non fate richiesta (documentata di foto) per farvene mandare un'altra?
Originariamente inviato da Paoletta Corsini
Quindi era difettosa, Raffele perchè non fate richiesta (documentata di foto) per farvene mandare un'altra?
Vedremo. Ne parlerò con Paolo. ;)
Dark Schneider
06-05-2004, 01:56
Ah cmq metto una citazione di un articolo riguardo la 6800 Ultra e l'alimentatore. Questo per quelli che si son impuntati sul fatto che ci voglia chissà quale alimentatore.
"As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems."
Quindi un ali da 350 watt di Marca come Enermax va benissimo(importante sono gli amperaggi..ed Enermax sono ottimi).
(IH)Patriota
06-05-2004, 08:46
L' avevo gia' detto in qualche post indietro ;) è chiaro che non potendo fare una lista dei PSU da 350W "di qualita' " abbiano sparato alto e richiesto 480W.
Il problema ora e' capire se chi ha un buon 350W , 2/3 HDD , 2 Lettori ottici e magari il processore overcloccato e "qualche " ventola (leggi 350W al limite :)) sara' costretto a cambiare PSU passando alla 6800Ultra per non rischiare di dover magari downcloccare il processore o di avere un sistema poco stabile.
Sicuro che per chi volesse cambiare una 9800XT con una X800XT il problema non si porra'.
Originariamente inviato da Dark Schneider
Ma che durano meno...c'è gente che ancora gioca egregiamente con "l'esperimento" GeForce 3.:rolleyes:
Scusa ma prima di sparar sentenze vatti a leggere quanto ho scritto appena 2 post sopra... fino alla geforce4 erano schede a misura di utente poi per cercare stare al passo con ATI nvidia ha tirato fuori alcuni mostri che sinceramente richiedono dei compromessi.
halduemilauno
06-05-2004, 09:56
Originariamente inviato da pg08x
Ho semplicemente detto che dopo 1 o 2 anni, quando ci sono in giro schede dalle prestazioni 2 o 3 volte superiori quelle che si vendono meglio, e lasciano il miglior "ricordo" negli utenti sono le schede performanti ma equilibrate.
Se oggi mi chiedessero per 100 euro quale scheda usata mi compro, una 5800ultra più veloce (ma troppo esasperata) oppure una 9700liscia (non la ultra), direi sicuramente la 9700liscia (tanto ormai non sono più schede al top).
Anche se la 5800ultra costava il doppio oggi come oggi la 9700liscia è più vendibile.
Quelle di ATI sono schede che lasciano il segno, alcune di nvidia sono solo esperimenti.
tu hai detto questo.
Originariamente inviato da pg08x
Quando i ps3 verranno usati dagli sviluppatori nv40 sarà già vecchio con tutti i suoi difetti e sarà ormai lento per i tempi.
La scheda di ATI fra qualche anno anche se non + al top rimmarrà sempre un hardware pensato per i gamers e senza compromessi come è stata la 9700 di cui raddoppia le prestazioni.
quando i ps3 ed annessi FP32 saranno usati dai programmatori sarà proprio la 6800 a essere ancora in grado di fare qualcosa e non la x800 che non li supporta nemmeno ora.
oggi con gli shader2 ed fp24 la ati si può difendere/imporre ma fra un'anno quando i giochi/bench useranno gli shader3 ed fp32 secondo te chi vincerà la x800xt o la 6800 ultra?
lascia stare che fra un'anno ci saranno altre schede ati e nVidia migliori dell'attuale 6800 questo è fuor di dubbio. io parlo delle schede di ora, di adesso chi vincera in bench che richiederanno per forza gli shader 3 ed fp 32? e i bench futuri si baseranno a maggior ragione sui giochi futuri.
quindi è proprio la 6800 ad essere più longeva non la x800. buana, ottima per i giochi di oggi ma tarpata per quelli di domani.
nell'altro topic mi fai il confronto tra 5800 ultra e 9700 liscia dicendo che vince la seconda e io dico certo, la 5800 ultra è minata da un bus a 128 e 4 sole pipe per forza la 9700 è più longeva.
tutto il contrario di oggi.
ti rendi conto ora dell'assurdità che hai detto?
Originariamente inviato da (IH)Patriota
L' avevo gia' detto in qualche post indietro ;) è chiaro che non potendo fare una lista dei PSU da 350W "di qualita' " abbiano sparato alto e richiesto 480W.
Il problema ora e' capire se chi ha un buon 350W , 2/3 HDD , 2 Lettori ottici e magari il processore overcloccato e "qualche " ventola (leggi 350W al limite :)) sara' costretto a cambiare PSU passando alla 6800Ultra per non rischiare di dover magari downcloccare il processore o di avere un sistema poco stabile.
Ma perchè porsi tutti questi problemi e correre di questi rischi quando c'è una scheda la 800xt che consuma addirittura meno della generazione precedente, un esempio di come deve essere un progresso tecnologico come quello del passaggio a 0,13 micron.
Anticipare questo passaggio da parte di nvidia per ottenere qualche Mhz in + (mi riferisco alla 5800) è stato un'esperimento.
Se la 6800 consumasse come la x800 di ATI dovrebbe avere frequenze molto più ridotte, han fatto tutto sto casino per non sfigurare ma a rimetterci sono solo gli utenti finali.
Originariamente inviato da pg08x
Ma perchè porsi tutti questi problemi e correre di questi rischi quando c'è una scheda la 800xt che consuma addirittura meno della generazione precedente, un esempio di come deve essere un progresso tecnologico come quello del passaggio a 0,13 micron.
Anticipare questo passaggio da parte di nvidia per ottenere qualche Mhz in + (mi riferisco alla 5800) è stato un'esperimento.
Se la 6800 consumasse come la x800 di ATI dovrebbe avere frequenze molto più ridotte, quelli di nvidia han fatto tutto sto casino per non sfigurare ma a rimetterci sono solo gli utenti finali.
Come tutta la vicenda futurmark, per cercare di primeggiare sono disposti a tutto, anche a mettertelo *** ****.
Originariamente inviato da halduemilauno
quando i ps3 ed annessi FP32 saranno usati dai programmatori sarà proprio la 6800 a essere ancora in grado di fare qualcosa
La radeon 8500 supportava i pixel shader 1.4 del directx 8.1 che permettono di fare con un'unica passata quello che con gli shader 1.1 1.2 1.3 ne richiede diverse, una cosa tecnicamente FANTASTICA, lodata perfino da Carmak.
Bene per anni sui nostri pc abbiamo tutti noi avuto installate le directX 8.1 ma questa caratteristica non funzionava con le geforce4 di nvidia (che sono uscite dopo la 8500 di Ati)
In pratica se provi ad un pixel shader 1.4 su una geforce4 il programma si blocca con un errore, devi prevedere più passate di shader di livello inferire.
Bene, ai tempi delle geforce4 nessuno sviluppatore ha mai utilizzato gli shader 1.4 per avantaggiare le schede ATI.
Quando gli shader nuovi verranno sfruttati la 6800sarà ormai superata e rimarrà con tutti i suoi problemi perchè non è una scheda a misura di utente (vatti a vedere quanto scritto prima)
falcon.eddie
06-05-2004, 10:30
Originariamente inviato da pg08x
In pratica le schede di nvidia durano meno
La gente è disposta a compromessi fino a quando le prestazioni sono al top, quando, dopo sei mesi escono schede performanti come l'attuale top di nvidia e costano la metà l'attuale top di nvidia (e pure usato) vale più pochissimo (ed in alcuni rimane pure il rimorso di averlo strapagato per cui magari lo difendono a spada tratta).
Il top di ATI si svaluta meno perchè resta comunque una scheda senza compromessi.
Sarà... :rolleyes: Io ci ho fatto sempre meno con le Ati a rivenderle,ora spiegamelo un pò:
http://forum.hwupgrade.it/showthread.php?threadid=663040 359€ per una ASUS 9800XT
http://forum.hwupgrade.it/showthread.php?s=&threadid=589631 425€ per una XFX 5950Ultra
http://forum.hwupgrade.it/showthread.php?s=&threadid=552903 410€ per una Creative 5900Ultra
;)
Vero e' che le differenze si vedono molto sulla cpu piu' potente, ovvero l'atlone64 con filtri attivati. In linea di massima concordo con la conclusione di hwupgrade invece sui p4. Ma una domanda sola a TUTTI: ma ci rendiamo conto che siamo qui da 19 pagine a dire meglio tizio o caio e intanto i prezzi lievitano? Cioe' benefici del duopolio una cippa ;) la midrange 475 euri, se non ho letto male??? La MIDRANGE? Ma dico! Quando presi la 8500 costava 700000 lire, ma era il top della gamma di Ati! Porka puzzola! Adesso 475 euri per le midrange??? No, ma questi sono pazzi! Quante Playstation ci compro con 475 euri scusate eh? 15? ;)
Scusate, mi correggo: 549 Euri!!! Ma dico scherziamo?!?! Questi due qui si sono messi d'accordo piu' che sulla concorrenza, sul mettere prezzi allucinanti. Cioe' siamo oltre il milione per la soluzione mid... o meglio, sara' mid, no? Se la grossa fa di piu' e ce ne sono 2 una e' gross l'altra e' mid.
In ogni caso: 549 Euri... fuori di testa... costa meno il mutuo sulla prima casa ;)
x falcon.eddie
Sarà... Io ci ho fatto sempre meno con le Ati a rivenderle,ora spiegamelo un pò:
http://forum.hwupgrade.it/showthread.php?threadid=663040 359€ per una ASUS 9800XT
http://forum.hwupgrade.it/showthread.php?s=&threadid=589631 425€ per una XFX 5950Ultra
http://forum.hwupgrade.it/showthread.php?s=&threadid=552903 410€ per una Creative 5900Ultra
ma mi stai mettendo una battuta sui tuoi compratori su di un piatto d'argento :D
Boh, strano cmq, la 9800XT è stata la più costosa sul mercato, certo che con l'offerta di Sapphire di 9800Pro a 250€ i prezzi vanno adeguati...
X la rece.
Carina come sempre ma un po' confusionaria, x FP16 e Extreme version; i primi non li userò mai, la seconda se davvero farà la fine del P4 EE o A 64 FX era un po' inutilie in una recensione, è la prima volta in cui vedo spuntare una scheda video nuova da una rece all'altra senza che neanche la prima sia uscita sul mercato...
Sugli FP16 il discorso è breve, già ora non penso li userei se avessi 5900, figuriamoci a usarli dopo aver comprato 600€ di scheda nuova....
leoneazzurro
06-05-2004, 13:35
Bisognerà vedere quante X800 XT PE usciranno sul mercato. Secondo me saranno di più delle 6800 Ultra EE, ma non credo che ne immetteranno quantità industriali. Come ho detto, la battaglia si giocherà sulle midrange.
Originariamente inviato da IcemanX
x falcon.eddie
ma mi stai mettendo una battuta sui tuoi compratori su di un piatto d'argento :D
Boh, strano cmq, la 9800XT è stata la più costosa sul mercato, certo che con l'offerta di Sapphire di 9800Pro a 250€ i prezzi vanno adeguati...
X la rece.
Carina come sempre ma un po' confusionaria, x FP16 e Extreme version; i primi non li userò mai, la seconda se davvero farà la fine del P4 EE o A 64 FX era un po' inutilie in una recensione, è la prima volta in cui vedo spuntare una scheda video nuova da una rece all'altra senza che neanche la prima sia uscita sul mercato...
Sugli FP16 il discorso è breve, già ora non penso li userei se avessi 5900, figuriamoci a usarli dopo aver comprato 600€ di scheda nuova....
Non lo decidi tu se usarli o meno, il caso di hwupgrade è diverso, hanno forzato la precisione a fp32, il che significa che tu sia su 5900 che su nv40 la usi comunque a fp16.
halduemilauno
06-05-2004, 14:12
Originariamente inviato da pg08x
La radeon 8500 supportava i pixel shader 1.4 del directx 8.1 che permettono di fare con un'unica passata quello che con gli shader 1.1 1.2 1.3 ne richiede diverse, una cosa tecnicamente FANTASTICA, lodata perfino da Carmak.
Bene per anni sui nostri pc abbiamo tutti noi avuto installate le directX 8.1 ma questa caratteristica non funzionava con le geforce4 di nvidia (che sono uscite dopo la 8500 di Ati)
In pratica se provi ad un pixel shader 1.4 su una geforce4 il programma si blocca con un errore, devi prevedere più passate di shader di livello inferire.
Bene, ai tempi delle geforce4 nessuno sviluppatore ha mai utilizzato gli shader 1.4 per avantaggiare le schede ATI.
Quando gli shader nuovi verranno sfruttati la 6800sarà ormai superata e rimarrà con tutti i suoi problemi perchè non è una scheda a misura di utente (vatti a vedere quanto scritto prima)
le chiacchiere stanno a zero.
le NV4X avendo il pieno supporto verso gli shader3/fp32 sono più longeve di schede che questo pieno supporto non hanno.
capito longeva. perchè io ho sempre parlato di longevità.
"Quando gli shader nuovi verranno sfruttati la 6800sarà ormai superata"
se la 6800 sarà superata pensa la x800 che non li supporta fin d'ora.
faccio degli esempi:
se il nuovo 3d mark 2004 li prevede chi vince?
se altri bench prevedono quello chi vince?
se soprattutto i giochi dell'immediato futuro richiedono quelli chi gioca meglio?
il tutto è riferito alle attuali schede non a quelle future sto parlando di 6800 VS x800.
Non a livello di utente base,ma alla fine in certi giochi dipende dalla patch installata (Far Cry 1.1 ma modificabile, Tomb Raider, Halo ecc...), in altri da comandi da console, nella maggior parte dei casi la scelta è disponibile.
cmq sono molto felicemente su 9800Pro.
Mi sa che sono quasi d'accordo con hal: se ci pensate nvidia e' stata sempre maestra di fuffe cosmiche nonche' bufale enormi. Questa del ps 3.0, anche se dovesse essere vero che non aggiunge una pippa, sarebbe un'ottima carta da giocare per nvda che la sfruttera' sicuramente. Tuttavia, nel mondo moderno, nessuno credo abbia interesse a precludere gli utenti Ati, contrariamente ad un tempo, perche' sono numerosi e tutti hanno fame di numerosita'. Oddio, a dire la verita' poi, i dati concreti sono che da quando c'e' il ps l'hanno sfruttato forse 5 giochi 4 in 40 anni, mentre le promesse sono i futuri che sfrutteranno il 3.0. Ps o meno pero', se qualitativamente ati e' meglio (non lo dico io leggere conclusioni please prima di lapidarmi), con i filtri e' piu' veloce in genere, senza filtri sulla cpu piu' potente e' piu' rapida... e perche' dovrei comprare nvidia? Per una promessa? Una promessa che seguendo il ciclo produttivo fra 6 mesi sara' rimpiazzata dal ps 3.0b implementato dalla nuova serie di schede? Vi posso fare una domanda, pero' GIURO che e' senza doppi sensi: magari non me ne sono reso conto, ma ATTUALMENTE, con queste schedozze nuove, cosa dovrebbe farmi scegliere nVidia? Guardate che e' una domanda ingenua, credetemi: ammetto che sia possibile mi sia sfuggito qualcosa.
halduemilauno
06-05-2004, 14:49
Originariamente inviato da GokuSSJ
Mi sa che sono quasi d'accordo con hal: se ci pensate nvidia e' stata sempre maestra di fuffe cosmiche nonche' bufale enormi. Questa del ps 3.0, anche se dovesse essere vero che non aggiunge una pippa, sarebbe un'ottima carta da giocare per nvda che la sfruttera' sicuramente. Tuttavia, nel mondo moderno, nessuno credo abbia interesse a precludere gli utenti Ati, contrariamente ad un tempo, perche' sono numerosi e tutti hanno fame di numerosita'. Oddio, a dire la verita' poi, i dati concreti sono che da quando c'e' il ps l'hanno sfruttato forse 5 giochi 4 in 40 anni, mentre le promesse sono i futuri che sfrutteranno il 3.0. Ps o meno pero', se qualitativamente ati e' meglio (non lo dico io leggere conclusioni please prima di lapidarmi), con i filtri e' piu' veloce in genere, senza filtri sulla cpu piu' potente e' piu' rapida... e perche' dovrei comprare nvidia? Per una promessa? Una promessa che seguendo il ciclo produttivo fra 6 mesi sara' rimpiazzata dal ps 3.0b implementato dalla nuova serie di schede? Vi posso fare una domanda, pero' GIURO che e' senza doppi sensi: magari non me ne sono reso conto, ma ATTUALMENTE, con queste schedozze nuove, cosa dovrebbe farmi scegliere nVidia? Guardate che e' una domanda ingenua, credetemi: ammetto che sia possibile mi sia sfuggito qualcosa.
cosa dovrebbe farti scegliere nVidia?
io ho puntato il dito sulla longevità(ovviamente ha tanti altri meriti alla pari di ati).
cito Paolo Corsini:
"ma ci sono buone speranze che gli Shader 3.0 possano diventare una realtà concreta in molti titoli, non solo in bellissimi demo tecnologici"
ciao.
:) :)
the.smoothie
06-05-2004, 15:15
Ottima recensione, lunga, esaustiva e dettagliata.
Certo che adesso come adesso la comparativa mi ha messo più dubbi di prima: se dovessi prendere una nuova scheda video, cosa mi faccio? ati o nvidia? Valutando il discorso prezzo/prestazioni quasi quasi punterei su una nvidia 6800gt (ati perchè ci avete castrato la x800 a 'sole' 12 pipelines? sinceramente queste cose di castrare l'hardware mi lascia sempre con l'amaro in bocca, per non essere più volgare), anche se 400euri in una scheda video ora come ora non sono disposto a spenderli (c'è da dire che non so i prezzi di acquisto delle schede con gpu ati).
Bisogna comunque aspettare l'uscita delle gpu di fascia media, oppure la seconda ondata di ottimizzazioni che usciranno qua a settembre per tirare le somme (lo so, questo discorso è un pò campato per aria e non si regge molto in piedi).
Tuttavia bisogna dare atto ad nvidia che ha fatto un bel lavoro di rimonta nei confronti di ati (dimostrandosi tra l'altro molto coraggiosa nell'investire su nuove tecnologie, sperando ovviamente che alla fine non si riveli solo una mossa commerciale per sbandierare features altisonanti ma inutili); anche questa ultima si è dimostrata degna della fama che si è guadagnata fino ad adesso. Infine bisogna dare atto a tutte e due di avere rispettato le promesse fatte qualche mese fa, ovvero che le loro nuove gpu avrebbero sfornato frame rate doppi rispetto alla famiglia di gpu precedenti: davvero incredibile!
Ciauz!
Originariamente inviato da halduemilauno
cosa dovrebbe farti scegliere nVidia?
io ho puntato il dito sulla longevità(ovviamente ha tanti altri meriti alla pari di ati).
cito Paolo Corsini:
"ma ci sono buone speranze che gli Shader 3.0 possano diventare una realtà concreta in molti titoli, non solo in bellissimi demo tecnologici"
ciao.
:) :)
Ah Ah Ah :sofico:
Io qui ti volevo portare e qui sei cascato !!!
ESATTAMENTE come gli shader 1.4 della 8500 permettono di fare con un'unica passata quello che richiedeva una combinazione di shaders (1.1 1.2 o 1.3)
e si passava da directx 8.0 a directx 8.1
allo stesso modo
gli shader 3 permetterebbero di fare con un'unica passata quello per cui ci vuole più di una passata con lo shader 2. Si passerà a directx da 9.0 a 9.1.
C'è in proporzione la stessa differenza tecnologica che c'è fra una radeon 8500 (che è più evoluta come shaders) rispetto alla geforce4 (grande scheda ma che non prevede i nuovi shaders)
Se ATI avesse fatto uscire una 8500 superovervoltata superovercloccata con ram da paura per girare veloce come una geforce4 avrebbe fatto quello che nvidia stà facendo adesso con la 6800. Ati non l'ha fatto perchè a mio avviso è una ditta seria.
Longevità ?
ti piacerebbe OGGI una radeon 8500 che va come una geforce4 ma con tutti i limiti di consumo, ventole, alimentazione di una scheda overcloccata ? io direi che preferiresti una geffo 4 anche se non supporta gli shaders 1.4
Capito il giochino di nvidia ? ;)
the.smoothie
06-05-2004, 15:22
E con questo sono 200!!! :sofico:
Scusate l'OT ma non ho saputo resistere. :angel:
:D :D :D
Ritornando IT mi sono dimenticato di fare i complimenti al Corsini ed al Fanizzi. Continuate così!
Queste collaborazioni sono molto bene accette.
Ciauz!
pg08x ma vuoi mettere il confronto che c'è tra 8500 e ti 4200 (nessuno, ma una ha gli shaders ke nn è abbastanza potente per sfruttare e quindi ci si può vantare con gli amici anke xkè il numero nel nome è + alto) con il confronto tra x800XT e 6800Ultra ? nel primo caso si parla di un abisso, nel secondo di pochi fps e neanche sempre, a volte la scheda nvidia, per quanto neanche tanto raramente, supera la scheda ATi ed in OpenGL non c'è confronto, se contate che doom3 è in opengl e rappresenta, sebbene sia uscito a fatica, il futuro del video gaming, non mi sembra poco. La 8500 con la 4200 perde in qualsiasi campo invece... le due cose non c'entrano niente :D
halduemilauno
06-05-2004, 15:37
Originariamente inviato da Black87
pg08x ma vuoi mettere il confronto che c'è tra 8500 e ti 4200 (nessuno, ma una ha gli shaders ke nn è abbastanza potente per sfruttare e quindi ci si può vantare con gli amici anke xkè il numero nel nome è + alto) con il confronto tra x800XT e 6800Ultra ? nel primo caso si parla di un abisso, nel secondo di pochi fps e neanche sempre, a volte la scheda nvidia, per quanto neanche tanto raramente, supera la scheda ATi ed in OpenGL non c'è confronto, se contate che doom3 è in opengl e rappresenta, sebbene sia uscito a fatica, il futuro del video gaming, non mi sembra poco. La 8500 con la 4200 perde in qualsiasi campo invece... le due cose non c'entrano niente :D
non avrei saputo rispondergli meglio.
ciao e grazie.
:) :)
Originariamente inviato da Black87
pg08x ma vuoi mettere il confronto che c'è tra 8500 e ti 4200 (nessuno, ma una ha gli shaders ke nn è abbastanza potente per sfruttare e quindi ci si può vantare con gli amici anke xkè il numero nel nome è + alto) con il confronto tra x800XT e 6800Ultra ? nel primo caso si parla di un abisso, nel secondo di pochi fps e neanche sempre, a volte la scheda nvidia, per quanto neanche tanto raramente, supera la scheda ATi ed in OpenGL non c'è confronto, se contate che doom3 è in opengl e rappresenta, sebbene sia uscito a fatica, il futuro del video gaming, non mi sembra poco. La 8500 con la 4200 perde in qualsiasi campo invece... le due cose non c'entrano niente :D
Beh tu hai ragione sul paragone 8500 e 4200 (e io ho una 8500, lo so bene!) pero' il punto di pg08x era un po' differente. In proporzione (in effetti e' una proporzione un po' tirata, vero) la differenza NON in prestazioni, ma in tecnologia, e' piu' o meno comparabile. Tant'e' che se vi ricordate il famoso test alpha su una 8500 come su una 4200, se vi ricordate, perche' lo stesso Carmack spiegava che la 8500 faceva in un passaggio solo... ecc. ecc.
Non so se fra il 2 e il 3 le diff. siano queste, ma cmq non credo siano cosi' rilevanti da impedire ad un software di girare: ci sara' la versione 3 e la versione 2.1, nulla di piu' e solo allora vedremo le reali differenze.
Ecco sono poi d'accordo con black87: a mio parere e' molto piu' grave che le Ati nuove con Pac-Man in Opengl facciano 5 fps e con lo stesso Pac-Man in Dx ne facciano 500.
Non capisco il perche', ma la cosa si ripete, anche con l'amd 64. Questa e' la vera pecca di Ati, no la scheda: i drivers saranno buoni, ma la perfezione e' lontana.
E a proposito di drivers: non dimentichiamoci che la X800 presenta drivers beta! Potrebbero esserci anche ulteriori incrementi in futuro, teniamolo presente.
Ho cmq letto che la GeforceGT costera' 400 Euro :) caspita! Appetibile sicuramente piu' di una X800 Pro a 549 godzilioni di Euri :) no? Anzi, ora vado a vedere meglio le differenze fra le due...
sanitarium
06-05-2004, 17:30
Originariamente inviato da GokuSSJ
[...] Ecco sono poi d'accordo con black87: a mio parere e' molto piu' grave che le Ati nuove con Pac-Man in Opengl facciano 5 fps e con lo stesso Pac-Man in Dx ne facciano 500.
Non capisco il perche', ma la cosa si ripete, anche con l'amd 64. Questa e' la vera pecca di Ati, no la scheda: i drivers saranno buoni, ma la perfezione e' lontana.
E a proposito di drivers: non dimentichiamoci che la X800 presenta drivers beta! Potrebbero esserci anche ulteriori incrementi in futuro, teniamolo presente. [...]
Aspettiamo e vediamo, sembra che alla ATi stiano riscrivendo DA CAPO il codice dei driver OpenGL. :)
E' davvero troppo presto per dire qualcosa di concreto in proposito, ma chissà che non ci facciano qualche bella sorpresa per l'uscita di Doom III... ;)
Ok, grazie ai vostri messaggi ho riletto i bmark, con un occhio anche verso il basso e che dire: se e' vero che la Geforce GranTurismo costera' 400 Euri, beh, il divario di prestazioni con la X800 Pro a favore dell'una o dell'altra attualmente mi pare che giustifichi poco il prezzo della Ati.
150 Euri di differenza sono un po' tantini, anche se la qualita' e' meglio e lo slot e' uno solo.
Come gia' detto sopra sono shockato dal prezzo della X800 Pro: spero che sia solo una sparata di sd, perche' se no mani nei capelli e urlo.
Speriamo migliorino le opengl: per tutti i miliardi che ci chiedono mi aspetto questo e altro!
Originariamente inviato da sanitarium
Aspettiamo e vediamo, sembra che alla ATi stiano riscrivendo DA CAPO il codice dei driver OpenGL. :)
E' davvero troppo presto per dire qualcosa di concreto in proposito, ma chissà che non ci facciano qualche bella sorpresa per l'uscita di Doom III... ;)
Speriamo nelle sorprese... ma un po' OT ogni tanto fa sempre bene, senti qua: nella tua signature leggo 'adsl 640 e winzozz 2000'... ebbene, cosa aspetti a mettere linux Gentoo? ;)
Cosi' ci dici come va la 9700 Pro con i drivers ati sotto Linux, eh!
Scusate l'OT, ma non mi sono trattenuto :)
sanitarium
06-05-2004, 17:53
Per quanto riguarda il prezzo della X800PRO, non considerare le cifre spaventose che si vedono in giro: come ha detto Corsini stesso, il prezzo di lancio della X800PRO e quello della 6800GT coincidono, per entrambe le schede si parla ufficialmente di 399$.
Il prezzo di SD è la classica sparata per accalappiare qualche appassionato con le tasche bucate e poco sale in zucca, che non ha la pazienza di aspettare che la scheda venga venduta in grandi volumi e che quindi abbia un prezzo più "umano"... ;)
Per quanto riguarda invece Linux e i driver ATi, credo che non ci sia bisogno della mia esperienza diretta, non c'è un solo utente contento dei driver della casa canadese per quel sistema operativo! :D :muro:
L' openGL nei videogiochi ha meno futuro di quello che si può pensare !
Infatti il motore di Doom 3 non sarà dato in licenza a nessuno, mentre il Source di Half life 2 ha una lista di richieste lunga così (oltre al fatto che Vampire Bloodlines sfrutta già il Source) !
E guarda caso... il Source è un motore Direct3D.
ATI assicurandosi il sostegno della Valve e del suo engine ha messo di fatto fine alla diatriba fra ATI e nVidia: basti solo pensare che l' ultima ammiraglia di casa ATI viaggia con HL2 il 40 % più veloce dell' ammiraglia di casa nVidia...
Con questo non intendo dire che la 6800 sia una brutta scheda, anzi, tuttavia vedo ATI ancora al primo posto, anche e soprattutto dal punto di vista "comfort" del case.
Pretendere 2 molex per l' alimentazione è una cosa allucinante, per me nVidia con questa scelta si è bruciata un casino di utenti low-end system.
Da sd vendono anche la 6800Ultra a quasi 700 euro!
sanitarium
06-05-2004, 18:18
Originariamente inviato da Aryan
Da sd vendono anche la 6800Ultra a quasi 700 euro!
Me ne faccio mettere da parte tre! :sofico:
sanitarium
06-05-2004, 18:33
Originariamente inviato da Aryan
le metti in cluster???
No, ma visto il prezzo "allettante" perché prenderne soltanto una? :D
Prezzi pazzeschi, a settembre 2002 ho pagato la mia 9700pro appena uscita 520 Euro, cifra già considerevole, ma che non si avvicina neanche di striscio ai 700Euro... :O
OverClocK79®
06-05-2004, 18:45
Originariamente inviato da halduemilauno
le chiacchiere stanno a zero.
le NV4X avendo il pieno supporto verso gli shader3/fp32 sono più longeve di schede che questo pieno supporto non hanno.
capito longeva. perchè io ho sempre parlato di longevità.
credo ankio
se nn cambiassi skeda ogni 6 mesi
credo che punterei su NV4x
BYEZZZZZZZZZZZZZ
OverClocK79®
06-05-2004, 18:48
Originariamente inviato da pg08x
C'è in proporzione la stessa differenza tecnologica che c'è fra una radeon 8500 (che è più evoluta come shaders) rispetto alla geforce4 (grande scheda ma che non prevede i nuovi shaders)
mmmmmmmmm
ma nn erano le G3 DX8
mentre le G4 8.1??
BYEZZZZZZZZZZZZ
Originariamente inviato da Xilema
Infatti il motore di Doom 3 non sarà dato in licenza a nessuno,
Quake 4 che motore usa? Il Build di Duke Nukem vero? E il prossimo gioco Splash Damage?
falcon.eddie
06-05-2004, 19:31
Originariamente inviato da Xilema
L' openGL nei videogiochi ha meno futuro di quello che si può pensare !
Infatti il motore di Doom 3 non sarà dato in licenza a nessuno, mentre il Source di Half life 2 ha una lista di richieste lunga così (oltre al fatto che Vampire Bloodlines sfrutta già il Source) !
E guarda caso... il Source è un motore Direct3D.
ATI assicurandosi il sostegno della Valve e del suo engine ha messo di fatto fine alla diatriba fra ATI e nVidia: basti solo pensare che l' ultima ammiraglia di casa ATI viaggia con HL2 il 40 % più veloce dell' ammiraglia di casa nVidia...
Con questo non intendo dire che la 6800 sia una brutta scheda, anzi, tuttavia vedo ATI ancora al primo posto, anche e soprattutto dal punto di vista "comfort" del case.
Pretendere 2 molex per l' alimentazione è una cosa allucinante, per me nVidia con questa scelta si è bruciata un casino di utenti low-end system.
Ehm come fai a dire che il motore di Doom 3 non sarà dato in licenza?Spero sia una fonte più attendibile di quella che dice che Hl2 va il 40% + veloce su una x800 che su una 6800...Che poi è la stessa che diceva che l'AA non avrebbe funzionato correttamente sulle nvidia,che poi è la stessa che 6 mesi fa (guardacaso)ha presentato dei grafici all'uscita della XT che mostravano la loro superiorità su nvidia nel loro gioco(fantasma aggiungo),che ha dichiarato fino a 10 giorni prima che il loro gioco sarebbe uscito per tempo...Hai letto la lettera scritta dall'(ex)amministratore del forum ufficiale di Half Life2? Credi ancora a quel panzone?... :rolleyes:
Cmq ricordo che i 2 molex sono per la Ultra,cosa che utenti low-end si sognano(di solito i miei clienti low end spendono 600€ per tutto il pc non per la scheda video...anzi già è tanto se vanno oltre una 9200/5200,chi la prenderà avrà almeno un ali di qualità[su una rece l'hanno provata su un enermax da 350W senza problemi]) ;)
Originariamente inviato da OverClocK79®
mmmmmmmmm
ma nn erano le G3 DX8
mentre le G4 8.1??
BYEZZZZZZZZZZZZ
Verissimo e corretto, tuttavia le G4 supportavano il ps 1.3, mentre le 8500 il 1.4... posso essere sincero ora? E infatti tutti i giochi usavano il 1.3 per la max compatibilita' :) L'acqua di Morrowind, il primo ps serio, usava il 1.3.
Per questo credo che in futuro non cambiera' nulla: sarebbe controproducente per le ditte.
Oggi la scelta di stare indietro col ps l'ha fatta ati, laddove in passato l'aveva fatta nvda.
Originariamente inviato da sanitarium
Per quanto riguarda il prezzo della X800PRO, non considerare le cifre spaventose che si vedono in giro: come ha detto Corsini stesso, il prezzo di lancio della X800PRO e quello della 6800GT coincidono, per entrambe le schede si parla ufficialmente di 399$.
Il prezzo di SD è la classica sparata per accalappiare qualche appassionato con le tasche bucate e poco sale in zucca, che non ha la pazienza di aspettare che la scheda venga venduta in grandi volumi e che quindi abbia un prezzo più "umano"... ;)
Per quanto riguarda invece Linux e i driver ATi, credo che non ci sia bisogno della mia esperienza diretta, non c'è un solo utente contento dei driver della casa canadese per quel sistema operativo! :D :muro:
Vero: sono ancora indietro i drivers Linux :( Ma sbaglio o ati aveva promesso i catalyst anche per i pinguini vari? Avevo capito male? Devo pero' segnalare una cosa: drivers indecenti a parte, UT2003, botmatch, e' imparagonabile sul mio computer! Sotto Linux e' nettamente piu' avanti, 10 fps in piu'... che su 40 non sono pochi! Il flyby invece mostra come Windows sia nettamente con drivers piu' avanzati: evito di citare i frames dei flyby perche' il pinguino dovrebbe suicidarsi ;)
Mr.Gamer
06-05-2004, 20:52
goku.. come puoi leggere dalla mia firma.. anche io sono utente gentoo :-/
ma ho reinstallato winxp dopo 3 mesi... (in dualboot) perche ati + opengl proprio nisba... non c'è verso di farli andare d'accordo
in questo caso... spero che riscrivano sti driver [ anche se .... i giochi opengl ormai sono pochi :-/ ...m$ rules... ]
Originariamente inviato da GokuSSJ
Verissimo e corretto, tuttavia le G4 supportavano il ps 1.3, mentre le 8500 il 1.4... posso essere sincero ora? E infatti tutti i giochi usavano il 1.3 per la max compatibilita' :) L'acqua di Morrowind, il primo ps serio, usava il 1.3.
Per questo credo che in futuro non cambiera' nulla: sarebbe controproducente per le ditte.
Oggi la scelta di stare indietro col ps l'ha fatta ati, laddove in passato l'aveva fatta nvda.
Ben detto :)
Originariamente inviato da Mr.Gamer
goku.. come puoi leggere dalla mia firma.. anche io sono utente gentoo :-/
ma ho reinstallato winxp dopo 3 mesi... (in dualboot) perche ati + opengl proprio nisba... non c'è verso di farli andare d'accordo
in questo caso... spero che riscrivano sti driver [ anche se .... i giochi opengl ormai sono pochi :-/ ...m$ rules... ]
Come proprio nisba??? Ma OpenGl dove? Ma che Ati hai? Ehm... mi sa che stiamo OT-zzando ma la mia 8500 non va malaccio.
Insomma i 4 giochi in croce che ha Linux partono tutti. Tu che schedolla hai? Resta cmq Gentoo nel cuore che' e' bene :) Anche se e' giusto ammettere che i drivers nvidia per Linux ho letto che sono un passo avanti :(
Una scheda senza compromessi:
http://www.hwupgrade.it/articoli/1013/r420_xt_s.jpg
I compromessi (a parte che sembra una cassa da morto):
http://images.anandtech.com/reviews/video/NVIDIA/GeForce6800U/angle1.jpg
Se anche la 6800 fosse "senza compromessi" non so quanto andrebbe veloce :D
Ripeto, quanto scritto sopra: Se ATI avesse fatto uscire una 8500 superovervoltata superovercloccata con ram da paura per girare veloce come una geforce4 avrebbe fatto quello che nvidia stà facendo adesso con la 6800 per stare al passo con X800.
Ati non l'ha fatto dimostrandosi una ditta seria.
Non vi siete mai chiesti come mai le prestazioni sono quasi uguali ?
alexdf79
07-05-2004, 00:49
Ci devo pensare mmmm.......?????? credo che nei prossimi mesi passerò ad ATI.
Complimenti per la recensione!!
sì perchè le nvidia sono overclockate? ma hai visto la recensione e la sezione overclock di nvidia? se proprio vuoi fare il sospettoso chiediti come mai ci sia il frequency lock sulle schede ATi che danno ai giornalisti. Poi Nvidia al passo con ati? cioè nvidia avrebbe previsto che ati avrebbe sfornato l'x800 e perciò avrebbe overclockato? roba da FBI. Sino ad ora so soltanto che ATi per stare al passo con nvidia ha aumentato il numero di pipelines, con un risultato ottimo sia chiaro, ma è stata nvidia a darle la scossa o no? GokuSSJ x pura curiosità che distro linux hai? a cosa giochi sul pinguino? :P
p.s.: se avessi voluto un murales tabbozzo non avrei comprato una scheda ATi pg08x. Nel mio pc non ci sta bene è una scheda troppo poco sobria :D :D :D
Originariamente inviato da Black87
sì perchè le nvidia sono overclockate? ma hai visto la recensione e la sezione overclock di nvidia? se proprio vuoi fare il sospettoso chiediti come mai ci sia il frequency lock sulle schede ATi che danno ai giornalisti. Poi Nvidia al passo con ati? cioè nvidia avrebbe previsto che ati avrebbe sfornato l'x800 e perciò avrebbe overclockato? roba da FBI. Sino ad ora so soltanto che ATi per stare al passo con nvidia ha aumentato il numero di pipelines, con un risultato ottimo sia chiaro, ma è stata nvidia a darle la scossa o no? GokuSSJ x pura curiosità che distro linux hai? a cosa giochi sul pinguino? :P
Ti faccio un ragionamento, vediamo se mi segui e se mi spiego. Ci sono due società che si danno battaglia sul fronte schede video. Dalle notizie trapelate Ati doveva essere a 12 pipelines, poi è saltata fuori la XT a 16 e tutti a dire che ha aggiunto (impossibile, è più facile toglierle :) So che sembra un controsenso ma se hai qualcosa la puoi inibire e renderla inutilizzabile, se non c'è per aggiungerla devi riprogettare il chip e ridare il progetto a chi te lo produce, una gran perdita di tempo e denaro credimi) 4 pipelines. Poi decide di presentare a breve tempo anche la XT e quindi tutti a dire che è impaurita da Nvidia. Ok, ci può stare. Ma ti faccio questo ragionamento. R420 doveva avere dall'inizio 16 pipelines, a 600mhz, poi sappiamo che ora viaggia a 520 mhz, quindi io ti dico che ha visto che la 6800 Ultra era al pari o inferiore e si è adeguata cercando un clock che permettesse di giocarsela. Tra un pò a giochi fatti salta fuori una scheda a 600mhz e Ati ha la scheda più performante sul mercato. Io ho confutato la tua tesi, non ho prove, tu potrai confutare la mia ma non hai prove. Chi ha ragione? Boh :)
Quindi nessuna scossa da parte di Nvidia ma solo una regressione dei dati di targa.
Il lock del clock (sembra uno scioglilingua)? Tu sai che (da prove fatte) un NV40 raggiunge a fatica i 450mhz (lasciando perdere per il momento che in tanti si sono convinti che sia undervoltato e quindi vada "meno", ma quello che si sa è che i 450mhz in OC sono difficilmente raggiungibili) ma non sai quanto raggiunge un R420 in OC. Ti pare un punto a sfavore o un punto a favore di Ati? Propendo per il punto a favore :) E non dovrò di certo spiegarti il perchè.
Dall'altra parte si diceva che la 6800 Ultra dovesse essere a 475mhz ma viaggia a 400mhz. I problemi a salire del chip sono noti ma magari anche Nvidia si è tenuto un asso nella manica e quella gpu raggiunge senza problemi i 500mhz (scaldando un pelo di più). Chi ha ragione? Boh :)
Yossarian (che ne sa più di me quindi per me quello che dice ha senso e mi fido) ha detto che NV40 secondo suoi calcoli sembra più essere una 12+4 che una 16 pipelines pura (ok, 12+4 fa 16 ma le 4 sono pipelines ridotte) quindi chi ci dice (se e ribadisco se i calcoli sono giusti) che NV40 non fosse a 12 pipelines poi ridisegnata senza strafare a 16? Boh :)
Come vedi i dati in possesso se li guardi da una parte dicono una cosa, se li guardi dall'altra ne dicono un'altra, opposta. Poi ognuno ha le sue idee e le sposa ma non è detto che siano quelle giuste :)
Originariamente inviato da MaBru
Quake 4 che motore usa? Il Build di Duke Nukem vero? E il prossimo gioco Splash Damage?
Non nominare il nome di Duke Nuken invano!!! :D
Doveva uscire con il motore di quake 2 quando facevo le superiori.
Quando frequentavo l'uni mi ero scaricato il famoso filmato dell'E3 rimanendo stupefatto!
Ora che ho finito l'università da quasi un anno non NOMINATELO PIU'!!! :muro: :mc:
X fare bench ad una prima release del Source basta benchare Max Payne 2 che pare essere dimenticato da tutti, x il resto dei giochi tra Far Cry, HL2, Doom3 e Stalker non credo che Doom3 sarà il più rivoluzionario di tutti, ora come ora in filmati e foto non ho visto niente in più di Far Cry, nemici compresi. E il più promettente pare proprio Stalker, x le meccaniche di gioco.
sanitarium
07-05-2004, 09:28
Originariamente inviato da IcemanX
X fare bench ad una prima release del Source basta benchare Max Payne 2 che pare essere dimenticato da tutti, x il resto dei giochi tra Far Cry, HL2, Doom3 e Stalker non credo che Doom3 sarà il più rivoluzionario di tutti, ora come ora in filmati e foto non ho visto niente in più di Far Cry, nemici compresi. E il più promettente pare proprio Stalker, x le meccaniche di gioco.
Non ho capito, che c'entra Max Payne 2 con il Source di Half life 2? :confused:
L'unica cosa che hanno in comune questi due giochi è il fatto che entrambi usano l'havok 2.0 per la gestione della fisica. ;)
Ma non x l'havock:D
Io ero rimasto che il motore grafico usato era quello che si poteva usare del Source, xò purtroppo ora il mio gioco è in prestito...
sanitarium
07-05-2004, 09:34
Originariamente inviato da IcemanX
Ma non x l'havock:D
Io ero rimasto che il motore grafico usato era quello che si poteva usare del Source, xò purtroppo ora il mio gioco è in prestito...
No, il motore di Max Payne 2 è una versione fortemente rimaneggiata del primo episodio, non ha nulla a che fare con il Source di Half life 2. ;)
Stavo guardando anch'io, si me lo devo essere sognato allora... ;)
Devo averlo associato dopo aver giocato all'alpha di HL2 :D
Beh, vorrei dire pero' a pg08x una cosa: guarda, a dirti la verita' io ho la 8500 e me li ricordo bene i tempi della Geffo4. Le geffo4 erano nate apposta per tornare in testa ed erano ben piu' potenti delle geffo3 (uscite un mese prima, questo perche' nvda non rispetta molto i suoi utenti, a parer mio). Ti diro': la 8500 overvoltata finche volevi non aveva speranze di raggiungere la geffo4. La 8500 era una generazione piu' indietro: non bastava un overclock per spingerla ai livelli della 4200, che poi era una scheda fantastica, nulla da dire. Non esagerare quindi dai: qui c'e' una sfida fra due titani, la' c'era la 8500 che la sua battaglia contro la geffo3 l'aveva vinta. Poi nvidia come i bambini se l'e' presa e in un mese ha buttato fuori le geffo4. Mi ricordo pure che della 8500 erano uscite versioni a un sacco di mb e pure siti che overcloccavano, ma nulla da fare: le geffo4 erano troppo avanti.
x black87: la teoria della scossa la approvo, da entrambe le parti pero' ;) di Linux uso la Gentoo 1.4. Di giochi uso, piu' o meno regolarmente, UT2003, Railroad Tycoon 2 e ai tempi usavo Wolfenstein e Quake 3. Ho anche scaricato qualche gioco free in 3D e fra qualche giorno provero' le versioni beta di Serious Sam 1 e 2 (la beta dell'1 pero' ha la bug del mostro finale e non so perche' non la fixino). Qualche mese fa' giocavo anche a Neverwinter che girava benissimo, salvo che i filmati bink non si potevano vedere. Se pero' sei intenzionato a giocare a UT2003 ti dico subito che finche' ci giocavo con la versione ehm, non legalissima prestatami da un amico, andava benissimo, quando l'ho preso originale, addio: sotto Linux la versione 2199 non viene riconosciuta dalla patch :( In pratica ti conviene installarlo sotto Linux e poi copiare i files da un'installazione di Windows.
Ho fatto un OT enorme... anzi e' un semi-OT del resto si parla di drivers di schede grafiche ati eh :)
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Ho semplicemente detto che dopo 1 o 2 anni, quando ci sono in giro schede dalle prestazioni 2 o 3 volte superiori quelle che si vendono meglio, e lasciano il miglior "ricordo" negli utenti sono le schede performanti ma equilibrate.
Se oggi mi chiedessero per 100 euro quale scheda usata mi compro, una 5800ultra più veloce (ma troppo esasperata) oppure una 9700liscia (non la ultra), direi sicuramente la 9700liscia (tanto ormai non sono più schede al top).
Anche se la 5800ultra costava il doppio oggi come oggi la 9700liscia è più vendibile.
Quelle di ATI sono schede che lasciano il segno, alcune di nvidia sono solo esperimenti.
--------------------------------------------------------------------------------
tu hai detto questo.
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Quando i ps3 verranno usati dagli sviluppatori nv40 sarà già vecchio con tutti i suoi difetti e sarà ormai lento per i tempi.
La scheda di ATI fra qualche anno anche se non + al top rimmarrà sempre un hardware pensato per i gamers e senza compromessi come è stata la 9700 di cui raddoppia le prestazioni.
--------------------------------------------------------------------------------
quando i ps3 ed annessi FP32 saranno usati dai programmatori sarà proprio la 6800 a essere ancora in grado di fare qualcosa e non la x800 che non li supporta nemmeno ora.
oggi con gli shader2 ed fp24 la ati si può difendere/imporre ma fra un'anno quando i giochi/bench useranno gli shader3 ed fp32 secondo te chi vincerà la x800xt o la 6800 ultra?
lascia stare che fra un'anno ci saranno altre schede ati e nVidia migliori dell'attuale 6800 questo è fuor di dubbio. io parlo delle schede di ora, di adesso chi vincera in bench che richiederanno per forza gli shader 3 ed fp 32? e i bench futuri si baseranno a maggior ragione sui giochi futuri.
quindi è proprio la 6800 ad essere più longeva non la x800. buana, ottima per i giochi di oggi ma tarpata per quelli di domani.
nell'altro topic mi fai il confronto tra 5800 ultra e 9700 liscia dicendo che vince la seconda e io dico certo, la 5800 ultra è minata da un bus a 128 e 4 sole pipe per forza la 9700 è più longeva.
tutto il contrario di oggi.
ti rendi conto ora dell'assurdità che hai detto?
Scusami ma non credo sia un'assurdità, ATI ha fatto un'ottima mossa proponendo una scheda che semplicemente RADDOPPIA le prestazioni della precedente, permettendo di raggiungere livelli impensabili fino a due mesi fa. E questo nel segno di una serietà di approccio ai propri clienti, che possono utilizzare al massimo i giochi disponibili OGGI e nei prossimi anni. Nel frattempo non vuoi che in ATI abbiano già nella pancia il prodotto con shaders 3.0? Quando una scheda esce sul mercato, per i progettisti è già superata, c'è già la generazione successiva. Correttamente ATI aspetta che davvero gli sviluppatori producano titoli in shaders 3.0 (e questo non è banale, richiede tempo e soldi), nel frattempo propone ai suoi clienti un prodotto solido ed al massimo delle prestazioni. Concorderai che l'obsolescenza di una scheda è di 2-3 anni, e comunque anche i titoli che per allora saranno sfrutteranno gli shaders 3.0 dovranno essere necessariamente utilizzabili in 2.0 perchè l'interesse delle software house è quello di vendere ad una base più ampia possibile, quindi fra 3 anni chi avrà una X800 potrà sicuramente utilizzarla, oppure cambiarla se crede, e nel frattempo avrà giocato al massimo delle prestazioni per almeno 2 anni. Chi opterà per una 6800 sperimenterà per due anni i problemi di un prodotto forse troppo innovativo, nella speranza di poterlo utilizzare al meglio con i possibili titoli futuri, al massimo darà una mano a Nvidia per testare sulla propria pelle le correzioni ai bug, poi fra 3 anni sarà tentato anche lui di cambiarla visto che il mercato offrirà prodotti sempre migliori . Meglio un godere con un ottimo uovo oggi che soffrire sperando forse in una gallina spennacchiata domani!
OverClocK79®
07-05-2004, 13:50
x Paolo o Vifani
nn so se è possibile......farla questa prova
però mi interebbe vedere 1 benk
anke 1 solo nn di tutti
a 2048x1536 di queste skede :)
BYEZZZZZZZZZZZZZZZ
OverClocK79®
07-05-2004, 13:53
Originariamente inviato da GokuSSJ
Verissimo e corretto, tuttavia le G4 supportavano il ps 1.3, mentre le 8500 il 1.4... posso essere sincero ora? E infatti tutti i giochi usavano il 1.3 per la max compatibilita' :) L'acqua di Morrowind, il primo ps serio, usava il 1.3.
Per questo credo che in futuro non cambiera' nulla: sarebbe controproducente per le ditte.
Oggi la scelta di stare indietro col ps l'ha fatta ati, laddove in passato l'aveva fatta nvda.
ah ok si parlvava di shader 1.3 e 1.4
avevo capito fosse un discorso di DX
eh si
infatti IMHO l'ho trovata strana questa scelta
Ati da sempre avanti a livello di feature....
questo giro ha deciso di rimanere indietro......
il tempo ci dirà se è stata una scelta saggia o meno....
BYEZZZZZZZZZZZZ
generals
07-05-2004, 14:20
vorrei aggiungere una riflessione alla discussione, cosa sarebbe accaduto se dal lancio della geforce fx 5800 ati avrebbe risposto con schede di pari rumorosità, ingombranti e mangia watt. adesso potevamo scegliere tra due schede che occupavano da sole un case, consumavano 800 watt e per il rumore ...non ne parliamo. a parte il paradosso nvidia pur di prevalere si spinge troppo oltre in termini di consumi, spazio occupato, ecc, per fortuna ati non la segue su questa via altrimenti noi uten ti non avremmo scelta. ciao
scusate...
ho appena letto la recensione e le prime pagine dei commenti (non le ho lette tutte), non so se e' già stato detto ma non e' magari possibile cambiare i colori nei grafici in modo da vedere subito le schede ati e nvidia invece di dover leggere tutto, come e' sempre stato fatto anche nelle altre prove?
Mi scuso se e' già stato rilevato e mi congratulo per il buon lavoro.
saluti :)
mah per il consumo non mi pare che la scheda nvidia consumi molto più di quella ATi, si parla di 40W effettivi se non erro. Riguardo alla risposta datami in precedenza, scusate ma mi pare che la discussione sia un po ingiusta: se ati abbassa le frequenze prima di far uscire la scheda vuol dire che si vuole giocare Nvidia (mah mi sembra una baggianata, sai quanto ci guadagnava di + a far vedere che la scheda avrebbe avuto altissimi margini di overclock +ttosto che giocare con la casa rivale?) mentre se Nvidia presenta la scheda con frequenze abbassate vuol dire che ha problemi di instabilità. O ragioni in un modo o in un altro, non rispetto a chi ti piace di +. Non mi sembra che in termini di overclock nvidia non sia stata soddisfacente, vorrei a questo punto citare un passo della recensione di questo sito:
L'incremento nelle prestazioni che ha portato l'overclock è abbastanza soddisfaciente (specie alle alte risoluzioni) considerando che l'aumento delle frequenze è di 50 Mhz per il core e 40 Mhz per le memorie. Poiché durante tutti i test, compresi quelli in overclock, la temperatura del dissipatore è sempre stata tiepida, sia per quanto riguarda il core che per le memorie, riteniamo che le schede che raggiungeranno il mercato potranno possedere ulteriori margini.
Vi sembra poco? ripeto: sino ad ora l'unica scheda con il frequency lock è stata ATi, questo non vuol dire che la scheda non sia overclockabile certo, ma se proprio devono nascere sospetti, nascessero su questo punto e non sulla fantomatica instabilità della scheda nvidia in overclock o delle altrettanto fantaeconomiche strategie di clockaggio nvidia e ATi.
Originariamente inviato da pg08x
Io qui ti volevo portare e qui sei cascato !!!
ESATTAMENTE come gli shader 1.4 della 8500 permettono di fare con un'unica passata quello che richiedeva una combinazione di shaders (1.1 1.2 o 1.3)
e si passava da directx 8.0 a directx 8.1
Un paio di precisazioni: la situazione non e' per nulla simile. Gli shader 1.4 permettevano effetti che non erano possibili con l'1.3, se non in alcuni casi in piu' passate, in altri casi non erano semplicemente possibili.
Ora qualunque pixel shader 3.0 puo' essere scritto come un pixel shader 2.0, se non per limiti di istruzioni, in quel caso neppure piu' passate salverebbero la situazione.
Per quanto riguarda i vertex shader e il geometry instancing, non supportarli significa semplicemente non avere accesso a tutta una gamma di effetti e ottimizzazioni non emulabili in altro modo.
Se nei pixel shader il non supporto 3.0 non e' affatto un problema ne' lo sara', nei vertex shader la situazione e' decisamente diversa.
Infine, come ampiamente dimostrato proprio su questo forum, la certificazione DX8.1 non richiedeva il supporto dei ps1.4.
Scusa eh fek... ma bello Black & White anche se a me non piace molto, ma Dungeon Keeper 3 quando esce? Lo fate? :)
Originariamente inviato da falcon.eddie
Ehm come fai a dire che il motore di Doom 3 non sarà dato in licenza?Spero sia una fonte più attendibile di quella che dice che Hl2 va il 40% + veloce su una x800 che su una 6800...Che poi è la stessa che diceva che l'AA non avrebbe funzionato correttamente sulle nvidia,che poi è la stessa che 6 mesi fa (guardacaso)ha presentato dei grafici all'uscita della XT che mostravano la loro superiorità su nvidia nel loro gioco(fantasma aggiungo),che ha dichiarato fino a 10 giorni prima che il loro gioco sarebbe uscito per tempo...Hai letto la lettera scritta dall'(ex)amministratore del forum ufficiale di Half Life2? Credi ancora a quel panzone?... :rolleyes:
Cmq ricordo che i 2 molex sono per la Ultra,cosa che utenti low-end si sognano(di solito i miei clienti low end spendono 600€ per tutto il pc non per la scheda video...anzi già è tanto se vanno oltre una 9200/5200,chi la prenderà avrà almeno un ali di qualità[su una rece l'hanno provata su un enermax da 350W senza problemi]) ;)
Beh... la fonte è lo stesso Carmack.
E' stato lui stesso a dire qualche mese fa che il motore non sarebbe stato dato in licenza e che avrebbe fatto girare solo i giochi di casa Id.
Per il discorso del 40 % è ovvio che è tutto da verificare ma... personalmente credo più al ciccione (per quanto spregevole sia) che all' ex amministratore del forum di HL2: il suo mi è sembrato più un discorso frutto della desolazione che di un ragionamento a mente fredda.
Per il resto... sarò la politica dei prezzi a decdere la scheda regina.
Paoletta Corsini
07-05-2004, 18:44
Originariamente inviato da Xilema
Per il resto... sarò la politica dei prezzi a decdere la scheda regina.
;)
Originariamente inviato da GokuSSJ
Scusa eh fek... ma bello Black & White anche se a me non piace molto, ma Dungeon Keeper 3 quando esce? Lo fate? :)
L'Electronic Arts ha i diritti di Dungeon Keeper e non credo che li lasceranno. Quindi nulla :)
Originariamente inviato da fek
L'Electronic Arts ha i diritti di Dungeon Keeper e non credo che li lasceranno. Quindi nulla :)
Mannaggia!!!
Dungeon Keeper 2 è uno dei miei giochi preferiti e non ce lo vedo in altre mani se non in quelle di Peter. ;)
Originariamente inviato da MaBru
Mannaggia!!!
Dungeon Keeper 2 è uno dei miei giochi preferiti e non ce lo vedo in altre mani se non in quelle di Peter. ;)
Sottoscrivo in pieno. Vedendo le idee di b&w chissa' cosa avrebbero potuto fare con dk3! Pazienza: diritti alla EA che non sa che farsene...:muro:
Torno in tema: sd non ha ancora capito che i prezzi che ha messo sono fuffosi. Mah... speriamo se ne accorgano prima o poi ;)
Dark Schneider
07-05-2004, 21:32
Originariamente inviato da GokuSSJ
Beh, vorrei dire pero' a pg08x una cosa: guarda, a dirti la verita' io ho la 8500 e me li ricordo bene i tempi della Geffo4. Le geffo4 erano nate apposta per tornare in testa ed erano ben piu' potenti delle geffo3 (uscite un mese prima, questo perche' nvda non rispetta molto i suoi utenti, a parer mio). Ti diro': la 8500 overvoltata finche volevi non aveva speranze di raggiungere la geffo4. La 8500 era una generazione piu' indietro: non bastava un overclock per spingerla ai livelli della 4200, che poi era una scheda fantastica, nulla da dire. Non esagerare quindi dai: qui c'e' una sfida fra due titani, la' c'era la 8500 che la sua battaglia contro la geffo3 l'aveva vinta. Poi nvidia come i bambini se l'e' presa e in un mese ha buttato fuori le geffo4. Mi ricordo pure che della 8500 erano uscite versioni a un sacco di mb e pure siti che overcloccavano, ma nulla da fare: le geffo4 erano troppo avanti.
La GeForce 3 cmq è uscita nel Maggio 2001. Ad Ottobre 2001 sono stati immessi altri due modelli con frequenze divers:Ti200 e Ti500. La GeForce 4 Ti nell'Aprile 2002.
Cmq la 8500 la sua battaglia l'ha vinta sulle GeForce 3 poco prima dell'uscita della 4. Infatti aveva tantissimi problemi di drivers la 8500 che ne limitavano la bonta e le GeForce 3...la versione Ti500 gliele dava in quasi tutto il periodo in cui si son scontrati. Poi la 8500 è creciuta. Attualmente ovvio che una 8500 è meglio di una Ti500. :)
Ma se pg08x pensa che una 8500 adesso è ok.....e con l'"esperimento" GeForce 3 non si campa ora come ora...sbaglia ed anche di brutto. La 8500 alla fine si è dimostrata un po' più potente della Ti500 e non di certo un abisso a livello di differenze. Quindi se la 8500 ce la fa...ce la fa anche la GeForce 3.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.