View Full Version : Roundup GeForce 7800 GTX
Redazione di Hardware Upg
09-09-2005, 10:34
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1333/index.html
Dopo aver analizzato dettagliatamente sia dal punto di vista tecnologico che velocistico il processore grafico GeForce 7800 GTX di NVIDIA, esaminiamo layout, dotazione e propensione all’overclock di alcune implementazioni di questa GPU proposte da Asus, Gigabyte, Leadtek e XFX.
Click sul link per visualizzare l'articolo.
grazie per il bell'articolo :)
i test sul consumo mi piacciono sempre moltissimo
la mia idea è che il consumo di energia di una configurazione sli vale l'aumento di prestazioni, mentre sono le schede di fascia alta di per se a richiedere davvero tanta energia
è positivo pensare che nvidia abbia ottenuto un buon incremento prestazionale mantenendo i consumi costanti, ma da utente attendo una svolta come per le cpu, con l'uscita di tecnologie che facciano fare un netto passo indietro all'assorbimento elettrico, soprattutto in fase di "riposo" ma anche sotto stress
insomma... quando è previsto il "fenomeno centrino-turion" anche sulle vga?
ciaobye
...i distacchi nella configurazione SLI sono notevoli...ma la versione non overclock non distacca in maniera impressionante la vecchia generazione...
...ciao...
Michelangelo_C
09-09-2005, 11:10
Non ho acora letto l'articolo, ma non ho visto il modello della Leadtek recensito su hwupgrade proprio ieri, quello con il raffreddamento esagerato a due slot.. in teoria dovrebbe essere la migliore soluzione insieme a quella simile asus. Perchè non sono stati inseriti questi modelli?
Firedraw
09-09-2005, 11:18
mah sinceramente sta gtx nn mi pare una nuova generazione. Aspettiamo la r520 e speriamo che sia molto più performante, così se ne calano i prezzi, e sarebbe pure ora!!!
Ale.
Siamo sempre alle solite.
Test di schede nuove su giochi vecchi.
E' ovvio che non si può notare tutta sta differenza tra vecchia e nuova generazione.
Continuo a non capire il ritardo nell'adottare battlefield 2, demo di fear e cronicles of riddick (qui utilizzato solo per verificare l'oc) come test prestazionali.
Non si acquista una 7800GTX per giocare a doom3, farcry e hl2...
Paolo Corsini
09-09-2005, 11:34
Non ho acora letto l'articolo, ma non ho visto il modello della Leadtek recensito su hwupgrade proprio ieri, quello con il raffreddamento esagerato a due slot.. in teoria dovrebbe essere la migliore soluzione insieme a quella simile asus. Perchè non sono stati inseriti questi modelli?
http://www.hwupgrade.it/news/skvideo/15327.html
Leggendo meglio quella news, che non è una recensione, si capisce che abbiamo segnalato l'esistenza di quel modello, nel mercato retail giapponese. La scheda ovviamente non è a nostra disposizione in redazione, viceversa sarebbe entrata in questo articolo.
halduemilauno
09-09-2005, 11:39
mah sinceramente sta gtx nn mi pare una nuova generazione. Aspettiamo la r520 e speriamo che sia molto più performante, così se ne calano i prezzi, e sarebbe pure ora!!!
Ale.
non è una nuova generazione. ma l'evoluzione dell'NV40. non a caso il chip in origine si chiamava NV47.
cmq a tal proposito segnalo questa affermazione:
"ed alle frequenze più elevate della norma che ci regalano, oltre alle migliori prestazioni, anche un assaggio in scala ridotta di quello che potrebbe essere una futura GeForce 7800 Ultra."
;)
Michelangelo_C
09-09-2005, 11:45
Grazie a Corsini per la risposta e mi scuso per l'imprecisione..
Tecnico!!
09-09-2005, 11:48
Visto che siamo in vena di segnalazioni, segnalo questa news:
http://www.hwupgrade.it/news/skvideo/15313.html
In cui SI DICE che non ci sara' nessuna ultra....
Passatela anche a me ogni tanto la palla di vetro x vedere il futuro, che magari guarda il prossimo 6 al superenalotto...
beh ottima comparativa come sempre...anche se imho una 6800Ultra o una X850XT vanno ancora bene per godersi tutto al massimo dei dettagli ;) insomma vedo una 7800GTX ancora sovra dimensionata per le richieste attuali del mercato dei videogiocatori...
attendiamo tutti con ansia la prima rece di R520 :) per verificare prestazioni (che non mancheranno sicuramente) e consumi (quelli mi preoccupano)
TheRipper
09-09-2005, 11:52
Ottima scheda questa 7800GTX, anche se io penso che propendero' per la piu' economica GT che overclockata supera come prestazione la gtx a default. Certo, il distacco con la 6800Ultra non e' da "prossima generazione", maconsiderando che la GT si trova all'estero sulle 333€, non ha scopo propendere per la "vecchia" generazione.
Il processore grafico GeForce 7800 GTX si è riconfermato come la più veloce soluzione attualmente disponibile, eclissando letteralmente le prestazioni delle schede Radeon X850 XT PE
Eclissando letteralmente mi sembra una parola troppo grossa visti i test. Sta sempre sopra ma di poco, soprattutto alle risoluzioni in cui la gente gioca. Visto il contenuto tecnologico superiore, le 24 pipe, i PS 3.0, ecc ecc mi aspettavo di più, molto di più. Non griderei certo al miracolo.
TheRipper
09-09-2005, 11:56
Ma come li guardate i test? :D
A 1024x768 e' ovvio che il distacco non sia eccessivo...la CPU fa da collo di bottiglia! La vera potenza di questa scheda si vede a risoluzione alta e con filtri attivati...almeno con questi giochi.
*MATRIX*
09-09-2005, 12:12
Non si acquista una 7800GTX per giocare a doom3, farcry e hl2...
:D
già si acquista solo ed esclusivamente per 3d mark 2005 per poi fare gli sboroni con gli amici
:D
scherzo
Siamo sempre alle solite.
Test di schede nuove su giochi vecchi.
E' ovvio che non si può notare tutta sta differenza tra vecchia e nuova generazione.
Continuo a non capire il ritardo nell'adottare battlefield 2, demo di fear e cronicles of riddick (qui utilizzato solo per verificare l'oc) come test prestazionali.
Non si acquista una 7800GTX per giocare a doom3, farcry e hl2...
E' stato riportato solo un sottoinsieme dei benchmark normalmente proposti perché si tratta di un prodotto già ampiamente recensito qui: http://www.hwupgrade.it/articoli/skvideo/1311/index.html
Riguardo The Chronicles Of Riddick normalmente lo usiamo e continueremo ad usarlo negli articoli in cui eseguiamo test più estesi. Relativamente a Battlefield 2 e Fear, il primo lo stiamo valutando, mentre per il secondo attenderemo la versione finale del gioco e poi lo valuteremo.
Si lo avete già detto :D .
Rispetto il vostro lavoro, ma non mi sembra che dai vostri test emerga un'immagine corretta della reale differenza di prestazioni che c'è tra la 7800 e la vecchia generazione.
Anche se a differenza di altre volte, le consclusioni che traete sono corrette( "eclissando letteralmente" è corretto ma non si evince dai vostri test... come se lo aveste capito leggendo altre recensioni hehe scusate la malizia :D ).
Si lo avete già detto :D .
Rispetto il vostro lavoro, ma non mi sembra che dai vostri test emerga un'immagine corretta della reale differenza di prestazioni che c'è tra la 7800 e la vecchia generazione.
Anche se a differenza di altre volte, le consclusioni che traete sono corrette( "eclissando letteralmente" è corretto ma non si evince dai vostri test... come se lo aveste capito leggendo altre recensioni hehe scusate la malizia :D ).
Dai nostri test invece emerge, basta osservare i risultati non CPU limited e cioè quelli in alta risoluzione e con filtri abilitati. Sarà la 200esima volta che lo ripeto, ma evidentemente il desiderio di fare polemica è più forte del desiderio di leggere ciò che scrivo e in tal caso visto che normalmente scriviamo conclusioni errate (e ti invito a segnalarmi gli articoli) o che ti passa per la mente (seppur con malizia) che ci si possa rivolgere ad altri articoli per le nostre conclusioni, ti invito ad andare a leggere gli altri articoli.
Einhander
09-09-2005, 12:41
Bella recensione per grandi Gpu senza dubbio..
Tuttavia nn griderei ancora al miracolo ne tantomeno utilizzerei parole come "eclissa letteralmente",potrei forse nei confronti della 6800 ma nn certo della radeon-sbaglio o c'era pure un caso in cui DUE 6800 Ultra stavano sotto ad UNA x850xt PE?-
Cmq per il momento e' anche vero che quella e' la Gpu ati piu' potente quindi..
P.s.:Concordo in pieno con l'idea di effettuare test anche con giochi next gen e nn solo con quelli della precedente
veramente ottimo articolo, complimenti alla redazione.
Devo dire che
in un test, la mia povera 6800 ultra "fanalino di coda" e prima. Quello di rumorosita (noin sli) :sofico:
Il mio PC con X2 4400+ e silenzioso ma la vga e un trattore. :D
Come distacco con la vecchia generazione nn e moltissimo, vuoi x le basse risoluzioni, cpu etc. Mediamente si gioca @ 1024 or @ 1280
Questa generazione nn mi ha dato l'impressione del grande salto. Nulla da togliere alla 7800. Improvements ci sono dal lato filtri, alte risoluzioni e qualita di immagine.
Certo come upgrade sarebbe da pensarci un pochino, ma se si dovesse acquistare un nuovo pc, nn ci penserei 2 volte
Ciao
Dai nostri test invece emerge, basta osservare i risultati non CPU limited e cioè quelli in alta risoluzione e con filtri abilitati. Sarà la 200esima volta che lo ripeto, ma evidentemente il desiderio di fare polemica è più forte del desiderio di leggere ciò che scrivo e in tal caso visto che normalmente scriviamo conclusioni errate (e ti invito a segnalarmi gli articoli) o che ti passa per la mente (seppur con malizia) che ci si possa rivolgere ad altri articoli per le nostre conclusioni, ti invito ad andare a leggere gli altri articoli.
...beh in FarCry con filtri abilitati e risoluzione massima la differenza è di circa 2 frame cioè 3%...in HL2 la differenza è di 8 frame che in valore percentuale equivale a circa il 20%...la differenza c'è ma non è schiacciante sopratutto se si confrontano le differenze temporali e tecniche...D3 è un caso a parte...
...ciao...
DarKilleR
09-09-2005, 12:51
-considerando che le pipeline sono il 50% in + rispetto alla vecchia generazione.
-considerando che i vertex shader sono il 33% in + rispetto alla vecchia generazione
-considerando che nVidia ha pubblicamente dichiarato che le nuove pipeline progettate per la 7800 GTX dovrebbero essere il 30% + efficaci rispetto alle precedenti utilizzate sulle 6800 Ultra.
-Considerando i 200 Mhz in + sulle ram
-considerando la maggiore frequenza 430/470 Mhz per la GPU....
In teoria dovrebbe essere un mostro mettendo tutti questi dati oggettivi insieme, invece qui qualcosa non quaglia....chi ha attualmente una X800/X850 series o 6800 Series se cambia la scheda per questa generazione commette un grosso sbaglio. Tra un po' è quasi + grande il distacco tra la X850 e la 6800 che tra la 7800 GTX e la X850.
Veramente ottimo il sistema di dissipazione single slot con le heat-pipe, soluzione ideale per ridurre gli spazi e aumentare l'efficienza.
bellissima recensione secondo me la parte più interessante è stata quella di analizzare le varie personalizzazioni hardware (poche) e softaware e gli accessori che si trovano in bundle nel pacchetto...
mi è piacito molto anche il fatto di misusrare il rumore e la potenza assorbita...sulle prestazioni come si dice da tempo non sono le cpu a fare da collo di bottiglia ma bensì sono i giochi a non essere molto ottimizzati per la 7800...
ciao ciao
Per me eclissare letteralmente significa distanziare di brutto a qualsiasi risoluzione.
Considera anche che la maggior parte di noi gioca a 1024 o 1280(quasi tutti gli lcd 17 e 19 hanno 1280 come risoluzione nativa) ed a quelle risoluzioni non si nota tutta sta differenza.
...che però secondo me c'è eccome, ma verrebbe fuori solamente da test con giochi più avanzati graficamente.
Hl2 è il gioco che stressa molto pocole schede video. Se proprio volete usare quel motore, fatelo con counterstrike source che invece è più esigente in termini di risorse (non so perchè ma è cosi).
Cmq se per voi è polemica pura, lasciamo perdere gg.
TheRipper
09-09-2005, 13:13
Si infatti anche a mio avviso la 7800gtx "eclissa letteralmente" solo la 6800Ultra, mentre la x850xt ne esce solo un po' in penombra, cosa che considerando le differenze tecniche fra le due schede non dovrebbe accadere (16Pippe della Ati vs le 24 della 7800gtx).
Certo pero' che guardando il tutto dal punto di vista delle fasce di prezzo, possiamo tranquillamente mettere la x850xt nella stessa categoria della 7800gtx anche se dovrebbero essere "potenzialmente" su due categorie diverse.
Bisogna vedere r520 dove si piazzera'.
Eclissare significa stare sempre davanti. E qui succede sempre :)
Mi sembra alquanto inutile cercare di affermare che la distanza tra X850 e 7800 non è così netta come si vuole far credere. Non significa che la X850 sia una scheda da buttare ma visti i prezzi oggi come oggi sarebbe stupido preferirla alla GTX. E credo che questo articolo anche con il suo ridotto numero di test non faccia altro che confermarlo.
Quello che mi stupisce di più è vedere consumi inferiori alla Ultra anche overclockando la scheda e prestazioni nettamente superiori.
Circochecco
09-09-2005, 13:20
Per coloro i quali ritengono che si debbano fare prove con fear e con battlefield 2, sono d'accordo con la redazione per il fatto che valutare una nuova scheda video con il demo di fear, sia abbastanza superfluo, dato che trattasi di demo e che quindi da qui all'uscita potrebbero essere aggiunte delle migliorie al codice del motore, è come voler fare bench con una beta..
per quanto poi riguarda battlefield2, non so se esista una modalità timedemo, fondamentale se si voglia avere una piattaforma di riferimento standard per la realizzazione dei bench, qualora ci fosse penso sarebbe auspicabile se fosse inserita..
Vorrei fare una domanda alla redazione e spero tanto in una vostra risposta.. ma la soppressione dell'uscita VGA non potrebbe essere per una SURRETTIZIA introduzione a nostra insaputa delle tecnologie DRM (da sbloccarsi poi non so quando)? Cosa ne pensate?
Ciauz :)
Per me eclissare letteralmente significa distanziare di brutto a qualsiasi risoluzione.
Considera anche che la maggior parte di noi gioca a 1024 o 1280(quasi tutti gli lcd 17 e 19 hanno 1280 come risoluzione nativa) ed a quelle risoluzioni non si nota tutta sta differenza.
...che però secondo me c'è eccome, ma verrebbe fuori solamente da test con giochi più avanzati graficamente.
Hl2 è il gioco che stressa molto pocole schede video. Se proprio volete usare quel motore, fatelo con counterstrike source che invece è più esigente in termini di risorse (non so perchè ma è cosi).
Cmq se per voi è polemica pura, lasciamo perdere gg.
Non esiste il "distanziare di brutto a qualsiasi risoluzione". Se un gioco ad una determinata risoluzione è CPU limited c'è ben poco da fare e neanche una GPU con 48 pipeline potrà mai andare più veloce. HL2 con la demo canals è uno di quelli che, invece, ha fatto segnare i distacchi più elevati ad alte risoluzioni con filtri abilitati.
Secondo me voi avete un po sopravalutato la GeForce 7800 GTX. E' la scheda più veloce del mercato, ma ciò non significa che debba essere il doppio più veloce di quelle precedenti o cose simili. Se in Far Cry nella demo Volcano con filtri abilitati la 7800 GTX a 1600x1200 fa 2 fps in più della Radeon X850 XT PE non è perché il sistema è CPU limited. Basta guardare i distacchi all'aumentare della risoluzione.
GeForce 7800 GTX
1024 - 136,5
1280 - 93,3
1600 - 67,8
Ergo la GeForce 7800 GTX non è CPU limited e in Far Cry con quella mappa a 1600x1200 fa 2 fps in più della Radeon X850 XT PE. Vi sembra strano? Siete delusi? Prendetevela con NVIDIA e non con i risultati o con la scelta dei giochi usati perché è evidente che non è CPU limited il sistema in quelle condizioni.
Probabilmente l'espressione "eclissare" è un po eccessiva, tuttavia resta il fatto che la GeForce 7800 GTX è la più veloce e, visti i prezzi delle X850 XT PE, è anche la più conveniente.
Far Cry, Doom 3 e Half-Life 2 sono e restano attualmente alcuni dei giochi graficamente più appaganti e più avanzati e continueranno ad essere utilizzati fino a quando non diventeranno inadeguati, cosa che attualmente non sono. Battlefield 2 probabilmente lo introdurremo in qualche prossimo articolo, mentre per FEAR, il gioco non è ancora disponibile e quando lo sarà si vedrà se sarà adeguato (probabilmente si).
leoneazzurro
09-09-2005, 15:49
Secondo me voi avete un po sopravalutato la GeForce 7800 GTX. E' la scheda più veloce del mercato, ma ciò non significa che debba essere il doppio più veloce di quelle precedenti o cose simili. Se in Far Cry nella demo Volcano con filtri abilitati la 7800 GTX a 1600x1200 fa 2 fps in più della Radeon X850 XT PE non è perché il sistema è CPU limited. Basta guardare i distacchi all'aumentare della risoluzione.
C'è da dire anche che per mantenere bassi i prezzi della 7800 GT/GTX Nvidia non ha messo in specifica memorie molto più performanti rispetto a quelle della precedente generazione e questo in molte situazioni bandwidth limited si sente abbastanza, IMHO. Difatti da alcuni test in rete mi sembra che le 7800 guadagnino molto più con l'aumentare della banda passante delle memorie che non con l'aumento della frequenza del core.
Pistolpete
09-09-2005, 16:03
Siamo sempre alle solite.
Test di schede nuove su giochi vecchi.
E' ovvio che non si può notare tutta sta differenza tra vecchia e nuova generazione.
Continuo a non capire il ritardo nell'adottare battlefield 2, demo di fear e cronicles of riddick (qui utilizzato solo per verificare l'oc) come test prestazionali.
Non si acquista una 7800GTX per giocare a doom3, farcry e hl2...
Che due @@.
Sempre con questi commenti da BAR.
Non se ne può più.
Parli parli...ma scusa: hai provato la demo di F.E.A.R.?????? Hai visto quanto non sia ottimizzata? Hai visto quanto "swappa"?
Se devi muovere delle critiche nei confronti della splendida redazione di harware upgrade perchè non lo fai in maniera più costruttiva??
Altro che DEMO.....
Non hai notato che da questo mese in avanti arriveranno titoli veramente nuovi (dal punto di vista grafico)???
E poi cosa credi, che il 95% delle persone che gioca col pc quando compra la 7800GTX smetta di giocare a DOOM 3 HL2 e compagnia solo perchè hanno 1 anno sulle spalle????
Ma io sono d'accordo con le vostre conclusioni, perchè ho letto altre recensioni su altri siti che considero altrettanto validi come il vostro (e non solo io per fortuna).
Il problema non è solo la situazione cpu limited. Il problema sono i giochi che testate, che non sono abbastanza pesanti da far emergere la potenza di calcolo nettamente superiore della GTX rispetto alle rivali.
Tanto per capirci, per giocare fluidamente ai giochi che avete testato, non è necessaria ne una 7800GTX ne una GT e probabilmente nemmeno una x850xt pe...
Il target a cui è indirizzato sta scheda non ha nessun interesse a sapere che farà 160 fps a hl2 o 100 a doom3. Non prendiamoci in giro, questi sono giochi che sono usciti almeno 1 anno fa!!!!
Io, possibile compratore, voglio sapere come si comporterà la mia scheda con i giochi di nuova generazione, quelli con sm 3.0, quelli con hdr, quelli con normal maps...
Inutile testare la velocità massima di una macchina su circuito tutto curve. Gli faremo fare un bel rettilineo per metterla veramente alla prova?
Chiudo meravigliandomi di come mi si possa accusare di voler fare solo polemica, mi sembra di argomentare sufficentemente le mie critiche.
Che due @@.
Sempre con questi commenti da BAR.
Non se ne può più.
:what:
Parli parli...ma scusa: hai provato la demo di F.E.A.R.?????? Hai visto quanto non sia ottimizzata? Hai visto quanto "swappa"?
Forse tu confondi la beta multiplayer di FEAR con il demo singleplayer. Se tu avessi provato la demo singleplayer non avresti mai scritto un' inesattezza di questo tipo.
Se devi muovere delle critiche nei confronti della splendida redazione di harware upgrade perchè non lo fai in maniera più costruttiva??
Altro che DEMO.....
Più costruttiva di così... ho spiegato le ragione per cui secondo me quei titoli non sono adatti a benchare una scheda così potente... i risultati dei test mi danno ragione visto che molte situazioni sono cpu limited...
Non hai notato che da questo mese in avanti arriveranno titoli veramente nuovi (dal punto di vista grafico)???
Io ho notato che sono già usciti diversi titoli veramente nuovi dal punto di vista grafico, tu dov'eri? A giocare a drakan o a system shock 2?
E poi cosa credi, che il 95% delle persone che gioca col pc quando compra la 7800GTX smetta di giocare a DOOM 3 HL2 e compagnia solo perchè hanno 1 anno sulle spalle????
Secondo me nessuno gioca più a doom3 ne ad halflife2. Semmai c'è molta gente che gioca online a counterstrike source che però utilizza il motore di hl2 in maniera differente e si fa molta più fatica a fare frame rates accettabili.
Lucrezio
09-09-2005, 20:00
A quando, scusate la domanda un po' gretta - l'uscita di un 7600 - una scheda di fascia media, dai consumi ridotti e dal prezzo non esagerato, magari raffreddata passivamente?
Quella si che mi farebbe gola...
Ma io sono d'accordo con le vostre conclusioni, perchè ho letto altre recensioni su altri siti che considero altrettanto validi come il vostro (e non solo io per fortuna).
Il problema non è solo la situazione cpu limited. Il problema sono i giochi che testate, che non sono abbastanza pesanti da far emergere la potenza di calcolo nettamente superiore della GTX rispetto alle rivali.
Tanto per capirci, per giocare fluidamente ai giochi che avete testato, non è necessaria ne una 7800GTX ne una GT e probabilmente nemmeno una x850xt pe...
Il target a cui è indirizzato sta scheda non ha nessun interesse a sapere che farà 160 fps a hl2 o 100 a doom3. Non prendiamoci in giro, questi sono giochi che sono usciti almeno 1 anno fa!!!!
Io, possibile compratore, voglio sapere come si comporterà la mia scheda con i giochi di nuova generazione, quelli con sm 3.0, quelli con hdr, quelli con normal maps...
Noi attualmente eseguiamo i test con tutti i titoli più pesanti e tecnologicamente più esigenti che ci sono sul mercato e che ovviamente ci consentono di eseguire benchmark: Far Cry, Doom 3, Half-Life 2, The Chronicles Of Riddick e Splinter Cell Chaos Theory. Del resto il fatto che i giochi qui citati vengano utilizzati anche da praticamente tutti i miei colleghi nazionali ed internazionali fa capire che al momento attuale non è possibile avere di meglio. Le cose che hai elencato tu, inoltre, sono già supportate da questi giochi: SM3.0 lo sfrutta Splinter Cell CT e Far Cry, le normal maps praticamente qualsiasi gioco con bump mapping (se ti riferisci a quelle compresse 3DC, allora sappi che Far Cry le supporta) e l'HDR lo puoi vedere sempre in Splinter Cell CT.
Quando usciranno giochi nuovi più pesanti e tecnologicamente avanzati in versione definitiva (non beta, demo o chiacchiere varie) e che ci consentono di eseguire benchmark, li valuteremo (come stiamo facendo per Battlerfield 2) e, eventualmente, li inseriremo nel nostro pacchetto benchmark.
Resta tuttavia il fatto che con i giochi attuali in situazione non CPU limited sfruttano tranquillamente la potenza di calcolo di G70 e ne rivelano le prestazioni. Ti ricordo che G70 ha (transparency AA a parte), il medesimo supporto tecnologico di NV40 e pertanto dove è sfruttato l'uno, è sfruttato anche l'altro. Possono esserci delle situazioni MOLTO SPECIFICHE in cui G70, al di là del vantaggio in termini di frequenza e pipe, può andare meglio di NV40 grazie alla doppia unità MAD, ma questo dipende da come sono programmati gli shaders e dalle esigenze artistiche ed economiche di un videogames e dei suoi sviluppatori. Di certo al momento attuale non faranno mai un gioco che con G70 va a 10 fps, altrimenti il gioco sarebbe un completo flop commerciale.
Certamente si tratta di schede mostruose....anche nei consumi...sono sconcerato...secondo me questo non è vero progresso. Altro che 1Kw....
PS: complimenti per l'articolo e bellissima soprattutto la parentesi (dissertazione) sui consumi, dovreste calarvi più spesso in questi particolari ;)
MiKeLezZ
09-09-2005, 22:28
Bella recensione per grandi Gpu senza dubbio..
Tuttavia nn griderei ancora al miracolo ne tantomeno utilizzerei parole come "eclissa letteralmente",potrei forse nei confronti della 6800 ma nn certo della radeon-sbaglio o c'era pure un caso in cui DUE 6800 Ultra stavano sotto ad UNA x850xt PE?-
Cmq per il momento e' anche vero che quella e' la Gpu ati piu' potente quindi..
P.s.:Concordo in pieno con l'idea di effettuare test anche con giochi next gen e nn solo con quelli della precedente
Sbaglio o il tuo nick è un richiamo all'omonimo giocone (fin troppo sottovalutato) della Square?
Comunque è tedesco, è significa "una mano", non il massimo come nick :P , andava giusto bene per il gioco perchè la navicella aveva una mano prensile...
Comunque, non ci ho fatto troppo caso, ma 6800 Ultra e X850XT PE mi son sembrate equivalenti o quasi, una volta in vantaggio una, un'altra l'altra.
Quindi, se dovesse, le "eclisserebbe" entrambe.
In ogni caso il vantaggio mi sembrava di circa il 30%, non moltissimo, ma probabilmente sufficiente per l'acquisto.
-considerando che le pipeline sono il 50% in + rispetto alla vecchia generazione.
-considerando che i vertex shader sono il 33% in + rispetto alla vecchia generazione
-considerando che nVidia ha pubblicamente dichiarato che le nuove pipeline progettate per la 7800 GTX dovrebbero essere il 30% + efficaci rispetto alle precedenti utilizzate sulle 6800 Ultra.
-Considerando i 200 Mhz in + sulle ram
-considerando la maggiore frequenza 430/470 Mhz per la GPU....
In teoria dovrebbe essere un mostro mettendo tutti questi dati oggettivi insieme, invece qui qualcosa non quaglia....chi ha attualmente una X800/X850 series o 6800 Series se cambia la scheda per questa generazione commette un grosso sbaglio. Tra un po' è quasi + grande il distacco tra la X850 e la 6800 che tra la 7800 GTX e la X850.
Veramente ottimo il sistema di dissipazione single slot con le heat-pipe, soluzione ideale per ridurre gli spazi e aumentare l'efficienza.
Davvero han detto tutto questo?? :o
In effetti mi sembra semplicemente la naturale evoluzione a 20 e 24 pipe del progetto 6000, nulla di nuovo.
A parte forse una cosa, la gestione dei filtri.
Ho visto degli screen su HL2 e samples in cui la qualità era aumentata in modo pazzesco, raggiungendo, e forse superando, quella delle schede Ati.
Poi mi son letto la recensione di hwupgrade, dove si dice che la qualità è forse peggiore che quella della serie precedente e sono caduto nello sconforto più totale.
Merita approfondimenti!
Eclissare significa stare sempre davanti. E qui succede sempre :)
No in realtà eclissare significa "adombrare", "annichilire", ha un significato abbastanza pesante.
Insomma significa che se hai un G70 da una parte, e 6800 dall'altra, puoi prendere la 6800 e buttarla nel lozzo, da tanto che fa schifo al suo confronto.
Cosa che francamente non è così... Anzi... Se nella famosa recensione han pure detto che rimane con una qualità migliore con i filtri attivati, se i consumi sono gli stessi, di eclissamento c'è poco.
Questi aggettivi "estremi" e un po' fuori luogo ho notato che non sono così infrequenti quando si parla di nVidia, AMD e Apple... Sarà un caso.. mha! Spero!
C'è da dire anche che per mantenere bassi i prezzi della 7800 GT/GTX Nvidia non ha messo in specifica memorie molto più performanti rispetto a quelle della precedente generazione e questo in molte situazioni bandwidth limited si sente abbastanza, IMHO. Difatti da alcuni test in rete mi sembra che le 7800 guadagnino molto più con l'aumentare della banda passante delle memorie che non con l'aumento della frequenza del core.
E' che le performance in overclock sembra vadano "a scalini", ovvero da un tot fino ad un altro tot rimangono le stesse.. Per poi saltare al valore successivo.
Ma io sono d'accordo con le vostre conclusioni, perchè ho letto altre recensioni su altri siti che considero altrettanto validi come il vostro (e non solo io per fortuna).
Il problema non è solo la situazione cpu limited. Il problema sono i giochi che testate, che non sono abbastanza pesanti da far emergere la potenza di calcolo nettamente superiore della GTX rispetto alle rivali.
Tanto per capirci, per giocare fluidamente ai giochi che avete testato, non è necessaria ne una 7800GTX ne una GT e probabilmente nemmeno una x850xt pe...
Il target a cui è indirizzato sta scheda non ha nessun interesse a sapere che farà 160 fps a hl2 o 100 a doom3. Non prendiamoci in giro, questi sono giochi che sono usciti almeno 1 anno fa!!!!
Io, possibile compratore, voglio sapere come si comporterà la mia scheda con i giochi di nuova generazione, quelli con sm 3.0, quelli con hdr, quelli con normal maps...
Inutile testare la velocità massima di una macchina su circuito tutto curve. Gli faremo fare un bel rettilineo per metterla veramente alla prova?
Chiudo meravigliandomi di come mi si possa accusare di voler fare solo polemica, mi sembra di argomentare sufficentemente le mie critiche.
Sì in effetti son d'accordo... Appurato che HL2, Far Cry e amici "vanno come una schiopettata" sia con i filtri e senza, poco importa se siano 120fps oppure 160fps, resta da appurare se esistono o meno giochi che mettano in ginocchio le schede, e in che misura.
Quindi positivo il fatto ci sia Riddick, ma sarebbe da ampliare!
Certamente si tratta di schede mostruose....anche nei consumi...sono sconcerato...secondo me questo non è vero progresso. Altro che 1Kw....
PS: complimenti per l'articolo e bellissima soprattutto la parentesi (dissertazione) sui consumi, dovreste calarvi più spesso in questi particolari ;)
Guarda che i numerini in VA sono chiaramente riferiti all'intero sistema PC, questa è una precisione che secondo me sarebbe doverosa fare, è scontata, ma parecchi ci cascano.
Anche perchè 200W una scheda video sarebbe pura follia.
Quindi puoi anche meglio capire quanto sia davvero ridicolo 1Kw di alimentatore, se poi devi alimentarci 250W di roba...
Rinnovo comunque i complimenti per quel trafiletto che vedo è diventato un appuntamento fisso, ed è tecnicamente corretto!!
bell'articolo, anche se è dura recensire schede video uguali :/
comunque i giochini potrebbero anche tenerseli, preferirei risparmiare i soldini :/
scheda nuda e cruda, con 3 anni di garanzia, e sono a posto, altro che splinter cell o x2 in omaggio
a me piacerebbe vedere coma se la cavano con Everquest II a EXTREME quality!
li si dovrebbe vedere tutta sta potenza.....e vi assicuro che nn c'è Doom III o Riddick che tengano!
http://img35.imageshack.us/img35/9642/eq20001025uq.th.jpg (http://img35.imageshack.us/my.php?image=eq20001025uq.jpg)
http://img35.imageshack.us/img35/1838/eq20001015pz.th.jpg (http://img35.imageshack.us/my.php?image=eq20001015pz.jpg)
http://img35.imageshack.us/img35/9964/eq20001008jn.th.jpg (http://img35.imageshack.us/my.php?image=eq20001008jn.jpg)
http://img35.imageshack.us/img35/3155/eq20000994pw.th.jpg (http://img35.imageshack.us/my.php?image=eq20000994pw.jpg)
http://img121.imageshack.us/img121/9833/eq20000301xf.th.jpg (http://img121.imageshack.us/my.php?image=eq20000301xf.jpg)
http://img121.imageshack.us/img121/2133/eq20000892yb.th.jpg (http://img121.imageshack.us/my.php?image=eq20000892yb.jpg)
bond_san
10-09-2005, 02:08
... l'inserimento della x850xt pe, e soprattutto scrivere che la 7800 eclissa notevolmente la prima, ma che bravi, ma che scoperta !!!....ma il round up non era solo su una selezione di 7800 ? :mbe:
va bene inserire anche la 850xt, ma non mi sembra corretto denigrarla in questa maniera... :nonsifa:
il confronto e eventuali denigrazioni, facciamoli con r520, quando e se uscirà :asd: ....non vi pare ?...insomma non si riesce a essere obbiettivi neanche quando un articolo è incentrato su una sola tipologia di prodotto :rolleyes: perchè innescare flame inutili a tutti i costi, non ce ne sono già abbastanza su questo forum ??? :doh:
Pistolpete
10-09-2005, 02:14
Forse tu confondi la beta multiplayer di FEAR con il demo singleplayer. Se tu avessi provato la demo singleplayer non avresti mai scritto un' inesattezza di questo tipo.
L'ho provata su un pc con specifiche ottime(la demo singleplayer). Sei tu che non sai di cosa parli. Leggiti un po' di feedback che trovi sui forum di varie redazioni di videogiochi.
La tua è una grossa inesattezza. E poi, al di là di ciò, non ha senso usare una DEMO per effettuare test su componenti hardware.
Più costruttiva di così... ho spiegato le ragione per cui secondo me quei titoli non sono adatti a benchare una scheda così potente... i risultati dei test mi danno ragione visto che molte situazioni sono cpu limited...
I vari test eseguiti a 1600*1200 parlano ancora, e lo fanno bene. Anche con i filtri. Altro che titoli inadatti.
Io ho notato che sono già usciti diversi titoli veramente nuovi dal punto di vista grafico, tu dov'eri? A giocare a drakan o a system shock 2?
Ma veramente mi pare che giochi come F.E.A.R., STALKER , Call of Duty 2, Quake IV, etc debbano ancora uscire....Age of Empires 3 etc......
Ci sono state delle uscite, ma il grosso (del dopo Doom3-HL2) parte da ora.
Secondo me nessuno gioca più a doom3 ne ad halflife2. Semmai c'è molta gente che gioca online a counterstrike source...
Ma per favore... ci sono ancora eccome, c'è chi se li rigode perchè ha da poco cambiato scheda video, chi si gioca le espansioni, chi i mod, etc....
Sicuramente è una percentuale inferiore visto che siamo a più di un anno dal lancio, ma non esageriamo.....
"nessuno"....
MiKeLezZ
10-09-2005, 02:20
Io sto giocando ora a Vice City! E nel cassetto ho ancora HL2 da finire, e GW da iniziare!
I giochi mica hanno una scadenza :P
Pistolpete
10-09-2005, 02:28
Io sto giocando ora a Vice City! E nel cassetto ho ancora HL2 da finire, e GW da iniziare!
I giochi mica hanno una scadenza :P
Sì certo, ma c'è anche chi non capisce queste cose (che sono oltretutto normali).
Io sto giocando ora a Vice City! E nel cassetto ho ancora HL2 da finire, e GW da iniziare!
I giochi mica hanno una scadenza :P
io sto ricominciando Mafia da capo.....cacchio pebsa ad un gioco così con un motore grafico odierno...roba da sbavare!!
Cmq il salto prestazionale c'è indubbiamente stato tra la generazione precedente a questa,ma non così eclatante come quando furono presentate le prime x800 e 6800......che PERMETTEVANO di giocare a giochi come Far Cry a risoluzioni elevate e anche con qualche filtro.
Secondo me il gran giudice di tutto sto fiorire di schede,sarà il nuovo unreal tournament e relativo motore grafico.
C'è anche gente - come il sottoscritto - che pur giocando abbastanza non può permettersi di cambiare skeda ogni anno...
Io con la mia Hercules 9700 Pro - con i debiti compromessi - ho giocato Medal of honor, mafia, vietcong, battlefield, call of duty, splinter cell ecc. ecc.
E' chiaro che sono uno di quelli in assoluto che passando alla 7800 GTX ha sentito in maniera esagerata :sofico: il salto prestazionale..
IMHO spero di poter tenere la suddetta scheda per i prossimi 2 anni (forse 3) per giocare, magari levandomi anche lo sfizio ora di giocare a mafia in 1600x1200 con tutti i filtri attivi :cool: e stare tranquillo per un pò con i giochi di prossiam generazione
DarKilleR
10-09-2005, 15:13
-considerando che le pipeline sono il 50% in + rispetto alla vecchia generazione.
-considerando che i vertex shader sono il 33% in + rispetto alla vecchia generazione
-considerando che nVidia ha pubblicamente dichiarato che le nuove pipeline progettate per la 7800 GTX dovrebbero essere il 30% + efficaci rispetto alle precedenti utilizzate sulle 6800 Ultra.
-Considerando i 200 Mhz in + sulle ram
-considerando la maggiore frequenza 430/470 Mhz per la GPU....
In teoria dovrebbe essere un mostro mettendo tutti questi dati oggettivi insieme, invece qui qualcosa non quaglia....chi ha attualmente una X800/X850 series o 6800 Series se cambia la scheda per questa generazione commette un grosso sbaglio. Tra un po' è quasi + grande il distacco tra la X850 e la 6800 che tra la 7800 GTX e la X850.
Veramente ottimo il sistema di dissipazione single slot con le heat-pipe, soluzione ideale per ridurre gli spazi e aumentare l'efficienza.
Davvero han detto tutto questo?? :o
In effetti mi sembra semplicemente la naturale evoluzione a 20 e 24 pipe del progetto 6000, nulla di nuovo.
A parte forse una cosa, la gestione dei filtri.
Ho visto degli screen su HL2 e samples in cui la qualità era aumentata in modo pazzesco, raggiungendo, e forse superando, quella delle schede Ati.
Poi mi son letto la recensione di hwupgrade, dove si dice che la qualità è forse peggiore che quella della serie precedente e sono caduto nello sconforto più totale.
Merita approfondimenti!
Naturalmente G70 è una revisione e perfezionamento di NV4X...a cui sono state aggiunte ed aumentate varie caratteristiche.
Se controlli tutte le cose elencate sopra, ci son tutte.
-le pipe son passate da 16 a 24 +50%
-i vertex shader da 6 a 8 +33%
-le pipeline (dichiarazione nVidia) ne è stata aumentata l'efficienza del 30% mi sembra è riportato anche in una news di questo sito.
-le ram da 1100 Mhz siamo passati a 1300 Mhz
-le frequenze della GPU variabile dai 400 della ultra ai 430/470. quasi l'8%
Quello che mi sdubbia è che proprio con la prova su strada, non sembra che ci siano tutti questi aumenti prestazionali in modo proporsionale con le caratteristiche.
P.S. mi faceva notare un mio amico ieri sera che se uno si mette a guardare i distacchi in percentuale in cui è in vantaggio la X850 XT PE (mi sembra tutti i casi tranne 2) sulla 6800 U, e quelli tra la 7800 GTX e la X850 XT PE, è quasi maggiore il primo caso...è vero???? :o
halduemilauno
10-09-2005, 15:32
Naturalmente G70 è una revisione e perfezionamento di NV4X...a cui sono state aggiunte ed aumentate varie caratteristiche.
Se controlli tutte le cose elencate sopra, ci son tutte.
-le pipe son passate da 16 a 24 +50%
-i vertex shader da 6 a 8 +33%
-le pipeline (dichiarazione nVidia) ne è stata aumentata l'efficienza del 30% mi sembra è riportato anche in una news di questo sito.
-le ram da 1100 Mhz siamo passati a 1300 Mhz
-le frequenze della GPU variabile dai 400 della ultra ai 430/470. quasi l'8%
Quello che mi sdubbia è che proprio con la prova su strada, non sembra che ci siano tutti questi aumenti prestazionali in modo proporsionale con le caratteristiche.
P.S. mi faceva notare un mio amico ieri sera che se uno si mette a guardare i distacchi in percentuale in cui è in vantaggio la X850 XT PE (mi sembra tutti i casi tranne 2) sulla 6800 U, e quelli tra la 7800 GTX e la X850 XT PE, è quasi maggiore il primo caso...è vero???? :o
la ram da 1100 a 1200. parlo di default.
;)
Ma il collo di bottiglia è la CPU!!! Un conto è fare la media degli incrementi a 1024, 1280 e 1600 con e senza AA, un conto è vedere gli incrementi solo a 1600 con AA, dov e spesso non si è CPU limited (poi può essere anche di no). Alcuni siti per testare le schede video benchano a 2048x1536 (non so se con AA), però qui c'è il problema che esce vincente la scheda con banda di ram maggiore... Inoltre le schede ed il loro prezzo in genere sono rapportate ai benchmark: ossia i produttori cacciano schede con prezzo "proporzionale" al 3d Mark, anche se magari hanno bus a 128 bit e ram DDR1 e quindi alle alte risoluzioni fanno schifo...
Naturalmente G70 è una revisione e perfezionamento di NV4X...a cui sono state aggiunte ed aumentate varie caratteristiche.
Se controlli tutte le cose elencate sopra, ci son tutte.
-le pipe son passate da 16 a 24 +50%
-i vertex shader da 6 a 8 +33%
-le pipeline (dichiarazione nVidia) ne è stata aumentata l'efficienza del 30% mi sembra è riportato anche in una news di questo sito.
-le ram da 1100 Mhz siamo passati a 1300 Mhz
-le frequenze della GPU variabile dai 400 della ultra ai 430/470. quasi l'8%
Quello che mi sdubbia è che proprio con la prova su strada, non sembra che ci siano tutti questi aumenti prestazionali in modo proporsionale con le caratteristiche.
P.S. mi faceva notare un mio amico ieri sera che se uno si mette a guardare i distacchi in percentuale in cui è in vantaggio la X850 XT PE (mi sembra tutti i casi tranne 2) sulla 6800 U, e quelli tra la 7800 GTX e la X850 XT PE, è quasi maggiore il primo caso...è vero???? :o
Scusatemi ragazzi ma non capisco le vostre perplessità. Mettiamo subito in chiaro che la GeForce 7800 GTX non potrà mai avere il 100% delle prestazioni in più rispetto alla GeForce 6800 Ultra se non in qualche particolarissimo caso. Il perché di questo è del tutto ovvio.
Analizzando gli incrementi in percentuale da voi osservati nel numero di pipeline, di vertex unit, ecc... emerge chiaramente i miglioramenti di G70 rispetto a NV40 nelle applicazioni reali rispecchiano perfettamente quelle specifiche. Ciò perché in un sistema a pipeline, quindi a catena di montaggio, l'accelerazione di un singolo stadio della catena di una determinata percentuale non porta ad un accelerazione di quella percentuale di tutta la catena di montaggio. Esistono tempi di servizio e tempi di attesa da rispettare. Quindi se abbiamo +33% nei vertex shader e +50% nei pixel shader, avremo che al più gli incrementi del frame rate saranno del 50% a seconda che la scena sia più onerosa dal punto geometrico o di shading. Ovviamente ho semplificato molto il discorso e non ho incluso tra i miglioramenti il discorso dell'unità MAD in più, della banda passante, ecc..., ma quello che voglio far intendere è che l'incremento nelle specifiche dalla 6800 Ultra alla 7800 GTX fanno perfettamente intendere quelli che sono gli incrementi ottenibili e questi rispecchiano le performance viste nei videogames.
Analizziamo gli incrementi tra NV40 e G70 facendo un rapido calcolo medio dei risultati ottenuti in questo articolo.
HL2 - 1600x1200 - circa +60%
Far Cry - 1600x1200 - circa +40%
Doom 3 - 1600x1200 - circa +35%
Ritenete veramente che la GeForce 7800 GTX possa dare con altri videogames + di quanto mostrato nei casi che vi ho citato? Io dico di no perché le specifiche gli impediscono tecnicamente di essere il 100% + veloce della 6800 Ultra a meno di non andare a valutare aspetti singolarmente (come il test sui pixel shader del 3dmark), ma questo è un genere di valutazione che nei videogames non troverà mai un riscontro.
Ho visto degli screen su HL2 e samples in cui la qualità era aumentata in modo pazzesco, raggiungendo, e forse superando, quella delle schede Ati.
Poi mi son letto la recensione di hwupgrade, dove si dice che la qualità è forse peggiore che quella della serie precedente e sono caduto nello sconforto più totale.
Merita approfondimenti!
C'è poco da approfondire. NVIDIA in G70 ha inizialmente peggiorato la qualità del filtro anisotropico mostrando un po + di pixel popping rispetto a NV40 e a R420. Di questo aspetto me ne ero accorto già al momento del lancio, ma è stato ulteriormente approfondito da altre testate che non ricordo che hanno mostrato una qualità peggiore anche nella modalità High Quality, cioè quella priva di ottimizzazioni. Il problema nella modalità High Quality è stato risolto da NVIDIA con l'ultima revisione dei driver beta, i 78.03.
Complimenti per il roundup ;)
Noto che nella maggior parte dei casi, anche a 1600x1200, che ste schede sono moooolto cpu limited...
Sarebbe stato interessante vedere il comportamento di queste schede ad una risoluzione maggiore come 2048x1920 o qualcosa di simile
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.