PDA

View Full Version : NVIDIA GeForce 7800 GTX: arrivano le 24 pipeline


Pagine : [1] 2

Redazione di Hardware Upg
22-06-2005, 15:30
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1311/index.html

Alla presentazione di una nuova generazione di processori grafici il primo quesito che gli appassionati si pongono riguarda essenzialmente la portata delle innovazioni: “evoluzione o rivoluzione ?”. Quest'oggi NVIDIA presenta la scheda GeForce 7800 GTX: anche noi ci poniamo tale interrogativo al quale, nel corso di questa analisi, daremo una risposta.

Click sul link per visualizzare l'articolo.

Lord KaitexX
22-06-2005, 15:31
L'evoluzione continua...

A quando l'erede del Ti4200-Fx5900XT-6800LE ?

dwfgerw
22-06-2005, 15:32
Grande nVidia, ben fatto!!!
ora attendo la versione Ultra ;-)

prova
22-06-2005, 15:33
In effetti è un mostro tecnologico spaventoso: Nvidia ha deciso di mostrare i muscoli e si vede.

Io cmq, e tutte le persone sane di mente [:asd:], aspetto la fascia media ;)

halduemilauno
22-06-2005, 15:34
Grande nVidia, ben fatto!!!
ora attendo la versione Ultra ;-)

concordo.
;)

bartolino3200
22-06-2005, 15:41
Quando il gioco si fa duri solo i Duri possono Giocare.
Signori miei presentare questo mostro dopo così poco tempo rispetto a 6800 non è da molti. Poi considerando che è già disponibile sul mercato, a mio avviso rende Nvidia l' azienda più seria e unica leader nel mercato.
Niente più Gpu fantasma come ci aveva abituATI Ati, ma prodotti veri e subito acquistabili. La "rossa" intanto prepara il suo crossfire che per ora rimane solo sulla carta...e r5xx forse lo vedremo prima su Xbox 360 che non sui PC. Non mi scannate so che non saranno la stessa cosa quello per pc e quello per Xbox, ma mi sa che gli accordi con microsoft saranno un po' limitanti per il futuro di Ati.

rob-roy
22-06-2005, 15:43
La faranno anche in versione AGP? :)

Vifani
22-06-2005, 15:44
E voi avreste già letto tutto? Ci ho passato 10 giorni su questo articolo e ore ed ore sui test. Quindi adesso filate a leggerlo tutto fino all'ultima lettera! :D

rob-roy
22-06-2005, 15:44
Sono al lavoro e non ce la faccio a leggere tutto...:D

bartolino3200
22-06-2005, 15:45
E voi avreste già letto tutto? Ci ho passato 10 giorni su questo articolo e ore ed ore sui test. Quindi adesso filate a leggerlo tutto fino all'ultima lettera! :D
Hai ragione!!! Merita una lettura calma e approfondita, anzi sai che ti dico me lo salvo su hd e me lostampo pure!!!

OvErClOck82
22-06-2005, 15:46
Ati rulez ? BWAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAH.......
:)

halduemilauno
22-06-2005, 15:53
due considerazioni.
una:
"Siamo rimasti piacevolmente sorpresi dai risultati ottenuti in quest'ambito dalla scheda GeForce 7800 GTX. Il core è salito dai 430 Mhz originali fino a 480 Mhz ottenendo un guadagno di ben 50 Mhz che, moltiplicati per le ventiquattro pipeline, si traducono in 1200 Mpixel/s e 1200 Mtexel/s in più rispetto alle specifiche tecniche di default. Non ci hanno deluso neanche i moduli di memoria che hanno raggiunto la ragguardevole frequenza di 1400 Mhz, portando la banda passante da 38,4 GB/s a ben 44,8 GB/s."
l'altra:
è vero che si tratta di 24/8 contro 16/6 ma avete notato a pari frequenza memoria 1180 vs 1200 la x850xt pe ha 110Mhz(a default)in più sul core 540 vs 430 e nonostante questo viene praticamente ridicolizzata. tenendo anche conto del cpu limited.
ciao.
;)

Helstar
22-06-2005, 15:54
Impressionante (non ho letto ancora tutto, confesso :D !).
Ma le 6800 usciranno fuori mercato direttamente o scenderanno di prezzo ?

Baltico
22-06-2005, 15:56
OvErClOck82 non capisco il tuo commento.

E' come se si confrontasse una 5900xt con una x850xt pe.

Si parla di sk video di generazione diversa. Estremismi nel calcio, in politica... pure nel mondo dei pc

LASCO
22-06-2005, 15:57
Dopo aver visto questi primi bechmark credo che ati tirera' fuori una r520 da 24 pipeline e non da 32. Perche' se effettivamente come dice ati la r520 e' circa 2-3 volte una x850xt (immagino solo con tutti i filtri ed a 1600x1200), visto che questa G70 e' inferiore a due 6800 ultra ergo ...

Genesio
22-06-2005, 15:58
Il prezzo è ottimo, l'ho trovata a 583 euro. Peccato abbia altre cose per la testa...però l'anno scorso la 6800 costava di più all'uscita!

Genesio
22-06-2005, 16:04
La faranno anche in versione AGP? :)

No. Solo PCI express.

Comunque anch'io non la trovo "eccezzziunale veramente" questa scheda. Date le premesse confesso che mi sarei atteso di più. Ma forse pretendo troppo. Aspetto ATI a vedere cosa butta fuori, ma se l'esperienza serve a qualcosa...i due concorrenti si equivalgono sempre (all'incirca!)

GMcomp1
22-06-2005, 16:12
nulla di nuovo...ci vorra almeno un altro annetto per qualcosa di serio.meglio cosi soldi risparmiati.

OverClocK79®
22-06-2005, 16:12
Ati rulez ? BWAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAH.......
:)

potevi risparmiartelo
totalmente inutile e mho iniziano i flames....

cmq che dire....
ottimo prodotto....

consuma come la fascia alta attuale e nn di +
rumore contenuto per la media delle skede
prestazioni TOP con margini di miglioramento dovuto ai driver
a ris umane siamo spesso cpu limited....ma c'èra da aspettarselo
per il resto nVidia passa in testa con un prodotto veramente ben fatto.....
le soluzioni SLI con questo prodotto le terrei a beneficio di inventario visto che praticamente in tutti i gioki provati 1 sola basta e avanza

:)

BYEZZZZZZZZZZZZ

halduemilauno
22-06-2005, 16:12
No. Solo PCI express.

Comunque anch'io non la trovo "eccezzziunale veramente" questa scheda. Date le premesse confesso che mi sarei atteso di più. Ma forse pretendo troppo. Aspetto ATI a vedere cosa butta fuori, ma se l'esperienza serve a qualcosa...i due concorrenti si equivalgono sempre (all'incirca!)

quella recensita non è la top level ovvero la 7800 ultra(prossima futura). ma "solo" la 7800gtx. in quella rece invece ci sono le top level della passata stagione. quindi da tener conto anche di questo. a mò d'esempio tieni da conto dell'oc raggiunto in rece.
;)

Vifani
22-06-2005, 16:19
quella recensita non è la top level ovvero la 7800 ultra(prossima futura). ma "solo" la 7800gtx. in quella rece invece ci sono le top level della passata stagione. quindi da tener conto anche di questo. a mò d'esempio tieni da conto dell'oc raggiunto in rece.
;)

Ti invito a smetterla di parlare della 7800 Ultra ridicolizzando l'importanza della 7800 GTX e parlando di un prodotto che attualmente non esiste basandosi solo su rumors e facendo cattiva informazione.

La fascia di performance a cui è rivolta una scheda video non è decisa dal suo nome, ma dal suo prezzo. Questa scheda costa 549 euro iva inclusa e, pertanto, va considerata come una scheda di fascia alta, va confrontata con le vecchie schede di fascia alta e deve essere competitiva nei confronti di queste schede (non di una 6800 GT come ho letto da qualche parte). Se e quando uscirà una 7800 Ultra si vedrà il suo prezzo e si trarranno le conclusioni. Per il momento la GeForce 7800 GTX è la scheda di NVIDIA di fascia alta.

mackillers
22-06-2005, 16:20
QUESTA allora è l' erede della 6800gt?
non della Ultra?

speriamo la mia 6800U Oc è gia 425-1200 quindi a parte le pipeline in più ci corre poco.

diciamo circa 30-40% non abbastanza da giustificare un cambio.
gli dò un altro 5-10 per i prossimi driver.

ma IMHO il Salto fra 5900 e 6800 è stato molto più grosso.

non ho capito quanto fa al 3dmack 2005!

capitan_crasy
22-06-2005, 16:20
pultroppo non vedo nessun accenno al supporto della tecnologia 3DC!
Peccato... :(

mackillers
22-06-2005, 16:21
molto più interessanti i miglioramenti a livello di qualità di immagine!

mackillers
22-06-2005, 16:23
giusto! niente 3DC!

ma erà abbastanza noto forse perchi ha una 6800 è meglio passare il turno.

Genesio
22-06-2005, 16:29
pultroppo non vedo nessun accenno al supporto della tecnologia 3DC!
Peccato... :(

scusa cos'è 3dc?

Athlon 64 3000+
22-06-2005, 16:31
le prestazioni di questa scheda mi hanno lasciato veramente parecchio perplesso.
Io che ho una 6800GT non so a questo punto se mi conviene prendere una scheda del genere.
Non è problema di soldi e che ho visto che sinceramente mi aspettavo di più.
Sono veramente molto deluso.

Ricky78
22-06-2005, 16:33
molto più interessanti i miglioramenti a livello di qualità di immagine!
Quoto...
Per quanto riguarda la 7800GTX si è fatta chiarezza... migliora la qualità di immagini e risulta essere la numero 1 ad oggi.
Mi sono sempre chiesto in questi mesi se ci fosse differenza, sempre a livello di qualità di immagini, tra una 6800 Ultra ed una X850XT... C'è chi dice di sì e chi dice di no (a favore di ATi)... insomma, manca la chiarezza in questo caso.

rob-roy
22-06-2005, 16:33
Ma davvero non la faranno anche in versione AGP?? :eek:

Ciao,ciao nvidia allora.... :rolleyes:
Per mè sbagliano a sottovalutare così il mercato dell'upgrade,secondo loro io dovrei buttare tutto il sistema per passare all'inutile PCIEX?? :doh:

halduemilauno
22-06-2005, 16:35
Ti invito a smetterla di parlare della 7800 Ultra ridicolizzando l'importanza della 7800 GTX e parlando di un prodotto che attualmente non esiste basandosi solo su rumors e facendo cattiva informazione.

La fascia di performance a cui è rivolta una scheda video non è decisa dal suo nome, ma dal suo prezzo. Questa scheda costa 549 euro iva inclusa e, pertanto, va considerata come una scheda di fascia alta, va confrontata con le vecchie schede di fascia alta e deve essere competitiva nei confronti di queste schede (non di una 6800 GT come ho letto da qualche parte). Se e quando uscirà una 7800 Ultra si vedrà il suo prezzo e si trarranno le conclusioni. Per il momento la GeForce 7800 GTX è la scheda di NVIDIA di fascia alta.

ma io non ridicolizzo niente.
scheda di fascia alta? certo.
certo confrontata con le attual ehm vecchie schede di fascia alta. e chi dice il contrario.
cattiva informazione??? ohibò ho solo fatto presente (in base alle mie info e opinioni) a chi era in parte deluso, perchè magari si aspettava di più, che nVidia si riserva un'altra carta da giocare.
ti ricordi della 6800ultra E.E.? certo che si. poi sappiamo tutti come è andata a finire. in quello scenario non servi' ma in quello che si prospetta credo proprio di si. ma non si tratta di solo 25 Mhz in più sul core.
ciao e complimenti per la rece.
;)

supermario
22-06-2005, 16:39
nn va + la re :cry: :cry: :cry:

Dragonx21
22-06-2005, 16:40
Per me dovete piantarla di ridicolizzare Ati ecc..

ma vi rendete conto di quello che avete detto?

ho letto: questa scheda spazza la X850 pur avendo 150Mhz in meno sul core, apparte che sono 110Mhz.. ma porca pupazza la storia Intel\AMD vi dice nulla?

e poi.. signori, è un prodotto NUOVO, di NUOVA generazione, cosa pensavate che lo facesse peggio delle X850XT? ma non scherziamo su.

aspettiamo R520.. e poi commentiamo contro Ati.

Max Power
22-06-2005, 16:42
L'X850 ridicolizzata????????????

Un'evoluzione di un prodotto di un anno fa????

Di buffonate se ne sentono ma questa.... :rolleyes: :rolleyes: :rolleyes:

Allora ke era la 4800SE VS la 9700Pro in settembre 2002????

Una M!!!!!!!!!!!!!!!!!!!!!!! ;) ;) ;)

E la frequenza ke c'entra??????

Quanti transistor ha l'X850 e quanti la 7800!!!!!!!

E Pipeline?????

Aspettiamo la risposta dell'ATI ;) ;) ;)

Poi l'aumento di prestazioni non è così alco come mi aspettavo.

Bisogna x forza andare con L'AA 4X @ 1600x1200 per sentire la differenza!!!

Paolo Corsini
22-06-2005, 16:42
Ma davvero non la faranno anche in versione AGP?? :eek:

Ciao,ciao nvidia allora.... :rolleyes:
Per mè sbagliano a sottovalutare così il mercato dell'upgrade,secondo loro io dovrei buttare tutto il sistema per passare all'inutile PCIEX?? :doh:
Again, ma perché tutti credono a qualsiasi cosa venga scritta su un forum?
Una versione AGP è tecnicamente possibile, il bridge HSI di NVIDIA serve anche per quello. Al momento attuale non è stata annunciata, ma questo non vuol dire che non verrà fatta.

supermario
22-06-2005, 16:45
Again, ma perché tutti credono a qualsiasi cosa venga scritta su un forum?
Una versione AGP è tecnicamente possibile, il bridge HSI di NVIDIA serve anche per quello. Al momento attuale non è stata annunciata, ma questo non vuol dire che non verrà fatta.


paolo sto avendo questo errore

Errore nella connessione al server database.
Can't create a new thread (errno 11). If you are not out of available memory, you can consult the manual for a possible OS-dependent bug


:cry: :cry:

bartolino3200
22-06-2005, 16:46
Considerando che questo nuovo mostro costa praticamente poco più se non uguale a una x850xt pe, ditemi voi ora chi sarà il fesso che comprando un nuovo pc o cambiando scheda grafica potrà scegliere Ati a parità di costi.
Il problema non è paragonare la stessa generazione di gpu visto che queste sono sul mercato nello stesso momento e a prezzi simili è chiaro che Nvidia la vince su tutte.
Al momento in cui scrivo posso solo dire che Ati è indietro di una generazione, e all' orizzonte prossimo non vedo ancora nulla oltre ai rumors.
E' come quando AMD ha lanciato una CPU a 64 bit e Intel faticava ancora sul P4, AMD in quel caso ha anticipato rispetto ad Intel una nuova generazione.
Che questa sia l'erede di una 6800 GT e non della 6800 Ultra è chiaro, se poi il prezzo la pone sulla stessa fascia è un altro discorso.
Suppongo imho che se e non appena ci sarà una 7800Ultra, la 7800GTX avrà prezzi inferiori. Dopotutto, la stessa 6800GT, oggi costa in media dai 50 agli 80(forse più) euro in meno dal lancio.
Credo sia tutto scontato lo scrivo solo per ribadirlo.

Dragonx21
22-06-2005, 16:55
le nuove ati usciranno a breve non tra 2 anni... :D

rob-roy
22-06-2005, 16:55
Again, ma perché tutti credono a qualsiasi cosa venga scritta su un forum?
Una versione AGP è tecnicamente possibile, il bridge HSI di NVIDIA serve anche per quello. Al momento attuale non è stata annunciata, ma questo non vuol dire che non verrà fatta.

Ricomincio a sperare :sperem:

:p

Genesio
22-06-2005, 16:57
Again, ma perché tutti credono a qualsiasi cosa venga scritta su un forum?
Una versione AGP è tecnicamente possibile, il bridge HSI di NVIDIA serve anche per quello. Al momento attuale non è stata annunciata, ma questo non vuol dire che non verrà fatta.

Scusa Paolo, sono d'accordo che non sia giusto sempre credere a quanto scritto sul forum, ma chi scrive le cose lo fa perchè a sua volta si è informato da qualche parte.
Dal sito tomshardware.com: "As the previous generation, GTX boards come with a 256 Mbit GDDR3 memory interface for a total of 256 MB of memory that is now clocked at 600 MHz. The cards will be available only in PCI Express versions, offer SLI capability and outputs for DVI and HDTV.".

Io non conosco personalmente il capo di nvidia, quindi mi baso sulle notizie più autorevoli che circolano in rete. Quindi, a meno che tu abbia notizie diverse, per quanto ne so, NON ci sarà una versione AGP. Che poi sia tecnicamente possibile ne sono sicuro, che poi venga fatta magari tra 10 mesi è possibile, ma quanto ho scritto non è un'invenzione.

bartolino3200
22-06-2005, 16:58
Considerando che questo nuovo mostro costa praticamente poco più se non uguale a una x850xt pe, ditemi voi ora chi sarà il fesso che comprando un nuovo pc o cambiando scheda grafica potrà scegliere Ati a parità di costi.
Il problema non è paragonare la stessa generazione di gpu visto che queste sono sul mercato nello stesso momento e a prezzi simili è chiaro che Nvidia la vince su tutte.
Al momento in cui scrivo posso solo dire che Ati è indietro di una generazione, e all' orizzonte prossimo non vedo ancora nulla oltre ai rumors, fra l' altro era gia indietro con la serie X800 con gli shader fermi al 2.0
E' come quando AMD ha lanciato una CPU a 64 bit e Intel faticava ancora sul P4, AMD in quel caso ha anticipato rispetto ad Intel una nuova generazione.
Che questa sia l'erede di una 6800 GT e non della 6800 Ultra è chiaro, se poi il prezzo la pone sulla stessa fascia è un altro discorso.
Suppongo imho che se e non appena ci sarà una 7800Ultra, la 7800GTX avrà prezzi inferiori. Dopotutto, la stessa 6800GT, oggi costa in media dai 50 agli 80(forse più) euro in meno dal lancio.
Credo sia tutto scontato lo scrivo solo per ribadirlo.

xpiuma
22-06-2005, 17:00
Sicuramente un ottima scheda, ma ci sono un pò di cose che non mi tornano... :eek:

Qui:
http://www.hwupgrade.it/articoli/skvideo/1311/26.html

Su 6 test per 4 volte la X850XT va meglio della 7800GTX abilitando i filtri, una va peggio e l'altra pari... :mc:
E dato che chi prende una scheda del genere non credo che rinunci facilmente ai filtri AA penso che servano altri test per valutare bene l'impatto dei filtri sulle prestazioni.

Mi piacerebbe vedere test comparativi 6800U-X850XT-7800GTX con AA a 4X e AF a 8 (o 16), per avere un quadro più completo.

Certo che fare peggio di una X850XT per una scheda di una generazione successiva...

halduemilauno
22-06-2005, 17:00
Per me dovete piantarla di ridicolizzare Ati ecc..

ma vi rendete conto di quello che avete detto?

ho letto: questa scheda spazza la X850 pur avendo 150Mhz in meno sul core, apparte che sono 110Mhz.. ma porca pupazza la storia Intel\AMD vi dice nulla?

e poi.. signori, è un prodotto NUOVO, di NUOVA generazione, cosa pensavate che lo facesse peggio delle X850XT? ma non scherziamo su.

aspettiamo R520.. e poi commentiamo contro Ati.

hai ragione sono 110. la x850xt pe è 540 e la 7800gtx è 430.
per il resto si deve parlare per forza dello scenario attuale. questo passa il convento. quando esso si modificherà parleremo di quello che esso sarà.
;)

ciolla2005
22-06-2005, 17:01
L'X850 ridicolizzata????????????

Un'evoluzione di un prodotto di un anno fa????

Di buffonate se ne sentono ma questa.... :rolleyes: :rolleyes: :rolleyes:

Allora ke era la 4800SE VS la 9700Pro in settembre 2002????

Una M!!!!!!!!!!!!!!!!!!!!!!! ;) ;) ;)

E la frequenza ke c'entra??????

Quanti transistor ha l'X850 e quanti la 7800!!!!!!!

E Pipeline?????

Aspettiamo la risposta dell'ATI ;) ;) ;)

Poi l'aumento di prestazioni non è così alco come mi aspettavo.

Bisogna x forza andare con L'AA 4X @ 1600x1200 per sentire la differenza!!!


Infatti!! :mano:

Poi lo sanno tutti ke la nuova vga andrà a sostituire la 6800Ultra, diventando così un po' + conveniente...

Dragonx21
22-06-2005, 17:05
L'X850 ridicolizzata????????????

Un'evoluzione di un prodotto di un anno fa????

Di buffonate se ne sentono ma questa.... :rolleyes: :rolleyes: :rolleyes:

Allora ke era la 4800SE VS la 9700Pro in settembre 2002????

Una M!!!!!!!!!!!!!!!!!!!!!!! ;) ;) ;)

E la frequenza ke c'entra??????

Quanti transistor ha l'X850 e quanti la 7800!!!!!!!

E Pipeline?????

Aspettiamo la risposta dell'ATI ;) ;) ;)

Poi l'aumento di prestazioni non è così alco come mi aspettavo.

Bisogna x forza andare con L'AA 4X @ 1600x1200 per sentire la differenza!!!

scusa?
te la prendi con ME?
ma HAI LETTO QUELLO CHE è stato detto prima del mio post? cavoli, hanno ridicolizzato la X850 nei commenti che hanno fatto.. e non venirmi a dire di no, e la frequenza che centra l'ho proprio affermato io chiedendo spiegazione nel perchè tirare in ballo la lotta hai mhz come con Amd\intel...

NigthStalker_86
22-06-2005, 17:06
C'è così tanto bisogno di potenza per fare una serie nuova di GPU?
Voglio vedere un gioco che scatta con una 6800Utra...E non ditemi che giocate a 2200*2000 con AA 20X... :rolleyes:

Considerando che alcune schede video (in particolare Ati) come la X300 o X700 ci sono solo da 3-4 mesi in abbondanza sugli scaffali, io avrei aspettato ancora qualche mese per esordire con una nuova generazione, che di solito comporta anche un restayling della fascia bassa e media.

Non vedo la rivoluzione FX5900 ==> 6800, solo qualche miglioramento qua e là il che mi fa pensare che sia solo una mossa di mercato.. :rolleyes:

Vedo che comunque nvidia parte con il passo giusto, mettendo in qualtità questa GPU sugli scaffali già da subito. ;)

bartolino3200
22-06-2005, 17:07
L'X850 ridicolizzata????????????

Un'evoluzione di un prodotto di un anno fa????

Di buffonate se ne sentono ma questa.... :rolleyes: :rolleyes: :rolleyes:

Allora ke era la 4800SE VS la 9700Pro in settembre 2002????

Una M!!!!!!!!!!!!!!!!!!!!!!! ;) ;) ;)

E la frequenza ke c'entra??????

Quanti transistor ha l'X850 e quanti la 7800!!!!!!!

E Pipeline?????

Aspettiamo la risposta dell'ATI ;) ;) ;)

Poi l'aumento di prestazioni non è così alco come mi aspettavo.

Bisogna x forza andare con L'AA 4X @ 1600x1200 per sentire la differenza!!!

Il problema è un altro che al momento come anche è stato fatto nella recensione, si valuta ciò che sia Nvidia che Ati possano proporre come top della gamma e ripeto visto che costano uguale è lecito paragonarle.
La frequenza c' entra eccome, (devo per forza essere ripetitivo?) Se prendi ad esempio un Pentium M e un P4 mi dici quale delle due architetture è più performante? Se Nvidia ti dà di più a frequenze minori la cosa non ti dice nulla? E non ti dice nulla il dissipatore single slot e silenzioso della 7800 (e anche della 6800GT), contro quel mattone della x850xt pe che alla fine altro non è se non un prodotto Overcloccato in fabbrica?
Certo aspettiamo la risposta di Ati e nel frattempo mi arrivano i capelli bianchi per vedere un sample funzionante sui test figuriamoci sugli scaffali. Nel frattempo Nvidia stravende la 7800, e magari presenta già la 8800 :-) .
Sul fatto di andare a 1600x1200 devi sapere che c'è molta gente che comprando un LCD( ormai va di moda io gli odio ad esempio), con quello che costano i 19 pollici sono costretti ad usare la risoluzione nativa a 1600x1200 altrimenti c'è un degrado di qualità, per l' interpolazione.
Alias, capisci a me auè...

Dragonx21
22-06-2005, 17:11
Il problema è un altro che al momento come anche è stato fatto nella recensione, si valuta ciò che sia Nvidia che Ati possano proporre come top della gamma e ripeto visto che costano uguale è lecito paragonarle.
La frequenza c' entra eccome, (devo per forza essere ripetitivo?) Se prendi ad esempio un Pentium M e un P4 mi dici quale delle due architetture è più performante? Se Nvidia ti dà di più a frequenze minori la cosa non ti dice nulla? E non ti dice nulla il dissipatore single slot e silenzioso della 7800 (e anche della 6800GT), contro quel mattone della x850xt pe che alla fine altro non è se non un prodotto Overcloccato in fabbrica?
Certo aspettiamo la risposta di Ati e nel frattempo mi arrivano i capelli bianchi per vedere un sample funzionante sui test figuriamoci sugli scaffali. Nel frattempo Nvidia stravende la 7800, e magari presenta già la 8800 :-) .
Sul fatto di andare a 1600x1200 devi sapere che c'è molta gente che comprando un LCD( ormai va di moda io gli odio ad esempio), con quello che costano i 19 pollici sono costretti ad usare la risoluzione nativa a 1600x1200 altrimenti c'è un degrado di qualità, per l' interpolazione.
Alias, capisci a me auè...

ma lol..
le frequenze un po' contano comunque.. prendi un P-M a 2000 e un P4 a 5000 vediamo chi va meglio? mmmmmmmmmmmmmmmm
visto che la X850XT Pe è overcloccata di fabbrica, Come mai le X850 si overcloccano meglio delle X800?

basta flame.

supermario
22-06-2005, 17:13
Poi l'aumento di prestazioni non è così alco come mi aspettavo.

Bisogna x forza andare con L'AA 4X @ 1600x1200 per sentire la differenza!!!


:rolleyes: :rolleyes: :rolleyes:

hai mai sentito parlare di situazione CPU LIMITED?

bartolino3200
22-06-2005, 17:16
ma lol..
le frequenze un po' contano comunque.. prendi un P-M a 2000 e un P4 a 5000 vediamo chi va meglio? mmmmmmmmmmmmmmmm
visto che la X850XT Pe è overcloccata di fabbrica, Come mai le X850 si overcloccano meglio delle X800?

basta flame.

Sono daccordo ma l' esempio che stai apportando tu, è un po' troppo esagerato. Della Occabilità delle x850xt sono perplesso, le XL è noto invece che salgono da schifo.

}DrSlump{
22-06-2005, 17:17
Niente di nuovo.. qualche pipeline in più, per svuotare meglio le tasche dei consumatori.

^TiGeRShArK^
22-06-2005, 17:17
Considerando che questo nuovo mostro costa praticamente poco più se non uguale a una x850xt pe, ditemi voi ora chi sarà il fesso che comprando un nuovo pc o cambiando scheda grafica potrà scegliere Ati a parità di costi.
Il problema non è paragonare la stessa generazione di gpu visto che queste sono sul mercato nello stesso momento e a prezzi simili è chiaro che Nvidia la vince su tutte.
Al momento in cui scrivo posso solo dire che Ati è indietro di una generazione, e all' orizzonte prossimo non vedo ancora nulla oltre ai rumors.
E' come quando AMD ha lanciato una CPU a 64 bit e Intel faticava ancora sul P4, AMD in quel caso ha anticipato rispetto ad Intel una nuova generazione.
Che questa sia l'erede di una 6800 GT e non della 6800 Ultra è chiaro, se poi il prezzo la pone sulla stessa fascia è un altro discorso.
Suppongo imho che se e non appena ci sarà una 7800Ultra, la 7800GTX avrà prezzi inferiori. Dopotutto, la stessa 6800GT, oggi costa in media dai 50 agli 80(forse più) euro in meno dal lancio.
Credo sia tutto scontato lo scrivo solo per ribadirlo.

Aspetta a parlare...
non sembra manki molto x l'introduzione della nuova generazione ATI.
Solo allora si potranno confrontare...
D'altronde nvidia quando uscì la 9700 pro è rimasta indietro x una generazione x PAREKKIO tempo, e anke una volta uscita nv30 (ke a sentire molti doveva essere una specie di skeda miracolosa) si è rivelata essere indietro.
A quei tempi x caso tu dicevi ke ATI la vinceva su tutte??? :asd:
non credo proprio.

IMHO se la skeda ati non ritarderà molto ovviamente si dovrà confrontare la 7800 con quella. NON HA ALCUN senso confrontarla con le top di gamma della generazione precedente.

Max Power
22-06-2005, 17:18
Contano tanto i TRANSISTOR quanto la FREQUENZA.

Caso assurdo & ipoteico:

1 Transistor @ 2 Hz = 2 Transistor @ 1 Hz ;) ;)

bartolino3200
22-06-2005, 17:23
:rolleyes: :rolleyes: :rolleyes:

hai mai sentito parlare di situazione CPU LIMITED?

Hai mai sentito parlare di CPU DUAL CORE? Ad essere sincero una ottima recensione come questa avrebbe avuto molto più senso se fatta con cpu dual core.
Sta di fatto che una 6800 te la metti pure su un XP 2000 ma va sicuramente meglio su un FX55. Dunque, visto che il dual core è una realtà, non vedo perchè farsi un nuovo PC spendendo tanti soldi per una 7800 e risparmiando sulla CPU, oltretutto le dual core non costano poi tanto di più.
Se poi hai gia un Athlon64 su pcix e vuoi solo cambiare scheda grafica non credo che una 7800 vada peggio delle precedenti, sia pure con cpu limited.
(ps.:nessuno esclude che ci possa essere la versione agp...).

Dragonx21
22-06-2005, 17:23
Sono daccordo ma l' esempio che stai apportando tu, è un po' troppo esagerato. Della Occabilità delle x850xt sono perplesso, le XL è noto invece che salgono da schifo.

guarda in sign..

quella X850XT fa i 645 di core ad aria no mod\ 670 a liquido no mod
740 a liquido mod...

task-
22-06-2005, 17:24
quanto manca per una 7600 sui 250 euri?

Graphicmaniac
22-06-2005, 17:25
basta dare un occhiata a ciòche è successo recentemente alle azioni di ATi ed nVidia per capire come sarà il futuro :P

comunque riguardo alla scheda: un mostro!

peccato per le memorie strozzate ...

zerothehero
22-06-2005, 17:25
scusa?
te la prendi con ME?
ma HAI LETTO QUELLO CHE è stato detto prima del mio post? cavoli, hanno ridicolizzato la X850 nei commenti che hanno fatto.. e non venirmi a dire di no, e la frequenza che centra l'ho proprio affermato io chiedendo spiegazione nel perchè tirare in ballo la lotta hai mhz come con Amd\intel...


la x850 anzi regge cmq in modo abbastanza dignitoso, certo adesso è fuori mercato come la 6800ultra..

bartolino3200
22-06-2005, 17:28
Aspetta a parlare...
non sembra manki molto x l'introduzione della nuova generazione ATI.
Solo allora si potranno confrontare...
D'altronde nvidia quando uscì la 9700 pro è rimasta indietro x una generazione x PAREKKIO tempo, e anke una volta uscita nv30 (ke a sentire molti doveva essere una specie di skeda miracolosa) si è rivelata essere indietro.
A quei tempi x caso tu dicevi ke ATI la vinceva su tutte??? :asd:
non credo proprio.

IMHO se la skeda ati non ritarderà molto ovviamente si dovrà confrontare la 7800 con quella. NON HA ALCUN senso confrontarla con le top di gamma della generazione precedente.

Diciamo la stessa cosa con parole differenti.
Se la nuova generazione ati fosse disponibile oggi sarei ben lieto di leggere una rece che le confronti, ma così non è.
Poi non dimentichiamo che se Ati e Nvidia continuano a combattere e scannarsi così ci guadagna l' innovazione tecnologica, tanto che a breve arriveremo al fotorealismo ludico.
Ora io non guardo nè al passato ne al futuro. Il presente è questo e si chiama 7800GTX, il resto per me sono solo "parole nel vuoto".

neonato
22-06-2005, 17:28
nn voglio sminuire la scheda (posseggo una 6800Ultra) ma nn e un aumento prestazionale doppio rispetto alla mia. Sono un pochino "deluso" dalle prestazioni.
Comunque beato chi la prende.

la guerra tra ATI VS NV

Nn penso che ATI sviluppi (dai rumors) 32 Pipe e poi ne faccia uscire una a 24. Ati fara uscire la 32 (se rumors confermati) x avere un vantaggio sull'avversario sempre se l'architettura e fatta bene e sempre se volesse + share nel mercato.
Dobbiamo aspettare la nuova generazione x avere una rivoluzione, si devono adattare al nuovo os di M$. Nn valeva la pena sviluppare una scheda per solo un anno.
Se Ati, attraverso la collabborazione conM$ x la xbox sa qualcosa in piu, forse l'evoluzione R520 si adattera al nuovo OS.
Le direct uscirono + tardi xke nvidia lavorava con M$, ora e il turno di ATI.....

Forse la mia fantasia di mercato lavora :sofico:

sono solo supposizioni

zerothehero
22-06-2005, 17:30
C'è così tanto bisogno di potenza per fare una serie nuova di GPU?
Voglio vedere un gioco che scatta con una 6800Utra...E non ditemi che giocate a 2200*2000 con AA 20X... :rolleyes:

Considerando che alcune schede video (in particolare Ati) come la X300 o X700 ci sono solo da 3-4 mesi in abbondanza sugli scaffali, io avrei aspettato ancora qualche mese per esordire con una nuova generazione, che di solito comporta anche un restayling della fascia bassa e media.

Non vedo la rivoluzione FX5900 ==> 6800, solo qualche miglioramento qua e là il che mi fa pensare che sia solo una mossa di mercato.. :rolleyes:

Vedo che comunque nvidia parte con il passo giusto, mettendo in qualtità questa GPU sugli scaffali già da subito. ;)


fatemi capire ma ci si lamenta perchè nvidia non ha fatto un refresh di architettura alzando solo la frequenza? non capisco perchè alcuni invocano un rallentamento dell'innovazione tecnologica :rolleyes:
poi che vuol dire..la 6800ultra ce l'hanno l'1% dei giocatori..quindi il passaggio 6800 a 7800gtx è irrilevante...
cioè abbiamo una scheda che ha il 50% in più di pipeline il 20-30% in più di prestazioni e costa meno (550 euro) della 6800ultra quando uscì in italia (600 euro)...che si vuole di +?..e sono passati solo 12 mesi...

in più se mi venisse la pazzia potrei prendere la metropolitana e acquistarmela subito, dopo 2 e mezza dalla fine dell'nda..pazzesco :sofico:

ally
22-06-2005, 17:31
Hai mai sentito parlare di CPU DUAL CORE? Ad essere sincero una ottima recensione come questa avrebbe avuto molto più senso se fatta con cpu dual core.


...dual core con i giochi?...

bartolino3200
22-06-2005, 17:31
quanto manca per una 7600 sui 250 euri?

Spero poco anche se sinceramente preferirei una 7800LE se mai la faranno, vista la mod della 6800Le che mi ritrovo e va da Dio...

hackboyz
22-06-2005, 17:33
E' soprendente come due 6800 Ultra in SLI stacchino pesantemente in pratica in tutti i giochi e a volte anche senza filtri e a risoluzioni medio-alte una 7800GTX. E lo è ancora di più vedere che in alcune occasioni non sfiguirno troppo neanche nei confronti di due 7800GTX in SLI.

Se ciò fosse confermato anche per giochi più nuovi, diciamo fino a natale 2005, IMHO - considerando l'inevitabile discesa dei prezzi della serie 6800 - la soluzione 6800GT@Ultra in SLI non sarebbe certo da buttare anzi.

Per non parlare di chi possiede già una scheda SLI e una 6800GT/Ultra: in questo caso potrebbe avere il top semplicemente affiancando un'altra 6800GT pagandola più in là una cifra irrisoria o quasi.

Ferme restando tutte le controindicazioni e i problemi dell'SLI, sia chiaro.

PS: e ovviamente aspettando l'R520 ...

Paolo Corsini
22-06-2005, 17:33
Hai mai sentito parlare di CPU DUAL CORE? Ad essere sincero una ottima recensione come questa avrebbe avuto molto più senso se fatta con cpu dual core.
Ciao,
tutti i giochi 3D attualmente in circolazione sono single threaded; conseguenza diretta di questo è che il secondo core di una cpu Dual Core proprio non viene utilizzato nei giochi.
Se vuoi una conferma, buona lettura:

http://www.hwupgrade.it/articoli/cpu/1293/index.html

Credi che ci manchino i processori in redazione per fare questi test, se avessero una qualche utilità?

LCol84
22-06-2005, 17:33
Si tra 2 anni come minimo... :asd:

Maury
22-06-2005, 17:35
Per me dovete piantarla di ridicolizzare Ati ecc..

ma vi rendete conto di quello che avete detto?




In questa rece la 850 xt viene tutto tranne che ridicolizzata, ma anzi!! ha fatto rilevare dei numeri da p a u r a :)

LCol84
22-06-2005, 17:35
Domandona; ma la 7800 liscia?Quando la presentano?

bartolino3200
22-06-2005, 17:35
...dual core con i giochi?...
Certo, se consideri che le software house si stanno muovendo già sui 64bit, tu pensi che non sfrutteranno i vantaggi del dual core?
A sto punto ogni nuova uscita di scheda grafica sarà inutile a detta vostra visto il cpu limited. E che famo blocchiamo tutto? Certo che no, facciamo in modo da non avere cpu limmited, sfruttiamo al massimo i 64 bit i dual core, le prossime cpu...ti dice nulla il fatto che sia xbox360 sia Play Station 3 utilizzino processori multicore? Ad esempio la Play 3 ne avrà ben 8.

Dragonx21
22-06-2005, 17:36
la x850 anzi regge cmq in modo abbastanza dignitoso, certo adesso è fuori mercato come la 6800ultra..

quoto.

è fuori mercato, ma per quanto? 2 settimane?

zerothehero
22-06-2005, 17:37
E' soprendente come due 6800 Ultra in SLI stacchino pesantemente in pratica in tutti i giochi e a volte anche senza filtri e a risoluzioni medio-alte una 7800GTX. E lo è ancora di più vedere che in alcune occasioni non sfiguirno troppo neanche nei confronti di due 7800GTX in SLI.

Se ciò fosse confermato anche per giochi più nuovi, diciamo fino a natale 2005, IMHO - considerando l'inevitabile discesa dei prezzi della serie 6800 - la soluzione 6800GT@Ultra in SLI non sarebbe certo da buttare anzi.

Per non parlare di chi possiede già una scheda SLI e una 6800GT/Ultra: in questo caso potrebbe avere il top semplicemente affiancando un'altra 6800GT pagandola più in là una cifra irrisoria o quasi.

Ferme restando tutte le controindicazioni e i problemi dell'SLI, sia chiaro.

PS: e ovviamente aspettando l'R520 ...


hai visto la recensione di anandtech? a 2048*1536 di risoluzione :sofico: la 7800gtx è equiparabile a due 6800ultra in sli. :sofico:
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=9

Poi cmq i costi dello sli sono elevati per via delle motherboard in sli , degli alimentatori e dei consumi.
Il fatto è che i processori sono relativamente immobili rispetto all'esplosione di performance delle schede grafiche. :stordita:

ally
22-06-2005, 17:37
Certo, se consideri che le software house si stanno muovendo già sui 64bit, tu pensi che non sfrutteranno i vantaggi del dual core?
A sto punto ogni nuova uscita di scheda grafica sarà inutile a detta vostra visto il cpu limited. E che famo blocchiamo tutto? Certo che no, facciamo in modo da non avere cpu limmited, sfruttiamo al massimo i 64 bit i dual core, le prossime cpu...ti dice nulla il fatto che sia xbox360 sia Play Station 3 utilizzino processori multicore? Ad esempio la Play 3 ne avrà ben 8.


...si si...spiegaolo anche a Paolo...

Ciao,
tutti i giochi 3D attualmente in circolazione sono single threaded; conseguenza diretta di questo è che il secondo core di una cpu Dual Core proprio non viene utilizzato nei giochi.
Se vuoi una conferma, buona lettura:

http://www.hwupgrade.it/articoli/cpu/1293/index.html

Credi che ci manchino i processori in redazione per fare questi test, se avessero una qualche utilità?

...ciao...

bartolino3200
22-06-2005, 17:41
Ciao,
tutti i giochi 3D attualmente in circolazione sono single threaded; conseguenza diretta di questo è che il secondo core di una cpu Dual Core proprio non viene utilizzato nei giochi.
Se vuoi una conferma, buona lettura:

http://www.hwupgrade.it/articoli/cpu/1293/index.html

Credi che ci manchino i processori in redazione per fare questi test, se avessero una qualche utilità?

Lo so benissimo, e lo avevo già letto, ma manca poco. Se prendi The C. of Riddick nella cartella system ci sono vari tipi di supporto cpu, pensi che sia così difficile in un prossimo futuro utilizzare i vantaggi del multicore?
Secondo me sarebbe anche più semplice riscrivere giochi della Xbox360 (che alla fine è una sorta di PC) per PC, o credi che i giochi per pc si pianteranno sul single threaded?

FAM
22-06-2005, 17:43
Lo so benissimo, e lo avevo già letto, ma manca poco.

E lui come fà a benchare una cosa che OGGI non esiste ancora? :wtf:

bartolino3200
22-06-2005, 17:43
...si si...spiegaolo anche a Paolo...



...ciao...
Simpatico!!!
A sto punto sia le prossime Nvidia sia le prossime Ati, serviranno poco visto che o si passa a multithreaded, o non ce ne è per nessuno!!!

ally
22-06-2005, 17:43
Lo so benissimo, e lo avevo già letto, ma manca poco. Se prendi The C. of Riddick nella cartella system ci sono vari tipi di supporto cpu, pensi che sia così difficile in un prossimo futuro utilizzare i vantaggi del multicore?
Secondo me sarebbe anche più semplice riscrivere giochi della Xbox360 (che alla fine è una sorta di PC) per PC, o credi che i giochi per pc si pianteranno sul single threaded?


...non viaggiamo di fantasia...tu sostieni che la recensione sarebbe stata piu' corretta se si fossero usate delle cpu dual core perchè queste avrebbero limitato l'efftto cpu limited...ora non tirare fuori console...64 bit...compilatori...etc etc...la tua affermazione è palesemente sbagliata...

...chiuso il discorso...

...ciao...

zerothehero
22-06-2005, 17:44
quoto.

è fuori mercato, ma per quanto? 2 settimane?

la x850 xt come la 6800ultra a questo livello di prezzi è fuori mercato non l'ati imho...hai malcompreso il soggetto sottointeso :) ..se manca meno di un mese alla presentazione del r520 e se non sarà una phantom edition non vedo problemi per l'immagine di questa casa..
certo che la disponibilità a due ore e mezza dopo lo scadere dell'nda qui in Italia a Milano (non da akiba, IN ITALIA..periferia) è un macigno gettato nello stagno da parte di nvidia nei confronti di ati ed un grandissimo senso di serietà di questa casa produttrice..vuol dire che la produzione era già stata avviata mesi addietro..

ally
22-06-2005, 17:45
Hai mai sentito parlare di CPU DUAL CORE? Ad essere sincero una ottima recensione come questa avrebbe avuto molto più senso se fatta con cpu dual core

...nel caso ti fossi dimenticato di quanto TU hai detto...

bartolino3200
22-06-2005, 17:45
E lui come fà a benchare una cosa che OGGI non esiste ancora? :wtf:
Hai ragione su questo ho chiesto l'impossibile non esiste ancora nulla che sfrutti il MT in campo ludico, quindi è inutile il dual core al momento, ma ripeto è chiaro che sta lì la soluzione per il prossimo futuro per evitare cpu limited.
Ma nel campo professionale è già realtà.

Graphicmaniac
22-06-2005, 17:46
solo per precisare

x850xtpe è uscita 6 mesi fa non 1 anno. o meglio è stata èresentata :D uscita forse qualche mesetto dopo :D

per Paolo Corsini, se è possibile almeno con un gioco non cpu limited potresti provare in overclock la scheda overclocckando separatamente gpu e ram?

sono curioso di vedere se (come penso) sia la ram il collo di bottiglia.

capitan_crasy
22-06-2005, 17:48
scusa cos'è 3dc?
3Dc è una tecnica di compressione che riduce la dimensione del file del normal map attraverso la compressione 3DC, diminuendo di conseguenza l'esigenza di banda di memoria.
A questo punto ci sono due possibili strade da percorrere: si può migliorare la prestazione comprimendo le normal map oppure si possono introdurre mappe più grandi e dettagliate pagando lo stesso "prezzo" in termini di prestazioni...

zerothehero
22-06-2005, 17:48
Lo so benissimo, e lo avevo già letto, ma manca poco. Se prendi The C. of Riddick nella cartella system ci sono vari tipi di supporto cpu, pensi che sia così difficile in un prossimo futuro utilizzare i vantaggi del multicore?
Secondo me sarebbe anche più semplice riscrivere giochi della Xbox360 (che alla fine è una sorta di PC) per PC, o credi che i giochi per pc si pianteranno sul single threaded?


Si ma il futuro non è retroattivo..non è che io metto l'idrogeno nel serbatoio della mia macchina, che stai a dire.. :mbe: ..il primo motore che sfrutterà il dual core sarà il nuovo unreal nel 2006...come fanno ad esserci giochi dual core se i primi processori sono usciti qualche settimana fa? :confused:

bartolino3200
22-06-2005, 17:49
solo per precisare

x850xtpe è uscita 6 mesi fa non 1 anno. o meglio è stata èresentata :D uscita forse qualche mesetto dopo :D

per Paolo Corsini, se è possibile almeno con un gioco non cpu limited potresti provare in overclock la scheda overclocckando separatamente gpu e ram?

sono curioso di vedere se (come penso) sia la ram il collo di bottiglia.

Concordo sarebbe già qualcosa.

bartolino3200
22-06-2005, 17:50
Si ma il futuro non è retroattivo..non è che io metto l'idrogeno nel serbatoio della mia macchina, che stai a dire.. :mbe: ..il primo motore che sfrutterà il dual core sarà il nuovo unreal nel 2006...come fanno ad esserci giochi dual core se i primi processori sono usciti qualche settimana fa? :confused:
FarCry lo hanno riscritto a 64bit poco dopo l'uscita delle cpu a 64bit ad esempio, non credere che sia tutta sta fantascienza.
Credo che le divagazioni sul cpu limited oltre a essere fuori tema siano concluse.
Di cpu sempre più potenti ne sfornano ogni giorno alias...

CiccoMan
22-06-2005, 17:51
C'è così tanto bisogno di potenza per fare una serie nuova di GPU?
Voglio vedere un gioco che scatta con una 6800Utra...E non ditemi che giocate a 2200*2000 con AA 20X... :rolleyes:



Su Cronicle of riddik, Doom3 e Medal of Honor a 1280x1024 bisogna disattivare i filtri, altrimenti si gioca a 30fps!

Ned for speed underground 2 lo stesso... prova a mettere 1280x1024 e tutto a palla, poi vedi se è fluido :rolleyes:

E non credo di essere cpu limited con un' a64 a 300x9 e ram a 300MHz!

Altri giochi non li ho provati...

Dragonx21
22-06-2005, 17:51
la x850 xt come la 6800ultra a questo livello di prezzi è fuori mercato non l'ati imho...hai malcompreso il soggetto sottointeso :) ..se manca meno di un mese alla presentazione del r520 e se non sarà una phantom edition non vedo problemi per l'immagine di questa casa..
certo che la disponibilità a due ore e mezza dopo lo scadere dell'nda qui in Italia a Milano (non da akiba, IN ITALIA..periferia) è un macigno gettato nello stagno da parte di nvidia nei confronti di ati ed un grandissimo senso di serietà di questa casa produttrice..vuol dire che la produzione era già stata avviata mesi addietro..

sì ho segato il soggetto della seconda frase.. lol :D
spero nella disponibilità di casa ati a far reperire entro breve in grandi lotti anche le sue R520, anche se con 32pipe è più dura da far uscire core perfetti

leoneazzurro
22-06-2005, 17:52
E' soprendente come due 6800 Ultra in SLI stacchino pesantemente in pratica in tutti i giochi e a volte anche senza filtri e a risoluzioni medio-alte una 7800GTX. E lo è ancora di più vedere che in alcune occasioni non sfiguirno troppo neanche nei confronti di due 7800GTX in SLI.

Se ciò fosse confermato anche per giochi più nuovi, diciamo fino a natale 2005, IMHO - considerando l'inevitabile discesa dei prezzi della serie 6800 - la soluzione 6800GT@Ultra in SLI non sarebbe certo da buttare anzi.

Per non parlare di chi possiede già una scheda SLI e una 6800GT/Ultra: in questo caso potrebbe avere il top semplicemente affiancando un'altra 6800GT pagandola più in là una cifra irrisoria o quasi.

Ferme restando tutte le controindicazioni e i problemi dell'SLI, sia chiaro.

PS: e ovviamente aspettando l'R520 ...


Anand ha dei numeri su giochi nuovi un pò diversi (www.anandtech.com), ad esempio in HL2 una singola 7800 va come 2 6800 ultra in SLI. E' chiaro poi che dove sei CPU limited già con la 6800 Ultra, lo sarai a maggior ragione con le 7800.

adynak
22-06-2005, 17:52
IMHO Nvidia ha intrapreso una strada intelligente: grande sviluppo dei driver (migliore supporto SLI e , in futuro, incrementi prestazionali con le CPU dual-core - almeno a detta degli ing. Nvidia -) ed evoluzione della GPU NV40.
In altre parole nel giro di 12 mesi le prestazioni, a parità di fascia, sono aumentate del 30% e lo SLI è più compatibile ... il tutto a un prezzo inferiore di quello di uscita delle 6800ultra.
Che ATI si stia preparando per dare battaglia è ovvio, ma per ora è indietro sia con la presentazione della scheda (non dimentichiamoci che le 7800 sono REALMENTE DISPONIBILI) sia a livello software (prima tra tutte la gestione della tecnologia cross-fire che non è ancora in grado di competere con lo SLI di Nvidia).
Quando uscirà la nuova scheda ATI potremo fare nuove valutazioni; per ora non posso fare altro che complimentarmi con gli ing. Nvidia e, soprattutto, con tutti quelli che hanno contribuito a questo articolo (mazza ragazzi ... mi sa che è stato un lavoraccio :) !?)

zerothehero
22-06-2005, 17:55
sì ho segato il soggetto della seconda frase.. lol :D
spero nella disponibilità di casa ati a far reperire entro breve in grandi lotti anche le sue R520, anche se con 32pipe è più dura da far uscire core perfetti


lo spero...anch'io.. quando nvdia si rilassa fa cazzate. :)
temo molto per la dispobilità di un r520 @90 nanometri con 32 pipeline.

Dragonx21
22-06-2005, 17:57
temo molto per la dispobilità di un r520 @90 nanometri con 32 pipeline.

infatti.. è un casino da produrre... :mc:

bartolino3200
22-06-2005, 17:57
Mi sa tanto che ad ore il mercatino sarà zeppo di vga in vendita e di tutti i colori :-) . Ora si che iniziano a fioccare le occasioni.

sirus
22-06-2005, 17:58
bella recensione...ma anche io ho appena cambiato VGA (ho messo una FX5600Ultra B) e per ora non ho problemi dato che sono anche CPU Limited (P3 1000).
ad ogni modo credo sia un'ottima scheda questa...mi sembrava di aver sentito 7800 punti al 3DMark 2005 ma in questa recensione non ho visto nulla.

vedo anche che questa scheda prevede la presenza di decodifica H.264 integrata e questo non era ancora stato citato da nessuno,si diceva che questo supporto sarebbe stato solo ad appannaggio di ATi invece nVidia ci ha smentito.

per concludere ritengo che il prezzo sia competitivo considerando quanto costavano le 6800Ultra quando sono uscite ;)

zerothehero
22-06-2005, 17:58
Su Cronicle of riddik, Doom3 e Medal of Honor a 1280x1024 bisogna disattivare i filtri, altrimenti si gioca a 30fps!

Ned for speed underground 2 lo stesso... prova a mettere 1280x1024 e tutto a palla, poi vedi se è fluido :rolleyes:

E non credo di essere cpu limited con un' a64 a 300x9 e ram a 300MHz!

Altri giochi non li ho provati...


Mi pare strano prima che si rompesse la 6800gt giocavo abitualmente a doom3 @1280*1024 4x-8x con 50 fps di media...in doom3 rimaneva praticamente inchiodato a 60fps con 35 di minimo...idem riddick che è leggerino..
su medal of honor, dai non scherziamo..lo si può giocare a 1600*1200 4x-8x..è leggerissimo per una 6800 dato che è un open-gl.. :fagiano:

halduemilauno
22-06-2005, 17:58
vi segnalo questa rece.
http://firingsquad.com/hardware/nvidia_geforce_7800_gtx/
;)

digieffe
22-06-2005, 17:58
io faccio un semplice ragionamento da persona media (non super appassionato):

1) Un modo normale per poter paragonare due prodotti è il budget di spesa ossia il costo.

2) non importano i mhz, ma solo il consumo ed il calore prodotto in base ai risultati.

poi l'ipc è solo questione di passione......... ossia se una casa X mi desse un chip (CPU/GPU...) a me non importa a quanti mhz va ma solo le performance in base al costo, i consumi ed il calore.

x bartolino3200 (o altri)
cosa è una cheda video "mod"

ciao

halduemilauno
22-06-2005, 18:00
io faccio un semplice ragionamento da persona media (non super appassionato):

1) Un modo normale per poter paragonare due prodotti è il budget di spesa ossia il costo.

2) non importano i mhz, ma solo il consumo ed il calore prodotto in base ai risultati.

poi l'ipc è solo questione di passione......... ossia se una casa X mi desse un chip (CPU/GPU...) a me non importa a quanti mhz va ma solo le performance in base al costo, i consumi ed il calore.

x bartolino3200 (o altri)
cosa è una cheda video "mod"

ciao

modificabile.
;)

digieffe
22-06-2005, 18:05
cosa significa modificabile? l'aggiunta di chip come sulle console?
una breve spiegazione o un link per capire di più?

grazie

halduemilauno
22-06-2005, 18:07
cosa significa modificabile? l'aggiunta di chip come sulle console?
una breve spiegazione o un link per capire di più?

grazie

esempio abilitare le pipe e/o le vertex dalla casa nascoste. esempio la 6800le che ha 8/4 ma si può moddare a 16/6 come le altre 6800.
;)

ChenDream
22-06-2005, 18:07
cosa significa modificabile? l'aggiunta di chip come sulle console?
una breve spiegazione o un link per capire di più?

grazie

Significa portare una Radeon 9500@9700 oppure una 6800@6800GT riabilitando pipeline disabilitate, per esempio.
Almeno credo. Qualcuno confermi,

Hal2Milano mi hai anticipato.

johnson
22-06-2005, 18:08
L'unico discorso valido da fare è:

se dovessi comprarmi una scheda di fascia alta ORA e potessi scegliere tra x850xt pre, 6800 ultra e 7800GTX, quale sceglierei?

Basta rispondere a questa semplice domanda per capire che non c'è generazione/architettura/transistor che tenga.

A quel prezzo la 7800GTX non ha rivali e la r520 è ancora lontana (almeno due mesi alla presentazione). E non mi pare che ATI abbia mai lasciato intendere di voler cambiare la sua politica di distribuzione delle proprio schede. Se per Nvidia la disponibilità delle schede c'è da subito, non è scontato che anche per ATI sarà così.

Poi sarebbe proprio una bella storia se a settembre la r520 si rivelasse un mostro di potenza. Sono curioso, e non credo che acquisterò una nuova VGA prima di aver visto la nuova ATI (e magari la 7800ultra) all 'opera.

ILGRECO1974
22-06-2005, 18:10
Ottima rece!!!
Bella scheda,ottimo incremento velocistico col aumentare il clock,brava nvidia per la disponibilita della scheda i mercato!
Io pero sono rimasto deluso dalla scheda!Da una gpu di nuova generazione aspetto piu o meno il doppio in fps(come e sucesso per esempio con 9800xt-x800xt pe) e non solo un incremento di 20-30% rispetto alla generazione precedente...non vale assolutamente la pena passare da una x850xt pe alla 7800gtx..e un passo avanti,ma non una vera novita...dal r520 aspeto qualcosa di piu...
Ciauzzz...

hackboyz
22-06-2005, 18:11
Anand ha dei numeri su giochi nuovi un pò diversi (www.anandtech.com), ad esempio in HL2 una singola 7800 va come 2 6800 ultra in SLI. E' chiaro poi che dove sei CPU limited già con la 6800 Ultra, lo sarai a maggior ragione con le 7800.
Corsini ha detto che devono aver avuto dei problemi in Anandtech perchè ci sono risultati un po' strani

http://www.hwupgrade.it/forum/showpost.php?p=8672904&postcount=462

E comunque sebbene li trovi soprendenti mi sembrano più logici i risultati di HWU ;)

Per quanto riguarda la CPU limited guarda qui:

Chaos Theory o Riddick (giochi piuttosto recenti, che come si dice nella rece sono molto pesanti e molto meno limitati dalla CPU rispetto agli altri): le differenze tra i due sistemi SLI sono marginali, la 7800GTX è proprio spazzata via dalle due Ultra

http://www.hwupgrade.it/articoli/1311/riddick_6.png

http://www.hwupgrade.it/articoli/1311/sc_6.png

E' pur sempre un FX-55 comunque :asd:

johnson
22-06-2005, 18:12
E' vero, ho scordato i complimenti per l'articolo!

grandi e soprattutto gratis

bartolino3200
22-06-2005, 18:13
io faccio un semplice ragionamento da persona media (non super appassionato):

1) Un modo normale per poter paragonare due prodotti è il budget di spesa ossia il costo.

2) non importano i mhz, ma solo il consumo ed il calore prodotto in base ai risultati.

poi l'ipc è solo questione di passione......... ossia se una casa X mi desse un chip (CPU/GPU...) a me non importa a quanti mhz va ma solo le performance in base al costo, i consumi ed il calore.

x bartolino3200 (o altri)
cosa è una cheda video "mod"

ciao
Costo consumi calore e ci aggiungerei rumore!!!
La soft mod implementabile nei prodotti 6800LE permette di attivare nella GPU le pipeline disattivate in fabbrica. In pratica con un piccolo programmino di facile utilizzo risvegli parte della gpu addormentata dalla casa produttrice.
Ovviamente, le 6800LE costano meno di una gt anche perchè, hanno memorie che vanno "solo" a 700 mhz di defalt (800 in OC), contro le ben più veloci della GT. Ma soprattutto la gpu della GT è testata per far funzionare tutte le pipeline presenti nel core.
Nella LE non hai questa garanzia, ecco perchè te la vendono con pipeline disattivate. Per fortuna almeno per quanto mi riguarda la mod (modifica) è andata a buon fine e tutte le pipeline sono perfettamente funzionanti.
In media da quello che ho visto in giro la mod è riuscita a molti anche se non a tutti.

mauriz83
22-06-2005, 18:13
con athlon fx 55 alcuni test sono cpu limited :eek:

pazzesco...secondo chi ha fatto la rece,quale sarebbe il processore ad hoc per sfruttare 2 7800 gtx in sli?
:eek:

ChenDream
22-06-2005, 18:17
L'unica pecca, + che altro, è la peggior qualità visiva utilizzando le ottimizzazioni, anche se durante un gioco non si nota...
Per quanto riguarda l'incremento prestazionale, non mi sembra ci sia stato il raddoppio tra r300 e generazione precendete. Non mi aspetto che ogni anno ci sia il raddoppio... Altrimenti che stretta al cuore ti viene avendo comprato una scheda di fascia alta? non dura mai + di un anno? Così' almeno ne dura due. :D

Opteranium
22-06-2005, 18:20
caspita che recensione! siete dei grossi, lasciatevelo dire...

volendo trovare proprio il pelo nell' uovo.. forse i grafici con colori diversi sarebbero stati più leggibili.. ma sono gusti personali.

comunque la cosa che più mi ha colpito della 7800 è stata la qualità delle immagini.
le prestazioni.... ormai siamo a un punto che IMHO ha poco senso comprare una scheda perchè fa 10fps + di un' altra, cosa che si nota a risoluzioni elevate e con filtri attivati.. ormai la giocabilità è ottima a qualunque livello.

Athlon 64 3000+
22-06-2005, 18:20
Ottima rece!!!
Bella scheda,ottimo incremento velocistico col aumentare il clock,brava nvidia per la disponibilita della scheda i mercato!
Io pero sono rimasto deluso dalla scheda!Da una gpu di nuova generazione aspetto piu o meno il doppio in fps(come e sucesso per esempio con 9800xt-x800xt pe) e non solo un incremento di 20-30% rispetto alla generazione precedente...non vale assolutamente la pena passare da una x850xt pe alla 7800gtx..e un passo avanti,ma non una vera novita...dal r520 aspeto qualcosa di piu...
Ciauzzz...

anche io sono deluso ma con quelle caratteristiche non ti puoi aspettare un raddoppio delle prestazioni.
La cosa che non mi torna è che la 7800GTX ha un fill rate di 10320 con i 5600 della mia 6800GT.
Quindi l'aumento del fill rate sarebbe intorno all'80% e quindi io mi sarei aspettatato a risoluzioni come 1280x1024 e 1600x1200 con filtri a palla almeno un'aumento del 60-70% e non del 30% che mi sembra effettivamente poco.
:mad:

Apple80
22-06-2005, 18:21
uscira una versione AGP o resterà solo per PCI-ex ?

johnson
22-06-2005, 18:27
Athlon 64 3000+ : ma dove vedi la 6800GT? Si parla sempre di 6800 ultra. SIcuramente nei confronti della GT c'è un margine superiore al 30%.

zephyr83
22-06-2005, 18:29
Il bello di questa scheda video è che è già in commercio, occupa uno slot solo, consumo e rumore sn inferiori al modello precedente. Prestazioni ottime ma mi aspettavo di meglio, come dice l'articolo si parla di evoluzione e nn rivoluzione. Cercare di denigrare ATI a ogni costo è proprio da stupidi, anzi da questi confronti mi rendo conto proprio che la x850 è una scheda video ottima (meglio della 6800 ultra) e in alcuni test riesce a tenere testa a questa nuova nvidia. Ovviamente ADESSO a parità dei prezzo uno prende questa 7800 ma il discorso è diverso, nn per questo bisogna dire che la x850 fa schifo (altrimenti la 6800 ultrea che fa?).
Guardando i risultati questa scheda da veri vantaggi solo usati su certi sistemi e giocando a risoluzione molto elvate.....ste schede video si sviluppano troppo velocemente rispetto agli altri componenti del computer....peccato!

halduemilauno
22-06-2005, 18:34
Ottima rece!!!
Bella scheda,ottimo incremento velocistico col aumentare il clock,brava nvidia per la disponibilita della scheda i mercato!
Io pero sono rimasto deluso dalla scheda!Da una gpu di nuova generazione aspetto piu o meno il doppio in fps(come e sucesso per esempio con 9800xt-x800xt pe) e non solo un incremento di 20-30% rispetto alla generazione precedente...non vale assolutamente la pena passare da una x850xt pe alla 7800gtx..e un passo avanti,ma non una vera novita...dal r520 aspeto qualcosa di piu...
Ciauzzz...

non è una gpu di nuova generazione. ma l'evoluzione di un'ottimo chip l'NV40.
dall'R520 puoi/devi aspettarti di più nel senso che il chip ati deve colmare il gap tecnologico che gli attuali chip ati hanno nei confronti dei chip nVidia.
;)

halduemilauno
22-06-2005, 18:40
Il bello di questa scheda video è che è già in commercio, occupa uno slot solo, consumo e rumore sn inferiori al modello precedente. Prestazioni ottime ma mi aspettavo di meglio, come dice l'articolo si parla di evoluzione e nn rivoluzione. Cercare di denigrare ATI a ogni costo è proprio da stupidi, anzi da questi confronti mi rendo conto proprio che la x850 è una scheda video ottima (meglio della 6800 ultra) e in alcuni test riesce a tenere testa a questa nuova nvidia. Ovviamente ADESSO a parità dei prezzo uno prende questa 7800 ma il discorso è diverso, nn per questo bisogna dire che la x850 fa schifo (altrimenti la 6800 ultrea che fa?).
Guardando i risultati questa scheda da veri vantaggi solo usati su certi sistemi e giocando a risoluzione molto elvate.....ste schede video si sviluppano troppo velocemente rispetto agli altri componenti del computer....peccato!

ti faccio notare che la x850xt pe(quella della rece)è uscita 8 mesi dopo la 6800ultra. quella precedente la x800xt pe non era altrettanto competitiva.
;)

TNR Staff
22-06-2005, 18:45
E' pur sempre un FX-55 comunque :asd:

Eh hai detto niente :asd:

Il che vuol dire che è teoricamente impossibile che Ati riesca ad andare oltre molti degli score di 2 7800 in SLI :stordita:

Tra un po' bisognerà testare i giochi a 1900x1600 per vedere le differenze tra 2 schede :rotfl:

JohnPetrucci
22-06-2005, 18:46
Ottimo lavoro da parte di nvidia, tempi rapidi e rispettati e disponibilità immediata sul mercato, consumi e calore ridotti rispetto alla generazione precedente.
Se uscirà anche in Agp in futuro(come credo), e la qualità dell'anisotropico nelle modalità non high migliorerà, sarà perfetta.
Grande Nvidia, aspetto la proposta R520 di Ati , sperando che quest'ultima si impegni ad avere una buona e rapida disponibilità nei negozi dei suoi prodotti, stavolta. ;)

JohnPetrucci
22-06-2005, 18:47
Dimenticavo...., ottima recensione, un gran bel lavoro. ;)

bertoz85
22-06-2005, 18:47
cooooooooooomunque.....

Meglio la mia Ti4200 AGP 4x (neanche 8x, tanto non serve a niente sul nv25) @ 305mhz :D
Altro che SLI TSS TMS FBKXBKFX!!! meglio dei sani pixelshader 1.4 e zitti!!

dai scherzo!!!
ciao ;)

ErminioF
22-06-2005, 19:08
Buona scheda, prestazioni migliorate di un 30-40%, qualità d'immagine superiore, stesso prezzo della generazione precedente al lancio, consumi e rumorosità leggermente ridotti, nuovo set di driver con nuove funzionalità (e quello successivo 8x.xx ne promette altre)...direi che nvidia ha fatto un ottimo lavoro, per essere una semplice evoluzione.
D'altronde il raddoppio di prestazioni, oltre a non essere necessario con i games/applicazioni in circolazione, per essere apprezzato occorrerebbe impostare una risoluzione/filtri di cui solo qualcuno con un 21" potrebbe beneficiare :)

Edo15
22-06-2005, 19:22
ottima scheda non lo metto in dubbio ma se già con un buon pc si gioca tranquillamente a tutto al massimo dettaglio con possibilità di attivare diversi filtri con una 6600gt non vedo il senso di spendere 550 euro(che cmq rispetto a prezzi che si sono visti per alcune schede di fascia alta non sono neanche tantissimi) per prendere un mostro simile che magari quando i gioco potranno anche solo minimamente sfruttarlo sarà già uscita un'altra generazione di schede video con relativi nuovi effetti, miglioramento dell'immagine ecc ecc...

lepre84
22-06-2005, 19:34
bah mi son rotto alla seconda pagina di leggere i commenti e quindi posto la mia chissà mai qualcuno arriverà a leggere fin qui..

la scheda è molto buona è disponibile da subito e quindi nvidia si prende un bel vantaggio. poi credo che questa mossa sia solo un anticipo per controbattere subito ati quando uscira con r520. pensate che non sappiano le loro possibilità? non credo che gli unici intelligenti siamo noi cmq vabbeh.

mi dispiace per la situazione cpu limited.
io non gioco a 1600x1200 aa 8x anis 16x etc etc
gioco 800x600 low quality no aa no anis
perchè?
primo voglio la fluidità massima (la storia dei 60frame non tiratela fuori please)
secondo voglio poter giocare + di 10 minuti senza spraflesharmi gli occhi con mille effetti inutili che mi deconcentrano.
terzo non ho ancora un monitor che tiene + di 100hz a 1600x1200..
ovviamente parlo di gaming online.
poi per farsi le pippe sulle macchine di nfsu2 fate come volete lol

quando ho smesso di leggere c'era un commento che diceva che i 19" lcd sono a 1600x1200 ris nativa. questo è vero solo in parte in quanto sono pochissimi i monitor a quella risoluzione da 19".

ati vs nvidia? non mi pongo il problema ma ovviamente non sto qui per far cambiare parere alla gente.

flapane
22-06-2005, 19:39
menomale che sono uscite le gf7... in questo modo potrò prendere una 6600gt o 6800le in autunno per un pezzo di pane^^

royal
22-06-2005, 19:41
bellissima recensione..letta tutta ..c'ho fatto cena davanti al pici :D
è stato bello!
decisamente un passo avanti x nvidia ma nulla di più, non è cambiato il mondo. dove soffrono le altro(soft shadows) soffre anche questa
vi faccio notare che la vga che risente di meno l'impatto dei filtri è la X850.. che cmq fa la sua porca figura.
IMO chi ha già una 6800/X800 puo saltare TRANQUILLAMENTE questa generazione di vga.. i grafici parlano abbastanza chiaro.

ps: le recensioni di HWU sono tra le + azzeccate della rete,complimenti davvero :)

Graphicmaniac
22-06-2005, 20:19
già, la rece è completissima :)

se magari mi accontentaste anche sull overclock separato di gpu e ram sarebbe il massimo hiih :)

samuello 85
22-06-2005, 20:20
faccio alcune considerazioni
1)ottima mossa da parte di nvida anticipare ati
2)mi sarei aspettao qualcosa di piu ma per un evoluzione il 40% non è niente male
3) secondo me questa scheda rimarra il top di nvida per 6 mesi per poi essere sostituita col modello ultra un po come ai tempi del geforce 2 gts evolutosi in ultra.

samuello 85
22-06-2005, 20:22
ah dimenticavo.recensione monumentale.... complimenti!

SilverXXX
22-06-2005, 20:30
Oltre all'ottima recensione ( complimenti :D ) mi sono stupito del fatto che sia un lancio reale, e addirittura qui in italia :eek:

Cmq è una figata, tra un pò ci saranno i connettori sata sulle schede video, così smetteremo di usare quelle inutili cpu :asd:

UIQ
22-06-2005, 20:31
The "transparent" support of 3DC does not mean the 7800 GTX can read 3DC textures. If a game uses a compressed normal map in 3DC format, Nvidia's drivers use the CPU to decompress it at load time and recompress it to U8V8 compressed format before loading it into the card's local RAM.

RaMaR
22-06-2005, 20:33
complimenti per la recensione....e alla redazione che ci permette di leggere queste pagine senza pagare.
Hippip...!!!

Saved_ita
22-06-2005, 20:33
Quoto quanto detto da altri.
Secondo me questa scheda è la naturale evoluzione delle 6800 (in pratica la maturazione di una innovazione che era partitta con la serie 6XXX e ora stà arrivando alla sua conclusione... esattamente come per le la serie X--- della ATI).
Il vero problema è che al momento a parte i costi inferiori rispetto alla serie 6XXX è palese la loro inutilità.
I nuovi core puntano tutti sul dualcore e le frequenze non salgono indi finchè non si inizieranno a programmare GIOCHI (e non esiste altra applicazione pratica per tali schede) ottimizzati per i dualcore queste shede risulteranno tutte inevitabilmente CPU limited vanificando assolutamente i miglioramenti prestazionali che comportano.
Dato che i tempi di programmazioni di "titoli d'autore" in campo ludico prevedono almeno 2 anni di programmazione... restano schede stupende, ridicolizzano la serio 6XXX e ovviamente sono da preferire ad una 6800u ma mi sembrano talmente superflue che chi possiede una scheda di fascia alta almeno per 1 anno se la deve tenere stretta visto che di reali miglioramentei finchè non usciranno i software adeguati, non ne vedrà.
Ola

ch3ccho
22-06-2005, 20:37
Bella scheda, non c'è che dire e ottima recensione. A dir la verità però mi aspettavo un dustacco più netto, in alcuni test è pure sotto alla X850Xt PE, c'è da dire che è un evoluzione, però non per fare discorsi di parte assolutamente, credo che appena uscirà, la nuova scheda Ati distaccherà nettamente come prestazioni la G70. Cmq è solo una mia opinione, forse anche sbagliata.

CiccoMan
22-06-2005, 20:56
Mi pare strano prima che si rompesse la 6800gt giocavo abitualmente a doom3 @1280*1024 4x-8x con 50 fps di media...in doom3 rimaneva praticamente inchiodato a 60fps con 35 di minimo...

scusa, ma quando fai 35fps come fai a giocare? Da una scheda di fascia alta mi aspetterei i 60 fissi... e i i 60fps fissi si hanno solo se tieni i filtri disattivati!

dem riddick che è leggerino..

Su riddick i sm3 sono inutilizzabili anchye a 800x600 (come in splinter cell del resto)! Se si usano i sm2 allora siamo ai livelli di doom: per non scendere mai sotto i 60fps bisogna disattivare i filtri a 1280...

su medal of honor, dai non scherziamo..lo si può giocare a 1600*1200 4x-8x..è leggerissimo per una 6800 dato che è un open-gl.. :fagiano:

Medalo of honor l'ho gicato poco, ma a 1280 mi è sembrato proprio al limite... ma a questo punto direi che è una questione di occhio: io a 40fps non gioco bene... dopo aver speso 360€ per una 6800gt ne voglio 60 di picco minimo :sofico:

Dumah Brazorf
22-06-2005, 20:56
Ho letto solo le prime pagine e non ho visto una cosa... non c'è una foto della scheda "nuda"!!! Si vede solo la gpu, ma il resto?
Ciao.

halfluke
22-06-2005, 21:05
Ammazza quanta gente non ha da fare un cazzo dalla mattina alla sera, che può permettersi di stare a discutere di hardware come nei bar di pallone... :fagiano:

Dark Schneider
22-06-2005, 21:09
Complimenti per l'articolo ben completo.

Personalmente non mi aspettavo molto da questa GPU. Scheda cmq più perfomante dalle attuali top. Con delle migliorie carine, però alla fine non la trovo interessantissima.
Cioè vabbè bisogna dire che ho una 6800GT quindi già guardavo questa scheda con ben poco interesse.

Cmq un buon potenziamento di NV40. :)

hackboyz
22-06-2005, 21:15
scusa, ma quando fai 35fps come fai a giocare? Da una scheda di fascia alta mi aspetterei i 60 fissi... e i i 60fps fissi si hanno solo se tieni i filtri disattivati!



Su riddick i sm3 sono inutilizzabili anchye a 800x600 (come in splinter cell del resto)! Se si usano i sm2 allora siamo ai livelli di doom: per non scendere mai sotto i 60fps bisogna disattivare i filtri a 1280...



Medalo of honor l'ho gicato poco, ma a 1280 mi è sembrato proprio al limite... ma a questo punto direi che è una questione di occhio: io a 40fps non gioco bene... dopo aver speso 360€ per una 6800gt ne voglio 60 di picco minimo :sofico:
Ti do ragione, ciccioman, però a questo punto direi che è più un problema software che hardware... un po' come San Andreas che gira piuttosto male su qualsiasi pc e ha la grafica da Ps2 con giusto un po' di AA

A parte che io gioco molto bene sia a Chaos Theory che a Riddick con la X800XL a 1280x1024 con filtri (forse quello un po' più pesante è Chaos Theory) ... ma forse sono io ad avere il palato meno fine del tuo :D bisogna ammettere che in alcuni casi ci si sente un po' presi per il c#l#

OverClocK79®
22-06-2005, 21:38
Lo so benissimo, e lo avevo già letto, ma manca poco. Se prendi The C. of Riddick nella cartella system ci sono vari tipi di supporto cpu, pensi che sia così difficile in un prossimo futuro utilizzare i vantaggi del multicore?
Secondo me sarebbe anche più semplice riscrivere giochi della Xbox360 (che alla fine è una sorta di PC) per PC, o credi che i giochi per pc si pianteranno sul single threaded?

scusa ma cosa stai dicendo??
lui il TEST lo deve fare ORA!!!!
nn tra un po' o un prossimo futuro.....

attualmente FX ed EE rappresentano la massima espressione di potenza per i gioki al quale queste video sono rivolte....
se metteva un X2 4800 cosa cambiava????
anzi in alcuni bench peggiorava pure

cose importa se XBOX o PS3 hanno 2 o 3 cpu
alla fine si parla di PC e ATTUALMENTE sia per driver che game il dual core nn porta benefici.....
quindi nn so cosa state qui a lamentarvi il test è fatto correttamente....

per la versione AGP IMHO ci sono OTTIME speranze
ovviamente + avanti..... la 7800GTX è ONLY PCI-E come qlkuno ha scritto
ma questo è quando sappiamo oggi
come sempre le case sono solite rilasciare le versioni AGP successivamente....

del resto perchè tagliarsi la maggior parte della fetta di mercato???
e cmq nn si sa nulla di certo
possiamo solo ipotizzare.....

per quanto riguarda le performance imho nn c'è nulla da dire
per 550€
prende il posto delle top di gamma attuali....
senza contare che i driver futuri gli daranno qlk margine di miglioramento

BYEZZZZZZZZZZZZZZZ

OverClocK79®
22-06-2005, 21:41
2)mi sarei aspettao qualcosa di piu ma per un evoluzione il 40% non è niente male
3) secondo me questa scheda rimarra il top di nvida per 6 mesi per poi essere sostituita col modello ultra un po come ai tempi del geforce 2 gts evolutosi in ultra.

della versione Ultra si sa poco
nemmeno la certezza dell'introduzione

può essere prendano quella di adesso la passino a 450mzh di core e ci sbattano su 512Mb di ram
come nn modifichino nulla e ci mettano solo 512Mb di ram.....
ki vivrà vedrà
pensiamo a questa intanto.....

BYEZZZZZZZZZZZZ

hellshock
22-06-2005, 21:50
bella come recensione ottimo lavoro, ma se mi posso permettere, manca qualcosa,
visto che si parla molto con l'arrivo di questa generazione di schede, di hdtv, ritengo che sia ora di iniziare a mettere anche tests e bench a risoluzioni maggiori, come 1900x1200.....scommetto che il gap tra il g70 e le attuali generazioni aumenterebbe, visto che aumenta all'aumentare della risoluzione e dell'uso di filtri.

che ne pensate?

DjLode
22-06-2005, 21:53
Complimenti per l'immane lavoro.
Positivo l'impegno sull'AA con finalmente la Color Correction e il transparency adaptive, ancora però confinato a un Rotated 4x massimo. Mi sarei aspettato un 6x o un 8x puro, evidentemente le modifiche da fare sarebbero state molto più profonde. Anche il supporto agli effetti Hdr e Soft Stencil Shadows alla fine non sono stati toccati, o almeno se non lo sono non si vede :)
Ottimi i consumi e la rumorosità, nel primo caso aumentati di pochissimo, nel secondo diminuiti i valori che non fa mai male.
Ottima scheda, visto il prezzo paragonabile alla serie attuale, evoluzione del riuscito progetto Nv40.
Di nuovo complimenti a Raffaele e Paolo, sarà una soddisfazione rivedere tra qualche tempo ancora questo articolo, anche per voi :)

igiolo
22-06-2005, 22:04
Ma...solo io ho tirato un sospiro di sollievo pensando che la mia 6800 ultra ne ha ancora un bel pò di vita..a patto di nn usare AA a manetta...

hellshock
22-06-2005, 22:06
no ci sonoa anche io
eh eh eh eh

DjLode
22-06-2005, 22:09
Ma...solo io ho tirato un sospiro di sollievo pensando che la mia 6800 ultra ne ha ancora un bel pò di vita..a patto di nn usare AA a manetta...

Francamente a me dispiacerebbe sapere che c'era qualcuno che credeva in un cambio tale di architettura o prestazioni talmente più elevate da rendere vecchia un'architettura nuova, quella di Nv40 :)
Forse qualcuno c'era, e sono quelli che sono rimasti delusi dalle prestazioni (levando i fan boy Ati). Era impensabile uno scenario in cui uscendo la 7800, la 6800 diventasse totalmente vecchia. Sicuramente poco appetibile, ora, sul mercato del nuovo, i prezzi sono simili e le prestazioni della 7800 superiori. Ora come ora, oggi intendo, prendersi una 6800 Ultra è irragionevole (ripeto, mercato del nuovo) a meno di non trovare offerte molto vantaggiose.

igiolo
22-06-2005, 22:12
Francamente a me dispiacerebbe sapere che c'era qualcuno che credeva in un cambio tale di architettura o prestazioni talmente più elevate da rendere vecchia un'architettura nuova, quella di Nv40 :)
Forse qualcuno c'era, e sono quelli che sono rimasti delusi dalle prestazioni (levando i fan boy Ati). Era impensabile uno scenario in cui uscendo la 7800, la 6800 diventasse totalmente vecchia. Sicuramente poco appetibile, ora, sul mercato del nuovo, i prezzi sono simili e le prestazioni della 7800 superiori. Ora come ora, oggi intendo, prendersi una 6800 Ultra è irragionevole (ripeto, mercato del nuovo) a meno di non trovare offerte molto vantaggiose.
SI si..pensavo ci fosse un margine maggiore..tutto qui..so che è un'evoluzione,ma quanto sono passato dalla 9700pro alla x800xt ....:eek:
Beh il divario era moooolto maggiore..

DjLode
22-06-2005, 22:16
Eri passato da una scheda con 8 pipelines ad una con 16, le prestazioni erano praticamente doppie.
Ti do una notizia, a sensazione, puoi dormire tranquillo anche per l'uscita di R520 :)

Dark Schneider
22-06-2005, 22:27
Ragazzi una scheda potenziata al 50% nei migliori casi può essere più veloce del 50%...nel migliore dei casi. ;)

Davvero credevate che le 6800 erano da mandare in pensione? :)
A voja se ci si campa. Alla fine meglio così no? Significa che le nostre x800-6800 dureranno ancora un bel po' al top. :D

igiolo
22-06-2005, 22:27
Eri passato da una scheda con 8 pipelines ad una con 16, le prestazioni erano praticamente doppie.
Ti do una notizia, a sensazione, puoi dormire tranquillo anche per l'uscita di R520 :)
A lo so..ma cmq anche qui di cambiamenti volti alle maggiori performance ce ne sono..magari la differenza nn è così netta..meglio così,x questa volta passo..:D

igiolo
22-06-2005, 22:28
Ragazzi una scheda potenziata al 50% nei migliori casi può essere più veloce del 50%...nel migliore dei casi. ;)

Davvero credevate che le 6800 erano da mandare in pensione? :)
A voja se ci si campa. Alla fine meglio così no? Significa che le nostre x800-6800 dureranno ancora un bel po' al top. :D
Esattamente..insomma finchè nn ero bench alla mano pensavo che le differenze fossero maggiori..

leoneazzurro
22-06-2005, 22:29
Corsini ha detto che devono aver avuto dei problemi in Anandtech perchè ci sono risultati un po' strani

http://www.hwupgrade.it/forum/showpost.php?p=8672904&postcount=462

E comunque sebbene li trovi soprendenti mi sembrano più logici i risultati di HWU ;)

Per quanto riguarda la CPU limited guarda qui:

Chaos Theory o Riddick (giochi piuttosto recenti, che come si dice nella rece sono molto pesanti e molto meno limitati dalla CPU rispetto agli altri): le differenze tra i due sistemi SLI sono marginali, la 7800GTX è proprio spazzata via dalle due Ultra

http://www.hwupgrade.it/articoli/1311/riddick_6.png

http://www.hwupgrade.it/articoli/1311/sc_6.png

E' pur sempre un FX-55 comunque :asd:


Beh, per esempio sulla recensione di Firingsquad dato che a 1600x1200 4xAA e 16xAF la 7800 single ha un 20% meno FPS di una 6800 Ultra SLI, ed è pesantemente limitata dalla banda disponibile in quelle condizioni, non mi stupirebbe se senza AA e AF fosse perlomeno appaiata. Quelle che hai riportato infatti non sono ovviamente le condizioni CPU limited a cui mi riferivo io, visto che sono test a 1600x1200+AA4x+AF8x.
Anche il test su Battlefield 2 su FS da la 7800 single in vantaggio sulla 6800 SLI, come su Anandtech.
Non dimentichiamo che sembra ci siano stati miglioramenti significativi nella struttura delle pipelines dishading, quindi 1,5 (numero di pipe di shading in più)x 1.075 (aumento della frequenza) x X (fattore incognito di prestazione relativo a G70 rispetto a NV40 dovuto alle "nuove" pipelines) potrebbe anche dare 2 in certi casi ;) Non dimentichiamo che un sistema SLI ha il doppio di banda passante dele memorie, poi. E' chiaro che un sistema con 2 6800 ultra avrà a risoluzioni spintissime con filtri attivati al massimo sempre un vantaggio prestazionale rispetto ad una scheda 7800 singola, dato che su quest'ultima hai praticamente la medesima banda passante della 6800 Ultra singola...

In sostanza, la mia opinione è che dove si è limitati dalla potenza di shading, la 7800 si avvicina molto alle 6800 Ultra in SLI ( e magari in qualche caso potrebbe comportarsi meglio) mentre dove è la banda passante è il fattore limitante il sistema SLI è ovviamente avvantaggiato.

Questo restando il fatto che una tale potenza grafica è sovradimensionata per qualunque titolo odierno, e che si tratta di una spesa folle per chiunque.

Una domanda: come è stato testato Chronichles of Riddick? In modalità SM 2.0, o in modalità SM 2.0+ (immagino la prima)?

Dark Schneider
22-06-2005, 22:32
Esattamente..insomma finchè nn ero bench alla mano pensavo che le differenze fossero maggiori..


No beh io solo guardando le caratteristiche negli ultimi tempi del G70, mi son reso conto che non sarebbe stata così mostruosa rispetto al NV40.
Un anno fa era tutt'altra cosa. :)

Alla fine penso che passerà da NV40/R420 a G70 solo chi è interessato ai record dei benchmark.

igiolo
22-06-2005, 22:37
No beh io solo guardando le caratteristiche negli ultimi tempi del G70, mi son reso conto che non sarebbe stata così mostruosa rispetto al NV40.
Un anno fa era tutt'altra cosa. :)

Alla fine penso che passerà da NV40/R420 a G70 solo chi è interessato ai record dei benchmark.
Ero arrivato anche io a una conclusione simile..frequenze poco superiori (non alla mia..:D ),24 pipe..ma cmq temevo ad una obsolescenza + rapida..secondo me l'r520 sarà un pelo + performante..un pò come la 6800 con la x800..

ripper71
22-06-2005, 22:53
ho letto alcuni vostri commenti sull'ottimo lavoro fatto dalla redazione su questo articolo, complimenti ai quali mi associo, dove fate riferimento al fatto che oltre tutto queste pagine non sono a pagamento.... domanda: quali siti di informazione e/o tecnologia sono a pagamento? se esistono, chi avrebbe interesse ad acquistarne i contenuti, quando ce ne sono un'infinità gratis? forse vi stavate riferendo alle riviste cartacee? se è così è ovvio che il paragone non regge, ci sono i costi di stampa, e va detto che risulta molto appagante leggere e sfogliare una rivista piuttosto che una pagina web.

hackboyz
22-06-2005, 23:07
Beh, per esempio sulla recensione di Firingsquad dato che a 1600x1200 4xAA e 16xAF la 7800 single ha un 20% meno FPS di una 6800 Ultra SLI, ed è pesantemente limitata dalla banda disponibile in quelle condizioni, non mi stupirebbe se senza AA e AF fosse perlomeno appaiata. Quelle che hai riportato infatti non sono ovviamente le condizioni CPU limited a cui mi riferivo io, visto che sono test a 1600x1200+AA4x+AF8x.
Anche il test su Battlefield 2 su FS da la 7800 single in vantaggio sulla 6800 SLI, come su Anandtech.
Non dimentichiamo che sembra ci siano stati miglioramenti significativi nella struttura delle pipelines dishading, quindi 1,5 (numero di pipe di shading in più)x 1.075 (aumento della frequenza) x X (fattore incognito di prestazione relativo a G70 rispetto a NV40 dovuto alle "nuove" pipelines) potrebbe anche dare 2 in certi casi ;) Non dimentichiamo che un sistema SLI ha il doppio di banda passante dele memorie, poi. E' chiaro che un sistema con 2 6800 ultra avrà a risoluzioni spintissime con filtri attivati al massimo sempre un vantaggio prestazionale rispetto ad una scheda 7800 singola, dato che su quest'ultima hai praticamente la medesima banda passante della 6800 Ultra singola...

In sostanza, la mia opinione è che dove si è limitati dalla potenza di shading, la 7800 si avvicina molto alle 6800 Ultra in SLI ( e magari in qualche caso potrebbe comportarsi meglio) mentre dove è la banda passante è il fattore limitante il sistema SLI è ovviamente avvantaggiato.

Questo restando il fatto che una tale potenza grafica è sovradimensionata per qualunque titolo odierno, e che si tratta di una spesa folle per chiunque.

Una domanda: come è stato testato Chronichles of Riddick? In modalità SM 2.0, o in modalità SM 2.0+ (immagino la prima)?
Sostanzialmente sono d'accordo con le tue osservazioni ... e comunque bisognerà aspettare nuovi giochi e l'R520 per tirare le somme.

ovviamente l'SLI ha diversi svantaggi, ma se ragioniamo terra-terra chi ha già una - mettiamo 6800GT occata ad ultra o più e una mobo SLI, potrebbe pensare di affiancarci un'altra GT comprandola a prezzo irrisorio fra un po' di tempo piuttosto che passare al 7800GTX...

Ripeto questa scheda è splendida, forse anche più di quello che ci si poteva aspettare. Nvidia è da lodare solo per il fatto che la 7800 sia "comprabile" già da ora. E ha prestazioni di tutto rispetto.

Però mi sarei aspettato prestazioni più vicine a due Ultra in SLI anche con i filtri (che sono poi quelli che interessano ai top users)... tutto qui. E' pur sempre una scheda da 550/600 euro che può essere (stra)battuta da 2 schede da 350 euro occate (e ben presto le GT pci-e andranno sotto i 300 euro), ma ripeto ... aspettiamo giochi nuovi

*Pegasus-DVD*
23-06-2005, 00:13
che rottamino ...

Paxo
23-06-2005, 00:34
Senza Parole...
302 M Transistor ....
24 Pipeline nonostante l'argomento cioè la storia perfettamente raccontataci dal nostro Team HWUP del non Sfruttamento....
e Inoltre il Pieno Supporto API ...
Anke la Silicon Graphic farà un'applauso all'NVidia...
Spettacolo!!!!
Un Inkino x NVIDIA
Ora Più ke mai proprio perchè ho la 6600 GT e sò che Mostro può Essere la 7800 GTX!!!

Dumah Brazorf
23-06-2005, 00:35
Uaz, 2,5 ore di lettura tra rece e commenti!!
Che dire, avete già nominato tutti gli aspetti possibili. Un miglioramento delle prestazioni nell'ordine del 30-40% rispetto alla generazione precedente (che risale a solo 1 anno fa, ricordiamo che X850 non è molto di + di una X800; i veri salti a quanto pare avvengono in almeno 2 anni), consumo inalterato but miglioramento della dissipazione --> riduzione dei dB prodotti, in + il veramente interessante Trasparent Antialiasing (tra le altre cose la soluzione che mi ha veramente colpito) che migliora sensibilmente la qualità d'immagine... secondo me è un ottimo prodotto.
Insensato certo l'upgrade da una serie 6800, al momento è la scelta migliore in fascia alta.
Concordo con l'opinione di altri utenti nel consigliare, per i test di schede di fascia alta, l'introduzione di bench a risoluzione maggiore di 1600x1200 (conseguentemente l'abbandono del 1024x768), almeno sino a quando 3/4 dei giochi testati resta cpu-limited.
Ciao.

Vifani
23-06-2005, 00:57
bella recensione...ma anche io ho appena cambiato VGA (ho messo una FX5600Ultra B) e per ora non ho problemi dato che sono anche CPU Limited (P3 1000).
ad ogni modo credo sia un'ottima scheda questa...mi sembrava di aver sentito 7800 punti al 3DMark 2005 ma in questa recensione non ho visto nulla.

vedo anche che questa scheda prevede la presenza di decodifica H.264 integrata e questo non era ancora stato citato da nessuno,si diceva che questo supporto sarebbe stato solo ad appannaggio di ATi invece nVidia ci ha smentito.

per concludere ritengo che il prezzo sia competitivo considerando quanto costavano le 6800Ultra quando sono uscite ;)

Visto che non potete proprio fare a meno di sapere il punteggio del 3DMark05 vi posto qui i risultati:

GeForce 7800 GTX - 7706 punti
GeForce 7800 GTX SLI - 12015 punti
GeForce 6800 Ultra - 5689 punti
GeForce 6800 Ultra SLI - 10051 punti
Radeon X850 XT PE - 6455 punti

Vifani
23-06-2005, 01:00
ti faccio notare che la x850xt pe(quella della rece)è uscita 8 mesi dopo la 6800ultra. quella precedente la x800xt pe non era altrettanto competitiva.
;)

Il fatto che la Radeon X850 XT PE sia stata introdotta 8 mesi dopo l'uscita della GeForce 6800 Ultra non significa che non possa essere confrontata con quest'ultima o che debba essere giudicata negativamente per questo motivo. Le uniche cose significative per chi va a comprare una scheda video in un negozio è il prezzo e le sue prestazioni/qualità, non la data di commercializzazione.

Vifani
23-06-2005, 01:04
Una domanda: come è stato testato Chronichles of Riddick? In modalità SM 2.0, o in modalità SM 2.0+ (immagino la prima)?

Dovrei bacchettarti le mani per questa domanda. Evidentemente non hai letto bene l'articolo. Nei test in cui vedi nello stesso grafico anche la Radeon X850 XT PE non sono stati utilizzati per le altre schede effetti esclusivi come le soft stencil shadows abilitabili solo in modalità SM2.0+ (non supportata dalle schede Radeon). Per testare le funzionalità esclusive messe a disposizione dal supporto allo shader model 3.0 abbiamo dedicato un paragrafo apposito della recensione:

http://www.hwupgrade.it/articoli/skvideo/1311/30.html

Qui troverai i test con SM2.0+ abilitati in The Chronicles Of Riddick.

Vifani
23-06-2005, 01:08
Il motivo per cui ci sono persone che sono rimaste deluse dalle prestazioni è che queste persone hanno dato troppo ascolto ai rumours ed alle informazioni non ufficiali che circolano nei forum. Personalmente non ho mai creduto a chi diceva "prestazioni doppie rispetto alla GeForce 6800 Ultra" (e questo prima di venire a conoscenza delle informazioni sotto NDA) e avrebbero dovuto farlo anche queste persone.

Vifani
23-06-2005, 01:17
Faccio una mia considerazione riguardo il discorso "CPU limited". Invito la maggioranza delle persone che si sono cervellate su quali processori bisogna possedere per sfruttare G70 a vederla sotto una prospettiva completamente differente. Il problema non è trovare CPU in grado di sfruttare G70. Questo tipo di ricerca è fallimentare perché avere una CPU che alzi il limite di UT2004 dagli attuali 400 fps a 700 fps non serve assolutamente a niente. Il discorso è un altro: è necessario che lo sviluppo dei videogames sia al passo con i tempi e che la complessità della loro grafica aumenti con l'aumentare della potenza di calcolo disponibile con l'hardware. Se scrivo un pixel shader con 10 istruzioni o scrivo uno shader con 1000 istruzioni, alla CPU non gliene frega assolutamente niente, però nel secondo caso avrò un effetto più realistico ed una grafica più pesante e, conseguentemente, meno dipendenza dalla CPU. Non è un caso che i titoli più recenti e complessi come The Chronicles Of Riddick e Splinter Cell Chaos Theory siano risultati quelli meno dipendenti dalla CPU, mentre UT2004 (che praticamente non ha shader), è il più dipendente.

La GeForce 7800 GTX non ha bisogno di un processore potentissimo per essere sfruttata. Ha solo bisogno del software che le sfrutti. Per la precedente generazione c'erano Far Cry, Half-Life 2 e Doom 3. Usciranno i titoli anche per G70 e che non saranno CPU limited anche con le CPU di oggi.

CiccoMan
23-06-2005, 01:29
Ti do ragione, ciccioman, però a questo punto direi che è più un problema software che hardware... un po' come San Andreas che gira piuttosto male su qualsiasi pc e ha la grafica da Ps2 con giusto un po' di AA

A parte che io gioco molto bene sia a Chaos Theory che a Riddick con la X800XL a 1280x1024 con filtri (forse quello un po' più pesante è Chaos Theory) ... ma forse sono io ad avere il palato meno fine del tuo :D bisogna ammettere che in alcuni casi ci si sente un po' presi per il c#l#

Si be' un af4x non è che incida poi moltissimo sulle prestazioni, ma a 1280 è inutile mettere i filtri bassi, li tolgo ed elimino i rari picchi sotto i 40fps :D

Comunque lungi da me gettare fango sulla 6800 ... ottima scheda che mi permetterà di altare questa geneerazione! Al limite in attesa della "8800" posso accoppiarcene un'altra e andare alla grande :sofico: ... a meno che ati non tiri fuori un prodotto moooolto convincente :p

RE DEI VIRUS
23-06-2005, 01:48
A qundo la x900 :D

Paxo
23-06-2005, 02:05
Il fatto che la Radeon X850 XT PE sia stata introdotta 8 mesi dopo l'uscita della GeForce 6800 Ultra non significa che non possa essere confrontata con quest'ultima o che debba essere giudicata negativamente per questo motivo. Le uniche cose significative per chi va a comprare una scheda video in un negozio è il prezzo e le sue prestazioni/qualità, non la data di commercializzazione.

Quoto N*
La cosa più concreta è la reperibilità di un prodotto a parità di prezzo!!!!
Qui Ati ha Perso.Mi dispiace dirlo...

Da quando l'evoluzione delle NForce ha dato Nuovi frutti e le Radeon sotto di esse cozzavano sia io ke mio fratello abbiam dovuto cambiare VGA .... allora quando presi la mia GF 6600 GT (3 Anni di Garanzia) come concorrente c'era solo la 9800 Pro 256 Bit a parità di prezzo... ed ora è la stessa situazione!!!


Complimenti Vivissimi x la Recensione come sempre DOC.

Vifani 6 1 Grande... :cool:

Paxo
23-06-2005, 02:48
Le Migliorie Nei Nuovi Driver 77 sta nella qualità ...le Ombre, le Luci, la nebbia, basta provare MOHPA, Battlefield 2, 3DMark05 con FireFly Forest... stupedi i dettagli...

halduemilauno
23-06-2005, 07:26
Il fatto che la Radeon X850 XT PE sia stata introdotta 8 mesi dopo l'uscita della GeForce 6800 Ultra non significa che non possa essere confrontata con quest'ultima o che debba essere giudicata negativamente per questo motivo. Le uniche cose significative per chi va a comprare una scheda video in un negozio è il prezzo e le sue prestazioni/qualità, non la data di commercializzazione.

certo che può e che deve. avevo solo fatto una puntualizzazione con un'altro utente. non a caso nel thread ufficiale aperto da me nel post iniziale ho messo solo rece complete di x850xt pe scartandone quelle prive.
;)

fukka75
23-06-2005, 09:01
Effettivamente a livello prestazionale, no c'è quel boost che sarebbe stato lecito attendersi (anche se come detto da molti le 6800 hanno solo un anno di vita, quindi sonno tutt'altro che da buttare), anche se ovviamente è sicuramente più potente delle 6800Ultra, e non sempre riesce a tener testa ad una 6800U SLI (dipende ovviamente dal gioco), e questo mi sembra piuttosto strano, se pensiamo che cmnq questa GTX dovrebbe essere la più potente (o sbaglio?). Dal punto di vista tecnologico non c'era da modificare molto: gli SM3.0 sono quelli e quelli restano, ma l'aggiunta di nuove tecniche di AA penso sia una buona mossa, visto che ATI in questo campo è sempre stata un po' avanti. Non so perché ma anche io mi sono cmnq fatto l'idea che la R520 possa essere più potente, a scanso di equivoci dico subito che sono felice possessore di 6800GT e con questa resto per almeno un altro anno e mezzo, ma ormai a questo livello di prestazioni la differenza non la fa il frame rate (170 o 150 non fa alcuna differenza per l'occhio umano), quanto piuttosto la qualità dell'immagine e la risposta all'applicazione dei filtri: nVidia ha sicuramente fatto la mossa giusta ad uscire ora, sempre che sia realmente già disponibile in volumi, e per i prossimi tre mesi, sino all'inizio dell'autunno, può dormire sonni tranquilli; ATI dal canto suo ha la possibilità di conoscere già la sua avversaria, e se non sarà troppo presa sulla scelta tra CrossFire per X8x0 (ma sono già uscite o è il solito annuncio pubblicitario?) e R520, penso che potrà giocarsi bene le sue carte, nella consapevolezza che una scheda mal riuscita, cosa che cmnq non le auguro (sempre meglio un concorrente forte che uno debole), magari fatta uscira in tutta fretta, le farebbe perdere parecchi punti.

digione79
23-06-2005, 09:27
stò cancello di scheda grafica servirà si e no a giocare a space invaders...
mi tengo la mia Matrox Mistique 2 Mb, con acceleratore grafico diamond monster 3d (robbbba seria).

ripper71
23-06-2005, 09:48
digione......... metti qualche faccina nei tuoi commenti ironici, sennò qualcuno ti ci crede pure....

^TiGeRShArK^
23-06-2005, 09:48
Lo so benissimo, e lo avevo già letto, ma manca poco. Se prendi The C. of Riddick nella cartella system ci sono vari tipi di supporto cpu, pensi che sia così difficile in un prossimo futuro utilizzare i vantaggi del multicore?
Secondo me sarebbe anche più semplice riscrivere giochi della Xbox360 (che alla fine è una sorta di PC) per PC, o credi che i giochi per pc si pianteranno sul single threaded?
non manca tanto poco....
purtroppo pogrammare in multi-threading è MOLTO + complicato.
Occorre gestire le dipendenze (x cui x fortuna ci sono vari strumenti) e la sincronizzazione dei thread....
inoltre bisogna proprio cambiare la forma mentis del programmatore e pensare in maniera non proprio naturale.
Ovviamente tra un pò ci saranno questi gioki capaci di sfruttare le cpu multi-core, ma rikiederanno un notevole sforzo ai poveri programmatori, se non altro per imparare nuove metodologie di programmazione.

^TiGeRShArK^
23-06-2005, 09:52
FarCry lo hanno riscritto a 64bit poco dopo l'uscita delle cpu a 64bit ad esempio, non credere che sia tutta sta fantascienza.
Credo che le divagazioni sul cpu limited oltre a essere fuori tema siano concluse.
Di cpu sempre più potenti ne sfornano ogni giorno alias...
ottimizzare i gioki x sfruttare i 64 bit è MOLTO + facile ke ottimizzarli x sfruttare i dual core x quanto detto sopra.
infatti con i 64 bit il paradigma di programmazione resta praticamente identico.

Armin
23-06-2005, 10:22
Buona scheda. Ma la domanda è serve a qualcosa :confused: ??? La mia 9700@9700pro fà girare tutto decorosamente, dovrebbero decidersi a far uscire qualche gioco degno ti tali schede...

DjLode
23-06-2005, 10:33
Non esagerare :)
Se così fosse l'informatica sarebbe ferma ad ere fa :)
La scheda è la naturale evoluzione dell'Nv40 ed è per Nvidia la scheda di definizione per lo SM3. Inquadrata in quel senso, ha molto senso :)
Anche io ho una 9700 e per ora non sento il bisogno di cambiarla, ma una X800 o una 6800 mi fanno gola.

bjt2
23-06-2005, 10:54
Sono sempre stato fautore della qualità video (sono quello che quando vede un DVD bestemmia quando vede un artefatto da compressione...)...

Comprerei questa scheda solo per il nuovo antialiasing... Ma avete visto le foglie !?!?! Sono stupende... Finalmente!!!

bartolino3200
23-06-2005, 11:15
Quoto quanto detto da altri.
Secondo me questa scheda è la naturale evoluzione delle 6800 (in pratica la maturazione di una innovazione che era partitta con la serie 6XXX e ora stà arrivando alla sua conclusione... esattamente come per le la serie X--- della ATI).
Il vero problema è che al momento a parte i costi inferiori rispetto alla serie 6XXX è palese la loro inutilità.
Ola
Sta arrivando alla sua conclusione? Maturazione della serie 6xxx?
Ma hai la rece? IL fatto di essere passati da un processo produttivo di 0.13 micron all' attuale 0.11 micron della 7800GTX di sembra poco?
Non è affatto la maturazione o la conclusione, anzi è nuova vita al progetto 6xxx visto che consuma meno scalda meno e sale anche di più. La stessa asus te la vende con core 470Mhz di default.
Il processo produttivo non è solo stato affinato come ha fatto ati da x800 a x850 ma è stato praticamente cambiato con successo pieno.
Se poi per te passare da 0.13 a 0.11 è una passeggiata fammi sapere.
Ricorda ad esempio i problemi avuti da intel per passare a 9 nanometri.
Ati tarda con la serie 5xx proprio perchè sta avendo problemi col cambio del processo proprio come intel, e speriamo che non tiri fuori un nuovo fornetto occato in fabbrica.

OverClocK79®
23-06-2005, 11:35
Effettivamente a livello prestazionale, no c'è quel boost che sarebbe stato lecito attendersi (anche se come detto da molti le 6800 hanno solo un anno di vita, quindi sonno tutt'altro che da buttare), anche se ovviamente è sicuramente più potente delle 6800Ultra, e non sempre riesce a tener testa ad una 6800U SLI (dipende ovviamente dal gioco), e questo mi sembra piuttosto strano, se pensiamo che cmnq questa GTX dovrebbe essere la più potente (o sbaglio?).

bhe...
le prestazioni cmq ci sono ed in alcuni casi va quanto 2 6800U in SLI
ma devi pensare che normalmente i salti generazionali hanno sempre fatto si che si RADDOPPIASSERO le pipeline.....
se guardiamo infatti....con il passare del tempo sono passate da 4 a 8 a 16 e mentre in questo caso a 24 al posto di 32.....
un boost ovvimante c'è stato
sia per architettura che per potenza elaborativa.....il vero e proprio raddoppio nn c'è stato.....ma le prestazioni IMHO sono di tutto rispetto
come già detto in precedenza
si è dato troppo peso alle voci che giravano nel forum

BYEZZZZZZZZZZZ

DjLode
23-06-2005, 11:37
Link ufficiali di Ati e/o TMSC che confermino problemi produttivi li hai? Ah no, scusa leggi pure tu The Inquirer :asd:
Che ti piaccia o no G70 è un evoluzione di Nv40, nessuna rivoluzione, nessuna nuova vita. Come dici tu è la conclusione di un progetto che ti porterà (magari con uno step produttivo autunnale assolutamente identico) alle Wgf 2.0.
Oltretutto mi devi spiegare cosa significa per te overclockato di fabbrica poichè tale cose non ha senso. Se esce a X mhz vuol dire che è stabile e che quella è la frequenza di partenza :)
Su su, vabbhè che quando leggi "Nvidia" in una frase sbarelli, ma non mi pare il caso di far passare G70 per una cosa che non è :asd:
Un'ottima gpu, continuazione di un ottimo progetto. Niente altro :)

midian
23-06-2005, 11:43
A qundo la x900 :D
forse sarà la X18xx :D
comunque bella recensione :cool:
suppongo che avete passato unpò di notti in bianco per scrivere tutta sta storiella :sofico:
come sempre mitici!!! :D

Maury
23-06-2005, 11:56
Questa scheda è priva di impulso emozionale, non lascia il segno a mio avviso. Poteva uscire come non poteva sucire, nessuno ne avrebbe sentito la mancanza, anche perchè avere tutta sta fretta non è impellente, tanto non ci sn i giochi ;)

Direi che nVdia voleva con forza anticipare ATI a tutti i costi, magari xchè teme che il 520 sia qualcosa di davvero ma davvero cattivo :)

Spectrum7glr
23-06-2005, 12:01
io credo che la scheda sia in anicipo sui tempi sia dal lato dei driver evidentemente non maturi visto ad esempio che alle volte la configurazione SLI ha prestazioni inferiri a quella singola, sia sopratutto sul resto dell'HW...qui siamo ormai in una costante situazione CPU limited che non permette alla scheda di dispiegare a pieno il suo potenziale...potentissima ma sostanzialmente ancora inutile.

SilverXXX
23-06-2005, 12:08
Se posso dire la mia, penso che questa scheda non sia pensata per chi ha un 6800 o una x850 (ma lo stesso secondo me sarà la r520). Per me che ho la gf4ti4200 o qualcuno che ha magari la 5200, il cambio sarebbe molto vantaggioso.

JohnPetrucci
23-06-2005, 12:09
bhe...
le prestazioni cmq ci sono ed in alcuni casi va quanto 2 6800U in SLI
ma devi pensare che normalmente i salti generazionali hanno sempre fatto si che si RADDOPPIASSERO le pipeline.....
se guardiamo infatti....con il passare del tempo sono passate da 4 a 8 a 16 e mentre in questo caso a 24 al posto di 32.....
un boost ovvimante c'è stato
sia per architettura che per potenza elaborativa.....il vero e proprio raddoppio nn c'è stato.....ma le prestazioni IMHO sono di tutto rispetto
come già detto in precedenza
si è dato troppo peso alle voci che giravano nel forum

BYEZZZZZZZZZZZ
Quoto pienamente.

leoneazzurro
23-06-2005, 12:34
Dovrei bacchettarti le mani per questa domanda. Evidentemente non hai letto bene l'articolo. Nei test in cui vedi nello stesso grafico anche la Radeon X850 XT PE non sono stati utilizzati per le altre schede effetti esclusivi come le soft stencil shadows abilitabili solo in modalità SM2.0+ (non supportata dalle schede Radeon). Per testare le funzionalità esclusive messe a disposizione dal supporto allo shader model 3.0 abbiamo dedicato un paragrafo apposito della recensione:

http://www.hwupgrade.it/articoli/skvideo/1311/30.html

Qui troverai i test con SM2.0+ abilitati in The Chronicles Of Riddick.


Pardon, svista mia ;) Ma l'abbondanza non si rifiuta mai :)

Daytona
23-06-2005, 13:01
cooooooooooomunque.....

Meglio la mia Ti4200 AGP 4x (neanche 8x, tanto non serve a niente sul nv25) @ 305mhz :D
Altro che SLI TSS TMS FBKXBKFX!!! meglio dei sani pixelshader 1.4 e zitti!!

dai scherzo!!!
ciao ;)
Grande Gambettola!!!!!! :cool: :cool: :cool: ...

...ho visto che a San.Giovanni una bancherella ha le 7800GTX a 499€ nella formula paghi due prendi tre!!!! :sofico: :sofico:

;) ;) ;) ;) ;)

1100000110100000

MaBru
23-06-2005, 14:25
Il fatto che la Radeon X850 XT PE sia stata introdotta 8 mesi dopo l'uscita della GeForce 6800 Ultra non significa che non possa essere confrontata con quest'ultima o che debba essere giudicata negativamente per questo motivo. Le uniche cose significative per chi va a comprare una scheda video in un negozio è il prezzo e le sue prestazioni/qualità, non la data di commercializzazione.
Touché. :D

TigerDragon
23-06-2005, 15:15
L'avevo detto che il dissi ricordava il logo di nVIDIA :O
:D

halduemilauno
23-06-2005, 16:16
L'avevo detto che il dissi ricordava il logo di nVIDIA :O
:D

ma perchè pensi che non se ne era accorto nessuno?
;)

dwfgerw
23-06-2005, 17:04
:-D

johnson
23-06-2005, 17:26
Chissà se Vifani legge ancora i commenti, io cmq scrivo :D

Ho riflettutto un secondo sul metodo di valutazione della potenza della VGA. Più precisamente sull'adozione del frame rate medio per stabilire le graduatorie di potenza.
Parto subito dicendo che secondo me bisognerebbe valutare frame rate minimo/medio/massimo (almeno il minimo deve essere sempre evidenziato e deve essere il termine di paragone più importante).
Sono giunto a questa conclusione ragionando sulla struttura delle scene analizzate per benchare le VGA. Sicuramente ci sono momenti in cui la scheda ha un sacco di lavoro da fare e altri in cui riesce a sparare frame rate esagerati.
Ma al giocatore normale, soprattutto chi gioca su internet, ha bisogno di un meno sbalzi possibili. Meglio una scheda che fa 60fps di minimo e 100 fps di massimo piuttosto che una che fa 30 di minimo e 130 di massimo. Dai vostri test, questo non può emergere in quanto il frame rate medio è sempre di 80fps in questo caso.

Vi invito a riflettere su questo :)

ciao

V4n{}u|sH
23-06-2005, 17:39
Vedrete ATi voi... ;)

DjLode
23-06-2005, 17:47
Vedrete ATi voi... ;)

Ma io spero che la vedrai anche tu, insomma si parla di Luglio non di anni, speriamo di esserci ancora tutti :D

V4n{}u|sH
23-06-2005, 17:49
Ehehehe era x rispondere all'ultimo post della prima pagina... Poi mi sono accorto che c'erano quasi 200 commenti :ops2:

johnson
23-06-2005, 17:57
djlode che ne pensi di ciò che ho scritto invece di fare commenti inutili rispondi a me :D

DjLode
23-06-2005, 18:12
djlode che ne pensi di ciò che ho scritto invece di fare commenti inutili rispondi a me :D

Che sono cose talmente inutili che non ha senso neanche rispondere :ciapet:
A parte gli scherzi, è ovvio che, a parità di media di fps, sia migliore quella che fa segnalare fps minimi più alti. Però non sempre i benchmark utilizzati mostrano tutto l'andamento. Poi anche fare dei grafici sull'andamento minimo/medio/massimo significherebbe fare triplo lavoro. Insomma è un'idea che tanti sposano, ma che forse (e credo di non sbagliare) Raffaele non mostri solo per il lavoro in più che comporta.

Miss KlaPipì
23-06-2005, 18:22
Ehehehe era x rispondere all'ultimo post della prima pagina... Poi mi sono accorto che c'erano quasi 200 commenti :ops2:

Non ti preoccupare è già stato ripreso quattro volte in due giorni da Corsini & Vifani, ma l'aria da saputello la mantiene :cool:

Demin Black Off
23-06-2005, 18:24
Speriamo di trovare a breve una 6800gt nuova a 200 euro

V4n{}u|sH
23-06-2005, 18:25
Ah OK grazie Miss :)

Miss KlaPipì
23-06-2005, 18:37
Speriamo di trovare a breve una 6800gt nuova a 200 euro

Non ci sperare. La toglieranno dal mercato prima :cool:

bertoz85
23-06-2005, 18:40
Grande Gambettola!!!!!! :cool: :cool: :cool: ...

...ho visto che a San.Giovanni una bancherella ha le 7800GTX a 499€ nella formula paghi due prendi tre!!!! :sofico: :sofico:

;) ;) ;) ;) ;)

1100000110100000
grannnndeee!! di dove sei?

te scherzi, ma alla mostrascambio di inizio maggio c'erano certi giapponesi e cinesi che giravano x la città, sicuramente erano venuti dall'asia direttamente al centro del mondo (gambettola) x prendere i primi engineering sample dalle bancherelle a qualche euro!!
tanto cosa vuoi, quello che vende gl sgabelli di legno anticato cosa vuoi che ne sappia di qnto vale sta scheda?? :D :D :D

Demin Black Off
23-06-2005, 18:53
Non ci sperare. La toglieranno dal mercato prima :cool:

:D nu nu io devo fare lo sli aggratis

Miss KlaPipì
23-06-2005, 19:20
:D nu nu io devo fare lo sli aggratis

In questo caso ti consiglio una Beretta calibro 12 ed una calzamaglia nera sulla testa :cool:

Vifani
23-06-2005, 19:50
Chissà se Vifani legge ancora i commenti, io cmq scrivo :D


Leggo leggo ;)

Che sono cose talmente inutili che non ha senso neanche rispondere :ciapet:
A parte gli scherzi, è ovvio che, a parità di media di fps, sia migliore quella che fa segnalare fps minimi più alti. Però non sempre i benchmark utilizzati mostrano tutto l'andamento. Poi anche fare dei grafici sull'andamento minimo/medio/massimo significherebbe fare triplo lavoro. Insomma è un'idea che tanti sposano, ma che forse (e credo di non sbagliare) Raffaele non mostri solo per il lavoro in più che comporta.

Non è un problema di lavoro in più. Molti dei benchmark che facciamo ci restituiscono anche il frame rate minimo oltre a quello medio (Far Cry, UT2004, The Chronicles Of Riddick, Splinter Cell, ecc...). Fare quindi quei grafici in più non è un problema. E' un aspetto di cui abbiamo parlato io e Paolo in molte occasioni, ma vorrei evitare di esagerare con il numero di grafici pubblicati. A parte occasioni come G70 et simila, una recensione con una sfilza di grafici è l'ultima cosa che io avrei voglia di leggere, perché quando ne vedo così in giro, io stesso salto subito alle conclusioni.

Maury
23-06-2005, 20:14
Ma io spero che la vedrai anche tu, insomma si parla di Luglio non di anni, speriamo di esserci ancora tutti :D

Buabubauabuab bella qst :sofico:

SilverXXX
23-06-2005, 21:07
Ma io spero che la vedrai anche tu, insomma si parla di Luglio non di anni, speriamo di esserci ancora tutti :D
:eek:

:tie: :mbe:

:D

Cmq (tanto per tornare un pò it tra una cosa e l'altra :D ), per poter dire con certezza se è meglio questa o le nuove ati, dobbiamo aspettare che escano entrambe (che escano, non che si vedano nelle recensioni), secondo me.
E devo dire che le nuove funzionalità non mi sembrano male, anche se chiaramente il passaggio 6800 -> 7800 mi sembra folle.

Vifani
23-06-2005, 21:09
Dubito che R520 lo vedremo prima di Agosto...

DjLode
23-06-2005, 21:19
Non è un problema di lavoro in più. Molti dei benchmark che facciamo ci restituiscono anche il frame rate minimo oltre a quello medio (Far Cry, UT2004, The Chronicles Of Riddick, Splinter Cell, ecc...). Fare quindi quei grafici in più non è un problema. E' un aspetto di cui abbiamo parlato io e Paolo in molte occasioni, ma vorrei evitare di esagerare con il numero di grafici pubblicati. A parte occasioni come G70 et simila, una recensione con una sfilza di grafici è l'ultima cosa che io avrei voglia di leggere, perché quando ne vedo così in giro, io stesso salto subito alle conclusioni.

Vero anche questo. A parte che se tutti sono come me (dubito :)), essendo relegato ad un 56Kb i grafici manco li ho guardati :stordita:
Non è assolutamente per togliere peso a quanto avete fatto, sia ben chiaro è una giustificazione che va capita, ma prima di tutto mi interessavano le novità e le conferme. Che andava più forte già si sapeva :)
Ho letto solo le prime pagine e le conclusioni. Tanti grafici è vero rendono solo pesante la recensione, anche perchè sei portato cmq a vedere quello che ti pare :)
Mai pensato di fare una tabella riassuntiva con i dati nudi e crudi? Non danno di certo idea delle differenze, ma magari potrebbe essere scaricabile (formato pdf :)) e visibile da casa, così se uno vuole se la studia. Ma ovviamente sono paturnie mie :)

Narmo
23-06-2005, 22:25
Come al solito nVidia presenta la sua scheda video di fascia alta... che non ha nulla di speciale.. ma perchè impazzite tanto?....
Bhò... !
contenti voi contenti il mondo!

johnson
23-06-2005, 23:08
Magari potrebbe essere un'idea quella di accompagnare i grafici con delle tabelle di testo nude e crude con gli fps minimi (dove possibile).
In questo modo non ci sarebbero grafici in più che creano confusione e anche il buon djlode non se ne avrà a male col suo fido 56k :D

ciao

DjLode
23-06-2005, 23:36
anche il buon djlode non se ne avrà a male col suo fido 56k :D


Vhè non fare tanto il furbino te!!! Ad Agosto cambio casa e vedi poi te, mi faccio tirare dentro una portante.
A parte gli scherzi il mio era un consiglio anche per chi magari vuole leggersi i test a mente fredda, una tabella riassuntiva è facilmente leggibile :)

Demin Black Off
23-06-2005, 23:53
In questo caso ti consiglio una Beretta calibro 12 ed una calzamaglia nera sulla testa :cool:

:mbe: l'idea non è male, dalle mie parti le schede si prendono cosi dal negozio :mbe: solo che vanno di fucile non di beretta :Prrr:

aplo
24-06-2005, 04:26
Hmm complimenti per la recensione un lavoro con i fiocchi proprio, altro che gli articoletti che si trovano sulle riviste "specializzate" in edicola che fanno ridere.
Cmq visto il lasso temporale in cui stanno uscendo questi mostri penso che sia nvidia che ati a questo giro prenderanno una mezza cantonata perchè le nuove console stanno dietro l'angolo e per quanto mi riguarda non intendo investire una cifra cosi alta per l'ultima scheda video uscita prima di vedere in azione il 360 della Microsoft e la PS3, anche perchè di giochi in commercio che le sfruttino nemmeno l'ombra Doom 3 HL2 Far Cry e BF2 tanto per citare i piu importanti già volano con le schede di adesso idem faranno i nuovi Shoter che usano questi motori, ergo per vedere qualcosa di nuovo toccherà aspettare le nuove console e io i soldi li dirotterà su queste per ora, poi una volta che anche ATI sarà scesa in campo col nuovo procio vedremo.

Cya

PS io ho da un annetto una X800 Xt liscia ma ora come ora prenderei un 7800 invece di una X 850 XT PE primo perchè costano uguali, secondo perchè i prodotti ATI da un po di tempo a sta parte non sono piu della stessa qualità, troppa moria di schede.

zerothehero
24-06-2005, 10:54
Alcune considerazioni sulla recensione...tralascio i complimenti già fatti (almeno credo :stordita: )e passo ad alcuni appunti che magari potrebbero essere utili. :)

1) Perchè fare i test a 1024*768 e senza filtri? non è meglio per essere più sintetici farle solo a 1280*1024 4x-8x e 1600*1200 4x-8x dato che queste schede non mostrano il loro potenziale a risoluzioni basse? troppi grafici IMHO fanno andare in confusione.

2) Non temete che (ai recensori) i grafici siano stati un pò troppo dispersivi, non è meglio tipo alla fine avere un qualcosa di riepilogativo, con grafici normalizzati
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg, per avere una visione sinottica?
3) Per le immagini di confronto con i filtri e "il trasparency adaptative" non era meglio creare dei gif animati con un frame "senza filtro" e l'altro con "filtro" oppure un immagine che al passaggio del mouse fa comparire l'immagine con il filtro? così come l'avete fatto è difficile vedere le differenze, io per vederle ho caricato le immagine nelle "tab" e poi le sovrapponevo..non è meglio farlo di def?..
4) appunto minore..quale è l'utilità di unreal tournament 2004? è troppo leggero..non era meglio benchare su fear e/o lock on?

Che ne pensate? :oink:

halduemilauno
24-06-2005, 11:17
Alcune considerazioni sulla recensione...tralascio i complimenti già fatti (almeno credo :stordita: )e passo ad alcuni appunti che magari potrebbero essere utili. :)

1) Perchè fare i test a 1024*768 e senza filtri? non è meglio per essere più sintetici farle solo a 1280*1024 4x-8x e 1600*1200 4x-8x dato che queste schede non mostrano il loro potenziale a risoluzioni basse? troppi grafici IMHO fanno andare in confusione.

2) Non temete che (ai recensori) i grafici siano stati un pò troppo dispersivi, non è meglio tipo alla fine avere un qualcosa di riepilogativo, con grafici normalizzati
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg, per avere una visione sinottica?
3) Per le immagini di confronto con i filtri e "il trasparency adaptative" non era meglio creare dei gif animati con un frame "senza filtro" e l'altro con "filtro" oppure un immagine che al passaggio del mouse fa comparire l'immagine con il filtro? così come l'avete fatto è difficile vedere le differenze, io per vederle ho caricato le immagine nelle "tab" e poi le sovrapponevo..non è meglio farlo di def?..
4) appunto minore..quale è l'utilità di unreal tournament 2004? è troppo leggero..non era meglio benchare su fear e/o lock on?

Che ne pensate? :oink:

che sono d'accordo. fermo restando i complimenti gia dati. sono d'accordo con te.
ciao.
;)

Grezzo
24-06-2005, 11:24
4) appunto minore..quale è l'utilità di unreal tournament 2004? è troppo leggero..non era meglio benchare su fear e/o lock on?

è però anche uno dei giochi più diffusi e giocati, magari forse si poteva fare solo al 1600 però...

Vifani
24-06-2005, 11:46
Alcune considerazioni sulla recensione...tralascio i complimenti già fatti (almeno credo :stordita: )e passo ad alcuni appunti che magari potrebbero essere utili. :)

1) Perchè fare i test a 1024*768 e senza filtri? non è meglio per essere più sintetici farle solo a 1280*1024 4x-8x e 1600*1200 4x-8x dato che queste schede non mostrano il loro potenziale a risoluzioni basse? troppi grafici IMHO fanno andare in confusione.

2) Non temete che (ai recensori) i grafici siano stati un pò troppo dispersivi, non è meglio tipo alla fine avere un qualcosa di riepilogativo, con grafici normalizzati
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg, per avere una visione sinottica?
3) Per le immagini di confronto con i filtri e "il trasparency adaptative" non era meglio creare dei gif animati con un frame "senza filtro" e l'altro con "filtro" oppure un immagine che al passaggio del mouse fa comparire l'immagine con il filtro? così come l'avete fatto è difficile vedere le differenze, io per vederle ho caricato le immagine nelle "tab" e poi le sovrapponevo..non è meglio farlo di def?..
4) appunto minore..quale è l'utilità di unreal tournament 2004? è troppo leggero..non era meglio benchare su fear e/o lock on?

Che ne pensate? :oink:

Non tutte le persone possono permettersi risoluzioni di 1280x1024 o 1600x1200 con refresh decenti. Inoltre ritengo interessante mostrare anche le situazioni in cui si è CPU limited, fermo restando che la valutazione ovviamente si basa sui risultati ottenuti là dove non si è CPU limited.
Ci sono moltissime modalità di antialiasing disponibili attraverso le varie configurazioni. Il discorso che fai tu al passaggio del mouse è possibile solo tra due diverse modalità.
Unreal Tournament 2004 viene mantenuto per il momento perché, oltre ad essere un titolo molto giocato ed un motore grafico usato anche in altri videogames, ci permette di valutare le prestazioni di una GPU anche con caratteristiche meno recenti come il semplice rendering in multitexturing ed il T&L.

KuWa
24-06-2005, 12:33
mi aspettavo di piu da questa vga... sono sicuro però che nvidia non è cosi stupida e che se ati metterà in commercio una vga piu potente di questa avranno una 7800ultra per controbattere l'azienda canadese.

reptile9985
24-06-2005, 13:23
a 1600 con filtri attivi fa pochi fps in + della x850xt ke è una 16 pipeline

bronzodiriace
24-06-2005, 13:27
Francamente a me dispiacerebbe sapere che c'era qualcuno che credeva in un cambio tale di architettura o prestazioni talmente più elevate da rendere vecchia un'architettura nuova, quella di Nv40 :)
Forse qualcuno c'era, e sono quelli che sono rimasti delusi dalle prestazioni (levando i fan boy Ati). Era impensabile uno scenario in cui uscendo la 7800, la 6800 diventasse totalmente vecchia. Sicuramente poco appetibile, ora, sul mercato del nuovo, i prezzi sono simili e le prestazioni della 7800 superiori. Ora come ora, oggi intendo, prendersi una 6800 Ultra è irragionevole (ripeto, mercato del nuovo) a meno di non trovare offerte molto vantaggiose.
sai invece cosa penso?

che nel momento in cui scenderanno a cifre ancor più basse le 6800gt convenga utilizzare due 6800gt per lo Sli, clocckarle ad ultra ed avere prestazioni superiori alla 7800gtx?

che ve ne pare come scelta?

zerothehero
24-06-2005, 13:28
Non tutte le persone possono permettersi risoluzioni di 1280x1024 o 1600x1200 con refresh decenti. Inoltre ritengo interessante mostrare anche le situazioni in cui si è CPU limited, fermo restando che la valutazione ovviamente si basa sui risultati ottenuti là dove non si è CPU limited.
Ci sono moltissime modalità di antialiasing disponibili attraverso le varie configurazioni. Il discorso che fai tu al passaggio del mouse è possibile solo tra due diverse modalità.
Unreal Tournament 2004 viene mantenuto per il momento perché, oltre ad essere un titolo molto giocato ed un motore grafico usato anche in altri videogames, ci permette di valutare le prestazioni di una GPU anche con caratteristiche meno recenti come il semplice rendering in multitexturing ed il T&L.


Capisco le motivazioni...ma non credi che questa recensione sia "sovraccarica" di dati?
io ad es. trovo un pò "ozioso" mettere tre grafici con 1024*768, 1280*1024 e 1600*1200 SENZA FILTRI..nessuno usa queste schede senza filtri, quindi è un bench possibile ma che non ha una realtà applicativa a mio avviso.

Sulle molte possibilità di antialiasing hai ragione, ma secondo me bisogna trovare un modo che renda più semplice un confronto sinottico..così a meno di non usare le tab è difficile confrontarle.

Questo tipo di grafici non ti piacciono? io li trovo utili...secondo me bisognerebbe utilizzare altre grafici e non solo istogrammi..
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg

Su ut2004 rimango della mia idea, forse è meglio privilegiare altri giochi magari differenziandosi dai soliti che tutti utilizzano (doom3, far cry, ut2004, half life 2)..fear anche se è beta per il fatto di essere pesantissimo e molto vga dipendente l'avrei usato.

Per l'altro ho poco da dire, immagino il lavoro enorme per fare in poco tempo tutto.. :)

zerothehero
24-06-2005, 13:30
sai invece cosa penso?

che nel momento in cui scenderanno a cifre ancor più basse le 6800gt convenga utilizzare due 6800gt per lo Sli, clocckarle ad ultra ed avere prestazioni superiori alla 7800gtx?

che ve ne pare come scelta?


Non è una scelta sciocca..se riesci a trovare due 6800gt sui 300 euro l'uno e hai già alimentatore e scheda video-sli fregandotene dei consumi e del calore fai una buona scelta. :)

Demin Black Off
24-06-2005, 13:32
mi aspettavo di piu da questa vga... sono sicuro però che nvidia non è cosi stupida e che se ati metterà in commercio una vga piu potente di questa avranno una 7800ultra per controbattere l'azienda canadese.

Io penso che hanno già pure la 8800 dato che la scheda in termini di prestazioni non mi sembra un grande passo in avanti. Penso che sia più una stategia di mercato far uscire un prodotto non troppo rivoluzionario per studiare l'ati. Sicuramente l'ati scassa con qualcosa di nuovo che se la mangia la 7800gtx/ultra e li che a settembre esce un'altro 3d con scritto:

nvidia presenta la 8800, un prodotto rivoluzionario :)

:D va sempre a finire cosi oramai. La vera rivoluzione si ha fine anno quando escono schede di massimo rispetto.

bronzodiriace
24-06-2005, 13:34
Non è una scelta sciocca..se riesci a trovare due 6800gt sui 300 euro l'uno e hai già alimentatore e scheda video-sli fregandotene dei consumi e del calore fai una buona scelta. :)
si infatti
credo che da settembre le 6800gt si troveranno sui 250 euro o anche di meno.

JOHNNYMETA
24-06-2005, 13:50
Francamente a me dispiacerebbe sapere che c'era qualcuno che credeva in un cambio tale di architettura o prestazioni talmente più elevate da rendere vecchia un'architettura nuova, quella di Nv40 :)
Forse qualcuno c'era, e sono quelli che sono rimasti delusi dalle prestazioni (levando i fan boy Ati). Era impensabile uno scenario in cui uscendo la 7800, la 6800 diventasse totalmente vecchia. Sicuramente poco appetibile, ora, sul mercato del nuovo, i prezzi sono simili e le prestazioni della 7800 superiori. Ora come ora, oggi intendo, prendersi una 6800 Ultra è irragionevole (ripeto, mercato del nuovo) a meno di non trovare offerte molto vantaggiose.

Non so se scratchi in italia, ma se "cerchi i prezzi" in internet già si trova la 6800GT a neanche 270€ ;) in negozi italiani (e aspetta anche il 90% che non ha ancora aggiornato i prezzi) il che significa 16 pipeline a quel prezzo.Il bello è che non è nemmeno uscita la 7800ultra il che significa che quando succederà si troveranno le 6800ultra disponibili a quel prezzo come avevo guardacaso previsto giorni fa. :D
Comunque la cosa fondamentale,cioè 16pipe a prezzo superconveniente si è verificata in perfetta sincronia con l'uscita della 7800.
E non serve che mi dilungo poi sulla ovvia prossima uscita della 7600 o analoga equivalente alla 6800 16pipe. :rolleyes:

Maury
24-06-2005, 13:56
La mia risoluzione preferita è la 1024x768, rende tutto più morbido :)

DjLode
24-06-2005, 14:49
Non so se scratchi in italia, ma se "cerchi i prezzi" in internet già si trova la 6800GT a neanche 270€ ;) in negozi italiani (e aspetta anche il 90% che non ha ancora aggiornato i prezzi) il che significa 16 pipeline a quel prezzo.Il bello è che non è nemmeno uscita la 7800ultra il che significa che quando succederà si troveranno le 6800ultra disponibili a quel prezzo come avevo guardacaso previsto giorni fa. :D
Comunque la cosa fondamentale,cioè 16pipe a prezzo superconveniente si è verificata in perfetta sincronia con l'uscita della 7800.
E non serve che mi dilungo poi sulla ovvia prossima uscita della 7600 o analoga equivalente alla 6800 16pipe. :rolleyes:

Mi fai per cortesia vedere, visto che dici che lo avevi previsto, un listino italiano con una Ultra a 270€? Come vedi hai previsto male.

MaBru
24-06-2005, 14:52
Unreal Tournament 2004 viene mantenuto per il momento perché, oltre ad essere un titolo molto giocato ed un motore grafico usato anche in altri videogames, ci permette di valutare le prestazioni di una GPU anche con caratteristiche meno recenti come il semplice rendering in multitexturing ed il T&L.
UT2004 gira bene anche con schede DX7, quindi non vedo perché continuare ad usarlo per benchare. Come pure leverei Halo che usa quattro shader in croce. Non sarebbe meglio usare titoli molto più pesanti, tipo Fear, Lock-on o Battlefield II?

Athlon 64 3000+
24-06-2005, 15:08
UT2004 gira bene anche con schede DX7, quindi non vedo perché continuare ad usarlo per benchare. Come pure leverei Halo che usa quattro shader in croce. Non sarebbe meglio usare titoli molto più pesanti, tipo Fear, Lock-on o Battlefield II?

Anche io proprongo di togliere UT2004 e Halo dai benchmark perchè ormai troppo
vecchi come giochi.
Primo si potrebbe mettere Batteflied 2 e quando esce anche F.E.A.R.

JOHNNYMETA
24-06-2005, 15:44
Mi fai per cortesia vedere, visto che dici che lo avevi previsto, un listino italiano con una Ultra a 270€? Come vedi hai previsto male.

Devi aspettare, tu lascia il tempo alla previsione (sulla ultra) e la previsione si realizzerà.Come ho fatto notare sopra l'andamento degli eventi è perfetto perchè la tua opinione sulla 6800ultra sia prestissimo confutata. :D
Il grosso ripeto è fatto visto che ha 16 pipe come la GT.
Intanto continua a "cercare i prezzi" :read: ,che si aggiornano.

DjLode
24-06-2005, 15:50
Continuo a non trovare link su shop italiani con GT a 270€. Ripeto, hai link o ne hai vista una in un negozio il che si spiegherebbe con "smaltimento minime scorte"? Forse ti sfugge la differenza :)

JOHNNYMETA
24-06-2005, 16:09
Continuo a non trovare link su shop italiani con GT a 270€. Ripeto, hai link o ne hai vista una in un negozio il che si spiegherebbe con "smaltimento minime scorte"? Forse ti sfugge la differenza :)

Pensavo fosse sottinteso che "trova prezzi" fosse un aiuto (citazione,sito) per non fare proprio pubblicità esplicita non molto gradita ai moder e che fossi un buon navigatore.
Comunque se ti arrampichi sull'espediente delle scorte non c'è oggettività,visto che nel caso delle radeon9800pro dicevi che anche quelle dopo un anno dall'uscita della X800xt erano scorte non smaltite.
Quindi chiudo con l'ultimo GOAL (http://www.atm.it/home.aspx?FID=13&PID=5327).

E non considererò i tuoi prossimi :mc:

16pipe.

Stop
Bye

CiccoMan
24-06-2005, 16:16
Pensavo fosse sottinteso che "trova prezzi" fosse un aiuto (citazione,sito) per non fare proprio pubblicità esplicita non molto gradita ai moder e che fossi un buon navigatore.
Comunque se ti arrampichi sull'espediente delle scorte non c'è oggettività,visto che nel caso delle radeon9800pro dicevi che anche quelle dopo un anno dall'uscita della X800xt erano scorte non smaltite.
Quindi chiudo con l'ultimo GOAL (http://www.atm.it/home.aspx?FID=13&PID=5327).

E non considererò i tuoi prossimi :mc:

16pipe.

Stop
Bye


Non è una GT, ma è una 6800 liscia con 128mb di ddr... mi pareva strano a quel prezzo :rolleyes:

...che tra l'altro non supporta nemmeno lo sli :(

DjLode
24-06-2005, 16:18
Lol, ma hai letto le caratteristiche della scheda :rotfl:
A me dispiace che tu ti sia preso una cantonata e spero vivamente che tu non l'abbia ordinata visto che è una liscia :)
La descrizione è sbagliata e ti invito a guardarti il listino della Asus UFFICIALE.
Non ti è sorto il dubbio guardando il listino di vedere la stessa scheda a 270€ e a 350€? Ecco, vedi il codice? Vedi quella piccola differenza GT/TD? Ecco :asd:

JOHNNYMETA
24-06-2005, 16:39
Lol, ma hai letto le caratteristiche della scheda :rotfl:
A me dispiace che tu ti sia preso una cantonata e spero vivamente che tu non l'abbia ordinata visto che è una liscia :)
La descrizione è sbagliata e ti invito a guardarti il listino della Asus UFFICIALE.
Non ti è sorto il dubbio guardando il listino di vedere la stessa scheda a 270€ e a 350€? Ecco, vedi il codice? Vedi quella piccola differenza GT/TD? Ecco :asd:

Di quella scheda c'è anche la rece di hwupgrade e stai prendendo tu una tripla cantonata. :Prrr: :rotfl: :rotfl: :rotfl:
Non è assolutamente liscia.Semmai altro.
Guardati i dati nella tabella della rece.16PIPE.Il resto non mi interessa,anche perchè non ho bisogno di alcuna scheda per almeno un altro semestre e aspetto la risposta della ati a questa rivoluzione-evoluzione. :rolleyes:

DjLode
24-06-2005, 16:42
Guarda che a me lasciarti alle tue convinzioni non mi costa nulla. Sei liberissimo di gettare i soldi in qualcosa che non è quello che ti aspetti. Ci faresti ben più bella figura dicendo che ti sei sbagliato, succede, dopo tutto Asus presenta due schede con la stessa sigla, la TD e la GT TD. Mi spiace :)

CiccoMan
24-06-2005, 16:48
Di quella scheda c'è anche la rece di hwupgrade e stai prendendo tu una tripla cantonata. :Prrr: :rotfl: :rotfl: :rotfl:
Non è assolutamente liscia.Semmai altro.
Guardati i dati nella tabella della rece.16PIPE.Il resto non mi interessa,anche perchè non ho bisogno di alcuna scheda per almeno un altro semestre e aspetto la risposta della ati a questa rivoluzione-evoluzione. :rolleyes:

Ehm... ti sbagli, la v9999td non ha 16 pipe... la si può portare a 16x6 solo tramite softmod ... ma come tutti sappiamo non è unja cosa sempre fattibile ;)

Ecco il thread di riferimento http://www.hwupgrade.it/forum/showthread.php?t=803308&page=1&pp=20

JOHNNYMETA
24-06-2005, 16:52
Leggi la rece :read: :read: sulla V9999GT e comunque tornando all'origine aspetta che esca la 7800Ultra e dai il tempo ai negozi di aggiornare i prezzi.

Au revoir :cool:
:ubriachi:

DjLode
24-06-2005, 16:59
Non ce la fai proprio ad ammettere di aver preso una cantonata vero? :rolleyes:

CiccoMan
24-06-2005, 17:12
Leggi la rece :read: :read: sulla V9999GT e comunque tornando all'origine aspetta che esca la 7800Ultra e dai il tempo ai negozi di aggiornare i prezzi.

Au revoir :cool:
:ubriachi:

Si, ma tu hai linkato la V9999TD :muro:

La V9999GT ha unn'altro prezzo ;)

CriV
24-06-2005, 17:28
Decisamente un'ottima scheda grafica

però mi sorge un dubbio....????

La "mossa" di nVidia di rendere le GeForce 7800GTX immediatamente disponibili ha sicuramente reso felici gli utenti finali ma ha creato non pochi problemi ai distributori e ai rivenditori, che si sono ritrovati in magazzino schede come il GeForce 6800 Ultra praticamente allo stesso prezzo se non superiore a quello della GeForce 7800GTX.

Come molti di voi sapranno i margini su questi prodotti sono miseri ed è facile immaginare il danno che molti subiranno...
Non era meglio fare le cose con più gradualità, dando la possibilità di smaltire i magazzini....

Mi viene dunque da pensare...... è possibile che tutta questa fretta di nVidia per rendere immediatamente disponibile questo prodotto sia dovuta al fatto che il chip ATI R520 sia nettamente superiore?

Saluti
Cristiano

Vertex
24-06-2005, 17:51
Aprendo la versione stampabile non mi carica alcune foto e grafici...come mai???

Helstar
24-06-2005, 22:43
Il torto e la ragione c'e' al 50% in entrambi i 'contendenti' :cool:

Il link che ha fornito non c'entra assolutamente niente visto che NON E' la 6800 GT "vera", ma in effetti c'e' chi la sta vendendo fin dal 15 giugno a 215+iva ... (la agp, la pci express 259+iva), un noto negozio romano ...

SCHEDE VIDEO:
GeForce 6800GT 256MB AGP8x Gigabyte Tv/DVI* *** 215,00
GeForce 6800GT 256Mb PciEX Gainward U/2400PCX*259,00

DjLode
24-06-2005, 23:00
Ah bhè certo, tanto qui in Italia l'iva è solo al 20% :)
Anche perchè il 15 Giugno è un pelo passato :)

Demin Black Off
24-06-2005, 23:48
Il torto e la ragione c'e' al 50% in entrambi i 'contendenti' :cool:

Il link che ha fornito non c'entra assolutamente niente visto che NON E' la 6800 GT "vera", ma in effetti c'e' chi la sta vendendo fin dal 15 giugno a 215+iva ... (la agp, la pci express 259+iva), un noto negozio romano ...

SCHEDE VIDEO:
GeForce 6800GT 256MB AGP8x Gigabyte Tv/DVI* *** 215,00
GeForce 6800GT 256Mb PciEX Gainward U/2400PCX*259,00

Alla fine costa di piu di quanto lo pagata io :Prrr:

EvilBoy
25-06-2005, 04:43
"di possedere grande inventiva e creatività: NV1 utilizzava superfici curve e non triangoli come primitive per la descrizione di un oggetto tridimensionale. "

Ma la NV1 aveva come base i quadrato (non superficie curve).
Solo una nota: questa peculiarità che adesso viene lodata gli valse una serie di incompatibilità e ne decretarono l'insucesso.. Avevo fino a poco tempo fa una rivista che ne parlava (TGM).. era incompatibile con directx e i giochi dovevano essere programmati appositamente.
Tutte le schede video infatti utilizzano come base quei triangoli, anche quelle da oggi (solo che le primitive directx/opengl lo nascondono). Le superficie curve vengono trasformate in una serie innumerevole di triangoli, tutto qui.

halduemilauno
25-06-2005, 10:26
cmq anch'io ho visto 6800gt a 282€ I.I.
;)

warriorsala2
25-06-2005, 12:15
Grande Nvidia boia una skeda con le palle!!!!appena sfornata ci voleva proprio.:!!!!!!!....Domanda il prezzo????Non esiste naturalmente, come minnimo costerà sui 700 Eurozzi!!!!Ati arde dall'N-Vidia ahahaahah

halduemilauno
25-06-2005, 13:17
Grande Nvidia boia una skeda con le palle!!!!appena sfornata ci voleva proprio.:!!!!!!!....Domanda il prezzo????Non esiste naturalmente, come minnimo costerà sui 700 Eurozzi!!!!Ati arde dall'N-Vidia ahahaahah

549€ I.I. e gia disponibile.
;)

bronzodiriace
25-06-2005, 14:03
cmq anch'io ho visto 6800gt a 282€ I.I.
;)
linka linka ;)

bronzodiriace
25-06-2005, 14:05
Il torto e la ragione c'e' al 50% in entrambi i 'contendenti' :cool:

Il link che ha fornito non c'entra assolutamente niente visto che NON E' la 6800 GT "vera", ma in effetti c'e' chi la sta vendendo fin dal 15 giugno a 215+iva ... (la agp, la pci express 259+iva), un noto negozio romano ...

SCHEDE VIDEO:
GeForce 6800GT 256MB AGP8x Gigabyte Tv/DVI* *** 215,00
GeForce 6800GT 256Mb PciEX Gainward U/2400PCX*259,00
si ma non spedisce dunque è una sola ;)

Vifani
25-06-2005, 14:39
"di possedere grande inventiva e creatività: NV1 utilizzava superfici curve e non triangoli come primitive per la descrizione di un oggetto tridimensionale. "

Ma la NV1 aveva come base i quadrato (non superficie curve).
Solo una nota: questa peculiarità che adesso viene lodata gli valse una serie di incompatibilità e ne decretarono l'insucesso.. Avevo fino a poco tempo fa una rivista che ne parlava (TGM).. era incompatibile con directx e i giochi dovevano essere programmati appositamente.
Tutte le schede video infatti utilizzano come base quei triangoli, anche quelle da oggi (solo che le primitive directx/opengl lo nascondono). Le superficie curve vengono trasformate in una serie innumerevole di triangoli, tutto qui.

Non sono d'accordo con te. Innanzitutto sia Direct3D che OpenGL supportano come primitive i quads, cioè rettangoli, anche se alla fine non li usa nessuno. Poi ti ricordo che all'epoca le DirectX neanche esistevano e che qualsiasi videogames era programmato specificatamente per l'hardware con API proprietarie (Glide, PowerSGL, librerie di Matrox, ecc...). Infine NV1 non utilizzata quadrati, ma si descriveva la geometria con superfici curve tramite splines, ecc...

Vifani
25-06-2005, 14:45
Anche io proprongo di togliere UT2004 e Halo dai benchmark perchè ormai troppo
vecchi come giochi.
Primo si potrebbe mettere Batteflied 2 e quando esce anche F.E.A.R.

UT2004 gira bene anche con schede DX7, quindi non vedo perché continuare ad usarlo per benchare. Come pure leverei Halo che usa quattro shader in croce. Non sarebbe meglio usare titoli molto più pesanti, tipo Fear, Lock-on o Battlefield II?

Come ho già detto più volte, i giochi devono prevedere una modalità timedemo, altrimenti le misure non posso essere accurate misurando "a mano" con il FRAPS.

MaBru
25-06-2005, 15:02
Come ho già detto più volte, i giochi devono prevedere una modalità timedemo, altrimenti le misure non posso essere accurate misurando "a mano" con il FRAPS.
Volevo dire che ha poco senso usare ancora UT2004 e Halo come metro di paragone. Engine troppo vetusti. Per verificare la bontà di una scheda e dei suoi driver penso sia più utile e corretto utilizzare i titoli più pesanti a disposizione, non quelli più leggeri.

Poi la beta multiplayer di Fear ha il benchmark built-in. Su Lock-on e Battlefield II non mi esprimo perchè non li ho, ma ho visto che molti li usano.