View Full Version : Mah, secondo me Ati fa di nuovo la furba...
PSYCOMANTIS
25-08-2004, 12:59
Tre immagini riprese dal test di Doom3 fatto da Hardware Upgrade.
Nv40:
http://www.hwupgrade.it/articoli/1064/nv40_ultra.jpg
R300:
http://www.hwupgrade.it/articoli/1064/r300_ultra.jpg
R420:
http://www.hwupgrade.it/articoli/1064/r420_ultra.jpg
Da quello che vedo io r300 e nv40 producono un rendering identico mentre r420 produce un rendering qualitativamente inferiore. Che sia questa la ragione del fantomatico aumento prestazionale?
Ai posteri l'ardua sentenza......
Un consiglio per controllare le differenze tra le immagini:
Aprite le immagini e poi fate "salva immagine con nome" poi una volta che le avrete copiate nella cartella "immagini" (o in qualsiasi altra cartella) aprite la prima e cliccate velocemente e ripetutamente sulla freccetta blu posta in basso (immagine successiva) cosi facendo le immagini saranno sovrapposte velocemente rendendo immediatamente visibili le differenze.
Adesso pure i francobolli ci mettiamo a confrontare...
PSYCOMANTIS
25-08-2004, 13:07
Originariamente inviato da pandyno
Adesso pure i francobolli ci mettiamo a confrontare...
Hai ragione, adesso modifico.... :D
romansnake
25-08-2004, 13:22
Ma quella Ati è tutta seghettata :eek:
PSYCOMANTIS
25-08-2004, 13:26
Originariamente inviato da romansnake
Ma quella Ati è tutta seghettata :eek:
Appunto...
romansnake
25-08-2004, 13:28
Spero sia stata presa senza filtri.. altrimenti mi pare strano, magari ok qualche ottimizzazione analizzando le 2 foto in dettaglio ci puo' stare, ma così a occhio nudo...boh...
Originariamente inviato da romansnake
Ma quella Ati è tutta seghettata :eek:
Azz.. e' vero, quella Ati e' piena di seghettature!!:cry: :cry:
romansnake
25-08-2004, 13:31
Ho capito aspetto di finire Doom 3 prima di prendere la X800XT :D
Beh in CS: Source le FX girano forzatamente in DX8.0!!! :muro:
Difatti forzando 8.0 - 8.1 - 9.0 le prestazioni sono le stesse e la qualità pure. :rolleyes:
In ATI invece se metti le 8.1 al posto delle 9.0 guadagni parecchi fps...
Hanamichi
25-08-2004, 13:46
mah i driver usati quali sono?
PSYCOMANTIS
25-08-2004, 13:48
Originariamente inviato da Hanamichi
mah i driver usati quali sono?
Cata 4.9, beta mi sembra.
sinceramente la comparativa e' abbastanza difficile dato che lo screen delle r420 ha la lampada leggermente spostata e quindi le ombre non coincidono con le altre...
Originariamente inviato da PSYCOMANTIS
Cata 4.9, beta mi sembra.
I 4.8 ufficiali sono migliori dei 4.9beta.
Aspettiamo i 4.9 ufficiali con il pannello nuovo... :)
losqualobianco
25-08-2004, 13:52
La lampada nell'r420_ultra.jpg è leggermente spostata rispetto alle altre due foto, potrebbe cambiare qualcosa, bisognerebbe vedere altri esempi.
Certo che se fossero così le cose si spiega il maggior boost che danno i 4.9b sull'R420 rispetto agli R300.
Rimanendo in casa ati il confronto qualitativo tra R300 e R420 è molto evidente :eek:
Megasoft
25-08-2004, 13:54
Originariamente inviato da Rutenio
sinceramente la comparativa e' abbastanza difficile dato che lo screen delle r420 ha la lampada leggermente spostata e quindi le ombre non coincidono con le altre...
quoto
PSYCOMANTIS
25-08-2004, 14:05
Anch'io avevo pensato alla posizione della lampada ma poi osservando gli shots
con impostazioni hight dove la lampada si trova quasi nello stesso punto mi sono dovuto ricredere. Qui non ci sono trucchi raga, r420 produce un rendering inferiore agli altri.
ma perche'? le linee orizzontali, quelle dove non influisce la luce, mi sembrano uguali alle altre in termini di "sgranatura", le uniche "diverse" sono quelle toccate da effetti diversi di luci... secondo me sono screen fatti appositamente per svalutare ati, poi ad ognuno la sua opinione... Se le luci fossero identiche non ci sarebbero dubbi, ma dato che non lo sono tali screen non sono comparabili infallibilmente...
PSYCOMANTIS
25-08-2004, 14:23
Originariamente inviato da Rutenio
ma perche'? le linee orizzontali, quelle dove non influisce la luce, mi sembrano uguali alle altre in termini di "sgranatura", le uniche "diverse" sono quelle toccate da effetti diversi di luci... secondo me sono screen fatti appositamente per svalutare ati, poi ad ognuno la sua opinione... Se le luci fossero identiche non ci sarebbero dubbi, ma dato che non lo sono tali screen non sono comparabili infallibilmente...
Se vai a controllare i 16 screen della rece noterai che solamente quelli di r420 sono seghettati......non ti sembra un po' troppo per essere una coincidenza?
non sto parlando di coincidenze, sto parlando di comparative fedeli, e dato che comparative fedeli non le vedo, non riesco ad ammettere "fedelmente" che ati usi rendering peggiori paragonata alla concorrente. Di fronte a screen identici invece si. mi sembra semplice...
PSYCOMANTIS
25-08-2004, 14:29
Originariamente inviato da PSYCOMANTIS
Se vai a controllare i 16 screen della rece noterai che solamente quelli di r420 sono seghettati......non ti sembra un po' troppo per essere una coincidenza?
Azz. mi correggo!!! solamente gli shots dove e' implementato l'aniso e cioe' hight e ultra sono seghettati quindi presumibilmente e' lui il responsabile.
PSYCOMANTIS
25-08-2004, 14:41
Questi due screen riguardano r420 e sono identici uno e' con impostazioni hight e uno con impostazioni medium.
R420 medium
http://www.hwupgrade.it/articoli/1064/r420_medium.jpg
R420 hight
http://www.hwupgrade.it/articoli/1064/r420_high.jpg
Si vede anche con gli occhiali da saldatore che salendo con il dettaglio c'e' un degrado nel rendering dei tubi. In pratica i pixel che dovrebbero essere sfumati sono praticamente bianchi....
ErminioF
25-08-2004, 14:45
Già che siamo in tema di qualità, la questione brilinear come s'è risolta? :asd:
Secondo me la causa è il nuovo filtro anyso di ATI introdotto nelle X800.
Difatti da medium a quality c'è la presenza o meno dell'AF(che si vede benissimo)
Non vorrei che come per il TAA gli screen non rendano giustizia ma funzioni solo in movimento... :confused:
PSYCOMANTIS
25-08-2004, 14:55
http://www.3wstyle.net/public/files_upload/utenti/psy/Immagine.JPG
Ed ecco la prova inconfutabile. Ho fatto un ingrandimento dei tubi con impostazioni hight. Notare come i colori nel rendering Ati non sfumino la tubatura rendendola praticamente seghettata.
TheDarkAngel
25-08-2004, 15:13
deve essere un bug dei driver...
non si mettono di certo a fare le furbate in stile nvidia proprio ora...
non ne ha decisamente bisogno...
fabioleroy
25-08-2004, 15:38
Originariamente inviato da TheDarkAngel
deve essere un bug dei driver...
non si mettono di certo a fare le furbate in stile nvidia proprio ora...
non ne ha decisamente bisogno...
Secondo me ne ha bisogno eccome.
Byez
Comunque si scrive High!:D
Questo problema è stato rilevato e riportato alla fine di questa pagina dell'articolo: http://www.hwupgrade.it/articoli/1064/4.html
Il problema è nella riflessione speculare con i chip R420 e RV360. Poiché tale problema non si presenta con R360 penso sia dovuto al nuovo filtro anisotropico adattivo di ATI introdotto appunto con RV360 e riportato in R420. La riflessione speculare troppo accesa porta ad un accentuamento dell'aliasing e quindi delle scalettature ai bordi poligonali interessati.
Originariamente inviato da Vifani
Questo problema è stato rilevato e riportato alla fine di questa pagina dell'articolo: http://www.hwupgrade.it/articoli/1064/4.html
Il problema è nella riflessione speculare con i chip R420 e RV360. Poiché tale problema non si presenta con R360 penso sia dovuto al nuovo filtro anisotropico adattivo di ATI introdotto appunto con RV360 e riportato in R420. La riflessione speculare troppo accesa porta ad un accentuamento dell'aliasing e quindi delle scalettature ai bordi poligonali interessati.
E' quello che penso anch'io(vedi 6 post sopra...)
mah cmq secondo me è nvidia che ha da ottimizzare meglio l'architettura nv40 e non ati r420. quella nvidia è nuova mentre quella ati mi sa di un miglioramento dell'r3xx. ok i driver ati in ogl fanno pena, ma io mi chiedo: se riescono a fare dei driver in directx buoni come mai in ogl non riescono a farli bene? non sarà l'architettura che non è buona in questa modalità? con questo voglio dire che secondo me questa volta è ati che ha prodotto una scheda che non è buona. io credo che questi miglioramenti improvvisi con i nuovi driver sono sospetti, ok il miglioramento ci può stare ma non di certe entità che ho visto mi sembrano esagerati. ati mi sa che sta facendo dei magheggi strani.
PSYCOMANTIS
25-08-2004, 16:28
Originariamente inviato da R@nda
Comunque si scrive High!:D
Hai ragione e' come minimo mi e' gia' stato detto duecento volte...ma non ce la faccio proprio :muro: :D
PSYCOMANTIS
25-08-2004, 16:34
Adesso sarebbe interessante sapere se questo difetto fa guadagnare frames a r420. In tutta onesta' io credo che qualcosa di losco ci sia.....
Ma per Ati sfruttare meglio le OpneGl non significherebbe pagare dei diritti a Nvidia?
Praticamente ci sono una marea di parametri dedicati e creati direttamente da Nvidia.
O è una cazzata?
PSYCOMANTIS
25-08-2004, 16:39
Originariamente inviato da Vifani
Questo problema è stato rilevato e riportato alla fine di questa pagina dell'articolo: http://www.hwupgrade.it/articoli/1064/4.html
Il problema è nella riflessione speculare con i chip R420 e RV360. Poiché tale problema non si presenta con R360 penso sia dovuto al nuovo filtro anisotropico adattivo di ATI introdotto appunto con RV360 e riportato in R420. La riflessione speculare troppo accesa porta ad un accentuamento dell'aliasing e quindi delle scalettature ai bordi poligonali interessati.
Piu' che riflessione speculare quella di Ati sembra riflessione "casuale" :asd: Comunque nell'articolo si minimizza il difetto, cosa che non trovo assolutamente corretta. Insomma Ati produce delle scalettature a mo' di play2 e si fa finta di niente....
Originariamente inviato da PSYCOMANTIS
In tutta onesta' io credo che qualcosa di losco ci sia.....
In tutta onestà io credo di no...
che sia scorretto e' indubbio come lo e' la superiorita' di nv40, ma quanti di voi si accorgerebbero della cosa senza queste comparative?
zerothehero
25-08-2004, 16:47
Originariamente inviato da Rutenio
che sia scorretto e' indubbio come lo e' la superiorita' di nv40, ma quanti di voi si accorgerebbero della cosa senza queste comparative?
credo che delle righe così si notano eccome anche senza ingrandire..cmq vediamo come si evolve la vicenda..per ora sono innocentista..
Originariamente inviato da Vifani
La riflessione speculare troppo accesa porta ad un accentuamento dell'aliasing e quindi delle scalettature ai bordi poligonali interessati.
In definitiva Raffaele pensi che questa situazione rimarrà per RV360 e R420 (9600 e X800 in tutte le salse) oppure a livello di driver è possibile ovviare?
Perchè se la situazione resta questa, quasi quasi meglio nVIDIA per questa generazione.
Originariamente inviato da R@nda
Ma per Ati sfruttare meglio le OpneGl non significherebbe pagare dei diritti a Nvidia?
Praticamente ci sono una marea di parametri dedicati e creati direttamente da Nvidia.
O è una cazzata?
Se ti riferisci alle estensioni, una volta che vanno a far parte dell'arb (che è il path di default) diventano parte integrante dello standard. Le OGL sono open, quindi ognuno può creare e proporre le proprie estensioni, poi ogni tanto il forum (l'insieme di aziende che fanno parte del pool) si riunisce e vota e accetta o meno le estensioni.
Se vuoi farti un'idea, guarda qui:
http://oss.sgi.com/projects/ogl-sample/registry/
Ci trovi la lista e come vedi quelle di Ati o Nvidia sono veremente poche. Insomma Nvidia non è l'OGL, anzi...
Qui puoi vedere i membri votanti:
http://www.opengl.org/about/arb/overview.html
Dumah Brazorf
25-08-2004, 17:24
Già... che ci sia il TAA attivato?
Originariamente inviato da DjLode
Se ti riferisci alle estensioni, una volta che vanno a far parte dell'arb (che è il path di default) diventano parte integrante dello standard. Le OGL sono open, quindi ognuno può creare e proporre le proprie estensioni, poi ogni tanto il forum (l'insieme di aziende che fanno parte del pool) si riunisce e vota e accetta o meno le estensioni.
Se vuoi farti un'idea, guarda qui:
http://oss.sgi.com/projects/ogl-sample/registry/
Ci trovi la lista e come vedi quelle di Ati o Nvidia sono veremente poche. Insomma Nvidia non è l'OGL, anzi...
Qui puoi vedere i membri votanti:
http://www.opengl.org/about/arb/overview.html
Grazie,che Opengl fosse open ok,lo sapevo... la faccenda delle estensioni implementate da ogni chip no.
Athlon 64 3000+
26-08-2004, 08:36
voglio vedere come si evolve la situazione,sono proprio curioso di vedere come andraà a finire.
Originariamente inviato da Aryan
Beh in CS: Source le FX girano forzatamente in DX8.0!!! :muro:
Difatti forzando 8.0 - 8.1 - 9.0 le prestazioni sono le stesse e la qualità pure. :rolleyes:
In ATI invece se metti le 8.1 al posto delle 9.0 guadagni parecchi fps...
e come fai a forzare da 8.0 a 9.0 ?
Originariamente inviato da MarkL
e come fai a forzare da 8.0 a 9.0 ?
Non è chiaro se sia il gioco o i forceware... :confused:
Però cmq è una furbata... :rolleyes:
Ecco il link: http://firingsquad.com/hardware/half_life_2_fx/
Dark Schneider
26-08-2004, 10:02
Originariamente inviato da Aryan
Non è chiaro se sia il gioco o i forceware... :confused:
Però cmq è una furbata... :rolleyes:
Quale furbata scusa? La Valve ha fatto si che quando rileva una FX questa funzioni forzatamente col path DX8.0!! Non vedo dove sta la furbata.
Per forzare da DX8 a DX9 probabilmente serviranno programmini come 3d analyze.
Originariamente inviato da Dark Schneider
Quale furbata scusa? La Valve ha fatto si che quando rileva una FX questa funzioni forzatamente col path DX8.0!! Non vedo dove sta la furbata.
Per forzare da DX8 a DX9 probabilmente serviranno programmini come 3d analyze.
Grazie al cazzo. Allora forziamo la X800 @DX e la facciamo girare a 10.000 fps... :rolleyes:
Dark Schneider
26-08-2004, 10:07
Originariamente inviato da Aryan
Ecco il link: http://firingsquad.com/hardware/half_life_2_fx/
Azz ho visto. Ho capito cosa intendevi. In effetti è strano. Se la 5950 Ultra va bene o male uguale con le DX9...perchè il gioco la forza a DX8.1?:confused:
Dark Schneider
26-08-2004, 10:10
Originariamente inviato da Aryan
Grazie al cazzo. Allora forziamo la X800 @DX e la facciamo girare a 10.000 fps... :rolleyes:
Ma che centra? La Valve ha fatto questo perchè le FX soffrono di più e quindi le fa andare col Path DX8 di default.
Avevi dimenticato questo "piccolo dettaglio"?
Anche se adesso che vedo quel link non capisco perchè in DX9 non ci vada di default visto che si comporta benissimo stando a quei risultati.
A meno che il path in realtà non resti DX8.
Ma cmq si tratta di una "scelta" della Valve. Non di una furbata.
Originariamente inviato da Dark Schneider
Azz ho visto. Ho capito cosa intendevi. In effetti è strano. Se la 5950 Ultra va bene o male uguale con le DX9...perchè il gioco la forza a DX8.1?:confused:
Si, non ho capito il motivo di questa scelta. Difatti quando ho visto che tutte le FX era DX 8.1 mi era sembrato molto strano(sembrava che la prima nVidia DX9 fosse la 6800... ):confused:
Originariamente inviato da Dark Schneider
Ma che centra? La Valve ha fatto questo perchè le FX soffrono di più e quindi le fa andare col Path DX8 di default.
Avevi dimenticato questo "piccolo dettaglio"?
Anche se adesso che vedo quel link non capisco perchè in DX9 non ci vada di default visto che si comporta benissimo stando a quei risultati.
A meno che il path in realtà non resti DX8.
Ma cmq si tratta di una "scelta" della Valve. Non di una furbata.
Resta in DX8 in realtà. Basta vedere il muro che è sempre uguale con tutti i path, mentre per ATI cambia.
Furbata non nel senso che nVidia fa la furba(vedi 3dmark, ecc...). Però non mi sembra corretto forzare in questa maniera. Deve andare al massimo. Sta poi all'utente decidere quale path usare in base alle prestazioni che vuole... :)
Dark Schneider
26-08-2004, 10:21
Originariamente inviato da Aryan
Si, non ho capito il motivo di questa scelta. Difatti quando ho visto che tutte le FX era DX 8.1 mi era sembrato molto strano(sembrava che la prima nVidia DX9 fosse la 6800... ):confused:
Infatti.
Dark Schneider
26-08-2004, 10:25
Originariamente inviato da Aryan
Resta in DX8 in realtà. Basta vedere il muro che è sempre uguale con tutti i path, mentre per ATI cambia.
Furbata non nel senso che nVidia fa la furba(vedi 3dmark, ecc...). Però non mi sembra corretto forzare in questa maniera. Deve andare al massimo. Sta poi all'utente decidere quale path usare in base alle prestazioni che vuole... :)
Ma non centra nVidia.
E' la Valve che ha fatto questa scelta. Se ti ricordi un anno fa, le FX soffrivano in quel famoso test di HL2 con le DX9. Per precauzione quindi viene fatto lavorare col path DX8.
Nel frattempo ho letto che si stanno impegnando per migliorare le prestazioni delle FX. Anche se saranno sicuro inferiori alle 9800 in DX9. Ma la scelta del path è qualcosa che è stata fatta da Valve nel codice del gioco.
Ragazzi evitiamo che diventi flame.
Originariamente inviato da Dark Schneider
Ma non centra nVidia.
E' la Valve che ha fatto questa scelta. Se ti ricordi un anno fa, le FX soffrivano in quel famoso test di HL2 con le DX9. Per precauzione quindi viene fatto lavorare col path DX8.
Nel frattempo ho letto che si stanno impegnando per migliorare le prestazioni delle FX. Anche se saranno sicuro inferiori alle 9800 in DX9. Ma la scelta del path è qualcosa che è stata fatta da Valve nel codice del gioco.
Ma difatti ho scritto che non è nVidia che ha fatto la furba. Ma mi chiedo perchè Valve non lascia la possibilità all'utente di scegliere il path...(chessò: high quality: DX9 - medium: DX8 - ecc...)
Originariamente inviato da Simon82
Ragazzi evitiamo che diventi flame.
Tranquillo! Per il momento si discute e basta! :D
Dark Schneider
26-08-2004, 11:23
Originariamente inviato da Aryan
Ma difatti ho scritto che non è nVidia che ha fatto la furba. Ma mi chiedo perchè Valve non lascia la possibilità all'utente di scegliere il path...(chessò: high quality: DX9 - medium: DX8 - ecc...)
Si questa cosa sarebbe interessante. Cioè io personalmente SPERO che la mettano. Perchè è brutta come cosa. Perchè poi a forzare non ci vuole nulla forzare con qualche programmino esterno.
Forse cmq nella versione finale sarà presente un opzione che fa scegliere.
Io metterei un "Impostazioni automatiche" che ti configura lui e ti imposta lui il path migliore. Ed un altro "manuale". :)
Originariamente inviato da Dark Schneider
Si questa cosa sarebbe interessante. Cioè io personalmente SPERO che la mettano. Perchè è brutta come cosa. Perchè poi a forzare non ci vuole nulla forzare con qualche programmino esterno.
Forse cmq nella versione finale sarà presente un opzione che fa scegliere.
Io metterei un "Impostazioni automatiche" che ti configura lui e ti imposta lui il path migliore. Ed un altro "manuale". :)
Concordo... :)
Comunque ancora la situazione non è chiara, io penso che solo con le prossime release di driver definitivi e con l'uscita di HL2 si capirà il reale valore delle 6800 e delle x800, anche se il mio parere è che le schede Nvidia adesso sono più avanzate delle Ati e mi aspetto miglioramenti più vistosi dai prossimi driver Nvidia che non da quelli Ati.
Originariamente inviato da mtitone
Comunque ancora la situazione non è chiara, io penso che solo con le prossime release di driver definitivi e con l'uscita di HL2 si capirà il reale valore delle 6800 e delle x800, anche se il mio parere è che le schede Nvidia adesso sono più avanzate delle Ati e mi aspetto miglioramenti più vistosi dai prossimi driver Nvidia che non da quelli Ati.
Si è detto così per almeno mille giochi dai tempi della 8500 e del Gf3 in poi, con il risultato di non averci mai capito niente tutte le volte. In molti davano per morta l'architettura R3x0 e invece è ancora lì che fa la sua porca figura. In tanti davano per finita l'architettura Nv3x e invece con qualche release di driver e trucchetti ad hoc è ancora lì.
Francamente sia con D3 che con HL2 non si capirà niente nè del valore della 6800 nè della X800.
Dark Schneider
26-08-2004, 16:02
Io invece penso che semplicemente nVidia andrà sempre meglio di Ati in Doom 3. Ati in Half Life 2 di nVidia.
Probabile che nei prossimi mesi i tester dei drivers lavoreranno molto per migliorare le prestazioni in questi titoli e magari le differenze si assottiglieranno pure, però magari sempre con quel vantaggio di nVidia su Ati in Doom 3 e il vantaggio di Ati su nVidia con HL2. Magari con vantaggio minore, ma posizioni uguali ad ora.
Originariamente inviato da Dark Schneider
Io invece penso che semplicemente nVidia andrà sempre meglio di Ati in Doom 3. Ati in Half Life 2 di nVidia.
Probabile che nei prossimi mesi i tester dei drivers lavoreranno molto per migliorare le prestazioni in questi titoli e magari le differenze si assottiglieranno pure, però magari sempre con quel vantaggio di nVidia su Ati in Doom 3 e il vantaggio di Ati su nVidia con HL2. Magari con vantaggio minore, ma posizioni uguali ad ora.
;)
Originariamente inviato da PSYCOMANTIS
Tre immagini riprese dal test di Doom3 fatto da Hardware Upgrade.
Nv40:
http://www.hwupgrade.it/articoli/1064/nv40_ultra.jpg
R300:
http://www.hwupgrade.it/articoli/1064/r300_ultra.jpg
R420:
http://www.hwupgrade.it/articoli/1064/r420_ultra.jpg
Da quello che vedo io r300 e nv40 producono un rendering identico mentre r420 produce un rendering qualitativamente inferiore. Che sia questa la ragione del fantomatico aumento prestazionale?
Ai posteri l'ardua sentenza......
Un consiglio per controllare le differenze tra le immagini:
Aprite le immagini e poi fate "salva immagine con nome" poi una volta che le avrete copiate nella cartella "immagini" (o in qualsiasi altra cartella) aprite la prima e cliccate velocemente e ripetutamente sulla freccetta blu posta in basso (immagine successiva) cosi facendo le immagini saranno sovrapposte velocemente rendendo immediatamente visibili le differenze.
ma possibile che quando si senta o si veda la prima stronz@ta, tu sia sempri il primo ad aprire Thread per sparlare su Ati ?? Finiscila un po'....:muro:
zerothehero
26-08-2004, 22:08
Originariamente inviato da Aryan
Grazie al cazzo. Allora forziamo la X800 @DX e la facciamo girare a 10.000 fps... :rolleyes:
su abbi pietà l'nv35 non è uscita bene su dx 9.0...quindi è meglio ottimizzare che vedere hl2 a 30 fps a 1024*768..;)
Originariamente inviato da Dark Schneider
Io invece penso che semplicemente nVidia andrà sempre meglio di Ati in Doom 3. Ati in Half Life 2 di nVidia.
Probabile che nei prossimi mesi i tester dei drivers lavoreranno molto per migliorare le prestazioni in questi titoli e magari le differenze si assottiglieranno pure, però magari sempre con quel vantaggio di nVidia su Ati in Doom 3 e il vantaggio di Ati su nVidia con HL2. Magari con vantaggio minore, ma posizioni uguali ad ora.
La realtà è che sia R420 che NV40 sono due architettura molto efficienti. Dubito troveremo campi di valutazione che metteranno di molto una avanti all'altra. Doom 3 è fatto per i chip GeForce, ma i Radeon non vanno poi male. Lo stesso sarà per HL2 in un senso o nell'altro.
Alla fine il confronto si gioca sul prezzo, non sulla affidabilità tecnica di queste GPU.
Jaguar64bit
27-08-2004, 00:41
Originariamente inviato da Vifani
La realtà è che sia R420 che NV40 sono due architettura molto efficienti. Dubito troveremo campi di valutazione che metteranno di molto una avanti all'altra. Doom 3 è fatto per i chip GeForce, ma i Radeon non vanno poi male. Lo stesso sarà per HL2 in un senso o nell'altro.
Alla fine il confronto si gioca sul prezzo, non sulla affidabilità tecnica di queste GPU.
E' da una vita che si sa quanto la Id sia propensa a sfruttare meglio il supporto alle librerie openGL dei driver nvidia , da sempre le vga nvidia in opengL sono state avanti alle controparti ati in questo campo , dunque non mi stupisco che l'R420 non sia performante in Doom3 come l'NV40 , l'unica cosa che può fare ati..e mi pare lo stia facendo ..è riscrivere tutta la parte di codice opengL contenuta nei catalyst , ma dubito che ciò possa essere fatto in tempi brevi e comunque , quando un programma è scritto per un tipo di hardware specifico con particolarità tecniche proprie come ha l'NV40 , anche migliorando i driver non si arriverà mai a pareggiare le prestazioni.
Dark Schneider
27-08-2004, 00:53
Originariamente inviato da Vifani
La realtà è che sia R420 che NV40 sono due architettura molto efficienti. Dubito troveremo campi di valutazione che metteranno di molto una avanti all'altra. Doom 3 è fatto per i chip GeForce, ma i Radeon non vanno poi male. Lo stesso sarà per HL2 in un senso o nell'altro.
Alla fine il confronto si gioca sul prezzo, non sulla affidabilità tecnica di queste GPU.
Ah su questo son daccordo. Infatti per fortuna non sono uno di quelli che si scandalizzano se ad esempio vedo HL2 andare qlcsina in più su Ati(perchè sarà così).
Alla fine tanto ci giocherò al top cmq. :)
andfer84
27-08-2004, 11:24
Originariamente inviato da Francvs
ma possibile che quando si senta o si veda la prima stronz@ta, tu sia sempri il primo ad aprire Thread per sparlare su Ati ?? Finiscila un po'....:muro:
QUOTO...:rolleyes:
Originariamente inviato da Francvs
ma possibile che quando si senta o si veda la prima stronz@ta, tu sia sempri il primo ad aprire Thread per sparlare su Ati ?? Finiscila un po'....:muro:
No flames no discorsi a random PLS
Originariamente inviato da PSYCOMANTIS
Ed ecco la prova inconfutabile. Ho fatto un ingrandimento dei tubi con impostazioni hight. Notare come i colori nel rendering Ati non sfumino la tubatura rendendola praticamente seghettata.
Domanda:
Dove hai preso i due screen.
Stai parlando di un PC con pari hardware installato e sopratutto stesso monitor con stesse impostazioni?
:mbe:
Originariamente inviato da ulk
Domanda:
Dove hai preso i due screen.
Stai parlando di un PC con pari hardware installato e sopratutto stesso monitor con stesse impostazioni?
:mbe:
li ha presi da hwupgrade
il monitor negli screenshot non c'entra una mazza... :rolleyes:
bYeZ!
Originariamente inviato da ATi7500
li ha presi da hwupgrade
il monitor negli screenshot non c'entra una mazza... :rolleyes:
bYeZ!
Ah no?
Quindi con un VGa a fosfori verdi vedo le stesse cose di un monitor al plasma.
Originariamente inviato da ATi7500
li ha presi da hwupgrade
Il link?
Originariamente inviato da ulk
Ah no?
Quindi con un VGa a fosfori verdi vedo le stesse cose di un monitor al plasma.
:doh:
Ma hai presente cos'è uno screenshot?:D
Originariamente inviato da R@nda
:doh:
Ma hai presente cos'è uno screenshot?:D
Illuminami....
Originariamente inviato da ulk
Illuminami....
Quando premi "stamp" sulla tastiera l'immagine scattata viene presa direttamente dalla memoria della sk video.....per il monitor non ci passa nemmeno.
Quindi anche se i monitor utilizzati fossero diversi e schifosi non cambierebbe nulla,non è una foto presa con la macchina davanti
al monitor.
Non intendevo offendere,scusami:D
Originariamente inviato da ulk
Ah no?
Quindi con un VGa a fosfori verdi vedo le stesse cose di un monitor al plasma.
non dire boiate
casomai sono i monitor a fosfori verdi e cmq il monitor negli screenshot non conta nulla.
non è che pensi che fanbno una foto al monitor vero :rotfl:
TheDarkAngel
27-08-2004, 17:34
Originariamente inviato da checo
non dire boiate
casomai sono i monitor a fosfori verdi e cmq il monitor negli screenshot non conta nulla.
non è che pensi che fanbno una foto al monitor vero :rotfl:
si viene fuori l'omino dal monitor a far la foto :rotfl:
Originariamente inviato da TheDarkAngel
si viene fuori l'omino dal monitor a far la foto :rotfl:
huh gli alieni !!!!!!!!!!!!!!!
Originariamente inviato da checo
non dire boiate
casomai sono i monitor a fosfori verdi e cmq il monitor negli screenshot non conta nulla.
non è che pensi che fanbno una foto al monitor vero :rotfl:
Ah già, e la seconda o terza volta che ti ritrovo tra i piedi.
Benvenuto nella mia ignore list.
Originariamente inviato da ulk
Ah già, e la seconda o terza volta che ti ritrovo tra i piedi.
Benvenuto nella mia ignore list.
se non sai cos'è no screenshot e per di più evidenzi il fatto che i monitor debbono essere uguali per valutare degli screenshot facendoti deridere da più persone non è certo colpa mia, e soprattutto non è mettendomi in ignore che ti levi l'ignoranza in materia.
Originariamente inviato da ulk
Ah già, e la seconda o terza volta che ti ritrovo tra i piedi.
Benvenuto nella mia ignore list.
A volte è difficile ammettere che uno ha detto una vaccata :D
Eri sicuro di non so cosa, ti sei sbagliato e invece di dirlo stai li a fare lo sborone........ è quello che induce tutti a prenderti per il c....
Ciao il mio è un consiglio non prenderla come un'offesa.
Originariamente inviato da ulk
Ah già, e la seconda o terza volta che ti ritrovo tra i piedi.
Benvenuto nella mia ignore list.
Qualche volta bisogna ammettere di aver sbagliato.
PandynA direi che è ora di ritornare in topic va :D
PSYCOMANTIS
27-08-2004, 21:31
Originariamente inviato da Francvs
ma possibile che quando si senta o si veda la prima stronz@ta, tu sia sempri il primo ad aprire Thread per sparlare su Ati ?? Finiscila un po'....:muro:
Signore e gentili signori ecco a voi..............FRANCVS!!
TheDarkAngel
27-08-2004, 21:33
Originariamente inviato da PSYCOMANTIS
Signore e gentili signori ecco a voi..............FRANCVS!!
:mbe:
:mbe: ha sottolineato semplicemente ciò che avviene normalmente :mbe:
:mbe:
KenMasters
27-08-2004, 21:38
Originariamente inviato da TheDarkAngel
:mbe:
:mbe: ha sottolineato semplicemente ciò che avviene normalmente :mbe:
:mbe:
appunto.
Originariamente inviato da pandyno
Qualche volta bisogna ammettere di aver sbagliato.
Ti rispondo in PVT
Ciao.
Originariamente inviato da PSYCOMANTIS
Signore e gentili signori ecco a voi..............FRANCVS!!
ladies and gentleman complimenti ;)
avete appena fatto chiudere una discussione :mano:
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.