View Full Version : Half-Life 2: la rivincita delle schede Radeon
Redazione di Hardware Upg
30-11-2004, 13:55
Link all'Articolo: http://www.hwupgrade.it/articoli/1127/index.html
Quest’anno è stato sicuramente uno dei più interessanti per gli appassionati di videogames vista l’uscita dei seguiti di due dei più grandi capolavori nella storia dell’intrattenimento videoludico: Half-Life 2 e Doom III. Quest’ultimo per una serie di motivi tecnici già ampiamente esposti privilegia l’architettura delle schede GeForce. Che Half-Life 2 sia la rivincita per le schede Radeon? La risposta è si.
Click sul link per visualizzare l'articolo.
Nino Grasso
30-11-2004, 14:10
vabbè non credo che le Geforce 6800GT facciano 17fps di media in certe zone con 4x di aa e 8x di af dato che l'ho finito (in 2 giorni, che delusione!) con 8xs di aa e 8x di af a prestazioni sconvolgenti (circa sui 100fps in genere), che faccia 17fps mi sembra molto strano... sicuro che le demo ATi non abbiano aiutato in tutto ciò?
ImperatoreNeo
30-11-2004, 14:13
Mah.. un mio vicino di casa con un athlon 3200 e la 9800 Pro non riesce a giocare decentemente.
Altro che AA4X ecc.. è tutto uno scatto.. a 1024X768, dettagli medi, NO AA né AF. Catalyst 4.11 neanche a parlarne, 4.12 beta qualcosina meglio... ma scatti video e audio insopportabili!
Le demo credo che siano ben diverse dalla realtà! Tantissimi utenti hanno osservato questa cosa, Tom's HW lo ha sottolineato nella rece del gioco! E quindi il test si rivela purtroppo un po' inutile :(
La colpa non è certo della redazione!
E' di Valve che fornisce demo falsati che non solo non sono come il gioco, ma fa sembrare a chi lo vuole acquistare che con la sua scheda può girare tranquillamente.
Morale della favola: dati più che discutibili..
Lucio Virzì
30-11-2004, 14:14
Sono un totally niubbio di games, ma mi piacerebbe provare qualcosa.
Half Life 2 si scarica in versione trial? Da dove?
LuVi
io gioco in 1280*960,tutto al massimo,anisotropico 4x,no AA e faccio una media di 45fps.....picchi di 70 e minimi di 27.
barton 2500+ @ 2300mhz, 512mb ram
dimenticavo.....radeon 9700 liscia
Lucio Virzì
30-11-2004, 14:16
Così per curiosità, con un Barton 2500, 1 Giga di Ram 333, e una 9600XT 256 Mb lo vedrei decentemente?
LuVi
REPERGOGIAN
30-11-2004, 14:23
è possibile avere in zip le demo che avete usato?
se le avete registrate voi, come ho capito
grazie
Originariamente inviato da ImperatoreNeo
Mah.. un mio vicino di casa con un athlon 3200 e la 9800 Pro non riesce a giocare decentemente.
Stai parlando della mia configurazione, con cui gioco a 1024*768, AA2x e AF4x con TUTTI i dettagli al massimo e senza mai una incertezza. Sono sui 50fps costanti e solo in scene dall'orizzonte molto ampio scendo a 42.
Il che significa che gioco da dio senza problemi.
La macchina del tuo vicino di casa ha dei problemi: non prenderla ad esempio per suffragare tesi sbagliate.
:)
Originariamente inviato da Lestat.me
vabbè non credo che le Geforce 6800GT facciano 17fps di media in certe zone con 4x di aa e 8x di af dato che l'ho finito (in 2 giorni, che delusione!) con 8xs di aa e 8x di af a prestazioni sconvolgenti (circa sui 100fps in genere), che faccia 17fps mi sembra molto strano... sicuro che le demo ATi non abbiano aiutato in tutto ciò?
Se avessi letto l'articolo invece di guardare solo i grafici avresti capito che le demo utilizzate nei benchmark non sono quelle fatte circolare da ATI.
Fradetti
30-11-2004, 14:29
Grazie.... devo cambiare la mia 8500 BBA perchè in HL II soffre e ora so dove orientarmi
Scusate, io ho una 5900xt
come si fa a forzare il gioco ad utilizzare le dx 8.1 invece che le dx9 con la mia scheda video?
Paolo Corsini
30-11-2004, 14:31
Demo: le ho inserite in questo momento, possono essere scaricate a questo indirizzo:
http://www.hwupgrade.it/articoli/1127/6.html
REPERGOGIAN
30-11-2004, 14:34
Originariamente inviato da Paolo Corsini
Demo: le ho inserite in questo momento, possono essere scaricate a questo indirizzo:
http://www.hwupgrade.it/articoli/1127/6.html
:O
:ave:
Originariamente inviato da ImperatoreNeo
Mah.. un mio vicino di casa con un athlon 3200 e la 9800 Pro non riesce a giocare decentemente.
Altro che AA4X ecc.. è tutto uno scatto.. a 1024X768, dettagli medi, NO AA né AF. Catalyst 4.11 neanche a parlarne, 4.12 beta qualcosina meglio... ma scatti video e audio insopportabili!
Le demo credo che siano ben diverse dalla realtà! Tantissimi utenti hanno osservato questa cosa, Tom's HW lo ha sottolineato nella rece del gioco! E quindi il test si rivela purtroppo un po' inutile :(
La colpa non è certo della redazione!
E' di Valve che fornisce demo falsati che non solo non sono come il gioco, ma fa sembrare a chi lo vuole acquistare che con la sua scheda può girare tranquillamente.
Morale della favola: dati più che discutibili..
Devi fare attenzione. Le condizioni dei benchmark non sono le stesse del tuo amico. Qui è stato usato un Athlon 64 (il tuo amico che Athlon era? del 3200 c'è anche l'XP). Inoltre quanta RAM ha il tuo amico? La Radeon 9800 PRO usata quanta RAM ha?
Nel nostro caso la Radeon 9800 PRO ha 256 MB di memoria e l'audio non esiste. I benchmark sono eseguiti senza alcuna applicazione in background.
I problemi che lamenti tu sembrano più essere problemi di swapping che non di potenza di calcolo della scheda video.
Originariamente inviato da giogts
Scusate, io ho una 5900xt
come si fa a forzare il gioco ad utilizzare le dx 8.1 invece che le dx9 con la mia scheda video?
Normalmente la tua scheda video funziona in modalità DX 8.1. In ogni caso fai parte il gioco con il comando "-dxlevel 81" per forzare tale modalità.
Originariamente inviato da ImperatoreNeo
Mah.. un mio vicino di casa con un athlon 3200 e la 9800 Pro non riesce a giocare decentemente.
Altro che AA4X ecc.. è tutto uno scatto.. a 1024X768, dettagli medi, NO AA né AF. Catalyst 4.11 neanche a parlarne, 4.12 beta qualcosina meglio... ma scatti video e audio insopportabili!
Le demo credo che siano ben diverse dalla realtà! Tantissimi utenti hanno osservato questa cosa, Tom's HW lo ha sottolineato nella rece del gioco! E quindi il test si rivela purtroppo un po' inutile :(
La colpa non è certo della redazione!
E' di Valve che fornisce demo falsati che non solo non sono come il gioco, ma fa sembrare a chi lo vuole acquistare che con la sua scheda può girare tranquillamente.
Morale della favola: dati più che discutibili..
è semplice: ha il pc messo da porco...
MAGI System
30-11-2004, 14:41
Originariamente inviato da *ReSta*
è semplice: ha il pc messo da porco...
concordo.
a me HL2 gira a dettagli medio-alti (senza af o as) senza mai scattare (escludendo il solito problema di stuttering/suttering, o quello che è, di base nel gioco) su un centrino 1.5 con 512mb di ram e 9700 da 64mb.
Rivimario
30-11-2004, 14:47
beh, non riesco a capire una cosa...io, sia a doom3 che ad half life 2, l'ho giocato al pioano di sotto dal mio amico a 1600x1200 con filtro 4x AA e 8x AS attivati con una geforce 6800GT e non faceva uno scatto!eppure ha un 3200+, nf7 e 1gb ddr a cas2....come mai questa netta differenze di prestazioni???
Il fatto che DoomIII giri meglio con schede Nvidia e HL2 con schede ATI è dovuto al fatto che il motore grafico di Doom3 funziona meglio con architettura NV4x e quello di HL2 con architettura 4x0, oppure xké ogni motore è stato ottimizzato (per motivi di marketing) x una specifica architettura ?
Ci voleva questa recensione, mi sarebbe solo piaciuto vedere test fatti anche con una cpu meno performante con un frequenza ad esempio di 2.4 GHz, per capire la scalabilità del gioco con le varie schede. Credo che questo test interessi diverse persone. Chiedo troppo?
Paolo Corsini
30-11-2004, 15:06
Originariamente inviato da adynak
Il fatto che DoomIII giri meglio con schede Nvidia e HL2 con schede ATI è dovuto al fatto che il motore grafico di Doom3 funziona meglio con architettura NV4x e quello di HL2 con architettura 4x0, oppure xké ogni motore è stato ottimizzato (per motivi di marketing) x una specifica architettura ?
Se leggi tutto l'articolo trovi chiare spiegazioni in merito, che vanno oltre le considerazioni di marketing
G_luka3dfx
30-11-2004, 15:13
A me questi grafici piacciono proprio poco...a prescindere dai discorsi su chi sia migliore tra Ati e Nvidia, è una cosa pessima che tra due schede (x800 PE, 6800 Ultra) ci siano queste differenze in termini di prestazioni(sia in Doom 3 che Hf2)....da schede come quelle mi aspetterei di giocare con tutti i filtri a 1600 x 1200 con la massima fluidità in tutti gli ultimi titoli.... Ammetterei giusto qualche differenza nella qualità delle immagini a seconda degli accordi tra le software house e i vari produttori di schede!Continuando così, non vorrei che tra qualche anno si dovrà scegliere la scheda solo in base ai giochi che ci girano...Anche se già adesso è cosi per Doom 3 e Hf2..
Paolo Corsini
30-11-2004, 15:21
Originariamente inviato da G_luka3dfx
A me questi grafici piacciono proprio poco...a prescindere dai discorsi su chi sia migliore tra Ati e Nvidia, è una cosa pessima che tra due schede (x800 PE, 6800 Ultra) ci siano queste differenze in termini di prestazioni(sia in Doom 3 che Hf2)....da schede come quelle mi aspetterei di giocare con tutti i filtri a 1600 x 1200 con la massima fluidità in tutti gli ultimi titoli.... Ammetterei giusto qualche differenza nella qualità delle immagini a seconda degli accordi tra le software house e i vari produttori di schede!Continuando così, non vorrei che tra qualche anno si dovrà scegliere la scheda solo in base ai giochi che ci girano...Anche se già adesso è cosi per Doom 3 e Hf2..
Scusa ma questa proprio faccio fatica a capirlo. Stai parlando di due prodotti che hanno alla base approcci tecnologici completamente differenti, e tu chiedi che abbiano le stesse prestazioni perché costano la stessa cifra?
Un po' come pretendere, passami l'esempio, che una motocicletta enduro e una stradale abbiano la stessa usabilità in ogni condizione possibile, solo perchè costano allo stesso modo.
Infatti.
W l'enduro :asd:
oscuroviandante
30-11-2004, 15:31
in tutto il gioco l'unico momento in cui il mio sistema (a64 3500+ 1GB RAM e GT 6800) ha sudato è quando l'elicottero ti sorvola e lancia le bombe...
per il resto nessun problema
Jimmy3Dita
30-11-2004, 15:35
Sara' ma a me queste differenze cosi' nette non convincono.
Vengono annunciate le schede video Radeon XT con il coupon per avere Half Life2, viene rubato Half Life2 (la leaked funzionava in open-gl mi pare di ricordare), esce finalmente ma con prestazioni vergognose su schede Geforce.
Insomma mi pare strano che Valve, con tutta questo know-how tecnico, abbia studiato un motore grafico che privilegia cosi' tanto le schede vecchie (vabe' voglio vedere chi e' che gioca ad HL2 con l'acqua che sembra asfalto, dai) da far andare cosi' male le schede nuove, tranne i modelli Ati.
Voglio capire una cosa: se i giochi del futuro useranno piu' pixel shaders, la potenza dei prodotti Nvidia risultera' in gran parte sprecata? O e' il Source Engine che spreca le qualita' delle schede Nvidia?
Risposta che non vorrei sentirmi: "dipende da quali giochi supporteranno i due produttori"...
Originariamente inviato da Paolo Corsini
Scusa ma questa proprio faccio fatica a capirlo. Stai parlando di due prodotti che hanno alla base approcci tecnologici completamente differenti, e tu chiedi che abbiano le stesse prestazioni perché costano la stessa cifra?
Un po' come pretendere, passami l'esempio, che una motocicletta enduro e una stradale abbiano la stessa usabilità in ogni condizione possibile, solo perchè costano allo stesso modo. Però fino ad ora non c'erano state differenze così marcate, per il futuro spero anch'io che non aumentino ulteriormente assistendo a due schede di stessa fascia che fanno una 70 fps e l'altra 30 fds con un gioco e viceversa con un altro gioco.
briaeros
30-11-2004, 15:39
Originariamente inviato da Vifani
Devi fare attenzione. Le condizioni dei benchmark non sono le stesse del tuo amico. Qui è stato usato un Athlon 64 (il tuo amico che Athlon era? del 3200 c'è anche l'XP). Inoltre quanta RAM ha il tuo amico? La Radeon 9800 PRO usata quanta RAM ha?
Nel nostro caso la Radeon 9800 PRO ha 256 MB di memoria e l'audio non esiste. I benchmark sono eseguiti senza alcuna applicazione in background.
I problemi che lamenti tu sembrano più essere problemi di swapping che non di potenza di calcolo della scheda video.
penso che i pc su cui facciano i test siano "puliti" ovvero col sistema operativo appena installato senza nussun software sotto ad imbrattare il maledetto registro, oppure su un sistema ottimizzato ad hoc...
e' normale che su un pc su cui ci si e' lavorato e lavorato e magari con sotto antivirus vari, fw, messenger vari, emule, e cagate varie, la differenza di prestazione la senti
posso dire dalla mia che col la mia modesta macchina (Barton 3200+, 9800XT, 512Mb ram, XP sp2) ad HL2/CSS faccio mediamente tra i 70 e i 95 fps :D, con punte da 120 fps :eek: mooolto sporadiche :mc: :sofico:
La situazione testata con il demo canal rappresenta la situazione di massima pesantezza possibile?
Guardando quel test sembrerebbe che ci siano punti del gioco in cui con una 6800 liscia non è possibile giocare fluidamente o quasi a 1024 con i filtri (26fps), questo è un piccolo caso particolare o giocare con quella scheda e quei settaggi è realmente difficoltoso?
PSYCOMANTIS
30-11-2004, 15:46
Secondo me il trucco e' nella nebbia, se osservate gli screen fatti nel livello canal noterete che la nebbia con le ati e' mezzo chilomentro piu' vicina rispetto alle nvidia , il che si traduce in un risparmio notevole di potenza di calcolo.
Penso che la mia domanda sia stata fraintesa.
Volevo solo sapere se è un caso che HL2 va meglio su ATI e Doom3 va meglio su Nvidia oppure questo succede perchè le case produttrici hanno spinto le software houses a creare motori grafici ottimizzati per le proprie architetture.
Non per essere malizioso, ma mi sembra che doom3 e hl2 siano fatti appositamente x funzionare "male" con ati e nvidia rispettivamente;è la prima volta che vedo un distacco così altalenante tra schede video della stessa fascia e non vorrei che, come dice G_luka3dfx, saremo costretti in futuro a scegliere la scheda video in base ai giochi che vogliamo far girare.
Mi scuso per la lunghezza, ma pensare a un futuro in cui non bastano 500 euro x poter fare una partitina ad un videogioco mi sembra inquietante (ho volutamente esagerato)
nicgalla
30-11-2004, 15:47
gli scatti sono per lo swapping x hard disk.... su un mio pc succede ciò.... e sull'altro dove ho 1 GB di ram e Raptor non funziona... Il gioco stesso soffre di problemi di compatibilità con certe installazioni, ma non mi aspettavo altro visto quant'era buggato il primo HL.
Tuttavia sul PC che funziona è un vero spettacolo per gli occhi e davvero emozionante. Come gioco in sè lo trovo 100 volte migliore di Doom III....
haveacigar
30-11-2004, 15:47
Originariamente inviato da Paolo Corsini
Scusa ma questa proprio faccio fatica a capirlo. Stai parlando di due prodotti che hanno alla base approcci tecnologici completamente differenti, e tu chiedi che abbiano le stesse prestazioni perché costano la stessa cifra?
Un po' come pretendere, passami l'esempio, che una motocicletta enduro e una stradale abbiano la stessa usabilità in ogni condizione possibile, solo perchè costano allo stesso modo.
Io invece lo capisco eccome!!!
Per me ha più che ragione per il semplice fatto che entrambi i prodotti sono destinati al medesimo utilizzo...
il fatto di poter ormai paragonare due schede grafiche di marca diversa a due motociclette destinate ad utilizzo completamente diverso è sintomatico della aberrazione raggiunta...
ciò che tu poni come presupposto per una eventuale giustificazione io lo porrei a conclusione di una severa critica.....
:rolleyes:
dagon1978
30-11-2004, 15:47
articolo davvero interessantissimo
non tanto per i confronti tra schede grafiche, che mi interessano relativamente, quanto per la parte in cui viene descritto l'approccio alla radiosity da parte del motore grafico di hl2.
appena ho un po' di tempo leggo con più attenzione la parte sulle "normal mapping"...
davvero grandi! ;)
Grazie a Valve non rinuncio a giocare ad Half Life 2 nemmeno con un Athlon 800 e il primo Radeon64DDr...Certo non vedrò e farò cose eccezionali,ma giocherò comunque!
Grande Valve
Aristocrat74
30-11-2004, 16:02
bho :sofico:
io con la configurazione in sign cioe athlon64 3500+ @3800 e geffo 6800gt@ultra.....
sto a 1280x 1024 tutto al massimo
filtro anisotropico 8x e antialiasing 4x (o 2x nn ricordo)
sul pannello di controllo la geffo è impostata su "qualita"
e il gioco non fa una piega....... non ho controllato gli fps ma non ho il minimo rallentamento....... viaggia tutto liscio come l olio... :cool:
dalla rece sembra che le geffo 6800 vadano da chiulo
e con la mia config dovrei fare 23,3 fps guardando il grafico a quella risoluzione e a quel dettaglio
(6800ultra 1280 x 1024 anis8x aa4x)
non credo proprio di fare "solo" 23 fps" :sofico:
il gioco pero è abbastanza buggato...ogni tanto (e neanche troppo tanto) mi si freeza tutto :mad:
Originariamente inviato da Aristocrat74
bho
io con la configurazione in sign cioe athlon64 3500+ @3800 e geffo 6800gt@ultra.....
sto a 1280x 1024 tutto al massimo
filtro anisotropico 8x e antialiasing 4x (o 2x nn ricordo)
e il gioco non fa una piega....... non ho controllato gli fps ma non ho il minimo rallentamento....... viaggia tutto liscio come l olio... :cool:
dalla rece sembra che le geffo 6800 vadano da chiulo
e con la mia config dovrei fare 23,3 fps guardando il grafico a quella risoluzione e a quel dettaglio
(6800ultra 1280 x 1024 anis8x aa4x)
non credo proprio di fare "solo" 23 fps" Ma usi la stessa versione di driver, ovvero i ForceWare 67.02? Credo che i driver in certi casi possano fare la differenza, anche se di solito è il contrario, nuovi driver migliorano le performances.
Originariamente inviato da PSYCOMANTIS
Secondo me il trucco e' nella nebbia, se osservate gli screen fatti nel livello canal noterete che la nebbia con le ati e' mezzo chilomentro piu' vicina rispetto alle nvidia , il che si traduce in un risparmio notevole di potenza di calcolo.
Se fosse così, allora tutte le schede Nvidia dovrebbero soffrire di questo mezzo km di nebbia, se guardi gli screen dell'nv43 a me non sembra ci sia tutto sta differenza con gli r420. Anzi a me sembra che le differenze siano lievi e sicuramente non apprezzabili in movimento.
Aristocrat74
30-11-2004, 16:12
Originariamente inviato da LASCO
Ma usi la stessa versione di driver, ovvero i ForceWare 67.02? Credo che i driver in certi casi possano fare la differenza, anche se di solito è il contrario, nuovi driver migliorano le performances.
credo di avere i 66.qualcosa :p e non credo di fare 23 fps neanche nelle situazioni piu caotiche...
l unica differenza dalla configurazione del pc usata da HU è il processore io ho un 3500@3800 loro hanno usato un 3200
come posso visualizzare gli fps durante il gioco ?
Hitman04
30-11-2004, 16:13
A pagina 9 della recensione nei due ultimi grafici avete messo la Ati 9800 Xt con il colore verde destinato alle GeForce anzichè con il rosso. ;)
leoneazzurro
30-11-2004, 16:13
Permettetemi di dire la mia,
Che le X800 siano più veloci delle 6800 non è cosa nuova. Hanno clock decisamente superiore, e il fill rate sale di conseguenza, così come la potenza di calcolo nei PS 2.0.
Tuttavia sappiamo anche che una 6800 ultra ha il DOPPIO del fill rate di una 9800 XT, e più del 30% di banda passante in più. Il clock dei core è quasi il medesimo. Da test sintetici si vede anche che nell'esecuzione di codice VS/PS 2.0 generico:
http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=19
http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=15
la 6800 Ultra è molto, ma molto più veloce di una 9800 XT.
Vedere che nel demo "canals" a 1024x768 no AA no AF una 6800 Ultra sia dietro una 9800 XT mi lascia pensare solo una cosa:
C'è qualcosa che va terribilmente sbagliato nel motore Source sulle schede NV 40 (drivers? "Ottimizzazioni" specifiche di Valve?).
Mentre le differenze in Doom III a favore di Nvidia erano facilmente spiegabili con il "raddoppio" del fill rate dovuto all'utilizzo dello stencil buffer sulle NV 40, qui c'è decisamente qualcosa che non va, IMHO. Anche tenendo in conto riordini di istruzioni e via dicendo.
DevilsAdvocate
30-11-2004, 16:16
Bah, a me vederla come "la rivincita delle schede
Radeon" sembra quasi come dire "se messe in controluce
alle 5 del mattino, pure loro possono farcela"......
E' stato testato il demo prison (dove nvidia si comporta
generalmente molto meglio di quanto non fa ATI in
Doom3 o in OpenGL) e poi e' stata scelta l'unica
sequenza dove le GPU ati mostrano il loro pregio....
beh allora bisogna considerare che quelli siano i
fotogrammi MINIMI per le schede nvidia in tutto il
gioco, e che la suddetta scena durera' si e no 20
secondi.
Inoltre IMHO sia con DOOM3 che con HL2 i risultati
sono falsati a causa della "sponsorizzazione" che ci
sta dietro. Come metro di paragone andrebbe scelto
qualche altro gioco. (farcry ad esempio).
Inoltre ho letto che in Scrapland (fonte:TGM)(utilizza
il motore di Doom3? chiedo perche' mi e' venuto
il dubbio...) L'effetto di blurring per il turbo
dei veicoli non e' visualizzato con le schede ATI.
Qualcuno ne sa' di piu'?
Paolo Corsini
30-11-2004, 16:22
Originariamente inviato da Aristocrat74
credo di avere i 66.qualcosa :p e non credo di fare 23 fps neanche nelle situazioni piu caotiche...
l unica differenza dalla configurazione del pc usata da HU è il processore io ho un 3500@3800 loro hanno usato un 3200
come posso visualizzare gli fps durante il gioco ?
Scaricati la demo e provala, fai prima; il link è qualche commento prima
Paolo Corsini
30-11-2004, 16:22
Originariamente inviato da haveacigar
Io invece lo capisco eccome!!!
Per me ha più che ragione per il semplice fatto che entrambi i prodotti sono destinati al medesimo utilizzo...
il fatto di poter ormai paragonare due schede grafiche di marca diversa a due motociclette destinate ad utilizzo completamente diverso è sintomatico della aberrazione raggiunta...
ciò che tu poni come presupposto per una eventuale giustificazione io lo porrei a conclusione di una severa critica.....
Ciao,
partiamo da un paio di definizioni e vediamo se riesco ad essere più chiaro.
Motocicletta: mezzo di trasporto.
Scheda video: strumento per l'intrattenimento.
C'è mezzo di trasporto che si adatta bene ad un utilizzo, e mezzo di trasporto della stessa categoria più adatto ad altro. Entrambi sono pensati per lo stesso utilizzo: trasportare persone da un luogo all'altro. Mi sbaglio in questo?
Ora, l'esempio della motocicletta serviva proprio a spiegare questo concetto, valido anche quando si parla di schede video. La finalità è la stessa, ma il modo con il quale questa viene raggiunta è variabile a seconda dello strumento utilizzato.
Non andrei mai per boschi con una Yamaha Fazer 1000, e ci penserei 2 volte a fare da nord a sud lungo lo stivale italiano con una moto da trial.
Può piacere o meno, ma ATI e NVIDIA hanno fatto scelte architetturali molto diverse tra di loro, e con Doom 3 da una parte e HL2 dall'altra queste scelte architetturali stanno mostrando i propri rispettivi punti di forza e di debolezza. Le stesse cose si vedevano con altri titoli, ma in misura molto meno marcata: questi due titoli stanno estremizzando questa situazione ai massimi livelli.
Se avete la pazienza di leggere tutto il testo dell'articolo, noterete che non sono stati fatti riferimenti alle problematiche "marketing" che vedono ATI legata a Valve e NVIDIA a ID; le spiegazioni dei divari prestazionali sono sempre giustificate da motivazioni tecniche legate alle differenti architetture.
Il post al quale inizialmente ho risposto diceva, in buona sintesi, che pareva non accettabile avere prestazioni così differenti da schede che costano così tanto. Se gli approcci architetturali sono agli antipodi, mi pare ovvio che due prodotti che costano più o meno la stessa cifra possano comportarsi in modo differente tra di loro, a seconda del tipo di compito al quale sono stati chiamati.
Per il resto, non capisco perchè ci si debba scaldare per queste cose che, invece, dovrebbero riunire gli appassionati.
ImperatoreNeo
30-11-2004, 16:30
"escludendo il solito problema di stuttering/suttering"
Ecco.. detto..
Solo che dal mio amico il problema è di proporzioni bibliche.. fai una decina di secondi che fila che è un piacere..
...giri la visuale un attimo e subito scatticchia, il disco "lavora" un attimo e poi torna tutto normale..
E' stato appena formattato, l'unico software che ha installato è office 2003 e speedfan..
Sarà anche messo come da "porco" come dite voi, ma non mi sembra che abbia mai fatto porcherie con il pc.. ormai sarà la 20a volta che installa un computer..
L'AMD è XP un 2500+@3200+, la scheda video è una 9800PRO 256bit con 128MB di memoria..
Già che ci siete fate un salto sul sito di steam e andate in "support".. Il produttore riconosce e sta lavorando affinche venga chiarito perchè certe configurazioni HW abbiano problemi..
Lo riconosce Valve e voi no?
Paolo Corsini
30-11-2004, 16:35
Originariamente inviato da Hitman04
A pagina 9 della recensione nei due ultimi grafici avete messo la Ati 9800 Xt con il colore verde destinato alle GeForce anzichè con il rosso. ;)
Grazie della segnalazione, sistemato adesso
Aristocrat74
30-11-2004, 16:38
Originariamente inviato da Paolo Corsini
Abbiamo utilizzato un Athlon 64 FX55
Scaricati la demo e provala, fai prima; il link è qualche commento prima
Configurazione di test
Processore AMD Athlon 64 3200+
Scheda Madre AOpen AK86-L
Chipset VIA Apollo K8T800
Schede Video ATI Radeon X800
etc etc...
NVIDIA GeForce 6800 Ultra
NVIDIA GeForce 6800 GT
Ultra
Ram 2x512 MB Corsair XMS PC4000 xtreme PRO
Sistema Operativo Windows XP Professional SP2
Versione dei drivers ATI Catalyst 4.12 beta
NVIDIA ForceWare 67.02
XGI Reactor 1.07.50
bho sulla rece in "configurazione" ce scritto 3200+ ....
non so che dire...non volevo mettere in discussione il lavoro che avete svolto,
io ci sto giocando ...nn l ho ancora teminato... non ho visualizzato gli fps ...non ho provato la demo ma direttamente il gioco ma credo che se facessi 23fps me ne accorgerei..
stasera comunque provo la demo... :p
se non sbaglio HL1 dovrebbe usare una versione modificata del motore di Quake, NON Quake2
da quake2 dovrebbe prendere alcune righe di codice, ma la base "pesantemente modificata" è sempre quella di q1
http://collective.valve-erc.com/index.php?go=q1_or_q2
Eddie666
30-11-2004, 16:42
personalmente,da possessore di una radeon 9700pro,il fatto che la mia scheda vada molto bene con un titolo cosi' atteso non puo' farmi altro che piacere....infatti proprio ieri ho terminato per la prima volta questo giocone,godendemelo a 1024x768,AA 2x AF2x e tutto il resto al max,con un barton 3200 e 1 gb di ram ddr 400,ed eccettuato un po' di stuttering in alcuni punti e' sempre andato benissimo.
Allo stesso modo pero' sono riuscito a giocare a doomIII alla stessa risoluzione e con la grafica settata su high,soffrendo un pelo di piu',ma risultando lo stesso il tutto godibilissimo (e cmq il motore di doomIII e' indubbiamente piu' pesante di quello di HL2).
Quindi, come al solito,penso che questi bench vadano un po' presi con le pinze,in quanto e' indubbio che ATI e NVIDIA si sono indirizzate verso soluzioni differenti,ma e' anche vero che poi ,alla resa dei conti,le differenze non siano poi cosi' marcate,e sicuramente non tali da inficiare totalmente la godibilita' di questo e quel titolo (considerate che prima della radeon avevo una fantastica kyro2,e immagino che sappiate quanto venisse considerata dai produttori di giochi rispetto ai colossi ATI e NVIDIA......a prop...chissa' come girerebbe HL2 sulla kyro???)
ciao
leoneazzurro
30-11-2004, 16:43
Originariamente inviato da Paolo Corsini
Ciao,
partiamo da un paio di definizioni e vediamo se riesco ad essere più chiaro.
Motocicletta: mezzo di trasporto.
Scheda video: strumento per l'intrattenimento.
C'è mezzo di trasporto che si adatta bene ad un utilizzo, e mezzo di trasporto della stessa categoria più adatto ad altro. Entrambi sono pensati per lo stesso utilizzo: trasportare persone da un luogo all'altro. Mi sbaglio in questo?
Ora, l'esempio della motocicletta serviva proprio a spiegare questo concetto, valido anche quando si parla di schede video. La finalità è la stessa, ma il modo con il quale questa viene raggiunta è variabile a seconda dello strumento utilizzato.
Non andrei mai per boschi con una Yamaha Fazer 1000, e ci penserei 2 volte a fare da nord a sud lungo lo stivale italiano con una moto da trial.
Può piacere o meno, ma ATI e NVIDIA hanno fatto scelte architetturali molto diverse tra di loro, e con Doom 3 da una parte e HL2 dall'altra queste scelte architetturali stanno mostrando i propri rispettivi punti di forza e di debolezza. Le stesse cose si vedevano con altri titoli, ma in misura molto meno marcata: questi due titoli stanno estremizzando questa situazione ai massimi livelli.
Se avete la pazienza di leggere tutto il testo dell'articolo, noterete che non sono stati fatti riferimenti alle problematiche "marketing" che vedono ATI legata a Valve e NVIDIA a ID; le spiegazioni dei divari prestazionali sono sempre giustificate da motivazioni tecniche legate alle differenti architetture.
Il post al quale inizialmente ho risposto diceva, in buona sintesi, che pareva non accettabile avere prestazioni così differenti da schede che costano così tanto. Se gli approcci architetturali sono agli antipodi, mi pare ovvio che due prodotti che costano più o meno la stessa cifra possano comportarsi in modo differente tra di loro, a seconda del tipo di compito al quale sono stati chiamati.
Per il resto, non capisco perchè ci si debba scaldare per queste cose che, invece, dovrebbero riunire gli appassionati.
Scusami Paolo, ma è proprio alcune considerazioni tecniche, o meglio la mancanza di alcune di esse, che mi lasciano perplesso. Se HL2 privilegia la "forza bruta" sui VS/PS 2.0 e il maggior fill rate/clock delle X800 e questo spiega il divario nel primo demo, comincia a spiegarlo poco nel secondo e soprattutto il vedere una 9800 XT "andare più" della 6800 Ultra che da tutti i punti di vista è decisamente più potente. Anche tenendo conto che NV 40 è più sensibile al riordino delle istruzioni di R3X0 e R420, ho veramente dei grossi dubbi....
Paolo Corsini
30-11-2004, 16:43
Originariamente inviato da Aristocrat74
....
bho sulla rece in "configurazione" ce scritto 3200+ ....
Devi scusarmi, stasera sono evidentemente fuso.
Ho fatto confusione con i test che sto chiudendo io questa sera, su altre schede video, per i quali la piattaforma di test è un Athlon 64 FX55.
Dumah Brazorf
30-11-2004, 16:45
-Ora + che mai nel pc bisogna avere la RAM.
Dimenticate i 512MB, per questi 2 giochi ne servono di + o scatteranno inesorabilmente.
Ho aggiunto 256MB ai 512 che avevo e Doom3 è diventato moooolto + fluido con una 9800PRO.
-L'architettura Nv3x dimostra sempre + di essere, parafrasando una nota canzone, nata sbagliata, Nv40 semplicemente non sfruttata al meglio in questo gioco, ma il marketing è marketing.
-Fanizzi sei un mito.
-Aspettiamo un test di scalabilità con cpu diverse come con Doom3. ;)
Ciao.
Originariamente inviato da sc82
La situazione testata con il demo canal rappresenta la situazione di massima pesantezza possibile?
Guardando quel test sembrerebbe che ci siano punti del gioco in cui con una 6800 liscia non è possibile giocare fluidamente o quasi a 1024 con i filtri (26fps), questo è un piccolo caso particolare o giocare con quella scheda e quei settaggi è realmente difficoltoso?
Il gioco è assolutamente giocabile con una 6800. Signori è meglio chiarire che questo articolo non vuole essere una valutazione di "con quale scheda è giocabile HL2". I benchmark hanno il compito di valutare "a parità di condizione (risoluzione, effetti, scena, ecc...) quale scheda va meglio e quale scheda va peggio". Sono due cose completamente differenti.
Originariamente inviato da PSYCOMANTIS
Secondo me il trucco e' nella nebbia, se osservate gli screen fatti nel livello canal noterete che la nebbia con le ati e' mezzo chilomentro piu' vicina rispetto alle nvidia , il che si traduce in un risparmio notevole di potenza di calcolo.
La realtà è che ad NV40 manca un effetto perché se NV43, NV35, R420, ecc... hanno la nebbia beh allora il problema è di NV40, non è di certo un pregio quello di non fare la nebbia anche perché il culling della geometria a grande distanza è normalmente qualcosa di legato al motore grafico e non alla GPU. Con NV40 accade che là dove avviene il culling (cioè viene tagliata la scena) c'è un netto distacco tra sfondo e geometria. Con le altre GPU invece tale taglio non è che avviene prima perché c'è la nebbia, ma avviene in maniera più graduale e, pertanto, gradevole alla vista.
Aristocrat74
30-11-2004, 16:53
Originariamente inviato da Paolo Corsini
Devi scusarmi, stasera sono evidentemente fuso.
Ho fatto confusione con i test che sto chiudendo io questa sera, su altre schede video, per i quali la piattaforma di test è un Athlon 64 FX55.
con tutte le recensioni che fate. credo sia piu che normale
:D ;)
ho scaricato le demo...ehmm ma sicome sono un superlammah :oink: ....come faccio a farle "partire" :p: confused:
Originariamente inviato da DevilsAdvocate
Bah, a me vederla come "la rivincita delle schede
Radeon" sembra quasi come dire "se messe in controluce
alle 5 del mattino, pure loro possono farcela"......
E' stato testato il demo prison (dove nvidia si comporta
generalmente molto meglio di quanto non fa ATI in
Doom3 o in OpenGL) e poi e' stata scelta l'unica
sequenza dove le GPU ati mostrano il loro pregio....
beh allora bisogna considerare che quelli siano i
fotogrammi MINIMI per le schede nvidia in tutto il
gioco, e che la suddetta scena durera' si e no 20
secondi.
Inoltre IMHO sia con DOOM3 che con HL2 i risultati
sono falsati a causa della "sponsorizzazione" che ci
sta dietro. Come metro di paragone andrebbe scelto
qualche altro gioco. (farcry ad esempio).
Inoltre ho letto che in Scrapland (fonte:TGM)(utilizza
il motore di Doom3? chiedo perche' mi e' venuto
il dubbio...) L'effetto di blurring per il turbo
dei veicoli non e' visualizzato con le schede ATI.
Qualcuno ne sa' di piu'?
La demo canals non è stata da noi scelta in base al fatto che le schede NVIDIA andavano peggio rispetto a quelle ATI. Anche perché sfido io a vedere una qualsiasi demo in cui NV40 va meglio di R420 in HL2. E' stata scelta per due semplici ragioni:
1) Rappresenta una porzione di gioco piena di movimento e significativa (riproposta in modo simile anche nelle mappe coast, ma alla guida di una macchina);
2) E' GPU limited, cioè non limitata dalla potenza della CPU perché è una demo molto pesante dal punto di vista grafico.
Che poi NV40 non sia in grado di sostenere quel tipo di rendering allo stesso livello di quanto fa R420, beh è un suo problema.
I distacchi inferiori in prison sono dovuti al fatto che prison è + CPU limited e meno intensivo dal punto di vista grafico.
ImperatoreNeo
30-11-2004, 16:54
"Ho aggiunto 256MB ai 512 che avevo e Doom3 è diventato moooolto + fluido con una 9800PRO."
oHoh... dimenticavo.. sul pc ci sono 512mb di ram (pc3200 cl2 corsair..) potrebbe essere quello... :(
Originariamente inviato da Aristocrat74
con tutte le recensioni che fate. credo sia piu che normale
:D ;)
ho scaricato le demo...ehmm ma sicome sono un superlammah :oink: ....come faccio a farle "partire" :p: confused:
Scegli le impostazioni grafiche che vuoi. Dopodiché apri la console (per abilitarla avvia il gioco con il comando "-console") e scrivi "timedemo <nomedemo>"
La demo va messa nella cartella BIN del gioco.
Alla fine nella console troverete i risultati e, se uscite dal gioco, troverete da qualche parte nelle due cartelle un file chiamato "benchmark.csv" contenente i risultati.
Originariamente inviato da leoneazzurro
Scusami Paolo, ma è proprio alcune considerazioni tecniche, o meglio la mancanza di alcune di esse, che mi lasciano perplesso. Se HL2 privilegia la "forza bruta" sui VS/PS 2.0 e il maggior fill rate/clock delle X800 e questo spiega il divario nel primo demo, comincia a spiegarlo poco nel secondo e soprattutto il vedere una 9800 XT "andare più" della 6800 Ultra che da tutti i punti di vista è decisamente più potente. Anche tenendo conto che NV 40 è più sensibile al riordino delle istruzioni di R3X0 e R420, ho veramente dei grossi dubbi....
Straquoto:)
è impossibile un divario del genere non è "logico":rolleyes:
sicuramente nVidia è in dietro con i driver per HL2:mc:...anche il fatto della nebbia mi fa penare a questo!!! ....ATI invece ha avuto modo di ottimizzarli maggiormente i propi driver essendo filo Valve;)
...vedremo se con la prossima release di ForceWare le cose saranno ancora così:D
110000011010000
:)
nonikname
30-11-2004, 17:08
Anche perché sfido io a vedere una qualsiasi demo in cui NV40 va meglio di R420 in HL2
E pure canals :D
http://www.firingsquad.com/hardware/half-life_2_performance/images/c1024.gif
http://www.firingsquad.com/hardware/half-life_2_performance/images/c1024aa.gif
http://www.firingsquad.com/hardware/half-life_2_performance/images/c1024aaf.gif
@ LeoneAzzurro : stai tranquillo che con le prox release di Forceware la situazione 9800xt vs NV40 si ribalterà completamente... basta già provare i driver 67.20 Spirit Fury per capirlo ;)
leoneazzurro
30-11-2004, 17:10
Ahem.. non è lo stesso "canals". Lì l'acqua non c'è, mi pare (se non sbaglio è la rece di firingsquad)
nonikname
30-11-2004, 17:15
Si infatti ho messo la :D ... ma è la frase quotata che mi ha fatto riflettere : basta registrare il time demo in altri punti e la situazione cambia radicalmente...
Comunque bella memoria , era la rece di firingsquad (Canals senza acqua)... :D
maddai nn spacciate quei risultati con la scusa delle scelte architetturali... :D
Quale altro gioco ha mai evidenziato una differenza così grossa tra schede al top?? E guarda caso d3 e hl2 sono pesantemente sponsorizzati e messi in luce da nvidia e ati... A me viene in mente per prima cosa scarsa cura nel render path per schede nvidia, altro che scelte di architettura! Prendiamo d3: c'è una modifica ad un file capace di regalare 20% in più di fps alle ati mentre penalizza le nvidia. E nn è un cheat perchè nn tocca la qualità video (provare per credere).
Purtroppo viviamo sulla terra e queste cose accadono :D Secondo me ignorare le scelte di marketing è una follia! Non è tutto roseo e bello e non sempre una scheda va più forte perchè più potente (provate unreal turnament con una voodoo e il glide o qualsiasi gioco che supporti quelle librerie). L'architettura centra, ma fino a un certo limite e qui lo si è oltrepassato, di brutto anche! Tutto sommato a me va anche bene: ho una ati :D
Originariamente inviato da leoneazzurro
Ahem.. non è lo stesso "canals". Lì l'acqua non c'è, mi pare (se non sbaglio è la rece di firingsquad)
Infatti e poi un vantaggio di 3 fps stento a considerarlo significativo. Quella di firingsquad è una demo assolutamente CPU limited e, pertanto, assolutamente non significativa per la comparazione di schede video. Se considerate questi stessi risultati a 1600x1200 con AA4x e aniso 8x di quello stesso articolo R420 ha quasi 20 fps di vantaggio su NV40 (guarda caso è una situazione non CPU limited).
Non esiste un solo articolo in cui una demo non CPU limited vede NV40 in vantaggio. Non capisco proprio perché siete così scettici. All'epoca dell'articolo su Doom III molti accettarono e si aspettavano quei risultati per le schede Radeon. Qua accade la stessa cosa per NV40.
nonikname
30-11-2004, 17:24
Se vogliamo mettere i puntini sulle I , io ho risposto solo a questo :
Anche perché sfido io a vedere una qualsiasi demo in cui NV40 va meglio di R420 in HL2
Poi colgo l'occasione per ringraziare per l'ottima prima parte della rece , veramente interessante ed esaustiva...
In secondo luogo , sono sicuro che come l'X800 si è risollevata in doom3 anche l'NV40 avrà modo di riscattarsi in questo titolo...
Una cosa è lavorare a stretto contatto con la software house e realizzare il motore sui punti forti di un architettura , un altra è aspettare che il titolo esca per realizzare driver decenti.. ;)
Sono previsti in futuro test di scalabilità con cpu diverse?
leoneazzurro
30-11-2004, 17:28
Sono scettico non sul vantaggio di X800 su NV 40, quello me lo aspetto anche in considerazione di architettura e clock delle schede. Così come in Doom 3 c'è il discorso dello stencil buffer che è una caratteristica delle schede NV 40 che è stata sfruttata, e che determina in larga parte quei risultati (tra parentesi, la famosa "humus patch" che dava fps in più in Doom 3 sulle schede ATI è stata ripresa e migliorata da ATI stessa nei suoi drivers, ed ecco perchè adesso il divario tra schede Nvidia e ATi è inferiore rispetto all'inizio) E' la 9800 XT in testa nel demo canals senza filtri che non mi aspetto assolutamente, e soprattutto non vedo giustificata da differenze architetturali come nel caso di Doom 3. Del resto credo anche io che con il passare del tempo (e delle "ottimizzazioni" ) il divario si assottiglierà.
Paolo Corsini
30-11-2004, 17:45
Originariamente inviato da LASCO
Sono previsti in futuro test di scalabilità con cpu diverse?
La cosa è sicuramente interessante, ma si scontra con alcuni problemi organizzativi. Quei test dovrei farli io perché ho accesso ai processori qui in redazione, ma sono bloccato tutta questa settimana per i test di X850 prima e di SLI da domani pomeriggio.
Lunedì volo in USA per l'editor's day di NVIDIA, rientro giovedì 9 sera. Appena rientrato avrò da lavorare ad un roundup di schede video di fascia media (da X300 - 6200 sino a X700 - 6600, tanto per intenderci), quindi dubito di avere anche una piccola finestra di tempo per questo tipo di test.
Che, beninteso, se fatti con almeno un paio di schede video e un discreto numero di processori richiederebbe molti giorni di test.
nonikname
30-11-2004, 17:53
E' la 9800 XT in testa nel demo canals senza filtri che non mi aspetto assolutamente, e soprattutto non vedo giustificata da differenze architetturali come nel caso di Doom 3.
E' dal tuo primo post che ho capito cosa intendevi , così come Psycomantis ha accennato al fatto che i driver sull'NV40 non abilitano la nebbia ( aumentando se pur di poco il carico della GPU) , io ho notato che non funzionando correttamente la nebbia in lontananza , la superfice dell'acqua deve riflettere molta più porzione di scena , con carico doppio appunto nel time demo canals registrato da HWup ...
Sono queste piccole cose che fanno capire come i Driver Nvidia siano ancora da sgrossare su Halflife2 (come su molti altri titoli nuovi) mentre i catalyst sono in fase di tuning fine da quasi un anno e mezzo (dato che per ati , il cambio architetturale quest'anno non è avvenuto) quindi sono sicuro che in un titolo del genere dovrebbe essere quantomeno indubbia la supremazia di un NV40 su una 9800xt ... e credimi l'ottimizzazione dei diver in questi casi è il punto focale della questione...
Con i tools di sviluppo che hanno alla Nvidia (come alla ATI) fanno presto a capire quali sono le "chiamate" che determinano un calo cosi accentuato ...
Ti dico che già i 67.20 modificati da un untente di DriverHeaven danno aumenti prestazionali , in certi punti , anche del 20% ..(ed è un comunissimo appasionato di programmazione C++ senza tools di sviluppo e senza un NV40 da provare)..
Lapsus Humisiano ??
leoneazzurro
30-11-2004, 17:56
Si, rispondevo a Raffaele, non a te ;)
Diciamo a Nvidia di assumere 'sto tizio, mi sa che è meglio :D
nonikname
30-11-2004, 17:58
Sono previsti in futuro test di scalabilità con cpu diverse?
Half-Life 2 Performance with Athlon XP : http://www.firingsquad.com/hardware/half-life_2_athlon_xp/
Half-Life 2 CPU Shootout: AMD versus Intel : http://www.firingsquad.com/hardware/half_life_2_cpu_shootout/
nonikname
30-11-2004, 18:01
Diciamo a Nvidia di assumere 'sto tizio, mi sa che è meglio :D
Stai tranquilo che se provi i 67.44 x betatester cambi idea ;)
sinceramente hl2 è l'unico gioco che mi ha fatto venire voglia di cambiare scheda video, ma non perchè non riesca a giocarlo... tutt'altro!
me lo godo a 1024x768 con dettagli tutti alti senza ovviamente AA con barton-M 2600+@3800+ 1GB twinmos 2-3-3-11 POV 4200@300/700 2x40GB Raid0. il gioco funziona in maniera davvero egregia, l'unica cosa ovviamente che manca è l'atmosfera aggiuntiva che solo le DX9 posso dargli.
...scusate ma dopo queste opinioni molto interessanti sui migliori giochi (e vga) in circolazione, cosa consigliereste di acquistare come scheda video ad uno che come me ha intenzione di farsi un pc nuovo proprio per giocare, e non porrebbe limiti di budget per la vga?
grazie :confused: :confused:
nonikname
30-11-2004, 18:14
Non completamente OT , ma comunque molto interessante :
http://members.home.nl/gis/ ;)
http://members.home.nl/gis/blackmesa159.jpg
Originariamente inviato da Paolo Corsini
La cosa è sicuramente interessante, ma si scontra con alcuni problemi organizzativi. Quei test dovrei farli io perché ho accesso ai processori qui in redazione, ma sono bloccato tutta questa settimana per i test di X850 prima e di SLI da domani pomeriggio.
Lunedì volo in USA per l'editor's day di NVIDIA, rientro giovedì 9 sera. Appena rientrato avrò da lavorare ad un roundup di schede video di fascia media (da X300 - 6200 sino a X700 - 6600, tanto per intenderci), quindi dubito di avere anche una piccola finestra di tempo per questo tipo di test.
Che, beninteso, se fatti con almeno un paio di schede video e un discreto numero di processori richiederebbe molti giorni di test. Molto interessante, ci aspettano un bel pò di benchmark. Allora buon lavoro.
Comunque io mi accontenterei anche di un test di scalabilità con 3 cpu
Originariamente inviato da nonikname
Half-Life 2 Performance with Athlon XP : http://www.firingsquad.com/hardware/half-life_2_athlon_xp/
Half-Life 2 CPU Shootout: AMD versus Intel : http://www.firingsquad.com/hardware/half_life_2_cpu_shootout/ Grazie, ci sono un bel pò di cpu. Peccato che non sia in test la scheda che m'interessa, la 9800pro.
ken Falco
30-11-2004, 18:35
io ho provato il gioco con 2 differenti configurazioni 6800 gt- x800pro
praticamente ho gli stessi fps in media ...
secondo me hwupgrade tiene per le ati !
Originariamente inviato da nonikname
E' dal tuo primo post che ho capito cosa intendevi , così come Psycomantis ha accennato al fatto che i driver sull'NV40 non abilitano la nebbia ( aumentando se pur di poco il carico della GPU) , io ho notato che non funzionando correttamente la nebbia in lontananza , la superfice dell'acqua deve riflettere molta più porzione di scena , con carico doppio appunto nel time demo canals registrato da HWup ...
Sono queste piccole cose che fanno capire come i Driver Nvidia siano ancora da sgrossare su Halflife2 (come su molti altri titoli nuovi) mentre i catalyst sono in fase di tuning fine da quasi un anno e mezzo (dato che per ati , il cambio architetturale quest'anno non è avvenuto) quindi sono sicuro che in un titolo del genere dovrebbe essere quantomeno indubbia la supremazia di un NV40 su una 9800xt ... e credimi l'ottimizzazione dei diver in questi casi è il punto focale della questione...
Con i tools di sviluppo che hanno alla Nvidia (come alla ATI) fanno presto a capire quali sono le "chiamate" che determinano un calo cosi accentuato ...
Ti dico che già i 67.20 modificati da un untente di DriverHeaven danno aumenti prestazionali , in certi punti , anche del 20% ..(ed è un comunissimo appasionato di programmazione C++ senza tools di sviluppo e senza un NV40 da provare)..
Lapsus Humisiano ??
Non ci siamo proprio. Ho già spiegato che l'assenza della nebbia in NV40 non è un pregio per quest'ultima ma è un problema, un difetto che DIMINUISCE il carico di lavoro perché è un effetto in meno da renderizzare. La porzione di scena renderizzata con o senza nebbia è LA STESSA. Il culling della geomtria in lontananza viene fatto dal banalissimo far plane del view frustrum della camera. La nebbia rende questo taglio più graduale e meno netto. Quindi NV40 non renderizzando la nebbia ha solo benefici.
haveacigar
30-11-2004, 18:41
Originariamente inviato da Vifani
Non esiste un solo articolo in cui una demo non CPU limited vede NV40 in vantaggio. Non capisco proprio perché siete così scettici. All'epoca dell'articolo su Doom III molti accettarono e si aspettavano quei risultati per le schede Radeon. Qua accade la stessa cosa per NV40.
Bè per esempio un pò di scetticismo è forse (a torto o a ragione non so..) motivato anche dal fatto che durante la prova di doom III pur di dare rilievo alle prestazioni ati furono fatti test alla risoluzione a dir poco curiosa di 640X480.......:mbe:
tra le altre cose dando uno sguardo sul sito di anandtech sembra che le nv 6800gt forniscano prestazioni superiori alle concorrenti ati x800 pro.....:wtf:
G_luka3dfx
30-11-2004, 18:44
Il post al quale inizialmente ho risposto diceva, in buona sintesi, che pareva non accettabile avere prestazioni così differenti da schede che costano così tanto. Se gli approcci architetturali sono agli antipodi, mi pare ovvio che due prodotti che costano più o meno la stessa cifra possano comportarsi in modo differente tra di loro, a seconda del tipo di compito al quale sono stati chiamati.
Io non mi sono mica scaldato....ciò che ho scritto era una semplice manifestazione della mia delusione per come si stanno muovendo Ati e Nvidia e soprattutto x le future prospettive....
Motocicletta: mezzo di trasporto.
Scheda video: strumento per l'intrattenimento.
Per piacere....è uno degli esempi più pessimi che ho sentito...
Ho capito comunque quello che volevi dire...ma paragonare una moto da strada e una da cross che solo perché costano uguali devono andare allo stesso modo a una scheda video che serve "solo x giocare " ....Ribadisco che secondo me è inaccettabile che le differenze architetturali possano portare a queste differenze di prestazioni in schede che costano sui 500 € nate per il "MEDESIMO" utilizzo..... ossia "GIOCARE CON I VIDEOGIOCHI"...ripeto che se decido di spendere una cifra del genere per una scheda mi aspetto al massimo che ci siano differenze "QUALITATIVE" legate all'architettura...non che a seconda del gioco al max la mia scheda da 500 € fa 24 fps con i filtri a 1600 x 1200...
Continuando così tra un paio di anni con una radeon potrò giocate solo con alcuni giochi appositamente sviluppati, lo stesso per una Geffo.......
Raga stai a vedere che ho capito perché hanno rispolverato le piattaforme per due schede??? Su una ci metti una Ati sull'altra una Nvidia e puoi giocare con tutti i giochi con la max qualità....ho capito.....:muro: :muro:
haveacigar
30-11-2004, 18:56
Originariamente inviato da Paolo Corsini
Ciao,
partiamo da un paio di definizioni e vediamo se riesco ad essere più chiaro.
Motocicletta: mezzo di trasporto.
Scheda video: strumento per l'intrattenimento.
C'è mezzo di trasporto che si adatta bene ad un utilizzo, e mezzo di trasporto della stessa categoria più adatto ad altro. Entrambi sono pensati per lo stesso utilizzo: trasportare persone da un luogo all'altro. Mi sbaglio in questo?
Ora, l'esempio della motocicletta serviva proprio a spiegare questo concetto, valido anche quando si parla di schede video. La finalità è la stessa, ma il modo con il quale questa viene raggiunta è variabile a seconda dello strumento utilizzato.
Non andrei mai per boschi con una Yamaha Fazer 1000, e ci penserei 2 volte a fare da nord a sud lungo lo stivale italiano con una moto da trial.
Può piacere o meno, ma ATI e NVIDIA hanno fatto scelte architetturali molto diverse tra di loro, e con Doom 3 da una parte e HL2 dall'altra queste scelte architetturali stanno mostrando i propri rispettivi punti di forza e di debolezza. Le stesse cose si vedevano con altri titoli, ma in misura molto meno marcata: questi due titoli stanno estremizzando questa situazione ai massimi livelli.
Se avete la pazienza di leggere tutto il testo dell'articolo, noterete che non sono stati fatti riferimenti alle problematiche "marketing" che vedono ATI legata a Valve e NVIDIA a ID; le spiegazioni dei divari prestazionali sono sempre giustificate da motivazioni tecniche legate alle differenti architetture.
Il post al quale inizialmente ho risposto diceva, in buona sintesi, che pareva non accettabile avere prestazioni così differenti da schede che costano così tanto. Se gli approcci architetturali sono agli antipodi, mi pare ovvio che due prodotti che costano più o meno la stessa cifra possano comportarsi in modo differente tra di loro, a seconda del tipo di compito al quale sono stati chiamati.
Per il resto, non capisco perchè ci si debba scaldare per queste cose che, invece, dovrebbero riunire gli appassionati.
Bè il discorso non cambia di una virgola....per l'acquirente il fatto che ricorra una tale diversificazione di prestazione non è assolutamente un aspetto positivo....
il fatto che le differenze siano dovute a scelte architetturali e concezioni costruttive agli antipodi non rende più digeribile la cosa...anzi penso che aziende come la valve e la id scelgano attentamente quale sia l'architettura da preferire.....
solo un orbo può pensare che queste differenze di presatazioni siano assolutamente casuali e non contestualizzabili in una panoramica commerciale molto articolata e sicuramente deprecabile...
sono assolutamente convinto che se la valve fosse stata affiliata ad nvidia chissà perchè avrebbe ritenuto più opportuno adeguare il gioco alle esigenze ed ai punti di forza delle gpu fornite dalla seconda....
ovviamente il discorso è assolutamente speculare a quello che può essere avanzato circa le società che come la id siano affiliate ad nvidia..
zerothehero
30-11-2004, 20:00
Originariamente inviato da G_luka3dfx
....Ribadisco che secondo me è inaccettabile che le differenze architetturali possano portare a queste differenze di prestazioni in schede che costano sui 500 € nate per il "MEDESIMO" utilizzo..... ossia "GIOCARE CON I VIDEOGIOCHI"...ripeto che se decido di spendere una cifra del genere per una scheda mi aspetto al massimo che ci siano differenze "QUALITATIVE" legate all'architettura...non che a seconda del gioco al max la mia scheda da 500 € fa 24 fps con i filtri a 1600 x 1200...
Continuando così tra un paio di anni con una radeon potrò giocate solo con alcuni giochi appositamente sviluppati, lo stesso per una Geffo.......
Raga stai a vedere che ho capito perché hanno rispolverato le piattaforme per due schede??? Su una ci metti una Ati sull'altra una Nvidia e puoi giocare con tutti i giochi con la max qualità....ho capito.....:muro: :muro:
Ma quel demo (canals) non è affatto rappresentativo delle prestazioni del gioco, è un caso che è stato usato per stressare al massimo la gpu e in quel particolare caso l'nv40 prende calci dall' x800pro e xt.......ora farò andare per curiosità il demo (se qualcuno mi spiegherà come) ma in effetti ho notato delle incertezze in quel frangente con la 6800gt.
Non capisco il termine inaccettabile.....perchè si deve sempre parlare di marketing o di altre cose....semplicemente dato che ati e invidia hanno compiuto scelte diverse, necessariamente tali scelte impatteranno in modo eclatante quando ci si focalizza (giustamente è un benchmark) su IL PUNTO più pesante DEL GIOCO più favorevole per le ati.....non credo sia un problema di driver o altro...
se si usasse lo stesso criterio anche in doom3 la situazione ci sarebbe ma a parti rovesciate....
vabbè ora sul mercatino vedremo molti che venderanno quelle catapecchia di 6800...:sofico: ..il mondo è malato o strano se volete..
Ginger79
30-11-2004, 20:02
E' una vera pena!!! Non aggiungo altro... avete perso un lettore.
Ho un 2600M@3800+ con POV 6800GT@Ultra e faccio il triplo dei risultati di questi Benchmark.
Da un sito così serio non me lo aspettavo veramente. Non ci sono scuse!! Siete scesi di livello da far paura e noi lettori risponderemo di conseguenza ... VEDRETE!
Tutte le recensioni in rete e i TEST da me stesso eseguiti con i medesimi DEMO danno risultati completamente diversi.... certo è che quando si prendono sovvenzioni da ATI per dichiarare il falso mi fa veramente schifo!!
a tutti i lettori: NON SOLO VALVE E ID-SOFTWARE FANNO POLITICA DI MARKETING... ADESSO CI SI METTONO ANCHE I SITI (ITALIANI) ahahahahah!!!
Ripeto: CHE PENA.
Grazie e addio (per sempre)!!
...prima di tutto complimenti ai ragazzi della redazione, anche questa volta avete fatto un ottimo lavoro!
...poi... non capisco proprio alcuni post che ho letto... quando uscì la recensione su Doom3 tutti a dire "oh ma che grande Nvidia, oh ma che potenza le 6800, oh ma che bello di qua e di la..."
...ora che è uscita la recensione di HL2 alcuni non credono ai risultati e "gridano al complotto"... mah...? ...proprio non vi capisco... 9 recensioni su 10 che trovate ovunque su internet danno gli stessi risultati che ha pubblicato Hwupgrade... xò non va bene... guai a toccare il nuovo mostro sacro nv40...
...andate a leggere questo thread in cui molti hanno scritto (tra cui alcuni utenti del forum mooooooolto preparati) e capirete il xè di questi risultati (se x caso non vi bastassero le già complete spiegazioni della recensione...): http://forum.hwupgrade.it/showthread.php?threadid=816923
...ciao!
Originariamente inviato da Ginger79
E' una vera pena!!! Non aggiungo altro... avete perso un lettore.
Ho un 2600M@3800+ con POV 6800GT@Ultra e faccio il triplo dei risultati di questi Benchmark.
Da un sito così serio non me lo aspettavo veramente. Non ci sono scuse!! Siete scesi di livello da far paura e noi lettori risponderemo di conseguenza ... VEDRETE!
Tutte le recensioni in rete e i TEST da me stesso eseguiti con i medesimi DEMO danno risultati completamente diversi.... certo è che quando si prendono sovvenzioni da ATI per dichiarare il falso mi fa veramente schifo!!
a tutti i lettori: NON SOLO VALVE E ID-SOFTWARE FANNO POLITICA DI MARKETING... ADESSO CI SI METTONO ANCHE I SITI (ITALIANI) ahahahahah!!!
Ripeto: CHE PENA.
Grazie e addio (per sempre)!!
...sei veramente ridicolo... e soprattutto male informato...
:rolleyes: :ahahah:
^TiGeRShArK^
30-11-2004, 20:08
veramente a me 6 tu a fare pena........
Visto ke TUTTe le rece del mondo sono d'accordo con quanto si vede in questa rece, e si è solo scelto il punto più stressante del gioco x mettere in evidenza le debolezze delle varie skede......
Tu vuoi solo sentire in tutti i modi ke la tua skeda è la migliore, ke hai fatto il migliore acquisto....
ma questo in determinate situazioni non è vero.
In doom 3 la tua skeda è migliore, ma in HL" questo non è vero PUNTO
Complimenti x i toni usati cmq.......:rolleyes:
zerothehero
30-11-2004, 20:09
Originariamente inviato da Ginger79
E' una vera pena!!! Non aggiungo altro... avete perso un lettore.
Ho un 2600M@3800+ con POV 6800GT@Ultra e faccio il triplo dei risultati di questi Benchmark.
Da un sito così serio non me lo aspettavo veramente. Non ci sono scuse!! Siete scesi di livello da far paura e noi lettori risponderemo di conseguenza ... VEDRETE!
Tutte le recensioni in rete e i TEST da me stesso eseguiti con i medesimi DEMO danno risultati completamente diversi.... certo è che quando si prendono sovvenzioni da ATI per dichiarare il falso mi fa veramente schifo!!
a tutti i lettori: NON SOLO VALVE E ID-SOFTWARE FANNO POLITICA DI MARKETING... ADESSO CI SI METTONO ANCHE I SITI (ITALIANI) ahahahahah!!!
Ripeto: CHE PENA.
Grazie e addio (per sempre)!!
non hai capito il significato di quel benchmark ed è inutile startelo a spiegare......fossi in te butterei quello schifo di 6800gt :O
HL2 a contrario di Doom III ( che butta tutti i calcoli del suono sulla CPU) si presta molto anche x testare schede AUDIO, quando era uscita la beta di CS:source su CSnation avevano postato un interessante rassegna delle varie schede Audio, e dell'impatto che queste avevano sugli FPS.
I risultati erano molto interessanti, da giocare completamente senza audio a con con massimo dettaglio si lasciavano x strada + di una decina di FPS... e c'erano notevoli differenze anche tra le varie schede, dove oviamente primeggiavano le Creative....
Un articolo con comparazione tra schede audio sulla versione definitiva di HL2 sarebbe moolto interessante e originale imo.
zerothehero
30-11-2004, 20:20
mi spiegate come faccio a far partire i demo?:muro:
Originariamente inviato da Ginger79
Tutte le recensioni in rete e i TEST da me stesso eseguiti con i medesimi DEMO danno risultati completamente diversi.... certo è che quando si prendono sovvenzioni da ATI per dichiarare il falso mi fa veramente schifo!!
Ripeto: CHE PENA.
Grazie e addio (per sempre)!!
...tutte le recensioni??? dai te ne metto "solo" 4... così forse le leggi...
AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=2278)
AnandTech #2 (http://www.anandtech.com/video/showdoc.aspx?i=2281&p=1)
X-bit Labs (http://www.xbitlabs.com/articles/video/display/half-life.html)
Hard|ocp (http://www.hardocp.com/article.html?art=NjkyLDE=)
Firingsquad (http://www.firingsquad.com/hardware/half-life_2_performance/)
...e ti posto di nuovo la discussione che ha seguito questi articoli:
Frame Rates for Half-Life 2 (http://forum.hwupgrade.it/showthread.php?threadid=816923)
...che pena... eh già... :rolleyes:
Originariamente inviato da haveacigar
Bè per esempio un pò di scetticismo è forse (a torto o a ragione non so..) motivato anche dal fatto che durante la prova di doom III pur di dare rilievo alle prestazioni ati furono fatti test alla risoluzione a dir poco curiosa di 640X480.......:mbe:
tra le altre cose dando uno sguardo sul sito di anandtech sembra che le nv 6800gt forniscano prestazioni superiori alle concorrenti ati x800 pro.....:wtf:
Doom III fu provato a 640x480 perchè furono considerate anche schede di fascia molto più bassa che, per forza di cose, non avrebbero mai potuto dare risultati significativi alle risoluzioni più elevate.
Il vantaggio di cui tu parli per le schede ATI è di pochissimi fps ed è presente alle basse risoluzioni perché il sistema era CPU limited. Non è un caso che quei risultati per NV40 e R420 non sono stati minimamente considerati nelle conclusioni in cui è stata, invece, ben delineata la superiorità di NV40 con quel gioco.
La prossima volta che fai un'accusa, argomentala meglio e, soprattutto, leggi gli articoli che citi invece di scrivere solo dopo aver visto i grafici.
Ginger79
30-11-2004, 20:39
Ripeto ancora che da test che ho eseguito circa 1 ora fa in CANAL 1600*1200 AA4X AF 8X quei 17.9FPS da voi citati... da me sono 31.4FPS (non mi sembra che stiamo parlando la stessa lingua!!)
Non si tratta di voler "sentirmi dire" che la GT va alla grande. Si tratta di aver fatto di persona i test e di averli smentiti in maniera significativa.
Se qualcuno è in grado di spiegarmi il xchè di tutto ciò (a parte l'uso di driver differenti e di un chipset Nvidia al posto di Via) potrei anche cambiare idea su quello che ho scritto... ma ne dubito.
Poi per zittire qualcuno che ha abbaiato troppo, posseggo anche una 9800XT e non si avvicina neanche lontanamente alle performance della 6800GT in CANAL.
allora io ci gioco con una g4ti4200 da 64mb a 1280x1024 filtro trilineare no aa faccio 29fps
a 1024x768 ne faccio 58 (sm kt800 1gb ram ath64 3000+) quindi ne traggo ke ci gioco praticamente su tutto
^TiGeRShArK^
30-11-2004, 20:51
veramente qui ad abbaiare mi sa ke c'è solo una persona :asd:
ma come si dice:
tutto fumo e niente arrosto
can ke abbaia non morde :asd:
^TiGeRShArK^
30-11-2004, 20:54
cmq con quegli fps o stai eseguendo tutt'altro demo o non appliki i filtri...
Certo che commentare il distacco della 9800Xt:rolleyes: con la 6800Ultra crivendo...
<< La GeForce 6800 Ultra, invece, sempre nel rendering senza anisotropico e antialiasing, è allo stesso livello di una Radeon 9800 XT, mentre abilitando il rendering più complesso non riesce comunque a raggiungere la Radeon X800 PRO.>>
....senza poi aggiungere nemmeno una considerazione rigurdo a questa "strana" e "insolita cosa" mi lascia un po perplesso
:eek: :eek: .....
...nel caso poi che la 6800Ultra tramite nuovi driver ricuperi terreno tale da ribaltare la situazione rispetto la 9800Xt avvicinandosi alle X800pro e Xt la redazione non ci fa una bella figura
:tapiro:
1100000110100000
:)
swarzy85
30-11-2004, 21:15
Originariamente inviato da Ginger79
E' una vera pena!!! Non aggiungo altro... avete perso un lettore.
Ho un 2600M@3800+ con POV 6800GT@Ultra e faccio il triplo dei risultati di questi Benchmark.
Da un sito così serio non me lo aspettavo veramente. Non ci sono scuse!! Siete scesi di livello da far paura e noi lettori risponderemo di conseguenza ... VEDRETE!
Tutte le recensioni in rete e i TEST da me stesso eseguiti con i medesimi DEMO danno risultati completamente diversi.... certo è che quando si prendono sovvenzioni da ATI per dichiarare il falso mi fa veramente schifo!!
a tutti i lettori: NON SOLO VALVE E ID-SOFTWARE FANNO POLITICA DI MARKETING... ADESSO CI SI METTONO ANCHE I SITI (ITALIANI) ahahahahah!!!
Ripeto: CHE PENA.
Grazie e addio (per sempre)!!
Originariamente inviato da Ginger79
Se qualcuno è in grado di spiegarmi il xchè di tutto ciò (a parte l'uso di driver differenti e di un chipset Nvidia al posto di Via) potrei anche cambiare idea su quello che ho scritto... ma ne dubito.
Credo che questi due post stonino un pochetto.
Hai accusato PESANTEMENTE l'intero staff di hwupgrade e dovresti farti un grande esame di coscienza oltre al fatto che dovresti sapere che ognuno di noi è responsabile in prima persona di ciò che scrive e quello che tu hai riportato è DIFFAMATORIO.
Allora, se da parte tua ci fosse stata davvero la volontà di CAPIRE, non ti saresti mai permesso di tirar fuori una "perla" simile.
Forse a volte ci vorrebbe qualche querela per far capire alla gente che postare su un forum letto da migliaia di persone non vuol dire poter scrivere tutte ciò che ci viene in mente.
Chiudendo questa parentesi negativa, faccio i complimenti a Raffaele e Paolo; pochi possono immaginare quanto lavoro ci sia dietro una serie interminabile di articoli e spesso si finisce per giudicare tutto come "dovuto".
Complimenti ad entrambi per la tenacia e per la passione che vi permette di andare oltre certe provocazioni e di continuare a scrivere.
In effetti, la seconda demo ha lasciato perplesso anche me.
Anche la presenza del Volari non si capisce bene (lo sanno tutti che è un W.C. di scheda), è molto più probabile trvoare delle 8500 o 7500 e qualche Pharellia.
Boh?!
:confused:
Aristocrat74
30-11-2004, 21:53
io ho provato a fare delle prove usando fraps in un punto in cui ottengo i frame piu bassi in tutto il gioco scattando "foto" in succesione
(non ho provato la demo di HU)
il pc è quello in sign con A64 3500@2400mhz(3800+) e 6800G@ultra
non ho cercato nessuna ottimizz. ho antivirus abilitato firewall etc e la s video è impostata su "qualita alta"
con questa config:
http://net.supereva.it/aristocrat.freemail/01h2.JPG
e ho ottenuto questi frame:
http://net.supereva.it/aristocrat.freemail/02h2.JPG
http://net.supereva.it/aristocrat.freemail/03h2.JPG
http://net.supereva.it/aristocrat.freemail/04h2.JPG
http://net.supereva.it/aristocrat.freemail/05h2.JPG
basta sostituire il umero davanti ##h2.jpg fino al 17
il piu basso è stato 28....ma in media sono 40-50 fps nei punti critici ma arrivo anche a 70-90
dalla rece sembra che le geffo 6800ultra facciano 23 frame di media a quella risoluzione -_-
Dumah Brazorf
30-11-2004, 22:06
Mai visto così tanti piagnistei...
Nessuno vuole eseguire il demo utilizzato dalla redazione e postare i risultati? Perchè vi ostinate a usarne di altri?
Athlon 64 3000+
30-11-2004, 22:14
si è scatenato veramente un vero putiferio,l'unica cosa che mi ha fatto riflettere di questa recensione sembra quasi che abbia sbagliato a prendere la 6800GT invece della X800XT,dato che io ho aspettato molto più di HL2 che Doom3.
Athlon 64 3000+
30-11-2004, 22:14
si è scatenato veramente un vero putiferio,l'unica cosa che mi ha fatto riflettere di questa recensione sembra quasi che abbia sbagliato a prendere la 6800GT invece della X800XT,dato che io ho aspettato molto più di HL2 che Doom3.
Dumah Brazorf
30-11-2004, 22:24
Vedrai che in paio di release di Forceware le cose miglioreranno. ;)
Ciao.
Originariamente inviato da Dumah Brazorf
Mai visto così tanti piagnistei...
Nessuno vuole eseguire il demo utilizzato dalla redazione e postare i risultati? Perchè vi ostinate a usarne di altri?
A Me interesserebbe di più una analisi sul gioco in se non su un x timedemo.
E comunque i dubbi sono leciti.
Ciao.
Io ho un PIII a 1Ghz e una 9600XT con 256mb, ho giocato in 1024x768 con i dettagli al massimo ,AA 4x e AF 16x senza particolari problemi :)
Io ci sto giocando con un PIV 2,53 Ghz, 1 Gb ram, e una Radeon 9700 128 Mb ma ogni tanto mi fa degli scatti...non so se è il tanto lamentato shuttering...boh è come se si incantasse un attimo (anche l'audio) e poi riparte. Inoltre ho solo impostato l'AA a 1 e la risoluzione a 1024x960 o giù di lì.
Ciao
Aristocrat74
30-11-2004, 23:42
Originariamente inviato da Dumah Brazorf
Mai visto così tanti piagnistei...
Nessuno vuole eseguire il demo utilizzato dalla redazione e postare i risultati? Perchè vi ostinate a usarne di altri?
perche non ho ancora capito come far partire quei file. dem.....
ho letto un aggiungi "-consolle" ma ndove come e perche ....???
sono un lammah in ste cose :oink:
e qua nessuno frigna .... come dici .....se non avessi il pc in signi .... ma dovessi acquistare un pc ex novo...... e basarmi sui bench mi spaventerei e nn poco :eek: vedere una geffo 6800ultra fare 23 frame al secondo in media !!! :muro:
alla fine di tutto non esiste un vincitore tra ati e nvidia, se la giocano alla pari... il vero ago della bilancia lo fanno sti dannati programmatori che ottimizzano il codice per l'una o l'altra scheda.. maledetto marketing...
ho capito, mi farò una 6800 ultra e una X800 PE.. così sono a posto con tutti i giochi... :D :D :D
Ecco qualche numero per gli appassionati di bench sul mio hardware:
P4 3,0 GHz (HT attivato)
1 Gb RAM Corsair Twinx1024-3200LL
ASUS P4C800-E Deluxe (BIOS 1018)
Sapphire Radeon 9800PRO AIW 128Mb
Windows XP SP2 - ATI Catalyst 4.10
DOOM 3: timedemo demo1
[1024x768 - Alta Qualità - AA2X]
2°bench: 2148 frames in 58.3 sec = 36,9 fps
3°bench: stesso risultato.
HALF-LIFE 2: timedemo canals
[1024x768 - AA2X - AF4X - Altri Dettagli: ALTO]
2°bench: 1164 frames in 30,131 sec = 38,63 fps (+- 2,656 fps)
3°bench: 1164 frames in 30,031 sec = 38,76 fps (+- 2,614 fps)
HALF-LIFE 2: timedemo prison
[1024x768 - AA2X - AF4X - Altri Dettagli: ALTO]
2°bench: 3523 frames in 60,658 sec = 58,08 fps (+- 2,429 fps)
3°bench: 3523 frames in 60,586 sec = 58,15 fps (+- 2,401 fps)
Alcune considerazioni:
La superiorità di HL2 sulle schede ATI è evidente considerando che i Catalyst 4.10 sono già ottimizzati per D3 ma non per HL2. Sono curioso di ripetere questi bench quando saranno definitivi i 4.12.
Inoltre i bench di HL2 avevano l'AUDIO ATTIVATO, mentre in D3 l'AUDIO era DISATTIVATO.
Le impostazioni di gioco sono quelle abituali di mia preferenza: tengo l'AA2X e l'AF4X per avere un buon compromesso tra qualità visiva/frame rate.
Infine, voglio sapere chi gioca a quel modo nella "timedemo prison": sono disponibile per ripetizioni... gratis... anche a domicilio!
DANNAZIONE NON SI FA COSI'!!! ;-)
Ciao.
In DOOM 3, dal menù principale, attiva la console premendo CTRL+ALT+\ e scrivi "timedemo demo1" (senza le virgolette!)
HALF-LIFE 2 invece devi farlo partire in modalità console. Ce l'hai sul desktop l'iconcina di HL2?
Bene, fanne una copia e chiamala "Half-Life 2 console", cliccaci col tasto destro del mouse, vai su Proprietà, e sul campo Destinazione assicurati di avere una sintassi di questo tipo: "C:\Programmi\Valve\Steam\Steam.exe -applaunch 220 -console"
Ora fai doppio click sulla nuova icona e magicamente ti apparirà il solito menù principale con la console aggiuntiva dove potrai scriverci "timedemo canals" o "timedemo prison".
Dimenticavo: i files .DEM devi copiarli nella cartella "C:\Programmi\Valve\Steam\SteamApps\XXXX\half-life 2\bin" dove XXXX è il nome del tuo account Steam.
Tutto chiaro? ;-)
Ciao.
haveacigar
01-12-2004, 01:13
Originariamente inviato da Vifani
Doom III fu provato a 640x480 perchè furono considerate anche schede di fascia molto più bassa che, per forza di cose, non avrebbero mai potuto dare risultati significativi alle risoluzioni più elevate.
Il vantaggio di cui tu parli per le schede ATI è di pochissimi fps ed è presente alle basse risoluzioni perché il sistema era CPU limited. Non è un caso che quei risultati per NV40 e R420 non sono stati minimamente considerati nelle conclusioni in cui è stata, invece, ben delineata la superiorità di NV40 con quel gioco.
La prossima volta che fai un'accusa, argomentala meglio e, soprattutto, leggi gli articoli che citi invece di scrivere solo dopo aver visto i grafici.
1° in alcuni punti la differenza supera il 7-8% (parlare di pochissimi frame mi sembra un pò riduttivo)
2° presentare delle analisi a 640x480 è assolutamente inutile la maggiorparte dei monitor in commercio non permette quelle risoluzioni...forse ci gioca chi ha preso uno stargate direttamente dagli anni 80 e si presenta nel 2004 con un amiga.....
3° negli stessi commenti della recensione su doom III diversi utenti hanno mostrato delle perplessità analoghe.....che io condivido.....
4° è strano che i chiarimenti più interessanti sulle recensioni vengano fuori quando magari qualche utente esprime le sue perplessità.......
5° le mie posizioni le ho chiarite dopo aver letto palmo per palmo le vostre recensioni....quindi le tue conclusioni sono un pò ardite...
6° d'altra parte la mia non è accusa..è solo un modo divertito di esprimere una mia considerazione...se poi risulta difficile intenderla come tale posso anche assumermi la responsabilità del caso e dire che per me la redazione subisce un pò troppo il fascino di ati.....:asd:
Graphicmaniac
01-12-2004, 01:48
Ragazzi, guardate questi link:
http://forums.guru3d.com/showthread.php?s=46f0214c92a72b73662f13583d557a84&threadid=115614&perpage=10&pagenumber=1
http://www.hardforum.com/showpost.php?p=1026929557&postcount=9
http://www.beyond3d.com/forum/viewtopic.php?t=18604
http://www.nvnews.net/vbulletin/showthread.php?t=41625
http://forums.nvidia.com/index.php?showtopic=233
come vedete in molti forum online si sta diffondendo la voce che l'accordo ATI&Valve abbia penalizzato oltremodo i possessori di schede Nvidia facendo si che questi ultimi usassero SEMPRE fp32 quando invece il gioco era stato appositamente creato per girare con fp24 e sebbene in molti casi (ovvio non tutti) si potessero utilizzare gli fp16 senza o con pochissima perdita di dettaglio ma con un aumento notevole delle prestazioni.
Si mormora anche che nel caso dei chip nv4x il gioco le riconosca usando un path per R300 ...
intanto vi invito a votare questa petizione online, se non volete farlo per partigianeria almeno fatelo all'insegna della correttezza per lasciare gli utenti nvidia, in particolare quelli con geforce fx, libero di usare fp32 o fp16 a piacimento, il che per gli utenti di FX farebbe la differenza tra il giocabile e l'ingiocabile ...
il sito è questo:
http://www.petitiononline.com/nvidiafx/petition.html
Non vi sembra che quella riflessione sia un po' eccessiva...come se in quei canali ci posse l'acqua minerale invece del motricchio...
ImperatoreNeo
01-12-2004, 08:06
"Io ci sto giocando con un PIV 2,53 Ghz, 1 Gb ram, e una Radeon 9700 128 Mb ma ogni tanto mi fa degli scatti...non so se è il tanto lamentato shuttering...boh è come se si incantasse un attimo (anche l'audio) e poi riparte. Inoltre ho solo impostato l'AA a 1 e la risoluzione a 1024x960 o giù di lì."
Già... se vai a qualche comemnto prima vedrai che sono stati tutti a dirmi che "io con CPU.. e RAM.. e ATI o NVIDIA .. va tutto bene!!"
Il succo di tutte le discussioni è che la demo è una cagata pazzesca!
Il test va fatto, anche per rispetto di chi lo ha comprato sul gioco vero e proprio e non su demo confezionati ad hoc dalle amiche del cuore ATI&VALVE!
Originariamente inviato da haveacigar
1° in alcuni punti la differenza supera il 7-8% (parlare di pochissimi frame mi sembra un pò riduttivo)
2° presentare delle analisi a 640x480 è assolutamente inutile la maggiorparte dei monitor in commercio non permette quelle risoluzioni...forse ci gioca chi ha preso uno stargate direttamente dagli anni 80 e si presenta nel 2004 con un amiga.....
3° negli stessi commenti della recensione su doom III diversi utenti hanno mostrato delle perplessità analoghe.....che io condivido.....
4° è strano che i chiarimenti più interessanti sulle recensioni vengano fuori quando magari qualche utente esprime le sue perplessità.......
5° le mie posizioni le ho chiarite dopo aver letto palmo per palmo le vostre recensioni....quindi le tue conclusioni sono un pò ardite...
6° d'altra parte la mia non è accusa..è solo un modo divertito di esprimere una mia considerazione...se poi risulta difficile intenderla come tale posso anche assumermi la responsabilità del caso e dire che per me la redazione subisce un pò troppo il fascino di ati.....:asd:
La differenza del 7-8% è comunque in una situazione CPU limited. Sai che cosa significa questo? Significa che quei risultati non sono da considerarsi per la valutazione di una scheda video. Se poi tu li vuoi considerare a tutti i costi allora vuol dire che tu vuoi per forza sottolineare un qualcosa di non significativo pur di mettere in cattiva luce l'attendibilità dei risultati.
Doom III è un gioco che per sua natura non soffre del problema di aliasing in modo marcato e pertanto moltissima gente ha giocato a risoluzioni più basse di 1024x768. Se il tuo monitor è un LCD e/o non ci giochi a 640x480 è un problema che non mi riguarda.
E' strano che i commenti denigratori vengano sempre da parte dei possessori delle schede video che non mostrano risultati esaltanti all'interno di un articolo, non ti pare? La realtà è che i possessori di NV40 non vogliono accettare che con HL2 la loro scheda va peggio di R420. Per carità è umano sentirsi bruciare dentro di fronte a questi risultati dopo aver speso cifre considerevoli (magari si era indecisi tra NV40 e R420), ma ciò non giustifica minimamente il comportamento di scetticismo che si è creato. La realtà è quella mostrata in questa sede ed in tutti gli altri articoli su HL2: NV40 va peggio di R420 con questo titolo. Punto. Il resto sono solo chiacchiere.
Questa situazione è un'ulteriore riprova del fatto che il confronto tra NV40 e R420 non vede un reale vincitore in senso assoluto. Esistono casi che vedranno NV40 in vantaggio (vedi Doom III) e altri che vedranno R420 in vantaggio (vedi HL2). Non accettare questo fatto significa semplicemente negare la realtà.
Originariamente inviato da ImperatoreNeo
Il test va fatto, anche per rispetto di chi lo ha comprato sul gioco vero e proprio e non su demo confezionati ad hoc dalle amiche del cuore ATI&VALVE!
Ripeto per l'ennesima volta: le demo usate non sono state fatte nè da Valve, nè da ATI.
Dumah Brazorf
01-12-2004, 08:12
Scusa eh, se io ho una Radeon 8500 a 1280x1024 non giocherò mai a Doom3, ancora ancora a 800x600.
Che a quelle risoluzioni si poteva evitare di inserire i risultati di R420 e Nv40 ci può stare ma come detto da Vifani alcuni post indietro non sono stati presi in considerazione per il commento finale che è stato nettamente favorevole alle Geforce.
La recensione di Doom3 è stata redatta in un periodo relativamente calmo, cosa che ha concesso di testare molte schede video, qui i tempi erano + stringati così c'è qualche scheda in meno, ma non poi molte.
Personalmente non ho problemi se la serie FX utilizzerà in HL2 il FP16 ma se si è arrivati a questo la colpa è solo nell'architettura sbagliata di Nv3x.
Ciao.
Athlon 64 3000+
01-12-2004, 08:40
Io non posso negare che quando ho letto e visto i grafici w vedere andare così male la mia 6800GT mi ha fatto parecchio incavolare. Ma non voglio fare polemica perchè sarebbe solo sprecare del fiato,dato che mi successe anche con Doom 3 e avevo la 9800Pro,vedere la mia schede che sembrava fosse diventata vecchia non mi è piaciuto molto.
Ragzzi però vedere la 6800Ultra sotto la 9800XT non credo che sia una cosa molto normale.
Dumah Brazorf
01-12-2004, 08:48
Non so se in questo thread è già stato detto, ecco il trick per Abilitare il FP16 nelle DX9 con Nv3x copiato/incollato da un newsgroup:
- Scarichi 3D-Analyze v. 2.26:
http://www.3dfxzone.it/dir/tools/emutnl.htm
- Decomprimi ed esegui il programma.
- Nel campo [1] selezioni il file HL2.exe nella directory in cui hai
installato il gioco
- Nel campo [2] selezioni la sotto-directory \bin della directory in cui
hai installato il gioco
- Nel campo [3] selezioni Steam.exe
- Abilita poi le seguenti opzioni:
* Nella sezione "Pixel and Vertex Shader": FORCE LOW PRECISION PIXEL
SHADER
* Nella sezione "Remove sluttering": PERFORMANCE MODE
* Nel bos in basso a sinistra: FORCE HOOK.DLL
- Nel campo VendorID metti: 4098
- Nel campo DeviceID metti: 20040
Esegui il gioco da 3D-Analyze o crei un file bat (tasto in fondo al
programma).
Nelle opzioni, va nella sezione video/avanzate e verifichi l'utilizzo
delle DX9... metti tutto al max (riflessi inclusi) e goditi la differenza.
Certo che questo gioco sembra un techdemo di ATI:
- NV35 che in modalita' DX9 va' anche 3 volte piu' piano del 9600 XT (canals) e 5 volte piu' piano del 9800 pro mi sembra eccessivo;
- NV40 che quando c'e' l'acqua va' alla meta di R420
Ovviamente c'e' qualche cosa che non va'.
Come si fa a paragonare i risultati negativi di nvidia su hl2 con i risultati negativi di ati su d3? Le differenza di prestazioni sono nettamente diverse.
Cosa avrebbero detto i possessori di Ati se avessero visto la loro X800XT sotto una 5900 ultra?
Poi un' altra considerazione. La recensione serve a vedere come si comporta una vga con questo gioco. Che senso ha proporre come metro di valutazione la situazione dove uno dei 2 concorrenti soffre di più? Per essere più corretti possibile, e fare una valutazione più imparziale, bisognerebbe fare 5 o 6 demo differenti (come fatto su farcry a suo tempo), eliminare il risultato migliore e quello peggiore di ogni scheda, e quindi fare la media dei risultati rimanenti. Questo darebbe un quadro mooolto più generale della situazione.
In ogni caso concordo anch'io con quell'utente che dice che è strano che ragazzi competenti come voi di hwupgrade non si siano chiesti in sede di recensione e commenti finali, come sia possibile tecnicamente che una 6800 ultra vada 5 volte più lenta di una 9800XT. C'è una spiegazione logica?
ciao
DevilsAdvocate
01-12-2004, 09:47
A me sembra che Valve abbia trovato il modo perfetto
di compiacere ATI (semplicemente ottimizzando il piu'
possibile per ATI e "ostacolando" le Nvidia...).
Per di piu' grazie a "Steam" potrebbero trovare anche il
modo di impedire l'uso di "patch" casalinghe, per
non dire che, a seconda della licenza, visto che
possono controllare le installazioni da remoto,
potrebbero pure denunciare chi cerca di usare patch
particolari. (Ricordo a tutti che il reverse
engineering e' vietato nel 99,99% delle licenze
commerciali...)
halduemilauno
01-12-2004, 10:05
Originariamente inviato da Vifani
La differenza del 7-8% è comunque in una situazione CPU limited. Sai che cosa significa questo? Significa che quei risultati non sono da considerarsi per la valutazione di una scheda video. Se poi tu li vuoi considerare a tutti i costi allora vuol dire che tu vuoi per forza sottolineare un qualcosa di non significativo pur di mettere in cattiva luce l'attendibilità dei risultati.
Doom III è un gioco che per sua natura non soffre del problema di aliasing in modo marcato e pertanto moltissima gente ha giocato a risoluzioni più basse di 1024x768. Se il tuo monitor è un LCD e/o non ci giochi a 640x480 è un problema che non mi riguarda.
E' strano che i commenti denigratori vengano sempre da parte dei possessori delle schede video che non mostrano risultati esaltanti all'interno di un articolo, non ti pare? La realtà è che i possessori di NV40 non vogliono accettare che con HL2 la loro scheda va peggio di R420. Per carità è umano sentirsi bruciare dentro di fronte a questi risultati dopo aver speso cifre considerevoli (magari si era indecisi tra NV40 e R420), ma ciò non giustifica minimamente il comportamento di scetticismo che si è creato. La realtà è quella mostrata in questa sede ed in tutti gli altri articoli su HL2: NV40 va peggio di R420 con questo titolo. Punto. Il resto sono solo chiacchiere.
Questa situazione è un'ulteriore riprova del fatto che il confronto tra NV40 e R420 non vede un reale vincitore in senso assoluto. Esistono casi che vedranno NV40 in vantaggio (vedi Doom III) e altri che vedranno R420 in vantaggio (vedi HL2). Non accettare questo fatto significa semplicemente negare la realtà.
A mio modesto avviso le cose non stanno come dici Tu. Nel tono e nella sostanza.
In tutti i casi buon lavoro.
Ciao.
;)
Originariamente inviato da johnson
Come si fa a paragonare i risultati negativi di nvidia su hl2 con i risultati negativi di ati su d3? Le differenza di prestazioni sono nettamente diverse.
Cosa avrebbero detto i possessori di Ati se avessero visto la loro X800XT sotto una 5900 ultra?
Poi un' altra considerazione. La recensione serve a vedere come si comporta una vga con questo gioco. Che senso ha proporre come metro di valutazione la situazione dove uno dei 2 concorrenti soffre di più? Per essere più corretti possibile, e fare una valutazione più imparziale, bisognerebbe fare 5 o 6 demo differenti (come fatto su farcry a suo tempo), eliminare il risultato migliore e quello peggiore di ogni scheda, e quindi fare la media dei risultati rimanenti. Questo darebbe un quadro mooolto più generale della situazione.
In ogni caso concordo anch'io con quell'utente che dice che è strano che ragazzi competenti come voi di hwupgrade non si siano chiesti in sede di recensione e commenti finali, come sia possibile tecnicamente che una 6800 ultra vada 5 volte più lenta di una 9800XT. C'è una spiegazione logica?
ciao
Veramente con Far Cry abbiamo utilizzato due mappe, così come per Half-Life 2. Quindi il discorso delle 5 o 6 mappe te lo sei completemente inventato.
Inoltre da quando se una scheda va peggio o meglio di un'altra dobbiamo eliminare tale risultato? Questo mi sembra un comportamento del tutto imparziale. I risultati si riportano tutti, per quanto possano non garbarvi. Il perché di quei risultati è stato spiegato ed è legato alle diverse architetture dei processori grafici e agli shader fatti in HL2 che, evidentemente, vanno meglio sulle schede Radeon. Del resto anche il sistema di ombre di Doom III è congeniale all'architettura di NV40. Che queste scelte siano state fatte per motivi di marketing, per scarsa voglia da parte dei programmatori di ottimizzare gli shader per ogni architettura, ecc... non mi interessa minimamente. I risultati sono quelli e, specie per giochi così attesi e così giocati, non possono che essere presi in considerazione per la valutazione delle schede video almeno nella stessa misura dei risultati ottenuti con altri giochi. Se verranno rilasciate patch e/o nuovi driver che cambieranno significativamente tale quadro, le novità verranno riportate nei prossimi articoli. Fino ad allora la situazione è questa.
Un'ultima cosa. Ti sei inventato anche il fatto che la 6800 Ultra va 5 volte meno veloce di una 9800XT: non accade mai nel nostro articolo. Ma sei sicuro di star parlando di questo articolo e/o di questo gioco?
Sul discorso di farcry mi ricordavo una recensione che evidentemente non avete fatto voi, da quello che mi dici. La sotanza del discorso non cambia, vi invito a prendere in considerazione tale ipotesi ugualmente, anche se non l'avete mai presa in considerazione precedentemente con altre recensioni.
Il mio discorso non è eliminate i test dove la scheda per cui tifo va male (per altro ho una 9800pro). Io dico, qual'è la funzione di una recensione di questo tipo? Secondo me è far capire ai lettori come si comportano le vga in questo gioco. Prendendo 2 demo, una delle quali rispecchia forse la situazione più critica per le schede nvidia, non si da una valutazione globale e imparziale. Dai vostri test sembra che le 6800 vadano come delle 9800XT e questo non è assolutamente vero, come dimopstrano i tanti lettori con 6800 che fanno esperienze diverse con i propri sistemi.
Il 6800 ultra hai ragione, va come una 9800 xt e va la metà della x800xt nella demo canals. Ho esagerato, non ricordavo a memoria il grafico, ma la sostanza dei fatti non cambia, sono risultati che dovrebbero farvi ragionare.
Non mi pare che farcry abbia tanti meno shader di hl2, eppure non c'è questa differenza di prestazioni tra ati e nvidia. Qui c'è qualcosa che va oltre le solite ottimizazioni...
...continuo a vedere che alcuni fanboy si rifiutano di accettare un risultato previsto... cmq, dato che continuate con accuse al limite del ridicolo, vuol dire che non avete bene letto il thread che vi ho linkato qualche post fa...
...considerato che sono quasi sicuro che non avrete voglia di leggere tutte quelle pagine molto chiare sul xè di questi risultati, vi copio incollo una sola domanda/risposta:
Domanda:
E come mai spiegi delle prestazioni così scadenti con L'NV40?
Ci macherebbe che abbia sbagliato a prendere la 6800GT,forse era meglio prendere la X800XT?
Risposta di "Fek" (per chi non lo sapesse "3D Programmer, Black&White Studios, Lionhead"):
non è che le prestazioni con NV40 siano scadenti; Nv40 ha dei limiti, così come R420; uno shader piuttosto complesso che prevede l'utilizzo contemporaneo di texture fetch e di calcoli alu penalizza NV40 in misura maggiore di quanto non faccia con R420: questo perchè NV40 ha ereditato (unico aspetto negativo) la dipendenza prima fpu e tmu; questo significa che la prima unità di calcolo di NV40 è in grado di eseguire sia calcoli matematici che operazioni sulle texture, però non tutti e due nello stesso ciclo. Al contrario, R420, come anche R300, hanno alu e tmu separate, perciò hanno la possibilità di eseguire entrambi i tipi di calcolo nello stesso ciclo. Evidentemente gli algoritmi di illuminazione e quello relativo all'acqua (riflessioni, rifrazioni, ecc) sono tra i più complessi di HL2 e sono tra quelli in cui sono richieste texture fetch e operazioni matematiche in contemporanea: in questo tipo di calcoli sono avvantaggiati i chip ATi (prprio a livello di numero di istruzioni per ciclo, quindi indipendentemente dalla frequenza di lavoro). Non è un caso che le prestazioni peggiori, NV40 le mostri nella mappa "canals". Non è da escudere che, nei prossimi mesi, i tecnici nVIDIA lavoreranno sul riordino delle istruzioni per cercare di minimizzare il gap dovuto alla dipendenza delle unità di calcolo.
Diciamo che nel progettare il loro engine, quelli di Valve si sono preoccupati poco dell'architettura dei chip NV (come del resto ha fatto Carmack con Doom3 e i chip ATi); quindi stai tranquillo: hai fatto un buon acquisto, come lo avresti fatto se avessi preso una vga con R420.
...mi sembra chiaro, no???
...nel thread cmq si parla soprattutto della scadenti prestazioni di Nv3*, riscontrate in TUTTE le recensioni presenti nel web...
...nella mappa Canals 09, qualunque recensione andiate a leggere troverete gli stessi risultati di hwupgrade.
...ciao!
halduemilauno
01-12-2004, 10:40
Originariamente inviato da belin
...nella mappa Canals 09, qualunque recensione andiate a leggere troverete gli stessi risultati di hwupgrade.
...ciao!
allora rimaniamo in attesa di Forceware anti famigerata mappa Canals 09.
:D
Athlon 64 3000+
01-12-2004, 10:54
Originariamente inviato da belin
...continuo a vedere che alcuni fanboy si rifiutano di accettare un risultato previsto... cmq, dato che continuate con accuse al limite del ridicolo, vuol dire che non avete bene letto il thread che vi ho linkato qualche post fa...
...considerato che sono quasi sicuro che non avrete voglia di leggere tutte quelle pagine molto chiare sul xè di questi risultati, vi copio incollo una sola domanda/risposta:
Domanda:
E come mai spiegi delle prestazioni così scadenti con L'NV40?
Ci macherebbe che abbia sbagliato a prendere la 6800GT,forse era meglio prendere la X800XT?
Risposta di "Fek" (per chi non lo sapesse "3D Programmer, Black&White Studios, Lionhead"):
non è che le prestazioni con NV40 siano scadenti; Nv40 ha dei limiti, così come R420; uno shader piuttosto complesso che prevede l'utilizzo contemporaneo di texture fetch e di calcoli alu penalizza NV40 in misura maggiore di quanto non faccia con R420: questo perchè NV40 ha ereditato (unico aspetto negativo) la dipendenza prima fpu e tmu; questo significa che la prima unità di calcolo di NV40 è in grado di eseguire sia calcoli matematici che operazioni sulle texture, però non tutti e due nello stesso ciclo. Al contrario, R420, come anche R300, hanno alu e tmu separate, perciò hanno la possibilità di eseguire entrambi i tipi di calcolo nello stesso ciclo. Evidentemente gli algoritmi di illuminazione e quello relativo all'acqua (riflessioni, rifrazioni, ecc) sono tra i più complessi di HL2 e sono tra quelli in cui sono richieste texture fetch e operazioni matematiche in contemporanea: in questo tipo di calcoli sono avvantaggiati i chip ATi (prprio a livello di numero di istruzioni per ciclo, quindi indipendentemente dalla frequenza di lavoro). Non è un caso che le prestazioni peggiori, NV40 le mostri nella mappa "canals". Non è da escudere che, nei prossimi mesi, i tecnici nVIDIA lavoreranno sul riordino delle istruzioni per cercare di minimizzare il gap dovuto alla dipendenza delle unità di calcolo.
Diciamo che nel progettare il loro engine, quelli di Valve si sono preoccupati poco dell'architettura dei chip NV (come del resto ha fatto Carmack con Doom3 e i chip ATi); quindi stai tranquillo: hai fatto un buon acquisto, come lo avresti fatto se avessi preso una vga con R420.
...mi sembra chiaro, no???
...nel thread cmq si parla soprattutto della scadenti prestazioni di Nv3*, riscontrate in TUTTE le recensioni presenti nel web...
...nella mappa Canals 09, qualunque recensione andiate a leggere troverete gli stessi risultati di hwupgrade.
...ciao!
Hai quotato proprio la domanda che avevo fatto io in un'altra discussione.
La ho fatta per farmi spiegare il prechè andasse così male L'NV40.
Naturalmente non sono un fan boy ne di Ati e Nvidia perchè fino a 2 settimane fà ho avuto la 9800Pro.E poi riguardo le nv3x con HL2 è venuto fuori come sempre che la loro architettura è sempre stata scande nel utitilizzo di calcoli in fp.
Athlon 64 3000+
01-12-2004, 10:55
Originariamente inviato da halduemilauno
allora rimaniamo in attesa di Forceware anti famigerata mappa Canals 09.
:D
Tu che ne pensi dell'andamento dell'NV40 nel demo canals?
Originariamente inviato da Athlon 64 3000+
Hai quotato proprio la domanda che avevo fatto io in un'altra discussione.
La ho fatta per farmi spiegare il prechè andasse così male L'NV40.
Naturalmente non sono un fan boy ne di Ati e Nvidia perchè fino a 2 settimane fà ho avuto la 9800Pro.
...si si infatti fanboy non era riferito a te! ;) (lo so che avevi una 9800pro!)
...ho utilizzato la tua domanda e relativa completa risposta di Fek, per far capire ad alcuni fanboy il xè di certi risultati.
...ciao!
belin: allora sulla base di queste considerazioni fatte da fek, risulta che come prestazioni generali, è molto meglio una scheda ATI che non una NVIDIA.
Nel senso che, valutando le 2 concorrenti sui 2 campi dove riescono peggio (d3 per le ati e hl2 per nvidia), risalta all'occhio che ATI riesce a compensare alle ottimizazioni particolari di carmack per nvidia, in quanto perde pochissimo rispetto alla concorrente. Non si può dire altrettanto di nvidia, la quale con applicazioni che la mettono sotto, subisce pesanti perdite a livello di frame rate.
Mi viene spontanea la conclusione che se uno cerca un buon frame rate su tutti i giochi gli conviene scegliere ATI, se uno chiede il max da tutto ma è pronto anche a beccarsi minimi da brivido, allora è meglio nvidia.
...tutto questo ovviamente potrebbe essere smentito dai nuovi forceware.
Originariamente inviato da johnson
Mi viene spontanea la conclusione che se uno cerca un buon frame rate su tutti i giochi gli conviene scegliere ATI, se uno chiede il max da tutto ma è pronto anche a beccarsi minimi da brivido, allora è meglio nvidia.
...tutto questo ovviamente potrebbe essere smentito dai nuovi forceware.
...d'accordo al 100% con te.
...ciao!
^TiGeRShArK^
01-12-2004, 11:20
secondo me le due skede sono assolutamente equivalenti..... non dimenticate ke nvidia ha avuto poco tempo x lavorare sui driver di hl2.
Infatti pure ati inizialmente aveva prestazioni molto + basse in doom 3.
Si deve però vedere se i tecnici di nvidia riusciranno a colmare questo gap.... e ora come ora è un pò troppo presto x parlarne....
Cmq come ho già detto + volte IMHO la serie NVx non è neanke lontanamente paragonabile a R300 sui pixel shader 2.0. Invece con NV40 si ha un sostanziale allineamento delle prestazioni con la serie R420.
In alcune situazioni è avvantaggiata r420, in altre nv40....
ma mi pare inutile mettersi a fare inutili polemiche su come sono svolti dei test in redazione solo perchè si è possessori di una skeda di una o dell'altra marca e non è sempre al top come si vorrebbe :rolleyes:
ma le polemiche non sono in funzione della scheda che si ha nel pc, almeno non da parte mia.
Però non è vero che il gap di ati prima del cambio driver era della stessa entità di nvidia. La x800XT in d3 non è mai stata allineata ad una 5950 ultra come prestazioni, mentre le 6800 ultra sono allo stesso livello di una 9800xt su hl2. Per questo motivo siamo rimasti tutti a bocca aperta... Se la ultra fosse stata allineata con la x800pro, probabilmente i commenti sarebbero stati solamente "aspettiamo i driver nuovi", ma visto che è allineata alla 9800xt allora sembra che ci sia qualcosa di strano.
Non cambio assolutamente idea sui bench per valutare una vga. Alle olimpiadi gli arbitri votano, poi si tolgono il voto piu alto e quello piu basso e si fa una media dei rimanenti per avere un giudizio medio sulla prestazione dell'atleta, per evitare che un voto troppo alto o troppo basso possa influire troppo sulla valutazione generale. E ovvio che se ci fossero 2 arbitri soltanto (2 bench demos in questo caso) questa cosa non è fattibile. Ma se facessimo più test, allora sarebbe abbastanza semplice.
ciao
Athlon 64 3000+
01-12-2004, 11:41
Originariamente inviato da ^TiGeRShArK^
secondo me le due skede sono assolutamente equivalenti..... non dimenticate ke nvidia ha avuto poco tempo x lavorare sui driver di hl2.
Infatti pure ati inizialmente aveva prestazioni molto + basse in doom 3.
Si deve però vedere se i tecnici di nvidia riusciranno a colmare questo gap.... e ora come ora è un pò troppo presto x parlarne....
Cmq come ho già detto + volte IMHO la serie NVx non è neanke lontanamente paragonabile a R300 sui pixel shader 2.0. Invece con NV40 si ha un sostanziale allineamento delle prestazioni con la serie R420.
In alcune situazioni è avvantaggiata r420, in altre nv40....
ma mi pare inutile mettersi a fare inutili polemiche su come sono svolti dei test in redazione solo perchè si è possessori di una skeda di una o dell'altra marca e non è sempre al top come si vorrebbe :rolleyes:
Ti do ragione.
C'è anche da dire le prestazioni di NV40 e R420 dipendono in un gioco da che tecniche di programmazione vengono usate,che tipi di istruzioni VS e PS vengono usate e se si usano caretteristiche di una scheda o l'altra.
halduemilauno
01-12-2004, 11:56
Originariamente inviato da Athlon 64 3000+
Tu che ne pensi dell'andamento dell'NV40 nel demo canals?
l'andamento è sotto gli occhi di tutti. io credo che quel demo sia stato fatto apposta per ottenere quello che ha ottenuto.
;)
IndieRock
01-12-2004, 12:38
ciao ragazzi, scusate l'OT, ma per migliorare le prestazioni dei videogame ho visto che nei sistemi che utilizzano filesystem NTFS tutto migliora ENORMEMENTE se si riesce a modificare la dimensione dei cluster del HDD a 64 KB (il valore predefinito è 4 KB), c'è un modesto problema di perdita di spazio utile, ma dopo il pc davvero cambia marcia. Con Doom3 ad esempio scattava sempre ed ovunque...dopo la modifica non c'è più nemmeno il minimo tentennamento. per eseguirla si può usare partition magic.
Per quanto riguarda half life 2 gioco fluidamente senza scatti a 1024x768 tutto al max con AF2x e senza AA, nemmeno nello scenario dell'overcraft quando ti lanciano le mine.
P.S. la mia configurazione è athlonXP 2400@2250 MHz, 1 GB Ram, Radeon9800 Pro 128 MB, Abit AN7. ciao a tutti!
Originariamente inviato da johnson
ma le polemiche non sono in funzione della scheda che si ha nel pc, almeno non da parte mia.
Però non è vero che il gap di ati prima del cambio driver era della stessa entità di nvidia. La x800XT in d3 non è mai stata allineata ad una 5950 ultra come prestazioni, mentre le 6800 ultra sono allo stesso livello di una 9800xt su hl2. Per questo motivo siamo rimasti tutti a bocca aperta... Se la ultra fosse stata allineata con la x800pro, probabilmente i commenti sarebbero stati solamente "aspettiamo i driver nuovi", ma visto che è allineata alla 9800xt allora sembra che ci sia qualcosa di strano.
Mi sta benissimo che si sia rimasti a bocca aperta. Pensate che non sia successa la stessa cosa a me quando ho fatto i benchmark? Nel corso dei benchmark + di una volta parlando con Paolo ho detto: diavolo però come è possibile che vanno così male, è pazzesco.
Non mi sta bene però che ci siano dubbi sull'imparzialità dei test. Le demo sono state scelte in base principalmente ad un andamento: dovevano essere non CPU limited. Questo viene fatto sempre, anche con Far Cry è stato fatto. Canals rispetto a prison ha due cose in più:
1) E' meno CPU limited;
2) Usa lo shader dell'acqua.
Ora se NV40 va così male in queste condizioni, io che ci posso fare? E' così e basta. Bisogna accettarlo e capirne i motivi, non gridare allo scandalo e puntare il dito su qualcuno.
Non cambio assolutamente idea sui bench per valutare una vga. Alle olimpiadi gli arbitri votano, poi si tolgono il voto piu alto e quello piu basso e si fa una media dei rimanenti per avere un giudizio medio sulla prestazione dell'atleta, per evitare che un voto troppo alto o troppo basso possa influire troppo sulla valutazione generale. E ovvio che se ci fossero 2 arbitri soltanto (2 bench demos in questo caso) questa cosa non è fattibile. Ma se facessimo più test, allora sarebbe abbastanza semplice.
ciao
La valutazione delle schede video fatta da noi ovviamente non si baserà solo sui risultati di Half-Life 2, ma sull'insieme dei risultati ottenuti con diversi benchmark tra cui Half-Life 2. Esattamente come per le schede ATI in cui Doom III incide negativamente, per quelle NVIDIA Half-Life 2 inciderà negativamente. Alla fine il comportamento medio sarà valutato, non quello specifico di un particolare benchmark.
Questo articolo è dedicato solo ad Half-Life 2, ma di certo non penso sia scritto "non comprate NV40 perché con HL2 va male" (idem per le ATI all'epoca di Doom III). E' una semplice analisi delle prestazioni delle schede video con questo gioco.
leoneazzurro
01-12-2004, 12:40
Originariamente inviato da belin
...continuo a vedere che alcuni fanboy si rifiutano di accettare un risultato previsto... cmq, dato che continuate con accuse al limite del ridicolo, vuol dire che non avete bene letto il thread che vi ho linkato qualche post fa...
...considerato che sono quasi sicuro che non avrete voglia di leggere tutte quelle pagine molto chiare sul xè di questi risultati, vi copio incollo una sola domanda/risposta:
Domanda:
E come mai spiegi delle prestazioni così scadenti con L'NV40?
Ci macherebbe che abbia sbagliato a prendere la 6800GT,forse era meglio prendere la X800XT?
Risposta di "Fek" (per chi non lo sapesse "3D Programmer, Black&White Studios, Lionhead"):
non è che le prestazioni con NV40 siano scadenti; Nv40 ha dei limiti, così come R420; uno shader piuttosto complesso che prevede l'utilizzo contemporaneo di texture fetch e di calcoli alu penalizza NV40 in misura maggiore di quanto non faccia con R420: questo perchè NV40 ha ereditato (unico aspetto negativo) la dipendenza prima fpu e tmu; questo significa che la prima unità di calcolo di NV40 è in grado di eseguire sia calcoli matematici che operazioni sulle texture, però non tutti e due nello stesso ciclo. Al contrario, R420, come anche R300, hanno alu e tmu separate, perciò hanno la possibilità di eseguire entrambi i tipi di calcolo nello stesso ciclo. Evidentemente gli algoritmi di illuminazione e quello relativo all'acqua (riflessioni, rifrazioni, ecc) sono tra i più complessi di HL2 e sono tra quelli in cui sono richieste texture fetch e operazioni matematiche in contemporanea: in questo tipo di calcoli sono avvantaggiati i chip ATi (prprio a livello di numero di istruzioni per ciclo, quindi indipendentemente dalla frequenza di lavoro). Non è un caso che le prestazioni peggiori, NV40 le mostri nella mappa "canals". Non è da escudere che, nei prossimi mesi, i tecnici nVIDIA lavoreranno sul riordino delle istruzioni per cercare di minimizzare il gap dovuto alla dipendenza delle unità di calcolo.
Diciamo che nel progettare il loro engine, quelli di Valve si sono preoccupati poco dell'architettura dei chip NV (come del resto ha fatto Carmack con Doom3 e i chip ATi); quindi stai tranquillo: hai fatto un buon acquisto, come lo avresti fatto se avessi preso una vga con R420.
...mi sembra chiaro, no???
...nel thread cmq si parla soprattutto della scadenti prestazioni di Nv3*, riscontrate in TUTTE le recensioni presenti nel web...
...nella mappa Canals 09, qualunque recensione andiate a leggere troverete gli stessi risultati di hwupgrade.
...ciao!
Ma ad esempio io non ho parlato affatto del divario tra X800 e 6800, che esiste ed è normale che esista. L'assurdo è vedere una 9800 XT andare più di una 6800 Ultra. Diamine, si sta parlando pure di una scheda che ha il doppio delle pipelines rispetto alla 9800XT (non certo la metà come nel caso delle 5900), il doppio del fill rate, più del 30% di banda in più e potenza PS 2.0 da vendere. Mi aspetto che sia penalizzata dall'ordine delle istruzioni di shader non consono, e che vada il 20-25% in meno delle X800, ad esempio.
Non che vada meno della metà. Non che vada meno di una 9800 XT in quei frangenti. QUESTA è una domanda (tecnica) che non mi sembra si possa liquidare con facilità. A me poi di HL2 poco mi importa, come non me ne importa nulal di DOOM 3 (io per esempio gli FPS li odio visceralmente), ma mi interessa il discorso tecnico.
Se non ricordo male una discussione con Yossarian, si parlava del fatto che per determinate operazioni la X800 Pro andasse (relativamente poco) meglio di una 6800 Ultra. Ma di certo il paragone 9800-6800 Ultra non si poneva neppure. Invece...
Originariamente inviato da halduemilauno
l'andamento è sotto gli occhi di tutti. io credo che quel demo sia stato fatto apposta per ottenere quello che ha ottenuto.
;)
Mi dispiace molto che tu pensi questo HAL. Ho già spiegato su che base sono state scelte le demo (non devono essere CPU limited) e sono molto dispiaciuto che la tua opinione si sia ridotta a quella di un fanboy.
Se NV3x e 4x vanno molto male in questo gioco e specie nelle zone dove c'e' l'acqua la colpa non e' di hardware upgrade, che giustamente pubblica i risultati che ottiene, il problema e' che il Source e' stato probabilmente scritto pensando ai radeon. Io non credo che per ottenere quell'effetto sull'acqua ci sia un solo modo possibile, probabilmente con un po' di tempo / voglia uno shader meglio digeribile per i geforce l'avrebbero trovato. D'altronde anche in FarCry c'e' l'acqua e mi pare che le due famiglie di GPU piu' o meno sono allo stesso livello.
halduemilauno
01-12-2004, 13:01
Originariamente inviato da Vifani
Mi dispiace molto che tu pensi questo HAL. Ho già spiegato su che base sono state scelte le demo (non devono essere CPU limited) e sono molto dispiaciuto che la tua opinione si sia ridotta a quella di un fanboy.
e io sono dispiaciuto del tuo dispiacere. qui non si tratta di essere o non essere. per me la valve ha fatto un demo sotto commissione. l'unione tra valve e ati a quanto pare è di gran lunga più stretta e attiva di quanto è quella che c'è tra la nVidia e la ID. e il risultato è perfetto.
questo è quello che appare ai miei occhi. non posso spiegarla altrimenti visto che l'architettura delle NV40 è giudicata ottima da tutti. una differenza certo che ci può stare(quella non è in discussione)ma a questi livelli no. proprio no. quindi sono autorizzato a pensare a un prodotto bello che preconfezionato, bello che fatto apposta.
e se tu pensi che la mia opinione in qualche maniera coinvolge la vostra onestà sei completamente fuori strada. mai pensato.
tutto qui.
di nuovo buon lavoro.
ciao.
;)
Originariamente inviato da halduemilauno
e io sono dispiaciuto del tuo dispiacere. qui non si tratta di essere o non essere. per me la valve ha fatto un demo sotto commissione. l'unione tra valve e ati a quanto pare è di gran lunga più stretta e attiva di quanto è quella che c'è tra la nVidia e la ID. e il risultato è perfetto.
questo è quello che appare ai miei occhi. non posso spiegarla altrimenti visto che l'architettura delle NV40 è giudicata ottima da tutti. una differenza certo che ci può stare(quella non è in discussione)ma a questi livelli no. proprio no. quindi sono autorizzato a pensare a un prodotto bello che preconfezionato, bello che fatto apposta.
e se tu pensi che la mia opinione in qualche maniera coinvolge la vostra onestà sei completamente fuori strada. mai pensato.
tutto qui.
di nuovo buon lavoro.
ciao.
;)
Forse avevo frainteso :)
Beh non ci resta che :cincin:
halduemilauno
01-12-2004, 13:24
Originariamente inviato da Vifani
Forse avevo frainteso :)
Beh non ci resta che :cincin:
non forse. avevi frainteso. ma il chiarimento c'è stato. perfetto.
certo.
:cincin:
Athlon 64 3000+
01-12-2004, 13:45
Il problema della demo canals con le 6800 me lo ha spiegato yossarian.
In quella demo vengono usate delle tecniche che mettono in risalta l'architettura delle r3xx e r420 e L'NV40 viene penalizzato per vari motivi:
-Ricordo che nel demo Canals gli shader vengono calcolati in fp32 e da Ati vengono scalati in fp24 che è più semplice da gestire e quindi è il primo vantaggio
-altro è la dipendenza tra alu e tmu che c'è in NV40 che ne penalizza le prestazioni rispetto a R420 perchè vengono eseguite anche operazioni di texture fetch in contemporeana ai calcoli fp in fp32.
Queste sono in parole povere i motivi per NV40 ha delle prestazoni inferiori rispetto a R420.
Yossarian mi dice che è anche per questi motivi che la 6800Ultra va come la 9800XT in quel particolare benchmark,peccato che a me questa cosa non mi va giù per niente.scusate lo sfogo.
Andrea87
01-12-2004, 13:46
nn ho letto tutto perchè 15 pagine sono un po troppe..... cmq secondo me questi test dimostrano come questa generazione di schede sia inutile, considerando che nei canals il distacco tra le nuove schede e le vecchie è minimo, e addirittura in alcuni la 9800xt è
+ veloce della 6800ultra. Questo dimostra che queste nuove schede nn sono innovative, ma delle semplici migliorie delle vecchie e che possono servire solo a chi gioca a 1600x1200 con tutti i filtri al massimo ( risolzione a cui per altro l'aiuto dato dall'AA è minimo)
leoneazzurro
01-12-2004, 14:00
Originariamente inviato da Athlon 64 3000+
Il problema della demo canals con le 6800 me lo ha spiegato yossarian.
In quella demo vengono usate delle tecniche che mettono in risalta l'architettura delle r3xx e r420 e L'NV40 viene penalizzato per vari motivi:
-Ricordo che nel demo Canals gli shader vengono calcolati in fp32 e da Ati vengono scalati in fp24 che è più semplice da gestire e quindi è il primo vantaggio
-altro è la dipendenza tra alu e tmu che c'è in NV40 che ne penalizza le prestazioni rispetto a R420 perchè vengono eseguite anche operazioni di texture fetch in contemporeana ai calcoli fp in fp32.
Queste sono in parole povere i motivi per NV40 ha delle prestazoni inferiori rispetto a R420.
Yossarian mi dice che è anche per questi motivi che la 6800Ultra va come la 9800XT in quel particolare benchmark,peccato che a me questa cosa non mi va giù per niente.scusate lo sfogo.
Il fatto è che la modalità FP 32 è eseguita con una piccola penalità da NV 40, non certo a metà velocità rispetto alla FP 24 di ATI. C'è da tenere conto della maggiore banda richiesta in questi casi, ma il 50% di prestazioni in meno mi sembra - davvero - troppo.
Ma in FP16 per NV40 come sono i framerate ?
haveacigar
01-12-2004, 14:15
Originariamente inviato da Vifani
La differenza del 7-8% è comunque in una situazione CPU limited. Sai che cosa significa questo? Significa che quei risultati non sono da considerarsi per la valutazione di una scheda video. Se poi tu li vuoi considerare a tutti i costi allora vuol dire che tu vuoi per forza sottolineare un qualcosa di non significativo pur di mettere in cattiva luce l'attendibilità dei risultati.
Doom III è un gioco che per sua natura non soffre del problema di aliasing in modo marcato e pertanto moltissima gente ha giocato a risoluzioni più basse di 1024x768. Se il tuo monitor è un LCD e/o non ci giochi a 640x480 è un problema che non mi riguarda.
E' strano che i commenti denigratori vengano sempre da parte dei possessori delle schede video che non mostrano risultati esaltanti all'interno di un articolo, non ti pare? La realtà è che i possessori di NV40 non vogliono accettare che con HL2 la loro scheda va peggio di R420. Per carità è umano sentirsi bruciare dentro di fronte a questi risultati dopo aver speso cifre considerevoli (magari si era indecisi tra NV40 e R420), ma ciò non giustifica minimamente il comportamento di scetticismo che si è creato. La realtà è quella mostrata in questa sede ed in tutti gli altri articoli su HL2: NV40 va peggio di R420 con questo titolo. Punto. Il resto sono solo chiacchiere.
Questa situazione è un'ulteriore riprova del fatto che il confronto tra NV40 e R420 non vede un reale vincitore in senso assoluto. Esistono casi che vedranno NV40 in vantaggio (vedi Doom III) e altri che vedranno R420 in vantaggio (vedi HL2). Non accettare questo fatto significa semplicemente negare la realtà.
Scusa mi pare alquanto strano che sia tu a sottolineare a me il fatto che quei risultati siano assolutamente inutili per la valutazione di una scheda video......perchè questa era esattamente la mia tesi....:asd:
Quindi stai facendo un pò di confusione...:p
Mi sembri un pò nervosetto nelle risposte che dai a molti utenti...soprattutto a quelli che non la pensano come te...devi essere un pò più sereno...
Dai a molti utenti l'appellativo di funboy ma se mi permetti tu mi sembri più funboy di tanti utenti di questo forum....
Puoi vederla come ti pare ma nella recensione su doom III era apparso a molti che questa fosse stata fatta con...sensibile tatto nei confronti di ati.....
In questa recensione invece mi sembra che le medesime attenzioni non siano state riservate ad nvidia.....
Ripeto le mie impressioni non sono isolate ma condivise da diversi utenti
Vedi tu parli di oggettività, imparzialità, trasparenza ma la maggiorparte delle volte nella vita questi concetti sono comunque intrisi di relatività...non penso che le riviste informatiche sfuggano a tutto ciò....
Per esempio leggendo qualche dato da questa recensione (http://www.anandtech.com/video/showdoc.aspx?i=2278&p=11) è possibile trarre delle impressioni di fondo diverse da quelle che possono essere tratte leggendo quella di Hwupgrade..
La selezione delle prove da fare, le modalità seguite e le giustificazioni date possono sostenere tutto ed il contrario di tutto senza che apparentemente siano pregiudicate esigenze di imparzialità obiettività e trasparenza...
Penso in definitiva che le diverse riviste siano interessate dal fascino che le varie società possono infondere e non penso che Hwupgrade sfugga a questa logica...
Detto ciò è quella che seguo con più passione ed attenzione....
Ciao.... :p
P4 1,6@2,13 768mb SDRAM 9600pro@480/710
AA 4x Aniso 8X 1024x768
nessuno scatto da nessuna parte...approvato! :)
haveacigar
01-12-2004, 14:47
Sono un felicissimo possessore di una sapphire 9800pro@9800xt con cui gioco splendidamente sia a doom III sia ad half-life II alla risoluzione di 1280x1024..... ;)
Athlon 64 3000+
01-12-2004, 14:57
dico solo che ci stiamo scaldando troppo.
pensandoci su dico che Il binomio ID-Nvidia e Ati-Valve non sono per niente belli perchè sono legate tra loro e si è visto solo in questi 2 giochi le differenza a favore e sfavore di R420 e NV40.
In Doom3 è stato fatto per L'NV40 e HL2 per L'R420,veramente brutta questa cosa. Ati e Nvidia sono solo delle ditte che devono fr soldi,ricordatevelo.
Dark Schneider
01-12-2004, 15:10
Purtroppo ho pochissimo tempo di questi tempi(scusate il gioco di parole) e non ho tempo di discutere nè qui e nè sul topic presente sulla sezione delle schede video.
Volevo solo dire a belin che ha fatto un po' di confusione: la citazione che ha quotato in risposta al quesito di Athlon 64 3000+ non è stata data da Fek, ma da Yoss. ;)
Fek invece sta dicendo altre cose altrettando interessanti che vale la pena leggere. ;)
Ciao
:)
Graphicmaniac
01-12-2004, 15:16
ma come fanno alcuni di voi a dire che le cose sono così punto e basta e bisogna accettarle???
pochissimi se non addirittura nessuno ricorda, mentre fa queste guerre politiche tra ATI e nVIDIA, che le schede con nv3X e nv4X girano il gioco INTERAMENTE con fp32!!!
no dico ma stiamo scherzando?
1a cosa già lo sanno tuti che le geforceFX sono delle schifezze con le directx 9.0 ma la Valve ha infierito costringendole ad usare le fp32.
stessa sorte per gli nv4X che per fortuna sebbena usino sempre fp32 (invece del fp24 di ATI ricordiamolo..) riescono in alcuni casi ad essere veloci tanto quanti le Radeon.
per quanto riguarda il demo canals, sono convinto che sia un caso estremo del gioco in cui le geforce toccano il loro livello minimo ehhe
però bisogna ammettere che sebbene rappresenti una piccola parte del gioco, quel punto esiste e quindi non è nemmeno giusto affermare che i risultati siano falsi.
Speriamo nVIDIA si faccia sentire ehe :)
Originariamente inviato da haveacigar
Scusa mi pare alquanto strano che sia tu a sottolineare a me il fatto che quei risultati siano assolutamente inutili per la valutazione di una scheda video......perchè questa era esattamente la mia tesi....:asd:
Quindi stai facendo un pò di confusione...:p
Mi sembri un pò nervosetto nelle risposte che dai a molti utenti...soprattutto a quelli che non la pensano come te...devi essere un pò più sereno...
Dai a molti utenti l'appellativo di funboy ma se mi permetti tu mi sembri più funboy di tanti utenti di questo forum....
Puoi vederla come ti pare ma nella recensione su doom III era apparso a molti che questa fosse stata fatta con...sensibile tatto nei confronti di ati.....
In questa recensione invece mi sembra che le medesime attenzioni non siano state riservate ad nvidia.....
Ripeto le mie impressioni non sono isolate ma condivise da diversi utenti
Vedi tu parli di oggettività, imparzialità, trasparenza ma la maggiorparte delle volte nella vita questi concetti sono comunque intrisi di relatività...non penso che le riviste informatiche sfuggano a tutto ciò....
Per esempio leggendo qualche dato da questa recensione (http://www.anandtech.com/video/showdoc.aspx?i=2278&p=11) è possibile trarre delle impressioni di fondo diverse da quelle che possono essere tratte leggendo quella di Hwupgrade..
La selezione delle prove da fare, le modalità seguite e le giustificazioni date possono sostenere tutto ed il contrario di tutto senza che apparentemente siano pregiudicate esigenze di imparzialità obiettività e trasparenza...
Penso in definitiva che le diverse riviste siano interessate dal fascino che le varie società possono infondere e non penso che Hwupgrade sfugga a questa logica...
Detto ciò è quella che seguo con più passione ed attenzione....
Ciao.... :p
Io difendo ciò che ho scritto perché strettamente derivato da osservazioni oggettive, che non dipendono quindi dal punto di vista di nessuno, ma sono così e basta.
I numeri sono numeri. Se una scheda fa 40 ed un'altra fa 60 c'è ben poco da stare a discutere.
Ovviamente tu fai finta di non capire (o almeno lo spero) e travasi le mie parole. Ho già scritto che i test alla risoluzione di 640x480 in Doom III sono stati eseguiti per le schede di fascia più bassa, nella situazione in cui non sono CPU limited. R420 e NV40 sono CPU limited a quella risoluzione pertanto quel grafico non va considerato per queste schede ed infatti in nessun caso è stato detto che R420 va meglio di NV40 in quell'articolo, proprio perché quella situazione non è significativa.
Coloro che dicono che noi abbiamo voluto mettere in buona luce ATI evidentemente non hanno letto l'articolo o comunque sono così maledettamente accecati dal loro tifo da non sopportare l'idea di avere un grafico in cui R420 sta davanti a NV40 in Doom III, anche se tale grafico per quelle schede non è significativo. L'avrò scritto almeno 400 mila volte, ma continui ad andare oltre queste mie parole e a credere quello che vuoi credere. Il miglior cieco è colui che non vuole vedere mio caro.
I risultati di R420 e NV40 a quella risoluzione sono stati riportati comunque per curiosità, ma se non avessimo considerato schede come la 5700 LE, stai certo che i 640x480 non li avremmo utilizzati.
Sinceramente io i problemi di scatti gli ho risolti con un pesante aggiornamento/smanettamento dei driver audio creative.....
rmarango
01-12-2004, 17:00
Concludiamo il discorso osservando la qualità in modalità DirectX 9. In questo caso il Source Engine abilita tutte le funzionalità di cui dispone e la resa grafica finale è di altissimo livello. Lo screenshot della demo canals è decisamente eloquente: gli effetti di riflessione, rifrazione e nebbia volumetrica presenti nello shader dell’acqua sono una vera manna per gli occhi. Anche le ombre per gli oggetti dinamici risultano essere particolarmente smussate e gradevoli
Ho quotato il commento di Raffaele, per sottolineare che le differenze ci sono, ma sono limitate ai riflessi per l'acqua, le rifrazioni e tutto il resto sono presenti anche nella dx8.1
Le ombre non le ho notate...:D
Quindi "altissimo" livello limitatamente all'acqua e a qualche altro effetto di sbrilluccichio...;)
Vifani ti faccio la stessa domanda di haveacigar, magari messa in maniera più soft.
Il test canals che avete fatto voi da dei risultati allarmanti per chi ha una 6800 nvidia. Anche perchè ora si hanno problemi con HL2, ma chi lo sa che magari nel futuro non faranno altri 10/20 giochi con lo stesso motore, e chi lo sa che le 6800 non avranno gli stessi problemi.
Quindi IMHO se il quadro generale non è così tragico come farebbe credere il bench canals, perchè diavolo lo avete portato come esempio (su 2, non su 10!!!!) ?
Che senso ha mostrare quanto male va un architettura in una particolare occasione, riscontrabile solamente in una parte limitata del gioco (quindi abbastanza lontana dal comportamento generale nel gioco), se non quello di "smerdarla"?
Sono sicuro che facendo attenzione, si potrebbe fare un bel demo homemade di doom3, in delle zone dove ci sono talmente tante fonti di luce e ombre dinamiche da far scendere le ATI a livello della 5900. Ma che senso avrebbe, se poi in generale le nuove x800 vanno piu che bene, giusto un po sotto le 6800 (e infatti non è stato fatto a suo tempo).
Tutte le tue spiegazioni non danno mai una risposta esauriente alla scelta di un benchmark cosi di parte, visto e considerato che di bench ne avete scelti 2.
zerothehero
01-12-2004, 19:44
Originariamente inviato da johnson
Vifani ti faccio la stessa domanda di haveacigar, magari messa in maniera più soft.
Il test canals che avete fatto voi da dei risultati allarmanti per chi ha una 6800 nvidia. Anche perchè ora si hanno problemi con HL2, ma chi lo sa che magari nel futuro non faranno altri 10/20 giochi con lo stesso motore, e chi lo sa che le 6800 non avranno gli stessi problemi.
Quindi IMHO se il quadro generale non è così tragico come farebbe credere il bench canals, perchè diavolo lo avete portato come esempio (su 2, non su 10!!!!) ?
Che senso ha mostrare quanto male va un architettura in una particolare occasione, riscontrabile solamente in una parte limitata del gioco (quindi abbastanza lontana dal comportamento generale nel gioco), se non quello di "smerdarla"?
Sono sicuro che facendo attenzione, si potrebbe fare un bel demo homemade di doom3, in delle zone dove ci sono talmente tante fonti di luce e ombre dinamiche da far scendere le ATI a livello della 5900. Ma che senso avrebbe, se poi in generale le nuove x800 vanno piu che bene, giusto un po sotto le 6800 (e infatti non è stato fatto a suo tempo).
Tutte le tue spiegazioni non danno mai una risposta esauriente alla scelta di un benchmark cosi di parte, visto e considerato che di bench ne avete scelti 2.
fammi capire una cosa: secondo te un recensore deve scegliere un demo in base ai risultati che vuole ottenere o deve prendere tout cour un demo e eseguirlo senza l'obbiettivo di dovere necessariamente ottenere un risultato "ortodosso"? (cioè 9800xt dietro 6800)...se nel demo CANALS le 6800 vanno più lente delle 9800 è colpa del recensore?
che doveva fare....doveva scartarlo e ignorarlo?
Il fatto è che half life 2 è perfettamente giocabile con una 6800 gt(provato a 1280*1024 4x/8x) ma se devi evidenziare delle differenze tra due architetture, è giusto mettere le vga di fronte a situazioni difficoltose...ma questo non è rappresentativo del gioco in questione cmq (canals è in ASSOLUTO il punto + pesante per la 6800 nel gioco)
Quindi per riassumere:il recensore presumibilmente, ha deciso a priori il demo NON sapendo prima i risultati (deludenti) delle 6800,
una volta registrato questo cosa avrebbe dovuto fare? buttare tutti i dati perchè anormali? ....:rolleyes:
... quesi test non sono stati fatti per testare la bonta' o no delle 6800 o delle x800 IN GENERALE, ma per vedere CON HL 2 come girano. stop. .. non mi pare difficile da capire come cosa...
Originariamente inviato da cangia
... quesi test non sono stati fatti per testare la bonta' o no delle 6800 o delle x800 IN GENERALE, ma per vedere CON HL 2 come girano. stop. .. non mi pare difficile da capire come cosa...
Il secondo test è molto discutibile.
:O
zerothehero
01-12-2004, 19:49
Originariamente inviato da ulk
Il secondo test è molto discutibile.
:O
cosa intenti per discutibile? un demo è un demo....se vuoi PER FORZA dei risultati è inutile fare dei bench....se in canals le 9800xt vanno meglio delle 6800 è un dato di fatto incontrovertibile e va registrano non occultato per non dispiacere alcuni possessori dell'nv40 (non tutti, a me non frega nulla ,dato che ho capito il senso del bench).
haveacigar
01-12-2004, 20:01
Originariamente inviato da Vifani
Io difendo ciò che ho scritto perché strettamente derivato da osservazioni oggettive, che non dipendono quindi dal punto di vista di nessuno, ma sono così e basta.
Questo è delirio mistico.......:gluglu:
Ma cosa dici.....ma lo riesci a capire che sarebbe più che semplice dire che un'altra mappa sia più indicativa del comportamento medio di una gpu e quindi divergere molto dalla tua opinione???
ti ho già linkato un esempio....
Io non faccio finta di non capire..anzi penso di aver compreso benissimo....stai lì a dire che quello che affermi è verità assoluta ed inconfutabile quando invece su queste stesse pagine di hwupgrade ho letto che le recensioni sono puramente indicative e non hanno la pretesa di dare indicazioni assolute, categoriche ed incontestabili......(a proposito non ricordo chi è il pazzo che ha detto una cosa così intelligente....)
Io non mi ritengo legato a nessuno e non devo assolutamente difendere alcunchè di mio (ti ho già precisato che sono un affezionato cliente ati...)
le mie considerazioni sono assolutamente esenti da pretese partigiane.....
Non ho mai neanche contestato il risultato complessivo che dalla vostra recensione si può arguire...contesto unicamente il fatto che tu in particolare vuoi arrogarti il diritto di dire in termini incontestabili come stanno le cose.....
Lascia perdere...penso che tu possa fare una figura migliore....
Salut! ;)
p.s. carino il detto "Il miglior cieco è colui che non vuole vedere mio caro"
fino ad ora ne avevo sentito solo uno simile che dice "non c'è miglior sordo di chi non voglia sentire"...... :asd:
Originariamente inviato da johnson
Vifani ti faccio la stessa domanda di haveacigar, magari messa in maniera più soft.
Il test canals che avete fatto voi da dei risultati allarmanti per chi ha una 6800 nvidia. Anche perchè ora si hanno problemi con HL2, ma chi lo sa che magari nel futuro non faranno altri 10/20 giochi con lo stesso motore, e chi lo sa che le 6800 non avranno gli stessi problemi.
Quindi IMHO se il quadro generale non è così tragico come farebbe credere il bench canals, perchè diavolo lo avete portato come esempio (su 2, non su 10!!!!) ?
Che senso ha mostrare quanto male va un architettura in una particolare occasione, riscontrabile solamente in una parte limitata del gioco (quindi abbastanza lontana dal comportamento generale nel gioco), se non quello di "smerdarla"?
Sono sicuro che facendo attenzione, si potrebbe fare un bel demo homemade di doom3, in delle zone dove ci sono talmente tante fonti di luce e ombre dinamiche da far scendere le ATI a livello della 5900. Ma che senso avrebbe, se poi in generale le nuove x800 vanno piu che bene, giusto un po sotto le 6800 (e infatti non è stato fatto a suo tempo).
Tutte le tue spiegazioni non danno mai una risposta esauriente alla scelta di un benchmark cosi di parte, visto e considerato che di bench ne avete scelti 2.
Io non credo a quello che leggo.
Iniziamo col dire che in Half-Life 2 non esiste una sequenza non CPU limited in grado di avvantaggiare le schede GeForce sulle Radeon (facendo confronti a parità di fascia di prezzo). Le demo sono state scelte esattamente con lo stesso criterio con cui sono state scelte quelle di UT2004 e di Far Cry:
1) NON DEVONO ESSERE CPU LIMITED: devono stressare la GPU al massimo;
2) DEVONO RAPPRESENTARE UNA SITUAZIONE DI GIOCO SIGNIFICATIVA: ed è per questo motivo che esattamente come per Far Cry e UT2004 sono state scelte due mappe, una all'interno ed una all'esterno. Inoltre, per quanto riguarda HL2, visto che lo shader dell'acqua è l'effetto grafico sicuramente di maggior impatto ed è il più pesante, ho scelto di fare la demo in Canals.
Voi pensate che io abbia registrato le demo, abbia fatto le comparazioni e abbia scelto quella che mette + in crisi NV40? Mi dispiace, non è così. Ho registrato la demo scegliendo quella che mette in crisi maggiormente la scheda video. Canals è risultata perfetta perché è quella che mi ha dato i risultati + variabili aumentando la risoluzione (il che significa che non è limitata dalla CPU). Neanche prison è talmente indipendente dalla CPU. Infatti se vedete alle basse risoluzioni i risultati non variano molto in prison.
Ora se NV40 soffre + di R420 che cosa vogliamo farci? Non è un problema mio, è un problema di NVIDIA. La cosa + importante è che le schede siano state testate a parità di condizione. Le differenti prestazioni sono frutto di differenti architetture e di un motore grafico che evidentemente premia maggiormente l'architettura di ATI (leggetevi gli interventi di yossarian in proposito).
Ripeto per l'ultima volta che scopo di questo articolo e delle demo non è dire se Half-Life 2 è giocabile con le schede considerate. HL2 è giocabilissimo sulle 6800 è solo che, effettuando un confronto, le X800 vanno meglio. Che c'è di così assurdo in questo io non lo so.... mah....
Originariamente inviato da haveacigar
Questo è delirio mistico.......:gluglu:
Ma cosa dici.....ma lo riesci a capire che sarebbe più che semplice dire che un'altra mappa sia più indicativa del comportamento medio di una gpu e quindi divergere molto dalla tua opinione???
ti ho già linkato un esempio....
Io non faccio finta di non capire..anzi penso di aver compreso benissimo....stai lì a dire che quello che affermi è verità assoluta ed inconfutabile quando invece su queste stesse pagine di hwupgrade ho letto che le recensioni sono puramente indicative e non hanno la pretesa di dare indicazioni assolute, categoriche ed incontestabili......(a proposito non ricordo chi è il pazzo che ha detto una cosa così intelligente....)
Io non mi ritengo legato a nessuno e non devo assolutamente difendere alcunchè di mio (ti ho già precisato che sono un affezionato cliente ati...)
le mie considerazioni sono assolutamente esenti da pretese partigiane.....
Non ho mai neanche contestato il risultato complessivo che dalla vostra recensione si può arguire...contesto unicamente il fatto che tu in particolare vuoi arrogarti il diritto di dire in termini incontestabili come stanno le cose.....
Lascia perdere...penso che tu possa fare una figura migliore....
Tu evidentemente non sai che cosa vuol dire effettuare un confronto RIGOROSO. I numeri non sono opinionabili. Se così fosse la matematica sarebbe un qualcosa di estremamente variabile e invece è proprio grazie all'esattezza dei suoi risultati che l'uomo è arrivato sulla luna, che vengono progettati i processori grafici, ecc...
Le recensioni valutano una scheda video e sono indicative delle sue prestazioni, ma il singolo risultato non è opinionabile. Se una scheda video fa 40 fps ad una determinata condizione, ne farà sempre 40 in quella condizione. Non si tratta di un risultato variabile, non si tratta di un qualcosa di opinionabile. Si tratta di un fatto puro e semplice. Questi sono rilevamenti rigorosi.
Questa non è una recensione, questo è un articolo che valuta le prestazioni delle schede video con quel motore grafico e nelle situazioni proposte strettamente da quelle due mappe. Se NV40 va peggio di R420 è un problema di NVIDIA, non della mappa. Pretendere che si vada alla ricerca di una mappa in base ai risultati ottenuti è scandaloso e sarebbe estremamente di parte. La mappa non deve essere CPU limited e deve rappresentare una sequenza significativa del gioco e canals risponde a questi requisiti. Se non risponde ai tuoi requisiti e se non ti garbano i suoi risultati, sei libero di non leggerli.
Originariamente inviato da Vifani
Tu evidentemente non sai che cosa vuol dire effettuare un confronto RIGOROSO. I numeri non sono opinionabili. Se così fosse la matematica sarebbe un qualcosa di estremamente variabile e invece è proprio grazie all'esattezza dei suoi risultati che l'uomo è arrivato sulla luna, che vengono progettati i processori grafici, ecc...
Si ma il modo con cui avete fatto le prove nel secondo test è molto discutibile.
Ciao.
Originariamente inviato da ulk
Si ma il modo con cui avete fatto le prove nel secondo test è molto discutibile.
Ciao.
A cosa ti riferisci? Che intendi per "modo con cui avete fatto le prove" ?
Le prove vengono fatte nelle stesse condizioni. L'unica cosa che varia è la scheda video con i suoi driver. Il resto del sistema è identico.
Half-Life 2 è stato utilizzato allo stesso modo con cui utilizziamo tutti gli altri benchmark. Non c'è nulla di diverso.
La realtà è che è discutibile perché i risultati non rispecchiano la tua volontà. Se domani uscissero driver che risollevano le prestazioni di NV40 in canals, tutte queste discussioni si spegnerebbero. Questa è la verità. Il problema non è la demo, ma sono le vostre aspettative dei risultati.
leoneazzurro
01-12-2004, 20:33
Forse, molto più semplicemente, i problemi sono di Valve (come del resto i problemi erano di ID parlando di Doom 3).
A parte questo, in un altra discussione con Yossarian forse potremmo aver trovato una "magagna tecnica" che giustifica quei risultati:
http://forum.hwupgrade.it/showthread.php?s=&postid=6627913#post6627913
haveacigar
01-12-2004, 20:41
Originariamente inviato da Vifani
Tu evidentemente non sai che cosa vuol dire effettuare un confronto RIGOROSO. I numeri non sono opinionabili. Se così fosse la matematica sarebbe un qualcosa di estremamente variabile e invece è proprio grazie all'esattezza dei suoi risultati che l'uomo è arrivato sulla luna, che vengono progettati i processori grafici, ecc...
Le recensioni valutano una scheda video e sono indicative delle sue prestazioni, ma il singolo risultato non è opinionabile. Se una scheda video fa 40 fps ad una determinata condizione, ne farà sempre 40 in quella condizione. Non si tratta di un risultato variabile, non si tratta di un qualcosa di opinionabile. Si tratta di un fatto puro e semplice. Questi sono rilevamenti rigorosi.
Questa non è una recensione, questo è un articolo che valuta le prestazioni delle schede video con quel motore grafico e nelle situazioni proposte strettamente da quelle due mappe. Se NV40 va peggio di R420 è un problema di NVIDIA, non della mappa. Pretendere che si vada alla ricerca di una mappa in base ai risultati ottenuti è scandaloso e sarebbe estremamente di parte. La mappa non deve essere CPU limited e deve rappresentare una sequenza significativa del gioco e canals risponde a questi requisiti. Se non risponde ai tuoi requisiti e se non ti garbano i suoi risultati, sei libero di non leggerli.
Vedo che hai difficoltà a mettere a fuoco gli aspetti sostanziali del discorso....che 40 è 40 e 60 è 60 in effetti l'ho scoperto solo stasera....ti ringrazio....:ave:....però.....quello che contesto (a dir la verità non solo io ma molti altri) è il fatto che si voglia descrivere come risultato inopinabile e rigoroso il risultato di una scelta discrezionale...
Ovviamente non chiedo che sia calcolato il frame rate dell'intero gioco però mi limito a dire e a pensare che è molto semplice dare un indirizzo a delle analisi....perchè opinabile è la scelta dei referenti.....
ti ripeto che leggendo altre recensioni per esempio quel divario incontenibile sembra essere riassunto entro ragioni di normalità....e te l'ho già dimostrato....
ora mi vado a prendere un paio di birre...
salut!
Originariamente inviato da haveacigar
Vedo che hai difficoltà a mettere a fuoco gli aspetti sostanziali del discorso....che 40 è 40 e 60 è 60 in effetti l'ho scoperto solo stasera....ti ringrazio....:ave:....però.....quello che contesto (a dir la verità non solo io ma molti altri) è il fatto che si voglia descrivere come risultato inopinabile e rigoroso il risultato di una scelta discrezionale...
Ovviamente non chiedo che sia calcolato il frame rate dell'intero gioco però mi limito a dire e a pensare che è molto semplice dare un indirizzo a delle analisi....perchè opinabile è la scelta dei referenti.....
ti ripeto che leggendo altre recensioni per esempio quel divario incontenibile sembra essere riassunto entro ragioni di normalità....e te l'ho già dimostrato....
ora mi vado a prendere un paio di birre...
salut!
Farò del mio meglio affinché il divario venga preso nella giusta considerazione all'interno del pacchetto benchmark che eseguiamo per la valutazione di una scheda video.
Hai la mia parola. :)
Buona birra... vado anche io a farmi una bevutina :)
Jack Ryan
01-12-2004, 21:55
Originariamente inviato da Vifani
HL2 è giocabilissimo sulle 6800 è solo che, effettuando un confronto, le X800 vanno meglio. Che c'è di così assurdo in questo io non lo so.... mah....
si è giocabile (con discreta qualità e fluidità) utilizzando i 67.02 ... altrimenti per risolvere definitivamente basterbbe usare i set tweakati (optimized, spirit fury, evolution, etc...)
dopotutto anche le X800 agli inizi soffrivano con doom3 come le 6800/5x00 con hl2 no? [sulle 9700/9800 nn mi pronuncio siccome girava meglio che su 5900xt - confrontando tra amici]
Io ci gioco con 1 giga di ram 2200mhz amd mobile e radeon 9800pro tutto al masimo antialiasing, filtro ecc ecc a 1024 e non fa uno scatto....! :D
Doom 3 in compenso a 800*600 dettagli medi.... :/
cdimauro
02-12-2004, 09:02
Non posso che condividere il metodo utilizzato da Raffaele in questi test: il rigore scientifico di una prova non può sottostare alle simpatie del momento o a ipotetici risultati desiderati.
Se c'è qualcuno che può fornire altre mappe di HL2 che siano GPU limited (perché ricordo che questo è il fulcro della diatriba, che troppa gente fa fatica a recepire), si faccia pure avanti: penso che Raffaele non avrà problemi, tempo permettendo, a fare qualche altro test per fornire ulteriori dati.
Il fulcro del discorso è come vanno le nuove vga con hl2.
Se è così difficile trovare un altra situazione GPU limited nel gioco, forse significa che il gioco non è proprio gpu limited. Che senso ha basare la valutazione sul rendimento di una vga in un gioco, basandosi su una situazione cosi difficile da trovare?
Questo non mi è chiaro.
Chiaro che per completare un giudizio generale, un test GPU limited è sempre utile per farti capire la reale potenza della vga.
Ma se durante tutto il gioco ho una media di fps nettamente più alta di quelli rilevati durante la situazione gpu limited, bisognerebbe specificarlo bene.
A hl2 si gioca benissimo anche con una 6800, cosa che dai 2 test fatti da hwupgrade non risulta.
Poi possiamo stare qui a discutere una vita sul senso dei bench, sul fatto che un gioco non è lo specchio delle prestazioni generali di una vga, ma questo è un altro discorso.
Senza polemica, solo per capire.
ciao
cdimauro
02-12-2004, 12:35
Per quanto mi riguarda io vedo questi test dal punto di vista dell'analisi del comportamento delle GPU con questo nuovo engine.
E' chiaro poi che chi gioca si può trovare in una situazione diversa, come giustamente hai specificato. Difatti i benchmark per valutare un gioco (e non un engine) personalmente li farei sulle mappe che si ritrovano installate i giocatori.
Questo giusto per capire, appunto. :)
Ciao
Apprezzo il rigore con cui è stato redatto l'articolo, ma indipendentemente dai risultati, ritornando all'esempio della moto, non credo si possa giudicare da due curve l'andamento generale di una motocicletta.
Non si parla di enduro vs stradale ma più di Desmodromico vs 4 cilindri.
Il punto penso sia proprio questo e il fraintendimento di fondo sta nel capire gli scopi più che estrapolare delle conclusioni generali.
Qui si sta analizzando come Hl2 gira sulle schede di nuova generazione, in situazioni anche limite, senza per questo valutare a 360 gradi una sceda video.
Che poi Valve non abbia ottimizzato per i FP16 bit non è colpa di Hwupgrade, ma è indubbio che in questo prodotto le schede Ati abbiano un certo vantaggio.
Questo però non vuol dire che con una 6800 si possa ottenere un'esperienza di gioca in buona parte identica in dx9, mentre per la serie nv3x si può attulamente utilizzare la path dx8.1, in attesa di un eventuale abilitazione di una mixed a 16 bit.
Ma questi sono problemi che esulano l'articolo proposto, anche perchè si fotografa la situazione attuale di un determinato gioco, senza giustamente fare illazioni o previsioni su sviluppi futuri che meriteranno, imho, la stessa attenzione.
Pk77
non riesco a capire questi risultati io ho provato a fare varie prove con una 6800gt e poi portandola a ultra ma non mi ci avvicino proprio a quei risultati cosi bassi:confused: e poi ho un 2400+:eek: secondo me queste demo sono sospette x viffani hai provato a fare i stessi test con il gioco e non con le demo??????
al di la di tutto secondo il mio parere fare dei test ora con hl2 e una boiata x il senplice motivo che ati e troppo avvantaggiata con il supporto driver :oink: io avrei aspettato a fare una recenzione del genere non si ha assolutamente un idea corretta delle effetive qualita delle varie 6800 o r800 (prendiamo due piloti di moto con capacita equivalenti a uno gli si da la possibilita di provare la moto e il circuitio x un anno intero e al secondo pilota gli si da la possibilita di provare moto e circuito soltanto il giorno prima secondo voi chi vince:D :D :D :D ) risultato e decine di pagine di battibecchi :muro:
passando a cose + serie x chi a una nvidia fx questa procedura vi fara contenti :oink: :D :cool: ;) http://hardware.multiplayer.it/
Originariamente inviato da spak
non riesco a capire questi risultati io ho provato a fare varie prove con una 6800gt e poi portandola a ultra ma non mi ci avvicino proprio a quei risultati cosi bassi:confused: e poi ho un 2400+:eek: secondo me queste demo sono sospette x viffani hai provato a fare i stessi test con il gioco e non con le demo??????
Che significa fare gli stessi test con il gioco e non con le demo? Sei tu che se vuoi vedere di essere in linea puoi provare ad usare le demo. I benchmark non si possono fare ad occhio guardando il fraps. Esiste la funzione timedemo, esattamente come per Doom III, e si usa quella.
volevo solo dire che risultati cosi contrastanti potrebbero essere x via di un comando demo un po "ottimizzato"
Originariamente inviato da spak
volevo solo dire che risultati cosi contrastanti potrebbero essere x via di un comando demo un po "ottimizzato"
Le demo vengono registrate durante una normalissima partita. Lo può fare chiunque. Basta scrivere nella console "record <nomedemo>" e, quando si vuole smettere di registrare scrivete "stop". Tutto qui. Non sono soggette a nessun tipo di ottimizzazione specifica. Una demo riproduce semplicemente una sequenza di gioco, non sono fatte a tavolino mettendo mano al codice del gioco o cose simili.
cdimauro
03-12-2004, 07:26
Al di là dell'oggettiva e scientifica metodologia utilizzata, mi sembra giusto, comunque, cercare di valutare, sempre se è possibile, le motivazioni che portano un'architettura come quella di NV40 addirittura sotto l'R350 rappresentato dalla Radeon 9800XT: certamente è un fatto assolutamente anomalo che deve per forza di cosa avere delle cause che vanno oltre la semplice presenza di shader lunghi e "favorevoli" alle GPU Ati, addirittura appartenenti alla precedente generazione.
Una prima cosa che si potrebbe fare è cercare di forzare l'uso degli FP16 anziché gli FP32, e valutarne la differenze: se sono troppo marcate, potrebbe darsi che Valve abbia effettivamente fatto il gioco di Ati utilizzando indiscriminatamente gli FP32 (che non sono sempre necessari, anzi), contando sul fatto che le GPU Ati "scalano" a FP24, mentre quelle di nVidia no e presentano una notevole caduta prestazionale.
Questo giusto per far uscire questa recensione dal (poco umano) rigore accademico e conferirgli un po' di sano pragmatismo, che certamente non guasta.
Il tutto IMHO, ovviamente.
Originariamente inviato da cdimauro
Al di là dell'oggettiva e scientifica metodologia utilizzata, mi sembra giusto, comunque, cercare di valutare, sempre se è possibile, le motivazioni che portano un'architettura come quella di NV40 addirittura sotto l'R350 rappresentato dalla Radeon 9800XT: certamente è un fatto assolutamente anomalo che deve per forza di cosa avere delle cause che vanno oltre la semplice presenza di shader lunghi e "favorevoli" alle GPU Ati, addirittura appartenenti alla precedente generazione.
Una prima cosa che si potrebbe fare è cercare di forzare l'uso degli FP16 anziché gli FP32, e valutarne la differenze: se sono troppo marcate, potrebbe darsi che Valve abbia effettivamente fatto il gioco di Ati utilizzando indiscriminatamente gli FP32 (che non sono sempre necessari, anzi), contando sul fatto che le GPU Ati "scalano" a FP24, mentre quelle di nVidia no e presentano una notevole caduta prestazionale.
Questo giusto per far uscire questa recensione dal (poco umano) rigore accademico e conferirgli un po' di sano pragmatismo, che certamente non guasta.
Il tutto IMHO, ovviamente.
La forzatura del FP16 non verrà fatta essenzialmente per un motivo:
-non si tratta di una caratteristica del Source Engine, ma di una forzatura.
Esattamente come per la patch Humus all'epoca di Doom III che non è stata da noi adottata, non faremo modifiche che vadano oltre il normale utilizzo di Half-Life 2. Se Valve introdurrà una versione mixed per gli shader 2.0 con gli aggiornamenti tramite Steam, sicuramente ce ne accorgeremo e i risultati verranno pubblicati.
Comunque, secondo alcune mie fonti, sembra che NVIDIA stia per rilasciare driver nuovi per HL2 ;) Quindi, così come accaduto con le Radeon e Doom III, è possibile che future recensioni riportino risultati differenti.
Athlon 64 3000+
03-12-2004, 08:43
Originariamente inviato da Vifani
La forzatura del FP16 non verrà fatta essenzialmente per un motivo:
-non si tratta di una caratteristica del Source Engine, ma di una forzatura.
Esattamente come per la patch Humus all'epoca di Doom III che non è stata da noi adottata, non faremo modifiche che vadano oltre il normale utilizzo di Half-Life 2. Se Valve introdurrà una versione mixed per gli shader 2.0 con gli aggiornamenti tramite Steam, sicuramente ce ne accorgeremo e i risultati verranno pubblicati.
Comunque, secondo alcune mie fonti, sembra che NVIDIA stia per rilasciare driver nuovi per HL2 ;) Quindi, così come accaduto con le Radeon e Doom III, è possibile che future recensioni riportino risultati differenti.
Se fanno dei nuovi driver da migliorare la situazione di NV40 che ben venga.
Che io sappia devono fare dei driver che girano intorno al problema forzando la PP e utilizzando la FP solo dove serve.
L'ideale sarebbe un pannello dove poter forzare la precisione degli shader in tutti i giochi, scegliendo noi utenti quale utilizzare (ad esempio io su 6800 non sento la necessità di passare a FP16 visto che il gioco risulta fluidissimo).
Pk77
Originariamente inviato da Pat77
Che io sappia devono fare dei driver che girano intorno al problema forzando la PP e utilizzando la FP solo dove serve.
L'ideale sarebbe un pannello dove poter forzare la precisione degli shader in tutti i giochi, scegliendo noi utenti quale utilizzare (ad esempio io su 6800 non sento la necessità di passare a FP16 visto che il gioco risulta fluidissimo).
Pk77
L'industria dell'informatica va verso la massima semplicità d'uso, non il massimo numero di opzioni avanzate disponibili. Penso che una cosa simile non la vedrete mai all'interno di un videogames perché troppo avanzata per l'utente medio. Del resto se esiste un motivo per cui l'industria delle console è così avanti è proprio la loro semplicità d'uso: niente patch, driver o cose simili, ma si mette il CD e si gioca.
thunderaccio
03-12-2004, 11:17
sono dell'idea che si stia tralasciando il nodo della questione. Al di la' delle prestazioni delle nuove schede video, i dubbi a questo puto sono sulla serietà di Valve e di ATI. Il gioco non è nato per girare sulle 6800 0 sulle x800. Dobbiamo tornare indietro di un anno e mezzo, epoca che avrebbe dovuto comportare l'uscita del gioco. Infatti chi ha comprato una ati serie xt avrebbe dovuto trovare hl2 in bundle. Ma invece si è trovato un misero coupon che sarebbe valso il diritto di scaricare hl2 da internet. Ma scherziamo?
oltre non avere giochi in bundle conla scheda non si degnano nemmeno di procurarmelo? E se non ho L'adsl cosa faccio? la prendo nella schiena, ecco cosa faccio.
E sono dell'idea che tutti quelli che si sono fatti ingannare dal logo hl2 sulle confezioni l'abbiano presa in quel..
Resta di fatto che all'epoca l'avversaria delle 9800 era la 5900 di nvidia e quindi è su questa architettura che Valve non si è nemmeno degnata di colmare le lacune. Ati deve aver pagato un bel mucchio di quattrini ai programmatori di hl2 che visti i ritardi, e probabilmente anche le pressioni di ati ( magari stavano intentando una causa per farsi rimborsare isoldi del gioco in bundle?) hanno abbandonato il mixed mode come da loro dichiarato per non ottimizzare il codice su nv3x, visto che girava bene in modalita dx8.1.
Beh, statene certi che si tratta solo di marketing. esta volta addirittura in modo spudorato. Bisogna però stare attenti a questa politica perchè credo che penalizzare troppo una scheda abbia poi ritorsioni nelle vendite del gioco. A questo punto inizio a tifare davvero per Nvidia, visto che Le strategie di ati ultimamente non solo molto simpatiche e perlomeno tanto di cappello a nvidia che tecnologicamente investe di più nelle nuove tecnologie ( le 6800 sono P.S. 3.0, non dimenticatelo)e le offre anche nei segmenti di fascia media (5900xt e 6600gt)
un saluto
leoneazzurro
03-12-2004, 11:28
Non che con Doom 3 si sia visto qualcosa di diverso nel discorso di programmazione, nell'altro senso però.
beh leoneazzurro, questo non lo puoi dire...
io non ho visto le x800xt a livello delle 5950ultra ...
Non è la differenza di prestazioni che salta all'occhio, ma la grandezza diversa di tale differenza.
cdimauro
03-12-2004, 12:47
Originariamente inviato da Vifani
La forzatura del FP16 non verrà fatta essenzialmente per un motivo:
-non si tratta di una caratteristica del Source Engine, ma di una forzatura.
Esattamente come per la patch Humus all'epoca di Doom III che non è stata da noi adottata, non faremo modifiche che vadano oltre il normale utilizzo di Half-Life 2. Se Valve introdurrà una versione mixed per gli shader 2.0 con gli aggiornamenti tramite Steam, sicuramente ce ne accorgeremo e i risultati verranno pubblicati.
Indubbiamente, ma forse dovevo spiegarmi meglio. Non sto parlando di provare a forzare gli FP16 per far contenti gli utenti nVidia, quando non è stata fatta la stessa cosa ai tempi di Doom3 per gli utenti Ati che sono stati penalizzati: è chiaro che sarebbe politicamente scorretto nei loro confronti.
L'approccio è un altro, e serve a chiarire eventuali pecche presenti nell'engine che, alla fine, comportano questo calo di prestazioni. Si tratta, in buona sostanza, di fare un po' di giornalismo investigativo, e a mio avviso ciò può portare maggior lustro a un sito come hwupgrade, redattori incluso. Tutto qua.
Comunque, secondo alcune mie fonti, sembra che NVIDIA stia per rilasciare driver nuovi per HL2 ;) Quindi, così come accaduto con le Radeon e Doom III, è possibile che future recensioni riportino risultati differenti.
Non v'è dubbio: al più sostituiscono gli shader standard HL2 con altri equivalenti, ma che supportano correttamente gli FP16, lasciando gli FP32 solamente dove necessario...
leoneazzurro
03-12-2004, 15:19
Originariamente inviato da johnson
beh leoneazzurro, questo non lo puoi dire...
io non ho visto le x800xt a livello delle 5950ultra ...
Non è la differenza di prestazioni che salta all'occhio, ma la grandezza diversa di tale differenza.
Certo, però anche Doom è "cucito" addosso alle NV40, questo intendevo. Poi, figurati, io sono stato uno dei primi, su, a dire che certi risultati danno delle indicazioni palesi del fatto che HL2, al contrario, è fatto per fare bella figura alle ATI.
Sempre tra parentesi per come la penso io sulla situazione attuale: le ATI X800 sono in genere più veloci sui giochi di nuova generazione, ma la serie NV 40 non è molto indietro come pestazioni ed è più avanti come features.
leoneazzurro
03-12-2004, 15:25
Originariamente inviato da cdimauro
Indubbiamente, ma forse dovevo spiegarmi meglio. Non sto parlando di provare a forzare gli FP16 per far contenti gli utenti nVidia, quando non è stata fatta la stessa cosa ai tempi di Doom3 per gli utenti Ati che sono stati penalizzati: è chiaro che sarebbe politicamente scorretto nei loro confronti.
L'approccio è un altro, e serve a chiarire eventuali pecche presenti nell'engine che, alla fine, comportano questo calo di prestazioni. Si tratta, in buona sostanza, di fare un po' di giornalismo investigativo, e a mio avviso ciò può portare maggior lustro a un sito come hwupgrade, redattori incluso. Tutto qua.
Non v'è dubbio: al più sostituiscono gli shader standard HL2 con altri equivalenti, ma che supportano correttamente gli FP16, lasciando gli FP32 solamente dove necessario...
Dal mio punto di vista il discorso FP16/FP 32 sulle NV 40 ha un impatto meno profondo su quei risultati di qunto si pensi.
http://forum.hwupgrade.it/showthread.php?s=&postid=6646869#post6646869
Insomma, la gran parte del lavoro l'ha fatta Valve ;)
zephyr83
03-12-2004, 17:14
Scusate, mi vergogno un po' a chiedere sta cosa....ho scaricato il file zip con la demo e dentro ci sn due ile con estensione .dem........come faccio a provarli??? Si vede che nn sn molto pratico :(
smurfolo
03-12-2004, 20:48
Originariamente inviato da leoneazzurro
Certo, però anche Doom è "cucito" addosso alle NV40, questo intendevo.....
____________________________________________________
salve a tutti.io penso che questo è vero in parte:le ati hanno avuto sempre qualche problema con i drivers opengl e che andasse peggio delle nvidia in doom3 penso che se lo aspettassero tutti. è anche indubbio un piccolo vantaggio delle ati in alcuni giochi recenti che supportano le directx e al contrario non ho mai visto un gioco opengl andare meglio sulle ati...io posseggo una 6800gt e devo dire che l'ho scelta più per le features che per una mera questione prestazionale.quindi la mia conclusione non può non essere che una, come peraltro ribadito dagli altri: valve le sk nvidia le avrà usate alla fine per dire: "beh, chissà se funziona anche con queste?"...non si può spiegare in altro modo: da una parte il migliore supporto ad una libreria grafica avvantaggia nvidia, e non è certo colpa dell'opengl ma di ati che non ha drivers all'altezza di nvidia, dall'altra una ottimizzazione a senso unico...
leoneazzurro
03-12-2004, 21:27
Non è solo un problema di Open GL. Come spiegato più volte in altri thread Doom 3 usa un metodo di generazione delle ombre particolare (le stencil shadows) e con questo particolare metodo la serie NV40 ha un fill rate doppio nella generazione delle ombre rispetto alla R420 di ATI. Inoltre nel gioco vengono usato molti texture lookups, che le schede Nvidia trattano molto rapidamente mentre le ATI no ( Infatti il recupero di ATI in Doom 3 è dovuto soprattutto al fatto che i nuovi driver operano uno shader replacement per sostituire ai texture lookups delle funzioni matematiche equivalenti e che garantiscono la medesima qualità grafica, a detta di ATI). Mentre il primo punto si avvantaggia di una caratteristica in più di NV40, il secondo è "fatto apposta" per dare problemi ad ATI, così come lo shader dell'acqua di HL2 pare fatto apposta per "fare male" a NV 40. Ciò non toglie che a sua volta probabilmente Nvidia userà uno shader replacement per recuperare prestazioni, senza ledere la qualità, in quanto comunque non ho dubbi che NV 40 sia comunque un ottimo progetto.
Questo è quanto ho capito io, dall'analisi di ciò che si può trovare in rete e in molti thread anche qui su HWUpgrade, ovviamente non essendo io un 3d programmer o un esperto di architetture grafiche, ma solo un appassionato di PC, potrei aver riportato qualche inesattezza in quanto scritto sopra, tuttavia il senso generale della cosa non cambia anche se si usano i termini tecnici esatti.
L'industria dell'informatica va verso la massima semplicità d'uso, non il massimo numero di opzioni avanzate disponibili. Penso che una cosa simile non la vedrete mai all'interno di un videogames perché troppo avanzata per l'utente medio. Del resto se esiste un motivo per cui l'industria delle console è così avanti è proprio la loro semplicità d'uso: niente patch, driver o cose simili, ma si mette il CD e si gioca.
Sono due mercati sostanzialmente differenti, su console il software si adatta all'hardware, su Pc è quest'ultimo che si plasma a secondo del software. Di fatto dare più possibilità di vedere un titolo girare degnamente su configurazioni simili con la medesima o quasi qualità non fa che ampliare il bacino d'utenza senza far male a nessuno.
rmarango
04-12-2004, 10:21
Originariamente inviato da Pat77
Sono due mercati sostanzialmente differenti, su console il software si adatta all'hardware, su Pc è quest'ultimo che si plasma a secondo del software. Di fatto dare più possibilità di vedere un titolo girare degnamente su configurazioni simili con la medesima o quasi qualità non fa che ampliare il bacino d'utenza senza far male a nessuno.
Purtroppo il mondo dell'hardware e' soggetto anche a questo tipo di guerre commerciali...io ricordo le slides fuoriuscite semi clandestinamente da presentazioni Nvidia o Ati dove si davano addosso a vicenda a colpi di benchmark.
Il settore marketing di queste societa' e' uno dei piu' agguerriti.
Non mi stupisco che si sia arrivati a questo....
p.s. ecco un link alle slides Nvidia leaked :
http://www.elitebastards.com/page.php?pageid=4929&head=1&comments=1
ed un link alle slides Ati :
http://www.gamers-depot.com/hardware/video_cards/ati/x700/ati_x700memo/001.htm
phobos_80
04-12-2004, 13:26
quote zephyr83:
<hr>
Scusate, mi vergogno un po' a chiedere sta cosa....ho scaricato il file zip con la demo e dentro ci sn due ile con estensione .dem........come faccio a provarli??? Si vede che nn sn molto pratico
<hr>
Per eseguire le demo ti basta inserirle nella cartella bin del gioco e dalla console di half life digitare
->timedemo nomedemo
approfitto per aggiungere che per avviare la console non e' necessario fare il collegamento che esegue
"hl2.exe" -console
Il problema della mancata comparsa della console sembra dovuto al fatto che non sia stata presa in considerazione l'assenza del tasto ~ (tilde) nella tastiera italiana. Per risolvere il problema e' sufficiente ridefinire un nuovo binding per l'attivazione/disattivazione della console, questo si riduce ad aggiungere la seguente riga nel file cfg/config.cfg:
bind "tasto_a_scelta" toggleconsole
e il gioco e' fatto. In questo modo, da ora in avanti, alla pressione del tasto da noi specificato sara' associato lo stato di show/hide della console.
Mi rendo conto che forse l'argomento e' 1 po' OT, ma ho pensato che a qualcuno questo piccolo accorgimento potrebbe tornare utile.
ciauz
Originariamente inviato da Pat77
Che io sappia devono fare dei driver che girano intorno al problema forzando la PP e utilizzando la FP solo dove serve.
L'ideale sarebbe un pannello dove poter forzare la precisione degli shader in tutti i giochi, scegliendo noi utenti quale utilizzare (ad esempio io su 6800 non sento la necessità di passare a FP16 visto che il gioco risulta fluidissimo).
Pk77
Questo non e' possibile perche' l'utente non ha tutte le informazioni che gli servono per effettuare una scelta fra fp16 e fp32. La realta' e' che questa scelta nella maggioranza dei casi non puo' essere neppure fatta: di solito qualche operazione all'interno dello shader, spessissimo molto poche, deve essere in fp32 (mi vengono in mente alcuni tipi di calcoli delle coordinate delle texture e alcuni calcoli della componente speculare) e forzare questi calcoli a fp16 non darebbe una minore qualita', ma un risultato sbagliato.
In poche parole, non ha senso forzare un intero shader sempre a fp16.
E qui si arriva un punto sul quale spero di non essere troppo duro: non aver scalato la precisione della maggior parte delle operazioni a fp16 negli shader di half life 2 e' un errore talmente marchiano e dilettantistico che non possono averlo commesso senza rendersene conto.
Sono certo che c'e' una qualche strategia di marketing.
Personalmente io cerco di non prostituirmi a questa maniera.
Originariamente inviato da cdimauro Non v'è dubbio: al più sostituiscono gli shader standard HL2 con altri equivalenti, ma che supportano correttamente gli FP16, lasciando gli FP32 solamente dove necessario...
Ma sarebbe davvero il minimo per tutelare la propria clientela.
dagon1978
05-12-2004, 21:22
Originariamente inviato da fek
E qui si arriva un punto sul quale spero di non essere troppo duro: non aver scalato la precisione della maggior parte delle operazioni a fp16 negli shader di half life 2 e' un errore talmente marchiano e dilettantistico che non possono averlo commesso senza rendersene conto.
Sono certo che c'e' una qualche strategia di marketing.
Personalmente io cerco di non prostituirmi a questa maniera.
è una cosa che mi frullava nella testa, leggendo i thread in giro e dopo la ricostruzione fatta da yossarian nell'altro forum...
ma sicuramente anche ad averla espressa, non avrebbe avuto lo stesso peso delle tue parole ;)
Originariamente inviato da fek
E qui si arriva un punto sul quale spero di non essere troppo duro: non aver scalato la precisione della maggior parte delle operazioni a fp16 negli shader di half life 2 e' un errore talmente marchiano e dilettantistico che non possono averlo commesso senza rendersene conto.
Sono certo che c'e' una qualche strategia di marketing.
Personalmente io cerco di non prostituirmi a questa maniera.
Dai fek non facciamo i difensori della giustizia e della libertà. Tu sai bene almeno quanto me che al mondo sono i soldi che determinano determinate scelte, spesso ancora prima del buon senso.
Io non so da chi tu dipenda, ma sono sicuro che se l'azienda X paga la tua software house per determinate scelte e la tua software house accetta, il tuo superiore ti dirà di fare le cose in un certo modo e tu le fai.
E' del tutto ovvio che quegli shader sono stati realizzati completamente in FP32... lo dice il loro stesso motore grafico nel momento in cui stampa i risultati dei benchmark (parla di full precision che è un'espressione di certo non ambigua).
Ora sarà perché non avevano il tempo di ottimizzarlo, sarà perché hanno visto che NV40 tutto sommato male non va con FP32, sarà perché hanno visto che alla fine la resa in PS 1.4 male male non era, fatto sta che le GeForce Fx sono forzate a PS 1.4 e NV40 non supera R420.
Secondo me per Doom III forse c'è stato un po il percorso inverso. Dico, si sapeva dal 1999, se non erro, che Carmak avrebbe fatto uso intensivo delle stencil shadows e NVIDIA, fiutando il successo di questo titolo (e dei possibili titoli che sarebbero usciti con quel motore grafico) ha progettato le sue architettura di conseguenza.
Originariamente inviato da Vifani
Dai fek non facciamo i difensori della giustizia e della libertà. Tu sai bene almeno quanto me che al mondo sono i soldi che determinano determinate scelte, spesso ancora prima del buon senso.
Secondo me non e' una questione di giustizia e liberta', non sono il tipo. E' piu' una questione di rispetto per la propria clientela e il rispetto porta al brand e il brand porta i soldi.
Scalare la precisione di uno shader a fp16, senza lanciarsi in grosse ottimizzazioni, porta letteralmente via 5 minuti, scriverlo direttamente in fp32 e' una "pessimization" voluta.
E alla fine dei conti si penalizza in maniera voluta una fetta importante della propria clientela. Se il mio capo mi ordinasse di fare una cosa simile, potrei sempre cambiare societa' ;)
Originariamente inviato da fek
Personalmente io cerco di non prostituirmi a questa maniera.
Mai dire mai nella vita :p :D (naturalmente sto scherzando).
Certo è che hanno calcato parecchio la mano, ma di sicuro avranno ricevuto degli "incentivi" non rifiutabili: oltre ai finanziamenti impliciti nella collaborazione, non riesco a non pensare alle copie "fantasma" vendute (non sto a sindacare sui prezzi all'ingrosso) come "vuoto a perdere" con i bundle delle schede: il ritardo nel rilascio del gioco lo ha inevitabilmente trasformato, da un certo punto di vista, in un progetto "su commissione" (un po' come i complessi edilizi venduti prima della realizzazione). Al di là delle intenzioni iniziali (che non conosco e non voglio conoscere :D), da un certo momento in poi gli sviluppatori si saranno trovati nella posizione di non poter più fare tanto gli schizzinosi (che poi si possa parlare di/pensare a una reale "coercizione degli eventi" o di una possibile giustificazione cambia poco: il risultato è sotto gli occhi di tutti e ahimè - o ahi noi - non si può cambiare, almeno nella forma - nella sostanza dei meri numeri qualche driver miracoloso potrebbe migliorare la situazione).
Mi piacerebbe comunque togliermi una curiosità (che comunque non posso soddisfare di persona :p ): chissà come si comportano NV40 e R420 forzando l'uso delle dx 8.1? So bene che non avrebbe molto senso né al fine di valutare l'engine, né per misurare le prestazioni delle schede; però l'implementazione di quelle specifiche nelle due famiglie dovrebbe essere molto più simile (a parte la dipendenza tra alu e tmu nelle schede nvidia), giusto? Quindi, l'engine dovrebbe comportarsi in maniera più "standard" e slegata da feature particolari dell'una o dell'altra (almeno credo :confused: ), pertanto, se questo è vero, un test del genere, per quanto poco ortodosso e poco utile quanto alla metodologia generale, potrebbe fornire una misura empirica, seppur parziale, dell'entità delle ottimizzazioni specifiche, ammesso che il minor numero di dettagli non renda impossibile trovare scene gpu limited per quei chip. Spero di non aver detto una cavolata :p.
Tornando a parlare dell'articolo, è interessante e ben fatto come al solito, in particolare trovo interessante l'analisi delle caratteristiche del motore grafico. Una curiosità tecnica: si è detto che l'illuminamento degli oggetti statici è precalcolato e contempla la radiosity per una migliore resa degli effetti ambientali, scelta che, di contro, provoca una mancata illuminazione degli oggetti in conseguenza ad esempio agli spari, ovvero all'introduzione nella scena di nuove luci, "difetto" che invece non "affligge" i personaggi e tutto ciò che si muove, sottoposto a un illuminamento dinamico; ora, mi chiedevo se non fosse possibile una soluzione ibrida più spinta, che vada a modificare dinamicamente l'illuminamento degli elementi statici trattando i valori precalcolati come una sorta di componente costante, ovvero applicando una qualche sovrapposizione degli effetti (che difetterebbe nel non considerare la componente diffusa delle nuove luci - chiaramente ho in mente modelli di shading basati su equazioni di illuminamento "discrete", tipo quella di Phong).
Ciao a tutti :)
Originariamente inviato da fek
Secondo me non e' una questione di giustizia e liberta', non sono il tipo. E' piu' una questione di rispetto per la propria clientela e il rispetto porta al brand e il brand porta i soldi.
Scalare la precisione di uno shader a fp16, senza lanciarsi in grosse ottimizzazioni, porta letteralmente via 5 minuti, scriverlo direttamente in fp32 e' una "pessimization" voluta.
E alla fine dei conti si penalizza in maniera voluta una fetta importante della propria clientela. Se il mio capo mi ordinasse di fare una cosa simile, potrei sempre cambiare societa' ;)
Ma siamo perfettamente d'accordo che bisogna rispettare la propria clientela, del resto non è che sulle NVIDIA il gioco non parte. Va semplicemente peggio ;)
Stai tranquillo che chi ha una GeForce Fx o un NV40/NV43 lo compra lo stesso e ci gioca lo stesso.
Originariamente inviato da xeal
Tornando a parlare dell'articolo, è interessante e ben fatto come al solito, in particolare trovo interessante l'analisi delle caratteristiche del motore grafico. Una curiosità tecnica: si è detto che l'illuminamento degli oggetti statici è precalcolato e contempla la radiosity per una migliore resa degli effetti ambientali, scelta che, di contro, provoca una mancata illuminazione degli oggetti in conseguenza ad esempio agli spari, ovvero all'introduzione nella scena di nuove luci, "difetto" che invece non "affligge" i personaggi e tutto ciò che si muove, sottoposto a un illuminamento dinamico; ora, mi chiedevo se non fosse possibile una soluzione ibrida più spinta, che vada a modificare dinamicamente l'illuminamento degli elementi statici trattando i valori precalcolati come una sorta di componente costante, ovvero applicando una qualche sovrapposizione degli effetti (che difetterebbe nel non considerare la componente diffusa delle nuove luci - chiaramente ho in mente modelli di shading basati su equazioni di illuminamento "discrete", tipo quella di Phong).
Ciao a tutti :)
Beh guarda la forza del Radiosity Normal Mapping alla fine è l'eccellente resa che offre senza che effettivamente la GPU calcoli un bel niente perché tra le varie texture viene fatto un semplice mix. Insomma, una banalità del punto di vista matematico. Anzi, per il calcolo della sola componente diffusa (senza bump mapping) non viene fatto neanche il banalissimo N dot L. La stessa componente speculare non viene calcolata, ma si basa su una semplice cube map ed una specular factor map.
Se si dovesse aggiungere a questo fattore, un altro calcolato matematicamente per pixel, beh penso che i vantaggi velocistici della tecnica adottata decadrebbero in gran parte e probabilmente la resa, per quanto più dinamica, perderebbe la correttezza fisica che possiede (elementi dinamici a parte) e, conseguentemente, anche parte della sua "bellezza".
Io ritengo che il Source Engine abbia soluzioni molto interessanti e hanno fatto benissimo a concentrarsi così tanto sulla resa dei materiali, perché sono veramente ben fatti, meglio che in Far Cry (dove sembra un po tutto umidiccio e plasticoso). Tuttavia, alla fine, forse è un po troppo legato al passato in quanto l'approccio per l'illuminazione è statico.
cdimauro
06-12-2004, 08:13
Originariamente inviato da leoneazzurro
Dal mio punto di vista il discorso FP16/FP 32 sulle NV 40 ha un impatto meno profondo su quei risultati di qunto si pensi.
http://forum.hwupgrade.it/showthread.php?s=&postid=6646869#post6646869
Insomma, la gran parte del lavoro l'ha fatta Valve ;)
Sì, ho letto il thread e devo dire che è MOLTO interessante: come al solito yossorian delizia le mie pupille. :)
E' ormai chiaro che Valve ha fatto uso massicco di FP32 di proposito, e ha scritto gli shader in modo da penalizzare NV40 a causa della dipendenza fra TMU e ALU.
D'altra parte, come è stato rimarcato, Carkmak ha fatto lo stesso utilizzando LUT a tutto spiano in Doom3 per penalizzare proprio le architetture Ati, a cui questa tecnica è particolarmente indigesta.
Mia madre mi ripete spesso: "non c'è un palmo di buon terreno". Ha ragione. :D
Conclusione: 1 a 1, e basta con i flame. :)
Originariamente inviato da Vifani
Beh guarda la forza del Radiosity Normal Mapping alla fine è l'eccellente resa che offre senza che effettivamente la GPU calcoli un bel niente perché tra le varie texture viene fatto un semplice mix.
Insomma non è a costo zero :D
Nella presentazione si parla di 43 ALU ops e 7 texture fetch per lo shader più complesso. Comunque il numero di operazioni è ordini di grandezza inferiore a quello richiesto per una vera radiosity RT, e il risultato è molto più piacevole della radiosity resa mediante lighmap semplici.
Tuttavia, alla fine, forse è un po troppo legato al passato in quanto l'approccio per l'illuminazione è statico.
Le attuali schede sono ancora troppo poco potenti per un'illuminazione dinamica sufficientemente realistica :p
I tentativi più interessanti riguardano le armoniche sferiche, ripreso dal PRT in DirectX 9.
Athlon 64 3000+
06-12-2004, 11:02
Mi viene da dire solo una cosa:
Sia la ID che la Valve hanno volutamente favorito una architettura e danneggiato quella concorrente e questa cosa mi ha toccato molto perchè mi sono trovato a giocare Doom 3 e HL2 con schede che non erano il "massimo".
Prima Doom 3 con la 9800Pro e poi HL2 con la 6800GT,dico che ho avuto proprio una gran fortuna.
A me sti fatti non mi piaciono per niente,infatti non non sono ne dalle parte di Ati e Nvidia,ma non volgio che succedano queste cose perchè solo noi utenti ne veniamo danneggiati.
Originariamente inviato da Banus
Insomma non è a costo zero :D
Nella presentazione si parla di 43 ALU ops e 7 texture fetch per lo shader più complesso. Comunque il numero di operazioni è ordini di grandezza inferiore a quello richiesto per una vera radiosity RT, e il risultato è molto più piacevole della radiosity resa mediante lighmap semplici.
Statico per statico, perche' non calcolare tutta la lightmap e applicarla con un solo texture fetch? :)
(Per risparmiare memoria video)
Le attuali schede sono ancora troppo poco potenti per un'illuminazione dinamica sufficientemente realistica :p
I tentativi più interessanti riguardano le armoniche sferiche, ripreso dal PRT in DirectX 9.
Non ho molta fiducia nel PRT, e' una tecnica che funziona bene "a bassa frequenza", in parole povere cattura solo deboli cambiamenti dell'illuminazione da un punto ad un altro, esattamente il contrario di quello che accade quando si passa da una zona d'ombra all'altra.
Trovo piu' interessanti tecniche di occlusion mapping e photon mapping.
Originariamente inviato da cdimauro
D'altra parte, come è stato rimarcato, Carkmak ha fatto lo stesso utilizzando LUT a tutto spiano in Doom3 per penalizzare proprio le architetture Ati, a cui questa tecnica è particolarmente indigesta.
Secondo me non e' stata una scelta fatta di proposito, e' una scelta che personalmente non condivido ma che ha una sua logica dietro: l'uso delle LUT gli permetteva di avere la stessa identica funzione matematica su tutte le GPU, quindi gli artisti erano in grado di creare le texture e vedere il risultato a video costante su ogni piattaforma.
Ha una logica.
Usare fp32 invece di fp16 quando e' matematicamente garantito lo stesso risultato non ha alcuna logica (se non di mercato).
Originariamente inviato da Vifani
Stai tranquillo che chi ha una GeForce Fx o un NV40/NV43 lo compra lo stesso e ci gioca lo stesso.
Potenza del marketing.
Originariamente inviato da fek
Statico per statico, perche' non calcolare tutta la lightmap e applicarla con un solo texture fetch? :)
Nella presentazione di Valve se non ho capito male (ammazza se è incasinata :p) le 3 lightmap servono per variare l'illuminazione in base alla normal map.
E comunque... e una superfice è diffusa e l'illuminazione è statica, perchè usare una normal map? :D :D
Non ho molta fiducia nel PRT, e' una tecnica che funziona bene "a bassa frequenza", in parole povere cattura solo deboli cambiamenti dell'illuminazione da un punto ad un altro, esattamente il contrario di quello che accade quando si passa da una zona d'ombra all'altra.
Trovo piu' interessanti tecniche di occlusion mapping e photon mapping.
Nel PRT se non ricordo male c'è anche un termine di self-occlusion, niente comunque di particolarmente accurato.
L'idea con le SH credo che sia basse frequenze mediante armoniche e alte frequenze mediante luci puntuali e calcolo di ombre. Comunque l'argomento SH non l'ho mai approfondito molto, temo che all'atto pratico sia ancora troppo rigido.
Le tecniche di photon mapping sarebbero l'ideale :D
Unico problema, richiedono dai 10 ai 30 Tflops per essere applicate a scene complesse e con basso tasso di rumore :D
Athlon 64 3000+
06-12-2004, 12:31
Originariamente inviato da Banus
Insomma non è a costo zero :D
Nella presentazione si parla di 43 ALU ops e 7 texture fetch per lo shader più complesso. Comunque il numero di operazioni è ordini di grandezza inferiore a quello richiesto per una vera radiosity RT, e il risultato è molto più piacevole della radiosity resa mediante lighmap semplici.
Banus qua dice che lo shader più complesso usa quel tipo di lunghezza di istruzioni(Spero di essermi spiegato meglio).
E per caso quello il tipo di shader che manda in "crisi" L'NV40?
Originariamente inviato da Banus
Insomma non è a costo zero :D
Nella presentazione si parla di 43 ALU ops e 7 texture fetch per lo shader più complesso. Comunque il numero di operazioni è ordini di grandezza inferiore a quello richiesto per una vera radiosity RT, e il risultato è molto più piacevole della radiosity resa mediante lighmap semplici.
Calma, quel dato è valido per lo shader + complesso in assoluto, probabilmente quello dell'acqua. Ma dal punto di vista matematico il Radiosity Normal Mapping non è molto complesso.
Originariamente inviato da fek
Statico per statico, perche' non calcolare tutta la lightmap e applicarla con un solo texture fetch? :)
(Per risparmiare memoria video)
Effettivamente essendo statica l'illuminazione e poiché la lightmap e la normal map non dipendono dal punto di vista, potevano anche calcolarla in toto. Però comunque per la componente speculare devono necessariamente utilizzare la cube map supplementare e le specular factor map.
Originariamente inviato da Vifani
Calma, quel dato è valido per lo shader + complesso in assoluto, probabilmente quello dell'acqua. Ma dal punto di vista matematico il Radiosity Normal Mapping non è molto complesso.
Dalla presentazione ho l'impressione che invece il dato sia riferito al particolare shader. Infatti nello schema che mostra la composizione delle varie mappe (radiosity, albedo, specular factor) le mappe che non possono essere calcolate sono proprio 7, che corrisponde al caso più complesso. Casualmente anche i texture sampler sono 7, ma la presentazione specifica che alcuni sono mutualmente esclusivi (detail map vs. normal map).
Dalla presentazione:
•Many shaders are generated by this process•Longest ps_2_0 shader is 43 ALU ops•Up to 7 texture fetches
rmarango
06-12-2004, 14:54
Originariamente inviato da fek
Usare fp32 invece di fp16 quando e' matematicamente garantito lo stesso risultato non ha alcuna logica (se non di mercato).
A conferma della tua tesi ho trovato un'altro commento interessante :
Because FP16 is *overkill* for most calculations. Standard 8bit is enough for most calculations. Maybe a couple bits higher internal precission helps sometimes, but generally 12bit fixed point, or often even 8bit, is so precise you won't be able to see any artefacts even if you look at the image side by side with an INFINITE precission version.
Going from FP16 to FP24 to FP32 is just oneupsmanship for the sake of oneupsmanship. The only time you can need more than FP16 is when doing texture coordinates on REALLY large textures or if you're doing world space calcuations in the pixel shader instead of vertex shader.
FP32 is completely overkill for PIXEL operations. Imagine you had a mouse that was 65,000x more precise than your current mouse. Would that make you better at fps games? No, it'd be overkill.
When is FP32 generally useful? When mapping non graphic algorithms that don't require IEEE floating point complicance off the CPU to something faster.
So don't expect any difference in image quality between FP16, FP24, or FP32. Expect a difference from the old things like anisotropic filtering or anti aliasing.
cdimauro
06-12-2004, 16:05
x fek: ti ringrazio per le informazioni, che condivido ampiamente.
rmarango
06-12-2004, 17:15
...
Normally Radeon 98xx cards were to be bundled with Half-Life 2, but since the game was delayed, they included vouchers with the cards that lets you get the game for free on Steam.
Valve also gave special consideration towards ATI Radeon cards in the game in shader performance, however someone found that using 3DAnalyze, and forcing FP16 shader precision in the game, it gave a big performance boost on GeForce FX cards while losing no image quality in the process. What does this mean? It means ATI certainly got what they paid for in the game.
E' tratto da una news di 3dgpu non da un forum.
ecco il link http://3dgpu.com/archives/2004/12/01/boost-performance-in-hl2-on-geforce-fx-cards/
"Money is the simple answer my dear friends..."
;)
rmarango
06-12-2004, 17:40
Volete vedere un uso "inconsueto" del gravity gun (spoiler warning) ....?
andate qui....http://hl2.punkassfraggers.com/ :D
e scorrete la pagina lentamente verso il basso dopo aver letto la prima notizia ;)
non so voi.ma barton2500+ fx5900xt 128mb il tutto rulla che una bellezza!! a 1152x864 aa2xq af4x ,con doom3 me lo sognavo! a opzioni su high,solo qlcke swap cambio zona. chissà su schede ammiraglie!
ciauzzzz
Originariamente inviato da rmarango
FP32 is completely overkill for PIXEL operations. Imagine you had a mouse that was 65,000x more precise than your current mouse. Would that make you better at fps games? No, it'd be overkill.
Infatti le operazioni fp sono sono state introdotte per evitare perdita di precisione negli shader lunghi. Ati ha scelto di gestire solo fp24, mentre NV40 dovrebbe avere unità fp16 e fp32. Questo permette a Nvidia di raggiungere risultati notevoli, come la normalizzazione di un vettore in un ciclo di clock a fp16 (dot product + reciproco + radice + moltiplicazione).
Dal momento che esistono schede che si avvantaggiano della riduzione di precisione, come ha detto Fek non costa nulla utilizzare full precision solo dove serve. D'altra parte si fa lo stesso da anni su PC, quando si sceglie ad esempio fra single o double precision.
Originariamente inviato da Banus
Nel PRT se non ricordo male c'è anche un termine di self-occlusion, niente comunque di particolarmente accurato.
L'idea con le SH credo che sia basse frequenze mediante armoniche e alte frequenze mediante luci puntuali e calcolo di ombre. Comunque l'argomento SH non l'ho mai approfondito molto, temo che all'atto pratico sia ancora troppo rigido.
Si', alla fine della fiera e' un problema intrinseco alle tecniche che usano l'SH, che non e' altro che un sistema di compressione. Il limite del sistema di compressione, o meglio l'ipotesi, e' che la funzione compressa sia a bassa frequenza. Ma in un modello di illuminazione si vuole proprio riprodurre situazioni ad alta frequenza e contrasto, per questo credo poco al metodo.
Come dici giustamente e' una mossa intelligente usare una rappresentazione SH per molte "point light" lontane ed un modello classico per le point light vicine.
Abbiamo provato per BW2 ma con risultati piuttosto deludenti ed il mio entusiasmo per l'SH e' andato scemando.
Le tecniche di photon mapping sarebbero l'ideale :D
Unico problema, richiedono dai 10 ai 30 Tflops per essere applicate a scene complesse e con basso tasso di rumore :D
Con calma ci arriviamo :D
Originariamente inviato da Vifani
Effettivamente essendo statica l'illuminazione e poiché la lightmap e la normal map non dipendono dal punto di vista, potevano anche calcolarla in toto. Però comunque per la componente speculare devono necessariamente utilizzare la cube map supplementare e le specular factor map.
Ma a quel punto potevano semplicemente calcolare la lightmap e poi accumulare i risultati della componente speculare.
Questo dal punto di vista prestazionale, ma immagino che il sistema gli abbia fatto risparmiare memoria video.
Un'altra spiegazione e' il fatto che un "calcolatore" di radiosity vorrebbe in ingresso la normal map come geometria e forse non avevano questa informazione nella loro tool chain. O molto piu' probabilmente hanno optato per questo sistema piuttosto che scrivere un convertitore da normal map a geometria (che poi non e' altro che fare disp mapping in un tool).
In sintesi, c'e' sicuramente una certa logica dietro a questa scelta.
Originariamente inviato da Vifani
Se si dovesse aggiungere a questo fattore, un altro calcolato matematicamente per pixel, beh penso che i vantaggi velocistici della tecnica adottata decadrebbero in gran parte e probabilmente la resa, per quanto più dinamica, perderebbe la correttezza fisica che possiede (elementi dinamici a parte) e, conseguentemente, anche parte della sua "bellezza".
Capisco. Mi sorge però un dubbio: non si potrebbe cercare di costruire una lightmap "di normalizzazione", con i valori per la radiosity calcolati per una certa sorgente, in modo da utilizzarla per "pesare" (sempre per sovrapposizione degli effetti) il contributo di ciascuna luce all'illuminamento della scena, essendo nota l'"interazione" dei poligoni con la sorgente "standard" e con gli altri poligoni (precalcolata mediante l'algoritmo di radiosity per quella sorgente), ed essendo nota (sempre che sia possibile stabilirne una) anche la legge che consente di variare i valori precalcolati in base alla diversa posizione, direzione e colore della sorgente "reale"? In altri termini, si potrebbero usare i valori precalcolati e normalizzati come una sorta di coefficiente per il calcolo dinamico del contributo all'illuminamento di ciascuna (nuova) luce da moltiplicare alle componenti del colore e a un fattore (vero nodo del problema, da sciogliere con studi "teorici") legato alla posizione della luce (penso a una point light che irradia in tutte le direzioni) rispetto alla sorgente "normalizzata" (eventualmente, se possibile, si potrebbe tener conto anche di una differente intensità, area di "influenza" e fattore di attenuazione). Se ciò fosse possibile, si potrebbe cercare di ridurre i calcoli considerando più mappe normalizzate rispetto a più sorgenti per calcolare il contributo della luce "vera" mediante interpolazione (eventualmente si potrebbe procedere in modo simile per trattare luci con diverso raggio e fattore di attenuazione); naturalmente si potrebbe sempre utilizzare una o più lightmap precalcolata/e per le luci statiche, effettuando il semplicissimo mix di cui mi parlavi, più questo "espediente" (calcolo in base a una lightmap normalizzata o interpolazione, quindi ancora mix, su più mappe) per ciascuna luce dinamica: credo che si otterrebbe ancora una resa gradevole, fisicamente corretta (esclusi ancora gli elementi dinamici) e con tempi di elaborazione accettabili, naturalmente ammesso e non concesso che una tecnica del genere sia fattibile.
Caio.
Altro dubbio: la riflessione speculare è anch'essa totalmente statica, come l'illuminamento ambientale e diffuso, oppure la cube map viene modificata in qualche modo durante l'esecuzione? In altri termini: un oggetto o un personaggio in movimento viene riflesso oppure no? :confused:
Originariamente inviato da xeal
Altro dubbio: la riflessione speculare è anch'essa totalmente statica, come l'illuminamento ambientale e diffuso, oppure la cube map viene modificata in qualche modo durante l'esecuzione? In altri termini: un oggetto o un personaggio in movimento viene riflesso oppure no? :confused:
Devi fare attenzione a non fare confusione. La cube map è una mappa di cui normalmente le coordinate di mappatura (cioè le coordinate che associano ad ogni vertice, un punto della cube map) vengono calcolate in base al vettore riflessione del vettore che va dal punto di vista al vertice considerato. Tale tecnica viene usata per il cube environmental mapping, cioè per avvolgere un oggetto in sei mappe che rappresentano ciò che vede l'oggetto (cioè l'ambiente che riflette).
In HL2 la cube map è usata per avvolgere l'oggetto con sei mappe rappresentanti la quantità di luce che riflette (riflessione speculare). Tale cube map viene utilizzata in HL2 per calcolare la riflessione speculare delle luci statiche, ma la riflessione di per sè non è statica perché dipende dalla posizione di ogni vertice e del punto di vista.
Originariamente inviato da xeal
In altri termini: un oggetto o un personaggio in movimento viene riflesso oppure no? :confused:
Un oggetto può essere riflesso se la mappa viene continuamente aggiornata, ad esempio con un render-to-texture. C'è una demo DirectX che funziona proprio così.
Originariamente inviato da Vifani
In HL2 la cube map è usata per avvolgere l'oggetto con sei mappe rappresentanti la quantità di luce che riflette (riflessione speculare). Tale cube map viene utilizzata in HL2 per calcolare la riflessione speculare delle luci statiche, ma la riflessione di per sè non è statica perché dipende dalla posizione di ogni vertice e del punto di vista.
Ok, cambiando il punto di vista si modifica l'immagine riflessa, come su un comunissimo specchio, e fin qui tutto "fila" perfettamente. Quello che mi chiedo, però (evidentemente mi sono espresso malissimo), è se vengano riflessi solo gli elementi statici, per i quali è possibile determinare a priori il contributo alle cube map delle superfici riflettenti, oppure se vi sia riflessione anche degli elementi dinamici, i quali credo che possano "comparire" nell'immagine riflessa solo modificando le cube map degli oggetti riflettenti. Per "riflessione totalmente statica" intendevo "totalmente precalcolata (per quanto riguarda gli elementi riflessi visibili dalle varie angolazioni) e non modificata al mutare degli elementi (dinamici) della scena", ovvero "statica fissato il punto di vista, anche in presenza di oggetti in movimento".
Ciao.
x Banus
Per quel che ho capito il render to texture viene usato in HL2 per le ombre degli elementi dinamici, e a quanto dici sarebbe l'unico modo per ottenere una loro riflessione speculare (cosa che immaginavo). Quello che vorrei capire è: ciò viene fatto? Se non si fosse capito non ho modo di verificarlo di persona, quindi continuerò a rompere finchè non mi sarò tolto il dubbio :p (se qualcuno sta pensando che questa sia una minaccia, beh, non so che dire, se non che.... ha perfettamente ragione :Perfido: :D)
Originariamente inviato da xeal
Ok, cambiando il punto di vista si modifica l'immagine riflessa, come su un comunissimo specchio, e fin qui tutto "fila" perfettamente. Quello che mi chiedo, però (evidentemente mi sono espresso malissimo), è se vengano riflessi solo gli elementi statici, per i quali è possibile determinare a priori il contributo alle cube map delle superfici riflettenti, oppure se vi sia riflessione anche degli elementi dinamici, i quali credo che possano "comparire" nell'immagine riflessa solo modificando le cube map degli oggetti riflettenti. Per "riflessione totalmente statica" intendevo "totalmente precalcolata (per quanto riguarda gli elementi riflessi visibili dalle varie angolazioni) e non modificata al mutare degli elementi (dinamici) della scena", ovvero "statica fissato il punto di vista, anche in presenza di oggetti in movimento".
Ciao.
Penso che la cube map per la riflessione speculare sia statica, dubito che venga aggiornata. Esiste già una cube map dedicata alla mappatura ambientale per gli oggetti dinamici che tiene conto anche di due luci locali dinamiche per il calcolo del colore finale. Quindi lo sparo di un combine vicino ad un altro combine, li illuminerà entrambi, ma la riflessione speculare non viene modificata perché basata solo sulle luci statiche.
Originariamente inviato da fek
Ma a quel punto potevano semplicemente calcolare la lightmap e poi accumulare i risultati della componente speculare.
Questo dal punto di vista prestazionale, ma immagino che il sistema gli abbia fatto risparmiare memoria video.
Un'altra spiegazione e' il fatto che un "calcolatore" di radiosity vorrebbe in ingresso la normal map come geometria e forse non avevano questa informazione nella loro tool chain. O molto piu' probabilmente hanno optato per questo sistema piuttosto che scrivere un convertitore da normal map a geometria (che poi non e' altro che fare disp mapping in un tool).
In sintesi, c'e' sicuramente una certa logica dietro a questa scelta.
Beh comunque a rigor di logica è più corretto come hanno fatto perché è un approccio più generico e modulare e anche perché non sta scritto da nessuna parte che una superficie deve essere per forza ruvida ed utilizzare una normal map...
Originariamente inviato da xeal
Quello che vorrei capire è: ciò viene fatto? Se non si fosse capito non ho modo di verificarlo di persona, quindi continuerò a rompere finchè non mi sarò tolto il dubbio :p
Molto probabilmente lo fa sull'acqua con l'opzione "reflect all" (non ho modo di verificare di persona ma da come è descritto sembra proprio di sì :D), e in quel caso non usa una cubemap.
Visto il consistente calo di prestazioni direi che non viene applicato su altri materiali ;)
Originariamente inviato da Vifani
Beh comunque a rigor di logica è più corretto come hanno fatto perché è un approccio più generico e modulare e anche perché non sta scritto da nessuna parte che una superficie deve essere per forza ruvida ed utilizzare una normal map...
Nella grafica realtime fra un approccio elegante ma costoso in termini di calcoli e una soluzione "furba" che porta allo stesso risultato viene preferita in genere la seconda.
Se una normal map su un oggetto statico è illuminata da una luce statica e non ha riflessioni speculari può essere sostituita tranquillamente da una texture classica opportunamente calcolata, perchè lo shader non farebbe che ricalcolare ad ogni frame sempre la stessa texture (parallax mapping a parte :D).
Originariamente inviato da Banus
Un oggetto può essere riflesso se la mappa viene continuamente aggiornata, ad esempio con un render-to-texture. C'è una demo DirectX che funziona proprio così.
In HL2 gli artisti possono posizionare nel mondo dei "cubi" che renderizzano la scena attorno a loro in una cubemap da usare per calcolare le riflessioni sugli oggetti vicini ai cubi stessi.
Originariamente inviato da Vifani
Beh comunque a rigor di logica è più corretto come hanno fatto perché è un approccio più generico e modulare e anche perché non sta scritto da nessuna parte che una superficie deve essere per forza ruvida ed utilizzare una normal map...
Non ho capito quello che intendi.
In generale non e' piu' corretto un approccio piu' generico, l'approccio piu' corretto e' quello che risolve il problema. Ma qui si entra nel filosofico.
Dal punto di vista grafico, l'approccio piu' corretto e' quello che "e' piacevole a vedersi ed e' ragionevolmente veloce". Questa tecnica e' sicuramente piacevole a vedersi, e' ragionevolmente veloce e, immagino gli abbia dato degl'altri vantaggi nella loro tool pipeline. Io, personalmente, sarei andato verso una lightmap classica e la componente speculare, ma ho in mente la mia tool pipeline.
Per un motore per la prossima gen, abbandonerei (abbandonero') totalmente le lightmap invece.
Una superficie non ruvida e' una superficie con normalmap costante, quindi puo' essere trattata da un qualunque argomento di normal mapping come caso particolare.
Originariamente inviato da Banus
Nella grafica realtime fra un approccio elegante ma costoso in termini di calcoli e una soluzione "furba" che porta allo stesso risultato viene preferita in genere la seconda.
Se una normal map su un oggetto statico è illuminata da una luce statica e non ha riflessioni speculari può essere sostituita tranquillamente da una texture classica opportunamente calcolata, perchè lo shader non farebbe che ricalcolare ad ogni frame sempre la stessa texture (parallax mapping a parte :D).
Ovvero: non calcolare piu' volte quello che puoi calcolare una volta sola (offline) :)
Originariamente inviato da fek
In HL2 gli artisti possono posizionare nel mondo dei "cubi" che renderizzano la scena attorno a loro in una cubemap da usare per calcolare le riflessioni sugli oggetti vicini ai cubi stessi.
Non ho capito quello che intendi.
In generale non e' piu' corretto un approccio piu' generico, l'approccio piu' corretto e' quello che risolve il problema. Ma qui si entra nel filosofico.
Dal punto di vista grafico, l'approccio piu' corretto e' quello che "e' piacevole a vedersi ed e' ragionevolmente veloce". Questa tecnica e' sicuramente piacevole a vedersi, e' ragionevolmente veloce e, immagino gli abbia dato degl'altri vantaggi nella loro tool pipeline. Io, personalmente, sarei andato verso una lightmap classica e la componente speculare, ma ho in mente la mia tool pipeline.
Per un motore per la prossima gen, abbandonerei (abbandonero') totalmente le lightmap invece.
Una superficie non ruvida e' una superficie con normalmap costante, quindi puo' essere trattata da un qualunque argomento di normal mapping come caso particolare.
Se hai osservanto l'albero di generazione della scena avrai sicuramente notato che la normal map viene usata tanto per calcolare la componente diffusa, quanto per quella speculare. Evidentemente hanno visto che, poiché alla fine la normal map veniva comunque usata, era meglio usare l'approccio lightmap+normal map. Questo intendo per generico, senza usare soluzioni ad hoc come lightmap precalcolate con normal map. Anche se in questo modo la scheda video è + stressata, evidentemente hanno visto che non ne valeva la pena.
Originariamente inviato da Vifani
Se hai osservanto l'albero di generazione della scena avrai sicuramente notato che la normal map viene usata tanto per calcolare la componente diffusa, quanto per quella speculare. Evidentemente hanno visto che, poiché alla fine la normal map veniva comunque usata, era meglio usare l'approccio lightmap+normal map. Questo intendo per generico, senza usare soluzioni ad hoc come lightmap precalcolate con normal map. Anche se in questo modo la scheda video è + stressata, evidentemente hanno visto che non ne valeva la pena.
Sicuramente si', come dicevo se hanno implementato questo sistema gli deve aver dato un qualche vantaggio, magari nel tempo necessario a produrre l'art asset (speculo).
Cmq half life a me va benissimo cn un mobile a 2500 mhz 768 mb di ram e 9800pro@xt a 1280x1024 tutto al max 4x aa e 16x as e doom 1024 x 768 dettagli ultra cn 2 aa
DevilMax
17-01-2005, 22:06
Io ho un Athlon XP 2400+ 512MB RAM DDR PC400 CAS Latency 2.5,MotherBoard Biostar M7VIT Grand con Chipset VIA KT600/8237 e una Sapphire Radeon 9600 XT 256 MB OverCloccata Core(526.50) Mem(355.50).
Mettendo i dettagli medi e la risoluzione a 800x600 mi da qualche scatto e l'audio sgrana paurosamente.
Sarà che Half Life 2 favorisce ATI,ma io con Doom 3 ci gioco a 800x600 ad ALTA Qualità senza problemi.
Ora ditemi voi?!?!?!
P.S.:Il doppiaggio di Half Life 2 è veramente Orendo.
Ben lontano da quello quasi perfetto di Doom 3.
DevilMax
17-01-2005, 22:39
Ah scusate la Ram è PC3200(DDR 400MHZ)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.