PDA

View Full Version : John Carmak su DirectX 9 e GeForce FX


Redazione di Hardware Upg
18-09-2003, 11:41
Link alla notizia: http://news.hwupgrade.it/10818.html

Il lead programmer di Doom 3 espone le proprie idee sulle prestazioni delle GPU GeForce FX con i prossimi giochi DirectX 9

Click sul link per visualizzare la notizia.

cionci
18-09-2003, 11:44
Cacchio se anche Carmack va contro nVidia allora comincio proprio a credere che la FX faccia tecnicamente cacare...

Carpix
18-09-2003, 11:46
A parte gli scherzi mi sa tanto che John Carmack i nuovi chip Fx non lo hanno soddisfatto.

Carpix
18-09-2003, 11:47
Mi hai battuto sul tempo a inviare.
A parte gli scherzi lo penso anche io, e la cosa di cui mi stupisco di più è che io volevo passare da chip ati a Nvidia, ma penso che non lo farò più, mi sa tanto che per Nvidia le cose vanno sempre peggio.
Aricciao

S4dO
18-09-2003, 11:51
cattiva pubblicità per nvidia. Sinceramente penso k se creassero una gpu veloce e con immagine brillante stile Pharelia, allora farebbeveramente successo

sss
18-09-2003, 11:54
No doubt you heard about GeForce FX fiasco in Half-Life 2


:rotfl:

OverClocK79®
18-09-2003, 11:59
c'era da aspettarselo
soprattuto da Carmack che sta pure programmando + modalità del suo Doom3 per farlo girare al meglio con tutte le skede.......

speriamo che nVidia con i suoi prossimo chip prenda spunto dai suoi errori......

BYEZZZZZZZZZZZZ

~efrem~
18-09-2003, 11:59
... inizio ad avere il vago sospetto che il progetto Fx sia un po sbagliatino, vero...ecco...

:D

prova
18-09-2003, 12:00
Brutta storia per Nvidia [e per chi si è comprato una Fx]

Peccato, sarà per il prossimo treno. ;)

~efrem~
18-09-2003, 12:01
... e pensare che ci sono amici miei che hanno svenduto la 9700pro per una 5900ultra...

Il mondo è proprio vario...

Carpix
18-09-2003, 12:03
Che sarà per il prossimo convoglio di carri, meno male come si suol dire io mi sono salvato veramente in calcio d' angolo che c@@o "indovinate la parola".
Ciao :-)))

cionci
18-09-2003, 12:03
Bisogna pensare che Carmack è sempre stato pro-nVidia dal TnT2 in poi...

sss
18-09-2003, 12:10
Il progetto 9700 è talmente azzeccato che a distanza di più di un anno dalla sua uscita, è ancora la scheda di riferimento insieme alla 9800.

sanitarium
18-09-2003, 12:17
Bene (anzi, male :( ), spero che ora le dichiarazioni di Carmack servano a mettere fine alle polemiche a proposito del presunto accordo di ottimizzazione "ATi-Half life 2", visto che Carmack stesso sostiene che i risultati ottenuti dalle FX con il suddetto gioco probabilmente non sono molto lontani da quelli che si otterranno con i futuri giochi in dx9 STANDARD.

Sbagliando si impara, o almeno lo spero per NVidia... :O

sslazio
18-09-2003, 12:25
io continuo ad essere perplesso sui fantomatici orribili dati dx9 su schede nvidia.
Sarà che farà schifo, ma ho visto giare con i miei occhi il 3dmark 2003 che dovrebbe essere dx9 a quanto ne so, senza il minimo problema, con moltissimi fps, eppure ho una 5800 leggermente overloccata e nulla di più.
Vedremo se è vero che HL non girerà o se Doom3 andrà a 3 fps, anche perchè Doom è da sempre Opengl standard decisamente più veloce delle DX nei giochi.

NightStalker
18-09-2003, 12:28
azz a sto punto se veramente le 5900 devon girar in mixed dx8/dx9 e le 5200/5600 in dx8.1... allora son contentissimo di avere la mia 4200, tanto per dover giocare in dx8 :D

X-ICEMAN
18-09-2003, 12:34
brutto affare per nvidia soprattutto dopo aver perso anche gli accordi con Microsoft per Xbox2... ho come il presentimento che le directX 10 saranno molto " ati like "

halduemilauno
18-09-2003, 12:36
nello specifico aspettiamo le versioni definitive di questi giochi.
e poi che vi devo dire aspettiamo lunedi prossimo.

:rolleyes:

sliver80
18-09-2003, 12:42
non sa che dire poverello, si trova tra due fuochi e deve limitare le parole.
Prima dice che la fx è una mezza ciofeca, poi però mette una piccola pezza con:
"The precision doesn't really matter to Doom"

Come dire: fanno schifo, ma col mio gioco ci dovete giocare lo stesso tanto non cambia nulla. :D

ErminioF
18-09-2003, 12:43
sslazio, nessuno dice che d3 o hl3 non gireranno sulle fx, soltanto che andranno peggio che sulle ati.
Per quanto riguarda gli accordi di cui si sente spesso parlare, per me sotto sotto ci sono, altrimenti perchè ati pubblicizza hl2 (e viceversa)?
Magari solo al 5%, cmq un minimo di ottimizzazione di sarà di sicuro

STICK
18-09-2003, 12:44
dopo questo ci mancherebbe pure che le schede nVidia incomincino ad avere incompatibilita' con i giochi,tipo texture corrotte,fumi verdi,videate viola,schermi angosciosamente neri,ritorni inspiegabili al desktop,riavvii improvvisi,videate freezate e driver corrotti sistematicamente.
cavolo come si ribaltano le sorti in questo settore:non si puo' mai eleggere il migliore in senso assoluto e per sempre;tutto cambia!

sanitarium
18-09-2003, 12:55
Originariamente inviato da ErminioF
Per quanto riguarda gli accordi di cui si sente spesso parlare, per me sotto sotto ci sono, altrimenti perchè ati pubblicizza hl2 (e viceversa)?
Magari solo al 5%, cmq un minimo di ottimizzazione di sarà di sicuro

Beh, ma HL2 viene pubblicizzato anche da NVidia nel suo sito... :O

http://www.nvidia.com/nzone/

A detta dei Valve, comunque, le Radeon non hanno avuto alcun bisogno di ottimizzazioni specifiche per avere i risultati che hanno. A differenza delle FX si comportano alla grande con il codice generico, ed ecco spiegato il loro vantaggio.

Non fare ottimizzazioni per FX non significa farne per ATi. ;)

pg08x
18-09-2003, 12:55
Nvidia è stata troppo presuntuosa, ha voluto imporre un proprio standard per tenere al laccio il mercato ma ha sottovalutato la concorrenza.
Ben gli stà e soprattutto questo è MOLTO meglio per noi.
Se non ci fosse stata la 9700 le ottimizzazioni pro nvidia avrebbero continuato a dettar legge rendendo sempre più difficile l'ingresso sul mercato di schede concorrenziali da parte di altre marche.
Non dimentichiamo i problemi di compatibilità iniziali delle Kyro e della 8500 che si sono trovate di fronte dei titoli scritti avendo in mente solo e soltanto l'hardware nvidia.

VIVA LO STANDARD !!!

pg08x
18-09-2003, 12:59
... poi finalmente si ammette pubblicamente che per stare al passo come prestazioni sono necessarie si delle "ottimizzazioni" (io li chiamerei più propriamente cheats) ma questi fanno perdere in precisione e quindi in qualità.

Dispiace per chi l'ha comprata, soprattutto per chi ha venduto la 9700... spero che in futuro questa gente si lasci meno influenzare dal marketing...

Marino5
18-09-2003, 13:01
visto, anche carmack la pensa come me. lol.
il fatto è che queste schede NON dovrebbero andare con codice nv30, ma con codice dx9 nudo e crudo, così come fanno le ati. sennò non sono dx9 compatibli! il problema del progetto fx è che nvidia contava che la microzzozza adottase per le dx9 il codice sviluppato da loro apposta per l'nv30, cosa che non è poi successa. è quindi inamissibile che venga usato codice non dx9! andrebbe usato SOLO quello! niente path ottimizzate ati/nvidia, ma solo codice ms!!!

ISOLA
18-09-2003, 13:02
mio dio ragazzi pensate a tutte quelle persone che si sono comprati le geffo 5900 e 5800 mio dio io spero che qualche associazione dei consumatori faccia qualche cosa si parla di schede che costano un pozzo di soldi.......Nvidia e caduta nel baratro sia x credibilità sia x tecnica x quanto concerne il settore delle schedea grafiche
rimango basito

Sparpa
18-09-2003, 13:16
in ogni caso, indipendentemente da tutto, cazzarola non si vende una 9700Pro da 500€ per una FX5900Ultra da 600€. E' una eresia solo a pensarci...

adepto
18-09-2003, 13:25
Ma Doom 3 non è OpenGL ? E comunque con le OpenGL sono meglio le NVidia o le Ati ?

giulio.86
18-09-2003, 13:29
Come mai gli utenti nvidia stanno in silenzio ora?:D
E' la bastonata che gli serviva così magari nvidia abbassa un pò i prezzi, il tutto a vantaggio di noi consumatori:)

WarDuck
18-09-2003, 13:32
Io infatti ancora non ho capito sta cosa de Doom III... ma non era OpenGL?

Anche perché nella domanda si dice:
"...future DX9 games (including Doom III)..."

Boh!

Rob80
18-09-2003, 13:33
Ragazzi..io ho sempre avuto nvidia fino alla ti4200 poi ho comprato, non essendo tifoso ma appassionato di gaming, una ati 9700@pro, capendo fin dall'inizio vuoi per il troppo (!!) marketing utilizzato vuoi per il flowfx, che qualcosa invidia aveva proprio sbagliato, sottovalutato. Ora non posso far altro che mettermi le mani nei capelli non ovviamente per chi come me ha una Ati, ma per tutti quelli che non si aspettavano una caduta cosi' in basso dell'azienda ed hanno continuato a comprare anche la FX, abbindolati da una politica di marketing talmente aggressiva che non poteva non nascondere un fiasco pressoche' totale in tutto il progetto, dalla 5800, poco piu' di una ti4200!!, alle 5800ultra appena vicino alle 9700pro senza flow pazzeschi di nessun tipo, alla 5900 ed alla sua tanto decantata qualità cinematografica e precisione stratosferica di colore, rivelatasi poi come si legge da carmack, addirittura tutto il contrario, puro marketing anch'esso.
Bye.

sanitarium
18-09-2003, 13:33
Originariamente inviato da adepto
Ma Doom 3 non è OpenGL ? E comunque con le OpenGL sono meglio le NVidia o le Ati ?

Doom III è programmato in OpenGL, ma se non sbaglio sfrutta pure caratteristiche proprie anche delle dx9.
Nel recente passato le Geforce erano superiori rispetto alle Radeon in OpenGL, ma ora la situazione sembra si sta evolvendo diversamente.

ballero
18-09-2003, 13:47
Originariamente inviato da sanitarium


A detta dei Valve, comunque, le Radeon non hanno avuto alcun bisogno di ottimizzazioni specifiche per avere i risultati che hanno. A differenza delle FX si comportano alla grande con il codice generico, ed ecco spiegato il loro vantaggio.

Non fare ottimizzazioni per FX non significa farne per ATi. ;)

La questione non e' sulla necessita' di ottimizzare la Fx ma se l'ottimizzazione costa tempo (e quindi soldi) agli sviluppatori oppure no.
Per chi ha lavorato in HLSL, come la VAlve, l'ottimizzazione e' costata perche' si e' trattato di un intervento manuale.
Con gli aggiornamenti per HLSL rilasciati da Microsoft nelle scorse settimane, l'ottimizzazione sara' gia' svolta dal compilatore.

sanitarium
18-09-2003, 13:50
Originariamente inviato da ballero
La questione non e' sulla necessita' di ottimizzare la Fx ma se l'ottimizzazione costa tempo (e quindi soldi) agli sviluppatori oppure no.
Per chi ha lavorato in HLSL, come la VAlve, l'ottimizzazione e' costata perche' si e' trattato di un intervento manuale.
Con gli aggiornamenti per HLSL rilasciati da Microsoft nelle scorse settimane, l'ottimizzazione sara' gia' svolta dal compilatore.

Lo so, l'ho appreso leggendo un'altra discussione in proposito, ma volevo soltanto chiarire che per le Radeon non c'è stato bisogno di alcuna ottimizzazione su HL2. ;)

Wonder
18-09-2003, 14:03
Ma perche se lo dice Carmak vi fidate, mentre quando lo ha detto la VALVE non vi siete fidati??

Non mi sembra che Carmack sia più guru della VALVE

sanitarium
18-09-2003, 14:05
Originariamente inviato da Wonder
Ma perche se lo dice Carmak vi fidate, mentre quando lo ha detto la VALVE non vi siete fidati??

Non mi sembra che Carmack sia più guru della VALVE

Io mi fidavo anche quando lo diceva Valve... :O

Overworld
18-09-2003, 14:08
ora più che mai sono felice di aver scelto la 9600 Pro alla 5600 :)

Wonder
18-09-2003, 14:08
ankio mi fidavo...che hai capito?

sanitarium
18-09-2003, 14:11
Originariamente inviato da Wonder
ankio mi fidavo...che hai capito?

Ho capito il senso del tuo precedente messaggio, ci tenevo soltanto a dire che personalmente trovo le parole di Valve assolutamente all'altezza di quelle di Carmack come importanza. :)

sslazio
18-09-2003, 14:14
Originariamente inviato da ISOLA
mio dio ragazzi pensate a tutte quelle persone che si sono comprati le geffo 5900 e 5800 mio dio io spero che qualche associazione dei consumatori faccia qualche cosa si parla di schede che costano un pozzo di soldi.......Nvidia e caduta nel baratro sia x credibilità sia x tecnica x quanto concerne il settore delle schedea grafiche
rimango basito

:confused: ragazzi, prima di dire ste cose aspettiamo e vediamo con i nostri occhi sti benedetti giochi in versione finale.
Io ho la 5800 e sinceramente ne sono estremamente soddisfatto, molto più stabile e compatibile nei giochi della mia vecchia 8500R, lasciando perdere le performance perchè non c'è paragone ovviamente, come una Punto Diesel Vs Ferrari Modena

TripleX
18-09-2003, 14:17
mi spiace x chi ha comprato le fx ma basta vedere le 5600 uscite in 2 step x compensare la deficienza architetturale con boost di frequenza...non capisco proprio xche' spendere di piu' x avere meno qualita' meno supporto (ora) e puntare su un prodotto che doveva essere la pezza ad un fallimento totale (nv30) logico che in poco tempo abbiano rivisto solo il bus...altro che dx9++ compatibile ...imho il progetto e' rimasto tale e quale a nv30 altro che shadow buffer....bah credibilita' 0....a me sinceramente e' bastato vedere la clip degli ingegneri nvidia che si autosfottevano sul flowfx x convincermi che nvidia e' ormai out of games

Maury
18-09-2003, 14:25
Originariamente inviato da sslazio
:confused: ragazzi, prima di dire ste cose aspettiamo e vediamo con i nostri occhi sti benedetti giochi in versione finale.
Io ho la 5800 e sinceramente ne sono estremamente soddisfatto, molto più stabile e compatibile nei giochi della mia vecchia 8500R, lasciando perdere le performance perchè non c'è paragone ovviamente, come una Punto Diesel Vs Ferrari Modena

Il confronto 8500 Vs 5800 nn si pone, categorie diverse ;)

pg08x
18-09-2003, 14:42
Originariamente inviato da WarDuck
Io infatti ancora non ho capito sta cosa de Doom III... ma non era OpenGL?

Anche perché nella domanda si dice:
"...future DX9 games (including Doom III)..."

Boh!

Con le ARB extension sono stati introdotti gli shaders in OpenGl e si ripresentano i problemi visti in DirectX per cui Carmak ha dovuto scrivere del codice dedicato

pg08x
18-09-2003, 14:50
Originariamente inviato da ballero
La questione non e' sulla necessita' di ottimizzare la Fx ma se l'ottimizzazione costa tempo (e quindi soldi) agli sviluppatori oppure no.
Per chi ha lavorato in HLSL, come la VAlve, l'ottimizzazione e' costata perche' si e' trattato di un intervento manuale.
Con gli aggiornamenti per HLSL rilasciati da Microsoft nelle scorse settimane, l'ottimizzazione sara' gia' svolta dal compilatore.
Contrariamente a quanto raccontano quelli di nvidia nei meeting per sviluppatori al fine di "far digerire" alla comunità la loro decisione di non implementare ulteriormente il liguaggio cg non credo proprio che Microsoft investa tempo e denaro per una ottimizzazione che servirebbe solo pro nv30 e che nvdia stessa stà abbandonando.

Le cheat pro nv30 si ottengono anche usando comandi che ci sono solo in cg, non credo che rivedranno lo standard.

pg08x
18-09-2003, 14:52
Come dice Carmak "The precision doesn't really matter to Doom, but that won't be a reasonable option in future games ..."

Io la traduco così: "con Doom mi sono fatto un mazzo tanto per farlo andare bene anche su nv30, ma non credo che per i giochi futuri tutto questo abbia senso"

In pratica fra 6 mesi delle geforce fx non ne fregherà più a nessuno.
No a nvidia ne soprattutto tanto meno a microsoft (che ha cambiato fornitore con ATI) oppure agli sviluppatori.

Stessa storia delle 5800ultra, sono troppo rumorose ma nessuno ne parla +

V|RuS[X]
18-09-2003, 15:17
Originariamente inviato da TripleX
..a me sinceramente e' bastato vedere la clip degli ingegneri nvidia che si autosfottevano sul flowfx x convincermi che nvidia e' ormai out of games


Vorrei vederla anch'io, dove la trovo?

melomanu
18-09-2003, 15:39
Originariamente inviato da S4dO
cattiva pubblicità per nvidia. Sinceramente penso k se creassero una gpu veloce e con immagine brillante stile Pharelia, allora farebbeveramente successo


Hai detto niente...come dire " Se la Ferrari andasse + veloce,forse vincerebbe di +..."

:D :D :sofico: :D :sofico:

Wonder
18-09-2003, 15:48
ehm...guarda che la ferrari vince ancora

melomanu
18-09-2003, 15:52
hai ragione...:D o almeno ancora un pò vince...la Nvidia,a pensarci bene,neanche quel poco...
:D :D

^TiGeRShArK^
18-09-2003, 16:14
Io penso ke prima quelli ke ancora difendevano a spada tratta nvidia nonostante quello ke avesse detto la valve era x il fatto ke magari kredevano veramente ke hl2 era stato ottimizzato appositamente x skede aTI data l'alleanza tra le due società (nonostante sia stato però ribadito ke quest'alleanza è nata solo DOPO aver visto le performance PENOSE delle skede nvidia e nono viceversa.) Ma ora ke anke carmack dice sostanzialmente le stesse cose della valve mi sa ke nm ci sia + alcun dubbio, anke xkè, voglio ricordare ke doom 3 uscirà in bundle con le skede nvidia l'anno prox......

Mi sa ke oramai abbiamo veramente tokkato il fondo con questo scandalo dell'nv 30!

x favore nn skrivete + alcun post in difesa di nvidia ke mi suicido :|

the_joe
18-09-2003, 16:52
Purtroppo penso che si suicideranno quelli che hanno comprato "NVidia FX the game revolution"

A parte gli scherzi, speriamo che grazie al lavoro di ottimizzazione da parte dei programmatori dei giochi ed un po' da parte dei programmatori dei driver, si arrivi a sfruttare adeguatamente queste schede, nel rispetto di chi ha avuto fiducia e le ha comprate pagandole pure care.

pg08x
18-09-2003, 17:02
Originariamente inviato da the_joe
... nel rispetto di chi ha avuto fiducia e le ha comprate pagandole pure care.

Avevo intuito la cosa fin da subito e personalmente le ho sempre sconsigliate... questo non toglie che devo darti pienamente ragione, parole d'oro !

csteo
18-09-2003, 17:23
Condivido pienamente.

Io non avendo preferenze ne da una parte ne dall' altra (prima di quest'anno preferivo nvidia)ho voluto provare una ATI (9500 pro) e per puro culo ci ho preso.
Se mi fosse capitato l'inverso pur non avendo comprato il top della gamma mi sarei inc****ato come na iena.

Spero per chi ha comprato Nvidia fidandosi degli anni passati che facciano delle ottimizzazioni per non far rivoltare meta del mondo informatico.

gionapper
18-09-2003, 17:42
Non è che Carmack per caso si sia comprato delle azioni ATI?

sslazio
18-09-2003, 17:47
io continuo a giocare fluidamente con giochi Dx8 e Dx9, bench dx8 e dx9.
Ribadisco che voglio vedere HL2 e doom3 girare prima di dire che Nvidia ha toppato veramente.

Lud von Pipper
18-09-2003, 18:24
Ovviamente le 5800 e le 5900 sono schede molto buone, velocissime e più che adatte a fare girare qualunque gioco.

Il problema è che costano tantissimo e che le varie 5600 e 5200 noin reggono il confronto per frequenza e memorie, quindi, quelle che saranno le schede più vendute da nVidia saranno rapidamente fuori gioco.

Anche le 9800/9700 vanno fortissimo, meglio delle equivalenti nVidia, ma soprattuo, le schede di massa, come le 9600/9500 hanno un futuro molto più roseo.

In sostanza, se avete venduto un rene per una 5800/5900, male (una 9800Pro la pagavate molto meno), ma comunque ve la caverete; se avete speso un pò meno per una 5600, pessima scelta: i giochi nuovi potete sognarveli, pur essendo la scheda in vendita da poco tempo.

LvP

lappaz
18-09-2003, 18:38
In altre parole un'altra bocciatura per Nvidia.
... e Carmak non è estraneo a bacchettare la casa di Santa Clara CA in favore dei canadesi.
Come finirà il derby all'uscita di Doom III?
:friend:

Xtian
18-09-2003, 18:52
Originariamente inviato da V|RuS[X]
Vorrei vederla anch'io, dove la trovo?
Te la mando io, se hai una mail capiente (sui 5/6 MB)
Mandami un pvt con la tua mail :)

Rayse
18-09-2003, 19:41
io l'avevo detto nell'altro post (i test della Valve).

Solo che adesso voglio andare nella direzione opposta.

La differenza non sarà mostruosa e basteranno dei driver più o meno onesti a far pensare ancora alla gente che le FX non hanno problemi.

A questo uniteci che Doom 3 è il motore grafico di riferimento e una buona fetta dei giochi potrebbero essere basati su di esso in futuro.

Sommateci che la nVidia ha un'accordo con l' EA (altra fetta di giochi)

In sostanza avranno dei problemi su quella percentuale di giochi fatti da ditte semi sconosciute con motore proprietario (vedi S.T.A.L.K.E.R) se useranno solo DX9 liscie.

Sommate per ultimo che la nVidia sa cos'è il marketing.

Cosa abbiamo?

Le FX non sono il mostro che volevano far sembrare...ma nessuno se ne accorgerà perchè la nVIdia li impappinera di driver onesti dove serve un'ottimizazione...meno onesti dove si fanno bench.

scorpionkkk
18-09-2003, 20:17
Originariamente inviato da sslazio
io continuo a giocare fluidamente con giochi Dx8 e Dx9, bench dx8 e dx9.
Ribadisco che voglio vedere HL2 e doom3 girare prima di dire che Nvidia ha toppato veramente.


continui a fraintendere...non c'è scritto da nessuna parte "i possessori di 5800 e 5900 ultra non potranno giocare ai giochi dx9 per che vanno troppo piano".
Non vedrai mai la tua scheda soccombere clamorosamente ai suddetti giochi facendoli girare in due colori a 320x184.

Solamente,le schede nvidia non andranno come quelle concorrenti,il che significa che se tu giochi fluido a 50fps il tipo con la 9700/9800 gioca fluido a 70.
Se poi dopo due anni esce un gioco dove il tizio con la 9700/9800 va a 35fps allora,probabilmente,nelle stesse condizioni le nvidia andranno sotto i 25...tutto qui.

GeForce-Fx
18-09-2003, 20:23
Io ho una GeForceFX MSI 5600 256 ddr e mi sento schiacciato da tutti!Ti prego NVIDIA tira fuori dei driver miracolosi e fai ricredere tutti quanti....

Xtian
18-09-2003, 20:25
Originariamente inviato da Rayse
In sostanza avranno dei problemi su quella percentuale di giochi fatti da ditte semi sconosciute con motore proprietario (vedi S.T.A.L.K.E.R) se useranno solo DX9 liscie.

Toglia anche STALKER visto che e' sponsorizzato nvidia e compilato col cg

Xtian
18-09-2003, 20:26
Originariamente inviato da GeForce-Fx
Io ho una GeForceFX MSI 5600 256 ddr e mi sento schiacciato da tutti!Ti prego NVIDIA tira fuori dei driver miracolosi e fai ricredere tutti quanti....
Vendila, con 20/30€ in piu del tuo usato ti prendi una 9600pro

timido_79
18-09-2003, 21:21
Vendila.. e i 20/30€ li cominci a mettere da parte per una 9700Pro
scherzo!

sanitarium
18-09-2003, 21:22
Originariamente inviato da sslazio
io continuo a giocare fluidamente con giochi Dx8 e Dx9 [...]
Beato te che giochi fluidamente con i titoli programmati in dx9, pensa che a noi comuni mortali i giochi sviluppati con queste librerie non sono ancora pervenuti! :sofico:

Scherzo ovviamente. ;)

DjLode
18-09-2003, 22:07
Originariamente inviato da GeForce-Fx
Io ho una GeForceFX MSI 5600 256 ddr e mi sento schiacciato da tutti!Ti prego NVIDIA tira fuori dei driver miracolosi e fai ricredere tutti quanti....

Non capisco questa voglia che avete tutti di primeggiare. A me sinceramente basta che vada bene la scheda che ho io, con ogni gioco che uso. Poi poco mi frega se ce n'è un altra che fa più fps. Chi l'avrà giocherà ancora meglio...

GeForce-Fx
18-09-2003, 22:13
Hai perfettamente ragione.A me la scheda va benissimo e gioco a fluidamente a tutti i giochi in commercio(1280*768) attivando i vari filtri!Però mi spaventa il sapere che giochi tipo Doom 3 e Half Life 2 non mi permettano di giocare al massimo con una scheda che ho pagato + di 200€...

DjLode
18-09-2003, 22:19
Originariamente inviato da GeForce-Fx
Hai perfettamente ragione.A me la scheda va benissimo e gioco a fluidamente a tutti i giochi in commercio(1280*768) attivando i vari filtri!Però mi spaventa il sapere che giochi tipo Doom 3 e Half Life 2 non mi permettano di giocare al massimo con una scheda che ho pagato + di 200€...

Sul secondo punto magari hai ragione, ma non fasciamoci la testa prima di cadere. Quando uscirà lo proverai, poi deciderai. Cmq sia vedrai che quei due giochi mieteranno vittime ovunque, si prospettano pesantini :)

BlackBug
19-09-2003, 08:04
è per gente come lui che programma senza ottimizzare che siamo costretti ad usare sistemi ultra performanti per soft che se ben fatto richiederebbe la metà di quelle capacità!Anzichè occuparsi di HD pensasse alle cacate che fanno lui e i suoi amici!

Digital
19-09-2003, 08:36
MMM, riflettendo queste notizie sono ottime, se continua cosi fra poco potrò prendere una fx 5900 usata a - di 100 euro, anche perchè nvidia ne avrà prodotte molte di ste schede, se non riesce a venderle dovrà calare e se scendono ai prezzi di quel mezzo affare che è ancora la ti4200 voglio vedere chi si andrà a prendere una scheda che ati (che sarà anche superiore ma che costerà il doppio) cosi finiranno le polemiche, per inciso a me dei vari doom 3 e halfalife e spazzatura varia non me ne può fregare di - (mi hanno sempre fatto schifo e fatto venire il mal di testa), quindi se caleranno di brutto per non buttarle per me sarà un affare passare ad una scheda che avrà performance inferiori nessuno lo nega ma che ha dei driver ultra ottimizzati e stabili paragonati a quelli ati, tant'è vero che gl emulatori (la mia vera passione) sono pro nvidia da tempo.
Evviva la concorrenza grazie ad ati avremmo le schede ad un prezzo basso (detto per inciso io dopo l'esperienza avuta con la 8500 dalle ati sto alla larga me ne sbatto delle performance estreme e mi rifiuto di comprare una vga a + di 150 euro, e dal cambio pretendo un raddoppio delle performance altrimenti nopn spenderei la differenza per cambiare).

sanitarium
19-09-2003, 08:49
Ma c'è ancora qualcuno che si aggrappa alla storiella dei catalyst inferiori ai detonator???? :rotfl:

Suvvia, dopo i "recenti" sviluppi forse sarebbe meglio essere più obiettivi nei confronti di entrambe le case, e denunciare i difetti ovunque si trovino, non solo dove fa comodo... :O

Ah, definire poi "spazzatura" Doom III, HL2 e i FPS soltanto perché non piace il genere è il massimo... :rolleyes:

Alevalent
19-09-2003, 09:54
Scusa ma non eri tu quello che urlava su tutti i post il mega affarone che avevi fatto con la fx ;)

Non prendertela, comunque la tua scheda non e' da buttare, a 30 fps costanti (nella peggiore delle ipotesi) si gioca benissimo lo stesso in single player!

p.s.: ma sti detonator 50.xx... e' tanto che si vocifera siano mostruosi e non si vedono!

DjLode
19-09-2003, 10:46
Originariamente inviato da sanitarium
Ma c'è ancora qualcuno che si aggrappa alla storiella dei catalyst inferiori ai detonator???? :rotfl:


Non perdere più di 2 secondi a cercare di spiegare questa cosa, non la capiscono (anzi fanno finta di non saperla, lo sanno ma ogni tanto sfoderano la frase per occupare una riga e cercare di scatenare qualche flame), è quindi tutto tempo sprecato. Io manco ci perdo del tempo a dirgli come stanno le cose. I detonator sono più stabili e privi di bug, poi pazienza se sparisce il drago in 3d mark o la nebbia in Hl2, sono bug per Nvidia, ma quelli che dicono che i driver ne sono privi, dicono che sono ottimizzazioni :)

sslazio
19-09-2003, 10:50
Originariamente inviato da scorpionkkk
continui a fraintendere...non c'è scritto da nessuna parte "i possessori di 5800 e 5900 ultra non potranno giocare ai giochi dx9 per che vanno troppo piano".
Non vedrai mai la tua scheda soccombere clamorosamente ai suddetti giochi facendoli girare in due colori a 320x184.

Solamente,le schede nvidia non andranno come quelle concorrenti,il che significa che se tu giochi fluido a 50fps il tipo con la 9700/9800 gioca fluido a 70.
Se poi dopo due anni esce un gioco dove il tizio con la 9700/9800 va a 35fps allora,probabilmente,nelle stesse condizioni le nvidia andranno sotto i 25...tutto qui.

Sempre che il tizio con la 9700 non si ritrovi con una scheda bruciata o peggio con artefatti sullo schermo che la rendono inservibile o semplicemente mi ritorni al desktop il gioco dandomi un errore di d3d. :rolleyes:
Scorpion, suddette esperienze su una nvidia non mi sono mai capitate, se vai dar Sor Emilio qui a Roma si sprecano i resi di 9500 e 9700 sfondate :muro:

DjLode
19-09-2003, 11:00
Ah, ecco un'altra cosa oltre ai driver...
Aspetta che me le segno tutte :rolleyes:

lasa
19-09-2003, 11:03
Carmak è un venduto...non fidatevi di quello che dice....che sia pro/contro ATi o Nvidia non è importante.....

scorpionkkk
19-09-2003, 11:11
Originariamente inviato da sslazio
Sempre che il tizio con la 9700 non si ritrovi con una scheda bruciata o peggio con artefatti sullo schermo che la rendono inservibile o semplicemente mi ritorni al desktop il gioco dandomi un errore di d3d. :rolleyes:
Scorpion, suddette esperienze su una nvidia non mi sono mai capitate, se vai dar Sor Emilio qui a Roma si sprecano i resi di 9500 e 9700 sfondate :muro:


questo non c'entra nulla con le prestazioni delle schede misurate nel benchmark...e sicuramente l'eventuale capacità di rompersi di una scheda non dipende dal processore montato ma dalla casa che l'ha fabbricata.
Io ad esempio ho sempre avuto hercules ed asus e non ho mai avuto problemi...ho comprato una sapphire e si è bruciata.

Non ci si può poi attaccare ai resi delle schede tout court (quali marche?)quando si sta discutendo di un benchmark di un gioco.

sanitarium
19-09-2003, 11:11
Originariamente inviato da DjLode
Non perdere più di 2 secondi a cercare di spiegare questa cosa, non la capiscono (anzi fanno finta di non saperla, lo sanno ma ogni tanto sfoderano la frase per occupare una riga e cercare di scatenare qualche flame), è quindi tutto tempo sprecato. Io manco ci perdo del tempo a dirgli come stanno le cose. I detonator sono più stabili e privi di bug, poi pazienza se sparisce il drago in 3d mark o la nebbia in Hl2, sono bug per Nvidia, ma quelli che dicono che i driver ne sono privi, dicono che sono ottimizzazioni :)

Hai ragione, ma ogni tanto mi stupisco di come ancora possano venire fuori simili cavolate, quando ormai è sotto gli occhi di tutti la grandissima evoluzione che hanno subito i catalyst da vari mesi a questa parte (nonostante ancora qualche aggiustatina da fare ci sia), così come sono sotto gli occhi di tutti le notizie che riguardano le recenti release dei detonator, non proprio positive da un po' di tempo... ;)

Lud von Pipper
19-09-2003, 11:57
Originariamente inviato da BlackBug
è per gente come lui che programma senza ottimizzare che siamo costretti ad usare sistemi ultra performanti per soft che se ben fatto richiederebbe la metà di quelle capacità!Anzichè occuparsi di HD pensasse alle cacate che fanno lui e i suoi amici!

Complimenti per l'ignoranza:

John Carmack ha letteralmente riscritto una versione apposita di Doom III per GeForceFX per non fare sfigurare la scheda di nVidia.
Ha semplicemente (e realisticamente) detto che in futuro non ci si può aspettare che si scriva codice dedicato per farlo girare meglio su un singolo modello di scheda.
Se non altro, nonostante i sostanziosi contributi economici di nVidia è stato onesto nel dire la sua opinione.

I programmatori DEVONO ottimizzare per Direct X 9.0 mentre spetta ai produttori rendere il loro hardware compatibile.
nVidia ha toppato pesantemente in questo aspetto perciò le sue schede tengono il passo solo quando riescono a supplire con la forza bruta alla mancanza di finezza (5800/5900): dove la forza bruta manca (5600) si finisce nei guai (Half Life 2)

Inoltre la precisione a 32 bit la si nota nella qualità di un immagine, e siccome le DX9.0 prevedono i 32 bit, non c'è ragione per cui i programmatori debbano scrivere i loro codici con precisone minore solo per fare un favore alla casa Californiana.

Se volessero davvero ottimizzare tanto varrebbe scrivere il codice in Assembler invece che in C++, mantenendo la piena compatibilità con le DX, ma siccome un gioco di oggi contiene MILIONI di righe di codice la cosa non è proprio possibile se si vuole vedere uscire un nuovo gioco prima di un lustro.

Mi spiace per te: l'uva non è sempre acerba solo perchè fuori portata...

LvP

fek
19-09-2003, 13:23
NON prendete come oro colato tutto quello che scrive Carmack (non lo e').

Originariamente inviato da Lud von Pipper
John Carmack ha letteralmente riscritto una versione apposita di Doom III per GeForceFX per non fare sfigurare la scheda di nVidia.
Ha semplicemente (e realisticamente) detto che in futuro non ci si può aspettare che si scriva codice dedicato per farlo girare meglio su un singolo modello di scheda.

Ma no. Si e' limitato a scrivere un code-path specifico del rasterizzatore e qualche pixel shader diverso. Per altro Carmack non e' considerato troppo bravo nello scrivere i pixel shader all'interno dell'industry. C'e' molto hype attorno a lui.

Originariamente inviato da WarDuck
Io infatti ancora non ho capito sta cosa de Doom III... ma non era OpenGL?

Anche perché nella domanda si dice:
"...future DX9 games (including Doom III)..."

Boh!

D3 e' OpenGL. Quando si parla di Giochi DX9 si fa riferimento ad una convenzione per indicare la generazione delle schede video. Si dice che una scheda e' di generazione DX9 quando supporta vertex e pixel shader 2.0 (semplifico) e che un gioco e' DX9 quando ha vertex e pixel shader 2.0 (ari semplifico).

fek
19-09-2003, 13:28
Originariamente inviato da sanitarium
Non fare ottimizzazioni per FX non significa farne per ATi. ;)

E' proprio qui il discorso, scrivere un pixel shader cosi' detto generico (per motivi che abbiamo discusso nell'altro thread) significa ottimizzare per l'R3X0.

Originariamente inviato da Lud von Pipper
Inoltre la precisione a 32 bit la si nota nella qualità di un immagine, e siccome le DX9.0 prevedono i 32 bit, non c'è ragione per cui i programmatori debbano scrivere i loro codici con precisone minore solo per fare un favore alla casa Californiana.


Nope. Lo standard DX9 richiede precisione a 16 bit, fornire una versione a 24 (ati) o 32 (nvidia) e' solo un di piu'.

fek
19-09-2003, 13:34
(uff, non si possono cancellare i post)

GeForce-Fx
19-09-2003, 13:36
Hai ragione sinceramente ho sopravvalutato la scheda!Pensavo che le directX9 e i 256 ddr potessero aiutarmi...Ora aspetto con ansia i giochi Doom 3 e Half Life 2 e poi vedrò il dafarsi.
Ps=Invidia tira fuori i proclamati detonator 50.xx e fai ricredere tutti!

fek
19-09-2003, 13:40
Originariamente inviato da GeForce-Fx
Hai ragione sinceramente ho sopravvalutato la scheda!Pensavo che le directX9 e i 256 ddr potessero aiutarmi...Ora aspetto con ansia i giochi Doom 3 e Half Life 2 e poi vedrò il dafarsi.
Ps=Invidia tira fuori i proclamati detonator 50.xx e fai ricredere tutti!

Ok, qualche notiziuola sui 52.xx (io sto lavorando su una versione beta proprio adesso), ma non dite che ve l'ho detto io :)

Fanno piu' o meno quello che promettono, riordinano le istruzioni nei pixel shader automaticamente di modo da renderli piu' digeribili dall'hw, quindi quelle famose ottimizzazioni non servono piu'. Non e' proprio esattissimo, abbassare la precisione dei registri e sostituire calcoli complessi con accessi a texture e' ancora necessario, ma almeno il riordino non serve piu'.

La cosa importante e' che il riordinare le istruzioni non cambia la semantica del pixel shader (l'ho testato perche' fidarsi e' bene non fidarsi e' molto meglio :D).

Non so darvi benchmark precisi perche' non li faccio per questione religiosa (leggi, i benchmark sono inutili).

devis
19-09-2003, 13:42
Originariamente inviato da GeForce-Fx
Ps=Invidia tira fuori i proclamati detonator 50.xx e fai ricredere tutti!

Sono già usciti in beta... Danno un piccolo aumento prestazionale a fronte di un decadimente della qualità dell'immagine.. Chissà che riparino con la versione whql :rolleyes:

sanitarium
19-09-2003, 14:16
Originariamente inviato da fek
E' proprio qui il discorso, scrivere un pixel shader cosi' detto generico (per motivi che abbiamo discusso nell'altro thread) significa ottimizzare per l'R3X0.

Capisco il tuo ragionamento, ma se non vado errato è un'ottimizzazione "involontaria", o no?
Voglio dire, se una scheda si trova a proprio agio con il codice generico, tanto di guadagnato, ma bisogna pur sempre considerare che l'ottimizzazione non è volontaria come nel caso di NV3x.

DjLode
19-09-2003, 14:32
Originariamente inviato da fek
Nope. Lo standard DX9 richiede precisione a 16 bit, fornire una versione a 24 (ati) o 32 (nvidia) e' solo un di piu'.

Non era diverso? Io sapevo che come minimo era richiesta precisione a 24bit, c'era la precisione a 32bit e visto che la Fx non aveva quella a 24 si è inserita anche quella a 16bit. Io la sapevo così, fondamentalmente non mi cambia nulla :)

P.S. Che lavoro fai?

sanitarium
19-09-2003, 14:35
Originariamente inviato da DjLode
Non era diverso? Io sapevo che come minimo era richiesta precisione a 24bit, c'era la precisione a 32bit e visto che la Fx non aveva quella a 24 si è inserita anche quella a 16bit. Io la sapevo così, fondamentalmente non mi cambia nulla :)

P.S. Che lavoro fai?

Dà un'occhiata alla sua firma. ;)

DjLode
19-09-2003, 14:43
Che cretino....
Eheheh manco l'avevo guardata :)

Lud von Pipper
19-09-2003, 15:44
Originariamente inviato da fek
Ma no. Si e' limitato a scrivere un code-path specifico del rasterizzatore e qualche pixel shader diverso. Per altro Carmack non e' considerato troppo bravo nello scrivere i pixel shader all'interno dell'industry. C'e' molto hype attorno a lui.

Lungi da me l'idolatrare Carmack, anzi, però in fatto di codice ci sa fare: semmai il suo probelma è di saper programmare i giochi ma di non essere capace di renderli interessanti...
Inoltre, BlackBug parla di Carmack come di uno che non sa programmare e che non è in grado di ottimizzare quello che scrive: direi che Carmack ha PESANTEMENTE ottimizzato Doom III per GeForceFX, e infatti il gioco girerà piu rapidamente sulle schede nVidia che su quelle della concorrenza (con codice generico).
Quello che in sostanza Carmack dice è: non aspettatevi che gli altri programmatori si facciano tutti il mazzo come ho fatto io: nVidia non ha abbastanza soldi per pagarli tutti, quindi nei futuri giochi il comportamento delle 5x00 sarà più simile a quello di HL2 che a quello di DoomIII.

D3 e' OpenGL. Quando si parla di Giochi DX9 si fa riferimento ad una convenzione per indicare la generazione delle schede video. Si dice che una scheda e' di generazione DX9 quando supporta vertex e pixel shader 2.0 (semplifico) e che un gioco e' DX9 quando ha vertex e pixel shader 2.0 (ari semplifico).

In effetti con scheda DX9 si intende anche una scheda in grado di supportare gli ultimi effetti dei giochi OGL: anche se non codificati in una specifica precisa il gioco OGL sfrutta in effetti gli stessi schemi del gioco DX9 nel generare effetti 3D

LvP

Lud von Pipper
19-09-2003, 15:52
Originariamente inviato da fek
E' proprio qui il discorso, scrivere un pixel shader cosi' detto generico (per motivi che abbiamo discusso nell'altro thread) significa ottimizzare per l'R3X0.


Assolutamente no: Lo standard DX9.0 è stato dettato da Micriosoft PRIMA dell'uscita di R3x0, il che lo rende adatto a qualunque scheda video progettata su quei parametri: le nuove schede video Sys si baseranno sue quelle specifiche e, possibilmente, anche le S3 di cui si vocifera.

Il fatto che R-3X0 sia attualmente la scheda più performante con programi puramente DX9 non significa che i programmi siano ottimizzati ATI: è la Radeon che è meglio ottimizzata (in hardware) per DX9.0

Ps, anche io sapevo che le Dx9 richiedessero 24 (minimo) e 32 bit di precisione.

LvP

Maury
19-09-2003, 16:34
Originariamente inviato da fek

Per altro Carmack non e' considerato troppo bravo nello scrivere i pixel shader all'interno dell'industry. C'e' molto hype attorno a lui.




Con tutto il rispetto, e chi sarebbero questi esperti che giudicano le capacità del padre del 3D su Pc ? e da cosa deducono tale conclusione ? :)

Non credo proprio che Carmack si possa trovare in difficoltà nello scrivere i pixel shader.

Intorno a lui c'è molto interesse per il semplice motivo che se l'è guadagnato sul campo, lui fa dove gli altri chiaccherano...

fek
19-09-2003, 16:52
Originariamente inviato da Lud von Pipper
Assolutamente no: Lo standard DX9.0 è stato dettato da Micriosoft PRIMA dell'uscita di R3x0, il che lo rende adatto a qualunque scheda video progettata su quei parametri: le nuove schede video Sys si baseranno sue quelle specifiche e, possibilmente, anche le S3 di cui si vocifera.

Il fatto che R-3X0 sia attualmente la scheda più performante con programi puramente DX9 non significa che i programmi siano ottimizzati ATI: è la Radeon che è meglio ottimizzata (in hardware) per DX9.0


No, scusami, ti stai confondendo. Una cosa e' l'API DX9, un'altra sono i pixel shader. Qui si sta parlando quasi esclusivamente di pixel shader.

Ne abbiamo discusso a questo link: http://forum.hwupgrade.it/showthread.php?s=&threadid=517114&perpage=20&pagenumber=4

Ti riporto un mio intervento a riguardo:

Originariamente inviato da fek
Le ottimizzazioni per NV3X sono di tre tipi:

1) Partial precision

la piu' semplice, si scrive tutto in "partial precision" (a 16 bit invece che 32).

2) Instruction schdeuling

La seconda riguarda lo scheduling delle istruzioni, qui la cosa diventa un po' piu' complicata da seguire e devo scendere un po' nel tecnico. Le istruzioni che si possono eseguire in un pixel shader sono di due tipi: fetch della texture (andare a recuperare all'interno di una texture il colore per un pixel) e istruzioni ALU (calcoli semplici). L'R3X0 lavora meglio se si eseguono prima tutti i fetch delle texture e poi tutti i calcoli. L'NV3X lavora meglio se si mischiano le istruzioni di fetch con quelle di calcolo.

3) Instruction trading

Anche questa e' molto tecnica. L'idea qui e' che l'NV30 e' piu' veloce a eseguire il fetch di una texture di quanto lo sia a fare alcuni calcoli complessi, quindi in alcuni casi conviene evitare un calcolo e andarlo a recuperare all'interno di una tabella (la texture)

Ora vediamo caso per caso perche' il path cosi' detto generico (che generico non e') favorisce l'R3X0

1) Di default i calcoli sono in precisione massima che e' 32 bit per l'NV3X e 24 (correzione :p) bit per l'R3X0; ovviamente di default e' piu' veloce l'R3X0 perche' esegue calcoli a precisione minore

2) Di default (ed in maniera piu' naturale) si scrivono prima i fetch delle texture e poi i calcoli, cosa che favorisce l'R3X0; quindi essendo piu' naturale scrivere in questo modo, questa naturalita' ottimizza una delle due architettura e non l'altra

3) L'R3X0 soffre meno il problema dei calcoli complicati nel pixel shader perche' il motore dei pixel shader e' piu' veloce, anche perche' e' meno complesso e ricco di funzionalita' di quello dell'NV3X (hanno preferito un'architettura meno potente e ricca ma piu' veloce)

Una piccola noticina: su NV3X e' possibile scrivere alcuni effetti complicati in una sola passata piuttosto che in piu' passate necessarie all'R3X0 (questo non e' strettamente vero per l'R350 grazie all'F-buffer) perche' il motore dei pixel shader e' piu' ricco di funzionalita' quindi in questo caso risulterebbe piu' veloce.
Credo che HL2 non abbia di questi shader particolarmente complessi da richiedere piu' di una passata su R3X0.

In sintesi, scrivendo un pixel shader in maniera naturale, ci si ritrova ad ottimizzare per l'architettura R3X0 (questo e' un grosso merito dell'architettura), ma e' sbagliato dire che l'architettura R3X0 implementa meglio un pixel shader generico, perche' non c'e' assolutamente nulla di generico. Capisco che siano discorsi un po' astrusi, ma e' piu' o meno come mischiare le pere con le mele. Appena mi viene in mente un esempio pratico decente che chiarisca il concetto, lo scrivo.


Ps, anche io sapevo che le Dx9 richiedessero 24 (minimo) e 32 bit di precisione.


Nope, lo standard richiede i 16 bit come minimo.

fek
19-09-2003, 16:57
Originariamente inviato da Maury
Con tutto il rispetto, e chi sarebbero questi esperti che giudicano le capacità del padre del 3D su Pc ? e da cosa deducono tale conclusione ? :)

Non credo proprio che Carmack si possa trovare in difficoltà nello scrivere i pixel shader.

Intorno a lui c'è molto interesse per il semplice motivo che se l'è guadagnato sul campo, lui fa dove gli altri chiaccherano...

Ma, nelle mailing list per sviluppatori si parla, si dicono cose, ci si racconta :D

A parte gli scherzi, c'e' veramente molto hype attorno a Carmack, per certe cose meritato perche' e' stato il primo a fare alcune cose in real time.
Ma come programmatore 3d non e' fra i migliori e c'e' molta gente meno conosciuta che gli mangia la pastasciutta sulla testa. Inoltre, tende a dirne anche troppe e qualche volta anche sbagliate ;)

Poi si dice che da tempo praticamente non s'interessi piu' di 3D se non per finire Doom3 e che ormai si stia interessando di razzi spaziali (fa ridere ma l'ho sentita piuttosto spesso :D), quindi non si tiene molto aggiornato sui recenti sviluppi nel campo.

Ah, Carmack e' un programmatore 3D non un game programmer, lui non tocca il codice del gioco e le meccaniche del gioco, quindi dire "non e' capace a rendere il gioco bello" ha poco senso perche' non e' il suo compito.

Divago un po'. Normalmente il team di sviluppo di un gioco e' composto da:

- 3d programmer, quelli che lavorano sul motore 3d e gli effetti speciali
- game programmer, quelli che lavorano sulla logica del gioco, l'IA, la fisica
- tools programmer, quelli che lavorano sui tool di sviluppo

the_joe
19-09-2003, 17:00
>QUOTE:
"In sintesi, scrivendo un pixel shader in maniera naturale, ci si ritrova ad ottimizzare per l'architettura R3X0 (questo e' un grosso merito dell'architettura)"
>QUOTE

Allora è come dire, "non siamo noi razzisti, sono loro che sono t******i" citando dei comici del tempo passato, cioè se uno scrive come meglio gli viene, ottimizza x ATI, se si scervella e ci pensa e ripensa 500 volte allora ottimizza per NVidia. ??????????????

leoneazzurro
19-09-2003, 17:11
No, in pratica siccome l'ATI non ha bisogno di un ordine particolare per le istruzioni, se scrivi lo shader seguendo i dettami della programmazione "canonica" sfrutti comunque bene l'architettura. Invece gli shader delle Geforce FX hanno bisogno, per funzionare al meglio, di un ordine particolare. Però da quello che ho capito non esiste uno standard per scrivere i programmi per i pixel shaders, quindi non è corretto dire che ATI sfrutta meglio gli shader standard, ma solo che sfrutta meglio quelli che sono disponibili ora (sto cercando di interpretare quel che dice Fek, non sparatemi)

fek
19-09-2003, 17:15
Originariamente inviato da leoneazzurro
No, in pratica siccome l'ATI non ha bisogno di un ordine particolare per le istruzioni, se scrivi lo shader seguendo i dettami della programmazione "canonica" sfrutti comunque bene l'architettura. Invece gli shader delle Geforce FX hanno bisogno, per funzionare al meglio, di un ordine particolare. Però da quello che ho capito non esiste uno standard per scrivere i programmi per i pixel shaders, quindi non è corretto dire che ATI sfrutta meglio gli shader standard, ma solo che sfrutta meglio quelli che sono disponibili ora (sto cercando di interpretare quel che dice Fek, non sparatemi)

Colpa mia che non sono chiaro. Scusatemi :)

Ad ATI piace che ci siano tutti i fetch delle texture all'inizio e poi le istruzioni aritmetiche, praticamente come si scrivono gli shader per PS1.4 (che per altro e' uno standard ATI).

Ad NVIDIA piace che si mischino i fetch delle texture e le istruzioni aritmetiche. Semplifico un po' per chiarire meglio il concetto.

Ora, essendo i PS2.0 relativamente nuovi, viene naturale scrivere un PS2.0 piu' o meno come si scrivevano i PS1.4 e usando il nuovo set d'istruzioni, quindi viene naturale ottimizzare per ATI che gradisce proprio quell'ordine nelle istruzioni.

Questo e' uno dei tre punti del quale parlavo in quel post nell'altro topic.

the_joe
19-09-2003, 17:28
Ciao, avevo letto anche tutto l'altro topic ed avevo + o - capito la situazione, comunque è "colpa" di NVidia che come è oramai chiaro ha tentato di portare i programmatori a programmare secondo i propri canoni che non seguono le linee precedenti cosa che però non si è avverata ed ha favorito ATI che è stata meno innovativa, ma + concreta.
Con le prossime evoluzioni, forse NVidia si troverà avanti però per ora la situazione è così, non che sia una tragedia perchè restano sempre delle belle schede, non hanno semplicemente la palma delle vincitrici e necessitano di + attenzione da parte dei programmatori per essere sfruttate, e i programmatori avrebbero volentieri fatto a meno di dover ottimizzare o cambiare il modo di programmare (si sa sono gente pigra) ;)

Dimenticavo: buon fine settimana a tutti.

BYEZ

fek
19-09-2003, 17:31
No davvero, non e' colpa di nessuno.

Dopo il friday meeting ti scrivo il perche' :)

sss
19-09-2003, 17:58
Originariamente inviato da fek
A parte gli scherzi, c'e' veramente molto hype attorno a Carmack, per certe cose meritato perche' e' stato il primo a fare alcune cose in real time.
Ma come programmatore 3d non e' fra i migliori e c'e' molta gente meno conosciuta che gli mangia la pastasciutta sulla testa.

Per esempio te? :)

fek
19-09-2003, 18:14
Originariamente inviato da sss
Per esempio te? :)

Magari :D

Ad esempio Rune Vendler.

Dicevo che non e' colpa di nessuno. L'architettura dell'NV3X ha fatto delle scelte che si indirizzano verso un modello di shader piu' ricco di funzionalita', quindi un motore piu' "lento", mentre l'R3X0 ha privilegiato la velocita' rispetto alla ricchezza.

Sono due scelte assolutamente plausibili, che al momento penalizzano NVIDIA perche' con gli shader "generici" che non sfruttano la maggior ricchezza di funzionalita' risulta piu' lenta. Alla fine della fiera quello che sta succedendo in questi giorni si gioca tutto attorno a questo concetto.

Il prossimo compilatore HLSL dovrebbe riequilibrare un po' la situazione e semplificare la vita ai programmatori.

emilian
19-09-2003, 23:22
Vedo che c'è gente molto preparata sulle specifice e sui problemi e procedure di funzionamento delle attuali schede grafiche per pc ma anche se il problema delle schede di nVidia sia di avere un architettura più complessa per fare cose che nessun gioco attuale si promette di sfruttare.
Il problema indipendentemente dalla causa che lo scaturisce rimane lo stesso e cioè che il 30 settembre tra soli 10giorni uscirà Half Life 2. Il gioco che dalle immagini e dai video che mi sono scaricato secondo è il miglior fps mai realizzato ,Doom 3 gli fa una pippa(Dalle poche immagini sembra avere solo dei gran modelli ricchissimi di poligoni ma niente di veramente innovativo). E quindi io che posseggo una Radeon 9800 pro spero mi potro godere fino all'ultima stupenda e meravigliosa texture di HL2 mentre chi avra una nvidia si ritrovera un il gioco alla stessa qualità di quella di un xbox che per inciso costa meno di un terzo della FX5900 e un 1/10 di un intero pc che ma che bel paccone!.
E credo anche che molti dei futuri giochi useranno il motore grafico di HL2 perchè da quello che ho visto è qualcosa di veramente innovativo; sopratutto la fisica (non saprei da cosa è calcolata cpu o scheda grafica ) ma è qualcosa di mai visto finora in un video game (che non sia che ne so.. un simulatore dell'esercito usa).

cdimauro
26-09-2003, 04:48
Originariamente inviato da sslazio
io continuo ad essere perplesso sui fantomatici orribili dati dx9 su schede nvidia.
Sarà che farà schifo, ma ho visto giare con i miei occhi il 3dmark 2003 che dovrebbe essere dx9 a quanto ne so, senza il minimo problema, con moltissimi fps, eppure ho una 5800 leggermente overloccata e nulla di più.
3DMark 2003 ha il primo test basato sulle DX 7, il secondo e il terzo basato sulle DX 8.1, e il quarto basato sulle DX 8.1, ma in più utilizza qualche pixel shader 2.0. Per cui, come ben vedi, di DX 9 c'è veramente pochissimo...
Vedremo se è vero che HL non girerà o se Doom3 andrà a 3 fps, anche perchè Doom è da sempre Opengl standard decisamente più veloce delle DX nei giochi.
Non centra niente: anche se è OpenGL, utilizzerà sempre gli shader! Per farti capire, la differenza fra DirectX e OpenGL sta nelle API, cioé nelle routine che si interfacciano con l'hardware, ma per entrambi gli standard se si vogliono utilizzare gli shader, si deve passare la sfilza delle istruzioni che la GPU deve elaborare, e qui le differenze praticamente non esistono.

cdimauro
26-09-2003, 04:49
Originariamente inviato da pg08x
Come dice Carmak "The precision doesn't really matter to Doom, but that won't be a reasonable option in future games ..."

Io la traduco così: "con Doom mi sono fatto un mazzo tanto per farlo andare bene anche su nv30, ma non credo che per i giochi futuri tutto questo abbia senso"
Non esattamente: dice che attualmente Doom3 non risente della maggior o minor precisione per i calcoli effettuati per gli shader. Probabilmente gli shader utilizzati sono molto semplici e risentono poco della minor precisione quando effettuano i calcoli. Ma per il futuro, se si useranno degli shader più pesanti, non sarà pensabile di continuare a sfruttare la minor precisione, perché cominceranno a venir fuori dei difetti (che si possono ricondurre anche a degli artefatti visivi).
Praticamente, più vengono utilizzate delle funzioni matematiche "complesse", più gli errori introdotti dalla loro approssimazione (ricordo che i computer non possono manipolare numeri reali, quindi a precisione illimitata, ma normalmente utilizzano un loro sottoinsieme finito) si ripercuotono man mano che i calcoli procedono. A lungo andare gli errori accumulati nell'esecuzione delle varie istruzioni possono portare addirittura a dei calcoli errati. Non è un caso se nelle CPU sono presenti le rappresentazioni a precisione singola (32 bit) e doppia (64 bit), mentre qui stiamo parlando dei 16 bit (attuali) dell'NV30 contro i 24 bit dell'R300: sono solo 8 bit, ma vi assicuro che dal punto di vista computazionale la differenza in termini di precisione è notevole...

cdimauro
26-09-2003, 04:50
Originariamente inviato da Digital
Nvidia [...] ha dei driver ultra ottimizzati e stabili paragonati a quelli ati, tant'è vero che gl emulatori (la mia vera passione) sono pro nvidia da tempo.
Anch'io sono un appassionato di emulatori e li seguo da quando sono nati i primi. Ho avuto una S3 Virge, una Voodoo3 3000 (che uso ancora nel muletto :)), una GeForce 2 MX 400, una Radeon 9100 e infine sono passato a una Radeon 9600Pro: mai avuto problemi con gli emulatori, anzi! Se ti capita di passare dalle parti vieni a trovarmi, così vedremo se gli emulatori sono pro-Nvidia o se passerai il tempo a sbavare dietro al mio 19" con la mia 9600Pro che fa girare meravigliosamente (la GF2 aveva un'uscita video veramente penosa: le Radeon sono su un altro pianeta... :D) qualunque emulatore ti aggredarà di provare... :D
Quanto ai driver, idem: i Catalyst li ho trovati veramente ottimi. PROVARE PER CREDERE. ;)