View Full Version : Doom 3: nuovi dettagli sui rendering path
Redazione di Hardware Upg
03-05-2004, 16:32
Link alla notizia: http://news.hwupgrade.it/12344.html
Da una serie di veloci domande poste a John Carmack, lead programmer di Doom 3, emergono interessanti novità sul rendering path implementato per questo atteso gioco
Click sul link per visualizzare la notizia.
Io voglio il gioco ormai le parole di Carmack valgono quanto le mie.....
"The reason for the above is apparently because NVIDIA's drivers have improved to the point where NV3x hardware are running the standard ARB2 path at about equal speed with the NV30-specific path"
Penso che il buon vecchio john abbia visto che ingiro ci sono schede ben più performanti e si è risparmiato la fatica di fare un path x quel disastro del Nv30.Forse dalle sue informazioni iniziale Nvidia voleva derivare altri chip sulla base dell'nv30 ma si è vista a cambiare il progetto con l'Nv40.
sgabello
03-05-2004, 16:44
Interessante... sono profondamente contrario all'utilizzo di tecnologie proprietarie...
Ma ovviamente... della data di uscita? ancora nulla? Ricordo che di Doom 3 se ne parlava ai tempi delle superiori, quando leggevo TGM sotto il banco con i miei compagni... e ormai sono passati più di 5 anni!!!
jappilas
03-05-2004, 16:47
1) There is word that you have removed the NV30-specific rendering path
2) The reason for the above is apparently because NVIDIA's drivers have improved to the point where NV3x hardware are running the standard ARB2 path at about equal speed with the NV30-specific path
i driver nvidia sarebbero migliorati al punto da non richiedere una versione speciale del codice... O_o
per cui:
1) o facevano pena prima :rolleyes:
2) hanno introdotto delle ottimizzazioni se non rivoluzionarie, quasi :eek: :rolleyes:
mi vengono in mente i giorni del 3d mark 03 ... ma forse lavoro troppo di fantasia... :rolleyes:
ATI e Nvidia (soprattutto Nvidia) hanno già dimostrato come si possano aggirare i benchmark semplicemente "ottimizzando" (mi viene da ridere) i propri driver per questo o quello specifico test. Speriamo che queste ottimizzazioni non vengano introdotte nei giochi stessi, come sembra stia per accadere ai titoli di nuova generazioni e di prossima uscita.
E' una mia sensazione che per questo Doom 3, le case sopraccitate stiano facendo a gara per riuscire a "ungere" gli ingranaggi di programmazione del gioco per riuscire ad ottenere codice ottimizzato in favore del proprio hardware: pensate quanto sia importante per questi rivenditori guadagnare anche solo pochi fotogrammi rispetto alla concorrenza con questo titolo!
E Unga il migliore!! (quello che paga di più??) ;)
Firedraw
03-05-2004, 16:54
Ci sarà stato 5 anni perché a via di mazzette da nvidia e ati per ottimizzare il gioco per l'una o l'altra casa l'avrà riscritto almeno 3 volte il codice :D
mah... parlare di doom3 mi ricorda i tempi delle geffo3.
Mi chiedo se ne valeva la pena metterci tutto sto tempo... ma che ha un budget infinito?
veramente.....a sto punto mi immagino una news
"doom3 non verrà + rilasciato perchè i quelli della id hanno accumulato tante mazzette da vivere di rendita :D "
ma dai! :muro:
ma quando esceeeeee :muro:
Lo sapevo e lo dicevo da anni !!!
adesso esce nv40 la scrittura di codice specifico per nv30 è antieconomica.
Poi ci pensa nvidia nei drivers a fare i taroccamenti per ridurre la precisione.
Originariamente inviato da m4xt3r
E' una mia sensazione che per questo Doom 3, le case sopraccitate stiano facendo a gara per riuscire a "ungere" gli ingranaggi di programmazione del gioco per riuscire ad ottenere codice ottimizzato in favore del proprio hardware: pensate quanto sia importante per questi rivenditori guadagnare anche solo pochi fotogrammi rispetto alla concorrenza con questo titolo!
E Unga il migliore!! (quello che paga di più??) ;)
Il codice ARB è standard soltanto che con questo nv30 performava la metà rispetto ad ATI
Karmak aveva adottato una path nv30 con precisione a soli 16 bit e tagli vari per eguagliare le performance di ATI ma lavorando direttamente sui drivers quelli di nvidia gli hanno dato modo di scrivere del codice standard unificato che ai tarocchi ci pensano loro.
Originariamente inviato da pg08x
Poi ci pensa nvidia nei drivers a fare i taroccamenti per ridurre la precisione.
Il driver non e' autorizzato a scalare la precisione di nulla. Se lo shader richiede un'istruzione a 32 bit per componente la GPU esegue quell'istruzione a 32 bit per componente. E' facile controllare che questo avvenga scrivendo un semplice pixel shader.
In asm si aggiunge il suffisso _pp per richiedere precisione parziale, mentre in HLSL si usa il tipo half (che viene compilato in sequenze di istruzioni con suffissio _pp).
Se per assurdo il driver si "permettesse" di scalare la precisione sotto esplicita richiesta di una precisione superiore ce ne accorgeremmo (e nessuno ha mai segnalato questo problema).
Lud von Pipper
03-05-2004, 18:13
LOL! :D
Carmack parlava di DoomIII come prodotto di punta ottimizzato per spingere le "Innovative" Geffo 5800: adesso, con l'uscita della generazione successiva di schede video (Geffo 6800) stiamo ancora ascoltando gli stessi sproloqui su quanto sarà innovativo.
Direi che DoomIII è piuttosto il monumento alla generale arretratezza del mondo videoludico, impantanato in un loop allucinante di sequel del sequel e di tempi di pbblicazione epocali.
Di idee innovative all'orizonte non ce n'è traccia mentre le grandi case videoludiche che hanno fatto la storia del gioco elettronico scompaiono una dopo l'altra (Black Isle è stata l'ultima caduta di una lunga serie) per carenza di fondi e di interesse.
Se penso che Fallaout 3 è stato eliminato pur essendo prossimo alla pubblicazione mentre sta roba continua ad essere "in sviluppo" da oltre due anni mi viene un coccolone :mad:
Se dietro Carmack non ci fossero i soldi di nVidia la sua casa di software avrebbe chiuso da un bel pezzo, ma visto che in pratica produce demo pubblicitarie per venderci hardware inutile... :rolleyes:
LvP
Non mi sembra che i vari quake siano stati demo pubblicitarie per hardware inutile.
Non esageriamo va :) in fondo ID non ha mai deluso le aspettative, al contrario di altre software house.
Lud von Pipper
03-05-2004, 18:41
Originariamente inviato da johnson
Non mi sembra che i vari quake siano stati demo pubblicitarie per hardware inutile.
Non esageriamo va :) in fondo ID non ha mai deluso le aspettative, al contrario di altre software house.
Dimmi un pò, quando è stato pubblicato Quake III?
Quando è stato annunciato Doom III?
Chi ha beneficiato di tutto il parlare che se ne è fatto?
Chi scriveva di come la Geffo 5800 avrebbe fatto sfracelli?
E puoi in coscenza dire che Quake III avesse qualcosa di più rispetto ai predecessori a parte l'aspetto grafico?
E' sempre lo stesso gioco, che fa sparare un omino ad un altro senza il minimo riguardo per la fisica o per la il realismo, dai tempi del primo quake, e non mi aspetto nulla di più da quest'ultima release.
In sostanza, di fronte ad un incremento continuo delle risorse richieste dal sistema, il gioco non offre nulla di nuovo dalla introduzione del 3D.
D'accordo che il motore sarà utilizzato da terze parti per sviluppare i giochi della "prossima generazione" ma chi li svilupperà se le case software chiudono una dopo l'altra?
Non credo che il software in vendita abbia mai raggiunto un livello di appiattimento generale come oggi: sparatutto (alla Quake) e gestionali (alla Age of Empire).
L'importanza del gioco in rete sta diventando predominante, non per la sua superiorità su quello in solitario, ma per semplice mancanza di avversari: costa molto meno (ed è meno rischioso) sviluppare un gestore di rete che una trama ben fatta e interessante, e comunque, giochi sparatutto come System Shock o Deus Ex (Rigorosamente nelle loro prima versione) restano mosche bianche nel panorama videoludico.
E per quelli come me (e siamo in tanti) che si stancano dei giochini alla Quake e alla Age of Empire dopo un quarto d'ora, che cosa rimane?
Il livello dei videogame di oggi si adatta in modo preoccupante a quello della programmazione televisiva, e questo livello è probabilmente quello che ci meritiamo.
LvP
Originariamente inviato da Lud von Pipper
E puoi in coscenza dire che Quake III avesse qualcosa di più rispetto ai predecessori a parte l'aspetto grafico?
Il multiplayer. Fu il primo gioco a portare il multiplayer gaming a livello di massa, tanto da diventare quasi uno sport (e.sport lo chiamano). Oggi si organizzano ogni anno le Olimpiadi e Quake III ne ha fatto parte fin dall'inizio.
E' stata una vera e propria rivoluzione introducendo l'online gaming.
Originariamente inviato da Lud von Pipper
LOL! :D
Carmack parlava di DoomIII come prodotto di punta ottimizzato per spingere le "Innovative" Geffo 5800:
:O
... lo ha detto anche per:
- geffo 3
- radeon 8500
- geffo 4
- ati 9700
- fx 5800
- 6800
... le ha fatte fuori tutte insomma!
:sofico:
:rolleyes: :muro:
leoneazzurro
03-05-2004, 19:01
Originariamente inviato da Lud von Pipper
<Dimmi un pò, quando è stato pubblicato Quake III?
Quando è stato annunciato Doom III?
Chi ha beneficiato di tutto il parlare che se ne è fatto?
Chi scriveva di come la Geffo 5800 avrebbe fatto sfracelli?
E puoi in coscenza dire che Quake III avesse qualcosa di più rispetto ai predecessori a parte l'aspetto grafico?>
In effetti i vari Quake non sono stati enormemente innovativi dal punto di vista del gameplay in singolo, però tra il primo ed il terzo la differenza c'è eccome: multiplay estremo. E giocare questi giochi in singolo non ha molto senso. Originalità zero (ma del resto la trama non è mai esistita). Dal punto di vista grafico, però, i vari motori grafici della serie hanno comunque portato diverse novità (ad esempio le superfici curve di Quake 3).
<D'accordo che il motore sarà utilizzato da terze parti per sviluppare i giochi della "prossima generazione" ma chi li svilupperà se le case software chiudono una dopo l'altra?
Non credo che il software in vendita abbia mai raggiunto un livello di appiattimento generale come oggi: sparatutto (alla Quake) e gestionali (alla Age of Empire).>
Naa, ne esistono parecchi, di generi. Chiaro che questi vanno per la maggiore, come i giochi MMO (massive Multiplaying Online), ma ad ogni modo ogni tanto delle belle sorprese ci sono, vedi il Sacrifice di qualche tempo fa, ad esempio. O Black & White. Il più grande successo di questi ultimi anni è The Sims, pensa un pò.
<L'importanza del gioco in rete sta diventando predominante, non per la sua superiorità su quello in solitario, ma per semplice mancanza di avversari: costa molto meno (ed è meno rischioso) sviluppare un gestore di rete che una trama ben fatta e interessante, e comunque, giochi sparatutto come System Shock o Deus Ex (Rigorosamente nelle loro prima versione) restano mosche bianche nel panorama videoludico.
E per quelli come me (e siamo in tanti) che si stancano dei giochini alla Quake e alla Age of Empire dopo un quarto d'ora, che cosa rimane?>
Neverwinter Nights, no? :D O Metal Gear Solid, Knights of the Old Republic, ecc. ecc. Ad ogni modo, se i giochi in rete (che servono per lo più a mettere a confronto due avversari umani, e non certo per la trama. Vedila come una partita di calcio o di tressette: c'è forse una trama?) non fossero programmati attentamente per essere sapientemente bilanciati, il divertimento andrebbe a farsi benedire, non credi?
<Il livello dei videogame di oggi si adatta in modo preoccupante a quello della programmazione televisiva, e questo livello è probabilmente quello che ci meritiamo.>
Questo tende ad essere vero, ma ad ogni modo qualcosa di buono c'è ancora. Basta evitare di essere succubi dei vari FIFA 2001, 2002, 2003, 2004, XXXX e dei cloni di sè stessi.
LvP
Kazzoncrew
03-05-2004, 19:11
io invece mi rendo conto, ke ormai tutti i titoli recenti, all'avvio fanno vedere il logo nvidia, e quella classi frase....
dmanda e solo la ati, che e stupida a non farsi fare "certe" ottimizzazioni?...va bè..vedremo..cmq, la release in giro di doom3, fa pena, a 1280x1024 e AA6x (se non sbaglio) il solo menu, che contine pulsanti ecc, va a scatti... direi viva le ottimizzazioni...
leoneazzurro
03-05-2004, 19:30
Le ottimizzazioni ci sono da ambedue le parti, anche se ATI non è incappata nel "casino Futuremark". Ad ogni modo ogni gioco sembra prediligere una scheda diversa, almeno allo stato attuale, quindi conviene scegliere quella più adatta a ciò che si gioca.
Si e magari adesso spunta il produttore di duke nukenem forewer che dice che anche loro hanno deciso di rispettare lo standard di renderizzazione ARB2 .....
cmq le ottimizzazione vanno fatte, ma di tipo buono, come quelle ai tempi della voodoo,,
sidewinder
03-05-2004, 19:59
volete sapere dove fanno a finire i soldi che Carmack ha guadagnato? Nell' X-Prize, una gara a chi riesce a costruire un minishuttle privato per il volo suborbitale.
leggete questo: http://www.pcgameworld.com/story.php/id/1141/
e questo:
http://www.xprize.org/teams/armadillo.html (leggete il nome del team leader)
già già...... john come lodava la geforce3 ! Nella alhpa c'è anche il path specifico ;)
Il problema di doom3/Hl2 e che sono stati annunciati con troppo anticipo,quando c'era mediamente scarsa potenza nei pc. Se doom3 fosse uscito ai tempi delle geffo 3 sarebbe andato nei migliori sistemi a 15 fps. O almeno così mi andava la alpha !!
Stesso discorso per Hl 2 bello,innovativo ma se fosse uscito sarebbe stato un disastro visto che il 90% delle schede video sono directx 7 con qualche 8 ma tutte con prestazioni INADEGUATE.
Kazzoncrew
03-05-2004, 20:21
no nn ho mai visto la scrita delle ottimizzazioni ati dsadsasdsd...
Mr.Gamer
03-05-2004, 20:40
mah.. per me carmack può continuare a fare ciò che vuole.. insieme ai developer della valve...
....spero gareggino a fare gli shuttle, che mi sembrano piu ferrati ;)
ormai ho scoperto far cry ... e il suo engine è ben più potente di quanto si può vedere nel gioco o_O [ e... NON POSSO giocarlo al max dettaglio... ]
l'unica cosetta da fare ora è far uscire una VGA con la stessa dissipazione / limite d'overclock della 9600... dopodichè sto apposto [ma.. ahime.. la vedo dura... :P ]
Se non si sbrigano a rilasciarlo diventa troppo vecchio... ma se lo fanno troppo presto, lo criticano perchè "troppo pesante"...
L'unica spiegazione a giustificare le anticipazioni con video e immagini risalenti a quando ero piccino, è l'IPE introdotta nella mente di voi tutti, enorme lancio pubblicitario che porterà DOOM III a diventare indispensabile sui vostri dischi...
Vedrete che quando giocherete questo titolo vi renderete conto che non sarà poi tanto fuori "da ogni misura"... Mi chiedo una cosa: ma nei giochi, conta soltanto la grafica, ormai??
Penso, triste, ai giochi Papirus, al mitico Nascar Legend che pochi hanno "capito", ai divertentissimi platform 2D abbandonati per i belli quanto ingiocabili Rainman 3D e compagnia bella... Penso alle simpatiche avventure grafiche abbandonate per realizzare giochi fatti con lo stampino... Sigh! Bei tempi!! :)
Originariamente inviato da fek
Il driver non e' autorizzato a scalare la precisione di nulla. Se lo shader richiede un'istruzione a 32 bit per componente la GPU esegue quell'istruzione a 32 bit per componente. E' facile controllare che questo avvenga scrivendo un semplice pixel shader.
In asm si aggiunge il suffisso _pp per richiedere precisione parziale, mentre in HLSL si usa il tipo half (che viene compilato in sequenze di istruzioni con suffissio _pp).
Se per assurdo il driver si "permettesse" di scalare la precisione sotto esplicita richiesta di una precisione superiore ce ne accorgeremmo (e nessuno ha mai segnalato questo problema).
Magari Karmak ha deciso di usare la precisione a 16bit (anche perchè non vedo come un driver altrimenti possa fare miracoli raddoppiando le prestazioni)
Riguardo all'accorgesene lo ha ammesso karmak stesso che il risultato è simile.
Sempre riguardo all'accorgese Ad esempio FutureMark in passato ha segnalato problemi di driver nvidia che non producevano l'output sperato (hanno addirittura sostituito del codice di futuremark con codice proprietario nvidia compilato nel driver), altre software house sono state sponsorizzate per eseguire "ottimizzazioni" mirate, quindi non "criticano".
Il problema di queste "ottimizzazioni" è non incidere troppo sulla qualità non hai i sorgenti dei drivers ! sono a più basso livello rispetto al tuo shader, non illuderti di avere il controllo totale.
Ricordo negli anni ottanta, Sinclair QL sistema operativo su ROM 48K, un amico con un programmatore di eprom, Sinclair fallisce, sono disponibili i sorgenti del s/o in assemply dell'MC 60008 di Motorola, divertirsi a riscrivere routine del s/o. Quello era avere il controllo ;)
Linus Torvalds (che ha avuto un QL prima di passare al 386) ha deciso di scrivere un sistema operativo, ha creato un universo ne ha avuto il controllo.
Originariamente inviato da pg08x
Magari Karmak ha deciso di usare la precisione a 16bit (anche perchè non vedo come un driver altrimenti possa fare miracoli raddoppiando le prestazioni)
"Raddoppiare le prestazioni" e' un termine poco preciso, bisognerebbe capire di che cosa si parla e rispetto a quali situazioni.
Gli aumenti di prestazioni nell'esecuzione degli shader che si riscontrano negl'ultimi driver nvidia dipendono principalmente dal riordino delle istruzioni secondo pattern piu' "graditi" al motore interno. Nulla a che vedere con la precisione dei calcoli.
Riguardo all'accorgesene lo ha ammesso karmak stesso che il risultato è simile.
Sempre riguardo all'accorgese Ad esempio FutureMark in passato ha segnalato problemi di driver nvidia che non producevano l'output sperato (hanno addirittura sostituito del codice di futuremark con codice proprietario nvidia compilato nel driver), altre software house sono state sponsorizzate per eseguire "ottimizzazioni" mirate, quindi non "criticano".
Le ottimizzazioni che ATI e NVIDIA fanno su benchmark come il FutureMark non riguardano di nuovo la precisione di calcolo: qui si parla di sostituire interi shader con nuovi oppure di eliminare porzioni della geometria che non sarebbe comunque visibile, ottimizzazione possibile perche' in un benchmark si conosce in anticipo il movimento della telecamera.
E' curioso notare come una delle sw house sponsorizzate per eseguire "ottimizzazioni" mirate come le chiami tu fu la Valve.
Il problema di queste "ottimizzazioni" è non incidere troppo sulla qualità non hai i sorgenti dei drivers ! sono a più basso livello rispetto al tuo shader, non illuderti di avere il controllo totale.
Nessuno avra' mai il controllo totale, perche' le specifiche delle GPU ATI e NVIDIA non sono pubbliche, ma so quello su cui ho il controllo perche' e' garantito dagli IHV. La precisione dei calcoli nel pixel shader e' uno dei parametri su cui il programmatore ha totale controllo e l'IHV non e' autorizzato a modificare.
Gli sviluppatori non hanno il controllo totale.
Anche quando nvidia ha riscritto gli shaders oppure eliminato intere porzioni di geometria per barare in modo così eclatante nei bench non era autorizzata a farlo :mad: (eppure fino all'ultimo "garantiva" di non averlo fatto) (e ci ha pure riprovato)
Nessuno è autorizzato a rubare barare imbrogliare, non per questo non mancano bari i ladri ed imbroglioni
Originariamente inviato da pg08x
Gli sviluppatori non hanno il controllo totale.
Infatti non ho mai detto che abbiamo il controllo totale, ho detto che abbiamo il controllo su alcune cose che ci vengono garantite, tipo la precisione dei calcoli nei pixel shader.
Anche quando nvidia ha riscritto gli shaders oppure eliminato intere porzioni di geometria per barare nei bench non era autorizzata a farlo :mad:
Questo ci porterebbe completamente off topic, ma lo accenno soltanto, poi magari possiamo aprire una discussione nel forum apposito.
A mio parere ATI e NVIDIA fanno benissimo a "barare" nei benchmark sintetici perche' i benchmark sintetici non hanno praticamente alcun valore nel confrontare due architetture diverse. Non avendo gia' significato come strumento, quello che fanno ATI e NVIDIA nel cercare di aumentare un punteggio che gia' di per se' non ha significato e' perfettamente lecito anche dal punto di vista morale. Ovviamente e' perfettamente lecito dal punto di vista legale perche' non c'e' alcuna legge che glielo vieti.
Come ultima nota, ti vedo parlare solo di NVIDIA, ma entrambe "barano" pesantemente nei bench: giusto due settimane fa parlavo con uno dei devrel di ATI che e' venuto a trovarci e ci ha raccontato un po' di trucchetti che usano per alzare il punteggio del 3DMark. E, ripeto, fanno benissimo a farlo.
Originariamente inviato da fek
giusto due settimane fa parlavo con uno dei devrel di ATI che e' venuto a trovarci e ci ha raccontato un po' di trucchetti che usano per alzare il punteggio del 3DMark. E, ripeto, fanno benissimo a farlo.
Francè,
che è un devrel?
Originariamente inviato da MaBru
Francè,
che è un devrel?
Oops :)
Devrel e' un Developer Relations. E' un dipendente delle case che producono hardware, ad esempio schede grafiche, che si occupa delle relazioni con gli sviluppatori. Ogni tanto un devrel di ATI o NVIDIA viene qui in ufficio e noi lo tempestiamo di domande su problemi vari, su caratteristiche dell'hardware, bug dei driver, etc etc... Non ti dico che sono occasioni molto ma molto interessanti.
Originariamente inviato da fek
fanno benissimo a "barare" nei benchmark sintetici perche'... e' perfettamente lecito anche dal punto di vista morale. Ovviamente e' perfettamente lecito dal punto di vista legale perche' non c'e' alcuna legge che glielo vieti.
Il reato si chiama truffa, se è stato commesso non stà a me giudicarlo, deve essere dimostrato nelle opportune sedi.
La legge esiste e qualcuno ha ancora fiducia in queste leggi.
Riguardo al tuo concetto di moralità è semplicemente vergognoso.
I bench han perso valore perchè la gente è stata indotta a perdere di fiducia in essi (troppe scorrettezze).
Riguardo ad ATI non si sono riscontrati particolari incrementi di prestazioni nei bench fra versioni "ottimizzate" e versioni "non ottimizzate".
DioBrando
03-05-2004, 23:28
se le ottimizzazioni sul codice e sugli algoritmi ci fossero veramente, per far girare Quake III, FarCry e tutto quello che uscirà prox n sarebbero servite le schede video con due molex d'alimentazione :rolleyes:
è ora di finirla con questa storia...tra un pò un gamer dovrà avere un contatore solo per il pc invece che per la casa :muro:
Ma tutte le persone che parlano male di John Carmack presenti in questo sito giravano a 17 anni con un Ferrari cabrio??? se la risposta è si potete cancellare il post, ma ne dubito fortemente..... Beh lui ci girava, dato che fino a circa 1/2 anni fa aveva scritto il miglior motore 3D che noi videogiocatori abbiamo mai visto!!! e sono SICURO che quando uscirà il motore di Doom3 ci troveremo davanti ad un nuovo capolavoro (sottolineo in OpenGL e non directx così da mantenere la compatibilità totale). Aggiungo anche che preferisco vedere girare un motore 3D sotto qualsiasi macchina/architettura piuttosto che stare a discutere su quale dei due vendor (ati/Nvidia) ha finanziato di più per aver 3 frame in più in un caxxo di benchmark inutile. E tutto questo comporta tempo!!!! abbiamo FarCry, giochiamo a quello e a tutti gli altri meravigliosi giochi che il panorama videoludico ci offre e aspettiamo...... non rimarremo delusi....
Originariamente inviato da EtH
Ma tutte le persone che parlano male di John Carmack presenti in questo sito giravano a 17 anni con un Ferrari cabrio??? se la risposta è si potete cancellare il post, ma ne dubito fortemente..... Beh lui ci girava, dato che fino a circa 1/2 anni fa aveva scritto il miglior motore 3D che noi videogiocatori abbiamo mai visto!!! e sono SICURO che quando uscirà il motore di Doom3 ci troveremo davanti ad un nuovo capolavoro (sottolineo in OpenGL e non directx così da mantenere la compatibilità totale). Aggiungo anche che preferisco vedere girare un motore 3D sotto qualsiasi macchina/architettura piuttosto che stare a discutere su quale dei due vendor (ati/Nvidia) ha finanziato di più per aver 3 frame in più in un caxxo di benchmark inutile. E tutto questo comporta tempo!!!! abbiamo FarCry, giochiamo a quello e a tutti gli altri meravigliosi giochi che il panorama videoludico ci offre e aspettiamo...... non rimarremo delusi....
Qaundo Carmack aveva 17 anni non era nemmeno uscito Wolfenstein. Non penso fosse già così ricco prima.
Uhm, nessuna compatibilità totale, non più che in directx almeno.
Nel senso che la maggior parte degli effetti aggiunti dal motore di Q3 li vedrai solo su HW DX8/DX9, xchè hanno solo e semplicemente rinominato le operazioni da un linguaggio all'altro, usando lo stesso HW...
Sarebbe stato identico programmarlo in DX7/8/9 come fanno con il resto dei giochi, sempre che come in Price of P. non si rompano le scatole e si pongano dei limiti verso il basso, vedi presenza di pixel shader.
Che mi risulti cmq Valve non ha ottimizzato a favore di ATI ma più semplicemente NON HA fatto il contrario come in molte nuove uscite; prima di ottimizzare i drv x un gioco le prestazioni non sono molto diverse dai bench visti, vedi Halo, TRAOD, Far Cry ancora adesso(LOL:D)...
leddlazarus
04-05-2004, 08:05
non uscirà +. ogni tre mesi esce una scheda nuova + potente e il gioco dovrà incorporare le features della nuova scheda. praticamente un cane che si morde la coda..
CiccoMan
04-05-2004, 08:40
vi rendete conto conto cosa state dicendo??
tanto per iniziare mi diverte molto chi è contro le ottimizzazioni...se i driver nn fossero ottimizzati quackeIII farebbe 10fps...e poi scusate, secondo voi qual'è lo scopo dei programmatori di ati o nvidia se nn quello di permettere ad un loro prodotto di massimizzare le prestazioni in più applicativi possibile?? se per voi questo significa barare...
inoltre mi dispiace molto sentir gettare fango sulla ID...la mia passione per il videogamig è iniziata proprio da li (come quella di molti credo...)e tendo a consideralrla una specie di madre del vidiogioco (ma queste sono cose personali...).
riguardo alle sponsorizzazioni nn ci vedo nulla di male...anche qui mi pare ovvio che nvidia sponsorizzi DooM3, come nn mi avrebbe sorpreso che fosse stata ati o AMD piuttosto che intel...cosa pensavate di avviare il gioco e trovare il logo dei "salumi beretta"??
Dtto ciò aggiungo che Carmack è un mito e mi augoro che nn MI deluderà!
ciauz :D
barabba73
04-05-2004, 09:15
Carmack è un tipo molto espansivo, vista la risposta...una risposta un pizzico più articolata?
Scherzo...immagino che sia una sintesi della sua risposta..e complimenti per la sintesi...meglio c'era solo.. 'yes'!
Io, una volta che sono conosciuti e resi pubblici, non gli chiamerei più taroccamenti, ma ottimizzazioni: ben inteso nei giochi, non certo nei benchmark...le ottimizzazioni nei giochi servono a noi, nei benchmark servono a loro !
Originariamente inviato da pg08x
Il reato si chiama truffa, se è stato commesso non stà a me giudicarlo, deve essere dimostrato nelle opportune sedi.
La legge esiste e qualcuno ha ancora fiducia in queste leggi.
Riguardo al tuo concetto di moralità è semplicemente vergognoso.
I bench han perso valore perchè la gente è stata indotta a perdere di fiducia in essi (troppe scorrettezze).
Mi spiace, ma non c'e' alcuna legge che vieti ATI o NVIDIA di fare quello che gli pare con il proprio software sul proprio hardware.
Riguardo ad ATI non si sono riscontrati particolari incrementi di prestazioni nei bench fra versioni "ottimizzate" e versioni "non ottimizzate".
Tendo a fidarmi piu' delle parole di Richard Huddy che ci ha descritto per filo e per segno alcune di queste ottimizzazioni. Sei libero di credere che non esistano.
Originariamente inviato da EtH
Beh lui ci girava, dato che fino a circa 1/2 anni fa aveva scritto il miglior motore 3D che noi videogiocatori abbiamo mai visto!!!
Ehm... gia' due o tre anni fa c'erano motori decisamente migliori di quello di Q3 in circolazione.
Originariamente inviato da fek
Mi spiace, ma non c'e' alcuna legge che vieti ATI o NVIDIA di fare quello che gli pare con il proprio software sul proprio hardware.
3dMark è stato un software utilizzato dalla maggior parte delle riviste e dai siti on-line per dare delle valutazioni sulle schede video. La gente si fidava di quel software e lo riteneva attendibile (guarda caso veniva bene a nvidia :sofico: )
Scrivere un software che per indurre il programma di valutazione (3dMark) a dare dei risultati erronei in proprio favore (risultati ingannevoli) in modo da far credere erroneamente alla clientela che il proprio prodotto avesse determinate capacità spingendo così con l'inganno il potenziale acquirente a scegliere un prodotto invece di un altro si chiama truffare.
[B]
Tendo a fidarmi piu' delle parole di Richard Huddy che ci ha descritto per filo e per segno alcune di queste ottimizzazioni. Sei libero di credere che non esistano.
Dato che spesso fraintendi quello che ti si dice probabilmente il tizio le avrà descritte come (tecnicamente fattibili), non avrà certo ammesso di aver truffato.
Non è mancanza di fiducia nel tipo... a mancare è la fiducia in te.
****
Detonator che si è sostituito addirittura al codice di 3dmark Più che un driver è un virus :sofico:
Originariamente inviato da pg08x
3dMark è stato un software utilizzato dalla maggior parte delle riviste e dai siti on-line per dare delle valutazioni sulle schede video. La gente si fidava di quel software e lo riteneva attendibile (guarda caso veniva bene a nvidia :sofico: )
Il fatto che il 3dmark fosse usato dalle riviste non vuol dire nulla sulla sua attendibilita'. Non e' il 3dmark ad essere inattendibile, e' il concetto stesso di benchmark sintetico per una GPU ad essere inattendibile.
Per questo secondo me ATI e NVIDIA fanno piu' che bene a cercare di alzare quel punteggio. Pratica per altro del tutto legale.
Dato che spesso fraintendi quello che ti si dice probabilmente il tizio le avrà descritte come (tecnicamente fattibili), non avrà certo ammesso di aver truffato.
Non è mancanza di fiducia nel tipo... a mancare è la fiducia in te.
Spero che tu non mi stia dando dello stupido.
Ero presente quando Richard ne ha parlato, ho fatto io la domanda e stava parlando direttamente a me e la chiacchierata sull'argomento e' durata una decina di minuti abbondanti. Non ho frainteso alcunche'.
E francamente, non e' certo avere la tua fiducia o meno che mi cambia qualcosa. Avere la fiducia degli IHV e' decisamente piu' importante dal mio punto di vista.
Originariamente inviato da fek
Il fatto che il 3dmark fosse usato dalle riviste non vuol dire nulla sulla sua attendibilita'. Non e' il 3dmark ad essere inattendibile, e' il concetto stesso di benchmark sintetico per una GPU ad essere inattendibile.
Per questo secondo me ATI e NVIDIA fanno piu' che bene a cercare di alzare quel punteggio. Pratica per altro del tutto legale.
Il fatto che 3dmark fosse usato nelle riviste per dare una valutazione ad un prodotto è fondamentale. Alterare con l'inganno i risultati di queste valutazioni (proprio perchè la gente si fidava di esse) vorrebbe dire truffare. Di questo si stava parlando..
E questo intendo dire che fraintendi, non che tu sia stupido ma rigiri sempre la frittata a tuo favore in questo caso non centrano le nostre opinioni riguardo all'attendibilità dei test PRIMA delle presunte truffe. Impara prima a rivedere le tue posizioni in cerca di qualche bug non arrampicarti sugli specchi
Originariamente inviato da fek
Spero che tu non mi stia dando dello stupido.
Ero presente quando Richard ne ha parlato, ho fatto io la domanda e stava parlando direttamente a me e la chiacchierata sull'argomento e' durata una decina di minuti abbondanti. Non ho frainteso alcunche'.
E francamente, non e' certo avere la tua fiducia o meno che mi cambia qualcosa. Avere la fiducia degli IHV e' decisamente piu' importante dal mio punto di vista.
Vedi sopra... e poi... vatti a vedere gli incrementi ottenuti da nvidia rispetto a quelli ottenuti da ati.
dragunov
04-05-2004, 19:01
Voglio vedere se avrà davvero così successo!
in parte l'attesa è stata giustificata per l'hardware non idone,ma li screenshots del game non fanno più questo scalpore dal punto di vista grafico!
Originariamente inviato da pg08x
E questo intendo dire che fraintendi, non che tu sia stupido ma rigiri sempre la frittata a tuo favore in questo caso non centrano le nostre opinioni riguardo all'attendibilità dei test PRIMA delle presunte truffe. Impara prima a rivedere le tue posizioni in cerca di qualche bug non arrampicarti sugli specchi
E intendi dire mai. Ho una posizione ben precisa sui benchmark sintetici e l'ho sempre espressa da circa un anno a questa parte: sono inutili. E quindi entrambe le ditte fanno bene a usare qualunque trucco per aumentare quel punteggio.
Ripeto questo da parecchio ormai, curioso che per te stia solo fraintendendo.
Vedi sopra... e poi... vatti a vedere gli incrementi ottenuti da nvidia rispetto a quelli ottenuti da ati.
Una buona parte degli incrementi di prestazioni e' dovuta allo unified compiler che schedula meglio le istruzioni, non alla sostituzione degli shader (che come per ATI e' avvenuta e avviene).
Secondo me non sei sereno nei tuoi giudizi (e non me ne sono accorto solo io) ed avendo una conoscenza approssimativa degli argomenti tendi a fare disinformazione in maniera abbastanza maldestra.
Originariamente inviato da fek
E intendi dire mai. Ho una posizione ben precisa sui benchmark sintetici e l'ho sempre espressa da circa un anno a questa parte: sono inutili. E quindi entrambe le ditte fanno bene a usare qualunque trucco per aumentare quel punteggio.
Ripeto questo da parecchio ormai, curioso che per te stia solo fraintendendo.
Sono stato chiaro, e l'ho scritto pure a caratteri bold
"Il fatto che 3dmark fosse usato nelle riviste per dare una valutazione ad un prodotto è fondamentale. Alterare con l'inganno i risultati di queste valutazioni (proprio perchè la gente si fidava di esse) vorrebbe dire truffare. Di questo si stava parlando.. "
non mi interessa quale sia la tua opinione sui bench sintetici.
Originariamente inviato da fek
Una buona parte degli incrementi di prestazioni e' dovuta allo unified compiler che schedula meglio le istruzioni, non alla sostituzione degli shader (che come per ATI e' avvenuta e avviene).
Secondo me non sei sereno nei tuoi giudizi (e non me ne sono accorto solo io) ed avendo una conoscenza approssimativa degli argomenti tendi a fare disinformazione in maniera abbastanza maldestra.
Caro amico, ti trinceri sempre dietro alla tua presunta conoscenza approfondita degli shader per esprimere le tue opinioni di parte.
Con me il giochino non attacca, si parlava di tutt'altro.
Poi ricordati sempre, non hai il controllo(sai a cosa alludo), non hai scritto tu i drivers e l'archittettura interna come da tua stessa ammissione non viene resa nota.
Originariamente inviato da pg08x
Caro amico, ti trinceri sempre dietro alla tua presunta conoscenza approfondita degli shader per esprimere le tue opinioni di parte.
Con me il giochino non attacca, si parlava di tutt'altro.
Poi ricordati sempre, non hai il controllo(sai a cosa alludo), non hai scritto tu i drivers e l'archittettura interna come da tua stessa ammissione non viene resa nota.
Originariamente inviato da fek
Infatti non ho mai detto che abbiamo il controllo totale, ho detto che abbiamo il controllo su alcune cose che ci vengono garantite, tipo la precisione dei calcoli nei pixel shader.
jappilas
04-05-2004, 20:23
sarete d' accordo che lo scopo di un bench sia valutare la capacità di un componente di far girare determinato SW...
ora, secondo me, per una scheda 3D, è importante che faccia girare (in senso assoluto, cioè o sì o no) i giochi e le applicazioni 3D,
se sì, se li fa girare in modo accettabile,
se si va oltre il livello di "accettabilità", allora può essere utile vedere quanto oltre
in tal caso allora gli unici benchmark accettabili (imho) sarebbero i giochi stessi, con i loro fps: e infatti questi vengono sempre inclusi nelle recensioni
3dMark... mah, per me è poco più di una demo, tanto è vero che da quando vidi il 2000, mi venne l' idea malata di farne una anch'io..
solo che mi sarebbero servite idee per le animazioni ...
:rolleyes: :sofico:
Originariamente inviato da pg08x
Caro amico, ti trinceri sempre dietro alla tua presunta conoscenza approfondita degli shader per esprimere le tue opinioni di parte.
Con me il giochino non attacca, si parlava di tutt'altro.
Poi ricordati sempre, non hai il controllo(sai a cosa alludo), non hai scritto tu i drivers e l'archittettura interna come da tua stessa ammissione non viene resa nota.
E' il suo modus operandi, e vedo che te nei stai accorgendo pure tu. ;)
Originariamente inviato da AAle
E' il suo modus operandi, e vedo che te nei stai accorgendo pure tu. ;)
Il mio modus operandi e' condividere con gl'altri l'esperienza che ho maturato lavorando per anni in questo campo e cercare di divulgarla nella maniera piu' comprensibile che mi e' possibile. Comunque c'e' sempre il fan nvidia che mi accusa di essere pro ati e c'e' sempre il fan ati che mi accusa di essere pro nvidia, semplicemente perche' non gli dico le cose che vorrebbero sentire e non parteggio per nessuna delle due. Tanto e' vero che entrambe le architetture sono ottime, hanno punti di forze e debolezze, ambiti di applicazione nei quali vanno meglio e peggio. Ma un fan boy fa purtroppo fatica a capire questo semplice concetto. I fan boy non sono comunque il target al quale rivolgo i miei post.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.