View Full Version : Carmack su R300 e NV30
Redazione di Hardware Upg
30-01-2003, 15:24
Link alla notizia: http://news.hwupgrade.it/9185.html
Il noto programmatore capo della ID Software espone le proprie impressioni su NV30, R300 e l'attesissimo Doom 3
Click sul link per visualizzare la notizia.
Carmack mi ricorda qualcuno ... Perchè non fa il mestiere su e programma invece di fare l'opinionista ... Capisco che voglia tenere alta l'attenzione sul suo prodotto ma non mi sembra un modo di fare serio e professionale
Non lo si può lasciare a pane ed acqua fino a quando non ha finto Domm3?
Praticamente R300 usufruendo di path non proprietarie viaggia come un fulmine alla massima qualità, mentre NV30 per viaggiare alla massima qualità (sempre minore della R300) deve usufruire di un path proprietario! :p Altrimenti come sempre se le prende dalla Ati!!!!!!!!
E' ovvio che nv30 va anche più forte ma si parla di due VPU con sei mesi di differenza!
Penso che l'opinione di Carmack sia molto importante visto che e' lui che scrive il codice che le GPU devono macinare.
Inoltre ha solo riportato i risultati dello stato attuale del suo software.
Non ci vedo nulla di male.
Ben vengano i commenti di Carmack, uno che almeno se ne intende davvero, o preferite invece leggere le centinaia di post cazzoni dei presunti esperti che imperversano sul forum solo per offendersi e scannarsi?
steel64....quanto hai ragione.!!!
sono pienamente daccordo con te!!!!!!
Nino Grasso
30-01-2003, 15:58
" Praticamente R300 usufruendo di path non proprietarie viaggia come un fulmine alla massima qualità, mentre NV30 per viaggiare alla massima qualità (sempre minore della R300) deve usufruire di un path proprietario! Altrimenti come sempre se le prende dalla Ati!!!!!!!!
E' ovvio che nv30 va anche più forte ma si parla di due VPU con sei mesi di differenza! "
cioè la GeForce FX va + forte dell'R300 con DooM III ma al contempo le busca!!! cioè... non è incoerenza questa??? cioè... non bisogna vedere come una scheda arriva a un certo risultato, ma il risultato stesso (esempio su tutti l'hardware displacement mapping di GeForce FX, oppure invertendo le cose l'anisotropic filtering delle schede ati applicato solo alle superfici che si trovano a 90° o 180°)... il risultato qui è a favore della GeForce FX come in quasi tutti i test senza AA... se poi la vedtee come una lotta di parte fate pure a scazzottarvi per chi ha ragione o meno... secondo me sono entrambi grandi schede... con qualche punto a favore della GeForce FX (anche la 8500 è uscita 6 mesi dopo della GeForce 3... ma lì imputavate i problemi di tale scheda all'acerbità dei driver...)
OSMIUM_modified
30-01-2003, 15:58
Preferisco leggere commenti di persone che non si sospetta essere pagate da tizio o da caio per esternare opinioni. Carmack è indubbiamente quello che è ma non dimentichiamoci che prima propendeva per i chip ATi e poi stranamente cambiò idea per l'NV30 che equipaggia quell'aborto di scheda della GeforceFX. Sembrava che ci fossero differenze abissali tra i chip e invece così non è stato. Adesso Carmack, essendoci entrambe le schede riporta finalmente valori un pò meno personali. Questo lo dice uno che di programmazione non capisce nulla ed esprime la propria opinione in uno spazio aperto al pubblico. Secondo me Carmack ci ha marciato nei commenti passati. Forse ci marcia attualmente.
Probablmente se avesse detto che NV30 fa' schifo non avresti assolutamente dubitato della sua imparzialite', vero?
-=Savio=-
30-01-2003, 16:10
UN MIO PICCOLO PARERE DIREBBE APETTIAMO L'USCITA METTIAMOCI LE MANI SOPRA E POI VEDIAMO!
Nino Grasso
30-01-2003, 16:11
ahuauhaHUaHUaHUahu sono d'accordo con te dm69!!! :DDD
Carmack dice:
This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
Bello il paragone mela a mela..ma non si dovrebbe sempre fare cosi? Perche con Ati vs nVidia si usa metri diversi per paragonarle?
Cmq il succo della sua risposta è che, se il codice lo scrive un cazzone, ATI va il doippio piu forte di nVidia, se invece lo scrive LUI, CARMACK, allora riesce a far andare nVidia piu forte di ATI
Phantom II
30-01-2003, 16:20
Ma perchè Carmack invece di continuare a pontificare sui vari chip grafici che escono non si limita a fare il suo lavoro, cioè terminare Doom 3?
Il suo atteggiamento di saputo che poi non conclude mai il lavoro per cui è pagato comincia a diventare a dir poco fastidioso.
Ma come hai fatto a trarre quelle conclusioni?
E poi perche' l'ironia verso Carmack?
Filippo75
30-01-2003, 16:28
Rotfl, cioè adesso Carmack non può più nemmeno dire la sua opinione su R300 e NV30? Se non dà un giudizio lui, chi lo dovrebbe dare?
Poi non è che per esprimere quei 4 concetti perda 6 mesi di lavoro, al massimo 6 minuti.
Vedo che qui' ci sono tutti espertoni di grafica 3D, geni dell'informatica, etc..
Fateli voi i giochi no?
Torpillone
30-01-2003, 16:36
Vedo all'orizzonte un'altra società in fallimento........di questi tempi basta che salti l'uscita di un chipset e i miliardi guadagnati l'hanno prima vanno a farsi benedire....
Nino Grasso
30-01-2003, 16:50
se non è di carmack il compito di giudicare le nuove schede video di fascia alta presenti sul mercato allora sicuramente sarà compito vostro, che ne avete avute a disposizione così in massa da provarle tutte, e che i giochi realizzati da voi stessi danno la merda a giochi come doom2, quake2 o quake 3... complimenti per la ostra saggezza!
Originally posted by "Torpillone"
Vedo all'orizzonte un'altra società in fallimento........di questi tempi basta che salti l'uscita di un chipset e i miliardi guadagnati l'hanno prima vanno a farsi benedire....
Chi salta chipset e chi aggiunge le H...
si scrive ANNO, e non HANNO (verbo avere)
ciao
giruz
permaloso
30-01-2003, 17:13
--- quote--
se non è di carmack il compito di giudicare le nuove schede video di fascia alta presenti sul mercato allora...
GIUDICARE???? da qui si vede l'arroganza tua e di quelli come te! nessuno può permettersi di GIUDICARE il lavoro altrui! L'unica cosa che si può fare è una valutazione (soggettiva) ed esprimere in base ad essa una opinione PERSONALE!!! (dimenticavo qui ci sono persone che nn sono in grado di esprimere un opinione...)
NESSUNO può GIUDICARE costosa la geforcefx se non in relazione alle proprie finanze e disponibilità
NESSUNO può GIUDICARE rumorosa la geforcefx se non in relazione all'ambiente specifico nel quale andrà ad operare(mai sentito parlare di case insonorizzati?)
CARMACK valuta due chip in funzione del SUO software (che gli deve dare da mangiare...)è ovvio che le sue dichiarazioni siano contraddittorie...FX va bene 9700 è splendida,qualsiasi cosa abbiate accattatevi il mio gamez! mi meraviglia che nn abbia incluso anche lo xabre e il parhelia!
non ho capito quello che diceva che l'8500 è peggio del geforce 3, ma è certo di quello che dice?
Tralasciando l'aspetto qualitativo che non c'è prorpio paragone tra una 8500 e un geforce 3, l'8500 è sempre più veloce del geforce3, sempre.
Ovviamente parlo delle retail ATI con clock 275 e non di quelle schifezze a 235.
Secondo me il gioco andra' bene a seconda della scheda per la quale e' ottimizzato.Resta da vedere dove Carmack pendera',se verso Nvidia o verso ATI.
Cosi come per quanto riguarda i processori:Doom3 sara' ottimizzato per Intel o AMD?
Allora, insultate pure chiunque ma lasciate stare John!!! e poi, cosa significa: "...Ma perchè Carmack invece di continuare a pontificare sui vari chip grafici che escono non si limita a fare il suo lavoro, cioè terminare Doom 3?..." ma state scherzando? chi meglio di lui può sapere se un chip va più di un altro? ma mollatemi dai!!!!! credo che dovremmo stare tutti zitti quando John parla!
Non sarebbe giusto pero' se lui favorisse un marchio piuttosto che un'altro.Doom3 e' un gioco con un'aspettativa tra le piu' elevate in assoluto e ottimizzarlo per Nvidia o ATI vuol dire condizionare il mercato dell'una o dell'altra casa produttrice in senso negativo o positivo.Ugualmente vale per i processori (Intel e AMD):non c'e' processore che tenga quando il codice non e' ottimizzato per lui!E appunto perche' lui e' considerato onnipotente,un giudizio pro o a sfavore di qualcuno potrebbe generare pregiudizi ingiusti.
ma va la e che è DIO???per farti un gioco ci mette anni!!lui propende a chi gli da di più un anno fa diceva che la sua creatura era fatta per la geffo 4ti600 poi esce la 9700 ed ecco che dice che il suo gioco è fatto per il suddetto chip e ora esce la geffofx......chi offre di più
Lud von Pipper
30-01-2003, 17:59
Complimenti al caro Carmack! :rolleyes:
The R300 can run Doom in three different modes: ARB (minimum extensions, no
specular highlights, no vertex programs), R200 (full featured, almost always
single pass interaction rendering), ARB2 (floating point fragment shaders,
minor quality improvements, always single pass).
The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five
rendering passes, no vertex programs), NV20 (full featured, two or three
rendering passes), NV30 ( full featured, single pass), and ARB2.
Ci sta dicendo con la più bella faccia di bronzo del mondo che hanno programmato Doom 3 con due modalità standard bassa e alta qualità (ARB1 e ARB2), poi hanno aggiunto alcune modalità dedicate: (R-200, Nv10, NV20, Nv030).
R-200 è stata ovviamente inclusa per fare giocare bene anche i possessori di schede vecchiotte (Radeon e 7500), così come le modalità Nv10 ed NV20 (geffo2,3,4) altrimenti il gioco non va una pippa e gli utenti si inc@zzano.
Poi ha aggiunto una modalità specifica NV30, così la nuova scheda GFX può spuntarla nei bench con la 9700Pro, ma deve ammettere che con interfaccia generica (cioè ARB2) ATI va il doppio... :rolleyes:
Perchè allora non scrivere anche una modalità R-300?
E ARB2 a che serve visto che l'unica altra scheda DX9 compatibile in commercio è R-300?
Magari non ce n'era bisogno (differenze trascurabili), ma forse ATI non pagava abbastanza? :rolleyes:
DoomII: il primo gioco con API specifiche per tutte le principali schede video tranne una. :rolleyes:
Io la News la leggo così: se vi comperate il PC solo giocare a DoomIII fatevi dare in omaggio un paio d cuffie e prendete la GFX Ultra.
Per tutti gli altri impieghi non c'è confronto: GFX non è una scheda per API Dx9.0, ma per API Nv30.
Originally posted by "Filippo75"
Poi non è che per esprimere quei 4 concetti perda 6 mesi di lavoro, al massimo 6 minuti.
Si, i sei minuti meglio pagati del mondo :rolleyes:
LvP
si chiama senso degli affari!
Lud von Pipper
30-01-2003, 18:15
E attenzione, non venitemi a dire che "Tanto per qualche FPS in più non vale la pena e che senza il processore a 3GHZ non vedi la differenza": le schede di nuova generazione (TUTTE) puntano al 1600x1200 con filtri attivati, e a quelle risoluzioni la scheda diventa il collo di bottiglia anche con un XP1600 :mad:
Con giochi pesanti come DoomIII l'ottimizzazione è tutto, e se si fosse ottimizzato anche l'R-300 si sarebbe potuto, forse, raggiungere risoluzioni più alte: anche se Nv30 avesse perso terreno l'obbiettivo assoluto è offrire agli acquirenti il miglior plusvalore possibile, cosa che Karmack è soci non hanno VOLUTO fare per favorire gli interessi di Nvidia. :muro:
Come vedete, gia da subito in questa bella guerricciola siamo noi che finiamo per prendercela in quel posto :o
LvP
Complimenti per come capisci le news.
Ma forse e' colpa dell'inglese ...
Lud von Pipper
30-01-2003, 18:23
Originally posted by "dm69"
Complimenti per come capisci le news.
Ma forse e' colpa dell'inglese ...
ILLUMINAMI :rolleyes:
LvP
mi ricordo che quake2 e quake3 appena usciti viaggiavno molto di più su schede 3dfx come la voodoo3. questo perchè carmack sfruttava un set di drivers specifici per 3dfx che si chiamavano minigl. con quelli una voodoo faceva volare quake. pensando che 3dfx è stata comprata da nvidia, mi sembra ovvio che attraverso un meccanismo di vassallaggio, abbia favorito. Il discorso è questo, come diceva von pipper: per nvidia facciamo una modalità nv30, per ati non facciamo la r300. Cosa vuol dire questo?
opzione 1: ati spacca troppo e dobbiamo frenare le prestazioni per non far fallire la nostra nvidia che ci permette, con foraggiamenti, di far ritardare il nostro gioco doom3 di più di un anno
opzione 2: ati radeon 9700 al momento è lo standard, per cui arb2 è il modulo che meglio si adatta alla scheda.
Io spero che sia la 2. del resto io ho sia una mx 440 che una radeon 7500 e dunque non sono di parte. ma stavolta nvidia ha fatto un prodotto poco appetibile.
E' da tutti considerato The God, quando parla si ascolta e basta. Ogni suo gioco alla sua uscita e' anni luce avanti a tutta la concorrenza, i suoi motori grafici (cosa di cui si occupa e non di quale suono associare all'arma XYZ) durano anni, sono stabili come niente altro, se quake 3 ti crash hai problemi nel pc,flessibili come nessuno.
Se dice che un aspetto di un chip non va', poi stare sicuro che ha ragione e dopo 30 sec dopo tutti i forum dei piu' importanti siti spargono la voce, e le vendite ne risentono...
E' sufficiente che leggi senza dover vedere per forza complotti, inganni, etc..
scusate, ma quello che dice carmack è piuttosto importante. ovvero se si usa una modalità standard ati fa il mazzo ad nvidia, mentre scrivendo un codice particolare, nvidia vince. Ma tutti i programmatori di giochi dovranno scrivere un codice ottimizzato nvidia per avere prestazioni degne del prezzo che si spende? Credo che andrebbe veloce anche il parhelia se scrivessero un codice apposito... perchè nvidia non si mette anche a fare i giochi?
Lud von Pipper
30-01-2003, 18:37
Originally posted by "tasso79"
mi ricordo che quake2 e quake3 appena usciti viaggiavno molto di più su schede 3dfx come la voodoo3. questo perchè carmack sfruttava un set di drivers specifici per 3dfx che si chiamavano minigl. con quelli una voodoo faceva volare quake.
Per forza usava le MiniGL: Le Voodoo non supportavano l'OpenGL pieno, quindi se si voleva vendere Quake ai clienti 3DFX (una buona fetta del mercato) la via era obbligata.
Qui però le cose sono parecchio più losche perchè GFX non ha bisogno di ottimizzazioni per funzionare...
Inoltre il motore Nvidia è solitamente molto performante rispetto a quello ATI in Open GL, quindi non capisco (o meglio capisco benissimo :rolleyes: ) le ragioni per questa scelta (visto anche che attualemnte la diffusione di NV30 è pari a ZERO)
LvP
LvP
Secondo me la verita sul Radeon 9700 e il Geffo FX e che sono le due schede che ci porteranno in una nuova dimensione del gioco.
Si avvicineranno alle frontiere del fotorealismo come mai è stato fatto prima e personalmente penso che la corsa all ultimo frame possiamo anche lasciarla perdere.
Se una scheda è più veloce non significa che le altre siano schifezze.
Il dato è che il 9700 è la scheda più veloce in circolazione ma non è secondo mè l unica qualità sche una scheda deve possedere.
Se il mercato tira verso Nvidia (come penso che faccia) i giochi gireranno meglio con Nvidia punto e stop a prescindere dai Bench.
Trovo allarmante la politica di zia Nvidia con il suo logo "Nvidia meant to be played " la dica lunga.... x chi è ottimizzato quel gioco ??
Così come ralli della microsoft giri infinitamente meglio con la mia geforce3 e athlon 900 che su un 8500 con xp1800 provato con un mio amico....
E adesso non venitemi a dire che i driver magari erano vecchi ecc ecc xè non tutti gli utenti volgiono cambiare driver o ottimizzare tramite i tweak le loro schede video....... volgiono che il gioco vada e basta !
Lud von Pipper
30-01-2003, 18:43
Originally posted by "mazzy"
E' da tutti considerato The God, quando parla si ascolta e basta. Ogni suo gioco alla sua uscita e' anni luce avanti a tutta la concorrenza, i suoi motori grafici (cosa di cui si occupa e non di quale suono associare all'arma XYZ) durano anni, sono stabili come niente altro, se quake 3 ti crash hai problemi nel pc,flessibili come nessuno.
Se dice che un aspetto di un chip non va', poi stare sicuro che ha ragione e dopo 30 sec dopo tutti i forum dei piu' importanti siti spargono la voce, e le vendite ne risentono...
Guarda che "l'Ipse dixit" (e per fortuna) è fuori moda da un pezzo: non critico un commento "tecnico" di Carmak, ma una certa politica commerciale che porta avanti.
Perchè e di questo che la news parla: di tecnico c'è poco o nulla!
LvP
Lud von Pipper
30-01-2003, 18:46
Originally posted by "luckye"
Secondo me la verita sul Radeon 9700 e il Geffo FX e che sono le due schede che ci porteranno in una nuova dimensione del gioco.
Si avvicineranno alle frontiere del fotorealismo come mai è stato fatto prima e personalmente penso che la corsa all ultimo frame possiamo anche lasciarla perdere.
Se una scheda è più veloce non significa che le altre siano schifezze.
Sono perfettamente daccordo, e infatti non ho mai spalato letame sulla GFX come altri (anche se non ammiro particolarmente il progetto).
Ma vedere un prodotto volutamente messo in ombra per avantagiarne un altro (ai danni dei clienti) mi fa imbufalire :mad:
LvP
Lud von Pipper
30-01-2003, 18:56
Originally posted by "tasso79"
scusate, ma quello che dice carmack è piuttosto importante. ovvero se si usa una modalità standard ati fa il mazzo ad nvidia, mentre scrivendo un codice particolare, nvidia vince. Ma tutti i programmatori di giochi dovranno scrivere un codice ottimizzato nvidia per avere prestazioni degne del prezzo che si spende? Credo che andrebbe veloce anche il parhelia se scrivessero un codice apposito... perchè nvidia non si mette anche a fare i giochi?
Sai quale sarà il prezzo da pagare?
Che in futuro i drivers ATI diventeranno un casino, tentando di ottimizzare questo o quel gioco invece che puntare alla stabilità generale del sistema e ad un effettivo incremento delle prestazioni.
E la cosa non è accettabile visto che R-300 è diffusissima mentre Nv30 non è neppure in vendita.
carmack non mi sembra dica cose fuori dal mondo, ma sembra confermare quello che i primi bench d3d dell'fx (considerate che in opengl ati va un pò peggio che con le dx), cioè che sostanzialmente siamo di fronte ad un testa a testa
NVidia con GFX non vuole assolutamente precludersi il mercato legato a Doom3,per cui corteggia insistemtemente Carmack.Francamente bisognerebbe dare spazio a tutti,non solo ai produttori di sempre che continuano a vendere solo loro!Le schede grafiche sono dipendenti dai videogiochi ed e' chiaro che con la concorrenza in atto,c'e' chi vuole spuntarla su tutti facendo leva su chi li produce.Spero che la IDsoftware al massimo non avvantaggi nessuno dei due.
Se interpreti meglio cosa carmak sta dicendo afferma che r300 con qualità massima (arb2 che è uno standard che attiva tutti gli effetti e tutte le multitexture vengono applicate a singolo passo) va come una skeggia. Per far andare nv30 a qualità massima (arb2) si sono accorti che seguendo le istruzioni (o path o chechessia) standard va la metà di meno di un r300. Conclusioni hanno creato delle estensioni apposite per nv30 in modo che a qualità massima riesca a superare (ma dice lui veramente di poco) r300.
Riassunto: r300 veloce sempre - nv30 veloce solo con istruzioni dedicate.
Hai capito cosa intendevo, lestat.me, con l'incongruenza che nv30 "va forte ma va piano"?
John C. sarà anche un grande ma perndere dalle sue labbra mi sembra esagerato...i Croteam hanno dimostrato di saperci fare (SS1 e SS2), Litech è un altro grande engine sotto tutti gli aspetti...eppure a questi nessuno li caga :)
Non potrebbe essere tutto più semplice? la GeffoFX ha alcune caratteristiche più avanzate rispetto allo standard delle attuali schede DX9 "compliant" 9700 compresa.
Quindi è probabile che programmando il codice in modalità diciamo "standard" la FX sia più lenta, ma che utilizzando un codice che sfrutti queste caratteristiche + avanzate vada più veloce.
D'altronde era già successo con l'8500 e la geffo3, l'8500 grazie ad un pixelshader più avanzato risultava (dopo che furono risolti alcuni problemi di driver), a detta dello stesso Carmack, più performante con Doom3 della geffo (e questo a dispetto dei bench di allora che non utilizzando quel pixelshader dicevano che la geffo 3 era più veloce).
OldGuardian
30-01-2003, 20:14
Infatti sono d'accordo con bs82.
Cmq anche se ipoteticamente stia favoreggiando Nvidia creandogli un codice dedicato agli utenti ATI che gliene frega?
Lo Standard ARB2 è full detail e lui stesso ammette che la 9700 è una scheggia....quindi non vedo il problema.
Io penso che chi ha certe possibilità economiche e deve scegliere oggi una scheda video nuova debba valutare altre cose e non il fatto che la Fx faccia 10-20-30 frames in più perchè Carmack gli ha regalato un codice tutto suo.
Che poi l'ipotetico favoreggiamento innervosisca un pò è un altro discorso ma IHMO il phon da 400 Euro che necessita di codice dedicato non me lo compro lo stesso e come utente ATI non è che ci vado a rimettere poi molto.
Anzi io speravo che la FX superasse di gran lunga la 9700 tanto è e sarà sempre un testa a testa e noi consumatori possiamo permetterci certe chicche della tecnologia a poco prezzo solo grazie a questa eterna guerra.
PS (Per gli utenti ATI): tranquilli giocherete a doom a risoluzioni e dettagli da urlo...e ai bambini con le Fx che vengono a vantarsi di fare X frames in più gli faccio un bel pernacchione.
i bambinoni orgogliosi di qualche frame in piu' o di qualche migliaio di punti in piu' al 3dmark, purtroppo ci saranno sempre!!!!
Pero' bisogna ringraziarli perche' grazie alle loro ingorde esigenze c'e' il progresso.
Mi pare di capire che non è vero, se non altro in senso assoluto, che nv30 risulta prevalere su r300 stando a quanto dice Carmak.
Ma allora perchè nella notizia si legge che nv30 prevale?
Milio
Alcune caratteristiche del directX9 sono implementate con nv30 in maniera NON STANDARD per cui per essere sfruttate richiedono una programmazione dedicata (e migliaia di righe di codice aggiuntive)
Se i commerciali di nvidia pagano abbastanza Carmak provvederà a far fare al suo team programmi del tipo IF GeforceFX ---- guadagnandosi un'altra bella Ferrari da aggiungere alla sua già ricca collezione.
Un progetto come quello di Doom3 richiede ANNI UOMO di programmazione vorrei vedere quanta di questa ormai viene fatta PERSONALMENTE dal signor guru.
E chi vi parla di lavoro fa il responsabile di un team di sviluppo software.
Chissa' se il 2003 sara' l'anno della ATI???Lo spero giusto per una questione di portare in pari la situazione:dopo aver visto sempre il logo NVidia nelle presentazioni dei videogiochi,sarebbe ora di vedere quello ATI.Anzi ATI e AMD anziché Intel e NVidia.
Caro John se ci fosse giustizia a questo mondo useresti l'ARB2 (che è standard) con entrambe le schede e lasceresti ad nvidia il compito di ottimizzare i drivers in tale direzione per quanto l'archittetura interna delle geforce FX lo permette.
"Se ci fosse giustizia a questo mondo" ???
Non ti sembra di usare dei termini un po' esagerati?
Stiamo parlando di schede grafiche che servono per giocare!! mica della pace nel mondo!!
Originally posted by "dm69"
"Se ci fosse giustizia a questo mondo" ???
Non ti sembra di usare dei termini un po' esagerati?
Stiamo parlando di schede grafiche che servono per giocare!! mica della pace nel mondo!!
A volte uso l'iperbole quale figura retorica, ne converrai che è di un certo effetto... :D
Comunque se in nvidia si sono dati tanto da fare nello sviluppare delle librerie dedicate per nv30 E' GIUSTO CHE QUALCUNO LE USI, anche se questo comporta la scrittura di del codice aggiuntivo.
Nv30 è pienamente directX9 compatibile, offre degli strumenti aggiuntivi a livello di programmazione ma questi si traducono a mio avviso nella possibilità di guadagnare qualche frame non certo per regalare effetti altrimenti non ottenibili via DirectX.
In nvidia spingono le software house ad adottare una programmazione dedicata, vale a dire a scrivere del codice che funziona solo con particolari schede, ma dipende anche dal successo commerciale che avranno le soluzioni nvidia e DA QUANDO VOGLIAMO COMPLETARE STI BENEDETTI PROGRAMMI. Alla fine non è una cosa buona, Doom3 ritarderà ancora di qualche mese ed intanto Carmak, come ai tempi della disfida fra radeon 8500 e gefore3 conclude così: "As always, better cards are coming soon" :eek:
The reason for this is that ATI does everything at high precision all the
time, while Nvidia internally supports three different precisions with
different performances. To make it even more complicated, the exact
precision that ATI uses is in between the floating point precisions offered by
Nvidia, so when Nvidia runs fragment programs, they are at a higher precision
than ATI's, which is some justification for the slower speed. Nvidia assures
me that there is a lot of room for improving the fragment program performance
with improved driver compiler technology.
The current NV30 cards do have some other disadvantages: They take up two
slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually
one to care about fan noise, but the NV30 does annoy me.
eheheh ci conferma del casino che fa :)
A dimenticavo ARB sono estensioni OpenGl in OpenGl nvidia l'ha sempre fatta da padrona :confused:
Non ho capito esattamente in cosa consistono gli execution paths di cui parla Carmak, pero' non e' detto che si tratti di codice che fa' uso di API particolari hardware specific. Potrebbe anche trattarsi di un uso diverso delle stesse funzioni di libreria in funzione dell'hardware. Per esempio supponendo che per eseguire un certo task si abbiano a disposizione diversi algoritmi e che ognuno di essi abbia performance differenti a seconda dell' hardware, l' applicazione puo' decidere di usare quello piu' confacente all'HW a disposizione.
In ogni caso e' evidente che Carmak non ha molti problemi di schedule e/o costi di sviluppo se puo' permettersi ottimizzazioni di questo tipo.
gia è quello che pensi!
e cmq "e/o costi di sviluppo se puo' permettersi ottimizzazioni di questo tipo"
il motore lo scrive lui, non lo lascia fare agli altri, non è che lui gestisce, lui CREA
Non credo proprio che una sola persona possa fare tutto il lavoro (vabbe' che sono anni che ci lavora).
chi, dopo tanto parlare, fosse ancora interessato ai sani vecchi benchmark può andare a leggere la comparazione gefx-rad9700 su anandtech ed extremetech.
buona lettura
Lud von Pipper
31-01-2003, 03:06
Il problema non è tra ATI e nVidia, ma tra standard e non standard.
Che fine faranno le schede di nuova generazione per le masse tipo S3 e SiS?
Possiamo ancora sentircela di criticare queste case prodruttrici per lo scarso livello di maturazione dei drivers quando gli stessi programmatori favoriscono in questo modo una casa sulle altre?
Ai tempi del confornto 8500/Ti500 tutti diedero addosso ad ATI per avere introdotto alcune righe di codice che favorivano i bench con Quake3 (e indirettamente la fluidità del gioco stesso): sembrava qualcosa di disonesto da parte della casa canadese, ma nessunovide l'altra faccia della medaglia, nonostante si sapesse che Quake 3 era stato creato ed affinato sulle schede nVidia dallo stesso Carmack.
Quì la situazione è analoga, il che significa che le nuove schede in uscita (XabreII ed S3) dovranno fare carte false con i loro drivers per stare alla pari con la GFX...
ATI ha meno problemi perchè R-300 è gia di per sè una GPU mostruosa, ma i costi sono alti in assoluto
Favorendo una scheda in particolare Carmack sta direttamente drogando il mercato ai danni della libera concorrenza.
P.S: a me non ne viene nulla da tutto ciò perchè non comprerò DoomIII, così come non ho comprato Quake 1/2/3 (o Unreal in tutte le sue incarnazioni), tuttavia gli effetti collaterali sul mercato dei videogiochi mi preoccupa.
LvP
Tenete presente alcune cose:
Carmack non è dio, però se un giorno non avesse deciso di creare QuakeGL usando le API OpenGL nessuna casa produttrice di chip video avrebbe prodotto driver OpenGL. In sostanza, dato che i giochi che lui crea sono il punto assoluto di riferimento (opinabile, certo, ma di fatto è così) gli altri si adattano a quello che vuole lui. Personalmente ritengo il motore modulare di Unreal molto superiore a quello di Quake3.
Secondo, questo discorso è strano perchè parla di ottimizzazioni per questo e quello....ma da quando in qua Carmack ottimizza per qualcuno? Sono gli altri che ottimizzano per i giochi di Carmack, a meno che.....
P.S: vorrei vedere Doom3 in Metal, per la DeltaChrome
:)
....dimenticavo: per quanto mi riguarda una scheda video da 58 decibel se la possono tenere, qualsiasi cosa sia.
Originally posted by "dm69"
Non ho capito esattamente in cosa consistono gli execution paths di cui parla Carmak, pero' non e' detto che si tratti di codice che fa' uso di API particolari hardware specific. Potrebbe anche trattarsi di un uso diverso delle stesse funzioni di libreria in funzione dell'hardware. Per esempio supponendo che per eseguire un certo task si abbiano a disposizione diversi algoritmi e che ognuno di essi abbia performance differenti a seconda dell' hardware, l' applicazione puo' decidere di usare quello piu' confacente all'HW a disposizione.
In ogni caso e' evidente che Carmak non ha molti problemi di schedule e/o costi di sviluppo se puo' permettersi ottimizzazioni di questo tipo.
ARB ed ARB2 sono estensioni standard alle librerie OpenGl. NV10, NV20, NV30 sono estensioni NON standard all' OpenGl e vengono implementate dai drivers nvidia. Queste agiscono a basso livello su specifiche GPU permettendo di ottenere il rendering finale della scena 3d attraverso un approccio differente. Nvidia ha rilasciato già da qualche mese un emulatore software delle geforce FX permettendo agli sviluppatori di scrivere codice nv30 dedicato anche se, con l'emulatore il codice pur girando su altre gpu ha performance pietose.
Vengono chiamate execution paths, "sentieri, traiettorie di esecuzione" quelle porzioni di codice adibite al rendering finale che fanno uso di tali estensioni, in pratica l'ID software dovrebbe testare da codice se tali estensioni sono effettivamente caricate e DA UN CERTO PUNTO IN POI IMBOCCARE UN DETERMINATO SENTIERO (attraverso la chiamata a routine che andranno appositamente sviluppate) CHE PORTERA' FINO AL RENDERING FINALE DEL FRAME CORRENTE.
Per invogliare gli sviluppatori nvidia ha anche ideato un linguaggio di programmazione simile al C, con il compilatore CG è possibile creare del codice DirectX9 ed OpenGl compatibile ovviamente con un occhio di riguardo alle specifiche pesanti ottimizzazioni per le GPU nvidia.
Tutto questo a mio avviso non è una cosa buona e può portare terze parti (es: ATI) a DIFFICOLTA' NELL'IMPLEMENTAZIONE DEI DRIVERS.
In pratica il mio pensiero è questo e non mi vergogno a dirlo: W LA CONCORRENZA, W LO STANDARD (per dare a tutti eque possibilità di far valere il proprio prodotto ed avere un confronto ad armi PARI), nvidia vuole diventare monopolista e STA' FACENDO DEI DANNI (è un pò come barare a mio avviso).
Grazie delle informazioni.
Pero' non condivido le tue conclusioni: io non vedo nulla di male in tutto cio' perche' e' fatto alla luca del sole. Ne consegue che DOOM3 (e gli altri applicativi nelle stesse condizioni), essendo specificatamente ottimizzato per NV 30, non puo' essere considerato un benchmark attendibile.
Sarebbe stato scorretto se tutto cio' fosse stato fatto segretamente. Cosi' si' che si ingannavano gli utenti.
Mercato drogato, standard per tutti, confronti ad armi pari, ma siete impazziti?
I programmatori hanno un solo obiettivo: vendere il più possibile! Se il programmatore valuta che il costo dell'ottimizzazione per una certa scheda verrà ampiamente ripagato dai maggiori ricavi di vendita o anche dalle sponsorizzazioni di parte, dovrebbe rinunciare ad un maggiore guadagno in nome di una sana concorrenza fra marchi di chips, ma per favore... Inoltre se da una scheda è possibile ottenere qualcosa in più grazie ad alcune sue caratteristiche peculiari, i programmatori non dovrebbero usarle solo perchè non sono standard? E chi lo stabilisce cos'è lo "standard"?
Ti rendi conto che in codesto modo si sarebbe sempre alle DX3? Gli standard si modificano nel tempo proprio perchè ogni tanto qualcuno ha una bella pensata e inventa qualcosa di nuovo, poi gli altri si accodano e piano piano quella innovazione diventa il nuovo "standard" fin quando non ne arriva qualcuna di nuovo e si ricomincia da capo. Quando Nvidia con la geffo3 introdusse il pixel e vertex shader programmabile, se nessuno lo avesse usato perchè non era standard, saremmo ancora alle DX7.
Sta ai produttori di chips produrre chips sempre più veloci e con nuove features in grado di stimolare o andare incontro alle richieste della fantasia dei programmtori.
P.S. ricordo ancora quando esistevano i giochi che potevano girare in modalità normale o per possessori di schede 3DFX. Cosa si sarebbe dovuto fare all'epoca? impedire ai programmatori di farlo per non far fare brutta figura agli altri oppure dire brava 3DFX e sperare che anche gli altri produttori si dessero da fare per colmare il gap (cosa che per 3DFX purtroppo è accaduto fin troppo in fretta :D).
Carmak userà ARB2 che è standard con le skede di nuova generazione mentre userà NV30 per le geforce FX volevo solo puntualizzare che il risultato finale del rendering è uguale, PERFETTAMENTE IDENTICO !
Capisco il discorso se tutto questo avesse lo scopo di implementare degli effetti non ancora previsti dallo standard opengl MA NON E' COSI'.
Allora mettiamola così: se ottimizzando il codice per la FX riesce a ottenere dei risultati migliori che con il codice "standard", perchè Carmack non deve farlo? Perchè rischiare che i futuri possessori di FX (tanto chi la comprerà ci sarà cmq nonostante il prezzo, il rumore, le prestazioni etc.) non acquistino il suo prodotto perche non gira bene quando con una semplice ottimizzazione del codice può fare faville?
Perchè nvidia quando ha progettato l'architettura della gpu nv30 ha voluto implementarla in modo che per ottenere il 100% delle performance sia necesaria una programmazione "dedicata" mentre con strumenti standard già disponibili in questo particolare caso abbiamo addirittura il 50% delle performance in meno ?
Mi sa che non avete capito il senso delle mie affermazioni. A me non frega nulla della GFX, per ora mi tengo stretta la mia Ti4400, ma se dovessi cambiare scheda al momento comprerei una 9700 quindi non sono un tifoso di Nvidia (nè di altri marchi). Se la FX ha problemi per andare forte sono cavoli di Nvidia. Quello che dicevo era che se Carmack ha sviluppato un codice ad hoc per l'NV30 avrà i suoi buoni motivi, che sia per vendere di più o perchè Nvidia lo paga sono affari suoi. Cmq se Nvidia paga per un ottimizzazione non mi sembra che faccia un cattivo servizio ai suoi clienti, anzi. Il problema è semmai quanto questo "investimento" possa impattare sul costo finale dei prodotti Nvidia, ma qui sono gli esperti di marketing Nvidia che devono valutare. Però dire che Carmack e Nvidia sono "cattivi" perchè si mettono d'accordo per far correre la FX mi sembra una sciocchezza, lo faccia anche ATI se ne è capace e se ritiene di averne bisogno (cosa che non credo perchè sembra che vada già molto bene così).
Poi se altri programmatori riteranno di voler ottimizzare per l'NV30 i loro codici o no è una cosa che nessuno può prevedere al momento, se ciò avverrà avra avuto ragione Nvidia altrimenti peggio per lei.
snowfire
31-01-2003, 12:26
Benchè non prenderei mai una scheda NVIDIA, men che meno la FX (visto che non ho intenzione di far diventare il mio case una stanza anecoica), credo sia un bene il fatto che NVIDIA abbia sviluppato un linguaggio di programmazione apposito per le schede video. Infatti, anche se per ora verrà usato solo sulle schede FX, e solo da parte dei giochi che lo implementano, prima o poi anche ATI (magari non con l'R350 ma con una sua evoluzione) lo implementerà. In questo modo sarà possibile spremere tutte le potenzialità di una scheda di nuova generazione (a differenza di quello che si ha con le directx) con un codice specifico, mentre per le schede che non lo implementano, si useranno le directx.
In ogni caso, quale sarebbe l'opinione di coloro che gettano fango sulla scelta di NVIDIA di sviluppare un nuovo linguaggio se la stessa scelta fosse stata fatta da ATI? Probabilmente Carmack avrebbe scritto una parte del motore grafico specifico per quel linguaggio...
A parte il fatto che non capisco cosa ci guadagni se l'FX farà schifo (forse è il tifo? :D), però i motori grafici di Carmack (che sono OpenGL non DX cmq) sono sempre stati ripresi da una moltitudine di giochi anche in passato, per cui già assicursi delle ottimizzazioni per DOOM3, vuol dire assicurarsi delle ottimizzazioni per moltissimi altri giochi futuri che utilizzaranno quel motore, te pensa solamente a quanti giochi ancora oggi sfruttano il motore di Quake3.
cdimauro
31-01-2003, 14:01
Originally posted by "Cramerx"
Allora, insultate pure chiunque ma lasciate stare John!!! e poi, cosa significa: "...Ma perchè Carmack invece di continuare a pontificare sui vari chip grafici che escono non si limita a fare il suo lavoro, cioè terminare Doom 3?..." ma state scherzando? chi meglio di lui può sapere se un chip va più di un altro? ma mollatemi dai!!!!! credo che dovremmo stare tutti zitti quando John parla!
Se hai così poca stima di te stesso, puoi anche startene zitto: ma lascia agli altri la libertà di poter dire la loro anche su gente del calibro di Carmack...
snowfire
31-01-2003, 15:13
Quando
Certamente si può dire la nostra anche su Carmack, purchè non siano cazzate. Si può criticare i giudizi tecnici che dà (certo ci vuole un pizzico di presunzione per pensare di saperne più di lui, però è del tutto lecito), si può criticare il suo modo di gestire i rapporti con le case hardware, ma non si può dire Carmack stia zitto e vada a finire il suo lavoro, se permetti preferisco leggere un solo commento di Carmack che cento cazzate di qualche saputello su questo forum...
Lud von Pipper
31-01-2003, 16:01
Originally posted by "steel64"
Ti rendi conto che in codesto modo si sarebbe sempre alle DX3? Gli standard si modificano nel tempo proprio perchè ogni tanto qualcuno ha una bella pensata e inventa qualcosa di nuovo, poi gli altri si accodano e piano piano quella innovazione diventa il nuovo "standard" fin quando non ne arriva qualcuna di nuovo e si ricomincia da capo. Quando Nvidia con la geffo3 introdusse il pixel e vertex shader programmabile, se nessuno lo avesse usato perchè non era standard, saremmo ancora alle DX7.
Sta ai produttori di chips produrre chips sempre più veloci e con nuove features in grado di stimolare o andare incontro alle richieste della fantasia dei programmtori.
P.S. ricordo ancora quando esistevano i giochi che potevano girare in modalità normale o per possessori di schede 3DFX. Cosa si sarebbe dovuto fare all'epoca? impedire ai programmatori di farlo per non far fare brutta figura agli altri oppure dire brava 3DFX e sperare che anche gli altri produttori si dessero da fare per colmare il gap (cosa che per 3DFX purtroppo è accaduto fin troppo in fretta :D).
Ma che sciocchezza!
Microsoft progetta una determinata API:Nvidia ATI e chiunque altro progettano hardware per sfruttarlo.
Ci mancava giusto di sentire questa: "Nvidia con la geffo3 introdusse il pixel e vertex shader programmabile, se nessuno lo avesse usato perchè non era standard, saremmo ancora alle DX7" :rolleyes:
Quindi secondo te PRIMA Nvidia avrebbe avuto la pensata geniale e costruito l'hardware e POI Microsoft, folgorata sulla via di Damasco avrebbe pensato bene di farle delle API su misura? :rolleyes:
Microsoft, ed SGI ancora di più, hanno SEMPRE sviluppato le proprie API in maniera autonoma e consultandosi con TUTTI i produttori sul mercato, e grazie a questo sistema ha strappato il monopolio della grafica ludica a 3DFX (ed è li che sono le vere radici del fallimento di 3DFX).
E per fortuna, altrimenti altro che DX3: saremmo ancora alle Glide!
Ora ci troviamo in una situazione dove il produttore che, fianziariamente , è nettamente il più forte sul mercato, paga grosse somme per ottimizzare i software per i propri prodotti, e questo porta a penalizzare la concorrenza in termini di prestazioni: questo è un tentativo di nVidia di monopolizzare il mercato grazie alla propria infuenza economica esattamente come Intell sta facendo con le pubblicità del P4 e le ottimizzazioni ad hoc su software strategici.
Avete presente quando Micro$oft introdusse l'explorer gratis nei propri sistemi operativi per fare fuori Netscape?
Di sicuro, l'introduzione di modalità extra standard non può che penalizzare noi acquirenti: se questo non è drogare il mercato io non riesco ad immaginare cos'altro lo sia!
E per fortuna che sono io che dovrei leggere le news senza vederci quello che non c'è :rolleyes:
LvP
snowfire
31-01-2003, 16:02
Scusate per il "quando", ho sbagliato a inviare.
Volevo dire comunque, che quando NVIDIA ha introdotto pixel e vertex shader non erano uno standard, ma poi tutte le schede uscite successivamente li hanno implementati.
In ogni caso, se i programmatori hanno a disposizione un linguaggio di programmazione che permette di sfurttare appieno le funzionalità di una certa scheda, perchè non usarlo? Oltrettutto, come potede dedurre anche voi, usando un liguaggio specifico è possibile sfruttare appieno la scheda (senza dover attendere directx 10 o altro) ottenedo risultati notevoli...
Le conclusioni che possiamo trarre sono quindi abbastanza ovvie:
uno, la FX non è una scheda potentissima (molto probabilmente i driver sono acerbi)
due, usando un linguaggio specifico si possono ottenere prestazioni molto superiori ad altre schede in commercio
tre, se Carmack fa uscire DOOM 3 com il supporto al nuovo linguaggio di NVIDIA (o perchè è stato pagato da NVIDIA stessa o perchè in questo modo il gioco gira molto più fluidamente) nel giro di un anno e forse anche meno gli altri produttori introdurranno chip grafici che supportano tale liguaggio
quattro, chi produce giochi nuovi non sarà costretto ad attendere le directx10 o a limitare la sua "fantasia grafica" per introdurre nuovi effetti grafici.
Per Lud von Pippe(r) lol scusa ma non ho resistito :D senza offesa naturalmente è solo una battuta.
Beh è la solita storia sull'uovo e la gallina.
Tu dici prima le API poi le schede io dico prima le schede poi le API.
Ovviamente la verità sta nel mezzo: le nuove API nascono dalla collaborazione fra produttori software e hardware, nessuno produrrebbe una scheda con caratteristiche che non si possono sfruttare e nessuno realizzerebbe delle API che non possono essere usate. Tuttavia ritengo che lo spunto iniziale per nuove API parta sempre dai produttori hardware che così possono venderci una nuova scheda ogni 6 mesi :D , mentre ad esempio non credo che Microsoft ci guadagni granchè se non il poter magnificare le caratteristiche del proprio S.O.
Circa il discorso mercato devo ancora conoscere l'azienda che non vuole aumentare la propria quota di mercato e i propri profitti, se Nvidia è brava a escogitare sistemi per cercare di vendere i propri prodotti non si può fargliene una colpa, sta agli altri eventualmente controbattere con gli stessi strumenti, non credo che ad ATI manchino i soldi per foraggiare qualche software house per far ottimizzare i software anche per le proprie schede, se non lo fa è perchè forse ha delle strategie diverse, magari preferisce spendere quei soldi per innovare i propri prodotti oppure non spendendoli affatto riesce a vendere a prezzi più contenuti i propri prodotti, ma smettiamola di dire che ATI poverini non hanno soldi perchè sono un colosso pure loro.
P.S. e poi da ATI hanno dei fenomeni che sono riusciti a tirare fuori la 9700 prima delle DX9, sono addirittura preveggenti...:D, ciaooo
evvivaipc
31-01-2003, 20:51
ciao volevo un consiglio mi conviene farmi subito l ati 9700pro r300 o r500?
(poi sapete se è ancora buona ati readon 64ddr vivo rispondetemi per favore)ciao^^
Originally posted by "evvivaipc"
ciao volevo un consiglio mi conviene farmi subito l ati 9700pro r300 o r500?
(poi sapete se è ancora buona ati readon 64ddr vivo rispondetemi per favore)ciao^^
Se mi riesci a trovare un'R500 giuro che ti faccio un monumento :eek:
Nino Grasso
01-02-2003, 08:49
cazz... il mio mondo sta cambiando... allora che ne dite se vi dico che la buon vecchia 3Dfx Voodoo 2 era na cagata perché in Unreal andava meglio solo perché utilizzava le Glide??? O mi dite che quello è un altro discorso??? IO direi che è proprio lo stesso... utilizza un altro metodo (+ efficace) per arrivare allo stesso risultato... io lo chiamerei solo ingegno e astuzia dei programmatori... e non scheda di merda!
cdimauro
01-02-2003, 09:27
Originally posted by "steel64"
Certamente si può dire la nostra anche su Carmack, purchè non siano cazzate. Si può criticare i giudizi tecnici che dà (certo ci vuole un pizzico di presunzione per pensare di saperne più di lui, però è del tutto lecito), si può criticare il suo modo di gestire i rapporti con le case hardware, ma non si può dire Carmack stia zitto e vada a finire il suo lavoro, se permetti preferisco leggere un solo commento di Carmack che cento cazzate di qualche saputello su questo forum...
De gustibus, ma Carmack non è certo dio in terra: il mondo è pieno di eccellenti programmatori. Lui è uno di questi, e non si vuol certo criticare il suo operato, ma le sue azioni sì...
Per il resto, è vero che il forum è pieno di gente che spara cazzate, ma non tirarti fuori dal gruppo: quella sulle DirectX vs Hardware che hai sparato potevi anche risparmiartela, visto che hai dimostrato di non conoscere bene la storia... :rolleyes:
cdimauro
01-02-2003, 09:37
Originally posted by "snowfire"
Scusate per il "quando", ho sbagliato a inviare.
Volevo dire comunque, che quando NVIDIA ha introdotto pixel e vertex shader non erano uno standard, ma poi tutte le schede uscite successivamente li hanno implementati.
Mah. Mi sa che anche tu hai bisogno di andare a documentarti per vedere come sono andate realmente le cose... :rolleyes:
In ogni caso, se i programmatori hanno a disposizione un linguaggio di programmazione che permette di sfurttare appieno le funzionalità di una certa scheda, perchè non usarlo? Oltrettutto, come potede dedurre anche voi, usando un liguaggio specifico è possibile sfruttare appieno la scheda (senza dover attendere directx 10 o altro) ottenedo risultati notevoli...
Evidentemente tu non conosci assolutamente come funzionano i compilatori e le penalizzazioni, in termini di velocità, che introducono nel codice che tirano fuori. Il miglior ottimizzatore attualmente è l'uomo (esperto), non il compilatore...
Le conclusioni che possiamo trarre sono quindi abbastanza ovvie:
uno, la FX non è una scheda potentissima (molto probabilmente i driver sono acerbi)
Quella dei driver ve la potete anche risparmiare: è da un anno che nVidia ci lavora e adesso viene fuori che i driver, la sua punta di diamante, sono "acerbi". E' da mesi e mesi che utilizzano l'emulatore NV30 e volete dirmi che non stati capaci di scrivere dei driver ottimizzati? Con tutto il tempo che hanno anche avuto a causa dei notevoli ritardi?
Per favore, evitate di scrivere simili commenti, perché sono un insulto all'intelligenza...
due, usando un linguaggio specifico si possono ottenere prestazioni molto superiori ad altre schede in commercio
Vedi sopra: evidentemente tu non sai proprio cosa sia un compilatore, come funziona, come tira fuori il codice... :rolleyes:
tre, se Carmack fa uscire DOOM 3 com il supporto al nuovo linguaggio di NVIDIA (o perchè è stato pagato da NVIDIA stessa o perchè in questo modo il gioco gira molto più fluidamente) nel giro di un anno e forse anche meno gli altri produttori introdurranno chip grafici che supportano tale liguaggio
Non sono i chip grafici a supportare il linguaggio, ma viceversa... :rolleyes:
quattro, chi produce giochi nuovi non sarà costretto ad attendere le directx10 o a limitare la sua "fantasia grafica" per introdurre nuovi effetti grafici.
Certo, ma dovrà procurarsi delle schede grafiche sempre più potenti, a causa della maggior lentezza del codice degli shader generato dalla compilazione...
E così torniamo punto e da capo: quando ormai le schede video hanno raggiunto una potenza eccezionale, dobbiamo castrarle per far contenti nVidia & Co... :rolleyes:
cdimauro
01-02-2003, 09:45
Originally posted by "Lestat.me"
cazz... il mio mondo sta cambiando... allora che ne dite se vi dico che la buon vecchia 3Dfx Voodoo 2 era na cagata perché in Unreal andava meglio solo perché utilizzava le Glide??? O mi dite che quello è un altro discorso??? IO direi che è proprio lo stesso... utilizza un altro metodo (+ efficace) per arrivare allo stesso risultato... io lo chiamerei solo ingegno e astuzia dei programmatori... e non scheda di merda!
Evidentemente non hai ben presente il trade-off fra una "pezza" che serve soltanto a salvare il culo a nVidia (parlo del Cg), e le prestazioni dei giochi che la useranno... :rolleyes:
OK il compilatore CG di nvidia può produrre codice DirectX ed OpenGl compatibile che gira su qualsiasi scheda. Ma come la mettiamo con le ottimizzazioni :mad: ? Stiamo parlando di un compilatore nvidia :muro:
http://developer.nvidia.com/docs/IO/3979/SUPP/cgtutorialcover.jpg
Originally posted by "cdimauro"
De gustibus, ma Carmack non è certo dio in terra: il mondo è pieno di eccellenti programmatori. Lui è uno di questi, e non si vuol certo criticare il suo operato, ma le sue azioni sì...
Per il resto, è vero che il forum è pieno di gente che spara cazzate, ma non tirarti fuori dal gruppo: quella sulle DirectX vs Hardware che hai sparato potevi anche risparmiartela, visto che hai dimostrato di non conoscere bene la storia... :rolleyes:
Io sparo cazzate? Posso aver enfatizzato un po' troppo ma le cose per le DX8 sono andate come ho detto nel post di replica a LvP, non è stata prima Microsoft a inventare le DX8 e poi Nvidia a far la Geffo3 ma è stata un collaborazione fra le due aziende con un apporto determinante da parte di Nvidia.
Cito da Gamespy alcune frasi dell'articolo di presentazione della Geffo3
"What of DX8 then? Well a little equation explains it all rather well really. DX8 = GeForce3 and GeForce3 = DX8. There. Simple? In short, the card was designed for DX8 and DX8 was designed for the card. With technology licensed from nVIDIA, Microsoft delivered DirectX 8, which hopes to exploit the upcoming new generation of programmable graphics hardware. " ( per chi vuole rileggere l'articolo per intero questo è il link
http://www.gamespy.com/articles/march01/geforce3paris/index2.shtm)
e simili affermazioni possono essere trovate rileggendo qualsiasi recensione della geffo3 all'epoca della sua uscita. Poi se le cose in realtà sono andate diversamente non posso saperlo certo io.
Circa il discorso che ci sono tanti eccellenti programmatori in giro e che Carmack non è dio in terra, verissimo però Carmack mi sembra un po' superiore ad un eccellente programmatore, lo dimostra il fatto che tu probabilmente sei un eccellente programmatore (almeno dai post tecnici che a volte hai fatto mi sono fatto questa idea) però non ho ancora visto le tue interviste riportate, ad esempio, su HWupgrade; per il momento anche tu devi scrivere in piccolino sotto all'intervista di Carmack insieme ai cazzoni come me. E non credo (posso sempre sbagliare però, non si sa mai con chi si sta parlando in questo forum) neanche che tu abbia mai realizzato motori grafici di grandissimo successo come Carmack, quindi credo che Carmack sia qualcosa di più di un eccellente programmatore (magari tecnicamente ce ne sono anche di più bravi a giro, ma lui ha saputo anche gestirsi bene negli altri aspetti chiamiamoli di public relations, che sono quelli che poi fanno si che tu abbia successo o meno).
Lui fa parte ormai di quell'Olimpo consegnato alla storia dei videogiochi cui appartiene ad esempio Sid Meyer tanto per fare il primo nome che mi viene in mente, e chiamarlo un eccellente programmatore come tanti mi sembra un po' riduttivo, fermo restando che ognuno è liberissimo di criticare anche Carmack, per carità ci mancherebbe altro.
Ciao.
Originally posted by "pg08x"
OK il compilatore CG di nvidia può produrre codice DirectX ed OpenGl compatibile che gira su qualsiasi scheda. Ma come la mettiamo con le ottimizzazioni :mad: ? Stiamo parlando di un compilatore nvidia :muro:
http://developer.nvidia.com/docs/IO/3979/SUPP/cgtutorialcover.jpg
E' un argomento già discusso :)
Il Cg ottimizza la resa per prodotti nvidia e non viene fornito con nessun compilatore diverso dal suo standard.
Se ati volesse compilare codice prodotto attraverso il Cg dovrebbe sviluppare un suo proprio compilatore, così come ogni altro produttore.
Questo è quello che si leggeva in una intervista rilasciata da un portavoce nvidia qualche tempo fa :)
Aggiungo che hanno rotto le balle: tutti paladini dello standard fino a che fa comodo...bah.
Milio
Carmak sarà anche un grande programmatore...ma appunto questo deve fare e smettere di vendersi come la peggiore puttana nelle sue dichiarazioni.
Ne ho sentite troppe e per quanto mi riguarda non lo considero assolutamente affidabile.
Come non considero a riguardo affidabile mark rain e il suo bel logo in ut2k3...anche se sono convinto ci saranno schiere di ragazzini convinti che gira solo su schede nvidia...bah.
Per 50 dollari magari fanno un servizietto anche a noi..chissà :)
Milio
cdimauro
01-02-2003, 18:10
Originally posted by "pg08x"
OK il compilatore CG di nvidia può produrre codice DirectX ed OpenGl compatibile che gira su qualsiasi scheda. Ma come la mettiamo con le ottimizzazioni :mad: ? Stiamo parlando di un compilatore nvidia :muro:
Il problema è che comunque, anche se realizzato da nVidia per schede nVidia, un compilatore NON PUO' tirare fuori il miglior codice per i suoi shader...
cdimauro
01-02-2003, 18:21
Originally posted by "steel64"
Io sparo cazzate? Posso aver enfatizzato un po' troppo ma le cose per le DX8 sono andate come ho detto nel post di replica a LvP, non è stata prima Microsoft a inventare le DX8 e poi Nvidia a far la Geffo3 ma è stata un collaborazione fra le due aziende con un apporto determinante da parte di Nvidia.
Allora hai dimenticato di citare anche Matrox, Ati e alcuni dei team di sviluppo di software professionale e ludico: le DX8 sono, infatti, sono state realizzate con l'apporto di diverse persone...
Cito da Gamespy alcune frasi dell'articolo di presentazione della Geffo3
"What of DX8 then? Well a little equation explains it all rather well really. DX8 = GeForce3 and GeForce3 = DX8. There. Simple? In short, the card was designed for DX8 and DX8 was designed for the card. With technology licensed from nVIDIA, Microsoft delivered DirectX 8, which hopes to exploit the upcoming new generation of programmable graphics hardware. " ( per chi vuole rileggere l'articolo per intero questo è il link
http://www.gamespy.com/articles/march01/geforce3paris/index2.shtm)
e simili affermazioni possono essere trovate rileggendo qualsiasi recensione della geffo3 all'epoca della sua uscita. Poi se le cose in realtà sono andate diversamente non posso saperlo certo io.
Beh, se ti fidi soltanto di quello che dicono le riviste, allora avrai sempre e comunque una visione limitata delle cose. Se invece ti piace "seguire" alcuni settori dell'informatica, allora devi farlo in maniera completa, andando a controllare il sito della MicroSoft, l'SDK per le DX8, andando a a cercare le notizie che parlano delle nuove DX prima che escono, ecc. ecc.
Circa il discorso che ci sono tanti eccellenti programmatori in giro e che Carmack non è dio in terra, verissimo però Carmack mi sembra un po' superiore ad un eccellente programmatore, lo dimostra il fatto che tu probabilmente sei un eccellente programmatore (almeno dai post tecnici che a volte hai fatto mi sono fatto questa idea) però non ho ancora visto le tue interviste riportate, ad esempio, su HWupgrade; per il momento anche tu devi scrivere in piccolino sotto all'intervista di Carmack insieme ai cazzoni come me.
Sicuramente. Infatti non è che tutti i membri del MENSA (persone che hanno un Q.I. di almeno 150, se non ricordo male) sono delle persone famose e affermate: la maggioranza continua a vivere nel proprio ambiente familiare e trascorre una vita normale, come quella di tanti altri.
Carmack, come altre persone famose, è riuscito ad affermarsi nel settore dei videogiochi e ne ha raggiunto la vetta: ha saputo sfruttare bene le sue capacità e ha avuto anche molta fortuna, trovandosi nel posto giusto al momento giusto (primi engine 3D nei giochi).
Un altro esempio che ti posso fare è Bill Gates: è l'uomo più ricco del mondo. E' stato anche un buon programmatore, ma lo toglierei sicuramente dall'elenco dei programmatori eccellenti... ;)
Altro esempio è Sharon Stone, membro del MENSA: chi lo direbbe mai, eh? ;)
E non credo (posso sempre sbagliare però, non si sa mai con chi si sta parlando in questo forum) neanche che tu abbia mai realizzato motori grafici di grandissimo successo come Carmack, quindi credo che Carmack sia qualcosa di più di un eccellente programmatore (magari tecnicamente ce ne sono anche di più bravi a giro, ma lui ha saputo anche gestirsi bene negli altri aspetti chiamiamoli di public relations, che sono quelli che poi fanno si che tu abbia successo o meno).
Ecco vedi: questo già è diverso. ;)
Nel 1992 ho iniziato anch'io la carriera nel campo dei videogiochi: per 3 anni ho lavorato con un team che sviluppava giochi per Amiga. Poi a causa di vari problemi, sono uscito dal gruppo e ho deciso di lasciare il campo dei videogiochi, sebbene le capacità non mi mancano certo in questo campo (fino allo scorso anno ho avuto proposte di realizzare engine 3D per GameBoyAdvance, ma ho come vedi sono ancora qui a cazzeggiare... ehehehe ;))
Per il resto, vedi sopra...
Lui fa parte ormai di quell'Olimpo consegnato alla storia dei videogiochi cui appartiene ad esempio Sid Meyer tanto per fare il primo nome che mi viene in mente, e chiamarlo un eccellente programmatore come tanti mi sembra un po' riduttivo, fermo restando che ognuno è liberissimo di criticare anche Carmack, per carità ci mancherebbe altro.
Ciao.
Infatti le mie critiche a Carmack sono relative a ben altro... ;)
cdimauro
01-02-2003, 18:25
Originally posted by "Milion"
Il Cg ottimizza la resa per prodotti nvidia e non viene fornito con nessun compilatore diverso dal suo standard.
Se ati volesse compilare codice prodotto attraverso il Cg dovrebbe sviluppare un suo proprio compilatore, così come ogni altro produttore.
Non è questo il punto: alla fine il Cg è un linguaggio come un altro, e svilupparne un compilatore non sarebbe certo un problema né per Ati né per altri: il problema, come al solito quando si parla di compilazione, è relativo al "back-end", a quella parte del compilatore che si deve occupare poi della generazione del codice. Scrivere dei back-end con le palle, che facciano un buon lavoro è MOLTO DIFFICILE. E comunque il processo di generazione di codice ottimale è computazionalmente ENORME (richiede tempi esponenziali).
E' questo il problema principale...
Secondo me sei troppo critico col CG. Infatti la tua critica sull' efficienza vale per tutti i linguaggi di alto livello: che facciamo li aboliamo perche' sono troppo lenti? Torniamo tutti a scrivere in ASSEMBLER???
cdimauro
02-02-2003, 09:01
Sicuramente no, ma ancora oggi l'Assembly (non Assembler: con questo termine si denota il compilatore, non il linguaggio) è la scelta d'elezione per quanto riguarda la velocità di esecuzione: tutte le parti critiche delle applicazioni che necessitano di velocità, in genere sono scritte in assembly (specialmente i giochi).
Quello che dico io è questo: gli shader sono sicuramente la parte più critica per un engine 3D, oggigiorno, per cui ha senso continuare a scriverne i programmi in assembly. Oggi abbiamo delle potentissime schede video che fanno girare ad altissime risoluzione e con tutti i filtri attivati i giochi: utilizzando un compilatore per un linguaggio ad alto livello, rischiamo di buttare a mare tutta questa velocità in nome una maggior facilità di scrittura degli shader.
Ora, in quanto programmatore, apprezzo tantissimo la maggior astrazione di un linguaggio ad alto livello (sarei un pazzo altrimenti... ;)), ma con le ATTUALI specifiche degli shader (parlo dello STANDARD DX9), che arrivano al massimo a 2048 istruzioni per i vertex e 1024 per i pixel shader, vuoi dirmi che senso ha utilizzare un linguaggio come il Cg? Non sono più capaci i programmatori di scrivere programmi con AL PIU' 2048 o 1024 istruzioni assembly?
Il Cg genera molto più codice, per cui gli shader che tira fuori hanno molte più istruzioni e in generale andranno più lenti rispetto ad una soluzione assembly (ovviamente). Se i programmatori cominciassero ad utilizzare il Cg come standard di programmazione, sicuramente arriverebbero in pochissimo tempo a saturare lo spazio e le capacità dell'hardware che implementa gli shader delle DX9, con enormi ripercussioni in termini di velocità di esecuzione e quindi di velocità nei giochi.
L'unica casa che, attualmente, può far girare un po' meglio il codice tirato fuori dal Cg, è (guarda caso) nVidia. Ma l'NV30 implementa un'architettura NON STANDARD.
A questo punto le conclusioni le puoi trarre benissimo anche tu...
Originally posted by "cdimauro"
Non è questo il punto: alla fine il Cg è un linguaggio come un altro, e svilupparne un compilatore non sarebbe certo un problema né per Ati né per altri: il problema, come al solito quando si parla di compilazione, è relativo al "back-end", a quella parte del compilatore che si deve occupare poi della generazione del codice. Scrivere dei back-end con le palle, che facciano un buon lavoro è MOLTO DIFFICILE. E comunque il processo di generazione di codice ottimale è computazionalmente ENORME (richiede tempi esponenziali).
E' questo il problema principale...
Si beh...grazie per aver reso più chiaro quello che cercavo di dire senza cultura tecnica specifica in merito :)
Altro aspetto critico che ho letto è l'efficienza stessa del cg...per quanto buona possa essere non potrà mai sostituire del buon codice scritto da chi ne sa.
Probabilmente è quanto dici anche tu nel post qui sopra.
Uscì un thread in cui si parlava del cg bocciato da non ricordo quale tipo di associazione. Ne scaturì un flame perchè chi non aveva fiducia nella compatibilità orizzontale (multybrand) del cg (tra cui io) veniva accusato di essere ipercritico contro nvidia. Tale accusa si basava sul fatto che io (ed altri) sostenevamo l'ottimizzazione che questo linguaggio forniva alle schede nvidia a scapito di altri marchi, tesi sgarbatamente respinta da altri.
Anche a distanza di tempo fa sempre piacere scoprire di avere ragione, e lo fa più ancora se tale ragione si è basata su deduzioni e ragionamenti in mancanza di basi tecniche specifiche :)
Milio
..non capisco molto di compilatori e di cg, resta comunque il fatto che nVidia e ATI sono due grandi concorrenti dello scenario videoludico e tirare fuori nuove idee resta una strategia di mercato rischiosa ma come ogni rischio il vantaggio potrebbe essere enorme. Non voglio spendere parole per ATI (non credo ne abbia bisogno, i suoi prodotti sono decisamente ottimi) vorrei invece cercare di capire come sviluppatori hardware come quelli di nVidia (credo ci siano dentro anche quelli di 3Dfx) non siano stati capaci di fronteggiare ad armi pari l'R300, penso che ci sia qualcosa sotto ma credo soprattutto che ai livelli di oggi il perno è il realismo: ho visto scritto che un compilatore CG potrebbe portare lentezza ma se a discapito di questa portasse benefici in termini di qualità? è meglio giocare in 1600 con filtri vari o giocare in 640 su un televisore con un realismo d'eccezzione..? è quello il succo! gli fps sono già ampiamente alti, quello che no è alto è il realismo (credo che il sogno di tutti è di giocare "pensando di stare in un film"!!) e il modo per farlo è tirare fuori nuove idee..
In definitiva non so se nVidia perde colpi, quello che so è che attualmente si fanno paragoni sui bench e su giochi che anche praticamente non riescono a sfruttare a pieno la potenzialità di schede che vogliono essere portavoci di nuove idee (mi pare ovvio) e che far girare un gioco in 1600 con AA e AF non significa assulatemente fotorealismo. Se l'ottimizzazione di un particilare hardware (nVidia) potrebbe essere migliore dell'ottimizzazione di un altro particolare hardaware (ATI) perchè no o perchè spargere merda..?!!
Come ultima cosa (ma per me decisamente più importante)vorrei ricordare la poca importanza che è stata data ai driver Omega: a discapito delle prestazioni ottengono qualità delle immagini molto migliori (anche se effettivamente la stabilità lascia un pochino a desiderare)
(non sono pro nVidia ne pro ATI, sono a favore di un mercato libero che mi permetta di spendere poco ma soprattutto che mi permetta di godermi i vantaggi apportati dall'innovazione)
Ok, ma dovresti fare meno il saputello (comunemente non si fa' distinzione fra i termini assembler e assembly).
Riguardo all'inefficienza del Cg, parli per sentito dire oppure hai fatto delle prove?
cdimauro
02-02-2003, 22:03
Originally posted by "tizjl"
credo soprattutto che ai livelli di oggi il perno è il realismo: ho visto scritto che un compilatore CG potrebbe portare lentezza ma se a discapito di questa portasse benefici in termini di qualità?
Quello che puoi fare col Cg lo puoi fare anche con l'assembly, quindi i benefici sono veramente limitati... Il Cg, in quanto linguaggio ad alto livello, semplifica la vita al programmatore: gli permette di accorciare i tempi di sviluppo e testing del codice...
è meglio giocare in 1600 con filtri vari o giocare in 640 su un televisore con un realismo d'eccezzione..? è quello il succo!
Il succo è che il realismo te lo puoi sognare comunque: non è certo l'uso del Cg o dell'assembly a fare la differenza in termini qualitativi, come ho già scritto...
gli fps sono già ampiamente alti, quello che no è alto è il realismo (credo che il sogno di tutti è di giocare "pensando di stare in un film"!!) e il modo per farlo è tirare fuori nuove idee..
Vedi sopra. Gli fps sono alti sì, ma alle alte risoluzioni e con tutti i dettagli e filtri attivati, attualmente scendono giù parecchio. Per fortuna con un frame rate che permette ancora di godersi appieno i giochi...
In definitiva non so se nVidia perde colpi, quello che so è che attualmente si fanno paragoni sui bench e su giochi che anche praticamente non riescono a sfruttare a pieno la potenzialità di schede che vogliono essere portavoci di nuove idee (mi pare ovvio) e che far girare un gioco in 1600 con AA e AF non significa assulatemente fotorealismo.
Ne ho già parlato diverse volte: toglietevi dalla testa il fotorealismo! La potenza di calcolo necessaria per arrivare ad una approssimazione della realtà visiva è semplicemente SPAVENTOSA! Non si può pensare di ottenerla in real time. Magari fra un po' di decine d'anni...
Se l'ottimizzazione di un particilare hardware (nVidia) potrebbe essere migliore dell'ottimizzazione di un altro particolare hardaware (ATI) perchè no o perchè spargere merda..?!!
A me interessano gli standard, non gli accrocchi proprietari che falsano il mercato e offuscano lo sviluppo...
(non sono pro nVidia ne pro ATI, sono a favore di un mercato libero che mi permetta di spendere poco ma soprattutto che mi permetta di godermi i vantaggi apportati dall'innovazione)
Idem: ma le "regole" dovrebbero rispettarle tutte, non barare. Lo standard è rappresentato dalle DirectX, e ormai le nuove versioni escono fuori molto rapidamente e apportando notevoli innovazioni. Se nVidia voleva fare qualcosa di veramente grande, poteva anche implementare correttamente tutte le caratteristiche delle DX9: TrueForm e Displacemente Mapping Hardware, ad esempio...
cdimauro
02-02-2003, 22:15
Originally posted by "dm69"
Ok, ma dovresti fare meno il saputello (comunemente non si fa' distinzione fra i termini assembler e assembly).
Non è questione di fare il saputello o meno: la diffusione dell'uso di assembler invece del corretto assembly è dovuta semplicemente all'ignoranza che si trascinano dietro molti italiani per quanto concerne la sintassi della lingua italiana e l'importazione dei cosidetti francesismi.
La corretta dizione è e rimarrà sempre assembly: poco importa se buona parte della popolazione continua (erroneamente, ripeto) ad usare invece assembler.
E' come con la questione dell'euro e degli "euri": il termine corretto secondo la nostra lingua (e anche in seno all'intera Europa) è sempre il primo, anche se spesso sento pronunciare il secondo... :(
Da premette che non ho certo studiato Latino e/o Greco: ho il diploma di perito informatico e all'università ho scelto informatica...
Riguardo all'inefficienza del Cg, parli per sentito dire oppure hai fatto delle prove?
Che prove bisogna fare, scusa? Sulla generazione automatica del codice e sui suoi problemi c'è una VASTISSIMA bibliografica: basta cominciare a documentarsi per scoprire come vanno le cose. E per documentarsi non intendo certo andare soltanto a vedere i sorgenti dello GNU. Bisogna studiare i testi universitari e le ricerche pubblicate sulle riviste del settore, i vari newsgroup, i risultati dei laborati di società del calibro di HP, Intel, ecc... Meglio ancora cominciare a sviluppare qualche compilatore per toccare con mano i problemi su cui s'incappa in questa branca dell'Informatica.
A parte questo, esistono anche degli studi sull'ottimizzazione dinamica del codice in fase d'esecuzione che sono particolarmente interessanti, in particolare quelli di HP e del suo sistema Dynamo...
P.S. Poi vorrei capire una cosa: perché mai una persona che ha delle buone conoscenze in particolari ambiti, appena apre bocca dev'essere sempre classificato come saputello?
P.S. Poi vorrei capire una cosa: perché mai una persona che ha delle buone conoscenze in particolari ambiti, appena apre bocca dev'essere sempre classificato come saputello?
Allora non sono il primo che te lo fa' notare!
Beh se usi sempre quel tono e' chiaro che ti arrivano risposte di questo tipo.
Che prove bisogna fare, scusa?
Allora non ne hai fatte!
E' ovvio che un linguaggio di alto livello sia meno performante di uno di basso livello. Dipende quanto! Infatti un linguaggio di alto livello ha altri vantaggi: maggiore produttivita' (bisogna scrivere meno codice), maggiore portabilita' (se cambia il processore e' sufficiente ricompilare). Percio' saranno gli sviluppatori, valutando vantaggi e svantaggi, a capire se puo' essere utile o meno.
Riguardo alla generazione del codice c'e' anche da dire che il Cg non e' un linguaggio general purpose come il C o il C++ e qundi il processo di compilazione probabilmente non e' cosi complicato e il codice generato probabilmente non e' cosi' scadente.
Comunque diamo tempo al tempo e vedremo se e' una cosa positiva o negativa. Per bocciarlo c'e' sempre tempo.
P.S:
Ho un sospetto: se il Cg fosse stato proposto da ATI probabilmente non saresti stato cosi' critico.
..figlio mio! io non vorrei aspettare 10 anni per poter giocare ad un gioco che si avvicina molto al fotorealismo!! probabilmente fra 10 anni non ne avrò neanche tempo! pensavo che le schede di ora avessero capacità notevoli visto che al cinema si vedono cose straordinarie!! e per quanto riguarda il CG sono stato frainteso: volevo semplicemente fare un ipotetico e inverosimile esempio ad annoverare la mia tesi che sotto gli apparenti insuccessi di nVidia c'è qualcosa, se poi si chiama CG o vertex 5.0 non lo so.. in ogni caso mi affido alle mani di chi è più esperto di me e concludo dicendo che il realismo, secondo me, non è proprio così lontano: se giochi a mafia con un bel sistema con AA e AF al massimo su un televisore hai un'ottima resa..
(sono con te, viva gli standard ma sai meglio di me che la loro durata non è illimitata: una volta lo standard l'AT, era l'ISA, era il floppy, era il cdrom...era la carta...erano le valvole..era il 56Kbps..nVidia non bara, cerca di azzardare e cerca di fare quello che altri prima di lei hanno fatto!! )
cdimauro
03-02-2003, 06:45
Originally posted by "dm69"
Allora non sono il primo che te lo fa' notare!
Beh se usi sempre quel tono e' chiaro che ti arrivano risposte di questo tipo.
Non uso sempre quel tono: se ci fai caso è soltanto quando mi trovo davanti a certi messaggi che mi "altero". Se la gente prima di parlare si documentasse come si deve, o non mostrasse di sapere chissà cosa quando la verità sta da tutt'altra parte, non sognerei mai di scrivere in quel modo (non mi riferisco a te, sia ben chiaro! :)). Se vai a controllare noterai che è proprio così.
Allora non ne hai fatte!
No. E quando mai avrei potuto mettere le mani sul compilatore Cg e testarne la qualità del codice compilato?
Resta il fatto che, ripeto, i migliori team di sviluppo al mondo nel campo della compilazione sanno benissimo che un compilatore che genera codice ottimizzato può soltanto risiedere nei loro sogni. Non lo dico certo tanto per aprir bocca, ma è l'esperienza in questo campo e TUTTI gli studi di settore che lo confermano. E non è che nVidia si sveglia la mattina, tira fuori il Cg e può pretendere di dar lezioni a gente che lavora in questo particolare campo della ricerca informatica da decine d'anni. Oltre a ciò, se avessi studiato qualche particolare materia all'università dovresti sapere che il problema della generazione di codice ottimale è computazionalmente esponenziale, per i cui i tempi richiesti, come hai capito, sono improponibili per qualunque calcolare (è similare a quello della fattorizzazione dei numeri primi, che sta alla base dell'indecifrabilità di alcuni algoritmi di crittazione dei dati, e che proprio per questo sono considerati sicuri).
Quindi, come vedi, non è che a volte sia necessario fare delle prove per poter dire qualcosa...
Se poi sei ancora dubbio, beh, documentati: proprio sui compilatori c'è una marea di informazioni... O chiedi alla Intel quali difficoltà hanno avuto nella scrittura dei compilatori per P4 e Itanium, ad esempio... ;)
E' ovvio che un linguaggio di alto livello sia meno performante di uno di basso livello. Dipende quanto!
Infatti. Ma prova a chiederti perché, ancora oggi, le parti critiche dei programmi che hanno la necessità di essere veloci vengono ancora scritte in assembly... :)
Infatti un linguaggio di alto livello ha altri vantaggi: maggiore produttivita' (bisogna scrivere meno codice), maggiore portabilita' (se cambia il processore e' sufficiente ricompilare).
Questo sono il primo a dirlo, e infatti se vedi gli altri messaggi ne ho accennato...
Percio' saranno gli sviluppatori, valutando vantaggi e svantaggi, a capire se puo' essere utile o meno.
Bah. Sono molto scettico, e ho già scritto il perché:
1) Gli shader standard hanno 2048 e 1024 istruzioni al massimo.
2) Il codice del Cg non è ottimizzato.
3) Gli shader sono la parte più critica di un engine 3D.
Riguardo alla generazione del codice c'e' anche da dire che il Cg non e' un linguaggio general purpose come il C o il C++ e qundi il processo di compilazione probabilmente non e' cosi complicato e il codice generato probabilmente non e' cosi' scadente.
Il fatto che non sia GP non vuol dire niente: sono la maggior astrazione e i costrutti ad alto livello a fare la differenza con l'assembly, nel processo di generazione dell'apposito codice...
Comunque diamo tempo al tempo e vedremo se e' una cosa positiva o negativa. Per bocciarlo c'e' sempre tempo.
Su questo mi trovi ampiamente d'accordo... ;)
P.S:
Ho un sospetto: se il Cg fosse stato proposto da ATI probabilmente non saresti stato cosi' critico.
Evidentemente non mi conosci (come potresti, d'altra parte? :)): io sono un tipo abbastanza coerente.
Ti faccio un esempio: faccio parte del direttivo di un partito, ma sei anni fa alle elezioni nazionali non ho votato il candidato al senato perché non mi piaceva assolutamente. E questo l'ho detto chiaramente in faccia agli altri.
E anche per questo ho avuto problemi con della gente, ma non ci posso fare niente: è più forte di me. Io sono fatto così. Punto e basta... :muro:
cdimauro
03-02-2003, 06:49
Originally posted by "tizjl"
..figlio mio! io non vorrei aspettare 10 anni per poter giocare ad un gioco che si avvicina molto al fotorealismo!! probabilmente fra 10 anni non ne avrò neanche tempo! pensavo che le schede di ora avessero capacità notevoli visto che al cinema si vedono cose straordinarie!!
Le render farm usate al cinema impiegano anche ore a generare un solo fotogramma!!! ;)
e per quanto riguarda il CG sono stato frainteso: volevo semplicemente fare un ipotetico e inverosimile esempio ad annoverare la mia tesi che sotto gli apparenti insuccessi di nVidia c'è qualcosa, se poi si chiama CG o vertex 5.0 non lo so.. in ogni caso mi affido alle mani di chi è più esperto di me e concludo dicendo che il realismo, secondo me, non è proprio così lontano: se giochi a mafia con un bel sistema con AA e AF al massimo su un televisore hai un'ottima resa..
Se vuoi il fotorealismo ti devi necessariamente scontrare con la necessità di implementare un modello di illuminazione radiosity, con tutte le conseguenze (computazionali) del caso... :rolleyes:
(sono con te, viva gli standard ma sai meglio di me che la loro durata non è illimitata: una volta lo standard l'AT, era l'ISA, era il floppy, era il cdrom...era la carta...erano le valvole..era il 56Kbps..nVidia non bara, cerca di azzardare e cerca di fare quello che altri prima di lei hanno fatto!! )
Prima, appunto. Perché ormai nessuno mi può venire a dire che le DirectX fanno cacare... :) Sono uno standard ben consolidato, "performante" e che offre delle caratteristiche notevoli in termini di qualità. Soprattutto, escono delle nuove versioni in tempi abbastanza brevi (le 9.1 sono dietro l'angolo)...
Insomma, sono finiti i tempi in cui erano necessari le OpenGL o meglio ancora le Glide per avere dei giochi decenti: perché tornare indietro? :rolleyes:
cdimauro
03-02-2003, 08:19
Scusate per gli errori, ma in questo periodo ho veramente pochissimo tempo per rileggere i messaggi e correggerli... :(
io mi accontenterei del ray tracing :D
No. E quando mai avrei potuto mettere le mani sul compilatore Cg e testarne la qualità del codice compilato?
Il Cg SDK lo puoi scaricare dal sito di NVIDIA.
cdimauro
03-02-2003, 13:58
Cg_Toolkit_Complete.zip (~103 MB)
Mi sembra un po' troppo grosso da scaricare soltanto per passarmi un piacere (poi dovrei attivare NetSystem perché con un modem che va 33.600 sarebbe da pazzi... Nel mio paese non c'è l'ADSL... :()
Comunque nel kit non è incluso neppure un decompilatore per visualizzare le istruzioni degli shader che tira fuori e analizzarne la bontà...
cdimauro
03-02-2003, 14:06
Originally posted by "Korn"
io mi accontenterei del ray tracing :D
Magari fra un po' di tempo c'arriveremo... ;) Per fortuna con questo modello è possibile decidere quante volte i "raggi" possono "rimbalzare", per cui limitandone il numero si può ridurre di molto la potenza di calcolo necessaria... :D
Magari lo vedremo nel prossimo engine di Carmack, chi lo sa... Se consideriamo l'evoluzione dei suoi engine, possiamo vedere che, col passare del tempo, ne ha sempre aumentato la complessità introducendo via via alcune caratteristiche (che prima non era possbile usare a causa della limitazione dell'hardware). Per me è come andare a leggere i vecchi testi di computer grafica che ho studiato all'università: pagina dopo pagina vengono introdotte delle migliorie per acquisire miglior qualità... ;)
junkidar
05-02-2003, 20:56
Carmack è UN Pò INCA**ATO CON ATI PERCHè QUEST'ULTIMI AVREBBERO FATTO CIRCOLARE UNA SPECIE DI DEMO GIOCABILE (DOVREBBE ESSERE LA STESSA DEMO PRESENTATA ALL'E3) DI DOOM III; ED HA ANCHE AFFERMATO CHE D'ORA IN POI STARà PIù ATTENDO A TRATTARE CON CERTE AZIENDE... (ATI MA CHE MI COMBINI, GUARDA CHE SE MI HAI FATTO SPENDERE 500 EURO PER UNA SCHEDA CHE ANDRà MALE CON DOOM 3, PASSO ALLA NVIDIA, SEI AVVERTITA!).
Comunque lo stesso Carmack ha precisato che non saranno gli utenti a farne le spese! (speriamo che sia uno di parola!)
Come faccio a sapere se la mia 3d prophet 9700 eè una versione "step a2 o step a3"?Qualcuno mi risponda per favore...Grazie mille
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.