|
|
|
![]() |
|
Strumenti |
![]() |
#381 | |
Senior Member
Iscritto dal: Nov 2002
Città: Singularity
Messaggi: 894
|
Quote:
![]() Nei film ormai si usa molto il linguaggio Renderman della Pixar. So di sicuro che è stato usato in tutti i film della Pixar e nel film di FinalFantasy. Lo shader language di Renderma è molto simile a HLSL (ha sintassi C-like) ma è molto più potente. Infatti Ati dai tempi dell'R300 ha rilasciato un tool che permette di convertire gli shader Renderman in HLSL.
__________________
echo 'main(k){float r,i,j,x,y=-15;while(puts(""),y++<16)for(x=-39;x++<40;putchar(" .:-;!/>"[k&7])) for(k=0,r=x/20,i=y/8;j=r*r-i*i+.1, i=2*r*i+.6,j*j+i*i<11&&k++<111;r=j);}'&>jul.c;gcc -o jul jul.c;./jul |Only Connect| "To understand is to perceive patterns" Isaiah Berlin "People often speak of their faith, but act according to their instincts." Nietzsche - Bayesian Empirimancer - wizardry |
|
![]() |
![]() |
![]() |
#382 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 2672
|
Quote:
"Uno dei principali obiettivi di nVidia con la prossima generazione di chip video è quella di avvicinare sempre più la grafica 3D dei PC ad un'esperienza real time, che quindi permetta di avere in tempo reale sul proprio monitor lo stesso livello di scene e di qualità d'immagine visualizzati nei più recenti film di animazione, come Final Fantasy". Non escluderei a priori che si possano usare le Cg anche per dei film d'animazione.
__________________
"The Global Village is now a reality" |
|
![]() |
![]() |
![]() |
#383 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Per quanto riguarda il discorso benchmark, dal mio punto di vista è del tutto inaccettabile confrontare due gpu che fanno girare codice diverso; il truccare un bench con operazioni di shader replacement che facciano lavorare in fx anzichè in fp è una truffa a tutti gli effetti, indipendentemente da chi lo fa e dal livello dell'IQ, perchè i risultati non sono veritieri. |
|
![]() |
![]() |
![]() |
#384 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
Le Cg sono ormai defunte, o quasi. Questo è il punto.
Inoltre la grafica nei film viene renderizzata con una precisione ed una risoluzione impensabili rispetto a quanto visibili oggi sui nostri monitor (es. ricordiamoci che si deve effettuare la proiezione su uno schermo di dimensioni gigantesche). Per quanto in futuro ci si avvicinerà a quegli standard, seppure in piccolo, il cammino è ancora lungo.....
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe |
![]() |
![]() |
![]() |
#385 | |
Senior Member
Iscritto dal: Jun 2002
Messaggi: 15257
|
Quote:
Avevano ricostruito uno spezzo del film Finalfantasy in versione depotenziata tramite Cg per far vedere il risultato raggiunto. Tutto si può fare ma il Cg non è uno strumento di animazione/creazione grafica 3d e rendering è un linguaggio di programmazione per sk grafiche consumer. Tant'è che Nvidia adesso vende Gelato per fare questi lavori.
__________________
Boris Strugatskij - Arkadij Strugatskij : Picnic sul ciglio della strada ![]() |
|
![]() |
![]() |
![]() |
#386 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
ma, infatti, non c'è nulla di cui ci si debba difendere. Non è colpa tua o mia o di chiunque altro se le fx con i ps2.0 non vanno; dipende solo dal fatto che sono nate come chip dx8.x, con l'aggiunta di feature dx9 (necessarie perchè, nel frattempo, erano state rilasciate le nuove api MS). Non si tratta di essere fanatici o meno; NV40 è una buona architettura (si può migliorare, però è già molto effiicente così) e nessuno credo possa obiettare al riguardo. Per quale motivo NV30 è uscito con tanto ritardo e c'è stato tanto mistero circa le sue specifiche reali (che si sono dovute scoprire di volta in volta, quando si vedeva che i risultati teorici e quelli pratici non coincidevano) e NV40 non ha subito ritardi e nVIDIA si è subito affrettata a rilasciare informazioni anche abbastanza dettagliate sulla sua architettura? Vorrei invitare la gente a riflettere anche su queste cose. |
|
![]() |
![]() |
![]() |
#387 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
Come ad esempio il fatto che non esistano praticamente benchmark riguardanti l'EMT 64.
Opss... l'ho detto. Non sparatemi! ![]()
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe |
![]() |
![]() |
![]() |
#388 | ||||
Senior Member
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
|
Quote:
Quote:
Quote:
Quote:
Se no condanniamo anche il Kiro2, tutte le ottimizzazioni della banda ecc.. perchè per certi aspetti cheattano e non mostrano in termini di potenza bruta la validità di un'architettura. Validità di un'architettura appunto che non è, non deve essere un dato puramente teorico ma deve confrontarsi con il fine, in questo caso i videogiochi. Pk77 |
||||
![]() |
![]() |
![]() |
#389 | |
Senior Member
Iscritto dal: Sep 2001
Messaggi: 1898
|
Quote:
Però quando si tratta di bench il discorso si trasferisce sul marketing,che NVIDIA ha dovuto effettuare per far vendere i propri chip.confrontabili sia come prestazioni che come qualità alla controparte ATI R3XX e questo purtroppo per mè non è del tutto regolare. Con queste affermazioni io non voglio criticare schede come la 5900XT , ottime sotto il profilo prezzo-prestazioni, ma bensi il fatto del presentare un'architettura DX 9.0 che all'atto pratico risulta inutilizzabile. Me ne faccio ben poco di 5500 punti al 3dmark 2003 o di 44000 punti all'aquamark 3 perchè quando faccio partire FarCry e HalLife2 e forzo l'esecuzione delle DX 9.0 e mi ritrovo a giocare con 20FPS. Ciao ![]() ![]()
__________________
Combatterò fin quando avrò nemici davanti agli occhi, niente e nessuno riuscirà a fermarmi....................... |
|
![]() |
![]() |
![]() |
#390 |
Bannato
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
|
Sono da 1 e anno e mezzo che si parla dell'nv3x e si sa che quella architettura è un fiasco completo,tanto che tuttora per me le fx sono dei cessi di schede,mi potete tirare tutti i nomi che vi pare ma io la penso così.
La passata generazione le Ati erano molto meglio e in HL2 viene dimostrato con il path dx 9. Con L'NV40 Nvidia si è rifatta alla grande tanto che sono un felice possessore di una 6800GT che alla fine la ho preferita alla X800Pro e X800XT anche se una volta preferivo L'r420 ma dopo che ho letto quello che diceva Yossarian sulle 2 archittetture ho fatto la mia scelta. Non mi venite a dire che sono di parte perchè ho avuto da aprile 2000 a maggio 2003 schede Nvidia e da maggio 2003 a novembre 2004 schede Ati e adesso dopo aver provato seriamente una 6800Gt ritengo milgiore NV40 di R420 e anche se fino a poco tempo fa preferivo R420 e NV40 ho cambiato idea. |
![]() |
![]() |
![]() |
#391 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 2672
|
Quote:
![]()
__________________
"The Global Village is now a reality" |
|
![]() |
![]() |
![]() |
#392 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 2672
|
Quote:
Perfettamente d'accordo in tutto.
__________________
"The Global Village is now a reality" |
|
![]() |
![]() |
![]() |
#393 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
dove l'avresti detto? Non esplicitamente, ma continuando a dire che introdurre "ottimizzazioni" nei driver (ottimizzazioni tra "*") è una cosa lecita e che con gli utlimi driver nVIDIA ha rimesso le cose a posto senza trucchi sfruttando le vere potenzialità di NV3x (cosa non vera), parlando del CG come di qualcosa di estremamente avanzato che avrebbe dato il suo contributo all'esaltazione dell'architettura dell'NV3x, hai detto tutto questo e anche altro. Non ho parlato certo io di superamento, da parte delle fx, delle specifiche dx e del fatto che il CG avrebbe esaltato queste doti "in più" delle fx. Al contrario, ho sempre sostenuto che le fx hanno un'architettura dx8.1 (altro che "oltre le dx9") con feature dx9 (solo per potersi tacciare di compatibilità con le nuove api MS). Continui a parlare di forza bruta; forza bruta di chi? Dell'R300? Mi pare sia stata nVIDIA a portare un chip oltre le sue specifiche di funzionamento (tanto da dover usare l'aspirapolvere per raffreddarlo)! Oppure pensi che NV30 era nato veramente con quelle frequenze e quel "coso" al posto del dissipatore? E poi, forza bruta contro cosa? Quale tipo di codice, secondo te, NV30 elabora meglio di R300, facendo riferimento alle DX9? Si è parlato, in molte presentazioni, a sproposito, del fatto che NV30 poteva gestire shader molto più lunghi di R300; si è visto, dai test, che uno shader che impegni 4 registri temporanei è macinato con disinvoltura da R300 e fa calare le prestazioni di NV30 a livelli pietosi. Se vuoi continuare a dar retta ai proclami dei pr sei libero di farlo, come sei libero di credere alle locandine pubblicitarie, a babbo natale e persino a Vanna Marchi. Volendo possiamo anche impostare la discussione su questi parametri; però si sappia che non si parla per nozioni tecniche ma per messaggi promozionali. Ottimizzazioni. Il Kyro 2 ottimizza cosa? Non mi risulta che modfichi le istruzioni; ribalta semplicemente l'ordine di rendering, ricorrendo ad un più logico post texturing piuttosto che all'assurdo per-texturing dei chip che lo hanno preceduto. La validità di un'architettura non è data dalla potenza bruta; R300 vale 10 volte NV30 perchè è molto più veloce e lavora a frequenze inferiori del 60%. Dov'è lo scandalo in certe ottimizzazioni? Semplice: faccio girare sul chip A codice ps1.1 e ottengo 90 fps, sul B codice ps2.0 e ottengo 83 fps, il banch dovrebbe testare la capacità dei due chip di elaborare codice ps2.0. Qual è la conclusione del test? A è più veloce di B. Secondo te la conclusione è corretta? Per me è una truffa, perchè chi compra è convinto che A possa elaborare shader 2.0 più velocemente di B; quando A si troverà a dover realmente elaborare ps2.0, l'utente risulterà insoddisfatto e non si spiegherà il perchè delle prestazioni penose della sua schede video, pagata così cara e che fino ad allora andava così bene. Per te è accettabile una cosa del genere? |
|
![]() |
![]() |
![]() |
#394 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 2672
|
Quote:
L'unica consolazione e' che ancora questo divario in termini di resa grafica tra i due shader model non sia cosi evidente con i games attuali.
__________________
"The Global Village is now a reality" |
|
![]() |
![]() |
![]() |
#395 | |||
Senior Member
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
|
Quote:
Diminuire la qualità dell'immaggine, ottenere prestazioni pilotate nei soli bench, questo è cheattare. Sia Nvidia (3dmark, aquamark, ecc..) sia Ati (quak3,ec..) hanno usato questa pratica discutibile. Cg nacque, ti sfido a dire il contrario, per cercare di standarizzare la programmazione degli shaders con GPU nvidia e supportava tutti quei set di istruzioni che andavano oltre le specifiche di Dx 9.0 supportate dalla serie Fx. Quote:
Riguardo all'ultima parte di questo tuo intervento ti prego di moderare i toni... Quote:
Se parliamo di confronto diretto "brutale" con codice generico in ps 2.0, la serie r3xx ha un vantaggio di 1 a 2. Pk77 |
|||
![]() |
![]() |
![]() |
#396 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
infatti ho voluto di proposito scindere i due discorsi; da un lato l'aspetto tecnico: sappiamo che le fx hanno problemi con i ps2.0, analizziamo i motivi; dall'altro il discorso "prestazioni con i giochi attuali": in questo caso, poichè l'utilizzo di sm2.0 è ancora molto limitato ed è possibile ricorrere a operazioni di shader replacement senza compromettere la qualità in maniera troppo evidente e migliorando la giocabilità, allora niente da obiettare se si ricorre a tali "ottimizzazioni"; purchè quei risultati non si spaccino per quello che non sono (ottenuti, cioè, con ps2.0), perchè questo può influenzare i potenziali acquirenti fuorviandoli. Infine, anche nell'ambito della stessa famiglia fx, c'è da dire che NV35 (e derivati successivi) rappresenta un piccolo passo avanti rispetto a NV30 (si è aggiustato quello su cui è stato possibile intervenire. Dai test si vede che, pur non risultando fulmini di guerra, con fp16 NV35 e NV38 vanno un po' meglio di NV30 (segno che a livello di architettura qualche miglioria c'è stata: la famosa fpu aggiunta in sostituzione della fxu). Questo, tanto per non generalizzare. |
|
![]() |
![]() |
![]() |
#397 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 2672
|
Quote:
![]()
__________________
"The Global Village is now a reality" |
|
![]() |
![]() |
![]() |
#398 | ||||
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Quote:
Quote:
Certo, utilizziomo le stencil shdow, ricorriamo alla dependent read, utilizzamo, ovunque possibile, fx12, non ricorriamo al DM (le fx non supportano le n-patches), utilizzamo estensioni proprietarie NV; praticamente facciamo, come ha fatto Carmack: ritagliamo un motore grafico adattandolo alle esigenze delle fx, evitando accuratamente di toccare tutti i loro punti deboli. Questa è la tua idea di codice specifico? Se nVIDIA ha sbagliato, perchè a farne le spese devono essere tutti gli altri (programmatori, utenti finali, ecc, ecc)? Riguardo al resto, stai tranquillo: da questo momento ti ignorerò del tutto, tanto non c'è peggior sordo di chi non vuol sentire. Quote:
L'idea di un chip tutto forza bruta (R300) contro uno più avanzato e flessibile (NV30) era stata accarezzata da qualcuno all'epoca dell'uscita di NV30 (pochi, per la verità, poichè le critiche erano state molte di più dei consensi, incoraggiati, in qualche modo da nVIDIA); a ottobre 2003 era rimasto il solo Josh Walrath a cullare questo miraggio ("the shocking state of.....", postato da rmarango due o tre pagine fa); a ottobre 2004, persino Josh Walrath era vittima di un brutto risveglio ("the shocking state......" era diventato "the sordid state........"); a novembre 2004 scopro che c'è ancora chi ci crede. Complimenti per la costanza, senza fare umorismo, meriteresti un premio fedeltà: neppure nVIDIA ha più il coraggio di difendere NV3x in modo così accorato (una dichirazione del CEO di pochi giorni fa è emblematica e suona come:"con NV40 abbiamo ripreso la leadership.........."; questo significa forse che con NV3x l'avevano persa? Ultima modifica di yossarian : 26-11-2004 alle 21:50. |
||||
![]() |
![]() |
![]() |
#399 | |||
Senior Member
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
|
Quote:
Quote:
Quote:
Comunque complimenti per l'atteggiamento infantile che dimostri con queste risposte. |
|||
![]() |
![]() |
![]() |
#400 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
prego; queste discussioni dovrebbero servire proprio a cercare di andare oltre i numeretti di un bench e vedere di capire come si fa ad ottenere quei numeretti e perchè un chip va bene con un'applicazione e meno con un'altra, invece di limitarsi solo a prendere atto di questi comportamenti "anomali". Conoscere le architetture di due chip A e B dà un quadro molto più chiaro delle loro potenzialità (presenti e future) che non vedere che A con il tale gioco fa 20 fps in più e con il tal altro 15 in meno. Allo stato attuale, ad esempio, è molto difficile operare una scelta: R420 è un po' più veloce, ha ottimi algoritmi di compressione dati e un HSR superiore; NV40 ha un'architettura più complessa e interessante. Entrambi sono ottimi per far girare applicazioni ps2.0; NV40 ha delle feature ps3.0 in più, alcune delle quali potrebbero realmente essere utilizzate e dare qualche leggero vantaggio in futuro. La definirei una situazione di sostanziale parità (anche in prospettiva futura); personalmente, NV40 mi piace di più, perchè rappresenta una novità ed è sicuramente più stimolante (l'architettura di R300 la conosco piuttosto bene, invece). |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:56.