|
|
|
|
Strumenti |
13-05-2021, 13:46 | #21 |
Senior Member
Iscritto dal: Aug 2019
Messaggi: 2686
|
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console. Ultima modifica di 386DX40 : 13-05-2021 alle 13:48. |
13-05-2021, 14:03 | #22 |
Senior Member
Iscritto dal: Aug 2019
Messaggi: 2686
|
Pensavo pero' a titoli come Stunts (1990) o LHX (1990) o Test Drive 3 (1990). Ma sui primi textured certamente non potevano permettersi grandi cose senza l'aiuto di un hardware dedicato ma esempi appunto come Quake e Tomb Raider e come dimenticarsi Unreal o Half Life sono piuttosto validi anche senza accelerazione hardware. Certo non erano proprio i primi ok ma piu' o meno le tecnologie in gioco erano sempre le stesse. Ovviamente il vero salto lo permise la FPU del Pentium e l'arrivo di schede video PCI che anche senza feature dedicate al 3D aiutavano comunque in minimo nell'insieme.
Ultima modifica di 386DX40 : 13-05-2021 alle 14:08. |
13-05-2021, 14:25 | #23 |
Senior Member
Iscritto dal: Mar 2003
Messaggi: 2020
|
ok gta5...
provate a farlo con stunt car racer o un qualunque vg anni 90
__________________
http://www.hwupgrade.it/forum/showpo...6&postcount=40 |
13-05-2021, 16:55 | #24 |
Member
Iscritto dal: Sep 2020
Messaggi: 42
|
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale. Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti. Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida. La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi. Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano. Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw. |
13-05-2021, 17:13 | #25 | |
Senior Member
Iscritto dal: Aug 2019
Messaggi: 2686
|
Quote:
Se ne parlava gia' appunto quasi un ventennio fa. E i tempi di rendering su un Pentium 4 li ricordo tutti altro che tempo reale, potevi andare a mangiare e tornare che ancora stava calcolando il frame a 640x480 di una scena geometrica semplice. |
|
13-05-2021, 17:20 | #26 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base. In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba. Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente? Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF? Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero. Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori. Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing. Ultima modifica di CrapaDiLegno : 13-05-2021 alle 17:29. |
|
13-05-2021, 18:02 | #27 | |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 6659
|
Quote:
Per quanto riguarda i reflessi sulla carrozzeria delle auto mi sembrano decisamente esagerati soprattutto nella quarta immagine, quella con le due auto sulla destra. Diciamo che l'idea è buona, una AI object oriented che prenda gli oggetti dal processo di rendering per migliorarli e poi miscelarli col render, ma ha ancora molta strada da fare, giustamente essendo la prima prova. Diciamo che hanno applicato l'idea del tile-rendering all'AI, modificandola in object AI-rendering.
__________________
intel Q9550, nvidia gtx950, ram 4GB. Ipad Air 4. \\ DUKE é vivo: eduke32 - High Res - roch - DNF 2013 - ports -\- Wolfenstein is back: Blade of agony Santa Opera di Pulizia del forum: -bannati: Chelidon, Diemberger(aka Svelgen/Vuiton/...?), hereiam,... -sospesi: Toretto x3, Rello75cl, destroyer85, Zocchi X2, Informative x2,... GomblottoH e FakeH : 1 e 2. BOOOM e KABOOM Ultima modifica di sbaffo : 13-05-2021 alle 18:07. |
|
13-05-2021, 18:14 | #28 | |
Senior Member
Iscritto dal: Aug 2004
Messaggi: 1896
|
Quote:
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso. Eccolo: https://www.hwupgrade.it/forum/showthread.php?t=2940113 Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh? Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare.
__________________
MSI-X670E | AMD-9900X | RTX-4090 | 64GB-6800 | 2x NVMe 4TB + 16TB | LCD-28 4K |
|
13-05-2021, 19:16 | #29 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Non è che "una approccio diverso è inutile", è semplicemente insufficiente per fare quello che si chiede. Si potrà fare inferenza con RDNA2, sicuramente meglio che con RDN1 (che è concettualmente pari a roba del 2016), ma siamo come con l'RT: indietro e tanto. E finora non è stato dimostrato proprio nulla sotto questo punto di vista, esattamente come AMD non mostrava nulla delle "iperboliche" capacità di raytracing prima di RNA2 (e ora lo supporta giusto giusto e non ne fa certo un vanto, ma per i fanboy AMD avrebbe portato il raytracing anche alle schede più scrause senza perdita di performance perché bastavano le ALU e l'HW dedicato di NVidia era inutile). Vedi qui che tempi di calcolo sono necessari con una 3090 e tutta la sua potenza di fuoco. Usare DirectML (le istruzioni di RDNA sono per supportare quella specifica funzionalità delle DX12) sulle ALU significa uccidere il resto dei calcoli grafici, questo lo sai vero? Infatti a quanto pare AMD ha abbandonato l'idea di usare un sistema di inferenza come quello di Nvidia (o come sembra come quello che proporrà Intel) perché "non ja fa". O l'AI p la grafica. Usare l'AI per ridurre i tempi di calcolo grafici e poi rubare tempi di calcolo grafici con l'AI è un vero controsenso. D'altronde il numero di transistor in RDNA2 è già davvero elevato solo per fare raster, aggiungere altra roba avrebbe portato la piastrella a diventare troppo grande (e troppo costosa per le console, dove una ha pure scelto di non usare tutto l'arsenale disponibile già senza metterci roba in più). Il risultato netto è che AMD nell'AI è indietro almeno 2 generazioni rispetto ad Nvidia. Vedremo rispetto a Intel cosa riuscirà a fare, ma credo poco. Come con il ray tracing (e parecchia altra roba anche in passato) aspettiamo la generazione successiva che sarà quella giusta. Se gli altri non fanno nulla nel frattempo... |
|
13-05-2021, 19:52 | #30 |
Senior Member
Iscritto dal: Aug 2004
Messaggi: 1896
|
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta...
Quanta potenza serva e per fare cosa ancora si deve vedere bene. Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no? O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1? Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio... Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada. Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato... Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto. Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa. Non so se mi spiego.
__________________
MSI-X670E | AMD-9900X | RTX-4090 | 64GB-6800 | 2x NVMe 4TB + 16TB | LCD-28 4K Ultima modifica di Fos : 13-05-2021 alle 19:56. |
13-05-2021, 20:46 | #31 | ||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Mi da che vuoi fare l'avvocato delle cause perse di forza? O solo il fanboy offeso?
Quote:
Forse ti è sfuggito, che nonostante quelle istruzioni ad hoc Turing era 6 volte più veloce. Ora parliamo della generazione successiva di quella tecnologia che è quasi 2 volte ancora più veloce. Ma tu parli di roba che non capisci solo per il gusto di difendere una multinazionale che è 2 generazioni complete dietro la concorrenza. Praticamente RDNA2 ha le stesse capacità AI di Pascal. Solo 5 anni dopo. Quote:
Chi ha detto che l'integrazione avrebbe saturato cosa? Fatto sta che non serve fare alcuna prova con RDNA-1 (che per vergogna totale AMD non rende compatibile con DXR). Basta vedere cosa fa Pascal con DXR rispetto a Turing e capire che i core RT a qualcosa servono perché le prestazioni sono decisamente migliori che senza. Potenza dell'HW dedicato vs roba buttala là tanto per dire "anche noi abbiamo il supporto". Quote:
Là dove l'RT è usato per davvero (e non nei giochi sponsorizzati AMD che dicono di usarlo e poi lo fanno su 100 pixel e basta) le prestazioni delle GPU AMD cala a picco. E come non bastasse, mancano di tutto l'occorrente per riprendersi tramite qualche algoritmo di ricostruzione delle immagini. Quote:
Che AMD con un RT indietro più di una generazione e un supporto alla AI indietro di 2 sta facendo un buon lavoro perché "integra più che può"? Integra cosa? La solita roba vecchia di 5 anni rispetto alla concorrenza? Dove stanno tutte le funzioni avanzate che oggi si potrebbero usare e invece persegue la strada di propinare le stesse identiche cose del 2012 solo più veloci? AMD oggi di buono ha solo il PP (che è di TSMC e lei paga caro) ed è stata costretta a integrare il minimo possibile (non tutto quello che può) altrimenti le venivano piastrelle invece che die e i costi sarebbero stati ingestibili. Non so se hai visto quanto guadagna AMD con il PP a 7nm... la vedo dura con quello a 5nm e tutto quello che ancora deve integrare... e magari senza il vantaggio del clock rispetto alla concorrenza che ha questo giro. Ah, per concludere, finora chi ha inseguito e copiato alla grande è stata proprio AMD a partire da GCN e tutte le non-funzionalità che ha abbandonato con il VLIW per abbracciare l'architettura moderna delle SIMD già proposta da Nvidia 6 anni prima. E il tile rendering 4 anni dopo. E le istruzioni per l'IA (che poi non servono a niente fatte così come già visto) 5 anni dopo. E le unità RT 2 anni dopo. Chissà, magari tra 4 anni proporrà l'equivalente dei tensor core anche lei così che si potrà pensare di usare l'AI può proficuamente con tutti i giochi. 6 anni dopo la concorrenza. Ma sì, aspettiamo (o solo speriamo per orgoglio?) che Nvidia viri verso la filosofia usata da AMD... prima però deve farsi superare e poi può copiare anche lei alla grande e nel frattempo fermare i progresso monopolizzando lo sviluppo dei giochi cone la fornitura dell'HW.. chissà se veramente avverrà il contrario, con console basate su HW Nvidia e quest'ultima che propone roba di 4 o 5 anni prima che tanto vende lo stesso visto che i giochi sul suo HW gireranno comunque bene. Ultima modifica di CrapaDiLegno : 13-05-2021 alle 20:50. |
||||
13-05-2021, 21:46 | #32 |
Senior Member
Iscritto dal: Aug 2004
Messaggi: 1896
|
Stai sbarellando di brutto, dimostrando ancora meglio chi è il fanboy offeso, altroché...
Pascal ha le stesse istruzioni, quindi va diretta anche di INT4? Stesse ha un significato solo, eh... Poi continui a vederla sempre a modo tuo, parli del RT sulle vecchie come se fosse realmente usabile con dettagli e risoluzioni paragonabili. Ma de che! Non è che è Nvidia che le ha rese compatibili tanto per far venire la voglia di passare oltre? Ma no, ci mancherebbe. Sul RT divaghi portando il discorso dove non serviva alla discussione, ma la voglia era troppa, eh... Sul resto peggio ancora, ma non ho intenzione di venirti dietro. Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso? Sull'effettiva utilità, niente, eh... Sei tu che hai parlato di possibilità strozzata dal fatto che le ALU di AMD non faranno solo quello, poi ti sorprendi se ti rispondo contestualemente? Io il filo lo seguo, mica che no... Chi ha parlato di copiare? Lo vedi che la testa ti porta a buttarla in solo modo? Se un approccio si dimostra conveniente col tempo, perché non lo dovrebbero usare? Magari Nvidia ha usato quel metodo per avere subito prestazioni di livello, chi razzo lo ha negato? Il tuo parlare sa di infantile, questa è l'impressione che mi dai, e non credo di essere più un solitario... Toni simili te li sei cercati fin dall'inizio, ora l'hai dimostrato con gli interessi. Se pensi di migliorare cercando di buttarla a coppe sul personale, mi sa che hai scelto l'interlocutore sbagliato. PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
__________________
MSI-X670E | AMD-9900X | RTX-4090 | 64GB-6800 | 2x NVMe 4TB + 16TB | LCD-28 4K Ultima modifica di Fos : 13-05-2021 alle 21:51. |
13-05-2021, 22:12 | #33 | |
Member
Iscritto dal: Sep 2020
Messaggi: 42
|
Quote:
Ray tracing: "Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici." [...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici. Illuminazione globale: " [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati." Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente? Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti. in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi. Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
__________________
Lenovo Y540 - i7 9750h - GTX 1660 Ti - RAM 16 GB - 1080p 144hz Ultima modifica di a.peter : 13-05-2021 alle 22:25. |
|
14-05-2021, 11:18 | #34 | |||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.
Quote:
Non sai di cosa stai parlando ovviamente. Il problema sono solo le prestazioni. Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA. Nè su GPU nè su CPU, dove non ha proprio nulla. Quote:
Mi devo preoccupare? Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo. Quote:
La Global Illumination è una cosa, ed è un "effetto" della scena (uno dei tanti), il raytracing è una tecnica. Con il ray tracing puoi calcolare la GI. Nessuno ha detto che la GI la puoi calcolare solo con il ray tracing. Ma con il ray tracing puoi calcolare anche altre cose che non sono GI. Tipo simulare le caratteristiche di una lente. O creare caustiche. O il DoF. Si possono calcolare in altra maniera? Ovvio, e si può anche approssimarle con tecniche meno impegnative, ma questo cosa c'entra? Anche la GI si fa in mille modi, e infatti finora la si è calcolata senza alcun algoritmo computazionale pesante. I risultati sono però quello che sono quando li si confronta con quelli che si ottengono con un algoritmo come il ray tracing. Calcoli la GI con raytracing e radiosity? Superbo, risultati spettacolari, peccato che ci voglia 10x il tempo. E non c'entra nulla con il resto degli effetti che il raytracing può calcolare oltre alla GI. Quindi GI è una cosa (calcolabile in molte maniere) e il ray tracing è un'altra cosa, ovvero una tecnica (o più tecniche perché è implementabile in molti modi) che calcola (o più precisamente simula) il comportamento della luce, qualsiasi cosa essa faccia, anche non illuminare una scena o essere limitato solo a un particolare effetto/zona. Con il raytracing si possono anche calcolare semplici texture che poi sono applicate con la normale tecnica raster. Quindi la cosa più generale è la tecnica che permette di fare le cose, poi viene il particolare effetto che vuoi ottenere. Se faccio un simulatore di lenti ottiche non chiamerò di certo l'algoritmo di calcolo "Global Illumination". Anche se sto usando tecniche di raytracing e calcolando come si muove la luce. Il raytracing è una tecnica che può essere usato anche per mille altre cose, non solo illuminazione, comunque. Tipo calcolare lo spazio visible da una certa angolazione. Ovvero posso calcolare precisamente quello che una persona vede o meno quando è in certa posizione e guarda in una certa direzione. In generale quali superifici vengono colpite da un raggio tracciato. Non escono i valori della luminosità di un pixel, ma una bella mappa di 1/0 che dice vedo/non vedo, colpito/non colpito. Sempre tecnica raytracing rimane. Che è poi il calcolo che viene bene accelerato dagli RT core. Quindi chiamare il raytracing semplicemente Global Illumination lo limita un po' al solo effetto che uno vuole calcolare. Ma c'è molto di più dietro. E calcolare un effetto con altre tecniche meno precise è proprio quello che l'uso del raytracing vorrebbe evitare: l'approssimazione eccessiva. Approssimazione che c'è sempre (perché non puoi pretendere di tirare miliardi di raggi in tempo reale) ma può comunque aumentare la precisione rispetto a insiemi pre-calcolati che non possono di natura comprendere tutti i casi possibili. Ecco perché si è introdotto il raytracing nei motori dei giochi per fare, oltre alla GI, anche il calcolo delle ombre precise e delle riflessioni (sempre speculari perché quelle diffuse necessitano mooolta più potenza di calcolo) e l'ambient occlusion. Possibile arriveranno anche altri effetti, come le trasparenze che con il raster classico è un bel problema da ottenere, le caustiche dell'acqua, le luci volumetriche (oggi solo simulate tramite voxel che però non possono tenere conto dell'esatta provenienza di tutte le luci magari dinamiche della scena) e se la potenza aumenta anche magari applicarlo per quanto detto prima riguardo al calcolo della reale parte visibile di un personaggio (così magari la si smette di fare script dove i giocatori gestiti dal PC imbrogliano usando altri metodi per determinare cosa vedono o meno e quindi capaci di colpirti a un km di distanza una volta che ti hanno individuato, mentre prima a 1 metro non ti scorgevano nemmeno). Tutto questo è calcolabile tramite ray tracing, e metterlo sotto la dicitura "Global Illumination" che è un effetto importante e ricade sugli altri senza dubbio, è un po' limitativo. Per la questione Cinama4D è evidente che la scelta è quella di dare il nome agli effetti indipendentemente dall'algoritmo utilizzato per realizzarli, esattamente come la questione Global Illumination vs raytracing. |
|||
14-05-2021, 12:03 | #35 | |||
Senior Member
Iscritto dal: Aug 2004
Messaggi: 1896
|
Quote:
AMD non fa nulla direttamente, le INT4 erano dappertutto, e tu non spari razzate. Eh, sì, per te è sicuro che AMD e MS si gratteranno a perdere, che con quelle possibilità non ci fai niente di utile ecc... Solo perché ti conviene pensarlo, o hai qualche dato, esempio, esperimento... qualsiasi cosa che non sia fuffa, insomma. Quote:
Comportamento puerile tale da sotterrarsi. Per me è grosso, dopo, se la faccia te la sei già giocata: Rischi solo la conferma. Quote:
In quel contesto il ray tracing entrava in quel modo. Il resto è indiretto, e per farlo non è indispensabile usare la sola tecnica Ray tracing che rientra nell'insieme. Anche se ci calcoli i rimbalzi dell'audio, da dove parti...? Tra l'altro è il RT ad essere approssimativo, in quella lista ci sono metodi unbiased, ben superiori al RT, che da come la metti pare l'asse imprescindibile. Chissà perché tendi ad amplificare il RT, chissà...
__________________
MSI-X670E | AMD-9900X | RTX-4090 | 64GB-6800 | 2x NVMe 4TB + 16TB | LCD-28 4K Ultima modifica di Fos : 14-05-2021 alle 12:06. |
|||
14-05-2021, 12:04 | #36 |
Senior Member
Iscritto dal: Aug 2019
Messaggi: 2686
|
Imho ma potrei sbagliare ho l'impressione che a livello di messaggio consumer si sia un po' stiracchiato il concetto originale che effettivamente c'era anche decadi fa di ray tracing ma come algoritmo che vedeva nella illuminazione globale la sua forma piu' avanzata di scopo. Non chiamerei un "effetto" l'illuminazione globale diretta e indiretta che era a suo tempo l'obiettivo originario di quell' algoritmo e che per mezzo del numero di sample (eventualmente infiniti) con cui si voleva calcolare l'illuminazione, piegherebbe probabilmente l'hardware piu' potente con cui si calcola. Che poi il ray tracing nel senso della parte hardware moderna a cio' dedicata venga usata per altre cose o anche per altre cose, fa pensare che l'illuminazione globale per essere davvero realistica resta ancor oggi talmente pesante da doverla approssimare in altro modo. Poi certamente il livello a cui si e' raggiunto e' anni luce rispetto al passato.
L' illuminazione globale piu' che approssimata in passato era immagino precalcolata e non proprio dinamica. Sul discorso fotorealismo imho una piu' accurata illuminazione globale rende molto di piu' di eventuali scopi altri come rifrazioni o effetti comunque importanti ma che non sò se metterei sullo stesso piano di importanza della GI. Ultima modifica di 386DX40 : 14-05-2021 alle 12:47. |
14-05-2021, 12:34 | #37 |
Senior Member
Iscritto dal: Mar 2003
Messaggi: 2020
|
il problema principale è che saranno sempre tecniche di rendering biased... anche quelle unbiased alla fine sono legate al tempo di calcolo quindi parziali per natura.
https://www.youtube.com/watch?v=5XYLagdL8eA una roba del genere su vg a 60fps a chi serve? l'intelligenza artificiale che aiuta a definire e percepire meglio il "mondo 3d" la trovo molto interessante perché può sopperire alla mancanza di dettaglio. qualunque nome vogliate dargli
__________________
http://www.hwupgrade.it/forum/showpo...6&postcount=40 |
26-05-2021, 02:59 | #38 | |
Senior Member
Iscritto dal: Nov 2014
Messaggi: 3650
|
Quote:
Ma ben più rilevanti direi acqua (uno dei giochi migliori in tal senso è Sea of Thieves, peccato che lì l'acqua sia molto bella ma non altrettanto realistica) e soprattutto il fuoco
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato |
|
26-05-2021, 11:18 | #39 |
Senior Member
Iscritto dal: Aug 2019
Messaggi: 2686
|
Imho non e' solo un discorso di rendering della pelle umana ma di tanti fatori legati al contesto per cui come dicevo inanzitutto il primo problema e' che attraverso il monitor gia' il limite e' li e non attraverso un VR dove il cervello sarebbe molto piu' (teoricamente) slegato dall'ambiente circostante.
Se si parla della sola grafica i passi da gigante sono stati fatti ma spesso in un ottica di giochi fantascientifici o storici o comunque non legato a contesti "reali". Dal momento che si parla di contesti in movimento basta solo il rendering di un personaggio che cammina per far cadere il castello di carte. Il cervello umano (fortunatamente) ancora capisce automaticamente cosa e' reale e cosa non lo e' a meno che non si parli di immagini renderizzate statiche per cui forse puo' venire qualche dubbio al limite. Ma se si pensa al solo viso umano, ci sono 36 muscoli facciali ed e' difficile immaginare un rendering di un personaggio che riesca ad usarli tutti per il solo volto con la variabilita' e tutte le miriadi di sfumature che il volto umano fa nella normalità di qualsiasi azione. Per non parlare poi degli occhi. Se poi si passa al realismo dell'ambiente circostante come detto sopra un conto e' "credere" al realismo di una cosa di fantascienza, un conto una cosa che esiste e abituati a vedere. La sola acqua nel rendering aveva fatto passo da gigante con l'introduzione del Pixel Shading a suo tempo ma ancora oggi e' difficile immaginare un acqua renderizzata davvero realistica. Ma poi c'e' tutto il contesto dei titoli che ormai sono troppo esagerati nelle ambizioni e non puntano a realismo quanto a sorprendere. Realistico puo' essere il rendering di una abitazione senza altro che il punto di vista in prima persona un po' come alcune tech demo. Bisognerebbe riconsiderare che "la storia" deve essere in un contesto realistico prima che tutta la immane complessità del rendering di quell' ambiente. |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 00:59.