View Full Version : GTA 5 con grafica fotorealistica? Sì, merito di Intel e dell'intelligenza artificiale
Redazione di Hardware Upg
13-05-2021, 06:40
Link alla notizia: https://gaming.hwupgrade.it/news/videogames/gta-5-con-grafica-fotorealistica-si-merito-di-intel-e-dell-intelligenza-artificiale_97683.html
Intel, per ora solo a fini di studio, sta usando una rete neurale convoluzionale per cambiare i connotati a GTA V e renderne l'aspetto grafico più vicino a quello reale. Il risultato è molto interessante e l'approccio sembra potersi integrare con l'hardware e le tecnologie attuali.
Click sul link per visualizzare la notizia.
matsnake86
13-05-2021, 07:08
Tutto bellissimo....
Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Non è il caso dei gta fortunatamente, ma ad ogni modo per quanto mi riguarda la grafica diventa di secondo piano rispetto a gameplay ed immersione.
Certo anche l'occhio vuole la sua parte, ma si possono fare videogiochi belli senza dover ricorrere alle tecniche di ultima generazione.
Nintendo è maestra in questo.
sertopica
13-05-2021, 07:16
Ok, ma non mi sembra sia questo il contenuto della news. Si parla di una tecnologia sviluppata da intel, non di quanto i giochi rockstar siano noiosi. Barsport 2.0.
Doraneko
13-05-2021, 07:24
Dai che così vedremo gta5 anche su PS 6
--Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Ovvio, ma i ricercatori che si occupano di tecnologie grafiche non si occupano dei gameplay o delle sceneggiature.
Se ben capisco dal solo video senza audio, é principalemente un tonemapper/color grader avanzato e guidato dalla AI, giusto? Per funzionare funziona, e immagino i risultati saranno persino migliori con una vera e propria GI. Certo, deve essere anche molto veloce, altrimenti tanto varrebbe investire quel tempo in un rendering di qualitá piú alta, peró é una tecnologia interessante.
TorettoMilano
13-05-2021, 07:42
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M
"ah ma il raytracing è solo una moda!11!!!" cit.
--Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Ovvio, ma i ricercatori che si occupano di tecnologie grafiche non si occupano dei gameplay o delle sceneggiature.
Se ben capisco dal solo video senza audio, é principalemente un tonemapper/color grader avanzato e guidato dalla AI, giusto? Per funzionare funziona, e immagino i risultati saranno persino migliori con una vera e propria GI. Certo, deve essere anche molto veloce, altrimenti tanto varrebbe investire quel tempo in un rendering di qualitá piú alta, peró é una tecnologia interessante.
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.
Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/
Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.
sertopica
13-05-2021, 08:54
Come spiegato nel video viene utilizzato il g buffer e questo sistema si inserisce nel processo di rendering geometrico modificandone alcune proprieta', da quello che ho capito.
CrapaDiLegno
13-05-2021, 08:59
Poiché i G-buffer usati come input sono prodotti nativamente sulla GPU, il nostro metodo potrebbe essere integrato più profondamente nei motori di gioco, incrementando l'efficienza e possibilmente avanzando ulteriormente il livello di realismo
Sembra una implementazione a più basso livello del DLSS che può avere "conoscenza" delle parti di immagini che sta elaborando, diversamente dal DLSS che lo fa a immagine conclusa e quindi non discriminata nelle sue parti.
Serve però che sia supportato dalle SH, e la vedo dura quando le console manco una moltiplicazione 4x4 riescono a fare in tempo decente.
Forse nel 2025-2026 quando anche AMD ci metterà un pezzo di silicio che può fare più che testurizzare a manetta e poco altro.
L'inferenza nel nostro approccio in questa implementazione attualmente non ottimizzata richiede mezzo secondo su una GeForce RTX 3090.
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?"
(che fa il paio con: i calcoli RT sono solo calcoli FP e quindi basta avare abbastanza core veloci per eseguirli, non servono gli RT core... peccato che non si sia quantificato il numero e la velocità di questi core per pareggiare le prestazioni di HW dedicato).
Che il fotorealismo sia sempre stato un auspicato traguardo e' senza dubbio. Quello che mi lascia dubbioso e' la necessità di una AI rispetto ad un gioco riprogrammato sulla base di un nuovo engine, nuove funzionalità hardware, etc..
E sul fotorealismo imho ogni epoca ha avuto il proprio "fotorealismo" ogni gioco all' apice della sua tecnologia nella propria epoca era rivoluzionario. La prima volta che giocai a Wolfeinstein3D la parte grafica simil-3D era talmente incredibile che rimasi spiazzato. Per molti altri giochi successivi per esempio non ebbi le stesse sensazioni pur anni luce avanti tecnicamente.
Oggigiorno si parla tanto di ray-tracing. Vent'anni fa lo ricordavo quando veniva chiamato "Global illumination" che forse e' meno "cool" come nome ma ad ogni modo si e' gia' ad un livello per cui forse non importa tanto concentrare poche migliorie se poi il setup di gioco resta sempre lo stesso e tutt'altro che "realistico".
Per dire che il VR puo' e spero sia davvero quel salto che farebbe sembrare "realistico" persino Doom del 1993 proprio per come rivoluziona il concetto di ambiente circostante che diventa il gioco stesso, isolandosi completamente dall' esterno.
"Poco importa" la risoluzione dei display o la qualità dell' illuminazione se poi il gioco per l'appassionato del "realismo" lo si gioca appunto sul divano e sul solito TV di casa.
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.
Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/
Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.
Va a modificare un po' troppo le immagini, basta guardare le montagne che diventano ricoperte di vegetazione. Sicuramente in un video fa l'effetto wow, ma nel gioco andrà a creare troppi artefatti e glitch. Resta cmq un esempio impressionante, anche solo per come riesce a cambiare l'illuminazione.
CrapaDiLegno
13-05-2021, 09:37
Che il fotorealismo sia sempre stato un auspicato traguardo e' senza dubbio. Quello che mi lascia dubbioso e' la necessità di una AI rispetto ad un gioco riprogrammato sulla base di un nuovo engine, nuove funzionalità hardware, etc..
E sul fotorealismo imho ogni epoca ha avuto il proprio "fotorealismo" ogni gioco all' apice della sua tecnologia nella propria epoca era rivoluzionario. La prima volta che giocai a Wolfeinstein3D la parte grafica simil-3D era talmente incredibile che rimasi spiazzato. Per molti altri giochi successivi per esempio non ebbi le stesse sensazioni pur anni luce avanti tecnicamente.
Oggigiorno si parla tanto di ray-tracing. Vent'anni fa lo ricordavo quando veniva chiamato "Global illumination" che forse e' meno "cool" come nome ma ad ogni modo si e' gia' ad un livello per cui forse non importa tanto concentrare poche migliorie se poi il setup di gioco resta sempre lo stesso e tutt'altro che "realistico".
Per dire che il VR puo' e spero sia davvero quel salto che farebbe sembrare "realistico" persino Doom del 1993 proprio per come rivoluziona il concetto di ambiente circostante che diventa il gioco stesso, isolandosi completamente dall' esterno.
"Poco importa" la risoluzione dei display o la qualità dell' illuminazione se poi il gioco per l'appassionato del "realismo" lo si gioca appunto sul divano e sul solito TV di casa.
Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.
Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.
Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.
Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai :muro: ).
Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.
Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.
Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.
Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.
Detto ovviamente in modo molto semplicistico.
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M
Io direi ancora di più i capelli, ancora non si trova una quadra tra il "gommoso" e l'effetto "subacqueo" con il movimento dei capelli che non segue bene i movimenti del corpo, ma li rende come se non avessero alcun peso o elasticità. Davvero orrendo da vedere.
CrapaDiLegno
13-05-2021, 09:58
Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.
Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.
Detto ovviamente in modo molto semplicistico.
La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.
Tutto bellissimo....
Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Non è il caso dei gta fortunatamente, ma ad ogni modo per quanto mi riguarda la grafica diventa di secondo piano rispetto a gameplay ed immersione.
Certo anche l'occhio vuole la sua parte, ma si possono fare videogiochi belli senza dover ricorrere alle tecniche di ultima generazione.
Nintendo è maestra in questo.
Hanno sperimentato con un gioco che ha un nome forte per un po' di pubblicità extra
Devo dire comunque che non ho mai adorato nemmeno io GTA
Divertito con il primo, il secondo ed il terzo, poi giocati gli altri in periodo di scazzo
Il quinto non l'avevo preso in grande considerazione ma siccome era oltre un anno che i miei amici volevano mi unissi a loro nel multi alla fine ho ceduto
Con loro è divertentissimo ed ho superato in steam il conteggio di qualsiasi altro gioco in circa un mese
Miglior gioco di sempre? Assolutamente no
Ma come multiplayer è vario e l'esperienza è molto buona
Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.
Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.
Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.
Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai :muro: ).
Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.
Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.
Per quel che ricordo da 3DStudio Max la Global illumination la consideravo davvero quella tecnica che lungi dall'essere allora (ai tempi dei primi Pentium IV) calcolabile in tempo reale, avrebbe permesso quel salto piu' lungo verso un fotorealismo. Una stanza bianca con una finestra e un punto luce esterno attraverso la suddetta tecnica di illuminazione globale risulta piuttosto e anche piu' "realistica" di ambienti con piu' poligoni, dimensioni delle texture, effetti di bump mapping, anti-aliasing o quant'altro IMHO. Immagino che con ray tracing si intendano anche altre logiche nella illuminazione ma IMHO opinione personale gia' solo l'illuminazione globale mai stata possibile in tempo reale fino forse ad oggigiorno, puo' davvero permettere quel salto in piu' ma non basta chiaro.
Sul fatto che oggigiorno si parla piu' di risoluzione o frame rate a prescindere dalle singole tecniche sono d' accordo e sono d'accordissimo sul discorso dei monitor CRT. Ma quando dicevo che ogni epoca (tra virgolette) "ha avuto il proprio fotorealismo" intendevo che alla fine si parla del delta di percezione che c'e' tra cio' che siamo abituati a vedere prima a confronto con il massimo che puo' essere renderizzato oggi.
Il cervello (se vuole proprio) riconosce comunque cio' che (sa' gia') non e' realistico dalla simulazione di uno spazio tridimensionale. Quella curva di miglioramento forse tende ad appiattirsi all' infinito; ma oggigiorno il livello e' gia' tale da pensare di "ingannare" il cervello ma come accennavo basta poco per far cadere tutto. In primis appunto il setup di gioco per cui solo il VR puo' essere la giusta direzione. In secundis a meno che non si parli di giochi di simulazione in cui c'e' tutto tranne che esseri viventi, basta il rendering di una faccia umana magari non statica e tanti saluti al fotorealismo. Ma col tempo ho capito che non e' poi cosi' importante a prescindere dall' esercizio tecnico per sè.
Imho se si parla di fotorealismo come sola grafica non si considera invece l'importanza del "realismo" nel suo insieme fatto di sensazioni a cui partecipano molti altri fattori che comunque contribuiscono al realismo (es. la fisica, il contesto in-game, i suoni). Un esempio e' il fattore "spavento". Un gioco degli anni 90 puo' ancora suscitare spavento pur magari renderizzato attraverso il set delle Directx6? Certo che si e in tal modo si puo' definire "realistico" a suo modo perche' suscita nel giocatore un emozione reale se il contesto del gioco non e' appunto surreale (es. fantascienza o cose simili).
EDIT: aggiungo, sulla Voodoo3 sono d'accordo ma va tutto contestualizzato storicamente e se ne discute spesso anche tra grandi appassionati di hardware retro'. La Voodoo3 con i suoi "22bit interni" era l'esempio di un prodotto che era probabilmente nato piu' come "di transizione" per prendere tempo che non come chip "next generation". Nell' epoca in cui e' uscito avrebbe ancora avuto un po' di senso (se per prendere tempo) considerando che effetivamente al lancio risultava essere una scheda veloce con il supporto totale alle API dell' epoca ma con tutti i punti discutibili ormai vecchiotti delle precedenti versioni. Ma la scelta di farsi le schede in proprio in un periodo in cui "mesi" contavano come "anni" e la concorrenza era gia' in parte avanti, fu un passo probabilmente sbagliato e interviste in tal merito ne hanno discusso con le persone che ci hanno lavorato e le opinioni parevano convergere su questo punto. Il Voodoo3 IMHO era un brand troppo prezioso da un punto di vista marketing per essere usato su una sorta di Banshee II per cui sia quel chip (l' Avenger) sia il VSA-100 non avrebbero mai dovuto vedere la luce per puntare tutto su una nuova GPU come ormai era chiaro tutti stessero facendo, Nvidia e S3 in primis. E possibilmente senza il nome Voodoo che ormai era di fatto "consumato" dall' esperienza del Voodoo3 che dignitosamente aveva pero' giocato in difensiva.
Ma in quel settore spesso una scelta che magari fa perdere un treno non e' detto che permette poi di prendere il prossimo. E le cose sono andate come sono andate. Le api Glide erano gia' da lasciare indietro appena accorti che le Directx e OpenGL avevano gia' ormai superato ogni aspettativa.
La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.
L'ho guardato molto velocemente, grazie del chiarimento.
In effetti mi pareva strano facesse in real-time tutti quei calcoli ma visto che fanno vedere molto poco ho pensato a situazioni create ad-hoc.
Una moda forse no, ma una tech preview al momento direi di sì - il ray-tracing dico, non questo.
Questo... per i risultati che ottiene e l'assenza di artefatti macroscopici devo dire che mi stupisce abbastanza (caveat: ho guardato il video sul cell).
L'AI (o sistemi esperti o quello che vi pare) ha avuto uno sviluppo realmente folle in un tempo di un paio d'anni solamente... siamo già a gradi di maturità impressionanti per quanto mi riguarda. Magari non saremo ancora alla perfezione, ma il rateo di progresso fa ben sperare, e per applicazioni in tantissimi campi diversi.
si, ma nell'articolo originale menziona chiaramente la necessità di avere a disposizione la tecnologia raytracing per poter ottenere questi risultati. poi che al momento sia ancora "non completa" è solo per un limite di calcolo delle macchine
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console. :p
Stavo pensando a Battlezone (1980) e Mechwarrior 2 - Mercenaries (1996)
Pensavo pero' a titoli come Stunts (1990) o LHX (1990) o Test Drive 3 (1990). Ma sui primi textured certamente non potevano permettersi grandi cose senza l'aiuto di un hardware dedicato ma esempi appunto come Quake e Tomb Raider e come dimenticarsi Unreal o Half Life sono piuttosto validi anche senza accelerazione hardware. Certo non erano proprio i primi ok ma piu' o meno le tecnologie in gioco erano sempre le stesse. Ovviamente il vero salto lo permise la FPU del Pentium e l'arrivo di schede video PCI che anche senza feature dedicate al 3D aiutavano comunque in minimo nell'insieme.
radeon_snorky
13-05-2021, 13:25
ok gta5...
provate a farlo con stunt car racer o un qualunque vg anni 90
:D
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
Infatti mi pareva di ricordare cosi' anche a me. Poi immagino che con le attuali architetture si possa fare anche altro assieme alla illuminazione globale, ma quella resta la tecnica di illuminazione che spazzerebbe via (se calcolata con la stessa complessità dei sw appunto suddetti, se in tempo reale) praticamente vent'anni di videogiochi che hanno cercato in ogni modo di simulare (anche bene) i risultati di un vero calcolo di illuminazione globale.
Se ne parlava gia' appunto quasi un ventennio fa. E i tempi di rendering su un Pentium 4 li ricordo tutti altro che tempo reale, potevi andare a mangiare e tornare che ancora stava calcolando il frame a 640x480 di una scena geometrica semplice. :p
CrapaDiLegno
13-05-2021, 16:20
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?
Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.
Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/
Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.
Mah, a me sembra che l'asfalto sia semplicemente "piallato" cioè uniformato e ingrigito perdendo totalmente la sua "granularità" originale, come se lo avessero riasfaltato.:D (certo, hanno preso come modello immagini di città tedesche, se erano italiane altro che riasfalatato... :D )
Per quanto riguarda i reflessi sulla carrozzeria delle auto mi sembrano decisamente esagerati soprattutto nella quarta immagine, quella con le due auto sulla destra.
Diciamo che l'idea è buona, una AI object oriented che prenda gli oggetti dal processo di rendering per migliorarli e poi miscelarli col render, ma ha ancora molta strada da fare, giustamente essendo la prima prova.
Diciamo che hanno applicato l'idea del tile-rendering all'AI, modificandola in object AI-rendering.
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.
Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113
Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?
Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare. :)
CrapaDiLegno
13-05-2021, 18:16
Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.
Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113
Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?
Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare. :)
Si ho esagerato nel concetto, ti concedo che AMD ha investito questi 100 transistor per ALU per aggiungere 4 nuove istruzioni di calcolo con dimensioni inferiori a 16bit, ma non è avere qualcosa che sia usabile per l'inferenza delle IA.
Non è che "una approccio diverso è inutile", è semplicemente insufficiente per fare quello che si chiede.
Si potrà fare inferenza con RDNA2, sicuramente meglio che con RDN1 (che è concettualmente pari a roba del 2016), ma siamo come con l'RT: indietro e tanto. E finora non è stato dimostrato proprio nulla sotto questo punto di vista, esattamente come AMD non mostrava nulla delle "iperboliche" capacità di raytracing prima di RNA2 (e ora lo supporta giusto giusto e non ne fa certo un vanto, ma per i fanboy AMD avrebbe portato il raytracing anche alle schede più scrause senza perdita di performance perché bastavano le ALU e l'HW dedicato di NVidia era inutile).
Vedi qui che tempi di calcolo sono necessari con una 3090 e tutta la sua potenza di fuoco. Usare DirectML (le istruzioni di RDNA sono per supportare quella specifica funzionalità delle DX12) sulle ALU significa uccidere il resto dei calcoli grafici, questo lo sai vero?
Infatti a quanto pare AMD ha abbandonato l'idea di usare un sistema di inferenza come quello di Nvidia (o come sembra come quello che proporrà Intel) perché "non ja fa". O l'AI p la grafica. Usare l'AI per ridurre i tempi di calcolo grafici e poi rubare tempi di calcolo grafici con l'AI è un vero controsenso.
D'altronde il numero di transistor in RDNA2 è già davvero elevato solo per fare raster, aggiungere altra roba avrebbe portato la piastrella a diventare troppo grande (e troppo costosa per le console, dove una ha pure scelto di non usare tutto l'arsenale disponibile già senza metterci roba in più).
Il risultato netto è che AMD nell'AI è indietro almeno 2 generazioni rispetto ad Nvidia. Vedremo rispetto a Intel cosa riuscirà a fare, ma credo poco.
Come con il ray tracing (e parecchia altra roba anche in passato) aspettiamo la generazione successiva che sarà quella giusta. Se gli altri non fanno nulla nel frattempo...
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta... :fagiano:
Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?
Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...
Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.
Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...
Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.
Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego. :)
CrapaDiLegno
13-05-2021, 19:46
Mi da che vuoi fare l'avvocato delle cause perse di forza? O solo il fanboy offeso?
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta... :fagiano:
Forse ti è sfuggito, così di passaggio, che Nvidia quelle stesse istruzioni le ha messe dico, in Pascal, nel 2016. E guarda caso nessuna applicazione che sfrutta l'AI è mai stata sviluppata per Pascal.
Forse ti è sfuggito, che nonostante quelle istruzioni ad hoc Turing era 6 volte più veloce. Ora parliamo della generazione successiva di quella tecnologia che è quasi 2 volte ancora più veloce.
Ma tu parli di roba che non capisci solo per il gusto di difendere una multinazionale che è 2 generazioni complete dietro la concorrenza.
Praticamente RDNA2 ha le stesse capacità AI di Pascal. Solo 5 anni dopo.
Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?
Eh?
Chi ha detto che l'integrazione avrebbe saturato cosa?
Fatto sta che non serve fare alcuna prova con RDNA-1 (che per vergogna totale AMD non rende compatibile con DXR). Basta vedere cosa fa Pascal con DXR rispetto a Turing e capire che i core RT a qualcosa servono perché le prestazioni sono decisamente migliori che senza.
Potenza dell'HW dedicato vs roba buttala là tanto per dire "anche noi abbiamo il supporto".
Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...
Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.
Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...
1, 2, 10, 100 unità frega nulla. Quello che conta sono i risultati e AMD è indietro con l'RT con la patchatura dell'ultimo minuto di una architettura che non era pensata per tale funzionalità. E i risultati sono abbastanza scarsi.
Là dove l'RT è usato per davvero (e non nei giochi sponsorizzati AMD che dicono di usarlo e poi lo fanno su 100 pixel e basta) le prestazioni delle GPU AMD cala a picco. E come non bastasse, mancano di tutto l'occorrente per riprendersi tramite qualche algoritmo di ricostruzione delle immagini.
Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.
Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego. :)
Ma che vuoi provare con queste frasi monche che non dicono nulla?
Che AMD con un RT indietro più di una generazione e un supporto alla AI indietro di 2 sta facendo un buon lavoro perché "integra più che può"?
Integra cosa? La solita roba vecchia di 5 anni rispetto alla concorrenza?
Dove stanno tutte le funzioni avanzate che oggi si potrebbero usare e invece persegue la strada di propinare le stesse identiche cose del 2012 solo più veloci?
AMD oggi di buono ha solo il PP (che è di TSMC e lei paga caro) ed è stata costretta a integrare il minimo possibile (non tutto quello che può) altrimenti le venivano piastrelle invece che die e i costi sarebbero stati ingestibili.
Non so se hai visto quanto guadagna AMD con il PP a 7nm... la vedo dura con quello a 5nm e tutto quello che ancora deve integrare... e magari senza il vantaggio del clock rispetto alla concorrenza che ha questo giro.
Ah, per concludere, finora chi ha inseguito e copiato alla grande è stata proprio AMD a partire da GCN e tutte le non-funzionalità che ha abbandonato con il VLIW per abbracciare l'architettura moderna delle SIMD già proposta da Nvidia 6 anni prima. E il tile rendering 4 anni dopo. E le istruzioni per l'IA (che poi non servono a niente fatte così come già visto) 5 anni dopo. E le unità RT 2 anni dopo. Chissà, magari tra 4 anni proporrà l'equivalente dei tensor core anche lei così che si potrà pensare di usare l'AI può proficuamente con tutti i giochi. 6 anni dopo la concorrenza.
Ma sì, aspettiamo (o solo speriamo per orgoglio?) che Nvidia viri verso la filosofia usata da AMD... prima però deve farsi superare e poi può copiare anche lei alla grande e nel frattempo fermare i progresso monopolizzando lo sviluppo dei giochi cone la fornitura dell'HW.. chissà se veramente avverrà il contrario, con console basate su HW Nvidia e quest'ultima che propone roba di 4 o 5 anni prima che tanto vende lo stesso visto che i giochi sul suo HW gireranno comunque bene. :mc:
Stai sbarellando di brutto, dimostrando ancora meglio chi è il fanboy offeso, altroché...
Pascal ha le stesse istruzioni, quindi va diretta anche di INT4? Stesse ha un significato solo, eh...
Poi continui a vederla sempre a modo tuo, parli del RT sulle vecchie come se fosse realmente usabile con dettagli e risoluzioni paragonabili. Ma de che!
Non è che è Nvidia che le ha rese compatibili tanto per far venire la voglia di passare oltre? Ma no, ci mancherebbe.
Sul RT divaghi portando il discorso dove non serviva alla discussione, ma la voglia era troppa, eh... :) Sul resto peggio ancora, ma non ho intenzione di venirti dietro.
Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?
Sull'effettiva utilità, niente, eh... Sei tu che hai parlato di possibilità strozzata dal fatto che le ALU di AMD non faranno solo quello, poi ti sorprendi se ti rispondo contestualemente? Io il filo lo seguo, mica che no...
Chi ha parlato di copiare? Lo vedi che la testa ti porta a buttarla in solo modo? Se un approccio si dimostra conveniente col tempo, perché non lo dovrebbero usare? Magari Nvidia ha usato quel metodo per avere subito prestazioni di livello, chi razzo lo ha negato? Il tuo parlare sa di infantile, questa è l'impressione che mi dai, e non credo di essere più un solitario...
Toni simili te li sei cercati fin dall'inizio, ora l'hai dimostrato con gli interessi.
Se pensi di migliorare cercando di buttarla a coppe sul personale, mi sa che hai scelto l'interlocutore sbagliato. :)
PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?
Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.
Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."
Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
CrapaDiLegno
14-05-2021, 10:18
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.
Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.
PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
Rischio grosso? Sono minacciato?
Mi devo preoccupare?
Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.
Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."
Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
Non confondiamo le cose.
La Global Illumination è una cosa, ed è un "effetto" della scena (uno dei tanti), il raytracing è una tecnica.
Con il ray tracing puoi calcolare la GI. Nessuno ha detto che la GI la puoi calcolare solo con il ray tracing.
Ma con il ray tracing puoi calcolare anche altre cose che non sono GI. Tipo simulare le caratteristiche di una lente. O creare caustiche. O il DoF.
Si possono calcolare in altra maniera?
Ovvio, e si può anche approssimarle con tecniche meno impegnative, ma questo cosa c'entra? Anche la GI si fa in mille modi, e infatti finora la si è calcolata senza alcun algoritmo computazionale pesante. I risultati sono però quello che sono quando li si confronta con quelli che si ottengono con un algoritmo come il ray tracing. Calcoli la GI con raytracing e radiosity? Superbo, risultati spettacolari, peccato che ci voglia 10x il tempo.
E non c'entra nulla con il resto degli effetti che il raytracing può calcolare oltre alla GI.
Quindi GI è una cosa (calcolabile in molte maniere) e il ray tracing è un'altra cosa, ovvero una tecnica (o più tecniche perché è implementabile in molti modi) che calcola (o più precisamente simula) il comportamento della luce, qualsiasi cosa essa faccia, anche non illuminare una scena o essere limitato solo a un particolare effetto/zona.
Con il raytracing si possono anche calcolare semplici texture che poi sono applicate con la normale tecnica raster.
Quindi la cosa più generale è la tecnica che permette di fare le cose, poi viene il particolare effetto che vuoi ottenere.
Se faccio un simulatore di lenti ottiche non chiamerò di certo l'algoritmo di calcolo "Global Illumination". Anche se sto usando tecniche di raytracing e calcolando come si muove la luce.
Il raytracing è una tecnica che può essere usato anche per mille altre cose, non solo illuminazione, comunque. Tipo calcolare lo spazio visible da una certa angolazione. Ovvero posso calcolare precisamente quello che una persona vede o meno quando è in certa posizione e guarda in una certa direzione. In generale quali superifici vengono colpite da un raggio tracciato.
Non escono i valori della luminosità di un pixel, ma una bella mappa di 1/0 che dice vedo/non vedo, colpito/non colpito. Sempre tecnica raytracing rimane.
Che è poi il calcolo che viene bene accelerato dagli RT core.
Quindi chiamare il raytracing semplicemente Global Illumination lo limita un po' al solo effetto che uno vuole calcolare. Ma c'è molto di più dietro.
E calcolare un effetto con altre tecniche meno precise è proprio quello che l'uso del raytracing vorrebbe evitare: l'approssimazione eccessiva. Approssimazione che c'è sempre (perché non puoi pretendere di tirare miliardi di raggi in tempo reale) ma può comunque aumentare la precisione rispetto a insiemi pre-calcolati che non possono di natura comprendere tutti i casi possibili.
Ecco perché si è introdotto il raytracing nei motori dei giochi per fare, oltre alla GI, anche il calcolo delle ombre precise e delle riflessioni (sempre speculari perché quelle diffuse necessitano mooolta più potenza di calcolo) e l'ambient occlusion.
Possibile arriveranno anche altri effetti, come le trasparenze che con il raster classico è un bel problema da ottenere, le caustiche dell'acqua, le luci volumetriche (oggi solo simulate tramite voxel che però non possono tenere conto dell'esatta provenienza di tutte le luci magari dinamiche della scena) e se la potenza aumenta anche magari applicarlo per quanto detto prima riguardo al calcolo della reale parte visibile di un personaggio (così magari la si smette di fare script dove i giocatori gestiti dal PC imbrogliano usando altri metodi per determinare cosa vedono o meno e quindi capaci di colpirti a un km di distanza una volta che ti hanno individuato, mentre prima a 1 metro non ti scorgevano nemmeno).
Tutto questo è calcolabile tramite ray tracing, e metterlo sotto la dicitura "Global Illumination" che è un effetto importante e ricade sugli altri senza dubbio, è un po' limitativo.
Per la questione Cinama4D è evidente che la scelta è quella di dare il nome agli effetti indipendentemente dall'algoritmo utilizzato per realizzarli, esattamente come la questione Global Illumination vs raytracing.
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.Ecco, fai finta di non capire, che ti conviene. :)
AMD non fa nulla direttamente, le INT4 erano dappertutto, e tu non spari razzate.
Eh, sì, per te è sicuro che AMD e MS si gratteranno a perdere, che con quelle possibilità non ci fai niente di utile ecc... Solo perché ti conviene pensarlo, o hai qualche dato, esempio, esperimento... qualsiasi cosa che non sia fuffa, insomma.
Rischio grosso? Sono minacciato?
Mi devo preoccupare?
Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.Hey, me lo posti quel topic o contiui a schivare l'osso? Rischi grosso intendevo la faccia, visto che pare proprio che ti stessi riferendo a qualcuno a cui non rispondi direttamente.
Comportamento puerile tale da sotterrarsi. Per me è grosso, dopo, se la faccia te la sei già giocata: Rischi solo la conferma.
Non confondiamo le cose.Appunto, non confondere le cose. Quello che ti ha postato è fin troppo chiaro, inutile continuare ad intorbidire l'acqua... Quello che non sa di cosa parla continua a ribadirlo.
In quel contesto il ray tracing entrava in quel modo. Il resto è indiretto, e per farlo non è indispensabile usare la sola tecnica Ray tracing che rientra nell'insieme. Anche se ci calcoli i rimbalzi dell'audio, da dove parti...? Tra l'altro è il RT ad essere approssimativo, in quella lista ci sono metodi unbiased, ben superiori al RT, che da come la metti pare l'asse imprescindibile.
Chissà perché tendi ad amplificare il RT, chissà...
Imho ma potrei sbagliare ho l'impressione che a livello di messaggio consumer si sia un po' stiracchiato il concetto originale che effettivamente c'era anche decadi fa di ray tracing ma come algoritmo che vedeva nella illuminazione globale la sua forma piu' avanzata di scopo. Non chiamerei un "effetto" l'illuminazione globale diretta e indiretta che era a suo tempo l'obiettivo originario di quell' algoritmo e che per mezzo del numero di sample (eventualmente infiniti) con cui si voleva calcolare l'illuminazione, piegherebbe probabilmente l'hardware piu' potente con cui si calcola. Che poi il ray tracing nel senso della parte hardware moderna a cio' dedicata venga usata per altre cose o anche per altre cose, fa pensare che l'illuminazione globale per essere davvero realistica resta ancor oggi talmente pesante da doverla approssimare in altro modo. Poi certamente il livello a cui si e' raggiunto e' anni luce rispetto al passato.
L' illuminazione globale piu' che approssimata in passato era immagino precalcolata e non proprio dinamica. Sul discorso fotorealismo imho una piu' accurata illuminazione globale rende molto di piu' di eventuali scopi altri come rifrazioni o effetti comunque importanti ma che non sò se metterei sullo stesso piano di importanza della GI.
radeon_snorky
14-05-2021, 11:34
il problema principale è che saranno sempre tecniche di rendering biased... anche quelle unbiased alla fine sono legate al tempo di calcolo quindi parziali per natura.
https://www.youtube.com/watch?v=5XYLagdL8eA
una roba del genere su vg a 60fps a chi serve?
l'intelligenza artificiale che aiuta a definire e percepire meglio il "mondo 3d" la trovo molto interessante perché può sopperire alla mancanza di dettaglio.
qualunque nome vogliate dargli :D
mrk-cj94
26-05-2021, 01:59
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M
quello è sicuramente uno dei problemi (a proposito di "umana" aggiungerei il discorso capelli, barba ecc).
Ma ben più rilevanti direi acqua (uno dei giochi migliori in tal senso è Sea of Thieves, peccato che lì l'acqua sia molto bella ma non altrettanto realistica) e soprattutto il fuoco
Imho non e' solo un discorso di rendering della pelle umana ma di tanti fatori legati al contesto per cui come dicevo inanzitutto il primo problema e' che attraverso il monitor gia' il limite e' li e non attraverso un VR dove il cervello sarebbe molto piu' (teoricamente) slegato dall'ambiente circostante.
Se si parla della sola grafica i passi da gigante sono stati fatti ma spesso in un ottica di giochi fantascientifici o storici o comunque non legato a contesti "reali". Dal momento che si parla di contesti in movimento basta solo il rendering di un personaggio che cammina per far cadere il castello di carte. Il cervello umano (fortunatamente) ancora capisce automaticamente cosa e' reale e cosa non lo e' a meno che non si parli di immagini renderizzate statiche per cui forse puo' venire qualche dubbio al limite.
Ma se si pensa al solo viso umano, ci sono 36 muscoli facciali ed e' difficile immaginare un rendering di un personaggio che riesca ad usarli tutti per il solo volto con la variabilita' e tutte le miriadi di sfumature che il volto umano fa nella normalità di qualsiasi azione. Per non parlare poi degli occhi. Se poi si passa al realismo dell'ambiente circostante come detto sopra un conto e' "credere" al realismo di una cosa di fantascienza, un conto una cosa che esiste e abituati a vedere. La sola acqua nel rendering aveva fatto passo da gigante con l'introduzione del Pixel Shading a suo tempo ma ancora oggi e' difficile immaginare un acqua renderizzata davvero realistica.
Ma poi c'e' tutto il contesto dei titoli che ormai sono troppo esagerati nelle ambizioni e non puntano a realismo quanto a sorprendere. Realistico puo' essere il rendering di una abitazione senza altro che il punto di vista in prima persona un po' come alcune tech demo. Bisognerebbe riconsiderare che "la storia" deve essere in un contesto realistico prima che tutta la immane complessità del rendering di quell' ambiente.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.