Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   News (https://www.hwupgrade.it/forum/forumdisplay.php?f=51)
-   -   GTA 5 con grafica fotorealistica? Sì, merito di Intel e dell'intelligenza artificiale (https://www.hwupgrade.it/forum/showthread.php?t=2940481)


Redazione di Hardware Upg 13-05-2021 06:40

Link alla notizia: https://gaming.hwupgrade.it/news/vid...ale_97683.html

Intel, per ora solo a fini di studio, sta usando una rete neurale convoluzionale per cambiare i connotati a GTA V e renderne l'aspetto grafico più vicino a quello reale. Il risultato è molto interessante e l'approccio sembra potersi integrare con l'hardware e le tecnologie attuali.

Click sul link per visualizzare la notizia.

matsnake86 13-05-2021 07:08

Tutto bellissimo....
Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Non è il caso dei gta fortunatamente, ma ad ogni modo per quanto mi riguarda la grafica diventa di secondo piano rispetto a gameplay ed immersione.
Certo anche l'occhio vuole la sua parte, ma si possono fare videogiochi belli senza dover ricorrere alle tecniche di ultima generazione.
Nintendo è maestra in questo.

sertopica 13-05-2021 07:16

Ok, ma non mi sembra sia questo il contenuto della news. Si parla di una tecnologia sviluppata da intel, non di quanto i giochi rockstar siano noiosi. Barsport 2.0.

Doraneko 13-05-2021 07:24

Dai che così vedremo gta5 anche su PS 6

cignox1 13-05-2021 07:37

--Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Ovvio, ma i ricercatori che si occupano di tecnologie grafiche non si occupano dei gameplay o delle sceneggiature.

Se ben capisco dal solo video senza audio, é principalemente un tonemapper/color grader avanzato e guidato dalla AI, giusto? Per funzionare funziona, e immagino i risultati saranno persino migliori con una vera e propria GI. Certo, deve essere anche molto veloce, altrimenti tanto varrebbe investire quel tempo in un rendering di qualitá piú alta, peró é una tecnologia interessante.

TorettoMilano 13-05-2021 07:42

sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M

al135 13-05-2021 07:54

"ah ma il raytracing è solo una moda!11!!!" cit.

Pino90 13-05-2021 07:55

Quote:

Originariamente inviato da cignox1 (Messaggio 47403654)
--Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Ovvio, ma i ricercatori che si occupano di tecnologie grafiche non si occupano dei gameplay o delle sceneggiature.

Se ben capisco dal solo video senza audio, é principalemente un tonemapper/color grader avanzato e guidato dalla AI, giusto? Per funzionare funziona, e immagino i risultati saranno persino migliori con una vera e propria GI. Certo, deve essere anche molto veloce, altrimenti tanto varrebbe investire quel tempo in un rendering di qualitá piú alta, peró é una tecnologia interessante.

no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.

Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/

Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.

sertopica 13-05-2021 08:54

Come spiegato nel video viene utilizzato il g buffer e questo sistema si inserisce nel processo di rendering geometrico modificandone alcune proprieta', da quello che ho capito.

CrapaDiLegno 13-05-2021 08:59

Quote:

Poiché i G-buffer usati come input sono prodotti nativamente sulla GPU, il nostro metodo potrebbe essere integrato più profondamente nei motori di gioco, incrementando l'efficienza e possibilmente avanzando ulteriormente il livello di realismo
Sembra una implementazione a più basso livello del DLSS che può avere "conoscenza" delle parti di immagini che sta elaborando, diversamente dal DLSS che lo fa a immagine conclusa e quindi non discriminata nelle sue parti.

Serve però che sia supportato dalle SH, e la vedo dura quando le console manco una moltiplicazione 4x4 riescono a fare in tempo decente.
Forse nel 2025-2026 quando anche AMD ci metterà un pezzo di silicio che può fare più che testurizzare a manetta e poco altro.

Quote:

L'inferenza nel nostro approccio in questa implementazione attualmente non ottimizzata richiede mezzo secondo su una GeForce RTX 3090.
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?"

(che fa il paio con: i calcoli RT sono solo calcoli FP e quindi basta avare abbastanza core veloci per eseguirli, non servono gli RT core... peccato che non si sia quantificato il numero e la velocità di questi core per pareggiare le prestazioni di HW dedicato).

386DX40 13-05-2021 09:04

Che il fotorealismo sia sempre stato un auspicato traguardo e' senza dubbio. Quello che mi lascia dubbioso e' la necessità di una AI rispetto ad un gioco riprogrammato sulla base di un nuovo engine, nuove funzionalità hardware, etc..
E sul fotorealismo imho ogni epoca ha avuto il proprio "fotorealismo" ogni gioco all' apice della sua tecnologia nella propria epoca era rivoluzionario. La prima volta che giocai a Wolfeinstein3D la parte grafica simil-3D era talmente incredibile che rimasi spiazzato. Per molti altri giochi successivi per esempio non ebbi le stesse sensazioni pur anni luce avanti tecnicamente.
Oggigiorno si parla tanto di ray-tracing. Vent'anni fa lo ricordavo quando veniva chiamato "Global illumination" che forse e' meno "cool" come nome ma ad ogni modo si e' gia' ad un livello per cui forse non importa tanto concentrare poche migliorie se poi il setup di gioco resta sempre lo stesso e tutt'altro che "realistico".
Per dire che il VR puo' e spero sia davvero quel salto che farebbe sembrare "realistico" persino Doom del 1993 proprio per come rivoluziona il concetto di ambiente circostante che diventa il gioco stesso, isolandosi completamente dall' esterno.
"Poco importa" la risoluzione dei display o la qualità dell' illuminazione se poi il gioco per l'appassionato del "realismo" lo si gioca appunto sul divano e sul solito TV di casa.

Zappz 13-05-2021 09:07

Quote:

Originariamente inviato da Pino90 (Messaggio 47403671)
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.

Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/

Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.

Va a modificare un po' troppo le immagini, basta guardare le montagne che diventano ricoperte di vegetazione. Sicuramente in un video fa l'effetto wow, ma nel gioco andrà a creare troppi artefatti e glitch. Resta cmq un esempio impressionante, anche solo per come riesce a cambiare l'illuminazione.

CrapaDiLegno 13-05-2021 09:37

Quote:

Originariamente inviato da 386DX40 (Messaggio 47403769)
Che il fotorealismo sia sempre stato un auspicato traguardo e' senza dubbio. Quello che mi lascia dubbioso e' la necessità di una AI rispetto ad un gioco riprogrammato sulla base di un nuovo engine, nuove funzionalità hardware, etc..
E sul fotorealismo imho ogni epoca ha avuto il proprio "fotorealismo" ogni gioco all' apice della sua tecnologia nella propria epoca era rivoluzionario. La prima volta che giocai a Wolfeinstein3D la parte grafica simil-3D era talmente incredibile che rimasi spiazzato. Per molti altri giochi successivi per esempio non ebbi le stesse sensazioni pur anni luce avanti tecnicamente.
Oggigiorno si parla tanto di ray-tracing. Vent'anni fa lo ricordavo quando veniva chiamato "Global illumination" che forse e' meno "cool" come nome ma ad ogni modo si e' gia' ad un livello per cui forse non importa tanto concentrare poche migliorie se poi il setup di gioco resta sempre lo stesso e tutt'altro che "realistico".
Per dire che il VR puo' e spero sia davvero quel salto che farebbe sembrare "realistico" persino Doom del 1993 proprio per come rivoluziona il concetto di ambiente circostante che diventa il gioco stesso, isolandosi completamente dall' esterno.
"Poco importa" la risoluzione dei display o la qualità dell' illuminazione se poi il gioco per l'appassionato del "realismo" lo si gioca appunto sul divano e sul solito TV di casa.

Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.

Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.

Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.

Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai :muro: ).

Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.

Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.

D4N!3L3 13-05-2021 09:42

Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.

Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.

Detto ovviamente in modo molto semplicistico.

kamon 13-05-2021 09:57

Quote:

Originariamente inviato da TorettoMilano (Messaggio 47403658)
sinceramente la sensazione personale è che il fotorealismo sia pronto da tempo per oggetti/ambienti e il problema rimane principalmente uno: la pelle umana.
avere un gioco fotorealistico con pupazzi non deve proprio rendere benissimo, quando avremo risolto questa cosa si vedranno giochi totalmente fotorealistici.
su una scatoletta del 2013 puoi avere questa grafica del resto
https://www.youtube.com/watch?v=4vABPJ9GF8M

Io direi ancora di più i capelli, ancora non si trova una quadra tra il "gommoso" e l'effetto "subacqueo" con il movimento dei capelli che non segue bene i movimenti del corpo, ma li rende come se non avessero alcun peso o elasticità. Davvero orrendo da vedere.

CrapaDiLegno 13-05-2021 09:58

Quote:

Originariamente inviato da D4N!3L3 (Messaggio 47403847)
Da quello che ho capito l'IA confronta in tempo reale l'immagine renderizzata con un campione di immagini reali e cerca sempre le foto più simili a quello che vede in quel preciso istante.

Fatto ciò va a modificare l'immagine applicando tutta una serie di filtri/modifiche per replicare quello che vede nelle immagini reali.

Detto ovviamente in modo molto semplicistico.

La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.

Max_R 13-05-2021 10:05

Quote:

Originariamente inviato da matsnake86 (Messaggio 47403633)
Tutto bellissimo....
Peccato che della grafica non te ne fai una sega se il gioco è una noia mortale.
Non è il caso dei gta fortunatamente, ma ad ogni modo per quanto mi riguarda la grafica diventa di secondo piano rispetto a gameplay ed immersione.
Certo anche l'occhio vuole la sua parte, ma si possono fare videogiochi belli senza dover ricorrere alle tecniche di ultima generazione.
Nintendo è maestra in questo.

Hanno sperimentato con un gioco che ha un nome forte per un po' di pubblicità extra
Devo dire comunque che non ho mai adorato nemmeno io GTA
Divertito con il primo, il secondo ed il terzo, poi giocati gli altri in periodo di scazzo
Il quinto non l'avevo preso in grande considerazione ma siccome era oltre un anno che i miei amici volevano mi unissi a loro nel multi alla fine ho ceduto
Con loro è divertentissimo ed ho superato in steam il conteggio di qualsiasi altro gioco in circa un mese
Miglior gioco di sempre? Assolutamente no
Ma come multiplayer è vario e l'esperienza è molto buona

386DX40 13-05-2021 10:13

Quote:

Originariamente inviato da CrapaDiLegno (Messaggio 47403833)
Il ray tracing non è mai stato solo "Global Illumination" da nessuna parte.
La global illumination è solo una parte delle caratteristiche della luce presente in una scena.
Il ray tracing si è sempre caratterizzato per essere un simulatore completo della luce, per cui anche tutti gli altri effetti sono calcolati tramite esso, non solo la GI.

Il problema principale è che fino ad oggi per l'utente il miglioramento delle immagini veniva solo attraverso l'aumento di risoluzione. 512p, 720p, 1080p, 2160p (o 4K)... ma l'immagine è sempre stata la stessa, quella sintetica, con lo stesso numero (infimo) di poligoni e con effetti luce completamente finti.
Mai si sono posti la domanda: ma come è che sulla vecchia TV CRT con la risoluzione 512p le immagini dei film erano comunque realistiche?
Poi hanno scoperto il fullHD e i BluRay, ma anche lì non si sono posti la domanda: ma guarda che scene realistiche in Jurrasik Park/Avatar/serie infinita di film con tecniche di raytracing applicate.
No, bisogna giocare n 4K "tutto maxato" per avere qualità grafica. E se il PC/GPU/motore non che la fa a raggiungere i 60FPS... schifezza, schifezza, schifezza, no ottimizzazione, ma come è possible nel 20xx non riuscire a giocare in 4K a 60FPS... e roba del genere.
La qualità dell'immagine fa nulla, il gioco DEVE ANDARE IN 4K@60FPS e BASTA! Tutto maxxato, ovviamente, sia che questo implichi che venga calcolato anche il modello della formica che stai schiacciando con il personaggio virtuale, oppure che pompi solo le texture lasciando i modelli geometrici quelli della XBOX360. Se non va a 60FPS, schifezza.

Oggi il raytracing (ibrido, ma sempre meno man mano che la potenza di calcolo aumenta e con il raster più di un tot non si può andare nel simulare certi effetti reali) permette di avere una qualità grafica superiore, ma alcune fette di utenza ancora a criticare: non vedo la differenza, anzi era meglio quando la luce era fintissima che manco nei fumetti, preferisco i 150FPS piuttosto che le ombre e i riflessi reali, e roba del genere.

Purtroppo non è che "ogni periodo ha avuto il suo fotorealismo" (quello uno è non si scappa), il fatto è che ogni periodo ha avuto la sua ondata di utenti più o meno capaci di comprendere cosa stava accadendo.
Con il tempo anche i più duri di comprendonio hanno capito i miglioramenti e non hanno più sostenuto certe sciocchezze (ricordo i tempi di Voodoo con Glide a 16 bit e TNT a 32bit.. eh, ma le Glide sono più veloci,.. peccato che il cielo nei giochi sembrava un arcobaleno invece che una cosa uniforme, e parlo da possessore della Voodoo3.. quanto mai :muro: ).

Oggi il fotorealismo non è ottenibile per semplice e puro calcolo della pipeline di rendering. Non ce la si fa. E di più lo sarà fintanto che buona parte del silicio presente sulle GPU sarà ancora dedicato a fare roba raster.
Ecco perché si ricorre ad "aiuti esterni" come la AI per sistemare le cose secondo modelli precalcolati.
L'idea non è comunque malsana, quello che conta è il risultato finale, e se 10 anni fa bastava creare una cube map o un voxel per simulare un particolare effetto, oggi per avere qualità superiore è necessario passare a qualcosa con potenza di fuoco maggiore. Sempre simulazione/riduzione/semplificazione si sta facendo. Ma a livelli di complessità differenti.

Ovvio che sotto serve il ferro che sia in grado di fare tutto ciò. Ma finché si crea e vende HW in monopolio per le console da gioco senza tale capacità, l'avanzamento di questo tipo di qualità sarà sempre rallentato.

Per quel che ricordo da 3DStudio Max la Global illumination la consideravo davvero quella tecnica che lungi dall'essere allora (ai tempi dei primi Pentium IV) calcolabile in tempo reale, avrebbe permesso quel salto piu' lungo verso un fotorealismo. Una stanza bianca con una finestra e un punto luce esterno attraverso la suddetta tecnica di illuminazione globale risulta piuttosto e anche piu' "realistica" di ambienti con piu' poligoni, dimensioni delle texture, effetti di bump mapping, anti-aliasing o quant'altro IMHO. Immagino che con ray tracing si intendano anche altre logiche nella illuminazione ma IMHO opinione personale gia' solo l'illuminazione globale mai stata possibile in tempo reale fino forse ad oggigiorno, puo' davvero permettere quel salto in piu' ma non basta chiaro.

Sul fatto che oggigiorno si parla piu' di risoluzione o frame rate a prescindere dalle singole tecniche sono d' accordo e sono d'accordissimo sul discorso dei monitor CRT. Ma quando dicevo che ogni epoca (tra virgolette) "ha avuto il proprio fotorealismo" intendevo che alla fine si parla del delta di percezione che c'e' tra cio' che siamo abituati a vedere prima a confronto con il massimo che puo' essere renderizzato oggi.
Il cervello (se vuole proprio) riconosce comunque cio' che (sa' gia') non e' realistico dalla simulazione di uno spazio tridimensionale. Quella curva di miglioramento forse tende ad appiattirsi all' infinito; ma oggigiorno il livello e' gia' tale da pensare di "ingannare" il cervello ma come accennavo basta poco per far cadere tutto. In primis appunto il setup di gioco per cui solo il VR puo' essere la giusta direzione. In secundis a meno che non si parli di giochi di simulazione in cui c'e' tutto tranne che esseri viventi, basta il rendering di una faccia umana magari non statica e tanti saluti al fotorealismo. Ma col tempo ho capito che non e' poi cosi' importante a prescindere dall' esercizio tecnico per sè.

Imho se si parla di fotorealismo come sola grafica non si considera invece l'importanza del "realismo" nel suo insieme fatto di sensazioni a cui partecipano molti altri fattori che comunque contribuiscono al realismo (es. la fisica, il contesto in-game, i suoni). Un esempio e' il fattore "spavento". Un gioco degli anni 90 puo' ancora suscitare spavento pur magari renderizzato attraverso il set delle Directx6? Certo che si e in tal modo si puo' definire "realistico" a suo modo perche' suscita nel giocatore un emozione reale se il contesto del gioco non e' appunto surreale (es. fantascienza o cose simili).

EDIT: aggiungo, sulla Voodoo3 sono d'accordo ma va tutto contestualizzato storicamente e se ne discute spesso anche tra grandi appassionati di hardware retro'. La Voodoo3 con i suoi "22bit interni" era l'esempio di un prodotto che era probabilmente nato piu' come "di transizione" per prendere tempo che non come chip "next generation". Nell' epoca in cui e' uscito avrebbe ancora avuto un po' di senso (se per prendere tempo) considerando che effetivamente al lancio risultava essere una scheda veloce con il supporto totale alle API dell' epoca ma con tutti i punti discutibili ormai vecchiotti delle precedenti versioni. Ma la scelta di farsi le schede in proprio in un periodo in cui "mesi" contavano come "anni" e la concorrenza era gia' in parte avanti, fu un passo probabilmente sbagliato e interviste in tal merito ne hanno discusso con le persone che ci hanno lavorato e le opinioni parevano convergere su questo punto. Il Voodoo3 IMHO era un brand troppo prezioso da un punto di vista marketing per essere usato su una sorta di Banshee II per cui sia quel chip (l' Avenger) sia il VSA-100 non avrebbero mai dovuto vedere la luce per puntare tutto su una nuova GPU come ormai era chiaro tutti stessero facendo, Nvidia e S3 in primis. E possibilmente senza il nome Voodoo che ormai era di fatto "consumato" dall' esperienza del Voodoo3 che dignitosamente aveva pero' giocato in difensiva.
Ma in quel settore spesso una scelta che magari fa perdere un treno non e' detto che permette poi di prendere il prossimo. E le cose sono andate come sono andate. Le api Glide erano gia' da lasciare indietro appena accorti che le Directx e OpenGL avevano gia' ormai superato ogni aspettativa.

D4N!3L3 13-05-2021 10:21

Quote:

Originariamente inviato da CrapaDiLegno (Messaggio 47403884)
La ricerca, scelta e comparazione delle immagini viene fatta durante la fase di training del modello, non in fase di inferenza che è solo l'applicazione "delle regole calcolate a priori dal modello" (detto in egual modo in termini semplicistici).
Durante il calcolo in real time non avresti il tempo per fare tutto quello che hai detto, e non avresti certo a disposizione il database di milioni di immagini da cui attingere.

L'ho guardato molto velocemente, grazie del chiarimento.

In effetti mi pareva strano facesse in real-time tutti quei calcoli ma visto che fanno vedere molto poco ho pensato a situazioni create ad-hoc.

al135 13-05-2021 11:51

Quote:

Originariamente inviato da Techie (Messaggio 47404077)
Una moda forse no, ma una tech preview al momento direi di sì - il ray-tracing dico, non questo.
Questo... per i risultati che ottiene e l'assenza di artefatti macroscopici devo dire che mi stupisce abbastanza (caveat: ho guardato il video sul cell).
L'AI (o sistemi esperti o quello che vi pare) ha avuto uno sviluppo realmente folle in un tempo di un paio d'anni solamente... siamo già a gradi di maturità impressionanti per quanto mi riguarda. Magari non saremo ancora alla perfezione, ma il rateo di progresso fa ben sperare, e per applicazioni in tantissimi campi diversi.

si, ma nell'articolo originale menziona chiaramente la necessità di avere a disposizione la tecnologia raytracing per poter ottenere questi risultati. poi che al momento sia ancora "non completa" è solo per un limite di calcolo delle macchine


Tutti gli orari sono GMT +1. Ora sono le: 22:13.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.

1