Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare

Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare

Negli ultimi anni il settore della grafica ha visto l'introduzione di tecnologie di intelligenza artificiale capaci di creare buona parte dell'immagine, andando ad affiancare il rendering nativo. Secondo NVIDIA non si tornerà indietro: il ricorso all'IA sarà sempre maggiore.

di pubblicata il , alle 07:31 nel canale Schede Video
NVIDIAGeForceAMDRadeonIntelArc
 
58 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
belta21 Settembre 2023, 10:03 #11
Bryan Catanzaro, [U]VP of Applied Deep Learning Research di NVIDIA[/U]


Beh "mercì a lu penis" cosa avrebbe dovuto dire?

NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"

Gyammy8521 Settembre 2023, 10:05 #12
Originariamente inviato da: Siux213
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.


Originariamente inviato da: cignox1
--arriva a definire il rendering in rasterizzazione tradizionale "fake", falso, un insieme scelte degli sviluppatori che non permettono di mostrare una grafica che sia effettivamente vicina alla realtà. Un punto su cui anche Jakub Knapik - VP Art and Global Art Director di CD Projekt RED - si è detto d'accordo.

Questo é il problema. Lumen di Unreal ha dato nuova linfa alla rasterizzazione (anche usando un pó di RT) ma il futuro é PT. E magari ci saremmo giá arrivati se invece di usare solo una frazione dei transistor a quello scopo per poter mantenere tutto il carrozzone, ci fossimo buttati a capofitto.
Anzi, ci saremmo giá arrivati se dopo la guerra per i triangoli al secondo, e i pixel al secondo, AMD e nVidia avessero ingaggiato la guerra per i raggi al secondo.

Siccome questo non é successo, il passaggio al PT non é mai avvenuto e si dá la colpa all'algoritmo dimenticando che 25 anni fa c'era chi seriamente sosteneva che calcolare una radice quadrata per ogni pixel non era fattibile e che quindi l'illuminazione per pixel non sarebbe mai stata realtá.


Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

Originariamente inviato da: RaZoR93
è possibile. La nuova componente di DLSS ("ray reconstruction" migliora significativamente la qualità del ray tracing, oltre ad aumentare le performance.


Secondo me meno pixel e raggi ci sono meglio è, se arriviamo a 1x1 pixel si vedrà tutto perfettamente matematicamente liscio e uniforme
Che schifo tutti quei pixel taglienti e tutta quella roba nitida
cignox121 Settembre 2023, 10:22 #13
--Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...
noppy121 Settembre 2023, 10:25 #14
Il futuro in ambito gaming sono i bei giochi, la grafica è sempre relativa, per quanto riguarda ad esempio la TV preferisco sempre gli anime 2D che le cose fate in 3D e li sono post rendering, sicuri che il futuro sia metteepoligoni , effetti RT , risoluzione media e poi mettere un "filtro" che aumenta la risolzione facendo altri calcoli per "intuire" come saranno colorati i pixel mancanti ? A me sembra la solita soluzione per non rompersi le scatole a ottimizzare i titoli o a fare marketing con 4/8K e 60/120 fps
ninja75021 Settembre 2023, 10:33 #15
Originariamente inviato da: quartz

- Ottimizzazione software (tra cui DLSS, FSR etc.)


la vera ottimizzazione software sarebbe da fare a priori senza quelle tecnologie, abbiamo giochi graficamente sbalorditivi di 10 anni fa, e nuova roba mediocre che fatica a girare a 60fps oggi
Gyammy8521 Settembre 2023, 10:33 #16
Originariamente inviato da: cignox1
--Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...


Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso
StylezZz`21 Settembre 2023, 10:51 #17
Queste tecnologie dovrebbero affiancare la forza bruta, e non sostituirla. Si vedono sempre di più schede castrate nell'hardware, con nomi ingannevoli (RTX 4050 vendute come 4060), perché tanto c'è il DLSS3 FG che con un click aumenta le performance, ma quando vengono messe in condizioni dove la vram e il bus sono saturati, ecco che la ''magia nera'' finisce. Solo in fascia alta si salvano (e anche qui hanno fatto la furbata di declassare le fasce) ma bisogna spendere cifre che io reputo folli.

Marketing at it's finest. Prossima scheda NON sarà nvidia

Originariamente inviato da: belta
Beh "mercì a lu penis" cosa avrebbe dovuto dire?

NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"



Hypergolic21 Settembre 2023, 10:59 #18
Alla grande.
Sono dell'idea che l'importante è il risultato, cioè che la grafica sia sempre meglio. Arrivarci con denoise e simili, o con potenza bruta, non da differenza.
L'unico problema, non da poco, è che dovrebbero cominciare a fare dei line up seri, con rapporti prezzi/pretazioni onesti, e non quella roba che ci propinano ora.
cignox121 Settembre 2023, 11:02 #19
--Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso

Boh, non capisco perché hai citato me per commentare quanto detto da loro. Il fatto che la rasterizzazione, per quanto abbia svolto ottimamente il suo lavoro negli ultimi decenni, abbia dei grossi problemi a scalare verso l'alto in termini di qualitá e che quindi necessita di continui trucchi & magheggi é roba nota da almeno un ventennio. Fino a poco tempo fa non c'erano alteranative, ora invece si e non serve avere conflitti di interessi per affermarlo.
Come detto, é cosa nota da anni a tutti gli addetti ai lavori.

Se poi tu trovi bizzarro che descrivano in quel modo la rasterizzazione ma poi contemporaneamente esaltino le loro tecnologie di "invenzione" dei contenuti, quello é un problema tuo con loro, non vedo perché citare me che di quelle tecnologie manco ho parlato e mi interessano pure relativamente poco :-)
mokoone21 Settembre 2023, 11:04 #20
Penso che il 99.999999999% dei frequentatori di "forummmme" non capisca che [B][U]quando si parla di OTTIMIZZAZIONE di parla del dialogo GPU-CPU-VRAM-RAM-SSD-sistema nel suo complesso e non di una impossibile "ottimizzazione della GPU"[/U][/B]

Non è che "ottimizzando al massimo" la GPU possa magicamente migliorare le sue performance [B][U]dove conta solo lei[/U][/B], è il sistema nel suo complesso che migliora il dialogo fra le varie parti e a quel punto ci sono i guadagni prestazionali.
Negli scenari GPU-limited non c'è "ottimizzazione" che tenga quindi l'unica via sono proprio le tecnologie di upscaling.

Magari prima di parlare fare un corso di sistemi di elaborazione o chiedo troppo?

E cmq sì, il raster è fake da 40 anni, basta considerare il problema irrisolvibile delle trasparenze: per chi non lo sapesse NON si può in raster risolverlo in modo ottimo quando il numero di oggetti trasparenti sovrapposti visibili a scena sale sopra un certo limite: finestra con dietro una tenda con dietro una bottiglia con dentro un liquido.....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^