PDA

View Full Version : Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare


Redazione di Hardware Upg
21-09-2023, 07:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/schede-video-addio-alla-forza-bruta-dlss-e-intelligenza-artificiale-sono-qui-per-restare_120270.html

Negli ultimi anni il settore della grafica ha visto l'introduzione di tecnologie di intelligenza artificiale capaci di creare buona parte dell'immagine, andando ad affiancare il rendering nativo. Secondo NVIDIA non si tornerà indietro: il ricorso all'IA sarà sempre maggiore.

Click sul link per visualizzare la notizia.

quartz
21-09-2023, 07:59
D'altronde la miniaturizzazione dei transistors è sempre più difficoltosa, e con i 3 nm di TSMC siamo già arrivati a pitch di una dozzina di atomi.

Le strade percorribili sono tre:

- Consumi sempre più elevati
- Calcolo quantistico
- Ottimizzazione software (tra cui DLSS, FSR etc.)

Siux213
21-09-2023, 08:07
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.

Rubberick
21-09-2023, 08:25
più che altro la potenza bruta di calcolo l'ottieni anche se cambi materiale
il grafene tanto sbandierato non dovrebbe permettere frequenze enormemente più elevate?

io78bis
21-09-2023, 09:10
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.

Sicuramente manca chi crede nelle idee, ma in Italia mancano anche le persone con idee valide

io78bis
21-09-2023, 09:12
più che altro la potenza bruta di calcolo l'ottieni anche se cambi materiale
il grafene tanto sbandierato non dovrebbe permettere frequenze enormemente più elevate?

I nuovi materiali sono sempre sbalorditivi finché rimangono nel laboratorio poi li porti sugli impianti e ti accorgi che forse non è tutto così semplice o economicamente sostenibile

UtenteHD
21-09-2023, 09:16
Chissa' quante volte ho visto le foto per vedere le differenze tra una e l'altra per cercare di capire se ha senso avere un enorme consumo di potenza per le poche migliorie mostrate, in questo caso per le foto mostrate ci deve essre qualcosa che non va, e' impossibile che senza DLSS non si veda i fari dell'auto, fino ad ora come si e' giocato? Impossibile.

supertigrotto
21-09-2023, 09:29
O forse passeremo alla fotonica,resta il fatto che per fare funzionare le schede,di tutti i produttori, c'è bisogno di frame falsi,questo fa in poche parole la IA.

cignox1
21-09-2023, 09:31
--arriva a definire il rendering in rasterizzazione tradizionale "fake", falso, un insieme scelte degli sviluppatori che non permettono di mostrare una grafica che sia effettivamente vicina alla realtà. Un punto su cui anche Jakub Knapik - VP Art and Global Art Director di CD Projekt RED - si è detto d'accordo.

Questo é il problema. Lumen di Unreal ha dato nuova linfa alla rasterizzazione (anche usando un pó di RT) ma il futuro é PT. E magari ci saremmo giá arrivati se invece di usare solo una frazione dei transistor a quello scopo per poter mantenere tutto il carrozzone, ci fossimo buttati a capofitto.
Anzi, ci saremmo giá arrivati se dopo la guerra per i triangoli al secondo, e i pixel al secondo, AMD e nVidia avessero ingaggiato la guerra per i raggi al secondo.

Siccome questo non é successo, il passaggio al PT non é mai avvenuto e si dá la colpa all'algoritmo dimenticando che 25 anni fa c'era chi seriamente sosteneva che calcolare una radice quadrata per ogni pixel non era fattibile e che quindi l'illuminazione per pixel non sarebbe mai stata realtá.

RaZoR93
21-09-2023, 09:50
Chissa' quante volte ho visto le foto per vedere le differenze tra una e l'altra per cercare di capire se ha senso avere un enorme consumo di potenza per le poche migliorie mostrate, in questo caso per le foto mostrate ci deve essre qualcosa che non va, e' impossibile che senza DLSS non si veda i fari dell'auto, fino ad ora come si e' giocato? Impossibile.è possibile. La nuova componente di DLSS ("ray reconstruction") migliora significativamente la qualità del ray tracing, oltre ad aumentare le performance.

h.rorschach
21-09-2023, 09:55
DLSS è ormai magia nera. Già lo scaler neurale era assurdo quando venne rivelato al lancio di DLSS2; poi FrameGen ha spostato la lancetta a magia nera; Ray Reconstruction ha perfezionato quanto era già incredibile. FG a parte, è tutto disponibile anche su architetture vecchie. Fa piacere che AMD ed Intel stiano sviluppando le loro soluzioni platform-agnostic, è un chiaro segnale che queste tecnologie sono qui per restare e non posso che esserne contento. Non c'è niente di più bello che vedere la GPU lavorare a 70W e 43c per darmi Path Tracing su CP2077 a 60fps.

belta
21-09-2023, 10:03
Bryan Catanzaro, VP of Applied Deep Learning Research di NVIDIA

Beh "mercì a lu penis" cosa avrebbe dovuto dire?

NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"

:rotfl:

Gyammy85
21-09-2023, 10:05
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.

--arriva a definire il rendering in rasterizzazione tradizionale "fake", falso, un insieme scelte degli sviluppatori che non permettono di mostrare una grafica che sia effettivamente vicina alla realtà. Un punto su cui anche Jakub Knapik - VP Art and Global Art Director di CD Projekt RED - si è detto d'accordo.

Questo é il problema. Lumen di Unreal ha dato nuova linfa alla rasterizzazione (anche usando un pó di RT) ma il futuro é PT. E magari ci saremmo giá arrivati se invece di usare solo una frazione dei transistor a quello scopo per poter mantenere tutto il carrozzone, ci fossimo buttati a capofitto.
Anzi, ci saremmo giá arrivati se dopo la guerra per i triangoli al secondo, e i pixel al secondo, AMD e nVidia avessero ingaggiato la guerra per i raggi al secondo.

Siccome questo non é successo, il passaggio al PT non é mai avvenuto e si dá la colpa all'algoritmo dimenticando che 25 anni fa c'era chi seriamente sosteneva che calcolare una radice quadrata per ogni pixel non era fattibile e che quindi l'illuminazione per pixel non sarebbe mai stata realtá.

Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

è possibile. La nuova componente di DLSS ("ray reconstruction") migliora significativamente la qualità del ray tracing, oltre ad aumentare le performance.

Secondo me meno pixel e raggi ci sono meglio è, se arriviamo a 1x1 pixel si vedrà tutto perfettamente matematicamente liscio e uniforme
Che schifo tutti quei pixel taglienti e tutta quella roba nitida

cignox1
21-09-2023, 10:22
--Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...

noppy1
21-09-2023, 10:25
Il futuro in ambito gaming sono i bei giochi, la grafica è sempre relativa, per quanto riguarda ad esempio la TV preferisco sempre gli anime 2D che le cose fate in 3D e li sono post rendering, sicuri che il futuro sia metteepoligoni , effetti RT , risoluzione media e poi mettere un "filtro" che aumenta la risolzione facendo altri calcoli per "intuire" come saranno colorati i pixel mancanti ? A me sembra la solita soluzione per non rompersi le scatole a ottimizzare i titoli o a fare marketing con 4/8K e 60/120 fps

ninja750
21-09-2023, 10:33
- Ottimizzazione software (tra cui DLSS, FSR etc.)

la vera ottimizzazione software sarebbe da fare a priori senza quelle tecnologie, abbiamo giochi graficamente sbalorditivi di 10 anni fa, e nuova roba mediocre che fatica a girare a 60fps oggi

Gyammy85
21-09-2023, 10:33
--Quindi riassumendo il tutto uno di nvidia, insieme ad uno di cdproject, che dal 2011 piglia soldi da nvidia e senza nvidia lavorerebbe al supermercato, afferma che il raster è sostanzialmente un fake, mentre la loro grande tecnologia che inventa tutto da una manciata di informazioni precalcolate a monte ed eseguite su hardware nvidia è la vera visual fidelity
Complimenti

"riassumendo" cosa? Non certo quello che ho detto io, visto che ho parlato di path tracing...
E comunque che la rasterizzazione é una pila di trucchi e magheggi messa insieme a martellate nel corso di 30 anni non é certo una novitá: forse sai giá come funzionano RT e rasterizzazione, ma se non lo sai, vai a vedere il banalissimo problema delle ombre come lo risolve uno e come lo risolve l'altro e poi dimmi quale delle due é la soluzione idealmente migliore.
E siccome questo vale per *tutto*, per ogni singolo aspetto del rendering, é facile capire come prima ce ne sbarazziamo e meglio é...

Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso

StylezZz`
21-09-2023, 10:51
Queste tecnologie dovrebbero affiancare la forza bruta, e non sostituirla. Si vedono sempre di più schede castrate nell'hardware, con nomi ingannevoli (RTX 4050 vendute come 4060), perché tanto c'è il DLSS3 FG che con un click aumenta le performance, ma quando vengono messe in condizioni dove la vram e il bus sono saturati, ecco che la ''magia nera'' finisce. Solo in fascia alta si salvano (e anche qui hanno fatto la furbata di declassare le fasce) ma bisogna spendere cifre che io reputo folli.

Marketing at it's finest. Prossima scheda NON sarà nvidia :fuck:

Beh "mercì a lu penis" cosa avrebbe dovuto dire?

NV Oste: "no guardate sta roba è una cag#t4 che potrebbe avere risvolti tragicomici per tutto il settore"

:rotfl:

:asd:

Hypergolic
21-09-2023, 10:59
Alla grande.
Sono dell'idea che l'importante è il risultato, cioè che la grafica sia sempre meglio. Arrivarci con denoise e simili, o con potenza bruta, non da differenza.
L'unico problema, non da poco, è che dovrebbero cominciare a fare dei line up seri, con rapporti prezzi/pretazioni onesti, e non quella roba che ci propinano ora.

cignox1
21-09-2023, 11:02
--Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso

Boh, non capisco perché hai citato me per commentare quanto detto da loro. Il fatto che la rasterizzazione, per quanto abbia svolto ottimamente il suo lavoro negli ultimi decenni, abbia dei grossi problemi a scalare verso l'alto in termini di qualitá e che quindi necessita di continui trucchi & magheggi é roba nota da almeno un ventennio. Fino a poco tempo fa non c'erano alteranative, ora invece si e non serve avere conflitti di interessi per affermarlo.
Come detto, é cosa nota da anni a tutti gli addetti ai lavori.

Se poi tu trovi bizzarro che descrivano in quel modo la rasterizzazione ma poi contemporaneamente esaltino le loro tecnologie di "invenzione" dei contenuti, quello é un problema tuo con loro, non vedo perché citare me che di quelle tecnologie manco ho parlato e mi interessano pure relativamente poco :-)

mokoone
21-09-2023, 11:04
Penso che il 99.999999999% dei frequentatori di "forummmme" non capisca che quando si parla di OTTIMIZZAZIONE di parla del dialogo GPU-CPU-VRAM-RAM-SSD-sistema nel suo complesso e non di una impossibile "ottimizzazione della GPU" :fagiano:

Non è che "ottimizzando al massimo" la GPU possa magicamente migliorare le sue performance dove conta solo lei, è il sistema nel suo complesso che migliora il dialogo fra le varie parti e a quel punto ci sono i guadagni prestazionali.
Negli scenari GPU-limited non c'è "ottimizzazione" che tenga quindi l'unica via sono proprio le tecnologie di upscaling.

Magari prima di parlare fare un corso di sistemi di elaborazione o chiedo troppo? :D

E cmq sì, il raster è fake da 40 anni, basta considerare il problema irrisolvibile delle trasparenze: per chi non lo sapesse NON si può in raster risolverlo in modo ottimo quando il numero di oggetti trasparenti sovrapposti visibili a scena sale sopra un certo limite: finestra con dietro una tenda con dietro una bottiglia con dentro un liquido.....

belta
21-09-2023, 11:08
L'unico problema, non da poco, è che dovrebbero cominciare a fare dei line up seri, con rapporti prezzi/pretazioni onesti, e non quella roba che ci propinano ora.

"credaghe ai UFO"

Se "il pacchetto verde" diventa lo standard il rischio è ritrovarsi la fascia bassa a 700€ con user + password per accedere al pannello driver e l'abbonamento "sblocca gli effetti grafici ollain" a N €/mese.

Stesso discorso varrebbe se al posto di Nvidia ci fosse Intel, Amd, PowerVR, Matrox, RavaFava 3d, ecc...

mokoone
21-09-2023, 11:09
"credaghe ai UFO"
Berghèm? :asd: (crèdéga)

UtenteHD
21-09-2023, 11:17
Penso che il 99.999999999% dei frequentatori di "forummmme" non capisca che [B][U]quando si parla di OTTIMIZZAZIONE di parla del dialogo GPU-CPU-VRAM-RAM-SSD....

Non so se me ne intendo o no, io non capisco perche' aumentare la potenza per consumare ancora di piu' e quindi spendere molto di piu' in bolletta.
Io uso undervolt per GPU, limito CPU 8+8 a max 2,5Ghz, monitor da max 15watt in eco ecc.. e gioco, si limitando la risoluzione, frame e filtri, ma con PC da gioco con consumo max (con monitor) 80-90Watt.
Questo era esempio per capire se rientro di chi ne capisce qualcosa o no, grazie.

belta
21-09-2023, 11:21
Berghèm? :asd: (crèdéga)

No, sono più a est della vecchia Repubblica :asd:

mokoone
21-09-2023, 11:28
Non so se me ne intendo o no, io non capisco perche' aumentare la potenza per consumare ancora di piu' e quindi spendere molto di piu' in bolletta.
Io uso undervolt per GPU, limito CPU 8+8 a max 2,5Ghz, monitor da max 15watt in eco ecc.. e gioco, si limitando la risoluzione, frame e filtri, ma con PC da gioco con consumo max (con monitor) 80-90Watt.
Questo era esempio per capire se rientro di chi ne capisce qualcosa o no, grazie.
E' quello che faccio anche io, mi riferivo a chi crede che "ottimizzare" un motore grafico (per un gioco) significhi ottimizzare il codice GPU-bound che è già tirato al massimo da 15 anni :fagiano: (cioè da quando i compilatori degli shader fanno già loro l'ottimizzazione, soprattutto da quando è arrivato LLVM e in generale tutto il mondo delle IR, le "rappresentazioni intermedie" che permettono di automatizzare la traduzione appropriata architettura per architettura.....e sopra tutto metteteci oggi pure l' AI, dico per ottimizzare a livello di set di istruzioni di una architettura di calcolo, perchè può fare benissimo anche quel compito andando oltre le euristiche dei compilatori)
Non c'è spazio lì per "ottimizzare", quello che si ottimizza è il dialogo fra chi offre risorse in TUTTO il sistema: per questo ad esempio è nato DirectStorage ma posso fare mille esempi di cosa sia concretamente "ottimizzare" (usare le capabilities offerta da DirectStorage o ReBar l'altro ieri, 20 anni fa dall'AGP o dal SATA, ecc. ecc. ecc. )

Se qualcuno pensa che oggi "ottimizzare" significhi andare a guardare la rappresentazione binaria interna alla GPU delle singole istruzioni come se fossimo negli anni '80.....beh può continuare a vivere nel suo delirante mondo parallelo.

Gyammy85
21-09-2023, 11:40
--Il sunto di tutto il polpettone è quello, parlano per se stessi, sapendo bene di avere il seguito di fan appresso

Boh, non capisco perché hai citato me per commentare quanto detto da loro. Il fatto che la rasterizzazione, per quanto abbia svolto ottimamente il suo lavoro negli ultimi decenni, abbia dei grossi problemi a scalare verso l'alto in termini di qualitá e che quindi necessita di continui trucchi & magheggi é roba nota da almeno un ventennio. Fino a poco tempo fa non c'erano alteranative, ora invece si e non serve avere conflitti di interessi per affermarlo.
Come detto, é cosa nota da anni a tutti gli addetti ai lavori.

Se poi tu trovi bizzarro che descrivano in quel modo la rasterizzazione ma poi contemporaneamente esaltino le loro tecnologie di "invenzione" dei contenuti, quello é un problema tuo con loro, non vedo perché citare me che di quelle tecnologie manco ho parlato e mi interessano pure relativamente poco :-)

Ho citato te perché c'era un estratto, non per citare te
Quindi usare l'invenzione del frame non è un trucco, è così che bisogna fare, avere un frame che esiste invece è un magheggio
Insomma basta ragionare al contrario e tutto diventa chiaro

Perché poi questo ottimismo si traduce in passar sopra latenze elevate framerate instabile glitch e oggetti che spariscono, perché tanto basta aspettare il dlss4.5 e tutto si aggiusta

mokoone
21-09-2023, 11:46
Ho citato te perché c'era un estratto, non per citare te
Quindi usare l'invenzione del frame non è un trucco, è così che bisogna fare, avere un frame che esiste invece è un magheggio
Insomma basta ragionare al contrario e tutto diventa chiaro

Perché poi questo ottimismo si traduce in passar sopra latenze elevate framerate instabile glitch e oggetti che spariscono, perché tanto basta aspettare il dlss4.5 e tutto si aggiusta
Tu ce l'hai a morte con Nvidia ed è evidente, ma guarda che tecniche di predizione del frame esistono da sempre, solo che prima si procedeva un po' come con i cache miss, cioè generando un frame dal motore invece che "intuirlo" dal contesto esattamente come con la cache torni in memoria e non ti "inventi" il dato dal contesto.

La questione della frame generation non riguarda la fedeltà (per quella c'è al massimo la predizione classica alla Kalman appunto), riguarda la fluidità per accontentare chi ha comprato monitor con refresh alti.....quindi lì devi guardare altrove (ovviamente mi dirai "Eh chi ha inventato quella nicchia che prima non c'era? Nvidia col G-Sync...." e io ti risponderei che le nicchie qualcuno deve cmq inventarle per poi riempirle nel paradigma di un mercato con dinamiche darwiniste, non è NVidia ma il mercato intero che funziona così, cioè a proporti "cose ti cui non hai bisogno" per poi renderle "importanti" se non necessarie).

La FG è consigliabile solo per chi ha GIA' 60 FPS e punta ai 120/144.....ma tu guarda, ATI (non AMD) proponeva nel 2004/2005 il TAA con lo stesso criterio (ma probabilmente l'avete rimosso, sono esistite GPU ATI che permettevano l'AA temporale solo che era consigliabile attivarlo solo dai 30 FPS senza AA in su)

Alodesign
21-09-2023, 11:50
Ma a livello lavorativo, queste tecnologie software come aiutano?
Adobe o Chaos le implementano? Direi di no.

Quindi la forza bruta serve ancora?

mokoone
21-09-2023, 11:51
Trovato: https://www.hwupgrade.it/news/12315.html

28 Aprile 2004

mokoone
21-09-2023, 11:52
Ma a livello lavorativo, queste tecnologie software come aiutano?
Adobe o Chaos le implementano? Direi di no.

Quindi la forza bruta serve ancora?
Servono per chi fa il designer e deve presentare una scena in "tempo reale" (non sti qui a spiegare perchè questa espressione è sempre usata male ma fa niente, non voglio risultare più professorone di quanto appaio già :asd: )
OFFLINE non servono, serve la forza bruta per la massima precisione (vedi CAD).

Alodesign
21-09-2023, 11:55
Servono per chi fa il designer e deve presentare una scena in "tempo reale" (non sti qui a spiegare perchè questa espressione è sempre usata male ma fa niente, non voglio risultare più professorone di quanto appaio già :asd: )
OFFLINE non servono, serve la forza bruta per la massima precisione (vedi CAD).

E allora il titolo del topic è sbagliato.
Oppure la risposta è: NO

mokoone
21-09-2023, 11:56
E allora il titolo del topic è sbagliato.
Oppure la risposta è: NO
E' clickbait come tutti i titoli per il pubblico medio che non è fatto da utilizzatori di CAD ma videogiocatori :D
Per chi con la GPU ci progetta un reattore (parlo proprio del classico disegno con le sole linee) non va mica bene ovviamente :asd:

Ma ormai le GPU sono diventate general purpose, quindi l'HW del DLSS va benissimo anche per fare inferenza in fluidodinamica computazionale (esempio classico dove serve potenza e non basta mai, almeno usando i modelli matematici attualmente usati). Nella tesina di laurea ad esempio, sopra difficile che basti il PC di casa :asd:

Alodesign
21-09-2023, 11:57
E' clickbait come tutti i titoli per il pubblico medio che non è fatto da utilizzatori di CAD ma videogiocatori :D

Qui di videogiocatori ne ho incontrati ben pochi :stordita:

Gyammy85
21-09-2023, 12:10
Tu ce l'hai a morte con Nvidia ed è evidente, ma guarda che tecniche di predizione del frame esistono da sempre, solo che prima si procedeva un po' come con i cache miss, cioè generando un frame dal motore invece che "intuirlo" dal contesto esattamente come con la cache torni in memoria e non ti "inventi" il dato dal contesto.

La questione della frame generation non riguarda la fedeltà (per quella c'è al massimo la predizione classica alla Kalman appunto), riguarda la fluidità per accontentare chi ha comprato monitor con refresh alti.....quindi lì devi guardare altrove (ovviamente mi dirai "Eh chi ha inventato quella nicchia che prima non c'era? Nvidia col G-Sync...." e io ti risponderei che le nicchie qualcuno deve cmq inventarle per poi riempirle nel paradigma di un mercato con dinamiche darwiniste, non è NVidia ma il mercato intero che funziona così, cioè a proporti "cose ti cui non hai bisogno" per poi renderle "importanti" se non necessarie).

La FG è consigliabile solo per chi ha GIA' 60 FPS e punta ai 120/144.....ma tu guarda, ATI (non AMD) proponeva nel 2004/2005 il TAA con lo stesso criterio (ma probabilmente l'avete rimosso, sono esistite GPU ATI che permettevano l'AA temporale solo che era consigliabile attivarlo solo dai 30 FPS senza AA in su)

A me da fastidio l'applezzazione di questo settore, inventa tutto nvidia, anzi no, tutto esisteva ma era tremendamente povero e poco professionale, da parte di gente che fino a ieri stava col blackberry perché era tanto business like
L'aa temporale era per migliorare l'aa, lo potevi mettere su tutti i giochi volendo, usato per poco poi, che paragone è?
Poi sto gioco alla cinquantesima run uno lo mette pure da parte, o no?

cignox1
21-09-2023, 12:11
--Quindi usare l'invenzione del frame non è un trucco, è così che bisogna fare, avere un frame che esiste invece è un magheggio
Insomma basta ragionare al contrario e tutto diventa chiaro

Éh? Continui a criticare, rispondendo a me, qualcosa di cui io neppure ho parlato! Se vuoi usare la famosa tecnica dello strawman, almeno fallo bene XD

Io sto parlando di algoritmi di rendering, in particolare rasterizzazione vs path tracing, e commentavo la loro dichiarazione che la rasterizzazione é "fake" ricordando che lo si é sempre saputo e che i suoi limiti sono sempre stati evidenti (e lo diventano ogni giorno sempre di piú con l'aumentare delle esigenze dei giocatori). Sostenevo poi - riformulando - che il path tracing ottiene "out of the box" e in modo elegante quello che la rasterizzazione fa con mille trucchi e magheggi accatastati uno sull'altro in decenni di avanzamenti.

Quello di cui NON ho parlato, é delle tecniche di generazione dei fotogrammi. Quello NON fa parte del path tracing, non fa parte dell'algoritmo di rendering e NON va incluso in una discussione sui meriti e i difetti delle varie tecniche.
É un magheggio? Probabile. Possiamo certamente parlarne. Ma io NON l'ho fatto nel messaggio che hai citato e continui ad usare lo strawman con me in maniera fastidiosamente esplicita.

-Quindi usare l'invenzione del frame non è un trucco
Io NON l'ho detto. NON ho proprio parlato di quella tecnica. OK?

mokoone
21-09-2023, 12:45
L'aa temporale era per migliorare l'aa, lo potevi mettere su tutti i giochi volendo, usato per poco poi, che paragone è?
Che erano frame generati "accettabili" solo da 30 FPS in su altrimenti notavi il pattern di campionamento che si alternava :asd: , come per il DLSS3 dove gli arfefatti introdotti dalla generazione "intuitiva" del frame non li noti da 60 in su.

E' roba fatta per chi vuole usare il monitorone cazzi&mazzi "io gioco a 144 FPS!!1111" (magari con la fisica che risulta alterata perchè di base il tick dell'engine fisico è a 60 Hz ma fa niente :asd: ad esempio in RAGE se sblocchi il tick al primo salto ti ritrovi fuori dalla mappa di gioco), per arrivare a 60 FPS ci si arriva senza problemi entro i 100W con una 3060 a 2560x1440 e dettagli alti praticamente in ogni titolo grazie al DLSS su Quality :fagiano:

Nel mio caso (e non penso solo mio) DLSS=meno corrente da pagare senza comprare una GPU nuova (la tanto vituperata 4060 alla fine fa la stessa cosa, ma vedo che anche a cappare al 60% di Power Limit la 3060 non si comporta poi così male grazie al DLSS)

Gyammy85
21-09-2023, 12:52
Che erano frame generati "accettabili" solo da 30 FPS in su altrimenti notavi il pattern di campionamento che si alternava :asd: , come per il DLSS3 dove gli arfefatti introdotti dalla generazione "intuitiva" del frame non li noti da 60 in su.

E' roba fatta per chi vuole usare il monitorone cazzi&mazzi "io gioco a 144 FPS!!1111" (magari con la fisica che risulta alterata perchè di base il tick dell'engine fisico è a 60 Hz ma fa niente :asd: ad esempio in RAGE se sblocchi il tick al primo salto ti ritrovi fuori dalla mappa di gioco), per arrivare a 60 FPS ci si arriva senza problemi entro i 100W con una 3060 a 2560x1440 e dettagli alti praticamente in ogni titolo :fagiano:

Piccolo particolare, non avevamo l'ati raggio, l'ati texture, l'ati ia, l'ati cinematografo, e si applicava potenzialmente su tutti i titoli
Io passo, sapevo benissimo le argomentazioni prima ancora di entrare nei commenti

pengfei
21-09-2023, 13:18
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.

Catanzaro ce l'abbiamo anche noi, in Calabria :stordita:

mokoone
21-09-2023, 14:04
Piccolo particolare, non avevamo l'ati raggio, l'ati texture, l'ati ia, l'ati cinematografo, e si applicava potenzialmente su tutti i titoli
Io passo, sapevo benissimo le argomentazioni prima ancora di entrare nei commenti
Ma perfavore :asd:

https://en.wikipedia.org/wiki/ATI_TruForm

TruForm was not significantly accepted by game developers because it ideally required the models to be designed with TruForm in mind.

E potrei andare avanti ancora (basterebbe nominare una per una le estesioni di ATI ad OpenGL)

mokoone
21-09-2023, 18:54
Catanzaro ce l'abbiamo anche noi, in Calabria :stordita:
Che battutona :v

A proposito della "forza bruta": https://youtu.be/Qv9SLtojkTU?t=1937

ArticMan
22-09-2023, 13:30
Bello, più si va avanti e più i giochi sono solo raggi, riflessi, pozzanghere e fanali di auto.
Invece di pagare un ottimo sceneggiatore preferiamo una vagonata di art designer.
Perché diciamocelo, che ce ne frega oramai se la storia non ha senso se poi alla fine riusciamo a specchiarci nel vetro del grattacielo?
Poi escono capolavori come Stray, fatto da una manciata di persone e dove l'effetto migliore è il pelo del gatto (che è anche imbarazzante in alcuni casi), che ti fa capire quanto si perda tempo solo dietro alla grafica, alla "coolosità" degli effetti.
Eppure questo gioco mi è rimasto nel cuore e spesso mi capita di pensarci, mentre altri, da AAAAAAAAAAAAAAAA millemigliardesimaA non vedevo l'ora di finirli perché stavo sempre e solo facendo la stessa cosa senza ricordare neanche perché ero andato lì.
Va beh, io sono amante del GDR e sono di parte, quindi per me la storia è tutto, mentre la grafica è solo un ausilio all'immersione.

belta
22-09-2023, 13:45
Bello, più si va avanti e più i giochi sono solo raggi, riflessi, pozzanghere e fanali di auto.
Invece di pagare un ottimo sceneggiatore preferiamo una vagonata di art designer.
Perché diciamocelo, che ce ne frega oramai se la storia non ha senso se poi alla fine riusciamo a specchiarci nel vetro del grattacielo?
Poi escono capolavori come Stray, fatto da una manciata di persone e dove l'effetto migliore è il pelo del gatto (che è anche imbarazzante in alcuni casi), che ti fa capire quanto si perda tempo solo dietro alla grafica, alla "coolosità" degli effetti.
Eppure questo gioco mi è rimasto nel cuore e spesso mi capita di pensarci, mentre altri, da AAAAAAAAAAAAAAAA millemigliardesimaA non vedevo l'ora di finirli perché stavo sempre e solo facendo la stessa cosa senza ricordare neanche perché ero andato lì.
Va beh, io sono amante del GDR e sono di parte, quindi per me la storia è tutto, mentre la grafica è solo un ausilio all'immersione.

Per quanto mi riguarda i titoli migliori con cui ho giocato quest'anno sono il remake di System Shock e di Dead Space, che a livello grafico sono buoni ma la grafica non è il motivo per cui li ho giocati.
N.B. preoccupante il fatto che siano due remake e non idee nuove, per quanto riguarda Stray non lo conosco ma me lo segno.

mokoone
22-09-2023, 15:06
Simulatore di MICIO :asd: (no beh dai, è molto carino e "di altri tempi" come narrazione)

mokoone
22-09-2023, 22:05
Se volete la prova definitiva che l'AI può fare infinitamente meglio del tuning manuale (come nel caso del DLSS 2 vs FSR 2), a confronto il denoiser "vecchio" di Nvidia usato in Cyberpunk 2077 con PT e il nuovo gentilmente offerto dal RR del DLSS 3.5 (entrambi con patch 2.0 eh!)

https://www.youtube.com/watch?v=hhAtN_rRuQo&ab_channel=DigitalFoundry

Beh, la differenza è semplicemente impressionante.

386DX40
23-09-2023, 11:34
Mi ha sempre lasciato perplesso che fossero necessarie tecnologie di upscaling intelligente per poter giustificare risoluzioni assurde e del tutto non necessarie quando non erano/sono tecnicamente sostenibili né soggettivamente richieste. E ancora se ne parla, incredibile.

belta
23-09-2023, 12:31
Mi ha sempre lasciato perplesso che fossero necessarie tecnologie di upscaling intelligente per poter giustificare risoluzioni assurde e del tutto non necessarie quando non erano/sono tecnicamente sostenibili né soggettivamente richieste. E ancora se ne parla, incredibile.

pensa che ci sono dei gonzi che giocano in downscaling (vsr) qhd/4k su monitor fullhd :asd:

mokoone
23-09-2023, 12:37
Mi ha sempre lasciato perplesso che fossero necessarie tecnologie di upscaling intelligente per poter giustificare risoluzioni assurde e del tutto non necessarie quando non erano/sono tecnicamente sostenibili né soggettivamente richieste. E ancora se ne parla, incredibile.
Se ti abitui a 1440 non torni indietro, garantisco. Anche solo per il desktop di Windows.
In quel caso DLSS su Quality (quindi 960 pixel come per la vecchia 1280x960 di 20 anni fa) o moddato a "Ultra" (1080, sì il DLSS si puà moddare a qualsiasi risoluzione tu voglia -> https://github.com/emoose/DLSSTweaks/releases ) e va tutto benone.
Il DLSS ha cmq il vantaggio notevole di offrire insieme un AA ottimo e molto migliore dei TAA offerti dai motori grafici (sì quello dell'UE5 backportato alle ultime build dell'UE4 compreso che non regge in qualità il confronto col DLSS almeno a livello Quality)

I 4k cmq sono nati NON per i videogames ma per altri contenuti e poi adottati, sta di fatto che filtrare roba a 3840x2160 dà risultati ben migliore che filtrare roba a 1920x1080 (parlo di filtri grafici, da quelli di postprocessing all'antialiasing), quindi non è che siano "inutili" le alte risoluzioni, semplicemente sono un carico notevole e INDIPENDENTE dalle "ottimizzazioni" di cui si parlava prima.

mokoone
23-09-2023, 12:49
pensa che ci sono dei gonzi che giocano in downscaling (vsr) qhd/4k su monitor fullhd :asd:
E' di fatto quello che si è sempre fatto con il SSAA (chiamato FSAA ai tempi) prima del 2003 e del MSAA :fagiano:

Tra l'altro è ampiamente sufficiemente l'MSAA 2x + MFAA su Nvidia per avere un risultato quasi al livello del classico MSAA 4x che dal 2003 fa da "riferimento" come neutralizzazione dell'aliasing senza perdita/alterazione di informazione (FXAA, SMAA, CMAA, tutti gli AA morfologici in postprocessing venuti dal 2010 in poi alternano l'informazione mica poco - tutti si basano sull'idea dell'EdgeAA del CryEngine 2, che venne introdotto non tanto per il deferred shading che in Crysis NON c'è ma per risolvere il pesante shimmering del foliage quando hai davanti a te non una pianta ma un'intera giungla come in Crysis appunto).
Il problema è che l'MSAA 4x è diventato improponibile con la diffusione capillare del deferred shading come modo di affrontare la rasterizzazione delle ombre a tutta scena da STALKER e Unreal Engine 3 in poi (per questo fu introdotto poi appunto l'MFAA di Nvidia, affinchè bastasse l'MSAA a 2x) e tutt'ora è pesantino (provare con Mankind Divided che "nonostante tutto" lo offre e vedere che performance hit genera......)

Un bonus del RayTracing (completo, per ogni ambito dell'illuminazione) è appunto quello di liberarsi della tecnica del deferred shading :fagiano:

386DX40
23-09-2023, 12:57
Se ti abitui a 1440 non torni indietro, garantisco. Anche solo per il desktop di Windows.
In quel caso DLSS su Quality (quindi 960 pixel come per la vecchia 1280x960 di 20 anni fa) o moddato a "Ultra" (1080, sì il DLSS si puà moddare a qualsiasi risoluzione tu voglia -> https://github.com/emoose/DLSSTweaks/releases ) e va tutto benone.
Il DLSS ha cmq il vantaggio notevole di offrire insieme un AA ottimo e molto migliore dei TAA offerti dai motori grafici (sì quello dell'UE5 backportato alle ultime build dell'UE4 compreso che non regge in qualità il confronto col DLSS almeno a livello Quality)

I 4k cmq sono nati NON per i videogames ma per altri contenuti e poi adottati, sta di fatto che filtrare roba a 3840x2160 dà risultati ben migliore che filtrare roba a 1920x1080 (parlo di filtri grafici, da quelli di postprocessing all'antialiasing), quindi non è che siano "inutili" le alte risoluzioni, semplicemente sono un carico notevole e INDIPENDENTE dalle "ottimizzazioni" di cui si parlava prima.

Non credo che "illudere" l' occhio umano di poter vedere dettagli che non sono tecnicamente originali, sia un gran passo avanti tecnologico, semplicemente si mitiga al solito l' effetto dovuto alla obsolescenza dei prodotti per upgrade non necessari. Ci si stupirebbe di quante applicazioni si potrebbero ancora usare su un monitor di vent'anni fa senza dopo poco tempo accorgersi che tutto sommato non cambia molto, soprattutto se le varie GUI fossero progettate bene e non con altre parti del corpo, ma si entra nel discorso della ottimizzazione ormai abbandonata a tutti i livelli.

Per quanto riguarda i giochi mi preoccuperei ben prima della qualità del monitor e relativo pannello alla sua risoluzione nativa che tale dovrebbe restare dalla risoluzione originale della texture fino al pixel finale del pannello imho.

386DX40
23-09-2023, 13:08
pensa che ci sono dei gonzi che giocano in downscaling (vsr) qhd/4k su monitor fullhd :asd:

Per assurdo capisco più il downscaling SE il guadagno è quello di non voler cambiare monitor e risparmiare, per cui potrebbe anche essere che il pixel finale sia forse un pixel "migliore" se parte da una sorgente a risoluzione più alta, non certo post-upscaling.

Non voglio sminuire quanto siano avanzate queste tecniche, solo riflettere su quanto si stia cercando di risolvere un problema che potrebbe non esistere se ci si fosse accontentati di un avanzamento proporzionale invece di voler fare il passo più lungo della gamba.

mokoone
23-09-2023, 13:15
Per assurdo capisco più il downscaling SE il guadagno è quello di non voler cambiare monitor e risparmiare, per cui potrebbe anche essere che il pixel finale sia forse un pixel "migliore" se parte da una sorgente a risoluzione più alta, non certo post-upscaling.

Non voglio sminuire quanto siano avanzate queste tecniche, solo riflettere su quanto si stia cercando di risolvere un problema che potrebbe non esistere se ci si fosse accontentati di un avanzamento proporzionale invece di voler fare il passo più lungo della gamba.
Assolutamente d'accordo, ma come ho detto mi sono abituato al *DESKTOP* a 1440 (la vista me lo permette ancora senza ausilii) su 24 pollici e non riesco a tornare indietro al FHD se non a 16 pollici.
Se mi dai un 24 FHD per il desktop mi sembra di tornare a 640x480 :asd:

Per i 4K come dicevo non si sono diffusi per l'ambito PC ma per quello video (e poi passati al PC come accaduto ai tempi col FHD al posto del "widescreen vero" corrispondende da sempre in ambito PC a 1680x1050 / 1920x1200 e non a 1920x1080)

mokoone
23-09-2023, 13:20
risoluzione nativa che tale dovrebbe restare dalla risoluzione originale della texture fino al pixel finale del pannello imho.
Beh ma allora se vuoi fare il purista devi eliminare ogni cosa oltre il nearest point come filtraggio delle texture (no bilinear, no trilinear, figuriamoci anisotropic :asd: )
Cioè devi tenerti le texture pixellate, benissimo, ma pixellate :D

386DX40
23-09-2023, 13:23
Assolutamente d'accordo, ma come ho detto mi sono abituato al *DESKTOP* a 1440 (la vista me lo permette ancora senza ausilii) su 24 pollici e non riesco a tornare indietro al FHD se non a 16 pollici.
Se mi dai un 24 FHD per il desktop mi sembra di tornare a 640x480 :asd:

Per i 4K come dicevo non si sono diffusi per l'ambito PC ma per quello video (e poi passati al PC come accaduto ai tempi col FHD al posto del "widescreen vero" corrispondende da sempre in ambito PC a 1680x1050 / 1920x1200 e non a 1920x1080)

L' abitudine è anche un altro modo di definire la comodità. Nel momento in cui l' automobilista di abitua all' auto sportiva non tornerà più all' utilitaria e resterà legato a quella comodità senza chiedersi se per comprare il giornale e il latte sia davvero necessaria.

386DX40
23-09-2023, 13:27
Beh ma allora se vuoi fare il purista devi eliminare ogni cosa oltre il nearest point come filtraggio delle texture (no bilinear, no trilinear, figuriamoci anisotropic :asd: )
Cioè devi tenerti le texture pixellate, benissimo, ma pixellate :D

Quelle tecniche di filtraggio nascevano in un epoca in cui le texture erano davvero a basse risoluzioni ma almeno i monitor CRT compensavano scalando risoluzioni native ma l' occhio umano dopo vent' anni è rimasto lo stesso, la dimensione dei monitor non è aumentata poi tanto. Non è tanto per essere puristi e vedere le texture a mo' di codice Matrix (1999), ma nemmeno dover inventare tecniche futuristiche per giustificare il comprare pannelli TFT/OLED a risoluzioni ridicole, siano essi su ambiente desktop ma anche mobile.

piwi
23-09-2023, 13:35
A
Se mi dai un 24 FHD per il desktop mi sembra di tornare a 640x480 :asd:


E' il motivo per il quale non intendo, in futuro, acquistare un 27" 4K, o un monitor ad alti Hz ... Gli dovrebbe andar dietro tutta la "catena" ed è cosa lunga e costosa. Già ora potrebbe essere un problema sostituire il 24" 1920 x 1200 che uso da quasi 10 anni ... dovrei acquistarne uno con il comparto "colori" di livello pari o superiore, perchè indietro non si torna !

mokoone
23-09-2023, 14:13
L' abitudine è anche un altro modo di definire la comodità. Nel momento in cui l' automobilista di abitua all' auto sportiva non tornerà più all' utilitaria e resterà legato a quella comodità senza chiedersi se per comprare il giornale e il latte sia davvero necessaria.
MA vengo da 10 anni di FHD, quindi so benissimo cosa ho perso :mbe:
Mai più FHD su 24, al massimo su 16//17 del portatile.

mokoone
23-09-2023, 14:15
E' il motivo per il quale non intendo, in futuro, acquistare un 27" 4K, o un monitor ad alti Hz ... Gli dovrebbe andar dietro tutta la "catena" ed è cosa lunga e costosa. Già ora potrebbe essere un problema sostituire il 24" 1920 x 1200 che uso da quasi 10 anni ... dovrei acquistarne uno con il comparto "colori" di livello pari o superiore, perchè indietro non si torna !
Infatti ho puntato sul QHD perchè 1440=720x2, così al massimo da usare l'integer scaling per i vecchi giochi degli anni '90 che strutturalmente non possono girare a risoluzione alte (DDraw cioè fino alle DX7 ha come limite strutturale 1600x1200, sopra devi hackare il motore grafico o appunto upscalare da 720 come faccio con Diablo 1)

Spero che i 24 QHD restino in circolazione per moooooooooooooolto tempo :asd:

mokoone
23-09-2023, 14:17
Quelle tecniche di filtraggio nascevano in un epoca in cui le texture erano davvero a basse risoluzioni ma almeno i monitor CRT compensavano scalando risoluzioni native ma l' occhio umano dopo vent' anni è rimasto lo stesso, la dimensione dei monitor non è aumentata poi tanto. Non è tanto per essere puristi e vedere le texture a mo' di codice Matrix (1999), ma nemmeno dover inventare tecniche futuristiche per giustificare il comprare pannelli TFT/OLED a risoluzioni ridicole, siano essi su ambiente desktop ma anche mobile.
Più che altro NVidia doveva in qualche modo usare il sicilio dei tensor core (nati per esigenze NON domestiche) per qualcosa di pratico per l'utente medio, altrimenti avrebbe dovuto spendere una marea di soldi per fare un chip SENZA quella parte. Invece ha agito da piazzista e ha creato una nicchia ecologica - ma TUTTO il mercato funziona così eh - che prima non c'era.....e adesso banalmente la si trova "comoda" come appunto dici tu. Io la trovo comoda per il risparmio energetico (passo da 170W a 100W, motivo per cui non devo manco pensare di comprare una 4060 avendo cappato così a 60% il Power Limit della 3060 usata sempre col DLSS laddove si può)

Detto altrimenti l'upscaling conviene in bolletta e per quanto riguarda la fedeltà del pixel era già stata sacrificata con le tecniche di AA morfologico dal 2010 in poi.
E in generale tutto il postprocessing (che simula gli artefatti della lente della camera virtuale) altera una scena rendendola meno discernibile (partendo dal Depth of Field al Bloom - non inteso come effetto corona alla fonte di luce che magari sarebbe meglio chiamare "glare", ma come accumulo di luce causato dalla lente -, Lens Flare, Chromatic Aberration, Film Grain per aiutare il Tone Mapping in HDR, ecc. ecc. ecc. ) :asd:

Ma fa parte dell' "esperienza visiva" che c'entra poco con la "fedeltà di resa visiva" (e spesso la gente preferisce la prima perchè è quella a far risultare la visione "appagante")


https://blog.dehancer.com/articles/bloom-what-it-is-and-how-it-works/

The Bloom effect is caused by imperfections in optical design. It is most evident in old lenses with poorly coated glass. Inside these lenses, parasitic illumination occurs and then is scattered further in the film emulsion layers. As a result, diffuse glow appears around light sources, bright areas of the scene and along high-contrast edges.