PDA

View Full Version : FSR 2.0, prestazioni più basse ma qualità grafica superiore a quella nativa secondo AMD


Redazione di Hardware Upg
24-03-2022, 08:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/fsr-20-prestazioni-piu-basse-ma-qualita-grafica-superiore-a-quella-nativa-secondo-amd_105841.html

La versione 2.0 di FidelityFX Super Resolution è stata al centro della Game Developers Conference (GDC) 2022. AMD ha snocciolato maggiori dettagli, confermando che DEATHLOOP e Forspoken saranno i primi titoli a implementare la tecnica di upscaling.

Click sul link per visualizzare la notizia.

ningen
24-03-2022, 09:27
Sono molto curioso del risultato finale.
Visto che si accenna al supporto a vulkan mi sorge una domanda... Ma Vulkan in quali altri titoli di rilievo è utilizzata a parte Doom e The surge 2?
Ah per inciso quando ho provato Vulkan in quei due titoli ho avuto problemi, in quanto nel primo crashava se si utilizzava Vulkan al posto delle directx, mentre il secondo che utilizza solo Vulkan addirittura neanche si avviava (fortuna che l'avevo provato su Game pass). Sono davvero cosi instabili e poco utilizzate o è solo una mia impressione/sfiga/ignoranza?

Kang Johnson
24-03-2022, 09:58
E' interessante come negli ultimi anni si stia quasi dando più "spazio" allo sviluppo di tecnologie varie nella gestione dell'immagine in ottica sia di miglioramento delle prestazioni che dell'immagine, talvolta contemporaneamente che sembrerebbe un paradosso, che non al classico aumento delle performance (forza bruta).

Immagino la cosa dipenda per lo più da voler buttarsi nel mondo del ray tracing a fronte di difficoltà oggettive nel mantenere costanti aumenti di performance dati dall'hardware: processi di fabbricazione semrpe più complicati e cari, consumi che esplodono e costi finali alti.... sembra che stiamo arrivando ad un "tetto" nell'evoluzione grafica nella sua totalità..... amen, avremo sempre più indie dove la grafica è un complemento al gameplay, non il contrario.

Gundam1973
24-03-2022, 10:28
Sono molto curioso del risultato finale.
Visto che si accenna al supporto a vulkan mi sorge una domanda... Ma Vulkan in quali altri titoli di rilievo è utilizzata a parte Doom e The surge 2?
Ah per inciso quando ho provato Vulkan in quei due titoli ho avuto problemi, in quanto nel primo crashava se si utilizzava Vulkan al posto delle directx, mentre il secondo che utilizza solo Vulkan addirittura neanche si avviava (fortuna che l'avevo provato su Game pass). Sono davvero cosi instabili e poco utilizzate o è solo una mia impressione/sfiga/ignoranza?

A me girano senza problemi sia in d3d che vulkan.....provati su una 6900xt, 5700xt e 590.....

matsnake86
24-03-2022, 10:58
Ma Vulkan in quali altri titoli di rilievo è utilizzata a parte Doom e The surge 2?


Tutto il gaming linux / steam deck passa tramite vulkan grazie a dxvk (dx 11 e precedenti) e vkd3d (dx12).

Visto che anche questo fsr sarà open source non ci vorrà molto affinchè venga innestato direttamente nel layer di compatibilità e divenga utilizzabile su tutti i titoli che usano il layer (proton o wine che sia)

CrapaDiLegno
24-03-2022, 11:25
migliorerà la qualità la grafica finale, raggiungendo livelli "simili o migliori" rispetto al rendering nativo.
Ahahaahah :mc:
Con quello che hanno mostrato con FSR1.0, anche fosse che riescono a migliorare l'AA tramite l'uso dei vettori di movimento, sempre robaccia inguardabile propongono "rispetto al nativo".

Sembra che oggi convincere gli utenti che la m3rda che vendi non solo è mangiabile ma è pure meglio della Nutella è diventato più facile.. un paio di influencer, una mazzetta al sito divulgativo, un IQ decisamente diminuito, e via, la m3rda è buona, eccome!
:muro:

Un tempo se mancava un pixel su un modello piuttosto he su un altro era una guerra a chi "gimpava" la qualità per rubare in prestazioni e quindi truccando i test.
Ora questa tecnologia che "gimpa" è pubblicizzata alla grande e pure definita come "meglio del nativo".
E si richiede agli sviluppatori dai 3 ai 30 giorni per implementarla!
Roba da matti.

Lithios
24-03-2022, 11:43
E' interessante come negli ultimi anni si stia quasi dando più "spazio" allo sviluppo di tecnologie varie nella gestione dell'immagine in ottica sia di miglioramento delle prestazioni che dell'immagine, talvolta contemporaneamente che sembrerebbe un paradosso, che non al classico aumento delle performance (forza bruta).

Accade perchè si sono resi conto che con la sola forza bruta non riescono a reggere ai requisiti di usabilità di risoluzioni come 4K o tecnologie come ray tracing, in parte lo hanno fatto ma le ultime top di gamma gli costano il doppio (a livello produttivo, poi il prezzo al cliente aumenta ancora di piu per i noti motivi, è un'altra cosa) e consumano il triplo (vedi nuovi connettori super-energicori e TDP da capogiro)... ciò nonostante non riescono a vincerla, quindi l'unica strada per colmare il divario è ottimizzare il software come stanno provando a fare.

Che poi si potrebbe aprire un capitolo a parte sul perchè improvvisamente sia imprescindibile giocare a 240 FPS, 4K, RTracing, HDR ecc. mentre fino a 4 anni fa campavamo tutti felici con il fullHD a 60 FPS SDR senza avvertire il minimo disagio.... ma questa è una questione più psicologica che tecnica.

Max_R
24-03-2022, 12:10
E' interessante come negli ultimi anni si stia quasi dando più "spazio" allo sviluppo di tecnologie varie nella gestione dell'immagine in ottica sia di miglioramento delle prestazioni che dell'immagine, talvolta contemporaneamente che sembrerebbe un paradosso, che non al classico aumento delle performance (forza bruta).

Immagino la cosa dipenda per lo più da voler buttarsi nel mondo del ray tracing a fronte di difficoltà oggettive nel mantenere costanti aumenti di performance dati dall'hardware: processi di fabbricazione semrpe più complicati e cari, consumi che esplodono e costi finali alti.... sembra che stiamo arrivando ad un "tetto" nell'evoluzione grafica nella sua totalità..... amen, avremo sempre più indie dove la grafica è un complemento al gameplay, non il contrario.

È così praticamente da sempre tra correzione prospettica e filtri vari elaborati (almeno nel mondo del gaming) dalla metà dei 90 ai primi del 2000.
D'altro canto spesso dimentichiamo che la computer grafica tende all'approssimazione e poi il resto va corretto.

CrapaDiLegno
24-03-2022, 12:51
È così praticamente da sempre tra correzione prospettica e filtri vari elaborati (almeno nel mondo del gaming) dalla metà dei 90 ai primi del 2000.
D'altro canto spesso dimentichiamo che la computer grafica tende all'approssimazione e poi il resto va corretto.
Un conto è approssimare la qualità dell'immagine, un conto è appositamente rovinare la qualità dell'immagine per ottenere più prestazioni.
La prima prevede la ricerca delle soluzioni che vanno sempre più a migliorare la qualità, la seconda è un modo per accontentare (e nello stesso momento fregare) chi vuole giocare in 4K quando ha una 1060/6500XT nel case.
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.
Fa niente se la qualità va a ramengo e metà delle animazioni risulteranno sbagliate se non vomitevoli, tanto quello che conta è avere 4K pixel@60FPS sullo schermo!!!

ningen
24-03-2022, 13:01
A me girano senza problemi sia in d3d che vulkan.....provati su una 6900xt, 5700xt e 590.....

Beh so che molti non avevano i miei problemi, sopratutto con il secondo. Magari all'epoca avevo qualche driver da aggiornare e di conseguenza ho avuto questi problemi. Dovrei riprovarli.

Tutto il gaming linux / steam deck passa tramite vulkan grazie a dxvk (dx 11 e precedenti) e vkd3d (dx12).

Visto che anche questo fsr sarà open source non ci vorrà molto affinchè venga innestato direttamente nel layer di compatibilità e divenga utilizzabile su tutti i titoli che usano il layer (proton o wine che sia)

Si questo lo sapevo, però mi riferivo ai titoli più noti. Fin'ora le ho trovate solo nei due titoli citati, quindi chiedevo se ne esistevano altri.

Ahahaahah :mc:
Con quello che hanno mostrato con FSR1.0, anche fosse che riescono a migliorare l'AA tramite l'uso dei vettori di movimento, sempre robaccia inguardabile propongono "rispetto al nativo".

Sembra che oggi convincere gli utenti che la m3rda che vendi non solo è mangiabile ma è pure meglio della Nutella è diventato più facile.. un paio di influencer, una mazzetta al sito divulgativo, un IQ decisamente diminuito, e via, la m3rda è buona, eccome!
:muro:

Un tempo se mancava un pixel su un modello piuttosto he su un altro era una guerra a chi "gimpava" la qualità per rubare in prestazioni e quindi truccando i test.
Ora questa tecnologia che "gimpa" è pubblicizzata alla grande e pure definita come "meglio del nativo".
E si richiede agli sviluppatori dai 3 ai 30 giorni per implementarla!
Roba da matti.

Il nativo rimane nativo a prescindere (le sparate lasciano il tempo che trovano), però se la qualità è buona come l'ultima iterazione del DLSS non vedo cosa ci sia da criticare, anche considerando che un AA va comunque usato.

pity91
24-03-2022, 13:09
ma cose come queste andavano abilitate sulle vecchie schede, non sulle nuove per giocare al fantomatico 4k.
se lo implementassero nella mia vecchia R9 380, che tra l'altro usa in modo dignitoso mio figlio in Full HD, avrebbe senso.
proverò con i driver Moddati Amernime AMD Drivers

StylezZz`
24-03-2022, 13:32
Ahahaahah :mc:

Ci sarà davvero da ridere se finirà come il freesync>gsync :rolleyes:

calabar
24-03-2022, 17:20
A me l'affermazione non torna. Mi riferisco a "qualità grafica superiore a quella nativa".

Non torna essenzialmente per due motivi: difficile migliorare l'immagine a risoluzione nativa senza usare intelligenza artificiale che inventa in modo plausibile il dettaglio mancante, ma soprattutto mi pare cozzi con l'affermazione che era riportata nella precedente notizia dove si affermava che sarebbe stato possibile ottenere "una qualità grafica migliore della risoluzione impostata in origine".

Potrebbe anche riferirsi all'immagine nativa se consideriamo l'antialiasing, ma sarebbe senza dubbio una forzatura.

Per il resto aspetto di poter vedere i risultati prima di sbilanciarmi. FSR 1.0 tutto sommato aveva il suo perchè, questo dovrebbe essere meglio per cui, in ogni caso, ben venga. Essendo utilizzabile su ogni scheda, penso che tutti dovremmo augurarci che la resa sia la migliore possibile.

AlPaBo
24-03-2022, 20:44
A me l'affermazione non torna. Mi riferisco a "qualità grafica superiore a quella nativa".

Non essendo io un videogiocatore non vorrei entrare nella discussione.
Ma nel caso in questione devo evidenziare un caso in cui questo è vero.

Il numero di fibre nervose dell'occhio umano è, come ordine di grandezza, di un milione. La risoluzione visiva è di circa un megapixel, corrispondenti alla visione di un secondo d'arco in una piccola zona centrale (la macula) e con molta meno risoluzione nel resto della retina.

E allora, come facciamo a vedere soggettivamente con molta migliore risoluzione? Fondamentalmente perché la visione si muove continuamente, sia per i movimenti che avvengono davanti a noi, sia per la presenza di minuscoli movimenti continui dell'occhio stesso, detti saccadi. Questi movimenti continui vengono usati dal cervello per ricostruire, nel tempo (in frazioni di decimi di secondo) i particolari più piccoli, che non sarebbero visibili in un'immagine fissa. Insomma, il cervello fa effettivamente una forma di "upscaling temporale" sulla base di come appare la stessa immagine da più punti di vista in momenti diversi, ottenendo ottimi risultati.

Non mi stupisce che una tecnica basata sugli stessi principi possa portare a una qualità migliore. Ho l'impressione che l'espressione "upscaling temporale" possa far riferimento proprio a un meccanismo di questo tipo.

Come ho detto, non sono un videogiocatore, ma sono interessato a seguire l'evoluzione della notizia (o meglio le prossime prove) per gli aspetti teorici coinvolti.

Max_R
24-03-2022, 20:53
Un conto è approssimare la qualità dell'immagine, un conto è appositamente rovinare la qualità dell'immagine per ottenere più prestazioni.
La prima prevede la ricerca delle soluzioni che vanno sempre più a migliorare la qualità, la seconda è un modo per accontentare (e nello stesso momento fregare) chi vuole giocare in 4K quando ha una 1060/6500XT nel case.
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.
Fa niente se la qualità va a ramengo e metà delle animazioni risulteranno sbagliate se non vomitevoli, tanto quello che conta è avere 4K pixel@60FPS sullo schermo!!!

Ni. Si parlava di tecnologie di gestione dell'immagine e queste ci sono da sempre. In ogni caso sia FSR che DLSS puntano sia a qualità che a prestazioni. Certo non verrà tutto subito ma i risultati, soprattutto per il dlss, sono incoraggianti. Ci sta poi che uno preferisca la risoluzione nativa per carità. E' quello che faccio anche io al momento. Vedremo quando arriva il deck che tanto la mia tv è ancora 1080p.

Max_R
27-03-2022, 09:54
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.

3Dfx nell'ormai lontano 99 se n'è uscita con il suo bel motion blur che ricreava frame intermedi per garantire maggiore fluidità e dare un effetto movimento

nickname88
27-03-2022, 10:24
Il numero di fibre nervose dell'occhio umano è, come ordine di grandezza, di un milione. La risoluzione visiva è di circa un megapixel, corrispondenti alla visione di un secondo d'arco in una piccola zona centrale (la macula) e con molta meno risoluzione nel resto della retina.https://media4.giphy.com/media/AFYfA31DZoiug31eky/200.gif
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista. :rolleyes:

Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.

AlPaBo
27-03-2022, 11:14
https://media4.giphy.com/media/AFYfA31DZoiug31eky/200.gif
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista. :rolleyes:

Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.

Mi dispiace che tu non sia stato capace di leggere il mio post, dove spiego come la capacità di visione umana sia legata a una tecnica di upscaling.
Immagino che andare oltre il primo capoverso fosse troppo complicato.

Puoi andare anche su Cono (https://it.wikipedia.org/wiki/Cono_(biologia)) per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.

nickname88
27-03-2022, 13:22
Mi dispiace che tu non sia stato capace di leggere il mio post, dove spiego come la capacità di visione umana sia legata a una tecnica di upscaling.
Immagino che andare oltre il primo capoverso fosse troppo complicato.

Puoi andare anche su Cono (https://it.wikipedia.org/wiki/Cono_(biologia)) per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.
Quindi non sarebber 1Mpixel ma 5Mpixel ? Sempre poco !
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.

Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.

AlPaBo
27-03-2022, 14:37
Quindi non sarebber 1Mpixel ma 5Mpixel ? Sempre poco !
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.

Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.

Continui a non leggere fino in fondo (o a non capire quello che leggi). Ho scritto che al di fuori del centro della retina una fibra nervosa è condivisa tra più coni, per cui il numero di segnali che arriva al cervello (che è quello che conta, e dipende dalle fibre nervose) è inferiore a cinque milioni, essendo in effetti attorno a un milione (per occhio, ovviamente). Pensa a un sistema dove la parte centrale di un'immagine è alla massima risoluzione, mentre spostandosi sulla periferia hai blocchi di pixel sempre più grandi: ma se sposti continuamente la parte nitida vedi prima o poi tutta l'immagine, che il cervello ricostruisce completamente (e ti fa credere di vedere tutto nitido in un solo colpo).

In quanto ai 300 ppi, non significano nulla in questo contesto: quello che conta è l'angolo coperto da un cono, non i ppi. Un cono copre un po' di meno di minuto d'arco. In base alla distanza da cui guardi una immagine, 300 ppi potrebbero essere troppo grossi per essere nitidi o così fini da non farti riconoscere i particolari. Se ti avvicini servono più ppi, se ti allontani ne servono di meno.

Per un'immagine fissa si esagera sui ppi in quanto a causa dei movimenti dell'occhio e alla possibilità di centrare l'attenzione su parti diverse dell'immagine e di avvicinare e allontanare la testa, vediamo molto bene una piccola parte, che poi il cervello integra su tutta l'immagine (e noi siamo convinti di averla vista in un'unica occhiata).
Per un'immagine in movimento questa necessità è minore e sono molto maggiori i costi di avere un alto livello di nitidezza, per cui si usano meno pixel. Un monitor con più pixel permette di avvicinarsi di più mantenendo un'immagine nitida, coprendo possibilmente tutto l'angolo di visione dell'occhio, rendendo il tutto più coinvolgente. Monitor molto lunghi permettono anche di considerare il frequente movimento degli occhi verso destra o verso sinistra (mentre non è altrettanto frequente guardare in alto o in basso).

Per quanto riguarda la visione umana, integra sistemi di upscaling sia temporale che spaziale e sistemi di intelligenza (naturale, visto che si parla del cervello) che fanno impallidire le tecnologie attuali.
Insomma, la parte più ingegneristica della visione umana è molto inferiore in pixel a quella dei sistemi di riproduzione, la differenza la fa la parte di trattamento dell'informazione, in cui il cervello è ancora superiore. È per quello che è sempre interessante seguire lo sviluppo di nuove tecniche di upscaling e intelligenza artificiale.

nickname88
27-03-2022, 16:09
In base alla distanza da cui guardi una immagine, 300 ppi potrebbero essere troppo grossi per essere nitidi o così fini da non farti riconoscere i particolari. Se ti avvicini servono più ppi, se ti allontani ne servono di meno.

La certificazione retina di Apple prevede un valori di densità anche sui 250-300ppi o vicino, questi sono valori con la quale l'occhio umano non è in grado di distinguere i pixels dalla distanza di visione da scrivania.
Per i valori più alti, sopra i 400 si perde proprio la capacità di distinguere i pixels da qualunque distanza.

Che solo la parte centrale del cono visivo sia nitido e attorno sia sfocato è vero ma questo cosa centra ?

E la risoluzione 4K sulle diagonali attuali è ben lontano dal poter dire di "non avvertire differenze".