FSR 2.0, prestazioni più basse ma qualità grafica superiore a quella nativa secondo AMD

FSR 2.0, prestazioni più basse ma qualità grafica superiore a quella nativa secondo AMD

La versione 2.0 di FidelityFX Super Resolution è stata al centro della Game Developers Conference (GDC) 2022. AMD ha snocciolato maggiori dettagli, confermando che DEATHLOOP e Forspoken saranno i primi titoli a implementare la tecnica di upscaling.

di pubblicata il , alle 09:31 nel canale Schede Video
RadeonAMDRDNANavi
 
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
StylezZz`24 Marzo 2022, 14:32 #11
Originariamente inviato da: CrapaDiLegno
Ahahaahah


Ci sarà davvero da ridere se finirà come il freesync>gsync
calabar24 Marzo 2022, 18:20 #12
A me l'affermazione non torna. Mi riferisco a "qualità grafica superiore a quella nativa".

Non torna essenzialmente per due motivi: difficile migliorare l'immagine a risoluzione nativa senza usare intelligenza artificiale che inventa in modo plausibile il dettaglio mancante, ma soprattutto mi pare cozzi con l'affermazione che era riportata nella precedente notizia dove si affermava che sarebbe stato possibile ottenere "una qualità grafica migliore della risoluzione impostata in origine".

Potrebbe anche riferirsi all'immagine nativa se consideriamo l'antialiasing, ma sarebbe senza dubbio una forzatura.

Per il resto aspetto di poter vedere i risultati prima di sbilanciarmi. FSR 1.0 tutto sommato aveva il suo perchè, questo dovrebbe essere meglio per cui, in ogni caso, ben venga. Essendo utilizzabile su ogni scheda, penso che tutti dovremmo augurarci che la resa sia la migliore possibile.
AlPaBo24 Marzo 2022, 21:44 #13
Originariamente inviato da: calabar
A me l'affermazione non torna. Mi riferisco a "qualità grafica superiore a quella nativa".


Non essendo io un videogiocatore non vorrei entrare nella discussione.
Ma nel caso in questione devo evidenziare un caso in cui questo è vero.

Il numero di fibre nervose dell'occhio umano è, come ordine di grandezza, di un milione. La risoluzione visiva è di circa un megapixel, corrispondenti alla visione di un secondo d'arco in una piccola zona centrale (la macula) e con molta meno risoluzione nel resto della retina.

E allora, come facciamo a vedere soggettivamente con molta migliore risoluzione? Fondamentalmente perché la visione si muove continuamente, sia per i movimenti che avvengono davanti a noi, sia per la presenza di minuscoli movimenti continui dell'occhio stesso, detti saccadi. Questi movimenti continui vengono usati dal cervello per ricostruire, nel tempo (in frazioni di decimi di secondo) i particolari più piccoli, che non sarebbero visibili in un'immagine fissa. Insomma, il cervello fa effettivamente una forma di "upscaling temporale" sulla base di come appare la stessa immagine da più punti di vista in momenti diversi, ottenendo ottimi risultati.

Non mi stupisce che una tecnica basata sugli stessi principi possa portare a una qualità migliore. Ho l'impressione che l'espressione "upscaling temporale" possa far riferimento proprio a un meccanismo di questo tipo.

Come ho detto, non sono un videogiocatore, ma sono interessato a seguire l'evoluzione della notizia (o meglio le prossime prove) per gli aspetti teorici coinvolti.
Max_R24 Marzo 2022, 21:53 #14
Originariamente inviato da: CrapaDiLegno
Un conto è approssimare la qualità dell'immagine, un conto è appositamente rovinare la qualità dell'immagine per ottenere più prestazioni.
La prima prevede la ricerca delle soluzioni che vanno sempre più a migliorare la qualità, la seconda è un modo per accontentare (e nello stesso momento fregare) chi vuole giocare in 4K quando ha una 1060/6500XT nel case.
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.
Fa niente se la qualità va a ramengo e metà delle animazioni risulteranno sbagliate se non vomitevoli, tanto quello che conta è avere 4K pixel@60FPS sullo schermo!!!


Ni. Si parlava di tecnologie di gestione dell'immagine e queste ci sono da sempre. In ogni caso sia FSR che DLSS puntano sia a qualità che a prestazioni. Certo non verrà tutto subito ma i risultati, soprattutto per il dlss, sono incoraggianti. Ci sta poi che uno preferisca la risoluzione nativa per carità. E' quello che faccio anche io al momento. Vedremo quando arriva il deck che tanto la mia tv è ancora 1080p.
Max_R27 Marzo 2022, 10:54 #15
Originariamente inviato da: CrapaDiLegno
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.


3Dfx nell'ormai lontano 99 se n'è uscita con il suo bel motion blur che ricreava frame intermedi per garantire maggiore fluidità e dare un effetto movimento
nickname8827 Marzo 2022, 11:24 #16
Originariamente inviato da: AlPaBo
Il numero di fibre nervose dell'occhio umano è, come ordine di grandezza, di un milione. [B][COLOR="Red"]La risoluzione visiva è di circa un megapixel[/COLOR][/B], corrispondenti alla visione di un secondo d'arco in una piccola zona centrale (la macula) e con molta meno risoluzione nel resto della retina.
Link ad immagine (click per visualizzarla)
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista.

Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.
AlPaBo27 Marzo 2022, 12:14 #17
Originariamente inviato da: nickname88
Link ad immagine (click per visualizzarla)
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista.

Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.


Mi dispiace che tu non sia stato capace di leggere il mio post, dove spiego come la capacità di visione umana sia legata a una tecnica di upscaling.
Immagino che andare oltre il primo capoverso fosse troppo complicato.

Puoi andare anche su Cono per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.
nickname8827 Marzo 2022, 14:22 #18
Originariamente inviato da: AlPaBo
Mi dispiace che tu non sia stato capace di leggere il mio post, dove spiego come la capacità di visione umana sia legata a una tecnica di upscaling.
Immagino che andare oltre il primo capoverso fosse troppo complicato.

Puoi andare anche su Cono per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.

Quindi non sarebber 1Mpixel ma 5Mpixel ? Sempre poco !
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.

Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.
AlPaBo27 Marzo 2022, 15:37 #19
Originariamente inviato da: nickname88
Quindi non sarebber 1Mpixel ma 5Mpixel ? Sempre poco !
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.

Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.


Continui a non leggere fino in fondo (o a non capire quello che leggi). Ho scritto che al di fuori del centro della retina una fibra nervosa è condivisa tra più coni, per cui il numero di segnali che arriva al cervello (che è quello che conta, e dipende dalle fibre nervose) è inferiore a cinque milioni, essendo in effetti attorno a un milione (per occhio, ovviamente). Pensa a un sistema dove la parte centrale di un'immagine è alla massima risoluzione, mentre spostandosi sulla periferia hai blocchi di pixel sempre più grandi: ma se sposti continuamente la parte nitida vedi prima o poi tutta l'immagine, che il cervello ricostruisce completamente (e ti fa credere di vedere tutto nitido in un solo colpo).

In quanto ai 300 ppi, non significano nulla in questo contesto: quello che conta è l'angolo coperto da un cono, non i ppi. Un cono copre un po' di meno di minuto d'arco. In base alla distanza da cui guardi una immagine, 300 ppi potrebbero essere troppo grossi per essere nitidi o così fini da non farti riconoscere i particolari. Se ti avvicini servono più ppi, se ti allontani ne servono di meno.

Per un'immagine fissa si esagera sui ppi in quanto a causa dei movimenti dell'occhio e alla possibilità di centrare l'attenzione su parti diverse dell'immagine e di avvicinare e allontanare la testa, vediamo molto bene una piccola parte, che poi il cervello integra su tutta l'immagine (e noi siamo convinti di averla vista in un'unica occhiata).
Per un'immagine in movimento questa necessità è minore e sono molto maggiori i costi di avere un alto livello di nitidezza, per cui si usano meno pixel. Un monitor con più pixel permette di avvicinarsi di più mantenendo un'immagine nitida, coprendo possibilmente tutto l'angolo di visione dell'occhio, rendendo il tutto più coinvolgente. Monitor molto lunghi permettono anche di considerare il frequente movimento degli occhi verso destra o verso sinistra (mentre non è altrettanto frequente guardare in alto o in basso).

Per quanto riguarda la visione umana, integra sistemi di upscaling sia temporale che spaziale e sistemi di intelligenza (naturale, visto che si parla del cervello) che fanno impallidire le tecnologie attuali.
Insomma, la parte più ingegneristica della visione umana è molto inferiore in pixel a quella dei sistemi di riproduzione, la differenza la fa la parte di trattamento dell'informazione, in cui il cervello è ancora superiore. È per quello che è sempre interessante seguire lo sviluppo di nuove tecniche di upscaling e intelligenza artificiale.
nickname8827 Marzo 2022, 17:09 #20
Originariamente inviato da: AlPaBo
In base alla distanza da cui guardi una immagine, 300 ppi potrebbero essere troppo grossi per essere nitidi o così fini da non farti riconoscere i particolari. Se ti avvicini servono più ppi, se ti allontani ne servono di meno.

La certificazione retina di Apple prevede un valori di densità anche sui 250-300ppi o vicino, questi sono valori con la quale l'occhio umano non è in grado di distinguere i pixels dalla distanza di visione da scrivania.
Per i valori più alti, sopra i 400 si perde proprio la capacità di distinguere i pixels da qualunque distanza.

Che solo la parte centrale del cono visivo sia nitido e attorno sia sfocato è vero ma questo cosa centra ?

E la risoluzione 4K sulle diagonali attuali è ben lontano dal poter dire di "non avvertire differenze".

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^