FSR 2.0, prestazioni più basse ma qualità grafica superiore a quella nativa secondo AMD
La versione 2.0 di FidelityFX Super Resolution è stata al centro della Game Developers Conference (GDC) 2022. AMD ha snocciolato maggiori dettagli, confermando che DEATHLOOP e Forspoken saranno i primi titoli a implementare la tecnica di upscaling.
di Manolo De Agostini pubblicata il 24 Marzo 2022, alle 09:31 nel canale Schede VideoRadeonAMDRDNANavi










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
Domanda alle stelle per SSD e RAM: in Giappone li razionano come il pane in tempo di guerra
Zuckerberg vuole eliminare tutte le malattie: ecco come l'IA di Biohub può riuscirci
Otto suicidi, un solo chatbot: si moltiplicano le cause contro OpenAI e ChatGPT
'Windows fa schifo' perché ha dimenticato gli utenti esperti: le parole dell'ex di Microsoft
Tesla aggiorna il camion Semi, e sposta la produzione al 2026: nuovo design e più carico utile
Come funziona la carta Klarna: tre livelli di abbonamento e zero costi nascosti
I Funko Pop potrebbero sparire per sempre: vendite a picco e debiti alle stelle
Windows 98 in crash davanti a migliaia di persone: la reazione di Gates e le conseguenze per Microsoft
Samsung Smart TV 85'' Neo QLED Mini LED in offerta su Amazon: un TV da 2.000€ oggi a 1.399€
TikTok rafforza la sicurezza degli acquisti in-app con nuove misure di protezione
Samsung Galaxy S25 Ultra 256 GB a 879,85€ su Amazon: il top di gamma mai così conveniente
Sanzione ridotta per TIM: l'azienda paga e chiude il caso teleselling con AGCOM
DJI Osmo 360 in super offerta su Amazon: -29%, versioni Standard e Adventure a prezzi mai visti
Moto Watch Fit con Moto AI a metà prezzo: smartwatch completo con GPS e 16 giorni di autonomia a 49,90€









20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCi sarà davvero da ridere se finirà come il freesync>gsync
Non torna essenzialmente per due motivi: difficile migliorare l'immagine a risoluzione nativa senza usare intelligenza artificiale che inventa in modo plausibile il dettaglio mancante, ma soprattutto mi pare cozzi con l'affermazione che era riportata nella precedente notizia dove si affermava che sarebbe stato possibile ottenere "una qualità grafica migliore della risoluzione impostata in origine".
Potrebbe anche riferirsi all'immagine nativa se consideriamo l'antialiasing, ma sarebbe senza dubbio una forzatura.
Per il resto aspetto di poter vedere i risultati prima di sbilanciarmi. FSR 1.0 tutto sommato aveva il suo perchè, questo dovrebbe essere meglio per cui, in ogni caso, ben venga. Essendo utilizzabile su ogni scheda, penso che tutti dovremmo augurarci che la resa sia la migliore possibile.
Non essendo io un videogiocatore non vorrei entrare nella discussione.
Ma nel caso in questione devo evidenziare un caso in cui questo è vero.
Il numero di fibre nervose dell'occhio umano è, come ordine di grandezza, di un milione. La risoluzione visiva è di circa un megapixel, corrispondenti alla visione di un secondo d'arco in una piccola zona centrale (la macula) e con molta meno risoluzione nel resto della retina.
E allora, come facciamo a vedere soggettivamente con molta migliore risoluzione? Fondamentalmente perché la visione si muove continuamente, sia per i movimenti che avvengono davanti a noi, sia per la presenza di minuscoli movimenti continui dell'occhio stesso, detti saccadi. Questi movimenti continui vengono usati dal cervello per ricostruire, nel tempo (in frazioni di decimi di secondo) i particolari più piccoli, che non sarebbero visibili in un'immagine fissa. Insomma, il cervello fa effettivamente una forma di "upscaling temporale" sulla base di come appare la stessa immagine da più punti di vista in momenti diversi, ottenendo ottimi risultati.
Non mi stupisce che una tecnica basata sugli stessi principi possa portare a una qualità migliore. Ho l'impressione che l'espressione "upscaling temporale" possa far riferimento proprio a un meccanismo di questo tipo.
Come ho detto, non sono un videogiocatore, ma sono interessato a seguire l'evoluzione della notizia (o meglio le prossime prove) per gli aspetti teorici coinvolti.
La prima prevede la ricerca delle soluzioni che vanno sempre più a migliorare la qualità, la seconda è un modo per accontentare (e nello stesso momento fregare) chi vuole giocare in 4K quando ha una 1060/6500XT nel case.
Visto che ci siamo e stiamo sdoganando un po' tutto il peggio, perché non creare le tecniche per interpolare i frame che non ci sono così possiamo giocare a 60FPS là dove invece la GPU riesce a calcolarne una ventina.
Fa niente se la qualità va a ramengo e metà delle animazioni risulteranno sbagliate se non vomitevoli, tanto quello che conta è avere 4K pixel@60FPS sullo schermo!!!
Ni. Si parlava di tecnologie di gestione dell'immagine e queste ci sono da sempre. In ogni caso sia FSR che DLSS puntano sia a qualità che a prestazioni. Certo non verrà tutto subito ma i risultati, soprattutto per il dlss, sono incoraggianti. Ci sta poi che uno preferisca la risoluzione nativa per carità. E' quello che faccio anche io al momento. Vedremo quando arriva il deck che tanto la mia tv è ancora 1080p.
3Dfx nell'ormai lontano 99 se n'è uscita con il suo bel motion blur che ricreava frame intermedi per garantire maggiore fluidità e dare un effetto movimento
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista.
Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.
Io noto ancora aliasing sul mio 4K 27", anche alla grande se togli il filtro AA, ed ho solo 10/10 di vista.
Apple addirittura definisce "retina", ( ossia tutti quei display dove l'occhio umano non può più distinguere i pixels ) quei i display che superino una certa densità, ben oltre i 300ppi, ossia mooolto oltre il singolo Mpixel.
Mi dispiace che tu non sia stato capace di leggere il mio post, dove spiego come la capacità di visione umana sia legata a una tecnica di upscaling.
Immagino che andare oltre il primo capoverso fosse troppo complicato.
Puoi andare anche su Cono per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.
Immagino che andare oltre il primo capoverso fosse troppo complicato.
Puoi andare anche su Cono per leggere che il numero di coni sensibili è di circa 5 milioni. Aggiungo che solo quelli al centro hanno una fibra nervosa dedicata, gli altri operano come cluster di decine o centinaia di coni, per cui il numero di informazioni che arriva al cervello è di circa un milione (per occhio)
Mi dispiace, ma il facepalm te lo prendi tu, a causa della tua incapacità di capire e della presunzione di essere diverso dagli altri nella tua acutezza visiva.
Quindi non sarebber 1Mpixel ma 5Mpixel ? Sempre poco !
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.
Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.
Prendi un monitor 8K da 32", apri un app di CAD o un semplice Paint, traccia una riga diagonale e dimmi se non vedi aliasing.
Il limite dell'occhio umano è attorno ai 300ppi se parliamo di una distanza da scrivania, la risoluzione totale dipende dalla dimensione del display e non dalla sensibilità dell'occhio in sè.
Continui a non leggere fino in fondo (o a non capire quello che leggi). Ho scritto che al di fuori del centro della retina una fibra nervosa è condivisa tra più coni, per cui il numero di segnali che arriva al cervello (che è quello che conta, e dipende dalle fibre nervose) è inferiore a cinque milioni, essendo in effetti attorno a un milione (per occhio, ovviamente). Pensa a un sistema dove la parte centrale di un'immagine è alla massima risoluzione, mentre spostandosi sulla periferia hai blocchi di pixel sempre più grandi: ma se sposti continuamente la parte nitida vedi prima o poi tutta l'immagine, che il cervello ricostruisce completamente (e ti fa credere di vedere tutto nitido in un solo colpo).
In quanto ai 300 ppi, non significano nulla in questo contesto: quello che conta è l'angolo coperto da un cono, non i ppi. Un cono copre un po' di meno di minuto d'arco. In base alla distanza da cui guardi una immagine, 300 ppi potrebbero essere troppo grossi per essere nitidi o così fini da non farti riconoscere i particolari. Se ti avvicini servono più ppi, se ti allontani ne servono di meno.
Per un'immagine fissa si esagera sui ppi in quanto a causa dei movimenti dell'occhio e alla possibilità di centrare l'attenzione su parti diverse dell'immagine e di avvicinare e allontanare la testa, vediamo molto bene una piccola parte, che poi il cervello integra su tutta l'immagine (e noi siamo convinti di averla vista in un'unica occhiata).
Per un'immagine in movimento questa necessità è minore e sono molto maggiori i costi di avere un alto livello di nitidezza, per cui si usano meno pixel. Un monitor con più pixel permette di avvicinarsi di più mantenendo un'immagine nitida, coprendo possibilmente tutto l'angolo di visione dell'occhio, rendendo il tutto più coinvolgente. Monitor molto lunghi permettono anche di considerare il frequente movimento degli occhi verso destra o verso sinistra (mentre non è altrettanto frequente guardare in alto o in basso).
Per quanto riguarda la visione umana, integra sistemi di upscaling sia temporale che spaziale e sistemi di intelligenza (naturale, visto che si parla del cervello) che fanno impallidire le tecnologie attuali.
Insomma, la parte più ingegneristica della visione umana è molto inferiore in pixel a quella dei sistemi di riproduzione, la differenza la fa la parte di trattamento dell'informazione, in cui il cervello è ancora superiore. È per quello che è sempre interessante seguire lo sviluppo di nuove tecniche di upscaling e intelligenza artificiale.
La certificazione retina di Apple prevede un valori di densità anche sui 250-300ppi o vicino, questi sono valori con la quale l'occhio umano non è in grado di distinguere i pixels dalla distanza di visione da scrivania.
Per i valori più alti, sopra i 400 si perde proprio la capacità di distinguere i pixels da qualunque distanza.
Che solo la parte centrale del cono visivo sia nitido e attorno sia sfocato è vero ma questo cosa centra ?
E la risoluzione 4K sulle diagonali attuali è ben lontano dal poter dire di "non avvertire differenze".
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".