AMD FidelityFX Super Resolution a giugno. Funzionerà anche sulle GPU Nvidia e Intel?

AMD FidelityFX Super Resolution a giugno. Funzionerà anche sulle GPU Nvidia e Intel?

Le ultime indiscrezioni riportano che la tecnologia AMD FidelityFX Super Resolution debutterà a giugno e sarà molto diversa dal DLSS di Nvidia. Allo stesso tempo, non è da escludersi che si tratti di una soluzione agnostica, cioè in grado di funzionare anche su GPU di altri produttori.

di pubblicata il , alle 09:14 nel canale Schede Video
AMDRadeonRDNANavi
 
22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
StylezZz`07 Maggio 2021, 14:15 #11
Originariamente inviato da: ilariovs
Ma la compatibilità delle GPU Nvidia col freesync vale per tutti i monitor?

Perchè io ricordo che sul sito Nvidia c'è una lista di compatibilità. Per esempio io ho un LG 24" FHD 75Hz ma selezionando LG come produttore e 24" come size non ne ho visti di compatibili.

Inoltre io ricordo vagamente il che serve la DP per la compatibilità. Via HDMI ho visto solo le TV LG Oled compatibili.

Ma il mio monitor ha solo la HDMI e usa il freesync con la RX 570.

Mi è sfuggito qualcosa?


Anche se il monitor non è nell'elenco dei compatibili certificati sul sito nvidia, al 99% dei casi è compatibile, ma solo con la DP, non funziona con HDMI, quindi il tuo monitor non puoi sfruttarlo.
nickname8807 Maggio 2021, 14:28 #12
Originariamente inviato da: supertigrotto
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.

il freesync è una soluzione HW, questa è una soluzione SW.

Di fatto le schede Nvidia saranno compatibili sia con DLSS che con questo SR.
Le AMD continueranno a non essere compatibili invece col DLSS e anche se dovessero renderle compatibili non avrebbero le unità dedicate.
CrapaDiLegno07 Maggio 2021, 15:02 #13
Originariamente inviato da: k0nt3
Ti svelo un segreto, anche le schede AMD hanno hardware in grado di accelerare calcoli di DL, ML ecc... se ti riferisci alla mancanza di tensor core, mi sembra ovvio dato che e' una tecnologia proprietaria di Nvidia.
Detto questo nel DLSS il ML serve per generare i pesi della rete neurale, e questo viene fatto a monte, non in realtime. In realtime hai soltanto la rete neurale con i pesi precalcolati.
Altra rivelazione: anche una semplice interpolazione lineare aggiunge dettagli rimossi.
Puo' anche darsi che la soluzione Nvidia rimanga superiore (il che non e' affatto scontato), ma perche' uscire con queste sentenze da frate indovino? Aspetta che esce e poi valutiamo


Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.
k0nt307 Maggio 2021, 15:59 #14
Originariamente inviato da: CrapaDiLegno
Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.

Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.
CrapaDiLegno07 Maggio 2021, 16:35 #15
Originariamente inviato da: k0nt3
Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.

Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.
k0nt307 Maggio 2021, 19:54 #16
Originariamente inviato da: CrapaDiLegno
Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.

Il supporto a ROCm per Navi arriva nel 2021, per cui non è un problema di hardware, ma di software in questo caso.
Fonte: https://github.com/RadeonOpenCompute/ROCm/issues/1061
Fino a prova contraria chi fa confusione coi termini sei te, visto che parlavi di algoritmi deterministici e non deterministici impropriamente.
Siamo tutti d'accordo che per calcolare i pesi di una rete neurale del genere serva un supercomputer data l'immensa quantità di dati, ma quei calcoli vengono fatti a monte e non in realtime. Di conseguenza non serve un supercomputer per eseguire una rete neurale con pesi precalcolati.
Come fai a sapere che Super Resolution tiene conto di un numero limitatissimo di dati in input? Hai anche solo una vaga idea di come funzioni? No perchè sarei curioso anche io di saperlo
Come fai a sapere che niente può funzionare in maniera paragonabile a DLSS senza tensor core? Alle schede AMD di certo non manca potenza di calcolo FP e banda. Quello che manca chiaramente è un ecosistema equivalente a quello di Nvidia.
Chi vivrà vedrà
devis07 Maggio 2021, 20:21 #17
Originariamente inviato da: CrapaDiLegno
Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.



Mi mancava il Fan Boy Nvidia saccentone Ma ti pagano almeno?
Fos08 Maggio 2021, 08:48 #18
Originariamente inviato da: CrapaDiLegno
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU...
Infatti ha investito uno stormetto...

Che le RDNA-2 possono eseguire direttamente calcoli INT4-8 si sa da un pezzo, ne parlava MS da prima dell'uscita di XSX, tanto che nei dettagli tecnici dichiara anche i TOPs.
Sembra faccia parte delle esclusive full RDNA-2.0 che MS può vantare in confronto a PS5.

Se cerchi Xbos Series X DirectML acceleration puoi vedere se il termine accelerazione somiglia a quello che credi...

https://www.overclock3d.net/news/so...er_resolution/1
DirectML - The API that could bring DLSS-like features to everyone

DirectML is a next-generation Xbox feature, and you can be sure that Microsoft will be pushing developers to use it. Work on DirectML has been happening publically for as long as DXR, and AMD's support for DirectML acceleration with RDNA 2 will help push the API to the forefront.
Ora, ad occhio (ma anche facendo i conti con i TOPs che nel caso di AMD si possono calcolare moltiplicando x 8 i TF in FP32, essendo calcolati all'interno...) direi che l'hardware del tutto dedicato Nvidia può sprigionare più potenza, ma far passare l'esecuzione AMD come una sorta di emulazione software è ridicolo.

Diresti che RDNA-2 non accelera i calcoli RT (visto che facevi l'esempio...) perché non lo fa da fuori la stanza? Non credo proprio, no?
Free Gordon09 Maggio 2021, 11:23 #19
sarà uno scontro molto interessante..

certo AMD non ha i tensor core, quindi dovrà usare un software molto efficiente se non vorrà perdere troppo in prestazioni (per avere una buona qualità.


Il problema, se ho ben compreso, è sfruttare efficientemente la potenza "residua" di elaborazione delle GPU RDNA2 a una risoluzione medio/bassa (1080p), per avere un output a 4K (o vicino) che sia qualitativamente buono (vicino al nativo) ma con un frame rate decisamente migliore.

Navi21 ha 128MB di cache che potrebbe risultare utile per queste operazioni.



Faccio una previsione: AMD uscirà con un'implementazione "qualità", mediamente un po' inferiore a quella Nvidia (DLSS2.0 qualità nel risultato finale ma con un decadimento prestazionale molto basso.
Nei giochi in cui AMD è davanti nel raster, la 6900 starà davanti alla 3090 (DLSS2.0 quality) con una qualità lievemente inferiore nel risultato finale.
Sarebbe un ottimo risultato per AMD.

PS.
[U]Sinceramente la modalità "performance" DLSS2.0 non la prenderei nemmeno in considerazione perché dai confronti che ho visto, fa' abbastanza pena.[/U]
StylezZz`09 Maggio 2021, 11:46 #20
Originariamente inviato da: Free Gordon
PS.
[U]Sinceramente la modalità "performance" DLSS2.0 non la prenderei nemmeno in considerazione perché dai confronti che ho visto, fa' abbastanza pena.[/U]


In effetti da quello che ho potuto testare solo su ''quality'' è apprezzabile, però io gioco a 1440p, forse in 4k si nota molto meno.

A questo punto se dovessi scegliere tra dlss perfomance/ultra performance e 1080p, sceglierei la seconda.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^