PDA

View Full Version : AMD FidelityFX Super Resolution a giugno. Funzionerà anche sulle GPU Nvidia e Intel?


Redazione di Hardware Upg
07-05-2021, 08:14
Link alla notizia: https://www.hwupgrade.it/news/skvideo/amd-fidelityfx-super-resolution-a-giugno-funzionera-anche-sulle-gpu-nvidia-e-intel_97541.html

Le ultime indiscrezioni riportano che la tecnologia AMD FidelityFX Super Resolution debutterà a giugno e sarà molto diversa dal DLSS di Nvidia. Allo stesso tempo, non è da escludersi che si tratti di una soluzione agnostica, cioè in grado di funzionare anche su GPU di altri produttori.

Click sul link per visualizzare la notizia.

ninja750
07-05-2021, 08:42
dai che così raddoppio gratis le prestazioni della mia rx580

:asd:

CrapaDiLegno
07-05-2021, 08:58
Logico funzioni differentemente.
Si vede che hanno capito che senza HW dedicato non possono far girare una rete neurale e quindi la prima idea di sviluppare un algoritmo con DirectML è andata a ramengo in fretta.

Quindi gli è rimasto solo l'altra opzione: il VSR, roba che diminuisce la qualità che non viene però più recuperata. Infatti parlano di "early in pipeline" e non in post come fa Nvidia.
Il resto (che è comunque necessario), cioè in post, rimangono solo algoritmi di calcolo statici come si sono sempre fatti per cercare di migliorare l'output finale. Saranno più o meno complessi (visto anche la potenza dell'HW su cui girano) ma sempre roba che non può aggiungere i dettagli rimossi, diversamente dal DLSS.

Ed è cosa buffa che si parli di VSR a oltre 2 anni e mezzo dal lancio di Turing che già lo supportava ma che nessuno ha mai preso in considerazione (chissà perché) anche dopo le demo di Nvidia stessa che mostravano i possibili guadagni prestazionali. Vorrà dire che anche Turing, come con il DLSS, godrà appieno di questa tecnologia nei titoli che la supporteranno senza DLSS, e ringraziamo sempre il fatto che AMD è monopolista nella fornitura dell'HW per console perché, come con il mesh shading, dimostra che è un passo avanti e con lei le nuove soluzioni arrivano prima :mc:

Possibile anche che Nvidia sfrutti questa cosa per aumentare ulteriormente le prestazioni del DLSS aggiungendolo al VSR, visto che l'immagine di partenza ora può essere anche di risoluzione diversa (quindi calcolata ancora più velocemente) e il DLSS può ricostruire anche le parti con meno dettagli aumentando la qualità dell'immagine.

Ovviamente quando disponibile si chiede la prova meticolosa dei due algoritmi per valutare l'impatto sulla qualità finale dell'immagine. E magari non solo in versione Performance come fatto nell'ultimo test del DLSS, visto che le versioni che mantengono la qualità decente perdono sì in prestazioni ma non così tanto da escludere a priori il loro uso.

E' evidente che AMD sta cercando di salvarsi in corner in una situazione in cui ha sottovalutato il potenziale dell'accelerazione AI non aggiungendo alcun HW specifico. Stessa cosa fatta da Sony e MS che avrebbero potuto aggiungerlo "a posteriori" se avessero voluto.
Ma vedendo il numero di transistor più che raddoppiato rispetto a Polaris per aggiungere poca roba, direi che se avesse voluto veramente supportare sia l'RT che l'accelerazione AI con roba tipo i tensor core oggi dovrebbe sfornare die grandi una volta e mezza quelli di Nvidia nonostante il PP migliore.
Aspettiamo i 5nm, ma dubito che le cose miglioreranno, visto i costi per mm2 che si avranno con quel PP.. e Nvidia non ha ancora giocato la carta "PP avanzato con frequenze da capogiro" come ha già fatto AMD, pur avendo il supporto completo a tutte le feature moderne finora disponibili.
Aspettiamoci sorprese al prossimo giro che per AMD direi non sarà prima del 2023 quando i 5nm avranno rese paragonabili ai 7nm di adesso (ma i costi saranno sensibilmente maggiori, come visto dai 28nm in poi rispecchiati nei prezzi all'utente....per chi ancora crede che i 500mm2 del G80 hanno gli stessi costi dei 500mm2 di Turing o peggio, dei 500mm2 di RDNA1/2).

dai che così raddoppio gratis le prestazioni della mia rx580
Spiace deludere le tue aspettative, ma il supporto HW del VSR ce l'ha solo RDNA2 (e non sono sicuro che ce l'abbiano entrambe le console che montano una roba ibrida), per cui tutte le serie precedenti di AMD potranno godere al massimo solo degli effetti di post ultra sofisticati (funzionanti a risoluzione basse o muore tutto) ma non dell'aumento di prestazioni per la diminuzione parziale della qualità d'immagine.

ghiltanas
07-05-2021, 09:53
vediamo come va, anche se i dubbi a riguardo sono molti

nickname88
07-05-2021, 10:38
FidelityFX funziona anche su Nvidia, mi aspetto sia lo stesso per questa visto che NON fa uso di unità dedicate. :asd:

Sarà sicuramente meglio del classico upscale per tutti quei titoli sponsorizzati AMD e in cui il DLSS è stato bandito a tavolino.

supertigrotto
07-05-2021, 10:45
Una dei fattori per cui ho scelto quella volta la 5700 al posto della 2060 o 2070 è per via delle tecnologie proprietarie di Nvidia,mi rompeva prendere un monitor Gsinc per cui sarei stato costretto ad usare sempre schede Nvidia,magari se mi veniva voglia di passare ad AMD o le future Intel,sarei stato un po' frenato dal monitor.
Comunque sia, AMD sta portando avanti i chiplet anche in ambito GPU (se per quello pure Intel) ,quindi mi aspetto che le prossime generazioni,abbiano funzioni implementabili con appositi chip on package.

StylezZz`
07-05-2021, 11:10
Una dei fattori per cui ho scelto quella volta la 5700 al posto della 2060 o 2070 è per via delle tecnologie proprietarie di Nvidia,mi rompeva prendere un monitor Gsinc per cui sarei stato costretto ad usare sempre schede Nvidia,magari se mi veniva voglia di passare ad AMD o le future Intel,sarei stato un po' frenato dal monitor

Le schede nvidia serie 10x0 e 20x0 sono compatibili con freesync da gennaio 2019, prima dell'uscita delle 5700.

supertigrotto
07-05-2021, 11:20
Le schede nvidia serie 10x0 e 20x0 sono compatibili con freesync da gennaio 2019, prima dell'uscita delle 5700.

A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.

StylezZz`
07-05-2021, 11:31
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.

https://www.hwupgrade.it/news/skvideo/g-sync-disponibile-anche-su-monitor-freesync_80005.html

Data notizia: 7 gennaio 2019.

Dopo qualche settimana uscirono i driver aggiornati.

EDIT: sto vedendo che all'epoca sei stato tra i primi a commentare nelle varie notizie riguardo la compatibilità gsync/freesync, quindi come mai scrivi che non ti risulta? :confused:

k0nt3
07-05-2021, 11:56
Logico funzioni differentemente.
Si vede che hanno capito che senza HW dedicato non possono far girare una rete neurale e quindi la prima idea di sviluppare un algoritmo con DirectML è andata a ramengo in fretta.

Quindi gli è rimasto solo l'altra opzione: il VSR, roba che diminuisce la qualità che non viene però più recuperata. Infatti parlano di "early in pipeline" e non in post come fa Nvidia.
Il resto (che è comunque necessario), cioè in post, rimangono solo algoritmi di calcolo statici come si sono sempre fatti per cercare di migliorare l'output finale. Saranno più o meno complessi (visto anche la potenza dell'HW su cui girano) ma sempre roba che non può aggiungere i dettagli rimossi, diversamente dal DLSS.

Ed è cosa buffa che si parli di VSR a oltre 2 anni e mezzo dal lancio di Turing che già lo supportava ma che nessuno ha mai preso in considerazione (chissà perché) anche dopo le demo di Nvidia stessa che mostravano i possibili guadagni prestazionali. Vorrà dire che anche Turing, come con il DLSS, godrà appieno di questa tecnologia nei titoli che la supporteranno senza DLSS, e ringraziamo sempre il fatto che AMD è monopolista nella fornitura dell'HW per console perché, come con il mesh shading, dimostra che è un passo avanti e con lei le nuove soluzioni arrivano prima :mc:

Possibile anche che Nvidia sfrutti questa cosa per aumentare ulteriormente le prestazioni del DLSS aggiungendolo al VSR, visto che l'immagine di partenza ora può essere anche di risoluzione diversa (quindi calcolata ancora più velocemente) e il DLSS può ricostruire anche le parti con meno dettagli aumentando la qualità dell'immagine.

Ovviamente quando disponibile si chiede la prova meticolosa dei due algoritmi per valutare l'impatto sulla qualità finale dell'immagine. E magari non solo in versione Performance come fatto nell'ultimo test del DLSS, visto che le versioni che mantengono la qualità decente perdono sì in prestazioni ma non così tanto da escludere a priori il loro uso.

E' evidente che AMD sta cercando di salvarsi in corner in una situazione in cui ha sottovalutato il potenziale dell'accelerazione AI non aggiungendo alcun HW specifico. Stessa cosa fatta da Sony e MS che avrebbero potuto aggiungerlo "a posteriori" se avessero voluto.
Ma vedendo il numero di transistor più che raddoppiato rispetto a Polaris per aggiungere poca roba, direi che se avesse voluto veramente supportare sia l'RT che l'accelerazione AI con roba tipo i tensor core oggi dovrebbe sfornare die grandi una volta e mezza quelli di Nvidia nonostante il PP migliore.
Aspettiamo i 5nm, ma dubito che le cose miglioreranno, visto i costi per mm2 che si avranno con quel PP.. e Nvidia non ha ancora giocato la carta "PP avanzato con frequenze da capogiro" come ha già fatto AMD, pur avendo il supporto completo a tutte le feature moderne finora disponibili.
Aspettiamoci sorprese al prossimo giro che per AMD direi non sarà prima del 2023 quando i 5nm avranno rese paragonabili ai 7nm di adesso (ma i costi saranno sensibilmente maggiori, come visto dai 28nm in poi rispecchiati nei prezzi all'utente....per chi ancora crede che i 500mm2 del G80 hanno gli stessi costi dei 500mm2 di Turing o peggio, dei 500mm2 di RDNA1/2).


Spiace deludere le tue aspettative, ma il supporto HW del VSR ce l'ha solo RDNA2 (e non sono sicuro che ce l'abbiano entrambe le console che montano una roba ibrida), per cui tutte le serie precedenti di AMD potranno godere al massimo solo degli effetti di post ultra sofisticati (funzionanti a risoluzione basse o muore tutto) ma non dell'aumento di prestazioni per la diminuzione parziale della qualità d'immagine.
Ti svelo un segreto, anche le schede AMD hanno hardware in grado di accelerare calcoli di DL, ML ecc... se ti riferisci alla mancanza di tensor core, mi sembra ovvio dato che e' una tecnologia proprietaria di Nvidia.
Detto questo nel DLSS il ML serve per generare i pesi della rete neurale, e questo viene fatto a monte, non in realtime. In realtime hai soltanto la rete neurale con i pesi precalcolati.
Altra rivelazione: anche una semplice interpolazione lineare aggiunge dettagli rimossi.
Puo' anche darsi che la soluzione Nvidia rimanga superiore (il che non e' affatto scontato), ma perche' uscire con queste sentenze da frate indovino? Aspetta che esce e poi valutiamo

ilariovs
07-05-2021, 13:06
https://www.hwupgrade.it/news/skvideo/g-sync-disponibile-anche-su-monitor-freesync_80005.html

Data notizia: 7 gennaio 2019.

Dopo qualche settimana uscirono i driver aggiornati.

EDIT: sto vedendo che all'epoca sei stato tra i primi a commentare nelle varie notizie riguardo la compatibilità gsync/freesync, quindi come mai scrivi che non ti risulta? :confused:

Ma la compatibilità delle GPU Nvidia col freesync vale per tutti i monitor?

Perchè io ricordo che sul sito Nvidia c'è una lista di compatibilità. Per esempio io ho un LG 24" FHD 75Hz ma selezionando LG come produttore e 24" come size non ne ho visti di compatibili.

Inoltre io ricordo vagamente il che serve la DP per la compatibilità. Via HDMI ho visto solo le TV LG Oled compatibili.

Ma il mio monitor ha solo la HDMI e usa il freesync con la RX 570.

Mi è sfuggito qualcosa?

StylezZz`
07-05-2021, 13:15
Ma la compatibilità delle GPU Nvidia col freesync vale per tutti i monitor?

Perchè io ricordo che sul sito Nvidia c'è una lista di compatibilità. Per esempio io ho un LG 24" FHD 75Hz ma selezionando LG come produttore e 24" come size non ne ho visti di compatibili.

Inoltre io ricordo vagamente il che serve la DP per la compatibilità. Via HDMI ho visto solo le TV LG Oled compatibili.

Ma il mio monitor ha solo la HDMI e usa il freesync con la RX 570.

Mi è sfuggito qualcosa?

Anche se il monitor non è nell'elenco dei compatibili certificati sul sito nvidia, al 99% dei casi è compatibile, ma solo con la DP, non funziona con HDMI, quindi il tuo monitor non puoi sfruttarlo.

nickname88
07-05-2021, 13:28
A me non risulta,quando ho preso la 5700 la compatibilità di Nvidia con il freesync è uscita dopo diversi mesi.
Si vociferava che Nvidia voleva rendere le schede compatibili ma non c'era niente di certo.
il freesync è una soluzione HW, questa è una soluzione SW.

Di fatto le schede Nvidia saranno compatibili sia con DLSS che con questo SR.
Le AMD continueranno a non essere compatibili invece col DLSS e anche se dovessero renderle compatibili non avrebbero le unità dedicate.

CrapaDiLegno
07-05-2021, 14:02
Ti svelo un segreto, anche le schede AMD hanno hardware in grado di accelerare calcoli di DL, ML ecc... se ti riferisci alla mancanza di tensor core, mi sembra ovvio dato che e' una tecnologia proprietaria di Nvidia.
Detto questo nel DLSS il ML serve per generare i pesi della rete neurale, e questo viene fatto a monte, non in realtime. In realtime hai soltanto la rete neurale con i pesi precalcolati.
Altra rivelazione: anche una semplice interpolazione lineare aggiunge dettagli rimossi.
Puo' anche darsi che la soluzione Nvidia rimanga superiore (il che non e' affatto scontato), ma perche' uscire con queste sentenze da frate indovino? Aspetta che esce e poi valutiamo

Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.

k0nt3
07-05-2021, 14:59
Ti svelo un segreto: AMD NON HA HW per l'accelerazione di operazioni di ML.
L'uso dei pesi è necessario effettuare diversi calcoli di inferenza (sopratutto operazioni matriciali) e i tensor lo fanno molto efficacemente come dimostrato dalle milioni di schede Turing che Nvidia aha venduto proprio per quel lavoro (vs le 0 di AMD).

E no, fare una interpolazione lineare non aggiunge dettagli rimossi. E' aumentare i dettagli con roba che non esiste ed è appunto ricreata in maniera deterministica. Si aumenta i dettaglio apparente ma non quello reale. Cosa comune a TUTTI gli algoritmi deterministici che non hanno mai ottenuto (e non potranno farlo neanche in futuro) la stessa qualità di immagine del DLSS.
Ma hai visto il DLSS applicato ad immagini di risoluzione infima cosa tira fuori? Roba mai vista e impossibile da ottenere con qualsiasi algoritmo "pre cotto".

Qui siamo a livello delle discussioni del ray tracing su Polaris e Vega con quelli che svelavano segreti, tipo che l'HW di AMD aveva la capacità di elaborare il ray tracing senza unità HW dedicate (un po' come i tostapane). E infatti abbiamo visto le prestazioni.. ah no, AMD si è rifiutata di abilitare le schede senza unità HW al supporto del DXR onde evitare di fare figure meschine.
Qui uguale.
Le tecnologie all'opera sono completamente diverse e basate su principi completamente diversi. Solo che una ha l'HW per usare gli algoritmi moderni, l'altra è ancora ai tempi delle interpolazioni "lineari" del 1970. Effettuati molto più velocemente, certo, ma sempre quella filosofia e con gli stessi risultati ideali di allora.

Se fai conto che questo tipo di elaborazione è usabile da Nvidia (e già comunque la usa insieme al DLSS) non puoi pensare che questi algoritmi + DLSS avranno qualità inferiore ai soli algoritmi qui usati.
L'unica cosa nuova che sfrutta realmente AMD è il VSR, che comunque è roba vecchia di due anni e mezzo come già detto.
Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.

CrapaDiLegno
07-05-2021, 15:35
Io non ho mai detto che l'interpolazione lineare ha una qualita' comparabile a DLSS, ho semplicemente detto che crea dati dove non ci sono, cosa che innegabilmente e' vera e invece tu pensi che lo fa solo DLSS. La differenza e' indubbiamente la qualita' ottenuta.
Poi in cosa DLSS 2.0 non e' deterministico? La mia e' una domanda seria, se i pesi sono precalcolati mi aspetto che a parita' di input dia sempre lo stesso output (a meno di approssimazioni che ci sono sempre per la natura dei calcoli in virgola mobile).
Per quanto riguarda l'hardware, ripeto che anche le schede AMD possono accelerare i calcoli di ML, in fin dei conti si tratta di calcoli in virgola mobile. La differenza in questo caso la fa l'ecosistema che Nvidia ha creato attorno al proprio hardware (tensor core, CUDA ecc...), a cui AMD ha risposto un po' in ritardo con ROCm.
Come ho gia' detto prima non e' affatto scontato che la soluzione AMD sia sensibilmente peggiore in questo caso, aspetterei di vedere i risultati reali prima di sbandierare sentenze basate sul nulla.
Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.

k0nt3
07-05-2021, 18:54
Fai confusione tra dettagli aggiunti e ricostruiti. Sono 2 cose differenti e io ho sempre usato i termini appropriati in questo thread. Rileggilo se non hai capito.
La "determinazione" che intendo per i filtri a funzione fiisa è che appunto non si adattano al contesto. Entra una matrice piuttosto semplice, ne esce un'altra altrettanto semplice. Che aggiunge eventualmente dettagli sintetici (ma non quelli originali) là dove non ci sono.
L'algoritmo Ml è altra cosa e sebbene a stesso input corrisponde stesso output, la quantità di dati presi in esame è così grande che non è possibile avere sempre lo stesso input. Per questo si costruisce un modello di inferenza che richiede supercomputer, rispetto a creare un algoritmo "statico" che fa un calcolo "statico" su un numero limitatissimo di dati in input.

Ed ecco che parli della capacità di are i calcoli ML anche da parte AMD perché sono giusto solo calcoli FP (ma non solo e lo fanno in maniera particolare ottimizzato al target, non sono FP16 o 32 generici). Esattamente come con i calcoli ray tracing... che sono pure in gran parte INT. E che una GPU o una CPU non sono in grado di eseguirli? Ovviamente sì, ma non in maniera proficua per un calcolo in real time se non coadiuvato da HW dedicato allo scopo. Ecco il riferimento al tostapane che ti è sfuggito
Quindi se vuoi fare un algoritmo ML su GPU AMD nessuno te lo impedisce ma o i conti sono proprio banali (quindi risultato pessimo) oppure non sarai in grado di farli nel tempo richiesto tra un frame e l'altro. Andando addirittura a sottrarre le capacità di calcolo proprio alle stesse unità che calcolano il frame 3D (i tensor invece lavorano in parallelo, portando solo ad un uso maggiore di banda).
Comunque la giri, senza HW dedicato, non ottieni le stesse performance di quanto riesce a fare Nvidia, né dal punto di vista della velocità di calcolo né sulla qualità.
Quindi è una strada non perseguibile per fare concorrenza a chi ti sta davanti già un giro (ed è la stessa identica cose successa per il raytracing, in quel caso mai affrontato senza HW dedicato).

E comunque hai le idee un po' confuse tra quello che è un framework per la programmazione e quello che è la capacità dell'HW.
Ne derivano le tue uscite sulla capacità di AMD di eseguire i calcoli ML (coe qualsiasi processore, anche il C64) e che credi che Nvidia lo faccia meglio solo per l'esistenza di CUDA.
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU, e oggi pure Vega VII è fuori produzione, mentre Nvidia ha venduto, e continua a vendere, bastioni di T4 proprio per le capacità HW di quelle schede.
Se fosse solo merito di CUDA allora anche le Pascal sarebbero state richieste per gli stessi lavori...
E ROCm non funziona sulle RDNA, ma solo sulle CDNA (ancora da vedere in funzione). Ci sarà un motivo, no?

Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.
Il supporto a ROCm per Navi arriva nel 2021, per cui non è un problema di hardware, ma di software in questo caso.
Fonte: https://github.com/RadeonOpenCompute/ROCm/issues/1061
Fino a prova contraria chi fa confusione coi termini sei te, visto che parlavi di algoritmi deterministici e non deterministici impropriamente.
Siamo tutti d'accordo che per calcolare i pesi di una rete neurale del genere serva un supercomputer data l'immensa quantità di dati, ma quei calcoli vengono fatti a monte e non in realtime. Di conseguenza non serve un supercomputer per eseguire una rete neurale con pesi precalcolati.
Come fai a sapere che Super Resolution tiene conto di un numero limitatissimo di dati in input? Hai anche solo una vaga idea di come funzioni? No perchè sarei curioso anche io di saperlo :doh:
Come fai a sapere che niente può funzionare in maniera paragonabile a DLSS senza tensor core? Alle schede AMD di certo non manca potenza di calcolo FP e banda. Quello che manca chiaramente è un ecosistema equivalente a quello di Nvidia.
Chi vivrà vedrà :O

devis
07-05-2021, 19:21
Rivedi bene le tue conoscenze, poi dai una ripassata alla storia e congiungi i puntini.


Mi mancava il Fan Boy Nvidia saccentone :asd: Ma ti pagano almeno?

Fos
08-05-2021, 07:48
Hai ignorato bellamente tutti i suggerimenti sul fato che AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU...Infatti ha investito uno stormetto...

Che le RDNA-2 possono eseguire direttamente calcoli INT4-8 si sa da un pezzo, ne parlava MS da prima dell'uscita di XSX, tanto che nei dettagli tecnici dichiara anche i TOPs.
Sembra faccia parte delle esclusive full RDNA-2.0 che MS può vantare in confronto a PS5.

Se cerchi Xbos Series X DirectML acceleration puoi vedere se il termine accelerazione somiglia a quello che credi...

https://www.overclock3d.net/news/software/amd_has_an_answer_to_dlss_directml_super_resolution/1

DirectML - The API that could bring DLSS-like features to everyone

DirectML is a next-generation Xbox feature, and you can be sure that Microsoft will be pushing developers to use it. Work on DirectML has been happening publically for as long as DXR, and AMD's support for DirectML acceleration with RDNA 2 will help push the API to the forefront.Ora, ad occhio (ma anche facendo i conti con i TOPs che nel caso di AMD si possono calcolare moltiplicando x 8 i TF in FP32, essendo calcolati all'interno...) direi che l'hardware del tutto dedicato Nvidia può sprigionare più potenza, ma far passare l'esecuzione AMD come una sorta di emulazione software è ridicolo.

Diresti che RDNA-2 non accelera i calcoli RT (visto che facevi l'esempio...) perché non lo fa da fuori la stanza? Non credo proprio, no? :)

Free Gordon
09-05-2021, 10:23
sarà uno scontro molto interessante.. :oink: :oink: :oink:

certo AMD non ha i tensor core, quindi dovrà usare un software molto efficiente se non vorrà perdere troppo in prestazioni (per avere una buona qualità).


Il problema, se ho ben compreso, è sfruttare efficientemente la potenza "residua" di elaborazione delle GPU RDNA2 a una risoluzione medio/bassa (1080p), per avere un output a 4K (o vicino) che sia qualitativamente buono (vicino al nativo) ma con un frame rate decisamente migliore.

Navi21 ha 128MB di cache che potrebbe risultare utile per queste operazioni.



Faccio una previsione: AMD uscirà con un'implementazione "qualità", mediamente un po' inferiore a quella Nvidia (DLSS2.0 qualità) nel risultato finale ma con un decadimento prestazionale molto basso.
Nei giochi in cui AMD è davanti nel raster, la 6900 starà davanti alla 3090 (DLSS2.0 quality) con una qualità lievemente inferiore nel risultato finale. :sofico: :sofico: :sofico:
Sarebbe un ottimo risultato per AMD.

PS.
Sinceramente la modalità "performance" DLSS2.0 non la prenderei nemmeno in considerazione perché dai confronti che ho visto, fa' abbastanza pena. :stordita:

StylezZz`
09-05-2021, 10:46
PS.
Sinceramente la modalità "performance" DLSS2.0 non la prenderei nemmeno in considerazione perché dai confronti che ho visto, fa' abbastanza pena. :stordita:

In effetti da quello che ho potuto testare solo su ''quality'' è apprezzabile, però io gioco a 1440p, forse in 4k si nota molto meno.

A questo punto se dovessi scegliere tra dlss perfomance/ultra performance e 1080p, sceglierei la seconda.

nickname88
09-05-2021, 11:32
Il DLSS non ha necessariamente bisogno di unità dedicate.
Queste servono solo per un discorso prestazionale.

Control ad esempio non usava i tensor core, o almeno non quando usava il DLSS 1.

Free Gordon
11-05-2021, 01:39
ah beh certo... tutto (*o quasi) può essere fatto via software senza supporto di hw specifico ma è più lento. :D
Il problema è quanto... :sofico:

Cmq vediamo che combina AMD usando gli sp RDNA2 capaci di calcoli int4 e 8. Sulle Navi21, dato che 1920*1080 è una res molto abbordabile (per banda occupata soprattutto, grazie alla cache), credo che una buona parte degli sp potrà essere impegnata a fare questi calcoli. Chissà con quale efficienza però...