PDA

View Full Version : AMD FidelityFX Super Resolution (FSR), l'avversario di Nvidia DLSS arriva il 22 giugno


Redazione di Hardware Upg
01-06-2021, 04:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/amd-fidelityfx-super-resolution-fsr-l-avversario-di-nvidia-dlss-arriva-il-22-giugno_98160.html

AMD ha annunciato l'arrivo di FidelityFX Super Resolution (FSR), l'antagonista di Nvidia DLSS, il 22 giugno. Si tratta di una tecnologia in grado di funzionare anche sulle architetture concorrenti. Ecco i miglioramenti prestazionali che possiamo attenderci.

Click sul link per visualizzare la notizia.

demonsmaycry84
01-06-2021, 06:01
bhè si detta cosi e scritta cosi sembra il santo graal e ci si chiede davvero perchè fino ad oggi non è stato fatto( fatturare! fatturare! fatturare!).
Vedremo quando esce dei test qualitativi e pure come si comporterà contro il DLSS di nvidia.
Complimenti ad AMD che non lo ha bloccato all'ultima serie di GPU in commercio...vedremo non sò davvero se comprare la prossima 4xxx quando saranno disponibile.

IlCavaliereOscuro
01-06-2021, 06:26
Ma sfoca l'immagine come DLSS?

coschizza
01-06-2021, 07:07
Ma sfoca l'immagine come DLSS?

Il dlss non sfoca L immagine nella versione 2

Windtears
01-06-2021, 07:49
Una manna su console e non solo, su PC iniberei la funzione ai lamentini ultrapuristi del 4k e metti che ci sto rimettendo, non vorrei che dopo tanti pianti ed indinniazzione lo attivassero cambiando idea...

ma più che altro basta non scrivere baggianate e fomentare marketing ingannevole come con dlss e il "gioco a cyberpunk a 4k con RT attivo sulla 2060" quando si gioca a 1080p upscalato con ia. :asd:

comunque è sconfortante come la redazione non si sia degnata di scrivere una news sull'unreal engine 5 e il filtro embedded con funzioni molto simili a dlss (più di questo fsr) e soprattutto dell'ottimizzazione con amd, vero tallone d'achille dei tempi passati... boh.

cronos1990
01-06-2021, 07:55
A parole sembra la realizzazione di un miracolo. A parole.

Attendo i fatti per qualunque tipo di valutazione.

Windtears
01-06-2021, 08:11
A parole sembra la realizzazione di un miracolo. A parole.

Attendo i fatti per qualunque tipo di valutazione.

i miracoli non esistono, c'è perdita di qualità dell'immagine come in dlss (e no, non credete a DF e nemmeno ai vostri occhi, c'è perdita di qualità sempre e comunque perché c'è alterazione dell'originale) ma senza l'ia di mezzo a pastrucchiare l'immagine e aggiungere dettagli per renderla "migliore" (una bestemmia in fotografia, ma guai a dubitare del marketing).

Mi aspetto qualcosa forse migliore del dlss 1.0 ma di certo non del 2.0 e, personalmente, credo sarà inferiore a quanto vedremo utilizzato dall 'UE5 finale di cui qui si continua a tacere e che invece sarà sicuramente più supportato e portabile del supporto gioco per gioco...

sicuramente la mossa di supportare anche le gpu nvidia è molto da proviamo ad allargare la base il più possibile... vedremo come si evolverà la scenario, ma è comunque "concorrenza" e male non fa a priori.

coschizza
01-06-2021, 08:17
sicuramente la mossa di supportare anche le gpu nvidia è molto da proviamo ad allargare la base il più possibile... vedremo come si evolverà la scenario, ma è comunque "concorrenza" e male non fa a priori.

non è una MOSSA non possono farci niente se usi codice open il codice deve restare open

Windtears
01-06-2021, 08:19
non è una MOSSA non possono farci niente se usi codice open il codice deve restare open

se stanno "riciclando" parti open è giusto e hai ragione, ovviamente. ;)

non ho mai creduto e non crederò mai alle aziende come ong e di certo non amd. :P

cronos1990
01-06-2021, 08:21
Ovvio che i miracoli non esistono... altrimenti non si chiamerebbero miracoli.

Sul degrado della qualità, ne ho sentite di tutti i colori, ma mi pare spesso a sproposito.

Se prendiamo come "perfezione" l'immagine originale, è ovvio che qualunque alterazione della stessa non potrà mai essere uguale, e nel 99,9% dei casi è un degrado. Ma se applichi il DLSS 2.0 ad un gioco e non noti alcun tipo di differenza, o trovi casi in cui l'immagine ti sembra migliore (puoi avere un degrado dell'immagine iniziale e al tempo stesso migliorarla)... dove sarebbe il problema?
Se dopo l'applicazione del DLSS, o tecnologia analoga, visivamente non noto differenze e aumento gli FPS, perchè dovrei starmi a preoccupare che l'immagine è comunque degradata in qualche modo? Sarebbe come parlare del sesso degli angeli.

Quanto alla tecnologia AMD, sentenziare ancor prima di averla vista all'opera è puro pregiudizio. Io sinceramente dubito fortemente di quanto scritto nell'articolo, ma non per questo giudico un qualcosa che ancora non ho avuto modo di vedere.

coschizza
01-06-2021, 08:30
Ovvio che i miracoli non esistono... altrimenti non si chiamerebbero miracoli.

Sul degrado della qualità, ne ho sentite di tutti i colori, ma mi pare spesso a sproposito.

Se prendiamo come "perfezione" l'immagine originale, è ovvio che qualunque alterazione della stessa non potrà mai essere uguale, e nel 99,9% dei casi è un degrado. Ma se applichi il DLSS 2.0 ad un gioco e non noti alcun tipo di differenza, o trovi casi in cui l'immagine ti sembra migliore (puoi avere un degrado dell'immagine iniziale e al tempo stesso migliorarla)... dove sarebbe il problema?
Se dopo l'applicazione del DLSS, o tecnologia analoga, visivamente non noto differenze e aumento gli FPS, perchè dovrei starmi a preoccupare che l'immagine è comunque degradata in qualche modo? Sarebbe come parlare del sesso degli angeli.

Quanto alla tecnologia AMD, sentenziare ancor prima di averla vista all'opera è puro pregiudizio. Io sinceramente dubito fortemente di quanto scritto nell'articolo, ma non per questo giudico un qualcosa che ancora non ho avuto modo di vedere.

hai ragione ma fa molto strano che amd presenti una tecnologia e non mostri nessuna immagine che ne mostri le doti se non una su una gpu di un concorrente dove vedi degrado visivo, insomma oggi sappiamo 0 piu di ieri su questa tecnologia tranne il fatto che uscira a breve ma per il resto i dubbi restano gli stessi

Windtears
01-06-2021, 08:30
Ovvio che i miracoli non esistono... altrimenti non si chiamerebbero miracoli.

Sul degrado della qualità, ne ho sentite di tutti i colori, ma mi pare spesso a sproposito.

Se prendiamo come "perfezione" l'immagine originale, è ovvio che qualunque alterazione della stessa non potrà mai essere uguale, e nel 99,9% dei casi è un degrado. Ma se applichi il DLSS 2.0 ad un gioco e non noti alcun tipo di differenza, o trovi casi in cui l'immagine ti sembra migliore (puoi avere un degrado dell'immagine iniziale e al tempo stesso migliorarla)... dove sarebbe il problema?
Se dopo l'applicazione del DLSS, o tecnologia analoga, visivamente non noto differenze e aumento gli FPS, perchè dovrei starmi a preoccupare che l'immagine è comunque degradata in qualche modo? Sarebbe come parlare del sesso degli angeli.

Quanto alla tecnologia AMD, sentenziare ancor prima di averla vista all'opera è puro pregiudizio. Io sinceramente dubito fortemente di quanto scritto nell'articolo, ma non per questo giudico un qualcosa che ancora non ho avuto modo di vedere.


guarda sono d'accordo con te, forse mi sono espresso male... se come utente finale non noti differenze è perfetto e funziona, ma basta non compararlo all'esecuzione del gioco a risoluzione nativa senza la "furbata" del dlss-fsr-checkboarding quel che sia.

E non lo dico per fare l'ultrapurista o l'estremista (che è male), è solo perché mi capita spesso di sentir consigliare gpu come le 2060 per giocare in 4k con rt e mi viene da piangere. :(

per quanto riguarda fsr non ha tecniche di ricostruzione intelligente, ma "solo" filtri temporali di analisi frame precedenti, diciamo che ha meno magia per poter fare i miracoli di dlss di base... tutto qua, "magia" che invece l'implementazione nvidia (e quella dell'algoritmo epic su ue5) ha.

Se ricordi nel thread di cyberpunk avevo provato il pur semplice fidelity cas al 5% a 1440p e non avevo notato chissà quali differenze giocando (non sono uno che guarda i panorami in un action come quello) per cui non sono prevenuto... tutt'altro. ;)

Gameonline
01-06-2021, 08:34
.

Gameonline
01-06-2021, 08:37
Ovvio che i miracoli non esistono... altrimenti non si chiamerebbero miracoli.

Sul degrado della qualità, ne ho sentite di tutti i colori, ma mi pare spesso a sproposito.

Se prendiamo come "perfezione" l'immagine originale, è ovvio che qualunque alterazione della stessa non potrà mai essere uguale, e nel 99,9% dei casi è un degrado. Ma se applichi il DLSS 2.0 ad un gioco e non noti alcun tipo di differenza, o trovi casi in cui l'immagine ti sembra migliore (puoi avere un degrado dell'immagine iniziale e al tempo stesso migliorarla)... dove sarebbe il problema?
Se dopo l'applicazione del DLSS, o tecnologia analoga, visivamente non noto differenze e aumento gli FPS, perchè dovrei starmi a preoccupare che l'immagine è comunque degradata in qualche modo? Sarebbe come parlare del sesso degli angeli.

Quanto alla tecnologia AMD, sentenziare ancor prima di averla vista all'opera è puro pregiudizio. Io sinceramente dubito fortemente di quanto scritto nell'articolo, ma non per questo giudico un qualcosa che ancora non ho avuto modo di vedere.

A parte la questione miracoli, che lascerei in altri contesti, per il resto non posso fare altro che quotarti.
Penso che hai sintetizzato in modo equilibrato vari temi.

coschizza
01-06-2021, 08:37
Ma sfoca l'immagine come DLSS?

a guardare le immagini che hanno fornito, sfocano molto l'immagine come il dlss 1,0

boboviz
01-06-2021, 08:40
Qualcuno mi deve, prima o poi, spiegare perchè le tecnologie AMD sono quasi tutte aperte e/o compatibili con altrui HW e gli altri (tipo Nvidia) NO. Cos'è, masochismo di AMD? Oppure non ha abbastanza developer al suo interno per sostenere lo sviluppo "in house"? La seconda direi di no, vista la nascita di progetti come questo o come Rocm...

coschizza
01-06-2021, 08:41
Qualcuno mi deve, prima o poi, spiegare perchè le tecnologie AMD sono quasi tutte aperte e/o compatibili con altrui HW e gli altri (tipo Nvidia) NO. Cos'è, masochismo di AMD? Oppure non ha abbastanza developer al suo interno per sostenere lo sviluppo "in house"? La seconda direi di no, vista la nascita di progetti come questo o come Rocm...

perche amd non ha le risorse per svilupapre in casa i software oltre un certo livello quindi usa quello che offre il mercato con i vantaggi / svantaggi che questo comporta

Rocm dimostra proprio come non è in grado di fare queste cose visto il punto che ha raggiunto e la penetrazione di mercato pari a 0
Nvidia e intel investono in questo un ordine di grandezza in piu come risorse e personale.
Prendi l'esempio di blender nella prossima versione non supporteranno piu le gpu amd nel rendering perché hanno deprecato le opencl e amd non supporta allo stato attuale altro quindi potrai usare solo gpu nvidia fino a quando non troveranno una soluzione percorribile.

boboviz
01-06-2021, 08:43
perche amd non ha le risorse per svilupapre in casa i software oltre un certo livello quindi usa quello che offre il mercato con i vantaggi / svantaggi che questo comporta
E' quello che ho scritto anche io, anche se pensavo di no.
La questione delle "risorse" poteva essere corretta 5 anni fa. Ormai son 3 anni che il fatturato è solido ed in crescita (anche nel settore HPC, in cui AMD era al lumicino).
E' ora di assumere sviluppatori, direi.

boboviz
01-06-2021, 08:46
Rocm dimostra proprio come non è in grado di fare queste cose visto il punto che ha raggiunto e la penetrazione di mercato pari a 0
In realtà nel settore HPC Rocm ha una sua fetta, anche perchè è nato per quel settore (basti pensare che NON prevede una interfaccia grafica).
E, comunque, come ho detto nel messaggio precedente: ASSUMETE developer!!

boboviz
01-06-2021, 08:49
Prendi l'esempio di blender nella prossima versione non supporteranno piu le gpu amd nel rendering perché hanno deprecato le opencl e amd non supporta allo stato attuale altro quindi potrai usare solo gpu nvidia fino a quando non troveranno una soluzione percorribile.
A questo punto, però, ti tagli fuori anche le gpu Intel (quelle in arrivo).

coschizza
01-06-2021, 08:55
A questo punto, però, ti tagli fuori anche le gpu Intel (quelle in arrivo).

certamente ma intel ha sviluppato le sue one api in 1 anno e puo dare supporto a blender per supportarle in mesi o forse lo saranno gia la lancio.
E come nel mondo linux intel supporta il 100% del progetto e la distribuzione piu performante al mondo da anni è proprio quella creata da intel, amd da parte sua da il contributo per il supporto al suo hardware e basta, capisci che siamo su sue piani molto diversi, uno si puo fare un intero sistema operativo super ottimizzato l'altro puo supportare solo il suo hardware e non sempre al meglio (negli anni passati).
Con nvidia è lo stessa crea piu software/ framework che hardware perché uno senza gli altri non serve molto.

boboviz
01-06-2021, 09:09
certamente ma intel ha sviluppato le sue one api in 1 anno e puo dare supporto a blender per supportarle in mesi o forse lo saranno gia la lancio.
Non è che siano stà gran rivoluzione le OneApi, dal momento che non sono altro che Sycl+Opencl con spruzzate di C++. (Sycl lo supporta pure AMD).

E come nel mondo linux intel supporta il 100% del progetto e la distribuzione piu performante al mondo da anni è proprio quella creata da intel,
Stai dicendo ClearLinux? Ma chi la usa? Il mondo HPC? Ovviamente no, quelli si fanno tutto "in casa". Il mondo desktop? Ma se è in fondo alla classifica delle distro più usate. (la usa quel matto di Phoronix per i suoi test ed effettivamente è molto performante).

Con nvidia è lo stessa crea piu software/ framework che hardware perché uno senza gli altri non serve molto.
Questa frase non l'ho capita molto.

coschizza
01-06-2021, 09:13
Questa frase non l'ho capita molto.

nvidia crea molti framework per sfruttare il suo hardware cosa che amd non fa nemmeno in parte

Windtears
01-06-2021, 09:22
nvidia crea molti framework per sfruttare il suo hardware cosa che amd non fa nemmeno in parte

stiamo andando pesantemente ot, ma a questo giro amd ha il pieno supporto dell'unreal engine 5, compilato su threadripper e ottimizzato per rdna2, peccato che qui su hwu non se ne voglia parlare nella news e non capisco il perché... non è in ambito professionale o quello che dicevi tu, ma è una svolta nella direzione giusta, ma non dimenticare che è difficile combattere due monopoli in condizioni di svantaggio (e amd deve vedersela con nvidia e intel contemporaneamente) e con il budget che ha a disposizione.

chiaro che non vuol dire niente, ma è già qualcosa... o amd è sempre e per forza in errore? Perché a leggere qua e là pare che ancora valga la leggenda metropolitana dei driver scadenti e delle cpu forno. -.-

coschizza
01-06-2021, 09:25
stiamo andando pesantemente ot, ma a questo giro amd ha il pieno supporto dell'unreal engine 5, compilato su threadripper e ottimizzato per rdna2, peccato che qui su hwu non se ne voglia parlare nella news e non capisco il perché... non è in ambito professionale o quello che dicevi tu, ma è una svolta nella direzione giusta, ma non dimenticare che è difficile combattere due monopoli in condizioni di svantaggio (e amd deve vedersela con nvidia e intel contemporaneamente) e con il budget che ha a disposizione.

chiaro che non vuol dire niente, ma è già qualcosa... o amd è sempre e per forza in errore? Perché a leggere qua e là pare che ancora valga la leggenda metropolitana dei driver scadenti e delle cpu forno. -.-

su unreal engine 5 nvidia ha lo stesso supporto da sempre

ningen
01-06-2021, 09:32
E' una tecnologia interessante al pari del DLSS e sono molto curioso di vedere i risultati finali.
Sicuramente sarà divertente vedere la gente che schifava il DLSS, lodare Fidelity FX.

boboviz
01-06-2021, 09:49
nvidia crea molti framework per sfruttare il suo hardware cosa che amd non fa nemmeno in parte
Se AMD non supportasse il suo HW dubito riuscirebbe, come ha fatto negli ultimi tempi, a prendere le mega-commesse nel settore HPC. Quella è gente che guarda al supporto HW/SW.
C'è tutto portale gpuopen di AMD, anche se non ho abbastanza tempo (nè competenze così avanzate) per giudicare la bontà dei framework e dei suoi tools.

Comunque, concordo con te, AMD dovrebbe investire molto di più in questo settore.

coschizza
01-06-2021, 10:18
Se AMD non supportasse il suo HW dubito riuscirebbe, come ha fatto negli ultimi tempi, a prendere le mega-commesse nel settore HPC. Quella è gente che guarda al supporto HW/SW.
C'è tutto portale gpuopen di AMD, anche se non ho abbastanza tempo (nè competenze così avanzate) per giudicare la bontà dei framework e dei suoi tools.

Comunque, concordo con te, AMD dovrebbe investire molto di più in questo settore.

mega-commesse di una parte piccola del mercato detenuto da chi le restanti commesse le ha tutte

boboviz
01-06-2021, 10:28
mega-commesse di una parte piccola del mercato detenuto da chi le restanti commesse le ha tutte

Pensavo di discutere di tecnologia, ma alla fine mi trovo ad aver a che fare con un fanboy di Nvidia. Ok, direi di chiudere qui.

k0nt3
01-06-2021, 10:50
Qualcuno mi deve, prima o poi, spiegare perchè le tecnologie AMD sono quasi tutte aperte e/o compatibili con altrui HW e gli altri (tipo Nvidia) NO. Cos'è, masochismo di AMD? Oppure non ha abbastanza developer al suo interno per sostenere lo sviluppo "in house"? La seconda direi di no, vista la nascita di progetti come questo o come Rocm...
E' una strategia che paga sul lungo termine, e' piu' facile che diventi uno standard se e' open, altro che masochismo. DLSS invece se non diventa accessibile a tutti e' destinato all'oblio come e' stato anche per G-Sync.

bagnino89
01-06-2021, 11:09
Interessante, me senza unità hardware dedicate, non credo che possa minimamente competere col DLSS.

coschizza
01-06-2021, 11:10
Pensavo di discutere di tecnologia, ma alla fine mi trovo ad aver a che fare con un fanboy di Nvidia. Ok, direi di chiudere qui.

anche io parlavo ti tecnologia, non ho capito cosa centra il fanboy in questo contesto. Se chiudi fai male perché non ho capito il motivo.
Io sono fanboy del mio portafolgio, a parte questo solo uno stupido è fan di qualcosa che poi magari come questo contesto è una multinazionale.
Io in azienda uso per lavoro batterie di schede tesla con tutto i software che usano solo e soltanto schede nvidia è da fanboy ? no, si chiama mercato se nessuno mi considera neppure l'esistenza delle schede amd non è certo colpa mia e mi devo adeguare.
Un po come per i motori di rendering, chi mai userebbe una scheda amd se tutto il mercato usa solo cuda e le OptiX di nvidia, sono fanboy perche uso la tecnologia migliore? sono obbligato a farlo ma sarei ben felice di avere un concorrente cosa che come ti ho spiegato non abbiamo

coschizza
01-06-2021, 11:18
E' una strategia che paga sul lungo termine, e' piu' facile che diventi uno standard se e' open, altro che masochismo. DLSS invece se non diventa accessibile a tutti e' destinato all'oblio come e' stato anche per G-Sync.

piu facile ma non è una cosa certa l'esempio del opencl ne è la conferma tutti puntavano su quello poi praticamente è andato in in disuso e chi aveva basato tutto su quello come amd ora è in grossi problemi.
Nel caso del G-Sync ti ricordo che nvidia guadagna sul G-Sync e sul sistema aperto quindi alla fine comunque gli sta bene,

k0nt3
01-06-2021, 13:45
piu facile ma non è una cosa certa l'esempio del opencl ne è la conferma tutti puntavano su quello poi praticamente è andato in in disuso e chi aveva basato tutto su quello come amd ora è in grossi problemi.
Nel caso del G-Sync ti ricordo che nvidia guadagna sul G-Sync e sul sistema aperto quindi alla fine comunque gli sta bene,
Direi che Nvidia avrebbe preferito il business attorno a G-Sync, e se AMD avesse creato una sua tecnologia proprietaria avrebbe continuato a esistere. Con FreeSync invece si e' creato uno standard aperto, piu' accessibile di G-Sync, che di fatto ha tolto il vantaggio competitivo a Nvidia.
Lo stesso puo' accadere con FSR se davvero le prestazioni saranno paragonabili a DLSS, con l'aggravante che Nvidia non saprebbe piu' come giustificare l'area usata dai Tensor Core su una scheda "gaming".
OpenCL vs Cuda e' andata diversamente, ma li la concorrenza (sia AMD che Intel) e' arrivata in ritardo con prodotti non all'altezza. Come dicevo prima pero' lo standard aperto e' una strategia a lungo termine e non e' detto che la situazione possa cambiare in favore di uno standard aperto in futuro. Semplicemente ci vorra' molto tempo dato che il mercato ha accolto Cuda come standard di fatto.

nickname88
01-06-2021, 14:11
sfocare l'immagine il DLSS ?
Sicuramente molto più nitido del TAA che oramai è lo standard.

In Death Stranding il DLSS non solo non c'è perdita di immagine ma addirittura migliore, e i mirabolanti artefatti si notano di rado, salvo però poi scoprire che gli artefatti li generava pure il TAA.

igiolo
01-06-2021, 17:49
Mantle/Vulkan
Freesync/VFR


Spero sia parente di queste tecnologie, alla fine AMD tanta sostanza, opensource, e via andare.
ed Nvidia incassa
speriamo xkè il DLSS 2.0 funziona molto bene, ma è troppo maledettamente CLOSED

e contando che le console sono tutte AMD based, non ha senso
per me sfonda di brutto

nickname88
01-06-2021, 20:07
Mantle/Vulkan
Freesync/VFR


Spero sia parente di queste tecnologie, alla fine AMD tanta sostanza, opensource, e via andare.
ed Nvidia incassa
speriamo xkè il DLSS 2.0 funziona molto bene, ma è troppo maledettamente CLOSED

e contando che le console sono tutte AMD based, non ha senso
per me sfonda di bruttoOvviamente è principalmente ideato per le console, su PC AMD detiene solo il 20% del mercato.

igiolo
01-06-2021, 21:39
Non è che siano stà gran rivoluzione le OneApi, dal momento che non sono altro che Sycl+Opencl con spruzzate di C++. (Sycl lo supporta pure AMD).


Stai dicendo ClearLinux? Ma chi la usa? Il mondo HPC? Ovviamente no, quelli si fanno tutto "in casa". Il mondo desktop? Ma se è in fondo alla classifica delle distro più usate. (la usa quel matto di Phoronix per i suoi test ed effettivamente è molto performante).


Questa frase non l'ho capita molto.

Vero
Anche lato hypervisor AMD sta spingendo moltissimo
Pieno supporto da parte dei vendor più famosi

igiolo
01-06-2021, 21:39
Ovviamente è principalmente ideato per le console, su PC AMD detiene solo il 20% del mercato.

Beh oh
Ho una 2080
Ma il 20% dei PC gaming non mi pare una bazzecola eh

ghiltanas
02-06-2021, 08:15
Molto curioso di vederlo in azione, potrebbe finire come gsync vs freesync dove amd ha fornito una tecnologia comparabile disponibile per tutti.

nickname88
02-06-2021, 08:49
Beh oh
Ho una 2080
Ma il 20% dei PC gaming non mi pare una bazzecola ehNo ma l'80% è molto più influente.

Molto curioso di vederlo in azione, potrebbe finire come gsync vs freesync dove amd ha fornito una tecnologia comparabile disponibile per tutti.
Il Gsync così Physx richiedevano HW aggiuntivo, il DLSS no.
Inoltre il DLSS e questo SuperResolution possono coesistere nello stesso gioco.

bagnino89
02-06-2021, 09:08
Il Gsync così Physx richiedevano HW aggiuntivo, il DLSS no.
Inoltre il DLSS e questo SuperResolution possono coesistere nello stesso gioco.

Il DLSS richiede i tensor core per funzionare, sennò nada...

Dal sito di Nvidia:

Il DLSS sfrutta la potenza dei supercomputer NVIDIA per addestrare e migliorare il modello IA. I modelli aggiornati vengono erogati al tuo PC GeForce RTX tramite i driver Game Ready. I Tensor Core usano quindi i teraflop di potenza IA dedicata per eseguire la rete IA DLSS in tempo reale. E tu ottieni la potenza della rete di supercomputer DLSS per aumentare le prestazioni e la risoluzione.

Ed infatti non capisco come la tecnologia AMD possa competere senza accelerazione hardware dedicata...

nickname88
02-06-2021, 09:42
Il DLSS richiede i tensor core per funzionare, sennò nada...Si ma non richiede hardware aggiuntivo rispetto ad avere una VGA Nvidia. Non richiede una seconda scheda o un modulo aggiuntivo.

E no, il DLSS funziona anche senza tensor core volendo, quella cacata di Control infatti dall'alto della sua ottimizzazione non li usa, o non li usava quando aveva ancora il DLSS 1. I tensor core è solamente un unità più efficiente così come gli RT cores, non è che senza non puoi eseguirli proprio.

https://tech.everyeye.it/articoli/speciale-il-dlss-2-0-nvidia-prova-control-piccolo-miracolo-48138.html

Ed infatti non capisco come la tecnologia AMD possa competere senza accelerazione hardware dedicata...risposto sopra.

k0nt3
02-06-2021, 11:54
Ed infatti non capisco come la tecnologia AMD possa competere senza accelerazione hardware dedicata...
Vedo che c'e' ancora confusione riguardo all'aspetto "hardware dedicato".
AMD come Nvidia ha hardware in grado di accelerare calcoli FP o interi. I Tensor Core servono ad accelerare i calcoli ML e DL ed e' una tecnologia Nvidia non presente nelle schede AMD.
La vera domanda e': serve davvero ML/DL per l'upscaling? E' l'unica maniera? E.. no, il solo fatto che faccia "figo" non e' sufficiente a rispondere a questa domanda.
L'altro aspetto che si tira in ballo spesso e' la questione che la soluzione AMD, non avendo HW "dedicato" toglie risorse al rendering della scena. Anche questa affermazione lascia il tempo che trova, infatti anche specare area per metterci i TensorCore toglie risorse utili al rendering della scena. Quando i TensorCore sono sottoutilizzati e' solo uno spreco di area.

nickname88
02-06-2021, 12:08
Vedo che c'e' ancora confusione riguardo all'aspetto "hardware dedicato".
AMD come Nvidia ha hardware in grado di accelerare calcoli FP o interi. I Tensor Core servono ad accelerare i calcoli ML e DL ed e' una tecnologia Nvidia non presente nelle schede AMD.
La vera domanda e': serve davvero ML/DL per l'upscaling? E' l'unica maniera? E.. no, il solo fatto che faccia "figo" non e' sufficiente a rispondere a questa domanda.
L'altro aspetto che si tira in ballo spesso e' la questione che la soluzione AMD, non avendo HW "dedicato" toglie risorse al rendering della scena. Anche questa affermazione lascia il tempo che trova, infatti anche specare area per metterci i TensorCore toglie risorse utili al rendering della scena. Quando i TensorCore sono sottoutilizzati e' solo uno spreco di area.Parli però come se l'apporto fosse proporzionale.

I tensor core sono molto più efficienti rispetto al resto delle unità, quindi l'apporto prestazionale fornito dai tensor è più elevato rispetto a quello fornito dalla mancata presenza degli altri cores nello stesso spazio occupato.

I tensor core spazio sprecato quando non funzionano ?
Vale comunque la pena a seconda di quali sono i titoli in cui il DLSS è presente.



Seguendo il tuo ragionamento anche le unità RT sono sprecate se non lo usi, quindi i RT Accelerator di AMD sarebbe quasi tutta fuffa visto che ha prestazioni ridicole rispetto ad Nvidia che costringono fino ad ora a tenerlo disattivato.

k0nt3
02-06-2021, 12:40
Parli però come se l'apporto fosse proporzionale.

I tensor core sono molto più efficienti rispetto al resto delle unità, quindi l'apporto prestazionale fornito dai tensor è più elevato rispetto a quello fornito dalla mancata presenza degli altri cores nello stesso spazio occupato.

I tensor core spazio sprecato quando non funzionano ?
Vale comunque la pena a seconda di quali sono i titoli in cui il DLSS è presente.



Seguendo il tuo ragionamento anche le unità RT sono sprecate se non lo usi, quindi i RT Accelerator di AMD sarebbe quasi tutta fuffa visto che ha prestazioni ridicole rispetto ad Nvidia che costringono fino ad ora a tenerlo disattivato.
I Tensor Core sono molto piu' efficienti nei calcoli ML, ma dai per scontato che serva eseguire calcoli ML per un prodotto che e' pensato per i videogame. A parte DLSS non ci sono altre applicazioni attualmente e se FSR prende piede nemmeno quella.
Le unita' RT invece non sono sprecate, perche' verranno chiaramente utilizzate sempre di piu' in futuro. Riguardo RT AMD ha sicuramente molto da migliorare essendo alla prima generazione.

nickname88
02-06-2021, 13:33
I Tensor Core sono molto piu' efficienti nei calcoli ML, ma dai per scontato che serva eseguire calcoli ML per un prodotto che e' pensato per i videogame. A parte DLSS non ci sono altre applicazioni attualmente e se FSR prende piede nemmeno quella.
Le unita' RT invece non sono sprecate, perche' verranno chiaramente utilizzate sempre di piu' in futuro. Riguardo RT AMD ha sicuramente molto da migliorare essendo alla prima generazione.I tensor core su Geforce è a quello che servono, al DLSS, poco importa se è in grado di fare altro, ai giocatori non interessa.

Il super resolution se prendesse piede non sta scritto da nessuna parte che taglierebbe fuori il DLSS, uno non esclude l'altro, anzi il FidelityFX è già presente in giochi che dispongono anche del DLSS.

Le unita' RT invece non sono sprecate, perche' verranno chiaramente utilizzate sempre di piu' in futuro.
Per il futuro suppongo che saranno DLSS e questo SR a fare da padroni, sono una rivoluzione non da poco, o almeno io parlo del DLSS2.

Le unità RT per il futuro ? Se le performance RT fan schifo già ora, in futuro questa generazione di VGA è da buttare.

k0nt3
02-06-2021, 13:54
I tensor core su Geforce è a quello che servono, al DLSS, poco importa se è in grado di fare altro, ai giocatori non interessa.

Il super resolution se prendesse piede non sta scritto da nessuna parte che taglierebbe fuori il DLSS, uno non esclude l'altro, anzi il FidelityFX è già presente in giochi che dispongono anche del DLSS.


Per il futuro suppongo che saranno DLSS e questo SR a fare da padroni, sono una rivoluzione non da poco, o almeno io parlo del DLSS2.

Le unità RT per il futuro ? Se le performance RT fan schifo già ora, in futuro questa generazione di VGA è da buttare.

Ripeto la domanda che ho fatto prima:

serve davvero ML/DL per l'upscaling? E' l'unica maniera?

nickname88
02-06-2021, 17:45
Ripeto la domanda che ho fatto prima:

ovviamente no, ma il fine dovrebbe essere un altro, ossia il risultato finale.
Il DLSS 2 è veramente una cannonata a livello di resa visiva, vedremo la resa di AMD.

bagnino89
02-06-2021, 20:10
I Tensor Core sono molto piu' efficienti nei calcoli ML, ma dai per scontato che serva eseguire calcoli ML per un prodotto che e' pensato per i videogame. A parte DLSS non ci sono altre applicazioni attualmente e se FSR prende piede nemmeno quella.
Le unita' RT invece non sono sprecate, perche' verranno chiaramente utilizzate sempre di piu' in futuro. Riguardo RT AMD ha sicuramente molto da migliorare essendo alla prima generazione.

Ti sei risposto da solo, secondo me.

k0nt3
02-06-2021, 21:25
Ti sei risposto da solo, secondo me.
Finisci di leggere la frase fino al punto..

dado1979
17-06-2021, 14:43
ma più che altro basta non scrivere baggianate e fomentare marketing ingannevole come con dlss e il "gioco a cyberpunk a 4k con RT attivo sulla 2060" quando si gioca a 1080p upscalato con ia. :asd:

comunque è sconfortante come la redazione non si sia degnata di scrivere una news sull'unreal engine 5 e il filtro embedded con funzioni molto simili a dlss (più di questo fsr) e soprattutto dell'ottimizzazione con amd, vero tallone d'achille dei tempi passati... boh.
E' tutta questione di cosa conviene fare e di cosa ti costa fare quello che vuoi. E' cristallino che avere una RTX 3090 e quindi poter giocare in 4K con tutto al massimo sarebbe il top ma ci vogliono 2500 euro (2500 euro!!!!!!!!!).
In un periodo come questo avere tecnologie come questa è la manna dal cielo.

P.S. se effettivamente io potrò avere vantaggi sulla mia 1080 Ti da AMD giuro che Nvidia non vedrà mai più un euro da me, non lo merita.

Windtears
17-06-2021, 15:57
E' tutta questione di cosa conviene fare e di cosa ti costa fare quello che vuoi. E' cristallino che avere una RTX 3090 e quindi poter giocare in 4K con tutto al massimo sarebbe il top ma ci vogliono 2500 euro (2500 euro!!!!!!!!!).
In un periodo come questo avere tecnologie come questa è la manna dal cielo.

P.S. se effettivamente io potrò avere vantaggi sulla mia 1080 Ti da AMD giuro che Nvidia non vedrà mai più un euro da me, non lo merita.

il tuo discorso non fa una grinza, ma non aspettarti chissà che perché amd non è che ti darà il supporto.. è che la tecnologia è open e quindi supportata da tutto l'hw con xyz caratteristiche... non è che usciranno update dei driver da parte di amd dentro quelli nvidia per ottimizzare fsr sulle 1xxx. :(

è come il freesync che funziona su nvidia è solo perché lo standard (adaptive sync) è open e amd non c'ha pastrucchiato sopra per chiuderlo e renderlo "migliore" diverso o colorato di verde. :asd:

dado1979
18-06-2021, 08:26
il tuo discorso non fa una grinza, ma non aspettarti chissà che perché amd non è che ti darà il supporto.. è che la tecnologia è open e quindi supportata da tutto l'hw con xyz caratteristiche... non è che usciranno update dei driver da parte di amd dentro quelli nvidia per ottimizzare fsr sulle 1xxx. :(

è come il freesync che funziona su nvidia è solo perché lo standard (adaptive sync) è open e amd non c'ha pastrucchiato sopra per chiuderlo e renderlo "migliore" diverso o colorato di verde. :asd:
Questo mi basta e avanza per rendere i miei prossimi futuri acquisti privi del marchio Nvidia.
Io passerò da 50 fps in Cyberpunk a forse 80 fps grazie a AMD e ho una Nvidia... per me Nvidia deve necessariamente fallire (Nvidia e il modo di fare business di Nvidia) se fosse per loro mi toccherebbe comprare una 3060 a 800 euro.

nickname88
18-06-2021, 09:43
ma più che altro basta non scrivere baggianate e fomentare marketing ingannevole come con dlss e il "gioco a cyberpunk a 4k con RT attivo sulla 2060" quando si gioca a 1080p upscalato. :asd:

comunque è sconfortante come la redazione non si sia degnata di scrivere una news sull'unreal engine 5 e il filtro embedded con funzioni molto simili a dlss (più di questo fsr) e soprattutto dell'ottimizzazione con amd, vero tallone d'achille dei tempi passati... boh.Le baggianate sono quelle che hai scritto subito dopo la frase in grassetto.
Non hai una VGA RTX e non hai mai provato il DLSS2 però parli e spari sentenze per sentito dire come il peggiore dei fanboys.

Il DLSS2 è fenomenale e applicato in modalità qualità si fa spesso fatica a capire quale sia l'immagine nativa e quale quella col DLSS, dove in alcuni giochi la resa è anche superiore se consideriamo la presenza del TAA come filtro di riferimento.
In DS è sicuramente superiore ad esempio, e le chiacchiere stanno a zero.

Eh no, non è un semplice upscaling, il fatto che tu lo pensi indica solamente quando poco o nulla sai di ciò di cui hai parlato.

nickname88
18-06-2021, 09:47
Questo mi basta e avanza per rendere i miei prossimi futuri acquisti privi del marchio Nvidia.
Io passerò da 50 fps in Cyberpunk a forse 80 fps grazie a AMD e ho una Nvidia... per me Nvidia deve necessariamente fallire (Nvidia e il modo di fare business di Nvidia) se fosse per loro mi toccherebbe comprare una 3060 a 800 euro.Con Nvidia potrai usufruire sempre delle soluzioni open + di quelle proprietarie.
Con AMD invece potrai usufruire solo delle prime.
Per il resto fai tu.

Passare da 50 a 80 in Cyberpunk ? Ti aspetti sul serio una resa visiva analoga al DLSS ? :rolleyes:

dado1979
18-06-2021, 14:10
Con Nvidia potrai usufruire sempre delle soluzioni open + di quelle proprietarie.
Con AMD invece potrai usufruire solo delle prime.
Per il resto fai tu.

Passare da 50 a 80 in Cyberpunk ? Ti aspetti sul serio una resa visiva analoga al DLSS ? :rolleyes:
1) non è questione di risultati, ma di principi. Il principio che usa Nvidia é paraculo, egoista e sbagliato (secondo me). Il mondo è un pochino peggio grazie a questi modi di fare business (Nvidia, Apple, etcc...).
2) per la resa visiva io nel DLSS (dai filmati) non riesco a vedere alcuna differenza avvertibile nell'uso durante il gioco, se la resa dell'FSR è uguale o addirittura leggermente inferiore per me rimane la manna dal cielo (è come se avessi comprato una nuova gpu).

CrapaDiLegno
22-06-2021, 10:17
1) non è questione di risultati, ma di principi. Il principio che usa Nvidia é paraculo, egoista e sbagliato (secondo me). Il mondo è un pochino peggio grazie a questi modi di fare business (Nvidia, Apple, etcc...).
2) per la resa visiva io nel DLSS (dai filmati) non riesco a vedere alcuna differenza avvertibile nell'uso durante il gioco, se la resa dell'FSR è uguale o addirittura leggermente inferiore per me rimane la manna dal cielo (è come se avessi comprato una nuova gpu).

Quante sciocchezze per trovare una scusa qualsiasi per odiare una azienda.
Se non è questione di risultato puoi benissimo fare a meno di usare queste tecnologie. Il mio monitor scala perfettamente le immagino da 2K a 4K supportando qualsiasi SW senza problemi di perdita di prestazioni. La qualità è più che decente.
Non devo aspettare un supporto specifico nel gioco di una particolare tecnologia closed o open che sia.
Se invece ti interessa la qualità dell'immagine, da una parte c'è una azienda che ha creato un algoritmo moderno che sfrutta le tecnologie recenti che lei supporta per creare qualcosa che non ha mai fatto nessuno prima, dall'altra c'è n'è una che ha fatto investimento zero (sia in HW che in SW) raccattando SW e algoritmi già disponibili e facendo in modo che siano integrati nei giochi (manco nei suoi driver, devono proprio essere supportati dai programmatori) e ora te li spaccia come il miracolo finale.
Queste cose le poteva fare anche 9 anni fa quando ha presentato GCN, ma chissà perché la GRANDE, UNICA ONLUS della tecnologia non ci ha mai pensato finché Nvidia non ha presentato questa bomba nucleare che le ha tagliato le gambe e obbligandola a raffazzonare (al solito, come il FreeSync, le unità RT, la tesselazione, il supporto al GPGPU etc...) una cosa open fatta da altri tanto per dire: ce l'abbiamo anche noi e supportiamo tutti.

Se per te premiare una azienda del genere è migliorare il mercato, allora fai bene a giocare con le immagini sfuocate peggio che con lo scaler del monitor/TV.
Basta che non ti inventi altre sciocchezze per giustificare questo tipo di scelte.:mc:

Dark_Lord
22-06-2021, 10:48
Queste cose le poteva fare anche 9 anni fa quando ha presentato GCN, ma chissà perché la GRANDE, UNICA ONLUS della tecnologia non ci ha mai pensato finché Nvidia non ha presentato questa bomba nucleare che le ha tagliato le gambe e obbligandola a raffazzonare (al solito, come il FreeSync, le unità RT, la tesselazione, il supporto al GPGPU etc...) una cosa open fatta da altri tanto per dire: ce l'abbiamo anche noi e supportiamo tutti.

Ahhh, beata ingenuità...

La cosa grossa che ti sfugge in tutto questo tuo ragionamento, è che Nvidia cerca nuove strade e di innovare proprio perché HA un competitor come AMD che le sta dietro.

E ti dico un'altra cosa, nell'ipotesi in cui non ci fosse concorrenza, e la tua amata nvidia fosse in monopolio assoluto, non solo non avresti mai avuto tutte quelle funzionalità che ti piacciono tanto, ma avresti pagato ogni anno una botta di soldi per avere una gpu che forse sarebbe andata il 2% in più dell'anno precedente, esattamente la stessa cosa che successe con intel anni fa, quando AMD non era competitiva.

Anzi probabilmente il gaming su PC sarebbe proprio morto, e se non morto, tecnicamente molto più arretrato.

Quindi prega che AMD continui a fare concorrenza, invece di stare qua a scrivere stupidaggini da nvidiaro.

Windtears
22-06-2021, 16:10
https://www.youtube.com/watch?v=yFZAo6xItOI

un'ottima analisi imparziale, godetevela perché parla anche del confronto (non con lo stesso gioco al momento) anche con dlss 1.0 e addirittura filtro adobe rispetto a fsr.

386DX40
22-06-2021, 16:41
Vedevo la prima parte del video tecnico suddetto ma onestamente concettualmente queste moderne tecnologie mi fanno riflettere su un altro aspetto, che per mantenere una corsa assurda alla risoluzione, Hz, frame/s etc.. si sia arrivati al punto da necessitare di dover "compensare" la richiesta appunto di risoluzioni ingestibili per la massa soprattutto magari con l'avvento di features davvero importanti come la Global Illumination e in generale relativi requisiti minimi che non proprio la maggior parte delle persone abbiano sulle config standard next gen (ma si dai oggigiorno che sono 32GB di ram di sistema, 20GB di video ram, dischi da 3000MB/s, PSU che manco un forno elettrico etc...).

Ho sempre trovato interessanti funzionalita' a monte per cui non ci fosse una scelta dell' utente ma che proprio per architettura fossero innovative, ricordo il mondo in cui lavorava il Kyro II di PowerVR laddove la geometria non visibile non veniva di fatto calcolata e un chip da 175Mhz di allora dava sberle a destra e manca un po' a tutti almeno concettualmente e addirittura i giochi in 16bit nativi venivano renderizzati su una palette fissa interna a 32bit risultando in una differenza qualitativa per i tempi ottima soprattutto su giochi che di fatto non avevano nemmeno quella possibilita' negli engine.
Ma se si parla di upscaling all' intera immagine che ovviamente non sarà un upscaling all' immagine finale per entrambe le tecniche a prescindere dalla complessità ma pur upscaling resta, imho suona un po' (non e' cosi' ovvio ma in altri vecchi tempi) come una volta abbassare la risoluzione e lasciare all' upscaler del monitor di fare il resto. E' molto piu' complicato di cosi' ovvio ma forse non andrebbe rivalutato il requisito della corsa ai 4K, e poi 8K, e poi 16K, ma si sempre di più...?

Intendiamoci, ben venga ogni nuova features chiaro, poi se open e possibili su tutte le schede magari anche quelle un po' vecchiotte a dargli un boost, ma rende un po' l'idea IMHO che forse piu' che la risoluzione sarebbe stato interessante puntare su altre questioni (da tempo) come appunto la Global illumination ben prima ma che solo ora cominciano a vedere approssimata in tempo reale e che davvero fa la differenza anche a 1024x768 su un gioco di vent'anni fa.

Windtears
10-07-2021, 19:36
sto fsr ha avuto talmente "eco" da spingere nvidia a creare un preset con lo stesso nome "ultra quality" per non essere da meno (il marketing questo sconosciuto).

e soprattutto ha iniziato con pubblicità ingannevole su twitch in cui fa vedere un numerino (verde ovviamente) che aumenta con dlss on anziché off senza specificare preset, risoluzione e ovviamente senza alcuna modifica all'immagine in game.... CVD.

speriamo le gpu tutte arrivino presto ad avere prestazioni decenti con rt e pensionare ste tecnologie... in cui l'IQ si misura "ad occhi miei" (cite digital foundry)