View Full Version : AMD FidelityFX Super Resolution (FSR): cos'è, come funziona e prova sul campo
Redazione di Hardware Upg
22-06-2021, 14:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6055/amd-fidelityfx-super-resolution-fsr-cos-e-come-funziona-e-prova-sul-campo_index.html
AMD ha introdotto una nuova tecnologia chiamata FidelityFX Super Resolution (FSR). Da molti vista come la risposta al DLSS (Deep Learning Super Sampling) di Nvidia, ha un obiettivo simile ma lo raggiunge in modo diverso: nessuna rete neurale, ma algoritmi che permettono di fare un upscaling ottenendo quindi maggiori prestazioni senza degradare troppo il dettaglio rispetto a quello nativo. La tecnologia, a differenza del DLSS, è agnostica: funziona quindi sia sulle GPU AMD che su quelle Nvidia.
Click sul link per visualizzare l'articolo.
Ale55andr0
22-06-2021, 14:07
"Il DLSS 2.0 attuale ci sembra, ma per ora sottolineiamo si tratta semplicemente di un'impressione confrontando giochi diversi, migliore nel preservare la qualità dell'immagine anche alle modalità più sbilanciate verso le prestazioni. Forse, questo vantaggio è proprio frutto di tutto il lavoro fatto a monte da Nvidia e dalla sua rete neurale. La tecnologia esclusiva delle GeForce presenta inoltre meno fenomeni di sfarfallio e popping (molto evidenti in Full HD, meno in 4K) rispetto alla impostazione più spinta di Super Resolution."
Amen.
Io comunque, sino a che l'hardware "regge", sarò sempre per la nativa
Opteranium
22-06-2021, 14:35
Io comunque, sino a che l'hardware "regge", sarò sempre per la nativa
beh, con l'impostazione ultra hai una qualità pressoché identica ma già un 30-40% in più di fps, mica briciole. Direi che sia il compromesso migliore
ilariovs
22-06-2021, 14:38
Ho visto che guadagna un 20/22/25% con impostazione "ultra quality".
Per quanto mi riguarda è tutto quello che mi serve per giocare un altro anno tranquillo in FHD con la RX 570 perdendo, si spera pochissimo, in qualità.
Le immagini che si vedono sono in 4K chissà in FHD come si comporta.
Comunque considerando che è omaggio, grazie ad AMD del boost scaricherò i driver più a vanti con comodo, quando mi servirà l'FSR (se ho giochi che lo supportano).
supertigrotto
22-06-2021, 14:51
Oggi scarico i driver nuovi e li provo sulla 5700
ninja750
22-06-2021, 14:59
direi ottimo specialmente da bilanciato in su
ma senza un confronto diretto a parità di gioco non si può fare un confronto diretto con DLSS né lato performance né lato qualità
inoltre sbaglio o nessuno dei giochi supportati a oggi utilizza RT?
direi ottimo specialmente da bilanciato in su
ma senza un confronto diretto a parità di gioco non si può fare un confronto diretto con DLSS né lato performance né lato qualità
inoltre sbaglio o nessuno dei giochi supportati a oggi utilizza RT?
godfall lo utilizza.
Comunque direi che l fsr ha messo una croce sul dlss. I giochi che continueranno ad avere il dlss saranno solo i partner nvidia (per obbligo) il resto non investirà tempo e denaro per aggiungerlo al proprio prodotto, quando i risultati del fsr sono tranquillamente paragonabili e con costi di inserimento pari a 0. AMD praticamente dopo averle suonate ad intel le suona anche ad nvidia.
Ci sono margini di miglioramento della qualità e visto il guadagno prestazionale, potrebbero valutare una sorta di qualità "uber" con scaling 1.15x.
Se si guadagnasse il 20% di prestazioni anzichè il 40% e passa, comunque farebbe la differenza.
coschizza
22-06-2021, 15:20
godfall lo utilizza.
Comunque direi che l fsr ha messo una croce sul dlss. I giochi che continueranno ad avere il dlss saranno solo i partner nvidia (per obbligo) il resto non investirà tempo e denaro per aggiungerlo al proprio prodotto, quando i risultati del fsr sono tranquillamente paragonabili e con costi di inserimento pari a 0. AMD praticamente dopo averle suonate ad intel le suona anche ad nvidia.
con il DLSS inserito nei motori grafici principali non devi investire ne tempo ne denaro quindi tutti i titoli lo potranno usare
godfall lo utilizza.
Comunque direi che l fsr ha messo una croce sul dlss. I giochi che continueranno ad avere il dlss saranno solo i partner nvidia (per obbligo) il resto non investirà tempo e denaro per aggiungerlo al proprio prodotto, quando i risultati del fsr sono tranquillamente paragonabili e con costi di inserimento pari a 0. AMD praticamente dopo averle suonate ad intel le suona anche ad nvidia.
Non illuderti, intanto il DLSS è superiore, lo dicono tutti, poi parli di nVidia non noccioline ;)
Senza contare che il DLSS è in continua evoluzione, vedi la nuova versione 2.2 che alza l'asticella.
dado1979
22-06-2021, 15:25
"Il DLSS 2.0 attuale ci sembra, ma per ora sottolineiamo si tratta semplicemente di un'impressione confrontando giochi diversi, migliore nel preservare la qualità dell'immagine anche alle modalità più sbilanciate verso le prestazioni. Forse, questo vantaggio è proprio frutto di tutto il lavoro fatto a monte da Nvidia e dalla sua rete neurale. La tecnologia esclusiva delle GeForce presenta inoltre meno fenomeni di sfarfallio e popping (molto evidenti in Full HD, meno in 4K) rispetto alla impostazione più spinta di Super Resolution."
Amen.
Io comunque, sino a che l'hardware "regge", sarò sempre per la nativa
Si certo, credo tutti lo siano. Però con quello che costano le vga nel 2021 credo che DLSS e FSR siano la manna dal cielo (perchè io non spendo 1500 euro per una nuova vga e un aumento di fps è il benvenuto sulla mia 1080 Ti).
Falcon88
22-06-2021, 15:43
Contentissimo perché almeno la modalità ultra quality sembra visivamente indistinguibile e porta quel 30% di performance sulla mia gtx1080, tutto gratuitamente, ed anche sulle console che miglioreranno ancora le prestazioni.
Prossima scheda AMD.
ghiltanas
22-06-2021, 15:50
direi molto positivo, specialmente perchè è la prima incarnazione diciamo. Spero che i giochi che lo supportano aumentino, su altre testate, tipo techpowerup, ci sono maggiori confronti grafici con i diversi preset.
nickname88
22-06-2021, 15:54
tratto da Guru3D :
It was not any different for NVIDIA in the early stages of DLSS. DLSS started out as a deep learning algorithm from the first version, however, got so much lot better with DLSS 2.0 as NVIDIA can train their algorithms. AMD's Super Resolution is a purely spatial upscaler, and it's questionable how far you can get with that other than changing the input resolution and thus lower performance. AMD's technology does not feed itself with more information than an original image and a depth map. DLSS can make use of thousands of images to train from. In that mindset, FSR will be an intermediary solution to fill a performance gap at a cost; we feel AMD needs to embrace deep learning. In the end, we feel the Ultra quality mode is not bad at all, the real thesis here however goes like this; is not bad at all good enough?
https://www.guru3d.com/articles_pages/amd_fidelityfx_super_resolution_preview,5.html
mmorselli
22-06-2021, 15:54
La mia prima e profonda delusione è che non sia temporale. Il DLSS mi interessa molto più per le sue qualità di antialiasing temporale che non per l'aumento, gradito, di prestazioni.
Poi non capisco perché abbiano pubblicato frame interi solo in modalità performance. Un confronto su un particolare può farmi pensare che il particolare è stato scelto arbitrariamente, oppure semplicemente male.
in "performance" la perdita di qualità è tanta, chiaro che devo prendere un pezzo di scena con dettaglio, se prendo una mattonella sarà uguale a tutte le risoluzioni.
https://i.imgur.com/JfxFdMR.png
Alodesign
22-06-2021, 16:03
Ottimo, grazie AMD che rivitalizzi la mia 1080ti per qualche altro annetto.
interessante e sicurmente da provare...
dado1979
22-06-2021, 16:23
Ottimo, grazie AMD che rivitalizzi la mia 1080ti per qualche altro annetto.
Si anche il mio portafoglio ha tirato un sospiro di sollievo quando ho saputo che usciva questa tecnologia e anche io ho una 1080 Ti.
DJurassic
22-06-2021, 16:50
godfall lo utilizza.
Comunque direi che l fsr ha messo una croce sul dlss. I giochi che continueranno ad avere il dlss saranno solo i partner nvidia (per obbligo) il resto non investirà tempo e denaro per aggiungerlo al proprio prodotto, quando i risultati del fsr sono tranquillamente paragonabili e con costi di inserimento pari a 0. AMD praticamente dopo averle suonate ad intel le suona anche ad nvidia.
Scommetto che ti sei iscritto solo per scrivere questa perla di saggezza :asd:
Temo di non aver capito bene:
fsr è in pratica un algoritmo che fa upscaling di una immagine a bassa risoluzione (quale?) dopo che è stato applicato anche l'AntiAliasing. giusto ?
mmorselli
22-06-2021, 17:29
Temo di non aver capito bene:
fsr è in pratica un algoritmo che fa upscaling di una immagine a bassa risoluzione (quale?) dopo che è stato applicato anche l'AntiAliasing. giusto ?
Esatto, quindi non si può paragonare direttamente a DLSS che è anche un antialiasing temporale. Il migliore che esista, per altro, anni luce dal classico TAA
Scommetto che ti sei iscritto solo per scrivere questa perla di saggezza :asd:
Purtroppo credo che sei uno di quelli che ha pagato 4 volte tanto per una serie 3000 e ora ha il fegato in fiamme. La verità è che il magnifico DLSS non ha bisogno dei tensor core per funzionare, ma sono di ottimo aiuto. Il DLSS non è altro che un algoritmo scritto magnificamente, ma creato per gli allocchi che corrono a prendere l'ultima GPU nvidia. Vedrai che a breve sarà rilasciato anche per le GTX, come all'epoca fu per RTX Voice, una figura di m*** che ora si ripete. L'FSR funziona su qualsiasi cosa, secondo te gli sviluppatori perdono tempo ad implementare il DLSS, con costi e difficoltà associati, o implementano l'FSR facilmente e che funziona anche su console (e sono anche obbligati)? Prova a vedere i test di Steve e gli altri, così capisci che in 4k già ora FSR ultra quality e DLSS quality hanno lo stesso risultato. DLSS farà la fine di G-sync, costoso, efficiente, ma ignorato. Che poi dopo due anni nvidia ancora paga per far implementare il DLSS nessuno lo dice.
Non rispondo nemmeno all'altro che parla di DLSS incorporato in UE5 (probabilmente avrà 13 anni). Almeno andasse a guardare i risultati di TSR che sono migliori su AMD che nvidia dato lo sviluppo l'architettura RDNA2 (soprattutto di ps5) per cui è stato pensato.
La cosa bella di questo FSR è che posso usarlo anche con la mia RX 580 :cool:
coschizza
22-06-2021, 18:32
Purtroppo credo che sei uno di quelli che ha pagato 4 volte tanto per una serie 3000 e ora ha il fegato in fiamme. La verità è che il magnifico DLSS non ha bisogno dei tensor core per funzionare, ma sono di ottimo aiuto. Il DLSS non è altro che un algoritmo scritto magnificamente, ma creato per gli allocchi che corrono a prendere l'ultima GPU nvidia. Vedrai che a breve sarà rilasciato anche per le GTX, come all'epoca fu per RTX Voice, una figura di m*** che ora si ripete. L'FSR funziona su qualsiasi cosa, secondo te gli sviluppatori perdono tempo ad implementare il DLSS, con costi e difficoltà associati, o implementano l'FSR facilmente e che funziona anche su console (e sono anche obbligati)? Prova a vedere i test di Steve e gli altri, così capisci che in 4k già ora FSR ultra quality e DLSS quality hanno lo stesso risultato. DLSS farà la fine di G-sync, costoso, efficiente, ma ignorato. Che poi dopo due anni nvidia ancora paga per far implementare il DLSS nessuno lo dice.
Non rispondo nemmeno all'altro che parla di DLSS incorporato in UE5 (probabilmente avrà 13 anni). Almeno andasse a guardare i risultati di TSR che sono migliori su AMD che nvidia dato lo sviluppo l'architettura RDNA2 (soprattutto di ps5) per cui è stato pensato.
Si il dlss è integrato in ue4 e 5. Lo so perché ci sviluppo da qualche anno e non ho 13 anni ma quasi 50 dei quali 40 dedicati allo sviluppo
Per abilitare il dlss ti serve fare ben 2 click dico 2 non 3, evidentemente troppo difficile
"Il DLSS 2.0 attuale ci sembra, ma per ora sottolineiamo si tratta semplicemente di un'impressione confrontando giochi diversi, migliore nel preservare la qualità dell'immagine anche alle modalità più sbilanciate verso le prestazioni. Forse, questo vantaggio è proprio frutto di tutto il lavoro fatto a monte da Nvidia e dalla sua rete neurale. La tecnologia esclusiva delle GeForce presenta inoltre meno fenomeni di sfarfallio e popping (molto evidenti in Full HD, meno in 4K) rispetto alla impostazione più spinta di Super Resolution."
Amen.
Io comunque, sino a che l'hardware "regge", sarò sempre per la nativa
In compenso però ci siamo dimenticati le scie del DLSS.
coschizza
22-06-2021, 19:28
In compenso però ci siamo dimenticati le scie del DLSS.
Con il dlss 2.2 fortunatamente sono sparite anche quelle
mmorselli
22-06-2021, 19:28
In compenso però ci siamo dimenticati le scie del DLSS.
Perché è un temporal, ma la 2.2 le ha ridotte molto, io manco ci faccio caso, anche se dipende dalla sensibilità personale. In compenso se vedo mezzo angolino con dello shimmering esco pazzo, e con DLSS scompare.
mmorselli
22-06-2021, 19:30
tra l'altro pare che basti sostituire la nvngx_dlss.dll per avere la 2.2, senza toccare nulla nel gioco. Con No Man's Sky funziona.
Si il dlss è integrato in ue4 e 5. Lo so perché ci sviluppo da qualche anno e non ho 13 anni ma quasi 50 dei quali 40 dedicati allo sviluppo
Per abilitare il dlss ti serve fare ben 2 click dico 2 non 3, evidentemente troppo difficile
Vedo che non capisci il punto. Ne hai citato uno, ma quanti ne vengono usati? In quanti è presente? Dove non è un plugin, quanto ci vuole per implementarlo? L'FSR lo piazzi ovunque subito e senza sforzo.
Beh, direi che il risultato rientra nelle attese. Forse sorprende un po' sulle prestazioni, mi aspettavo qualcosa meno, ma sono dettagli.
Super Resolution è positivo perchè offre comunque la possibilità di aumentare le prestazioni in caso di necessità e se non si fa troppo gli schizzinosi con la qualità d'immagine.
Pecca però sul risultato assoluto, la qualità d'immagine non è paragonabile a quanto ottenuto con DLSS e concordo con chi dice che AMD dovrebbe comunque sviluppare o adottare una tecnologia basata sul deep learning.
Da una rapida occhiata ai benchmark pare che l'applicazione di questa tecnologia incida circa il 10% sulle prestazioni, per lo meno sulle schede "minori". Cioè, confrontando il 1080p nativo con il 4k performance (ossia 1080p nativo con applicato FSR) si ha una perdita di prestazioni con quest'ultimo che corrisponde a circa quella percentuale, per lo meno da una breve occhiata al alcuni titoli.
mmorselli
22-06-2021, 19:45
La verità è che il magnifico DLSS non ha bisogno dei tensor core per funzionare, ma sono di ottimo aiuto.
Ma è ovvio, i tensor core mica fanno qualcosa di magico, sono processorini dedicati al calcolo in bassa precisione, gli stessi calcoli li puoi fare anche con i CUDA e pure con la CPU, però stiamo parlando di tecnologie per aumentare il framerate, per cui i tensor core servono eccome.
Non è un caso che AMD non abbia scelto la strada del machine learning
ciolla2005
22-06-2021, 19:50
Un altro punto per AMD, mancano solo le schede.
mmorselli
22-06-2021, 19:51
Vedo che non capisci il punto. Ne hai citato uno, ma quanti ne vengono usati? In quanti è presente? Dove non è un plugin, quanto ci vuole per implementarlo? L'FSR lo piazzi ovunque subito e senza sforzo.
Cosa ti fa pensare che richieda sforzo? No Man's Sky ha un motore proprietario parecchio vecchio, eppure l'ha implementato subito. Tecnicamente è una chiamata ad una primitiva a cui passi il frame in bassa risoluzione, i motion vector, il frame precedente già scalato. Poi ovviamente l'implementazione in un gioco complesso non è mai una passeggiata per via dei test che ti tocca fare, ma in un gioco nuovo non deve essere sto problema anche per i motori proprietari.
Questo FSR fa quello che può, un decente compromesso tra fps e qualità, ma il DLSS è lontano anni. Un buon inizio, nonostante i limiti qualitativi, ovviamente al prossimo giro ci vuole l'IA.
DJurassic
22-06-2021, 20:57
Purtroppo credo che sei uno di quelli che ha pagato 4 volte tanto per una serie 3000 e ora ha il fegato in fiamme.
Mai affermazione fu più lontana dalla realtà :asd:
Ma va bene così, lasciamo stare dai.
Therinai
22-06-2021, 21:19
Non vedo l'ora di goderne anche su series x, oltre le più rosee aspettative.....
:D
Le scatolette upscalano abbestia già da parecchio tempo, magari con l'introduzione del'FSR potranno beneficiarne in qualità (anche i giochi per console intendo).
Comunque la domanda è: quando cavolo sarà introdotto un DLSS o FSR nella VR? E' lì che ci servono montagne di fps, altro che esports e csgo :rolleyes:
Therinai
22-06-2021, 21:22
Mai affermazione fu più lontana dalla realtà :asd:
Ma va bene così, lasciamo stare dai.
Bah, se ricordo bene sei uno dei pochi che è riuscito ad accaparrarsi una 3080 a prezzo "normale" :D
Vabbeh un neo iscritto che parte in quarta con attacchi diretti evidentemente non è un nuovo utente...
Un tweet di videocardz elogia il lavoro di AMD
FSR provato tramite "The Riftbreaker Demo" con una GeForce GT 555M a 1080p High Settings
FSR OFF 10 FPS
FSR Perf. ON 17 FPS
E poi, ironicamente, ha commentato
A mid-range mobile GPU from 2011 is supported, that's kind of amazing and funny
Fermi doesn't even have new drivers anymore.
Credo manchino dei test fondamentali per capire l impatto prestazionale delle varie modalità.
Ok sappiamo che rispetto ad un 4k nativo, spostandoci da ultra quality a performances quando "guadagnamo". Però a mio avviso il test andava fatto inserendo anche i valori ottenuti a 1k e 2k.
Di fatto il 4k performances il gioco viene renderizzato a 1k e poi gli algoritmi provano a portarlo su a 4k. Quindi sarebbe stato utile "capire" tra 1k base e 4k performances quanti fps mi perdo per questo upscaling ? Ne vale la pena a livello visivo? (Magari allegando qualche screenshot del 1k vs 4k performances)
Altro esempio 4k quality di fatto sta renderizzando nativo a 2k. Quindi tra un 2k standard e un 4k quality "quanto" sto perdendo in fps e quanto sto guadagnando a livello visivo?
Stessa cosa si poteva dare tra il 1k nativo ed il 2k ultra quality visto che di fatto il 2k ultra quality sta renderizzando ad una "puzza" in del 1k nativo (1107 vs 1080) . Certo in termini assoluti mi aspetto un guadagno in frame che sia poco inferiore al taglio di risoluzione lineare. I.E. renderizzi al 30% di risoluzione in meno , le aspetto quasi il 25% di fps in più (fsr qualcosa te lo mangia per fare i conti).
Sarebbe stato bello che ci fossero stati anche questi test in modo da avere chiare anche questi situazione, mettere degli screen comparativi e magari avere un parere del tester / recensore della modalità su cosa la convinceva di più.
Cmq a mio avviso sia questo fsr sia il dlss sono alla fine l evoluzione di tutte le modalità di AA che ci siamo beccati negli anni per adattarsi alle attuali risoluzioni. Siamo partiti dal supersampling dove si renderizzava ad una risoluzione più alta e che poi "comprimeva" nella risoluzione del monitor, ad oggi dove bisogna renderizzare a risoluzioni più basse e applicarci sopra dei filtri di upscaling che non facciano sembrare tutto pieno di blurr e con immagini che sembrino "renderizzare" come nella risoluzione a cui si vuole arrivare.
Ovviamente per chi ha ancora monitor ad 1k con delle GPU della scorsa generazione (Nvidia serie 20XX o una AMD 5700) come unica alternativa ha di applicarsi un super resolution da 2k riportato a 1k. Avrebbe poco senso giocare ad 1k con in frs o un dlss che ti renderizza a 960p e cerca di upscalarti XD. (E presumo che ne Nvidia ne AMD abbiano inserito questa risoluzione come target di questa modalità).
mmorselli
22-06-2021, 23:01
Comunque la domanda è: quando cavolo sarà introdotto un DLSS o FSR nella VR? E' lì che ci servono montagne di fps, altro che esports e csgo :rolleyes:
Il DLSS già funziona in VR e stanno iniziando ad implementarlo sempre più titoli. Al momento mi risultano:
No Man's Sky (DLSS ha radicalmente cambiato l'esperienza in VR)
Into The Radius
Wrench (questo ha anche RTX)
War Thunder
The Persistence
Surv1v3
Caves RD (seti di esperienze dove però è facile provare DLSS on/off in game)
Molti titoli sono legati a versioni vecchie di UE4 mentre per Unity mi pare che il supporto ufficiale arrivi entro fine anno, ma chi può lo implementa, perché risolve davvero un sacco di problemi.
coschizza
22-06-2021, 23:43
Vedo che non capisci il punto. Ne hai citato uno, ma quanti ne vengono usati? In quanti è presente? Dove non è un plugin, quanto ci vuole per implementarlo? L'FSR lo piazzi ovunque subito e senza sforzo.
L fsr lo piazzi dove ti danno supporto e lavorandoci sopra, non esiste nulla di gratis altrimenti perché al lancio non ci sono giochi che Lo sfruttano se non spazzatura?
DJurassic
23-06-2021, 00:51
Bah, se ricordo bene sei uno dei pochi che è riuscito ad accaparrarsi una 3080 a prezzo "normale" :D
Vabbeh un neo iscritto che parte in quarta con attacchi diretti evidentemente non è un nuovo utente...
E' quello che ho pensato anche io. Poi partire in quarta senza nemmeno informarsi quasi sempre fà concludere la corsa con un bel botto. :asd:
https://www.youtube.com/watch?v=VGOtvPkJuQ4
Sarei curioso di vedere come si comporta in FHD.
Cmq e' positivo dai, si allunga la vita anche a schede di qualche tempo fa e questo penso faccia contente tante persone con schede AMD e NVIDIA.
Poi che il DLSS sia superiore non si discute ma parliamo pur sempre di tecnologie profondamente diverse.
La mia Rx 580 ringrazia al momento.
P.S. Ma per abilitare si devono scaricare gli ultimi driver AMD ?
una bella lama a doppio taglio
con nvidia ho dlss + fsr... #chettelodicoaffàgiacchettadipelle
Più di metà dell'articolo parla di DLSS e di blog nvidia :O
Dopo due anni che ce la menate con sto DLSS in ogni dove, slide markettare incluse e incensimento del capo fatto qualche giorno fa :O non bastavano dei link ai precedenti articoli, no eh? :rolleyes:
Però vi siete ricordati di mettere qualche bench del FSR, forse un errore? :stordita:
una bella lama a doppio taglio
con nvidia ho dlss + fsr... #chettelodicoaffàgiacchettadipelle
il DLSS migliora tutto partendo da 720p, se lo attivi su HL2 hai finalmente HL3....ma poi arriva l'FSR nella paiplain .......e in un attimo si torna agli sprite 16bit :O
Spider-Mans
23-06-2021, 09:06
fsr:
https://www.hwupgrade.it/articoli/6055/performance4k.jpg
vs
nativo:
https://www.hwupgrade.it/articoli/6055/4k.jpg
https://i.makeagif.com/media/2-23-2016/1HPUn4.gif
e qualcuno si esalta per avere sul proprio schermo le immagini sfocate? :D
saranno gli stessi che poi perculano i consolari che giocano a 2k scalati
questa è la pc master race ? XD
resto felicemente 4k nativo...riducendo i dettagli grafici a medio nel caso... ma non la risoluzione... e attendo le prossime schede del 2022 per mantenre i 60 frame a 4k NATIVI a dettabli massimi o quasi
fsr:
https://www.hwupgrade.it/articoli/6055/performance4k.jpg
vs
nativo:
https://www.hwupgrade.it/articoli/6055/4k.jpg
https://i.makeagif.com/media/2-23-2016/1HPUn4.gif
e qualcuno si esalta per avere sul proprio schermo le immagini sfocate? :D
saranno gli stessi che poi perculano i consolari che giocano a 2k scalati
questa è la pc master race ? XD
resto felicemente 4k nativo...riducendo i dettagli grafici a medio nel caso... ma non la risoluzione... e attendo le prossime schede del 2022 per mantenre i 60 frame a 4k NATIVI a dettabli massimi o quasi
Certo in modalità "performance" che è quella qualitativamente peggiore.
In ultra quality e quality non è tanto male e da un po' di fps in più, un buon compromesso.
Ovvio che non è il pc master race ma non tutti sono disposti a spendere migliaia di euro per restare al top in continuazione.
fa veramente cacare. gia il dlss perde qualcosa anche alla massima qualità. questo proprio distrugge l'immagine. teribbile.
wolverine
23-06-2021, 10:06
La cosa bella di questo FSR è che posso usarlo anche con la mia RX 580 :cool:
Quoto. :winner:
ghiltanas
23-06-2021, 10:08
Più di metà dell'articolo parla di DLSS e di blog nvidia :O
Dopo due anni che ce la menate con sto DLSS in ogni dove, slide markettare incluse e incensimento del capo fatto qualche giorno fa :O non bastavano dei link ai precedenti articoli, no eh? :rolleyes:
Però vi siete ricordati di mettere qualche bench del FSR, forse un errore? :stordita:
l'articolo in se fa veramente pena, quando va detto va detto. E' l'unico che ho visto con una cosi scarca comparazione. Su diverse altre testate e filmati youtube infatti si evince bene come non sia male come prima incarnazione.
https://www.youtube.com/watch?v=yFZAo6xItOI
StylezZz`
23-06-2021, 10:27
C'è ancora molto da fare ma è un inizio, vedremo se andrà a finire come il freesync/gsync.
ps: qualcuno sa quando uscirà l'aggiornamento di RDR2 con il dlss? :asd:
fsr:
https://www.hwupgrade.it/articoli/6055/performance4k.jpg
vs
nativo:
https://www.hwupgrade.it/articoli/6055/4k.jpg
https://i.makeagif.com/media/2-23-2016/1HPUn4.gif
e qualcuno si esalta per avere sul proprio schermo le immagini sfocate? :D
saranno gli stessi che poi perculano i consolari che giocano a 2k scalati
questa è la pc master race ? XD
resto felicemente 4k nativo...riducendo i dettagli grafici a medio nel caso... ma non la risoluzione... e attendo le prossime schede del 2022 per mantenre i 60 frame a 4k NATIVI a dettabli massimi o quasi
minuto 14.09 https://www.youtube.com/watch?v=_JR8MsJcTBU&t=918s
in performance dlss e fsr fanno cacare entrambi
in balance sembra un pelo meglio nvidia
poi queste sono immagini statiche, nelle immagini in movimento ci sono difetti per entrambi
ma già quality fornisce un immagine anche migliore alla nativa 1440p piu' filtro sharp
in ultra quality sembra, almeno da godfall, che siamo vicini alla nativa 4k
sinceramente in giochi già vuoti di loro, se togli i vari effetti abbassando i dettagli, in pratica è come giocare a timeshift tutto al massimo, un bel tuffo nel passato
no, meglio allora fsr e dlss preservando i dettagli... e se artefatta e blurra qua e là, manco te ne accorgi
comunque qua siamo tutti ricchi con i soldi in tasca e 3 o 4 schede video, a parte me che so tirchio e tiro avanti con schede dell'anteguerra
non prendiamoci in giro dai, abbiamo tutti almeno una 3070 o una 6800, di dlss e fsr ce frega na mazza
il DLSS migliora tutto partendo da 720p, se lo attivi su HL2 hai finalmente HL3....ma poi arriva l'FSR nella paiplain .......e in un attimo si torna agli sprite 16bit :O
guarda che il mio augello con il dlss diventa l'augello rocco23... non sottovalutaremailaputenzadigiacchettadipelle#
Imho resta comunque una modalità da usare in high quality o ultra quality o come se chiama. Probabilmente il nostro occhio difficilmente capisce la differenza tra una cosa renderizzata ad una risoluzione e una cosa renderizzata ad una risoluzione il 30% minore a cui sopra ci si applica un leggero algoritmo di de-blurring per compesare l'effetto dello scaler. (Le console lo fanno regolarmente, quando non riuscivano a renderizzare a 1080 la risoluzione principe era il rendering a 960, ora che strombattano tutte il 4k, invece che a 2160 quando non riescono impostano un 1800).
Quindi ti guadagni quel 30% di fps in più, l'occhio non se ne accorge e ti porti il gioco nella soglia di giocabilità.
Il dubbio che mi "permane" è ...a sto punto se tanto non me ne accorgo, tanto vale che imposto subito una risoluzione "sub 4k" e mi uso tutta la potenza per quella, senza dover rubare potenza per fare del de-blurr per il rescaling dell'immagine.
Se il gioco non ce la fa e ho un monitor 4k, me lo imposto a 2k e amen, senza mettermi il frs quality.
Insomma è lo stesso discorso che facevo con alcune persone quando si parlava di cp e dlss...che me dicevano "io gioco 4k con dlss" e io gli rispondevo "guarda che stai renderizzando a risoluzione più bassa e sopra ci stai applicando un filtro".
Infatti sarebbe più onesto intellettualmente (ma non lo è di marketing) non dire 4k dlss o 4k frs ma dire 2k+dlss o 2k+frs
Imho resta comunque una modalità da usare in high quality o ultra quality o come se chiama. Probabilmente il nostro occhio difficilmente capisce la differenza tra una cosa renderizzata ad una risoluzione e una cosa renderizzata ad una risoluzione il 30% minore a cui sopra ci si applica un leggero algoritmo di de-blurring per compesare l'effetto dello scaler. (Le console lo fanno regolarmente, quando non riuscivano a renderizzare a 1080 la risoluzione principe era il rendering a 960, ora che strombattano tutte il 4k, invece che a 2160 quando non riescono impostano un 1800).
Quindi ti guadagni quel 30% di fps in più, l'occhio non se ne accorge e ti porti il gioco nella soglia di giocabilità.
Il dubbio che mi "permane" è ...a sto punto se tanto non me ne accorgo, tanto vale che imposto subito una risoluzione "sub 4k" e mi uso tutta la potenza per quella, senza dover rubare potenza per fare del de-blurr per il rescaling dell'immagine.
Se il gioco non ce la fa e ho un monitor 4k, me lo imposto a 2k e amen, senza mettermi il frs quality.
Insomma è lo stesso discorso che facevo con alcune persone quando si parlava di cp e dlss...che me dicevano "io gioco 4k con dlss" e io gli rispondevo "guarda che stai renderizzando a risoluzione più bassa e sopra ci stai applicando un filtro".
Infatti sarebbe più onesto intellettualmente (ma non lo è di marketing) non dire 4k dlss o 4k frs ma dire 2k+dlss o 2k+frs
alla fine discutiamo del nulla
come ribadito da una testata che non ricordo, il tutto si riduce alla percezione personale dell'effetto
se ti piace, imho vai di 4k e dlss e fsr, non ti piace... scala un po' come ti pare
in pratica se ti piace il tubero o il manuber, ce frega na "mazza"
a me interessa che me lo mettano dentro... oddio che brutta locuzione... a warzone in modo da putenziare la mia povera vecchia e magari da anche un boost alla series s quando uscirà il fov regulator sempre su warzone
Con il dlss 2.2 fortunatamente sono sparite anche quelle
uscito ieri, fino a ieri l'altro però "era anche meglio dell'originale" :asd:
mi fate morire , bias come se piovesse :asd:
nickname88
23-06-2021, 11:32
uscito ieri, fino a ieri l'altro però "era anche meglio dell'originale" :asd:
mi fate morire , bias come se piovesse :asd:
Su diversi titoli il DLSS 2 al posto del TAA è anche migliore rispetto alla risoluzione nativa, in altre non distingueresti quale fra i 2 è con DLSS e quale no.
Che questo SR sia inferiore lo stanno confermando diversi recensori, fra cui anche la stessa hwupgrade ... a parte te.
Ma suppongo che un fanboy come te che nemmeno l'hanno mai visto in azione debba continuare a raccontarsela. :rolleyes:
uscito ieri, fino a ieri l'altro però "era anche meglio dell'originale" :asd:
mi fate morire , bias come se piovesse :asd:
Lo era già, a parte il miglioramento qualitativo del 2.2, il bello sta nell'efficienza raggiunta, dove il performance 2.2 eguaglia il bilanciato del 2.1, e così via a salire.
e lasciatelo sfogare!!!
è la prima volta che amd può uscirsene con un prodotto non-beta apparente e poi sono fps aggratisse!!!
immaginate una igp + resizable + fsr o una gtx 1030 + resizable + fsr... minchia zio le vendite di nvidia si impennano!
CrapaDiLegno
23-06-2021, 11:45
1. L'articolo è alquanto lacunoso. 2 immagini in croce di comparazione e niente di più. Dove è finito Corsini?
2. CVD. Un bel filtrone fatto a monte dell'UI che non porta nulla di nuovo che non si poteva fare prima.
Mi divertono quelli che aspettavano questa soluzione per allungare la vita alle loro GPU.
1. Gli effetti di semplice scaling e sharpening esistono da anni, anche già inseriti nei driver sia di AMD che di Nvidia.
2. A una certa distanza, come consigliato da AMD, pure lo scaling del mio monitor a costo zero mi permette di godere di una finta risoluzione 4K. Quello della TV ancora meglio, visto che ha uno scaler molto pià evoluto e la guardo da una distanza ancora "più consigliata" per non vedere le sfocature.
Fino a qualche anno fa parlare di diminuzione della qualità per aumentare le prestazioni era una bestemmia senza se e senza ma.
Ricordo quando Nvidia prima e AMD dopo avevano cambiato il LOD di alcune texture lontane (pre cursori del VRS?) per aumentare le prestazioni di schede evidentemente in affanno e come si dibatteva sulla cosa, di come non si potesse tollerare una cosa del genere e si andava di ingrandimenti del 200% per vedere i pixel sfuocati e criticare pesantemente queste pratiche "da truffatori".
Poi sono arrivte le console e via di critiche si critiche ai botoli che non arrivavano neanche al FullHD prima e ai reali 4K ora senza trucchi, barbatrucchi e scaler vari (addirittura alcune anche in HW).
Ora ci presentano la stessa cosa su tutta l'immagine (UI esclusa) e... huhuu, che miracolo, non aspettavo altro per allungare la vita alla mia GPU, che cosa meravigliosa degna di garantire il supporto alla casa che lo ha pensato per il resto della vita e amenità del genere.
Quando si parla di marketing, direi che questa trovata della diminuzione della qualità vs prestazioni facendola passare come la panacea di tutti i problemi di schede inadeguate al periodo la dice lunga su come si può rivoltare il cervello delle persone.
E pensare che io è da molto tempo che ho allungato la vita della mia GPU in maniera impressionante ben prima di questa presa in giro usando lo scaler del monitor senza dover attendere né driver né titoli scritti appositamemte.
"Alla giusta distanza" non vedo alcun artefatto o annebbiamento.
Devo essere davvero avanti a molti di voi che cadono in queste becere proposte di NON tecnologia ma marketing puro.
Sarebbe davvero interessante avere una analisi analogica dell'immagine sullo schermo dopo queste tecniche e gli scaler HW delle TV moderne.
Secondo me molti di voi si porrebbero più domande che trovare futili risposte.
Roba da non credere che qualcuno non aspettasse altro che una diminuzione della qualità per avere una immagine impastata su uno schermo 4K...
l'articolo in se fa veramente pena, quando va detto va detto. E' l'unico che ho visto con una cosi scarca comparazione. Su diverse altre testate e filmati youtube infatti si evince bene come non sia male come prima incarnazione.
https://www.youtube.com/watch?v=yFZAo6xItOI
l'errore di fondo e' che si continua a paragonarlo al DLSS, cosa assolutamente inutile, sono due tecnologie diverse e quella di Nvidia e' nettamente superiore visivamente, ma condividono il fine
tuttavia come prevedibile da oggi sara' un tripudio di screenshot zoomati, cosa senza senso visto che il fine e' aumentare le prestazioni, che la qualita' si va perdere era scontato
nvidia lavora piu' in hw, e lo permette solo con le sue ultime serie, Amd si arrangia come puo' ma almeno permette il plus anche a gpu datate, di fascia bassa e incredibilmente anche con gpu della concorrenza
in futuro grazie anche alle console ci sara' un supporto ampio , e poi essendo open non e' da escludere un miglioramento anche per gli algoritmi
da guru3D a fine articolo:
I'll end this article with an open question towards the graphics card industry, applying to AMD, Intel, and NVIDIA. Why did tinkering with image quality become a norm and is that deemed to be acceptable?
semplicemente e' stato scelto il tempo giusto, anni fa ti linciavano se provavi a presentare una tecnica del genere, ma oggi e' diventato un impresa trovare una gpu a prezzi decenti con la magra che c'e'
piu' mettiamo che in effetti c'e' stato un cambio culturale, sta fissa per monitor con refresh elevatissimi, le prestazioni oggi sono tutto
da Techpowerup:
The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphic card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K. :eek:
questo e' molto interessante, alcuni pessimisti credevano che questo trucchetto poteva essere implementato pure 10 anni fa, o usare direttamente lo scaler del monitor che era meglio etc, ma a quanto sembra FSR non e' un "banale" scaler;)
e lasciatelo sfogare!!!
è la prima volta che amd può uscirsene con un prodotto non-beta apparente e poi sono fps aggratisse!!!
immaginate una igp + resizable + fsr o una gtx 1030 + resizable + fsr... minchia zio le vendite di nvidia si impennano!
Anche la vendita degli occhiali aumenta con questo FSR :D
The_Hypersonic
23-06-2021, 12:12
Ormai leggere di schede video è come guardarsi il Postalmarket sul cesso. Praticamente parliamo di cose che nessuno vedrà mai perchè tanto non esistono.
matsnake86
23-06-2021, 12:28
Come qualcuno ha fatto notare, sia dlss 2 che fsr sono i realtà un ammissione del fatto che ad oggi il 4k è ancora molto tassante per qualunque vga e che se si vogliono frame alti per sfruttare i monitor da settordicimila hz bisogna ricorrere all'upscaling.
Chiunque dotato di intelligenza dovrebbe riconoscere una sconfitta per la propria gpu quando si va ad attivare uno di questi due upscaler.
Nella master race vogliamo giocare a risoluzione nativa! :sofico:
Detto ciò Sicuramente il dlss al momento è meglio.
Ma questo fsr parte molto bene. Molto meglio della prima versione del dlss.
Può solamente migliorare ed intanto amd ha regalato praticamente a tutti un bel boost alle prestazioni se lo si vuole attivare.
Vedremo in futuro se entrambe le soluzioni continueranno a darsi battaglia o se una delle due cadrà in disuso.
1. L'articolo è alquanto lacunoso. 2 immagini in croce di comparazione e niente di più. Dove è finito Corsini?
2. CVD. Un bel filtrone fatto a monte dell'UI che non porta nulla di nuovo che non si poteva fare prima.
Mi divertono quelli che aspettavano questa soluzione per allungare la vita alle loro GPU.
1. Gli effetti di semplice scaling e sharpening esistono da anni, anche già inseriti nei driver sia di AMD che di Nvidia.
2. A una certa distanza, come consigliato da AMD, pure lo scaling del mio monitor a costo zero mi permette di godere di una finta risoluzione 4K. Quello della TV ancora meglio, visto che ha uno scaler molto pià evoluto e la guardo da una distanza ancora "più consigliata" per non vedere le sfocature.
Fino a qualche anno fa parlare di diminuzione della qualità per aumentare le prestazioni era una bestemmia senza se e senza ma.
Ricordo quando Nvidia prima e AMD dopo avevano cambiato il LOD di alcune texture lontane (pre cursori del VRS?) per aumentare le prestazioni di schede evidentemente in affanno e come si dibatteva sulla cosa, di come non si potesse tollerare una cosa del genere e si andava di ingrandimenti del 200% per vedere i pixel sfuocati e criticare pesantemente queste pratiche "da truffatori".
Poi sono arrivte le console e via di critiche si critiche ai botoli che non arrivavano neanche al FullHD prima e ai reali 4K ora senza trucchi, barbatrucchi e scaler vari (addirittura alcune anche in HW).
Ora ci presentano la stessa cosa su tutta l'immagine (UI esclusa) e... huhuu, che miracolo, non aspettavo altro per allungare la vita alla mia GPU, che cosa meravigliosa degna di garantire il supporto alla casa che lo ha pensato per il resto della vita e amenità del genere.
Quando si parla di marketing, direi che questa trovata della diminuzione della qualità vs prestazioni facendola passare come la panacea di tutti i problemi di schede inadeguate al periodo la dice lunga su come si può rivoltare il cervello delle persone.
E pensare che io è da molto tempo che ho allungato la vita della mia GPU in maniera impressionante ben prima di questa presa in giro usando lo scaler del monitor senza dover attendere né driver né titoli scritti appositamemte.
"Alla giusta distanza" non vedo alcun artefatto o annebbiamento.
Devo essere davvero avanti a molti di voi che cadono in queste becere proposte di NON tecnologia ma marketing puro.
Sarebbe davvero interessante avere una analisi analogica dell'immagine sullo schermo dopo queste tecniche e gli scaler HW delle TV moderne.
Secondo me molti di voi si porrebbero più domande che trovare futili risposte.
Roba da non credere che qualcuno non aspettasse altro che una diminuzione della qualità per avere una immagine impastata su uno schermo 4K...
CVD cosa? Tante cose si potevano già fare anni fà, ma ce ne facciamo poco del "si può fare" se nessuno lo fa. Vedi anche SAM.
Tutte le recensioni che ho letto concordano nel dire che l'output è chiaramente migliore di qualsiasi filtro tu possa avere nel monitor, quindi smettila con questa storia che il tuo monitor fa upscaling meglio di FSR.
Giudichi una tecnologia che evidentemente non hai mai provato solo per partito preso.
Poi dici che è roba già vecchia, senza nemmeno sapere come è implementato (i sorgenti saranno disponibili tra un mesetto mi pare).
Fatto sta che ora Nvidia sta spingendo sull'acceleratore con DLSS e questo significa che c'è concorrenza, che è un bene per tutti.
CrapaDiLegno
23-06-2021, 12:29
l'errore di fondo e' che si continua a paragonarlo al DLSS, cosa assolutamente inutile, sono due tecnologie diverse e quella di Nvidia e' nettamente superiore visivamente, ma condividono il fine
tuttavia come prevedibile da oggi sara' un tripudio di screenshot zoomati, cosa senza senso visto che il fine e' aumentare le prestazioni, che la qualita' si va perdere era scontato
nvidia lavora piu' in hw, e lo permette solo con le sue ultime serie, Amd si arrangia come puo' ma almeno permette il plus anche a gpu datate, di fascia bassa e incredibilmente anche con gpu della concorrenza
in futuro grazie anche alle console ci sara' un supporto ampio , e poi essendo open non e' da escludere un miglioramento anche per gli algoritmi
Usando tecnologia vecchia ovvio che è supportata un maggiore numero di schede rispetto ad algoritmi che usano molte pià informazioni e quindi richiedono molta più computazione e quindi unità HW dedicate.
da guru3D a fine articolo:
I'll end this article with an open question towards the graphics card industry, applying to AMD, Intel, and NVIDIA. Why did tinkering with image quality become a norm and is that deemed to be acceptable?
semplicemente e' stato scelto il tempo giusto, anni fa ti linciavano se provavi a presentare una tecnica del genere, ma oggi e' diventato un impresa trovare una gpu a prezzi decenti con la magra che c'e'
piu' mettiamo che in effetti c'e' stato un cambio culturale, sta fissa per monitor con refresh elevatissimi, le prestazioni oggi sono tutto
Semplicemente è stato fatto unlavaggio del cervello alle persoe, perché anche 10 anni fa le schede erano care per alcuni e un incremento di performance non sarebbe stato più che accettato.
MA NON PERFORMACE A DISCAPITO DELLA QUALITA'.
Ora invece pare che la modalità console sia diventata lo standard.
Colpa ancora una volta dell'avere un singolo fornitore di HW per le console?
da Techpowerup:
The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphic card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K. :eek:
questo e' molto interessante, alcuni pessimisti credevano che questo trucchetto poteva essere implementato pure 10 anni fa, o usare direttamente lo scaler del monitor che era meglio etc, ma a quanto sembra FSR non e' un "banale" scaler;)
Certo che non è un "banale scaler" altrimenti sarebbe stata una presa in giro al 1000%. Algoritmi di post processing per dare un'apparente miglioramento alle immagini anche in difetto di dettaglio esistono da decenni.
Quello che "i pessimisti" vorrebbero è una misura reale della qualità dell'immagine realizzata attraverso questi algoritmi e quella che si può ottenere tramite lo scaler di un monitor (magari non il 4K TN da 150 euro) e soprattutto attraverso lo scaler di una TV moderna che hanno processori di elaborazione d'immagine da far paura che applicano algoritmi simili a questi per migliorare l'immagine.
Giusto per capire se bisognava aspettare un algoritmo SW che degradasse la qualità d'immagine per poter godere di una risoluzione maggiore (roba che se ci pensate bene fa a pugni con se stessa ma sembra essere accolta come il santo Graal).
CVD cosa? Tante cose si potevano già fare anni fà, ma ce ne facciamo poco del "si può fare" se nessuno lo fa. Vedi anche SAM.
Tutte le recensioni che ho letto concordano nel dire che l'output è chiaramente migliore di qualsiasi filtro tu possa avere nel monitor, quindi smettila con questa storia che il tuo monitor fa upscaling meglio di FSR.
Giudichi una tecnologia che evidentemente non hai mai provato solo per partito preso.
Poi dici che è roba già vecchia, senza nemmeno sapere come è implementato (i sorgenti saranno disponibili tra un mesetto mi pare).
Fatto sta che ora Nvidia sta spingendo sull'acceleratore con DLSS e questo significa che c'è concorrenza, che è un bene per tutti.
"Chiaramente migliore" dove lo hai letto? Link, please, magari anche con dei numeri.
E non ce ne facciamo nulla neanche oggi. Come già detto, fino a qualche tempo fa se avessi proposto una cosa del genere saresti stato linciato da tutta la comunità per evidente tentativo di camuffare le scarse capacità della GPU con qualcosa di qualitativamente inferiore (ma con le barre dei grafici più lunghi) imbrogliando spudoratamente. Ecco perché non è mai stato fatto.
Lavaggio del cervello (o accettazione di una standard qualitativo inferiore).. e voilà, la cosa migliore mai fatta negli ultimi 10 anni.
Tanto che magari non sapevi che si può fare scaling e sharpening già da tempo anche con i drive Nvidia (ancora prima del DLSS) o le suite di algoritmi di post processing di terze parti.
Nessuno si è mai preso la briga di farne un articolo e proporli come la soluzione alle scarse prestazioni delle GPU.
Invece ora si scopre che c'è gente che "non aspettava altro che un algoritmo di degrado che supportasse tutte le GPU".
La "matematica" su cui si basano questi algoritmi è roba non vecchia, di più. Non serve il codice sorgente (che comunque tu non capiresti) per sapere che sono algoritmi di tipo classico basati sull'elaborazione delle informazioni a disposizione per ottenere un set più esteso degli stessi ma mancando comunque dei dettagli che non ci sono nel primo set (estrapolazione). Puoi inventarti tutti gli algoritmi che vuoi di questo tipo, ma non avrai mai più informazione di quella da cui sei partito. Puoi solo giocare con la psico-percezione e fare in modo che l'immagine SEMBRI migliore.
E' roba che si usa da 40 anni circa nell'elaborazione dell'immagine. E non ha molto margine di miglioramento. Miglioramento che comunque va di pari passo alla complessità dei calcoli, per cui c'è da tenere conto anche di quanto vuoi perdere in termini di tempo per diminuire il tempo di calcolo (altra roba che fa a pugni con se stessa).
La "matematica" e il set di dati su cui si basa l'algoritmo DLSS è altra roba e soprattutto usa HW dedicato per i calcoli che non ruba tempo al rendering (o solo una parte infinitesimale) rispetto all'approccio di AMD.
I vantaggi del DLSS anche in termini di potenzialità e miglioramento sono quindi evidenti se si conosce la materia e non si guarda solo il totem di AMD come un venerando fanboy in ginocchio nella speranza che arrivi il miracolo (sto ancora aspettando quello del raytracing senza unità dedicate perché non sapevo di quello di cui parlavo anche allora).
Se AMD avesse messo delle unità di elaborazione ML nelle sue GPU ora potremmo parlare di algoritmi concorrenti, invece stiamo parlando dell'ennesimo surrogato di una tecnologia migliore proposta dalla concorrenza giusto per dimostrare che si ha qualcosa di simile.
Forse nel 2025 con le future GPU e HW dedicato si potrà dire "ecco, visto che AMD fa lo stesso di Nvidia" esattamente come oggi (8 anni dopo il lancio di G-Sync) bisogna comprare un monitor con Freesync Premium dal costo simile a uno G-Sync per avere le stesse performance, mentre nel frattempo si è usato un bel surrogato.
O dopo 3 anni un RT raffazzonato che va peggio della versione precedente della concorrenza.
Ma è vero, non aspettavamo alto che un bel algoritmo degradante ben confezionato per allungare la vita alle nostre GPU.
dado1979
23-06-2021, 12:46
Esatto, quindi non si può paragonare direttamente a DLSS che è anche un antialiasing temporale. Il migliore che esista, per altro, anni luce dal classico TAA
Ma che obbliga a spendere 700 euro minimo per poterlo usare, diciamoci tutti i pro e i contro. A meno che tu non sia figlio di Berlusconi, dovresti mettere tra i contro il prezzo che ti costa il DLSS.
1. L'articolo è alquanto lacunoso. 2 immagini in croce di comparazione e niente di più. Dove è finito Corsini?
2. CVD. Un bel filtrone fatto a monte dell'UI che non porta nulla di nuovo che non si poteva fare prima.
Mi divertono quelli che aspettavano questa soluzione per allungare la vita alle loro GPU.
1. Gli effetti di semplice scaling e sharpening esistono da anni, anche già inseriti nei driver sia di AMD che di Nvidia.
2. A una certa distanza, come consigliato da AMD, pure lo scaling del mio monitor a costo zero mi permette di godere di una finta risoluzione 4K. Quello della TV ancora meglio, visto che ha uno scaler molto pià evoluto e la guardo da una distanza ancora "più consigliata" per non vedere le sfocature.
Fino a qualche anno fa parlare di diminuzione della qualità per aumentare le prestazioni era una bestemmia senza se e senza ma.
Ricordo quando Nvidia prima e AMD dopo avevano cambiato il LOD di alcune texture lontane (pre cursori del VRS?) per aumentare le prestazioni di schede evidentemente in affanno e come si dibatteva sulla cosa, di come non si potesse tollerare una cosa del genere e si andava di ingrandimenti del 200% per vedere i pixel sfuocati e criticare pesantemente queste pratiche "da truffatori".
Poi sono arrivte le console e via di critiche si critiche ai botoli che non arrivavano neanche al FullHD prima e ai reali 4K ora senza trucchi, barbatrucchi e scaler vari (addirittura alcune anche in HW).
Ora ci presentano la stessa cosa su tutta l'immagine (UI esclusa) e... huhuu, che miracolo, non aspettavo altro per allungare la vita alla mia GPU, che cosa meravigliosa degna di garantire il supporto alla casa che lo ha pensato per il resto della vita e amenità del genere.
Quando si parla di marketing, direi che questa trovata della diminuzione della qualità vs prestazioni facendola passare come la panacea di tutti i problemi di schede inadeguate al periodo la dice lunga su come si può rivoltare il cervello delle persone.
E pensare che io è da molto tempo che ho allungato la vita della mia GPU in maniera impressionante ben prima di questa presa in giro usando lo scaler del monitor senza dover attendere né driver né titoli scritti appositamemte.
"Alla giusta distanza" non vedo alcun artefatto o annebbiamento.
Devo essere davvero avanti a molti di voi che cadono in queste becere proposte di NON tecnologia ma marketing puro.
Sarebbe davvero interessante avere una analisi analogica dell'immagine sullo schermo dopo queste tecniche e gli scaler HW delle TV moderne.
Secondo me molti di voi si porrebbero più domande che trovare futili risposte.
Roba da non credere che qualcuno non aspettasse altro che una diminuzione della qualità per avere una immagine impastata su uno schermo 4K...
Certo che sei proprio una palla al piede. L'altra volta facevi il figo incollando pezzi da wikipedia di cose di cui non hai capito nulla per dire che l FSR sicuramente avrebbe avuto risultati osceni. Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.
Non c'è proprio niente da fare con voi nvidiot fanboy, è una causa persa e continuate ad appestare comunity.
mmorselli
23-06-2021, 12:59
Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.
Non è minimamente comparabile, l'ho già scritto, il DLSS è un temporal, questo no.
E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace.
Non è minimamente comparabile, l'ho già scritto, il DLSS è un temporal, questo no.
E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace.
Il risultato è comparabile punto e basta, ci sono test che lo dimostrano, fine non c'è da discutere. Che le tecnologie siano diverse e non comparabili è un altro discorso. Per il resto se vedi il quote non era a te, ma all'altro utente.
nickname88
23-06-2021, 13:02
Come qualcuno ha fatto notare, sia dlss 2 che fsr sono i realtà un ammissione del fatto che ad oggi il 4k è ancora molto tassante per qualunque vga e che se si vogliono frame alti per sfruttare i monitor da settordicimila hz bisogna ricorrere all'upscaling.
Chiunque dotato di intelligenza dovrebbe riconoscere una sconfitta per la propria gpu quando si va ad attivare uno di questi due upscaler.
Nella master race vogliamo giocare a risoluzione nativa! :sofico:
Si lo pensavo anche io fino a quando non l'ho provato.
Il FSR non lo sò, ma il DLSS2 è una bomba, una rivoluzione molto più del RT.
Consente di avere a video la stessa qualità con frame rate molto più alti, io lo tengo attivo anche in titoli leggeri in modo che il carico della VGA sia più basso possibile.
Ovviamente parlo delle modalità più qualitative, quelle sotto nemmeno le considero l'esistenza.
"Chiaramente migliore" dove lo hai letto? Link, please, magari anche con dei numeri.
E non ce ne facciamo nulla neanche oggi. Come già detto, fino a qualche tempo fa se avessi proposto una cosa del genere saresti stato linciato da tutta la comunità per evidente tentativo di camuffare le scarse capacità della GPU con qualcosa di qualitativamente inferiore (ma con le barre dei grafici più lunghi) imbrogliando spudoratamente. Ecco perché non è mai stato fatto.
Lavaggio del cervello (o accettazione di una standard qualitativo inferiore).. e voilà, la cosa migliore mai fatta negli ultimi 10 anni.
Tanto che magari non sapevi che si può fare scaling e sharpening già da tempo anche con i drive Nvidia (ancora prima del DLSS) o le suite di algoritmi di post processing di terze parti.
Nessuno si è mai preso la briga di farne un articolo e proporli come la soluzione alle scarse prestazioni delle GPU.
Invece ora si scopre che c'è gente che "non aspettava altro che un algoritmo di degrado che supportasse tutte le GPU".
La "matematica" su cui si basano questi algoritmi è roba non vecchia, di più. Non serve il codice sorgente (che comunque tu non capiresti) per sapere che sono algoritmi di tipo classico basati sull'elaborazione delle informazioni a disposizione per ottenere un set più esteso degli stessi ma mancando comunque dei dettagli che non ci sono nel primo set (estrapolazione). Puoi inventarti tutti gli algoritmi che vuoi di questo tipo, ma non avrai mai più informazione di quella da cui sei partito. Puoi solo giocare con la psico-percezione e fare in modo che l'immagine SEMBRI migliore.
E' roba che si usa da 40 anni circa nell'elaborazione dell'immagine. E non ha molto margine di miglioramento. Miglioramento che comunque va di pari passo alla complessità dei calcoli, per cui c'è da tenere conto anche di quanto vuoi perdere in termini di tempo per diminuire il tempo di calcolo (altra roba che fa a pugni con se stessa).
La "matematica" e il set di dati su cui si basa l'algoritmo DLSS è altra roba e soprattutto usa HW dedicato per i calcoli che non ruba tempo al rendering (o solo una parte infinitesimale) rispetto all'approccio di AMD.
I vantaggi del DLSS anche in termini di potenzialità e miglioramento sono quindi evidenti se si conosce la materia e non si guarda solo il totem di AMD come un venerando fanboy in ginocchio nella speranza che arrivi il miracolo (sto ancora aspettando quello del raytracing senza unità dedicate perché non sapevo di quello di cui parlavo anche allora).
Se AMD avesse messo delle unità di elaborazione ML nelle sue GPU ora potremmo parlare di algoritmi concorrenti, invece stiamo parlando dell'ennesimo surrogato di una tecnologia migliore proposta dalla concorrenza giusto per dimostrare che si ha qualcosa di simile.
Forse nel 2025 con le future GPU e HW dedicato si potrà dire "ecco, visto che AMD fa lo stesso di Nvidia" esattamente come oggi (8 anni dopo il lancio di G-Sync) bisogna comprare un monitor con Freesync Premium dal costo simile a uno G-Sync per avere le stesse performance, mentre nel frattempo si è usato un bel surrogato.
O dopo 3 anni un RT raffazzonato che va peggio della versione precedente della concorrenza.
Ma è vero, non aspettavamo alto che un bel algoritmo degradante ben confezionato per allungare la vita alle nostre GPU.
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione. Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.
EDIT: anche PC Gamer ha fatto una comparazione del genere ed è giunto alla stessa conclusione https://www.pcgamer.com/uk/amd-fidelityfx-super-resolution-tested-benchmarks/
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione. Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.
Guarda ignoralo. A questo punto o è un troll o nvidia gli da a campare a fine mese, non vedo alternative.
CrapaDiLegno
23-06-2021, 13:34
Certo che sei proprio una palla al piede. L'altra volta facevi il figo incollando pezzi da wikipedia di cose di cui non hai capito nulla per dire che l FSR sicuramente avrebbe avuto risultati osceni. Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.
Non c'è proprio niente da fare con voi nvidiot fanboy, è una causa persa e continuate ad appestare comunity.
Io non ho mai linkato roba da wikipedia su questo argomento che possa ricordare.
Comparabile al DLSS in 4K se lo guardi a 3 metri di distanza su un monitor a 24", altrimenti se non vedi la perdita di dettaglio non si capisce perché giochi in 4K.
Poi se voi fanboy AMD vi accontentate sempre dei surrogati spacciati per "roba mai vista prima" va bene così.
CrapaDiLegno
23-06-2021, 13:38
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
Guarderò il video appena posso, grazie.
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione.
Ma una ragione di cosa dovei farmene?
Hai capito la metà di quello che ti ho scritto prima o neanche quello?
Lo so bene che non usa ML e so bene che è tecnologia vecchia a cui basta la potenza computazionale delle normali unità shader.
Sei tu che non hai capito che i risultati sono diversi così come lo sono le potenzialità.
Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.
Surrogato per tutti, e tutti siamo contenti. Giusto così.
CrapaDiLegno
23-06-2021, 13:45
Guarda ignoralo. A questo punto o è un troll o nvidia gli da a campare a fine mese, non vedo alternative.
Qua di ignoranti e troll ho sempre e solo visto fanboy AMD che arrivano a frotte dicono le loro sciocchezze poi scompaiono appena vedono che le cose non stanno come credevano.
Ancora aspetto schede AMD senza unità dedicate capaci di fare RT meglio di Nvidia. Perché AMD ha shader migliori, più potenti e bla bla bla... lei può.
Gli altri devono ricorrere a HW dedicato.
Intanto state lodando un sistema che degrada l'immagine per aumentare le prestazioni delle vostre GPU. Roba che fino a ieri avete additato come inconcepibile e ingannatrice.
Ora che lo fa AMD, ovviamente lo fa meglio degli altri ed è la cosa migliore che sia mai stata fatta. Come ogni cosa dove AMD arriva con anni di ritardo. Si denigra quello che fa la concorrenza in ogni modo, poi quando lo fa AMD.. huhuuuu... miracoli come se piovesse.
Ma una ragione di cosa dovei farmene?
Hai capito la metà di quello che ti ho scritto prima o neanche quello?
Lo so bene che non usa ML e so bene che è tecnologia vecchia a cui basta la potenza computazionale delle normali unità shader.
Sei tu che non hai capito che i risultati sono diversi così come lo sono le potenzialità.
Surrogato per tutti, e tutti siamo contenti. Giusto così.
Non ho mai detto che FSR dia risultati migliori di DLSS 2.0, mi sono sempre aspettato una qualità migliore di DLSS 1.0 (ok ci vuole poco) e inferiore a DLSS 2.0. A giudicare dalle recensioni il risultato è anche meglio di quello che mi aspettavo, ossia più vicino a DLSS 2.0 di quanto pensassi.
Io di DLSS non me ne faccio proprio niente, perchè non spendo migliaia di euro per giocare al PC. Per me, come per la stragrande maggioranza delle persone, semplicemente DLSS non è un'opzione.
Scusa se ho di meglio da fare (a proposito di surrogati della realtà :asd: )
ilariovs
23-06-2021, 13:59
Pare che ai puristi l'FSR non piaccia.
È una bella tecnologia, è gratuita ed ha un grande bacino d'utenza potenziale.
Già questi tre elementi sono tanta roba.
In impostazione ultra quality sembra perdere poca qualità con un +20/25% di fps.
A gratis? È oro in un momento in cui le GPU costano a peso d'oro.
Il DLSS sembra migliore ma è tre anni che è in giro e gira solo sulle RTX.
Quanto costa oggi una RTX?
L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.
Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.
Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.
My opinion
mmorselli
23-06-2021, 14:12
Il risultato è comparabile punto e basta, ci sono test che lo dimostrano, fine non c'è da discutere. Che le tecnologie siano diverse e non comparabili è un altro discorso. Per il resto se vedi il quote non era a te, ma all'altro utente.
Se non capisci la differenza tra un algoritmo temporale e uno no, di cosa parliamo? Cambia proprio il modo in cui l'oggetto viene visualizzato, non è solo questione di dettagli, anzi, teoricamente l'algoritmo non temporale ne perde meno, purché ne abbia la stesa quantità all'origine. Ma con la scena in movimento cambia tutto.
Tu stai giudicando dei test sulla base di screenshot, che ti raccontano una storia parziale, o per volontà o per incapacità di chi ha prodotto i test.
CrapaDiLegno
23-06-2021, 14:16
L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.
Le console sono circa 15 anni che fanno scaling dell'immagine con tecniche simili già inserite nei motori dei giochi e non cambia un bel niente per loro.
Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.
Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.
Secondo me non è un bel coniglio per niente perché non cambia nulla rispetto a prima.
Il bel coniglio sarebbe usare il VRS in maniera decente che degrada sì l'immagine ma là dove non si nota, ma a quanto pare sembra che le loro ultime GPU non sono tanto brave in questo e quindi hanno tirato fuori questo surrogato per rincorrere la concorrenza.
Un bel carro tirato da 6 cavalli per dimostrare di avere la velocità e l'autonomia delle prime automobili.
Il problema è che se anche metti 12 cavalli davanti al carro, l'automobile è destinata a migliorare molto di più e questi surrogati stanno lì solo per marketing e nulla più.
Così anche loro adesso nelle prova con RT non staranno sotto la riga della 2060+DLSS ma staranno molto più su.
Se volevi degradare la qualità dell'immagine per avere più prestazioni potevi farlo anche prima.
A risoluzioni inferiori al 4K (*) sembra che non ci sia proprio confronto con il DLSS.
(*) Ma perché usare i 4K se poi si degrada la qualità dell'immagine? Solo per dire "io c'ho i QUATTRO CAPPA"?
Qua di ignoranti e troll ho sempre e solo visto fanboy AMD che arrivano a frotte dicono le loro sciocchezze poi scompaiono appena vedono che le cose non stanno come credevano.
Ancora aspetto schede AMD senza unità dedicate capaci di fare RT meglio di Nvidia. Perché AMD ha shader migliori, più potenti e bla bla bla... lei può.
Gli altri devono ricorrere a HW dedicato.
Intanto state lodando un sistema che degrada l'immagine per aumentare le prestazioni delle vostre GPU. Roba che fino a ieri avete additato come inconcepibile e ingannatrice.
Ora che lo fa AMD, ovviamente lo fa meglio degli altri ed è la cosa migliore che sia mai stata fatta. Come ogni cosa dove AMD arriva con anni di ritardo. Si denigra quello che fa la concorrenza in ogni modo, poi quando lo fa AMD.. huhuuuu... miracoli come se piovesse.
Ma ti rendi conto di quant'è patetico quello che dici.
Innanzitutto i tensor core NON SONO ASSOLUTAMENTE NECESSARI, ma sono solo utili. Ogni algoritmo di ML ha bisogno di operazioni a bassa precisione (fp16/6/4) che vengono accelerate dai TC, ma girano anche sui normalissimi shader. Oltretutto la parte di inference che è quello che fa la gpu, è molto, ma molto, meno impegnativa del training che ogni GPU fa tranquillamente. Ti ricordi di nvidia voice? "funziona solo con i TC" e blabla poi nvidia è caduta col culo per terra che funziona benissimo su ogni gpu. Vedrai che a breve succederà anche per il DLSS che è solo un algoritmo, scritto magnificamente, ma nessuna magia nera o giga evoluzione come ve la bevete. Poveri allocchi.
Per non parlare della questione gsync freesync dove nvidia ha fatto l'ennesima figuraccia. Poi AMD sta dietro anni, e con l'anti-lag e reflex come la metti?
Parli di allontanamento distanza ecc, se prendi un monitor 24' e ti metti a due metri di distanza può anche essere 8k, dal fhd non vedrai nessuna differenza FLS DLSS o meno, è SCIENTIFICAMENTE provato.
Giudichi l'FSR senza nemmeno aver visto test, o averlo testato su un gioco dove sono implementati entrambi (dovresti aspettare che esca). Da quello che si è visto ha risultati di molto migliori di quelli che tutti si aspettavano, ma tu te ne esci come "roba vecchia" e cagate del genere. Questo dimostra che di complessità di algoritmica tu non ne sai una mezza ceppa. E poi il ML l'hanno inventato ieri? Non mi pare proprio. Magari si potevano pure ideare anni fa, ma l'hardware non era abbastanza potente per reggere nessuno dei due.
Poi la cagata più grossa. Secondo te il DLSS non è una maschera ad una risoluzione minore come l'FSR? Anche il DLSS rispetto alla risoluzione nativa non è confrontabile. Che ti aspetti che in futuro ti cacciano risoluzioni 16k,32k e cosi via? A parte che è inutile, ma servirebbero GPU allucinanti. Ovvio che si trovino metodi alternativi per raggiungere tali risoluzioni (altro che lo schermo 24').
Per il RT funziona perfettamente su AMD come su nvidia. Leggi in giro che funziona peggio, ma sai che vuol dire? Quando lo attivi è uguale ovunque, quello che cambiano solo le prestazioni. Senza DLSS su nvidia sono ridicole tanto quanto su AMD, ma ora che anche AMD ha un boost sulle prestazioni questo divario è inesistente.
Sono 3 anni che nvidia paga per far implementare il DLSS, secondo te perché? Per i produttori è una soluzione scomoda da implementare, con l'FSR che gira su console questo problema non c'è proprio. Inoltre l'FSR è uscito ieri, comprendi quanti miglioramenti otterrà col tempo?
Infine, perché te la prendi tanto sul personale con l'FSR. Una tecnologia che rende riutilizzabili schede più datate (magari epr chi è in difficoltà economica), che rende accessibile il 4k e che permette di sfiancare meno le GPU su corrente, calore, ecc. TUTTO GRATIS. Per avere il DLSS, con gli stessi risultati E VATTI A VEDERE I TEST prima di parlare, devi pagare un botto di soldi. Il DLSS è solo una trovata marketing di nvidia per dire "guardate il salto generazionale, assurdo, ne avete bisogno" per farvi buttare migliaia di euro. E tu lo elogi come Cristo sceso in terra.
Io manco ti rispondo più, tanto parlare con un mulo è più semplice.
mmorselli
23-06-2021, 14:17
Il DLSS sembra migliore ma è tre anni che è in giro e gira solo sulle RTX.
Quanto costa oggi una RTX?
Beh, qui però bisogna anche ragionare un po' in prospettiva, RTX lo è pure una RTX 2070, che una volta usciti dal buco in cui ci siamo infilati diventerà una scheda da mercatini...
Le valutazioni vanno fatte sulla tecnologia, comparandole per capire se sono meglio, peggio o uguali. Nessuno sano di mente potrebbe dire che AMD ha fatto male a sviluppare una tecnologia open source gratuita per lo scaling diversa da quelle già esistenti.
Se non capisci la differenza tra un algoritmo temporale e uno no, di cosa parliamo? Cambia proprio il modo in cui l'oggetto viene visualizzato, non è solo questione di dettagli, anzi, teoricamente l'algoritmo non temporale ne perde meno, purché ne abbia la stesa quantità all'origine. Ma con la scena in movimento cambia tutto.
Tu stai giudicando dei test sulla base di screenshot, che ti raccontano una storia parziale, o per volontà o per incapacità di chi ha prodotto i test.
I test effettuati sono test in movimento, ti basta una ricerca per vederli dato che ancora non l'hai fatto. Delle scie non ne parli?
Pare che ai puristi l'FSR non piaccia.
È una bella tecnologia, è gratuita ed ha un grande bacino d'utenza potenziale.
Già questi tre elementi sono tanta roba.
In impostazione ultra quality sembra perdere poca qualità con un +20/25% di fps.
A gratis? È oro in un momento in cui le GPU costano a peso d'oro.
Il DLSS sembra migliore ma è tre anni che è in giro e gira solo sulle RTX.
Quanto costa oggi una RTX?
L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.
Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.
Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.
My opinion
Se potessi ti farei una statua d'oro in piazza.
nickname88
23-06-2021, 14:19
Se non capisci la differenza tra un algoritmo temporale e uno no, di cosa parliamo? Cambia proprio il modo in cui l'oggetto viene visualizzato, non è solo questione di dettagli, anzi, teoricamente l'algoritmo non temporale ne perde meno, purché ne abbia la stesa quantità all'origine. Ma con la scena in movimento cambia tutto.
Tu stai giudicando dei test sulla base di screenshot, che ti raccontano una storia parziale, o per volontà o per incapacità di chi ha prodotto i test.
Stai parlando con un utente che risulta iscritto da pochissimi giorni e con pochi post all'attivo e quasi tutti in questo thread.
E' un clone di qualche utente bannato, si vede.
mmorselli
23-06-2021, 14:20
Innanzitutto i tensor core NON SONO ASSOLUTAMENTE NECESSARI, ma sono solo utili.
Se parliamo di prestazioni utile e necessario sono la stessa cosa. In una macchina da corsa i cavalli in più non sono utili, sono necessari per vincere la corsa.
Non è utile qualcosa che fa fare 1 fps in più alla mia scheda, è necessario.
Se parliamo di prestazioni utile e necessario sono la stessa cosa. In una macchina da corsa i cavalli in più non sono utili, sono necessari per vincere la corsa.
Non è utile qualcosa che fa fare 1 fps in più alla mia scheda, è necessario.
Il punto è dovevano essere fondamentali anche per RTX Voice, ma a quanto pare non era cosi. Ho aggiornato il commento, che scrivendo velocemente ho messo reflex invece di voice, di reflex ne parlo dopo.
nickname88
23-06-2021, 14:23
Sono 3 anni che nvidia paga per far implementare il DLSS, secondo te perché? Per i produttori è una soluzione scomoda da implementare, con l'FSR che gira su console questo problema non c'è proprio.:asd:
Il DLSS è un temporal AA, e tecnicamente può essere facilmente implementato su tutti i titoli dotati di tale filtro. Tanto che alcuni motori ora lo integrano nativamente sugli engine.
Stai parlando con un utente che risulta iscritto da pochissimi giorni e con pochi post all'attivo e quasi tutti in questo thread.
E' un clone di qualche utente bannato, si vede.
Meglio essere nuovo, che vecchio e scrivere cagate secondo me :)
Poi c'è un punto di inizio per tutti.
coschizza
23-06-2021, 14:25
P
L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.
Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.
Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.
My opinion
non è un vero vantaggio le console da sempre usano scaler simili al fsr nei giochi in questa e nelle passate generazioni quindi anche se arriva sulle console questo nuovo algoritmo va a aggiungersi a tutti gli altri di pari livell o che già ci sono da anni
:asd:
Il DLSS è un temporal AA, e tecnicamente può essere facilmente implementato su tutti i titoli dotati di tale filtro. Tanto che alcuni motori ora lo integrano nativamente sugli engine.
"Tecnicamente" si dovrebbe tradurre in ore di impiego ed investimento.
nickname88
23-06-2021, 14:26
Sono 3 anni che nvidia paga per far implementare il DLSS, secondo te perché? Per i produttori è una soluzione scomoda da implementare, con l'FSR che gira su console questo problema non c'è proprio.:asd:
Il DLSS è un temporal AA, e tecnicamente può essere facilmente implementato su tutti i titoli dotati di tale filtro. Tanto che alcuni motori ora lo integrano nativamente sugli engine.
Nvidia paga e AMD no ? Quindi è un caso per cui sui titoli sponsorizzati AMD non vi sia DLSS ? :rolleyes:
Ognuno fa i suoi interessi, verginelli e santarellini non esistono.
La fortuna di questo SR è che ora chi ha Nvidia RTX può godere di queste soluzioni indipendentemente da quale produttore sia sponsorizzato il gioco di turno, infatti funzioneranno sia DLSS che SR.
"Tecnicamente" si dovrebbe tradurre in ore di impiego ed investimento.No, l'implementazione tecnica è semplice invece proprio perchè è un TAA. Il condizionale è legato ad interessi commerciali.
coschizza
23-06-2021, 14:27
"Tecnicamente" si dovrebbe tradurre in ore di impiego ed investimento.
se un gioco ti impegna 2 anni e 100 persone puoi anche investire 1 giorno uomo per implementare il dlss non credo cambi molto
Il DLSS passa dai TENSOR CORE che sono ai fatti degli animali da tiro, non dimentichiamocelo, buttano fuori 238 TF per la 3080 e 163 per la 3070 ;)
Non è minimamente comparabile, l'ho già scritto, il DLSS è un temporal, questo no.
E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace.
Che non sia temporal per me è un di più, tutto ciò che è temporal può causare artefatti e DLSS infatti introduceva scie evidenti in cyberpunk e altri giochi.
Se ora hanno migliorato non saprei.
Tra una miglior qualità e l'assenza di artefatti con una qualità di poco inferiore, preferisco la seconda.
Ma il problema non si pone perché tanto il DLSS richiede schede che non ho.
Il DLSS passa dai TENSOR CORE che sono ai fatti degli animali da tiro, non dimentichiamocelo, buttano fuori 238 TF per la 3080 e 163 per la 3070 ;)
Si ma a conti fatti all'utente cosa cambia?
coschizza
23-06-2021, 14:34
Si ma a conti fatti all'utente cosa cambia?
all'utente cambia che hanno un filtro che ha prestazioni e qualità non raggiungibili con scaler lineari.
se un gioco ti impegna 2 anni e 100 persone puoi anche investire 1 giorno uomo per implementare il dlss non credo cambi molto
Il problema non è solo implementarlo e testarlo. Nvidia è un dito in c** sul DLSS, impone moltissimi restrizioni. Non funziona semplicemente che nvidia viene mi paga e mi dice piazza il DLSS, ma per ogni cosa bisogna avere il via libera. Questo si traduce in grosse perdite di tempo e ritardi. Per farti capire se 10 giochi senza DLSS o FSR volessero implementarlo oggi, l'FSR lo avremmo in meno di una settimana, il DLSS in un mese.
DLSS infatti introduceva scie evidenti in cyberpunk e altri giochi.
Se ora hanno migliorato non saprei.
Gioco CP dal Day One con RT folle + DLSS e di scie non ne ho viste, meglio provarlo un gioco prima di parlare :)
Si ma a conti fatti all'utente cosa cambia?
Il risultato finale.
Su diversi titoli il DLSS 2 al posto del TAA è anche migliore rispetto alla risoluzione nativa, in altre non distingueresti quale fra i 2 è con DLSS e quale no.
Che questo SR sia inferiore lo stanno confermando diversi recensori, fra cui anche la stessa hwupgrade ... a parte te.
Ma suppongo che un fanboy come te che nemmeno l'hanno mai visto in azione debba continuare a raccontarsela. :rolleyes:
lo scrivo ancora più chiaro forse:
io schifo sia l'uno che l'altro!
ma mi fa ridere come ogni volta che si tira fuori un difetto del DLSS poi c'è sempre la release successiva che lo corregge :asd: ma come, era già perfetto prima che cosa c'era da correggere? :asd:
coschizza
23-06-2021, 14:41
Il problema non è solo implementarlo e testarlo. Nvidia è un dito in c** sul DLSS, impone moltissimi restrizioni. Non funziona semplicemente che nvidia viene mi paga e mi dice piazza il DLSS, ma per ogni cosa bisogna avere il via libera. Questo si traduce in grosse perdite di tempo e ritardi. Per farti capire se 10 giochi senza DLSS o FSR volessero implementarlo oggi, l'FSR lo avremmo in meno di una settimana, il DLSS in un mese.
domanda seria senza polemica (anche se potrebbe non sembrare) se implementare il FSR è cosi semplice perche al lancio di fatto non ci sono giochi? e quelli che ci sono sono quasi tutti giochi scadenti? mi sarei aspettato almeno 30-40 giochi A o AA o AAA al lancio cosi mi sa tanto di si, è facile ma non come ci hanno detto
domanda seria senza polemica (anche se potrebbe non sembrare) se implementare il FSR è cosi semplice perche al lancio di fatto non ci sono giochi? e quelli che ci sono sono quasi tutti giochi scadenti? mi sarei aspettato almeno 30-40 giochi A o AA o AAA al lancio cosi mi sa tanto di si, è facile ma non come ci hanno detto
ah ecco: giochi sponsorizzati AMD = giochi scadenti :asd:
è inutile, vi meritate una 4060 6GB a 999$
nickname88
23-06-2021, 14:48
lo scrivo ancora più chiaro forse:
io schifo sia l'uno che l'altro!
ma mi fa ridere come ogni volta che si tira fuori un difetto del DLSS poi c'è sempre la release successiva che lo corregge :asd: ma come, era già perfetto prima che cosa c'era da correggere? :asd:Di perfetto non c'è nulla, questo non toglie che i risultati raggiunti siano grandiosi, e gli artefatti vengono creati anche con i classici filtri AA.
Ricordo ancora i giorni in cui si attaccava il DLSS su DS sulla base di un utente che postò un video che riproduceva artefatti su una transenna :asd:
Io DS l'ho giocato e finito tutto, con DLSS l'immagine è superiore, poche chiacchiere, anche il produttore stesso consiglia di tenerlo attivato.
O pensi veramente che con la mia 3080 avessi problemi a giocarlo in 4K nativo ?
ah ecco: giochi sponsorizzati AMD = giochi scadenti :asd:
Non sono scadenti perchè sponsorizzati AMD, ma nessuno di quelli è esattamente un titolo di grande richiamo.
Saranno più interessanti i prossimi specie su FC6, che è quello che probabilmente beneficerà di più.
coschizza
23-06-2021, 14:48
ah ecco: giochi sponsorizzati AMD = giochi scadenti :asd:
è inutile, vi meritate una 4060 6GB a 999$
non so se hai mai giocato ai giochi in elenco ma meta arrivano a malapena a un 6 come voto, Godfall è davvero un gioco scadente e Terminator è considerato fra i peggiori giochi della generazione attuale
E come se il DLSS venisse presentato al mondo su giochi come Fast & Furious Crossroads praticamente era meglio far finta che non esiste
ah ecco: giochi sponsorizzati AMD = giochi scadenti :asd:
è inutile, vi meritate una 4060 6GB a 999$
DLSS o FSR a parte ma sti due giochi, Godfall e Terminator, sono delle vere merda@@
domanda seria senza polemica (anche se potrebbe non sembrare) se implementare il FSR è cosi semplice perche al lancio di fatto non ci sono giochi? e quelli che ci sono sono quasi tutti giochi scadenti? mi sarei aspettato almeno 30-40 giochi A o AA o AAA al lancio cosi mi sa tanto di si, è facile ma non come ci hanno detto
Bisognerebbe fare due discorsi, uno per giochi in rilascio ed uno per gli aggiornamenti. Semplificando nel primo caso, se avevo in programma già di implementarlo (es far cry 6), non ci sono problemi. Altrimenti posso scegliere di rilasciare il gioco ed in seguito aggiungerlo o realizzare un nuovo programma considerando il periodo di implementazione ed eventuali ritardi. Per giochi già distribuiti è un po' diverso. Per implementarlo devo rilasciare una patch e comunque fare test, questo fa parte di una progettazione aziendale. Sempre come esempio se ho in programma un aggiornamento a inizio settembre e sto implementando altre funzioni, non mi fermo con il lavoro lancio FSR e riprendo, ma ne inserisco l'implementazione all'interno di un programma. Oltre al discorso che non tutti vogliono (o possono) implementarlo. Inoltre se ho chiuso il supporto ad un prodotto, se non ne traggo profitto, perché investirci ancora?
CrapaDiLegno
23-06-2021, 14:52
Ma ti rendi conto di quant'è patetico quello che dici.
Qui di ridocolo ci sei solo tu che capisci la metà di quello che leggi.
Innanzitutto i tensor core NON SONO ASSOLUTAMENTE NECESSARI, ma sono solo utili. Ogni algoritmo di ML ha bisogno di operazioni a bassa precisione (fp16/6/4) che vengono accelerate dai TC, ma girano anche sui normalissimi shader. Oltretutto la parte di inference che è quello che fa la gpu, è molto, ma molto, meno impegnativa del training che ogni GPU fa tranquillamente. Ti ricordi di nvidia reflex? "funziona solo con i TC" e blabla poi nvidia è caduta col culo per terra che funziona benissimo su ogni gpu. Vedrai che a breve succederà anche per il DLSS che è solo un algoritmo, scritto magnificamente, ma nessuna magia nera o giga evoluzione come ve la bevete. Poveri allocchi.
Per non parlare della questione gsync freesync dove nvidia ha fatto l'ennesima figuraccia. Poi AMD sta dietro anni, e con l'anti-lag e reflex come la metti?
Vuoi insegnare a me cosa sono i TC o le unità dedicate in generale?
Lo so bene cosa sono e cosa fanno.
Anche gli RT non sono necessari. Neppure le ROP o le TMU.
Niente fatto con HW apposito è necessario. Si può fare tutto anche con HW general purpose. Basta barattare la cosa con il tempo.
I TC permettono 2 cose (già spiegate ma si vede che davvero hai problemi di comprensione):
1. Accelerano DI BRUTTO gli algoritmi di inferenza, che sì pesano meno di quelli di training ma usano comunque una quantità di calcoli enorme. Sarà anche per questo che ci sono aziende che creano ASIC fatti SOLO per l'inferenza. Ma nella tua ignoranza credi che basta un core di una CPU per fare le stesse cose. E infatti le fai, 1000 volte più lentamente, ma le fai.
2. Sono unità AGGINTE agli shader, ciò significa che qualsiasi cosa tu faccia fare loro non rubano capacità di calcolo agli altri algoritmi. Così mentre fai il post processing con il DLSS rubi una quantità infinitesima di tempo al rendering dell'immagine. Una parte deve comunque girare sugli shader per applicare i risultati dei TC, ma gli shader non sono impegnati a fare gli stessi calcoli (10 volte più lentamente).
Puoi comunque aspettare che AMD attivi il DXR sulle schede pre RDNA2, così ti accorgi di cosa significa fare RT senza unità dedicate (sì, non sono necessarie, puoi fare tutto tramite shader se vuoi). Magari proponi a AMD una rivoluzione: prima dì loro che le ROP non son unità necessarie e che possono fare tutto tramite shader, poi invia loro il codice che fa questo lavoro.
E' evidente che non sai cosa è un algoritmo né cosa è l'equivalenza SW-HW, roba che si insegna al primo anno di informatica.
Stai parlando davvero di roba di cui non ahi la minima infrarinatura. Rinuncia, per il tuo bene.
Parli di allontanamento distanza ecc, se prendi un monitor 24' e ti metti a due metri di distanza può anche essere 8k, dal fhd non vedrai nessuna differenza FLS DLSS o meno, è SCIENTIFICAMENTE provato.
Lo sai che sei un genio? Serviva che tu me lo dicessi per capire l'esempio che ti ho dato che voleva spiegarti che SE NON SEI A QUELLA DISTANZA O SEI CIECO I DIFETTI LI VEDI!
Capisci tutto al volo tu, eh?
Sei la classica prova di quello che dicevo riguardo ai fanboy AMD
Giudichi l'FSR senza nemmeno aver visto test, o averlo testato su un gioco dove sono implementati entrambi (dovresti aspettare che esca). Da quello che si è visto ha risultati di molto migliori di quelli che tutti si aspettavano, ma tu te ne esci come "roba vecchia" e cagate del genere. Questo dimostra che di complessità di algoritmica tu non ne sai una mezza ceppa. E poi il ML l'hanno inventato ieri? Non mi pare proprio. Magari si potevano pure ideare anni fa, ma l'hardware non era abbastanza potente per reggere nessuno dei due.
Poi la cagata più grossa. Secondo te il DLSS non è una maschera ad una risoluzione minore come l'FSR? Anche il DLSS rispetto alla risoluzione nativa non è confrontabile. Che ti aspetti che in futuro ti cacciano risoluzioni 16k,32k e cosi via? A parte che è inutile, ma servirebbero GPU allucinanti. Ovvio che si trovino metodi alternativi per raggiungere tali risoluzioni (altro che lo schermo 24').
Ma tutte queste parlo cosa dovrebbero illustrare? Che sei un completo ignorante in materia?
Ti invito a leggere cosa è il DLSS e come funziona per capire, tensor core a parte, quale è la differenza con cui ricostruisce l'immagine rispetto al mix di algoritmi classici usati da AMD.
Torna a parlare di Ml, TC e algoritmi SOLO se hai capito la differenza.
Per il RT funziona perfettamente su AMD come su nvidia. Leggi in giro che funziona peggio, ma sai che vuol dire? Quando lo attivi è uguale ovunque, quello che cambiano solo le prestazioni. Senza DLSS su nvidia sono ridicole tanto quanto su AMD, ma ora che anche AMD ha un boost sulle prestazioni questo divario è inesistente.
Il divario rimane, caro mio.
Non è che Nvidia andasse 3 volte più veloce là dove l'RT è usato per davvero e non solo per 4 pixel grazie al DLSS.
Con il DLSS va 6 volte di più. Ora con questa mezza presa in giro di degradare la qualità d'immagine per aumentare le prestazioni la barretta di AMD si allungherà anche lei.
Ma non andare in giro a dire che a 1080p l'FSR da schifo, eh! Esiste solo il 4K, il resto non ha senso, mi raccomando.
Sono 3 anni che nvidia paga per far implementare il DLSS, secondo te perché? Per i produttori è una soluzione scomoda da implementare, con l'FSR che gira su console questo problema non c'è proprio. Inoltre l'FSR è uscito ieri, comprendi quanti miglioramenti otterrà col tempo?
Nessun miglioramento. Al massimo aggiungeranno anche loro il supporto al filtro temporale oltre che solo spaziale, ma incorreranno negli stessi problemi di Nvidia. Solo che la seconda li risolve tramite AI, la prima se li deve gestire "a mano" e sarà interessante vedere cosa otterranno in termini i qualità vs prestazioni vs potenza computazionale necessaria.
Infine, perché te la prendi tanto sul personale con l'FSR. Una tecnologia che rende riutilizzabili schede più datate (magari epr chi è in difficoltà economica), che rende accessibile il 4k e che permette di sfiancare meno le GPU su corrente, calore, ecc. TUTTO GRATIS. Per avere il DLSS, con gli stessi risultati E VATTI A VEDERE I TEST prima di parlare, devi pagare un botto di soldi. Il DLSS è solo una trovata marketing di nvidia per dire "guardate il salto generazionale, assurdo, ne avete bisogno" per farvi buttare migliaia di euro. E tu lo elogi come Cristo sceso in terra.
Io manco ti rispondo più, tanto parlare con un mulo è più semplice.
La prendo sul personale perché questa non è evoluzione, è ritornare indietro facendo finta che il miglioramento delle prestazioni sia il fine ottimo.
Della qualità non ce ne frega nulla.
Tanto vale prendere i motori e gli asset del 2010 e usare quelli anche per i giochi di domani che così andiamo a 200FPS e della qualità che nel frattempo si è ottenuto, fa niente.
Fino a ieri si sono criticate le console proprio per questo approccio. Ora lo si ESALTA quando arriva su PC. E' una cosa assurda e per me inconcepibile.
Forse perché mi piace essere coerente nel tempo (e non solo nello spazio, ahahha) e quindi ciò che mi faceva schifo ieri mi fa schifo anche oggi senza se e senza ma e non chiudo gi occhi portando giustificazioni "ad cazzum" solo perché questa becerata l'ha partorita "la mia azienda preferita".
E' una demenzialità assoluta diminuire la qualità del rendering per aumentare le prestazioni ad una determinata risoluzione che non ci si può permettere. O meglio, mi correggo da solo, è una cosa normale farlo con le impostazioni del gioco. Ma metterlo all'interno del gioco stesso è l'equivalente di avere gli sviluppatori che usano un set di texture più basso anche quando selezioni 4K.
Che cambia? Che nel pannello hai scritto ULTRA QUALITY e il rendering è degradato rispetto a un semplice MAX con rendering preciso?
Se poi esce gente come te che esalta questo tipo di approccio sperando che diventi lo standard e che abbia pure un futuro, non so più come dirvelo... è giusto per l'intelletto e la coerenza che dimostrate che tifiate per una azienda che vi porta indietro invece che avanti.
Nella speranza che arrivi la terza incomoda che gli sottragga i pochi utenti rimasti e si cominci un nuovo ciclo dove si parla di concorrenza vera verso il futuro e nuove tecnologie, non il passato, con il degrado della qualità perché inetti nel fare HW moderno.
coschizza
23-06-2021, 14:53
Bisognerebbe fare due discorsi, uno per giochi in rilascio ed uno per gli aggiornamenti. Semplificando nel primo caso, se avevo in programma già di implementarlo (es far cry 6), non ci sono problemi. Altrimenti posso scegliere di rilasciare il gioco ed in seguito aggiungerlo o realizzare un nuovo programma considerando il periodo di implementazione ed eventuali ritardi. Per giochi già distribuiti è un po' diverso. Per implementarlo devo rilasciare una patch e comunque fare test, questo fa parte di una progettazione aziendale. Sempre come esempio se ho in programma un aggiornamento a inizio settembre e sto implementando altre funzioni, non mi fermo con il lavoro lancio FSR e riprendo, ma ne inserisco l'implementazione all'interno di un programma. Oltre al discorso che non tutti vogliono (o possono) implementarlo. Inoltre se ho chiuso il supporto ad un prodotto, se non ne traggo profitto, perché investirci ancora?
ok il discorso ma sono passati piu di 6 mesi dal lancio delle 6000 in 6 mesi davvero questi sono i titoli che sono riusciti a rilasciare?
mmorselli
23-06-2021, 14:53
Il punto è dovevano essere fondamentali anche per RTX Voice, ma a quanto pare non era cosi. Ho aggiornato il commento, che scrivendo velocemente ho messo reflex invece di voice, di reflex ne parlo dopo.
Physx, SLI ... Tutta roba rivelatasi inutile, insieme a tanta altra, ma per DLSS questo discorso non vale, perché i benefici sono già molto evidenti oggi, io gioco a roba che senza DLSS sarebbe ingiocabile.
Hai ripetuto per la trentesima volta le stesse cose + le tue considerazioni personali (sbagliate). In questo post sinceramente non vedo contenuti, ma solo offese. Detto questo divertiti con le tue convinzioni e la tua mente plagiata, che con gente come te non discuto. Del resto non mi pagano per insegnare qualcosa al primo ignorante cafoncello con cui parlo ;)
mmorselli
23-06-2021, 14:57
Il problema non è solo implementarlo e testarlo. Nvidia è un dito in c** sul DLSS, impone moltissimi restrizioni. Non funziona semplicemente che nvidia viene mi paga e mi dice piazza il DLSS, ma per ogni cosa bisogna avere il via libera. Questo si traduce in grosse perdite di tempo e ritardi. Per farti capire se 10 giochi senza DLSS o FSR volessero implementarlo oggi, l'FSR lo avremmo in meno di una settimana, il DLSS in un mese.
Ti sbagli, io se carico un progetto su UE4, metto la spunta su DLSS, compilo, ho il DLSS, anche in VR. Non devo chiedere nulla a nVidia, e non perdo più di 30 secondi.
Il tempo lo perdi se hai un gioco complesso fatto e finito in cui ti tocca verificare ogni singolo oggetto, ogni angolo della mappa, ogni cosa che vola o striscia per vedere che non ci siano problemi col DLSS, che in fondo è sempre un algoritmo predittivo, che "inventa" le cose, anche se lo fa molto bene.
ok il discorso ma sono passati piu di 6 mesi dal lancio delle 6000 in 6 mesi davvero questi sono i titoli che sono riusciti a rilasciare?
Non c'è un discorso strettamente collegato tra 6000 e FSR. Ieri AMD ha deciso di rilasciare il prodotto, sostanzialmente questi 7 giochi sono un test, niente in più. Dai prossimi titoli che hanno citato inizierà la diffusione.
Ti sbagli, io se carico un progetto su UE4, metto la spunta su DLSS, compilo, ho il DLSS, anche in VR. Non devo chiedere nulla a nVidia, e non perdo più di 30 secondi.
Il tempo lo perdi se hai un gioco complesso fatto e finito in cui ti tocca verificare ogni singolo oggetto, ogni angolo della mappa, ogni cosa che vola o striscia per vedere che non ci siano problemi col DLSS, che in fondo è sempre un algoritmo predittivo, che "inventa" le cose, anche se lo fa molto bene.
A questo mi riferisco, non ai giochini con un cubo nello spazio. Se prendi un gioco come RDR2 diventa piò ostico il percorso di implementazione.
coschizza
23-06-2021, 15:01
A questo mi riferisco, non ai giochini con un cubo nello spazio. Se prendi un gioco come RDR2 diventa piò ostico il percorso di implementazione.
pero lo hanno fatto anche li ;) dovrebbe uscire a giorni
Physx, SLI ... Tutta roba rivelatasi inutile, insieme a tanta altra, ma per DLSS questo discorso non vale, perché i benefici sono già molto evidenti oggi, io gioco a roba che senza DLSS sarebbe ingiocabile.
Non mi riferivo al DLSS come tecnologia a se stante, ma all'utilizzo dei TC. Se domani nvidia dicesse che il DLSS è disponibile su 1080ti (con le dovute mancanze) la cosa non mi sorprenderebbe. Attenzione che non ho mai detto che il DLSS è inutile.
pero lo hanno fatto anche li ;) dovrebbe uscire a giorni
Proprio per questo ho citato RDR2, ma quanto tempo è passato dall'uscita del gioco e del DLSS?
mmorselli
23-06-2021, 15:03
A questo mi riferisco, non ai giochini con un cubo nello spazio. Se prendi un gioco come RDR2 diventa piò ostico il percorso di implementazione.
Sì, ma RDR2 ha anche un budget di diversi miliardi di dollari, uno stagista che ci perda sopra un po' di tempo vedrai che lo trovano.
Poi bisogna guardare avanti, ai giochi che verranno, quelli vecchi se saranno adattati bene, se no pazienza.
coschizza
23-06-2021, 15:04
Proprio per questo ho citato RDR2, ma quanto tempo è passato dall'uscita del gioco e del DLSS?
Rockstar Games non ha mai curato il porting dei suoi giochi su pc con le ultime tecnologie è gia un miracolo che lo abbiano fatto adesso
Ci vendono ancora Grand Theft Auto V un gioco del 2013 come se fosse uscito ieri
mmorselli
23-06-2021, 15:06
Proprio per questo ho citato RDR2, ma quanto tempo è passato dall'uscita del gioco e del DLSS?
OK, ma non pensi che le stesse ragioni possano valere anche per FSR? Se ho torto dovremmo vedere RDR2 con FSR entro la prossima settimana.
Certi giochi titaniti hanno un processo di revisione enorme, pure se cambi una voce in un menù parte un processo di revisione che dura un mese solo per i vari livelli di uffici per cui devono passare le varie fasi.
Rockstar Games non ha mai curato il porting dei suoi giochi su pc con le ultime tecnologie è gia un miracolo che lo abbiano fatto adesso
Questo è assolutamente vero, ma resta il fatto che dato che l'hanno implementato, nei piani avevano già in mente di farlo e di tempo ne è passato molto. Detto questo sicuramente in futuro rilasceranno già con DLSS ed FSR integrato.
OK, ma non pensi che le stesse ragioni possano valere anche per FSR? Se ho torto dovremmo vedere RDR2 con FSR entro la prossima settimana.
Certi giochi titaniti hanno un processo di revisione enorme, pure se cambi una voce in un menù parte un processo di revisione che dura un mese solo per i vari livelli di uffici per cui devono passare le varie fasi.
Assolutamente si, ma il discorso è che da 0 impiegherei più tempo col DLSS che con l'FSR. Ovviamente su un gioco in sviluppo i tempi sono ottimizzati, il problema è presente sui vecchi titoli.
mmorselli
23-06-2021, 15:09
Non mi riferivo al DLSS come tecnologia a se stante, ma all'utilizzo dei TC. Se domani nvidia dicesse che il DLSS è disponibile su 1080ti (con le dovute mancanze) la cosa non mi sorprenderebbe. Attenzione che non ho mai detto che il DLSS è inutile.
Senza TC è improbabile che potrebbero usare la stessa tecnologia basata sul Machine Learning, per cui non sarebbe più DL (Deep Learning) SS
CrapaDiLegno
23-06-2021, 15:10
Hai ripetuto per la trentesima volta le stesse cose + le tue considerazioni personali (sbagliate). In questo post sinceramente non vedo contenuti, ma solo offese. Detto questo divertiti con le tue convinzioni e la tua mente plagiata, che con gente come te non discuto. Del resto non mi pagano per insegnare qualcosa al primo ignorante cafoncello con cui parlo ;)
Ho ripetuto perché gli ignoranti come te hanno dimostrato di non aver capito.
Puoi continuare a scrivere i soliti post pro AMD privi di alcun contenuto tecnico e di intelligenza in genere come facevi prima di cambiare nick.
A me non cambia niente. Non è che esprimo il mio parere ragionato per convincere degli ignoranti che manco capiscono quello che leggono che ho ragione. D'altronde hai già ampiamente dimostrato che non sai nulla di quel che parli e ripeti solo quello che dicono gli altri. Quello che ti fa comodo, ovviamente.
mmorselli
23-06-2021, 15:11
Assolutamente si, ma il discorso è che da 0 impiegherei più tempo col DLSS che con l'FSR.
Ma sulla base di cosa lo affermi? Se FSR fosse così lineare non sarebbe implementato nei giochi, ma nel driver, e immediatamente compatibile con tutti i giochi. Se invece va implementato gioco per gioco vuol dire che va a toccare la pipeline prima del driver, quindi devi mettere mano al codice, quindi è la stessa cosa di DLSS che in fondo è una semplice chiamata ad una primitiva alla quale passi 3 parametri.
Senza TC è improbabile che potrebbero usare la stessa tecnologia basata sul Machine Learning, per cui non sarebbe più DL (Deep Learning) SS
Ripeto che la parte di inference (la parte fatta sulla GPU) è molto meno impegnativa rispetto a quella di training, che qualsiasi GPU moderna fa tranquillamente (come la 1080ti). I TC non sono un requisito fondamentale, ma hw per ottimizzare i tempi. Il DLSS 1.0 sulla serie 1xxx poteva girarci tranquillamente. Ora la domanda è quali risultati si avrebbero col DLSS 2 senza TC? Questo lo sa solo nvidia dato che l'open source non le piace proprio. Ma ricordiamo che per voice le premesse non sono state rispettate, per questo non mi sorprenderebbe che lo rilasciassero (sempre con i dovuti compromessi).
Ho ripetuto perché gli ignoranti come te hanno dimostrato di non aver capito.
Puoi continuare a scrivere i soliti post pro AMD privi di alcun contenuto tecnico e di intelligenza in genere come facevi prima di cambiare nick.
A me non cambia niente. Non è che esprimo il mio parere ragionato per convincere degli ignoranti che manco capiscono quello che leggono che ho ragione. D'altronde hai già ampiamente dimostrato che non sai nulla di quel che parli e ripeti solo quello che dicono gli altri. Quello che ti fa comodo, ovviamente.
Ok, tu puoi continuare a scrivere le stesse identiche cose, magari un giorno apri gli occhi. Saluti ;)
CrapaDiLegno
23-06-2021, 15:21
Physx, SLI ... Tutta roba rivelatasi inutile, insieme a tanta altra, ma per DLSS questo discorso non vale, perché i benefici sono già molto evidenti oggi, io gioco a roba che senza DLSS sarebbe ingiocabile.
Dissento completamente.
Con il tempo sono risultati superati come tecnologie, ma al tempo della loro comparsa non c'era nulla di paragonabile.
Ovvio che con il PCI3,4,5 un bus dedicato per trasmettere i dati diventa superfluo, ma con il PCI1 se non avevi il bus dedicato ti attaccavi.
Inoltre il bus dedicato ha permesso a Nvidia di non soffrire proprio di tutti qui problemi di stuttering che ha avuto AMD.
Concordo che il DLSS o qualunque funzione usi un algoritmo moderno scalabile (come un algoritmo di ML) ha potetnzialità e capacità di maturazione ben diverse da uno di tipo classico che magari è già in uso da 40 anni e quello ormai è.
Non mi riferivo al DLSS come tecnologia a se stante, ma all'utilizzo dei TC. Se domani nvidia dicesse che il DLSS è disponibile su 1080ti (con le dovute mancanze) la cosa non mi sorprenderebbe. Attenzione che non ho mai detto che il DLSS è inutile.
Ma Nvidia può benissimo usare il DLSS senza TC. O fare un algoritmo simile senza uso dei TC (su Control infatti lo ha fatto, per poi tornare alla versione accelerata tramite TC). Non è che non funzionasse ma i risultati sono decisamente diversi. Cerca il confronto su youtube, visto che sei un esperto in materia recensioni e capisci solo se hai un video davanti.
dado1979
23-06-2021, 15:28
Domanda: ho una GTX 1080 Ti e possiedo Terminator Resistance.
Se installo il gioco mi da la possibilità di abilitare l'FSR senza fare altro o ci vogliono driver AMD???
CrapaDiLegno
23-06-2021, 15:28
Ripeto che la parte di inference (la parte fatta sulla GPU) è molto meno impegnativa rispetto a quella di training, che qualsiasi GPU moderna fa tranquillamente (come la 1080ti). I TC non sono un requisito fondamentale, ma hw per ottimizzare i tempi. Il DLSS 1.0 sulla serie 1xxx poteva girarci tranquillamente. Ora la domanda è quali risultati si avrebbero col DLSS 2 senza TC? Questo lo sa solo nvidia dato che l'open source non le piace proprio. Ma ricordiamo che per voice le premesse non sono state rispettate, per questo non mi sorprenderebbe che lo rilasciassero (sempre con i dovuti compromessi).
Ma perché parli di cose che non sai? Quello che dici sono sono speculazioni di basso livello di un ignorante puro che non ha la minima idea di quello di cui sta parlando.
Perché secondo te esistono aziende che costruiscono chip per fare inferenza se basta una GPU a caso per soddisfare la cosa?
Secondo te perché Nvidia vende caterve di T4 se i TC non sono necessari e "basta una 1080ti"?
Ma poi inferenza di che? Di quale algoritmo? Con che set di dati e con che limitazioni di tempo e precisione?
Ma di cosa parli se non sai davvero nulla della materia?
Sei solo un fanboy AMD tanto ignorante da continuare a postare falsità per convincersi (e tentare di convincere la gang di ignoranti di cui fa parte) che la realtà è diversa.
Ma informati un po' rima di scrivere cr3tinate. Nvidia ha fatto un DLSS che non usa i TC. Cerca, trova e confronta, invece che stare qui a scrivere corbellerie inventate di sana pianta. E sì, ci sono i video su youtube, così capisci anche tu le differenze con le immaginette perché è palese che con il testo scritto hai gravi difficoltà di comprensione.
CrapaDiLegno
23-06-2021, 15:31
Domanda: ho una GTX 1080 Ti e possiedo Terminator Resistance.
Se installo il gioco mi da la possibilità di abilitare l'FSR senza fare altro o ci vogliono driver AMD???
E' un algoritmo di scaling inserito nel motore di gioco per cui dovrebbe disponibile per chiunque.
dado1979
23-06-2021, 15:34
Ma perché parli di cose che non sai? Quello che dici sono sono speculazioni di basso livello di un ignorante puro che non ha la minima idea di quello di cui sta parlando.
Perché secondo te esistono aziende che costruiscono chip per fare inferenza se basta una GPU a caso per soddisfare la cosa?
Secondo te perché Nvidia vende caterve di T4 se i TC non sono necessari e "basta una 1080ti"?
Ma poi inferenza di che? Di quale algoritmo? Con che set di dati e con che limitazioni di tempo e precisione?
Ma di cosa parli se non sai davvero nulla della materia?
Sei solo un fanboy AMD tanto ignorante da continuare a postare falsità per convincersi (e tentare di convincere la gang di ignoranti di cui fa parte) che la realtà è diversa.
Ma informati un po' rima di scrivere cr3tinate. Nvidia ha fatto un DLSS che non usa i TC. Cerca, trova e confronta, invece che stare qui a scrivere corbellerie inventate di sana pianta. E sì, ci sono i video su youtube, così capisci anche tu le differenze con le immaginette perché è palese che con il testo scritto hai gravi difficoltà di comprensione.
Niente di quello che fa una azienda privata è indirizzato a fare ciò che sarebbe necessario fare ma esclusivamente a fare ciò che le opermette di fare un utile maggiore. Per Nvidia questa cosa è moltiplicata all'ennesima potenza e non si è mai preoccupata di salvare neanche le apparenze, loro vogliono che tu aggiorni l'hardware ogni due anni massimo altrimenti ti salutano perchè anche se potessero fare tecnologie compatibili con le vga vecchie non lo faranno mai.
Sono i peggiori in un mondo di gente schifosa.
dado1979
23-06-2021, 15:35
E' un algoritmo di scaling inserito nel motore di gioco per cui dovrebbe disponibile per chiunque.
Gracias
CrapaDiLegno
23-06-2021, 15:40
Ma sulla base di cosa lo affermi? Se FSR fosse così lineare non sarebbe implementato nei giochi, ma nel driver, e immediatamente compatibile con tutti i giochi. Se invece va implementato gioco per gioco vuol dire che va a toccare la pipeline prima del driver, quindi devi mettere mano al codice, quindi è la stessa cosa di DLSS che in fondo è una semplice chiamata ad una primitiva alla quale passi 3 parametri.
Direi che è il contrario di quanto afferma lui.
Il DLSS è visto come un algoritmo di AA temporale da parte del sistema, per cui è l'ultimo stadio della pipeline 3D a cui poi non dipende più nulla.
L'FSR è invece un algoritmo che va inserito all'interno della pipeline di rendering e che influisce sugli stadi successivi, per cui richiede più lavoro e sicuramente più test per essere implementato.
Forse è per questo che è presente solo su un gruppetto i giochini e nessun AAA. Sempre che un AAA abbia interesse ad avere sviluppatori che si dannano l'anima per avere texture di alta qualità, effetti iperbolici particellari e ombre e riflessi super sharp, addirittura con Nanite avere poligoni grandi come un pixel, tutto ottimizzato per non avere cali di frame enormi in casi particolari per poi vanificare tutto con un bel effetto scaling degradante.
Ma perché parli di cose che non sai? Quello che dici sono sono speculazioni di basso livello di un ignorante puro che non ha la minima idea di quello di cui sta parlando.
Perché secondo te esistono aziende che costruiscono chip per fare inferenza se basta una GPU a caso per soddisfare la cosa?
Secondo te perché Nvidia vende caterve di T4 se i TC non sono necessari e "basta una 1080ti"?
Ma poi inferenza di che? Di quale algoritmo? Con che set di dati e con che limitazioni di tempo e precisione?
Ma di cosa parli se non sai davvero nulla della materia?
Sei solo un fanboy AMD tanto ignorante da continuare a postare falsità per convincersi (e tentare di convincere la gang di ignoranti di cui fa parte) che la realtà è diversa.
Ma informati un po' rima di scrivere cr3tinate. Nvidia ha fatto un DLSS che non usa i TC. Cerca, trova e confronta, invece che stare qui a scrivere corbellerie inventate di sana pianta. E sì, ci sono i video su youtube, così capisci anche tu le differenze con le immaginette perché è palese che con il testo scritto hai gravi difficoltà di comprensione.
Felice di vedere che anche tu hai difficoltà con la comprensione del testo. Con saluti intendevo la questione tra me e te chiusa, non continuare con flames ed offese. Ti ripeto, resta nelle tue convinzioni. Giusto per chiudere non sono un fan boy AMD :)
Stammi bene
CrapaDiLegno
23-06-2021, 15:57
Niente di quello che fa una azienda privata è indirizzato a fare ciò che sarebbe necessario fare ma esclusivamente a fare ciò che le opermette di fare un utile maggiore. Per Nvidia questa cosa è moltiplicata all'ennesima potenza e non si è mai preoccupata di salvare neanche le apparenze, loro vogliono che tu aggiorni l'hardware ogni due anni massimo altrimenti ti salutano perchè anche se potessero fare tecnologie compatibili con le vga vecchie non lo faranno mai.
Sono i peggiori in un mondo di gente schifosa.
Urca, addirittura i "peggiori del mondo di gente schifosa". Capisco che le politiche di una multinazionale non siano comprensibili o condivisibili per un utente, ma credi che AMD faccia diversamente da Nvidia, cioè tentare di fare l'utile maggiore possibile? Lo sai che è insito nello statuto dell'azienda quotata in borsa questa cosa, pena la denuncia penale da parte degli azionisti, vero?
La differenza sta solo nei modi POSSIBILI dalle aziende: Nvidia lo fa con la ricerca e lo sviluppo verso nuove funzionalità che hanno anche un certo costo nel silicio. AMD è così indietro e con un market share abbastanza anemico che presenta solo novità SW in inseguimento a quanto di nuovo fa Nvidia.
Siccome stiamo parlando di speculazioni e opinioni personali in cui quello che dico io vale esattamente quello che dici tu senza che nessuno possa dimostrare il contrario, ribaltiamo il punto di vista e vediamo se c'è qualcosa di oggettivo che da ragione al fatto che Nvidia stia mentendo riguardo all'uso dei TC.
Se fosse davvero possibile fare un algoritmo come il DLSS con le stesse prestazioni senza Tensor Core sarebbe interesse di AMD realizzarlo e dimostrare che il suo HW è migliore senza unità dedicate, non credi?
E invece dopo 3 anni dall'introduzione del DLSS (pure nelle sue forme iniziali non proprio esaltanti) AMD non ha realizzato niente di simile.
Fatto salvo che credo che in AMD ci siano persone capaci di scrivere algoritmi ML, forse non avere abbastanza potenza computazionale con gli shader normali per una cosa del genere può essere un motivo per non averlo fatto dopo tutto questo tempo?
Nota che parliamo sempre di algoritmi scalabili, per cui c'è un compromesso tra tempo di esecuzione e precisione del risultato oltre che dalla qualità del seti di dati da cui si parte (ma per quello vale la qualità del training che è roba esterna alle capacità della GPU). Quindi "non è possibile" farlo sensza TC in senso assoluto non è la risposta esatta, ma forse lo è "non è possibile con una qualità soddisfacente".
Quindi si è passati all'uso di algoritmi classici molto meno impegnativi.
Da questo ragionamento, traggo che:
1. l'HW di AMD non ha abbastanza capacità computazionale
2. sì, i TC sono necessari per un risultato decente
Libero di scrivere una interpretazione dei fatti diversa o di confutare il mio ragionamento.
StylezZz`
23-06-2021, 15:58
EDIT
Da questo ragionamento, traggo che:
1. l'HW di AMD non ha abbastanza capacità computazionale
2. sì, i TC sono necessari per un risultato decente
Amen :)
CrapaDiLegno
23-06-2021, 16:05
Felice di vedere che anche tu hai difficoltà con la comprensione del testo. Con saluti intendevo la questione tra me e te chiusa, non continuare con flames ed offese. Ti ripeto, resta nelle tue convinzioni. Giusto per chiudere non sono un fan boy AMD :)
Stammi bene
Sì ma se poi continui a scrivere falsità per cercare di darti ragione dimostri che sei tu ad avere dei grandi problemi di comprensione.
Rispondi alle domande: cosa ne sai del peso dell'algoritmo di inferenza usato dal DLSS per dire che "basta una 1080Ti"?
Se così fosse un algoritmo simile girerebbe alla grande sulle Vega64, no? Quindi perché 'sta p0rcata del FSR invece che un algoritmo ML?
Cosa ne sai in generale di ML/AI visto che non sai neppure che ci sono aziende che costruiscono ASIC apposito per questa cosa e che Nvidia vende una serie particolare di schede con i TC solo per questo tipo di operazioni?
Se bastasse una 1080Ti AMD venderebbe milioni di Vega 64 in questo mercato.. e invece....
Quindi perché menti per cercare di avere ragione?
Non sei un fanboy AMD? Ah no? :mc:
Intanto vorrei vedere questo FSR alle prese con un gioco cazzuto e con un RT bello spinto, alla CyberPunk in settaggio folle per capirci, poi vediamo se ste CU bastano...
CrapaDiLegno
23-06-2021, 16:14
Intanto vorrei vedere questo FSR alle prese con un gioco cazzuto e con un RT bello spinto, alla CyberPunk in settaggio folle per capirci, poi vediamo se ste CU bastano...
Bella domanda, ma taroccando un po' di più si riesce comunque ad aumentare le prestazioni. Della qualità... chissene.. tanto non la misura nessuno e "basta stare alla giusta distanza" come consiglia AMD.
dado1979
23-06-2021, 16:19
Urca, addirittura i "peggiori del mondo di gente schifosa". Capisco che le politiche di una multinazionale non siano comprensibili o condivisibili per un utente, ma credi che AMD faccia diversamente da Nvidia, cioè tentare di fare l'utile maggiore possibile? Lo sai che è insito nello statuto dell'azienda quotata in borsa questa cosa, pena la denuncia penale da parte degli azionisti, vero?
La differenza sta solo nei modi POSSIBILI dalle aziende: Nvidia lo fa con la ricerca e lo sviluppo verso nuove funzionalità che hanno anche un certo costo nel silicio. AMD è così indietro e con un market share abbastanza anemico che presenta solo novità SW in inseguimento a quanto di nuovo fa Nvidia.
Siccome stiamo parlando di speculazioni e opinioni personali in cui quello che dico io vale esattamente quello che dici tu senza che nessuno possa dimostrare il contrario, ribaltiamo il punto di vista e vediamo se c'è qualcosa di oggettivo che da ragione al fatto che Nvidia stia mentendo riguardo all'uso dei TC.
Se fosse davvero possibile fare un algoritmo come il DLSS con le stesse prestazioni senza Tensor Core sarebbe interesse di AMD realizzarlo e dimostrare che il suo HW è migliore senza unità dedicate, non credi?
E invece dopo 3 anni dall'introduzione del DLSS (pure nelle sue forme iniziali non proprio esaltanti) AMD non ha realizzato niente di simile.
Fatto salvo che credo che in AMD ci siano persone capaci di scrivere algoritmi ML, forse non avere abbastanza potenza computazionale con gli shader normali per una cosa del genere può essere un motivo per non averlo fatto dopo tutto questo tempo?
Nota che parliamo sempre di algoritmi scalabili, per cui c'è un compromesso tra tempo di esecuzione e precisione del risultato oltre che dalla qualità del seti di dati da cui si parte (ma per quello vale la qualità del training che è roba esterna alle capacità della GPU). Quindi "non è possibile" farlo sensza TC in senso assoluto non è la risposta esatta, ma forse lo è "non è possibile con una qualità soddisfacente".
Quindi si è passati all'uso di algoritmi classici molto meno impegnativi.
Da questo ragionamento, traggo che:
1. l'HW di AMD non ha abbastanza capacità computazionale
2. sì, i TC sono necessari per un risultato decente
Libero di scrivere una interpretazione dei fatti diversa o di confutare il mio ragionamento.
Beh io non parlo di caratteristiche tecniche perchè non le conosco abbastanza bene ma che AMD faccia diverso è un dato di fatto, io ne sono un esempio vivente: ho una Nvidia e ho appena provato l'FSR sulla mia scheda, per questo devo ringrazia re AMD... Nvidia non avrebbe MAI permesso che io usassi una tecnologia Nvidia con un hardware AMD (non puoi negare questo)... poi che AMD sia quel che sia possiamo essere d'accordo, ma Nvidia è comunque peggio su queste cose.
Per me almeno questo è un dato di fatto, no?
P.S. intendevo dire che in quel mondo fanno tutti un po' schifo, ma Nvidia riesce ad essere la società che dal punto di vista dell'apertura verso la tecnologie e quindi verso la diffusione delle tecnologie (la politica tecnologica insomma) è quella che fa più schifo di tutte (forse anche più schifo di Apple).
dado1979
23-06-2021, 16:24
Cmq provato alla veloce Terminator Resistance sulla mia GTX 1080 Ti e ho ottenuto questi risultati:
2K 120 fps ---- Ultra 162 fps ---- qualità 169 fps ---- balanced 170 fps ---- performance 170 fps
Tre considerazioni:
1) nel mio sistema a 170 si va verso il cpu limited e quindi di più non fa;
2) a Ultra io non sono riuscito a distinguere la nativa 2K dalla Ultra guadagnando il 35% di fps, non è assolutamente male;
3) a performance la differenza di qualità è parecchio visibile ma non si può dire che sia una schifezza, certo è un compromesso ma potrei giocare a performance al gioco senza alcun problema.
Cmq provato alla veloce Terminator Resistance sulla mia GTX 1080 Ti e ho ottenuto questi risultati:
2K 120 fps ---- Ultra 162 fps ---- qualità 169 fps ---- balanced 170 fps ---- performance 170 fps
Tre considerazioni:
1) nel mio sistema a 170 si va verso il cpu limited e quindi di più non fa;
2) a Ultra io non sono riuscito a distinguere la nativa 2K dalla Ultra guadagnando il 35% di fps, non è assolutamente male;
3) a performance la differenza di qualità è parecchio visibile ma non si può dire che sia una schifezza, certo è un compromesso ma potrei giocare a performance al gioco senza alcun problema.
Ottimo direi...... Stasera scarico i nuovi driver AMD e vediamo se nella lunga lista di giochi che ho posso provare sta novita'.
Cmq non cpaisco il perche' vi incazziate tutti quanti con sto discorso tra DLSS e FSR, tecnologie profondamente diverse che mirano a cose diverse.
Sapere che l' FSR puo' darti quel boost prestazionale che ti permetterebbe di "rimettere" in gioco la tua vecchia GPU non vedo il perche' debba essere visto per forza come una schifezza immonda.
Prendo ad esempio la mia configurazione non proprio aggiornata e sapere che potrei tranquillamente passare, ad esempio, da 50/60 fps a 65/80 FPS (cyberpunk ad esempio) in Quality non posso che essere stracontento.
Ricapitolando la mia 580 ha guadagnato sempre migliorando dalle DX11 alle DX12 alle VULKAN e ora con l'FSR ancora riusciro' a tenerla per un po'.
DrossBelly
23-06-2021, 16:53
Mannaggia e io che speravo di trascinare la mia 970 un altro anno così da cambiare scheda video FORSE a prezzi più umani :(
E va beh :cry:
dado1979
23-06-2021, 17:03
Ottimo direi...... Stasera scarico i nuovi driver AMD e vediamo se nella lunga lista di giochi che ho posso provare sta novita'.
Cmq non cpaisco il perche' vi incazziate tutti quanti con sto discorso tra DLSS e FSR, tecnologie profondamente diverse che mirano a cose diverse.
Sapere che l' FSR puo' darti quel boost prestazionale che ti permetterebbe di "rimettere" in gioco la tua vecchia GPU non vedo il perche' debba essere visto per forza come una schifezza immonda.
Prendo ad esempio la mia configurazione non proprio aggiornata e sapere che potrei tranquillamente passare, ad esempio, da 50/60 fps a 65/80 FPS (cyberpunk ad esempio) in Quality non posso che essere stracontento.
Ricapitolando la mia 580 ha guadagnato sempre migliorando dalle DX11 alle DX12 alle VULKAN e ora con l'FSR ancora riusciro' a tenerla per un po'.
Condivido in toto.
ah ecco: giochi sponsorizzati AMD = giochi scadenti :asd:
è inutile, vi meritate una 4060 6GB a 999$
Non è che sono scadenti, fanno proprio vomitare.
Uno degli sviluppatori di Edge of Eternity dice che ha implementato FSR in un paio di ore
https://twitter.com/zelerj/status/1407379506126540802?s=19
matsnake86
23-06-2021, 18:02
Qualcuno può testare fsr a 1080p ?
dado1979
23-06-2021, 18:09
Qualcuno può testare fsr a 1080p ?
Se non lo fa nessuno posso provare io ma ho paura di essere cpu limited a 1080P, non so quanto possa valere
StylezZz`
23-06-2021, 18:25
Non è che sono scadenti, fanno proprio vomitare.
Quoto.
L'ultimo Gioco con la G sponsorizzato AMD è Resident Evil 2 Remake...e parliamo del 2019.
Vediamo Far Cry 6 cosa combina...
DakmorNoland
23-06-2021, 18:35
Tre considerazioni:
1) nel mio sistema a 170 si va verso il cpu limited e quindi di più non fa;
2) a Ultra io non sono riuscito a distinguere la nativa 2K dalla Ultra guadagnando il 35% di fps, non è assolutamente male;
3) a performance la differenza di qualità è parecchio visibile ma non si può dire che sia una schifezza, certo è un compromesso ma potrei giocare a performance al gioco senza alcun problema.
Beh dai mi sembra ottimo! Preferisco opinioni di gente "normale" che recensioni che parlano di "reti neurali" :asd:
Scherzi a parte ho provato Death Stranding sul mio OLED B8 55" in sala a 1440p senza niente di niente, semplicemente facendo scalare il TV, vi posso dire che switchando tra 1440p e 4k non vedevo proprio nessuna differenza. Forse se avessi avuto due TV identici uno di fianco all'altro sarei riuscito a notare qualcosa. Per me già i TV LG di fascia alta scalano mostruosamente, per questo mi fa strano vedere comparative che fanno gli ingrandimenti per scovare differenze tra DLSS e FSR, per trovare una differenza che quando giochi non noti.
In ogni caso proverò presto queste tecnologie però anch'io appena potrò mettere le mani su una 30xx o una 68xx penso andrò di nativa, oppure a 1440p e faccio scalare al TV altro che DLSS e FSR, il problema è che molta gente gioca su monitor gaming scrausi con scaler inesistente.
Sono comunque dell'idea che scalare a 4k partendo da 1080p decentemente sia un'impresa, mentre da 1440p già un TV con un buono scaler fa un lavoro quasi perfetto. Sono però curioso di vedere dove arriveranno queste tecnologie, ma vorrei le opinioni di utenti non di recensori, a sentire le recensioni tipo Cyberpunk con DLSS (da 1080p a 4k) sembra perfetto, fantastico ecc. Poi basta leggere il thread su steam o altro forum e li si vede che la gente non si fa fregare e cmq un impatto sulla qualità c'è, anche se voglio sperare sia meglio dello scaler del mio OLED.
In pratica i produttori di schede video hanno imparato cos'è uno scaler e stanno mettendo su degli algoritmi più avanzati per migliorare tale tecnologia. Ci hanno messo solo quei 20 anni dai. :asd:
nickname88
23-06-2021, 18:46
Beh dai mi sembra ottimo! Preferisco opinioni di gente "normale" che recensioni che parlano di "reti neurali" :asd:
Scherzi a parte ho provato Death Stranding sul mio OLED B8 55" in sala a 1440p senza niente di niente, semplicemente facendo scalare il TV, vi posso dire che switchando tra 1440p e 4k non vedevo proprio nessuna differenza. Forse se avessi avuto due TV identici uno di fianco all'altro sarei riuscito a notare qualcosa. Per me già i TV LG di fascia alta scalano mostruosamente, per questo mi fa strano vedere comparative che fanno gli ingrandimenti per scovare differenze tra DLSS e FSR, per trovare una differenza che quando giochi non noti.
In ogni caso proverò presto queste tecnologie però anch'io appena potrò mettere le mani su una 30xx o una 68xx penso andrò di nativa, oppure a 1440p e faccio scalare al TV altro che DLSS e FSR, il problema è che molta gente gioca su monitor gaming scrausi con scaler inesistente.
Sono comunque dell'idea che scalare a 4k partendo da 1080p decentemente sia un'impresa, mentre da 1440p già un TV con un buono scaler fa un lavoro quasi perfetto. Sono però curioso di vedere dove arriveranno queste tecnologie, ma vorrei le opinioni di utenti non di recensori, a sentire le recensioni tipo Cyberpunk con DLSS (da 1080p a 4k) sembra perfetto, fantastico ecc. Poi basta leggere il thread su steam o altro forum e li si vede che la gente non si fa fregare e cmq un impatto sulla qualità c'è, anche se voglio sperare sia meglio dello scaler del mio OLED.
In pratica i produttori di schede video hanno imparato cos'è uno scaler e stanno mettendo su degli algoritmi più avanzati per migliorare tale tecnologia. Ci hanno messo solo quei 20 anni dai. :asd:
Ci mancava in effetti una delle tue solite raccolte di vaccate che fornisci ad ogni tuo post.
A partire dalla chicca del 1440p interpolato che non mostra differenze da un 4K nativo, fino al DLSS quality che opererebbe a 1080p per il riferimento 4K e come cannonata finale lo scaler del tv che farebbe un lavoro migliore di DLSS/FSR. :rolleyes:
mmorselli
23-06-2021, 19:07
Cmq non cpaisco il perche' vi incazziate tutti quanti con sto discorso tra DLSS e FSR, tecnologie profondamente diverse che mirano a cose diverse.
Penso che tutti sarebbero stati felici di una nuova tecnologia di scaling persino se fosse stata esclusiva per le schede AMD, a maggior ragione si è felici per il fatto che sia una tecnologia open destinata ad un pubblico molto ampio.
Fa però girare un po' le balle il solito fanboy che dice "DLSS e FSR sono praticamente equivalenti", quando non possono esserlo in nessun modo. Non è questione di "meglio" o "peggio", fanno proprio cose diverse, poi se uno preferisce FSR avrà le sue ragioni e non le discuto.
mmorselli
23-06-2021, 19:13
per questo mi fa strano vedere comparative che fanno gli ingrandimenti per scovare differenze tra DLSS e FSR, per trovare una differenza che quando giochi non noti.
Lo ripeto finché non vomitate... temporal... temporal... temporal...
Uno scaling temporale è composto da due frame, non da uno, prende dati dal frame corrente e da quello precedente.
Le differenze non le vedi perché non sai cosa guardare, oppure perché guardi le prove delle riviste che ingrandiscono un particolare a piacere.
Se ti mostro cosa guardare fidati che dopo lo vedi sempre. Per esempio due giochi che soffrono in modo mostruoso di shimmering, Elite Dangerous ed Euro Truck Simulator, se implementassero DLSS e FSR potrei metterli in 4K e farteli guardare a 5 metri di distanza... vedresti una differenza evidente.
Therinai
23-06-2021, 19:14
Io non capisco... lo steso articolo che stiamo commentando premette innanzitutto che FSR e DLSS arrivano allo stesso risultato in modi diversi, quindi perché dire che sono cose differenti, che non vanno confrontati e bla bla?
E non mi riferisco solo a mmorselli, sto leggnedo vari commenti di questo tipo.
DLSS fa upscaling o sbaglio?
mmorselli
23-06-2021, 19:20
Io non capisco... lo steso articolo che stiamo commentando premette innanzitutto che FSR e DLSS arrivano allo stesso risultato in modi diversi
L'articolo dice cose inesatte. Sai che novità...
DLSS fa upscaling o sbaglio?
Non fa solo quello, e lo fa per una strada completamente diversa che porta a risultati diversi.
Prima di tutto è un algoritmo temporale, per cui ricostruisce la scena in base al frame precedente e ai motion vector che ti dicono come si sono mossi gli oggetti nella scena rispetto al frame precedente.
Secondo usa il deep learning per ricostruire il dettaglio mancante in base a quello che lui suppone ci sarebbe dovuto essere in una scena di quel tipo, basandosi sull'apprendimento fatto con milioni di frame di videogiochi
Se sulla seconda parte si potrebbe dire "vabbè, ma poi all'atto pratico cambia poco in questo e quel gioco", sul primo non si discute, il risultato finale è SEMPRE profondamente diverso, come è sempre diversa una scena passata sotto algoritmi di antialiasing differenti.
matsnake86
23-06-2021, 19:23
Se non lo fa nessuno posso provare io ma ho paura di essere cpu limited a 1080P, non so quanto possa valere
Più che per il guadagno di frames sarebbe interessante capire se lavora bene a livello di qualità dell'immagine.
Perchè anche impostando ultra quality comunque l'immagine nativa è inferiore a 1080p e quindi potrebbe esserci un peggioramento più netto rispetto all'utiizzo a 1440p o 2160p
Opteranium
23-06-2021, 19:38
Ottimo direi...... Stasera scarico i nuovi driver AMD e vediamo se nella lunga lista di giochi che ho posso provare sta novita'.
Cmq non cpaisco il perche' vi incazziate tutti quanti con sto discorso tra DLSS e FSR, tecnologie profondamente diverse che mirano a cose diverse.
Sapere che l' FSR puo' darti quel boost prestazionale che ti permetterebbe di "rimettere" in gioco la tua vecchia GPU non vedo il perche' debba essere visto per forza come una schifezza immonda.
Prendo ad esempio la mia configurazione non proprio aggiornata e sapere che potrei tranquillamente passare, ad esempio, da 50/60 fps a 65/80 FPS (cyberpunk ad esempio) in Quality non posso che essere stracontento.
Ricapitolando la mia 580 ha guadagnato sempre migliorando dalle DX11 alle DX12 alle VULKAN e ora con l'FSR ancora riusciro' a tenerla per un po'.
esatto, è un guadagno in tutto e per tutto (e per TUTTI, aggiungerei) non capisco il dissenso
fra l'altro è interessante questo paragrafo della recensione di TPU https://www.techpowerup.com/review/amd-fsr-fidelityfx-super-resolution-quality-performance-benchmark/10.html
"The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphics card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K."
Sì ma se poi continui a scrivere falsità per cercare di darti ragione dimostri che sei tu ad avere dei grandi problemi di comprensione.
Rispondi alle domande: cosa ne sai del peso dell'algoritmo di inferenza usato dal DLSS per dire che "basta una 1080Ti"?
Se così fosse un algoritmo simile girerebbe alla grande sulle Vega64, no? Quindi perché 'sta p0rcata del FSR invece che un algoritmo ML?
Cosa ne sai in generale di ML/AI visto che non sai neppure che ci sono aziende che costruiscono ASIC apposito per questa cosa e che Nvidia vende una serie particolare di schede con i TC solo per questo tipo di operazioni?
Se bastasse una 1080Ti AMD venderebbe milioni di Vega 64 in questo mercato.. e invece....
Quindi perché menti per cercare di avere ragione?
Non sei un fanboy AMD? Ah no? :mc:
Falsità sono quelle che scrivi in ogni post che vedo. Non proprio falsità, ma manovrare cose esatte aggiungendo opinioni personali e presupposti sbagliati è lo stesso. Comunque continui a dimostrare di avere seri problemi di comprensione, in ogni caso ti ho già ripetuto che ho smesso di rispondere, questo sarà l'ultimo commento, parlare con un neofita che ha letto qualcosa è piu semplice. Resta nella tua presunzione, non è un mio problema. Saluti.
Therinai
23-06-2021, 20:23
L'articolo dice cose inesatte. Sai che novità...
Non fa solo quello, e lo fa per una strada completamente diversa che porta a risultati diversi.
Prima di tutto è un algoritmo temporale, per cui ricostruisce la scena in base al frame precedente e ai motion vector che ti dicono come si sono mossi gli oggetti nella scena rispetto al frame precedente.
Secondo usa il deep learning per ricostruire il dettaglio mancante in base a quello che lui suppone ci sarebbe dovuto essere in una scena di quel tipo, basandosi sull'apprendimento fatto con milioni di frame di videogiochi
Se sulla seconda parte si potrebbe dire "vabbè, ma poi all'atto pratico cambia poco in questo e quel gioco", sul primo non si discute, il risultato finale è SEMPRE profondamente diverso, come è sempre diversa una scena passata sotto algoritmi di antialiasing differenti.
Ah ok... ma è come dici tu e basta o puoi descrivere/argomentare la diversità dei risultati ottenuti con FSR e DLSS?
mmorselli
23-06-2021, 20:28
Ah ok... ma è come dici tu e basta o puoi descrivere/argomentare la diversità dei risultati ottenuti con FSR e DLSS?
Ma più di quello che ho già fatto? Se vuoi una risposta personalizzata, fai una domanda personalizzata.
Uno scaling temporale è composto da due frame, non da uno, prende dati dal frame corrente e da quello precedente.
Le differenze non le vedi perché non sai cosa guardare, oppure perché guardi le prove delle riviste che ingrandiscono un particolare a piacere.
Se ti mostro cosa guardare fidati che dopo lo vedi sempre. Per esempio due giochi che soffrono in modo mostruoso di shimmering, Elite Dangerous ed Euro Truck Simulator, se implementassero DLSS e FSR potrei metterli in 4K e farteli guardare a 5 metri di distanza... vedresti una differenza evidente.
Prima di tutto è un algoritmo temporale, per cui ricostruisce la scena in base al frame precedente e ai motion vector che ti dicono come si sono mossi gli oggetti nella scena rispetto al frame precedente.
Secondo usa il deep learning per ricostruire il dettaglio mancante in base a quello che lui suppone ci sarebbe dovuto essere in una scena di quel tipo, basandosi sull'apprendimento fatto con milioni di frame di videogiochi
Se sulla seconda parte si potrebbe dire "vabbè, ma poi all'atto pratico cambia poco in questo e quel gioco", sul primo non si discute, il risultato finale è SEMPRE profondamente diverso, come è sempre diversa una scena passata sotto algoritmi di antialiasing differenti.
Therinai
23-06-2021, 20:31
Ma più di quello che ho già fatto? Se vuoi una risposta personalizzata, fai una domanda personalizzata.
Mmm... non ti seguo, hai riquotato come funziona il DLSS, cosa se che mi è ampiamente chiara. L'obiezione a cui rispondi è un'altra: come differisce il risultato finale tra FSR e DLSS?
mmorselli
23-06-2021, 21:16
Mmm... non ti seguo, hai riquotato come funziona il DLSS, cosa se che mi è ampiamente chiara. L'obiezione a cui rispondi è un'altra: come differisce il risultato finale tra FSR e DLSS?
L'ho scritto, in una delle due immagini non c'è shimmering, nell'altra c'è, se vuoi toglierlo dovrai applicare tu un antialiasing temporale, come TAA, che però non ha risultati neppure paragonabili a DLSS. TAA fa uno scempio dei dettagli, DLSS ammorbidisce appena rispetto all'immagine non filtrata di pari risoluzione.
Se non sai cos'è lo shimmering. è un effetto "palline dell'albero di natale" che prendono i bordi degli oggetti quando la telecamera si muove nella scena, soprattutto con i micro movimenti. In flat è facile non farci caso, in VR è una tragedia.
Therinai
23-06-2021, 21:45
L'ho scritto, in una delle due immagini non c'è shimmering, nell'altra c'è, se vuoi toglierlo dovrai applicare tu un antialiasing temporale, come TAA, che però non ha risultati neppure paragonabili a DLSS. TAA fa uno scempio dei dettagli, DLSS ammorbidisce appena rispetto all'immagine non filtrata di pari risoluzione.
Se non sai cos'è lo shimmering. è un effetto "palline dell'albero di natale" che prendono i bordi degli oggetti quando la telecamera si muove nella scena, soprattutto con i micro movimenti. In flat è facile non farci caso, in VR è una tragedia.
Ok, segno shimmering da verificare quando avremo la possibilità di provare un gioco sia con dlss che con fsr. C'è altro che possa portarci a questa altisonante conclusione "fanno cose completamente diverse" ?
mmorselli
23-06-2021, 21:51
Ok, segno shimmering da verificare quando avremo la possibilità di provare un gioco sia con dlss che con fsr. C'è altro che possa portarci a questa altisonante conclusione "fanno cose completamente diverse" ?
Certo, il fatto che con DLSS l'immagine viene anche ricostruita, non solo scalata, ma in questo caso anche a me servirebbero giochi che implementano entrambi per poter verificare che sia effettivamente così, e ad oggi già è un miracolo se ho qualcosa con DLSS da provare.
Legolas84
23-06-2021, 22:25
Beh dai mi sembra ottimo! Preferisco opinioni di gente "normale" che recensioni che parlano di "reti neurali" :asd:
Scherzi a parte ho provato Death Stranding sul mio OLED B8 55" in sala a 1440p senza niente di niente, semplicemente facendo scalare il TV, vi posso dire che switchando tra 1440p e 4k non vedevo proprio nessuna differenza. Forse se avessi avuto due TV identici uno di fianco all'altro sarei riuscito a notare qualcosa. Per me già i TV LG di fascia alta scalano mostruosamente, per questo mi fa strano vedere comparative che fanno gli ingrandimenti per scovare differenze tra DLSS e FSR, per trovare una differenza che quando giochi non noti.
In ogni caso proverò presto queste tecnologie però anch'io appena potrò mettere le mani su una 30xx o una 68xx penso andrò di nativa, oppure a 1440p e faccio scalare al TV altro che DLSS e FSR, il problema è che molta gente gioca su monitor gaming scrausi con scaler inesistente.
Sono comunque dell'idea che scalare a 4k partendo da 1080p decentemente sia un'impresa, mentre da 1440p già un TV con un buono scaler fa un lavoro quasi perfetto. Sono però curioso di vedere dove arriveranno queste tecnologie, ma vorrei le opinioni di utenti non di recensori, a sentire le recensioni tipo Cyberpunk con DLSS (da 1080p a 4k) sembra perfetto, fantastico ecc. Poi basta leggere il thread su steam o altro forum e li si vede che la gente non si fa fregare e cmq un impatto sulla qualità c'è, anche se voglio sperare sia meglio dello scaler del mio OLED.
In pratica i produttori di schede video hanno imparato cos'è uno scaler e stanno mettendo su degli algoritmi più avanzati per migliorare tale tecnologia. Ci hanno messo solo quei 20 anni dai. :asd:
... da far venire i brividi ...
mmorselli
24-06-2021, 00:54
FSR e DLSS hanno lo stesso scopo? Vengono usati per ottenere la stessa cosa.
Ma non ottengono la stessa cosa, non farmi fare tutti gli spiegoni da capo, dai...
Una ottiene un upscaling, l'altra ottiene ANCHE un upscaling, ma le due immagini risultanti sono profondamente diverse, una diversità che si nota più nelle immagini in movimento che negli screenshot statici, dove un difetto di aliasing può essere confuso per un elemento della scena.
Per me che sono appassionato di VR, per esempio, DLSS è vitale, mentre FSR anche no, vedremo, comunque la cosa che serve a me non la fa, ma magari mi regalerà qualche fps, che non si butta via. Ma non è perché sia una cosa "da VR", è che il difetto di cui parlo è molto più evidente in VR, ma non significa che a monitor non ci sia.
all'utente cambia che hanno un filtro che ha prestazioni e qualità non raggiungibili con scaler lineari.
Fortuna che FSR non è lineare allora.
Il risultato finale.
Il risultato finale non cambia perché si usano i tensor core, i tensor core vengono usati perché sono core creati per il machine learning che altrimenti per il gaming sarebbe silicio sprecato.
Fortuna che FSR non è lineare allora.
Il risultato finale non cambia perché si usano i tensor core, i tensor core vengono usati perché sono core creati per il machine learning che altrimenti per il gaming sarebbe silicio sprecato.
Ti sei già risposto da solo poco sopra sul perchè il risultato cambia ;)
Una ottiene un upscaling, l'altra ottiene ANCHE un upscaling
adesso sei tu che banalizzi sull'FSR
cronos1990
24-06-2021, 09:15
Io non capisco... lo steso articolo che stiamo commentando premette innanzitutto che FSR e DLSS arrivano allo stesso risultato in modi diversi, quindi perché dire che sono cose differenti, che non vanno confrontati e bla bla?
E non mi riferisco solo a mmorselli, sto leggnedo vari commenti di questo tipo.
DLSS fa upscaling o sbaglio?Beh, l'articolo sbaglia a livello lessicale. Non arrivano allo stesso risultato in modi diversi, ma "hanno lo scopo" di raggiungere lo stesso risultato in modi diversi. Solo che non raggiungono lo stesso risultato. Ed è ovvio: parliamo di elaborare un'immagine in modi del tutto diversi uno dall'altro, pensare che ottengano lo stesso risultato è insensato.
Lo stesso risultato vorrebbe dire che a parità di gioco e impostazioni grafiche, applicando FSR e DLSS a parità di condizioni ottieni la stessa identica immagine... e ciò non è così, senza stare a dire cosa è meglio e cosa è peggio. Poi si può trattare di differenze minime o plateali, o magari individuabili solo zoomando x64 una frazione dell'immagine, ma non sono certo identiche.
Che poi basterebbe considerare proprio il discorso delle scie: per quanto ridotte al minimo con la 2.0 (e a quanto capito con le versione successive 2.x), è un problema insito nella tecnologia DLSS, mentre anche la prima implementazione dell'FSR non le presenta. Proprio per come funzionano le due tecnologie.
Puntualizzato ciò, andrebbero fatti i giusti distinguo.
Il discorso che fa CrapaDiLegno (al netto di insulti, strafottenza e arroganza... c'è modo e modo di discutere) concettualmente lo condivido. Ci si lamenta da anni che lo scaling sulle Console è solo un artifizio mal fatto che permette di aumentare gli FPS riducendo la qualità dell'immagine, e ora che viene presentato un filtro che essenzialmente fa la stessa cosa tutti ad esaltarlo.
Ma come dicevo, vanno fatte le giuste distinzioni. Questo discorso può andar bene per un purista della "qualità massima" che, al netto del mercato impazzito (e non ne voglio parlare) ha comunque la possibilità di scegliere schede performanti di un certo tipo.
Ma questo non può far dimenticare la grande fetta di giocatori che non gli importa di avere ogni singolo pixel ricreato a schermo come vuole lui, ma che semplicemente vuole poter giocare anche in condizioni "accettabili" a livello qualitativo ma con prestazioni accettabili, o magari cercando semplicemente il miglior compromesso possibile. E dal loro punto di vista, il FSR è sicuramente una manna dal cielo.
Poi bisogna anche essere obiettivi. E' vero che si tratta nè più nè meno di una miscela di algoritmi che già esistono da tempo, ma è comunque una forma più raffinata che consente risultati migliori (sia lato visivo che prestazionale) e in un unico pacchetto, senza cioè dover andare a smanettare.
Poi è chiaro che se confrontiamo le due tecnologie, il DLSS è oggettivamente in vantaggio: sicuramente per quanto riguarda la qualità visiva, non ho visto se anche lato prestazionali. D'altro canto, a differenza di molte prodotte in passato da Nvidia, il DLSS è a mio avviso davvero una vera evoluzione tecnologica che permette di ottenere risultati concreti dati da un connubio tra HW e SW.
Possiamo girarci attorno quanto vogliamo: AMD ha, come al solito, cercato di buttare fuori una tecnologia "general purpose" che sfruttasse qualunque tipo di hardware con risultati paragonabili alle tecnologie proprietarie di Nvidia. Ma in questo caso a me pare che siamo ben distanti dai risultati delle verdi.
Non solo ci hanno messo più di 3 anni a buttare fuori qualcosa che potesse rivaleggiare con il DLSS (e secondo me in ritardo rispetto ai loro programmi, ho il sospetto che loro volessero far uscire il FSR insieme alle nuove console, con le quali formerebbero un connubio perfetto), ma di fatto non hai creato davvero nulla di nuovo, e infatti il risultato è inferiore.
Poi ripeto: se le persone vogliono sempre la massima qualità a prestazioni elevate, allora basta spendere qualche centinaio di euro per una Nvidia 3080... come peraltro già fanno da anni, comprando sempre la scheda grafica più prestante che c'è in commercio. Sono questi che (giustamente a livello logico-concettuale) si lamentano che il FSR è solo un'evoluzione dello scaling delle console portato su PC, ma sono gli stessi che comunque si equipaggiano con schede che di quella tecnologia non hanno bisogno.
Al contempo, chi ha schede più economiche, e che al contempo non gridano allo scandalo se l'immagine non è perfetta come vogliono certi puristi, hanno in questa tecnologia la possibilità di allungare la vita delle proprie schede, o di aumentare le prestazioni inserendo qualche effetto grafico in più che prima era proibitivo.
Poi se qualcuno dovesse dirmi quale tecnologia funziona meglio tra le due... DLSS tutta la vita, almeno per il momento. E senza essere Cassandra, direi anche per i prossimi 10 anni come minimo.
In conclusione,
chi vuole il top si prende nVidia, così gode di DLSS e FSR (dove il DLSS non c'è).
Chi ha schede vecchie fruisce del FSR e tira su qualche frame.
Per chi ha nVidia e può scegliere tra le due opzioni il FSR non è neanche preso in considerazione.
nickname88
24-06-2021, 09:39
In conclusione,
chi vuole il top si prende nVidia, così gode di DLSS e FSR (dove il DLSS non c'è).
Per chi ha nVidia e può scegliere tra le due opzioni il FSR non è neanche preso in considerazione.
La mia situazione :rolleyes:
DakmorNoland
24-06-2021, 09:45
Se ti mostro cosa guardare fidati che dopo lo vedi sempre. Per esempio due giochi che soffrono in modo mostruoso di shimmering, Elite Dangerous ed Euro Truck Simulator, se implementassero DLSS e FSR potrei metterli in 4K e farteli guardare a 5 metri di distanza... vedresti una differenza evidente.
Sì e poi magari scopriresti che lo scaler di un TV di fascia alta fa meglio di entrambe :asd:
Faccio notare che i TV di fascia alta sono più di 10 anni che lavorano sullo scaling e hanno tutti tecnologie proprietarie a cui non si ha accesso, quindi non sappiamo come operano e quindi non si hanno elementi per stare qui a scrivere cose.
Adesso Sony ha capito che tira questa cosa dell'IA, Deep Learning, ecc. e se ne sono usciti anche loro con il Cognitive Processor guarda caso!!!
Ancora non avete capito che è tutto marketing? :doh: E stiamo qui a dibattere dell'IA o altro...
Intanto che sia DLSS o altro non ho ancora visto niente che scali decentemente un gioco da 1080p a 4k, la resa non mi piace onestamente con DLSS o quant'altro, a sto punto ripeto mi accontento del TV e ciao, che fa già un ottimo lavoro.
Per me il miglior compromesso è 1440p e i TV già vanno benissimo con le loro tecnologie proprietarie, che sono coperte da brevetto e quindi c'è poco da dibattere.
Queste tecnologie sono semplicemente scaler integrati nelle schede video e sicuramente sono interessanti, ma non ne parlarei come il santo Graal o roba mai vista ecco.
Poi per me ha più margine di miglioramento il FSR essendo aperto a tutti e sarà anche il più adottato. D'altronde è appena uscito e all'inizio anche il primo DLSS faceva pena.
nickname88
24-06-2021, 09:51
Sì e poi magari scopriresti che lo scaler di un TV di fascia alta fa meglio di entrambe :asd:
Quante vaccate ....
Non sai nemmeno cosa faccia uno scaler nè hai capito che cosa svolgono queste features.
La mia situazione :rolleyes:
E' la situazione migliore :)
Sì e poi magari scopriresti che lo scaler di un TV di fascia alta fa meglio di entrambe :asd:
Faccio notare che i TV di fascia alta sono più di 10 anni che lavorano sullo scaling e hanno tutti tecnologie proprietarie a cui non si ha accesso, quindi non sappiamo come operano e quindi non si hanno elementi per stare qui a scrivere cose.
Adesso Sony ha capito che tira questa cosa dell'IA, Deep Learning, ecc. e se ne sono usciti anche loro con il Cognitive Processor guarda caso!!!
Ancora non avete capito che è tutto marketing? :doh: E stiamo qui a dibattere dell'IA o altro...
Intanto che sia DLSS o altro non ho ancora visto niente che scali decentemente un gioco da 1080p a 4k, la resa non mi piace onestamente con DLSS o quant'altro, a sto punto ripeto mi accontento del TV e ciao, che fa già un ottimo lavoro.
Per me il miglior compromesso è 1440p e i TV già vanno benissimo con le loro tecnologie proprietarie, che sono coperte da brevetto e quindi c'è poco da dibattere.
Queste tecnologie sono semplicemente scaler integrati nelle schede video e sicuramente sono interessanti, ma non ne parlarei come il santo Graal o roba mai vista ecco.
Poi per me ha più margine di miglioramento il FSR essendo aperto a tutti e sarà anche il più adottato. D'altronde è appena uscito e all'inizio anche il primo DLSS faceva pena.
Per te c'è l'FSR perchè con la tua scheda non hai DLSS, e credo pertanto tu non l'abbia mai visto in funzione, o sbaglio?.
In merito mi piacerebbe farti vedere come rende il DLSS performance con target finale 4K, mi sa che ci rimani male per quanto è spettacolare il risultato finale ;)
Ti sei già risposto da solo poco sopra sul perchè il risultato cambia ;)
Ah davvero? :mbe:
Perchè FSR non è lineare?
Ma manco DLSS è lineare.
Quindi cosa mi sarei risposto?
DakmorNoland
24-06-2021, 10:38
Per te c'è l'FSR perchè con la tua scheda non hai DLSS, e credo pertanto tu non l'abbia mai visto in funzione, o sbaglio?.
In merito mi piacerebbe farti vedere come rende il DLSS performance con target finale 4K, mi sa che ci rimani male per quanto è spettacolare il risultato finale ;)
Ho colleghi e amici con serie 20xx e ho avuto modo di vederlo da loro. Comunque proprio l'altro giorno ne stavamo parlando con uno di loro e si lamentava della resa alquanto approssimativa. Direi che c'è ancora parecchio da migliorare, sempre che faccia in tempo e non sparisca come il Gsync. Certo che da cliente Nvidia da anni mi piacerebbe ne azzeccassero una ogni tanto e non vederli perdere un altro treno come la storia Freesync/Gsync. :muro: Mi sembra che AMD ultimamente si stia muovendo molto meglio.
nickname88
24-06-2021, 10:43
Ho colleghi e amici con serie 20xx e ho avuto modo di vederlo da loro.
Si si ci crediamo guarda.
Come no ... :rolleyes:
sempre che faccia in tempo e non sparisca come il Gsync.Si si è proprio sparito guarda :asd:
Purtroppo non c'è nè cura nè lenti adeguate per la miopia da fanboy.
Mi sembra che AMD ultimamente si stia muovendo molto meglio.Sarà per questo che si è contratta fino al 20% del mercato delle discrete ?
mmorselli
24-06-2021, 10:48
adesso sei tu che banalizzi sull'FSR
Bene, ma perché vi fermate a una riga?
Spiega cosa fa FSR oltre all'upscaling, per cortesia.
Spero sia chiara la domanda, non intendo cosa fa oltre a moltiplicare la matrice, un algoritmo di upscaling può anche essere complesso, ma il risultato finale è sempre un upscaling, a differenza di DLSS che è anche un antialiasing temporale.
Ho colleghi e amici con serie 20xx e ho avuto modo di vederlo da loro. Comunque proprio l'altro giorno ne stavamo parlando con uno di loro e si lamentava della resa alquanto approssimativa. Direi che c'è ancora parecchio da migliorare, sempre che faccia in tempo e non sparisca come il Gsync. Certo che da cliente Nvidia da anni mi piacerebbe ne azzeccassero una ogni tanto e non vederli perdere un altro treno come la storia Freesync/Gsync. :muro: Mi sembra che AMD ultimamente si stia muovendo molto meglio.
Perdonami ma non è credibile, l'amico, il cugino, la nonna, approsimativo (Il DLSS ?????????????????????) ecc.
AMD si sta muovendo meglio ? in che senso meglio ? Perchè esce nel 2021 con una soluzione tappa buchi ?
Sembra proprio un finto messaggio moderato ma con altissima base flammosa ;)
mmorselli
24-06-2021, 11:02
Sì e poi magari scopriresti che lo scaler di un TV di fascia alta fa meglio di entrambe :asd:
Appena trovi un modo per passare i motion vector e il frame precedente ad un televisore, sicuramente...
Scrivete cose senza conoscere la tecnologia che c'è dietro, questo inquina un po' le discussioni, perchè poi finisce che tenete il punto solo perché vi mancano gli strumenti per capire la ragione per cui il punto è, ovviamente, sbagliato.
Il televisore potrebbe fare l'upscale più fantasmagorico dell'universo con 10.000 passaggi in un miliardesimo di secondo, ma MAI E POI MAI potrebbe fare uno scaling temporale, esattamente come non può farvi un massaggio alla schiena.
Appena trovi un modo per passare i motion vector e il frame precedente ad un televisore, sicuramente...
Scrivete cose senza conoscere la tecnologia che c'è dietro, questo inquina un po' le discussioni, perchè poi finisce che tenete il punto solo perché vi mancano gli strumenti per capire la ragione per cui il punto è, ovviamente, sbagliato.
Il televisore potrebbe fare l'upscale più fantasmagorico dell'universo con 10.000 passaggi in un miliardesimo di secondo, ma MAI E POI MAI potrebbe fare uno scaling temporale, esattamente come non può farvi un massaggio alla schiena.
Guarda che le tv aggiungono frame interpolando il frame precedente con quello successivo.
Dove starebbe la difficoltà del fare un upscaler temporale in una tv?
dado1979
24-06-2021, 14:57
Io non capisco... lo steso articolo che stiamo commentando premette innanzitutto che FSR e DLSS arrivano allo stesso risultato in modi diversi, quindi perché dire che sono cose differenti, che non vanno confrontati e bla bla?
E non mi riferisco solo a mmorselli, sto leggnedo vari commenti di questo tipo.
DLSS fa upscaling o sbaglio?
Merttiamola così: DLSS è più evoluta come tecnologia, chiaro che a parità di prezzo peferisco DLSS però io ci metto in mezzo il fatto che io per usare FSR spendo 0 euro mentre se volessi usare DLSS dovrei spendere 800 euro (tanto costa una RTX 3060). E ribadisco che nel gioco Terminator Resistance a Ultra io non sono riuscito a vedere le differenze (che poi magari ci saranno ma non sono cose macroscopiche ma cose di cui dovresti fare attenzione per vederle).
"Il DLSS 2.0 attuale ci sembra, ma per ora sottolineiamo si tratta semplicemente di un'impressione confrontando giochi diversi, migliore nel preservare la qualità dell'immagine anche alle modalità più sbilanciate verso le prestazioni. Forse, questo vantaggio è proprio frutto di tutto il lavoro fatto a monte da Nvidia e dalla sua rete neurale. La tecnologia esclusiva delle GeForce presenta inoltre meno fenomeni di sfarfallio e popping (molto evidenti in Full HD, meno in 4K) rispetto alla impostazione più spinta di Super Resolution."
Amen.
Io comunque, sino a che l'hardware "regge", sarò sempre per la nativa
DLSS 2.0 spesso va meglio della nativa, guarda che differenza abissale avere il dlss che ti toglie tutto il shimmering. Credo che per molti materiali "fini" tipo capelli ed erba ci sara sempre un netto miglioramento con soluzioni basate su ai come dlss.
https://www.youtube.com/watch?v=_75rKenuIuU
con il DLSS inserito nei motori grafici principali non devi investire ne tempo ne denaro quindi tutti i titoli lo potranno usare
Il dlss costa spazio su chip (tensore core), e va inserito nei motori grafici e manutenuto.
E' chiaro che ci siano frangenti in cui il dlss e' in vantaggio visuale (anche rispetto alla versione nativa, non solo all'upscalata), ma questa tecnologia amd mi sembra tanta roba e rende dlss costoso e dispendioso per vantaggi piuttosto minimi.
nickname88
24-06-2021, 15:33
Il dlss costa spazio su chip (tensore core),Eh si e questo deve farlo lo sviluppatore suppongo :asd:
Comunque sia no, non è obbligatorio, i tensor core accelerano certi tipi di calcoli ma non sono obbligatori.
Control nelle prime release abilitava il DLSS senza però sfruttare i tensor core.
e va inserito nei motori grafici e manutenuto.E certo bisogna fargli manutenzione e pagargli gli alimenti sennò ogni tanto si inceppa vero :asd: ?
Il DLSS è un TAA, il suo supporto implica lo stesso sforzo di inserire quest'ultimo o non molto diverso dal supportare altri tipi di filtri AA.
nickname88
24-06-2021, 15:34
DLSS 2.0 spesso va meglio della nativa, guarda che differenza abissale avere il dlss che ti toglie tutto il shimmering. Credo che per molti materiali "fini" tipo capelli ed erba ci sara sempre un netto miglioramento con soluzioni basate su ai come dlss.
https://www.youtube.com/watch?v=_75rKenuIuUMeglio o peggio di certo non lo percepirai mai il quadro complessivo da un video compresso di youtube :rolleyes:
il dlss e' superiore ok, i monitor/tv di fascia alta hanno uno scaler paragonabile?
puo darsi, ma le rtx e monitor di fascia alta costano cari, ma si puo rispondere pure con un grazie al ca...:mad: :(
poi se mi regalano il tutto ok
fsr e' gratis e permette di recuperare hw di vecchia generazione e/o di fascia bassa, ma neanche si dovevamo permettere di zoomare screenshot e fare confronti inutili, a caval donato..
poi questo sistema e' ghiotto per tutte le swh, loro devono vendere piu' copie possibili, e visti i tempi di magra per l'hw, a loro conviene fare in modo di girare dignitosamente su quello che c'e' gia installato, o acquistabile a buon(?) mercato, con questo escamotage piuttosto che rimettere mano al gioco per alleggerirlo
se per alleggerire un gioco dovevo abbassare ris e dettagli, era uguale?
non credo proprio, qui un confronto diretto a parita' di fps guadagnati a fronte di qualita' persa era d'obbligo;)
tanto per accontentare i rompipalle:D
mmorselli
24-06-2021, 16:29
Guarda che le tv aggiungono frame interpolando il frame precedente con quello successivo.
Dove starebbe la difficoltà del fare un upscaler temporale in una tv?
I motion vector
Se potessi lavorare solo sull'immagine RAW allora gli upscaler delle GPU sarebbero implementate a livello di driver e non inserite nella pipeline di rendering del gioco. (magari!)
I motion vector
Se potessi lavorare solo sull'immagine RAW allora gli upscaler delle GPU sarebbero implementate a livello di driver e non inserite nella pipeline di rendering del gioco. (magari!)
Non è per quello che sono inseriti nella pipeline o meglio non solo, tant'è che FSR che non è temporale deve comunque essere inserito all'interno della pipeline.
Un upscaler temporale è fattibile anche senza motion vector forniti dalla pipeline, sarebbe forse meno efficiente ma si può fare.
Non lo fanno sulle tv semplicemente perché richiedere hw che nelle tv nessuno vuole mettere inoltre qualsiasi cosa temporale rischia di inserire artefatti, con il DLSS infatti succede e lo sistemano di volta in volta.
Il sistema funziona e da ottimi risultati ma non va bene per un uso generico come la tv.
mmorselli
24-06-2021, 18:29
Non è per quello che sono inseriti nella pipeline o meglio non solo, tant'è che FSR che non è temporale deve comunque essere inserito all'interno della pipeline.
Un upscaler temporale è fattibile anche senza motion vector forniti dalla pipeline, sarebbe forse meno efficiente ma si può fare.
Sì, ma è come la storia "I Tensor Core non servono", se stiamo parlando di qualcosa creato per aumentare l'efficienza delle nostre schede video non possiamo dire che la stessa cosa è possibile farla accettando che sia meno efficiente.
Comunque non è solo una questione di prestazioni, i motion vector servono ad evitare gli artefatti indesiderati.
Sì, ma è come la storia "I Tensor Core non servono", se stiamo parlando di qualcosa creato per aumentare l'efficienza delle nostre schede video non possiamo dire che la stessa cosa è possibile farla accettando che sia meno efficiente.
Comunque non è solo una questione di prestazioni, i motion vector servono ad evitare gli artefatti indesiderati.
Ma fino ad adesso sono state necessarie correzioni su correzioni per eliminare gli artefatti.
Lavorare sul temporale è sempre una sfida, probabilmente è per questo che AMD ha passato sul temporale.
Molto più semplice evitarlo anche se la qualità magari non è propriamente la stessa e comunque è soddisfacente, almeno in quality a salire su 4k.
mmorselli
24-06-2021, 21:33
Ma fino ad adesso sono state necessarie correzioni su correzioni per eliminare gli artefatti.
Se non mi dicevano che c'erano, in No Man's Sky, non li avrei nemmeno notati, appariva una leggera scia negli animali volanti, in compenso i benefici in termini di qualità visiva, per me che ci gioco in VR, sono incalcolabili, prima faceva venire male al cuore quel gioco, tanto interessante come gameplay e tanto fastidioso da giocare, ora è ottimo, e questo solo grazie a DLSS.
Il gioco già implementava un TAA, ma peggiorava solo le cose, toglieva lo sbrilluccichio, ma poi spariva tutto il dettaglio.
Therinai
24-06-2021, 22:07
Ho letto tutti gli ultimi commenti e, abbiate pazienza, torno all'obiezione iniziale: perché non sarebbero paragonabili DLSS e FSR?
Da quanto leggo, sia in riferimento all'articolo che hai commenti, io mi trovo di fronte a due tecnologie analoghe, dove l'analogia sta nel risultato raggiunto: guadagnare fps tramite upscaling.
Da videogiocatore... a ecco il problema.
Ricapitoliamo: la roba di cui si parla serve ai videogiocatori per guadanare FPS durante le partite con i videogiochi.
Qui evidentemente, come al solito, si sta completamente sbarellando in tecnicismi, più o meno farlocchi, che forviano l'obiettivo: voglio giocare con un videogioco e la scheda grafica non ce la fa a garantirmi un framerate per me accettabile.
E' questo l'obiettivo.
Poi che il DLSS lo faccia con il machine learning in temporary prima e dopo e durante la pipeline di rendering del framework con vectoring prediction e unità dedicate, mentre l'FSR lo fa bollendo hello kitty ubriaca che spara meme su se stessa a noi videogiocatori che ce ne frega?
A me niente.
Non posso parlare per gli altri, ma tanto so già che andrà a finire che con una scheda nvidia mi ritroverò a zoommare col microscopio per capire che incredibili vantaggi ha il DLSS per poi sbattermene altamente mentre gioco.
A me non me ne sbatte un cazzo dei dettagliucci tecnici, mi serve una tecnologia che faccia girare i giochi in VR come si deve senza spendere 2000€ di scheda video.
Che si chiami DLSS o FSR o SUCKMYDICK non me ne può importare di meno.
E buongiornissimo se non l'ho già detto :asd:
coschizza
24-06-2021, 22:17
ho provato il fsr sulla mia gtx 970 e funziona perfettamente ma come immaginavo va usato solo in qualita massima o quella sotto le ultime 2 danno un enorme perdita di dettaglio
mmorselli
24-06-2021, 22:32
Ho letto tutti gli ultimi commenti e, abbiate pazienza, torno all'obiezione iniziale: perché non sarebbero paragonabili DLSS e FSR?
Se ti si risponde e tu ignori la risposta, non farai altro che ripetere all'infinito la stessa obbiezione.
DLSS è il miglior algoritmo di antialiasing temporale che abbia mai provato fino ad oggi. FSR fa questa cosa? Purtroppo no. Non è che sia peggiore, proprio non lo fa. Quindi dire che fanno la stessa cosa considerando solo un aspetto, lo scaling di un'immagine a risoluzione più bassa, è quantomeno riduttivo.
Quando avrò un gioco che supporta entrambe le tecnologie farò dei test per verificare personalmente quale dei due scaling, a parità di prestazioni, offrirà l'immagine migliore, ma fare confronti tra qualcosa che c'è e qualcosa che non c'è mi risulta complicato.
mi serve una tecnologia che faccia girare i giochi in VR come si deve
Da un giocatore flat posso aspettarmi "vabbè, ma a me sta cosa non interessa", ma un giocatore VR non ha praticamente scelta.
Più indietro ho postato una lista di titoli VR con DLSS, fai qualche prova con o senza, e dimmi se è solo una questione di fps
Se non mi dicevano che c'erano, in No Man's Sky, non li avrei nemmeno notati, appariva una leggera scia negli animali volanti, in compenso i benefici in termini di qualità visiva, per me che ci gioco in VR, sono incalcolabili, prima faceva venire male al cuore quel gioco, tanto interessante come gameplay e tanto fastidioso da giocare, ora è ottimo, e questo solo grazie a DLSS.
Il gioco già implementava un TAA, ma peggiorava solo le cose, toglieva lo sbrilluccichio, ma poi spariva tutto il dettaglio.
A onor del vero, a parte i settaggi più infimi giocando non si nota la differenza tra nativo, FSR o DLSS.
Discutere di quale sia migliore e perché è più uno sfizio tecnico che una reale necessità.
mmorselli
24-06-2021, 23:19
A onor del vero, a parte i settaggi più infimi giocando non si nota la differenza tra nativo, FSR o DLSS.
Discutere di quale sia migliore e perché è più uno sfizio tecnico che una reale necessità.
Solo perché una cosa non succede a te, non vuol dire che non succede a nessuno. Per certi giochi posso essere d'accordo che non si senta la necessità dei benefici di un temporal antialiasing, ma per altri serve come l'aria che respiri. Se tu non giochi a nessuno di questi giochi non puoi generalizzare dicendo "non ci sono differenze", sarebbe come dire che non ci sono differenze tra una Punto e una Mercedes perché tanto io uso solo la bicicletta.
cronos1990
25-06-2021, 09:42
Ho letto tutti gli ultimi commenti e, abbiate pazienza, torno all'obiezione iniziale: perché non sarebbero paragonabili DLSS e FSR?
Da quanto leggo, sia in riferimento all'articolo che hai commenti, io mi trovo di fronte a due tecnologie analoghe, dove l'analogia sta nel risultato raggiunto: guadagnare fps tramite upscaling.No, o meglio incompleto. Si vuole guardagnare FPS mantenendo la qualità grafica dell'immagine nativa a risoluzione superiore (tralasciando che il DLSS non è solo un upscaling, e che il FSR è un upscaling molto raffinato).
Perchè se mi fai questo ragionamento, me ne posso fregare di qualunque filtro, l'upscaling lo potevo fare tranquillamente 20 anni fa senza alcun problema per guadagnare FPS.
E quindi si ritorna al discorso di cui sopra: siccome DLSS e FSR "ricostruiscono" l'immagine con metodi del tutto differenti, quella finale che si ottiene sarà diversa tra le due tecnologie. Per cui dire che si ottiene lo stesso risultato è falso. E per quanto si è visto finora, il DLSS (proprio per come funziona) ottiene risultati migliori e probabilmente manterrà questo predominio per molti anni.
Da videogiocatore... a ecco il problema.
Ricapitoliamo: la roba di cui si parla serve ai videogiocatori per guadanare FPS durante le partite con i videogiochi.
Qui evidentemente, come al solito, si sta completamente sbarellando in tecnicismi, più o meno farlocchi, che forviano l'obiettivo: voglio giocare con un videogioco e la scheda grafica non ce la fa a garantirmi un framerate per me accettabile.
E' questo l'obiettivo.
Poi che il DLSS lo faccia con il machine learning in temporary prima e dopo e durante la pipeline di rendering del framework con vectoring prediction e unità dedicate, mentre l'FSR lo fa bollendo hello kitty ubriaca che spara meme su se stessa a noi videogiocatori che ce ne frega?
A me niente.
Non posso parlare per gli altri, ma tanto so già che andrà a finire che con una scheda nvidia mi ritroverò a zoommare col microscopio per capire che incredibili vantaggi ha il DLSS per poi sbattermene altamente mentre gioco.
A me non me ne sbatte un cazzo dei dettagliucci tecnici, mi serve una tecnologia che faccia girare i giochi in VR come si deve senza spendere 2000€ di scheda video.
Che si chiami DLSS o FSR o SUCKMYDICK non me ne può importare di meno.
E buongiornissimo se non l'ho già detto :asd:Proprio per quanto detto sopra, quello che dici è fuori contesto.
Se a te non frega una mazza della resa visiva, o comunque marginalmente, come detto potevi upscalare già da decenni l'immagine, non è che ci voglia chissà quale tecnologia, o ti compravi una console e te ne fregavi di come lavorava.
Queste tecnologie, invece, puntano ad ottenere un'immagine in (esempio) 4K partendo da una in 1080p o 1440p riuscendo nonostante questo ad avere un dettaglio grafico a schermo indistinguibile dall'immagine 4K nativa. Per cui non è solo questione di numero di FPS.
Poi è chiaro che questi sistemi vengono incontro anche a chi del dettaglio grafico importa di meno, ma vedono la possibilità di far durare più a lungo la propria GPU evitando spese che non vuole avere. Ma si tratta di un effetto collaterale.
Chiudo con una considerazione: questo rimane comunque un forum tecnologico e informatico, mi pare lapalissiano che ci sia interesse per come funzionino queste tecnologie.
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:
DOTA2
cronos1990
25-06-2021, 11:01
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:E' appena stato annunciato... dargli tempo per essere implementato no?
Quanti (e quali) giochi pensavi che avessero il DLSS quando Nvidia lo ha presentato? :rolleyes: Erano anche meno di 7 a distanza di tempo dal suo annuncio.
E' appena stato annunciato... dargli tempo per essere implementato no?
Quanti (e quali) giochi pensavi che avessero il DLSS quando Nvidia lo ha presentato? :rolleyes: Erano anche meno di 7 a distanza di tempo dal suo annuncio.
Mi auguro a breve, giusto per provarlo, magari in un titolo che ha anche il DLSS.
nickname88
25-06-2021, 12:57
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:Anno è il test ideale visto che è anche un titolo che necessita di performance extra e poi è un gioco carino fra quelli in lista.
RiftBreaker comunque sia non è ancora uscito.
dado1979
25-06-2021, 14:55
Se ti si risponde e tu ignori la risposta, non farai altro che ripetere all'infinito la stessa obbiezione.
DLSS è il miglior algoritmo di antialiasing temporale che abbia mai provato fino ad oggi. FSR fa questa cosa? Purtroppo no. Non è che sia peggiore, proprio non lo fa. Quindi dire che fanno la stessa cosa considerando solo un aspetto, lo scaling di un'immagine a risoluzione più bassa, è quantomeno riduttivo.
Quando avrò un gioco che supporta entrambe le tecnologie farò dei test per verificare personalmente quale dei due scaling, a parità di prestazioni, offrirà l'immagine migliore, ma fare confronti tra qualcosa che c'è e qualcosa che non c'è mi risulta complicato.
Da un giocatore flat posso aspettarmi "vabbè, ma a me sta cosa non interessa", ma un giocatore VR non ha praticamente scelta.
Più indietro ho postato una lista di titoli VR con DLSS, fai qualche prova con o senza, e dimmi se è solo una questione di fps
Tutto vera la teoria, ma devi riuscire a distinguere durante il gioco le reali differenze: io non ci sono riuscito tra nativo 2K e FSR Ultra su Terminator Resistance, c'ho provato per cinque minuti a notare una qualsiasi differenza.
Lo scopo secondoo me non è come ottenere il risultato, ma il risultato stesso. Il fatto che sia temporale non è sinonimo di risultato realmente migliore, o meglio non è detto che quel risultato sia visibile agli occhi.
P.S. detto questo, chiaro che DLSS sia più evoluto, ma ha anche un costo in euro mica da poco... intendo dire che andrebbe vautato anche un rapporto costo beneficio.
P.S. detto questo, devo dire che c'è da mettere in mezzo anche il fatto che DLSS ha un parco giochi oggettivamente migliore (per me è quiesta la vera differenza a favore di DLSS).
wolverine
25-06-2021, 15:04
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:
The Rift Breaker demo
Anno è il test ideale visto che è anche un titolo che necessita di performance extra e poi è un gioco carino fra quelli in lista.
RiftBreaker comunque sia non è ancora uscito.
Avessi Anno proverei, ma non l'ho e non m'interessa, aspetterò altri titoli, si spera di primo piano non mezzi indie come metà lista attuale.
AMD a mio avviso doveva aprire il portafoglio e portare un big al day one, se una casa non la sostieni se ne sbatte di integrarti l'FSR.
The Rift Breaker demo
Thx proverò
dado1979
25-06-2021, 15:17
Godfall, Anno 1800, Evil Genius 2, Terminator Resistance, Kingshunt, 22RS e The Rift Breaker
Tolti questi giochini (tolgo Anno che merita) cosa si può provare ?
Nelle mie librerie ho 20000 giochi e non ce n'è uno compatible con questo FSR :rolleyes:
Allo stato attuale non c'è un gioco per cui vale la pena comprarlo per provare FSR, io avevo in libreria Terminator e l'ho provato. In ogni caso a me Terminator non è dispiaciuto così tanto, senza infamia e senza lode.
Secondo me bisognerà vedere da qui a fine anno quali saranno i titoli che riusciranno ad integrare FSR.
dado1979
25-06-2021, 15:53
Avessi Anno proverei, ma non l'ho e non m'interessa, aspetterò altri titoli, si spera di primo piano non mezzi indie come metà lista attuale.
AMD a mio avviso doveva aprire il portafoglio e portare un big al day one, se una casa non la sostieni se ne sbatte di integrarti l'FSR.
Thx proverò
Non è questo il senso per cui è stato creato, AMD non è Nvidia. Se AMD fosse stata Nvidia io con una 1080 Ti non avrei potuto usare FSR, invece lo posso usare.
E' un qualcosa che serve anche perchè la tecnologia va condivisa se serve per aiutare, non esiste solo ed esclusivamente uno scopo economico nelle cose altrimenti avremmo solo società come Nvidia e Apple con software.
Chiaro che abbia un ritorno di immagine FSR per AMD e serve per competere con la rivale storica ma non è solo quello (come lo è per Nvidia).
Non è questo il senso per cui è stato creato, AMD non è Nvidia. Se AMD fosse stata Nvidia io con una 1080 Ti non avrei potuto usare FSR, invece lo posso usare.
E' un qualcosa che serve anche perchè la tecnologia va condivisa se serve per aiutare, non esiste solo ed esclusivamente uno scopo economico nelle cose altrimenti avremmo solo società come Nvidia e Apple con software.
Chiaro che abbia un ritorno di immagine FSR per AMD e serve per competere con la rivale storica ma non è solo quello (come lo è per Nvidia).
AMD una onlus quindi ? Non credo proprio, ha un suo netto ritorno, intanto le serviva una pezza al DLSS di nVidia, di qualsiasi tipo, e soprattutto in una forma tale da poter spargersi con il vento. Ecco qu il "dentro tutti".
In genere se m'inviti al tuo ristorante che debutta mi fai provare almeno una pietanza top, non certo polpette e carciofi.
dado1979
25-06-2021, 17:32
AMD una onlus quindi ? Non credo proprio, ha un suo netto ritorno, intanto le serviva una pezza al DLSS di nVidia, di qualsiasi tipo, e soprattutto in una forma tale da poter spargersi con il vento. Ecco qu il "dentro tutti".
In genere se m'inviti al tuo ristorante che debutta mi fai provare almeno una pietanza top, non certo polpette e carciofi.
Secondo me c'è una via di mezzo tra essere una Onlus e guardare solo/esclusivamente/unicamente il proprio guadagno. Il mondo sarebbe migliore nel secondo caso.
Ribadisco: a parti inverse io con una Nvidia non mi avrebbe permesso di usare la loro tecnologia (anche se inferiore)... e pro, non un contro questo.
P.S. non è tutto bianco o nero... esistono anche gradazioni di grigio.
Therinai
25-06-2021, 17:56
Chiudo con una considerazione: questo rimane comunque un forum tecnologico e informatico, mi pare lapalissiano che ci sia interesse per come funzionino queste tecnologie.
Pacifico, e interessa anche a me.
Ma dire che con FSR e DLSS si ottengono risultati diversi è sbagliato, il risultato finale è lo stesso: upscaling.
E tu e morselli e altri state continuando a ripetere che fanno cose diverse... ok, abbiamo capito, voi quanto ci metterete a capire che il risultato finale è lo stesso?
Si può discutere sul fatto che il risultato finale di uno sia migliore dell'altro qualitativamente, ma non che il risultato ottenuto con FSR sia diverso da quello di DLSS, questa è una vostra fissazione ed è disinformazione di cui non c'è certo bisogno.
Tra l'altro discussione sterile considerato che al momento non si può paragonare direttamente dlss e fsr.
Ma poi che upscaling c'era vent'anni fà? Nel 2001??
dado1979
25-06-2021, 18:03
Pacifico, e interessa anche a me.
Ma dire che con FSR e DLSS si ottengono risultati diversi è sbagliato, il risultato finale è lo stesso: upscaling.
E tu e morselli e altri state continuando a ripetere che fanno cose diverse... ok, abbiamo capito, voi quanto ci metterete a capire che il risultato finale è lo stesso?
Si può discutere sul fatto che il risultato finale di uno sia migliore dell'altro qualitativamente, ma non che il risultato ottenuto con FSR sia diverso da quello di DLSS, questa è una vostra fissazione ed è disinformazione di cui non c'è certo bisogno.
Tra l'altro discussione sterile considerato che al momento non si può paragonare direttamente dlss e fsr.
Ma poi che upscaling c'era vent'anni fà? Nel 2001??
La penso allo stesso modo... anzi non ho problemi a dire che il risultato finale di DLSS dovrebbe essere migliore... sicuramente non peggiore.
Therinai
25-06-2021, 18:25
La penso allo stesso modo... anzi non ho problemi a dire che il risultato finale di DLSS dovrebbe essere migliore... sicuramente non peggiore.
Eh, io ciò una 3060ti, quindi di certo so che impatto ha il DLSS, e di certo so che è upscaling che impatta sulla qualità anche nella migliore delle ipotesi, l'unico gioco che si dice migliori con DLSS è death stranding ma lo giocai all'uscita si ps4, non su pc, non ho visto con i miei occhi com'è su pc.
In questo momento sto giocando a control, giusto perché lo ha regalato epic, e nonostante sia considerato lo showcase per eccellenza di nvidia nell'attivare il DLSS dall impostazioni ti dice immediatamente a che risoluzioni di rendering scala. Eh già, "big surprise", il DLSS fa renderizzare frames alla scheda video a risoluzione inferiore rispetto alla risoluzione di output che si presenta a schermo. Poi upscaling e AA temporale. Il fatto che FSR non applichi un AA temporale mica cambia il risultato finale, l'output. Come dicevo prima può cambiare la qualità dell'immagine che si presenta a schermo tra dlss e fsr, ma in termini qualitativi, mica stiamo paragonando l'AA al motion blur.
mmorselli
26-06-2021, 00:25
E tu e morselli e altri state continuando a ripetere che fanno cose diverse... ok, abbiamo capito, voi quanto ci metterete a capire che il risultato finale è lo stesso?
E tu quanto ci metti, non a capire, perché quello figurati se non lo capisci, se sai scrivere sai anche leggere, ma ad ammettere, che stai mentendo per motivi che ancora non mi spiego del tutto?
UNO FA DA ANTIALIASING TEMPORALE E L'ALTRO NO. MA CHI VUOI PRENDERE IN GIRO?
Dai, ripeti ancora una volta che alla fine è sempre uno scaling, se lo dici 100 volte AMD poi ti regala una scheda. L'antialiasing NON E' UNO SCALING.
Posto poi che per me è anche assurdo dire "in uno la qualità è migliore, ma il risultato è lo stesso", perché la qualità è un risultato, se è migliore è palese che non sia la stessa cosa. Se prendo della pasta, la butto 4 ore dentro una pentola di acqua calda e senza sale, alla fine ho un piatto di pasta cotta, ma dire che il risultato sia lo stesso di un bravo chef...
Perché comprare una scheda video da 1000 euro? Prendine una da 100 euro, l'immagine avrà una qualità inferiore, ma il risultato è lo stesso, il gioco mica cambia, è solo la qualità che è diversa, ma a chi importa della qualità?
mmorselli
26-06-2021, 00:29
l'unico gioco che si dice migliori con DLSS è death stranding
Certo, perché in questo thread non ho ripetuto fino allo sfinimento che No Man's Sky con DLSS diventa UN ALTRO GIOCO....
Si dice... Si dice che in giro ci sia gente che l'onestà intellettuale non sa manco dove stia di casa, partecipa alle discussioni solo per piantare una bandiera, ignora qualsiasi argomento che vada contro una tesi che non hanno nessuna intenzione di dimostrare, perché vengono qui a scrivere con la tesi già dimostrata.
Alodesign
26-06-2021, 08:03
State paragonando anche una tecnologia 1.0 vs 2.0 e una tecnologia atta a lavorare sul 60% delle schede vs 20%.
coschizza
26-06-2021, 09:25
State paragonando anche una tecnologia 1.0 vs 2.0 e una tecnologia atta a lavorare sul 60% delle schede vs 20%.
quindi? nvidia ha l'80% del mercato quindi quel 20% vale piu del restante 60% come peso
coschizza
26-06-2021, 09:42
FSR gira anche sulle console.
il mercato pc e console sono separati da sempre e su console scaler lineari come il fsr si usano da un decennio non è certo questa la novita, tutti i giochi della corrente generazione e la precedente di fatto usano tecniche simili
Alodesign
26-06-2021, 10:49
quindi? nvidia ha l'80% del mercato quindi quel 20% vale piu del restante 60% come peso
Non è quello che ho detto.
mmorselli
26-06-2021, 11:13
State paragonando anche una tecnologia 1.0 vs 2.0 e una tecnologia atta a lavorare sul 60% delle schede vs 20%.
Discorso che avrebbe senso se fosse una gara, come purtroppo molti qui non riescono a fare a meno di considerare tale.
Per me dovrebbe essere al massimo un confronto tra tecnologie, per cui se una ha 1% e l'altra 99% è totalmente irrilevante, la tecnologia non cambia in base all'adozione, rimane la stessa.
E conta poco anche 1.0, 2.0, 3.0... Se i presupposti sono diversi. Una bicicletta non evolve per diventare un monopattino, possono solo diventare una bicicletta migliore e un monopattino migliore.
In un confronto tra tecnologie bisogna essere onesti, senza raccontare balle e senza sentire il dovere di difendere qualcosa. Qui c'è gente che avrà 50 anni, e si comporta come ne avesse 14.
Therinai
26-06-2021, 11:35
E tu quanto ci metti, non a capire, perché quello figurati se non lo capisci, se sai scrivere sai anche leggere, ma ad ammettere, che stai mentendo per motivi che ancora non mi spiego del tutto?
UNO FA DA ANTIALIASING TEMPORALE E L'ALTRO NO. MA CHI VUOI PRENDERE IN GIRO?
Dai, ripeti ancora una volta che alla fine è sempre uno scaling, se lo dici 100 volte AMD poi ti regala una scheda. L'antialiasing NON E' UNO SCALING.
Posto poi che per me è anche assurdo dire "in uno la qualità è migliore, ma il risultato è lo stesso", perché la qualità è un risultato, se è migliore è palese che non sia la stessa cosa. Se prendo della pasta, la butto 4 ore dentro una pentola di acqua calda e senza sale, alla fine ho un piatto di pasta cotta, ma dire che il risultato sia lo stesso di un bravo chef...
Perché comprare una scheda video da 1000 euro? Prendine una da 100 euro, l'immagine avrà una qualità inferiore, ma il risultato è lo stesso, il gioco mica cambia, è solo la qualità che è diversa, ma a chi importa della qualità?
1) niente ti vieta di affiancara all'FSR un AA
2) per la parte evidenziata: ok forse giungiamo a un punto. Per me i risultati ottenuti sono gli stessi e vado poi a distinguerli con valutazioni qualitative e quantitative. Quindi facendo riferimento al tuo esempio (cosa che odio a dir poco, ma se ti è utile paragonare DLSS e FSR alla pasta faccio il possibile per venirti in contro) il piatto di pasta più brutto del mondo e il migliore sono la stessa cosa, ma li distinguo a livello qualitativo. Con l'esempio delle schede video stesso discorso, sono la stessa cosa, arrivano allo stesso risultato finale (output video sul display collegato), ma le distingue in base ai loro attributi.
Il tuo approccio è realisticamente inapplicabile perché ti porterebbe a moltiplicare esponenzialmente il numero di oggetti da classificare, in generale nella vita. Ti troveresti con una mole di categorie non funzionale ad alcuno scopo.
Se proprio ti piace questo metodo puoi applicarlo per te stesso, ad uso personale, ma non puoi tediare la collettività con la tua mole di categorizzazioni, anche perché se tutti ragionassero in questo modo le tue categorie si andrebbero a sommare a quelle di tutti gli altri, e in uno scenario del genere non riusciremmo neanche a comunicare.
Anche io ho le mie categorie ad uso interno, per me la pizza del kebabbaro non è pizza per esempio (again: li odio, ma magari ti aiuta a capire il concetto), ma quando devo comunicare con altre persone, per esempio gruppo di amici con cui voglio mangiare una pizza, sono consapevole che nella categoria pizza rientra anche la pizza del kebabbaro.
E tu quanto ci metti, non a capire, perché quello figurati se non lo capisci, se sai scrivere sai anche leggere, ma ad ammettere, che stai mentendo per motivi che ancora non mi spiego del tutto?
UNO FA DA ANTIALIASING TEMPORALE E L'ALTRO NO. MA CHI VUOI PRENDERE IN GIRO?
Dai, ripeti ancora una volta che alla fine è sempre uno scaling, se lo dici 100 volte AMD poi ti regala una scheda. L'antialiasing NON E' UNO SCALING.
Posto poi che per me è anche assurdo dire "in uno la qualità è migliore, ma il risultato è lo stesso", perché la qualità è un risultato, se è migliore è palese che non sia la stessa cosa. Se prendo della pasta, la butto 4 ore dentro una pentola di acqua calda e senza sale, alla fine ho un piatto di pasta cotta, ma dire che il risultato sia lo stesso di un bravo chef...
Perché comprare una scheda video da 1000 euro? Prendine una da 100 euro, l'immagine avrà una qualità inferiore, ma il risultato è lo stesso, il gioco mica cambia, è solo la qualità che è diversa, ma a chi importa della qualità?
Guarda che lo scaling intrinsecamente fa da antialiasing sia in DLSS che in FSR.
Smettiamola di buttare fumo negli occhi.
bagnino89
26-06-2021, 13:45
Guarda che lo scaling intrinsecamente fa da antialiasing sia in DLSS che in FSR.
Smettiamola di buttare fumo negli occhi.
Sì ma mica temporale, e su...
Ma lo sapete cos'è un AA temporale o no?
mmorselli
26-06-2021, 15:59
Guarda che lo scaling intrinsecamente fa da antialiasing sia in DLSS che in FSR.
Smettiamola di buttare fumo negli occhi.
No, smettiamo di rispondere anche se siamo totalmente ignoranti in materia. Su, mica l'ha ordinato il dottore di rispondere a tutto, non è che la tastiera è condizione di per sé sufficiente ad avere una cultura su qualcosa.
Tieni, questa volta ti aiuto io
https://lmgtfy.app/?q=Temporal+anti-aliasing
la prossima volta sarei felice se ce la facessi da solo
Sì ma mica temporale, e su...
Ma lo sapete cos'è un AA temporale o no?
Se l'upscaler è temporale...
Therinai
26-06-2021, 19:09
No, smettiamo di rispondere anche se siamo totalmente ignoranti in materia. Su, mica l'ha ordinato il dottore di rispondere a tutto, non è che la tastiera è condizione di per sé sufficiente ad avere una cultura su qualcosa.
Tieni, questa volta ti aiuto io
https://lmgtfy.app/?q=Temporal+anti-aliasing
la prossima volta sarei felice se ce la facessi da solo
Da che pulpito :asd:
mmorselli
27-06-2021, 03:13
Da che pulpito :asd:
Spiegati meglio, per favore. Non ho capito cosa intendessi dire.
mmorselli
27-06-2021, 03:18
Se l'upscaler è temporale...
Se l'upscaler è temporale, allora non è FSR, ed è spiegato in modo molto chiaro nell'articolo che stiamo commentando, e che sicuramente avrai letto, o non saresti qui a scrivere, giusto?
tuttodigitale
27-06-2021, 23:46
Direi che è il contrario di quanto afferma lui.
Il DLSS è visto come un algoritmo di AA temporale da parte del sistema, per cui è l'ultimo stadio della pipeline 3D a cui poi non dipende più nulla.
L'FSR è invece un algoritmo che va inserito all'interno della pipeline di rendering e che influisce sugli stadi successivi, per cui richiede più lavoro e sicuramente più test per essere implementato.
Forse è per questo che è presente solo su un gruppetto i giochini e nessun AAA. Sempre che un AAA abbia interesse ad avere sviluppatori che si dannano l'anima per avere texture di alta qualità, effetti iperbolici particellari e ombre e riflessi super sharp, addirittura con Nanite avere poligoni grandi come un pixel, tutto ottimizzato per non avere cali di frame enormi in casi particolari per poi vanificare tutto con un bel effetto scaling degradante.
Hai scritto una serie di p. :D
Se l'upscaler è temporale, allora non è FSR, ed è spiegato in modo molto chiaro nell'articolo che stiamo commentando, e che sicuramente avrai letto, o non saresti qui a scrivere, giusto?
Mi sembra di essere stato abbastanza chiaro in quello che ho scritto, per altro senza dare dell'ignorante ad altri e senza voler fare la maestrina dei poveri.
Qualsiasi upscaler ha intrinsecamente anche un effetto di antialiasing.
Se parliamo di upscaler temporale come DLSS avrà un effetto antialiasing temporale, altrimenti (come FSR) solo spaziale.
La cosa che non capisco è decantarne le doti di antialiasing in quanto temporale visto che l'AA temporale è il peggior AA esistente.
Bisognerebbe invece guardare con interesse (nel senso valutarne la bontà) alle doti di antialiasing del FSR visto che è adaptive edge e gli AA edge detect come MSAA(prima che i poligoni fossero così tanti) e SMAA sono ottimi AA.
dado1979
28-06-2021, 08:55
E tu quanto ci metti, non a capire, perché quello figurati se non lo capisci, se sai scrivere sai anche leggere, ma ad ammettere, che stai mentendo per motivi che ancora non mi spiego del tutto?
UNO FA DA ANTIALIASING TEMPORALE E L'ALTRO NO. MA CHI VUOI PRENDERE IN GIRO?
Dai, ripeti ancora una volta che alla fine è sempre uno scaling, se lo dici 100 volte AMD poi ti regala una scheda. L'antialiasing NON E' UNO SCALING.
Posto poi che per me è anche assurdo dire "in uno la qualità è migliore, ma il risultato è lo stesso", perché la qualità è un risultato, se è migliore è palese che non sia la stessa cosa. Se prendo della pasta, la butto 4 ore dentro una pentola di acqua calda e senza sale, alla fine ho un piatto di pasta cotta, ma dire che il risultato sia lo stesso di un bravo chef...
Perché comprare una scheda video da 1000 euro? Prendine una da 100 euro, l'immagine avrà una qualità inferiore, ma il risultato è lo stesso, il gioco mica cambia, è solo la qualità che è diversa, ma a chi importa della qualità?
Che uno faccia AA temporale e l'altro no non è il nocciolo della questione a parer mio: che uno faccia un lavoro migliore dell'altro è il nocciolo, il risultato finale è ciò che interessa, non come viene ottenuto.
cronos1990
28-06-2021, 09:50
Mi confermate che questo è ancora un forum di tecnologia informatica? :fagiano:
dado1979
28-06-2021, 12:40
Mi confermate che questo è ancora un forum di tecnologia informatica? :fagiano:
Votato a dare un giudizio sul risultato reale di una tecnologia, altrimenti andiamo tutti al MIT e ci facciamo le seghe a vicenda con le nostre conoscene teoriche ma senza aver giocato mai ad un gioco perchè non utilizza il filtro migliore ;)
mmorselli
28-06-2021, 16:05
Mi sembra di essere stato abbastanza chiaro in quello che ho scritto
Non basta scrivere chiaro, bisogna anche scrivere giusto, senza eludere il tema che il tuo interlocutore ti ha proposto. Se ti parlo di antialiasing temporale e ti spiego il perché è importante, rispondere "ah, beh, ma comunque è sempre un aliasing" è solo un irritante modo di portare il discorso in una direzione che non c'entra nulla per evitare di avere torto.
La cosa che non capisco è decantarne le doti di antialiasing in quanto temporale visto che l'AA temporale è il peggior AA esistente.
Perché se tu avessi letto per bene tutto il thread in cui stai commentando avresti per lo meno capito due cose:
1) L'antialiasing temporale server ALMENO in VR, dove la differenza tra un antialiasing temporale e uno non temporale è pari alla differenza che c'è tra il giorno e la notte. In VR la testa effettua continuamente micromovimenti e questo genera il fenomeno chiamato shimmering, le lucine di natale attorno ai bordi sottili degli oggetti. Se non conosci o non ti interessa la VR è irrilevante, se non ti infastidisce lo shimmering (inevitabile anche in flat in certi giochi) è ancora più irrilevante, il fatto non cambia, un antialiasing temporale risolve QUEL problema, gli altri NO.
2) Sono d'accordo che TAA sia un antialiasing terribile, MA, finalmente, sulla terra è arrivato un antialiasing temporale che invece che essere terribile è ottimo, e si chiama DLSS. Se l'aver risolto questo problema secolare non è importante per TE, di nuovo, è totalmente irrilevante, non siamo qui a discutere i tuoi gusti, ma a discutere su cosa fanno o non fanno determinate tecnologie.
mmorselli
28-06-2021, 16:09
Che uno faccia AA temporale e l'altro no non è il nocciolo della questione a parer mio: che uno faccia un lavoro migliore dell'altro è il nocciolo, il risultato finale è ciò che interessa, non come viene ottenuto.
Certamente, ma se un risultato che vuoi ottenere è ASSOLUTAMENTE IMPOSSIBILE con un metodo, e perfettamente possibile con l'altro, mi concederai che pure il metodo è importante?
Io quando ho letto la prima volta come funzionava DLSS 2.0 ho sperato che facesse proprio quello che mi serviva, poi quando ho avuto la possibilità di provarlo per la prima volta il risultato era sopra le mie aspettative. E non sto parlando dell'aumento di prestazioni o risoluzione, perchè quella è una cosa che posso ottenere anche per conto mio, semplicemente comprando una scheda video sempre più potente della precedente, ma se il gioco mi sbaglia un effetto visivo io non ho possibilità di intervenire cambiando hardware, me lo deve sistemare il software.
mmorselli
28-06-2021, 16:11
Votato a dare un giudizio sul risultato reale di una tecnologia, altrimenti andiamo tutti al MIT e ci facciamo le seghe a vicenda con le nostre conoscene teoriche ma senza aver giocato mai ad un gioco perchè non utilizza il filtro migliore ;)
Forse tu parlerai per conoscenza teorica, io no, sono 13 pagine che sto spiegando la differenza in pratica, portando anche casi specifici di utilizzo e titoli con i quali chiunque, se vuole, può verificare se mi sto inventando delle cose.
dado1979
28-06-2021, 16:21
Forse tu parlerai per conoscenza teorica, io no, sono 13 pagine che sto spiegando la differenza in pratica, portando anche casi specifici di utilizzo e titoli con i quali chiunque, se vuole, può verificare se mi sto inventando delle cose.
Mah ti dirò, io ti posso dire che con l'FSR a Ultra non ho potuto verificare alcuna differenza di immagine cercandola col lanternino (ma cercandola eh) a Terminator aumentando del 35% le prestazioni... ora se tu mi dici che DLSS aumenta la qualità nei confronti della risoluzione nativa allora effettivamente hai ragione e non serve più in nessun caso la risoluzione nativa perchè DLSS è meglio della nativa, viceversa (ovvero se non è meglio della nativa) allora DLSS in quel caso (con quel gioco che ho provato) può essere al massimo uguale a FSR, non meglio... è solo logica deduttiva.
dado1979
28-06-2021, 16:32
Certamente, ma se un risultato che vuoi ottenere è ASSOLUTAMENTE IMPOSSIBILE con un metodo, e perfettamente possibile con l'altro, mi concederai che pure il metodo è importante?
Se riesci ad ottenere qualcosa con DLSS che non riesci a fare con FSR hai effettivamente ragione, ma non è quello che ho verificato io.
Poi certo non posso negare che ci possano essere dei casi dove effettivamente il risultato sia migliore (realmente) su DLSS che su FSR (sarebbe bello avere un gioco con entrambi gli effetti così da confrontare direttamente i risultati).
Mah ti dirò, io ti posso dire che con l'FSR a Ultra non ho potuto verificare alcuna differenza di immagine cercandola col lanternino (ma cercandola eh) a Terminator aumentando del 35% le prestazioni... ora se tu mi dici che DLSS aumenta la qualità nei confronti della risoluzione nativa allora effettivamente hai ragione e non serve più in nessun caso la risoluzione nativa perchè DLSS è meglio della nativa, viceversa (ovvero se non è meglio della nativa) allora DLSS in quel caso (con quel gioco che ho provato) può essere al massimo uguale a FSR, non meglio... è solo logica deduttiva.
Bhe un motivo se Terminator pare buono con il FSR c'è, lo dice DF, non è tutto oro quello che luccica:
There are multiple reasons for this: for starters, it's is a very dark game with little contrast and low texture detail and contrast. This means inner surface differences with FSR are very mitigated by the game's choice of colours and its texture detail. Another reason is that Terminator Resistance is very heavily post-processed as well with motion blur, chromatic aberration and depth of field. All of which make images of different resolutions more similar to one another. Again though, thin transparent detail such as hair or fences exhibit much greater shimmering on movement compared to the native presentation - and stand apart from most other opaque edges, where the FSR algorithm holds up well.
dado1979
28-06-2021, 18:00
Bhe un motivo se Terminator pare buono con il FSR c'è, lo dice DF, non è tutto oro quello che luccica:
There are multiple reasons for this: for starters, it's is a very dark game with little contrast and low texture detail and contrast. This means inner surface differences with FSR are very mitigated by the game's choice of colours and its texture detail. Another reason is that Terminator Resistance is very heavily post-processed as well with motion blur, chromatic aberration and depth of field. All of which make images of different resolutions more similar to one another. Again though, thin transparent detail such as hair or fences exhibit much greater shimmering on movement compared to the native presentation - and stand apart from most other opaque edges, where the FSR algorithm holds up well.
Ok, va bene. Ci può stare. Vedremo quando ci sarà un gioco che confronterà entrambe le tecnologie.
Quello che voglio anche dire è che chiaramente la tecnologia di DLSS è superiore a livello tecnico, ma quella superiorità a livello teorico si deve necessariamente tramutare in una qualità maggiore altrimenti è uno spreco di silicio, di soldi e di potenza. E' superiore, ma deve dimostrarlo.
Moffus98
28-06-2021, 18:53
Questa tecnologia secondo me sarà un'ottima cosa soprattutto per chi possiede schede del tipo 480/580 o 1060 nvidia, per modelli superiori soprattutto lato nvidia non vedo perchè utilizzare questa tecnologia al posto del DLSS, ho molti dubbi al riguardo.
Non basta scrivere chiaro, bisogna anche scrivere giusto, senza eludere il tema che il tuo interlocutore ti ha proposto. Se ti parlo di antialiasing temporale e ti spiego il perché è importante, rispondere "ah, beh, ma comunque è sempre un aliasing" è solo un irritante modo di portare il discorso in una direzione che non c'entra nulla per evitare di avere torto.
Perché se tu avessi letto per bene tutto il thread in cui stai commentando avresti per lo meno capito due cose:
1) L'antialiasing temporale server ALMENO in VR, dove la differenza tra un antialiasing temporale e uno non temporale è pari alla differenza che c'è tra il giorno e la notte. In VR la testa effettua continuamente micromovimenti e questo genera il fenomeno chiamato shimmering, le lucine di natale attorno ai bordi sottili degli oggetti. Se non conosci o non ti interessa la VR è irrilevante, se non ti infastidisce lo shimmering (inevitabile anche in flat in certi giochi) è ancora più irrilevante, il fatto non cambia, un antialiasing temporale risolve QUEL problema, gli altri NO.
2) Sono d'accordo che TAA sia un antialiasing terribile, MA, finalmente, sulla terra è arrivato un antialiasing temporale che invece che essere terribile è ottimo, e si chiama DLSS. Se l'aver risolto questo problema secolare non è importante per TE, di nuovo, è totalmente irrilevante, non siamo qui a discutere i tuoi gusti, ma a discutere su cosa fanno o non fanno determinate tecnologie.
Visto che continui con i toni irritanti da maestrina ti lascio a far lezione a chi ti sopporta.
mmorselli
29-06-2021, 03:26
Visto che continui con i toni irritanti da maestrina ti lascio a far lezione a chi ti sopporta.
OK, lo prendo come un "dopo 8 volte che l'hai spiegato, finalmente l'ho capito pure io, ma che diamine, vengo su un forum per divertirmi, mica per sentirmi a disagio dicendo 'hai effettivamente ragione' a uno a cui ho fatto muro fino a questo momento"
A me basta e avanza, pure io vengo qui per divertirmi, a modo mio :D
Sinceramente, io sono il primo a non piacermi quando uso un tono supponente, e in genere ho un sacco di pazienza, ma alcune persone hanno argomenti solidi come quelli di un terrapiattista, e ciò nonostante vogliono dire la loro. Ora, se tu riesci a non essere supponente davanti ad un terrapiattista, farò di te il mio maestro, seguirò le tue orme finché non avrò raggiunto lo stesso livello di illuminazione spirituale.
mmorselli
29-06-2021, 03:42
Mah ti dirò, io ti posso dire che con l'FSR a Ultra non ho potuto verificare alcuna differenza di immagine cercandola col lanternino (ma cercandola eh) a Terminator aumentando del 35% le prestazioni... ora se tu mi dici che DLSS aumenta la qualità nei confronti della risoluzione nativa allora effettivamente hai ragione e non serve più in nessun caso la risoluzione nativa perchè DLSS è meglio della nativa
Non è un problema di risoluzione, è questo che sto provando a spiegare. L'aumento virtuale della risoluzione è UNA delle cose che fa DLSS, ed è l'unica che fa FSR. Per questo non vedi dove sta il problema, perché stai guardando la cosa sbagliata.
Riguardo alla risoluzione, io non ho la minima idea se DLSS è realmente in grado di produrre un'immagine con maggiore dettaglio a parità di aumento di prestazioni. nVidia dice di sì, grazie al Deep Learning, ma mica devo crederci sulla parola, non sarebbe la prima volta che un sistema complicato non aggiunge niente di ché al sistema più semplice, quello è un confronto che appunto andrà fatto caso per caso con titoli che supportino entrambe le tecnologie (basterà aspettare FSR dentro a UE4 e poi si possono compilare le demo).
Certamente ci saranno situazioni in cui nessuno dei due sarà in grado di ricostruire un'immagine pari a quella nativa, basta che in quella di partenza ci siano delle scritte con un font leggibile solo in 4K e la versione ricostruita non potrà mai restituire il testo leggibile, né con lo scaling, né con il deep learning.
In molti casi, però, entrambi gli algoritmi avranno gioco facile, questo perché stiamo parlando di videogiochi, non di computer grafica di qualità cinematografica, è roba fatta con un numero relativamente basso di poligoni per cui a parte i bordi più o meno taglienti un poligono con sopra una texture spianata spesso rimane lo stesso poligono a tutte le risoluzioni.
cronos1990
29-06-2021, 07:49
Votato a dare un giudizio sul risultato reale di una tecnologia, altrimenti andiamo tutti al MIT e ci facciamo le seghe a vicenda con le nostre conoscene teoriche ma senza aver giocato mai ad un gioco perchè non utilizza il filtro migliore ;)Non è questione di "dare giudizi", è questione di avere un minimo di cognizione di causa di quello di cui si parla. E, tra parentesi, per me non è questione di patteggiare per Nvidia o AMD... ho una 5700XT, sarei il primo ad esultare se l'FSR fosse superiore al DLSS. Ma non è così.
Dire che ottieni lo stesso risultato è una boiata. Se tu prendi l'immagine di uno stesso videogioco, a parità di settaggi grafici e risoluzione, e lo dai in pasto ad entrambe le tecnologie impostate alla massima qualità, non ottieni lo stesso risultato.
E non ti sto dicendo che uno sia meglio dell'altro, semplicemente che sono "diverse". Poi questi test preliminari stanno evidenziando che la cosa è visibile a occhio, e sicuramente la differenza la trovi se fai un'analisi tecnica delle due immagini risultanti.
E questo è lapalissiano anche semplicemente cercando di capire come operano le due tecnologie. Tu puoi imbiancare una parete con una vernice bianca; ma se nel primo caso uno un bianco opaco, e nel secondo un bianco più "bianco" e do due passate anzichè una, il risultato NON è uguale. Hai in entrambi i casi imbiancato, hai in entrambi casi usato una pittura bianca, ma se guardi i due risultati il secondo risulta più brillante e con una tonalità meno "grigiastra".
Dire tra l'altro che il DLSS è un semplice upscaling è del tutto sbagliato, perchè integra al suo interno un connubio di tecnologie e fa uso del Deep Learning a differenza del FSR. Sarebbe come dire che un'automobile è un parallelepipedo con 4 ruote.
Il FSR, nel bene o nel male, si prefigge lo stesso risultato, ma lo fa semplicemente miscelando tecniche già note e usate. Certo, con un risultato finale migliore rispetto al prenderle singolarmente, ma non introduce nulla di realmente nuovo e di conseguenza si porta dietro tutte le beghe note da anni sulla qualità complessiva. Così come il DLSS deve combattere con altri problemi insiti nel funzionamento dei suoi algoritmi (in particolare le scie).
Poi questo non vuol dire che si deve prendere per forza una scheda Nvidia, che chiunque noti la differenza o che a chiunque importi della differenza. Le situazioni sono tantissime e puramente personali, basate su quello che si vuole, su quello che si può ottenere, sulle proprie preferenze, sul proprio interesse, sulla propria passione e le proprie esigenze.
Ci sarà quindi quello con una GPU di 5 anni che vede l'FSR un buon modo per allungarne ancora di più la vita, quello che se non ha la massima qualità non dorme la notte e quindi compra una 3090, quello che vuole dei compromessi, quello che se ne frega e prende la prima scheda che gli passano tra le mani, quello che dei particolari grafici non gli importa nulla, quello che non sopporta le scie sullo schermo, quello che vuole solo tantissimi FPS...
La tecnologia conta perchè è da quella che ottieni le differenze di risultato che poi si evidenziano sullo schermo. E da quanto visto finora, in attesa di un confronto più completo e attendibile, ci dice che il DLSS permette risultati migliori. E trovo difficile un'inversione di questa situazione di classifica, proprio perchè il FSR è già limitato in partenza dal non aver introdotto nulla di davvero diverso, laddove Nvidia invece ha (per una volta tanto) tirato fuori qualcosa di nuovo e interessante, e che quindi ha anche più margini di miglioramento.
wolverine
29-06-2021, 09:39
Votato a dare un giudizio sul risultato reale di una tecnologia, altrimenti andiamo tutti al MIT e ci facciamo le seghe a vicenda con le nostre conoscene teoriche ma senza aver giocato mai ad un gioco perchè non utilizza il filtro migliore ;)
No, che dopo non vedete più la differenza tra l'nvidia DLSS e l'AMD FSR! :D :sbonk:
Therinai
29-06-2021, 17:43
Non è questione di "dare giudizi", è questione di avere un minimo di cognizione di causa di quello di cui si parla. E, tra parentesi, per me non è questione di patteggiare per Nvidia o AMD... ho una 5700XT, sarei il primo ad esultare se l'FSR fosse superiore al DLSS. Ma non è così.
Dire che ottieni lo stesso risultato è una boiata. Se tu prendi l'immagine di uno stesso videogioco, a parità di settaggi grafici e risoluzione, e lo dai in pasto ad entrambe le tecnologie impostate alla massima qualità, non ottieni lo stesso risultato.
E non ti sto dicendo che uno sia meglio dell'altro, semplicemente che sono "diverse". Poi questi test preliminari stanno evidenziando che la cosa è visibile a occhio, e sicuramente la differenza la trovi se fai un'analisi tecnica delle due immagini risultanti.
E questo è lapalissiano anche semplicemente cercando di capire come operano le due tecnologie. Tu puoi imbiancare una parete con una vernice bianca; ma se nel primo caso uno un bianco opaco, e nel secondo un bianco più "bianco" e do due passate anzichè una, il risultato NON è uguale. Hai in entrambi i casi imbiancato, hai in entrambi casi usato una pittura bianca, ma se guardi i due risultati il secondo risulta più brillante e con una tonalità meno "grigiastra".
Dire tra l'altro che il DLSS è un semplice upscaling è del tutto sbagliato, perchè integra al suo interno un connubio di tecnologie e fa uso del Deep Learning a differenza del FSR. Sarebbe come dire che un'automobile è un parallelepipedo con 4 ruote.
Il FSR, nel bene o nel male, si prefigge lo stesso risultato, ma lo fa semplicemente miscelando tecniche già note e usate. Certo, con un risultato finale migliore rispetto al prenderle singolarmente, ma non introduce nulla di realmente nuovo e di conseguenza si porta dietro tutte le beghe note da anni sulla qualità complessiva. Così come il DLSS deve combattere con altri problemi insiti nel funzionamento dei suoi algoritmi (in particolare le scie).
Poi questo non vuol dire che si deve prendere per forza una scheda Nvidia, che chiunque noti la differenza o che a chiunque importi della differenza. Le situazioni sono tantissime e puramente personali, basate su quello che si vuole, su quello che si può ottenere, sulle proprie preferenze, sul proprio interesse, sulla propria passione e le proprie esigenze.
Ci sarà quindi quello con una GPU di 5 anni che vede l'FSR un buon modo per allungarne ancora di più la vita, quello che se non ha la massima qualità non dorme la notte e quindi compra una 3090, quello che vuole dei compromessi, quello che se ne frega e prende la prima scheda che gli passano tra le mani, quello che dei particolari grafici non gli importa nulla, quello che non sopporta le scie sullo schermo, quello che vuole solo tantissimi FPS...
La tecnologia conta perchè è da quella che ottieni le differenze di risultato che poi si evidenziano sullo schermo. E da quanto visto finora, in attesa di un confronto più completo e attendibile, ci dice che il DLSS permette risultati migliori. E trovo difficile un'inversione di questa situazione di classifica, proprio perchè il FSR è già limitato in partenza dal non aver introdotto nulla di davvero diverso, laddove Nvidia invece ha (per una volta tanto) tirato fuori qualcosa di nuovo e interessante, e che quindi ha anche più margini di miglioramento.
Ci riprovo con te perché morselli ha fatto finta di niente:
1) niente ti vieta di affiancara all'FSR un AA
2) per la parte evidenziata: ok forse giungiamo a un punto. Per me i risultati ottenuti sono gli stessi e vado poi a distinguerli con valutazioni qualitative e quantitative. Quindi facendo riferimento al tuo esempio (cosa che odio a dir poco, ma se ti è utile paragonare DLSS e FSR alla pasta faccio il possibile per venirti in contro) il piatto di pasta più brutto del mondo e il migliore sono la stessa cosa, ma li distinguo a livello qualitativo. Con l'esempio delle schede video stesso discorso, sono la stessa cosa, arrivano allo stesso risultato finale (output video sul display collegato), ma le distingue in base ai loro attributi.
Il tuo approccio è realisticamente inapplicabile perché ti porterebbe a moltiplicare esponenzialmente il numero di oggetti da classificare, in generale nella vita. Ti troveresti con una mole di categorie non funzionale ad alcuno scopo.
Se proprio ti piace questo metodo puoi applicarlo per te stesso, ad uso personale, ma non puoi tediare la collettività con la tua mole di categorizzazioni, anche perché se tutti ragionassero in questo modo le tue categorie si andrebbero a sommare a quelle di tutti gli altri, e in uno scenario del genere non riusciremmo neanche a comunicare.
Anche io ho le mie categorie ad uso interno, per me la pizza del kebabbaro non è pizza per esempio (again: li odio, ma magari ti aiuta a capire il concetto), ma quando devo comunicare con altre persone, per esempio gruppo di amici con cui voglio mangiare una pizza, sono consapevole che nella categoria pizza rientra anche la pizza del kebabbaro.
Poi che FSR e DLSS funzionino diversamente è ampiamente chiaro, non c'è bisogno di ripeterlo ad ogni post.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.