PDA

View Full Version : AMD, FidelityFX Super Resolution sulla nuova Xbox e (forse) non solo


Redazione di Hardware Upg
07-06-2021, 09:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/amd-fidelityfx-super-resolution-sulla-nuova-xbox-e-forse-non-solo_98304.html

La tecnologia FidelityFX Super Resolution non solo è agnostica, quindi la vedremo funzionare anche sulle GPU Nvidia, ma potrebbe anche funzionare con le future GPU di casa Intel e persino le console di nuova generazione: Microsoft fa intendere che presto o tardi arriverà un annuncio.

Click sul link per visualizzare la notizia.

nickname88
07-06-2021, 10:19
Senza unità dedicate necessarie dovrebbe poter girare correttamente ovunque.
Me l'aspetto pure sul PS5, sulle Nvidia era scontato visto che la presentazione mostrava i vantaggi usando una GTX 1060 su Godfall : https://cdn.videocardz.com/1/2021/06/AMD-FidelityFX-Super-Resolution.jpg

Me l'aspetto pure su Intel e pure sui cellulari.

CrapaDiLegno
07-06-2021, 10:22
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.

Senza unità dedicate necessarie dovrebbe poter girare correttamente ovunque.
Me l'aspetto pure sul PS5, sulle Nvidia era scontato visto che la presentazione mostrava i vantaggi usando una GTX 1060 su Godfall : https://cdn.videocardz.com/1/2021/06/AMD-FidelityFX-Super-Resolution.jpg

Me l'aspetto pure su Intel e pure sui cellulari.
Mi aspetto che non sia nulla che non si sia potuto applicare anche ieri con un semplice effetto di post processing al più aiutato da una interpolazione temporale (quindi con necessità di supporto attivo da parte degli sviluppatori dei giochi).
Direi che è un semplice tentativo di proporre una panacea ad un problema che esiste da anni e che per altrettanti anni è stato affrontato nello stesso modo. Fino all'arrivo del DLSS. Questa nuova versione di algoritmi di interpolazione di dati non è nulla di nuovo e nulla di nuovo porterà sul mercato.
Però è made AMD, è open e quindi sarà una rivoluzione per tutto il mercato.
Il VRS lo hanno inventato così, giusto per fare interpolare ancora una volta di più una risoluzione ancora più bassa, giusto per dire. Ah, no, era il tentativo di inserire l'uso di una risoluzione inferiore solo nelle parti della scena dove questo non avrebbe intaccato più di tanto la qualità dell'immagine... eh, giusto, la rivoluzione è invece fare un scaler SW di tutta la scena con i soli dati della scena a bassa risoluzione... che dire... RIVOLUZIONARIO!

coschizza
07-06-2021, 10:31
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.

infatti questo FSR non è un concorrente del DLSS lo dire pure amd e lo fa perchè sa che è solo un algoritmo di scaling come ne esistono tanti altri.
Il DLSS come approccio è comuque su un gradino superiore a questo FSR può essere interessante solo nelle versioni qualitià, basta vedere il video della 1060 mostrato dove già li si vede una netta perdita di dettaglio e senza andare a vedere l'ìoriginale, quindi immagina andando su preset più bassi diventerebbe più che inutile.

https://www.donanimhaber.com/cache-v2/?t=20210319155123&width=-1&text=0&path=https://www.donanimhaber.com/images/images/haber/131336/amd-nin-dlss-alternatifi-fsr-bu-yil-kullanima-sunulacak131336_1.jpg

il vero vantaggio sarebbe la diffusione ma poco altro

DjLode
07-06-2021, 10:32
Senza unità dedicate necessarie dovrebbe poter girare correttamente ovunque.
Me l'aspetto pure sul PS5, sulle Nvidia era scontato visto che la presentazione mostrava i vantaggi usando una GTX 1060 su Godfall : https://cdn.videocardz.com/1/2021/06/AMD-FidelityFX-Super-Resolution.jpg

Me l'aspetto pure su Intel e pure sui cellulari.

Tra le due parti c'è comunque una bella differenza... Non sono uguali neanche i settaggi con cui sono stati ottenuti i risultati. Che motivo c'è? Non ho visto la presentazione.

CrapaDiLegno
07-06-2021, 10:36
Tra le due parti c'è comunque una bella differenza... Non sono uguali neanche i settaggi con cui sono stati ottenuti i risultati. Che motivo c'è? Non ho visto la presentazione.

Boh, io vedo solo 2 belle immagini con blur a manetta e con quella di sinistra con a fuoco la scena centrale (con i personaggi che si pestano) mentre quella di destra oltre al blur non ha nulla a fuoco (guardate la colonna che sfocatura immensa della texture) e il dettaglio dei personaggi è davvero infimo.
Se questa è la modalità "qualità" mi immagino le altre... TV/monitor scaler, pensateci voi!

infatti questo FSR non è un concorrente del DLSS lo dire pure amd e lo fa perchè sa che è solo un algoritmo di scaling come ne esistono tanti altri.


Dov'è che AMD dice che non è concorrente al DLSS se lo lancia in pompa magna proprio per far vedere che anche lei interpola bene quando non c'è n'è proprio bisogno ma magari sarebbe meglio concentrarsi ad usare il VRS in maniera più proficua?

Gyammy85
07-06-2021, 10:37
Sono fermamente convinto che amd avrà sicuramente posizioni aperte per capo ingegnere/diveloper/verificatore di training inferenziale/facciamo più fps/mettiamo le gddr5x sulla vega, basta inviare le candidature :fagiano:

nickname88
07-06-2021, 10:39
Tra le due parti c'è comunque una bella differenza... Non sono uguali neanche i settaggi con cui sono stati ottenuti i risultati. Che motivo c'è? Non ho visto la presentazione.

L scritta quality mode è riferita al SR non al setting del gioco.
Dovrebbero in teoria essere uguali come setting, solo che uno è con il SR ( la parte sfocata ) e l'altro è nativo.

Se così fosse non trovo nulla di molto differente da quanto fatto col DLSS 1.

CrapaDiLegno
07-06-2021, 10:41
Sono fermamente convinto che amd avrà sicuramente posizioni aperte per capo ingegnere/diveloper/verificatore di training inferenziale/facciamo più fps/mettiamo le gddr5x sulla vega, basta inviare le candidature :fagiano:

Anche la posizione Fanboy senza capacità argomentativa è una delle migliori posizioni aperte nel mercato AMD.

nickname88
07-06-2021, 10:43
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.


Mi aspetto che non sia nulla che non si sia potuto applicare anche ieri con un semplice effetto di post processing al più aiutato da una interpolazione temporale (quindi con necessità di supporto attivo da parte degli sviluppatori dei giochi).
Direi che è un semplice tentativo di proporre una panacea ad un problema che esiste da anni e che per altrettanti anni è stato affrontato nello stesso modo. Fino all'arrivo del DLSS. Questa nuova versione di algoritmi di interpolazione di dati non è nulla di nuovo e nulla di nuovo porterà sul mercato.
Però è made AMD, è open e quindi sarà una rivoluzione per tutto il mercato.
Il VRS lo hanno inventato così, giusto per fare interpolare ancora una volta di più una risoluzione ancora più bassa, giusto per dire. Ah, no, era il tentativo di inserire l'uso di una risoluzione inferiore solo nelle parti della scena dove questo non avrebbe intaccato più di tanto la qualità dell'immagine... eh, giusto, la rivoluzione è invece fare un scaler SW di tutta la scena con i soli dati della scena a bassa risoluzione... che dire... RIVOLUZIONARIO!

Il DLSS2 se non è rivoluzionario allora non so cosa lo sia.
Su Death Stranding ( altri non ho provato ) non si perde proprio nulla come definizione, anzi si guadagna qualcosina rispetto classico TAA con solo minimi effetti collaterali, il frame rate però è volato.

Questo SR dalle immagini sembra essere sfocato come il primo DLSS ma di certo sarà migliore di un classico upscaling o di giocare con risoluzioni dinamiche.

Gyammy85
07-06-2021, 10:46
Anche la posizione Fanboy senza capacità argomentativa è una delle migliori posizioni aperte nel mercato AMD.

Se lo dici tu, ma lo sdegno sarebbe per il fatto che nelle console lo mettono e pure quindi nvidia non potrà mettere il dlss nei giochi nuovi, che il dlss è meglio ma nessuno lo capisce, che intel se lo mette si vede peggio della 1060 perché nvidia non si batte, o tutte queste cose insieme?

CrapaDiLegno
07-06-2021, 10:53
Se lo dici tu, ma lo sdegno sarebbe per il fatto che nelle console lo mettono e pure quindi nvidia non potrà mettere il dlss nei giochi nuovi, che il dlss è meglio ma nessuno lo capisce, che intel se lo mette si vede peggio della 1060 perché nvidia non si batte, o tutte queste cose insieme?
Leggi un libro e impara a scrivere che non si capisce nulla.

nickname88
07-06-2021, 10:58
Se lo dici tu, ma lo sdegno sarebbe per il fatto che nelle console lo mettono e pure quindi nvidia non potrà mettere il dlss nei giochi nuovi, che il dlss è meglio ma nessuno lo capisce, che intel se lo mette si vede peggio della 1060 perché nvidia non si batte, o tutte queste cose insieme?
Ti consiglio di tornare a scuola in primis, sembri un extracomunitario immigrato da come scrivi.

Poi te lo diranno che il DLSS è già stato inserito nativamente in alcuni engines.
La presenza del SR non esclude il supporto anche del DLSS.
L'80% delle VGA su PC è Nvidia e suppongo che anche la nuova Nintendo avrà GPU Nvidia.

coschizza
07-06-2021, 11:01
Dov'è che AMD dice che non è concorrente al DLSS se lo lancia in pompa magna proprio per far vedere che anche lei interpola bene quando non c'è n'è proprio bisogno ma magari sarebbe meglio concentrarsi ad usare il VRS in maniera più proficua?

in tutte le interviste che ha fatto sull'argomento, sono i giornalisti che poi dicono che il loro è un alternativa al dlss ma non lo dice amd
Durante la presentazione non hanno mai citato il DLSS proprio perché non è un diretto concorrente altrimenti non lo avrebbe almeno citato?
Se l FSR è un concorrente al DLSS allora per definizione lo è anche l'upscaler che usa da anni il mondo console eppure mai nessuno ha mai osato comparare le 2 tecnologie

astaroth2
07-06-2021, 11:09
Se lo dici tu, ma lo sdegno sarebbe per il fatto che nelle console lo mettono e pure quindi nvidia non potrà mettere il dlss nei giochi nuovi, che il dlss è meglio ma nessuno lo capisce, che intel se lo mette si vede peggio della 1060 perché nvidia non si batte, o tutte queste cose insieme?

Non è molto chiaro il concetto.

Gyammy85
07-06-2021, 11:12
Ti consiglio di tornare a scuola in primis, sembri un extracomunitario immigrato da come scrivi.

Poi te lo diranno che il DLSS è già stato inserito nativamente in alcuni engines.
La presenza del SR non esclude il supporto anche del DLSS.
L'80% delle VGA su PC è Nvidia e suppongo che anche la nuova Nintendo avrà GPU Nvidia.

Non ne sarei così sicuro, ma continuate pure a spammare che fa schifo, la solita battaglia già vista per physics gsync e compagnia

CrapaDiLegno
07-06-2021, 11:12
in tutte le interviste che ha fatto sull'argomento, sono i giornalisti che poi dicono che il loro è un alternativa al dlss ma non lo dice amd

Che non menzioni il DLSS della concorrenza mi pare ovvio, ma che non sia pensato e lanciato per cercare di dimostrare di avere una funzione simile per le proprie schede quando arrancano e rimangono sul fondo delle classifiche dei test in tali casi mi sembra ovvio.
Ovvio che AMD non può competere con il DLSS non avendo l'HW per fare ML in maniera adeguata, ma il tentativo è lo stesso di Nvidia: dare un boost alle schede quando non ce la fanno.
Con tutti i compromessi sulla qualità del caso, e in questo caso saranno certamente più pesanti.

Ma si farà perdonare perché la soluzione è open e quindi sarà diffusa su tutto l'HW del mondo.... o meglio, quello non in grado di usare tecniche più sofisticate.

Comunque, giusto per rendere l'idea del valore di questa soluzione, si avrà il rendering a 1080p di una immagine che al suo interno avrà parti renderizzate a 720p tramitre il VRS, il tutto upscalato a 2K o 4K per avere un frame rate "fino a 4x".
Mi immagino che figata la qualità dell'immagine finale. Ah, ma quel pixel fuori posto del DLSS!!! Huuu che schifo... FidelityFX SR, la vera rivoluzione che tutti aspettavano!

Non ne sarei così sicuro, ma continuate pure a spammare che fa schifo, la solita battaglia già vista per physics gsync e compagnia

Non ne sei sicuro perché sei un faboy senza capacità argomentativa.
Magari non sai neanche che il DLSS viene già con una serie di algoritmi di AA, interpolazione, scaling e sharpening non dissimili da questi.. che però NON attingono solo ai dati dell'immagine a risoluzione inferiore e quindi incapaci di aggiunger dettagli come la soluzione della tua amata AMD.

Gyammy85
07-06-2021, 11:14
in tutte le interviste che ha fatto sull'argomento, sono i giornalisti che poi dicono che il loro è un alternativa al dlss ma non lo dice amd
Durante la presentazione non hanno mai citato il DLSS proprio perché non è un diretto concorrente altrimenti non lo avrebbe almeno citato?
Se l FSR è un concorrente al DLSS allora per definizione lo è anche l'upscaler che usa da anni il mondo console eppure mai nessuno ha mai osato comparare le 2 tecnologie

Sai com'è, era la presentazione di amd, è già tanto che ti hanno fatto vedere fsr girare su una 1060
Ma vabbè vi saluto, dlss forever

Gyammy85
07-06-2021, 11:17
Non è molto chiaro il concetto.

Venire qui a indignarsi perché fsr lo mettono sulle console e forse anche intel lo supporterà mi porta a pensare che ci sia il timore che il prossimo "mega gioco gta6 cyberpunk edition crysis 4" non si baserà sul pregiatissimo dlss forgiato direttamente da skynet, ma su un banalissimo upscaler...non vedo altra spiegazione

Dark_Lord
07-06-2021, 11:18
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.

Maury
07-06-2021, 11:19
Il 22 giugno prevedo una grossa delusione, sarà un bagno di sangue lato qualità.

Il DLSS è un altro mondo.

CrapaDiLegno
07-06-2021, 11:22
Venire qui a indignarsi perché fsr lo mettono sulle console e forse anche intel lo supporterà mi porta a pensare che ci sia il timore che il prossimo "mega gioco gta6 cyberpunk edition crysis 4" non si baserà sul pregiatissimo dlss forgiato direttamente da skynet, ma su un banalissimo upscaler...non vedo altra spiegazione

La preoccupazione è che se succede questo la qualità dell'immagine sarà inferiore a quella di "gta5 cyberpunk edition crysis 3".
Però in nome della adorata AMD, va bene andare come i gamberi, cioè all'indietro invece che evolversi verso soluzioni più all'avanguardia (e con risultati migliori).
Comunque non ti preoccupare, sempre più motori stanno supportando il DLSS in maniera nativa e a quanto pare supportare il DLSS anche quando il motore non lo fa non è un grande problema.
Quindi a chi ha l'HW in grado di essere un passo vanti alle soluzioni antiquate della concorrenza non dà nessun problema che chi ha HW inferiore possa far finta di godere della stessa esperienza grafica.

CrapaDiLegno
07-06-2021, 11:27
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.

Non è competizione, è adescare l'utente con funzioni di qualità inferiori che non aiutano il progresso, ma anzi, fa tornare indietro tutta l'industria di anni.
Ci si chiede a cosa sia servito fare il VRS se poi la "rivoluzione" avviene per un post processing su tutta l'immagine partendo dai soli dati dell'immagine a bassa risoluzione.
Tanto vale tornare al 2012 e applicare lo stesso algoritmo sui giochi che uscivano a quel tempo.. ma non lo si è fatto perché non si sentiva il bisogno di mettere una pezza prestazionale diminuendo la qualità dell'immagine.

DjLode
07-06-2021, 11:27
L scritta quality mode è riferita al SR non al setting del gioco.
Dovrebbero in teoria essere uguali come setting, solo che uno è con il SR ( la parte sfocata ) e l'altro è nativo.

Se così fosse non trovo nulla di molto differente da quanto fatto col DLSS 1.

Ho guardato anche il video e non dice granchè a riguardo. Comunque probabilment è come dici tu, di fatto a 27Fps è ingiocabile, a 38 non è chissà cosa ma meglio di niente. E' molto molto sfocato e si vede anche con le immagini in movimento però....

Gyammy85
07-06-2021, 11:28
La preoccupazione è che se succede questo la qualità dell'immagine sarà inferiore a quella di "gta5 cyberpunk edition crysis 3".
Però in nome della adorata AMD, va bene andare come i gamberi, cioè all'indietro invece che evolversi verso soluzioni più all'avanguardia (e con risultati migliori).
Comunque non ti preoccupare, sempre più motori stanno supportando il DLSS in maniera nativa e a quanto pare supportare il DLSS anche quando il motore non lo fa non è un grande problema.
Quindi a chi ha l'HW in grado di essere un passo vanti alle soluzioni antiquate della concorrenza non dà nessun problema che chi ha HW inferiore possa far finta di godere della stessa esperienza grafica.

Prendete fiato però, la stada fino al 22 è ancora lunga

Dark_Lord
07-06-2021, 11:41
Non è competizione, è adescare l'utente con funzioni di qualità inferiori che non aiutano il progresso, ma anzi, fa tornare indietro tutta l'industria di anni.
Ci si chiede a cosa sia servito fare il VRS se poi la "rivoluzione" avviene per un post processing su tutta l'immagine partendo dai soli dati dell'immagine a bassa risoluzione.
Tanto vale tornare al 2012 e applicare lo stesso algoritmo sui giochi che uscivano a quel tempo.. ma non lo si è fatto perché non si sentiva il bisogno di mettere una pezza prestazionale diminuendo la qualità dell'immagine.

Si, ma affossare a sproposito la tecnologia prima ancora di averla visto all'opera non è esattamente un comportamento che ci si aspetterebbe da persone si suppone adulte e intelligenti.

Vediamo cosa presentano il 22, e poi ne parliamo.

CrapaDiLegno
07-06-2021, 11:44
Prendete fiato però, la stada fino al 22 è ancora lunga

Io guardo ben oltre a queste soluzioni senza futuro ancora prima di essere presentate.
D'altronde le tue frasi di supporto ad AMD valgono quanto le tue affermazioni sul fatto che AMD sarebbe uscita con un supporto al raytracing senza HW dedicato in grado di fare meglio di Nvidia in termini di qualità e con meno impatto sulle prestazioni.
GoGoGo AMD, sei il futuro!

Poi quando tra 4 anni, nel 2025 con i 3nm (se escono quell'anno) AMD se ne uscirà con una GPU in grado di fare calcoli per ML in maniera decente e si creerà il suo DLSS, una soluzione veramente concorrente a quanto fatto da Nvidia nel 2018, allora salirai sull'Olimpo dell'onanismo e potrai dire " ve lo avevo detto che AMD è la migliore, il futuro è suo".
Intanto stiamo ancora aspettando che faccia qualcosa di buono con il ray tracing "senza unità dedicate" nella speranza che Intel non faccia meglio e in termini di RT e in ML.. altrimenti la vedo dura recuperare da quel fosso del 15% di market share dove si è cacciata. :sofico:

k0nt3
07-06-2021, 11:56
Anche la posizione Fanboy senza capacità argomentativa è una delle migliori posizioni aperte nel mercato AMD.
Controlla meglio, magari cercano anche fanboy con capacita' argomentativa :asd:
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.
Concordo al 100%
Io guardo ben oltre a queste soluzioni senza futuro ancora prima di essere presentate.
D'altronde le tue frasi di supporto ad AMD valgono quanto le tue affermazioni sul fatto che AMD sarebbe uscita con un supporto al raytracing senza HW dedicato in grado di fare meglio di Nvidia in termini di qualità e con meno impatto sulle prestazioni.
GoGoGo AMD, sei il futuro!

Poi quando tra 4 anni, nel 2025 con i 3nm (se escono quell'anno) AMD se ne uscirà con una GPU in grado di fare calcoli per ML in maniera decente e si creerà il suo DLSS, una soluzione veramente concorrente a quanto fatto da Nvidia nel 2018, allora salirai sull'Olimpo dell'onanismo e potrai dire " ve lo avevo detto che AMD è la migliore, il futuro è suo".
Intanto stiamo ancora aspettando che faccia qualcosa di buono con il ray tracing "senza unità dedicate" nella speranza che Intel non faccia meglio e in termini di RT e in ML.. altrimenti la vedo dura recuperare da quel fosso del 15% di market share dove si è cacciata. :sofico:
Raytracing senza unita' dedicate? E cosa sarebbero i ray accelerator se non unita' dedicate?
Sta cosa delle unita' dedicate sta diventando peggio di un meme :doh:

CrapaDiLegno
07-06-2021, 11:56
Si, ma affossare a sproposito la tecnologia prima ancora di averla visto all'opera non è esattamente un comportamento che ci si aspetterebbe da persone si suppone adulte e intelligenti.

Vediamo cosa presentano il 22, e poi ne parliamo.

Scusa è, ma mi sembra si tornare indietro di anni e anni ogni volta che si affrontano questi argomenti.
O sai come funzionano le cose e quindi già hai una idea della soluzione oppure sì, aspetta il 22 che te lo mostrino e spera che non sia come uno sa funzioni la tecnologia.

A parte che abbiamo già visto un'anteprima tutt'altro che spettacolare, ma secondo te c'è qualche scienza sconosciuta che possa permettere di partire da una immagine a bassa risoluzione e trasformarla in una ad alta risoluzione senza aggiunta di dettagli e che possa considerarsi una soluzione con qualità decente? Il tutto in tempo reale?
Sai come funzionano gli scaler dei monitor? E quelli delle TV?
Credi che una soluzione SW possa fare tanto meglio? Se sì stai aspettando Godot.
Altrimenti ci si sta solo preparando a turarsi il naso (e gli occhi) e di accettare quello che verrà. Ma non c'è nulla di nuovo o rivoluzionario. Quanto fatto oggi da AMD era fattibile 10 anni fa. Non c'è tecnologia avanzata o aliena in gioco.
E infatti già ci sono da anni degli effetti che possono essere applicati a posteriori che permettono di migliorare l'immagine.
Il supporto alle modifiche temporali che AMD richiede agli sviluppatori per supportare questi effetti di post processing potrà dare una mano, ma.. montior e sopratutto TV già lo fanno.
Vedremo il confronto.. anche se sarà difficile ottenere una prova registrata dato che non so come si può registrare l'uscita interpolata di una TV 4K che riceve in ingresso uno stream di dati con risoluzione inferiore.

nickname88
07-06-2021, 12:00
Non ne sarei così sicuro, ma continuate pure a spammare che fa schifo, la solita battaglia già vista per physics gsync e compagnia

Il sr è una feature del FidelityFX, già presente assieme al DLSS in diversi titoli.
battaglia già vista ? non mi pare che il dlss preveda un hw supplementare oltre al possesso della vga, nè mi sembra che posso impedire l'esecuzione di altre funzionalità, lato sviluppatore non costa nulla il supporto nativo negli engines ( cosa già avvenuta ).

CrapaDiLegno
07-06-2021, 12:00
Raytracing senza unita' dedicate? E cosa sarebbero i ray accelerator se non unita' dedicate?
Sta cosa delle unita' dedicate sta diventando peggio di un meme :doh:

Oh, dimenticavo i fanboy con problemi di comprensione del testo...
a cosa ti stai riferendo? A quello che ha AMD ora nelle GPU o a quanto detto da Gnammy ai tempi di "Vega può fare ray tracing senza HW dedicato e anche le prossime GPU AMD lo faranno con impatto inferiore sulle prestazioni di quanto non faccia Nvidia e le sue inutili unità RT"?

k0nt3
07-06-2021, 12:23
Oh, dimenticavo i fanboy con problemi di comprensione del testo...
a cosa ti stai riferendo? A quello che ha AMD ora nelle GPU o a quanto detto da Gnammy ai tempi di "Vega può fare ray tracing senza HW dedicato e anche le prossime GPU AMD lo faranno con impatto inferiore sulle prestazioni di quanto non faccia Nvidia e le sue inutili unità RT"?
Scusa ma non posso seguire tutti i vostri battibecchi, da come l'hai scritto sembrava che AMD non avesse unita' dedicate

CrapaDiLegno
07-06-2021, 12:32
Scusa ma non posso seguire tutti i vostri battibecchi, da come l'hai scritto sembrava che AMD non avesse unita' dedicate

Non credo ci si amai stato un battibecco perché non ricordo di avergli mai risposto sicuro che poi la realtà sarebbe stata altra (come infatti è avvenuto).
Qui siamo come allora, con la sua idea che la soluzione AMD sia all'avanguardia senza l'uso di nessuna nuova funzionalità, quindi in teoria roba che poteva essere introdotta già anni fa e che è a portata di chiunque, anche di uno sviluppatore a caso, non necessariamente si è dovuto aspettare che AMD raccogliesse librerie Open per fare un purè di funzionalità grafiche old stile come si fa dal 1990 (ok, ai tempi non in real time, ma la qualità massima teorica ottenibile è fissata e conosciuta).

matsnake86
07-06-2021, 12:36
Son curioso di vedere come sarà alla prova dei fatti.

Da quanto ho capito dovranno essere i singoli giochi a supportare la funzione.

Non è come lo sharpening che lo puoi attivare direttamente dal pannello amd e funziona con qualunque gioco.

Quindi potenzialmente lo vedremo sui giochi nuovi o quelli ancora in "servizio".

Il fatto che sia open e supportabile anche da schede ormai vecchie va benissimo. L'approccio open source è sicuramente vincente.
Potrebbe decretare la morte del dlss se la tecnologia venisse adottata su tutte le piattaforme e potenzialmente migliorata col passare del tempo.

Vedremo....

ilariovs
07-06-2021, 12:40
Il 22 Giugno vedrò di aggiornare i driver e di provarlo sulla mia RX 570.

Avrei bisogno giusto di una spintarella per i 60FPS/alto su AC Origin.

Userò il preset di massima qualità perchè va bene il boost ma voglio preservare la qualità.

Per quelli che sanno gia tutto di FSR vorrei solo ricordare che è GRATIS e FACOLTATIVO. Non vi piace? Semplice oggi non lo avete fate finta di non averlo.

A me piace l'idea di avere un opzione in più sceglierò se usarlo o meno in base a come andrà. Semplice semplice.

FSR ha sicuramente dei punti di forza come il fatto che è open e multipiattaforma. Intel ha detto che lo supporterà, se non erro, e dovrebbe arrivare anche su console. Ha i presupposti per diffonsdersi velocemente.

Se va come il DLSS 1 a me parrebbe gia tantà roba (è gratis ricordo).

Attendo il 22 per vederlo all'opera.

Dark_Lord
07-06-2021, 13:01
Scusa è, ma mi sembra si tornare indietro di anni e anni ogni volta che si affrontano questi argomenti.

Beh, la storia insegna, quasi tutte le tecnologie nvidia chiuse e proprietarie sono cadute in disuso e nell'oblio, chi prima chi dopo. Alla fine, nel definire degli standard il grosso lo fanno le console e le directx, nvidia invece sembra che stia giocando una partita per conto suo, non so fino a che punto verrà premiata sul lungo periodo.

CrapaDiLegno
07-06-2021, 13:01
I
Per quelli che sanno gia tutto di FSR vorrei solo ricordare che è GRATIS e FACOLTATIVO. Non vi piace? Semplice oggi non lo avete fate finta di non averlo.


Sono tecnologie che annacquano l'evoluzione verso tecnologia all'avanguardia.
Sono queste tecnologie retrogade a fare danni quando si diffondono (perché disponibili su HW antiquato) perché impediscono a soluzioni migliori di consolidarsi.
Non si capisce il motivo di usare una soluzione del genere oggi rispetto a 10 anni fa.
Se questo è il progresso che volete, vi sta bene che AMD continui a rimanere 2 anni indietro alla concorrenza.
Speriamo che Intel introduca un vero concorrente al DLSS come annunciato per portare il mercato avanti e non indietro di 10 anni con sfocature via driver per migliorare le performance.

Chi si ricorda le polemiche sulla qualità di immagine diversi anni fa quando entrambe le case cercavano escamotage per superare di un frame la concorrenza? Oggi che lo si fa con soluzioni open è tutto a posto... è evoluzione.. anzi, RIVOLUZIONE! :mc:

Afixenc
07-06-2021, 13:01
Basito dall'ignoranza di questi utenti. Innanzitutto venite a commentare una notizia che riguarda le console, quindi parlare del dlss già non ha senso. Praticamente volete solo ostentare e motivare quei 1000 euro spesi. Il bello è che per conoscere 2-3 paroline in croce credete anche di essere esperti del settore, criticando a vuoto una tecnologia di cui non conoscete ne l'implementazione ne avete effetuato test. Siamo al limite della follia.

coschizza
07-06-2021, 13:02
Beh, la storia insegna, quasi tutte le tecnologie nvidia chiuse e proprietarie sono cadute in disuso e nell'oblio, chi prima chi dopo. Alla fine, nel definire degli standard il grosso lo fanno le console e le directx, nvidia invece sembra che stia giocando una partita per conto suo, non so fino a che punto verrà premiata sul lungo periodo.
i fatturati degli ultimi 10 anni mostrano che sono gia stati premiati abbondantemente

coschizza
07-06-2021, 13:03
Sono tecnologie che annacquano l'evoluzione verso tecnologia all'avanguardia.:

su questo non si può discutere

ninja750
07-06-2021, 13:17
Il 22 Giugno vedrò di aggiornare i driver e di provarlo sulla mia RX 570.

Avrei bisogno giusto di una spintarella per i 60FPS/alto su AC Origin.

non vorrei deluderti ma non potrai farlo: deve implementarlo ubisoft, e dubito lo faccia su odyssey figuriamoci origins. già bene che lo farà su valhalla che è tutt'ora supportato

Dark_Lord
07-06-2021, 13:19
Sono tecnologie che annacquano l'evoluzione verso tecnologia all'avanguardia.

E il DLSS no? Si tratta pur sempre di upscaling, creando informazioni e dettagli dal nulla per ingannare l'occhio, solo percorrendo due strade diverse.

Sono entrambe soluzioni con i presupposti del "voglio ma non posso", altro che mirabolanti evoluzioni tecnologiche.

coschizza
07-06-2021, 13:26
E il DLSS no? Si tratta pur sempre di upscaling, creando informazioni e dettagli dal nulla per ingannare l'occhio, solo percorrendo due strade diverse.

Sono entrambe soluzioni con i presupposti del "voglio ma non posso", altro che mirabolanti evoluzioni tecnologiche.

È diverso il dlss racchiude 3 funzioni che ti danno maggiori prestazioni con qualità pari o meglio dell originale L altro è una tecnologia legacy che esiste da un decennio che non si può inventare informazioni che non ha

Se è per questo anche la rasterizzazione è nata per il motivo “voglio ma non posso”

Perseverance
07-06-2021, 13:28
Io sono abbastanza fuori dal giro xò volevo puntualizzare qual è il peccato originale per il quale sono state introdotte DLSS e FSR. Se non erro, e dai benchmark mi sembra di no, nessuna scheda video è attualmente in grado di sostenere motori di gioco in 4K insieme all'uso di raytracing; ed anche qui, parlo da profano xkè ripeto non seguo molto l'argomento gaming, mi sembra di capire che l'uso di questa tecnologia di illuminazione sia minimo ma nonostante ciò mette in crisi l'hardware delle attuali schede video.

Sempre se non ho capito male il susseguirsi degli eventi, DLSS e FSR sono algoritmi inventati per correre ai ripari e sopperire alle oggettive carenze computazionali delle schede video in 4K.

Aldilà delle discussioni su quale algoritmo sarà meglio o peggio, la domanda da appassionato che mi pongo è: che strada verrà tracciata per il futuro? Ovvero c'è l'intenzione e la capacità di creare schede video più potenti o no?

Se "no", allora mi domando: può bastare e potrà bastare il solo potenziamento di questi algoritmi in futuro al fine di supportare con un framerate adeguato i nuovi motori di gioco con risoluzioni anche superiori al 4K?

Eppoi: che si sà sul futuro dei motori di gioco? Si passerà mai dal raster al raytracing?

Il mio pensiero è che è iniziata un'era ibrida che vede il vecchio mondo dei videogiochi raster contrapporsi alla nascita ed allo sdoganamento della tecnologia raytracing anche nell'ambiente videoludico, ma la potenza hardware messa in gioco è poca ed è solo agli inizi e non basta. Questi algoritmi vengono in soccorso. Ma quanto durerà questo periodo di transizione? Forse per sempre?

Le tre big nvidia\amd\intel hanno intenzione cmq di fabbricare hardware ibrido raster-raytracing? Fra l'hardware e gli algoritmi quali dei due avranno interesse e profitto a sviluppare con più risorse e attenzione?

Da appassionato mi piacerebbe pensare ad un potenziamento parallelo sia dell'hardware sia degli algoritmi per sopperire dove l'hardware attualmente non può, ma lo vorrei solo come toppa temporanea, un qualcosa che accetterei che durasse anche qualche anno ma senza pregiudicare lo sviluppo di nuove più potenti architetture. Xkè gli algoritmi penso che arriveranno ad un limite oltre al quale ci dovrà per forza essere l'hardware a trainare.

Mi sembra di essere tornati all'epoca in cui giocare a 1024x768 era un miraggio...

CrapaDiLegno
07-06-2021, 13:30
Beh, la storia insegna, quasi tutte le tecnologie nvidia chiuse e proprietarie sono cadute in disuso e nell'oblio, chi prima chi dopo. Alla fine, nel definire degli standard il grosso lo fanno le console e le directx, nvidia invece sembra che stia giocando una partita per conto suo, non so fino a che punto verrà premiata sul lungo periodo.
Le tecnologie proprietarie di NVidia sono però anni luce avanti a quelle surrogate "open" della concorrenza. Costano di più? Certo, perché non sono pensate per i compromessi di chi vuole risparmiare e crede che con una soluzione posticcia abbia la stessa qualità.
Vogliamo parlare del G-Sync e dei vantaggi rispetto allo standard su cui di basa FreeSync?
Vogliamo parlare di CUDA che doveva morire anni fa perché AMD aveva la tecnologia Fusion (cui scommetto nessuno ricorda nulla), poi HSA, prima lo Stream Computing, poi OpenGL, ora ROCm.. tutta roba open che non ha visto la minima adozione da nessuna parte?
Vogliamo parlare di NVLink e dei suoi vantaggi che ancora ha rispetto al PCIe 5 che deve ancora arrivare?

Tutte tecnologie cadute in disuso, certo.
Magari perché arrivate quando non c'era nulla di paragonabile sul mercato che hanno spinto gli altri ad arrivare anni dopo.

A parte poi che non è questione di aperto o chiuso ma di capacità/volontà di adozione della tecnologia (le DirectX sono chiuse mentre Vulkan aperto lo sai? Conta i giochi Vulkan vs giochi basati su DirectX), il DLSS non richiede agli sviluppatori nulla di che, non più di quanto AMD richieda per questa sua FidelityFX (forse anche meno, visto che fa quasi tutto da solo) e il vantaggio di AMD è solo la fornitura monopolistica dell'HW per le console.
Quell'HW che costantemente frena il mercato tenendolo anni indietro.

Quindi non andrei fiero del fatto che usare roba open che arriva quando va bene 2 anni dopo la "versione closed" la quale gira su HW più performante con qualità migliore sia una cosa POSITIVA.
E' un modo di accontentarsi per quel mercato che usa le console e la mini frazione di giocatori che usa l'HW AMD su PC, ma per tutti gli altri è un freno all'evoluzione.

Ad oggi, 2021, dopo 3 anni che è stato introdotto il raytracing e le unità per il ML, AMD ha HW capace di fare 1/3 del lavoro in RT e nulla di utile per quanto riguarda quello ML. E le console sono basate su questo HW (o meglio, il migliore HW delle console ha parte di queste capacità, l'altra neanche tutte).
Il ciclo di aggiornamento delle console non arriverà prima di 3 anni, quindi 2024. Nel 2024 potremo sperare che le console saranno in grado di fare RT in quantità decente e magari, forse, avere unità per un ML decente. RT e DLSS nel 2024. Magari migliori di quelle garantite da Nvidia, ma nel frattempo il mercato è evoluto per soluzioni closed, non di certo open.

Questa è la storia che proporne il mercato "open". Quello closed è in uso dal 2018 come detto. Ora scegli tu se HW antiquato che usa roba open anni dopo è un vantaggio o meno.

ilariovs
07-06-2021, 13:31
Sono tecnologie che annacquano l'evoluzione verso tecnologia all'avanguardia.
Sono queste tecnologie retrogade a fare danni quando si diffondono (perché disponibili su HW antiquato) perché impediscono a soluzioni migliori di consolidarsi.
Non si capisce il motivo di usare una soluzione del genere oggi rispetto a 10 anni fa.
Se questo è il progresso che volete, vi sta bene che AMD continui a rimanere 2 anni indietro alla concorrenza.
Speriamo che Intel introduca un vero concorrente al DLSS come annunciato per portare il mercato avanti e non indietro di 10 anni con sfocature via driver per migliorare le performance.

Chi si ricorda le polemiche sulla qualità di immagine diversi anni fa quando entrambe le case cercavano escamotage per superare di un frame la concorrenza? Oggi che lo si fa con soluzioni open è tutto a posto... è evoluzione.. anzi, RIVOLUZIONE! :mc:

A me personalmente e penso ad un fetta di utenza non proprio trascurabile di tutte ste robe sul powaaaaa interessa poco.
Sembra di rivevere la storia del freesync e del Gsync volete spendere di più ed avere il powaaaaaaa, benissimo pensate che mi impressiono?

Siete fuori strada, io ho il monitor Freesync che insieme alla RX 570 mi permette di giocare senza tearing. Rx 570 e monitor 24" FHD mi sono costati quanto il solo monitor Gsync.
Pensi forse che la cosa mi turbi? A me va benissimo così. Come mi va bene che c'è una parte dell'utenza che cerca il massimo delle prestazioni.

Sono scelte ognuno fa le proprie.

FSR è un'aggiunta quando io ho preso la 570 non c'era, quando tutti gli altri hanno comprato la GPU non c'era. Dal 22 Giugno ci sarà, io lo provo insieme a tanti altri e decido se mi interessa o meno. Se mi piace lo tengo attivo se non mi piace lo disattivo ed ho la GPU esattamente come oggi.
Poi magari il 22 Settemre esce la ver 1.1; il 22 Dicembre la versione 1.2 il 22 giugno 2022 la vers 2.0. Vediamo che succede.

Non vedo sinceramente tutta sta polemica da riempire pagine di forum per cosa? Per una cosa che puoi scegliere se usare o meno?

Non la usare e vedrai che non ti cambia nulla. Io la provo e decido.

Dark_Lord
07-06-2021, 13:36
È diverso il dlss racchiude 3 funzioni che ti danno maggiori prestazioni con qualità pari o meglio dell originale L altro è una tecnologia legacy che esiste da un decennio che non si può inventare informazioni che non ha

Se è per questo anche la rasterizzazione è nata per il motivo “voglio ma non posso”

Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.

coschizza
07-06-2021, 13:37
Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.

Eppure è così, se fosse impossibile lo avremmo visto
Il dlss non è un banale upscaler se fosse così avresti ragione ma la tecnologia alla base è molto diversa

CrapaDiLegno
07-06-2021, 13:48
Io sono abbastanza fuori dal giro xò volevo puntualizzare qual è il peccato originale per il quale sono state introdotte DLSS e FSR. Se non erro, e dai benchmark mi sembra di no, nessuna scheda video è attualmente in grado di sostenere motori di gioco in 4K insieme all'uso di raytracing; ed anche qui, parlo da profano xkè ripeto non seguo molto l'argomento gaming, mi sembra di capire che l'uso di questa tecnologia di illuminazione sia minimo ma nonostante ciò mette in crisi l'hardware delle attuali schede video.

Sempre se non ho capito male il susseguirsi degli eventi, DLSS e FSR sono algoritmi inventati per correre ai ripari e sopperire alle oggettive carenze computazionali delle schede video in 4K.

Aldilà delle discussioni su quale algoritmo sarà meglio o peggio, la domanda da appassionato che mi pongo è: che strada verrà tracciata per il futuro? Ovvero c'è l'intenzione e la capacità di creare schede video più potenti o no?

Se "no", allora mi domando: può bastare e potrà bastare il solo potenziamento di questi algoritmi in futuro al fine di supportare con un framerate adeguato i nuovi motori di gioco con risoluzioni anche superiori al 4K?

Eppoi: che si sà sul futuro dei motori di gioco? Si passerà mai dal raster al raytracing?

Il mio pensiero è che è iniziata un'era ibrida che vede il vecchio mondo dei videogiochi raster contrapporsi alla nascita ed allo sdoganamento della tecnologia raytracing anche nell'ambiente videoludico, ma la potenza hardware messa in gioco è poca ed è solo agli inizi e non basta. Questi algoritmi vengono in soccorso. Ma quanto durerà questo periodo di transizione? Forse per sempre?

Le tre big nvidia\amd\intel hanno intenzione cmq di fabbricare hardware ibrido raster-raytracing? Fra l'hardware e gli algoritmi quali dei due avranno interesse e profitto a sviluppare con più risorse e attenzione?

Da appassionato mi piacerebbe pensare ad un potenziamento parallelo sia dell'hardware sia degli algoritmi per sopperire dove l'hardware attualmente non può, ma lo vorrei solo come toppa temporanea, un qualcosa che accetterei che durasse anche qualche anno ma senza pregiudicare lo sviluppo di nuove più potenti architetture. Xkè gli algoritmi penso che arriveranno ad un limite oltre al quale ci dovrà per forza essere l'hardware a trainare.

Mi sembra di essere tornati all'epoca in cui giocare a 1024x768 era un miraggio...
IL tuo discorso è corretto e non fa una piega.
DLSS e FXR sono algoritmi creati per sostenere un HW che vorrebbe ma non può.

Il RT è una brutta bestia, capace in ingurgitare qualsiasi quantità di potenza computazionale abbia a disposizione. E il miglioramento dell'immagine è tutt'altro che proporzionale alla potenza utilizzata.
Quindi dire come andrà il mercato e come evolverà non è facile. Di sicuro RT e raster conviveranno per diversi anni. Magari alla fine adotteranno algoritmi RT supportati da AI che garantiscono risultati simile alla computazione completa ma richiedono invece solo una frazione del tempo.
Comunque l'era del path tracing completo per un gioco è distante.

La rivoluzione dell'RT (che molti hanno negato alla sua comparsa) è solo agli albori: oggi abbiamo la seconda generazione di unità dedicate da parte di Nvidia e un abbozzo di supporto da parte di AMD che è ancora concentrata per il 95% sulla rasterizzazione. Intel è una incognita, ma sapendo che non ha grande esperienza nelle unità a funzione fissa necessarie per la rasterizzazione, si può supporre (e sperare) che abbia messo più enfasi sulle unità di calcolo per meglio supportare le nuove tecnologie e non quelle vecchie.
Per cui finché il detentore delle forniture di HW per console non si deciderà ad mettersi a livello della concorrenza l'evoluzione verso forme di renderizzazione più evolute sarà rallentata.
E non sarà facile per AMD, visto la quantità di budget dei transistor investita nella rasterizzazione.. dovrà aggiungerne ancora molti altri per portarsi a livello della concorrenza con gli algoritmi moderni (e si spera fortemente, futuri).

E' ovvio che tutti vogliono offrire prodotti sempre migliori e quindi le capacità di calcolo nel futuro saranno destinate ad aumentare. Verso quale parte del mercato, rasterizzazione o ray tracing e tecnologie moderne ancora non si sa, ma sarebbe un peccato perdere questa scintilla iniziale per rimanere ancorati da scatolette che hanno un po' perso il senso rispetto alle prime versioni delle console "inserisco la cartuccia/disco e gioco sbattendomene di tutto il resto".
Sono dei PC a tutti gli effetti, solo basati su HW antiquato venduto sottocosto per aumentare la propria appetibilità che altrimenti sarebbe decisamente ridotta.

ninja750
07-06-2021, 13:53
Ovvero c'è l'intenzione e la capacità di creare schede video più potenti o no?


a meno di rivoluzioni tecnologiche che potranno venire negli anni siamo quasi arrivati al limite del PP (si parla di 5 e 3 ma di concreto ad oggi si è visto ancora poco o nulla) infatti già in questa gen puoi vedere come sono saliti i consumi per poter dare maggiori prestazioni

qualcosa verrà con l'approccio chiplet o simile, ma ogni anno le nuove schede non hanno più un aumento prestazionale o perf/watt così netto come capitato invece negli anni passati

resta poi da capire quanto sia più godibile un titolo 4k vs 1440p, se il gioco vale la candela

perchè spendere migliaia e migliaia di euro per la vga top e il monitor 4k per poi giocare a 60fps bloccati con dlss o equivalente non mi pare molto meglio che giocare a 1440p@120fps+

fosse poi anche che con tutte ste tecnologie riusciranno a fare 100+fps in 4k, quel giorno si comincerà a parlare di 5k

CrapaDiLegno
07-06-2021, 13:54
Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.

Direi proprio che hai scelto un argomento sbagliato per sostenere la tua idea.
Vedi come solo elaborate le immagini "rispetto all'originale preso dal sensore" e vedi quanto una AI aiuti (o possa farlo) oggi a migliorare l'aspetto che anche quelli che si definiscono puristi non comprendono e accettano perché facente parte della elaborazione standard di una immagine digitale.

Giusto per dire, credi che lo sharpening lo abbia inventato AMD con il FidelityFX o che con il DLSS non sia usato?
Ecco, confronta una immagine con e senza sharpening (l'originale) e poi dimmi quella che "ti sembra migliore" (senza arrivare all'overshapening che invece compromette la qualità).

nickname88
07-06-2021, 14:01
Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.

Confermo, MEGLIO dell'originale ( anche di più di quel che mi aspettavo prima di comperare la RTX ) considerando anche l'uso del TAA che è oramai l'AA di riferimento.

Su DS fra DLSS OFF e ON di sicuro un vantaggio anche minimo in termini sia di messa a fuoco, sia di aliasing che di nitidezza c'è eccome ed è a favore del DLSS contro ogni aspettativa. Non sembra proprio per niente che la risoluzione sia calata, zero proprio.
Se poi c'è qualche gioco in cui funzionale non sò, ma le potenzialità sono mostruose.

E' da mettere subito su tutti i giochi.
Altro che ray tracing, la vera rivoluzione sono queste tecnologie quì.

CrapaDiLegno
07-06-2021, 14:05
A me personalmente e penso ad un fetta di utenza non proprio trascurabile di tutte ste robe sul powaaaaa interessa poco.
Sembra di rivevere la storia del freesync e del Gsync volete spendere di più ed avere il powaaaaaaa, benissimo pensate che mi impressiono?

Siete fuori strada, io ho il monitor Freesync che insieme alla RX 570 mi permette di giocare senza tearing. Rx 570 e monitor 24" FHD mi sono costati quanto il solo monitor Gsync.
Pensi forse che la cosa mi turbi? A me va benissimo così. Come mi va bene che c'è una parte dell'utenza che cerca il massimo delle prestazioni.

Sono scelte ognuno fa le proprie.

FSR è un'aggiunta quando io ho preso la 570 non c'era, quando tutti gli altri hanno comprato la GPU non c'era. Dal 22 Giugno ci sarà, io lo provo insieme a tanti altri e decido se mi interessa o meno. Se mi piace lo tengo attivo se non mi piace lo disattivo ed ho la GPU esattamente come oggi.
Poi magari il 22 Settemre esce la ver 1.1; il 22 Dicembre la versione 1.2 il 22 giugno 2022 la vers 2.0. Vediamo che succede.

Non vedo sinceramente tutta sta polemica da riempire pagine di forum per cosa? Per una cosa che puoi scegliere se usare o meno?

Non la usare e vedrai che non ti cambia nulla. Io la provo e decido.

Guarda, io non aspetto proprio nulla perché per giocare a risoluzione 4K partendo da una immagine a 1440p uso lo scaler HW del monitor stesso che funziona da ieri senza farmi perdere né un singolo frame né un W in più di consumi.
Quindi "mi accontento" anche io e non ho bisogno di attendere che AMD realizza in SW quello che i monitor e TV fanno in HW da anni e anni.
E lo potevi fare anche tu già quando hai comprato il monitor FullHD con supporto al Freesync che insieme alla 570 ti è costato come un montori 2K con supporto a G-Sync (ti sei dimenticato di specificare IPS e calibrato).
Poi ognuno fa quello che vuole ma confrontare robe diverse con qualità diverse e dire "ho speso meno e mi accontento" non ha alcun senso.

Le tecnologie in gioco oggi sono diverse e quella presentata da AMD non è una tecnologia, è una roba non vecchia ma stra vecchia, fatta passare per nuovo metodo per aumentare le prestazioni.
Impostare la risoluzione a 1080p o 1440p e poi farla scalare dalla TV 4K è la stessa cosa. Un po' meglio, un po' peggio, ma non cambia nulla.

ghiltanas
07-06-2021, 14:23
personalmente giudicherò quando lo avrò visto realmente all'opera.

Detto questo spero ovviamente che abbia successo, sarebbe sicuramente una cosa positiva per tutti

Caddu
07-06-2021, 14:28
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.

L'unico commento degno di stima che ho letto in 2 pagine....
Per il resto del tempo pop corn in mano e datevele di santa ragione :D

Afixenc
07-06-2021, 14:31
Bello continuare a vedere questa diatriba tra fanboy nvidia vs amd. Piena di ignoranza e presa di posizione. La verità è che sia l'FSR che il DLSS sono due cavolate che tra qualche anno saranno più che dimenticate. Il RT attuale è un RT non limitato, ma proprio incomparabile a quello che dovrebbe essere. Attualmente viene "limitato" ad ombre, riflessi, qualche luce di scena, perché già questo è insostenibile a livello HW per a progettazione attuale. Il RT effettivo, con una fonte di luce che genera ombre e riflessi di conseguenza non è nemmeno calcolabile. E voi litigate sul fatto di dover aver un RT che è il 10% di quello reale e per averlo dovete giocare ad una risoluzione minore upscalata nella speranza di raggiungere almeno i 60fps che rendono un gioco fluido? dopo aver speso centinaia, se non migliaia, di euro? Leggo di gente che dice FSR è obsoleto, roba di 10 anni fa e blabla. Credete che gli algoritmi non vengono aggiornati e ottimizzati? Che non vi siano la creazione di nuovi metodi che magari portano ad uno stesso risultato ma in tempi e risultati altamente migliori? Credete che il DLSS sia il futuro? Ovvero appesantire pesantemente l'hardware solo per fare un upscaling? Leggete AI ML e vi si fondono i neuroni. NVIDIA e AMD potrebbero creare già ora schede che reggono l'RT al pieno potenziale con risultati ottimi, il problema è che quelle schede sarebbero costosissime ed utili solo in giochi unicamente basati su RT, che per ora non esistono (nemmeno tra 5 anni ci saranno). Sul resto, tra cui anche lavori di grafica, diventerebbero totalmente inutili. E poi credete che con le console attuali (tra l'altro appena uscite e che il RT non lo vedono nemmeno ad anni luce di distanza), gli sviluppatori si mettono a creare giochi che non ci girano sopra? limitati per pc quando la stragrande maggioranza gioca da console? Qui la gente sogna ed abbocca ad ogni cazzata che si sente dire. Per la rasterizzazione sia DLSS che FSR sono INUTILI, per giocare 4k l'upscaling HW di un monitor o tv dal 2k dubito fortemente che qualcuno possa notarlo e gli fps sono ottimi. Per l'8k si parla di qualcosa che attualmente per un titolo AAA non esiste proprio, DLSS FSR o meno. Ed anche in quel caso quando il 4k sarà gestito a pieno per notare l'upscaling vi servirà un monitor 80'. Datevi una svegliata.

calabar
07-06-2021, 14:37
Sempre se non ho capito male il susseguirsi degli eventi, DLSS e FSR sono algoritmi inventati per correre ai ripari e sopperire alle oggettive carenze computazionali delle schede video in 4K.
La potenza computazionale non basta. Mai.
Più ne hai, più ne hai bisogno. Quindi il 4k c'entra relativamente. Queste tecnologie sono nate semplicemente perchè ci si è resi conto che si poteva avere un vantaggio nell'utilizzarle.
Certo, oggi 4K+RT mette in ginocchio le schede video attuali di fascia alta, quindi li queste tecnologie trovano la loro naturale applicazione. Ma se ho una scheda di fascia bassa e mi accontento di giocare in FullHD, beh, ha senso applicarle per lo stesso principio.
Un domani magari gli obiettivi di resa grafica dei videogiochi saranno parametrati sull'uso di queste tecnologie, che nel frattempo si saranno consolidate rendendo ovvio il loro utilizzo per tutti.

Riguardo al ray-tracing comunque quello che servirebbe è il "coraggio", ossia nel creare un hardware in discontinuità con il passato, non più ibrido ma ottimizzato per per lavorare con questa tecnologia. Il silicio dedicato al ray-tracing oggi è solo una piccola frazione di quello di una GPU, se dedicassimo al ray-tracing la stessa quantità di silicio che oggi dedichiamo al raster avremmo di colpo prestazioni superiori di un ordine di grandezza.
Nessuno lo fa ovviamente, significherebbe l'impossibilità di far girare tutti i titoli sviluppati in precedenza.
Se qualcuno dovesse fare questo passo dubito sarebbe un produttore di schede video su PC, potrebbe però essere un produttore di consolle, che non si sono fatti grandi problemi a tagliare la compatibilità con il passato, sebbene negli ultimi anni, con le console sempre più simili ai PC, si sia puntato molto sulla retrocompatibilità. Ma l'outsider potrebbe sempre saltare fuori e sorprendere tutti.

Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.
Stai facendo la solita confusione tra qualità dell'immagine e fedeltà all'originale.
E, se ci pensi bene, nei videogiochi l'output "originale" non è altro che un'immagine creata con strumenti di approssimazione nati per garantire prestazioni sufficienti, molto lontana da quello che sarebbe uno scenario reale. Introdurre un po' di "invenzione" con l'AI su un'immagine già di per se molto lontana dal reale non mi pare un così grave peccato, soprattutto se serve a migliorarne la resa finale.

Maury
07-06-2021, 15:09
Perdonami, ma meglio dell'originale non si può sentire, è proprio impossibile, è come dire che una foto upscalata con rete neurale è meglio di una foto nativa, è imbarazzante anche solo da pensare una cosa simile, al massimo puoi dire che al tuo occhio -ingannato- sembra sia meglio, ma sarebbe comunque una bestemmia per i puristi.

E' possibilissimo, fidati, basta provarlo ;)

CrapaDiLegno
07-06-2021, 15:19
Bello continuare a vedere questa diatriba tra fanboy nvidia vs amd. Piena di ignoranza e presa di posizione. La verità è che sia l'FSR che il DLSS sono due cavolate che tra qualche anno saranno più che dimenticate. Il RT attuale è un RT non limitato, ma proprio incomparabile a quello che dovrebbe essere. Attualmente viene "limitato" ad ombre, riflessi, qualche luce di scena, perché già questo è insostenibile a livello HW per a progettazione attuale. Il RT effettivo, con una fonte di luce che genera ombre e riflessi di conseguenza non è nemmeno calcolabile. E voi litigate sul fatto di dover aver un RT che è il 10% di quello reale e per averlo dovete giocare ad una risoluzione minore upscalata nella speranza di raggiungere almeno i 60fps che rendono un gioco fluido? dopo aver speso centinaia, se non migliaia, di euro? Leggo di gente che dice FSR è obsoleto, roba di 10 anni fa e blabla. Credete che gli algoritmi non vengono aggiornati e ottimizzati? Che non vi siano la creazione di nuovi metodi che magari portano ad uno stesso risultato ma in tempi e risultati altamente migliori? Credete che il DLSS sia il futuro? Ovvero appesantire pesantemente l'hardware solo per fare un upscaling? Leggete AI ML e vi si fondono i neuroni. NVIDIA e AMD potrebbero creare già ora schede che reggono l'RT al pieno potenziale con risultati ottimi, il problema è che quelle schede sarebbero costosissime ed utili solo in giochi unicamente basati su RT, che per ora non esistono (nemmeno tra 5 anni ci saranno). Sul resto, tra cui anche lavori di grafica, diventerebbero totalmente inutili. E poi credete che con le console attuali (tra l'altro appena uscite e che il RT non lo vedono nemmeno ad anni luce di distanza), gli sviluppatori si mettono a creare giochi che non ci girano sopra? limitati per pc quando la stragrande maggioranza gioca da console? Qui la gente sogna ed abbocca ad ogni cazzata che si sente dire. Per la rasterizzazione sia DLSS che FSR sono INUTILI, per giocare 4k l'upscaling HW di un monitor o tv dal 2k dubito fortemente che qualcuno possa notarlo e gli fps sono ottimi. Per l'8k si parla di qualcosa che attualmente per un titolo AAA non esiste proprio, DLSS FSR o meno. Ed anche in quel caso quando il 4k sarà gestito a pieno per notare l'upscaling vi servirà un monitor 80'. Datevi una svegliata.

Che il RT sia limitato non lo mette in dubbio nessuno.
Ma già il suo uso per la luce globale rende la scena molto più realistica.
Se devo scegliere tra una luce realistica accompagnata da uno scaler AI e una scena ad alta risoluzione senza la luce RT, preferisco di gran lunga la prima.
Il DLSS, così come tutta una serie di algoritmi con supporto all'AI sono il futuro. Non solo scaling dell'immagine, ma anche lo stesso processo di RT può essere migliorato tramite AI. Senza contare che le unità AI possono finalmente creare giochi con una intelligenza vera e non solo scriptate.

E no, neanche se oggi occupassero il 100% dell'area della GPU con unità dedicate al RT si riuscirebbe ad avere giochi sufficientemente veloci se non aiuti il tutto con filtraggi. E le unità RT usate oggi accelerano solo una parte dell'algoritmo di RT, il resto lo devi comunque calcolare con la potenza bruta.
Quindi tante più unità di BVH aggiungi, tante più unità di calcolo puro devi mettere perché se ne tragga beneficio.

E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, perché per progettare l'HW per una console servono X soldi, ma per avere tutto l'ecosistema che supporta tale HW in modo da venderne più d 5 e con il porting dei giochi da altre piattaforme bisogna investire 20 o 30X.
L'unica speranza è che uno dei due produttori di console casalinghe cambi idea e adotti un altro fornitore in modo che si inneschi una sorta di competizione interna a chi fa meglio, come era un tempo, non a chi fa a meno prezzo per svendere meno in sottocosto.

Visto che Nvidia non è mai stata interessata a vendere HW a basso costo per le console a discapito dei prodotti a maggiore margine, magari Intel con le nuove GPU e la garanzia di una capacità produttiva maggiore riuscirà a entrare e a portare finalmente un po' di modernità nel mercato con contemporaneamente una buona pubblicità e un supporto diretto al suo HW. Cosa che credo abbia bisogno essendo l'ultima entrata nel gioco.

E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)?

E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS.

coschizza
07-06-2021, 15:51
Riguardo al ray-tracing comunque quello che servirebbe è il "coraggio", ossia nel creare un hardware in discontinuità con il passato, non più ibrido ma ottimizzato per per lavorare con questa tecnologia. Il silicio dedicato al ray-tracing oggi è solo una piccola frazione di quello di una GPU, se dedicassimo al ray-tracing la stessa quantità di silicio che oggi dedichiamo al raster avremmo di colpo prestazioni superiori di un ordine di grandezza.



con solo il RT i giochi non possono funzionare l'RT fa solo una minima parte dei calcoli necessari il resto è fatto dagli shader quindi non è possibile fare quello che chiedi e per avere una gpu potente abbastanza da poter usare il full RT dovresti avere una potenza di almeno un paio di ordini di grandezza superiore quindi se ne parla fra qualche decennio.
Oggi nemmeno con un server nvidia DGX A100 da 200.000€ puoi fare il path tracing in tempo reale numeri alla mano e ci metteremo generazioni su generazioni per avere in un pc di casa un sistema potenza almeno x volte quello che ti ho citato. L'ibrido ci accompagnerà per chissà quanti decenni ma è giusto cosi ogni sistema ha i suoi pro e contro quindi un sisteva full RT non ha senso se lo scopo e muovere un videogioco dove per avere un certo effetto potevi usare un sistema convenzionale con una frazione del costo e performance.

Afixenc
07-06-2021, 15:56
Che il RT sia limitato non lo mette in dubbio nessuno.
Ma già il suo uso per la luce globale rende la scena molto più realistica.
Se devo scegliere tra una luce realistica accompagnata da uno scaler AI e una scena ad alta risoluzione senza la luce RT, preferisco di gran lunga la prima.
Il DLSS, così come tutta una serie di algoritmi con supporto all'AI sono il futuro. Non solo scaling dell'immagine, ma anche lo stesso processo di RT può essere migliorato tramite AI. Senza contare che le unità AI possono finalmente creare giochi con una intelligenza vera e non solo scriptate.

E no, neanche se oggi occupassero il 100% dell'area della GPU con unità dedicate al RT si riuscirebbe ad avere giochi sufficientemente veloci se non aiuti il tutto con filtraggi. E le unità RT usate oggi accelerano solo una parte dell'algoritmo di RT, il resto lo devi comunque calcolare con la potenza bruta.
Quindi tante più unità di BVH aggiungi, tante più unità di calcolo puro devi mettere perché se ne tragga beneficio.

E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, perché per progettare l'HW per una console servono X soldi, ma per avere tutto l'ecosistema che supporta tale HW in modo da venderne più d 5 e con il porting dei giochi da altre piattaforme bisogna investire 20 o 30X.
L'unica speranza è che uno dei due produttori di console casalinghe cambi idea e adotti un altro fornitore in modo che si inneschi una sorta di competizione interna a chi fa meglio, come era un tempo, non a chi fa a meno prezzo per svendere meno in sottocosto.

Visto che Nvidia non è mai stata interessata a vendere HW a basso costo per le console a discapito dei prodotti a maggiore margine, magari Intel con le nuove GPU e la garanzia di una capacità produttiva maggiore riuscirà a entrare e a portare finalmente un po' di modernità nel mercato con contemporaneamente una buona pubblicità e un supporto diretto al suo HW. Cosa che credo abbia bisogno essendo l'ultima entrata nel gioco.

E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)?

E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS.

Si la scena è più realistica, ma attualmente in un gioco lo vedi solo in alcune scene nettamente limitate. Nel resto del gioco non c'è differenza. Ti ripeto che il DLSS non è per niente il futuro, è solo una tecnologia che fa da ponte per il futuro, ma qui sarà il tempo a stabilire chi ha ragione. "Algoritmi con supporto all'AI" mi fa un po sorridere, non credo tu sia un programmatore da questa frase. L'AI in altri ambiti è un discorso a parte.

Ora ti assicuro che è al 100% fattibile creare una GPU univocamente per il RT con risultati ottimali, ma ti ripeto il costo e lo spettro di utilizzo sono cosi insensati che non ha alcun senso produrla. L'algoritmo di cui parli è già di forza bruta, AI e forza bruta non sono due cose in contrapposizione, ritorno al fatto che non credo tu sia un programmatore.

" E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)" Questa è una cavolata grossa quanto una casa basata su supposizioni personali senza un minimo di conoscenza teorica, non ha senso rispondere.

L'utilizzo del FSR o altro non esclude l'utilizzo di altre tecniche, non vedo quale sia il problema o il rischio di mettere in ombra.

CrapaDiLegno
07-06-2021, 17:08
Andiamo con ordine, che qui siamo al livello demenziale massimo.

Si la scena è più realistica, ma attualmente in un gioco lo vedi solo in alcune scene nettamente limitate. Nel resto del gioco non c'è differenza. Ti ripeto che il DLSS non è per niente il futuro, è solo una tecnologia che fa da ponte per il futuro, ma qui sarà il tempo a stabilire chi ha ragione. "Algoritmi con supporto all'AI" mi fa un po sorridere, non credo tu sia un programmatore da questa frase. L'AI in altri ambiti è un discorso a parte.

Sì, sono programmatore e quanto detto è reale.
Che tu non veda i miglioramenti in altre scene è tua personale incapacità di comprendere la qualità dell'illuminazione globale anche durante movimenti rapidi.

DLSS e algoritmi che supportano i calcoli brute force sono il futuro per permettere di calcolare cose che altrimenti richiederebbero molto più tempo. Il DLSS è una applicazione che sfrutta l'AI per l'immagine finale ma niente vieta di usare algoritmi con l'AI anche per il puro calcolo a monte per gli effetti.
Ovviamente questo richiede HW capace (e diffuso abbastanza come oggi l'HW ha ROPs e TMUs) ma visto che stiamo parlando di anni di evoluzione futura della grafica, le unità per il calcolo degli algoritmi AI sono e saranno sempre più importanti (che siano nella GPU o su un modulo a parte come nei SoC dei cellulari poco importa.. ah, lo sai vero che tutti i SoC per cellulare hanno unità per il calcolo di algoritmi AI enhanced.. ma sì, DLSS e più in generale unità per l'AI sono solo una transizione, certo, certo.. come dire che anche l'AA sarebbe stato passeggero e che prima o poi saremmo giunti al punto in cui non sarebbe servito... roba passeggera).


Ora ti assicuro che è al 100% fattibile creare una GPU univocamente per il RT con risultati ottimali, ma ti ripeto il costo e lo spettro di utilizzo sono cosi insensati che non ha alcun senso produrla. L'algoritmo di cui parli è già di forza bruta, AI e forza bruta non sono due cose in contrapposizione, ritorno al fatto che non credo tu sia un programmatore.

Guarda, questa tua convinzione che per 4 parole che manco hai compreso in toto io non sarei un programmatore mi fa ridere di cuore.
Infatti nella tua pochezzza puoi giusto credere (ah, no mi assicuri con le tue conoscenze di cosa?) che una GPU realizzata oggi con solo HW per il raytracing sia capace di fare path tracing di una scena completa. Ovviamente senza supporto alle unità di calcolo normali che non fanno nulla durante il calcolo RT, fa tutto l'unità HW RT! Basta metterne 1000, ma no che dico, 10000 e via, l'algoritmo si calcola da solo.


" E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)" Questa è una cavolata grossa quanto una casa basata su supposizioni personali senza un minimo di conoscenza teorica, non ha senso rispondere.

Ahahah, certo, infatti si vede come conosci bene l'argomento.
Lo sai vero che pure gli scaler delle TV usano algoritmi di AI per gestire lo scaling senza i quali la qualità sarebbe decisamente peggiore?
Ma no, dai, usiamo la matematica come 30 anni fa che si ottengono risultati migliori! Stupidi ingegneri che progettano chip complessi e costosi con supporto ai calcoli AI quando con 3 unità a funzione fissa potrebbero facilmente fare scaling interpolando immagini a risoluzione maggiore con qualità maggiore.
Forse sei tu che non sai come funziona la teoria dell'interpolazione classica (quella proposta da AMD con il suo rivoluzionario SR): ebbene in poche parole.. non puoi ottenere dettaglio dove non l'hai calcolato, per cui l'immagine finale avrà una qualità inferiore a una che tali dettagli li ha, e pure peggio se scalata. Che è poi il principio dell'uso della risoluzione più alta (oh Shannon, dove sei!), ovvero avere i dettagli presenti là dove la bassa risoluzione li toglierebbe. Partire da una risoluzione bassa e fare mille calcoli di interpolazione, sharpening, streching e scalatura non permette di aggiungere alcun dettaglio mancante.
Infatti nei giochi dove hai capacità di calcolo in abbondanza fai proprio l'opposto, ovvero usi il DSR (se non sai cosa è cercatelo) per aumentare i dettagli reali dell'immagine e non quelli apparenti dovuti a sharpening.

Mi spiace per te e il fatto che pensi che sia basato su supposizioni personali senza conoscenza tecnica si vede che siamo programmatori a livelli differenti.


L'utilizzo del FSR o altro non esclude l'utilizzo di altre tecniche, non vedo quale sia il problema o il rischio di mettere in ombra.

Non esclude l'uso di altre tecniche ma non è necessariamente compatibile con esse. Il VRS già usa risoluzioni inferiori per parti dell'immagine e fare calcoli a bassa risoluzione e scalarli 2 volte non è il massimo e la qualità finale ne risente. Stessa cosa per molti degli effetti RT che sono calcolati a risoluzione inferiore e già riscalati dal motore del gioco.
In più il DLSS usa già i suoi algoritmi di sharpening e AA, e applicarli 2 volte non è per niente un bene (se conosci la teoria del degrado del segnale).
Quindi l'idea di usare il semplice scaler HW del monitor/TV non è proprio così campata in aria. Sempre che ci vedi bene, se hai la TV da 32pollici a 4 metri e non ti accorgi della festa di sfocature che vedrai con la doppia riscalatura, allora inutile parlare.. ma sicuro a quel punto ti basta lo scaler della TV senza fomentare inutili dubbi su una qualità che non c'è e non può esserci.

Quello che qui sembra nona vere alcuna conoscenza in materia sei tu che credi che da oggi al domani (anzi 22 Giugno) le teorie si cui si è basata l'elaborazione delle immagini negli ultimi 30 anni sarà "rivoluzionata".
Puoi credere quello che vuoi ma senza alcuna esposizione delle cose fai solo la figura dell'allocco a cui si propone l'acqua calda da microonde e la si fa passare come l'ultimo ritrovato per fare nuove bevande calde, cosa prima impossibile perché l'acqua non era riscaldata in quella maniera.
Spiacente aver sgretolato le tue convinzioni infantili che Babbo Natale esiste e chi pensa di no lo fa su convinzioni personali che non meritano di essere commentate.

Non sei diverso da quei poveretti che credevano che AMD avrebbe realizzato ray tracing senza HW dedicato, anzi su HW già realizzato con altre capacità in mente, solo perché si chiama AMD e usa roba open. E per fortuna che ci ha messo un abbozzo di unità dedicata nelle nuove GPU, altrimenti sai che figura!

k0nt3
07-06-2021, 17:08
E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS.
Fammi vedere una comparazione tra l'interpolazione del tuo monitor e FSR e poi ne riparliamo, per ora stai parlando di aria fritta :rolleyes:
Quale persona sana di mente puo' criticare una tecnologia aperta che potenzialmente puo' allungare la vita del tuo hardware?

nickname88
07-06-2021, 17:21
Complimenti a tutti per i commenti, sembra di stare in un asilo (nido).

Se AMD diventa competitiva è un bene per il mercato, ma è un ragionamento troppo complesso evidentemente.

Il punto non è la competitività di AMD ma quello di rischiare che prenda piede la tecnologia inferiore.

calabar
07-06-2021, 17:24
con solo il RT i giochi non possono funzionare l'RT fa solo una minima parte dei calcoli necessari il resto è fatto dagli shader quindi non è possibile fare quello che chiedi e per avere una gpu potente abbastanza da poter usare il full RT dovresti avere una potenza di almeno un paio di ordini di grandezza superiore quindi se ne parla fra qualche decennio.
Oggi, certo.
Ma un domani questo salto potrebbe avvenire, e secondo me non sarebbe neppure un domani così lontano. Magari tra una o due generazioni di consolle, con qualche aiutino e un hardware sempre più specifico per questo genere di calcoli.

Il paragone con il server da duecentomila euro non è del tutto azzeccato, il rendering in tempo reale ha esigenze di precisione molto inferiori e può essere "aiutato" dal post processing con risultati accettabili.
Ma già sulle schede attuali hanno fatto girare Quake 2, ora immagina di partire da una base di risorse di calcolo 10 volte superiori (anzi di più considerando che girava sulle geforce 2xxx), le applicazioni comincerebbero a diventare più interessanti.

Chiariamoci, prima o poi questo salto avverrà, come si è passati dai giochi in 2D a quelli in 3D, che richiedevano molte più risorse e agli esordi avevano una bella grafica cubettosa (che di conseguenza appariva molto più scarsa di quella dei giochi in due dimensioni), ma alla fine la strada era segnata e ci ha portato fino ai risultati odierni.


E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, ...
Io invece credo molto nell' "outsider" proprio perchè non necessita di supportare il software passato, cosa impossibile su un chip che si lascia dietro gran parte delle unità di calcolo che servivano in passato.
Immagina una situazione come quella della Wii o della Switch, che non si sono messi in competizione diretta con le altre consolle, hanno tagliato abbondantemente sulla retrocompatibilità e che nei loro giochi non miravano alla stessa grafica (risoluzione/dettaglio) di PS e XboX: con un target grafico minore, con aiuti tipo DLSS, senza problemi di supportare i titoli passati la cosa diventerebbe fattibile, e potrebbero fregiarsi di essere la prima consolle con grafica completamente calcolata in ray-tracing. ;)

k0nt3
07-06-2021, 17:39
Il punto non è la competitività di AMD ma quello di rischiare che prenda piede la tecnologia inferiore.
Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici :sofico:
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.

CrapaDiLegno
07-06-2021, 17:50
Fammi vedere una comparazione tra l'interpolazione del tuo monitor e FSR e poi ne riparliamo, per ora stai parlando di aria fritta :rolleyes:
Quale persona sana di mente puo' criticare una tecnologia aperta che potenzialmente puo' allungare la vita del tuo hardware?

Eh, appunto quello che dicevo la comparazione non è semplice perché non si può catturare l'output interpolato del monitor se non tramite una conversione analogica che fa perdere ulteriori dettagli.
E comunque NO, non allunga un bel niente, visto che come detto gioco felicemente con un monitor 4K e una grafica calcolata con una risoluzione inferiore già da ieri e con TUTTO il parco SW esistente, senza aspettare AMD e i titoli che supporteranno la sua inutile feature.

Quindi dimostrami tu che questa tecnologia è quella che stavamo aspettando per migliorare graficamente i titoli di ieri (e non solo quelli di domani) e che non si sarebbe potuto avere di meglio se AMD non avesse lesinato sulla progettazione delle nuove GPU.

Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici :sofico:
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.

Questo perché l'HW creato da AMD è inferiore a quello della concorrenza. Ecco perché parlo di freno allo sviluppo e solo tanto fumo negli occhi per creare qualcosa che sarebbe potuta benissimo essere stata fatta anche anni fa per ovviare ad un problema con le stesse identiche modalità che fanno già monitor e TV in HW (con queste ultime decisamente avanti con il supporto di AI per risultati migliori).
Anzi, anni fa era stata fatta ed era scoppiato il caso della minore definizione usata in questo o quel gioco da parte di una o dell'altra casa pur di guadagnare qualche frame nei titoli dove barcollavano.
Oggi che lo fa AMD con una soluzione Open è la panacea a tutti i mali prestazionali... per i fanboy AMD e per chi non capisce che è un male al progresso invece che un miglioramento.

Perché vorrei HW concorrenziale migliore in termini di prestazioni reali a prezzi ragionevoli, non soluzioni posticce per cercare di ovviare a buchi di progettazione "e allungare la vita di roba obsoleta" come si sta facendo con questa soluzione che non capisco come faccia ad essere accettata da chi fino a ieri criticava come un forsennato la prima versione del DLSS "che era un imbroglio e non permetteva di fare confronti perché la qualità era diversa e ben peggiore".

E come si diceva ai tempi, bastava che AMD proponesse qualcosa di simile e voilà, cambio di fase e tutti a glorificare il blur e lo sfocamento condito da sharpenfing a manetta per cercare di nascondere la nebbia artificiale.

nickname88
07-06-2021, 17:54
Più che un rischio è una certezza, da che mondo è mondo prende piede la tecnologia più accessibile, non la tecnologia superiore. Altrimenti il concetto stesso di PC non avrebbe senso e tutti (o meglio pochi) avremmo supercomputer domestici :sofico:
Detto questo non credo sia un male raggiungere più persone possibile e non soltanto un'elite di privilegiati. FSR sarà pur sempre un miglioramento rispetto alla situazione attuale.Nvidia ha l'80% del market share delle discrete.

k0nt3
07-06-2021, 18:16
Nvidia ha l'80% del market share delle discrete.
Si, ma grazie a modelli come la GTX 1060 che sono accessibili, non certo grazie alle RTX 3090

CrapaDiLegno
07-06-2021, 18:19
Io invece credo molto nell' "outsider" proprio perchè non necessita di supportare il software passato, cosa impossibile su un chip che si lascia dietro gran parte delle unità di calcolo che servivano in passato.
Immagina una situazione come quella della Wii o della Switch, che non si sono messi in competizione diretta con le altre consolle, hanno tagliato abbondantemente sulla retrocompatibilità e che nei loro giochi non miravano alla stessa grafica (risoluzione/dettaglio) di PS e XboX: con un target grafico minore, con aiuti tipo DLSS, senza problemi di supportare i titoli passati la cosa diventerebbe fattibile, e potrebbero fregiarsi di essere la prima consolle con grafica completamente calcolata in ray-tracing. ;)

Purtroppo come detto realizzare HW superiore non è il punto fondamentale per avere un mercato per la propria console.
Quello che contano sono i titoli e i titoli li hai se all'inizio paghi per lo sviluppo per il tuo HW che ha diffusione zero.
La CdL console avrebbe chance zero di vendere più di 5 pezzi anche se fosse 10 volte più potente della XBox Serie X. Ma anche la CalbarUltimate Console con supporto alla grafica olografica se per questo. E se presentate entrambe non arriveremmo a 10 pezzi in totale perché qualcuno degli acquirenti in comune potrebbe decidere di comprarne solo 1 delle 2.

Nintendo è proprio la casa i cui giochi cartooneschi e un po' bambineschi godrebbero di meno dell'uso del ray tracing per cui non credo sia la funzione principale che Nintendo ha chiesto a Nvidia con il nuovo SoC. Certo, "supporto al raytracing" oggi lo devi scrivere da qualche parte, ma anche su PC si vede che tale supporto può valere zero se i giochi si limitano a tracciare 2 raggi e a renderizzare 100 pixel con quella tecnica influendo zero sulla qualità finale dell'immagine (ma poter dire, hey, il raytracing c'è!). Magari anche con effetti RT precalcolati come nel caso di Intel e il giochino dei carri armati.

Io non nutro alcuna speranza a meno che Sony o MS si decidano a fare il cambio magari allettati da una possibile diversificazione dalla concorrenza per lasciarla al palo con una mossa inaspettata.
Si, ma grazie a modelli come la GTX 1060 che sono accessibili, non certo grazie alle RTX 3090

E' ad HW di livello accessibile che AMD deve rispondere con HW altrettanto valido e non presentare le stessa minestra riscaldata 10 volte solo un po' più veloce.
Se al posto di quell'inutilità di RDNA1 AMD avesse presentato qualcosa con funzionalità nuove simili a quelle di Turing oggi saremmo una generazione avanti con le caratteristiche moderne sfruttate molto di più invece che parlare di un inutile sistema di interpolazione per risoluzioni maggiori che non serve a nessuno se non a chi appunto ha comprato HW obsoleto e non sa che può fare le stesse cose tramite lo scaler della propria TV e aspetta la soluzione AMD per "allungare la vita del proprio HW" accettando cose che anni fa erano pesantemente criticate anche solo pensarle.

Roba da pazzi solo a sentirla. Ma si sa, AMD può lvareil cervello meglio che Apple quando si presenta con queste soluzioni che rendono il proprio HW obsoleto "fine wine".

k0nt3
07-06-2021, 18:24
Eh, appunto quello che dicevo la comparazione non è semplice perché non si può catturare l'output interpolato del monitor se non tramite una conversione analogica che fa perdere ulteriori dettagli.
E comunque NO, non allunga un bel niente, visto che come detto gioco felicemente con un monitor 4K e una grafica calcolata con una risoluzione inferiore già da ieri e con TUTTO il parco SW esistente, senza aspettare AMD e i titoli che supporteranno la sua inutile feature.

Quindi dimostrami tu che questa tecnologia è quella che stavamo aspettando per migliorare graficamente i titoli di ieri (e non solo quelli di domani) e che non si sarebbe potuto avere di meglio se AMD non avesse lesinato sulla progettazione delle nuove GPU.

Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?

Questo perché l'HW creato da AMD è inferiore a quello della concorrenza blabla

Smettila con le discussioni da bar

ionet
07-06-2021, 19:37
Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?

Smettila con le discussioni da bar

e' chiaramente stizzito che amd ha presentato una tecnologia simile per il fine(anche se sicuramente inferiore come qualita') praticamente gratis e senza investimenti:D

se era possibile farlo prima? probabile ma il mercato, i consumatori ti giudicano con la cultura del periodo
anni fa se provavi a presentare un escamotage simile, saresti stato linciato da redazioni e puristi della qualita';)
oggi? nvidia ha fatto da apripista, ha investito in hw e marketing, ha sbolognato l'idea che inventarsi pixel in nome delle prestazioni e' cosa buona e giusta

ha cambiato, imposto nuovi bisogni, oggi vanno di moda monitor da millemilaHertz, poi per colpa della carenza di chip(per pandemia e mining) in giro sono rimaste solo qualche 710/1030 e le integrate.. le prestazioni adesso sono tutto pazienza se si perde un po di qualita'
il 22 quando amd presentera' sta ciofeca, il mondo sara' concentrato piu' alle prestazioni, grazie al recupero di tutto quel che si trova o si ha gia',verra' visto appunto come una caratteristica fica ;)
e indovinate un po di chi e' la colpa?:asd:

calabar
07-06-2021, 19:40
Quello che contano sono i titoli e i titoli li hai se all'inizio paghi per lo sviluppo per il tuo HW che ha diffusione zero.
Certo, come è sempre accaduto.
La retrocompatibilità è moda recente, prima era l'eccezione, le consolle uscivano con i titoli sviluppati per loro, esattamente quello che sarebbe necessario fare con una consolle "raytracing" come quella di cui parlavo.

Comunque ho parlato di Nintendo per fare un esempio di prodotti innovativi che cercando di differenziarsi dalla concorrenza, e che hanno avuto successo. Non intendevo dire che Nintendo dovesse essere l'outsider.

Ma ti rendi conto che stai parlando di una tecnologia che non è ancora uscita e hai già bollato come inutile?
@CrapaDiLegno
Su questo non gli si può proprio dare torto.
Anche a me ha deluso molto sia la decisione di non puntare sul ML (che avrebbe portato ad un vero concorrente di DLSS2) sia il risultato che hanno mostrato (che molti paragonano a DLSS1), ma non ha senso fare una crociata su una tecnologia che ancora non si conosce solo perchè si pensa di sapere come dovrà funzionare.
Manca poco, aspettiamo e vediamo cosa tirano fuori, a quel punto se non sarà soddisfacente avremo ottimi motivi per parlarne male. ;)

Roba da pazzi solo a sentirla. Ma si sa, AMD può lvareil cervello meglio che Apple quando si presenta con queste soluzioni che rendono il proprio HW obsoleto "fine wine".
Stai cominciando a parlare come Grammy però! :asd:
Ti sta assimilando?

ciolla2005
07-06-2021, 22:00
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.


Mi aspetto che non sia nulla che non si sia potuto applicare anche ieri con un semplice effetto di post processing al più aiutato da una interpolazione temporale (quindi con necessità di supporto attivo da parte degli sviluppatori dei giochi).
Direi che è un semplice tentativo di proporre una panacea ad un problema che esiste da anni e che per altrettanti anni è stato affrontato nello stesso modo. Fino all'arrivo del DLSS. Questa nuova versione di algoritmi di interpolazione di dati non è nulla di nuovo e nulla di nuovo porterà sul mercato.
Però è made AMD, è open e quindi sarà una rivoluzione per tutto il mercato.
Il VRS lo hanno inventato così, giusto per fare interpolare ancora una volta di più una risoluzione ancora più bassa, giusto per dire. Ah, no, era il tentativo di inserire l'uso di una risoluzione inferiore solo nelle parti della scena dove questo non avrebbe intaccato più di tanto la qualità dell'immagine... eh, giusto, la rivoluzione è invece fare un scaler SW di tutta la scena con i soli dati della scena a bassa risoluzione... che dire... RIVOLUZIONARIO!

Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...

coschizza
07-06-2021, 22:02
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...

Se non sai come funziona il dlss non è un problema ma non metterti a pontificare su cose che non sai fai solo brutta figura

nickname88
07-06-2021, 22:26
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...
Certo che ne spari di caxxate ! :rolleyes:
DLSS2 leggermente migliorato certo, in realtà è cambiato completamente.
Il CAS di AMD non centra un tubazzolo con DLSS e SR.

CrapaDiLegno
07-06-2021, 23:15
Continuate a credere alle supercazzole dei supercomputer che "elaborano immagini che poi in qualche modo vengono integrati nei driver ecc ecc..."

Il DLSS faceva pena e pietà, poi AMD pubblica FFX CAS e magicamente esce il DLSS 2 che è leggermente migliorato...

Qui si rasenta il ridicolo del ridicolo.
Credo che sia inutile continuare a discutere di tecnologia con chi ancora crede che la terra sia piatta, non sa cosa sia un algoritmo supporto dalla'AI (definirlo algoritmo di AI mi sembra un po' esagerato) e crede che la matematica sia un'opinione e bisogna vedere altrimenti non ci si crede, come se 30 anni di storia di elaborazioni dell'immagine possa essere rivoluzionata in 2 mesi, a no 2 ormai sono oltre 2 anni, di ottimizzazione di algoritmi implementabili da funzioni fisse.

:muro:

Vabbe' rinuncio.
Fatemi divertire a cercare di difendere l'indifendibile solo perché "è AMD e soprattutto è open" (che è meglio a prescindere secondo alcuni di voi).
Tanto le cose con cambieranno: chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità, chi userà queste mezze soluzioni provenienti dal secolo scorso rimarrà con le immagini sfocate e sharpening a manetta e si inventerà giustificazione ridicole per accettarle (quando prima.. oh, che ribrezzo il pixel errato, o ma siamo matti che si deve diminuire la qualità dell'immagine per andare più velocemente? Che truffa!).
Film già visto e neanche tanto tempo fa (RT? Roba che non serve a nulla e passeggera che si fa anche senza HW dedicato.. e intanto i transistor nelle GPU AMD si moltiplicano come i fermenti lattici e ancora non è a livello delle funzionalità offerte dalla concorrenza).

Max Power
08-06-2021, 00:03
Qui si rasenta il ridicolo del ridicolo.
Credo che sia inutile continuare a discutere di tecnologia con chi ancora crede che la terra sia piatta, non sa cosa sia un algoritmo supporto dalla'AI (definirlo algoritmo di AI mi sembra un po' esagerato) e crede che la matematica sia un'opinione e bisogna vedere altrimenti non ci si crede, come se 30 anni di storia di elaborazioni dell'immagine possa essere rivoluzionata in 2 mesi, a no 2 ormai sono oltre 2 anni, di ottimizzazione di algoritmi implementabili da funzioni fisse.

:muro:

Vabbe' rinuncio.
Fatemi divertire a cercare di difendere l'indifendibile solo perché "è AMD e soprattutto è open" (che è meglio a prescindere secondo alcuni di voi).
Tanto le cose con cambieranno: chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità, chi userà queste mezze soluzioni provenienti dal secolo scorso rimarrà con le immagini sfocate e sharpening a manetta e si inventerà giustificazione ridicole per accettarle (quando prima.. oh, che ribrezzo il pixel errato, o ma siamo matti che si deve diminuire la qualità dell'immagine per andare più velocemente? Che truffa!).
Film già visto e neanche tanto tempo fa (RT? Roba che non serve a nulla e passeggera che si fa anche senza HW dedicato.. e intanto i transistor nelle GPU AMD si moltiplicano come i fermenti lattici e ancora non è a livello delle funzionalità offerte dalla concorrenza).

Certo, lo stesso "hardware dedicato": i mitici tensor core che servivano assolutamente per l'RTX Audio, poi si editava un file e magicamente funzionava sulle GTX. :doh:

Oppure il processore integrato nei monitor per le immagini così da avere il Gsync, assolutamente hardware fondamentale :doh:
Peccato poi che il Freesync faccia la stessa cosa senza cianfrusaglie inutili e costose.

E utimamente Nvidia cosa ha fatto? Ha passato il tempo a scopiazzare. :read:

AMD fa L'anti-lag; tempo di quanlche settimana che esce Reflex. :rolleyes:

AMD se ne esce con SAM ed Nvidia "Lo sappiamo fare anche noi" :rolleyes:


Il discorso della qualità DLSS 2... dipende da come lo setti. Che non mi si venga a raccontare la storiella: "chi ha la possibilità di usare il DLSS avrà immagine pressoché nitide e di qualità" ...magari in ultra performance...certo, come no :rolleyes:
Ci sono i settaggi di qualità esattamente come l'FSR o come lo è per il CAS.


La vera realtà è che l'unico colpo l'ha fatto con gli Rt Core, anche se si è dovuto aspettare quasi due anni prima che si vedesse qualcosa di fatto ad arte.

E quel qualcosa è ovviamente stato finaziato da Nvidia ed ovviamente è ottimizzato per le RTX.
Ora che escono i titoli ottimizzati per AMD in ray tracing si faranno i conti.

E basta con sti pregiudizi prima del tempo.

Con gli Nvidiari della casa marrone non si può ragionare: LAMENTONI!

ciolla2005
08-06-2021, 00:09
Se non sai come funziona il dlss non è un problema ma non metterti a pontificare su cose che non sai fai solo brutta figura

Un conto sono le comunicazioni di marketing, un altro è la realtà...

ciolla2005
08-06-2021, 00:12
Certo che ne spari di caxxate ! :rolleyes:
DLSS2 leggermente migliorato certo, in realtà è cambiato completamente.
Il CAS di AMD non centra un tubazzolo con DLSS e SR.

Sulla prima ero (palesemente) ironico.

Che non c'entri niente? La filosofia (reale) di funzionamento comprende anche la logica della valutazione di contrasto.

coschizza
08-06-2021, 05:57
Un conto sono le comunicazioni di marketing, un altro è la realtà...

Ma chi decide quale sia la realtà? Io sviluppo giochi in ue4 credo che conosco più il meccanismo di queste cose di persone che ne hanno solo sentito parlare ma che vogliono insegnare agli altri cos’è che ipotizzano.

tuttodigitale
08-06-2021, 12:15
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.
Per il 4k, basti pensare che basta semplicemente spalmare l'informazione di un pixel di un filmato FHD su 4 che non si ha nessun degrado dell'immagine...l'intento degli algoritmi è quello (spesso fallito con i parametri di fabbrica, vedi aloni dovuto ad un eccesso di sharpening) di migliorare quanto è possibile fare con uno schermo con risoluzione nativa.

Non mi pare che questa funzionalità, venga pubblicizzata dai recensori come "trasforma i tuoi filmati in FHD in UHD" come fanno con il DLSS...

un 1440p forse migliorato sfacciato per un 4K nativo è quantomeno opinabile.


Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

ma il sharperning eccessivo e la mancanza di dettagli (quella che in termini tecnici prende il nome di risoluzione, proprio quello che dovrebbe aumentare la tecnologia nvidia, a differenza delle tecnologie concorrenti che basano la loro efficacia sull'aumento del microcontrasto) è presente anche con il DLSS...ed ahimé è proprio a questo fattore che è dovuto principalmente il miglioramento delle immagini

poi sul "singolo pixel sbagliato" vorrei la tua definizione di pixel a sto punto dopo aver visto queste immagini:
https://www.computerbase.de/forum/attachments/117-dlss-aus-native-aufloesung-uhd-png.1077219/
senza dlss
https://www.computerbase.de/forum/attachments/120-dlss-qualitaet-zielaufloesung-uhd-png.1077220/
con dlss

dado1979
11-06-2021, 08:39
Mi piacerebbe davvero mettere a confronto questa cosa della rivoluzionaria funzione di "super interpolation" fatta con algoritmi mai visti prima (ma ne siamo sicuri?) con la capacità di scaling del mio monitor 4K per vedere quali dei due produce una immagine migliore.
E anche le televisioni 4K oggi hanno scaler HW mica da ridere (sia spaziali che temporali) per cercare di rendere al meglio tutti quei contenuti che non sono nativi 4K.

D'altronde non si estrarre sangue da una rapa, per cui se le informazioni sono quelle della risoluzione inferiore per quanto un algoritmo super interpolante possa essere, la qualità non potrà mai essere paragonabile a quella nativa.

Poi vediamo se qualche fanboy chiude entrambi gli occhi davanti a sfocature, retinature e oversharpening varie che saranno di sicuro presenti ma poi punta il dito contro il singolo pixel sbagliato del DLSS che "mamma mia che schifezza con quel pixel fuori posto che ho visto per un frame grabbato e ingrandito a 200x che è durato 1/100 di secondo!"

Le console è già dal 2005 che fanno scaling di risoluzione a manetta per renderizzare immagini che altrimenti non riuscirebbero e sono 16 anni che se ne decanta la qualità che tanto nessuno se ne accorge su una TV.


Mi aspetto che non sia nulla che non si sia potuto applicare anche ieri con un semplice effetto di post processing al più aiutato da una interpolazione temporale (quindi con necessità di supporto attivo da parte degli sviluppatori dei giochi).
Direi che è un semplice tentativo di proporre una panacea ad un problema che esiste da anni e che per altrettanti anni è stato affrontato nello stesso modo. Fino all'arrivo del DLSS. Questa nuova versione di algoritmi di interpolazione di dati non è nulla di nuovo e nulla di nuovo porterà sul mercato.
Però è made AMD, è open e quindi sarà una rivoluzione per tutto il mercato.
Il VRS lo hanno inventato così, giusto per fare interpolare ancora una volta di più una risoluzione ancora più bassa, giusto per dire. Ah, no, era il tentativo di inserire l'uso di una risoluzione inferiore solo nelle parti della scena dove questo non avrebbe intaccato più di tanto la qualità dell'immagine... eh, giusto, la rivoluzione è invece fare un scaler SW di tutta la scena con i soli dati della scena a bassa risoluzione... che dire... RIVOLUZIONARIO!
Sarebbe bello il discorso sopra se tu avessi una AMD, ma hai una Nvidia.

Afixenc
22-06-2021, 10:21
Andiamo con ordine, che qui siamo al livello demenziale massimo.



Sì, sono programmatore e quanto detto è reale.
Che tu non veda i miglioramenti in altre scene è tua personale incapacità di comprendere la qualità dell'illuminazione globale anche durante movimenti rapidi.

DLSS e algoritmi che supportano i calcoli brute force sono il futuro per permettere di calcolare cose che altrimenti richiederebbero molto più tempo. Il DLSS è una applicazione che sfrutta l'AI per l'immagine finale ma niente vieta di usare algoritmi con l'AI anche per il puro calcolo a monte per gli effetti.
Ovviamente questo richiede HW capace (e diffuso abbastanza come oggi l'HW ha ROPs e TMUs) ma visto che stiamo parlando di anni di evoluzione futura della grafica, le unità per il calcolo degli algoritmi AI sono e saranno sempre più importanti (che siano nella GPU o su un modulo a parte come nei SoC dei cellulari poco importa.. ah, lo sai vero che tutti i SoC per cellulare hanno unità per il calcolo di algoritmi AI enhanced.. ma sì, DLSS e più in generale unità per l'AI sono solo una transizione, certo, certo.. come dire che anche l'AA sarebbe stato passeggero e che prima o poi saremmo giunti al punto in cui non sarebbe servito... roba passeggera).



Guarda, questa tua convinzione che per 4 parole che manco hai compreso in toto io non sarei un programmatore mi fa ridere di cuore.
Infatti nella tua pochezzza puoi giusto credere (ah, no mi assicuri con le tue conoscenze di cosa?) che una GPU realizzata oggi con solo HW per il raytracing sia capace di fare path tracing di una scena completa. Ovviamente senza supporto alle unità di calcolo normali che non fanno nulla durante il calcolo RT, fa tutto l'unità HW RT! Basta metterne 1000, ma no che dico, 10000 e via, l'algoritmo si calcola da solo.



Ahahah, certo, infatti si vede come conosci bene l'argomento.
Lo sai vero che pure gli scaler delle TV usano algoritmi di AI per gestire lo scaling senza i quali la qualità sarebbe decisamente peggiore?
Ma no, dai, usiamo la matematica come 30 anni fa che si ottengono risultati migliori! Stupidi ingegneri che progettano chip complessi e costosi con supporto ai calcoli AI quando con 3 unità a funzione fissa potrebbero facilmente fare scaling interpolando immagini a risoluzione maggiore con qualità maggiore.
Forse sei tu che non sai come funziona la teoria dell'interpolazione classica (quella proposta da AMD con il suo rivoluzionario SR): ebbene in poche parole.. non puoi ottenere dettaglio dove non l'hai calcolato, per cui l'immagine finale avrà una qualità inferiore a una che tali dettagli li ha, e pure peggio se scalata. Che è poi il principio dell'uso della risoluzione più alta (oh Shannon, dove sei!), ovvero avere i dettagli presenti là dove la bassa risoluzione li toglierebbe. Partire da una risoluzione bassa e fare mille calcoli di interpolazione, sharpening, streching e scalatura non permette di aggiungere alcun dettaglio mancante.
Infatti nei giochi dove hai capacità di calcolo in abbondanza fai proprio l'opposto, ovvero usi il DSR (se non sai cosa è cercatelo) per aumentare i dettagli reali dell'immagine e non quelli apparenti dovuti a sharpening.

Mi spiace per te e il fatto che pensi che sia basato su supposizioni personali senza conoscenza tecnica si vede che siamo programmatori a livelli differenti.



Non esclude l'uso di altre tecniche ma non è necessariamente compatibile con esse. Il VRS già usa risoluzioni inferiori per parti dell'immagine e fare calcoli a bassa risoluzione e scalarli 2 volte non è il massimo e la qualità finale ne risente. Stessa cosa per molti degli effetti RT che sono calcolati a risoluzione inferiore e già riscalati dal motore del gioco.
In più il DLSS usa già i suoi algoritmi di sharpening e AA, e applicarli 2 volte non è per niente un bene (se conosci la teoria del degrado del segnale).
Quindi l'idea di usare il semplice scaler HW del monitor/TV non è proprio così campata in aria. Sempre che ci vedi bene, se hai la TV da 32pollici a 4 metri e non ti accorgi della festa di sfocature che vedrai con la doppia riscalatura, allora inutile parlare.. ma sicuro a quel punto ti basta lo scaler della TV senza fomentare inutili dubbi su una qualità che non c'è e non può esserci.

Quello che qui sembra nona vere alcuna conoscenza in materia sei tu che credi che da oggi al domani (anzi 22 Giugno) le teorie si cui si è basata l'elaborazione delle immagini negli ultimi 30 anni sarà "rivoluzionata".
Puoi credere quello che vuoi ma senza alcuna esposizione delle cose fai solo la figura dell'allocco a cui si propone l'acqua calda da microonde e la si fa passare come l'ultimo ritrovato per fare nuove bevande calde, cosa prima impossibile perché l'acqua non era riscaldata in quella maniera.
Spiacente aver sgretolato le tue convinzioni infantili che Babbo Natale esiste e chi pensa di no lo fa su convinzioni personali che non meritano di essere commentate.

Non sei diverso da quei poveretti che credevano che AMD avrebbe realizzato ray tracing senza HW dedicato, anzi su HW già realizzato con altre capacità in mente, solo perché si chiama AMD e usa roba open. E per fortuna che ci ha messo un abbozzo di unità dedicata nelle nuove GPU, altrimenti sai che figura!


Ora puoi andare a vedere i risutati e piangere un pò :D se cancelli i tuoi commenti fai più bella figura ;)

ciolla2005
16-07-2021, 00:10
Ora puoi andare a vedere i risutati e piangere un pò :D se cancelli i tuoi commenti fai più bella figura ;)

Confermo. C'è gente che fa tematiche di filosofia.
Poi la realtà è un'altra, insomma "fanno gli inglesi" dopo aver perso la partita.
Ora Nvidia sta correndo ai ripari finanziando il DLSS a destra e manca, su titoli che non si fila più nessuno.