PDA

View Full Version : Nvidia a tutta sul DLSS: arriva in Call of Duty Warzone e Modern Warfare


Redazione di Hardware Upg
22-04-2021, 16:01
Link alla notizia: https://gaming.hwupgrade.it/news/videogames/nvidia-a-tutta-sul-dlss-arriva-in-call-of-duty-warzone-e-modern-warfare_97160.html

Nvidia dà una netta accelerata nella diffusione del DLSS con l'arrivo del supporto alla tecnologia in cinque giochi nel solo mese di aprile: tra questi troviamo i popolari Call of Duty Warzone e Modern Warfare.

Click sul link per visualizzare la notizia.

nickname88
22-04-2021, 16:20
Avremmo preferito fossero titoli pesanti e non titoli che già faccio volare in 4K.
Vediamo di cominciare a ficcarlo in RDR, Total War, e FS per cortesia.
Anche la storiella di Unity, supporto nativo e poi scopri che si tratta di titoli leggeri.

Gello
22-04-2021, 16:31
Immagino come ti voli in 4k Warzone, le planate proprio...

coschizza
22-04-2021, 16:38
Avremmo preferito fossero titoli pesanti e non titoli che già faccio volare in 4K.
Vediamo di cominciare a ficcarlo in RDR, Total War, e FS per cortesia.
Anche la storiella di Unity, supporto nativo e poi scopri che si tratta di titoli leggeri.

quando sara integrato in unity lo potranno supportare tutti i giochi come ora lo puoi fare in tutti quelli di unreal engine 4
RDR è un gioco ormai vecchio nessuno ci metterà mai le mani sopra e fs e dx 11 quindi non può supportare il dlss

CrapaDiLegno
22-04-2021, 16:45
Avremmo preferito fossero titoli pesanti e non titoli che già faccio volare in 4K.
Vediamo di cominciare a ficcarlo in RDR, Total War, e FS per cortesia.
Anche la storiella di Unity, supporto nativo e poi scopri che si tratta di titoli leggeri.

Sono giochi pensati e realizzati per console, quindi pochi poligoni, tante texture e niente effetti luce. Cosa vuoi pretendere si avere una qualità grafica decente a spese di qualche FPS (su PC, su console la morte totale del frame rate).

C'è chi si lamenta delle incertezze del DLSS e per non usarlo, ma tenere gli FPS decenti, vanno a dire agli altri (perché ovviamente non hanno una scheda Nvidia) che il DLSS fa schifo quindi bisogna abbassare la qualità generale della grafica.. ah, così non su hanno pixel "sbagliati".

Intanto è ora possibile usarlo in UE4 e Unity, quindi i giochi leggeri o pesanti che sono sviluppati su quegli engine possono goderne a costo zero. In attesa (infinita) che anche AMD se ne esca con qualcosa di simile che giri sugli shader (che sarà la rivoluzione per i suoi fanboy!).

nickname88
22-04-2021, 17:19
Sono giochi pensati e realizzati per console, quindi pochi poligoni, tante texture e niente effetti luce. Cosa vuoi pretendere si avere una qualità grafica decente a spese di qualche FPS (su PC, su console la morte totale del frame rate).

C'è chi si lamenta delle incertezze del DLSS e per non usarlo, ma tenere gli FPS decenti, vanno a dire agli altri (perché ovviamente non hanno una scheda Nvidia) che il DLSS fa schifo quindi bisogna abbassare la qualità generale della grafica.. ah, così non su hanno pixel "sbagliati".

Intanto è ora possibile usarlo in UE4 e Unity, quindi i giochi leggeri o pesanti che sono sviluppati su quegli engine possono goderne a costo zero. In attesa (infinita) che anche AMD se ne esca con qualcosa di simile che giri sugli shader (che sarà la rivoluzione per i suoi fanboy!).
Si ma l'UE4 è un motore vecchio e io ci faccio girare di tutti i titoli con quel motore in 4K maxato senza problemi, i giochi next gen avranno UE5 e sarebbe stato interessante il supporto nativo con quest'ultimo.

Unity come prima detto sono oramai titoletti ( molti pure sconosciuti ) che fai girare già senza DLSS con facilità, maxati 4K inchiodati almeno a 60fps ( se non di più per qualcuno ).

nickname88
22-04-2021, 17:22
quando sara integrato in unity lo potranno supportare tutti i giochi come ora lo puoi fare in tutti quelli di unreal engine 4
RDR è un gioco ormai vecchio nessuno ci metterà mai le mani sopra e fs e dx 11 quindi non può supportare il dlssL'aggiornamento alle DX12 di FS arriverà quest'anno.
RDR2 inoltre è vecchio per console, non su PC. E comunque cosa centra ? Il supporto al DLSS è arrivato pure su titoli più vecchi.
E' comunque pesante, vecchio o non vecchio che sia.

Cosa mi serve il DLSS su titoli che già faccio girare facile ? Che li mettessero su titoli difficili da far girare, allora avrebbe ancora più senso.

Ora ci manca solo di ritrovarselo con AoE4 e non col prossimo Total War Warhammer 3.

coschizza
22-04-2021, 17:26
Si ma l'UE4 è un motore vecchio.

ue4 si aggiorna costantemente (io ci sviluppo da un paio di anni) ora siamo alle verisone 4.26 non è mica rimasto ad anni fa, supporta il 100% delle tecnologie moderne e anche di più visto che spesso è lui ad avere prima fra tutti nuove feature che escono per la prima volta sul mercato.

Se prendi qualsiasi feature della directx o opengl o di qualsiasi altra feature unreal 4 la supporta, attivamente o tramite plugin. E questo perché il codice sorgente è aperto a tutti. Ha bisogno di un svecchiamento si ma solo perche aggiungi aggiungi aggiungi qualcosa non è cosi funzionale come potrebbe essere ripartendo da capo con un motore rivisto dalle fondamenta.

coschizza
22-04-2021, 17:31
L'aggiornamento alle DX12 di FS arriverà quest'anno.
RDR2 inoltre è vecchio per console, non su PC. E comunque cosa centra ? Il supporto al DLSS è arrivato pure su titoli più vecchi.
E' comunque pesante, vecchio o non vecchio che sia.

Cosa mi serve il DLSS su titoli che già faccio girare facile ? Che li mettessero su titoli difficili da far girare, allora avrebbe ancora più senso.

Ora ci manca solo di ritrovarselo con AoE4 e non col prossimo Total War Warhammer 3.

RDR2 ci ho giocato sul mio pc di 8 anni fa e una 970gtx se era cosi pesante fidati che lo avrei messo da parte per un nuovo pc (come ho fatto con molti altri titoli)

*Pegasus-DVD*
22-04-2021, 17:32
Immagino come ti voli in 4k Warzone, le planate proprio...

:asd:

nickname88
22-04-2021, 17:37
RDR2 ci ho giocato sul mio pc di 8 anni fa e una 970gtx se era cosi pesante fidati che lo avrei messo da parte per un nuovo pc (come ho fatto con molti altri titoli)
RDR2 è uno dei titoli più pesanti su PC, oltre ad essere uno dei pochi che mi fa sforare alla grande i 300W di VGA pure con frame cappato.
Non so come tu lo abbiamo settati ma se imposti dettagli Ultra e 4K, i 60fps costanti li tiene solo con la 3090.
Se invece hai una AMD non c'è speranza, devi scalare.

Di sicuro anni luce ( ANNI LUCE ) più pesante dei titoletti che girano con Unity, UE4 o di questo Warzone.

ciolla2005
22-04-2021, 18:19
Certo performance mode...detta anche a qualità ZERO.

mmorselli
22-04-2021, 21:05
quando sara integrato in unity lo potranno supportare tutti i giochi come ora lo puoi fare in tutti quelli di unreal engine 4

In Unity arriverà entro l'anno

https://developer.nvidia.com/blog/nvidia-dlss-natively-supported-in-unity-2021-2/

però sia per UE4 che per Unity è più corretto parlare di supporto ai giochi futuri, è molto improbabile che un gioco AAA sia in grado di aggiornare l'engine all'ultima versione, di solito quella che viene battezzata all'inizio dello sviluppo rimane, perché ogni volta che aggiorni c'è il rischio che qualcosa si scassi e più il gioco è complesso più diventa complicato verificare tutto ogni volta. Se qualcuno ci riesce, ovviamente, bravi loro.

Dark_Lord
22-04-2021, 21:38
Si stanno impegnando veramente molto su una tecnologia proprietaria destinata a fallire, come tutte le altre che hanno sviluppato, la storia insegna :asd:

mmorselli
22-04-2021, 21:44
Si stanno impegnando veramente molto su una tecnologia proprietaria destinata a fallire, come tutte le altre che hanno sviluppato, la storia insegna :asd:

Non questa volta, perché il guadagno tanto nel framerate quanto nell'antialiasing è così alto che non puoi semplicemente toglierlo. Se il gioco PIPPO 2021 ha DLSS, non puoi uscire con PIPPO 2022 senza.

Al massimo può essere incapsulato in una funzione equivalente di DX12 e Vulkan, ma sarebbe come dire che il bilinear filtering proprietario della 3DFX è fallito. Le cose davvero rivoluzionarie restano.

coschizza
22-04-2021, 21:47
Si stanno impegnando veramente molto su una tecnologia proprietaria destinata a fallire, come tutte le altre che hanno sviluppato, la storia insegna :asd:

veramente è grazie alle sue tecnologie proprietarie che domina sul mercato cuda e OptiX prima fra tutte, come vedi non tutto fallisce
Anche le directx dovevano fallire ma sarà per un altro anno

mmorselli
22-04-2021, 22:25
veramente è grazie alle sue tecnologie proprietarie che domina sul mercato cuda e OptiX prima fra tutte

Beh, diciamo che sono tecnologie dell'hardware, ma non tecnologie applicate direttamente ai giochi, da implementare da parte degli sviluppatorie e da abilitare o disabilitare da parte degli utenti. Di tecnologie nVidia fallite ce ne sono, come Physx, o SLI, ma era roba inutile o che non funzionava, mentre DLSS funziona alla grande.

coschizza
22-04-2021, 22:44
Beh, diciamo che sono tecnologie dell'hardware, ma non tecnologie applicate direttamente ai giochi, da implementare da parte degli sviluppatorie e da abilitare o disabilitare da parte degli utenti. Di tecnologie nVidia fallite ce ne sono, come Physx, o SLI, ma era roba inutile o che non funzionava, mentre DLSS funziona alla grande.

Physx è utilizzato ancora oggi in quasi tutti i motori grafici, unreal 4 per esempi odi base usa Physx dal lancio come motore di base. Sli non è fallito è diventato poco utile una cosa diversa e solo nel campo desktop ma questo perche ora puoi fare il multy gpu dibase quindi non ha senso usare lo sli se lo fai direttamente con le directx in maniera piu efficiente.

Ale55andr0
22-04-2021, 22:53
Si stanno impegnando veramente molto su una tecnologia proprietaria destinata a fallire, come tutte le altre che hanno sviluppato, la storia insegna :asd:

veramente il DLSS lo stano implementando cani e porci, come pure l'RT posto che a nvidia basta fare quello che fa sempre: piglarsi i titoli più di grido e piazzarci le sue implementazioni, alla fine conta averle sui titoli più di interesse, non anche sull'ultimo degli indie
...senza contare che il DLSS 3.0 sarà ancora più semplice da implementare

Beh, diciamo che sono tecnologie dell'hardware, ma non tecnologie applicate direttamente ai giochi, da implementare da parte degli sviluppatorie e da abilitare o disabilitare da parte degli utenti. Di tecnologie nVidia fallite ce ne sono, come Physx, o SLI, ma era roba inutile o che non funzionava, mentre DLSS funziona alla grande.

beh anche mantle e crossfire...se però una risposta al DLSS sta arrivando da AMD vuol dire che la cosa non è destinata a fallire, proprio percè funziona bene ed un changer in fatto di prestazioni

mmorselli
22-04-2021, 23:23
Physx è utilizzato ancora oggi in quasi tutti i motori grafici, unreal 4 per esempi odi base usa Physx dal lancio come motore di base. Sli non è fallito è diventato poco utile una cosa diversa e solo nel campo desktop ma questo perche ora puoi fare il multy gpu dibase quindi non ha senso usare lo sli se lo fai direttamente con le directx in maniera piu efficiente.

Physx è deprecato in UE4 in favore del suo engine fisico Chaos, ma il punto è che molti giochi non hanno necessità di fare calcoli fisici così complessi, per cui ha più senso delegare la CPU e scrivere un codice unico al posto di due versioni di cui una proprietaria. Physx è nato 15 anni fa, quando le CPU erano molto meno potenti.

Lo SLI non è poco utile perché fai il multi GPU in DirectX, quanti giochi conosci che usano il multi GPU? Il problema è che lo SLI può anche accelerare lo shading, ma poi il frame per essere visualizzato deve essere trasferito nella memoria della GPU a cui è attaccato il monitor, e questo introduce latenze inaccettabili per chi vuole giocare a framerate sempre più alti. Il multi GPU deve essere gestito dagli sviluppatori per cui non si sbattono di sviluppare per qualcosa che potrebbe interessare la nicchia di una nicchia.

Al contrario DLSS è plug & play, facile da implementare e facile da usare da chiunque abbia una RTX

CrapaDiLegno
23-04-2021, 01:07
Physx è deprecato in UE4 in favore del suo engine fisico Chaos, ma il punto è che molti giochi non hanno necessità di fare calcoli fisici così complessi, per cui ha più senso delegare la CPU e scrivere un codice unico al posto di due versioni di cui una proprietaria. Physx è nato 15 anni fa, quando le CPU erano molto meno potenti.

Lo SLI non è poco utile perché fai il multi GPU in DirectX, quanti giochi conosci che usano il multi GPU? Il problema è che lo SLI può anche accelerare lo shading, ma poi il frame per essere visualizzato deve essere trasferito nella memoria della GPU a cui è attaccato il monitor, e questo introduce latenze inaccettabili per chi vuole giocare a framerate sempre più alti. Il multi GPU deve essere gestito dagli sviluppatori per cui non si sbattono di sviluppare per qualcosa che potrebbe interessare la nicchia di una nicchia.

Al contrario DLSS è plug & play, facile da implementare e facile da usare da chiunque abbia una RTX

Physx è nato per cercare di dare un senso alle capacità computazionali delle GPU in un periodo in cui gli shader non sembravano essere questo collo di bottiglia con il loro raddoppio ogni generazione (ai tempi = ogni anno). Ma nel frattempo il raster ha implementato tutti i barbatrucchi possibili per migliorare la qualità d'immagine e l'uso degli shader è esploso non lasciando posto al calcolo di effetti fisici complicati target delle librerie physx. Infatti ancora oggi gli effetti fisici sono robe trascurata e realizzata tramite CPU che può fare quello che può (cioè non calcolare movimenti particellari o volumetrici).

Se il problema dello SLI fosse solo il trasferimento dell'immagine da una GPU all'altra allora sarebbe ancora vivo e vegeto, non solo per 2 schede ma per 4 o 8. La banda necessaria per trasferire un frame buffer fatto e finito è una quisquilia rispetto a quella necessaria per esempio per processare una texture.
Il vero problema dello SLI, nato in origine per renderizzare una linea si e una no su una GPU mentre l'altra faceva le altre linee) è che con le architetture moderne fatte di migliaia di core, quantità industriali di texture e geometrie più complesse di quelle degli anni '90 il bilanciamento del lavoro non è per nulla semplice e necessita il raddoppio delle risorse occupate (una copia per ogni GPU, non permettendo quindi di avere il doppio della RAM a disposizione per esempio).
Questo già vale per il meno complesso AFR ed è impossibile pensare di applicarlo come l'originale SLI. Il sincronismo richiesto costerebbe di più del guadagno effettivo in tempo di calcolo (e il post processing sarebbe impossibile da suddividere tra le due GPU).
Se ti serve un frame ogni 10ms (quindi processing time di 20 ms per ciascuna GPU) ma per qualsiasi motivo un frame ne richiede 30 (o solo5), si rompe tutta la catena lineare di output a passo fisso creando stuttering a valanga.
Tutte le soluzioni pensate per mitigare il problema alla fine non sono mai state molto valide perchè vanno a compromettere la latenza (e oggi con le soluzioni Boost e Reflex di entrambi i produttori si corre verso la direzione opposta). E serviva un sacco di lavoro sui driver per ottimizzare i lavori per ogni gioco, roba non sostenibile.
Lo SLI non è "trasparente" per il programmatore, per cui serve lavoro aggiuntivo per supportare qualcosa che aveva forse il 2% del mercato. Lo stesso vale anche per il mGPU integrato nelle DX12 (e infatti non lo usa nessuno per quel motivo. manco la versione discreta + integrata che ormai quasi tutti possono vantare).
Da sempre quindi una scheda singola è sempre stata più efficiente e gestibile dal punto di vista della predicibilità dei risultati rispetto allo SLI/Crossfire che con il doppio del costo, il doppio dei consumi, la memoria effettiva dimezzata e i sincronismi a signorine non ha mai fatto breccia in nessun giocatore se non quelli che avevano soldi e tempo da buttare per una media del 30% di prestazioni in più (e mille problemi di configurazione per ciascun titolo supportato, no, forse, in parte, si ma bacato, stuttera, anche questo, pure quello, questo no ma non accelera, quello va a manetta ma solo se fai questo e quello etc...).
Credevo che morisse prima a dire al verità, e invece è campato un po' più del previsto, ma alla fine è morto comunque come doveva essere.

Per quanto riguarda il DLSS, mi spiace ma la soluzione di Nvidia è valida e funziona alla grande mettendo in ridicolo le soluzioni posticce (e antiquate) della concorrenza che parla al solito di soluzioni Open e roba senza senso con plus rispetto al concorrente che l'ha bellamente lasciata al palo con tecnologie che sono ormai superate visto che sono le stesse identiche fattibili con HW del 2012 quando AMD ha introdotto finalmente una architettura in grado di fare GPGPU.
Infatti anche AMD parla di una soluzione simile a quella di Nvidia basata su DL, ma non avendo i tensor core è un po' come quando parlava di supporto al ray tracing senza avere gli RT core... infatti non l'ha mai supportata per non mostrare le prestazioni ridicole che aveva (con buona pace di tutti quelli che "Vega può fare ray tracing senza HW aggiuntivo" e menate senza senso a fiumi).
Qui dice che farà qualcosa di simile ma con 1/5 o meno della capacità di calcolo (che va a sottrarre tempo al rendering normale a differenza della soluzione Nvidia) sono proprio curioso di vedere cosa ottiene.

Sono quasi sicuro che si piazzerà a livello di DLSS performance per qualità (o anche meno, con tutti gli altri effetti post processing attivi per guadagnare ancora qualche frame a discapito della risoluzione reale di rendering, VSR incluso) con tutti i contro del caso ma i fanboy AMD applaudiranno alla cosa dicendo che i tensor non servono visto che la qualità dell'immagine sarà impeccabile (mentre con il DLSS già ora dicono "lo vedi quel pixel che compare per un frame nell'angolo a sinistra sull'immagine 4K che viaggia a 100FPS? No? Aspetta che faccio il fermo immagine e zoomo al 200% così lo vedi flashare.. visto? No, no, non è ammissibile questa cosa, il DLSS fa schifo, punto e basta" :read: ).

P.S: per tutti quelli che il Fidelity FX Super Resolution o come ampollosamente l'ha chiamato AMD è in grado di fare meglio del DLSS, guardatevi il video del DLSS applicato alle risoluzioni inferiori al FullHD e che cosa tira fuori come qualità d'immagine finita.
Poi ditemi se uno scaler deterministico senza possibilità di aggiungere i dati che non ha può ottenere lo stesso:
https://www.youtube.com/watch?v=_gQ202CFKzA
e anche questo per vedere come cambia la qualità di immagine quando il DLSS è fatto con gli shader (v1.9) o con i tensor (v2.0):
https://www.youtube.com/watch?v=YWIKzRhYZm4

mmorselli
23-04-2021, 02:28
Se il problema dello SLI fosse solo il trasferimento dell'immagine da una GPU all'altra allora sarebbe ancora vivo e vegeto, non solo per 2 schede ma per 4 o 8. La banda necessaria per trasferire un frame buffer fatto e finito è una quisquilia rispetto a quella necessaria per esempio per processare una texture.

La texture però si processa in VRAM mentre il frame deve passare per un bus. Un frame 4K inizia ad essere tanta roba, se mi pongo come obbiettivo di fare questo trasferimento, per esempio, entro 5ms, per non vanificare tutto, servirebbe la banda per 4K @200Hz, cioè 70 Gbps... NVLink 3.0 ne fa 50.

Tutto corretto nel resto delle tue osservazioni, però non sottovaluterei il problema della banda.

CrapaDiLegno
23-04-2021, 11:17
La texture però si processa in VRAM mentre il frame deve passare per un bus. Un frame 4K inizia ad essere tanta roba, se mi pongo come obbiettivo di fare questo trasferimento, per esempio, entro 5ms, per non vanificare tutto, servirebbe la banda per 4K @200Hz, cioè 70 Gbps... NVLink 3.0 ne fa 50.

Tutto corretto nel resto delle tue osservazioni, però non sottovaluterei il problema della banda.

Non capisco il conto che hai fatto per ottenere quella banda.
Risoluzione UQHD: 3840 x 2160
Pixels = 8.294.400
Frame buffer a 24bit: 24883200 Bytes
Frame buffer a 32bit: 33177600 Bytes

Banda per trasferimento in 5ms:
a 24bit: 24883200B / 0.005s = 4.976.640.000B/s ~ 5GB/s = 40Gbps
a 32 bit: 33177600B / 0.005s = 6.635.520.000B/s = 6.6GB/s = 53Gbps

Non serve l'NVlink, basta una PCI 2.0x per trasmettere il frame buffer in quel tempo.

/edit: mi accorgo adesso che hai specificato la banda in Gbps... ma a quel punto NVLink fa 200Gps con 8 linee (il minimo implementato con 1 link tra le schede) pari a 25GB/s (mono direzionale) sulla Turing più scrausa che implementa l'NVLink.
Altrimenti è doppia (o persino maggiore su Ampere).
Il 50 che intendi sono i GB/s bidirezionali del NVlink a 1 solo link di Turing .
Stiamo parlando comunque di una banda a disposizione che è almeno 5 volte superiore al necessario.