Radeon RX 6000: ray tracing e risposta al DLSS, AMD punta di nuovo sugli standard

Radeon RX 6000: ray tracing e risposta al DLSS, AMD punta di nuovo sugli standard

AMD ha confermato che le GPU Radeon RX 6000 supportano i titoli che per il ray tracing si basano su API comuni come Microsoft DXR e Vulkan. Questo significa che si potrà, ad esempio, attivare il ray tracing in Control con le nuove GPU AMD, ma non in Wolfenstein Youngblood che sfrutta un'estensione di Vulkan creata da Nvidia.

di pubblicata il , alle 08:00 nel canale Schede Video
AMDRadeonNaviRDNA
 
89 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
io78bis04 Novembre 2020, 09:36 #11
AMD ha sempre avuto questo tipo di approccio, forse anche per la necessità di combattere il predominio Nvidia.

Freesync vs GSync
Mantle -> ceduto alla community per realizzare Vulkan
OpenCL vs Cuda
cronos199004 Novembre 2020, 09:46 #12
Originariamente inviato da: boboviz
Devi anche considerare altri fattori:
- CUDA è uscito al "grande pubblico" dei developer (non agli ultra-specialisti) prima di altri linguaggi.
- CUDA funziona maledettamente bene per quello che deve fare.
- OpenCL, il suo principale antagonista, è stato a lungo "balbuziente".
Non discuto su meriti o demeriti di CUDA, nè quale sia lo stato della concorrenza. Mi limito a commentare la sua diffusione.

E, stando almeno alla wiki, CUDA è stato rilasciato nel 2007 e la prima versione stabile è di oltre 3 anni fa. Dopo tutto questo tempo rimane ancora relegato sulle GPU Nvidia.
Che questo dipenda dai costi, da scelte di Nvidia o da altre dinamiche non saprei dirlo. Ma al momento il destino di CUDA è legato a doppia mandata a quello di Nvidia, nonostante siano passati anni dal suo rilascio e il dominio di Nvidia pressochè incontrastato (per le GPU discrete) da 2-3 anni.
Se il caso vuole che Nvidia fallirà entro un paio d'anni (chiaramente parlo per assurdo, non ci credo minimamente) CUDA sparirebbe in un paio d'anni.

Nvidia ha sempre tirato fuori tecnologie proprietarie, e non credo perchè "fa figo", ma perchè punta ad imporle sul mercato per poi averne continui proventi. Al di là delle conseguenze di questa pratica (che dal mio punto di vista penalizza prima di tutti l'utente finale), è chiaro che è molto complicato raggiungere tale obiettivo, perchè ogni volta ti scontri con tecnologie analoghe, le quali però hanno una "maggiore apertura".

Nel mondo prettamente videoludico uno dei casi più eclatanti fu Havok vs Physx. Adesso parliamo di DLSS contro Ray Accelerator. Il DLSS, pur avendo un vantaggio di oltre 1 anno, probabilmente conterà molti meno giochi rispetto al RA quando quest'ultimo uscirà. E la sua natura "open" ne permetterà la diffusione non solo tra chi possiede una GPU AMD, ma anche tra chi possiede una GPU Nvidia.
Questo senza neanche entrare nel discorso console, che sono ben più trainanti.
coschizza04 Novembre 2020, 09:49 #13
Originariamente inviato da: cronos1990
CUDA è uno standard proprietario che non si è diffuso oltre Nvidia.


ma senza gpu nvidia non puoi usare i software cuda che sono uno standard in molti settori quindi non hai alternative, non puoi dire uso altro
robweb204 Novembre 2020, 09:54 #14
Originariamente inviato da: StylezZz`
La serie RX 6000 ne uscirà con le ossa rotte da questa grave mancanza.


Premio castroneria dell'anno.
cronos199004 Novembre 2020, 09:58 #15
Originariamente inviato da: coschizza
ma senza gpu nvidia non puoi usare i software cuda che sono uno standard in molti settori quindi non hai alternative, non puoi dire uso altro
Premesso che sarei curioso di sapere quanto tale standard sia realmente diffuso.

E' il solito discorso, è un cane che si morde la cosa. Nvidia punta a "obbligarti" a comprare le sue schede fornendoti una tecnologia proprietaria, o eventualmente dandola in concessione a terzi (tipo AMD) dietro pagamenti di royalties elevate, cosa quest'ultima che non avviene.
Ma CUDA è diffuso per il motivo di cui sopra: Nvidia vende 3 volte tanto AMD in questo momento, vedremo con queste future GPU se cambia qualcosa.

Ci sarebbero da porsi parecchie domande in merito: quante aziende hanno deciso di adottare Nvidia per il CUDA, quante sono state "costrette" per motivi contingenti di varia natura, quante hanno deciso si affidarsi a schede AMD, quante usano OpenCL nonostante abbiano una scheda Nvidia, quante sono attrezzate o si stanno attrezzando per passare da CUDA a OpenCL...

...tutte informazioni che darebbero un quadro più completo della situazione, che sinceramente non ho.
Io so solo che ancora ad oggi per il CUDA si necessita di una scheda Nvidia, con tutti i pericoli insiti in questa scelta.
StIwY04 Novembre 2020, 10:01 #16
Quanto la fanno lunga con questa menata del "rei tresing". Lo spiattellano come fosse una cosa irrinunciabile per giocare. Tutti intontiti dal marketing, ripijatevi...
coschizza04 Novembre 2020, 10:10 #17
Originariamente inviato da: cronos1990
Premesso che sarei curioso di sapere quanto tale standard sia realmente diffuso.


nei datacenter copre il 100% mentre nei software di rendering professionali sol il 95% circa il resto comunque è ben superiore alle versioni opencl e molti software
nickname8804 Novembre 2020, 10:14 #18
Buone notizie ma non dice molto di più.
Se Control funziona anche su AMD perchè non l'han mostrato ?
Super Resolution quando arriva ? Uscirà entro questa generazione ?
Max_R04 Novembre 2020, 10:17 #19
Originariamente inviato da: cronos1990
Nel senso che esplode?


Mi auguro di no! Ne ho parecchie di 3Dfx a casa e ne verrebbe un bel botto!
Scherzi a parte, per un buon retrogaming sono sempre importanti, tanto che ci sono anche almeno un paio di validi wrapper per emularle. Sono una parte importante della storia sia informatica che videoludica, quindi non verranno dimenticate come altre (redline di rendition ad esempio, o nvlib dell'nv1 di nvidia, S3D di S3, PowerSGL di PowerVR o ancora MSI di Matrox..)
CrapaDiLegno04 Novembre 2020, 10:24 #20
Secondo me state facendo un mischione che metà basta.
Per prima cosa le tecnologie proprietarie sono sempre esistite e servono a dare un valore aggiunto ai propri prodotti, soprattutto quando sul mercato non c'è nulla di analogo.
G-Sync è nato un anno prima di Adaptive Sync.
Physx è stata la prima e a quanto ne so unica libreria ad avere l'accelerazione dei calcoli su GPU (Havok usa la CPU) per permettere effetti migliori.
CUDA è semplicemente Il linguaggio per programmare le GPU ed è stato creato quando la concorrenza pensava a mettere la tesselazione per i giochi (che era una feature AMD proprietaria ai tempi) invece che dotare l'architettura di capacità GPGPU migliori portando di fatto 4 anni dopo all'abbandono di quella porcheria.
Inoltre state sbagliano le percentuali: sui compuer dove di usa CUDA nVidia ha il 90% di market share ed è quindi logico che possa imporre uno standard e sopratutto che non abbia alcun interesse a fare in modo che questo sia usato liberamente dai concorrenti che non hanno investito un dollaro nello sviluppo SW in questi secoli.

In secondo luogo, riprendendo quanto detto sugli investimenti per lo sviluppo SW, fare notare che AMD non ha mai sviluppato nulla di suo: Mantle, uscita in anticipo rispetto alle DX12 già in cantiere (credete che MS non era già in contatto con AMD e nVidia per creare la nuova libreria all'uscita di Mantle?) è stata pensata da AMD ma realizzata da DICE. Poi visto che il lavoro era immane lo hanno rilasciato alla comunità per tirarci fuori qualcosa, altrimenti sarebbe semplicemente morta.
Il Free Sync altro non è che l'implementazione di Adaptive Sync, che è lo standard aperto nato un anno dopo G-Sync e con caratteristiche nettamente inferiori. Ma Adaptive Sync è stato sviluppato dal consorzio VESA e AMD non ha sborsato un dollaro per crearlo. Anche l'HW per supportarlo, a parte la parte che già c'era nelle GPU mobile trasportata anche su quelle desktop, è a carico dei produttori di monitor.
Quindi AMD in questo caso si è trovata la pappa già pronta.
Vogliamo parlare dei tentativi di creare un antagonista a CUDA? Investimenti zero, e infatti oggi c'è Cray (HP) a sobbarcarsi lo sviluppo di ROCm per tentare di avere una alternativa alla fornitura monopolistica di nVidia.
Roba che fallirà come tutti i precedenti tentativi all'arrivo dio OpenAPI di Intel. Quella probabilmente sarà la risposta, magari non per qualità, ma sicuramente per diffusione possibile grazie agli sforzi di Intel. Altra pappa pronta per AMD.

Ray-tracing? 2 anni dopo e non sembra con le prestazioni di nVidia. Visto che si gridava allo scandalo per le prestazioni di Turing in ray-tracing, mi piacerebbe capire cosa si dirà ora delle prestazioni di AMD che a quanto sembra sono allo stesso livello.

Unità per Deep Learning? Manco una traccia 4 anni dopo Volta. Manco nelle versioni professionali. Magari con le future CDNA, ma per ora nulla.
E parlando di DirectML, forse non avete capito bene la questione: è Microsoft a sviluppare la cosa (come sempre qualcuno che non è AMD, ma i suoi fanboy pensano sempre che il merito sua suo, non si capisce il perché perché nella GPU del SoC XBOX ha messo delle unità in grado di accelerare i calcoli DL mentre AMD in RDNA2 (Playstation 5 e PC world) non li ha.
Quindi si sta parlando della stessa identica cosa di cui si discuteva con il raytracing: senza unità dedicate puoi sì fare il lavoro ma lo farai mooolto lentamente, e quindi non sarà di alcuna utilità.
AMD non beneficierà di DirectML per nessuno scaling, così come non lo farà PS5 finché in quelle GPU non entreranno delle unità per l'accelerazione dei calcoli di AI e DL.
E comunque l'algoritmo di scaling è sviluppato da Microsoft, non da AMD.

Detto questo AMD non riesce ad imporre nessuno standard o dare un calore aggiunto ai propri prodotti perché non investe in sviluppo SW, arriva dopo e le due cose non possono he portare a dover necessariamente richiedere l'aiuto di terze parti, fosse anche la comunità open source, per riuscire ad avere qualcosa che funzioni.

Ma se questo va bene per il mondo videoludico dove "basta che funzioni oggi, domani vabbe'" nel mondo professionale non vale: infatti CUDA è IL linguaggio mica per niente: funziona ed è supportato al 100% da nVidia (per le sue GPU di ieri oggi e soprattutto DOMANI, quindi lavoro quasi zero per sfruttarlo al 100% con quello che è sviluppato OGGI) e solo la sua morte farà in modo che smetta di essere sviluppato ulteriormente.
A quel punto però non ci saranno neanche più nuove GPU nVidia da sfruttare.
Invece dall'altra parte le proposte open fatte da garagisti che oggi ci sono e domani si dedicano ad altro o proprio non sono in grado di creare qualcosa di veramente avanzato, per ovvie ragioni non sono mai state prese in considerazione per sviluppare progetti da qualche decina o centinaia di milioni di dollari. Ora è corsa in soccorso HP con ROCm, e vedremo cosa tirerà fuori prima che OpenAPI arrivi sul mercato per diventare il nuovo standard "aperto".

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^