View Full Version : Radeon RX 6000: ray tracing e risposta al DLSS, AMD punta di nuovo sugli standard
Redazione di Hardware Upg
04-11-2020, 07:00
Link alla notizia: https://www.hwupgrade.it/news/skvideo/radeon-rx-6000-ray-tracing-e-risposta-al-dlss-amd-punta-di-nuovo-sugli-standard_93229.html
AMD ha confermato che le GPU Radeon RX 6000 supportano i titoli che per il ray tracing si basano su API comuni come Microsoft DXR e Vulkan. Questo significa che si potrà, ad esempio, attivare il ray tracing in Control con le nuove GPU AMD, ma non in Wolfenstein Youngblood che sfrutta un'estensione di Vulkan creata da Nvidia.
Click sul link per visualizzare la notizia.
https://drive.google.com/file/d/1d_pla5fbyg7OdHAKKMKZFz-s82X4eWfG/view
Wolfenstein Youngblood non solo è DXR, ma è accessibile anche con le GPU Intel (perchè è DXR).
le tecnologie proprietarie hanno sempre una vita corta...
cronos1990
04-11-2020, 07:25
le tecnologie proprietarie hanno sempre una vita corta...A meno che non si anticipino di molto i tempi e si riesca a diffondere quanto basta la propria tecnologia proprietaria tale per cui diventa essa stessa standard.
Che secondo me è quello che ha provato a fare Nvidia, con risultati direi piuttosto deludenti (perchè il DLSS non è esattamente la tecnologia più usata al mondo).
D'altronde ci avevano provato con il Physx, con il G-Sync, con l'Haircoso e non ricordo che altro.
E chi ricorda Glide3D? :D Ha brillato, ma non per molto :D
coschizza
04-11-2020, 08:11
[url]
le tecnologie proprietarie hanno sempre una vita corta...
infatti le directx sono proprietarie è sono durate quanto 25 anni?
e parlando di gpu le CUDA propietarie che dominano il mercato sono fuori da 13 anni., vita cortissima;)
Altro discorso le directX. Windows ha, e soprattutto aveva, una diffusione tale che quel S.O. era di fatto parte del PC, e se volevi giocare non c'erano alternative.
Ma era una feature disponibile per ogni produttore e offerto, relativamente ai produttori HW, da un'azienda "terza" in quanto si occupava di SW.
cronos1990
04-11-2020, 08:21
Altro discorso le directX. Windows ha, e soprattutto aveva, una diffusione tale che quel S.O. era di fatto parte del PC, e se volevi giocare non c'erano alternative.Nè più nè meno quel che dicevo io.
e parlando di gpu le CUDA propietarie che dominano il mercato sono fuori da 13 anni., vita cortissima;)Le GPU CUDA dominano il mercato non perchè il CUDA si è diffuso al di fuori di Nvidia, ma perchè Nvidia al momento ha il 75% del mercato (delle GPU discrete, perchè ricordo che a numero totale di GPU davanti a tutti c'è Intel). Se Nvidia scendesse al 20%, CUDA scenderebbe automaticamente al 20%
CUDA è uno standard proprietario che non si è diffuso oltre Nvidia.
E chi ricorda Glide3D? :D Ha brillato, ma non per molto :D
Brilleranno per sempre, te lo dico io :D
cronos1990
04-11-2020, 08:32
Brilleranno per sempre, te lo dico io :DNel senso che esplode? :asd:
Le GPU CUDA dominano il mercato non perchè il CUDA si è diffuso al di fuori di Nvidia, ma perchè Nvidia al momento ha il 75% del mercato (delle GPU discrete, perchè ricordo che a numero totale di GPU davanti a tutti c'è Intel).
Devi anche considerare altri fattori:
- CUDA è uscito al "grande pubblico" dei developer (non agli ultra-specialisti) prima di altri linguaggi.
- CUDA funziona maledettamente bene per quello che deve fare.
- OpenCL, il suo principale antagonista, è stato a lungo "balbuziente".
StylezZz`
04-11-2020, 08:34
La dichiarazione di AMD significa ad esempio che nei giochi che supportano DirectX Raytracing (DXR), come Control, sarà possibile attivare il ray tracing, mentre nel caso di implementazioni Nvidia RTX - come Quake II RTX o Wolfenstein Youngblood - non sarà possibile.
La serie RX 6000 ne uscirà con le ossa rotte da questa grave mancanza.
AMD ha sempre avuto questo tipo di approccio, forse anche per la necessità di combattere il predominio Nvidia.
Freesync vs GSync
Mantle -> ceduto alla community per realizzare Vulkan
OpenCL vs Cuda
cronos1990
04-11-2020, 08:46
Devi anche considerare altri fattori:
- CUDA è uscito al "grande pubblico" dei developer (non agli ultra-specialisti) prima di altri linguaggi.
- CUDA funziona maledettamente bene per quello che deve fare.
- OpenCL, il suo principale antagonista, è stato a lungo "balbuziente".Non discuto su meriti o demeriti di CUDA, nè quale sia lo stato della concorrenza. Mi limito a commentare la sua diffusione.
E, stando almeno alla wiki, CUDA è stato rilasciato nel 2007 e la prima versione stabile è di oltre 3 anni fa. Dopo tutto questo tempo rimane ancora relegato sulle GPU Nvidia.
Che questo dipenda dai costi, da scelte di Nvidia o da altre dinamiche non saprei dirlo. Ma al momento il destino di CUDA è legato a doppia mandata a quello di Nvidia, nonostante siano passati anni dal suo rilascio e il dominio di Nvidia pressochè incontrastato (per le GPU discrete) da 2-3 anni.
Se il caso vuole che Nvidia fallirà entro un paio d'anni (chiaramente parlo per assurdo, non ci credo minimamente) CUDA sparirebbe in un paio d'anni.
Nvidia ha sempre tirato fuori tecnologie proprietarie, e non credo perchè "fa figo", ma perchè punta ad imporle sul mercato per poi averne continui proventi. Al di là delle conseguenze di questa pratica (che dal mio punto di vista penalizza prima di tutti l'utente finale), è chiaro che è molto complicato raggiungere tale obiettivo, perchè ogni volta ti scontri con tecnologie analoghe, le quali però hanno una "maggiore apertura".
Nel mondo prettamente videoludico uno dei casi più eclatanti fu Havok vs Physx. Adesso parliamo di DLSS contro Ray Accelerator. Il DLSS, pur avendo un vantaggio di oltre 1 anno, probabilmente conterà molti meno giochi rispetto al RA quando quest'ultimo uscirà. E la sua natura "open" ne permetterà la diffusione non solo tra chi possiede una GPU AMD, ma anche tra chi possiede una GPU Nvidia.
Questo senza neanche entrare nel discorso console, che sono ben più trainanti.
coschizza
04-11-2020, 08:49
CUDA è uno standard proprietario che non si è diffuso oltre Nvidia.
ma senza gpu nvidia non puoi usare i software cuda che sono uno standard in molti settori quindi non hai alternative, non puoi dire uso altro
La serie RX 6000 ne uscirà con le ossa rotte da questa grave mancanza.
Premio castroneria dell'anno.
cronos1990
04-11-2020, 08:58
ma senza gpu nvidia non puoi usare i software cuda che sono uno standard in molti settori quindi non hai alternative, non puoi dire uso altroPremesso che sarei curioso di sapere quanto tale standard sia realmente diffuso.
E' il solito discorso, è un cane che si morde la cosa. Nvidia punta a "obbligarti" a comprare le sue schede fornendoti una tecnologia proprietaria, o eventualmente dandola in concessione a terzi (tipo AMD) dietro pagamenti di royalties elevate, cosa quest'ultima che non avviene.
Ma CUDA è diffuso per il motivo di cui sopra: Nvidia vende 3 volte tanto AMD in questo momento, vedremo con queste future GPU se cambia qualcosa.
Ci sarebbero da porsi parecchie domande in merito: quante aziende hanno deciso di adottare Nvidia per il CUDA, quante sono state "costrette" per motivi contingenti di varia natura, quante hanno deciso si affidarsi a schede AMD, quante usano OpenCL nonostante abbiano una scheda Nvidia, quante sono attrezzate o si stanno attrezzando per passare da CUDA a OpenCL...
...tutte informazioni che darebbero un quadro più completo della situazione, che sinceramente non ho.
Io so solo che ancora ad oggi per il CUDA si necessita di una scheda Nvidia, con tutti i pericoli insiti in questa scelta.
Quanto la fanno lunga con questa menata del "rei tresing". Lo spiattellano come fosse una cosa irrinunciabile per giocare. Tutti intontiti dal marketing, ripijatevi...:rolleyes:
coschizza
04-11-2020, 09:10
Premesso che sarei curioso di sapere quanto tale standard sia realmente diffuso.
nei datacenter copre il 100% mentre nei software di rendering professionali sol il 95% circa il resto comunque è ben superiore alle versioni opencl e molti software
nickname88
04-11-2020, 09:14
Buone notizie ma non dice molto di più.
Se Control funziona anche su AMD perchè non l'han mostrato ?
Super Resolution quando arriva ? Uscirà entro questa generazione ?
Nel senso che esplode? :asd:
Mi auguro di no! Ne ho parecchie di 3Dfx a casa e ne verrebbe un bel botto!
Scherzi a parte, per un buon retrogaming sono sempre importanti, tanto che ci sono anche almeno un paio di validi wrapper per emularle. Sono una parte importante della storia sia informatica che videoludica, quindi non verranno dimenticate come altre (redline di rendition ad esempio, o nvlib dell'nv1 di nvidia, S3D di S3, PowerSGL di PowerVR o ancora MSI di Matrox..)
CrapaDiLegno
04-11-2020, 09:24
Secondo me state facendo un mischione che metà basta.
Per prima cosa le tecnologie proprietarie sono sempre esistite e servono a dare un valore aggiunto ai propri prodotti, soprattutto quando sul mercato non c'è nulla di analogo.
G-Sync è nato un anno prima di Adaptive Sync.
Physx è stata la prima e a quanto ne so unica libreria ad avere l'accelerazione dei calcoli su GPU (Havok usa la CPU) per permettere effetti migliori.
CUDA è semplicemente Il linguaggio per programmare le GPU ed è stato creato quando la concorrenza pensava a mettere la tesselazione per i giochi (che era una feature AMD proprietaria ai tempi) invece che dotare l'architettura di capacità GPGPU migliori portando di fatto 4 anni dopo all'abbandono di quella porcheria.
Inoltre state sbagliano le percentuali: sui compuer dove di usa CUDA nVidia ha il 90% di market share ed è quindi logico che possa imporre uno standard e sopratutto che non abbia alcun interesse a fare in modo che questo sia usato liberamente dai concorrenti che non hanno investito un dollaro nello sviluppo SW in questi secoli.
In secondo luogo, riprendendo quanto detto sugli investimenti per lo sviluppo SW, fare notare che AMD non ha mai sviluppato nulla di suo: Mantle, uscita in anticipo rispetto alle DX12 già in cantiere (credete che MS non era già in contatto con AMD e nVidia per creare la nuova libreria all'uscita di Mantle?) è stata pensata da AMD ma realizzata da DICE. Poi visto che il lavoro era immane lo hanno rilasciato alla comunità per tirarci fuori qualcosa, altrimenti sarebbe semplicemente morta.
Il Free Sync altro non è che l'implementazione di Adaptive Sync, che è lo standard aperto nato un anno dopo G-Sync e con caratteristiche nettamente inferiori. Ma Adaptive Sync è stato sviluppato dal consorzio VESA e AMD non ha sborsato un dollaro per crearlo. Anche l'HW per supportarlo, a parte la parte che già c'era nelle GPU mobile trasportata anche su quelle desktop, è a carico dei produttori di monitor.
Quindi AMD in questo caso si è trovata la pappa già pronta.
Vogliamo parlare dei tentativi di creare un antagonista a CUDA? Investimenti zero, e infatti oggi c'è Cray (HP) a sobbarcarsi lo sviluppo di ROCm per tentare di avere una alternativa alla fornitura monopolistica di nVidia.
Roba che fallirà come tutti i precedenti tentativi all'arrivo dio OpenAPI di Intel. Quella probabilmente sarà la risposta, magari non per qualità, ma sicuramente per diffusione possibile grazie agli sforzi di Intel. Altra pappa pronta per AMD.
Ray-tracing? 2 anni dopo e non sembra con le prestazioni di nVidia. Visto che si gridava allo scandalo per le prestazioni di Turing in ray-tracing, mi piacerebbe capire cosa si dirà ora delle prestazioni di AMD che a quanto sembra sono allo stesso livello.
Unità per Deep Learning? Manco una traccia 4 anni dopo Volta. Manco nelle versioni professionali. Magari con le future CDNA, ma per ora nulla.
E parlando di DirectML, forse non avete capito bene la questione: è Microsoft a sviluppare la cosa (come sempre qualcuno che non è AMD, ma i suoi fanboy pensano sempre che il merito sua suo, non si capisce il perché) perché nella GPU del SoC XBOX ha messo delle unità in grado di accelerare i calcoli DL mentre AMD in RDNA2 (Playstation 5 e PC world) non li ha.
Quindi si sta parlando della stessa identica cosa di cui si discuteva con il raytracing: senza unità dedicate puoi sì fare il lavoro ma lo farai mooolto lentamente, e quindi non sarà di alcuna utilità.
AMD non beneficierà di DirectML per nessuno scaling, così come non lo farà PS5 finché in quelle GPU non entreranno delle unità per l'accelerazione dei calcoli di AI e DL.
E comunque l'algoritmo di scaling è sviluppato da Microsoft, non da AMD.
Detto questo AMD non riesce ad imporre nessuno standard o dare un calore aggiunto ai propri prodotti perché non investe in sviluppo SW, arriva dopo e le due cose non possono he portare a dover necessariamente richiedere l'aiuto di terze parti, fosse anche la comunità open source, per riuscire ad avere qualcosa che funzioni.
Ma se questo va bene per il mondo videoludico dove "basta che funzioni oggi, domani vabbe'" nel mondo professionale non vale: infatti CUDA è IL linguaggio mica per niente: funziona ed è supportato al 100% da nVidia (per le sue GPU di ieri oggi e soprattutto DOMANI, quindi lavoro quasi zero per sfruttarlo al 100% con quello che è sviluppato OGGI) e solo la sua morte farà in modo che smetta di essere sviluppato ulteriormente.
A quel punto però non ci saranno neanche più nuove GPU nVidia da sfruttare.
Invece dall'altra parte le proposte open fatte da garagisti che oggi ci sono e domani si dedicano ad altro o proprio non sono in grado di creare qualcosa di veramente avanzato, per ovvie ragioni non sono mai state prese in considerazione per sviluppare progetti da qualche decina o centinaia di milioni di dollari. Ora è corsa in soccorso HP con ROCm, e vedremo cosa tirerà fuori prima che OpenAPI arrivi sul mercato per diventare il nuovo standard "aperto".
Piedone1113
04-11-2020, 09:30
nei datacenter copre il 100% mentre nei software di rendering professionali sol il 95% circa il resto comunque è ben superiore alle versioni opencl e molti software
Più o meno la stessa situazione che c'era 3 anni fa per i processori, ma rimanere sull'onda non è sempre possibile ed un approcio open è sempre una valida alternativa.
L'accesso diretto alla ram della vga da parte della cpu è un'ottima cosa sopratutto in ambito pro.
Per ora AMD ha aggredito il mercato gaming, ma non è da escludere una famiglia dedicata al settore pro in grado di competere o superare le proposte nvidia.
A meno che non si anticipino di molto i tempi e si riesca a diffondere quanto basta la propria tecnologia proprietaria tale per cui diventa essa stessa standard.
Che secondo me è quello che ha provato a fare Nvidia, con risultati direi piuttosto deludenti (perchè il DLSS non è esattamente la tecnologia più usata al mondo).
D'altronde ci avevano provato con il Physx, con il G-Sync, con l'Haircoso e non ricordo che altro.
il fatto è che se quella che fa la tecnologia proprietaria detiene la stragrande maggioranza del mercato ha buone possibilità di riuscita o per lo meno di margine di guadagno per un po' di tempo...
nvidia ci ha provato e in buona parte c'è riuscita tranne forse su dlss che pur essendo una tecnologia spettacolare è abbastanza recente e quindi poco implementata nei giochi ma ce ne sono in uscita che vengono supportati soprattutto dove serve ovvero nei tripla A.
physix c'è ancora ed è costantemente aggiornato, non viene piu elencato perchè non ha piu quell'innovazione che ebbe decadi fa...
g-sync è piuttosto diffuso, io ho avuto un paio di monitor gsync e uno freesync e devo dire che gsync si comporta meglio. ora stanno un po' aprendo anche ad altri monitor per renderli compatibili ma cmq non è la stessa cosa dato che manca parte dell'hardware dedicato e se lo provi si nota.
amd ha buttato molto sulla carta ora pero' bisogna vedere in pratica come si risolverà. delle slide me ne faccio poco...e ci si aspetta un miglioramento grande anche lato software/driver
pachainti
04-11-2020, 09:40
Secondo questo articolo scientifico (http://cg.elte.hu/~gpgpu/cuda/cudavsopencl.pdf) (datato quando openCL non era maturo), non ci sono differenze rilevanti tra CUDA e openCL se si programma in modo opportuno.
Secondo questo articolo (https://create.pro/opencl-vs-cuda/), openCL è molto più diffuso di CUDA.
Adesso che AMD è fortemente competitiva, con molta probabilità, openCL diventerà lo standard anche per HPC e GPGPU
La serie RX 6000 ne uscirà con le ossa rotte da questa grave mancanza.
Non è una "grave mancanza". Come fai ad implementare tecnologie proprietarie su piattaforme diverse?
Vulkan era nato per essere aperto....
Secondo questo articolo scientifico (http://cg.elte.hu/~gpgpu/cuda/cudavsopencl.pdf) (datato quando openCL non era maturo), non ci sono differenze rilevanti tra CUDA e openCL se si programma in modo opportuno.
Ed è uno dei problemi ben noti di OpenCL: gira su tutto (cpu, gpu, fpga, ecc) ma bisogna targhettizzarla correttamente ogni volta. Cuda gira di suo solo su Nvidia e non ti devi smazzare più di tanto per configurarla
Secondo questo articolo (https://create.pro/opencl-vs-cuda/), openCL è molto più diffuso di CUDA.
Anche no. Guardati, per dire, le pubblicazioni scientifiche o il mondo HPC. Sono ancora saldamente in mando a CUDA.
Per dire, Nvidia fa corsi su CUDA in varie facoltà universitarie in giro per il mondo, fornisce hw gratuitamente ai ricercatori, ecc, ecc. Amd ha cominciato da poco a farlo.
Adesso che AMD è fortemente competitiva, con molta probabilità, openCL diventerà lo standard anche per HPC e GPGPU
Speriamo. In ambito scientifico io sono sempre per prodotti/tecnologie open.
Inoltre state sbagliano le percentuali: sui compuer dove di usa CUDA nVidia ha il 90% di market share ed è quindi logico che possa imporre uno standard e sopratutto che non abbia alcun interesse a fare in modo che questo sia usato liberamente dai concorrenti che non hanno investito un dollaro nello sviluppo SW in questi secoli.
Ma se questo va bene per il mondo videoludico dove "basta che funzioni oggi, domani vabbe'" nel mondo professionale non vale: infatti CUDA è IL linguaggio mica per niente: funziona ed è supportato al 100% da nVidia (per le sue GPU di ieri oggi e soprattutto DOMANI, quindi lavoro quasi zero per sfruttarlo al 100% con quello che è sviluppato OGGI) e solo la sua morte farà in modo che smetta di essere sviluppato ulteriormente.
A quel punto però non ci saranno neanche più nuove GPU nVidia da sfruttare.
Invece dall'altra parte le proposte open fatte da garagisti che oggi ci sono e domani si dedicano ad altro o proprio non sono in grado di creare qualcosa di veramente avanzato, per ovvie ragioni non sono mai state prese in considerazione per sviluppare progetti da qualche decina o centinaia di milioni di dollari. Ora è corsa in soccorso HP con ROCm, e vedremo cosa tirerà fuori prima che OpenAPI arrivi sul mercato per diventare il nuovo standard "aperto".
Assolutamente d'accordo. A me CUDA non piace, ma bisogna dire che il suo sporco lavoro lo fa ottimamente.
Per quanto riguarda lo sviluppo di linguaggi aperti, ci sono molti fattori "strani" che non riesco a spiegarmi, tipo: ma perchè il presidente del Kronos Group (l'organismo che coordina e sviluppa OpenCl) è un dipendente di alto livello di Nvidia? E' ovvio che NON smanierà di portare avanti velocemente questo linguaggio...
Per quanto riguarda Rocm, AMD ci sta lavorando, finalmente, seriamente. Ma sono indietro, indietro. Vediamo se l'arrivo degli Epyc e di altro hw nel settore HPC (finalmente un pò di concorrenza) porterà questo linguaggio a livello ottimale.
cronos1990
04-11-2020, 10:14
Secondo me state facendo un mischione che metà basta.Tutto quello che hai scritto esula dal discorso, l'hai messa sul piano Nvidia vs AMD. Che però non era il tema della discussione. Mi limito solo a dire che:
Physx è stata la prima e a quanto ne so unica libreria ad avere l'accelerazione dei calcoli su GPU (Havok usa la CPU) per permettere effetti migliori.Premesso che da nessuna parte c'è scritto che Physx permette di ottenere effetti migliori, e premesso che mentre tale tecnologia veniva usata solo per "effetti scenici" (atti a stupire, non certo a tornare utili), Havok ha avuto una maggior implementazione pratica nei videogiochi (a partire da HL2, che come esempio a riguardo credo basti e avanzi).
Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano.
Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
Slater91
04-11-2020, 10:15
[...]
In secondo luogo, riprendendo quanto detto sugli investimenti per lo sviluppo SW, fare notare che AMD non ha mai sviluppato nulla di suo: Mantle, uscita in anticipo rispetto alle DX12 già in cantiere (credete che MS non era già in contatto con AMD e nVidia per creare la nuova libreria all'uscita di Mantle?) è stata pensata da AMD ma realizzata da DICE. Poi visto che il lavoro era immane lo hanno rilasciato alla comunità per tirarci fuori qualcosa, altrimenti sarebbe semplicemente morta.
[...]
Vogliamo parlare dei tentativi di creare un antagonista a CUDA? Investimenti zero, e infatti oggi c'è Cray (HP) a sobbarcarsi lo sviluppo di ROCm per tentare di avere una alternativa alla fornitura monopolistica di nVidia.
Roba che fallirà come tutti i precedenti tentativi all'arrivo dio OpenAPI di Intel. Quella probabilmente sarà la risposta, magari non per qualità, ma sicuramente per diffusione possibile grazie agli sforzi di Intel. Altra pappa pronta per AMD. [...]
Temo tu stia prendendo un granchio. Da quanto mi risulta AMD e DICE hanno collaborato a sviluppare Mantle; non sono riuscito a trovare alcuna informazione circa il fatto che sarebbe stata implementata interamente da DICE.
Per quanto riguarda ROCm, invece, sono certo che ti sbagli: ROCm esiste da anni, ben da prima che Cray usasse CPU e GPU AMD per i suoi supercomputer. Quello a cui tu fai riferimento è questo comunicato (https://www.amd.com/en/press-releases/2019-05-07-amd-epyc-cpus-radeon-instinct-gpus-and-rocm-open-source-software-to-power) in cui viene specificato che "An enhanced version of the open source ROCm programming environment, developed with Cray to tap into the combined performance of AMD CPUs and GPUs." Si parla però di una versione migliorata, non dell'intero pacchetto ROCm.
Mi sembra - ma potrei sbagliarmi - che guardi le cose con occhio un po' troppo favorevole a NVIDIA e un po' troppo sfavorevole ad AMD. Bisogna sempre fare attenzione a cercare di guardare le cose con la maggiore obiettività possibile, altrimenti si rischia di assumere posizioni insostenibili.
In secondo luogo, riprendendo quanto detto sugli investimenti per lo sviluppo SW, fare notare che AMD non ha mai sviluppato nulla di suo: Mantle, uscita in anticipo rispetto alle DX12 già in cantiere (credete che MS non era già in contatto con AMD e nVidia per creare la nuova libreria all'uscita di Mantle?) è stata pensata da AMD ma realizzata da DICE. Poi visto che il lavoro era immane lo hanno rilasciato alla comunità per tirarci fuori qualcosa, altrimenti sarebbe semplicemente morta.
Cosa vuol dire esattamente "pensata" (con tanto di bold)! Non è un termine che esiste nella produzione di hw/sw :ciapet:
Intendi commissionata o architettata? Beh, anche se fosse il primo caso (che dubito), non è che DICE l'abbia architettata e implementata aggratis.
Ray-tracing? 2 anni dopo e non sembra con le prestazioni di nVidia.
È presto per parlare di prestazioni, anche se supporre prestazioni concorrenziali è anch'essa speculazione.
Una cosa importante da considerare è che i questi fatidici 2 anni, i giochi (rilasciati) che supportano l'RT sono...
... rullo di tamburi ...
una dozzina :sofico:. Ah, e in questa dozzina sono inclusi Minecraft e Quake 2 :read: . D'oh.
Sono d'accordo che il Ray Tracing è stata un'innovazione cruciale nel mondo dei videogiochi (e ci ho creduto a tal punto da comprare una RTX). Ma in questi due anni è successo poco e nulla.
infatti le directx sono proprietarie è sono durate quanto 25 anni?
e parlando di gpu le CUDA propietarie che dominano il mercato sono fuori da 13 anni., vita cortissima;)
DX ha un'intero OS dietro di se,; un ecosistema (ed inizialmente non era nemmeno la preferibile, come set di API).
DX è comunque uno pseudo standard che consente a diversi HW di diverse aziende di essere sfruttato al meglio.
non mi sembra che RTX abbia la stessa volontà nel diventare uno pseudo standard.
comunque 13 anni non son poi tanti per alcune cose, per altre forse son fin troppi.
si vedrà al 14esimo anno cosa succederà anche a Cuda.
ma senza gpu nvidia non puoi usare i software cuda che sono uno standard in molti settori quindi non hai alternative, non puoi dire uso altro
solo per imposizione di nvidia...
magari Cuda su una AMD funzionerebbe anche meglio, proprio per la natura delle sue architetture.
>>Quanto la fanno lunga con questa menata del "rei tresing"
Spero che sia una trollata. Un conto é pensare allo switch da rasterizzazione a raytracing in maniera pragmatica e realistica, un conto é rifiutarsi di vedere che di questo passaggio c'é bisogno e che prima si riesce a fare e meglio é per tutti.
Voler rimanere con la rasterizzazione a vita solo per qualche frame in piú significa farsi a piedi decine di chilometri al giorno solo per non prendersi il tempo e la pazienza necessaria a farsi la patente...
nei datacenter copre il 100% mentre nei software di rendering professionali sol il 95% circa il resto comunque è ben superiore alle versioni opencl e molti software
affermazione forte...
fonti certe ne hai?
perchè hai scritto numeri precisi e quindi da qualche parte li avrai presi... o no?
Buone notizie ma non dice molto di più.
Se Control funziona anche su AMD perchè non l'han mostrato ?
Super Resolution quando arriva ? Uscirà entro questa generazione ?
ti è stato scritto più di una volta: usciranno quando è il momento di uscire, non certo per far tacere te.
G-Sync è nato un anno prima di Adaptive Sync.
adaptive sync è uno standard nato 6 anni prima da VESA, ma si usava solo su alcuni portatili e su alcuni cellulari.
l'industria videoludica non lo ha voluto adottare perché è un sistema che lede il rinnovo tecnologico dell'HW, visto che consente di migliorare considerevolmente l'ergonomia d'uso.
se ho una scheda video che massimo mi fa 55fps, avendo adaptive sync non la cambio, se non l'ho mi devo tenere quadri a metà per errata sincronizzazione o un lag maggiore per imporre la sincronizzazione dovendo pure abbassare qualche settaggio per raggiungere il framerate adeguato a quel refresh.
è nvidia che ha anticipato i tempi di decisioni che erano già nell'aria...
sui compuer dove di usa CUDA nVidia ha il 90% di market share
sui computer su cui si usa cuda nvidia ha il 100% di market share, perché se non hai un HW nvidia Cuda non funziona. usi il compilato per HW generico su FPU che il compilatore cuda genera.
e così via per tutto il discorso che hai fatto, tratto da chiacchiere da bar se non fornisci le fonti (certe ed obbiettive) di queste informazioni.
Più o meno la stessa situazione che c'era 3 anni fa per i processori, ma rimanere sull'onda non è sempre possibile ed un approcio open è sempre una valida alternativa.
L'accesso diretto alla ram della vga da parte della cpu è un'ottima cosa sopratutto in ambito pro.
Per ora AMD ha aggredito il mercato gaming, ma non è da escludere una famiglia dedicata al settore pro in grado di competere o superare le proposte nvidia.
la presentano il 16 novembre.
Secondo questo articolo scientifico (http://cg.elte.hu/~gpgpu/cuda/cudavsopencl.pdf) (datato quando openCL non era maturo), non ci sono differenze rilevanti tra CUDA e openCL se si programma in modo opportuno.
Secondo questo articolo (https://create.pro/opencl-vs-cuda/), openCL è molto più diffuso di CUDA.
Adesso che AMD è fortemente competitiva, con molta probabilità, openCL diventerà lo standard anche per HPC e GPGPU
la fortuna di Cuda è che nvidia lavora costantemente per fornire tools e librerie di immediato utilizzo (a pagamento, logicamente), quindi anche un programmatore normale riesce a sfruttare codice di alto livello senza troppi problemi (anche se non sa che sta sfruttando codice che sfrutta particolare HW come AVX e shader unificati, per cui ci vuole una profonda conoscenza su come sfruttarli).
lo stesso lavoro lo sta facendo Intel da decenni per far decollare le AVX, che sono oggi l'unica cosa che le può realmente salvare dalla disfatta totale (in quanto possono controllare il flusso delle prestazioni tramite compilatore intel e dll generate perché possono decidere di compilare esclusivamente e solo per i propri processori).
visto che Intel è un dinosauro nel riuscire a comprendere certi meccanismi, solo da poco si è accorta che se non fornisce lei gli strumenti già precostruiti per asini, ed infatti sta fornendo software open per AVX e costruirà oneAPI (semi proprietaria) per riuscire a diffondere meglio il software adatto al proprio HW, sennò non ci cava un buco dal ragno...
nickname88
04-11-2020, 10:57
ti è stato scritto più di una volta: usciranno quando è il momento di uscire, non certo per far tacere te.
Fra l'uscire domani, il prossimo anno o quello dopo ancora cambia non poco. :rolleyes:
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case.
Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT.
Bene... questo chiarimento fa molta luce, direi che visto l'asse AMD+Intel+Microsoft+Sony vs. Nvidia, RTX proprietario e DLSS hanno abbastanza i giorni contati.
Senza togliere il demerito al fatto che sia stata proprio Nvidia a spingere il mercato degli early adopter con le sue soluzioni fatte in casa, ma si sta prospettando finalmente una "fase 2" per Ray Tracing di reale maturità e diffusione di massa fortunatamente.
Il fatto che le nuove RX6000 ed RXT3000 siano già pronte e compatibili per accoglierle mette tutti con i pensieri tranquilli.
Poi sul quando, come e con che diffusione arriverà è secondario e sicuramente non dipenderà certo da noi utenti. Sicuramente non vedremo mai più nuovi giochi RT compatibili solo con DLSS Nvidia da ora in avanti, sarebbe da suicidio per tutto l'ecosistema che si sta costruendo intorno.
cronos1990
04-11-2020, 11:01
sennò non ci cava un buco dal ragno...un ragno da un buco... cavare un buco dal ragno la vedo dura :asd:
Tutto quello che hai scritto esula dal discorso, l'hai messa sul piano Nvidia vs AMD. Che però non era il tema della discussione. Mi limito solo a dire che:
Premesso che da nessuna parte c'è scritto che Physx permette di ottenere effetti migliori, e premesso che mentre tale tecnologia veniva usata solo per "effetti scenici" (atti a stupire, non certo a tornare utili), Havok ha avuto una maggior implementazione pratica nei videogiochi (a partire da HL2, che come esempio a riguardo credo basti e avanzi).
Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano.
Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
PhysX è quasi un decennio che usa solo la CPU; su GPU non ci gira più nulla.
al tempo Intel si lamentava che nei giochi con integrato Physx le sue iGPU non potevano usare le AVX dei suoi processori, come invece potevano fare le schede video nvidia; poi, però, sia per la perdita totale d'interesse verso il mondo videoludico, sia per le scarse prestazioni che avevano ormai le sue iGPU, sia perchè spesso c'erano alternative migliori di PhysX che non limitavano solo per nome del brand dell'HW, non continuò la sua "impuntatura", anche perchè pur non avendo comunque concorrenza lato CPU era un vantaggio tattico, perchè tanto operava la stessa cosa anche lei tramite le DLL matematiche: se c'è Physx con una nvidia, su una CPU Intel, usi AVX e ti togli almeno il 5% di carico dalla CPU; in qualsiasi altra configurazione o è stesso PhysX che non usa le AVX perchè non hai HW nvidia, o sono le DLL matematiche Intel che non ti fanno usare le AVX perchè non hai un genuine Intel.
e siamo ben oltre la linea dello sfruttamento di tecnologie proprietarie per la manipolazione di mercato (con Intel che è del tutto scoperta, perchè ha dato in licenza le AVX ad AMD e VIA, in effetti), ossia stratagemmi per favorire l'anticoncorrenzialità.
un ragno da un buco... cavare un buco dal ragno la vedo dura :asd:
è voluta scritta così... nel frattempo lascio ulteriori messaggi tra le righe a certe persone ;)
chi deve capire, capisce.
Fra l'uscire domani, il prossimo anno o quello dopo ancora cambia non poco. :rolleyes:
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case.
Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT.
cambia perchè lo decidi tu?
ad oggi si e no ci saranno 5000 persone con una serie 3000 in mano (e più della metà sono influencer che l'hanno avuta per promuoverla).
quando sarà il tempo, sarà dato il tutto.
conta che alla fine di questo mese si saprà molto di più e magari ci saranno già le patch.
Fra l'uscire domani, il prossimo anno o quello dopo ancora cambia non poco. :rolleyes:
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case.
Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT.
4k + dettagli ultra + RT + 60 fps (perche non facciamo 144 a questo punto) ... renditi anche conto che stai parlando dello stato dell'arte tecnico assoluto di quello che può offrire ad oggi l'intero impianto tecnologico... per attuarlo come si deve ti sevirà comunque minimo una VGA da 700€ + CPU da 300€ + monitor adeguato da 600€.... un investimento che è disposto a fare chi? forse lo 0,001% dei videogiocatori ad oggi, accollandosi comunque il rischio di appoggiare una tecnologia ancora acerba solo parzialmente diffusa e supportata. E quindi di non vedere il loro investimento concretizzarsi a pieno in gran parte dei casi.
Direi che se Super Resolution esce tra 6 mesi o 18 mesi nessuno starà a strapparsi i capelli o passerà notti insonni, nel frattempo hai N situazioni e configurazioni intermedie di cui fruire per appagare la scimmia anche del più incallito early adopter
CrapaDiLegno
04-11-2020, 11:15
Tutto quello che hai scritto esula dal discorso, l'hai messa sul piano Nvidia vs AMD. Che però non era il tema della discussione. Mi limito solo a dire che:
La discussione mi sembra vertesse su chi propone uno standard aperto e chi invece uno proprietario (che non è standard me lo diventa nel caso si diffonda a macchia d'olio).
Quindi parlando di un mercato in cui ci sono 2+1 attori, parlare di AMD vs nVidia mi sembra alquanto scontato.
Premesso che da nessuna parte c'è scritto che Physx permette di ottenere effetti migliori, e premesso che mentre tale tecnologia veniva usata solo per "effetti scenici" (atti a stupire, non certo a tornare utili), Havok ha avuto una maggior implementazione pratica nei videogiochi (a partire da HL2, che come esempio a riguardo credo basti e avanzi).
Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano.
Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
Capisco che non hai capito.
Se nVidia acquista, investe e sviluppa una tecnologia è quasi ovvio che tenti di usarla per i suoi prodotti, non per regalarla agli altri.
Altrimenti non è un investimento.
E quindi non hai capito quello che ho scritto prima: AMD non investe di suo, fa investire gli altri sulle sue tecnologie. Ecco perché non propone alcuna soluzione proprietaria.
Temo tu stia prendendo un granchio. Da quanto mi risulta AMD e DICE hanno collaborato a sviluppare Mantle; non sono riuscito a trovare alcuna informazione circa il fatto che sarebbe stata implementata interamente da DICE.
AMD ha pensato e scritto l'API. Ma API significa solo elenco di funzioni e loro relazioni. Non il codice per implementarle. E siccome AMD non ha programmatori sufficienti per fare questo lavoro lo ha fatto fare a DICE.
Pagandoli in moneta o in promesse di creazione di gioco super figosissimo che avrebbe venduto miliardi non so, ma la collaborazione stava nella forma mente (AMD) braccio (DICE).
Per quanto riguarda ROCm, invece, sono certo che ti sbagli: ROCm esiste da anni, ben da prima che Cray usasse CPU e GPU AMD per i suoi supercomputer. Quello a cui tu fai riferimento è questo comunicato (https://www.amd.com/en/press-releases/2019-05-07-amd-epyc-cpus-radeon-instinct-gpus-and-rocm-open-source-software-to-power) in cui viene specificato che "An enhanced version of the open source ROCm programming environment, developed with Cray to tap into the combined performance of AMD CPUs and GPUs." Si parla però di una versione migliorata, non dell'intero pacchetto ROCm.
Mi sembra - ma potrei sbagliarmi - che guardi le cose con occhio un po' troppo favorevole a NVIDIA e un po' troppo sfavorevole ad AMD. Bisogna sempre fare attenzione a cercare di guardare le cose con la maggiore obiettività possibile, altrimenti si rischia di assumere posizioni insostenibili.
Ma io non ho detto che ROCm è una versione HP. Ho detto che HP ci sta lavorando per poterlo usare in maniera decente sui suoi nuovi server AMD based.
ROCm non è investimento AMD, ma come già detto, è una "collaborazione" con AMD che mette a disposizione il suo HW, i consigli, driver appositi ma poi il lavoro vero lo fanno gli altri.
Siccome prima che arrivasse HP ROCm era una accozzaglia di diversi strumenti open source messi insieme che nessuno ha mai preso in considerazione neanche per fare un "Hello World!" su GPU, c'è voluto che una azienda con i soldi e gli interessi nel campo come HP si prendesse carico di cercare di rendere la cosa quantomeno decente.
Certo non puoi vendere un server HPC e poi non dare il supporto per lo sviluppo su di esso. ROCm è un tentativo di fare questa cosa ma io ho il più che sospetto che durerà il tempo del lancio dei primi server AMD based e poi sarà "incorporato" in OpenAPI di Intel appena arriverà insieme agli acceleratori Intel.
D'altronde è la sola mossa che AMD e Intel possono fare per cercare di togliere parte del mercato GPGPU di nVidia che non si presenta solo con HW al top, ma anche con un supporto che per ora nessuno degli altri attori è in grado di offrire.
Cosa vuol dire esattamente "pensata" (con tanto di bold)! Non è un termine che esiste nella produzione di hw/sw :ciapet:
Intendi commissionata o architettata? Beh, anche se fosse il primo caso (che dubito), non è che DICE l'abbia architettata e implementata aggratis.
Vedi quanto scritto prima: un conto è pensare una API, un conto è implementarla.
Costruire l'architettura di una libreria e non scrivere una sola linea di codice esiste eccome nella produzione del SW.
E anche nell'HW.. pensa a RISC-V o in generale al processo che c'è tra progettare una architettura HW e poi metterla su silicio, fattibilr in diversi modi così come è implementabile in diversi modi la stessa API.
Mantle è stata la versione personale di AMD delle DX12 ma non aveva la forza di svilupparla da sola e ha chiesto e trovato aiuto in DICE, da tempo "loro compagni di gioco" che l'ha implementata.
È presto per parlare di prestazioni, anche se supporre prestazioni concorrenziali è anch'essa speculazione.
Una cosa importante da considerare è che i questi fatidici 2 anni, i giochi (rilasciati) che supportano l'RT sono...
... rullo di tamburi ...
una dozzina :sofico:. Ah, e in questa dozzina sono inclusi Minecraft e Quake 2 :read: . D'oh.
Sono d'accordo che il Ray Tracing è stata un'innovazione cruciale nel mondo dei videogiochi (e ci ho creduto a tal punto da comprare una RTX). Ma in questi due anni è successo poco e nulla.
Purtroppo il discorso adozione delle nuove tecnologie passa ahinoi dalle console. Se non hanno quella specifica funzione o supporto non c'è verso che questi si diffondano perché nessun sviluppatore ha interesse nell'investire in nuovi motori creati per sfruttare le nuove feature solo su PC.
E' un problema che andrebbe analizzato più a fondo, perché le console congelano il mondo videoludico per tutto il loro ciclo di vita. Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
L'evoluzione è purtroppo frenata dalle console, e ora con il singolo fornitore di HW non c'è neanche più la speranza che ci si faccia battaglia a livello di funzionalità. Quello è, e quello che c'è è pensato per costare il meno possibile, che tanto l'alta parte non può fare tanto meglio/peggio con lo stesso budget. Sembrano finiti i tempi della PS3 e della sua CPU e architettura rivoluzionarie. Oggi un NUC pompato non è dissimile da una console. Cambia solo il supporto SW (proprietario!).
Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
dipende sempre dal prezzo: se ti mettono quell'HW fantastico ad un prezzo di 300 euro, tutti a corre a comprarlo e a lasciare le console prendere polvere, biasimando l'acquisto ogni volta che ti passano sotto gli occhi...
CrapaDiLegno
04-11-2020, 11:28
adaptive sync è uno standard nato 6 anni prima da VESA, ma si usava solo su alcuni portatili e su alcuni cellulari.
l'industria videoludica non lo ha voluto adottare perché è un sistema che lede il rinnovo tecnologico dell'HW, visto che consente di migliorare considerevolmente l'ergonomia d'uso.
se ho una scheda video che massimo mi fa 55fps, avendo adaptive sync non la cambio, se non l'ho mi devo tenere quadri a metà per errata sincronizzazione o un lag maggiore per imporre la sincronizzazione dovendo pure abbassare qualche settaggio per raggiungere il framerate adeguato a quel refresh.
è nvidia che ha anticipato i tempi di decisioni che erano già nell'aria...
Di tutte le minchiate che hai scritto rispondo solo a questa perché è indicativa del fatto che non sai un cazzo della questione ma hai voluto solo sputare in faccia a nVidia come hai sempre fatto.
Sui portatili esiste l'adaptive sync, ma non è uno standard e sopratutto, rullo di tamburi, al tempo del G-Sync non esisteva manco il cavo che funzionasse con questa tecnologia sul monitor di casa.
Ma tu pensa... sarà per questo che nVidia ha creato l'HW che non necessitava l'aggiornamento delle specifiche VESA del cavo e che allo stesso tempo permetteva prestazioni migliori dell'Adaptive Sync che è arrivato un anno e rotti dopo?
sui computer su cui si usa cuda nvidia ha il 100% di market share, perché se non hai un HW nvidia Cuda non funziona. usi il compilato per HW generico su FPU che il compilatore cuda genera.
e così via per tutto il discorso che hai fatto, tratto da chiacchiere da bar se non fornisci le fonti (certe ed obbiettive) di queste informazioni.
Intendevo nel campo in cui si usa CUDA nVidia ha il 90% del mercato. Visto che l'alternativa è usare qualcosa di amatoriale senza supporto alcuno o assicurato nel tempo. Roba che non va d'accordo con investimenti pluri milionari.
Ma forse ci sarai tu a mettere sul tavolo 50 o 100 milioni di euro e obbligare tutti gli utilizzatori del tuo nuovo super server HPC a sfruttare solo tecnologia open che favorisce AMD (e ha come beneficio solo quello).
nickname88
04-11-2020, 11:28
4k + dettagli ultra + RT + 60 fps (perche non facciamo 144 a questo punto) ... renditi anche conto che stai parlando dello stato dell'arte tecnico assoluto di quello che può offrire ad oggi l'intero impianto tecnologico... per attuarlo come si deve ti sevirà comunque minimo una VGA da 700€ + CPU da 300€ + monitor adeguato da 600€.... un investimento che è disposto a fare chi? forse lo 0,001% dei videogiocatori ad oggi,
Mi sà che ti è sfuggito che quì si sta parlando solo di segmenti di fascia alta.
Le schede sia Nvidia che AMD a cui ci stiamo riferendo son prodotti il cui più economico è sopra i 500 euro.
Io e tutti quelli interessati facciamo tutti parte di quel 0.1% a cui ti riferisci e abbiamo tutto il budget necessario.
Spendo più di quanto da te dettato sia lato CPU, sia lato GPU e persino lato monitor.
StylezZz`
04-11-2020, 11:31
Premio castroneria dell'anno.
Non è una "grave mancanza". Come fai ad implementare tecnologie proprietarie su piattaforme diverse?
Vulkan era nato per essere aperto....
Dai che ero ironico su, a chi può fregare di quake 2 e wolfenstein yb :asd:
Piedone1113
04-11-2020, 11:44
Purtroppo il discorso adozione delle nuove tecnologie passa ahinoi dalle console. Se non hanno quella specifica funzione o supporto non c'è verso che questi si diffondano perché nessun sviluppatore ha interesse nell'investire in nuovi motori creati per sfruttare le nuove feature solo su PC.
E' un problema che andrebbe analizzato più a fondo, perché le console congelano il mondo videoludico per tutto il loro ciclo di vita. Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
Vedi, questo contraddice quello che hai scritto prima:
Nvidia ha investito in software, Amd in partnership.
Quando AMD aveva un gross margin del 20% sulle APU consolle tutti a dire che erano dei ricavi da zombie, nessuna azienda sana userebbe quei ricavi e che per l'accoppiata tegra+vga Nvidia avrebbe chiesto moltoi di più.
Adesso che si prospetta un quasi monopolio di giochi che usano tecnologia AMD ( e con una grossa maggioranza che userà esclusivamente ottimizzazioni AMD) ci si lamenta di immobilismo.
Immobilismo di che?
Per i prossimi 5 anni ci saranno tecnologie economiche che fino ad ieri sarebbero stato appannaggio di pochi, con la prospettiva che l'hardware riuscirà a sfruttarle sempre meglio ( in specialmodo hardware AMD) mentre si prospetta all'orizzonte una nuova implementazione con maggior effetti in hardware ed un conseguente abbandono delle tecnologie closed.
Fin quando credi che nvidia riuscirà a finanziare i suoi RTX, DSLL, PhisiX nei titoli tripla A?
Se AMD riuscirà a raggiungere il 40% del mercato videoludico alla fine del 2021 ben poche software house svilupperanno giochi senza ottimizzazioni per la stessa, mentre oggi servire l'80% del mercato ricevendo anche un finanziamento per le ottimizzazioni era una gran cosa, domani quei finanziamenti potrebbero non essere più sufficienti per compensare un mancato guadagno dell'utenza AMD ( che comunque avrà un parco game molto ben nutrito)
lo stesso lavoro lo sta facendo Intel da decenni per far decollare le AVX, che sono oggi l'unica cosa che le può realmente salvare dalla disfatta totale (in quanto possono controllare il flusso delle prestazioni tramite compilatore intel e dll generate perché possono decidere di compilare esclusivamente e solo per i propri processori).
C'è da dire che i ryzen supportano (e pestano forte) tranquillamente le AVX/AVX2
Cosa rimane ad Intel? Le AVX512?? Una delle cose più inutili della storia...
pachainti
04-11-2020, 13:38
Ed è uno dei problemi ben noti di OpenCL: gira su tutto (cpu, gpu, fpga, ecc) ma bisogna targhettizzarla correttamente ogni volta. Cuda gira di suo solo su Nvidia e non ti devi smazzare più di tanto per configurarla
OpenCL 2.0 è molto migliorato sotto questo punto di vista.
Anche no. Guardati, per dire, le pubblicazioni scientifiche o il mondo HPC. Sono ancora saldamente in mando a CUDA.
Per dire, Nvidia fa corsi su CUDA in varie facoltà universitarie in giro per il mondo, fornisce hw gratuitamente ai ricercatori, ecc, ecc. Amd ha cominciato da poco a farlo.
Hai qualche link con il market share o il supporto?
Di tutte le minchiate che hai scritto rispondo solo a questa perché è indicativa del fatto che non sai un cazzo della questione ma hai voluto solo sputare in faccia a nVidia come hai sempre fatto.
Sui portatili esiste l'adaptive sync, ma non è uno standard e sopratutto, rullo di tamburi, al tempo del G-Sync non esisteva manco il cavo che funzionasse con questa tecnologia sul monitor di casa.
Ma tu pensa... sarà per questo che nVidia ha creato l'HW che non necessitava l'aggiornamento delle specifiche VESA del cavo e che allo stesso tempo permetteva prestazioni migliori dell'Adaptive Sync che è arrivato un anno e rotti dopo?
https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf
ratifica ufficiale della tecnologia di variable refresh di VESA con il nome di adaptive Sync; prima conosciuta come variable refresh rate.
ratificata grazie all'aiuto di AMD su DP; prima era utilizzabile su su LVDS.
marzo 2014
https://www.hwupgrade.it/articoli/skvideo/4179/aoc-g2460pg-cos-e-e-come-funziona-il-g-sync_index.html
ottobre 2014
presentazione del g-sync di nvidia
al CES 2014.
https://en.wikipedia.org/wiki/Variable_refresh_rate
"Vector displays had a variable refresh rate on their cathode ray tube (CRT), depending on the number of vectors on the screen, since more vectors took more time to draw on their screen.
More recently, since the 2010s decade, raster displays gained several industry standards for variable refresh rates. Historically, there was only a limited selection of fixed refresh rates for common display modes. "
nvidia, come al solito, non ha inventato nulla.
ha solo copiato e messo sul mercato prima degli altri, in tempi in cui nessuno chiedeva e solo per cercare di instaurare uno standard de facto.
la prossima volta che passi di qui porta le fonti delle tue informazioni, così le vagliamo insieme ed eviti di scrivere tutte le minchiate che scrivi di solito.
Ma forse ci sarai tu a mettere sul tavolo 50 o 100 milioni di euro e obbligare tutti gli utilizzatori del tuo nuovo super server HPC a sfruttare solo tecnologia open che favorisce AMD (e ha come beneficio solo quello).
quello che faccio io t'interessa assai poco; tu impegnati a fare meno chiacchiere da bar sparando minchiate e razzolando male.
l'era delle minchiate è finita e dovrebbe finire anche l'era del poco rispetto degli altri, che te ed il tuo amichetto che ha scritto sotto di te non portate per nessuno, in questo forum.
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?
OpenCL 2.0 è molto migliorato sotto questo punto di vista.
Talmente migliorato che, con OpenCL 3.0 lo hanno "abbandonato" tornando all'OpenCl 1.2 :D
Hai qualche link con il market share o il supporto?
Qui poi farti una idea: Hgpu (https://hgpu.org/)
Poi mi ricordo che all'ultima convention IWOCL c'era una presentazione in cui parlavano di pubblicazioni gpgpu...
Mi sà che ti è sfuggito che quì si sta parlando solo di segmenti di fascia alta.
Le schede sia Nvidia che AMD a cui ci stiamo riferendo son prodotti il cui più economico è sopra i 500 euro.
Io e tutti quelli interessati facciamo tutti parte di quel 0.1% a cui ti riferisci e abbiamo tutto il budget necessario.
Spendo più di quanto da te dettato sia lato CPU, sia lato GPU e persino lato monitor.
ti sfugge che DirectML funziona su tutto.
c'è voluta Microsoft per dare la possibilità ai possessori delle GTX nvidia di usufruire di una tecnologia che nvidia gli nega, anche sapendo che funzionerebbe sulle loro schede.
il DLSS di Control è software e va con cudacore.
C'è da dire che i ryzen supportano (e pestano forte) tranquillamente le AVX/AVX2
Cosa rimane ad Intel? Le AVX512?? Una delle cose più inutili della storia...
pestano solo se il codice non è compilato dal ICC... lì viene negato l'uso se non è genuine Intel; dimostrazione è stata la relase 20 di matlab in cui un ricercatore ha mandato di debug le mat.dll intel e queste hanno funzionato anche con un ryzen, garantendo un guadagno del 2000% in prestazioni (più del doppio del miglior Intel mainstream); tanto ha fatto che alla fine hanno rilasciato una versione 20.1 che utilizzava librerie matematiche non Intel.
nickname88
04-11-2020, 14:08
ti sfugge che DirectML funziona su tutto.
c'è voluta Microsoft per dare la possibilità ai possessori delle GTX nvidia di usufruire di una tecnologia che nvidia gli nega, anche sapendo che funzionerebbe sulle loro schede.
il DLSS di Control è software e va con cudacore.Ah c'è già incluso l'AI nel DirectML ? Strano e finora perchè il DLSS ce l'avrebbe solo NVidia e AMD parla di Super Resolution a data da destinarsi se è veramente tutto già bello che pronto ? :rolleyes:
il DLSS di Control è software e va con cudacore.Il DLSS precedente andava sui CUDA Cores, con l'update al 2.0 non credo proprio, tuttavia il problema è che AMD non ha i CUDA Cores. Non ha il DLSS nè ha pronta l'alternativa.
E anche quando uscirà se è veramente open funzionerà anche su Nvidia, ma il DLSS dei titoli che nel frattempo lo adottano continueranno a non funzionare su AMD salvo attendere ulteriormente che qualcuno introduca il supporto anche al FidelityFX.
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?
perchè l'era delle minchiate e del poco rispetto per gli altri deve finire.
di questa gente non se ne può più.
si segnala, si segnala, ma nessuno ti da retta....
pestano solo se il codice non è compilato dal ICC... lì viene negato l'uso se non è genuine Intel; dimostrazione è stata la relase 20 di matlab in cui un ricercatore ha mandato di debug le mat.dll intel e queste hanno funzionato anche con un ryzen, garantendo un guadagno del 2000% in prestazioni (più del doppio del miglior Intel mainstream); tanto ha fatto che alla fine hanno rilasciato una versione 20.1 che utilizzava librerie matematiche non Intel.
Ah, beh, se cominciamo a parlare di compilatori e di "flag biricchini" durante la compilazione non la finiamo più :rolleyes:
perchè l'era delle e del poco rispetto per gli altri deve finire. di questa gente non se ne può più.
Ma si può pure discutere costruttivamente e questo potrebbe portare ad una "crescita" delle competenze di tutti. O no?
Si discute di Cuda/OpenCl, di compilatori, di open vs closed source? Non credo ci sia da scannarsi....
Ah c'è già incluso l'AI nel DirectML ? Strano e finora perchè il DLSS ce l'avrebbe solo NVidia e AMD parla di Super Resolution a data da destinarsi se è veramente tutto già bello che pronto ? :rolleyes:
su Control?
non credo proprio che ci rimetteranno mano su quel titolo, e poi si deve sempre sperare che nvidia faccia driver per DirectML e che abiliti le singole schede a quella tecnologia... sono decisioni sue, le stesse che ha preso negando gran parte delle innovazioni a coloro che avevano schede sotto i 450 euro (quando uscì la 2060).
Il DLSS precedente andava sui CUDA Cores, con l'update al 2.0 non credo proprio, tuttavia il problema è che AMD non ha i CUDA Cores. Non ha il DLSS nè ha pronta l'alternativa.
l'importante è che si possa usare e che dia benefici per riuscire a superare le difficoltà di quelle schede ad arrivare a 60fps in FHD, evitando di comprarne di nuove...
ma forse, lo riscrivo, nvidia non ha nessun interesse nel far tenere uno o due anni di più le schede di quella serie nei case della gente, quindi probabilmente non abiliterà la tecnologia per quelle schede.
E anche quando uscirà se è veramente open funzionerà anche su Nvidia, ma il DLSS dei titoli che nel frattempo lo adottano continueranno a non funzionare su AMD salvo attendere ulteriormente che qualcuno introduca il supporto anche al FidelityFX.
non è una gran perdita se su AMD non puoi usare il DirectML su una decina di titoli (perchè l'altra decina sono giocati si e no da una manciata di nerds e spesso non hanno manco bisogno del sussidio della super resolution).
come ti scrivevano sopra, sarà a vantaggio delle software house dare o meno supporto a certe tecnologie open e standardizzate, perchè ora quel loro lavoro è ad appannaggio di ben poche persone, domani lo potrebbe essere per la totalità del mercato.
Ma si può pure discutere costruttivamente e questo potrebbe portare ad una "crescita" delle competenze di tutti. O no?
Si discute di Cuda/OpenCl, di compilatori, di open vs closed source? Non credo ci sia da scannarsi....
non ci riescono.
spiegaglielo tu come si dovrebbero comportare in un forum, perchè sembra che non ci sia tanta gente a tenerci a questa cosa....
(che poi son sempre i soliti due che girano su tutti i vari forum e che si comportano nel medesimo modo... non è un atteggiamento generalizzato, te lo assicuro).
Hai qualche link con il market share o il supporto?
Per esempio, qui (https://www.khronos.org/assets/uploads/apis/OpenCL-3.0-Launch-Apr20.pdf)parlano di raddoppio su GitHub di repository dedicati ad OpenCl (circa 10.000). Se fai la stessa ricerca su GitHub riguardanti Cuda ne hai circa 21.000.
non ci riescono.
spiegaglielo tu come si dovrebbero comportare in un forum, perchè sembra che non ci sia tanta gente a tenerci a questa cosa....
(che poi son sempre i soliti due che girano su tutti i vari forum e che si comportano nel medesimo modo... non è un atteggiamento generalizzato, te lo assicuro).
OT
Non sono d'accordo del tutto, diciamo pure che se non ci fossero il buon nick e un altro paio a sparar matematicamente cazzate su qualsiasi news/recensione, le discussioni sarebbero un mortorio e non darebbero lo spunto agli altri di fare ragionamenti spesso interessanti. Io ho imparato molte cose proprio da spiegazioni (di altri) partite da "orrori della logica" di quel tipo.
Quindi non sottovaluterei la funzione sociale e aggregativa di questi utenti che danno comunque un contributo indiretto. :D
/OT
Tornando in argomento, pare che il futuro inizi a prefigurarsi veramente roseo per l'RT e tutte le features ad esso connesse. Alla fine vedrete che anche Nvidia si adeguerà alla logica dell'open all'atto pratico e man man abbandonerà il DLSS come è concepito ora, se non nella forma, quantomeno nella sostanza, proprio come avvenuto con G-Sync, Physics ecc.
D'altronde già ha messo le mani avanti annunciando una svolta open sul futuro DLSS 3.0, quindi magari conserverà il nome per i più fissati ma alla pratica si scriverà DLSS ma si leggerà DirectML.
OT
Non sono d'accordo del tutto, diciamo pure che se non ci fossero il buon nick e un altro paio a sparar matematicamente cazzate su qualsiasi news/recensione, le discussioni sarebbero un mortorio e non darebbero lo spunto agli altri di fare ragionamenti spesso interessanti. Io ho imparato molte cose proprio da spiegazioni (di altri) partite da "orrori della logica" di quel tipo.
Quindi non sottovaluterei la funzione sociale e aggregativa di questi utenti che danno comunque un contributo indiretto. :D
/OT
vero fino ad un certo punto... tanta gente competente si rifiuta di scrivere per non avere a che fare con certe persone.
prima di loro c'era un ambiente decisamente più florido di appassionati su queste pagine.
Tornando in argomento, pare che il futuro inizi a prefigurarsi veramente roseo per l'RT e tutte le features ad esso connesse. Alla fine vedrete che anche Nvidia si adeguerà alla logica dell'open all'atto pratico e man man abbandonerà il DLSS come è concepito ora, se non nella forma, quantomeno nella sostanza, proprio come avvenuto con G-Sync, Physics ecc.
D'altronde già ha messo le mani avanti annunciando una svolta open sul futuro DLSS 3.0, quindi magari conserverà il nome per i più fissati ma alla pratica si scriverà DLSS ma si leggerà DirectML.
infatti è quello che probabilmente farà, come fece con G-sync.
lei ci prova a fare standard de facto, ma non ci riesce mai per una questione di ingordigia.
a prezzi più ben modici e vendendo ad altri le licenze, non dico renderle open, offrendo il tutto a tutta la sua gamma, magari ci riuscirebbe.
CrapaDiLegno
04-11-2020, 15:54
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?
Quando hai uno che scrive un post dietro l'altro replicando a tutti per qualsiasi cosa con immense minchiate con la sola intenzione di esaltare AMD viene il dubbio che abbia interessi diversi dall'essere un semplice utente che scrive 10 post al mese per passione.
Qui siamo al livello di influencer e di premi ricevuti per ogni post fatto a favore di una certa azienda.
Solo in questo thread la metà dei post è scritto dalla stessa persona... o ha tempo da perdere facendo un cazzo nella vita con gravi problemi sociali oppure prende soldi per fare quello che fa.
Ecco perché le discussioni non sono più quelle di una volta, con gente che parlava con competenza anche se non si era d'accordo sull'argomento.
Oggi chiunque scrive stupidaggini può essere pagato per farlo. E quando queste diventano tante e oltre il normale comportamento di un utente medio, la cosa diventa piuttosto dubbia.
Da segnalare ci sarebbero questi individui: che siano stipendiati o abbaino problemi sociali non sono un contributo alle discussioni sui forum.
Almeno, io penso che non lo siano, magari la redazione preferisce averli per aumentare un po' i click.
Quando hai uno che scrive un post dietro l'altro replicando a tutti per qualsiasi cosa con immense minchiate con la sola intenzione di esaltare AMD viene il dubbio che abbia interessi diversi dall'essere un semplice utente che scrive 10 post al mese per passione.
Qui siamo al livello di influencer e di premi ricevuti per ogni post fatto a favore di una certa azienda.
Solo in questo thread la metà dei post è scritto dalla stessa persona... o ha tempo da perdere facendo un cazzo nella vita con gravi problemi sociali oppure prende soldi per fare quello che fa.
Ecco perché le discussioni non sono più quelle di una volta, con gente che parlava con competenza anche se non si era d'accordo sull'argomento.
Oggi chiunque scrive stupidaggini può essere pagato per farlo. E quando queste diventano tante e oltre il normale comportamento di un utente medio, la cosa diventa piuttosto dubbia.
Da segnalare ci sarebbero questi individui: che siano stipendiati o abbaino problemi sociali non sono un contributo alle discussioni sui forum.
Almeno, io penso che non lo siano, magari la redazione preferisce averli per aumentare un po' i click.
quanta verità. vorrei che le discussioni fossero piu tecniche e razionali.
io in passato ho avuto molte ati. negli ultimi anni molto piu nvidia che amd devo essere sincero, ma non avrei alcun problema anzi, a cambiar casa se ne valesse la pena sotto l'aspetto tecnico oltre che quello monetario (e dovrebbe avere la precedenza il primo, in un forum tecnico).
invece si riduce spesso a chiacchiere da bar. pochi link, poche fonti, pochi test, molte chiacchiere, illazioni, deliri.
si puo' decisamente fare di meglio...
Giusto per integrare il discorso RT e features... in questa fase di transizione probabilmente assisteremo a una situazione mista di protocolli open e proprietari, con certi giochi più adatti alle teconolgie RT Nvidia, ed altre più adatte a quelle AMD.
E' di ieri la notizia di Godfall che sarà il primo gioco ottimizzato sull'RT AMD dove le nuove Nvidia non giramno bene i 4K ed RT attivo:
https://www.tomshw.it/hardware/godfall-in-4k-mette-in-ginocchio-anche-la-geforce-rtx-3080/
Probabilmente sarà un 2021 di alternanza a secondo del gioco, ma alla fine OVVIAMENTE l'ecosistema RT di AMD spinto da console e mondo open non potrà che affermarsi come standard universale.
Slater91
04-11-2020, 18:41
Quando hai uno che scrive un post dietro l'altro replicando a tutti per qualsiasi cosa con immense minchiate...
...alla fine ci si stufa. Concordo. Così come esprimersi in questo modo, mancando di rispetto verso gli altri, stufa parecchio chi il forum lo deve gestire. Rifletteteci, tu e lucusta, i prossimi tre giorni.
mackillers
04-11-2020, 20:53
Giusto per integrare il discorso RT e features... in questa fase di transizione probabilmente assisteremo a una situazione mista di protocolli open e proprietari, con certi giochi più adatti alle teconolgie RT Nvidia, ed altre più adatte a quelle AMD.
E' di ieri la notizia di Godfall che sarà il primo gioco ottimizzato sull'RT AMD dove le nuove Nvidia non giramno bene i 4K ed RT attivo:
https://www.tomshw.it/hardware/godfall-in-4k-mette-in-ginocchio-anche-la-geforce-rtx-3080/
Probabilmente sarà un 2021 di alternanza a secondo del gioco, ma alla fine OVVIAMENTE l'ecosistema RT di AMD spinto da console e mondo open non potrà che affermarsi come standard universale.
Nel caso di godfall, si potrebbe tranquillamente pensare che si tratti semplicemente di ottimizzazione volutamente effettuata solo guardando all'hardware AMD. È comprensibile che in tale titolo le schede Nvidia siano più in difficoltà, come del resto lo sono le schede AMD in alcuni giochi sponsorizzati da Nvidia.
Oltretutto il gioco è appena stato presentato, probabilmente fra duro tre mesi le RTX si comporteranno molto meglio.
Detto questo è probabile che la diffusione delle nuove console agevoli la diffusione delle tecnologie Open sfruttate da AMD, ma non è scontato. Anche le console di precendente generazione sfruttavano hardware AMD, ma ciò nonostante Nvidia e le sue tecnologie hanno conquistato grande consenso.
A questo giro AMD sembra presentarsi più convinta, con prodotti più competitivi e con un più forte supporto di Microsoft che sta puntando molto sulla series X e le sue tecnologie.
Staremo a vedere, di sicuro la competizione è un vantaggio per noi videogiocatori.
Sarebbe davvero interessante un articolo approfondito come ai vecchi tempi sulle attuali tecnologie e librerie/SDK attualmente
In uso e/o sviluppo.
nickname88
04-11-2020, 22:30
OT
Non sono d'accordo del tutto, diciamo pure che se non ci fossero il buon nick e un altro paio a sparar matematicamente cazzate su qualsiasi news/recensione, le discussioni sarebbero un mortorio e non darebbero lo spunto agli altri di fare ragionamenti spesso interessanti. Io ho imparato molte cose proprio da spiegazioni (di altri) partite da "orrori della logica" di quel tipo.
Quindi non sottovaluterei la funzione sociale e aggregativa di questi utenti che danno comunque un contributo indiretto. :D
/OT
OT di risposta
Se per il termine "caxxate" da te espresso intendi l'evidenziare le mancanze di una soluzione allora sono d'accordo con te, sempre meglio invece che negare le evidenze e denigrare features che non si conoscono per tifo.
Infatti non bisognerebbe dare troppo peso a chi parlava di DLSS pensando che facesse il download da internet o di chi parla di gomplotti per ogni fonte portata e poi ti promuove affermazioni supportate da allucinazioni, basate sul nulla assoluto e con la rassicurazione dell'espressione "te lo assicuro io". :rolleyes:
/OT
nickname88
04-11-2020, 22:33
E' di ieri la notizia di Godfall che sarà il primo gioco ottimizzato sull'RT AMD dove le nuove Nvidia non giramno bene i 4K ed RT attivo:
https://www.tomshw.it/hardware/godfall-in-4k-mette-in-ginocchio-anche-la-geforce-rtx-3080/
L'articolo si riferisce al fatto che con l'HD Texture pack il gioco occuperebbe ( col condizionale ) 12GB di VRAM, non fa riferimento a difficoltà col RT o a livello di performance con l'architettura Nvidia.
cronos1990
05-11-2020, 06:15
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?E' la natura umana.
Ma si può pure discutere costruttivamente e questo potrebbe portare ad una "crescita" delle competenze di tutti. O no?
Si discute di Cuda/OpenCl, di compilatori, di open vs closed source? Non credo ci sia da scannarsi....L'idea è quella. Ma nel 99% dei casi si viene su un forum per decantare la propria verità assoluta, difendere il proprio marchio oppresso (come se Nvidia o AMD ne avessero bisogno) e scannarsi contro chi ha un pensiero diverso dal tuo.
E banalmente la situazione normale. Capita anche a me d'istinto ogni tanto, con la differenza che a me non piace farlo e me ne pento subito dopo. Ma io sono strano :asd:
mackillers
05-11-2020, 06:18
L'articolo si riferisce al fatto che con l'HD Texture pack il gioco occuperebbe ( col condizionale ) 12GB di VRAM, non fa riferimento a difficoltà col RT o a livello di performance con l'architettura Nvidia.
E probabilmente è una scelta voluta proprio per evidenziare il maggior quantitativo di VRam delle schede AMD, insomma è una scelta legata al marketing.
Poi vorrei capire se si tratta di 12 GB di RAM utilizzata o solamente allocata.
Detto ciò è comunque chiaro che a parità più o meno di costo avere più ram non fa mai male. Ma da possessore di 5700xt e piattaforma ryzen, dico che probabilmente i 8 GB per una scheda per il 1440p e 10 per il 4k basteranno ancora senza problemi per qualche annetto.
Detto ciò sono contento che anche AMD lavori ad un suo dlss che giri su librerie Microsoft, perché la trovo una features davvero molto utile se ben implementata come su certi titoli attuali che sfruttano il dlss 2.0
mackillers
05-11-2020, 06:24
L'articolo si riferisce al fatto che con l'HD Texture pack il gioco occuperebbe ( col condizionale ) 12GB di VRAM, non fa riferimento a difficoltà col RT o a livello di performance con l'architettura Nvidia.
Oltretutto graficamente questo godfall non mi pare essere chi sa cosa.
Ma questa sensazione me la stanno dando molti giochi recenti, anche cyberpunk per esempio. Sarà dovuto alle ambientazioni poco realistiche e piene di colori saturi che danno una sensazione di finto generale..
Oppure sarà colpa della tecdemo del Unreal engine 5, quella densità poligonale e qualità di gestione della luce sono davvero fuori dal comune.
Un vero effetto wow come fu a suo tempo per il primo crysis.
cronos1990
05-11-2020, 06:36
Tornando in argomento, pare che il futuro inizi a prefigurarsi veramente roseo per l'RT e tutte le features ad esso connesse. Alla fine vedrete che anche Nvidia si adeguerà alla logica dell'open all'atto pratico e man man abbandonerà il DLSS come è concepito ora, se non nella forma, quantomeno nella sostanza, proprio come avvenuto con G-Sync, Physics ecc.
D'altronde già ha messo le mani avanti annunciando una svolta open sul futuro DLSS 3.0, quindi magari conserverà il nome per i più fissati ma alla pratica si scriverà DLSS ma si leggerà DirectML.La storia dice quello.
Cercare di imporre le proprie tecnologie per renderle uno standard non è di per se impossibile o un male a prescindere. Di sicuro questa politica non porta a nulla se forzi più del dovuto la mano per ottenere tale risultato, ed è quello che ha sempre fatto Nvidia con veri e propri boicottaggi per forzare la mano, pagamento di royalties onerose e altre pratiche che seppur lecite non giovano certo al raggiungimento di certi obiettivi, se non a brevissimo termine.
Spesso molte di queste tecnologie (ambo le parti) non sai mai neanche fino a che punto possono rendere: o perchè castrate su architetture che non sono le proprie, o perchè sviluppate solo da pochi precludendo volutamente gli altri, o perchè pubblicizzate tramite spintarelle più che per portare vera innovazione. E chi ci rimette sono più o meno tutti, se guardiamo poi al concreto.
In linea generale (non specifico al DLSS) l'unico vero vantaggio lato programmatore/utente della politica Nvidia sta nell'ottimizzazione: una tecnologia che funziona solo con quell'Hardware (ora mi viene in mente anche lo SLI che funzionava solo su MB con chipset Nvidia, tra le altre cose), cosa che neanche è detta perchè appunto lo scopo di Nvidia non è tanto quello di fornire strumenti funzionali, ma di dominare il mercato con i propri prodotti.
D'altro canto le tecnologie open possono essere applicate da chiunque su (in teoria) qualunque tecnologia, permettono di abbattere i costi per tutti e soprattutto possono essere sviluppate ed evolute da molte più entità, quindi potenzialmente possono essere molto più raffinate ed efficienti.
Tornando al titolo dell'articolo, nessuno ha idea chi sarà migliore (anche se non ha senso parlare di "migliore", dipende dagli aspetti specifici e dall'utilizzo che se ne fa) se il DLSS o il RA.
Di sicuro il DLSS rischia di essere relegato solo a pochi giochi, correlato a doppia mandata alle scelte di Nvidia e con la necessità di avere una GPU Nvidia. Tutti aspetti che, al netto della resa finale, sono tutti negativi lato utente. Chiaro che se poi uno compra Nvidia a prescindere (mai capito l'ultima corsa alle schede 30xx... aspettare almeno l'uscita di entrambe le marche e vedere i benchmark prima di acquistare fa così schifo?) e gioca solo a 4 titoli messi in croce che hanno DLSS la prospettiva cambia; ma sarebbero comunque casi particolari, e al momento non c'è certezza che sia comunque la soluzione ottimale.
mackillers
05-11-2020, 08:12
La storia dice quello.
Cercare di imporre le proprie tecnologie per renderle uno standard non è di per se impossibile o un male a prescindere. Di sicuro questa politica non porta a nulla se forzi più del dovuto la mano per ottenere tale risultato, ed è quello che ha sempre fatto Nvidia con veri e propri boicottaggi per forzare la mano, pagamento di royalties onerose e altre pratiche che seppur lecite non giovano certo al raggiungimento di certi obiettivi, se non a brevissimo termine.
Spesso molte di queste tecnologie (ambo le parti) non sai mai neanche fino a che punto possono rendere: o perchè castrate su architetture che non sono le proprie, o perchè sviluppate solo da pochi precludendo volutamente gli altri, o perchè pubblicizzate tramite spintarelle più che per portare vera innovazione. E chi ci rimette sono più o meno tutti, se guardiamo poi al concreto.
In linea generale (non specifico al DLSS) l'unico vero vantaggio lato programmatore/utente della politica Nvidia sta nell'ottimizzazione: una tecnologia che funziona solo con quell'Hardware (ora mi viene in mente anche lo SLI che funzionava solo su MB con chipset Nvidia, tra le altre cose), cosa che neanche è detta perchè appunto lo scopo di Nvidia non è tanto quello di fornire strumenti funzionali, ma di dominare il mercato con i propri prodotti.
D'altro canto le tecnologie open possono essere applicate da chiunque su (in teoria) qualunque tecnologia, permettono di abbattere i costi per tutti e soprattutto possono essere sviluppate ed evolute da molte più entità, quindi potenzialmente possono essere molto più raffinate ed efficienti.
Tornando al titolo dell'articolo, nessuno ha idea chi sarà migliore (anche se non ha senso parlare di "migliore", dipende dagli aspetti specifici e dall'utilizzo che se ne fa) se il DLSS o il RA.
Di sicuro il DLSS rischia di essere relegato solo a pochi giochi, correlato a doppia mandata alle scelte di Nvidia e con la necessità di avere una GPU Nvidia. Tutti aspetti che, al netto della resa finale, sono tutti negativi lato utente. Chiaro che se poi uno compra Nvidia a prescindere (mai capito l'ultima corsa alle schede 30xx... aspettare almeno l'uscita di entrambe le marche e vedere i benchmark prima di acquistare fa così schifo?) e gioca solo a 4 titoli messi in croce che hanno DLSS la prospettiva cambia; ma sarebbero comunque casi particolari, e al momento non c'è certezza che sia comunque la soluzione ottimale.
La chiave di tutto di solito sta nella diffusione del Hardware con il supporto a determinate features.
di solito escono prima le schede video e poi piano piano i giochi iniziano a sfruttare le nuove caratteristiche. semplicemente perché per i programmatori non ha senso spendere risorse per caratteristiche sfruttate da pochi clienti.
se sfruttare il Raytracing "puro" delle DX ultimate di Microsoft sarà semplice, se richiederà bene o male le medesime accortezze su Series X e sarà abbastanza ben implementabile sia su HW nvidia che AMD vedrete che prenderà piede, viceversa si continuerà con le soluzioni proprietarie Nvidia.
Poi a dare una spinta ulteriore potranno essere le vendite della serie 6000 di AMD nel corso del 2021, se fossero buone e ci fossero anche ottime prospettive per la serie 7000, è chiaro che questo elemento fungerebbe da ulteriore incentivo per gli sviluppatori per passare a motori grafici che le sfruttino a pieno (sfruttando ovviamente a pieno anche le rivali Nvidia).
non ho ben capito però se le Direct ML sono solo delle API generiche per accelerare calcoli legati al AI ed al Deeplearnig, se siano specifiche per tali calcoli in ambito grafico o se Microsoft le ha proprio concepite per essere una funzione aggiuntiva delle DXR volta a rappresentare un alternativa al DLSS.
in altre parole cosa manca a livello software perché una casa produttrice di videogame possa sfruttare tali funzioni?
servono solo driver appositi? servono driver appositi ed un SDK prodotto da AMD e/o Microsoft che sfrutti queste API? oppure servirebbero oltre a ciò servirebbe creare anche una funzione apposita in ogni motore grafico?
perché è chiaro che è qui la questione dirimente, quanto dovranno spendere le case produttrici per implementarlo quando sarà pronto, perché se dall'altra parte Nvidia di sua spesa ti passa una suite già pronta all'uso e facilmente implementabile in qualsiasi Engine la questione cambia un bel pò.
pachainti
05-11-2020, 08:37
Talmente migliorato che, con OpenCL 3.0 lo hanno "abbandonato" tornando all'OpenCl 1.2 :D
Non esattamente. Le funzionalità openCL 2.x sono opzionali, ma supportate link (https://www.khronos.org/news/press/khronos-group-releases-opencl-3.0).
“OpenCL 2.X delivers significant functionality, but OpenCL 1.2 has proven itself as the baseline needed by all vendors and markets. OpenCL 3.0 integrates tightly organized optionality into the monolithic 2.2 specification, boosting deployment flexibility that will enable OpenCL to raise the bar on pervasively available functionality in future core specifications.”
Qui poi farti una idea: Hgpu (https://hgpu.org/)
Poi mi ricordo che all'ultima convention IWOCL c'era una presentazione in cui parlavano di pubblicazioni gpgpu...
Si conosco il sito web. Chiedevo se avessi una comparativa sulla diffusione openCL vs CUDA.
ciolla2005
05-11-2020, 14:00
AMD ha già la risposta al DLSS, si chiama Fidelity FX + DRS.
mackillers
06-11-2020, 06:59
AMD ha già la risposta al DLSS, si chiama Fidelity FX + DRS.
Al momento attuale questo è sostanzialmente falso.
È vero che queste tecnologie AMD si occupano similarmente di fare renderizzare una scena a risoluzione inferire per poi effettuare un uoscaling e successiva operazione di aumento del contrasto.
Ma mentre AMD sfrutta un semplice algoritmo di sharpening che aumenta il contrato dell'immagine lungo i bordi, Nvidia sfrutta il deeplearning per ricostruire l'immagine a risoluzione piena e con una qualità addirittura superiore rispetto al rendering a risoluzione piena nativo.
Ed il tutto con un minore impatto prestazionale visto che ad occuparsi di tutto sono delle apposite unità di calcolo aggiuntive .
Praticamente quello di AMD è un "trucchetto" molto semplice per guadagnare prestazioni a discapito della qualità, quello di Nvidia è un qualcosa da attivare sempre perché da sia più qualità che più prestazioni.
Infatti le tec di AMD sono pensate separatamente, per poter usare il fidelity FX senza la riduzione di risoluzione. (In altre parole AMD sapendo che il calo di risoluzione impatta molto sulla qualità ti da la possibilità di utilizzare solo lo sharpening per migliorare il contrasto dell'immagine senza perdere in qualità)
Non a caso il Radeon boost AMD non lo fa vedere nei video tech, perché si capirebbe la perdita di qualità.
mackillers
06-11-2020, 07:01
AMD ha già la risposta al DLSS, si chiama Fidelity FX + DRS.
Ovviamente tutto questo potrà cambiare se AMD riuscirà in futuro a sfruttare le librerie DirectML di Microsoft per effettuare l'upscaling dell'immagine tramite Deep learning.
Piedone1113
06-11-2020, 07:34
Nvidia sfrutta il deeplearning per ricostruire l'immagine a risoluzione piena e con una qualità addirittura superiore rispetto al rendering a risoluzione piena nativo.
Ma le rileggi le str****e che scrivi?
Qualità superiore un upscaling rispetto alla renderizzazione di un immagine a risoluzione piena?
Quindi se renderizziamo una immadine a 800x600 e poi applichiamo il dlss a passi di risoluzione superiori ( 1024, 1440, 1600, 1920, 2k, 4k) dovremmo avere a 4k una qualità 6 volte superiore rispetto alla stessa immagine renderizzata a risoluzione nativa?
Adesso vai a dire alle varie softwarehouse che è inutile utilizzare cuda e motori di rendering super evoluti, basta usare una risoluzione bassa ed applicare il DSL per avere qualità n volte superiore rispetto a quello che ottengono adesso.
Ma le rileggi le str****e che scrivi?
Qualità superiore un upscaling rispetto alla renderizzazione di un immagine a risoluzione piena?
Quindi se renderizziamo una immadine a 800x600 e poi applichiamo il dlss a passi di risoluzione superiori ( 1024, 1440, 1600, 1920, 2k, 4k) dovremmo avere a 4k una qualità 6 volte superiore rispetto alla stessa immagine renderizzata a risoluzione nativa?
Adesso vai a dire alle varie softwarehouse che è inutile utilizzare cuda e motori di rendering super evoluti, basta usare una risoluzione bassa ed applicare il DSL per avere qualità n volte superiore rispetto a quello che ottengono adesso.
Non è necessariamente un x6 ma non devi considerarlo propriamente un filtro. Si tratta di fare riadattare la scena a risoluzione maggiorata in maniera intelligente dalle unità tensor core. Se con il dlss 1.x i risultati erano altalenanti e si percepivano i difetti, con la versione 2.0 si è ottenuti dei risultati strabilianti. Considera poi che i difetti ci sono sempre anche a risoluzione piena ma spesso sono mascherati da filtri e dalla risoluzione stessa ma il dlss riesce a compensare anche questi.
https://www.youtube.com/watch?v=KGG0R7t-UjI
Insomma che si usi o no, o indipendentemente da come lo si utilizzi, è sicuramente una tecnologia interessante!
Piedone1113
06-11-2020, 08:58
Non è necessariamente un x6 ma non devi considerarlo propriamente un filtro. Si tratta di fare riadattare la scena a risoluzione maggiorata in maniera intelligente dalle unità tensor core. Se con il dlss 1.x i risultati erano altalenanti e si percepivano i difetti, con la versione 2.0 si è ottenuti dei risultati strabilianti. Considera poi che i difetti ci sono sempre anche a risoluzione piena ma spesso sono mascherati da filtri e dalla risoluzione stessa ma il dlss riesce a compensare anche questi ultimi.
https://www.youtube.com/watch?v=KGG0R7t-UjI
Insomma che si usi o no, o indipendentemente da come lo si utilizzi, è sicuramente una tecnologia interessante!
Ho gia espresso la mia opinione circa il DLSS.
La riassumo per completezza:
Il DLSS permettete di avere un elevato framerate con un'ottima qualità di immagine paragonabile alla renderizzazione a risoluzione nativa.
La fedeltà dell'immagine non ci interessa perchè stiamo parlando di giochi, e quello che ci serve è altro.
Il DLSS porta ad avere un risultato simile a quello percepito davanti alle TV in Demo Mode ( effetto wow) che con tutti i suoi limiti comunque è un ottimo compromesso senza intaccare minimamente la godibilità del gioco ( colori leggermenti diversi, o qualche artefatto ogni tanto ripagano ampiamente i vantaggi della tecnologia).
Ma dire che il DLSS offre scene di altissima qualità è ben diverso dal dire che il DLSS offre una qualità superiore alla stessa scena renderizzata a risoluzione nativa.
Scommettiamo che con una futura 7900xt o RTX4090 capaci di renderizzare allo stesso framerate di quello che ci offre oggi il DLSS nessuno si azzarderà a dire che qualitativamente è migliore il risultato ottenuto con il dlss?
Il punto è che la scena renderizzata in risoluzione nativa è in ogni caso elaborata (con difetti), corretta e filtrata. Non so se ricordate la mancanza di filtro prospettico o mipmapping :D
Il dlss la rielabora in maniera intelligente, migliorandola di fatto.
cronos1990
06-11-2020, 09:41
Il punto è che la scena renderizzata in risoluzione nativa è in ogni caso elaborata (con difetti), corretta e filtrata. Non so se ricordate la mancanza di filtro prospettico o mipmapping :D
Il dlss la rielabora in maniera intelligente, migliorandola di fatto.Ma che cavolo dici :asd:
Tra l'altro se anche fosse come dici tu, lo stesso DLSS parte da quelle scene renderizzate in risoluzione nativa, quindi con quei difetti che vai dicendo.
Per piacere, un minimo di decoro. Che il DLSS sia una tecnica valida credo che lo sappiamo tutti, ma che renda migliore l'immagine originale a risoluzione nativa...
Ma che cavolo dici :asd:
Tra l'altro se anche fosse come dici tu, lo stesso DLSS parte da quelle scene renderizzate in risoluzione nativa, quindi con quei difetti che vai dicendo.
Per piacere, un minimo di decoro. Che il DLSS sia una tecnica valida credo che lo sappiamo tutti, ma che renda migliore l'immagine originale a risoluzione nativa...
Ho editato mille volte perché mi rendevo conto che poteva essere tutto ben frainteso ma non mi va di discutere anche stavolta sul "come lo dico io"
Complimenti ancora una volta per i modi, per la capacità di comprensione e tanti saluti
Mi auguro che almeno qualun'altro abbia capito
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.