|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#21 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Secondo me state facendo un mischione che metà basta.
Per prima cosa le tecnologie proprietarie sono sempre esistite e servono a dare un valore aggiunto ai propri prodotti, soprattutto quando sul mercato non c'è nulla di analogo. G-Sync è nato un anno prima di Adaptive Sync. Physx è stata la prima e a quanto ne so unica libreria ad avere l'accelerazione dei calcoli su GPU (Havok usa la CPU) per permettere effetti migliori. CUDA è semplicemente Il linguaggio per programmare le GPU ed è stato creato quando la concorrenza pensava a mettere la tesselazione per i giochi (che era una feature AMD proprietaria ai tempi) invece che dotare l'architettura di capacità GPGPU migliori portando di fatto 4 anni dopo all'abbandono di quella porcheria. Inoltre state sbagliano le percentuali: sui compuer dove di usa CUDA nVidia ha il 90% di market share ed è quindi logico che possa imporre uno standard e sopratutto che non abbia alcun interesse a fare in modo che questo sia usato liberamente dai concorrenti che non hanno investito un dollaro nello sviluppo SW in questi secoli. In secondo luogo, riprendendo quanto detto sugli investimenti per lo sviluppo SW, fare notare che AMD non ha mai sviluppato nulla di suo: Mantle, uscita in anticipo rispetto alle DX12 già in cantiere (credete che MS non era già in contatto con AMD e nVidia per creare la nuova libreria all'uscita di Mantle?) è stata pensata da AMD ma realizzata da DICE. Poi visto che il lavoro era immane lo hanno rilasciato alla comunità per tirarci fuori qualcosa, altrimenti sarebbe semplicemente morta. Il Free Sync altro non è che l'implementazione di Adaptive Sync, che è lo standard aperto nato un anno dopo G-Sync e con caratteristiche nettamente inferiori. Ma Adaptive Sync è stato sviluppato dal consorzio VESA e AMD non ha sborsato un dollaro per crearlo. Anche l'HW per supportarlo, a parte la parte che già c'era nelle GPU mobile trasportata anche su quelle desktop, è a carico dei produttori di monitor. Quindi AMD in questo caso si è trovata la pappa già pronta. Vogliamo parlare dei tentativi di creare un antagonista a CUDA? Investimenti zero, e infatti oggi c'è Cray (HP) a sobbarcarsi lo sviluppo di ROCm per tentare di avere una alternativa alla fornitura monopolistica di nVidia. Roba che fallirà come tutti i precedenti tentativi all'arrivo dio OpenAPI di Intel. Quella probabilmente sarà la risposta, magari non per qualità, ma sicuramente per diffusione possibile grazie agli sforzi di Intel. Altra pappa pronta per AMD. Ray-tracing? 2 anni dopo e non sembra con le prestazioni di nVidia. Visto che si gridava allo scandalo per le prestazioni di Turing in ray-tracing, mi piacerebbe capire cosa si dirà ora delle prestazioni di AMD che a quanto sembra sono allo stesso livello. Unità per Deep Learning? Manco una traccia 4 anni dopo Volta. Manco nelle versioni professionali. Magari con le future CDNA, ma per ora nulla. E parlando di DirectML, forse non avete capito bene la questione: è Microsoft a sviluppare la cosa (come sempre qualcuno che non è AMD, ma i suoi fanboy pensano sempre che il merito sua suo, non si capisce il perché) perché nella GPU del SoC XBOX ha messo delle unità in grado di accelerare i calcoli DL mentre AMD in RDNA2 (Playstation 5 e PC world) non li ha. Quindi si sta parlando della stessa identica cosa di cui si discuteva con il raytracing: senza unità dedicate puoi sì fare il lavoro ma lo farai mooolto lentamente, e quindi non sarà di alcuna utilità. AMD non beneficierà di DirectML per nessuno scaling, così come non lo farà PS5 finché in quelle GPU non entreranno delle unità per l'accelerazione dei calcoli di AI e DL. E comunque l'algoritmo di scaling è sviluppato da Microsoft, non da AMD. Detto questo AMD non riesce ad imporre nessuno standard o dare un calore aggiunto ai propri prodotti perché non investe in sviluppo SW, arriva dopo e le due cose non possono he portare a dover necessariamente richiedere l'aiuto di terze parti, fosse anche la comunità open source, per riuscire ad avere qualcosa che funzioni. Ma se questo va bene per il mondo videoludico dove "basta che funzioni oggi, domani vabbe'" nel mondo professionale non vale: infatti CUDA è IL linguaggio mica per niente: funziona ed è supportato al 100% da nVidia (per le sue GPU di ieri oggi e soprattutto DOMANI, quindi lavoro quasi zero per sfruttarlo al 100% con quello che è sviluppato OGGI) e solo la sua morte farà in modo che smetta di essere sviluppato ulteriormente. A quel punto però non ci saranno neanche più nuove GPU nVidia da sfruttare. Invece dall'altra parte le proposte open fatte da garagisti che oggi ci sono e domani si dedicano ad altro o proprio non sono in grado di creare qualcosa di veramente avanzato, per ovvie ragioni non sono mai state prese in considerazione per sviluppare progetti da qualche decina o centinaia di milioni di dollari. Ora è corsa in soccorso HP con ROCm, e vedremo cosa tirerà fuori prima che OpenAPI arrivi sul mercato per diventare il nuovo standard "aperto". |
|
|
|
|
|
#22 | |
|
Senior Member
Iscritto dal: Jul 2015
Messaggi: 5580
|
Quote:
L'accesso diretto alla ram della vga da parte della cpu è un'ottima cosa sopratutto in ambito pro. Per ora AMD ha aggredito il mercato gaming, ma non è da escludere una famiglia dedicata al settore pro in grado di competere o superare le proposte nvidia. |
|
|
|
|
|
|
#23 | |
|
Senior Member
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 8062
|
Quote:
nvidia ci ha provato e in buona parte c'è riuscita tranne forse su dlss che pur essendo una tecnologia spettacolare è abbastanza recente e quindi poco implementata nei giochi ma ce ne sono in uscita che vengono supportati soprattutto dove serve ovvero nei tripla A. physix c'è ancora ed è costantemente aggiornato, non viene piu elencato perchè non ha piu quell'innovazione che ebbe decadi fa... g-sync è piuttosto diffuso, io ho avuto un paio di monitor gsync e uno freesync e devo dire che gsync si comporta meglio. ora stanno un po' aprendo anche ad altri monitor per renderli compatibili ma cmq non è la stessa cosa dato che manca parte dell'hardware dedicato e se lo provi si nota. amd ha buttato molto sulla carta ora pero' bisogna vedere in pratica come si risolverà. delle slide me ne faccio poco...e ci si aspetta un miglioramento grande anche lato software/driver
__________________
Nvidia ASUS ROG Astral GeForce RTX 5090 OC Edition , AMD Ryzen 7 9800X3D, 32 GB Crucial HyperX DDR5 @7600, SSD NVME Corsair Pcie 4.0 4TB, Monitor 4K Asus ROG Swift OLED PG32UCDM, Headset AR/VR Meta Quest 3 |
|
|
|
|
|
|
#24 |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1223
|
Secondo questo articolo scientifico (datato quando openCL non era maturo), non ci sono differenze rilevanti tra CUDA e openCL se si programma in modo opportuno.
Secondo questo articolo, openCL è molto più diffuso di CUDA. Adesso che AMD è fortemente competitiva, con molta probabilità, openCL diventerà lo standard anche per HPC e GPGPU |
|
|
|
|
|
#25 |
|
Senior Member
Iscritto dal: Jul 2003
Messaggi: 992
|
|
|
|
|
|
|
#26 | |||
|
Senior Member
Iscritto dal: Jul 2003
Messaggi: 992
|
Quote:
Quote:
Per dire, Nvidia fa corsi su CUDA in varie facoltà universitarie in giro per il mondo, fornisce hw gratuitamente ai ricercatori, ecc, ecc. Amd ha cominciato da poco a farlo. Quote:
|
|||
|
|
|
|
|
#27 | |
|
Senior Member
Iscritto dal: Jul 2003
Messaggi: 992
|
Quote:
Per quanto riguarda lo sviluppo di linguaggi aperti, ci sono molti fattori "strani" che non riesco a spiegarmi, tipo: ma perchè il presidente del Kronos Group (l'organismo che coordina e sviluppa OpenCl) è un dipendente di alto livello di Nvidia? E' ovvio che NON smanierà di portare avanti velocemente questo linguaggio... Per quanto riguarda Rocm, AMD ci sta lavorando, finalmente, seriamente. Ma sono indietro, indietro. Vediamo se l'arrivo degli Epyc e di altro hw nel settore HPC (finalmente un pò di concorrenza) porterà questo linguaggio a livello ottimale. |
|
|
|
|
|
|
#28 | ||
|
Senior Member
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 27873
|
Quote:
Quote:
Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano. Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
__________________
ARCANA TALES (Ruleset GdR) - Thread ufficiali ● Profilo Steam ● Fate/Stay Night ● Foto Astronomia
PC: CPU (Artoria): AMD 9800X3D MB (Jeanne): Gigabyte AORUS Elite B850 WiFi7 ICE GPU (Nero): MSI Ventus 3X RTX 5080 RAM: Kingston FURY Renegade 2x16GB DDR5 6000MHz - M.2: Samsung 990 PRO 2TB SCHERMO: LG UltraGear OLED 39GS95QE |
||
|
|
|
|
|
#29 | |
|
Amministratore
Iscritto dal: Jun 2009
Città: Glasgow, Scozia
Messaggi: 1965
|
Quote:
Per quanto riguarda ROCm, invece, sono certo che ti sbagli: ROCm esiste da anni, ben da prima che Cray usasse CPU e GPU AMD per i suoi supercomputer. Quello a cui tu fai riferimento è questo comunicato in cui viene specificato che "An enhanced version of the open source ROCm programming environment, developed with Cray to tap into the combined performance of AMD CPUs and GPUs." Si parla però di una versione migliorata, non dell'intero pacchetto ROCm. Mi sembra - ma potrei sbagliarmi - che guardi le cose con occhio un po' troppo favorevole a NVIDIA e un po' troppo sfavorevole ad AMD. Bisogna sempre fare attenzione a cercare di guardare le cose con la maggiore obiettività possibile, altrimenti si rischia di assumere posizioni insostenibili.
__________________
Riccardo Robecchi - autore per Hardware Upgrade MB ASUS Crosshair VI Hero, CPU Ryzen 7 1700X, RAM 32 GiB Corsair Vengeance 3000MHz, VGA Sapphire AMD Radeon RX 5700 XT Pulse, CASE Sun Ultra 24, PSU Corsair TX650W. KDE neon x64 & Win 10 Pro x64. |
|
|
|
|
|
|
#30 | ||
|
Senior Member
Iscritto dal: Apr 2011
Messaggi: 406
|
Quote:
Intendi commissionata o architettata? Beh, anche se fosse il primo caso (che dubito), non è che DICE l'abbia architettata e implementata aggratis. Quote:
Una cosa importante da considerare è che i questi fatidici 2 anni, i giochi (rilasciati) che supportano l'RT sono... ... rullo di tamburi ... una dozzina . D'oh.Sono d'accordo che il Ray Tracing è stata un'innovazione cruciale nel mondo dei videogiochi (e ci ho creduto a tal punto da comprare una RTX). Ma in questi due anni è successo poco e nulla. Ultima modifica di aald213 : 04-11-2020 alle 11:53. |
||
|
|
|
|
|
#31 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
DX è comunque uno pseudo standard che consente a diversi HW di diverse aziende di essere sfruttato al meglio. non mi sembra che RTX abbia la stessa volontà nel diventare uno pseudo standard. comunque 13 anni non son poi tanti per alcune cose, per altre forse son fin troppi. si vedrà al 14esimo anno cosa succederà anche a Cuda. |
|
|
|
|
|
|
#32 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
magari Cuda su una AMD funzionerebbe anche meglio, proprio per la natura delle sue architetture. |
|
|
|
|
|
|
#33 |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 2104
|
>>Quanto la fanno lunga con questa menata del "rei tresing"
Spero che sia una trollata. Un conto é pensare allo switch da rasterizzazione a raytracing in maniera pragmatica e realistica, un conto é rifiutarsi di vedere che di questo passaggio c'é bisogno e che prima si riesce a fare e meglio é per tutti. Voler rimanere con la rasterizzazione a vita solo per qualche frame in piú significa farsi a piedi decine di chilometri al giorno solo per non prendersi il tempo e la pazienza necessaria a farsi la patente... |
|
|
|
|
|
#34 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
fonti certe ne hai? perchè hai scritto numeri precisi e quindi da qualche parte li avrai presi... o no? |
|
|
|
|
|
|
#35 |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
ti è stato scritto più di una volta: usciranno quando è il momento di uscire, non certo per far tacere te.
|
|
|
|
|
|
#36 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
adaptive sync è uno standard nato 6 anni prima da VESA, ma si usava solo su alcuni portatili e su alcuni cellulari.
l'industria videoludica non lo ha voluto adottare perché è un sistema che lede il rinnovo tecnologico dell'HW, visto che consente di migliorare considerevolmente l'ergonomia d'uso. se ho una scheda video che massimo mi fa 55fps, avendo adaptive sync non la cambio, se non l'ho mi devo tenere quadri a metà per errata sincronizzazione o un lag maggiore per imporre la sincronizzazione dovendo pure abbassare qualche settaggio per raggiungere il framerate adeguato a quel refresh. è nvidia che ha anticipato i tempi di decisioni che erano già nell'aria... Quote:
e così via per tutto il discorso che hai fatto, tratto da chiacchiere da bar se non fornisci le fonti (certe ed obbiettive) di queste informazioni. Ultima modifica di lucusta : 04-11-2020 alle 11:45. |
|
|
|
|
|
|
#37 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
|
|
|
|
|
|
|
#38 | |
|
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
lo stesso lavoro lo sta facendo Intel da decenni per far decollare le AVX, che sono oggi l'unica cosa che le può realmente salvare dalla disfatta totale (in quanto possono controllare il flusso delle prestazioni tramite compilatore intel e dll generate perché possono decidere di compilare esclusivamente e solo per i propri processori). visto che Intel è un dinosauro nel riuscire a comprendere certi meccanismi, solo da poco si è accorta che se non fornisce lei gli strumenti già precostruiti per asini, ed infatti sta fornendo software open per AVX e costruirà oneAPI (semi proprietaria) per riuscire a diffondere meglio il software adatto al proprio HW, sennò non ci cava un buco dal ragno... |
|
|
|
|
|
|
#39 | |
|
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case. Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT. Ultima modifica di nickname88 : 04-11-2020 alle 12:01. |
|
|
|
|
|
|
#40 |
|
Senior Member
Iscritto dal: Jan 2013
Messaggi: 1471
|
Bene... questo chiarimento fa molta luce, direi che visto l'asse AMD+Intel+Microsoft+Sony vs. Nvidia, RTX proprietario e DLSS hanno abbastanza i giorni contati.
Senza togliere il demerito al fatto che sia stata proprio Nvidia a spingere il mercato degli early adopter con le sue soluzioni fatte in casa, ma si sta prospettando finalmente una "fase 2" per Ray Tracing di reale maturità e diffusione di massa fortunatamente. Il fatto che le nuove RX6000 ed RXT3000 siano già pronte e compatibili per accoglierle mette tutti con i pensieri tranquilli. Poi sul quando, come e con che diffusione arriverà è secondario e sicuramente non dipenderà certo da noi utenti. Sicuramente non vedremo mai più nuovi giochi RT compatibili solo con DLSS Nvidia da ora in avanti, sarebbe da suicidio per tutto l'ecosistema che si sta costruendo intorno.
__________________
Feedback di Vendita Positivi: Codice HTML:
Ho venduto positivamente a: Crash01, *Walter*, leofalp, Alpinet, kernelex, Zabuza, AngelusLiam, Comets, maurizioi, attilorz, delvo_69, Zeus Gamelius, didons, zafira101, Maverikwart, jonbon73, StephenFalken, NickNapoli, H.D. Lion, naruto80, egounix, sirjd, Fuccio, Micheleb, alex2173, roifs, dantess, Themitichris, ZETA81,Mi[C], michelgaetano, stalker6893, Mazda RX8, Skynetx Ultima modifica di Lithios : 04-11-2020 alle 12:06. |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:39.












. D'oh.








