|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...ing_57985.html
In concomitanza con l'ICML 2015 NVIDIA potenzia le proprie soluzioni software per il deep learning: nuove release per CUDA 7.5, cuDNN 3 e DIGITS 2 disponbili onlne per gl sviluppatori e i ricercatori Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
AMD investe nella VR, nvidia nel DL. Vedremo chi avrà fatto la mossa migliore nei prossimi anni.
|
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3948
|
Quote:
E NVIDIA mi pare che facesse anche VR. http://blogs.nvidia.com/blog/2015/05/31/gameworks-vr/ |
|
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Quote:
Puoi fare DL anche su un PiC18 con il linguaggio che vuoi, ma non credo possa diventare la soluzione di riferimento per chi davvero ha bisogno di potenza di calcolo per quel tipo di problema. Il VR è un aspetto del futuro per tutti i player nel mercato videoludico. Però un conto è pensare di supportarlo come si fa come con un normale monitor, un altro è creare soluzioni e funzioni ad hoc. Non m sembra che nvidia abbia fatto tutto questo finora, mentre AMD mi sembra più orientata a questo tipo di supporto nelle sue nuove GPU. |
|
![]() |
![]() |
![]() |
#5 | ||
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3948
|
Quote:
Nvidia ha il suo framework che va solo sulle sue schede per ovvie ragioni commerciali, ma chi non ha voglia di legarsi ad una GPU nvidia o ad un Tegra usa OpenCL che gli dà accesso a dispositivi vari che hanno ovviamente la potenza di calcolo da essere utili nella DL. Perchè fare una cosa sua in house la rende meglio? Quote:
NVIDIA Multi-Res Shading (MRS) — An innovative new rendering technique for VR. With NVIDIA MRS, each part of an image is rendered at a resolution that better matches the pixel density of the final displayed VR image. This technology uses the multi-projection architecture of the GeForce GTX 980 Ti GPU to render multiple viewports in a single pass. The result: substantial performance improvements for VR games. VR SLI — Provides increased performance for VR apps. Multiple GPUs can be assigned a specific eye to dramatically accelerate stereo rendering. With the GPU affinity application programming interface, VR SLI allows scaling for PCs with two or more GPUs. Context Priority — Enables control over GPU scheduling to support advanced VR features such as asynchronous time warp. This cuts latency and quickly adjusts images as gamers move their heads, without the need to re-render a new frame. Direct Mode — Delivers plug-and-play compatibility for VR headsets. With Direct Mode, the NVIDIA graphics driver recognizes the headset as a VR display rather than a standard desktop monitor, providing a more seamless user experience. Front Buffer Rendering — Lets the GPU to render directly to the front buffer to reduce latency.
__________________
Caratteristiche tecniche CPU ::: Potenza approssimativa CPU ::: Potenza approssimativa scheda video Calcolatore approssimativo potenza minima alimentatore Ultima modifica di bobafetthotmail : 10-07-2015 alle 08:35. |
||
![]() |
![]() |
![]() |
#6 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3574
|
Quote:
nvidia ha aggiunto ottimizzazioni HW per il DL. Che tu le voglia fare in OpenCL/CUDA/Barbalinguaggio su un HW che non è ottimizzato per fare DL significa che potrai avere gli stessi risultati in maggior tempo o maggior consumo. Se lo fai su un HW ottimizzato con librerie scritte ad-hoc per sfruttarlo al meglio avrai risultati certamente migliori rispetto ad affidarti ad un linguaggio generico come OpenCL e il suo "compilatore-astrattore". Quindi sì, la soluzione in-house la rende decisamente meglio a meno di non voler fare le librerie apposta ottimizzate per HW nvidia nel tuo framework DL (e quindi praticamente rifare il lavoro che ha già fatto nvidia). Poi se per ogni problema basta scrivere OpenQualcosa e HSA e per avere la sicurezza che l'implementazione sia migliore e più efficiente, va bene. Quote:
|
||
![]() |
![]() |
![]() |
#7 | |||
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3948
|
Quote:
No perchè il DL non è particolarmente diverso da un qualsiasi altro carico di lavoro massivamente parallelizzato. Quote:
Con l'OpenCL, come anche per l'OpenGL è più potente perchè hai accesso maggiore alle potenzialità della scheda ma è ovviamente molto più complesso perchè a questo punto sei tu sviluppatore che devi ottimizzare il tuo programma per adattarlo all'hardware. Esattamente come per i game engine dei giochi, qui la differenza grossa la fa appoggiarsi ad un game engine o ad un framework di DL fatto da terze parti. Le terze parti che ti vendono o danno in licenza l'engine (o te lo lasciano usare a patto di pubblicare su Steam, tipo Valve) hanno tutto l'interesse e il tempo e le risorse per ottimizzare il loro framework/engine per le OpenCL/Vulkan, e allo sviluppatore non resta che imparare ad usare questi framework che sono MOLTO più facili da usare che usare le OpenCL/GL/DirectX/vattelapesca direttamente. Nvidia sta facendo il suo speciale framework che va solo sulle sue GPU/SoC, ma un SDK, un framework è a quello che serve, scaricare il peso della ottimizzazione del suo programma su chi fa il framework, non sullo sviluppatore del programma finale. Poi comunque chi sviluppa il programma finale deve comunque ottimizzare ma non ai livelli assurdi che sarebbero richiesti dal farlo dialogando direttamente con le openCL o con Vulkan. Se noti entambi gli approcci sono simili alla fine, e se vedi le battaglie OpenGL vs CUDA, i programmi professionali che li usano sono grossomodo alla pari, una cosa la fanno meglio con uno, l'altra meglio con l'altro. Quote:
C'è competizione, come è giusto che ci sia. |
|||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 16:52.