Come NVIDIA affronta il problema del Deep Learning: Digits Devbox

Come NVIDIA affronta il problema del Deep Learning: Digits Devbox

Al GPU Techonology Conference, il CEO di NVIDIA ha parlato di Digits Devbox, un sistema di training gestito tramite GPU e rivolto all'elaborazione di dati scientifici.

di Rosario Grasso pubblicata il , alle 18:49 nel canale Schede Video
NVIDIA
 

Il keynote di Jen-Hsun Huang al GTC è stato quasi completamente incentrato sul Deep Learning. Il CEO di NVIDIA vuole far capire che l'hardware NVIDIA può adesso essere alla base di un altro passo in avanti di enorme importanza, contribuendo a migliorare i sistemi di Deep Learning. Nel corso degli anni i ricercatori e gli scienziati di intelligenza artificiale hanno fatto continui tentativi per fare in modo che i sistemi informatici apprendano come l'essere umano e gestiscano la loro acquisizione di informazioni come fa il cervello umano. Ma c'è sempre stato un limite legato alla capacità di elaborazione dell'hardware.

Digits

Ci sono varie sottoaree nell'apprendimento automatico e una di queste è il riconoscimento di pattern, che può portare la macchina a riconoscere l'uomo solamente inquadrando il suo volto. Viviamo oggi in una realtà fatta di dati e di immagini provenienti dai dispositivi di cui siamo dotati: ed è per questo che tecnologie come il GPGPU computing e Cuda possono venire in soccorso per processare questa enorme mole di dati.

Il punto è gestire grossi volumi di dati e prevedere il futuro sulla base di queste informazioni. Il Deep Learning può essere utilizzato anche nel settore della ricerca medica, ad esempio per prevedere gli sviluppi di certe ricerche.

Il middleware di Deep Learning su cui NVIDIA sta lavorando si chiama Digits, e si tratta di un training system accelerato tramite GPU ottimizzato per l'elaborazione di dati scientifici. Utilizza le reti neurali per addestrare il sistema informatico a riconoscere il contenuto delle immagini che gli vengono sottoposte.

Digits

Sul palco del Convention Center Jensen e i tecnici NVIDIA hanno mostrato delle immagini e lasciato che il network di Deep Learning che stanno sviluppando riuscisse a descriverle. Il sistema suddivide le immagini che gli vengono date in pasto in strati e analizza ciascuno strato.

Digist inoltre è basato su AlexNet, un software per reti neurali accelerato dalla GPU. È uno dei primi in grado di sfruttare la GPU, mentre altre soluzioni di questo tipo sono basate sulla CPU. Questi nuovi strumenti per la ricerca scientifica saranno accompagnati da un ambiente di facile utilizzo con un'interfaccia utente web-based.

E ci sarà un nuovo hardware pensato appositamente per i nuovi software, che Jensen definisce Digits Devbox. Dentro questo sistema, ottimizzato per il middlware Digits, abbiamo quattro GPU. Costa 15 mila dollari e sarà disponibile da maggio. Ovviamente indirizzato agli sviluppatori delle nuove tecnologie di Deep Learning e non all'utente finale.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^