Tensor Processing Unit, gli acceleratori di Google per il Machine Learning

Tensor Processing Unit, gli acceleratori di Google per il Machine Learning

L'azienda di Mountain View presenta i nuovi processori pensati espressamente per il Machine Learning, che internamente ha già usato per potenziare servizi come Street View

di Andrea Bai pubblicata il , alle 11:21 nel canale Processori
Google
 

Google ha sviluppato un nuovo chip acceleratore per l'intelligenza artificiale e il machine learning, denominato Tensor Processing Unit, che segue gli algoritmi opensource TensorFlow che ha reso disponibili lo scorso anno. L'azienda di Mountain View ne ha parlato al termine del keynote d'apertura della Google I/O, tenutosi ieri nel cuore della Silicon Valley.

Sundar Pichai, CEO di Google, ha dichiarato: "Abbiamo iniziato a costruire le Tensor Processing Unit, che sono di un ordine di grandezza superiore in termini di performance per Watt rispetto alle FPGA e alle GPU commerciali, e vanno ad equipaggiare il sistema AlphaGo". AlphaGo è il sistema che negli scorsi mesi ha battuto il campione mondiale di Go, come abbiamo raccontato in questa notizia.

Secondo quanto si legge sul blog ufficiale di Google, le nuove Tensor Processing Unit sono state impiegate già da oltre un anno nei datacenter di Google e sfruttate per vari impieghi, come ad esempio migliorare i risultati di ricerca e migliorare l'accuratezza e la navigazione delle mappe di Street View.

Progettate specificatamente per l'ambito machine learning, le TPU possono essere più tolleranti ad una ridotta precisione elaborativa, il che si traduce in un minor numero di transistor per operazione. Questo permette, di contro, di poter elaborare più operazioni al secondo e di poter usare modelli di machine learning più potenti e sofisticati, applicandoli più velocemente.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH19 Maggio 2016, 16:30 #1
Sarebbe interessante se fornissero più dettagli su cosa fa e cosa non fa.
Dal nome sembra hardware ottimizzato per operare su tensori
("matrici N-dimensionali" per dirla in modo ultra-semplificato ed impreciso)
ma credo che intendano qualcosa di differente e più specifico
(tipo un sottoinsieme dei possibili tensori ed un sottoinsieme delle possibili operazioni).
CarmackDocet19 Maggio 2016, 17:04 #2

LMCH

anche con la tua spiegazione semplificata non ho ancora capito che cosa dovrebbe fare questo attrezzo e soprattutto in che modo?!
kuru19 Maggio 2016, 17:52 #3
è un coprocessore matematico 10 volte più efficiente di FPGA e del GPU computing sui tensori.
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
rockroll20 Maggio 2016, 00:35 #4
Originariamente inviato da: kuru
è un coprocessore matematico 10 volte più efficiente di FPGA e del GPU computing sui tensori.
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800


Ora è tutto chiaro: con queste dritte domani ne progetto uno.

Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
LMCH20 Maggio 2016, 05:37 #5
Originariamente inviato da: rockroll
Ora è tutto chiaro: con queste dritte domani ne progetto uno.

Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?


Semplificando il discorso al massimo ? Si.
Ma sarebbe come dire che una GPU è "solo" un DSP specializzato.
kuru20 Maggio 2016, 09:08 #6
Originariamente inviato da: rockroll
Ora è tutto chiaro: con queste dritte domani ne progetto uno.

Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?


eh ma il T800 è obsoleto, io farei almeno il T1000 a metallo liquido
CarmackDocet24 Maggio 2016, 18:15 #7

Grande LMCH!!!

Esaustivo!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^