Tensor Processing Unit, gli acceleratori di Google per il Machine Learning

L'azienda di Mountain View presenta i nuovi processori pensati espressamente per il Machine Learning, che internamente ha già usato per potenziare servizi come Street View
di Andrea Bai pubblicata il 19 Maggio 2016, alle 11:21 nel canale ProcessoriGoogle ha sviluppato un nuovo chip acceleratore per l'intelligenza artificiale e il machine learning, denominato Tensor Processing Unit, che segue gli algoritmi opensource TensorFlow che ha reso disponibili lo scorso anno. L'azienda di Mountain View ne ha parlato al termine del keynote d'apertura della Google I/O, tenutosi ieri nel cuore della Silicon Valley.
Sundar Pichai, CEO di Google, ha dichiarato: "Abbiamo iniziato a costruire le Tensor Processing Unit, che sono di un ordine di grandezza superiore in termini di performance per Watt rispetto alle FPGA e alle GPU commerciali, e vanno ad equipaggiare il sistema AlphaGo". AlphaGo è il sistema che negli scorsi mesi ha battuto il campione mondiale di Go, come abbiamo raccontato in questa notizia.

Secondo quanto si legge sul blog ufficiale di Google, le nuove Tensor Processing Unit sono state impiegate già da oltre un anno nei datacenter di Google e sfruttate per vari impieghi, come ad esempio migliorare i risultati di ricerca e migliorare l'accuratezza e la navigazione delle mappe di Street View.
Progettate specificatamente per l'ambito machine learning, le TPU possono essere più tolleranti ad una ridotta precisione elaborativa, il che si traduce in un minor numero di transistor per operazione. Questo permette, di contro, di poter elaborare più operazioni al secondo e di poter usare modelli di machine learning più potenti e sofisticati, applicandoli più velocemente.
7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDal nome sembra hardware ottimizzato per operare su tensori
("matrici N-dimensionali" per dirla in modo ultra-semplificato ed impreciso)
ma credo che intendano qualcosa di differente e più specifico
(tipo un sottoinsieme dei possibili tensori ed un sottoinsieme delle possibili operazioni).
LMCH
anche con la tua spiegazione semplificata non ho ancora capito che cosa dovrebbe fare questo attrezzo e soprattutto in che modo?!a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
Ora è tutto chiaro: con queste dritte domani ne progetto uno.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Semplificando il discorso al massimo ? Si.
Ma sarebbe come dire che una GPU è "solo" un DSP specializzato.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
eh ma il T800 è obsoleto, io farei almeno il T1000 a metallo liquido
Grande LMCH!!!
Esaustivo!Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".