Tensor Processing Unit, gli acceleratori di Google per il Machine Learning
L'azienda di Mountain View presenta i nuovi processori pensati espressamente per il Machine Learning, che internamente ha già usato per potenziare servizi come Street View
di Andrea Bai pubblicata il 19 Maggio 2016, alle 11:21 nel canale ProcessoriGoogle ha sviluppato un nuovo chip acceleratore per l'intelligenza artificiale e il machine learning, denominato Tensor Processing Unit, che segue gli algoritmi opensource TensorFlow che ha reso disponibili lo scorso anno. L'azienda di Mountain View ne ha parlato al termine del keynote d'apertura della Google I/O, tenutosi ieri nel cuore della Silicon Valley.
Sundar Pichai, CEO di Google, ha dichiarato: "Abbiamo iniziato a costruire le Tensor Processing Unit, che sono di un ordine di grandezza superiore in termini di performance per Watt rispetto alle FPGA e alle GPU commerciali, e vanno ad equipaggiare il sistema AlphaGo". AlphaGo è il sistema che negli scorsi mesi ha battuto il campione mondiale di Go, come abbiamo raccontato in questa notizia.

Secondo quanto si legge sul blog ufficiale di Google, le nuove Tensor Processing Unit sono state impiegate già da oltre un anno nei datacenter di Google e sfruttate per vari impieghi, come ad esempio migliorare i risultati di ricerca e migliorare l'accuratezza e la navigazione delle mappe di Street View.
Progettate specificatamente per l'ambito machine learning, le TPU possono essere più tolleranti ad una ridotta precisione elaborativa, il che si traduce in un minor numero di transistor per operazione. Questo permette, di contro, di poter elaborare più operazioni al secondo e di poter usare modelli di machine learning più potenti e sofisticati, applicandoli più velocemente.










Recensione Pura 80 Pro: HUAWEI torna a stupire con foto spettacolari e ricarica superveloce
Opera Neon: il browser AI agentico di nuova generazione
Wind Tre 'accende' il 5G Standalone in Italia: si apre una nuova era basata sui servizi
Il razzo spaziale europeo Arianespace Ariane 6 ha lanciato il satellite Copernicus Sentinel-1D
La Luna è stata colpita da un piccolo meteorite: il bagliore è stato ripreso in un video
Creative Aurvana Ace 3: il futuro dell'audio personale passa da xMEMS, Snapdragon Sound e personalizzazione uditiva
AMD chiarisce una volta per tutte (si spera): ottimizzazioni per RDNA 1 e 2 in contemporanea con RDNA 3 e 4
Addio SRAM? La nuova tecnologia GCRAM promette 10 volte più efficienza
La repubblicana Anna Paulina Luna chiede alla NASA notizie sulla cometa interstellare 3I/ATLAS, ma l'agenzia è in shutdown
1.000 Hz, risoluzione HD Ready: il futuro dei monitor eSport secondo AOC
Polestar 4 legge la strada al tuo posto: è la prima auto con le corsie intelligenti di Google Maps
Mercato auto in Italia: vola l'elettrico grazie alla Cina, male tutto il resto
Gli AI browser aggirano i paywall: i casi Atlas e Comet, e la nostra prova con Opera Neon
MSI regala Football Manager 26 con schede madri e monitor selezionati
Come va in casa Broadcom/VMware? Computacenter fa causa, IBM Cloud blocca i nuovi clienti e limita i servizi
Startup Marathon 2025: chi sono le 12 aziende finaliste?









7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDal nome sembra hardware ottimizzato per operare su tensori
("matrici N-dimensionali" per dirla in modo ultra-semplificato ed impreciso)
ma credo che intendano qualcosa di differente e più specifico
(tipo un sottoinsieme dei possibili tensori ed un sottoinsieme delle possibili operazioni).
LMCH
anche con la tua spiegazione semplificata non ho ancora capito che cosa dovrebbe fare questo attrezzo e soprattutto in che modo?!a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
Ora è tutto chiaro: con queste dritte domani ne progetto uno.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Semplificando il discorso al massimo ? Si.
Ma sarebbe come dire che una GPU è "solo" un DSP specializzato.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
eh ma il T800 è obsoleto, io farei almeno il T1000 a metallo liquido
Grande LMCH!!!
Esaustivo!Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".