Tensor Processing Unit, gli acceleratori di Google per il Machine Learning
L'azienda di Mountain View presenta i nuovi processori pensati espressamente per il Machine Learning, che internamente ha già usato per potenziare servizi come Street View
di Andrea Bai pubblicata il 19 Maggio 2016, alle 11:21 nel canale ProcessoriGoogle ha sviluppato un nuovo chip acceleratore per l'intelligenza artificiale e il machine learning, denominato Tensor Processing Unit, che segue gli algoritmi opensource TensorFlow che ha reso disponibili lo scorso anno. L'azienda di Mountain View ne ha parlato al termine del keynote d'apertura della Google I/O, tenutosi ieri nel cuore della Silicon Valley.
Sundar Pichai, CEO di Google, ha dichiarato: "Abbiamo iniziato a costruire le Tensor Processing Unit, che sono di un ordine di grandezza superiore in termini di performance per Watt rispetto alle FPGA e alle GPU commerciali, e vanno ad equipaggiare il sistema AlphaGo". AlphaGo è il sistema che negli scorsi mesi ha battuto il campione mondiale di Go, come abbiamo raccontato in questa notizia.

Secondo quanto si legge sul blog ufficiale di Google, le nuove Tensor Processing Unit sono state impiegate già da oltre un anno nei datacenter di Google e sfruttate per vari impieghi, come ad esempio migliorare i risultati di ricerca e migliorare l'accuratezza e la navigazione delle mappe di Street View.
Progettate specificatamente per l'ambito machine learning, le TPU possono essere più tolleranti ad una ridotta precisione elaborativa, il che si traduce in un minor numero di transistor per operazione. Questo permette, di contro, di poter elaborare più operazioni al secondo e di poter usare modelli di machine learning più potenti e sofisticati, applicandoli più velocemente.










L'eterno ritorno ad Azeroth: perché WoW Classic definisce ancora l'MMO moderno
50 anni e non sentirli, SAS innova su IA, digital twin e quantum computing
Tesla Model 3 dopo 5 anni di utilizzo e 158.000km
OVHcloud aggiunge il computer fotonico Quandela Belenos alla sua piattaforma quantistica
Intel, arrivano volti nuovi: due nomine che possono cambiare il futuro del PC
La BYD Yangwang U9 Xtreme è stata venduta al prezzo record di 2.760.000 dollari
Il cavo salva-GPU di ASUS funziona davvero? Lo hanno sezionato e non è andata benissimo
I numeri pazzeschi del Pechino Auto Show: più di 1 milione di visitatori, 181 anteprime
ASUS sta 'abbandonando' la RTX 5070 Ti? RTX 5080 al centro di tutto
Xiaomi SU7: 70.000 ordini in sei settimane e azioni a +6,75% a Hong Kong
Sapete quanto costa un Megacharger Tesla? Ecco i prezzi, ora c'è anche il Basecharger
Storage sotto assedio: SSD e HDD 'prenotati' fino al 2029, cosa resta agli utenti?
Roblox Reality oltre DLSS 5: fotorealistico grazie all'IA, ma scavalca completamente gli sviluppatori
Bose SoundLink Flex 2ª Gen a 109,99€ su Amazon: lo speaker Bluetooth IP67 con 12 ore di autonomia e multipoint non è mai costato così poco
Addio bloatware su Windows 11: NTLite è gratis e può eliminare l'IA
Dyson Big Ball Absolute 2 crolla a 349€ su Amazon: l'aspirapolvere a traino senza sacchetti e senza filtri torna al prezzo minimo
Dreame L40 Ultra AE al minimo storico su Amazon a 474€: il robot aspirapolvere lavapavimenti con acqua calda a 75°C e mop estensibile sotto i mobili

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDal nome sembra hardware ottimizzato per operare su tensori
("matrici N-dimensionali" per dirla in modo ultra-semplificato ed impreciso)
ma credo che intendano qualcosa di differente e più specifico
(tipo un sottoinsieme dei possibili tensori ed un sottoinsieme delle possibili operazioni).
LMCH
anche con la tua spiegazione semplificata non ho ancora capito che cosa dovrebbe fare questo attrezzo e soprattutto in che modo?!a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
Ora è tutto chiaro: con queste dritte domani ne progetto uno.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Semplificando il discorso al massimo ? Si.
Ma sarebbe come dire che una GPU è "solo" un DSP specializzato.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
eh ma il T800 è obsoleto, io farei almeno il T1000 a metallo liquido
Grande LMCH!!!
Esaustivo!Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".