Tensor Processing Unit, gli acceleratori di Google per il Machine Learning
L'azienda di Mountain View presenta i nuovi processori pensati espressamente per il Machine Learning, che internamente ha già usato per potenziare servizi come Street View
di Andrea Bai pubblicata il 19 Maggio 2016, alle 11:21 nel canale ProcessoriGoogle ha sviluppato un nuovo chip acceleratore per l'intelligenza artificiale e il machine learning, denominato Tensor Processing Unit, che segue gli algoritmi opensource TensorFlow che ha reso disponibili lo scorso anno. L'azienda di Mountain View ne ha parlato al termine del keynote d'apertura della Google I/O, tenutosi ieri nel cuore della Silicon Valley.
Sundar Pichai, CEO di Google, ha dichiarato: "Abbiamo iniziato a costruire le Tensor Processing Unit, che sono di un ordine di grandezza superiore in termini di performance per Watt rispetto alle FPGA e alle GPU commerciali, e vanno ad equipaggiare il sistema AlphaGo". AlphaGo è il sistema che negli scorsi mesi ha battuto il campione mondiale di Go, come abbiamo raccontato in questa notizia.

Secondo quanto si legge sul blog ufficiale di Google, le nuove Tensor Processing Unit sono state impiegate già da oltre un anno nei datacenter di Google e sfruttate per vari impieghi, come ad esempio migliorare i risultati di ricerca e migliorare l'accuratezza e la navigazione delle mappe di Street View.
Progettate specificatamente per l'ambito machine learning, le TPU possono essere più tolleranti ad una ridotta precisione elaborativa, il che si traduce in un minor numero di transistor per operazione. Questo permette, di contro, di poter elaborare più operazioni al secondo e di poter usare modelli di machine learning più potenti e sofisticati, applicandoli più velocemente.










Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
Cos'è la bolla dell'IA e perché se ne parla
SpaceX: un satellite ha fotografato il satellite Starlink 35956 danneggiato in orbita mostrando le sue condizioni
36 idee regalo con offerte Amazon sotto i 50€, arrivano prima di Natale (controllate ad una ad una)
Sony assume il controllo dei Peanuts: Snoopy diventa giapponese
DJI Neo scende a 149€ su Amazon, in versione Combo con accessori e 3 batterie a 259€ ma solo fino a mezzanotte
Scoperto un nuovo esopianeta che orbita intorno a due stelle, come Tatooine di Star Wars
Blue Origin NS-37: successo per la missione con un passeggero in sedia a rotelle oltre la linea di Kármán
Potrebbe essere stata rilevata una superkilonova: doppia, potente esplosione, spaziale
La cometa interstellare 3I/ATLAS è nel punto più vicino alla Terra a 269 milioni di chilometri
Xiaomi 17 Ultra: l'autonomia non sarà un problema
Il processo produttivo a 2 nm di TSMC è già sold out
The Elder Scrolls VI nel 2029 e Fallout 5 non prima del 2030? Nuove voci sulla roadmap di Bethesda
Il Ryzen 7 9850X3D appare nel catalogo di alcuni rivenditori online, ma rimane il dubbio sul prezzo
Weekend pre natalizio Amazon, ecco tutte le offerte attive con novità e sorprese









7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDal nome sembra hardware ottimizzato per operare su tensori
("matrici N-dimensionali" per dirla in modo ultra-semplificato ed impreciso)
ma credo che intendano qualcosa di differente e più specifico
(tipo un sottoinsieme dei possibili tensori ed un sottoinsieme delle possibili operazioni).
LMCH
anche con la tua spiegazione semplificata non ho ancora capito che cosa dovrebbe fare questo attrezzo e soprattutto in che modo?!a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
a che servono i tensori? per gli algoritmi di apprendimento automatico.
cosa fa? "impara" nel senso che fornisce risultati più esatti a problemi complessi che non possono essere risolti con i dati in possesso.
in altre parole è il chip neurale del Terminator T800
Ora è tutto chiaro: con queste dritte domani ne progetto uno.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
Semplificando il discorso al massimo ? Si.
Ma sarebbe come dire che una GPU è "solo" un DSP specializzato.
Non è che si tratta solo di processori con macro istruzioni specializzate in calcolo matriciale?
eh ma il T800 è obsoleto, io farei almeno il T1000 a metallo liquido
Grande LMCH!!!
Esaustivo!Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".