'Non è sostenibile': il CEO di ARM punta il dito contro la richiesta energetica dell'IA

Una "sete di elettricità" insaziabile, così il CEO di ARM Rene Haas ha commentato sul Wall Street Journal l'evoluzione dei modelli di intelligenza artificiale come ChatGPT di OpenAI. Non è l'unico: da più parti emergono numeri e previsioni preoccupanti.
di Manolo De Agostini pubblicata il 12 Aprile 2024, alle 07:21 nel canale Scienza e tecnologiaARM
La sete di elettricità dell'intelligenza artificiale è un problema, se ne parla sempre di più (negli Stati Uniti e nel Regno Unito, ad esempio) e negli ultimi giorni è tornato sul tema Rene Haas, CEO di ARM, la società che progetta le architetture che muovono gli smartphone di tutto il mondo e, sempre di più, anche computer e datacenter.
I modelli di intelligenza artificiale come ChatGPT di OpenAI "sono insaziabili in termini di sete" di elettricità, ha dichiarato Haas in un'intervista al WSJ. "Più informazioni raccolgono, più sono intelligenti, ma più informazioni raccolgono per diventare più intelligenti, più energia richiedono".
Senza una maggiore efficienza, "entro la fine del decennio, i datacenter di intelligenza artificiale potrebbero consumare dal 20% al 25% del fabbisogno energetico degli Stati Uniti. Oggi è probabilmente il 4% o meno", ha affermato. "Non è molto sostenibile, a dire il vero".
Già, sostenibilità, perché se da una parte l'IA potrebbe giocare un ruolo fondamentale per aiutarci nella transizione verde, dall'altra sta impattando fortemente sui consumi, e quindi sull'immissione di gas serra. Un circolo vizioso che bisognerebbe scardinare.
Secondo un report dell'Agenzia Internazionale per l'Energia (AIE), una richiesta a ChatGPT richiede in media 2,9 wattora di elettricità, pari all'accensione di una lampadina da 60 watt per poco meno di tre minuti. Si tratta di un consumo quasi 10 volte superiore a quello di una ricerca media su Google. Secondo l'agenzia, la domanda di energia da parte dell'industria dell'intelligenza artificiale dovrebbe crescere di almeno 10 volte tra il 2023 e il 2026. Il quadro potrebbe farsi ancora più complicato con la corsa alla cosiddetta AGI (Artificial General Intelligence).
Secondo stime di Factorial Funds, il nuovo modello OpenAI Sora che crea video da richieste testuali impiegherebbe una potenza di calcolo equivalente a una GPU H100 di NVIDIA per un'ora al fine di generare un video da 5 minuti. Elon Musk ha recentemente dichiarato la fase di addestramento del modello Grok 2 ha richiesto circa 20.000 GPU NVIDIA H100, mentre Grok 3 si spingerà fino a 100.000 NVIDIA H100, ognuna delle quali richiede 3740 kilowattora l'anno.
Il futuro dell'intelligenza artificiale dipende dall'energia: lo ha detto il CEO di OpenAI a Davos
La U.S. Energy Information Administration (EIA) afferma che nel 2022 gli Stati Uniti hanno generato 4240 terawattora di elettricità, di cui il 22% da fonti rinnovabili. Il consumo complessivo annuo si attesta invece sui 3.900 terawattora. La "coperta" quindi è corta a fronte delle crescenti richieste dal settore tecnologico, con datacenter e Fab che nascono come funghi.
Haas ha espresso la speranza che la ricerca, pubblica o pubblico-privata, possa aiutare in tal senso, ma soprattutto è necessario un intervento legislativo che alzi l'asticella delle richieste di efficienza energetica e metta dei paletti, pena la sconfitta nella mitigazione del cambiamento climatico.
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info"e a noi che ce frega, basta farle più grosse!"
Se consuma tanto ad un certo punto la corrente finisce e si fermano. Basta mettere un tetto alle potenze assorbite dai singoli in modo da spingerli ad innovare prima di vendere più di quello che possono permettersi.
Tanto è assodato che IA toglierà più posti di lavoro di quelli che creerà
Sempre attuale e quanto mai sempre sottovalutato alla fine.
Successivamente, quando surclasseranno NVIDIA col suo motto sempre piu' esose di energia tanto le comprano comunque, allora avremo dei veri Chip appositi che consumano 1/10 o 1/100, ovvimente in X anni, nel frattempo ci si arrangia..
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).
ricordo simili ragionamenti, aspè quando li ho letti?...ah si sui bitcoin&co!!!
se leggi nell'articolo c'è scritto questo
si sta ipotizzando una crescita dal 4% al 25% in 5 anni
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).
Direi che il ragionamento è giusto ma che ormai si debba lavorare su più fronti possibili
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".