'Non è sostenibile': il CEO di ARM punta il dito contro la richiesta energetica dell'IA

'Non è sostenibile': il CEO di ARM punta il dito contro la richiesta energetica dell'IA

Una "sete di elettricità" insaziabile, così il CEO di ARM Rene Haas ha commentato sul Wall Street Journal l'evoluzione dei modelli di intelligenza artificiale come ChatGPT di OpenAI. Non è l'unico: da più parti emergono numeri e previsioni preoccupanti.

di pubblicata il , alle 07:21 nel canale Scienza e tecnologia
ARM
 

La sete di elettricità dell'intelligenza artificiale è un problema, se ne parla sempre di più (negli Stati Uniti e nel Regno Unito, ad esempio) e negli ultimi giorni è tornato sul tema Rene Haas, CEO di ARM, la società che progetta le architetture che muovono gli smartphone di tutto il mondo e, sempre di più, anche computer e datacenter.

I modelli di intelligenza artificiale come ChatGPT di OpenAI "sono insaziabili in termini di sete" di elettricità, ha dichiarato Haas in un'intervista al WSJ. "Più informazioni raccolgono, più sono intelligenti, ma più informazioni raccolgono per diventare più intelligenti, più energia richiedono".

Senza una maggiore efficienza, "entro la fine del decennio, i datacenter di intelligenza artificiale potrebbero consumare dal 20% al 25% del fabbisogno energetico degli Stati Uniti. Oggi è probabilmente il 4% o meno", ha affermato. "Non è molto sostenibile, a dire il vero".

Già, sostenibilità, perché se da una parte l'IA potrebbe giocare un ruolo fondamentale per aiutarci nella transizione verde, dall'altra sta impattando fortemente sui consumi, e quindi sull'immissione di gas serra. Un circolo vizioso che bisognerebbe scardinare.

Secondo un report dell'Agenzia Internazionale per l'Energia (AIE), una richiesta a ChatGPT richiede in media 2,9 wattora di elettricità, pari all'accensione di una lampadina da 60 watt per poco meno di tre minuti. Si tratta di un consumo quasi 10 volte superiore a quello di una ricerca media su Google. Secondo l'agenzia, la domanda di energia da parte dell'industria dell'intelligenza artificiale dovrebbe crescere di almeno 10 volte tra il 2023 e il 2026. Il quadro potrebbe farsi ancora più complicato con la corsa alla cosiddetta AGI (Artificial General Intelligence).

Secondo stime di Factorial Funds, il nuovo modello OpenAI Sora che crea video da richieste testuali impiegherebbe una potenza di calcolo equivalente a una GPU H100 di NVIDIA per un'ora al fine di generare un video da 5 minuti. Elon Musk ha recentemente dichiarato la fase di addestramento del modello Grok 2 ha richiesto circa 20.000 GPU NVIDIA H100, mentre Grok 3 si spingerà fino a 100.000 NVIDIA H100, ognuna delle quali richiede 3740 kilowattora l'anno.

Il futuro dell'intelligenza artificiale dipende dall'energia: lo ha detto il CEO di OpenAI a Davos

La U.S. Energy Information Administration (EIA) afferma che nel 2022 gli Stati Uniti hanno generato 4240 terawattora di elettricità, di cui il 22% da fonti rinnovabili. Il consumo complessivo annuo si attesta invece sui 3.900 terawattora. La "coperta" quindi è corta a fronte delle crescenti richieste dal settore tecnologico, con datacenter e Fab che nascono come funghi.

Haas ha espresso la speranza che la ricerca, pubblica o pubblico-privata, possa aiutare in tal senso, ma soprattutto è necessario un intervento legislativo che alzi l'asticella delle richieste di efficienza energetica e metta dei paletti, pena la sconfitta nella mitigazione del cambiamento climatico.

46 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nosio12 Aprile 2024, 07:54 #1
qual'è sempre stato il motto di nvidia?
"e a noi che ce frega, basta farle più grosse!"
io78bis12 Aprile 2024, 08:20 #2
Mi sembra la stessa lotta contro la blockchain.

Se consuma tanto ad un certo punto la corrente finisce e si fermano. Basta mettere un tetto alle potenze assorbite dai singoli in modo da spingerli ad innovare prima di vendere più di quello che possono permettersi.

Tanto è assodato che IA toglierà più posti di lavoro di quelli che creerà
Sig. Stroboscopico12 Aprile 2024, 08:28 #3
Bel tema quello degli sprechi energetici...
Sempre attuale e quanto mai sempre sottovalutato alla fine.
UtenteHD12 Aprile 2024, 09:18 #4
Hanno ragione, ma oramai e' partito tutto, non si possono fermare, per ora troveranno una soluzione.
Successivamente, quando surclasseranno NVIDIA col suo motto sempre piu' esose di energia tanto le comprano comunque, allora avremo dei veri Chip appositi che consumano 1/10 o 1/100, ovvimente in X anni, nel frattempo ci si arrangia..
TorettoMilano12 Aprile 2024, 09:23 #5
direi vadano obbligate le aziende del settore a investire in rinnovabili, ma rimarrebbe il problema di chi usa le IA offline col proprio pc
supertigrotto12 Aprile 2024, 09:34 #6
Torniamo sempre al solito discorso,le rinnovabili vanno benissimo ma serve la fusione,dobbiamo accelerare sulla fusione e sul geotermico di profondità, cioè scavare in profondità con macchinari che stanno sperimentando.
hackaro7512 Aprile 2024, 09:44 #7
E' inutile... nessuno capisce o vuole capire la cosa più semplice del mondo: non possiamo continuare ad espanderci come razza umana. A tutti i livelli: energetici, demografici, di consumo di risorse non rinnovabili ed anche delle rinnovabili (perché non si rinnovano così in fretta). Nessuna razza può farlo, pena l'estinzione perché tanto il pianeta ci sopravviverà. Serve dire di no e fermarsi anche perché il mondo fino ad oggi ha fatto a meno di un sacco di cose, tra cui l'AI e quindi può continuare a farne a meno benissimo! E' sbagliato confondere il progresso con la re-iterazione consumistica e capitalista dei beni.
nonsidice12 Aprile 2024, 09:45 #8
Consumano comunque molto meno dei condizionatori/refrigeratori nei negozi americani messi a 10° in agosto, con tanto di porte spalancate.
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).
TorettoMilano12 Aprile 2024, 09:55 #9
Originariamente inviato da: nonsidice
Consumano comunque molto meno dei condizionatori/refrigeratori nei negozi americani messi a 10° in agosto, con tanto di porte spalancate.
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).


ricordo simili ragionamenti, aspè quando li ho letti?...ah si sui bitcoin&co!!!
se leggi nell'articolo c'è scritto questo
Senza una maggiore efficienza, "entro la fine del decennio, i datacenter di intelligenza artificiale potrebbero consumare dal 20% al 25% del fabbisogno energetico degli Stati Uniti. Oggi è probabilmente il 4% o meno", ha affermato. "Non è molto sostenibile, a dire il vero"

si sta ipotizzando una crescita dal 4% al 25% in 5 anni
Max_R12 Aprile 2024, 09:57 #10
Originariamente inviato da: nonsidice
Consumano comunque molto meno dei condizionatori/refrigeratori nei negozi americani messi a 10° in agosto, con tanto di porte spalancate.
Sarà pure benaltrismo ma gli sprechi VERI sono ben altri che le AI (mia opinione).


Direi che il ragionamento è giusto ma che ormai si debba lavorare su più fronti possibili

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^