AMD sulla buona strada per migliorare l'efficienza energetica di 100 volte entro il 2027

AMD sulla buona strada per migliorare l'efficienza energetica di 100 volte entro il 2027

Lisa Su, CEO di AMD, ha parlato delle sfide energetiche dell'intelligenza artificiale e degli sforzi che AMD sta facendo a tutto tondo, insieme all'ecosistema hardware, per non rimanere travolti dall'immensa richiesta di energia necessaria per addestrare modelli sempre più evoluti e complessi.

di pubblicata il , alle 09:11 nel canale Processori
ThreadripperEPYCInstinctRyzenRadeonAMD
 

In occasione dell'ITF World di Anversa, l'amministratore delegato di AMD Lisa Su ha ricevuto il premio IMEC Innovation Award per il suo contributo alla promozione dell'innovazione nel settore dell'elaborazione adattiva ad alte prestazioni.

Nel corso dell'evento, Su ha tenuto un intervento dal titolo "Looking Beyond the Silicon Horizon, Breaking Barriers in AI Performance and Efficiency", concentrandosi sul modo in cui AMD sta perseguendo una progettazione olistica per guidare l'innovazione in termini di prestazioni ed efficienza.

La manager ha illustrato i crescenti vincoli energetici dei datacenter causati dalla crescita nella domanda di calcolo generata dall'intelligenza artificiale, segnalando che i limiti legati alla generazione di energia e alla rete elettrica rappresentano un tetto alla capacità di addestramento dell'IA.

Lisa Su ha rilevato che l'intelligenza artificiale sta determinando una crescita esponenziale della domanda di calcolo e del relativo consumo energetico. Al crescere delle dimensioni dei modelli, aumentano anche i requisiti energetici per addestrarli. Per questo motivo, raggiungeremo i limiti pratici imposti dalla rete elettrica e dalla capacità di generazione delle centrali. Tant'è vero che sempre più spesso si pensa a piccoli reattori nucleari da installare direttamente accanto ai grandi datacenter.

Le dimensioni dei modelli di IA generativa crescono di 20 volte all'anno e vengono addestrati su decine di migliaia di GPU che consumano fino a decine di migliaia di megawattora. Secondo Su, la rapida espansione delle dimensioni dei modelli potrebbe richiedere presto fino a centinaia di migliaia di GPU per l'addestramento, forse con diversi gigawatt di potenza per addestrare un singolo modello. Numeri che non sono certo sostenibili.

Per soddisfare la crescente domanda di calcolo per l'IA sarà necessaria un'innovazione globale e una profonda collaborazione a livello industriale che comprenda nuove architetture, processi produttivi, packaging avanzato, co-progettazione di software e hardware e molto altro ancora.

Il massimo dirigente di AMD ritiene che il miglioramento dell'efficienza richieda ottimizzazioni che vadano oltre il livello del dispositivo e del processore ma che investano l'intero sistema - è necessario quindi un approccio olistico - globale, non confinato a un singolo ambito - alla progettazione.

Da tempo AMD persegue un costante progresso dell'efficienza: l'iniziativa 30x25 punta a migliorare l'efficienza energetica dei nodi di calcolo accelerati costituiti da CPU EPYC e GPU Instinct di 30 volte entro il 2025 (30x25) rispetto al 2020. Su ha annunciato che AMD non solo è sulla buona strada per raggiungere questo obiettivo, ma vede anche un percorso per un miglioramento di oltre 100 volte entro il 2026-2027.

In realtà, l'impegno di AMD risale al 2014, quando l'obiettivo era quello di migliorare l'efficienza delle APU di 25 volte entro il 2020: il target non solo è stato centrato, ma anche superato con un progresso di 31,7 volte.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Max_R24 Maggio 2024, 09:49 #1
Me lo auguro. L'efficienza è fondamentale.
CtrlAltSdeng!24 Maggio 2024, 10:48 #2
Direi anche che comsumare corrente per cagate sia da evitare in primis (es filtri IA per fotine coi gattini ciccini), poi si ragiona su quanto si debba essere efficienti su quello che serve davvero.
zappy24 Maggio 2024, 11:47 #3
Originariamente inviato da: CtrlAltSdeng!
Direi anche che comsumare corrente per cagate sia da evitare in primis (es filtri IA per fotine coi gattini ciccini), poi si ragiona su quanto si debba essere efficienti su quello che serve davvero.

concordo.
ma la riflessione è più ampia: l'industria informatica e sw NON vuole affatto efficienza... i prodotti sono inefficienti-per-design, come ogni versione di Windows/Office (fanno sempre le stesse cose usando x10 volte le risorse delle vers precedenti) dimostra in modo lapalissiano da decenni. E questo per la gioia dei produttori hw.
zappy24 Maggio 2024, 11:48 #4
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: https://www.hwupgrade.it/news/cpu/a...027_127431.html
sempre più spesso si pensa a piccoli reattori nucleari da installare direttamente accanto ai grandi datacenter.

così in caso di "problemi" si torna davvero al medioevo: si friggono in un solo colpo la realtà del mondo e il virtuale dei dati
supertigrotto24 Maggio 2024, 12:20 #5
Purtroppo per quanto si impegni e ottenga risultati eccellenti, AMD resta sempre la figlia della serva agli occhi delle persone.....
nosio24 Maggio 2024, 12:29 #6
Originariamente inviato da: CtrlAltSdeng!
Direi anche che comsumare corrente per cagate sia da evitare in primis (es filtri IA per fotine coi gattini ciccini), poi si ragiona su quanto si debba essere efficienti su quello che serve davvero.


concordo, ma nella stesa catgoria potrebbe ricadere anche il giocare ad un videogioco a 40 anni, o usare un telefonino per chattare.

l'efficienza è efficienza, ossia fare lo stesso lavoro spendendo meno energia; che poi questo lavoro sia lodevole o solo uno svago non è competenza giudicarlo a chi si prodiga per fare le cose più efficienti; loro le fanno e basta, al di là dell'uso che ne fa la gente.

quello che dovrebbe peroccupare la gente non è quanta energia consumano le AI e non è se queste vengono usate per generare foto di gattini cicciolosi, ma se qualcuno le usa per generare finte notizie che destabilizzano il mondo, come è successo con la foto dell'attacco terroristico al Pentagono di pochi giorni fa, diffusa attraverso un account verificato.

dopo che hai fatto miliardi facendo un colpo del genere, destabilizzando i mercati anche solo per 5 minuti, se ti dicono che sei "brutto e cattivo" non credo che ti interessi più di tanto, se ti mettono in galera per un tempo proporzionato al disturbo che hai provocato, allora ci pensi.
quindi servono regole per l'uso delle AI...
ogni immagine generata da una AI dovrebbe avere una filigrana e essere riconoscibile da chiunque, come tutti i testi che vengono generati.
nosio24 Maggio 2024, 12:30 #7
Originariamente inviato da: supertigrotto
Purtroppo per quanto si impegni e ottenga risultati eccellenti, AMD resta sempre la figlia della serva agli occhi delle persone.....

persone cieche.
Unrue24 Maggio 2024, 15:33 #8
L'impegno si dovrebbe focalizzare sul trovare modelli di addestramento più efficienti. Non è sostenibile il dover usare 500 miliardi di parametri e più per un LLM. Sembra che si voglia seguire la sola strada della forza bruta.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^