AMD: la prossima generazione di schede video sarà progettata con l'intelligenza artificiale

AMD: la prossima generazione di schede video sarà progettata con l'intelligenza artificiale

Durante il summit "Winning the AI Race", AMD ha discusso del ruolo crescente dell’intelligenza artificiale nella progettazione dei chip. Lisa Su ha dichiarato che l’AI aiuterà a sviluppare le future GPU più rapidamente

di pubblicata il , alle 13:37 nel canale Schede Video
AMDRadeongaming hardware
 

Durante il summit "Winning the AI Race", evento che ha visto la partecipazione del presidente Donald Trump insieme ai CEO di Nvidia e AMD, si è discusso del ruolo crescente dell'AI nello sviluppo tecnologico e nella competitività americana. La CEO di AMD, Lisa Su, ha offerto spunti significativi su come l'azienda stia già integrando l'intelligenza artificiale nei processi di ricerca e sviluppo dei chip.

Come riportato da PC Gamer, secondo Su, le prossime generazioni di GPU non saranno progettate interamente da sistemi automatizzati, ma l'AI sarà uno strumento cruciale per velocizzare e rendere più affidabili le fasi di sviluppo.

"Pensiamo a come l'IA progetterà i chip del futuro, e come ne progetterà alcune parti", ha affermato. "Ma c'è ancora una certa creatività per mettere insieme il tutto, e credo che gli esseri umani siano ancora assolutamente centrali...quindi non vedo necessariamente l'IA progettare per intero la nostra GPU di prossima generazione, ma la vedo aiutarci a progettare la GPU di prossima generazione in modo molto più veloce e affidabile".

Non si tratta di una vera e propria novità: già nel 2022 NVIDIA illustrò come l'intelligenza artificiale stesse migliorando i flussi di lavoro. Attualmente, pare che il chatbot di NVIDIA sia maggiormente impiegato nel supporto agli ingegneri, piuttosto che nello sviluppo attivo, ma è facile immaginare che anche la società di Jensen Huang stia espandendo l'utilizzo dell'IA e nel prossimo futuro la sfrutti per la progettazione, quantomeno parziale, dei chip.

La stessa AMD, l'anno scorso, ha già sperimentato gli strumenti di Arena Technologies, un modello che consente di "testare e ottimizzare i semiconduttori". Naturalmente si tratta di una fase successiva alla progettazione vera e propria del chip, ma la CEO accenna a un futuro con un uso più pervasivo dell'IA.

Sul piano strategico, entrambi i dirigenti hanno sottolineato l'importanza dell'intelligenza artificiale come leva per lo sviluppo economico nazionale. Secondo la Dottoressa Lisa Su, siamo in una fase in cui è necessario formare nuovi talenti che sappiano sfruttare al meglio l'IA, non solo per il settore tecnologico, ma anche per cercare soluzioni migliori e praticabili ai problemi del mondo.

"Si può effettivamente usare l'IA per migliorare la scienza, la medicina, la produzione. Si può usare l'IA per ottimizzare ogni aspetto del business e quindi, a mio avviso, tra 10 anni ci piacerebbe poterla davvero adottare per risolvere alcuni dei problemi più importanti del mondo".

Naturalmente, le affermazioni dell'AD di AMD fanno seguito a forti e crescenti investimenti nel settore dell'IA. Attualmente, i modelli di intelligenza artificiale stanno già guidando lo sviluppo in ambito software ed è facilmente immaginabile che in un prossimo futuro diventi artefice anche dell'innovazione hardware.

Tutto dipenderà da come verrà gestita questa risorsa. Un'ottimizzazione dei processi progettuali e produttivi garantirebbe una forte riduzione dei costi, il che potrebbe aprire la strada a soluzioni hardware non solo più potenti, ma anche più accessibili. Al momento, il target rimane il settore enterprise, ma è lecito supporre che tali migliorie raggiungeranno anche il settore consumer entro pochi anni.

21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
foggypunk25 Luglio 2025, 14:33 #1
con l'intelligenza artificiale che gira su hardware NVIDIA? :P
seivson25 Luglio 2025, 14:55 #2
schede video che si autoriproducono..
CrapaDiLegno25 Luglio 2025, 15:27 #3
Huh, nel 2025 anche la signora Su ha capito che l'AI ha del potenziale?
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.

Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
Alodesign25 Luglio 2025, 16:12 #4
Originariamente inviato da: CrapaDiLegno
Huh, nel 2025 anche la signora Su ha capito che l'AI ha del potenziale?
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.

Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.


Dici la stessa Su che produce le EPYC?
dominator8425 Luglio 2025, 16:26 #5
Originariamente inviato da: Alodesign
Dici la stessa Su che produce le EPYC?


naaa penso sia Liza Sunna di Parma, che produce il prosciutto cotto
CrapaDiLegno25 Luglio 2025, 17:46 #6
Originariamente inviato da: Alodesign
Dici la stessa Su che produce le EPYC?

Sì, proprio lei che vive solo di CPU e non ha ancora investito un dollaro in altro per poi uscirsene nel 2025 a dire "hey, ma questa AI permette anche di aiutare a progettare!".
Probabilmente in azienda hanno tutti processori EPYC che l'AI la computano esattamente come le CPU del 2015 ma dopo che qualcuno in azienda di nascosto gli ha affiancato una GPU Nvidia è corso da Lisa raccontandole tutto ciò che si sono persi finora.
Ripper8925 Luglio 2025, 17:59 #7
Originariamente inviato da: foggypunk
con l'intelligenza artificiale che gira su hardware NVIDIA? :P

Penso possa essere possibile
icoborg25 Luglio 2025, 18:20 #8
Originariamente inviato da: seivson
schede video che si autoriproducono..


skynet sempre piu vicina
supertigrotto25 Luglio 2025, 18:36 #9
Di IA o computer che aiutano a progettare CPU e GPU,sono in circolazione da tempo,ancora prima delle dichiarazioni di Huang,solo che le potenze in gioco non erano così enormi.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.
CrapaDiLegno26 Luglio 2025, 00:19 #10
Originariamente inviato da: supertigrotto
Di IA o computer che aiutano a progettare CPU e GPU,sono in circolazione da tempo,ancora prima delle dichiarazioni di Huang,solo che le potenze in gioco non erano così enormi.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.


Non confondere i CAD (Computer Aided Design) che esistono da quando esistono i computer da tool che che usano modelli AI per aiutare a sviluppare ben più in profondità rispetto a quanto facessero prima.
E come confrontare l'aiuto di un correttore di codice mentre programmi rispetto a tool che generano intere funzioni in maniera autonoma.
Quindi vero, prima di Nvidia c'erano i tool che aiutavano a progettare, con Nvidia i tool hanno fatto un salto quantico e sono ora ben altra cosa.
E' solo Lisa che se ne è accorta nel 2025 inoltrato. E molto probabilmente usando i sistemi Nvidia, visto che suoi suoi si fa fatica solo a mettere un modello generativo semplice come Stable Diffusion. E anche quando dopo peripezie sei riuscito a installarlo le prestazioni sono parecchio meh...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^