AMD: la prossima generazione di schede video sarà progettata con l'intelligenza artificiale
Durante il summit "Winning the AI Race", AMD ha discusso del ruolo crescente dell’intelligenza artificiale nella progettazione dei chip. Lisa Su ha dichiarato che l’AI aiuterà a sviluppare le future GPU più rapidamente
di Vittorio Rienzo pubblicata il 25 Luglio 2025, alle 13:37 nel canale Schede VideoAMDRadeongaming hardware
Durante il summit "Winning the AI Race", evento che ha visto la partecipazione del presidente Donald Trump insieme ai CEO di Nvidia e AMD, si è discusso del ruolo crescente dell'AI nello sviluppo tecnologico e nella competitività americana. La CEO di AMD, Lisa Su, ha offerto spunti significativi su come l'azienda stia già integrando l'intelligenza artificiale nei processi di ricerca e sviluppo dei chip.
Come riportato da PC Gamer, secondo Su, le prossime generazioni di GPU non saranno progettate interamente da sistemi automatizzati, ma l'AI sarà uno strumento cruciale per velocizzare e rendere più affidabili le fasi di sviluppo.

"Pensiamo a come l'IA progetterà i chip del futuro, e come ne progetterà alcune parti", ha affermato. "Ma c'è ancora una certa creatività per mettere insieme il tutto, e credo che gli esseri umani siano ancora assolutamente centrali...quindi non vedo necessariamente l'IA progettare per intero la nostra GPU di prossima generazione, ma la vedo aiutarci a progettare la GPU di prossima generazione in modo molto più veloce e affidabile".
Non si tratta di una vera e propria novità: già nel 2022 NVIDIA illustrò come l'intelligenza artificiale stesse migliorando i flussi di lavoro. Attualmente, pare che il chatbot di NVIDIA sia maggiormente impiegato nel supporto agli ingegneri, piuttosto che nello sviluppo attivo, ma è facile immaginare che anche la società di Jensen Huang stia espandendo l'utilizzo dell'IA e nel prossimo futuro la sfrutti per la progettazione, quantomeno parziale, dei chip.
La stessa AMD, l'anno scorso, ha già sperimentato gli strumenti di Arena Technologies, un modello che consente di "testare e ottimizzare i semiconduttori". Naturalmente si tratta di una fase successiva alla progettazione vera e propria del chip, ma la CEO accenna a un futuro con un uso più pervasivo dell'IA.
Sul piano strategico, entrambi i dirigenti hanno sottolineato l'importanza dell'intelligenza artificiale come leva per lo sviluppo economico nazionale. Secondo la Dottoressa Lisa Su, siamo in una fase in cui è necessario formare nuovi talenti che sappiano sfruttare al meglio l'IA, non solo per il settore tecnologico, ma anche per cercare soluzioni migliori e praticabili ai problemi del mondo.

"Si può effettivamente usare l'IA per migliorare la scienza, la medicina, la produzione. Si può usare l'IA per ottimizzare ogni aspetto del business e quindi, a mio avviso, tra 10 anni ci piacerebbe poterla davvero adottare per risolvere alcuni dei problemi più importanti del mondo".
Naturalmente, le affermazioni dell'AD di AMD fanno seguito a forti e crescenti investimenti nel settore dell'IA. Attualmente, i modelli di intelligenza artificiale stanno già guidando lo sviluppo in ambito software ed è facilmente immaginabile che in un prossimo futuro diventi artefice anche dell'innovazione hardware.
Tutto dipenderà da come verrà gestita questa risorsa. Un'ottimizzazione dei processi progettuali e produttivi garantirebbe una forte riduzione dei costi, il che potrebbe aprire la strada a soluzioni hardware non solo più potenti, ma anche più accessibili. Al momento, il target rimane il settore enterprise, ma è lecito supporre che tali migliorie raggiungeranno anche il settore consumer entro pochi anni.










KTC H27E6 a 300Hz e 1ms: come i rivali ma a metà prezzo
Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Patreon lancia Quips, un social network interno per connettere creator e fan
Honda richiama oltre 400mila Civic: c'è il rischio che una ruota si stacchi durante la guida
Manipolazione robotica: Adaptronics chiude un round da 3,15 milioni
Singles' Day 2025: le offerte AliExpress da non perdere per la Festa dei Single
Nasce in Belgio il primo parco solare per la produzione di idrogeno verde al mondo
Grande festa in Cina, Fiido esagera: fino a 1.300 euro di sconto sulle e-bike
Terapia genica 'one-shot' abbatte colesterolo e trigliceridi: prima sperimentazione umana riuscita
Il primo sconto in assoluto di iPhone 17 Pro: 256 GB a 1.299€
Mini Aspirapolvere 4 in 1 da 26.000Pa: l'arma segreta per auto, divani e peli di animali a soli 29,15€
Google punirà le app che consumano troppa batteria su Android: nuove regole dal 2026
Cina: emissioni di CO2 stabili o in calo da 18 mesi grazie a rinnovabili ed EV
Ritorna la migliore offerta di ho. Mobile: 5,95 euro al mese e 100 Giga, ma tempo limitato
21 offerte Amazon Black Friday vere: robot, TV anche OLED, portatili e molto altro a prezzi stracciati, con le novità di oggi
Tesla crolla in Cina: ottobre è stato il peggior mese degli ultimi tre anni









21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLa concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.
Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.
Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
Dici la stessa Su che produce le EPYC?
naaa penso sia Liza Sunna di Parma, che produce il prosciutto cotto
Sì, proprio lei che vive solo di CPU e non ha ancora investito un dollaro in altro per poi uscirsene nel 2025 a dire "hey, ma questa AI permette anche di aiutare a progettare!".
Probabilmente in azienda hanno tutti processori EPYC che l'AI la computano esattamente come le CPU del 2015 ma dopo che qualcuno in azienda di nascosto gli ha affiancato una GPU Nvidia è corso da Lisa raccontandole tutto ciò che si sono persi finora.
Penso possa essere possibile
skynet sempre piu vicina
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.
Non confondere i CAD (Computer Aided Design) che esistono da quando esistono i computer da tool che che usano modelli AI per aiutare a sviluppare ben più in profondità rispetto a quanto facessero prima.
E come confrontare l'aiuto di un correttore di codice mentre programmi rispetto a tool che generano intere funzioni in maniera autonoma.
Quindi vero, prima di Nvidia c'erano i tool che aiutavano a progettare, con Nvidia i tool hanno fatto un salto quantico e sono ora ben altra cosa.
E' solo Lisa che se ne è accorta nel 2025 inoltrato. E molto probabilmente usando i sistemi Nvidia, visto che suoi suoi si fa fatica solo a mettere un modello generativo semplice come Stable Diffusion. E anche quando dopo peripezie sei riuscito a installarlo le prestazioni sono parecchio meh...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".