AMD protagonista al CES 2026: il keynote di Lisa Su tra AI, CPU, GPU e nuove prospettive
Lisa Su, CEO di AMD, terrà il keynote di apertura del CES 2026, in programma il prossimo 5 gennaio a Las Vegas. L'intervento toccherà temi legati ad AI, CPU, GPU e tanto altro. Attese anticipazioni su Zen 6 e nuovi acceleratori Instinct, senza escludere annunci inediti.
di Manolo De Agostini pubblicata il 10 Settembre 2025, alle 01:01 nel canale ProcessoriAMD
La Consumer Technology Association (CTA) ha confermato che Lisa Su, CEO e presidente di AMD, sarà la "keynote speaker d'apertura" del CES 2026 di Las Vegas. Si tratta di un ritorno sul palco per il massimo dirigente di AMD, che in passato ha già utilizzato la cornice del CES per delineare la strategia futura relativa a processori, GPU e soluzioni dedicate all'intelligenza artificiale.
Il keynote, che si terrà alle 18:30 del 5 gennaio (ora locale, le 03:30 di martedì 6 gennaio 2026 in Italia) presso il Palazzo Ballroom del Venetian, sarà incentrato sulla visione di AMD per il futuro dell'AI e del computing ad alte prestazioni. L'azienda intende mostrare come l'ampia offerta di CPU, GPU, soluzioni adattive e software possa supportare partner e clienti nell'affrontare sfide globali, dal cloud all'edge fino ai dispositivi consumer.

Lisa Su sottolineerà inoltre il ruolo centrale delle architetture AMD EPYC nei datacenter, delle GPU Instinct per l'accelerazione AI, e dei processori Ryzen e Radeon nel segmento PC e gaming. Come tradizione del CES, AMD potrebbe cogliere l'occasione per introdurre novità lato notebook.
Nel 2025 furono annunciate le famiglie Strix Halo e Krackan Point. Per l'anno prossimo è probabile un refresh delle piattaforme mobile, con dettagli sulla roadmap che ci porterà ai futuri chip Zen 6 per desktop e server. Sebbene non sia previsto un lancio diretto di nuovi processori EPYC "Venice", GPU Instinct di nuova generazione o i Ryzen di prossima generazione, un assaggio sotto qualche forma non è da escludere.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPS avete notato che i CEO di Intel, nVidia e AMD hanno tutti gli occhi a mandorla
Lo sanno tutti eccetto gli Nvidiari
Per loro Jensen è nato da un orifizio diverso da tutti gli altri
PS avete notato che i CEO di Intel, nVidia e AMD hanno tutti gli occhi a mandorla
AMD punta su un software generico open per IA ,non come Nvidia su quello proprietario.
CUDA sta facendo danni,non lo dico io ma pure un signor nessuno di nome Keller e altri del settore,appunto perché sta portando i programmatori a diventare pigri o essere in difficoltà fuori dall' ambiente CUDA.ci sono diverse interviste in merito a vari novizi del settore.
salga sul palco a presentare RDNA5/UDNA con la gente che lancia i pomodori sul palco
CUDA sta facendo danni,non lo dico io ma pure un signor nessuno di nome Keller e altri del settore,appunto perché sta portando i programmatori a diventare pigri o essere in difficoltà fuori dall' ambiente CUDA.ci sono diverse interviste in merito a vari novizi del settore.
E' un punto di vista parziale, di quello prettamente tecnico senza guardare all'aspetto pratico ed economico della cosa.
Il danno di CUDA è sicuramente inferiore a quello che fanno altri linguaggi oggi usati anche per cose di basso livello.
Il trend, dagli anni '90 in poi, è stata la semplificazione della programmazione, vuoi perché programmare bene con linguaggi di basso livello è difficile, vuoi perché i sistemi sono diventati molto complicati e mantenere un progetto nel tempo è diventato molto costoso.
L'AI è una ulteriore complicazione a modelli e sistemi di sviluppo non pensati per gestire innumerevoli flussi paralleli. Anni fa era impensabile avere una macchina su cui potevano girare centinaia di migliaia di thread, per di più su dispositivi che non fossero pure CPU, e ci si è dovuto armare di nuove idee per rendere questo tipo di programmazione sfruttabile, sia in termini tecnici che economici.
Il problema non è essere open source o meno E' avere un ambiente di sviluppo stabile su cui uno possa investire le ingenti cifre richieste per creare applicazioni che devono girare su data center da milioni se non centinaia di milioni di dollari.
Non si parla di fare progetti pilota o quelli hobbistici per i quali va bene qualsiasi cosa che in poco tempo prospetti la riuscit, e se no, va be', si riparte con qualcosa di diverso.
Oggi, settembre 2025, non è stato sviluppato nulla che ha mantenuto saldo il metodo di lavoro e la possibilità di riuso del vecchio codice come lo è stato il framework su cui CUDA si basa. CUDA è nato quando ancora tutti pensavano che le CPU fossero insostituibili per fare calcoli. Pure Intel ci ha provato a fare sistemi con decine di core paralleli che fossero sfruttabili tramite il consueto percorso di programmazione. Oggi che le CPU sono solo il contorno ai veri dispositivi che macinano numeri, e la cosa è dovuta all'accelerazione di Nvidia in questo campo non certo alle parole di qualche guru, tutti gli altri (che poi sono produttori di CPU principalmente) sembra si siano svegliati ieri a comprendere la rivoluzione che è avvenuta e quindi la disponibilità di alternative a CUDA è pari a zero.
Nessuno, e ripeto nessuno sano di mente investirebbe le sorti di un progetto pluriennale dal costo di svariati milioni usando una suite di sviluppo che è mantenuta da un gruppo di ragazzi in un garage in un posto qualsiasi del mondo o da una società "ballerina" che oggi c'è, domani forse no e se ci sarà non è detto che continui lo sviluppo o decida di cominciare da zero con qualcosa di nuovo (se pensi ad AMD hai pensato giusto, ROCm è l'ultimo dei 4 o 5 tentativi di sviluppare qualcosa di simile a CUDA, chiunque abbia tentato di usare i suoi sistemi di sviluppo precedenti ha buttato tutto nel cesso ancora prima di arrivare in fondo).
La fossilizzazione nell'uso di CUDA per la programmazione di sistemi ultra paralleli nasce quindi da una questione puramente economica.
Certo sarebbe fantastico avere schiere di programmatori capaci di sviluppare programmi e modelli usando il linguaggio Z inventato da Pincopalla e diventato standard al punto di essere in grado di supportare qualsiasi architettura odierna e futura con un ambiente aperto.
La realtà è che non esiste e nessuno investe milioni e ipoteca anni di risultati su un sistema acerbo e dal futuro non sicuro.
CUDA ha dimostrato in tutti i suoi anni di sviluppo di poter offrire un framework che è rimasto sempre compatibile con il passato ma supportando sempre in tempo zero le novità HW, che è garanzia che quello che ho fatto ieri e oggi non vada perso domani, aggiornato alle ultime novità, sia HW che SW, senza aspettare l'intervento divino ed è stato continuamente espanso in termini di tool e librerie che permettono di migliorare le metodologie di lavoro, semplificare passaggi e sincronizzazioni con altri tool altrimenti ostici e quindi DI RIDURRE I TEMPI DI SVILUPPO con quindi riduzione dei costi di sviluppo e vantaggi in termini di TTM.
I grandi luminari dell'informatica possono lamentarsi quanto vogliono circa quello che è il presunto danno che CUDA sta facendo, ma ciò che conta per il successo di adozione di uno strumento informatico non è "la bellezza estetica" o quella "spirituale", "comunitaria", "utopica", ma la sua efficacia reale a risolvere problemi e aumentare la produttività, che sia personale (si veda il successo dei prodotti Apple che sono semplificati al massimo e piuttosto blindati nel loro uso) sia quella di intere industrie come quelle che stanno investendo miliardi (dico miliardi) nell'AI.
Quando avranno capito questa semplice cosa forse capiranno anche perché l'anno prossimo sarà l'ennesimo anno di Linux.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".