AMD entra nell'era dei 2 nanometri: EPYC Venice e Instinct MI455X al centro della strategia YottaScale

AMD entra nell'era dei 2 nanometri: EPYC Venice e Instinct MI455X al centro della strategia YottaScale

AMD ha mostrato i primi chip a 2 nm con EPYC Venice Zen 6 e Instinct MI455X, progettati per i rack Helios AI. La strategia dell'azienda statunitense guarda all'era YottaScale, in previsione di una crescita esponenziale della domanda di calcolo.

di pubblicata il , alle 11:01 nel canale Server e Workstation
InstinctEPYCAMD
 

Al CES 2026 di Las Vegas, AMD ha mostrato per la prima volta i propri chip a 2 nanometri, segnando un passaggio chiave nella roadmap per l'infrastruttura AI di nuova generazione. I nuovi EPYC Venice basati su architettura Zen 6 e gli acceleratori Instinct MI455X sono stati progettati come elementi fondanti dei rack Helios, soluzioni rack-scale completamente raffreddate a liquido pensate per sostenere carichi di lavoro di intelligenza artificiale su scala estrema.

Il rack Helios integra un singolo processore EPYC Venice e quattro GPU Instinct MI455X, affiancati da soluzioni di networking e interconnessione Pensando, nello specifico la DPU Salina 400 e l'AI NIC Vulcano 800. L'obiettivo dichiarato è massimizzare densità di calcolo ed efficienza energetica, due fattori sempre più critici nei data center orientati all'AI.

Sul fronte CPU, EPYC Venice rappresenta un'evoluzione sostanziale: fino a 256 core Zen 6C distribuiti su otto CCD, affiancati da due I/O die e chiplet dedicati alla gestione. AMD promette un incremento superiore al 70% in termini di prestazioni ed efficienza rispetto alla generazione precedente, insieme a un aumento di oltre il 30% della densità di thread. Accanto alle varianti Zen 6C, sono previste configurazioni più tradizionali con 192 core Zen 6, 16 CCD e fino a 768 MB di cache L3.

Ancora più imponente il profilo dell'Instinct MI455X, acceleratore AI di dimensioni considerevoli, composto da due Graphics Compute Die, due Memory Controller Die e 16 stack di HBM4. Le specifiche anticipate parlano di prestazioni fino a 40 PFLOPS in FP4 e 20 PFLOPS in FP8, 432 GB di memoria HBM4 con una bandwidth prossima ai 20 TB/s per singolo chip e un'architettura pensata per scalare sia all'interno del nodo sia tra più sistemi.

Combinando questi elementi, un singolo rack Helios può arrivare a 2,9 exaFLOPS di potenza di calcolo AI, con 31 TB di memoria HBM4 complessiva, 43 TB/s di banda scale-out e un totale che può superare i 4.600 core CPU e i 18.000 core GPU. AMD posiziona apertamente la piattaforma come alternativa alle soluzioni di nuova generazione di NVIDIA, dichiarando vantaggi in capacità di memoria e banda scale-out, a parità di throughput computazionale e bandwidth interna.

La presentazione dei chip a 2 nm si inserisce in una visione più ampia illustrata dalla CEO Lisa Su, che ha parlato di un imminente ingresso nell'era "YottaScale". Secondo AMD, la domanda di potenza di calcolo per l'AI è destinata a crescere di circa 10.000 volte rispetto ai livelli del 2022, spinta non solo dal cloud ma anche da edge computing, PC, sanità, industria e applicazioni scientifiche. Le stime più aggressive indicano un fabbisogno globale superiore ai 10 yottaFLOPS entro la fine del decennio.


Per dare un'idea delle proporzioni, un singolo yottaFLOPS di potenza AI richiederebbe centinaia di migliaia di rack Helios, evidenziando quanto il mercato potenziale per acceleratori e soluzioni rack-scale sia destinato ad ampliarsi.

La produzione dei chip AI a 2 nanometri è già avviata e le prime spedizioni ai clienti sono previste nella seconda metà del 2026. Resta aperto il tema della sostenibilità di una crescita così rapida, soprattutto alla luce delle implicazioni energetiche e infrastrutturali.

5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto07 Gennaio 2026, 14:55 #1
Yotta man yotta man al gran filone d'oro....
supertigrotto07 Gennaio 2026, 17:22 #2
Se non sbaglio,le instinct 400 dovrebbero essere alla base delle prossime schede video AMD che usciranno nel 2027.
LMCH07 Gennaio 2026, 23:00 #3
Si parla di raggiungere entro il 2039 circa 10000 volte la potenza di calcolo rispetto al 2022.
Ipotizzando idealmente che valga ancora la legge di Moore ( 2 volte la potenza di calcolo ogni 2 anni e 4 volte i chip a parità di gate sulla stessa area) risulterebbe fattibile raggiungere 8^5 = 32767.

Il problema é che da prima del 2022 ora la potenza di calcolo raddoppia ogni circa 4 anni ed il numero di chip a parità di gate aumenta a patto di non spingere sulle prestazioni.

Ipotizzando di raddoppiare le prestazioni ogni 4 anni e contemporaneamente (ed ottimisticamente) produrre il doppio di chip sulla stessa area si ottiene 4^2,5.

Facciamo i super-ottimisti ed ipotizziamo 4^3 = 64.

Per arrivare a "quota 10000" servirebbe AUMENTARE il numero di wafer prodotti di 10000/64 = 156,25 volte rispetto al 2022.

Notare: 156 volte la capacità di produrre wafer di silicio, 156 volte le fab attuali (ipotizzando ANCHE di aggiornare quelle esistenti) capaci di fotolitografare quei wafer, 156 volte l'energia elettrica per far solo accendere tutti quei chip, ecc ecc.

Poi serve pure 156 volte la capacità di ram
e storage altrimenti quei chip da soli stanno li a fare le stufette.

Insomma, o spuntano nuove tecnologie produttive super-segretissime che entrano in produzione tra qualche giorno oppure qualcuno é stato TROPPO ottimista nel fare quelle previsioni.
Alodesign08 Gennaio 2026, 09:07 #4
Originariamente inviato da: LMCH
Si parla di raggiungere entro il 2039 circa 10000 volte la potenza di calcolo rispetto al 2022.
Ipotizzando idealmente che valga ancora la legge di Moore ( 2 volte la potenza di calcolo ogni 2 anni e 4 volte i chip a parità di gate sulla stessa area) risulterebbe fattibile raggiungere 8^5 = 32767.

Il problema é che da prima del 2022 ora la potenza di calcolo raddoppia ogni circa 4 anni ed il numero di chip a parità di gate aumenta a patto di non spingere sulle prestazioni.

Ipotizzando di raddoppiare le prestazioni ogni 4 anni e contemporaneamente (ed ottimisticamente) produrre il doppio di chip sulla stessa area si ottiene 4^2,5.

Facciamo i super-ottimisti ed ipotizziamo 4^3 = 64.

Per arrivare a "quota 10000" servirebbe AUMENTARE il numero di wafer prodotti di 10000/64 = 156,25 volte rispetto al 2022.

Notare: 156 volte la capacità di produrre wafer di silicio, 156 volte le fab attuali (ipotizzando ANCHE di aggiornare quelle esistenti) capaci di fotolitografare quei wafer, 156 volte l'energia elettrica per far solo accendere tutti quei chip, ecc ecc.

Poi serve pure 156 volte la capacità di ram
e storage altrimenti quei chip da soli stanno li a fare le stufette.

Insomma, o spuntano nuove tecnologie produttive super-segretissime che entrano in produzione tra qualche giorno oppure qualcuno é stato TROPPO ottimista nel fare quelle previsioni.


Oppure cambi i calcoli che il chip deve fare.
LMCH08 Gennaio 2026, 13:15 #5
Originariamente inviato da: Alodesign
Oppure cambi i calcoli che il chip deve fare.


E secondo te tutti quelli del settore non ci hanno mai pensato fino ad ora?

Il punto é che a parte l'utilizzare la logica ternaria per accelerare ulteriormente UNA PARTE dei calcoli, non ci sono alternative concrete all'uso di chip ottimizzati per eseguire un fottio di operazioni di multiplicazione-accumulo di tensori.

Uno dei motivi per cui si parla di bolla speculativa é proprio il fatto che il mantra é diventato "scaling is all you need" mentre é fin troppo ovvio che non funziona nella realtà (ma fa troppo comodo per continuare ad alimentare la frenesia speculativa).

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^