AMD Instinct MI300 mostrato al CES 2023, un superchip che fonde Zen 4 e CDNA 3

AMD Instinct MI300 mostrato al CES 2023, un superchip che fonde Zen 4 e CDNA 3

Al CES 2023 AMD ha mostrato dal vivo AMD Instinct MI300, un chip che su un singolo package offre mediante numerosi chiplet fino a 24 core Zen 4, una GPU CDNA 3 e ben 128 GB di memoria di tipo HBM3. Il debutto è previsto nella seconda metà del 2023.

di pubblicata il , alle 09:01 nel canale Processori
HBMCDNAZenRadeon InstinctAMD
 

Il CEO di AMD Lisa Su, nel corso del keynote al CES 2023, ha mostrato per la prima volta dal vivo AMD Instinct MI300. Il nuovo processore destinato al mondo dei datacenter e dei supercomputer nasce da una combinazione di core x86, GPU e memoria su un singolo package.

AMD Instinct MI300, come spiegato dalla stessa Su, è formato da nove chiplet a 5 nanometri impilati tramite stacking 3D sopra quattro chiplet realizzati a 6 nanometri a cui si aggiungono 128 GB di memoria di tipo HBM3, aspetto che permette al chip di funzionare senza ricorrere a memoria DRAM esterna. Il superchip integra 146 miliardi di transistor ed è il prodotto di AMD più complesso di sempre.

Dal punto di vista delle caratteristiche tecniche, il cuore di AMD Instinct MI300 è rappresentato da un massimo di 24 core x86 basati su architettura Zen 4 e una GPU basata su architettura CDNA 3, il tutto collegato mediante la quarta generazione dell'interconnessione Infinity ad altissima velocità.

Durante il keynote AMD ha mostrato una slide da cui Instinct MI300 risulta essere ben più veloce dell'attuale acceleratore Instinct MI250X: la società prevede prestazioni per watt con calcoli di IA fino a 5 volte migliori e prestazioni di calcolo IA fino a 8 volte maggiori. "L'unione di CPU, GPU e memoria in un unico design integrato ci consente di condividere le risorse di sistema e semplifica notevolmente la programmazione", ha spiegato il CEO di AMD.

"Per mettere il tutto in prospettiva, durante le vacanze si è parlato molto di ChatGPT e di cosa si può fare con questi grandi modelli linguistici. Questi modelli impiegano mesi per addestrarsi su migliaia di GPU che consumano milioni di dollari di elettricità. MI300 può ridurre i tempi di addestramento di questi modelli da mesi a settimane, con costi energetici notevolmente inferiori. E, cosa più importante, può anche supportare modelli molto, molto più grandi che potranno essere usati per servizi di intelligenza artificiale ancora più avanzati e potenti in futuro", ha affermato Su.

AMD Instinct MI300 è attualmente nei laboratori della società statunitense e le prime spedizioni ai partner sono previste per la seconda metà di quest'anno. Il chip troverà casa nel supercomputer El Capitan, in predicato di offrire una potenza di calcolo superiore ai 2 exaflops, che sarà installato presso il Lawrence Livermore National Lab del DOE (Dipartimento dell'Energia USA).

17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ninja75009 Gennaio 2023, 09:08 #1
ok quindi uno shrink di questo su socket dedicato e potremmo avere diciamo uno zen 3d 8/16 e una rdna3 7900xt a costo di saldo?
Gyammy8509 Gennaio 2023, 09:26 #2
Quindi se ho ben capito non servirà più una divisione fra cpu e gpu all'interno dei supercomputer ma tutto in uno? è un incredibile risparmio di spazio fisico, el capitan più di 2 exaflops cioè quasi il doppio di frontier, e magari con un quarto dei processori, dato che questa va diverse volte la mi250x
The_Hypersonic09 Gennaio 2023, 09:29 #3
Adesso serve solo che sviluppi una coscienza di sé.
supertigrotto09 Gennaio 2023, 09:32 #4
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.
WarSide09 Gennaio 2023, 09:58 #5
Originariamente inviato da: supertigrotto
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.


Penso ci sia anche lo zampino di xilinx. In futuro imho si avranno chipponi con componente x86, gpu, "gpu"-like (calcolo) e arm. Una marea di chip e chippetini general purpose e non per coprire una vasta gamma di use case.
frankie09 Gennaio 2023, 10:12 #6
In pratica un SoC.
Gyammy8509 Gennaio 2023, 10:18 #7
Originariamente inviato da: supertigrotto
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.


Continuo a leggere che hanno strapagato, ma quanto avrebbero dovuto pagare Ati che all'epoca era all'apice della tecnologia grafica, con nvidia che era al minimo? casomai sono stati miopi in intel a non prendersi nvidia a quattro soldi

Originariamente inviato da: WarSide
Penso ci sia anche lo zampino di xilinx. In futuro imho si avranno chipponi con componente x86, gpu, "gpu"-like (calcolo) e arm. Una marea di chip e chippetini general purpose e non per coprire una vasta gamma di use case.


Si e no, xilinx per quanto riguarda fpga, qui credo sia sempicemente la tencologia infinity fabric già iniziata coi ryzen 1000 e vega portata al livello successivo
tony35909 Gennaio 2023, 11:03 #8
In pratica un M1/M2! Ottimo!
Piedone111309 Gennaio 2023, 11:23 #9
Originariamente inviato da: Gyammy85
Continuo a leggere che hanno strapagato, ma quanto avrebbero dovuto pagare Ati che all'epoca era all'apice della tecnologia grafica, con nvidia che era al minimo? casomai sono stati miopi in intel a non prendersi nvidia a quattro soldi


Invece è stata strapagata ( almeno il 30% in più valutazione reale su asset, risorse e progetti acquisiti a transazione conclusa).
Dimentichi anche che ATI aveva in cantiere la famigerata 2900xt mentre Nvidia si apprestava a rilasciare la serie 8000 (8800 GTX) che performava un buon 30% in più consumando meno.
Si può anche parlare volendo del settore Pro ( dove ATI era praticamente assente) dominato dalle quadro Nvidia o di Denver che ha messo il pepe al culo ad Amd ( e si parlara anche di trattative in corso di Nvidia per acquisire le licenze x86 da Via tecnology).
Insomma Nvidia era al top e rischiava di diventare la killer di AMD ed ATI, mentre l'acquisizione di ATI era improcastinabile da parti di AMD e tutto sommato se non fosse stato per le casse in perenne rosso anche sovrappagata non fu un errore.
Gyammy8509 Gennaio 2023, 11:31 #10
Originariamente inviato da: Piedone1113
Invece è stata strapagata ( almeno il 30% in più valutazione reale su asset, risorse e progetti acquisiti a transazione conclusa).
Dimentichi anche che ATI aveva in cantiere la famigerata 2900xt mentre Nvidia si apprestava a rilasciare la serie 8000 (8800 GTX) che performava un buon 30% in più consumando meno.
Si può anche parlare volendo del settore Pro ( dove ATI era praticamente assente) dominato dalle quadro Nvidia o di Denver che ha messo il pepe al culo ad Amd ( e si parlara anche di trattative in corso di Nvidia per acquisire le licenze x86 da Via tecnology).
Insomma Nvidia era al top e rischiava di diventare la killer di AMD ed ATI, mentre l'acquisizione di ATI era improcastinabile da parti di AMD e tutto sommato se non fosse stato per le casse in perenne rosso anche sovrappagata non fu un errore.


Mica paghi solo gli asset, se no whatsapp la pagavi 40 mila euro e non 40 milardi, ci sono le prospettive future e la forza del marchio con la vision
Il complesso di inferiorità "oh no siamo assenti negli studi di progettazione e i giochi belli non hanno il nostro marchietto" non è contemplato dagli investitori che guadano ai fatti
La 8800gtx forse andava il 30% in più coi giochi del 2001 ma non era cos' avanti nel resto, e in calcolo veniva bastonata, il progetto era molto valido in ottica futura, mettici pure un pp disastroso a 80 nm rispetto ai 65 che erano in programma...non è così che si fanno le valutazioni, sono priogrammi a medio/lungo termine, il lungo termine è arrivato e pure i proventi, successo al 100%
Nvidia non era al top quando iniziarono le trattative, era forse nel momento peggiore della sua storia, g80 uscì dopo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^