View Full Version : AMD Instinct MI300 mostrato al CES 2023, un superchip che fonde Zen 4 e CDNA 3
Redazione di Hardware Upg
09-01-2023, 08:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/amd-instinct-mi300-mostrato-al-ces-2023-un-superchip-che-fonde-zen-4-e-cdna-3_113057.html
Al CES 2023 AMD ha mostrato dal vivo AMD Instinct MI300, un chip che su un singolo package offre mediante numerosi chiplet fino a 24 core Zen 4, una GPU CDNA 3 e ben 128 GB di memoria di tipo HBM3. Il debutto è previsto nella seconda metà del 2023.
Click sul link per visualizzare la notizia.
ninja750
09-01-2023, 08:08
ok quindi uno shrink di questo su socket dedicato e potremmo avere diciamo uno zen 3d 8/16 e una rdna3 7900xt a costo di saldo? :O
Gyammy85
09-01-2023, 08:26
Quindi se ho ben capito non servirà più una divisione fra cpu e gpu all'interno dei supercomputer ma tutto in uno? è un incredibile risparmio di spazio fisico, el capitan più di 2 exaflops cioè quasi il doppio di frontier, e magari con un quarto dei processori, dato che questa va diverse volte la mi250x :eek:
The_Hypersonic
09-01-2023, 08:29
Adesso serve solo che sviluppi una coscienza di sé.
supertigrotto
09-01-2023, 08:32
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.
Penso ci sia anche lo zampino di xilinx. In futuro imho si avranno chipponi con componente x86, gpu, "gpu"-like (calcolo) e arm. Una marea di chip e chippetini general purpose e non per coprire una vasta gamma di use case.
Gyammy85
09-01-2023, 09:18
Finalmente la folle spesa di AMD quando ha acquisito ATI (strapagata) sta dando buoni frutti,almeno nel settore professionale.
Nel settore hobbistico (videogiochi) è ancora un po' indietro ma una azienda guarda ai soldi,e nel mondo dell'industria (intesa come calcolo scientifico etc) il margine di guadagno e decisamente migliore.
Continuo a leggere che hanno strapagato, ma quanto avrebbero dovuto pagare Ati che all'epoca era all'apice della tecnologia grafica, con nvidia che era al minimo? casomai sono stati miopi in intel a non prendersi nvidia a quattro soldi
Penso ci sia anche lo zampino di xilinx. In futuro imho si avranno chipponi con componente x86, gpu, "gpu"-like (calcolo) e arm. Una marea di chip e chippetini general purpose e non per coprire una vasta gamma di use case.
Si e no, xilinx per quanto riguarda fpga, qui credo sia sempicemente la tencologia infinity fabric già iniziata coi ryzen 1000 e vega portata al livello successivo
In pratica un M1/M2! Ottimo!
Piedone1113
09-01-2023, 10:23
Continuo a leggere che hanno strapagato, ma quanto avrebbero dovuto pagare Ati che all'epoca era all'apice della tecnologia grafica, con nvidia che era al minimo? casomai sono stati miopi in intel a non prendersi nvidia a quattro soldi
Invece è stata strapagata ( almeno il 30% in più valutazione reale su asset, risorse e progetti acquisiti a transazione conclusa).
Dimentichi anche che ATI aveva in cantiere la famigerata 2900xt mentre Nvidia si apprestava a rilasciare la serie 8000 (8800 GTX) che performava un buon 30% in più consumando meno.
Si può anche parlare volendo del settore Pro ( dove ATI era praticamente assente) dominato dalle quadro Nvidia o di Denver che ha messo il pepe al culo ad Amd ( e si parlara anche di trattative in corso di Nvidia per acquisire le licenze x86 da Via tecnology).
Insomma Nvidia era al top e rischiava di diventare la killer di AMD ed ATI, mentre l'acquisizione di ATI era improcastinabile da parti di AMD e tutto sommato se non fosse stato per le casse in perenne rosso anche sovrappagata non fu un errore.
Gyammy85
09-01-2023, 10:31
Invece è stata strapagata ( almeno il 30% in più valutazione reale su asset, risorse e progetti acquisiti a transazione conclusa).
Dimentichi anche che ATI aveva in cantiere la famigerata 2900xt mentre Nvidia si apprestava a rilasciare la serie 8000 (8800 GTX) che performava un buon 30% in più consumando meno.
Si può anche parlare volendo del settore Pro ( dove ATI era praticamente assente) dominato dalle quadro Nvidia o di Denver che ha messo il pepe al culo ad Amd ( e si parlara anche di trattative in corso di Nvidia per acquisire le licenze x86 da Via tecnology).
Insomma Nvidia era al top e rischiava di diventare la killer di AMD ed ATI, mentre l'acquisizione di ATI era improcastinabile da parti di AMD e tutto sommato se non fosse stato per le casse in perenne rosso anche sovrappagata non fu un errore.
Mica paghi solo gli asset, se no whatsapp la pagavi 40 mila euro e non 40 milardi, ci sono le prospettive future e la forza del marchio con la vision
Il complesso di inferiorità "oh no siamo assenti negli studi di progettazione e i giochi belli non hanno il nostro marchietto" non è contemplato dagli investitori che guadano ai fatti
La 8800gtx forse andava il 30% in più coi giochi del 2001 ma non era cos' avanti nel resto, e in calcolo veniva bastonata, il progetto era molto valido in ottica futura, mettici pure un pp disastroso a 80 nm rispetto ai 65 che erano in programma...non è così che si fanno le valutazioni, sono priogrammi a medio/lungo termine, il lungo termine è arrivato e pure i proventi, successo al 100%
Nvidia non era al top quando iniziarono le trattative, era forse nel momento peggiore della sua storia, g80 uscì dopo
Invece è stata strapagata ( almeno il 30% in più valutazione reale su asset, risorse e progetti acquisiti a transazione conclusa).
Dimentichi anche che ATI aveva in cantiere la famigerata 2900xt mentre Nvidia si apprestava a rilasciare la serie 8000 (8800 GTX) che performava un buon 30% in più consumando meno.
Si può anche parlare volendo del settore Pro ( dove ATI era praticamente assente) dominato dalle quadro Nvidia o di Denver che ha messo il pepe al culo ad Amd ( e si parlara anche di trattative in corso di Nvidia per acquisire le licenze x86 da Via tecnology).
Insomma Nvidia era al top e rischiava di diventare la killer di AMD ed ATI, mentre l'acquisizione di ATI era improcastinabile da parti di AMD e tutto sommato se non fosse stato per le casse in perenne rosso anche sovrappagata non fu un errore.
puo' anche darsi o sicuro che gli analisti in quel periodo hanno trovato sovra prezzata ATI, ma con il senno di poi..secondo te e i migliori analisti del mondo, AMD ha sbagliato ad acquisire ATI?
perche il problema non e' solo il prezzo di acquisto, ma prevedere con estrema sicurezza che il cavallo sia vincente;)
anzi si puo praticamente sentenziare che oggi AMD se esiste ancora, e' proprio per quella scelta "scellerata" fatta allora:eek: :stordita:
AlexSwitch
09-01-2023, 11:26
In pratica un SoC.
Si.. in pratica un SoC, ma più flessibile di quelli classici come la serie Mx di Apple, dove solamente la ram è esterna al die principale.
La soluzione di AMD permetterebbe di montare su chiplet componenti diverse in base alle necessità di calcolo per fascia di prezzo, senza dover stampare un die monolitico con componenti disattivate. Il tutto si tradurrebbe in un uso più efficiente dei wafer e migliori rese con conseguente contenimento dei costi.
Strada che, se non mi sbaglio, anche Intel intraprenderà a breve per le sue CPU; Apple invece sembra essere rimasta indietro, visto che M2 e molto probabilmente anche il futuro M3 saranno con die monolitico accoppiabile con un altro tramite interposer ( MX Ultra ).
AlexSwitch
09-01-2023, 11:28
In pratica un M1/M2! Ottimo!
No.. M1, M2 e molto probabilmente M3 sono SoC con die monolitico. Solamente la Ram è esterna e montata sullo stesso chiplet del SoC. La soluzione proposta da AMD è più avanzata e flessibile.
Opteranium
09-01-2023, 12:50
abbastanza mostruoso :eek:
supertigrotto
09-01-2023, 13:44
Continuo a leggere che hanno strapagato, ma quanto avrebbero dovuto pagare Ati che all'epoca era all'apice della tecnologia grafica, con nvidia che era al minimo? casomai sono stati miopi in intel a non prendersi nvidia a quattro soldi
Si e no, xilinx per quanto riguarda fpga, qui credo sia sempicemente la tencologia infinity fabric già iniziata coi ryzen 1000 e vega portata al livello successivo
In realtà AMD doveva acquisire Nvidia,solo che giacchetto in pelle mise una condizione: sarò io il Lieder Maximo.
Fu così che AMD si rivolse ad ATI.
Chissà come sarebbero andate le cose se giacchetto la avesse avuta vinta,se sarebbero nati i Ryzen o se AMD avrebbe virato su Arm.
ok quindi uno shrink di questo su socket dedicato e potremmo avere diciamo uno zen 3d 8/16 e una rdna3 7900xt a costo di saldo? :O
Se non erro dovrebbe arrivare qualcosa di simile con Strix Point (Zen5), ma credo proprio che sarà un pelino meno sofisticato di questo ;)
In pratica un M1/M2! Ottimo!
Stiamo parlando della prima APU per data center, M1 e M2 non ci azzeccano molto.
MI300 ha una serie di caratteristiche innovative, a partire dal fatto che ha un design MCM, packaging 3D e memoria HBM3 integrata (alla faccia della "colla" :asd: ).
I concorrenti saranno Falcon Shores di Intel (che però arriverà come minimo un anno dopo e non si sa nemmeno se sarà più performante) e Grace Hopper di Nvidia che a quanto pare non sarà MCM e dovrebbe essere disponibile quest'anno, ma basato su architettura ARM per la componente CPU, quindi si pone in un mercato un po' diverso.
In realtà AMD doveva acquisire Nvidia,solo che giacchetto in pelle mise una condizione: sarò io il Lieder Maximo.
Fu così che AMD si rivolse ad ATI.
Chissà come sarebbero andate le cose se giacchetto la avesse avuta vinta,se sarebbero nati i Ryzen o se AMD avrebbe virato su Arm.
Non sapevo di questa storia, ma in effetti Mr giacchetta può fare solo il Leader Maximo, non ce lo vedo in un altro ruolo. Probabilmente sarebbe stato liquidato subito dopo il merge se la cosa fosse andata in porto.
Comunque secondo me AMD senza l'acquisizione di ATI sarebbe fallita :fagiano:
Piedone1113
09-01-2023, 22:22
puo' anche darsi o sicuro che gli analisti in quel periodo hanno trovato sovra prezzata ATI, ma con il senno di poi..secondo te e i migliori analisti del mondo, AMD ha sbagliato ad acquisire ATI?
perche il problema non e' solo il prezzo di acquisto, ma prevedere con estrema sicurezza che il cavallo sia vincente;)
anzi si puo praticamente sentenziare che oggi AMD se esiste ancora, e' proprio per quella scelta "scellerata" fatta allora:eek: :stordita:
Mi sembra di aver detto che l'acquisizione era necessaria e non rinviabile:
Le trattative si sono concluse nel 2006, ma dal 2005 ATI non ne beccava 1.
Ritardi di 9 mesi rispetto Nvidia, schede video con scarsa reperibilità.
X1800xt ( top di gamma ATI) che dura solo 3 mesi e subito sostituita dalla 1900xt prima e dalla 1950xt dopo per competere con la 7800 e successivamente con la 8800.
Indietro nel supporto alle dx10, con utili netti sempre inferiori a Nvidia nonostante un market share simile.
ATI era in grossi guai e AMD ne ha sovrastimato il valore.
Al netto del fatto che con un eventuale riallocazione al ribasso del prezzo avrebbe potuto anche far saltare tutto.
Senza dimenticare però che Amd dalle CPU am2 fino a bulldozer non è affogata solo grazie alla divisione VGA.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.