Advancing AI, il 6 dicembre AMD lancerà la sfida a NVIDIA nel campo dell'intelligenza artificiale

Advancing AI, il 6 dicembre AMD lancerà la sfida a NVIDIA nel campo dell'intelligenza artificiale

Il CEO Lisa Su e i dirigenti della divisione di AMD si stanno preparando all'evento "Advancing AI" del 6 dicembre dove sveleranno le loro soluzioni per fare la guerra a NVIDIA nel comparto dell'intelligenza artificiale. Grande attesa per le soluzioni Instinct MI300.

di pubblicata il , alle 09:21 nel canale Processori
InstinctAMDIntelligenza Artificiale
 

"Advancing AI" è il nome di un evento che AMD terrà mercoledì 6 dicembre alle ore 19:00 italiane. "Unisciti a noi per scoprire come AMD e i suoi partner stanno alimentando il futuro dell'intelligenza artificiale" recita la descrizione dell'appuntamento.

Oltre alle soluzioni delle acquisite Xilinx e Pensando, grande focus sarà riservato alle proposte della linea Instinct MI300. Tutto è pronto infatti per vederle all'opera nel supercomputer El Capitan presso il Lawrence Livermore National Laboratory per il quale si prevede una potenza massima superiore a 2 exalflops.

Proprio in quel sistema vedremo l'APU Instinct MI300A, una proposta che abbina una CPU con 24 core Zen 4 e una GPU con architettura CDNA 3, il tutto abbinato a 128 GB di memoria HBM3 e collegato mediante la quarta generazione dell'interconnessione Infinity ad altissima velocità.

MI300A è formato da nove chiplet a 5 nanometri impilati tramite stacking 3D sopra quattro chiplet realizzati a 6 nanometri. Il superchip integra 146 miliardi di transistor e per ammissione della stessa AMD è il suo prodotto più complesso di sempre.

Ma non ci sarà solo MI300A, AMD prevede anche un acceleratore basato su GPU CDNA 3 che si chiama Instinct MI300X, il cui arrivo è stato anticipato a giugno. Al potente chip AMD abbina 192 GB di memoria HBM3 per una bandwidth della memoria che tocca il valore di 5,2 TB/s.

Instinct MI300X AMD ha rimosso i 3 CCD presenti in Instinct MI300A, sostituendoli con due unità GPU aggiuntive: il loro totale è quindi pari a 8, contro le 6 presenti in Instinct MI300A per un aumento delle prestazioni lato GPU quantificabile nel 33% in MI300X rispetto a MI300A. I chip sfruttano una bandwidth dell'Infinity Fabric di ben 896 GB/s: in tutto sono presenti circa 153 miliardi di transistor, costruiti con tecnologie produttive sempre a 6 e 5 nm.

Non resta che attendere l'evento "Advancing AI" per ottenere maggiori dettagli e soprattutto vedere confronti con le proposte concorrenti di NVIDIA e Intel, i quali necessariamente saranno parametrati sui prodotti già in commercio. L'evento inoltre potrebbe fare luce sulla roadmap per gli anni a venire.

11 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Max Power10 Novembre 2023, 10:00 #1
Non avevo dubbi
demonsmaycry8410 Novembre 2023, 14:53 #2
non hanno imbroccato una gpu in 10 anni voglio proprio vederli solleticare gli ingegneri nvidia con un pò di sfida
boboviz10 Novembre 2023, 15:32 #3
Originariamente inviato da: demonsmaycry84
non hanno imbroccato una gpu in 10 anni voglio proprio vederli solleticare gli ingegneri nvidia con un pò di sfida


In realtà, nel settore HPC, le gpu AMD non sono malaccio, anzi.
Il problema è fondamentalmente il sw/driver/api/ecc.
E prima "Close to Metal", e poi "OpenCL" e adesso "ROCM" (ma pure "SYCL".
Almeno Nvidia ha sempre usato CUDA....
AceGranger10 Novembre 2023, 17:34 #4
e intanto in nVidia
https://www.youtube.com/watch?v=niXQs5nePYg

bè dai, dopo 5-6 anni e un monopolio lasciato ad nVidia anche AMD si accorge che esiste l'AI
k0nt310 Novembre 2023, 21:29 #5
Originariamente inviato da: demonsmaycry84
non hanno imbroccato una gpu in 10 anni voglio proprio vederli solleticare gli ingegneri nvidia con un pò di sfida


Il futuro dell'IA non sono le GPU, con MI300 la sfida è già lanciata e se la gioca con il superchip Grace-Hopper di Nvidia. Come ha già detto qualcun'altro l'esito dipenderà dall'ecosistema che si costruisce attorno, ma per iniziare l'hardware c'è ed è competitivo.
Max Power11 Novembre 2023, 02:30 #6
Originariamente inviato da: AceGranger
e intanto in nVidia
https://www.youtube.com/watch?v=niXQs5nePYg

bè dai, dopo 5-6 anni e un monopolio lasciato ad nVidia anche AMD si accorge che esiste l'AI


Dai tempi delle Vega/Radeon Instinct (2018) che MI50/MI60 che AMD propone sul mercato sistemi su piattaforma ROCm 2.0 dedicati all'accelerazione IA/Deep Learning...

Semplicemente il boom si è visto nel 2023.

ANNO 2022
AMD fatturato di 23,601 miliardi di dollari
NVIDIA fatturato 26,92 miliardi di dollari

Monopolio più o meno...

Sul Marketing sì

Al momento Bench comparativi indipendenti non ce ne sono.
AceGranger11 Novembre 2023, 10:04 #7
Originariamente inviato da: Max Power
Dai tempi delle Vega/Radeon Instinct (2018) che MI50/MI60 che AMD propone sul mercato sistemi su piattaforma ROCm 2.0 dedicati all'accelerazione IA/Deep Learning...

Semplicemente il boom si è visto nel 2023.

ANNO 2022
AMD fatturato di 23,601 miliardi di dollari
NVIDIA fatturato 26,92 miliardi di dollari

Monopolio più o meno...

Sul Marketing sì

Al momento Bench comparativi indipendenti non ce ne sono.


ma ...

paragoni veramente i fatturati interi con dentro GPU gaming, Tegra della switch, CPU ZEN e CPU Server che nulla hanno a che fare con le GPU AI ? guarda che il grosso del fatturato di AMD son le CPU e meta di quello nVidia sono le GPU gaming....

https://www.visualcapitalist.com/nv...-ai-chip-sales/

AMD in campo GPU datacenter è 1/10 di nVidia
Max Power11 Novembre 2023, 14:22 #8
Originariamente inviato da: AceGranger
ma ...

paragoni veramente i fatturati interi con dentro GPU gaming, Tegra della switch, CPU ZEN e CPU Server che nulla hanno a che fare con le GPU AI ? guarda che il grosso del fatturato di AMD son le CPU e meta di quello nVidia sono le GPU gaming....

https://www.visualcapitalist.com/nv...-ai-chip-sales/

AMD in campo GPU datacenter è 1/10 di nVidia


Dati fermi a metà 2023.

https://www.hwupgrade.it/news/merca...olo_121381.html

Nel frattempo entreranno in produzione massiva i mi300x

E contestualmente dalla Cina stanno arrivando annullamenti migliardari di ordini per l'H100...
AceGranger11 Novembre 2023, 17:02 #9
Originariamente inviato da: Max Power
Dati fermi a metà 2023.

https://www.hwupgrade.it/news/merca...olo_121381.html

Nel frattempo entreranno in produzione massiva i mi300x

E contestualmente dalla Cina stanno arrivando annullamenti migliardari di ordini per l'H100...


cit dal tuo link:

"...e superi 2 miliardi di dollari nel 2024..."

AMD si aspetta nel 2024 di avere il suo record di GPU datacenter a 2 Miliardi con la super massiva produzione di GPU.

nVidia

Q1 2023 - Data Center revenue of $4.28 billion
Q2 2023 - Data Center revenue of $10.32 billion

in 6 mesi, nVidia ha fatturato 14 miliardi di GPU datacenter, 7 volte quello che si aspetta di fare AMD in tutto il 2024

EDIT:

NVIDIA raised its fiscal Q3 2024 revenue guidance from $15.68 to $16.32 billion, crushing $12.59 billion consensus analyst estimates.

insomma, un Q3 pieno pieno di ordini annullati
Max Power12 Novembre 2023, 02:29 #10
Originariamente inviato da: AceGranger
cit dal tuo link:

"...e superi 2 miliardi di dollari nel 2024..."

AMD si aspetta nel 2024 di avere il suo record di GPU datacenter a 2 Miliardi con la super massiva produzione di GPU.

nVidia

Q1 2023 - Data Center revenue of $4.28 billion
Q2 2023 - Data Center revenue of $10.32 billion

in 6 mesi, nVidia ha fatturato 14 miliardi di GPU datacenter, 7 volte quello che si aspetta di fare AMD in tutto il 2024

EDIT:

NVIDIA raised its fiscal Q3 2024 revenue guidance from $15.68 to $16.32 billion, crushing $12.59 billion consensus analyst estimates.

insomma, un Q3 pieno pieno di ordini annullati


Infatti sono stime e vedremo i ricavi al netto nel bilancio di primavera 2024

Se Nvidia non può vendere, secondo te, dove andranno 5B di chip?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^