HBM, la memoria dell'intelligenza artificiale, senza AMD Fiji non sarebbe nata: il racconto di Raja Koduri

HBM, la memoria dell'intelligenza artificiale, senza AMD Fiji non sarebbe nata: il racconto di Raja Koduri

Con due post su X l'ex ingegnere e dirigente di AMD, Raja Koduri, parla di memoria HBM e delle sue origini. Il racconto ci riporta alla mente le GPU Radeon R9 Fury del 2015, svelandoci come tutto nacque dalla testardaggine di un solo uomo.

di pubblicata il , alle 20:31 nel canale Schede Video
HBMRadeonAMD
 

Raja Koduri, uno dei più noti e importanti progettisti di GPU, passato per AMD, Intel e Apple, ha condiviso su X un "aneddoto" riguardante la memoria HBM, High Bandwidth Memory, che oggi vediamo a bordo degli acceleratori per l'intelligenza artificiale.

Chi ha qualche anno sulle spalle, si ricorderà quando nel 2015 debuttarono le schede video AMD Radeon R9 Fury, basate su GPU AMD Fiji ed equipaggiate con la prima incarnazione della memoria HBM.

Salvo alcuni progetti speciali (come Kaby Lake-G, in una strana partnership tra Intel e AMD), quelle schede video furono l'unica incarnazione consumer della memoria HBM. Se non fosse stato per un uomo, Bryan Black, la memoria HBM forse non sarebbe mai nata.

"Incontrai Bryan nel 2007-8 poco dopo l'acquisizione di ATI da parte di AMD - lavorava per AMD. Era impegnato su un progetto "skunkworks" (un progetto ad alto tasso d'innovazione, ma non centrale per i piani aziendali di quel momento, ndr), su qualcosa che allora la gente considerava pazzesco, una nuova memoria ad alta larghezza di banda e basso consumo... i ragazzi delle CPU non erano interessati perché non ne avevano un bisogno impellente", spiega Koduri.

"Aveva bisogno di supporto per portare avanti il ​​suo esperimento. Noi ragazzi delle GPU eravamo fanatici della larghezza di banda, quindi abbiamo dato una mano. Ma poi me ne sono andato in Apple all'inizio del 2009 e sono tornato nel 2013. Mi aspettavo che il programma HBM fosse morto e che Bryan avesse lasciato l'azienda da tempo", aggiunge Koduri. "Con mia sorpresa, Bryan lo mantenne in vita".

L'ingegnere, sostanzialmente, riuscì a trovare sponda all'interno della società, nonostante AMD non navigasse in quel periodo, tra il 2012 e il 2016, in buon acque. "Dopo il mio ritorno in AMD abbiamo inserito Fiji nella roadmap, ma c'erano molte preoccupazioni sui rischi e sui costi di questa nuova tecnologia. Il progetto Fiji è stato molte volte in modalità stop-start. Bryan e Joe Macri hanno spinto i produttori di memorie e le aziende del settore del packaging a impegnarsi e ridurre i rischi. Ripensandoci, è un po' un miracolo che Fiji abbia funzionato e che l'abbiamo lanciato nel 2015", spiega Koduri.

"Avremmo dovuto mettere un Compute Die molto più grande di quello che abbiamo inserito, ma col senno di poi... Questa è la storia di HBM1 e non penso che ci sarebbe stata una roadmap di HBM senza spedizioni in volumi di HBM1 su PC. Complimenti al management di AMD, a Bryan, Joe e al team Fiji: oggi il mondo dell'intelligenza artificiale ha HBM".

Le storie che raccontano la nascita di un prodotto sono sempre molto interessanti e danno un valore aggiunto. Ne vorremo conoscere sempre di più. A questo racconto affascinante fa però da contraltare un'amara – per così dire – constatazione: la memoria HBM non tornerà sulle GPU consumer. Almeno non nell'immediato, secondo Koduri. Interpellato in merito, l'ingegnere è stato categorico.

"La risposta è no. Sfortunatamente il rapporto dollaro/byte di HBM è aumentato e tutto indica che HBM4 costerà ancora di più per byte! I prezzi della HBM seguono la legge di Moore inversa!! Nel 2015 il nostro sogno era quello di rendere la HBM una memoria mainstream, portandola anche sui laptop. Sono stati spediti anche due progetti mobili, uno dei quali (KBL-G) era una partnership tra AMD e Intel, l'altro era in gran parte confinato al MacBook Pro di Apple". Le prossime GPU consumer adotteranno le memorie GDDR7, mentre quella HBM continuerà a vivere (e spopolare) grazie al boom dell'IA: dopo l'attuale HBM3E toccherà alla HBM4.

9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Evilquantico22 Febbraio 2024, 20:32 #1
E adesso ė in mano ad Nvidia
Max Power22 Febbraio 2024, 20:38 #2
Grandissimo Danza Koduro, ad AMD non manchi proprio per niente

tuttodigitale22 Febbraio 2024, 20:55 #3
Originariamente inviato da: Max Power
Grandissimo Danza Koduro, ad AMD non manchi proprio per niente



Peccato che abbia prodotto GPU che ha equipaggiato i supercomputer più potenti ed efficienti , peccato che GCN continui a vivere nelle schede instinct...

L'errore di AMD, se così si può considerare visto il budget limitato, è stato quello di fornire una architettura pensata per i calcoli, e venderla come scheda da gioco, oltre ad essere vincolata a Samsung/GF.. Ma è piuttosto singolare che a parti invertite, un paio di anni fa, nVidia abbia venduto comunque tanto. La questione consumi sembra importante solo quando nVidia è in vantaggio.

L'articolo è sbagliato, per ben altre 2 volte oltre a Fury, AMD ha portato le hbm bel mercato consumer, pensate a Vega (gpu molto innovativa e rimasta sotto sfruttata) e la Radeon VII, scheda di origine professionale, che è stata resa disponibile per i videogiocatori, in seguito al peggioramento del rapporto prezzo prestazioni delle rtx 2000
Replentess22 Febbraio 2024, 21:07 #4
Originariamente inviato da: Evilquantico
E adesso ė in mano ad Nvidia


ciolla200523 Febbraio 2024, 00:09 #5
Originariamente inviato da: tuttodigitale
Peccato che abbia prodotto GPU che ha equipaggiato i supercomputer più potenti ed efficienti , peccato che GCN continui a vivere nelle schede instinct...


Efficenti e GCN proprio non vanno d'accordo, e con le 300 si vanno proprio ad estirpare quelle inutili eredità...

Quel personaggio, ovunque sia andato, ha avuto la capacità di farsi sbattere fuori (vedasi Intel).

Radeon VII, semplice hanno riciclato la GPU da datacenter. Letteralmente durato settimane. Per poi vedersi sul mercato la 5700XT Ben più economica, meno energiavora e con le stesse prestazioni.

Fortunatamente i colleghi hanno poi sistemato i core VEGA sulle APU, che se era per Danza, prendevano fuoco....

Balla e non ti fermare
nosio23 Febbraio 2024, 09:15 #6
c'era anche la 5600m con HMB di Apple.
CtrlAltSdeng!23 Febbraio 2024, 10:40 #7
Se aveste fatto un decimo di quello che fatto ha Koduri nella sua vita professionale non stareste qui a far scoreggiare il cervello su un forum ma a pianificare i prossimi 5 anni di progetti in gpu/ia/etcetc in una major company tech, altro che "farsi sbattere fuori" o "non manca per niente".....lavora a progetto per le maggiori compagnie americane da venti anni, e ogni salto sono abbastanza sicuro che abbia dietro progetti di sviluppo interessanti e laute prebende economiche che aumentano ad ogni step....insomma, non è il tizio che si siede nella stessa sedia dello stesoo ufficio della stessa azienda per 40 anni e andare poi in pensione su una sedia a dondolo della veranda.

Detto questo prima o poi riuscirò a farmi la fury x con il suo bel aio, ho una fury nitro liscia a completare la line up. Anche la VII è nel target ma per quella ci vorrà molta pazienza.
demonsmaycry8423 Febbraio 2024, 12:20 #8
vega è stato il chiaro esempio di come scrivere GAMING su qualcosa non lo rende tale.
Per il resto soluzioni adottate da AMD sono state copiate da NVIDIA e viceversa...solo che NVIDIA ha i soldi ed il focus per andare oltre...ottimi prodotti quelli AMD però quelli NVIDIA sono eccellenti.
La serie 4000 sono oltre..mai avuto gpu così...non vedo l'ora di vedere le 5000
tuttodigitale23 Febbraio 2024, 16:35 #9
Originariamente inviato da: ciolla2005
Efficenti e GCN proprio non vanno d'accordo, e con le 300 si vanno proprio ad estirpare quelle inutili eredità...

:

Gcn nel suo campo di utilizzo era davvero efficiente, e mi riferisco alla generazione a 28nm, e in particolare il chip Hawaii che ha equipaggiato i supercomputer più efficienti e potenti disponibili. I chip a 14nm come è noto sono stati penalizzati dall'uso del processo di Global Foundries.. La 1050, costruita con i 14nm Samsung invece dei 16nm di Tsmc, nonostante un clock pari al 80% (una enormita!) aveva una efficienza del 74% rispetto alle 1080...

Per rendersi conto del ritardo di Samsung ricordo che c'è stata, seppur minima, una riduzione di efficienza da parte di nVidia nel passaggio dai 12/16nm di Tsmc ai 8nm Samsung..

Non mi è chiaro, se lei ha maggiori informazioni, cosa intende per estirpare le inutili di eredità di Vega... Lei sa in cosa differenze cdna 3 dal 2? Detto questo è indubbio che tra Vega e rdna, è la prima che ha un potenziale throughput per transistor e per watt molto più alto...


Radeon VII, semplice hanno riciclato la GPU da datacenter. Letteralmente durato settimane. Per poi vedersi sul mercato la 5700XT Ben più economica, meno energiavora e con le stesse prestazioni.

Questa è la storia di AMD, a memoria tutti i chip di fascia alta sono Stati proposti per il mercato professionale e la stessa strategia è stata usata ed è usata anche per le CPU...insomma nulla di nuovo sotto il sole.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^