HBM, la memoria dell'intelligenza artificiale, senza AMD Fiji non sarebbe nata: il racconto di Raja Koduri
Con due post su X l'ex ingegnere e dirigente di AMD, Raja Koduri, parla di memoria HBM e delle sue origini. Il racconto ci riporta alla mente le GPU Radeon R9 Fury del 2015, svelandoci come tutto nacque dalla testardaggine di un solo uomo.
di Manolo De Agostini pubblicata il 22 Febbraio 2024, alle 20:31 nel canale Schede VideoHBMRadeonAMD
Raja Koduri, uno dei più noti e importanti progettisti di GPU, passato per AMD, Intel e Apple, ha condiviso su X un "aneddoto" riguardante la memoria HBM, High Bandwidth Memory, che oggi vediamo a bordo degli acceleratori per l'intelligenza artificiale.
Chi ha qualche anno sulle spalle, si ricorderà quando nel 2015 debuttarono le schede video AMD Radeon R9 Fury, basate su GPU AMD Fiji ed equipaggiate con la prima incarnazione della memoria HBM.
Salvo alcuni progetti speciali (come Kaby Lake-G, in una strana partnership tra Intel e AMD), quelle schede video furono l'unica incarnazione consumer della memoria HBM. Se non fosse stato per un uomo, Bryan Black, la memoria HBM forse non sarebbe mai nata.
"Incontrai Bryan nel 2007-8 poco dopo l'acquisizione di ATI da parte di AMD - lavorava per AMD. Era impegnato su un progetto "skunkworks" (un progetto ad alto tasso d'innovazione, ma non centrale per i piani aziendali di quel momento, ndr), su qualcosa che allora la gente considerava pazzesco, una nuova memoria ad alta larghezza di banda e basso consumo... i ragazzi delle CPU non erano interessati perché non ne avevano un bisogno impellente", spiega Koduri.
Bryan Black the CEO of ChipletZ, holding his first HBM baby - the Fiji GPU. I credit Bryan’s passion and persistence to the existence of HBM today..story follows
— Raja Koduri (@RajaXg) February 22, 2024
I first met Bryan in 2007-8 right after AMD acquired ATI - he was working for AMD. He was doing a “skunkworks”… pic.twitter.com/jw1FKcXb2Q
"Aveva bisogno di supporto per portare avanti il suo esperimento. Noi ragazzi delle GPU eravamo fanatici della larghezza di banda, quindi abbiamo dato una mano. Ma poi me ne sono andato in Apple all'inizio del 2009 e sono tornato nel 2013. Mi aspettavo che il programma HBM fosse morto e che Bryan avesse lasciato l'azienda da tempo", aggiunge Koduri. "Con mia sorpresa, Bryan lo mantenne in vita".
L'ingegnere, sostanzialmente, riuscì a trovare sponda all'interno della società, nonostante AMD non navigasse in quel periodo, tra il 2012 e il 2016, in buon acque. "Dopo il mio ritorno in AMD abbiamo inserito Fiji nella roadmap, ma c'erano molte preoccupazioni sui rischi e sui costi di questa nuova tecnologia. Il progetto Fiji è stato molte volte in modalità stop-start. Bryan e Joe Macri hanno spinto i produttori di memorie e le aziende del settore del packaging a impegnarsi e ridurre i rischi. Ripensandoci, è un po' un miracolo che Fiji abbia funzionato e che l'abbiamo lanciato nel 2015", spiega Koduri.
"Avremmo dovuto mettere un Compute Die molto più grande di quello che abbiamo inserito, ma col senno di poi... Questa è la storia di HBM1 e non penso che ci sarebbe stata una roadmap di HBM senza spedizioni in volumi di HBM1 su PC. Complimenti al management di AMD, a Bryan, Joe e al team Fiji: oggi il mondo dell'intelligenza artificiale ha HBM".
Le storie che raccontano la nascita di un prodotto sono sempre molto interessanti e danno un valore aggiunto. Ne vorremo conoscere sempre di più. A questo racconto affascinante fa però da contraltare un'amara – per così dire – constatazione: la memoria HBM non tornerà sulle GPU consumer. Almeno non nell'immediato, secondo Koduri. Interpellato in merito, l'ingegnere è stato categorico.
The answer is no. Unfortunately the $/byte on HBM has increased and all indications are that HBM4 would cost even more per-byte! HBM pricing is following inverse Moore's law!!
— Raja Koduri (@RajaXg) February 22, 2024
In 2015 our dream was to make HBM into mainstream memory, including bringing into laptops. There were… https://t.co/DDMeWLg636
"La risposta è no. Sfortunatamente il rapporto dollaro/byte di HBM è aumentato e tutto indica che HBM4 costerà ancora di più per byte! I prezzi della HBM seguono la legge di Moore inversa!! Nel 2015 il nostro sogno era quello di rendere la HBM una memoria mainstream, portandola anche sui laptop. Sono stati spediti anche due progetti mobili, uno dei quali (KBL-G) era una partnership tra AMD e Intel, l'altro era in gran parte confinato al MacBook Pro di Apple". Le prossime GPU consumer adotteranno le memorie GDDR7, mentre quella HBM continuerà a vivere (e spopolare) grazie al boom dell'IA: dopo l'attuale HBM3E toccherà alla HBM4.
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPeccato che abbia prodotto GPU che ha equipaggiato i supercomputer più potenti ed efficienti , peccato che GCN continui a vivere nelle schede instinct...
L'errore di AMD, se così si può considerare visto il budget limitato, è stato quello di fornire una architettura pensata per i calcoli, e venderla come scheda da gioco, oltre ad essere vincolata a Samsung/GF.. Ma è piuttosto singolare che a parti invertite, un paio di anni fa, nVidia abbia venduto comunque tanto. La questione consumi sembra importante solo quando nVidia è in vantaggio.
L'articolo è sbagliato, per ben altre 2 volte oltre a Fury, AMD ha portato le hbm bel mercato consumer, pensate a Vega (gpu molto innovativa e rimasta sotto sfruttata) e la Radeon VII, scheda di origine professionale, che è stata resa disponibile per i videogiocatori, in seguito al peggioramento del rapporto prezzo prestazioni delle rtx 2000
Efficenti e GCN proprio non vanno d'accordo, e con le 300 si vanno proprio ad estirpare quelle inutili eredità...
Quel personaggio, ovunque sia andato, ha avuto la capacità di farsi sbattere fuori (vedasi Intel).
Radeon VII, semplice hanno riciclato la GPU da datacenter. Letteralmente durato settimane. Per poi vedersi sul mercato la 5700XT Ben più economica, meno energiavora e con le stesse prestazioni.
Fortunatamente i colleghi hanno poi sistemato i core VEGA sulle APU, che se era per Danza, prendevano fuoco....
Balla e non ti fermare
Detto questo prima o poi riuscirò a farmi la fury x con il suo bel aio, ho una fury nitro liscia a completare la line up. Anche la VII è nel target ma per quella ci vorrà molta pazienza.
Per il resto soluzioni adottate da AMD sono state copiate da NVIDIA e viceversa...solo che NVIDIA ha i soldi ed il focus per andare oltre...ottimi prodotti quelli AMD però quelli NVIDIA sono eccellenti.
La serie 4000 sono oltre..mai avuto gpu così...non vedo l'ora di vedere le 5000
:
Gcn nel suo campo di utilizzo era davvero efficiente, e mi riferisco alla generazione a 28nm, e in particolare il chip Hawaii che ha equipaggiato i supercomputer più efficienti e potenti disponibili. I chip a 14nm come è noto sono stati penalizzati dall'uso del processo di Global Foundries.. La 1050, costruita con i 14nm Samsung invece dei 16nm di Tsmc, nonostante un clock pari al 80% (una enormita!) aveva una efficienza del 74% rispetto alle 1080...
Per rendersi conto del ritardo di Samsung ricordo che c'è stata, seppur minima, una riduzione di efficienza da parte di nVidia nel passaggio dai 12/16nm di Tsmc ai 8nm Samsung..
Non mi è chiaro, se lei ha maggiori informazioni, cosa intende per estirpare le inutili di eredità di Vega... Lei sa in cosa differenze cdna 3 dal 2? Detto questo è indubbio che tra Vega e rdna, è la prima che ha un potenziale throughput per transistor e per watt molto più alto...
Questa è la storia di AMD, a memoria tutti i chip di fascia alta sono Stati proposti per il mercato professionale e la stessa strategia è stata usata ed è usata anche per le CPU...insomma nulla di nuovo sotto il sole.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".