View Full Version : HBM, la memoria dell'intelligenza artificiale, senza AMD Fiji non sarebbe nata: il racconto di Raja Koduri
Redazione di Hardware Upg
22-02-2024, 20:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/hbm-la-memoria-dell-intelligenza-artificiale-senza-amd-fiji-non-sarebbe-nata-il-racconto-di-raja-koduri_124621.html
Con due post su X l'ex ingegnere e dirigente di AMD, Raja Koduri, parla di memoria HBM e delle sue origini. Il racconto ci riporta alla mente le GPU Radeon R9 Fury del 2015, svelandoci come tutto nacque dalla testardaggine di un solo uomo.
Click sul link per visualizzare la notizia.
Evilquantico
22-02-2024, 20:32
E adesso ė in mano ad Nvidia :asd:
Max Power
22-02-2024, 20:38
Grandissimo Danza Koduro, ad AMD non manchi proprio per niente
:asd:
tuttodigitale
22-02-2024, 20:55
Grandissimo Danza Koduro, ad AMD non manchi proprio per niente
:asd:
Peccato che abbia prodotto GPU che ha equipaggiato i supercomputer più potenti ed efficienti , peccato che GCN continui a vivere nelle schede instinct...
L'errore di AMD, se così si può considerare visto il budget limitato, è stato quello di fornire una architettura pensata per i calcoli, e venderla come scheda da gioco, oltre ad essere vincolata a Samsung/GF.. Ma è piuttosto singolare che a parti invertite, un paio di anni fa, nVidia abbia venduto comunque tanto. La questione consumi sembra importante solo quando nVidia è in vantaggio.
L'articolo è sbagliato, per ben altre 2 volte oltre a Fury, AMD ha portato le hbm bel mercato consumer, pensate a Vega (gpu molto innovativa e rimasta sotto sfruttata) e la Radeon VII, scheda di origine professionale, che è stata resa disponibile per i videogiocatori, in seguito al peggioramento del rapporto prezzo prestazioni delle rtx 2000
Replentess
22-02-2024, 21:07
E adesso ė in mano ad Nvidia :asd:
:ciapet:
ciolla2005
23-02-2024, 00:09
Peccato che abbia prodotto GPU che ha equipaggiato i supercomputer più potenti ed efficienti , peccato che GCN continui a vivere nelle schede instinct...
Efficenti e GCN proprio non vanno d'accordo, e con le 300 si vanno proprio ad estirpare quelle inutili eredità...
Quel personaggio, ovunque sia andato, ha avuto la capacità di farsi sbattere fuori (vedasi Intel).
Radeon VII, semplice hanno riciclato la GPU da datacenter. Letteralmente durato settimane. Per poi vedersi sul mercato la 5700XT Ben più economica, meno energiavora e con le stesse prestazioni.
Fortunatamente i colleghi hanno poi sistemato i core VEGA sulle APU, che se era per Danza, prendevano fuoco....
Balla e non ti fermare :asd:
c'era anche la 5600m con HMB di Apple.
CtrlAltSdeng!
23-02-2024, 10:40
Se aveste fatto un decimo di quello che fatto ha Koduri nella sua vita professionale non stareste qui a far scoreggiare il cervello su un forum ma a pianificare i prossimi 5 anni di progetti in gpu/ia/etcetc in una major company tech, altro che "farsi sbattere fuori" o "non manca per niente".....lavora a progetto per le maggiori compagnie americane da venti anni, e ogni salto sono abbastanza sicuro che abbia dietro progetti di sviluppo interessanti e laute prebende economiche che aumentano ad ogni step....insomma, non è il tizio che si siede nella stessa sedia dello stesoo ufficio della stessa azienda per 40 anni e andare poi in pensione su una sedia a dondolo della veranda.
Detto questo prima o poi riuscirò a farmi la fury x con il suo bel aio, ho una fury nitro liscia a completare la line up. Anche la VII è nel target ma per quella ci vorrà molta pazienza.
tuttodigitale
23-02-2024, 16:35
Efficenti e GCN proprio non vanno d'accordo, e con le 300 si vanno proprio ad estirpare quelle inutili eredità...
:
Gcn nel suo campo di utilizzo era davvero efficiente, e mi riferisco alla generazione a 28nm, e in particolare il chip Hawaii che ha equipaggiato i supercomputer più efficienti e potenti disponibili. I chip a 14nm come è noto sono stati penalizzati dall'uso del processo di Global Foundries.. La 1050, costruita con i 14nm Samsung invece dei 16nm di Tsmc, nonostante un clock pari al 80% (una enormita!) aveva una efficienza del 74% rispetto alle 1080...
Per rendersi conto del ritardo di Samsung ricordo che c'è stata, seppur minima, una riduzione di efficienza da parte di nVidia nel passaggio dai 12/16nm di Tsmc ai 8nm Samsung..
Non mi è chiaro, se lei ha maggiori informazioni, cosa intende per estirpare le inutili di eredità di Vega... Lei sa in cosa differenze cdna 3 dal 2? Detto questo è indubbio che tra Vega e rdna, è la prima che ha un potenziale throughput per transistor e per watt molto più alto...
Radeon VII, semplice hanno riciclato la GPU da datacenter. Letteralmente durato settimane. Per poi vedersi sul mercato la 5700XT Ben più economica, meno energiavora e con le stesse prestazioni.
Questa è la storia di AMD, a memoria tutti i chip di fascia alta sono Stati proposti per il mercato professionale e la stessa strategia è stata usata ed è usata anche per le CPU...insomma nulla di nuovo sotto il sole.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.