TAG » HBM
-
12 FEB Memorie
Samsung ha avviato la produzione di massa delle memorie HBM4, raggiungendo 11,7 Gbps per pin, ma con il potenziale per spingersi fino a 13 Gbps. La nuova soluzione di memoria raggiunge una banda massima di 3,3 TB/s per stack e capacità fino a 48 GB.
-
28 GEN Mercato
SK hynix ha chiuso il 2025 con ricavi e profitti record grazie alla forte domanda di memorie per l'intelligenza artificiale, in particolare quella HBM per gli acceleratori.
-
15 DIC Memorie
JEDEC è prossima alla pubblicazione dello standard SPHBM4, una nuova memoria che offre la banda dell'HBM4 ma con interfaccia a 512 bit e su substrati organici. L'obiettivo è migliorare flessibilità e capacità negli acceleratori AI, riducendo i costi di integrazione.
-
27 NOV Memorie
Meta, NVIDIA e i principali produttori di memoria starebbero valutando una nuova tipologia di HBM con logica GPU integrata nel die di base, una soluzione che punta a ridurre i trasferimenti di dati e migliorare l'efficienza per i carichi AI
-
26 NOV Memorie
SK hynix e 7-Eleven hanno lanciato in Corea del Sud uno snack che imita la forma dei chip HBM, reinterpretati come "Honey Banana Mat". I croccanti quadretti di mais ricoperti di cioccolato al miele e banana mirano a rendere i semiconduttori più familiari al pubblico. In arrivo anche figure collezionabili a tema.
-
03 NOV Memorie
SK hynix ha diffuso la roadmap 2026-2031 per DRAM e NAND, con HBM5, DDR6 e NAND 4D oltre i 400 layer. L'azienda introduce il concetto di "Full Stack AI Memory Creator", puntando su soluzioni custom e integrate per ottimizzare le prestazioni nei sistemi di intelligenza artificiale.
-
15 OTT Memorie
Samsung punta a conquistare mercato con la futura memoria HBM4E, capace di raggiungere 13 Gbps per pin e una banda complessiva di 3,25 TB/s. La nuova memoria, attesa nel 2027, nasce per soddisfare le richieste di NVIDIA e promette un'efficienza energetica raddoppiata rispetto alla generazione HBM3E.
-
24 SET Memorie
Micron ha chiuso l’anno fiscale 2025 con ricavi record a 37,4 miliardi di dollari (+49%), spinta dall'AI e dalla forte domanda di DRAM e HBM. La società ha già clienti per quasi tutta la produzione 2026 di memoria HBM e, grazie alla partnership con TSMC, guarda già a HBM4E.
-
23 SET Schede Video
Samsung ha ottenuto la certificazione di NVIDIA per i suoi chip HBM3E a 12 layer dopo mesi di tentativi che hanno permesso alla rivale SK hynix di diventare predominante nel settore. Il via libera prepara il terreno alla prossima sfida tecnologica: l'implementazione di HBM4, previsto nel 2026.
-
12 SET Memorie
SK hynix ha completato lo sviluppo della memoria HBM4 e avviato tutto il necessario per la produzione di massa, segnando un nuovo traguardo nell'era dell'intelligenza artificiale. Con una bandwidth raddoppiata, efficienza energetica superiore del 40% e prestazioni AI fino al 69% migliori, l'azienda coreana si prepara a servire le necessità di NVIDIA nella continua lotta con Samsung e Micron.
-
11 SET Memorie
NVIDIA punta a spingere i limiti della memoria HBM4 per l'AI, chiedendo ai partner velocità sempre più elevate, fino a 11 Gbps. Tuttavia, i principali produttori affrontano difficoltà tecniche legate a consumi e dissipazione termica. I primi sample consegnati restano ancora distanti dagli obiettivi richiesti dall'azienda californiana.
-
24 LUG Memorie
SK hynix ha registrato risultati record nel secondo trimestre 2025 grazie alla forte domanda di memoria per l'intelligenza artificiale. Il produttore coreano accelera su HBM4 e GDDR7 per mantenere la leadership in un mercato conteso da NVIDIA, AMD e altre big tech. Investimenti e capacità produttiva in forte espansione.
-
05 LUG Memorie
I prezzi della memoria DDR4 sono triplicati in poche settimane, superando quelli della DDR5. Alcuni produttori, come Nanya, stanno tornando a produrla, attratti dai margini elevati. I grandi produttori, invece, puntano su DDR5 e HBM. La transizione sarà graduale, ma la DDR4 resta ancora rilevante in molti ambiti.
-
01 LUG Schede Video
Intel ha svelato alcune novità in arrivo nel settore delle GPU durante l'AI Summit 2025 di Seoul. In arrivo nuove schede Arc per l'Edge AI entro fine anno e una collaborazione con SK Hynix per integrare la memoria HBM4 nei futuri acceleratori Gaudi "Jaguar Shores".
-
16 GIU Memorie
Una roadmap sviluppata da KAIST e TERA potrebbe anticipare a grandi linee l'evoluzione della memoria HBM fino al 2038. Dal 2026 con HBM4 fino alla HBM8, le future generazioni promettono capacità e prestazioni senza precedenti, ma anche consumi elevatissimi, spingendo l'adozione di sistemi avanzati di raffreddamento e interconnessione per l'AI e i datacenter.
-
11 GIU Memorie
Micron ha annunciato la spedizione dei primi campioni della nuova memoria HBM4 da 36 GB a clienti selezionati. Grazie a un'interfaccia a 2048 bit e a una banda superiore a 2 TB/s, il prodotto offre prestazioni elevate con oltre il 20% di efficienza energetica in più rispetto alla generazione precedente.
-
19 MAG Memorie
Un ex collaboratore di SK hynix è stato arrestato all’aeroporto di Incheon mentre tentava di volare in Cina con migliaia di documenti riservati relativi alla tecnologia HBM. Le autorità sudcoreane lo accusano di furto di segreti industriali. Il caso alimenta i timori su possibili fughe di tecnologie strategiche.
-
17 APR Memorie
JEDEC ha ratificato lo standard HBM4, nuova memoria ad alta larghezza di banda progettata per IA e HPC. Con velocità fino a 2 TB/s e maggiore efficienza, sarà adottata da NVIDIA e AMD nei futuri acceleratori in arrivo dal 2026.
-
11 APR Memorie
Secondo l'analisi di Counterpoint Research, SK hynix avrebbe superato Samsung dopo 33 anni, diventando il primo produttore mondiale di DRAM. All'origine del sorpasso il boom della HBM (High Bandwidth Memory) destinata agli acceleratori IA.
-
19 MAR Memorie
In occasione della GTC 2025, SK hynix ha annunciato di aver iniziato la consegna dei primi sample di memoria HBM4. Non solo, l'azienda - insieme a Micron - ha mostrato per la prima volta un modulo SOCAMM.
-
20 FEB Schede Video
NVIDIA avrebbe modificato la sua policy nei confronti dei fornitori di memorie HBM, imponendo test completi prima del packaging. L'obiettivo sarebbe quello di migliorare l'efficienza produttiva e contenere i costi.
-
23 GEN Memorie
La sudcoreana SK hynix ha presentato i conti trimestrali e dell'intero anno 2024. L'azienda vola grazie alla memoria HBM, destinata principalmente agli acceleratori IA di NVIDIA, tanto che quel tipo di soluzione ha rappresentato più del 40% del fatturato totale delle DRAM.
-
05 DIC Mercato
Nuova stretta di Washington alle esportazioni di tecnologie occidentali in Cina. La nuova tornata di misure prende di mira le memorie HBM, essenziali per gli acceleratori di intelligenza artificiale. La Cina risponde con un blocco sui materiali fondamentali per i semiconduttori.
-
20 NOV Processori
Durante l'evento Microsoft Ignite, Satya Nadella ha presentato Azure HBv5, una macchina virtuale basata su CPU per i clienti HPC. La soluzione è mossa da un'inedita CPU EPYC di AMD, forte di core Zen 4 ma soprattutto di memoria HBM3.
-
04 NOV Schede Video
Il presidente di SK Group, Chey Tae-won, ha dichiarato che il CEO di NVIDIA, Jensen Huang, gli ha telefonato per chiedergli di anticipare di 6 mesi la fornitura di memorie HBM4 per gli acceleratori IA di prossima generazione.
-
26 SET Memorie
Chip di memoria da 36 GB grazie alla HBM3E a 12 layer di SK hynix. La società sudcoreana ha avviato la produzione in volumi della memoria che spingerà i nuovi acceleratori IA di NVIDIA, a partire da Blackwell Ultra.
-
12 AGO Memorie
NEO Semiconductor propone con 3D X-AI una memoria che può elaborare l'IA, andando così a ridurre il passaggio di dati continuo tra GPU e memoria. La nuova soluzione promette miglioramenti a tutto campo incredibili.
-
07 AGO Memorie
Dopo altri grandi colossi dell'industria produttiva, anche SK hynix ha strappato la promessa di incentivi dal Dipartimento del Commercio USA per la costruzione di un impianto in Indiana dedicato alle future memorie HBM.
-
17 LUG Schede Video
Secondo voci di corridoio Samsung sarebbe riuscita a soddisfare i requisiti di NVIDIA per diventare un fornitore di memoria HBM3E per i suoi acceleratori IA.
-
24 MAG Schede Video
Secondo Reuters, Samsung non sarebbe ancora riuscita a soddisfare i requisiti di NVIDIA per diventare un fornitore di memoria HBM3 e HBM3E per i suoi acceleratori IA. Le memorie consumerebbero e scalderebbero troppo. Il colosso asiatico, però, smentisce.
Pagina successiva »
^