TAG » HBM
-
23 APR Memorie
SK Hynix ha fatto segnare risultati trimestrali record grazie alla forte domanda di memorie per l'intelligenza artificiale, anche se i ricavi non hanno rispettato le attese. Il mercato DRAM continua a crescere, trainato dalla memoria HBM, mentre persistono vincoli produttivi e prospettive di carenza di capacità fino alla fine del decennio.
-
22 APR Memorie
SK Hynix ha avviato la costruzione del nuovo impianto P&T7 dedicato alle memorie HBM e al packaging avanzato. Il sito, che si estenderà su 230.000 mq, è una risposta alla crescente domanda per l'intelligenza artificiale
-
21 APR Memorie
Il boom delle memorie per intelligenza artificiale ha generato profitti eccezionali per i produttori, SK hynix e Samsung su tutti. La prima, ha distribuito bonus a sei cifre per i propri dipendenti e le previsioni per il 2027 sono pazzesche
-
24 MAR Memorie
SK hynix ha annunciato un investimento fino a circa 8 miliardi di dollari in sistemi EUV di ASML, il più grande ordine singolo reso noto al pubblico. I nuovi macchinari saranno consegnati entro il 2027 e serviranno a potenziare la produzione di DRAM avanzate e memorie HBM, fondamentali per l'intelligenza artificiale.
-
19 MAR Server e Workstation
Samsung e AMD hanno siglato un accordo strategico per lo sviluppo di tecnologie AI di nuova generazione. Al centro la memoria HBM4, destinata agli acceleratori Instinct MI455X e alle piattaforme rack-scale Helios. L'intesa include anche memorie DDR5 per EPYC "Venice" e possibili collaborazioni future nel campo della produttivo.
-
12 FEB Memorie
Samsung ha avviato la produzione di massa delle memorie HBM4, raggiungendo 11,7 Gbps per pin, ma con il potenziale per spingersi fino a 13 Gbps. La nuova soluzione di memoria raggiunge una banda massima di 3,3 TB/s per stack e capacità fino a 48 GB.
-
28 GEN Mercato
SK hynix ha chiuso il 2025 con ricavi e profitti record grazie alla forte domanda di memorie per l'intelligenza artificiale, in particolare quella HBM per gli acceleratori.
-
15 DIC Memorie
JEDEC è prossima alla pubblicazione dello standard SPHBM4, una nuova memoria che offre la banda dell'HBM4 ma con interfaccia a 512 bit e su substrati organici. L'obiettivo è migliorare flessibilità e capacità negli acceleratori AI, riducendo i costi di integrazione.
-
27 NOV Memorie
Meta, NVIDIA e i principali produttori di memoria starebbero valutando una nuova tipologia di HBM con logica GPU integrata nel die di base, una soluzione che punta a ridurre i trasferimenti di dati e migliorare l'efficienza per i carichi AI
-
26 NOV Memorie
SK hynix e 7-Eleven hanno lanciato in Corea del Sud uno snack che imita la forma dei chip HBM, reinterpretati come "Honey Banana Mat". I croccanti quadretti di mais ricoperti di cioccolato al miele e banana mirano a rendere i semiconduttori più familiari al pubblico. In arrivo anche figure collezionabili a tema.
-
03 NOV Memorie
SK hynix ha diffuso la roadmap 2026-2031 per DRAM e NAND, con HBM5, DDR6 e NAND 4D oltre i 400 layer. L'azienda introduce il concetto di "Full Stack AI Memory Creator", puntando su soluzioni custom e integrate per ottimizzare le prestazioni nei sistemi di intelligenza artificiale.
-
15 OTT Memorie
Samsung punta a conquistare mercato con la futura memoria HBM4E, capace di raggiungere 13 Gbps per pin e una banda complessiva di 3,25 TB/s. La nuova memoria, attesa nel 2027, nasce per soddisfare le richieste di NVIDIA e promette un'efficienza energetica raddoppiata rispetto alla generazione HBM3E.
-
24 SET Memorie
Micron ha chiuso l’anno fiscale 2025 con ricavi record a 37,4 miliardi di dollari (+49%), spinta dall'AI e dalla forte domanda di DRAM e HBM. La società ha già clienti per quasi tutta la produzione 2026 di memoria HBM e, grazie alla partnership con TSMC, guarda già a HBM4E.
-
23 SET Schede Video
Samsung ha ottenuto la certificazione di NVIDIA per i suoi chip HBM3E a 12 layer dopo mesi di tentativi che hanno permesso alla rivale SK hynix di diventare predominante nel settore. Il via libera prepara il terreno alla prossima sfida tecnologica: l'implementazione di HBM4, previsto nel 2026.
-
12 SET Memorie
SK hynix ha completato lo sviluppo della memoria HBM4 e avviato tutto il necessario per la produzione di massa, segnando un nuovo traguardo nell'era dell'intelligenza artificiale. Con una bandwidth raddoppiata, efficienza energetica superiore del 40% e prestazioni AI fino al 69% migliori, l'azienda coreana si prepara a servire le necessità di NVIDIA nella continua lotta con Samsung e Micron.
-
11 SET Memorie
NVIDIA punta a spingere i limiti della memoria HBM4 per l'AI, chiedendo ai partner velocità sempre più elevate, fino a 11 Gbps. Tuttavia, i principali produttori affrontano difficoltà tecniche legate a consumi e dissipazione termica. I primi sample consegnati restano ancora distanti dagli obiettivi richiesti dall'azienda californiana.
-
24 LUG Memorie
SK hynix ha registrato risultati record nel secondo trimestre 2025 grazie alla forte domanda di memoria per l'intelligenza artificiale. Il produttore coreano accelera su HBM4 e GDDR7 per mantenere la leadership in un mercato conteso da NVIDIA, AMD e altre big tech. Investimenti e capacità produttiva in forte espansione.
-
05 LUG Memorie
I prezzi della memoria DDR4 sono triplicati in poche settimane, superando quelli della DDR5. Alcuni produttori, come Nanya, stanno tornando a produrla, attratti dai margini elevati. I grandi produttori, invece, puntano su DDR5 e HBM. La transizione sarà graduale, ma la DDR4 resta ancora rilevante in molti ambiti.
-
01 LUG Schede Video
Intel ha svelato alcune novità in arrivo nel settore delle GPU durante l'AI Summit 2025 di Seoul. In arrivo nuove schede Arc per l'Edge AI entro fine anno e una collaborazione con SK Hynix per integrare la memoria HBM4 nei futuri acceleratori Gaudi "Jaguar Shores".
-
16 GIU Memorie
Una roadmap sviluppata da KAIST e TERA potrebbe anticipare a grandi linee l'evoluzione della memoria HBM fino al 2038. Dal 2026 con HBM4 fino alla HBM8, le future generazioni promettono capacità e prestazioni senza precedenti, ma anche consumi elevatissimi, spingendo l'adozione di sistemi avanzati di raffreddamento e interconnessione per l'AI e i datacenter.
-
11 GIU Memorie
Micron ha annunciato la spedizione dei primi campioni della nuova memoria HBM4 da 36 GB a clienti selezionati. Grazie a un'interfaccia a 2048 bit e a una banda superiore a 2 TB/s, il prodotto offre prestazioni elevate con oltre il 20% di efficienza energetica in più rispetto alla generazione precedente.
-
19 MAG Memorie
Un ex collaboratore di SK hynix è stato arrestato all’aeroporto di Incheon mentre tentava di volare in Cina con migliaia di documenti riservati relativi alla tecnologia HBM. Le autorità sudcoreane lo accusano di furto di segreti industriali. Il caso alimenta i timori su possibili fughe di tecnologie strategiche.
-
17 APR Memorie
JEDEC ha ratificato lo standard HBM4, nuova memoria ad alta larghezza di banda progettata per IA e HPC. Con velocità fino a 2 TB/s e maggiore efficienza, sarà adottata da NVIDIA e AMD nei futuri acceleratori in arrivo dal 2026.
-
11 APR Memorie
Secondo l'analisi di Counterpoint Research, SK hynix avrebbe superato Samsung dopo 33 anni, diventando il primo produttore mondiale di DRAM. All'origine del sorpasso il boom della HBM (High Bandwidth Memory) destinata agli acceleratori IA.
-
19 MAR Memorie
In occasione della GTC 2025, SK hynix ha annunciato di aver iniziato la consegna dei primi sample di memoria HBM4. Non solo, l'azienda - insieme a Micron - ha mostrato per la prima volta un modulo SOCAMM.
-
20 FEB Schede Video
NVIDIA avrebbe modificato la sua policy nei confronti dei fornitori di memorie HBM, imponendo test completi prima del packaging. L'obiettivo sarebbe quello di migliorare l'efficienza produttiva e contenere i costi.
-
23 GEN Memorie
La sudcoreana SK hynix ha presentato i conti trimestrali e dell'intero anno 2024. L'azienda vola grazie alla memoria HBM, destinata principalmente agli acceleratori IA di NVIDIA, tanto che quel tipo di soluzione ha rappresentato più del 40% del fatturato totale delle DRAM.
-
05 DIC Mercato
Nuova stretta di Washington alle esportazioni di tecnologie occidentali in Cina. La nuova tornata di misure prende di mira le memorie HBM, essenziali per gli acceleratori di intelligenza artificiale. La Cina risponde con un blocco sui materiali fondamentali per i semiconduttori.
-
20 NOV Processori
Durante l'evento Microsoft Ignite, Satya Nadella ha presentato Azure HBv5, una macchina virtuale basata su CPU per i clienti HPC. La soluzione è mossa da un'inedita CPU EPYC di AMD, forte di core Zen 4 ma soprattutto di memoria HBM3.
-
04 NOV Schede Video
Il presidente di SK Group, Chey Tae-won, ha dichiarato che il CEO di NVIDIA, Jensen Huang, gli ha telefonato per chiedergli di anticipare di 6 mesi la fornitura di memorie HBM4 per gli acceleratori IA di prossima generazione.
Pagina successiva »
^