Microcanali nel silicio: la nuova frontiera per il raffreddamento delle GPU secondo Microsoft

Microcanali nel silicio: la nuova frontiera per il raffreddamento delle GPU secondo Microsoft

Microsoft ha presentato un prototipo di raffreddamento microfluidico che porta il liquido refrigerante direttamente all'interno del silicio. I test interni mostrano fino a tre volte l'efficienza dei cold plate tradizionali e una riduzione del 65% delle temperature massime nei chip AI, aprendo la strada a design più densi e sostenibili.

di pubblicata il , alle 08:31 nel canale Schede Video
Microsoft
 

Se ne parlava già da qualche tempo, ma Microsoft l'ha testato sul campo. Stiamo parlando del raffreddamento microfluidico, una nuova soluzione che promette di raffreddare al meglio i chip del futuro, come le GPU, sempre più potenti e affamate di energia, specie se adoperate in datacenter per l'intelligenza artificiale.

Il raffreddamento microfluidico porta il liquido refrigerante direttamente all'interno del silicio, invece di affidarsi ai tradizionali cold plate posizionati sopra il package del chip.

Il principio è semplice nella teoria ma complesso nella realizzazione: minuscoli canali, sottili quanto un capello umano, vengono incisi sul retro del chip per consentire al refrigerante di scorrere a diretto contatto con i punti più caldi. Questo riduce drasticamente la barriera termica, migliorando l'efficienza di dissipazione fino a tre volte rispetto ai cold plate attuali e abbassando del 65% il picco di temperatura interna delle GPU nei test di laboratorio.

L'approccio, sviluppato in collaborazione con la startup svizzera Corintis, sfrutta anche l'AI per mappare le "impronte termiche" dei chip e indirizzare il flusso nei punti critici. Il design dei microcanali non segue linee rette, ma schemi ispirati alla natura, simili alle venature delle foglie o alle ali di una farfalla, ottimizzati per distribuire il liquido in modo più uniforme.

Questa tecnologia punta a risolvere una delle principali sfide dei datacenter moderni: la densità energetica crescente dei chip AI. Un acceleratore come il futuro Rubin Ultra potrà arrivare a dissipare oltre 2300 W, spingendo i sistemi di raffreddamento convenzionali verso i propri limiti fisici. La microfluidica apre quindi la possibilità a nuovi scenari: rack più densi, frequenze operative più elevate durante i picchi di carico e persino packaging 3D a più livelli, finora ostacolati dal calore eccessivo.

Il cammino verso la produzione, tuttavia, è tutt'altro che semplice. Oltre alla difficoltà di incidere microcanali senza compromettere la resistenza meccanica del silicio, occorre garantire package ermetici, scegliere fluidi adeguati, validare i processi di incisione e coordinare l'integrazione con l'intero ecosistema server e datacenter. Microsoft ha già condotto quattro iterazioni progettuali in un anno e continuerà a lavorare con i partner per portare la tecnologia su scala produttiva.

Oltre ai benefici prestazionali, il raffreddamento a microfluidica promette miglioramenti in termini di sostenibilità ed efficienza energetica. Poiché il liquido non deve essere raffreddato a temperature estreme per funzionare, si riduce il consumo energetico complessivo dei datacenter, migliorando il PUE (Power Usage Effectiveness) e aprendo la strada a un uso più efficiente del calore di scarto.

Microsoft sottolinea che questo sviluppo rientra in una strategia più ampia per innovare infrastrutture e chip proprietari, come le famiglie Cobalt e Maia, destinate a supportare i carichi AI di nuova generazione. La visione è chiara: abbattere il vincolo imposto dal calore per permettere architetture più compatte, potenti e sostenibili.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno24 Settembre 2025, 09:46 #1
I microcanali per il raffreddamento sono allo studio da almeno 20 anni.
Ricordo le ricerche di IBM su questa cosa.
Ecco, trovato un link del 2006 che ne parla:
https://www.punto-informatico.it/cp...er-dissipatore/
Nei pannelli solari è già stato realizzato un sistema di raffreddamento a microcanali.
Nulla di nuovo quindi, rimane sempre il problema dell'isolamento, ma a quel punto mi chiedo perché il raffreddamento a immersione non sia la soluzione migliore.
coschizza24 Settembre 2025, 10:19 #2
Originariamente inviato da: CrapaDiLegno
I microcanali per il raffreddamento sono allo studio da almeno 20 anni.
Ricordo le ricerche di IBM su questa cosa.
Ecco, trovato un link del 2006 che ne parla:
https://www.punto-informatico.it/cp...er-dissipatore/
Nei pannelli solari è già stato realizzato un sistema di raffreddamento a microcanali.
Nulla di nuovo quindi, rimane sempre il problema dell'isolamento, ma a quel punto mi chiedo perché il raffreddamento a immersione non sia la soluzione migliore.


se è talmente vecchiuo chiediti del perche nessuno lo ha usato prima
il raffreddamento a immersione è molt ocostoso e occupa molto spazio oltre a richiedere hardware dedicato

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^