PDA

View Full Version : Intel: 700 milioni di dollari per spingere il raffreddamento a immersione nei datacenter


Redazione di Hardware Upg
20-05-2022, 08:41
Link alla notizia: https://www.hwupgrade.it/news/server-workstation/intel-700-milioni-di-dollari-per-spingere-il-raffreddamento-a-immersione-nei-datacenter_107337.html

Intel ha annunciato che investirà oltre 700 milioni di dollari per creare un mega laboratorio di ricerca e sviluppo incentrato su tecnologie innovative per il raffreddamento dei datacenter. L'azienda, inoltre, renderà disponibile un "reference design" per il raffreddamento a immersione.

Click sul link per visualizzare la notizia.

Mechano
20-05-2022, 09:55
Ritorno al passato.
Una volta nei datacenter si usava l'acqua. Si pescava da sotto il pavimento da una linea fredda, circolava nei blocchi sui circuiti e ricadeva nella linea calda.

Chissà perché fu abbandonata in molti datacenter. Eppure oggi se ne sente parlare sempre più.

CrapaDiLegno
20-05-2022, 11:41
Credo che l'acqua sia stata abbandonata perché il raffreddamento a liquido costa di più e richiede più manutenzione (oltre ad essere decisamente più critica e pericolosa in un sistema che va a energia elettrica), per cui anche se Intel si fa bella verso "l'eco-sostenibilità" con questi studi poi non è detto poi che i vari clienti lo adottino se per abbassare l'emissione del 45% di carbonio devono spendere il 45% in più nell'impianto di raffreddamento.
Però le CPU server insieme agli acceleratori ormai omnipresenti stanno cominciando a consumare (e quindi produrre calore) in modo forse un po' troppo elevato all'interno dello stesso spazio e in taluni casi (ovvio non per il file server di una mini azienda) usare i normali sistemi di ventilazione potrebbe essere diventato insostenibile per i flussi/temperature necessari e forse anche per il rumore.

Cappej
20-05-2022, 14:16
non era Microsoft a testare i datacenter sott'acqua?, nel mediterraneo sotto i 30 mt in qualsiasi momento dell'anno trovi sempre 14-16 gradi.

https://edge9.hwupgrade.it/news/device/mettere-un-datacenter-sott-acqua-si-puo-fare-ce-lo-dimostra-microsoft_92030.html

Il dramma sarebbe la condensa, in un tubo di metallo con dentro 50-60 gradi e fuori 14-16... forse immettendo un altro gas al posto dell'aria... tipo Azoto? (costa poco, nel abbiamo all'80% nell'aria di tutto il pianeta e nessun danno se disperso..)


IMHO

Personaggio
20-05-2022, 14:28
Ritorno al passato.
Una volta nei datacenter si usava l'acqua. Si pescava da sotto il pavimento da una linea fredda, circolava nei blocchi sui circuiti e ricadeva nella linea calda.

Chissà perché fu abbandonata in molti datacenter. Eppure oggi se ne sente parlare sempre più.

Credo che l'acqua sia stata abbandonata perché il raffreddamento a liquido costa di più e richiede più manutenzione (oltre ad essere decisamente più critica e pericolosa in un sistema che va a energia elettrica), per cui anche se Intel si fa bella verso "l'eco-sostenibilità" con questi studi poi non è detto poi che i vari clienti lo adottino se per abbassare l'emissione del 45% di carbonio devono spendere il 45% in più nell'impianto di raffreddamento.
Però le CPU server insieme agli acceleratori ormai omnipresenti stanno cominciando a consumare (e quindi produrre calore) in modo forse un po' troppo elevato all'interno dello stesso spazio e in taluni casi (ovvio non per il file server di una mini azienda) usare i normali sistemi di ventilazione potrebbe essere diventato insostenibile per i flussi/temperature necessari e forse anche per il rumore.

Presumo che questa tecnologia sia completamente diversa dal classico raffreddamento a liquido! L'intero rack viene immerso in un liquido, probabilmente olio, esattamente come i trasformatori di media e alta tensione. L'olio è viscoso e a livello molecolare aderisce molte meglio alle superfici rispetto ad un liquido come l'acqua, è completamente elettroisolante ma un ottimo conduttore calorico. Il punto di evaporazione è molto alto, dipende dall'olio, ma in genere è almeno sopra i 200 gradi.
Si trovano diversi video sul tubo dove degli smanettoni immergono un intero case di un PC senza nessuna ventola in una vasca di glicerina e spremono poi CPU e GPU al limite. L'unico sistema di raffreddamento più efficace sfruttato fino ad oggi rispetto all'olio è l'azoto liquido, non praticabile con dei server.

La Glicerina o anche il Glicerolo, hanno il vantaggio di essere idrosolubili. Cosa da considerare per la manutenzione, perché tutto ciò che verrebbe unto durante le operazioni manutentive (attrezzi, abbigliamento, schede stesse) verrebbe pulito semplicemente con dell'acqua senza la necessità di usare tensioattivi di alcun genere.

Bisont
20-05-2022, 14:52
Ritorno al passato.
Una volta nei datacenter si usava l'acqua. Si pescava da sotto il pavimento da una linea fredda, circolava nei blocchi sui circuiti e ricadeva nella linea calda.

Chissà perché fu abbandonata in molti datacenter. Eppure oggi se ne sente parlare sempre più.

I nuovi datacenter di Aruba a Bergamo usano l'acqua di falda per raffreddare.

https://www.datacenter.it/data-center-aruba/italia-bergamo-dc-it3.aspx

CrapaDiLegno
20-05-2022, 15:40
Presumo che questa tecnologia sia completamente diversa dal classico raffreddamento a liquido! L'intero rack viene immerso in un liquido, probabilmente olio, esattamente come i trasformatori di media e alta tensione. L'olio è viscoso e a livello molecolare aderisce molte meglio alle superfici rispetto ad un liquido come l'acqua, è completamente elettroisolante ma un ottimo conduttore calorico. Il punto di evaporazione è molto alto, dipende dall'olio, ma in genere è almeno sopra i 200 gradi.
Si trovano diversi video sul tubo dove degli smanettoni immergono un intero case di un PC senza nessuna ventola in una vasca di glicerina e spremono poi CPU e GPU al limite. L'unico sistema di raffreddamento più efficace sfruttato fino ad oggi rispetto all'olio è l'azoto liquido, non praticabile con dei server.

La Glicerina o anche il Glicerolo, hanno il vantaggio di essere idrosolubili. Cosa da considerare per la manutenzione, perché tutto ciò che verrebbe unto durante le operazioni manutentive (attrezzi, abbigliamento, schede stesse) verrebbe pulito semplicemente con dell'acqua senza la necessità di usare tensioattivi di alcun genere.

Che sia acqua o olio il costo è sempre maggiore rispetto alle ventolazze.
Nel caso di immersione completa, i tempi di intervento per aggiustamento/upgrade si innalzano. E pensa se si rompe un contenitore/tubo che gran casino nella sala di un datacenter.
La tecnica dell'immersione esiste da quando sono piccolo io (e non sono più tanto giovane) ma il fatto che non sia mai diventata una realtà significa che ha più svantaggi che vantaggi.
Intel starà tentando di diminuire gli svantaggi per riuscire a far fronte alla dissipazione necessaria nei prossimi anni, con PP che non avanzano più come prima e le prestazioni scaleranno verso l'alto necessariamente per numero di chiplet/maggiori frequenze/maggiori consumi.
Perché se è vero che nelle future architetture MCM aggiungere un chiplet non porta a costi esorbitanti come raddoppiare un die monolitico, è anche vero che il consumo comunque raddoppia rispetto ad un chiplet unico.
Doppia potenza, doppio consumo, se poi le architetture acceleratrici sono quelle Intel... il consumo sarà più alto rispetto alla concorrenza.

Personaggio
20-05-2022, 18:13
I nuovi datacenter di Aruba a Bergamo usano l'acqua di falda per raffreddare.

https://www.datacenter.it/data-center-aruba/italia-bergamo-dc-it3.aspx

Che sia acqua o olio il costo è sempre maggiore rispetto alle ventolazze.
Nel caso di immersione completa, i tempi di intervento per aggiustamento/upgrade si innalzano. E pensa se si rompe un contenitore/tubo che gran casino nella sala di un datacenter.
La tecnica dell'immersione esiste da quando sono piccolo io (e non sono più tanto giovane) ma il fatto che non sia mai diventata una realtà significa che ha più svantaggi che vantaggi.
Intel starà tentando di diminuire gli svantaggi per riuscire a far fronte alla dissipazione necessaria nei prossimi anni, con PP che non avanzano più come prima e le prestazioni scaleranno verso l'alto necessariamente per numero di chiplet/maggiori frequenze/maggiori consumi.
Perché se è vero che nelle future architetture MCM aggiungere un chiplet non porta a costi esorbitanti come raddoppiare un die monolitico, è anche vero che il consumo comunque raddoppia rispetto ad un chiplet unico.
Doppia potenza, doppio consumo, se poi le architetture acceleratrici sono quelle Intel... il consumo sarà più alto rispetto alla concorrenza.

i riscaldamenti ad acqua dei data center non sono ad immersione, ma semplicemente si usa l'acqua per raffreddare la macchina condensante del condizionatore, invece dell'aria, che ovviamente è molto più efficiente, ma dentro il datacenter cmq si usa l'aria condizionata e le ventole.
Pe quello a immersione praticamente il datacenter è una piscina di olio coperta da un pavimento dove i rack con tutta l'infrastruttura viene immersa, per manutenerli si fa salire elettronicamente il singolo rack dalla piscina e dopo il lavoro torna a mollo.
Ovviamente è utile solo per server unici distribuiti su più rack, sale intere che sono viste com un unico computer con migliaia di CPU o GPU, chiaro che il serverino che occupa un solo slot da 19" con monitor e tastiera estraibili annessi, non è adatto a questo tipo di raffreddamento. Sono adatti solo quei sistemi per il quale devi metterci le mani solo per una sostituzione HW e nient'altro. Non vanno bene neanche per i NAS. Si tratta quindi di accessi molto rari.