Una nuova CPU AMD EPYC a 64 core ancora più spinta, per i datacenter a liquido

Una nuova CPU AMD EPYC a 64 core ancora più spinta, per i datacenter a liquido

EPYC 7H12 è il nome dell'ultima novità di AMD: una CPU a 64 core con un TDP che tocca i 280 Watt ma assicura frequenze di clock ancora più elevate. Per i datacenter con sistemi di raffreddamento a liquido

di pubblicata il , alle 10:01 nel canale Processori
AMDEPYCZen
 

AMD ha annunciato una nuova versione di processore della famiglia EPYC, soluzioni che sono state presentate ufficialmente lo scorso mese di agosto e delle quali abbiamo parlato in questo articolo. Basate su architettura Zen 2 e costruite con tecnologia produttiva a 7 nanometri, queste CPU si rivolgono ai datacenter mettendo a disposizione un massimo di 64 core per singolo socket.

La nuova CPU ha nome EPYC 7H12 ed è una proposta di vertice nella gamma EPYC, caratterizzata da un TDP che aumenta dai 225 Watt del modello EPYC 7742 sino a 280 Watt così da offrire superiore potenza di calcolo e meglio rispondere alle esigenze dei clienti impegnati nel settore dell'HPC. Un consumo di questo tipo richiede un sistema di raffreddamento più che adeguato: AMD indica che la CPU sia disponibili a tutti i clienti ma che vengano richieste determinate competenze in tema di dissipazione a liquido di processori installati in datacenter per poter accedere a questa particolare versione di CPU.

Di fato quindi queste CPU sono pensate per l'utilizzo in datacenter, in abbinamento a sistemi di raffredamento a liquido e per ambiti di utilizzo che sono quelli tipici del mondo HPC. Le specifiche tecniche prevedono una frequenza di clock incrementata da 2,25 GHz a 2,6 GHz per quanto riguarda il dato di base clock; il valore turbo clock è pari a 3,3 GHz contro i 3,4 GHz del modello EPYC 7742, ma è facilmente ipotizzabile che la frequenza di clock all core massima sia superiore nel nuovo arrivato.

Nulla cambia per quanto riguarda gli altri parametri di funzionamento: la cache L3 è sempre pari a 256MB, i canali del controller memoria DDR4 sempre 8 con una massima frequenza di clock pari a 3.200 MHz. Il controller PCI Express 4.0 integrato, infine, è capace di gestire al proprio interno sino a 128 linee.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mechano19 Settembre 2019, 10:43 #1

Si torna a liquido

Una volta i datacenter erano a liquido, passava acqua sotto il pavimento e si pescava con delle pompe per mandare nei monoblocchi sui componenti da raffreddare.
Sentivo in una grande banca per cui ho lavorato di un progetto di ritorno a liquido. Tra l'altro in un datacenter c'è un rumore infermale, le pompe invece sibilano leggermente e si ridurrebbe il rumore, anche se ci saranno tempi lunghi di dismissione di tutto ciò che c'è adesso a ventola.

Poi ci potrebbero essere anche altri utilizzi dell'acqua calda del datacenter riscaldando l'acqua dei sanitari e tutto lo stabile dell'azienda con un progetto di teleriscaldamento.
Ha senso per un'azienda che cambia sede e prima di trasferirsi predispone tutto con un bel progetto all'avanguardia.

Oggi si spende tantissimo per la refrigerazione dell'aria del datacenter. Domani invece potresti togliere la climatizzazione e avere solo grandi radiatori esterni per l'estate e un sistema automatizzato che in inverno gira verso il riscaldamento.
Un risparmio impressionante di energia dei climatizzatori in estate e del riscaldamento dello stabile in inverno.


Gyammy8519 Settembre 2019, 11:18 #2
Originariamente inviato da: Mechano
Una volta i datacenter erano a liquido, passava acqua sotto il pavimento e si pescava con delle pompe per mandare nei monoblocchi sui componenti da raffreddare.
Sentivo in una grande banca per cui ho lavorato di un progetto di ritorno a liquido. Tra l'altro in un datacenter c'è un rumore infermale, le pompe invece sibilano leggermente e si ridurrebbe il rumore, anche se ci saranno tempi lunghi di dismissione di tutto ciò che c'è adesso a ventola.

Poi ci potrebbero essere anche altri utilizzi dell'acqua calda del datacenter riscaldando l'acqua dei sanitari e tutto lo stabile dell'azienda con un progetto di teleriscaldamento.
Ha senso per un'azienda che cambia sede e prima di trasferirsi predispone tutto con un bel progetto all'avanguardia.

Oggi si spende tantissimo per la refrigerazione dell'aria del datacenter. Domani invece potresti togliere la climatizzazione e avere solo grandi radiatori esterni per l'estate e un sistema automatizzato che in inverno gira verso il riscaldamento.
Un risparmio impressionante di energia dei climatizzatori in estate e del riscaldamento dello stabile in inverno.


Ecco questa è una bella idea
coschizza19 Settembre 2019, 12:12 #3
Originariamente inviato da: Mechano
Una volta i datacenter erano a liquido, passava acqua sotto il pavimento e si pescava con delle pompe per mandare nei monoblocchi sui componenti da raffreddare.
Sentivo in una grande banca per cui ho lavorato di un progetto di ritorno a liquido. Tra l'altro in un datacenter c'è un rumore infermale, le pompe invece sibilano leggermente e si ridurrebbe il rumore, anche se ci saranno tempi lunghi di dismissione di tutto ciò che c'è adesso a ventola.

Poi ci potrebbero essere anche altri utilizzi dell'acqua calda del datacenter riscaldando l'acqua dei sanitari e tutto lo stabile dell'azienda con un progetto di teleriscaldamento.
Ha senso per un'azienda che cambia sede e prima di trasferirsi predispone tutto con un bel progetto all'avanguardia.

Oggi si spende tantissimo per la refrigerazione dell'aria del datacenter. Domani invece potresti togliere la climatizzazione e avere solo grandi radiatori esterni per l'estate e un sistema automatizzato che in inverno gira verso il riscaldamento.
Un risparmio impressionante di energia dei climatizzatori in estate e del riscaldamento dello stabile in inverno.


da come scrivi sembra che per te sia un novita ma esiste da sempre questa soluzione nei datacenter che comunque non è cosi vantaggiosa perche ha altri svantaggi e costi, altrimenti sarebbe al più utilizzata. Non è che l'energia che devi dissipare la puoi eliminare senza costi la fisica vince sempre.
turcone19 Settembre 2019, 12:47 #4
Originariamente inviato da: Mechano
Una volta i datacenter erano a liquido, passava acqua sotto il pavimento e si pescava con delle pompe per mandare nei monoblocchi sui componenti da raffreddare.
Sentivo in una grande banca per cui ho lavorato di un progetto di ritorno a liquido. Tra l'altro in un datacenter c'è un rumore infermale, le pompe invece sibilano leggermente e si ridurrebbe il rumore, anche se ci saranno tempi lunghi di dismissione di tutto ciò che c'è adesso a ventola.

Poi ci potrebbero essere anche altri utilizzi dell'acqua calda del datacenter riscaldando l'acqua dei sanitari e tutto lo stabile dell'azienda con un progetto di teleriscaldamento.
Ha senso per un'azienda che cambia sede e prima di trasferirsi predispone tutto con un bel progetto all'avanguardia.

Oggi si spende tantissimo per la refrigerazione dell'aria del datacenter. Domani invece potresti togliere la climatizzazione e avere solo grandi radiatori esterni per l'estate e un sistema automatizzato che in inverno gira verso il riscaldamento.
Un risparmio impressionante di energia dei climatizzatori in estate e del riscaldamento dello stabile in inverno.


non sempre il raffreddamento a liquido è efficiente dato che devi anche considerare le possibili perdite dai giunti e la necessità di avere tutto l'impinato in ip68 e se sei su un clima come quello italiano l'efficienza energetica è bassa va bene per paesi più nordici tipo dalla germania in su e dove hai accesso a grandi quantità di acqua
giovanbattista19 Settembre 2019, 15:15 #5
TDP 4.4W a core
Zenida19 Settembre 2019, 19:11 #6
Originariamente inviato da: turcone
non sempre il raffreddamento a liquido è efficiente dato che devi anche considerare le possibili perdite dai giunti e la necessità di avere tutto l'impinato in ip68 e se sei su un clima come quello italiano l'efficienza energetica è bassa va bene per paesi più nordici tipo dalla germania in su e dove hai accesso a grandi quantità di acqua


Considera che la temperatura del sottosuolo a 100m di profondità è costante su tutto il globo a 14°C.
Per dissipare il calore si è pensato all'olio sintetico, che è inerte ma più costoso.
Tuttavia si può sempre usare acqua demineralizzata. Il circuito è chiuso, quindi la materia prima ha un costo irrilevante.
Il vero costo è l'efficenza di trasporto del calore. Altrimenti il costo dei due sistemi aria o liquido è lo stesso anche in termini di manutenzione. Vince chi sottrae più calore
turcone20 Settembre 2019, 15:34 #7
Originariamente inviato da: Zenida
Considera che la temperatura del sottosuolo a 100m di profondità è costante su tutto il globo a 14°C.
Per dissipare il calore si è pensato all'olio sintetico, che è inerte ma più costoso.
Tuttavia si può sempre usare acqua demineralizzata. Il circuito è chiuso, quindi la materia prima ha un costo irrilevante.
Il vero costo è l'efficenza di trasporto del calore. Altrimenti il costo dei due sistemi aria o liquido è lo stesso anche in termini di manutenzione. Vince chi sottrae più calore


il riscaldamento/raffreddamento geotermico è un pò più complesso e non sempre è una soluzione ecomica o efficiente ( per farti un esempio la pompa del liquido di scambio termico funziona sempre ) per usi domestici il solo scavo costa sopra i 20k euro quello industriale non so e hai costi di manutenzione alti
finora tutti i grossi datacenter con raffreddamento a liquido sono sempre a determinate latitudini perchè devi considerare tutte le spese di gestione se vai tanto più a nord si usa invece quello aria/aria per via della temperatura ambientale
il fatto del tipo di acqua che usi conta poco perchè ti interessa di più che l'impianto sia a prova di perdita ( chi si ricorda gli aio a liquido che perdevano e anche se avevano liquidi che non trasmettono la corrente hanno fatto molti danni ) perchè l'acqua può causare ruggine e indebolire le strutture con l'umidità
il discorso è complesso e non si può ridurre a un semplice calcolo di efficienza sul solo scambio termico
Davis520 Settembre 2019, 17:03 #8
chi spende milioni di euro per un datacenter a percolazione di azoto liquido per raffreddare l'acqua che va a rinfrescare le CPU difficilmente si lascia attrarre dai ridicoli risparmi in termini economici ottenibili riscaldando un po' di acqua per far lavare le mani ai dipendenti della banca cosi' d'inverno non si screpolano le mani...

32 blade per 4 nodi per minimo 280w a cpu piu' i consumi degli altri componenti direi che fa un bel po' di kw....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^