CPU EPYC a 64 core e schede Radeon Instinct a 7nm: il futuro di AMD passa dal datacenter

CPU EPYC a 64 core e schede Radeon Instinct a 7nm: il futuro di AMD passa dal datacenter

AMD affila le armi contro Intel per guadagnare spazio nel settore dei datacenter, grazie ad una roadmap molto ambiziosa e a prodotti basati su tecnologia produttiva a 7 nanometri che debutteranno tra fine 2018 e 2019. Con i processori EPYC della famiglia Zen 2 AMD passa a 64 core per socket, affiancando schede Radeon Instinct di nuova generazione pensate per il datacenter

di pubblicato il nel canale Server e Workstation
AMDVegaRadeon InstinctEPYCRyzenZen
 
45 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
FedNat09 Novembre 2018, 14:38 #41
Originariamente inviato da: MiKeLezZ
Forse sono stupido perché continuo a non capire. Le performance di una CPU sono date dalle sue capacità di calcolo e i calcoli possibili sono grossomodo due: interi e a virgola mobile.
Hanno detto che hanno raddoppiato le performance in virgola mobile, significa che dovremmo aspettarci IPC del 50% superiore in ogni ambito?


A me sembrava chiaro fin dall'inizio:
La capcità di calcolo in FP è raddoppiata, di conseguenza l'IPC massimo teorico in FP aumenta del 100%. In ogni ambio dipende dal rapporto tra operazioni intere e FP e dall'eventuale aumento dell'IPC in intero
MiKeLezZ09 Novembre 2018, 15:14 #42
Originariamente inviato da: FedNat
A me sembrava chiaro fin dall'inizio:
La capcità di calcolo in FP è raddoppiata, di conseguenza l'IPC massimo teorico in FP aumenta del 100%. In ogni ambio dipende dal rapporto tra operazioni intere e FP e dall'eventuale aumento dell'IPC in intero
Non è chiaro perché mi dovresti anche spiagare come tale affermazione (+100% IPC in operazioni di virgola mobile) si allinei con quella ufficiale di AMD che afferma che da Zen+ a Zen 2 è stato misurato un +13% di IPC negli ambiti scientifici (ovvero quelli che maggiormente si avvantaggiano delle performance in virgola mobile)
calabar09 Novembre 2018, 15:56 #43
Originariamente inviato da: MiKeLezZ
Non è chiaro ...

Il throughput teorico è ben differente dall'aumento reale di prestazioni. In teoria se si riuscisse a sfruttare completamente la FP (ed escludendo altri colli di bottiglia) potresti arrivare ad un raddoppio di prestazioni, ma evidentemente non è così automatico sfruttare completamente le nuove unità.

Probabilmente scrivendo qualche riga di codice ad hoc si riuscirebbe ad ottenere questo raddoppio di prestazioni, ma in applicazioni reali è molto più complesso (soprattutto se gli algoritmi usati non beneficiano di questo miglioramento).

Oltretutto quel 13% è una media, quindi magari hai applicazioni in cui non fa differenza e altre in cui magari le prestazioni aumentano del 50%.

cdimauro10 Novembre 2018, 10:15 #44
Originariamente inviato da: FedNat
Significa che hanno raddoppiato le unità FP (mi pare da 2x128 a 2x256) raddoppiando anche le unità di load/store dedicate

No, le unità di load/store sono rimaste le stesse (2 load e una store internalmente, ma "strozzate" da 2 sole unità AGU. Siccome tutte le load/store devono passare da un'AGU, a ogni ciclo di clock si possono inviare solo 2 load, oppure 1 load + 1 store per ciclo di clock), ma semplicemente (e ovviamente) adesso possono leggere o scrivere 256 bit alla volta, anziché 128, quindi raddoppiando la bandwidth.
Originariamente inviato da: MiKeLezZ
Non è chiaro perché mi dovresti anche spiagare come tale affermazione (+100% IPC in operazioni di virgola mobile) si allinei con quella ufficiale di AMD che afferma che da Zen+ a Zen 2 è stato misurato un +13% di IPC negli ambiti scientifici (ovvero quelli che maggiormente si avvantaggiano delle performance in virgola mobile)

Premesso che non ricordo di aver letto di questo 13% in più di IPC (e sarei interessato a conoscere la fonte), ovviamente un raddoppio della dimensione delle unità di calcolo SIMD e della bandwidth non può mai comportare un raddoppio delle prestazioni SIMD del processore.

Il raddoppio in questo caso è un dato esclusivamente teorico, che non può verificarsi nella realtà (tranne che in test sintetici, eventualmente, i quali, però, non servono a nessuno).

C'è da dire che, comunque, questo di Zen2 sarebbe un ENORME miglioramento e DOVREBBE portare questo processore a rivaleggiare con Intel anche in quest'ambito (AVX & AVX-2).
Intel propone 3 unità SIMD a 256 bit e 2 unità di load + 1 di store a 256 bit, mentre AMD 4 unità SIMD a 256 bit e 2 unità di load/store, per cui le prestazioni varieranno a seconda della tipologia di codice AVX/-2 eseguito (c'è chi si avvantaggerà della maggior bandwidth disponibile dagli Intel, e chi della maggior potenza di calcolo dagli AMD).

In realtà già da qualche anno (da Skylake server) Intel mette a disposizione le AVX-512, che raddoppiano (sempre teoricamente) le prestazioni del codice SIMD, ma finché non diventeranno mainstream, e soprattutto non ci sarà software a sfruttarli, rimarrà un vantaggio di poco conto.
FedNat10 Novembre 2018, 12:17 #45
Originariamente inviato da: cdimauro
No, le unità di load/store sono rimaste le stesse (2 load e una store internalmente, ma "strozzate" da 2 sole unità AGU. Siccome tutte le load/store devono passare da un'AGU, a ogni ciclo di clock si possono inviare solo 2 load, oppure 1 load + 1 store per ciclo di clock), ma semplicemente (e ovviamente) adesso possono leggere o scrivere 256 bit alla volta, anziché 128, quindi raddoppiando la bandwidth.


E' vero, ricordavo dal liveblog di anand che c'era stato un raddoppio delle capacità di load/store ma effettivamente parlava di bandwidth e non di raddoppio di unità.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^