PDA

View Full Version : CPU EPYC a 64 core e schede Radeon Instinct a 7nm: il futuro di AMD passa dal datacenter


Redazione di Hardware Upg
07-11-2018, 01:30
Link all'Articolo: https://pro.hwupgrade.it/articoli/server-workstation/5297/cpu-epyc-a-64-core-e-schede-radeon-instinct-a-7nm-il-futuro-di-amd-passa-dal-datacenter_index.html

AMD affila le armi contro Intel per guadagnare spazio nel settore dei datacenter, grazie ad una roadmap molto ambiziosa e a prodotti basati su tecnologia produttiva a 7 nanometri che debutteranno tra fine 2018 e 2019. Con i processori EPYC della famiglia Zen 2 AMD passa a 64 core per socket, affiancando schede Radeon Instinct di nuova generazione pensate per il datacenter

Click sul link per visualizzare l'articolo.

digieffe
07-11-2018, 03:03
Lavoro notturno, ben fatto!

Marko#88
07-11-2018, 06:54
Begli annunci. Vediamo più avanti cosa faranno lato consumer ma AMD sta lavorando decisamente bene. :oink:

Un complimento anche al Corsini che scrive articoli di qualità e belli da leggere. A differenza degli articoli degli altri che sono volti esclusivamente ad acchiappare click e a creare flame. Oltre ad essere scritti spesso piuttosto male.

nickname88
07-11-2018, 06:57
Ed i giocatori abbandonati al competitor ... :doh:

Gyammy85
07-11-2018, 07:49
Ed i giocatori abbandonati al competitor ... :doh:

Evvabbè...

Non basta guardare, bisogna anche capire.
Per esempio bisognerebbe capire che se l'evento parla di datacenter non ha senso parlare di giocatori.

Senza contare che poi a cascata tutto questo avrà riflessi sul consumer
Intanto con un chippetto hanno pareggiato tesla v100 che ha 1000 e passa sp in più, sta a vedere che ora i clock non contano più :eek: :asd:

Gyammy85
07-11-2018, 08:03
Pareggiato non saprei, forse solo sotto certi aspetti.
Ma adesso AMD se la gioca sulla soluzione completa con CPU Epyc molto competitive e probabilmente con ottimi rapporti perf/$$ grazie all'approccio chiplet, le Radeon anche se fossero leggermente inferiori alle Nvidia servono per offrire un pacchetto completo che attualmente solo AMD può fornire.
Detto semplicemente una mano lava l'altra.

In teoria siamo lì, 14,7 tf è la potenza di tu102 e compagnia
Poi già vega 10 se la batteva bene, figuriamoci questa che è steroidata
Tra l'altro sembra che dalle informazioni trapelate dai driver linux siano pronte tutte le funzionalità "dormienti" in vega 10
Staremo a vedere, a dicembre ci sarà il grosso update dei driver :oink:

lucusta
07-11-2018, 08:31
Vega 20 è una GPU prettamente datacenter, con la massimizzazione delle possibili interconnessioni logiche dei cluster SP (guardando alla questione che in associativa ha un rateo 2:1 rispetto a FP32, mentre vega 10 solo 1:16 e che è comunque in grado di scendere a rateo diretto fino a logica boleana, 1-precision bit, usata nelle QNN).
sui giochi non serve così tanto e per farlo si devono usare un bel pò di registri in più, quindi complessità aumentata che porta a consumi superiori.

possono farla andare anche per i giochi, ma se ne perdono molti aspetti pratici.
il guadagno c'è sempre, comunque.

probabilmente la vedremo sul mondo consumer per abbattere i costi per datacenter (non i prezzi, solo i costi, per fare margini superiori), ma in una figura ben diversa.
probabile che la useranno solo con 2 HBM2, quindi con un bus di "soli 2048 bit e con circa 600GB/s se usano le samsung da 600mhz, con consumi inferiori alle attuali vega 64, passando dai 250W ai 140-150W con prestazioni leggermente superiori...
un buon chippetto "medio" considerando che la concorrente diretta dovrebbe essere la 2070 (quindi una nominazione probabile potrebbe essere 690 e 690x), ma parliamo di 450/500 euro massimo per questa classe di GPU.
dipende quindi molto dalle rese dei 7nm e dalla disponibilità di wafer di TMSC su quelle linee...

insomma... 50:50 che la faranno uscire aspettando Navi, architettura che sembra essere più votata al mondo gaming/rendering.

lucusta
07-11-2018, 08:38
Ed i giocatori abbandonati al competitor ... :doh:

abbandonati...
chi è causa del suo mal pianga se stesso...

Vash_85
07-11-2018, 08:41
https://www.hwupgrade.it/articoli/5297/slide_9.jpg

:asd:

Quel: "As promised" suona come un macigno.

Gyammy85
07-11-2018, 10:39
Vega 20 è una GPU prettamente datacenter, con la massimizzazione delle possibili interconnessioni logiche dei cluster SP (guardando alla questione che in associativa ha un rateo 2:1 rispetto a FP32, mentre vega 10 solo 1:16 e che è comunque in grado di scendere a rateo diretto fino a logica boleana, 1-precision bit, usata nelle QNN).
sui giochi non serve così tanto e per farlo si devono usare un bel pò di registri in più, quindi complessità aumentata che porta a consumi superiori.

possono farla andare anche per i giochi, ma se ne perdono molti aspetti pratici.
il guadagno c'è sempre, comunque.

probabilmente la vedremo sul mondo consumer per abbattere i costi per datacenter (non i prezzi, solo i costi, per fare margini superiori), ma in una figura ben diversa.
probabile che la useranno solo con 2 HBM2, quindi con un bus di "soli 2048 bit e con circa 600GB/s se usano le samsung da 600mhz, con consumi inferiori alle attuali vega 64, passando dai 250W ai 140-150W con prestazioni leggermente superiori...
un buon chippetto "medio" considerando che la concorrente diretta dovrebbe essere la 2070 (quindi una nominazione probabile potrebbe essere 690 e 690x), ma parliamo di 450/500 euro massimo per questa classe di GPU.
dipende quindi molto dalle rese dei 7nm e dalla disponibilità di wafer di TMSC su quelle linee...

insomma... 50:50 che la faranno uscire aspettando Navi, architettura che sembra essere più votata al mondo gaming/rendering.

Si credo che le future pro e frontier a 7 nm saranno diverse
A questo punto si aspetta il ces, Navi imho sarà qualcosa di rivisto, altrimenti questa mi60 non l'avrebbero chiamata vega.
Non so se hai notato che c'è anche una mi50 con 60 cu e non 56 come era logico aspettarsi

nickname88
07-11-2018, 12:07
In teoria siamo lì, 14,7 tf è la potenza di tu102 e compagnia
Ah ecco ora ricordo. Tu eri quello che faceva le comparative con i TF :asd:

[A]okyZ
07-11-2018, 12:16
Ah ecco ora ricordo. Tu eri quello che faceva le comparative con i TF :asd:

E tu il genio che parla di giochi in un tread su Epyc ...

riuzasan
07-11-2018, 12:17
Ed i giocatori abbandonati al competitor ... :doh:

Ma ti pagano per dire idiozie?

Einhander
07-11-2018, 12:36
Ma ti pagano per dire idiozie?

"Non posso farci nulla, il mio corpo si muove da solo" (cit.)

:asd: :asd:

bonzoxxx
07-11-2018, 13:05
okyZ;45867563']E tu il genio che parla di giochi in un tread su Epyc ...

:asd: :asd: :asd:

nickname88
07-11-2018, 13:37
abbandonati...
chi è causa del suo mal pianga se stesso...
??? Mi sà che hai sbagliato a quotare

nickname88
07-11-2018, 13:38
okyZ;45867563']E tu il genio che parla di giochi in un tread su Epyc ...Inventati le cose bravo.

Ma ti pagano per dire idiozie?No è la semplice verità.
Io oltre a Vega64 non vedo un tubo.

sgrinfia
07-11-2018, 15:52
Inventati le cose bravo.

No è la semplice verità.
Io oltre a Vega64 non vedo un tubo.

Leggere attentamente le avvertenze ......;)

[A]okyZ
07-11-2018, 16:07
Inventati le cose bravo.



...

Ed i giocatori abbandonati al competitor ... :doh:

O soffri di bipolarismo o sei solo un mononeuronico bimbominkia

george_p
07-11-2018, 18:34
https://www.hwupgrade.it/articoli/5297/slide_9.jpg

:asd:

Ahahaha evidentemente leggono molti forum, a partire da questo :D

nickname88
07-11-2018, 21:00
okyZ;45868105']...
O soffri di bipolarismo o sei solo un mononeuronico bimbominkia
Meglio uno che nessuno.
Non ho parlato di giochi, ho solo fatto un osservazione su come AMD sia tanto impegnata nell' Enterprise quanto poco nel mainstream.

bonzoxxx
07-11-2018, 21:16
Epyc e radeon instinct non sono mainstream...

lucusta
08-11-2018, 00:28
Si credo che le future pro e frontier a 7 nm saranno diverse
A questo punto si aspetta il ces, Navi imho sarà qualcosa di rivisto, altrimenti questa mi60 non l'avrebbero chiamata vega.
Non so se hai notato che c'è anche una mi50 con 60 cu e non 56 come era logico aspettarsi

Navi dovrebbe accentuare le caratteristiche di versatilità che oggi abbiamo visto da vega 10 a vega 20 senza però pagare pegno per la complessità.
c'era un brevetto AMD di un paio di anni fa che parlava proprio del modo di organizzare gli SP per i calcoli eterogenei.
da quanto si capiva era basato sulla diversificazione della clusterizzazione;
per spiegarmi meglio, oggi son passati da vega 10 che poteva dividere i suoi cluster e associarli in un certo grado di possibilità, ad una, con vega 20, che offre ampliate possibilità, ma per tutti i cluster in maniera uguale.
Navi, o meglio quel brevetto, invece incentrava il discorso della varietà di clusterizzazione.
da cluster da 4 SP con aggregazione a 16 sp senza passaggio store/set/load, a clusterizzazioni da 1, 2, 4 fino a 32 SP in modo da minimizzare l'uso proprio d'istruzioni load/set/store a seconda del compito da lavorare.
è questo oggi lo svantaggio dell'architettura AMD, ossia le troppe operazioni di load/set/store per operare su compiti che richiedono cluster con elevato numero di SP.
queste operazioni portano via cicli operativi utili (quindi il rendimento massimo) e richiedono un sacco di logica e strumenti HW in più, quindi più consumo.
logicamente anche sul metodo precedente posso aggregare i cluster da 1 per arrivare a 64 utili, ma perderei un sacco di tempo a fare operazioni d'interscambio dati.. sarebbero però sommati ai cluster più corposi che lo fanno in meno tempo, ottenendo un rendimento di calcolo decisamente maggiore.
ottengo quindi versatilità pagando però in massima utilizzazione dell'HW...
per spiegarmi meglio oggi usi 100 per ottenere 75 consumando 100, domani userai preferibilmente 75 sui 100 per ottenere 75 e consumare 75, con la possibilità di usare comunque tutti e 100 ma ottenendo 93.75 a causa dei 25 in più che hanno rendimento solo del 75% a causa dei continui load/set/store, e consumando quindi sempre 100.
passo perciò da 75 a 93.75 consumando comunque 100.
allo stesso modo, cambiando il calcolo con esigenze inferiori di aggregazioni, oggi uso 100 ed ottendo 90 consumando 100, mentre domani solo 25 dei 100 mi danno 22.5 (rendimento 90%) consumando 25, gli altri 75 sono costretti ad andare con rendimento 50% consumando comunque 75, quindi in totale ho
60 con consumo 100 invece che ottenere 90 consumando 100...
è comunque il bilanciamento delle "quote" di clusterizzazione che caratterizzeranno l'HW per un compito invece che per un'altro e tutto dipende dalla tipoogia di codice che devono processare per ambiti diversi.
sono solo numeri per indicare come una diversa architettura logica possa comunque rendere meglio.

quindi oggi vega 20 si giova unicamente della riduzione di PP a 7nm, mentre la stessa architettura con la stessa identica versatilità avrebbe consumato a 14nm ben più dei 300W di target, con lo stesso valore prestazionale in quello che era in grado di fare vega 10, e l'aggiunta di una maggiore flessibilità...

è facile capire che vega 20 poteva nascere solo a 7nm...

ribaltando la situazione un Vega 10 a 7nm, quindi non avendo le peculiarità della 20 per il mondo datacenter (FP64 2:1, Int8 e Int4 a rateo x4 e x8 su fp32, QNN, etc), ma rimanendo "adatta anche per il gaming" a pari prestazioni di vega 10 a 14nm non avrebbe consumato solo il 50% in meno (rispetto alla 14nm da 300), ma oltre il 66%, passando da 300 a 100... ed una vega 64 che ti consuma 100-120W reali non sarebbe male... ma, ad oggi, sarebbe quasi inutile sul mercato (soprattutto se ti costa il 25-30% in più di oggi per via dell'uso del PP più avanzato)...
quindi, al limite, meglio una vega 20 portata nel mondo consumer, che arrivi a 200W reali con un pò più di prestazioni, ma che abbatta i costi di quelle per datacenter e aspettare di fare l'architettura che ti permette di ottenere il doppio di quelle prestazioni per lo stesso consumo.
ma si parlerebbe sempre di comprare una Vega 20 per gaming sui 650/700 euro per un 20-25% di prestazioni in più per comunque i 250-300W di target.
finche non scende sotto i 500 (ossia i costi del PP siano debitamente abbattuti) non ha nulla di così affascinante.

ionet
08-11-2018, 01:04
noto che nessuno ha notato un particolare,si parlava di epyc rome con 64 core e ingenuamente si dava per scontato,visto il progetto precedente,che i nuovi die a 7nm erano da 16 core ciascuno
e quindi di riflesso si prospettava per i ryzen 3700/X nuovi traguardi fino a 16 core

ma il nuovo epyc e' si un mostro a 64 core ma con un progetto totalmente differente,usando tanti piccoli die da 8 core ciascuno
ma adesso cosa ci dovremmo aspettare dal prossimo 3700x?

ok grazie a zen2 a 7nm possiamo ipotizzare prestazioni da i9-9900k a meta' prezzo e consumi inferiori,non e' poco ma...e' gia' finita la rincorsa ai core?
o forse e' possibile che anche per ryzen usino un progetto multidie:confused:
forse per un ipotetico 3800x a 12/16 core ma ci credo poco

Opteranium
08-11-2018, 09:04
e' gia' finita la rincorsa ai core?
ma che te ne fai in ambito domestico, anche pro, di 16c/32t?
Grazie ad amd siamo giunti ad avere octa core a prezzi di saldo, direi che sia più che sufficiente. Già adesso i software in grado di sfruttarli a pieno si contano su una mano..

EDIT, fra l'altro con threadripper potresti già farlo a prezzi tutto sommato contenuti: 1950x a 650 euro, mb a 300 euro, 32gb di ram a 250 euro, con 1200 hai già pronto il sistema.

lucusta
08-11-2018, 09:14
i die mostrati non sembrano essere dei semi SOC come i zeppelin.
ed avrebbe anche senso, visto che controller DDR e I/O vari sono stati spostati.
per ora, ad occhio, sembra che sia un SKU totalmente differente dai precedenti e che senza I/O die non possa funzionare a dovere, quindi per il prossimo ryzen 3000 o usano uno i due di questi con un'altro I/O die, magari più piccolo (questo dovrebbe aggiungere una L4 da 512MB, tanto per dire), o fanno un'altro SKU.

per le ben poche informazioni che si hanno (ad esempio non si capisce se questi hanno un CCX da 8 o 2 da 4), per ora è tirare ad indovinare per il resto della linea...

c'è però un dettaglio non di poco conto:
AMD ha necessità di entrare bene in rapporto con gli OEM per produrre portatili, che sono la maggioranza del mercato (sono il 60% e praticamente li vende solo Intel, tolti quella decina di prodotti con le APU AMD).
se fossero stati semi SOC capaci di operare tranquillamente anche senza I/O die sarebbe stato poco sensato non sfruttare questo prodotto nel mercato come possibile processore per portatili, in quanto realmente sarebbe un prodotto difficilmente replicabile per la concorrenza, almeno ad oggi...
avresti avuto la possibilità di selezionare i die per la linea server con quelli per i portatili, come fanno oggi, per una sinergia di produzione...

ma non c'è notizia, quindi mi sembra poco probabile che questi siano die che possano essere sfruttati per il mercato consumer.

il die è realmente piccolo a mio parere.

Gyammy85
08-11-2018, 09:50
Quei die da 8 core sono minuscoli in effetti, probabile che la piastra i/o non ci sia sui futuri ryzen

Navi dovrebbe accentuare le caratteristiche di versatilità che oggi abbiamo visto da vega 10 a vega 20 senza però pagare pegno per la complessità.
c'era un brevetto AMD di un paio di anni fa che parlava proprio del modo di organizzare gli SP per i calcoli eterogenei.
da quanto si capiva era basato sulla diversificazione della clusterizzazione;
per spiegarmi meglio, oggi son passati da vega 10 che poteva dividere i suoi cluster e associarli in un certo grado di possibilità, ad una, con vega 20, che offre ampliate possibilità, ma per tutti i cluster in maniera uguale.
Navi, o meglio quel brevetto, invece incentrava il discorso della varietà di clusterizzazione.
da cluster da 4 SP con aggregazione a 16 sp senza passaggio store/set/load, a clusterizzazioni da 1, 2, 4 fino a 32 SP in modo da minimizzare l'uso proprio d'istruzioni load/set/store a seconda del compito da lavorare.
è questo oggi lo svantaggio dell'architettura AMD, ossia le troppe operazioni di load/set/store per operare su compiti che richiedono cluster con elevato numero di SP.
queste operazioni portano via cicli operativi utili (quindi il rendimento massimo) e richiedono un sacco di logica e strumenti HW in più, quindi più consumo.
logicamente anche sul metodo precedente posso aggregare i cluster da 1 per arrivare a 64 utili, ma perderei un sacco di tempo a fare operazioni d'interscambio dati.. sarebbero però sommati ai cluster più corposi che lo fanno in meno tempo, ottenendo un rendimento di calcolo decisamente maggiore.
ottengo quindi versatilità pagando però in massima utilizzazione dell'HW...
per spiegarmi meglio oggi usi 100 per ottenere 75 consumando 100, domani userai preferibilmente 75 sui 100 per ottenere 75 e consumare 75, con la possibilità di usare comunque tutti e 100 ma ottenendo 93.75 a causa dei 25 in più che hanno rendimento solo del 75% a causa dei continui load/set/store, e consumando quindi sempre 100.
passo perciò da 75 a 93.75 consumando comunque 100.
allo stesso modo, cambiando il calcolo con esigenze inferiori di aggregazioni, oggi uso 100 ed ottendo 90 consumando 100, mentre domani solo 25 dei 100 mi danno 22.5 (rendimento 90%) consumando 25, gli altri 75 sono costretti ad andare con rendimento 50% consumando comunque 75, quindi in totale ho
60 con consumo 100 invece che ottenere 90 consumando 100...
è comunque il bilanciamento delle "quote" di clusterizzazione che caratterizzeranno l'HW per un compito invece che per un'altro e tutto dipende dalla tipoogia di codice che devono processare per ambiti diversi.
sono solo numeri per indicare come una diversa architettura logica possa comunque rendere meglio.

quindi oggi vega 20 si giova unicamente della riduzione di PP a 7nm, mentre la stessa architettura con la stessa identica versatilità avrebbe consumato a 14nm ben più dei 300W di target, con lo stesso valore prestazionale in quello che era in grado di fare vega 10, e l'aggiunta di una maggiore flessibilità...

è facile capire che vega 20 poteva nascere solo a 7nm...

ribaltando la situazione un Vega 10 a 7nm, quindi non avendo le peculiarità della 20 per il mondo datacenter (FP64 2:1, Int8 e Int4 a rateo x4 e x8 su fp32, QNN, etc), ma rimanendo "adatta anche per il gaming" a pari prestazioni di vega 10 a 14nm non avrebbe consumato solo il 50% in meno (rispetto alla 14nm da 300), ma oltre il 66%, passando da 300 a 100... ed una vega 64 che ti consuma 100-120W reali non sarebbe male... ma, ad oggi, sarebbe quasi inutile sul mercato (soprattutto se ti costa il 25-30% in più di oggi per via dell'uso del PP più avanzato)...
quindi, al limite, meglio una vega 20 portata nel mondo consumer, che arrivi a 200W reali con un pò più di prestazioni, ma che abbatta i costi di quelle per datacenter e aspettare di fare l'architettura che ti permette di ottenere il doppio di quelle prestazioni per lo stesso consumo.
ma si parlerebbe sempre di comprare una Vega 20 per gaming sui 650/700 euro per un 20-25% di prestazioni in più per comunque i 250-300W di target.
finche non scende sotto i 500 (ossia i costi del PP siano debitamente abbattuti) non ha nulla di così affascinante.

Grazie della risposta esauriente :)
Evidentemente hanno pensato pure loro che vega a 7 nm consumer non era conveniente e hanno cocentrato gli sforzi su navi

Avevo visto una slide dove venivano mostrati i cambiamenti sulle ncu di vega 20

Max_R
08-11-2018, 14:07
Ragazzi non quotate più paulguru/nickname88 che mi tocca leggerlo ancora nonostante in un caso sia stato bannato e nell'altro io lo abbia messo in blacklist :asd:
Fate come me e non pensateci più: che cuocia nel suo brodo ;)

bonzoxxx
08-11-2018, 14:22
aaaahh ecco che fine aveva fatto il buon paul :D :D

bonzoxxx
08-11-2018, 14:52
Verissimo, frequento molto il forum ma non abbastanza a quanto pare :D

GTKM
08-11-2018, 15:27
nickname88 è il "famoso" Paul Guru (che poi, guru di che? ) ?

Marko#88
08-11-2018, 16:00
nickname88 è il "famoso" Paul Guru (che poi, guru di che? ) ?

Si, nickname diversi, stessi post assurdi. :asd:
Ma è uno sport che va di moda nel forum... c'è chi è molto più avanti di lui. :D

Max_R
08-11-2018, 16:18
E edit continui dei post :D A pensarci è quasi divertente.. A leggerlo però mi passa :D

MiKeLezZ
08-11-2018, 21:35
Chi mi spiega cosa intendono per Double FP Performance?

FedNat
09-11-2018, 09:39
Chi mi spiega cosa intendono per Double FP Performance?

Significa che hanno raddoppiato le unità FP (mi pare da 2x128 a 2x256) raddoppiando anche le unità di load/store dedicate

nickname88
09-11-2018, 10:33
E edit continui dei post :D A pensarci è quasi divertente.. A leggerlo però mi passa :D
Vedo che continuate con queste farneticazioni.
Questa storia è nata solamente da te sulla base del nulla, se non sei convinto puoi chiedere ai mod.

A quanto pare non avete altro in mano.

bonzoxxx
09-11-2018, 11:03
Si ma stica, stiamo parlando di sistemi datacenter, non di cpu home né di sistemi gaming tantomeno di chi era cosa. Finiscila.

Se non ti interessa la discussione sei pregato di non seguirla, grazie.

Micene.1
09-11-2018, 11:15
Ed i giocatori abbandonati al competitor ... :doh:

un po le tipiche applicazioni da server...

a furia di vedere le rece su toms che testa cpu da 24 core con 10 giochi nelle prime 10 pagine dell'articolo, la gente ormai pensa che davvero ste cpu servano per i game

nickname88
09-11-2018, 11:37
un po le tipiche applicazioni da server...

a furia di vedere le rece su toms che testa cpu da 24 core con 10 giochi nelle prime 10 pagine dell'articolo, la gente ormai pensa che davvero ste cpu servano per i game
In realtà significava che fino a prova contraria Vega a 7nm per il momento è previsto solo per Radeon Instinct.
Di Epyc non ho mai parlato.

MiKeLezZ
09-11-2018, 11:54
Significa che hanno raddoppiato le unità FP (mi pare da 2x128 a 2x256) raddoppiando anche le unità di load/store dedicateForse sono stupido perché continuo a non capire. Le performance di una CPU sono date dalle sue capacità di calcolo e i calcoli possibili sono grossomodo due: interi e a virgola mobile.
Hanno detto che hanno raddoppiato le performance in virgola mobile, significa che dovremmo aspettarci IPC del 50% superiore in ogni ambito?

O semplicemente, come ora mi sovviene leggendo i numeri, si stanno riferendo al fatto che hanno ampliato le unità AVX che dai 2x 128-bit precedenti ora passano ai 2x 256-bit (eguagliando quindi Intel che in ambito server adotta le AVX da 512-bit)?

Ovviamente la prima casistica mi ha fatto fare un saldo dalla sedia, mentre della seconda non frega niente a nessuno.

calabar
09-11-2018, 12:12
In realtà significava che fino a prova contraria Vega a 7nm per il momento è previsto solo per Radeon Instinct.
No, fino a prova contraria significa che Vega a 7nm uscirà per prima nel mercato datacenter (per cui è evidente sia stata concepita), di cosa sarà dopo non si può ipotizzare nulla, ne che debba uscire sul mercato consumer, ne che non debba uscire.

Supporre che non ci sarà nulla nel mercato consumer solo perchè questa Vega è uscita prima nel mercato professionale non ha alcun senso, anche perchè non è certo in eventi come questi che si annuncia una scheda da gioco, ed è proprio questo che tanti utenti stanno cercando di dirti da quando hai commentato.

Ad ogni modo si tratta di schede che usciranno bene che vada a fine anno, Navi potrebbe non essere molto distante per cui è possibile che aspettino quest'ultimo per approdare nel mercato consumer, anche perchè mi pare evidente che questa scheda sia ancora meno adatta della sua versione precedente all'utilizzo in questo mercato.
Al più quando la produzione sarà a regime, se avranno sovrabbondanza, potrebbero decidere di far uscire qualcosa nel mercato consumer tanto per dire che hanno qualcosa di nuovo e alzare leggermente l'asticella delle prestazioni, ma comunque non mi aspetterei una rivoluzione lato gaming per questa scheda.

FedNat
09-11-2018, 13:38
Forse sono stupido perché continuo a non capire. Le performance di una CPU sono date dalle sue capacità di calcolo e i calcoli possibili sono grossomodo due: interi e a virgola mobile.
Hanno detto che hanno raddoppiato le performance in virgola mobile, significa che dovremmo aspettarci IPC del 50% superiore in ogni ambito?


A me sembrava chiaro fin dall'inizio:
La capcità di calcolo in FP è raddoppiata, di conseguenza l'IPC massimo teorico in FP aumenta del 100%. In ogni ambio dipende dal rapporto tra operazioni intere e FP e dall'eventuale aumento dell'IPC in intero

MiKeLezZ
09-11-2018, 14:14
A me sembrava chiaro fin dall'inizio:
La capcità di calcolo in FP è raddoppiata, di conseguenza l'IPC massimo teorico in FP aumenta del 100%. In ogni ambio dipende dal rapporto tra operazioni intere e FP e dall'eventuale aumento dell'IPC in interoNon è chiaro perché mi dovresti anche spiagare come tale affermazione (+100% IPC in operazioni di virgola mobile) si allinei con quella ufficiale di AMD che afferma che da Zen+ a Zen 2 è stato misurato un +13% di IPC negli ambiti scientifici (ovvero quelli che maggiormente si avvantaggiano delle performance in virgola mobile)

calabar
09-11-2018, 14:56
Non è chiaro ...
Il throughput teorico è ben differente dall'aumento reale di prestazioni. In teoria se si riuscisse a sfruttare completamente la FP (ed escludendo altri colli di bottiglia) potresti arrivare ad un raddoppio di prestazioni, ma evidentemente non è così automatico sfruttare completamente le nuove unità.

Probabilmente scrivendo qualche riga di codice ad hoc si riuscirebbe ad ottenere questo raddoppio di prestazioni, ma in applicazioni reali è molto più complesso (soprattutto se gli algoritmi usati non beneficiano di questo miglioramento).

Oltretutto quel 13% è una media, quindi magari hai applicazioni in cui non fa differenza e altre in cui magari le prestazioni aumentano del 50%.

cdimauro
10-11-2018, 09:15
Significa che hanno raddoppiato le unità FP (mi pare da 2x128 a 2x256) raddoppiando anche le unità di load/store dedicate
No, le unità di load/store sono rimaste le stesse (2 load e una store internalmente, ma "strozzate" da 2 sole unità AGU. Siccome tutte le load/store devono passare da un'AGU, a ogni ciclo di clock si possono inviare solo 2 load, oppure 1 load + 1 store per ciclo di clock), ma semplicemente (e ovviamente) adesso possono leggere o scrivere 256 bit alla volta, anziché 128, quindi raddoppiando la bandwidth.
Non è chiaro perché mi dovresti anche spiagare come tale affermazione (+100% IPC in operazioni di virgola mobile) si allinei con quella ufficiale di AMD che afferma che da Zen+ a Zen 2 è stato misurato un +13% di IPC negli ambiti scientifici (ovvero quelli che maggiormente si avvantaggiano delle performance in virgola mobile)
Premesso che non ricordo di aver letto di questo 13% in più di IPC (e sarei interessato a conoscere la fonte), ovviamente un raddoppio della dimensione delle unità di calcolo SIMD e della bandwidth non può mai comportare un raddoppio delle prestazioni SIMD del processore.

Il raddoppio in questo caso è un dato esclusivamente teorico, che non può verificarsi nella realtà (tranne che in test sintetici, eventualmente, i quali, però, non servono a nessuno).

C'è da dire che, comunque, questo di Zen2 sarebbe un ENORME miglioramento e DOVREBBE portare questo processore a rivaleggiare con Intel anche in quest'ambito (AVX & AVX-2).
Intel propone 3 unità SIMD a 256 bit e 2 unità di load + 1 di store a 256 bit, mentre AMD 4 unità SIMD a 256 bit e 2 unità di load/store, per cui le prestazioni varieranno a seconda della tipologia di codice AVX/-2 eseguito (c'è chi si avvantaggerà della maggior bandwidth disponibile dagli Intel, e chi della maggior potenza di calcolo dagli AMD).

In realtà già da qualche anno (da Skylake server) Intel mette a disposizione le AVX-512, che raddoppiano (sempre teoricamente) le prestazioni del codice SIMD, ma finché non diventeranno mainstream, e soprattutto non ci sarà software a sfruttarli, rimarrà un vantaggio di poco conto.

FedNat
10-11-2018, 11:17
No, le unità di load/store sono rimaste le stesse (2 load e una store internalmente, ma "strozzate" da 2 sole unità AGU. Siccome tutte le load/store devono passare da un'AGU, a ogni ciclo di clock si possono inviare solo 2 load, oppure 1 load + 1 store per ciclo di clock), ma semplicemente (e ovviamente) adesso possono leggere o scrivere 256 bit alla volta, anziché 128, quindi raddoppiando la bandwidth.


E' vero, ricordavo dal liveblog di anand che c'era stato un raddoppio delle capacità di load/store ma effettivamente parlava di bandwidth e non di raddoppio di unità.