PDA

View Full Version : [Thread Ufficiale] Aspettando ZEN


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103

tuttodigitale
25-07-2016, 18:31
Forse il 10nm a fine 2017...
Comunque mi pare di ricordare che per nanometrie più basse il FDSOI consente di superare i problemi di leakage*... E intel si ostina a non volerlo usare...

* il FD SOI consente una pre-polarizzazione del substrato così da poter variare, anche transistor per transistor e dinamicamente (perchè lo si fa con una tensione) la tensione di soglia... Immaginate un circuito in idle a cui magicamente, con un quarto terminale, aumenti la Vsoglia a dismisura, praticamente azzerando il leakage, oppure viceversa un circuito in attività in cui abbassi la Vsoglia al minimo, in modo da poter usare un Vcore più basso possibile, a vantaggio della potenza dinamica... Ecco... Questo consente di fare il FDSOI...
sono state spese fiumi di parole sul fd-soi, e di questo processo inizialmente previsto per i processori con architettura Steamroller, quindi squisitamente High-power, è stato soppiantato a livello di prestazioni dai 14nm FINFET Bulk...
La verità è che i FINFET sono necessari per raggiungere determinati livelli di prestazioni, con buona pace per TSMC e compagnia che prevedeva di fare bene addirittura con i 20nm HMKG...(e sappiamo quanti grattacapi ha dato la versione low power, nei SoC per smartphone)
Mi pare che GF stia sviluppando i 14nm FINFET su SOI per IBM (e forse anche per AMD):cool:
Comunque credo probabile un miscuglio di tecnlogie futuro. La cosa certa è che senza FINFET non si va da nessuna parte. O meglio o oggi, sembra un elemento imprescindibile.

Io non capisco perchè su Anand si ostinano ad essere sicuri che Zen avrà un alto FO4, senza riscontri oggettivi... GLi unici riscontri che abbiamo sono di latenze almeno pari a BD, e quindi FO4 probabilmente minore o uguale a BD... Perchè si devono ostinare a prevedere un FO4 alto? Perchè altrimenti si supererebbe INTEL?
YES :D
da parte mia, reputo i 14nm FINFET di Intel fantastici è l'architettura che sta sopra che non è al passo con tempi. :cool:


Ma il Turbo Boost 3 non dovrebbe comunque consentire di sfruttare al meglio possibile la frequenza dei singoli core?

Ti faccio presente che Bulldozer è stato presentato qualche mese dopo che Intel aveva presentato Sandy, e usando lo stesso processo produttivo (32nm).

Ma questi sono i risultati (http://www.hwupgrade.it/articoli/cpu/2997/amd-fx-8150-al-debutto-le-soluzioni-bulldozer_9.html), che si commentano da soli, considerato che perde moltissimo proprio in ambito MT.

Dunque sì: il CMT è stato un buco nell'acqua.
Direi proprio di no...è stato il 32nm SOI un buco nell'acqua per motivi già detti.

Qui c'è una aggiunta a quanto già si sa... però è interessante.

http://www.pcgamesn.com/amd-zen-idle-power

i consumi mi appaiono un pò alti o sbaglio per soli 550MHz. :rolleyes:

[QUOTE=bjt2;43879590]Se le frequenze di clock di Zen non sono almeno 4GHz base, tanto valeva fare uno shrink di BR... Ma proprio non ci arrivano? AMD ha dichiarato che competeranno anche con le prestazioni... Come si può competere con 2.8GHz?!?! Con il ragionamento di questi geni, siccome l'ES del 10 core INTEL girava a 2.2GHz, allora in produzione non doveva superare i 2.4... E invece fa i 3GHz... Ed è una architettura collaudata su processo collaudato... Figuriamoci una architettura nuova su processo nuovo... E' uno step A0, cavolo... Il primo funzionante... E si fermerebbero li?
infatti considerate che un 4 moduli XV a netto degli MC, consumano appena 10W, ma ad 1,7GHz...e quindi virtualmente <7W sui 14nm...e quindi <14W per un ipotetico 16 core..a 550MHz, a parità di tensione (non necessaria) sarebbero appena 4,5W....quindi mi aspetterei 2,5 per un 16 core XV/8 core ZEN.

3,2GHz di turbo boost sarebbero paragonabili ad un 4,5GHz XV.... tra cambio processo e architettura AMD guadagnerebbe solo il 4% nel ST :rolleyes:

mi sembra tantino...

http://www.xbitlabs.com/articles/cpu/display/fx-8350-8320-6300-4300_8.html

qua consuma miseri 8W più di un pentium ivy bridge, considerando la piattaforma obsoleta con NB separato che consuma abbastanza
infatti, le cpu bullldozer/piledriver consumano meno di SB e IB in idle

https://tpucdn.com/reviews/AMD/FX-8350_Piledriver_Review/images/power_eps.gif
ripeto che i 5W mi sembrano tantini per ZEN x8.


Il GOMBLODDO è far credere che un 8 core Zen andrà max a 2.8GHz a 95W, quando un SoC low power con 8 core ARM e una GPU da 122GFLOPs con un TDP totale di meno di 3 W ha clock di 2.5GHz... :O

un ASIC, se vediamo un custom, c'erano SoC che giravano a 2,7GHz turbo sui 28nm ed erano freschi..:D (lo snapdragon 801 non vi dice niente?:cool: )

Mancavano giusto le Supposte. :sofico:

Li voglio proprio vedere sti 4ghz(base clock)/95w 8core.:asd:

ps. aggiungete i watt alle vostre previsioni in prima pagina, altrimenti so boni tutti... ;)
Ma guarda nvidia (non AMD) mi ha dato ragione....abbassare il FO4 per aumentare le frequenze (le GPU nvidia operano a 1,05V questo indicativamente sta a significare che le GPU AMD hanno un FO4 superiore del 70%) è estremamente vantaggioso sui finfet...
Lo ripeto, a mio giudizio, è skylake ad essere inadeguata...ZEN potrebbe battere skylake proprio nel ST.:cool:
Se ha abbassato il fO4 nvidia, e lo ha fatto a meno che non si pensi ad una riduzione del gate delay impressionante e poco credibile ad 1V dal passaggio dai 28 ai 16nm, a maggior ragione si deve farlo per la CPU...:read:

Nemmeno davanti alla realtà vi svegliate, tant'è che BD è un capolavoro stroncato da un altro complotto...:sofico:

Siete uno spasso.:D


ps. spero siate almeno azionisti...
BD è una SIGNORA architettura.
quello che molti non vogliono capire,che 82% di efficienza in più di Intel dai 45 ai 32nm è dipeso dal 88% dal silicio

mentre per IBM, il miglioramento "stratosferico" di efficienza del 15% è merito del 6 % dal silicio...

fa tu le proporzioni....la verità è che il silicio AMD/IBM (anche il 22nm non brilla...) è paragonabile ai 45nm low-k usati in Thuban..

bjt2
25-07-2016, 18:37
http://forums.anandtech.com/showpost.php?p=38380969&postcount=2455

LPP+ is exclusive to GlobalFoundries. It will use the techniques described in these patents;
http://www.google.com/patents/US20140159162
http://www.google.com/patents/US20140159163

LPP => Samsung/GlobalFoundries
LPP+ => GlobalFoundries [SSRW]
HP => GlobalFoundries [SOI]


Interessante...

bjt2
25-07-2016, 18:43
Riporto un PVT di gridracedriver, che è impossibilitato a postare... :D (per i mod: è una mia iniziativa, non me lo ha chiesto lui)


Quote:
Originariamente inviato da gridracedriver
Ciao

per le stesse prestazioni abbiamo che:

+25% clock per lo stesso vcore ( 1.25 vs 1.0 ghz a 1.1v )

+65% perf/watt ( 160 vs 265 watt )

+75% transistor/mmq ( 24.57 M vs 14.15 M a mmq ) o ( 5.7 B in 232mmq con 2mb di L2 vs 6.2 B in 438mmq e 0.5mb di L2 )

interpreta tu questi dati



Sono sicuramente ottimi, ma ad alta frequenza c'è un ritorno inferiore e quindi mi aspetto al max un 10-15% di clock in più a parità di transistors e potenza, per le CPU più tirate... Se il FO4 è lo stesso...
Poichè Zen X8 dovrebbe essere come un XV X16, quindi dobbiamo vedere un XV X4 25W. Ma questo non è molto tirato, quindi un +25% si può ipotizzare, ma a parità di consumo (comunque una CPU è più tirata di una GPU) e non con consumo -65%...

E mi sono tenuto largo... :sofico:
Inoltre la RX480 non è molto tirata ed è su un processo poco maturo... Mentre la 290 è su un processo maturo...
C'è da ben sperare per Zen...

Se si applicasse invece +25% di clock e -65% di potenza, dovremmo prendere il clock di un XV da 55-60W e aggiungere il 25%...

Quindi ricapitolando:

la frequenza di Zen dovrebbe essere compresa tra quella di:

XV X4 25W +25% e
XV X4 60W +25%

Chi cerca i dati e fa il calcolo? :D

Free Gordon
25-07-2016, 19:01
Dai... :sofico: tra un mesetto scarso avremo info migliori da quel simposio sulle cpu in Texas (o sbaglio?)

Teniamo a bada le scimmie, pleaseeeee!!!! :oink: :oink: :oink:

tuttodigitale
25-07-2016, 19:06
Riporto un PVT di gridracedriver, che è impossibilitato a postare... :D (per i mod: è una mia iniziativa, non me lo ha chiesto lui)




Sono sicuramente ottimi, ma ad alta frequenza c'è un ritorno inferiore e quindi mi aspetto al max un 10-15% di clock in più a parità di transistors e potenza, per le CPU più tirate... Se il FO4 è lo stesso...
Poichè Zen X8 dovrebbe essere come un XV X16, quindi dobbiamo vedere un XV X4 25W. Ma questo non è molto tirato, quindi un +25% si può ipotizzare, ma a parità di consumo (comunque una CPU è più tirata di una GPU) e non con consumo -65%...

E mi sono tenuto largo... :sofico:
Inoltre la RX480 non è molto tirata ed è su un processo poco maturo... Mentre la 290 è su un processo maturo...
C'è da ben sperare per Zen...

Se si applicasse invece +25% di clock e -65% di potenza, dovremmo prendere il clock di un XV da 55-60W e aggiungere il 25%...

Quindi ricapitolando:

la frequenza di Zen dovrebbe essere compresa tra quella di:

XV X4 25W +25% e
XV X4 60W +25%

Chi cerca i dati e fa il calcolo? :D
siamo nel range 3 -4GHz: 3,7- 5 GHz...

alla fine la previsione di 4,3GHz base non sembra così azzardata :D

tuttodigitale
25-07-2016, 19:20
se fosse 40w@3.8 per 8 core non credo che non supererebbe i 4ghz entro i 65/95w.
invece l'opteron x16 80w@3.8 se la baterebbe con gli ultimi 8 core della concorrenza, consumando abbastanza meno.

quindi secondo te Zen desktop sarà con le HPL? e opteron? HDL?
se posson aggiungere. le HPL (10.5T) dei 14nm è una sorta di ibrido tra le HDL (9T) e le HPL (12T) viste sui 28nm.
Da alcune slide Samsung/Arm, c'era il confronto tra le 9t e le 12t (che non esistono e dalla slide si capisce il motivo :D )

http://n.mynv.jp/articles/2015/02/24/carrizo/images/Photo004l.jpg

se le HDL e le HPL su 28nm hanno prestazioni identiche a 3 GHz, sui 14 nm le HDL tengono bene fino a 4 GHz...il problema pare che superata questa soglia i consumi con queste librerie salgono in maniera assai repentina, forse persino più di quanto visto su 28nm..credo che le HPL (10,5 T, una via di mezzo) saranno necessarie per avere frequenze base e turbo assai distanti.....da questa slide infine, appare evidente che al contrario del passato non sembrano esserci vantaggi grossi nell'adottare le HDL a "basse" frequenza (a 2,5 GHz ad occhio le 12 T consuma solo il 10% in più) e se consideriamo che le HPL sono 10,5T, questo vantaggio è praticamente azzerato. Ovviamente rimane il vantaggio della riduzione delle dimensioni, ma anche in questo caso assai minore a causa dell'"ibridazione" della libreria ad alte prestazioni.
IMHO, si va di HPL.

bjt2
25-07-2016, 19:28
se posson aggiungere. le HPL (10.5T) dei 14nm è una sorta di ibrido tra le HDL (9T) e le HPL (12T) viste sui 28nm.
Da alcune slide Samsung/Arm, c'era il confronto tra le 9t e le 12t (che non esistono e dalla slide si capisce il motivo :D )

http://n.mynv.jp/articles/2015/02/24/carrizo/images/Photo004l.jpg

se le HDL e le HPL su 28nm hanno prestazioni identiche a 3 GHz, sui 14 nm le HDL tengono bene fino a 4 GHz...il problema pare che superata questa soglia i consumi con queste librerie salgono in maniera assai repentina, forse persino più di quanto visto su 28nm..credo che le HPL (10,5 T, una via di mezzo) saranno necessarie per avere frequenze base e turbo assai distanti.....da questa slide infine, appare evidente che al contrario del passato non sembrano esserci vantaggi grossi nell'adottare le HDL a "basse" frequenza (a 2,5 GHz ad occhio le 12 T consuma solo il 10% in più) e se consideriamo che le HPL sono 10,5T, questo vantaggio è praticamente azzerato. Ovviamente rimane il vantaggio della riduzione delle dimensioni, ma anche in questo caso assai minore a causa dell'"ibridazione" della libreria ad alte prestazioni.
IMHO, si va di HPL.

Guarda il loghetto in basso a destra... :D
A 4GHz esplode il consumo per una CPU ARM, che è ASIC e ad alto FO4... :D
Ma Zen non lo è... :D
E poi ho postato prima un link in cui GF ha il LPP+... :D
E infine esistono gli sLVT, non in figura... :D

tuttodigitale
25-07-2016, 19:42
Guarda il loghetto in basso a destra... :D
A 4GHz esplode il consumo per una CPU ARM, che è ASIC e ad alto FO4... :D
Ma Zen non lo è... :D
E poi ho postato prima un link in cui GF ha il LPP+... :D
E infine esistono gli sLVT, non in figura... :D
detta così appaiono possibili anche i 6GHz sotto liquido....:sofico:

PS notare come abbia detto che le 12T non servono e che le 10.5 siano obbligatorie..in pratica cadendo in contraddizione...:muro:

Nui_Mg
25-07-2016, 19:47
Questa altra non ufficiale (http://www.guru3d.com/news-story/ams-zen-engineering-sample-specs-leaked.html) del 20 luglio era già stata postata qua?

capitan_crasy
25-07-2016, 20:14
Questa altra non ufficiale (http://www.guru3d.com/news-story/ams-zen-engineering-sample-specs-leaked.html) del 20 luglio era già stata postata qua?

Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=43875658&postcount=4732)

bjt2
26-07-2016, 13:52
Il nostro Leoneazzurro si è iscritto su anand... :asd:
Ha già dato del troll a uno sul thread di Zen... :asd:

bjt2
26-07-2016, 13:55
ehila :)

di confronto possiamo dire che il pp di tsmc ad nvidia ha permesso il +50% di clock per le stesse caratteristiche ovvero +65% perf/watt e +70% di transistor/mmq

ora, magari dico io GF sa fare meglio le cpu che le gpu, dato che vorrei ricordare non sono affatto la stessa cosa proprio per motivi di densità ed esperienza sul campo, GF non ha mai fatto GPU di quelle caratteristiche, ma solo per APU o low budget.

tu mi dici che a "frequenza alta" le cose cambiano, ma io dico che c'entra il vcore però, cioè a 1.1v l'aumento è nell'ordine del +25%, e 1.1v sono le tensioni delle cpu intel sul ff bulk a clock default e presumibilmente saranno anche le tensioni di Zen se vuoi mantenere il tdp ed i consumi contenuti.

esiste l'athlon 845 che è excavator/carrizo in 65watt a 3.5/3.8 ghz, ma è tirato per i capelli a quella frequenza, cioè sfrutta tutto il TDP disponibile.

+25% vorrebbe dire 4.40/4.75 ghz in 40watt (+65% perf/watt) per un X4 Zen senza L3, fai 65watt con L3 e quindi un X8 con L3 potrebbe rientrare in 125watt per 4.40/4.75ghz, ovvimanete a parità di FO4.

a guardare questi dati non mi sembra affatto un utopia i 3.7ghz in 95watt per l'X8 Zen, ma mi terrei più largo o per il tdp o a ribasso per la frequenza.

io nel pronostico avevo detto:

IPC ~90% BW (CineBench r11.5/r15)
SMT +50% (CineBench r11.5/r15)
TDP 125w Zen 8c/16th Top
3.7ghz def
4.2ghz turbo

ovviamente per l'X8 Zen ;)

Hai ragione... Non avevo considerato che per l'esplosione del leakage conta solo il Vcore e la temperatura... :doh:
La frequenza dipende indirettamente dal FO4...
I tuoi calcoli sono interessanti... Non contraddicono la mia previsione di 4GHz a 95W... :O

leoneazzurro
26-07-2016, 16:01
Il nostro Leoneazzurro si è iscritto su anand... :asd:
Ha già dato del troll a uno sul thread di Zen... :asd:

Beh ma scusa, se sulle slide di marketing AMD scrive "fino a 1,7x" performance dovuta al processo, scrivendo poi come sono state ottenute determinate cifre (paragone di 470 vs 270X su determinati benchmark) e uno poi prende a paragone la Fury (che ha un subsistema di memoria vastamente superiore) dicendo che il miglioramento (magari ad alta risoluzione con AA) è molto inferiore al 70% e quindi Zen sarà un disastro, che gli avresti detto?
Io non si se Zen sarà un successo, un flop o qualcosa nel mezzo. So però che mettersi a fare paragoni mele con arance per sostenere una tesi non è un buon modo di discutere.
E cercare di ricavare dati su Zen paragonando due schede grafiche con bottleneck profondamente diversi è problematico.

bjt2
26-07-2016, 16:58
Beh ma scusa, se sulle slide di marketing AMD scrive "fino a 1,7x" performance dovuta al processo, scrivendo poi come sono state ottenute determinate cifre (paragone di 470 vs 270X su determinati benchmark) e uno poi prende a paragone la Fury (che ha un subsistema di memoria vastamente superiore) dicendo che il miglioramento (magari ad alta risoluzione con AA) è molto inferiore al 70% e quindi Zen sarà un disastro, che gli avresti detto?
Io non si se Zen sarà un successo, un flop o qualcosa nel mezzo. So però che mettersi a fare paragoni mele con arance per sostenere una tesi non è un buon modo di discutere.
E cercare di ricavare dati su Zen paragonando due schede grafiche con bottleneck profondamente diversi è problematico.

Scusa, dovevo essere chiaro... Non ridevo di te, ma con te... :asd: A me sembrano solo un insieme di INTEL fanboy con i paraocchi... Hai fatto bene ad iscriverti... Hai perfettamente ragione...
Su semiaccurate son peggio... Peccato che le iscrizioni li sono chiuse... Ho dovuto usare dresdenboy come tramite... :asd:

leoneazzurro
26-07-2016, 18:10
A me non interessa la diatriba Intel/AMD o AMD/Nvidia. A me interessa la tecnologia in se'. E' indubbio che Intel abbia rilasciato prodotti superiori a quelli di AMD negli ultimi anni, da qui pero' a stablire che ogni cosa che fa AMD deve essere uno schifo, prima che esca e basandosi su un confronto tra mele e arance per speculare sulle banane ce ne passa. Io sono critico, non penso che magicamente AMD, dati anche i mezzi di cui dispone, tirera' fuori qualcosa tipo l'athlon 64 contro P4, anche perche' Intel non e' nella posizione di quando aveva tirato fuori l'architettura Netburst. Mi auguro pero' che ridiventi competitiva in tutte le fasce di mercato, cosi' da beneficiare tutta l'utenza.

bjt2
26-07-2016, 19:18
A me non interessa la diatriba Intel/AMD o AMD/Nvidia. A me interessa la tecnologia in se'. E' indubbio che Intel abbia rilasciato prodotti superiori a quelli di AMD negli ultimi anni, da qui pero' a stablire che ogni cosa che fa AMD deve essere uno schifo, prima che esca e basandosi su un confronto tra mele e arance per speculare sulle banane ce ne passa. Io sono critico, non penso che magicamente AMD, dati anche i mezzi di cui dispone, tirera' fuori qualcosa tipo l'athlon 64 contro P4, anche perche' Intel non e' nella posizione di quando aveva tirato fuori l'architettura Netburst. Mi auguro pero' che ridiventi competitiva in tutte le fasce di mercato, cosi' da beneficiare tutta l'utenza.

Il problema sono i paraocchi... Se un SoC ARM 8 core più NB, SB e GPU da 122GFLOPS sta sotto i 3W a 2.5GHz, con il FO4 enorme che ha, non vedo perchè un octacore Zen da 2.8GHz debba consumare 95W...
Danno per scontato che la frequenza dell'ES sarà anche quella finale...
Non può essere che AMD si nasconde?
Oppure più semplicemente, visto che c'è il doppio salto processo/architettura, ci vanno con i piedi di piombo?
No. AMD non supererà i 3GHz con un 8 core, perchè INTEL non li supera.
Punto.

leoneazzurro
26-07-2016, 19:25
Io semplicemente penso che sapremo quanto andra' zen quando uscira'. Fare previsioni basandosi sugli ES e' fallace, aspettarsi troppo altrettanto.

davo30
26-07-2016, 19:55
Il problema sono i paraocchi... Se un SoC ARM 8 core più NB, SB e GPU da 122GFLOPS sta sotto i 3W a 2.5GHz, con il FO4 enorme che ha, non vedo perchè un octacore Zen da 2.8GHz debba consumare 95W...
Danno per scontato che la frequenza dell'ES sarà anche quella finale...
Non può essere che AMD si nasconde?
Oppure più semplicemente, visto che c'è il doppio salto processo/architettura, ci vanno con i piedi di piombo?
No. AMD non supererà i 3GHz con un 8 core, perchè INTEL non li supera.
Punto.
Fai i conti senza l'oste, ossia i miracolosi processi produttivi di Globalfounfries. Fatti un giro sul thread dei meme di bitsandchips e vedi quanto li perculano!

PS. Come mai li non ti sei ancora iscritto? Troveresti pane per i tuoi denti (in senso positivo)

Inviato dal mio XT1092 utilizzando Tapatalk

bjt2
26-07-2016, 22:16
Fai i conti senza l'oste, ossia i miracolosi processi produttivi di Globalfounfries. Fatti un giro sul thread dei meme di bitsandchips e vedi quanto li perculano!

PS. Come mai li non ti sei ancora iscritto? Troveresti pane per i tuoi denti (in senso positivo)

Inviato dal mio XT1092 utilizzando Tapatalk

Non frequento b&c... Non sapevo neanche avesse un forum...

Seguo qui, anand e semi. Stop...

Cercai su google i thread di zen più frequentati ed ho iniziato a scremare quelli poco frequentati o senza dibattiti significativi e sono rimasti solo quei due... Ad esempio toms, sia in inglese che italia, li ho scartati...

davo30
26-07-2016, 22:28
Non frequento b&c... Non sapevo neanche avesse un forum...

Seguo qui, anand e semi. Stop...

Cercai su google i thread di zen più frequentati ed ho iniziato a scremare quelli poco frequentati o senza dibattiti significativi e sono rimasti solo quei due... Ad esempio toms, sia in inglese che italia, li ho scartati...
Male, ti posso assicurare che è un'ottimo sito e anche un buon forum, e ci sono due o tre elementi decisamente preparati. Grid può confermare...

Inviato dal mio XT1092 utilizzando Tapatalk

Free Gordon
26-07-2016, 22:49
Mi auguro pero' che ridiventi competitiva in tutte le fasce di mercato, cosi' da beneficiare tutta l'utenza.

:flower:

tuttodigitale
27-07-2016, 07:29
ehila :)

di confronto possiamo dire che il pp di tsmc ad nvidia ha permesso il +50% di clock per le stesse caratteristiche ovvero +65% perf/watt e +70% di transistor/mmq


nvidia ha ridotto sensibilmente il fo4. Pascal gira a 1,8GHz con 1,05V. Qualcuno su questo thread aveva ipotizzato per ZEN 4GHz ad 1-1,1V:Prrr:


esiste l'athlon 845 che è excavator/carrizo in 65watt a 3.5/3.8 ghz, ma è tirato per i capelli a quella frequenza, cioè sfrutta tutto il TDP disponibile.
più che TDP (il 845 gira a 3,8GHz, praticamente sempre), è il silicio appesantito dalle HDL ad essere cotto...Carrizo ha un vcore default superiore a 1,4V....(ps anche gli 1,35V di Kaveri sono pazzeschi per un'architettura come steamroller....:rolleyes: )

capitan_crasy
27-07-2016, 09:26
più che TDP (il 845 gira a 3,8GHz, praticamente sempre), è il silicio appesantito dalle HDL ad essere cotto...Carrizo ha un vcore default superiore a 1,4V....(ps anche gli 1,35V di Kaveri sono pazzeschi per un'architettura come steamroller....:rolleyes: )

Storicamente il Vcore sulle frequenze max di AMD è sempre stato fin troppo generoso e considera che 845 è una APU excavator fallata quindi non è certo il massimo della qualità...

Theodorakis
27-07-2016, 12:43
Fai i conti senza l'oste, ossia i miracolosi processi produttivi di Globalfounfries. Fatti un giro sul thread dei meme di bitsandchips e vedi quanto li perculano!


Trovato :asd:

http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=9273

marchigiano
27-07-2016, 13:33
ma se questi ES girano oramai da settimane... anche a frequenze castrate... nessuno ci fa girare 2 bench? :muro:

capitan_crasy
27-07-2016, 14:17
ma se questi ES girano oramai da settimane... anche a frequenze castrate... nessuno ci fa girare 2 bench? :muro:

E già, chissà perchè...:doh: :asd:

digieffe
27-07-2016, 14:50
E già, chissà perchè...:doh: :asd:

forse i risultati non sono dei migliori come in BD?

tuttodigitale
27-07-2016, 14:55
ma se questi ES girano oramai da settimane... anche a frequenze castrate... nessuno ci fa girare 2 bench? :muro:
a me pare un mezzo miracolo che un progetto nuovo giri a ben 2,8GHz...l'A0 è il primissimo silicio fabbricato un anno fa....se già stavano a 2,8GHz cosa dovremmo attendere: 6GHz di turbo core?:sofico:


il confronto con gli ES di bulldozer e k8, regge fino ad un certo punto, in quanto erano già stati messi su silicio anni prima della effettiva disponibilità del processo produttivo per cui sono stati progettati.

A meno che AMD non abbia messo ZEN sui 28nm bulk (ma nelle attuali condizioni economiche dubito che possa mettere su silicio un prodotto che non sarà commercializzato, come fa Intel e come faceva AMD diversi anni fa..), dubito che si possa ottenere un prodotto con quelle caratteristiche assai spinte...

capitan_crasy
27-07-2016, 15:29
forse i risultati non sono dei migliori come in BD?

Vediamo un po:
Primo elemento è il tipo di ES.
Ci sono degli ES, sicuramente funzionanti e sicuramente in grado di fare dei bench.
Se questi ES non lasciano le mura di AMD qualsiasi numero facciano rimarrà per sempre nell'oblio, che vadano come una mina atomica oppure che siano delle chiaviche d'antologia.
Quello che ci serve sono degli ES destinati a terzi ma non tutti faranno bench perchè in base al loro scopo non avrebbe senso e sarebbe una perdita di tempo!
Di solito i destinatari sono i produttori OEM per lo sviluppo o il testing di determinate piattaforme da mettere eventualmente in commercio; in questo caso ci possono essere anche i produttori di schede mamme ma in questo caso serve un livello di sviluppo del ES molto avanzato o quasi giunto alla fine.
Infine ci sono ES che praticamente sono quelli definitivi e che precedono quelli prodotti in volumi per la vendita.
Secondo elemento sono le schede mamme e dato che per ZEN ci vuole il socket AM4 anche ad avere in mano un ES ZEN come caspita lo provi???:asd:
In poche parole per avere qualcosa di concreto in ambito di numeri occorre un ES che precede la produzione in volumi, una scheda mamma retail "definitiva" AM4, un BIOS degno di questo nome, qualcuno che non sia il classico fognone cinese, o un dannato bimbo minchia in cerca di notorietà ma che capisca cosa ha per le mani e che i bench non siano super PI e puttanate varie.
Insomma è presto per avere i numeri reali di ZEN, non abbiamo neanche la certezza che il socket AM4 esca per il "Back to School" e AMD deve ancora (presumibilmente) concludere lo sviluppo del silicio...

paolo.oliva2
27-07-2016, 15:45
Partiamo dal fatto che AMD con Zen punta decisamente come server (Opteron) e che il desktop è un riciclo di die.
Può AMD spendere per realizzare una architettura ex-novo quando nell'MT, considerando stesso clock di BD e un SMT +30%, praticamente andrebbe quanto XV?
Se focalizziamo su questo, supporre addirittura Zen 3GHz (o anche meno) rispetto a XV 4GHz, vorrebbe dire perdere TUTTO il vantaggio in ST e addirittura risultare in MT molto meno performante di XV.
Inoltre, se AMD avesse optato per XV 14nm, l'avremmo già in commercio, come per l'ultima VGA 14nm.

In ogni caso il vero vantaggio di AMD è che Zen è al passo con i tempi, numero di core proporzionato al 14nm (95W per un 4 core, quando con gli stessi Watt puoi far girare con un'efficienza di gran lunga migliore un maggior numero di core con potenze ben superiori), prezzato proporzionalmente al silicio 14nm (un X8 14nm costa meno rispetto ad un X4 32nm).
La ciliegina sulla torta può essere l'FO4 17, perchè se Zen avrà lo stesso FO4 di BD (magari pure più basso), è perchè AMD sa bene quanto ha influito il PP del 32nm sulle frequenze di BD.

paolo.oliva2
27-07-2016, 16:16
Vediamo un po:
Primo elemento è il tipo di ES.
Ci sono degli ES, sicuramente funzionanti e sicuramente in grado di fare dei bench.
Se questi ES non lasciano le mura di AMD qualsiasi numero facciano rimarrà per sempre nell'oblio, che vadano come una mina atomica oppure che siano delle chiaviche d'antologia.
Quello che ci serve sono degli ES destinati a terzi ma non tutti faranno bench perchè in base al loro scopo non avrebbe senso e sarebbe una perdita di tempo!
Di solito i destinatari sono i produttori OEM per lo sviluppo o il testing di determinate piattaforme da mettere eventualmente in commercio; in questo caso ci possono essere anche i produttori di schede mamme ma in questo caso serve un livello di sviluppo del ES molto avanzato o quasi giunto alla fine.
Infine ci sono ES che praticamente sono quelli definitivi e che precedono quelli prodotti in volumi per la vendita.
Secondo elemento sono le schede mamme e dato che per ZEN ci vuole il socket AM4 anche ad avere in mano un ES ZEN come caspita lo provi???:asd:
In poche parole per avere qualcosa di concreto in ambito di numeri occorre un ES che precede la produzione in volumi, una scheda mamma retail "definitiva" AM4, un BIOS degno di questo nome, qualcuno che non sia il classico fognone cinese, o un dannato bimbo minchia in cerca di notorietà ma che capisca cosa ha per le mani e che i bench non siano super PI e puttanate varie.
Insomma è presto per avere i numeri reali di ZEN, non abbiamo neanche la certezza che il socket AM4 esca per il "Back to School" e AMD deve ancora (presumibilmente) concludere lo sviluppo del silicio...

Condivido completamente quanto hai scritto, però, per me, AMD deve aver applicato una NDA ferrea. Dico questo perchè all'epoca di BD praticamente erano usciti bench Su ES B1 sicuramente, ma anche su B0 (forse), su B2 poi ne era piena la rete.

Intel ha spostato sky-lake ai primi mesi del 2017, quindi per AMD ottobre, dicembre 2016 o gennaio 2017 cosa cambierebbe?

Invece a me fa riflettere il caso BR. Il 28nm è rodatissimo, BR non è altro che una rivitalizzazione di Carrizo... quindi se presenti BR a giugno, di certo non puoi presentare un qualche cosa che necessita di un altro step, ma un prodotto che è lì lì per la produzione in volumi. Sono passati 2 mesi tondi... aggiungici pure agosto perchè tanto è tutto fermo, perchè sto stop di 3 mesi?
Perchè nessun produttore di mobo pubblicizza le AM4?

A me viene da pensare che AMD non vuole commercializzare BR per non scoprire la mobo AM4, perchè (credo) scoprirebbe qualche cosa su Zen, e di qui il passo è breve per ipotizzare una NDA ferrea con tanto di penali salate.

paolo.oliva2
27-07-2016, 19:04
Chi li produce i 28nm di AMD?

Sempre GF e sempre alla FAB di Dresda, dove si farebbero pure i 14nm.
Ma la FAB di New-York, quella dove si sarebbero dovuti fare i 22nm SOI, che fine ha fatto?

capitan_crasy
27-07-2016, 19:53
Chi li produce i 28nm di AMD?

GF produce gli FX 32nm SOI, le APU Carrizo/Godavari/Kaveri a 28nm BULK e le GPU Polaris a 14nm Finfet; mentre TSMC produce Jaguar a 28nm BULK, le GPU a 28nm e alcune APU semi custon...

el-mejo
27-07-2016, 20:55
GF produce gli FX 32nm SOI, le APU Carrizo/Godavari/Kaveri a 28nm BULK e le GPU Polaris a 14nm Finfet; mentre TSMC produce Jaguar a 28nm BULK, le GPU a 28nm e alcune APU semi custon...

Aggiungo che alcuni dei progetti a 14nm (al momento non si sà quali) verranno anche prodotti dalle fonderie Samsung poichè Amd ha già saturato la produzione di GloFo

http://www.bitsandchips.it/50-enterprise-business/7287-troppi-ordini-in-arrivo-per-amd-si-produrra-anche-presso-samsung

Piedone1113
27-07-2016, 22:59
Aggiungo che alcuni dei progetti a 14nm (al momento non si sà quali) verranno anche prodotti dalle fonderie Samsung poichè Amd ha già saturato la produzione di GloFo

http://www.bitsandchips.it/50-enterprise-business/7287-troppi-ordini-in-arrivo-per-amd-si-produrra-anche-presso-samsung
Questa è un ottima notizia.
Zen dovrebbe essere competitiva allora.

Inviato dal mio GT-I9505 utilizzando Tapatalk

Free Gordon
27-07-2016, 23:21
Può essere che in questo carnaio di produzione ne stia facendo le spese BR con difficoltà a far volume?
Sent from Tapatalk

Se si trovano nella situazione di decidere che cosa produrre prima per riuscire a vendere di più, col margine più alto...sono messi bene.. :asd:

Le 470 le vediamo a Ottobre, Vega lo vediamo a Marzo prossimo e Zen si mangerà tutti i wafer disponibili da GF....

capitan_crasy
28-07-2016, 00:24
Non pensiate che AMD non abbia già previsto questa mole di produzione ne tanto meno GF saturi così facilmente le sue linee produttive (la fab 8 di New York ormai è in pieno regime).
Tutto questo era stato messo a tavolino prima che i 14nm entrassero in produzione e se AMD ha chiesto aiuto a Samsung non ci vedo niente di strano dato che utilizza il suo processo produttivo...

davo30
28-07-2016, 00:43
Senza contare che Amd ha strappato un costo estremamente vantaggioso con GF (anxhe in seguito alla merdazza che gli ha rifilato per anni) MA con l'obbligo di acquistare almeno un tot di wafer al mese. Se Amd non raggiunge quel numero dovrebbe pagare delle penali....

Inviato dal mio XT1092 utilizzando Tapatalk

Ren
28-07-2016, 00:52
Le 470 le vediamo a Ottobre, Vega lo vediamo a Marzo prossimo e Zen si mangerà tutti i wafer disponibili da GF....

Che bella novità...:p loacker che bontà... (Free me l'hai servita su un piatto d'argento :sofico: )

http://shopitalyonline.com/images//chocolate/Loacker/Napolitaner_Wafer_90g.jpg

cdimauro
28-07-2016, 05:51
sinceramente non riesco a capire lo scenario che è in atto qui.
Qualcuno pensa che alcuni fanboy Intel vengano pagati per spalare letame dal giorno alla notte contro AMD.
"medio un po'": è risaputo che il 32mn soi è uno tra i peggiori PP di GF, insieme al 65mn. (questo era uno degli equivoci)

qualcuno ti spieghera meglio ed in dettaglio, ma "maccheronicamente" ciò che sul 45mn girava a 3.8 sul 32mn girava a 2.9 (o 3.0?). Sul 32nm cerano anche altri component gpu, ecci, fatto sta che andava meno del 45.
C'è qualcosa che non quadra. Il Phenom-II a 45nm è arrivato a 3,7Ghz, mentre Bulldozer a 32nm (SOI) è stato introdotto a 3,6Ghz e in turbo arrivava a 4,2Ghz.

Quindi la differenza 32 vs 45nm è -100Mhz (frequenza base) / +500Mhz (turbo).

Inoltre bjt2 ha affermato pure che:

"Perchè sul 32nm SOI riesce a salire fino a 5GHz.."

e infatti con Piledriver i valori si arriva a 4,7Ghz/5Ghz (turbo), però con un power budget spaventoso: 220W per la piattaforma.

Mentre per i 125W (che è simile ai 130W delle soluzioni top di Intel) abbiamo 4Ghz/4,3Ghz (turbo).

Dunque la differenza 32 vs 45nm in quest'ultimo caso diventa +300Mhz (frequenza base. 3,7Ghz di riferimento) / +600Mhz (turbo).

Se, invece, guardiamo a Intel e hai suoi 32nm BULK, limitandoci a 4 core abbiamo che Westmere (die shrink di Nehalem) è arrivato a 3,6Ghz (piattaforma EP), mentre Sandy Bridge è stato introdotto a 3,4Ghz/3,8Ghz(Turbo) ed è arrivato al massimo a 3,5/3,9.

Nehalem, a 45nm, è arrivato a 3,33Ghz.

Quindi la differenza 32 vs 45nm è +267Mhz (frequenza base. 3,6Ghz per i 45nm) / +567Mhz (turbo).

Mi pare che le rese del passaggio 45 -> 32nm per AMD e Intel sia molto simile.
Ciao.

Non si chiede precisione ed accuratezza ma uno a gennaio 2011 ed uno ad ottobre 2011.
9 mesi di differenza, ok, ma è uno svantaggio? Hai 2 tapeout (1 tapeout = 3 mesi circa) per cambiare qualcosa al tuo progetto dopo aver visto quello che è in grado di fare la concorrenza. Anzi, ci sarebbe pure un terzo tapeout se presenti un ES ai partner (per potere cominciare a lavorarci) dopo il secondo tapeout, e col terzo sistemi i bug per la versione finale.
Poi di altra imprecisione, a mio parere io la vedrei anche qui:

Bah a mio parere personale non credo che si possa utilizzare la parola ''mangia'' perchè ad esempio in ambito multi-task tra bulldozer e sandy non vedo affatto nessuna superiorità sempre parlando di vari aspetti tecnici di un processore.
In secondo luogo se proprio dobbiamo essere precisi, escluso il single-threads, se paragoniamo sandy a piledriver in ambito multi-thread non vedrei nessuna superiorità in multi-threads...e sempre sul 32nm siamo per entrambi.
In ambito multitask:read: ti inviterei a leggere qui:
http://www.hwupgrade.it/forum/showpost.php?p=39584540&postcount=348
Qui c'è stata la richiesta:http://www.hwupgrade.it/forum/showpost.php?p=39335449&postcount=6306
http://www.hwupgrade.it/forum/showpost.php?p=39336556&postcount=6300
Qui la risposta:
http://www.hwupgrade.it/forum/showpost.php?p=39338427&postcount=6302
http://www.hwupgrade.it/forum/showpost.php?p=39342701&postcount=6313
......ovviamente non se visto nessuna prova a confutare l'ipotesi o argomentazione....come te lo spiegheresti?....chi sarebbe superiore in quest'ambito?
Ho già postato il link coi test su Bulldozer, che sono abbastanza chiari e realizzati da un professionista (Corsini). Se a qualcuno non piace Hwupgrade (allora non capisco cosa ci farebbe ancora qui), c'è sempre la recensione di AnandTech (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/5), che peraltro ha benchmark molto diversi in generale (solo alcuni usano le stesse applicazioni).

Non m'interessano le prove di singoli utenti.
Il cmt di per se è solo un astrazione filosofica a mio parere ma non nasce per caso ma in un ottica di integrazione per le future APU amd ed non è una scelta certamente vincente in ambito desktop ma in ambito apu amd di certo non è peggiorato nelle evoluzioni di codeste.
Non vedo come possa aver migliorato, visto che le APU integrano una GPU, ma il core della CPU è lo stesso. Anzi, il power budget nelle APU va diviso fra le due, e quindi la parte CPU risulta penalizzata, come riportato anche da altri.
Ora su zen bisognerà capire che tipo di smt amd adotterà, perchè io avrei forti dubbi che si discosti molto dal cmt di bulldozer in quanto un core si che deve elaborare piu thread(in questo caso 2 ed in futuro magari più di uno) ma in che modo:
1)a threads ''inter-dipendenti'' cioè che non interferiscono
2)a threads ''inter-dipendenti'' cioè che interferiscono.
Lo so che non hanno senso le due supposizioni ma vorrei intendere se un threads venga in qualche modo ''bloccato'' da un altro oppure ''parcheggiato'' .....figuriamoci nel dopo zen+ fusion in cui un core fusion amd drovà elaborarne 4/8/n(come filosoficamente fanno le gpu d'altronde) threads alla volta stile cmt di bulldozer odierno :muro:
Sarebbe tutta qui, sempre a mio parere la differenza tra il smt e il cmt, cioè come vengano elaborati i threads senza che questi si affoghino tra loro....appunto da qui si vede cosa sia il motivo del multi-task di bulldozer dato che tra sandy e bulldozer sempre 8 threads alla volta elaborano, ma in modo diverso.
adesso si attende capire dove sia la differenza tra :
Bulldozer:1-core-1-thread
Zen: 1-core-2-threads...ma come???
Dovrebbe essere simile all'SMT di Intel.

cdimauro
28-07-2016, 06:05
Il mio discorso vale se sono riusciti a rimanere nello stesso FO4, aumentando l'IPC. Ed è possibile, perchè se le unità rimangono le stesse (intese con lo stesso numero di stadi), Zen ha solo 2 ALU in più. Ma questo non aumenta il FO4 perchè già lo scheduler della FPU di BD è a 4 vie e quindi dovrebbe essere possibile fare nello stesso FO4 anche lo scheduler a 4 vie della ALU. Le altre cose possono essere eventualmente implementate con uno o due stadi in più. L'SMT per esempio penso possa essere implementato come il CMT: già in BD il front end supporta 2 thread... Quindi è molto simile. L'unica cosa sono le cache: ma basta aumentare la latenza in cicli e si può fare il ciclo più corto...
Le unità sembra che siano rimaste le stesse perchè le latenze non sono diminuite (anzi alcune istruzioni hanno latenza maggiore), quindi non ho perso la speranza di un FO4 basso...
Potrebbe essere.
Immagino che qui ci possa essere del misunderstanding... Mi pare di ricordare che 5 sono le istruzioni massime decodificate, che risultano in 4 uop di cui una fusa, ma potrei sbagliarmi...
Pare di sì. Dall'ultimo pezzo di AnandTech (http://www.anandtech.com/show/10525/ten-year-anniversary-of-core-2-duo-and-conroe-moores-law-is-dead-long-live-moores-law/3), che spiega molto bene cosa sono macro-microp, e come funzionano macro-op e micro-op fusion:

http://images.anandtech.com/doci/10525/CoreMacroOpFusion.gif

ma in generale questa pagina dell'articolo è una manna, perché spiega anche le differenze con AMD.

Si tratta di roba vecchia (i confronti sono fra processori di 10 anni fa), ma su queste cose le informazioni ancora attuali.

Tornando alla modernità, per quanto riguarda Skylake, pare che il decoder riesca a eseguire (col supporto delle 4 unità, ovviamente) 2 macro-op (che nel gergo di Intel sono due istruzioni) fusion per ciclo di clock. Inoltre ogni unità è in grado di eseguire una uop fusion, e dunque al massimo si possono avere 4 fused-uop per ciclo di clock (dunque sarebbero 8 uop non-fused per ciclo di clock).

E' un po' incasinato, ma penso che renda bene quel che riesce a gestire Skylake con soli 4 decoder (di cui 3 semplici, ma questo non è affatto un problema, come viene riportato anche su AnandTech). ;)
AMD fa fetch di 32 byte alla volta e il buffer è 64 byte, ma legge 16 byte alla volta, anche perchè una istruzione può essere anche 15 byte e quindi questo è il minimo che deve leggere... Immagino che sia una cosa simile per INTEL, ma in ogni caso il buffer deve essere pari almeno al doppio della granularità del fetch...
Sì. Di questo se ne occupa l'unità di align, che deve dare in pasto i famigerati 16 byte ai decoder, partendo dal punto in cui deve iniziare la decodifica, che non non è sempre allineato a 16 byte e/o coincide sempre con l'inizio di una linea di cache.
O alcune che ne generano 200 e oltre... :sofico: Come FSINCOS... :asd:
Non solo FSINCOS. Ce ne sono altre, non dell'FPU, che richiedono anche più di 200 cicli. :stordita:

P.S. Non ho tempo per rispondere agli altri commenti. Lo farò quando potrò.

bjt2
28-07-2016, 06:57
C'è qualcosa che non quadra. Il Phenom-II a 45nm è arrivato a 3,7Ghz, mentre Bulldozer a 32nm (SOI) è stato introdotto a 3,6Ghz e in turbo arrivava a 4,2Ghz.

Quindi la differenza 32 vs 45nm è -100Mhz (frequenza base) / +500Mhz (turbo).

Inoltre bjt2 ha affermato pure che:

"Perchè sul 32nm SOI riesce a salire fino a 5GHz.."

e infatti con Piledriver i valori si arriva a 4,7Ghz/5Ghz (turbo), però con un power budget spaventoso: 220W per la piattaforma.

Mentre per i 125W (che è simile ai 130W delle soluzioni top di Intel) abbiamo 4Ghz/4,3Ghz (turbo).

Dunque la differenza 32 vs 45nm in quest'ultimo caso diventa +300Mhz (frequenza base. 3,7Ghz di riferimento) / +600Mhz (turbo).

Forse si riferivano a Llano, ultimo esponente della serie Hounds, quindi con alto FO4, che non supera i 3GHz... La serie Phenom (e Llano) dovrebbe avere FO4 comparabile ai core INTEL (nell'ordine dei 24-26), mentre il BD hanno un FO4 dell'ordine dei 17... Ecco il motivo per cui pur sul 32nm, BD riesce ad arrivare a 4.3GHz (nei 130W)... E il FO4 è talmente basso che non mura neanche, ma il limite è il TDP, da cui i modelli a 4.7/5GHz da 220W (POWER docet)...

Non solo FSINCOS. Ce ne sono altre, non dell'FPU, che richiedono anche più di 200 cicli. :stordita:

:asd: Si, mi pare istruzioni di sistema, di gestione dei task gate, task switching, salvataggio stato CPU e menate varie... :asd:

paolo.oliva2
28-07-2016, 06:58
C'è qualcosa che non quadra. Il Phenom-II a 45nm è arrivato a 3,7Ghz, mentre Bulldozer a 32nm (SOI) è stato introdotto a 3,6Ghz e in turbo arrivava a 4,2Ghz.
Stai confrontando mele con pere, perchè una cosa è il Phenom II con il suo FO4 e un'altra è BD con FO417.
Se vuoi fare il confronto, lo devi fare tra Phenom II 45nm e Phenom II 32nm, cioè Llano.

Phenom II 45nm 3,7GHz 125W X4, Llano 32nm 3GHz max e mi sembra che in OC non superava i 3,5GHz.Trinity, architettura BD, stesso silicio, frequenze ben superiori.


Inoltre bjt2 ha affermato pure che:
"Perchè sul 32nm SOI riesce a salire fino a 5GHz.."
e infatti con Piledriver i valori si arriva a 4,7Ghz/5Ghz (turbo), però con un power budget spaventoso: 220W per la piattaforma.
Infatti ci doveva arrivare nei 95W e non 220W

Mentre per i 125W (che è simile ai 130W delle soluzioni top di Intel) abbiamo 4Ghz/4,3Ghz (turbo).
Ma su architettura BD FO4, di certo se metti un Phenom II non arriverà mai a quelle frequenze, semplicemente perchè, se fosse stato possibile, nulla avrebbe impedito ad AMD di portare un Phenom II modificato con set di istruzioni alla BD come X8 a 32nm SOI.

Dunque la differenza 32 vs 45nm in quest'ultimo caso diventa +300Mhz (frequenza base. 3,7Ghz di riferimento) / +600Mhz (turbo).
Confrontando FO4 differenti e quindi frequenze differenti, è chiaro che BD guadagna solamente 300/600 al posto di 1GHz/1,5GHz. Forse non lo sai, ma il primo BD doveva avere +500MHz Turbo su tutti i core e +1GHz su 4 core, ridotti sull'8150 da 3,6GHz def a 3,9GHz (+300MHz su tutti i core) ma di fatto 3,7GHz (+100MHz) e +600MHz Turbo 4 core (4,2GHz).
Nell'8370, dai 4GHz def c'è solamente +100MHz di turbo su tutti i core e +400MHz turbo su 4 core,

Se, invece, guardiamo a Intel e hai suoi 32nm BULK, limitandoci a 4 core abbiamo che Westmere (die shrink di Nehalem) è arrivato a 3,6Ghz (piattaforma EP), mentre Sandy Bridge è stato introdotto a 3,4Ghz/3,8Ghz(Turbo) ed è arrivato al massimo a 3,5/3,9.

Nehalem, a 45nm, è arrivato a 3,33Ghz.

Quindi la differenza 32 vs 45nm è +267Mhz (frequenza base. 3,6Ghz per i 45nm) / +567Mhz (turbo).

Mi pare che le rese del passaggio 45 -> 32nm per AMD e Intel sia molto simile.
Ma Intel è rimasta sullo stesso FO4, quindi l'aumento di frequenza e la riduzione del TDP è dovuto al silicio. AMD ha cambiato l'FO4 ed è questo che ha aumentato le frequenze (che tu confondi per qualità silicio), e mentre Intel ha diminuito nel contempo il TDP, AMD ha introdotto X4 BD al posto di X4 Phenom II allo stesso TDP.

9 mesi di differenza, ok, ma è uno svantaggio? Hai 2 tapeout (1 tapeout = 3 mesi circa) per cambiare qualcosa al tuo progetto dopo aver visto quello che è in grado di fare la concorrenza. Anzi, ci sarebbe pure un terzo tapeout se presenti un ES ai partner (per potere cominciare a lavorarci) dopo il secondo tapeout, e col terzo sistemi i bug per la versione finale.
Non capisco questo ragionamento.
Se il silicio 32nm non va, che cosa puoi modificare? 1,2 milioni di transistor sul 32nm SOI consumano 125W a 4GHz con FO4 17. Se per te il prb è il CMT, benissimo, ragiogniamo in SMT. Zen ha il doppio di transistor a core rispetto a BD, quindi se BD con 1,2 milioni di transistor per 125W, allo stesso FO4, Zen sul 32nm SOI con 1,2 milioni di transistor risulterebbe essere X4 al massimo.... vs Intel che allo stesso TDP praticamente ci mette un X8. E' da qui che parte il discorso efficienza, consumo/prestazioni e prestazioni a die, ma non è un discorso di architettura ma di limiti silicio, perchè tra 45nm low-k e 32nm HKMG ULK il Vcore non è diminuito di una mazza (il Vcore è diminuito di più dal 45nm SOI liscio al 45nm SOI low-K), mentre il passaggio dal 45nm al 32nm, l'introduzione dell'HKMG e il potenziamento ULK dal low-k NULLA. Tra l'altro il massimo Vcore concesso dal 45nm è 1,6V mentre il 32nm SOI arriva a 1,625V, inconcepibile con una miniaturizzazione più spinta e con l'aggiunta dell'HKMG.

P.S.
se confronti la perdita di frequenza tra Phenom II 45nm e Phenom II 32nm, da 3,7GHz a 3GHz, rappresenta più del 20%. Se applichi questo 20% alle frequenze di BD, 4GHz + 20% = 4,8GHz, si otterrebbe il valore della aspettativa AMD sulle frequenze. Una coincidenza?

leoneazzurro
28-07-2016, 11:46
Il raggiungimento o meno di determinate frequenze comunque dipende non solo da FO e processo base, ma anche dal layout degli strati di metallizzazione del chip (che però costano), anche a parità di architettura/processo. Chi ricorda Thunderbird?

capitan_crasy
28-07-2016, 12:21
Il raggiungimento o meno di determinate frequenze comunque dipende non solo da FO e processo base, ma anche dal layout degli strati di metallizzazione del chip (che però costano), anche a parità di architettura/processo. Chi ricorda Thunderbird?

io ma solo perchè ne ho avuto uno...:stordita:

leoneazzurro
28-07-2016, 13:22
E' una cosa collegata allo stepping, ma é più una questione di design. In pratica i layer metalici sono quelli che servono a realizzare le connessioni elettriche nel chip. Il numero ed il layout dei layer influenzano induttanze e capacità parassite e quindi la capacità di un chip a salire in frequenza. In genere avere più strati può essere migliorativo, ma incrementa il costo del chip in quanto per ogni strato bisogna ripetere processi di mascheratura, etching e deposizione.
Thunderbird era esemplificativo perchè con un nuovo stepping di metallizzazione, a parità di processo produttivo, fece salire la capacità degli Athlon XP di salire in frequenza di oltre il 30%

Catan
28-07-2016, 13:27
Il raggiungimento o meno di determinate frequenze comunque dipende non solo da FO e processo base, ma anche dal layout degli strati di metallizzazione del chip (che però costano), anche a parità di architettura/processo. Chi ricorda Thunderbird?

me sa che siamo tanti, che soddisfazione quel b0 che ho avuto per le mani;)

Mister D
28-07-2016, 13:32
E' una cosa collegata allo stepping, ma é più una questione di design. In pratica i layer metalici sono quelli che servono a realizzare le connessioni elettriche nel chip. Il numero ed il layout dei layer influenzano induttanze e capacità parassite e quindi la capacità di un chip a salire in frequenza. In genere avere più strati può essere migliorativo, ma incrementa il costo del chip in quanto per ogni strato bisogna ripetere processi di mascheratura, etching e deposizione.
Thunderbird era esemplificativo perchè con un nuovo stepping di metallizzazione, a parità di processo produttivo, fece salire la capacità degli Athlon XP di salire in frequenza di oltre il 30%

Per esempio FX8370/FX8370E/FX8320E definiti "King Vishera" hanno un silicio con più metallizzazioni (anche se lo step è lo stesso) che gli consente di arrivare a circa gli stessi MHz dei fratelli precedenti ma con meno molti volt, soprattutto nel range di frequenza 3,6-4,4 GHz.;)

Mister D
28-07-2016, 13:58
ma se sono sempre C0 come fanno ad avere una metallizzazione diversa? :stordita:

Perché semplicemente cpu-z riporta solo C0 ma non le revisioni minori. Tutti gli FX sono OR-C0j mentre solo questi ultimi sono OR-C0k:
http://www.xtremesystems.org/forums/showthread.php?289461-A-little-birdie-told-me/page3
E cmq si vede dal comportamento. Per es Isomen tiene il suo FX8370 a 4,6 con meno di 1,4 volt (mi pare di ricordare 1,36 esattamente).;) E a 4 GHz sta sotto gli 1,2 (sempre a memoria);)

paolo.oliva2
28-07-2016, 15:32
Io penso che l'8370 abbia solamente un RCM più idoneo... infatti consuma/scalda meno a parità di frequenza, però oltre i 4,6GHz rende meno dell'8350. Credo che se fosse per le metallizzazioni, dovrebbe essere lineare tipo l'8350.
Il mio 8370 richiede 1,25V per 4GHz (+0,05V rispetto a Iso) ma a 4,5GHz ci sto a 1,29V. Sui 4,6GHz scalda un botto (relativamente) rispetto all'8350 allo stesso Vcore. Non ho fatto dei gran test perchè sono con il dissi stock, ma a 4,7GHz l'8370 scalda quanto un 8350 a 4,4GHz, con la differenza che l'8370 è a 1,35V mentre l'8350 >1,4V.

@Leoneazzurro

Io non è che ne capisca tanto di trattamenti silicio, e un'altra volta mi avevi fatto notare che è sbagliato confrontare silici differenti.
Però io direi di considerare l'efficienza di una architettura rispetto ad un'altra sulla carta, ma non di giudicare il prodotto finito (architettura + silicio) perchè il silicio influenza e non poco.

Ad esempio, il Phenom I aveva 2,7GHz ed un IPC inferiore rispetto al Phenom II, che riuscì ad ottenere ben +1GHz con un IPC del 15% (o 17%) superiore.
Giudichiamo l'efficienza architetturale Phenom dalla versione I alla II. Non metto in dubbio che la variante II sia più ottimizzata della I ma certamente molto meno di quanto è incrementato per efficienza il 45nm sul 65nm (è pure da considerare che il Phenom I non abbia potuto inserire features e/o timing più spinti proprio per carenze silicio), tra l'altro il primo e unico modello 140W di AMD :doh:.

Sono in parecchi (in rete) a considerare il PP del 32nm uno dei peggiori di AMD, addirittura al livello, se non peggiore, del 65nm sempre AMD. Viceversa, il 45nm è stato uno dei migliori PP di AMD.

Ora... come si fa a giudicare l'efficienza di una architettura se poi confrontiamo Phenom II + miglior PP silicio AMD vs architettura BD con se non il peggiore tra i peggiori PP di AMD e di qui imputare l'efficienza ESCLUSIVAMENTE all'architettura?
Perchè se il SOI è migliore al Bulk, AMD ci ha speso soldi per portare BD sul 28nm Bulk? Perchè Llano (Phenom II) sul 32nm ha perso oltre il 20% rispetto al 45nm? Perchè invece BD sullo stesso silicio ha oltre 1GHz con il doppio dei core vs Llano?

Io dico solo che se una architettura non è efficiente, non lo è e punto. Ma allora come fa BR BD, per giunta sul 28nm, ad essere così efficiente?

Un calcolo approssimativo, secondo me, sarebbe questo:

Phenom II 45nm --> 32nm = -20% (prestazioni a parità di TDP, con Llano)
8350 32nm vs Thuban 45nm = +20% per BD.

Allora architettura BD vs architettura Phenom II = +40% (semplicemente sommando la perdita efficienza architettura + passaggio 45nm --> 32nm all'incremento BD 32nm vs Phenom II 45nm. Diversamente si applica tutta la perdita efficienza silicio esclusivamente all'architettura.

digieffe
28-07-2016, 16:24
C'è qualcosa che non quadra. Il Phenom-II a 45nm è arrivato a 3,7Ghz, mentre Bulldozer a 32nm (SOI) è stato introdotto a 3,6Ghz e in turbo arrivava a 4,2Ghz.

Quindi la differenza 32 vs 45nm è -100Mhz (frequenza base) / +500Mhz (turbo).

Inoltre bjt2 ha affermato pure che:

"Perchè sul 32nm SOI riesce a salire fino a 5GHz.."

e infatti con Piledriver i valori si arriva a 4,7Ghz/5Ghz (turbo), però con un power budget spaventoso: 220W per la piattaforma.

Mentre per i 125W (che è simile ai 130W delle soluzioni top di Intel) abbiamo 4Ghz/4,3Ghz (turbo).

Dunque la differenza 32 vs 45nm in quest'ultimo caso diventa +300Mhz (frequenza base. 3,7Ghz di riferimento) / +600Mhz (turbo).

Se, invece, guardiamo a Intel e hai suoi 32nm BULK, limitandoci a 4 core abbiamo che Westmere (die shrink di Nehalem) è arrivato a 3,6Ghz (piattaforma EP), mentre Sandy Bridge è stato introdotto a 3,4Ghz/3,8Ghz(Turbo) ed è arrivato al massimo a 3,5/3,9.

Nehalem, a 45nm, è arrivato a 3,33Ghz.

Quindi la differenza 32 vs 45nm è +267Mhz (frequenza base. 3,6Ghz per i 45nm) / +567Mhz (turbo).

Mi pare che le rese del passaggio 45 -> 32nm per AMD e Intel sia molto simile.

ti hanno già risposto altri...

BD si può in qualche modo paragonare ad uno dei Pentium IV, FO4 basso pipeline lunghe ovvero orientati al clock, mentre Phenom a intel core o a PIII, FO4 alto pipeline più corte.

non ne sono sicuro ma non credo ci siano stati PIII o Core che a parità di PP avessero freq. superiori ai PIV.

il PII 980 (4 core) aveva il clock di 3.8ghz sui 45mn (NON ULK), il PII 1100 (6 core) 3.7ghz sui 45nm ULK, entrambi superavano i 4ghz in OC, mentre lliano* (4 core+igp) 3.0ghz sul 32mn e max 3.5ghz in OC. Ergo il 32nm era peggiore del 45.

*c'era anche la versione con igp disabiilitata?

BD 3.6ghz (8150 - OC > 5ghz) era atteso ad una freq base di almeno 4.3ghz, cosa non possibile per via dei consumi. 8350 è salito a 4.0ghz per via di un meccanismo di recupero dell'energia (RCM?)

sulla stessa microarchitettura -800mhz di freq. base e -700/-900 di overclock.


EDIT:

trinity (BD) apu 3.8ghz freq. base 4.2 turbo gpu 800mhz (llano 600mhz)

digieffe
28-07-2016, 16:44
Ho già postato il link coi test su Bulldozer, che sono abbastanza chiari e realizzati da un professionista (Corsini). Se a qualcuno non piace Hwupgrade (allora non capisco cosa ci farebbe ancora qui), c'è sempre la recensione di AnandTech (http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/5), che peraltro ha benchmark molto diversi in generale (solo alcuni usano le stesse applicazioni).

Non m'interessano le prove di singoli utenti.

neanche a me interessano le prove degli utenti, fatto sta che nessun professionista ha voluto verificare ciò che molti utenti hanno rilevato, ovvero che in condizioni di carico elevato le cpu intel ed gli amd fino a thuban si "afflosciano" mentre BD continua ad andare.

quindi è un fatto che hanno rilevato utenti con entrambe le piattaforme ma non attestato da professionisti, IMHO ci sarà un fondo di verità.

mi scuso per i commenti stringati ma questo è ciò che posso fare

bjt2
28-07-2016, 17:13
neanche a me interessano le prove degli utenti, fatto sta che nessun professionista ha voluto verificare ciò che molti utenti hanno rilevato, ovvero che in condizioni di carico elevato le cpu intel ed gli amd fino a thuban si "afflosciano" mentre BD continua ad andare.

quindi è un fatto che hanno rilevato utenti con entrambe le piattaforme ma non attestato da professionisti, IMHO ci sarà un fondo di verità.

mi scuso per i commenti stringati ma questo è ciò che posso fare

http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper/12

Questa vecchia recensione di BD, citata sul thread di Zen di anand (ma non linkata... Ho dovuto cercarla con google) mette in risalto che BD è una buona CPU server: un trattore in grado di far girare molti thread a basso IPC, che va in crisi solo in ST o con pochi thread ad alto IPC...

Theodorakis
28-07-2016, 18:36
neanche a me interessano le prove degli utenti, fatto sta che nessun professionista ha voluto verificare ciò che molti utenti hanno rilevato, ovvero che in condizioni di carico elevato le cpu intel ed gli amd fino a thuban si "afflosciano" mentre BD continua ad andare.

quindi è un fatto che hanno rilevato utenti con entrambe le piattaforme ma non attestato da professionisti, IMHO ci sarà un fondo di verità.

mi scuso per i commenti stringati ma questo è ciò che posso fare

Qualcuno che l'ha fatto c'è :P

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

marchigiano
28-07-2016, 20:46
Qualcuno che l'ha fatto c'è :P

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

test inutile se non si sa quanto fa anche a prime95

se vai a cercare indietro in questo forum c'è un mio thread in cui, insieme ad altri utenti, vedevamo i risultati globali delle varie cpu utilizzando 2 test contemporaneamente

paolo.oliva2
28-07-2016, 21:38
Qualcuno che l'ha fatto c'è :P

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

La differenza sotto carico del CMT vs SMT oltre i TH def, quell'articolo lo evidenzia, ma è da tenere conto che nel confronto utilizza una CPU Intel 3960X (6C 12TH) ed anche se l'autore effettua la prova con 4C 8TH, è comunque un procio che tollera carichi maggiori rispetto ai "fratelli" socket 1155 e similari.

A mio avviso, visto che oramai sono 7 anni che girano e rigirano confronti BD vs Intel, la cosa è stata volutamente ignorata.

"Uno scenario del genere difficilmente è realizzabile nell’utilizzo domestico, ma chi si diletta, in contemporanea, a fare montaggi video, navigare su internet, ascoltare musica e chissà cos’altro potrebbe trovare molto interessante il sapere che la propria CPU è più reattiva di altre."

Onestamente per me la cosa va chiarita per bene.

L'SMT di Intel è un SMT "semplice", ha come caratteristica di sfruttare un 2° TH negli "spazi" lasciati liberi dal 1° TH, con un incremento max del 30% (tutto dipende dal software, cioè dallo spazio lasciato libero dal 1° TH). Il 3° TH non ha spazio e di conseguenza fa pure rallentare gli altri 2.
A parità di core il CMT regge almeno +50% di carico rispetto all'SMT e fino al +100% nel caso i software non utilizzino le stesse unità logiche contemporaneamente.

In poche parole, core + SMT = 2TH, modulo CMT da 3 a 4TH.

Che tutti utilizzino un PC al massimo per chattare e stare sui forum, io non lo credo, come del resto nemmeno tutti fanno continuamente conversioni video, scaricano film con torrent, antivirus attivo e contemporaneamente giocano, però mi sembra palese che una via di mezzo sia reale.

Un X2+2 Intel ha un carico ridotto a 4TH intensivi, quindi già fare solamente una conversione video significa avere il PC carico al 100% (qualsiasi software di conversione video utilizza al minimo 4TH) e non avere il sistema fluido per fare altro.
Al contrario, un X4 CMT ha almeno altri 2TH liberi se non 4TH (BD X4 non ha la L3, se il sistema ha 2 banchi di memoria >1600, dual-channel, allora la mancanza di L3 non si sente, diverso come i portatili equipaggiati con 1 banco di RAM, in single channel e magari 1333).

Un X4+4 Intel ha 8TH, di certo sufficienti nella maggior parte dei casi, ma di certo inferiori ai 12/16 di un 8350.

Un X6+6 e >X6 è palese che non tema il confronto, in primis perchè già un X6+6 ha 12TH e quindi uguale a quanti ne può caricare un 8350, ma avrà anche i core al 100% di potenza vs un 8350 che comunque, anche senza sedersi, dovrà partizionare l'elaborazione su n TH.

Free Gordon
28-07-2016, 21:54
Perché semplicemente cpu-z riporta solo C0 ma non le revisioni minori. Tutti gli FX sono OR-C0j mentre solo questi ultimi sono OR-C0k:
http://www.xtremesystems.org/forums/showthread.php?289461-A-little-birdie-told-me/page3
E cmq si vede dal comportamento. Per es Isomen tiene il suo FX8370 a 4,6 con meno di 1,4 volt (mi pare di ricordare 1,36 esattamente).;) E a 4 GHz sta sotto gli 1,2 (sempre a memoria);)

Il mio 8370e a 4ghz ci sta con 1.25v spaccati.. (Prime e IBT AVX rock solid)

Free Gordon
28-07-2016, 22:03
Io penso che l'8370 abbia solamente un RCM più idoneo... infatti consuma/scalda meno a parità di frequenza, però oltre i 4,6GHz rende meno dell'8350. Credo che se fosse per le metallizzazioni, dovrebbe essere lineare tipo l'8350.
Il mio 8370 richiede 1,25V per 4GHz (+0,05V rispetto a Iso) ma a 4,5GHz ci sto a 1,29V. Sui 4,6GHz scalda un botto (relativamente) rispetto all'8350 allo stesso Vcore. Non ho fatto dei gran test perchè sono con il dissi stock, ma a 4,7GHz l'8370 scalda quanto un 8350 a 4,4GHz, con la differenza che l'8370 è a 1,35V mentre l'8350 >1,4V.

A Prime95 289 e/o IBT stabile..? :D (intendo 4,5ghz @1,29...perchè quello è un risultato davvero notevole col dissi stock.... :eek: )

cdimauro
29-07-2016, 05:48
Forse si riferivano a Llano, ultimo esponente della serie Hounds, quindi con alto FO4, che non supera i 3GHz... La serie Phenom (e Llano) dovrebbe avere FO4 comparabile ai core INTEL (nell'ordine dei 24-26), mentre il BD hanno un FO4 dell'ordine dei 17... Ecco il motivo per cui pur sul 32nm, BD riesce ad arrivare a 4.3GHz (nei 130W)... E il FO4 è talmente basso che non mura neanche, ma il limite è il TDP, da cui i modelli a 4.7/5GHz da 220W (POWER docet)...
OK, adesso è chiaro. Sì, il processo a 32nm SOI di GF fa veramente pena. :D
:asd: Si, mi pare istruzioni di sistema, di gestione dei task gate, task switching, salvataggio stato CPU e menate varie... :asd:
Esattamente, ma almeno il salvataggio di stato è ancora usatissimo, e fa bene il suo lavoro. ;)
Stai confrontando mele con pere, perchè una cosa è il Phenom II con il suo FO4 e un'altra è BD con FO417.
Se vuoi fare il confronto, lo devi fare tra Phenom II 45nm e Phenom II 32nm, cioè Llano.
Sì, me lo ha fatto notare bjt2, grazie.
[...]
Ma Intel è rimasta sullo stesso FO4, quindi l'aumento di frequenza e la riduzione del TDP è dovuto al silicio. AMD ha cambiato l'FO4 ed è questo che ha aumentato le frequenze (che tu confondi per qualità silicio), e mentre Intel ha diminuito nel contempo il TDP, AMD ha introdotto X4 BD al posto di X4 Phenom II allo stesso TDP.
No. Anche Intel:
- ha avuto problemi col passaggio al nuovo processo produttivo (130 -> 90nm);
- ha cambiato il FO4 abbassandolo molto (P3 -> P4).

Ma tu guarda un po': "casualmente" mi riguarda quello che è successo ad AMD con Bulldozer. E pensare che c'è gente che continua a voler negare differenze (che riguardano anche IPC basso. E scarse prestazioni in ST, mentre in MT va meglio). :O
Non capisco questo ragionamento.
Se il silicio 32nm non va, che cosa puoi modificare? 1,2 milioni di transistor sul 32nm SOI consumano 125W a 4GHz con FO4 17.
Con 2-3 tapeout non puoi stravolgere la (micro)architettura, ma sicuramente mettere mano ad alcune componenti (predittore di salto, dimensione della sua cache, entry nella TLB, ecc.).

A me è pure capitato che nello stesso arco di tempo sia cambiata l'implementazione di una tecnologia. Scarico il nuovo SDK dei colleghi cinesi, lo provo e non funziona niente. Gli mando una mail e mi risponde il responsabile: no, guarda, che è cambiata l'implementazione e adesso ti serve almeno questo stepping per far funzionare tutto. "Butto" la mia scheda, e me ne faccio prestare un'altra più nuova da un collega, e "magicamente" il mio codice torna a funzionare. :stordita:
Se per te il prb è il CMT, benissimo, ragiogniamo in SMT.
Non è per me: mi sembra che i test parlino chiaro. :read:
Zen ha il doppio di transistor a core rispetto a BD,
Ma un core Zen non dovrebbe avere all'incirca gli stessi transistor di un core XV?
quindi se BD con 1,2 milioni di transistor per 125W, allo stesso FO4,
Non è affatto detto che il FO4 sia lo stesso.

P4 e Core2 Duo implementano entrambi l'Hyperthreading (SMT), ma hanno FO4 molto diversi, e frequenze molto diverse (tenendo conto delle differenze di processo produttivo). Tanto per fare un esempio.

Vedremo quando arriverà finalmente qualche informazione in merito.
P.S.
se confronti la perdita di frequenza tra Phenom II 45nm e Phenom II 32nm, da 3,7GHz a 3GHz, rappresenta più del 20%. Se applichi questo 20% alle frequenze di BD, 4GHz + 20% = 4,8GHz, si otterrebbe il valore della aspettativa AMD sulle frequenze. Una coincidenza?
No, nessuna coincidenza: come dicevo prima, mi ricorda un'altra azienda che aveva certe aspettative sul silicio, e propose un'architettura in grado di scalare in frequenza. Solo che il silicio non le diede ragione. :fagiano:
ti hanno già risposto altri...

BD si può in qualche modo paragonare ad uno dei Pentium IV, FO4 basso pipeline lunghe ovvero orientati al clock, mentre Phenom a intel core o a PIII, FO4 alto pipeline più corte.
Sì, esatto.
non ne sono sicuro ma non credo ci siano stati PIII o Core che a parità di PP avessero freq. superiori ai PIV.
Non mi pare proprio.
il PII 980 (4 core) aveva il clock di 3.8ghz sui 45mn (NON ULK), il PII 1100 (6 core) 3.7ghz sui 45nm ULK, entrambi superavano i 4ghz in OC, mentre lliano* (4 core+igp) 3.0ghz sul 32mn e max 3.5ghz in OC. Ergo il 32nm era peggiore del 45.

*c'era anche la versione con igp disabiilitata?
Non l'ho vista nell'elenco dei processori K10.
BD 3.6ghz (8150 - OC > 5ghz) era atteso ad una freq base di almeno 4.3ghz, cosa non possibile per via dei consumi. 8350 è salito a 4.0ghz per via di un meccanismo di recupero dell'energia (RCM?)

sulla stessa microarchitettura -800mhz di freq. base e -700/-900 di overclock.
Visto, sì.
EDIT:

trinity (BD) apu 3.8ghz freq. base 4.2 turbo gpu 800mhz (llano 600mhz)
Poi bisogna vedere in realtà a quale frequenza andassero a regime, visti i problemi di AMD con le APU, di cui si è parlato prima in qualche commento.

cdimauro
29-07-2016, 06:12
neanche a me interessano le prove degli utenti, fatto sta che nessun professionista ha voluto verificare ciò che molti utenti hanno rilevato, ovvero che in condizioni di carico elevato le cpu intel ed gli amd fino a thuban si "afflosciano" mentre BD continua ad andare.

quindi è un fatto che hanno rilevato utenti con entrambe le piattaforme ma non attestato da professionisti, IMHO ci sarà un fondo di verità.
Molto molto in fondo, perché senza dati completi sono test che lasciano il tempo che trovano.

Vedi il test di B&C, in cui marchigiano ha ragione: mancano i dati di SuperPi. Che fine hanno fatto?

Giusto per essere chiari, se vuoi fare un test serio, devi lanciare contemporaneamente le applicazioni da un tempo x a uno y, e vedere quanto riescano a macinare all'esatto scadere del tempo y.
mi scuso per i commenti stringati ma questo è ciò che posso fare
Non c'è problema: anch'io rispondo quando posso. :)
http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper/12

Questa vecchia recensione di BD, citata sul thread di Zen di anand (ma non linkata... Ho dovuto cercarla con google) mette in risalto che BD è una buona CPU server: un trattore in grado di far girare molti thread a basso IPC, che va in crisi solo in ST o con pochi thread ad alto IPC...
Ma anche no: riesce a guadagnare qualcosa soltanto in un paio di test. Negli altri non c'è guadagno, o è addirittura sotto la precedente (micro)architettura (http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper/4) (vedi MySQL, che non è certo un engine db poco usato: tutt'altro).
test inutile se non si sa quanto fa anche a prime95
*
La differenza sotto carico del CMT vs SMT oltre i TH def, quell'articolo lo evidenzia, ma è da tenere conto che nel confronto utilizza una CPU Intel 3960X (6C 12TH) ed anche se l'autore effettua la prova con 4C 8TH, è comunque un procio che tollera carichi maggiori rispetto ai "fratelli" socket 1155 e similari.

A mio avviso, visto che oramai sono 7 anni che girano e rigirano confronti BD vs Intel, la cosa è stata volutamente ignorata.
Forse perché non è vero? Servono dei test serii, come già detto.

AnandTech ne ha realizzati in ambito server, dove ci sono parecchi thread in esecuzione, per cui di carico ce n'è anche troppo. E le cose non vanno così bene con BD, come puoi vedere dal link.
L'SMT di Intel è un SMT "semplice", ha come caratteristica di sfruttare un 2° TH negli "spazi" lasciati liberi dal 1° TH, con un incremento max del 30% (tutto dipende dal software, cioè dallo spazio lasciato libero dal 1° TH). Il 3° TH non ha spazio e di conseguenza fa pure rallentare gli altri 2.
A parità di core il CMT regge almeno +50% di carico rispetto all'SMT e fino al +100% nel caso i software non utilizzino le stesse unità logiche contemporaneamente.
E' l'esatto contrario: è l'SMT che riesce a gestire meglio i carichi e guadagnare nelle prestazioni, perché non è castrato dall'avere delle porte utilizzabili soltanto da un thread hardware. E' proprio la coda unica, che può accedere a TUTTE le porte per uno specifico thread hardware, che gli consente di eccellere in ST e MT.

Con CMT devi soltanto sperare che ci siano 2 thread hardware che riescano a impegnare equamente le due macrounità intere.

I test, anche MT, di cui ho postato i link parlano chiarissimo.
In poche parole, core + SMT = 2TH, modulo CMT da 3 a 4TH.
1 modulo con CMT = 1 core con SMT = 2 TH. Questo è il massimo carico che entrambi possono sopportare.
Che tutti utilizzino un PC al massimo per chattare e stare sui forum, io non lo credo, come del resto nemmeno tutti fanno continuamente conversioni video, scaricano film con torrent, antivirus attivo e contemporaneamente giocano, però mi sembra palese che una via di mezzo sia reale.
No: dipende dai carichi. Da quanto, cioé, un'applicazione impegni la CPU.

Per il resto, vedi sopra.
Un X2+2 Intel ha un carico ridotto a 4TH intensivi, quindi già fare solamente una conversione video significa avere il PC carico al 100% (qualsiasi software di conversione video utilizza al minimo 4TH) e non avere il sistema fluido per fare altro.
Anche se un TH impegna maggiormente le risorse a disposizione del core, l'altro non rimane certo a morire di fame.

Inoltre in queste condizioni può riuscire a finire prima un lavoro, e liberare le porte a disposizione dell'altro thread.
Al contrario, un X4 CMT ha almeno altri 2TH liberi se non 4TH (BD X4 non ha la L3, se il sistema ha 2 banchi di memoria >1600, dual-channel, allora la mancanza di L3 non si sente, diverso come i portatili equipaggiati con 1 banco di RAM, in single channel e magari 1333).

Un X4+4 Intel ha 8TH, di certo sufficienti nella maggior parte dei casi, ma di certo inferiori ai 12/16 di un 8350.

Un X6+6 e >X6 è palese che non tema il confronto, in primis perchè già un X6+6 ha 12TH e quindi uguale a quanti ne può caricare un 8350, ma avrà anche i core al 100% di potenza vs un 8350 che comunque, anche senza sedersi, dovrà partizionare l'elaborazione su n TH.
Parliamo di core e TH hardware che è meglio, altrimenti si genera confusione.

1 modulo = 1 core = 2 TH.

bjt2
29-07-2016, 07:09
Ma un core Zen non dovrebbe avere all'incirca gli stessi transistor di un core XV?

No, di un modulo BD... In realtà forse un po' meno, perchè mancano 2 AGU, due unità di L/S, 0.5-1.5MB di L2 e forse dei decoder, ma in più ha le varie feature e un po' più di L1...

Ma anche no: riesce a guadagnare qualcosa soltanto in un paio di test. Negli altri non c'è guadagno, o è addirittura sotto la precedente (micro)architettura (http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper/4) (vedi MySQL, che non è certo un engine db poco usato: tutt'altro).

:asd: Vabeh, volevo dire che in MT pesante con parecchi thread a basso IPC fa un po' meno schifo... :asd:

Piedone1113
29-07-2016, 08:17
Molto molto in fondo, perché senza dati completi sono test che lasciano il tempo che trovano.

Vedi il test di B&C, in cui marchigiano ha ragione: mancano i dati di SuperPi. Che fine hanno fatto?

Giusto per essere chiari, se vuoi fare un test serio, devi lanciare contemporaneamente le applicazioni da un tempo x a uno y, e vedere quanto riescano a macinare all'esatto scadere del tempo y.



Ho notato che la fluidità di sistema su architettura core (ps il core duo non ha ht, refuso o confusione) si va a farsi friggere sopro a 3 th per core.
BD invece regge bene fino a 4th a core (th ad uso intensivo cpu).
Però a parità di carico (con architettura core in crisi di fluidità) le cpu intel (con ht, perchè paragoniamo smt vs cmt tra i due competitor) intel esegue sempre prima tutti i task (anche quando sembra piantato).
e la differenza di prestazioni tra i7 2600 e 8150 rimane pressocchè costante (in percentuale) con alcune situazioni dove addirittura il divario aumenta.
Test fatti in proprio perchè ho cercato di capire il comportamento di bd che sembra sempre essere sotto carico leggero, anche se non si vedono risultati al top.
Secondo me avere cmt + ht 2 vie avrebbe mitigato in alcuni scenari il distacco vs core, ma allora molto meglio architettura smt pura (magari smt4) perchè cmt+smt avrebbe avuto un costo di sviluppo e transistor molto elevato.

bjt2
29-07-2016, 08:51
Ho notato che la fluidità di sistema su architettura core (ps il core duo non ha ht, refuso o confusione) si va a farsi friggere sopro a 3 th per core.
BD invece regge bene fino a 4th a core (th ad uso intensivo cpu).
Però a parità di carico (con architettura core in crisi di fluidità) le cpu intel (con ht, perchè paragoniamo smt vs cmt tra i due competitor) intel esegue sempre prima tutti i task (anche quando sembra piantato).
e la differenza di prestazioni tra i7 2600 e 8150 rimane pressocchè costante (in percentuale) con alcune situazioni dove addirittura il divario aumenta.
Test fatti in proprio perchè ho cercato di capire il comportamento di bd che sembra sempre essere sotto carico leggero, anche se non si vedono risultati al top.
Secondo me avere cmt + ht 2 vie avrebbe mitigato in alcuni scenari il distacco vs core, ma allora molto meglio architettura smt pura (magari smt4) perchè cmt+smt avrebbe avuto un costo di sviluppo e transistor molto elevato.

Forse la quantità elevata di TLB di BD, sopratutto L2, aiuta... Non so se tra un task switch e l'altro la cache TLB viene azzerata, ma se così non fosse, il maggior numero di TLB potrebbe spiegare la questione del maggior numero di thread supportati senza piantaris...

Piedone1113
29-07-2016, 09:09
Forse la quantità elevata di TLB di BD, sopratutto L2, aiuta... Non so se tra un task switch e l'altro la cache TLB viene azzerata, ma se così non fosse, il maggior numero di TLB potrebbe spiegare la questione del maggior numero di thread supportati senza piantaris...

io invece ho supposto che le differenze fossero dovute alla cache in generale:
64 th non possono essere contenuti (i dati ad essi relativi) tutti nella cache l3 di intel, mentre nella cache l2+l3 di bd potrebbero starci (quindi l'architettura intel che è affamata di dati starebbe per molto tempo relativo a pescare dati in ram, mentre quella amd avendo una cache più grande (come somma ) e macinando meno dati accede metà volte (credo che sia nell'ordine di 4 a 1 intel vs amd) alla ram di sistema per ricevere dati che servono al momento dando l'impressione di essere maggiormente reattivo.
Dico questo perchè il comportamento che si ha con un i7 "piantato" mi ricorda tanto i sitemi che swappano su disco perchè hanno una memoria ram esigua (tipo xp con 128mb ram

bjt2
29-07-2016, 09:57
io invece ho supposto che le differenze fossero dovute alla cache in generale:
64 th non possono essere contenuti (i dati ad essi relativi) tutti nella cache l3 di intel, mentre nella cache l2+l3 di bd potrebbero starci (quindi l'architettura intel che è affamata di dati starebbe per molto tempo relativo a pescare dati in ram, mentre quella amd avendo una cache più grande (come somma ) e macinando meno dati accede metà volte (credo che sia nell'ordine di 4 a 1 intel vs amd) alla ram di sistema per ricevere dati che servono al momento dando l'impressione di essere maggiormente reattivo.
Dico questo perchè il comportamento che si ha con un i7 "piantato" mi ricorda tanto i sitemi che swappano su disco perchè hanno una memoria ram esigua (tipo xp con 128mb ram

Può essere... INTEL ha 2.5MB di L3 per core, perchè inclusiva... BD 2+1+ la L1... Però la differenza non è molta... 512 KB...

Piedone1113
29-07-2016, 11:32
Può essere... INTEL ha 2.5MB di L3 per core, perchè inclusiva... BD 2+1+ la L1... Però la differenza non è molta... 512 KB...

Gia, non è molta, ma intel "consuma" più dati cache di quella amd:
ogni secondo con 4 th a core intel utilizza 3 mb di dati cache (e qui il sistema che va a scatti ), amd invece ne consuma 2,5 a modulo (sempre con 4 th) con il sistema più reattivo.
Ma il troghtout è 5 per intel, 4 per amd (sarebbe superiore la differenza ma semplifichiamo)
Amd si avvantaggio solo con th dal basso ipc e tantissimi dati da pescare nella cache pareggiando quasi le prestazioni (non dimentichiamoci che bd ha una latenza cache molto superiore e quindi il "vantaggio" teorico viene limitato molto da questo)

paolo.oliva2
29-07-2016, 11:54
Cinebench, come bench, riesce a contenere tutti i dati nella cache?
A suo tempo avevo fatto dei test-bench settando i TH, da 8 a 16, 32, 64.
Non mi ricordo quando BD calava le prestazioni, se a 32 o 64 TH, però sarebbe interessante fare la stessa cosa con un i7.

P.S.
Non posso usare l'8370 perchè mi sono preso 3 vga 480 (le altre sono saltate) che hanno solamente l'uscita HDMI ed io non ho l'adattatore VGA :muro:

@piedone1113
Io con conversioni video, lanciando più conversioni contemporaneamente, ho una somma dei tempi inferiore stracaricando che fatti girare singolarmente. Di questo ne sono assolutamente sicuro perchè facendo le somme, ho rinunciato a 200 MHz di OC a favore del carico, io tenevo il procio a 4,6GHz anzichè 4,8GHz, a liquido. Tra l'altro, ho proprio dovuto abbandonare l'idea di tenerlo a 5GHz perchè con carico normale forse era RS a 1,525V (che è il limite DU del mio impianto liquido), ma con stracarico dovevo darci 1,550V e in accoppiata al fatto che le conversioni video richiedono molto tempo, la temp liquido si sarebbe alzata troppo (anche se >20 litri e quindi con un buon margine prima che entri a regime), già difficile in inverno, impensabile d'estate.

Piedone1113
29-07-2016, 12:06
Cinebench, come bench, riesce a contenere tutti i dati nella cache?
A suo tempo avevo fatto dei test-bench settando i TH, da 8 a 16, 32, 64.
Non mi ricordo quando BD calava le prestazioni, se a 32 o 64 TH, però sarebbe interessante fare la stessa cosa con un i7.

P.S.
Non posso usare l'8370 perchè mi sono preso 3 vga 480 (le altre sono saltate) che hanno solamente l'uscita HDMI ed io non ho l'adattatore VGA :muro:

Cinebench sull'8150 aveva un calo minimo su 16th, costante il calo fino a 32 th, a 64 th il calo era consistente e perdevi fluidità a desktop.
Sul 2600 il calo su 16th era leggermente più marcato in percentuale rispetto Amd, su 32 th il puntatore del mouse andava a scatti, su 64 sembrava bloccato il sitema, ma i test venivano conclusi sempre prima (se non sbaglio su 64th il divario tornava ad aumentare, è passato molto tempo e non ricordo).
Ma la mia conclusione fu che tranne fare da server per un db, una conversione video in backgroung e giocare a crisys, tutto in contemporanea l'i7 era superiore.
Ps fluidità percepita non rappresenta un maggior troughtout della cpu.



@piedone1113
Io con conversioni video, lanciando più conversioni contemporaneamente, ho una somma dei tempi inferiore stracaricando che fatti girare singolarmente. Di questo ne sono assolutamente sicuro perchè facendo le somme, ho rinunciato a 200 MHz di OC a favore del carico, io tenevo il procio a 4,6GHz anzichè 4,8GHz, a liquido. Tra l'altro, ho proprio dovuto abbandonare l'idea di tenerlo a 5GHz perchè con carico normale forse era RS a 1,525V (che è il limite DU del mio impianto liquido), ma con stracarico dovevo darci 1,550V e in accoppiata al fatto che le conversioni video richiedono molto tempo, la temp liquido si sarebbe alzata troppo (anche se >20 litri e quindi con un buon margine prima che entri a regime), già difficile in inverno, impensabile d'estate.
Paolo, se usavi freemake (e non format factory) la differenza a favore di due istanze vs una c'era (freemake utilizza 4 core al 50% di carico da gestione risorse, Format Factory ne utilizza 2), ma lo stesso guadagno percentuale lo ritrovavi anche con i7 se lo scheduler non assegna i th ai soli cori fisici.
Ma la proporzione era:
2 moduli vs 2 core ht 100 vs 130
4 moduli vs 4 core ht 220 vs 270
Bd recuperava in termini percentuali, ma perdeva in termini assoluti.
Se invece lo scheduler di win assegnava i 4 th ai cori fisici dell'i7 l'aumento prestazione c'era comunque perchè i core lavoravano al 50% delle capacità e praticamente egualiando i cori logici (minor carico sul core fisico maggiori risorse per il core logico)
situazione diversa invece se setti prime su 4 th vs 8th.
con 8 th attivi l'i7 guadagno circa il 20% in prestazioni (ci sono benchmark dove il guadagno è praticamente nullo), mentre con bd si aveva un quasi raddoppio delle prestazioni, ma il totale era sempre a favore di intel (a prescindere da quanti th usavi > di 8

paolo.oliva2
29-07-2016, 12:17
A Prime95 289 e/o IBT stabile..? :D (intendo 4,5ghz @1,29...perchè quello è un risultato davvero notevole col dissi stock.... :eek: )

A livello di RS ne sono sicuro al 99,99%, a livello di test tipo OCCT o carico intenso, non posso metterci la mano sul fuoco per il DU, perchè con 32° temp (ma nella stanza di più), io "soffro" quando vedo >65° e sono arrivato a max a 72°.

Però, pensandoci, una cosa è qui all'equatore e tutt'altra in Italia. A parte il DU che lo avrei sicuramente in Italia, le temp inferiori giocherebbero a favore del Vcore, che in teoria potrebbe pure essere più basso, quindi direi che a 1,29V in Italia sarei RS al 100%.

Ho potuto fare delle prove in frequenza solamente disabilitando 3 moduli, ma quello è un test farlocco, nel senso che già con la Asrock 95W potevo stare RS a 5,3GHz con 1,515V come X2, ma l'8370 mi ha dato l'impressione di non superare i 5GHz. D'altronde AMD avrebbe potuto anche fare dei 9590 C0k a meno di 220W, ma se non l'ha fatto, un perchè ci deve essere.

Tra l'altro... da 1,29V 4,5GHz starei a 1,3V a 4,6GHz, ma le temp mi si alzano almeno di 5°... +0,01V non può fare una cosa del genere, a me sembra che AMD abbia spinto l'RCM e poi ci possono essere proci fortunelli o meno nel range 4,4GHz/4,6GHz, ma oltre poi si paga vs l'8350.

davo30
29-07-2016, 12:35
Cinebench, come bench, riesce a contenere tutti i dati nella cache?
A suo tempo avevo fatto dei test-bench settando i TH, da 8 a 16, 32, 64.
Non mi ricordo quando BD calava le prestazioni, se a 32 o 64 TH, però sarebbe interessante fare la stessa cosa con un i7.

P.S.
Non posso usare l'8370 perchè mi sono preso 3 vga 480 (le altre sono saltate) che hanno solamente l'uscita HDMI ed io non ho l'adattatore VGA :muro:

@piedone1113
Io con conversioni video, lanciando più conversioni contemporaneamente, ho una somma dei tempi inferiore stracaricando che fatti girare singolarmente. Di questo ne sono assolutamente sicuro perchè facendo le somme, ho rinunciato a 200 MHz di OC a favore del carico, io tenevo il procio a 4,6GHz anzichè 4,8GHz, a liquido. Tra l'altro, ho proprio dovuto abbandonare l'idea di tenerlo a 5GHz perchè con carico normale forse era RS a 1,525V (che è il limite DU del mio impianto liquido), ma con stracarico dovevo darci 1,550V e in accoppiata al fatto che le conversioni video richiedono molto tempo, la temp liquido si sarebbe alzata troppo (anche se >20 litri e quindi con un buon margine prima che entri a regime), già difficile in inverno, impensabile d'estate.

Ci sei andato giu pesante!

digieffe
29-07-2016, 12:50
Non mi pare proprio.

Non l'ho vista nell'elenco dei processori K10.

con un po' più di tempo l'ho trovata Athlon II X4 651K :)


Molto molto in fondo, perché senza dati completi sono test che lasciano il tempo che trovano.

Vedi il test di B&C, in cui marchigiano ha ragione: mancano i dati di SuperPi. Che fine hanno fatto?

Giusto per essere chiari, se vuoi fare un test serio, devi lanciare contemporaneamente le applicazioni da un tempo x a uno y, e vedere quanto riescano a macinare all'esatto scadere del tempo y.

per me è ovvio


non ricordo bene, forse l'utente Nardustyle fece dei test accettabili... qualcuno si ricorda?

leoneazzurro
29-07-2016, 13:37
@Leoneazzurro

Io non è che ne capisca tanto di trattamenti silicio, e un'altra volta mi avevi fatto notare che è sbagliato confrontare silici differenti.
Però io direi di considerare l'efficienza di una architettura rispetto ad un'altra sulla carta, ma non di giudicare il prodotto finito (architettura + silicio) perchè il silicio influenza e non poco.

Ad esempio, il Phenom I aveva 2,7GHz ed un IPC inferiore rispetto al Phenom II, che riuscì ad ottenere ben +1GHz con un IPC del 15% (o 17%) superiore.
Giudichiamo l'efficienza architetturale Phenom dalla versione I alla II. Non metto in dubbio che la variante II sia più ottimizzata della I ma certamente molto meno di quanto è incrementato per efficienza il 45nm sul 65nm (è pure da considerare che il Phenom I non abbia potuto inserire features e/o timing più spinti proprio per carenze silicio), tra l'altro il primo e unico modello 140W di AMD :doh:.

Sono in parecchi (in rete) a considerare il PP del 32nm uno dei peggiori di AMD, addirittura al livello, se non peggiore, del 65nm sempre AMD. Viceversa, il 45nm è stato uno dei migliori PP di AMD.

Ora... come si fa a giudicare l'efficienza di una architettura se poi confrontiamo Phenom II + miglior PP silicio AMD vs architettura BD con se non il peggiore tra i peggiori PP di AMD e di qui imputare l'efficienza ESCLUSIVAMENTE all'architettura?
Perchè se il SOI è migliore al Bulk, AMD ci ha speso soldi per portare BD sul 28nm Bulk? Perchè Llano (Phenom II) sul 32nm ha perso oltre il 20% rispetto al 45nm? Perchè invece BD sullo stesso silicio ha oltre 1GHz con il doppio dei core vs Llano?

Io dico solo che se una architettura non è efficiente, non lo è e punto. Ma allora come fa BR BD, per giunta sul 28nm, ad essere così efficiente?

Un calcolo approssimativo, secondo me, sarebbe questo:

Phenom II 45nm --> 32nm = -20% (prestazioni a parità di TDP, con Llano)
8350 32nm vs Thuban 45nm = +20% per BD.

Allora architettura BD vs architettura Phenom II = +40% (semplicemente sommando la perdita efficienza architettura + passaggio 45nm --> 32nm all'incremento BD 32nm vs Phenom II 45nm. Diversamente si applica tutta la perdita efficienza silicio esclusivamente all'architettura.

Il mio post era volto a ricordare che a parita' di architettura e di nodo del processo produttivo (leggi 45nm, 32nm, 28nm, ecc) si possono comunque avere variazioni riguardo le prestazioni termiche/in frequenza in base ad altre variabili come ad esempio numero e struttura delle metallizzazioni. Non solo, ma lo stesso processo produttivo a seconda dell'architettura utilizzata puo' fornire prestazioni differenti (es. le GPU Maxwell vs. Hawaii/Fiji, il processo produttivo era identico ma i consumi no).
I problemi di BD sono molteplici: il processo produttivo e' uno di questi (bisogna pero' chiedersi se fosse stato lecito aspettarsi dal processo le frequenze di 5+GHz che sarebbero state necessarie) ma anche tutta l'Architettura BD/PD/XV e' fortemente orientata all'elaborazione parallela piuttosto che alle prestazioni single thread, di deficienze strutturali ce ne sono parecchie (cache lente, mancanza di una µOp cache, ecc.) che non sono pertinenti al processo. Probabilmente AMD si aspettava un forte orientamento dello sviluppo software al multithreading, cosa che per ovvie ragioni non si e' realizzata. Accompagniamoci la mancanza di ottimizzazioni ad hoc e il quadro e' completo.

paolo.oliva2
29-07-2016, 13:52
SCinebench sull'8150 aveva un calo minimo su 16th, costante il calo fino a 32 th, a 64 th il calo era consistente e perdevi fluidità a desktop.
Sul 2600 il calo su 16th era leggermente più marcato in percentuale rispetto Amd, su 32 th il puntatore del mouse andava a scatti, su 64 sembrava bloccato il sitema, ma i test venivano conclusi sempre prima (se non sbaglio su 64th il divario tornava ad aumentare, è passato molto tempo e non ricordo).
Ma la mia conclusione fu che tranne fare da server per un db, una conversione video in backgroung e giocare a crisys, tutto in contemporanea l'i7 era superiore.
Ps fluidità percepita non rappresenta un maggior troughtout della cpu.


Paolo, se usavi freemake (e non format factory) la differenza a favore di due istanze vs una c'era (freemake utilizza 4 core al 50% di carico da gestione risorse, Format Factory ne utilizza 2), ma lo stesso guadagno percentuale lo ritrovavi anche con i7 se lo scheduler non assegna i th ai soli cori fisici.
Ma la proporzione era:
2 moduli vs 2 core ht 100 vs 130
4 moduli vs 4 core ht 220 vs 270
Bd recuperava in termini percentuali, ma perdeva in termini assoluti.
Se invece lo scheduler di win assegnava i 4 th ai cori fisici dell'i7 l'aumento prestazione c'era comunque perchè i core lavoravano al 50% delle capacità e praticamente egualiando i cori logici (minor carico sul core fisico maggiori risorse per il core logico)
situazione diversa invece se setti prime su 4 th vs 8th.
con 8 th attivi l'i7 guadagno circa il 20% in prestazioni (ci sono benchmark dove il guadagno è praticamente nullo), mentre con bd si aveva un quasi raddoppio delle prestazioni, ma il totale era sempre a favore di intel (a prescindere da quanti th usavi > di 8

Non ho capito bene... tu intendi che a fronte di un andamento a scatti l'SMT conserva comunque le prestazioni vs CMT o l'SMT ha più prestazioni finali perdendo comunque più del CMT?
Inoltre, riferito a quanto avevo postato precedentemente, l'SMT in sè, ha differenze di carico a seconda della grandezza delle cache del modello? Cioè, un Broadwell mobile, un 6700K, un 6850k (a parte la differenza del numero di core) non hanno una grandezza cache/core simile (L1+L2*l3/n° core) e quindi carichi differenti?

paolo.oliva2
29-07-2016, 14:15
Il mio post era volto a ricordare che a parita' di architettura e di nodo del processo produttivo (leggi 45nm, 32nm, 28nm, ecc) si possono comunque avere variazioni riguardo le prestazioni termiche/in frequenza in base ad altre variabili come ad esempio numero e struttura delle metallizzazioni. Non solo, ma lo stesso processo produttivo a seconda dell'architettura utilizzata puo' fornire prestazioni differenti (es. le GPU Maxwell vs. Hawaii/Fiji, il processo produttivo era identico ma i consumi no).
I problemi di BD sono molteplici: il processo produttivo e' uno di questi (bisogna pero' chiedersi se fosse stato lecito aspettarsi dal processo le frequenze di 5+GHz che sarebbero state necessarie) ma anche tutta l'Architettura BD/PD/XV e' fortemente orientata all'elaborazione parallela piuttosto che alle prestazioni single thread, di deficienze strutturali ce ne sono parecchie (cache lente, mancanza di una µOp cache, ecc.) che non sono pertinenti al processo. Probabilmente AMD si aspettava un forte orientamento dello sviluppo software al multithreading, cosa che per ovvie ragioni non si e' realizzata. Accompagniamoci la mancanza di ottimizzazioni ad hoc e il quadro e' completo.

Che BD sia partita con un IPC troppo basso, nessuno lo discute, ed anche se avesse avuto frequenze di 5GHz non è che avrebbe comunque avuto un ST esaltante.

Però io penso a questo: a parte le frequenze, è innegabile che il 32nm SOI abbia segato completamente l'aspettativa di aumentare i moduli a die sia con il 32nm che con la concellazione del successivo 22nm già programmata.

BD è stato un progetto "economico", perchè AMD non ha investito nulla in cache più veloci e quant'altro, ma solamente condividendo i 2 core con alcune features marginali. Secondo me, l'intenzione di AMD, come anche hai detto tu, era di puntare sulla potenza MT, ma il silicio di fatto concedendo max 4m/8c, ha segato il tutto portando il confronto verso Intel sugli X4+4, i quali avendo frequenze più alte def/turbo, hanno amplificato il deficit IPC. Io non penso che AMD si aspettasse che le software house perfezionassero l'MT, ma penso più che AMD si aspettasse un X10 PD sul 32nm e un X16 XV sul 22nm (che avrebbe visto il 5960X sul 22nm come antagonista) e il confronto sul 14nm Intel da definire.

Facendo un confronto 32nm SOi e 28nm Bulk, abbiamo che il 28nm Bulk potrebbe permettere un FX X8 con base XV a frequenze 3,7GHz def e 4,3GHz turbo, ed ipotizzando un +15% di IPC, vorrebbe dire un equivalente PD 4,25GHz/4,9GHz, cacchio, se giudichiamo ciofeca il 28nm Bulk GF, se riesce a fare meglio del 32nm SOI, allora il 32nm SOI è proprio un cesso.

Per me oggi un 8m/X16 XV se la potrebbe vedere con un 6850K tranquillamente, sia come efficienza che come potenza MT e come carico.
La differenza in ST ci sarebbe, ma da un 8350 con le stesse frequenze di un 6700K, avremmo un 8350 (vedi sopra) a 4,9GHz in turbo (+1,4GHz quasi +50%) e un MT con +1,25GHz (+40% di frequenza), il tutto con almeno 15-20W TDP in meno, ed il tutto sempre nell'ambito 28nm GF vs 14nm Intel super cazzuto. Cacchio architettura inefficiente + 28nm vs 14nm = simile efficienza, dove sarebbe il miracolo? Adesso non è che voglio arrivare che BD sia migliore di Intel, però guardiao anche la nostra tasca. Ad esempio, io preferirei un procio che vada meno del 10% di quello Intel ma pagarlo il 50% in meno rispetto al contrario. AMD con BD ha comunque rapportato un prezzo listino coerente a quanto abbia speso. Il mio obiettivo è di aumentare la potenza del mio PD X8, che alternative avrei? Un 6700K? Troppa spesa per poco di più... un X6+6 o un X8+8 Intel? Preferibile... aspettiamo sto Zen e valutiamo nel rapporto prestazioni/prezzo... io spero di pagarlo quanto un i7 X6 5920K ma avere prestazioni in linea al 6850K. Il 6950X è un altro pianeta come prezzo.

Mi viene difficile su queste basi giudicare l'architettura BD inefficiente... non perchè voglia difenderla. E poi ipotizzare su questo che un BR con 3,2 milioni di transistor costerebbe 185$ ed un XV X16 risulterebbe essere 2/3 di quel die, oddio... schiaffalo anche a 300€ e non basterebbero manco le fonderie GF/Samsung per reggere le richieste.

bjt2
29-07-2016, 14:25
Il mio post era volto a ricordare che a parita' di architettura e di nodo del processo produttivo (leggi 45nm, 32nm, 28nm, ecc) si possono comunque avere variazioni riguardo le prestazioni termiche/in frequenza in base ad altre variabili come ad esempio numero e struttura delle metallizzazioni. Non solo, ma lo stesso processo produttivo a seconda dell'architettura utilizzata puo' fornire prestazioni differenti (es. le GPU Maxwell vs. Hawaii/Fiji, il processo produttivo era identico ma i consumi no).
I problemi di BD sono molteplici: il processo produttivo e' uno di questi (bisogna pero' chiedersi se fosse stato lecito aspettarsi dal processo le frequenze di 5+GHz che sarebbero state necessarie) ma anche tutta l'Architettura BD/PD/XV e' fortemente orientata all'elaborazione parallela piuttosto che alle prestazioni single thread, di deficienze strutturali ce ne sono parecchie (cache lente, mancanza di una µOp cache, ecc.) che non sono pertinenti al processo. Probabilmente AMD si aspettava un forte orientamento dello sviluppo software al multithreading, cosa che per ovvie ragioni non si e' realizzata. Accompagniamoci la mancanza di ottimizzazioni ad hoc e il quadro e' completo.

Il problema del Pentium 4 era che scaldava e sul processo bulk il leakage esplodeva... Siccome AMD si è sempre bullata del fatto che i suoi processi SOI avevano un leakage da 10 a 20 volte inferiore, magari pensava di non avere problemi di TDP... E infatti l'architettura è progettata per non murare neanche a 5GHz, frequenza a cui l'unico problema è il TDP...

george_p
29-07-2016, 14:52
Il mio post era volto a ricordare che a parita' di architettura e di nodo del processo produttivo (leggi 45nm, 32nm, 28nm, ecc) si possono comunque avere variazioni riguardo le prestazioni termiche/in frequenza in base ad altre variabili come ad esempio numero e struttura delle metallizzazioni. Non solo, ma lo stesso processo produttivo a seconda dell'architettura utilizzata puo' fornire prestazioni differenti (es. le GPU Maxwell vs. Hawaii/Fiji, il processo produttivo era identico ma i consumi no).
I problemi di BD sono molteplici: il processo produttivo e' uno di questi (bisogna pero' chiedersi se fosse stato lecito aspettarsi dal processo le frequenze di 5+GHz che sarebbero state necessarie) ma anche tutta l'Architettura BD/PD/XV e' fortemente orientata all'elaborazione parallela piuttosto che alle prestazioni single thread, di deficienze strutturali ce ne sono parecchie (cache lente, mancanza di una µOp cache, ecc.) che non sono pertinenti al processo. Probabilmente AMD si aspettava un forte orientamento dello sviluppo software al multithreading, cosa che per ovvie ragioni non si e' realizzata. Accompagniamoci la mancanza di ottimizzazioni ad hoc e il quadro e' completo.

Ciao Leoneazzurro, ottima analisi dei fatti.
Tu che conoscenze e competenze hai?
La mia è semplice curiosità :)
Grazie

Piedone1113
29-07-2016, 16:27
S

Non ho capito bene... tu intendi che a fronte di un andamento a scatti l'SMT conserva comunque le prestazioni vs CMT o l'SMT ha più prestazioni finali perdendo comunque più del CMT?
Inoltre, riferito a quanto avevo postato precedentemente, l'SMT in sè, ha differenze di carico a seconda della grandezza delle cache del modello? Cioè, un Broadwell mobile, un 6700K, un 6850k (a parte la differenza del numero di core) non hanno una grandezza cache/core simile (L1+L2*l3/n° core) e quindi carichi differenti?

Paolo CMT SMT sono due tecniche che dicono tutto e niente.
L'implementazione CMT di BD è fallimentare, ma non il cmt in se (immagina un modulo composto da 4 core int e 2 fpu, credi che avrebbe le stessa prestazioni del modulo BD.
Oppure un modulo bd con fpu sincrona ma al doppio della frequenza dei core int, magari coadiuvata da un smt a 4 vie a modulo.

Quello che dico è che BD aveva fino a 32 th aveva in cache i dati disponibili per il desktop, sandy bridge no.
o meglio:
Con amd tutti i dati potevano essere presi direttamente dai diversi livelli di cache, mentre con intel bisogna caricarli da ram, in l3, in l2.
Per svuotare la cache in l2 e riversarvi i dati della l3 bisogna aspettare che finisce la coda in esecuzione nei core, ed anche se vanno a 200 kmh hai delle latenza da subire.
Latenze che sommate all'alto ipc non rallentano la cpu.
Con amd non si ha il bisogno di travasare i dati tra le cache ed anche se a latenza delle singole cache maggiori hai meno latenze totali nello switchare tra i vari task.
Considera come un impianto edile:
I dati sono i mattoni per costruire, mentre i core sono i muratori.
Bene i muratori Intel ti posano 100 mattoni al secondo, mentre quelli amd 50.
Più muri dai da costruire al singolo muratore (i th) più mattoni di diverso tipo hai bisogno.
Arrivati ad un certo punto il muratore intel invece di passare al muro che ti aspetti poggia qualche mattone in più sul muro precedente in attesa che arrivino i mattoni giusti, mentre il muratore amd ha molta più probabilità di trovare il mattoni per il muro disponibile gia pronti (magari si allontana di 1 mt per prenderli in l3 invece che in l2).
Questa è la differenza (secondo me)
Se ci ragioni un poco capirai che se un core ha un ipc medio di 100, mentre l'altro di 50 il lavoro utile sarà sempre superiore quello del primo sul secondo, a dispetto dell'apperente lag del mouse (e se consideri che la piattaforma lga 2011 ha il quad channel proprio per non far restare la cpu a girarsi i pollici dato l'elavata capacità di consumare dati in attesa degli stessi dalla ram).
Vedi, l'architettura intel è limitata più dalla banda verso la ram che dall'ipc dei core, mentre quella di amd è il contrario.
Se non sbaglio avevi fatto dei test sulla ram dove sopra i 1866mhz praticamente non avevi aumenti di ipc (e spesso gli aumenti sono dovuto alle latenze ridotte dopo un cache miss e non ai maggiori dati elaborati al secondo), con le cpu intel l'ipc tende ad aumentare fino ai 2400mhz (parliamo di ddr3) segnale che alcuni tipi di calcolo sono limitati dalla ram che non riesce a fornire abbastanza dati.
Avevo letto su un articolo la differenza di prestazioni su server tra architettura ARM, Intel ed AMD ai tempi del 2600 e 8150.
il server arm era un 64 core, i server x86 erano 16 core (intel) e 32 core (amd).
Il server Arm era in vantaggio sulle architetture x86 nel rapporto performance watt fino a 32 istanze contemporanee, dopo di chè il vantaggio si assottigliava fino a raggiungere il pareggio alle 64 istanze (richieste al db sul server da client diversi).
oltre le 64 istanze contemporanee il server arm collassava, mentre amd ed intel andava avanti fino a 128 transazioni contemporanee (Amd senza avere cali di performance fino a 96 transazioni, mentre intel rallentava le proprie prestazioni oltre le 80 transazioni contemporanee).
A 140 transazioni contemporanee tutte e due i server mostravano i fianchi, ma con il server intel in vantaggio nell'esaudire le richieste rispetto a quello AMD.
Il test era fatto per valutare il costo macchina:
Il server arm venne considerato vantaggioso fino 48 istanze (ma indietro se si prendevano server a 8 core x86), superati tali limiti i server arm dovevano essere doppi per gestire i picchi di istanze ( e quindi non più economicamente vantaggiosi), il server Amd venne indicato come vantaggio fino a 96 transazioni, ma con una vita lavorativa di 30 mesi (oltre era antieconomico per i consumi totali), mentre quello intel era consigliato per 96 transazioni medie con picchi fino a 128 e/o 5 anni di vita.
Quindi paolo sotto carico spinto un core ht intel ai tempi dell'fx8150 era superiore ad un modulo AMD prestazionalmente.

cdimauro
29-07-2016, 19:05
No, di un modulo BD... In realtà forse un po' meno, perchè mancano 2 AGU, due unità di L/S, 0.5-1.5MB di L2 e forse dei decoder, ma in più ha le varie feature e un po' più di L1...
Però Zen ha pure l'FPU potenziata. Per cui bene o male i transistor potrebbero essere quelli, in base a quello di cui abbiamo discusso tempo fa qui.
:asd: Vabeh, volevo dire che in MT pesante con parecchi thread a basso IPC fa un po' meno schifo... :asd:
:D

Comunque alla luce di questa:

http://image.slidesharecdn.com/20130208annuncipower7plussitocta-130405173336-phpapp01/95/2013-02-08-annunci-power-7-plus-sito-cta-7-638.jpg?cb=1365183251

mi rimangio quello che avevo detto sul processo 32nm SOI: no, non fa affatto schifo, considerato quello che è riuscita a guadagnare IBM nel passaggio dai 45nm. I numeri parlano chiaro. :read:

I problemi li ha avuti AMD, con le sue (micro)architetture.
Ho notato che la fluidità di sistema su architettura core (ps il core duo non ha ht, refuso o confusione) si va a farsi friggere sopro a 3 th per core.
BD invece regge bene fino a 4th a core (th ad uso intensivo cpu).
Però a parità di carico (con architettura core in crisi di fluidità) le cpu intel (con ht, perchè paragoniamo smt vs cmt tra i due competitor) intel esegue sempre prima tutti i task (anche quando sembra piantato).
e la differenza di prestazioni tra i7 2600 e 8150 rimane pressocchè costante (in percentuale) con alcune situazioni dove addirittura il divario aumenta.
Test fatti in proprio perchè ho cercato di capire il comportamento di bd che sembra sempre essere sotto carico leggero, anche se non si vedono risultati al top.
IMO è proprio dovuto all'approccio CMT: non potendo un solo thread hardware sfruttare tutte le istruzioni & porte a disposizione, come invece fa l'SMT, il secondo thread hardware trova sempre a disposizione delle risorse da utilizzare (quelle sue, esclusive: due istruzioni decodificate + le sue macroALU), e dunque portare avanti la sua esecuzione.

Mentre con l'SMT il thread più attivo può arrivare a far morire di fame l'altro, impegnando per te la maggior parte delle risorse. Però dovrebbe esserci qualche politica di scheduling che conceda all'altro thread un po' di risorse se è da troppo tempo che è rimasto a "morire di fame".
Secondo me avere cmt + ht 2 vie avrebbe mitigato in alcuni scenari il distacco vs core, ma allora molto meglio architettura smt pura (magari smt4) perchè cmt+smt avrebbe avuto un costo di sviluppo e transistor molto elevato.
Non capisco cosa intendi con CMT + HT 2 vie.
Può essere... INTEL ha 2.5MB di L3 per core, perchè inclusiva... BD 2+1+ la L1... Però la differenza non è molta... 512 KB...
Concordo: non ci sono molte differenze.

A parte la cache L1 dati per ogni macroALU di Bulldozer, che IMO è troppo piccola, e ricorda, ancora una volta, lo stesso approccio di Intel col P4 (la prima versione aveva una cache L1 dati di appena 8KB. Poi portati a 16KB con la seconda versione).

E' come se AMD avesse copiato l'approccio di Intel col P4, ignorandone tutte le magagne.
con un po' più di tempo l'ho trovata Athlon II X4 651K :)
Già. Manco ricordavo che esistesse. :D
Il mio post era volto a ricordare che a parita' di architettura e di nodo del processo produttivo (leggi 45nm, 32nm, 28nm, ecc) si possono comunque avere variazioni riguardo le prestazioni termiche/in frequenza in base ad altre variabili come ad esempio numero e struttura delle metallizzazioni. Non solo, ma lo stesso processo produttivo a seconda dell'architettura utilizzata puo' fornire prestazioni differenti (es. le GPU Maxwell vs. Hawaii/Fiji, il processo produttivo era identico ma i consumi no).
Infatti. Lo dimostra anche IBM coi suoi POWER 7 e 7+, passando dai 45 ai 32nm SOI. IBM non ha sofferto il passaggio, mentre AMD sì.
I problemi di BD sono molteplici: il processo produttivo e' uno di questi (bisogna pero' chiedersi se fosse stato lecito aspettarsi dal processo le frequenze di 5+GHz che sarebbero state necessarie) ma anche tutta l'Architettura BD/PD/XV e' fortemente orientata all'elaborazione parallela piuttosto che alle prestazioni single thread, di deficienze strutturali ce ne sono parecchie (cache lente, mancanza di una µOp cache, ecc.) che non sono pertinenti al processo. Probabilmente AMD si aspettava un forte orientamento dello sviluppo software al multithreading, cosa che per ovvie ragioni non si e' realizzata. Accompagniamoci la mancanza di ottimizzazioni ad hoc e il quadro e' completo.
Sostanzialmente d'accordo, ma per mancanza di ottimizzazioni a cosa ti riferisci.
Però io penso a questo: a parte le frequenze, è innegabile che il 32nm SOI abbia segato completamente l'aspettativa di aumentare i moduli a die sia con il 32nm che con la concellazione del successivo 22nm già programmata.
Alla luce dei risultati di IBM, direi proprio di no: è negabilissimo che i problemi di cui parli siano dovuti al passaggio ai 32nm SOI. Basti vedere l'immagine di cui sopra: i dati sono chiarissimi.
Adesso non è che voglio arrivare che BD sia migliore di Intel
Tranquillo: dati alla mano è impossibile da sostenere. :D
Mi viene difficile su queste basi giudicare l'architettura BD inefficiente... non perchè voglia difenderla.
Anche perché, come dicevo sopra, non ci sono proprio gli estremi per poterlo fare: BD è e rimane inefficiente, e non c'è nemmeno la scusa del processo produttivo che può mitigarlo.
Vedi, l'architettura intel è limitata più dalla banda verso la ram che dall'ipc dei core, mentre quella di amd è il contrario.
Se non sbaglio avevi fatto dei test sulla ram dove sopra i 1866mhz praticamente non avevi aumenti di ipc (e spesso gli aumenti sono dovuto alle latenze ridotte dopo un cache miss e non ai maggiori dati elaborati al secondo), con le cpu intel l'ipc tende ad aumentare fino ai 2400mhz (parliamo di ddr3) segnale che alcuni tipi di calcolo sono limitati dalla ram che non riesce a fornire abbastanza dati.
Ci sono dei test che dimostrano che la maggior banda influenza mediamente poco le prestazioni.

Piedone1113
29-07-2016, 19:56
Però Zen ha pure l'FPU potenziata. Per cui bene o male i transistor potrebbero essere quelli, in base a quello di cui abbiamo discusso tempo fa qui.

:D



IMO è proprio dovuto all'approccio CMT: non potendo un solo thread hardware sfruttare tutte le istruzioni & porte a disposizione, come invece fa l'SMT, il secondo thread hardware trova sempre a disposizione delle risorse da utilizzare (quelle sue, esclusive: due istruzioni decodificate + le sue macroALU), e dunque portare avanti la sua esecuzione.

Mentre con l'SMT il thread più attivo può arrivare a far morire di fame l'altro, impegnando per te la maggior parte delle risorse. Però dovrebbe esserci qualche politica di scheduling che conceda all'altro thread un po' di risorse se è da troppo tempo che è rimasto a "morire di fame".

Non capisco cosa intendi con CMT + HT 2 vie.




Infatti. Lo dimostra anche IBM coi suoi POWER 7 e 7+, passando dai 45 ai 32nm SOI. IBM non ha sofferto il passaggio, mentre AMD sì.


Alla luce dei risultati di IBM, direi proprio di no: è negabilissimo che i problemi di cui parli siano dovuti al passaggio ai 32nm SOI. Basti vedere l'immagine di cui sopra: i dati sono chiarissimi.

Tranquillo: dati alla mano è impossibile da sostenere. :D

Anche perché, come dicevo sopra, non ci sono proprio gli estremi per poterlo fare: BD è e rimane inefficiente, e non c'è nemmeno la scusa del processo produttivo che può mitigarlo.

Ci sono dei test che dimostrano che la maggior banda influenza mediamente poco le prestazioni.

Se non sbaglio IBM impiego oltre 18 mesi per il power7+ ed in parte le previsioni sui consumi furono disattesi.
Se poi non sbaglio il passaggio da 45 a 32 nm avrebbe dovuto portare una riduzione di un fattore 4 sulle dimensioni, (realisticamente 3,5) ma difatti la riduzione è stata di un fattore 2, quindi continuo a reputare il 32 SOI poco riuscito.

Per quando riguarda le risorse contese dall'ht ed esclusive del cmt è vero in parte:
con 4 th a modulo le risorse del singolo core in bd sarebbero comunque state insufficienti per mantenere fluidità, ma qua stiamo parlando di 8 th a modulo (4 a core int e ben 8 per la fpu condivisa) dove questa ipotesi sarebbe poco credibile (da parte mia).
Per la cache invece il core intel ha bisogno di leggere e scrivere i dati direttamente in L2 (considerando la L1 tutt'uno con il core) ma non in L3, a differenza di Amd che può farlo direttamente in L3.

E se fossero le sole risorse condivise il problema quando il sistema perde reattività le prestazioni dovrebbero calare in modo marcato, cosa che invece non avviene.
Per la ram è vero che oltre una certa frequenza la variazione di ipc è minima, ma AMD si ferma a 1866 sulla ram, oltre non vale la pena, tranne che sulle apu che sono affamate di banda per via della grafica, mentre con intel questo si inizia ad avvertire oltre i 2133mhz, ed è evidente quanto più la cpu è in overclock.
Questo, secondo me, significa che in determinate condizioni la banda verso la ram mi rallenta il sistema (in situazioni dove la ram è effettivamente stressata), chiaramente dove la banda verso la ram è minima non si avranno miglioramenti ( e probabilmente l'abbassamento di ipc sarebbe minimo anche settando la ram a 1033 mhz ).
Per quanto riguarda il CMT:
Un modulo da 4 core int e 3 fpu condivise dinamicamente tra i core rimane sempre un approcio cmt, ma questo non vieterebbe di implementare anche smt dove ogni core fisico in hardware potrebbe eseguire due th (considerando poi il rapporto ht = +25 % sarebbe come avere 5 core con 3 fpu in un rapporto più vantaggioso di 2 a 1)

cdimauro
29-07-2016, 21:06
Se non sbaglio IBM impiego oltre 18 mesi per il power7+
E' normale: fra POWER6 e POWER6+ ci sono circa 2 anni, e lo stesso vale per POWER7 e POWER7+.
ed in parte le previsioni sui consumi furono disattesi.
No, guarda tu stesso (https://www-01.ibm.com/events/wwe/grp/grp024.nsf/vLookupPDFs/Printemps%20de%20la%20TPrintemps%20de%20la%20Technologie%202013%20S.%20Chabrolles/$file/Printemps%20de%20la%20TPrintemps%20de%20la%20Technologie%202013%20S.%20Chabrolles.pdf): frequenze aumentate e consumi ridotti, pur con col 75% di transistor in più.

E non si tratta di un caso isolato, perché risultati simili sono stati ottenuti sempre da IBM, quando la sua architettura Z (che è completamente diversa da quella POWER, e molto più CISC-like) è passata z196/45nm a zNext/32nm (sempre SOI).
Ecco qui (http://www.hotchips.org/wp-content/uploads/hc_archives/hc24/HC24-9-Big-Iron/HC24.29.930-zNext-Shum-IBM.pdf): frequenze aumentate (anche se non di molto come per POWER 7 -> 7+, perché erano già molto tirate), una marea di cambiamenti nonché core aumentati, e consumi simili.

Ricapitolando:
- due architetture completamente diverse;
- passaggio da 45 a 32nm SOI;
- vantaggi in tutti i settori.

:read:

Risultati completamente diversi da quelli ottenuti da AMD quando ha fatto la stessa cosa col K10. Per Bulldozer non c'è un predecessore per poter fare un confronto, ma se AMD s'aspettava frequenze più elevate, come ha fatto col K10 ha fallito anche con Bulldozer, e NON certo per colpa del processo produttivo.
Se poi non sbaglio il passaggio da 45 a 32 nm avrebbe dovuto portare una riduzione di un fattore 4 sulle dimensioni, (realisticamente 3,5) ma difatti la riduzione è stata di un fattore 2, quindi continuo a reputare il 32 SOI poco riuscito.
Ancora no: fra 45 e 32 nm la riduzione è di un fattore 1,98, e dunque si avvicina al 2x di cui parlavi.

IBM fra POWER7 e POWER7+ è riuscito a impacchettare il 75% in più di transistor a parità di area: non è il 98% in più, ma è comunque un ottimo risultato.
Per quando riguarda le risorse contese dall'ht ed esclusive del cmt è vero in parte:
con 4 th a modulo le risorse del singolo core in bd sarebbero comunque state insufficienti per mantenere fluidità, ma qua stiamo parlando di 8 th a modulo (4 a core int e ben 8 per la fpu condivisa) dove questa ipotesi sarebbe poco credibile (da parte mia).
Non volevo paragonare POWER7+ a BD: ho semplicemente portato un esempio di passaggio da 45 a 32 nm SOI, che è avvenuto con successo. E adesso ne ho aggiunto un altro.
Per la cache invece il core intel ha bisogno di leggere e scrivere i dati direttamente in L2 (considerando la L1 tutt'uno con il core) ma non in L3, a differenza di Amd che può farlo direttamente in L3.
I core Intel non sono costretti a passare sempre dalla L2 quando accedono alla L1; tutt'altro. Ed è questa la cosa più importante. D'altra parte con la cache L1 più ampia (e con maggior associatività, se non ricordo male), hanno più cache hit e meno necessità di passare alla L2, alla L3, e così via.

Poi, se non ricordo male, gestire la gerarchia delle cache è molto più semplice quando non sono esclusive.
E se fossero le sole risorse condivise il problema quando il sistema perde reattività le prestazioni dovrebbero calare in modo marcato, cosa che invece non avviene.
No, è proprio il contrario: le prestazioni sono elevate quando si perde di reattività, perché c'è un thread hardware che monopolizza l'uso delle risorse.

Il che significa pure che le risorse vengono meglio sfruttate dai thread hardware.
Per la ram è vero che oltre una certa frequenza la variazione di ipc è minima, ma AMD si ferma a 1866 sulla ram, oltre non vale la pena, tranne che sulle apu che sono affamate di banda per via della grafica, mentre con intel questo si inizia ad avvertire oltre i 2133mhz, ed è evidente quanto più la cpu è in overclock.
Questo, secondo me, significa che in determinate condizioni la banda verso la ram mi rallenta il sistema (in situazioni dove la ram è effettivamente stressata), chiaramente dove la banda verso la ram è minima non si avranno miglioramenti ( e probabilmente l'abbassamento di ipc sarebbe minimo anche settando la ram a 1033 mhz ).
Tagliamo la testa al toro: Memory Performance: 16GB DDR3-1333 to DDR3-2400 on Ivy Bridge IGP with G.Skill (http://www.anandtech.com/show/6372/memory-performance-16gb-ddr31333-to-ddr32400-on-ivy-bridge-igp-with-gskill)

E ancora meno sensibile è il passaggio da DDR3 a DDR4, con Skylake:
The Intel 6th Gen Skylake Review: Core i7-6700K and i5-6600K Tested - DDR4 vs DDR3L on the CPU (http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/7)
Per quanto riguarda il CMT:
Un modulo da 4 core int e 3 fpu condivise dinamicamente tra i core rimane sempre un approcio cmt, ma questo non vieterebbe di implementare anche smt dove ogni core fisico in hardware potrebbe eseguire due th (considerando poi il rapporto ht = +25 % sarebbe come avere 5 core con 3 fpu in un rapporto più vantaggioso di 2 a 1)
Sì, ma nessuno l'ha fatto: o si va di CMT o di SMT. Si vede che un ibrido comporterebbe delle complicazioni.

george_p
29-07-2016, 21:35
Per Bulldozer non c'è un predecessore per poter fare un confronto, ma se AMD s'aspettava frequenze più elevate, come ha fatto col K10 ha fallito anche con Bulldozer, e NON certo per colpa del processo produttivo.


Queste sono tue supposizioni o ti basi su qualcosa di concretamente dimostrabile?
Dalle informazioni e dai fatti seguiti in tutti questi anni personalmente do un concorso di colpa sia all'architettura sia al processo.
Se no spiegami perché in PD hanno potuto aumentare la frequenza con l'aggiunta del RCM, e in 4 anni di questa architettura su 32, mi riferisco quindi ai soli FX escluse le apu, amd non abbia tirato fuori frequenze più elevate o per lo meno consumi decisamente ridotti con il SOI come ha sempre fatto in passato quando, pure in soli 12 mesi, se il silicio era buono, le cpu amd cambiavano eccome di step in step.

cdimauro
29-07-2016, 21:41
I fatti e i dati li ho riportati, con tanto di link: se poi non vengono letti non è più un problema mio.

george_p
29-07-2016, 21:46
I fatti e i dati li ho riportati, con tanto di link: se poi non vengono letti non è più un problema mio.

E sarebbero i fatti?
Quel link con l'immagine dei power ibm?

cdimauro
29-07-2016, 21:48
Per esempio; ma c'è anche l'altro link con un bel PDF su POWER7+.

Poi c'è quello con l'architettura Z, sempre di IBM.

Entrambi esempi di come il passaggio ai 32nm SOI sia stato tutt'altro che problematico per IBM.

leoneazzurro
29-07-2016, 22:47
Che BD sia partita con un IPC troppo basso, nessuno lo discute, ed anche se avesse avuto frequenze di 5GHz non è che avrebbe comunque avuto un ST esaltante.

Però io penso a questo: a parte le frequenze, è innegabile che il 32nm SOI abbia segato completamente l'aspettativa di aumentare i moduli a die sia con il 32nm che con la concellazione del successivo 22nm già programmata.

BD è stato un progetto "economico", perchè AMD non ha investito nulla in cache più veloci e quant'altro, ma solamente condividendo i 2 core con alcune features marginali. Secondo me, l'intenzione di AMD, come anche hai detto tu, era di puntare sulla potenza MT, ma il silicio di fatto concedendo max 4m/8c, ha segato il tutto portando il confronto verso Intel sugli X4+4, i quali avendo frequenze più alte def/turbo, hanno amplificato il deficit IPC. Io non penso che AMD si aspettasse che le software house perfezionassero l'MT, ma penso più che AMD si aspettasse un X10 PD sul 32nm e un X16 XV sul 22nm (che avrebbe visto il 5960X sul 22nm come antagonista) e il confronto sul 14nm Intel da definire.

Facendo un confronto 32nm SOi e 28nm Bulk, abbiamo che il 28nm Bulk potrebbe permettere un FX X8 con base XV a frequenze 3,7GHz def e 4,3GHz turbo, ed ipotizzando un +15% di IPC, vorrebbe dire un equivalente PD 4,25GHz/4,9GHz, cacchio, se giudichiamo ciofeca il 28nm Bulk GF, se riesce a fare meglio del 32nm SOI, allora il 32nm SOI è proprio un cesso.

Per me oggi un 8m/X16 XV se la potrebbe vedere con un 6850K tranquillamente, sia come efficienza che come potenza MT e come carico.
La differenza in ST ci sarebbe, ma da un 8350 con le stesse frequenze di un 6700K, avremmo un 8350 (vedi sopra) a 4,9GHz in turbo (+1,4GHz quasi +50%) e un MT con +1,25GHz (+40% di frequenza), il tutto con almeno 15-20W TDP in meno, ed il tutto sempre nell'ambito 28nm GF vs 14nm Intel super cazzuto. Cacchio architettura inefficiente + 28nm vs 14nm = simile efficienza, dove sarebbe il miracolo? Adesso non è che voglio arrivare che BD sia migliore di Intel, però guardiao anche la nostra tasca. Ad esempio, io preferirei un procio che vada meno del 10% di quello Intel ma pagarlo il 50% in meno rispetto al contrario. AMD con BD ha comunque rapportato un prezzo listino coerente a quanto abbia speso. Il mio obiettivo è di aumentare la potenza del mio PD X8, che alternative avrei? Un 6700K? Troppa spesa per poco di più... un X6+6 o un X8+8 Intel? Preferibile... aspettiamo sto Zen e valutiamo nel rapporto prestazioni/prezzo... io spero di pagarlo quanto un i7 X6 5920K ma avere prestazioni in linea al 6850K. Il 6950X è un altro pianeta come prezzo.

Mi viene difficile su queste basi giudicare l'architettura BD inefficiente... non perchè voglia difenderla. E poi ipotizzare su questo che un BR con 3,2 milioni di transistor costerebbe 185$ ed un XV X16 risulterebbe essere 2/3 di quel die, oddio... schiaffalo anche a 300€ e non basterebbero manco le fonderie GF/Samsung per reggere le richieste.

Il problema e' che il throughput single thread e' e sara' sempre importante, non tutto e' parallelizabile per questo il non raggiungimento di determinate frequenze ha segnato il fallimento commerciale di Bulldozer, cosa che non dico io ma che ha detto il mercato, e dico a malincuore perche' in questo modo Intel ha potuto fare la politica dei prezzi che voleva, senza concorrenza. Inoltre, per molte applicazioni "consumer" parallelizzabili come ad esempio la conversione video il trend e' stato di spostarsi su unita' dedicate (quicksinc) o demandare i calcoli alla GPU, cosa che ha reso ancora meno appetibile una unita' a molti core ma relativamente scarse capcacita' single thread.

Il problema del Pentium 4 era che scaldava e sul processo bulk il leakage esplodeva... Siccome AMD si è sempre bullata del fatto che i suoi processi SOI avevano un leakage da 10 a 20 volte inferiore, magari pensava di non avere problemi di TDP... E infatti l'architettura è progettata per non murare neanche a 5GHz, frequenza a cui l'unico problema è il TDP...

Ma quello che dico io e' che il TDP dipende anche dal processo, ma non puo' prescindere dall'architettura/design del chip. Ripeto, guardiamo l'esempio di Maxwell contro Hawaii, stesso processo ma consumi molto diversi e clock persino piu' alti per la soluzione Nvidia. Con questo non voglio dire che in AMD non sappiano disegnare i chip, credo pero' che abbiano fatto delle scelte in termini di allocazione dell'area del chip che hanno reso meno in termini di TDP.

Ciao Leoneazzurro, ottima analisi dei fatti.
Tu che conoscenze e competenze hai?
La mia è semplice curiosità :)
Grazie

Grazie, ma io non sono un addetto i lavori. Ho una laurea in Ingegneria Elettrica e lavoro nel campo dei semiconduttori, ma quelli di potenza e non dei microprocessori. Tuttavia non sono all'oscuro dei processi di fabbricazione dei circuiti VLSI e ho coltivato una passione piu' che ventennale per l'informatica, le CPU e le GPU. Sono stato anche moderatore qui su HWUpgrade per qualche anno, finche' gli impegni di lavoro non hanno preso il sopravvento.


Sostanzialmente d'accordo, ma per mancanza di ottimizzazioni a cosa ti riferisci.


Supporto di path ottimizzati da parte delle applicazioni/compilatori, sfruttamento da parte dei programmi di alcune caratteristiche della FPU di Bulldozer (mi sovviene all'inizio ci furono problemi di sfruttamento della FMA4, ma potrei sbagliarmi, e' passato parecchio tempo). Bulldozer e derivati potevano/possono rendere di piu' ma a mio parere servirebbe un buon lavoro di "tuning" che nessuno credo si prenderebbe la briga di intraprendere dato lo scarso rapporto costi/benefici.

george_p
29-07-2016, 22:59
Per esempio; ma c'è anche l'altro link con un bel PDF su POWER7+.

Poi c'è quello con l'architettura Z, sempre di IBM.

Entrambi esempi di come il passaggio ai 32nm SOI sia stato tutt'altro che problematico per IBM.

Forse trascuri una cosa molto importante. Il processo sarà pure di ibm che lo ha progettato e sviluppato per i suoi processori, ma chi lo produce per amd è global foundries.
Quindi uno è quello di ibm e uno è quello di glo fo.

Ciao Leoneazzurro: Grazie.

tuttodigitale
29-07-2016, 23:12
http://image.slidesharecdn.com/20130208annuncipower7plussitocta-130405173336-phpapp01/95/2013-02-08-annunci-power-7-plus-sito-cta-7-638.jpg?cb=1365183251
Non rimangiarti niente....IBM ha migliorato del 10-15% l'efficienza in carichi HPC, ....guarda che il 4,4GHz+ è in verità un 4,42GHz e il 4GHz del power7 è un 4,24GHz....l'aumento di ipc è del 3%....
e in tutto questo IBM attribuisce "ben" il 6% al processo produttivo...

è una tabellina fuorviante....

Per esempio; ma c'è anche l'altro link con un bel PDF su POWER7+.

Poi c'è quello con l'architettura Z, sempre di IBM.

Entrambi esempi di come il passaggio ai 32nm SOI sia stato tutt'altro che problematico per IBM.

sull'architettura Z, si mormorava che dovesse superare abbondantemente i 6GHz...avendo lo stesso fo4 13 del power6...

digieffe
30-07-2016, 00:51
Sì, ma nessuno l'ha fatto: o si va di CMT o di SMT. Si vede che un ibrido comporterebbe delle complicazioni.

la memoria non mi accompagna ma ricordo qualcosa a proposito di cmt+smt, oracle ... ?

Free Gordon
30-07-2016, 02:20
A livello di RS ne sono sicuro al 99,99%, a livello di test tipo OCCT o carico intenso, non posso metterci la mano sul fuoco per il DU, perchè con 32° temp (ma nella stanza di più), io "soffro" quando vedo >65° e sono arrivato a max a 72°.

Ok, ho capito.. ;)
Con quel metro lì, non saprei dirti dove può arrivare il mio 8370e, perché tendenzialmente trovo sempre la frequenza max per l'OC daily con IBT e Prime95..
Se giudicassi dalla solidità in altre applicazioni (giochi, conversioni, ecc) avrei sicuramente bisogno di meno tensione e forse potrei recuperare ancora un 100-200mhz sul core. Il problema grosso è il dissi stock cmq... :D

cdimauro
30-07-2016, 06:40
Ma quello che dico io e' che il TDP dipende anche dal processo, ma non puo' prescindere dall'architettura/design del chip. Ripeto, guardiamo l'esempio di Maxwell contro Hawaii, stesso processo ma consumi molto diversi e clock persino piu' alti per la soluzione Nvidia. Con questo non voglio dire che in AMD non sappiano disegnare i chip, credo pero' che abbiano fatto delle scelte in termini di allocazione dell'area del chip che hanno reso meno in termini di TDP.
Esattamente. Più chiaro di così...
Supporto di path ottimizzati da parte delle applicazioni/compilatori, sfruttamento da parte dei programmi di alcune caratteristiche della FPU di Bulldozer (mi sovviene all'inizio ci furono problemi di sfruttamento della FMA4, ma potrei sbagliarmi, e' passato parecchio tempo). Bulldozer e derivati potevano/possono rendere di piu' ma a mio parere servirebbe un buon lavoro di "tuning" che nessuno credo si prenderebbe la briga di intraprendere dato lo scarso rapporto costi/benefici.
OK, chiaro. AMD non ha una tradizione in ambito compilatori (a parte quelli per le sue GPU), ma non avrebbe comunque migliorato molto la situazione perché il problema di Bulldozer è (micro)architetturale.
Forse trascuri una cosa molto importante. Il processo sarà pure di ibm che lo ha progettato e sviluppato per i suoi processori, ma chi lo produce per amd è global foundries.
Quindi uno è quello di ibm e uno è quello di glo fo.
Ma anche no: Globalfoundries e IBM avviano la produzione congiunta presso la Fab 8 (http://pro.hwupgrade.it/news/mercato/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html)

"Globalfoundries ed IBM hanno annunciato un accordo per la produzione congiunta di chip presso lo stabilimento "Fab 8" di Globalfoundries situato nella Contea di Saratoga, con la pianificazione della produzione in volumi durante la seconda metà del 2012. La produzione di questi processori è stata inizialmente avviata nello stabilimento di IBM presso East Fishkill che opera con wafer da 300mm.

I processori che verranno prodotti nello stabilimento Fab 8 sono basati sulla tecnologia SOI a 32 nanometri di IBM che è stata sviluppaa conginuntamente con Globalfoundries e altri membri della Process Development Alliance di IBM, assieme ad una iniziale attività di ricerca del College of Nanoscale Science and Engineering dell'Università di Albany."

Infatti GlobalFoundries ha prodotto (produce ancora?) i POWER7+ di IBM.

Inoltre ti faccio presente che i lavori sui 32nm SOI iniziarono quando GlobalFoundries non esisteva ancora e le fabbriche erano tutte di AMD. AMD si è defilata completamente soltanto a marzo 2012: AMD rinuncia alle restanti quote in Globalfoundries (http://pro.hwupgrade.it/news/mercato/amd-rinuncia-alle-restanti-quote-in-globalfoundries_41050.html).

Ossia quando Llano prima e Bulldozer poi erano già stati commercializzati.

Dunque cercare di scaricare le responsabilità dei 32nm (che comunque non ci sono: vedi IBM POWER7+ & Z) su GlobalFoundries equivale a scaricarle su AMD.
Non rimangiarti niente....IBM ha migliorato del 10-15% l'efficienza in carichi HPC, ....guarda che il 4,4GHz+ è in verità un 4,42GHz e il 4GHz del power7 è un 4,24GHz....l'aumento di ipc è del 3%....
e in tutto questo IBM attribuisce "ben" il 6% al processo produttivo...

è una tabellina fuorviante....
OK, sono 4,25 GHz POWER7 vs 4,42Ghz POWER7+ ma intanto c'è stato un aumento di frequenza o no? Inoltre bisogna vedere se i 4,25Ghz vengono raggiunti da POWER7 con lo stesso numero di core di POWER7+, altrimenti il confronto lascia il tempo che trova.

Poi non ho parlato di prestazioni.

Infine ho fornito anche un corposo PDF sulla presentazione di POWER7+che forse ti sarà sfuggito, e riporta numerose informazioni e confronti anche col POWER7. Eccolo qui (https://www-01.ibm.com/events/wwe/grp/grp024.nsf/vLookupPDFs/Printemps%20de%20la%20TPrintemps%20de%20la%20Technologie%202013%20S.%20Chabrolles/$file/Printemps%20de%20la%20TPrintemps%20de%20la%20Technologie%202013%20S.%20Chabrolles.pdf).

Ma avevo già sintetizzato la situazione:

"frequenze aumentate e consumi ridotti, pur con col 75% di transistor in più."

Nulla a che vedere coi processori di AMD prodotti con lo stesso, identico, processo produttivo.

Questi i fatti. :read:
sull'architettura Z, si mormorava che dovesse superare abbondantemente i 6GHz...avendo lo stesso fo4 13 del power6...
Non sono a conoscenza di mormorii, ma i fatti sono che i miglioramenti per zNext ricalcano grosso modo quelli di POWER7+, pur essendo Z un'architettura abbastanza complessa (è un CISC).
la memoria non mi accompagna ma ricordo qualcosa a proposito di cmt+smt, oracle ... ?
In effetti Niagara condivide l'unica FPU con tutti e gli 8 core. Però è un processore che funziona bene soltanto in alcuni scenari. Ovviamente ha prestazioni disastrose sui FP, scarse in ST, mentre in MT va di gran lunga meglio.

george_p
30-07-2016, 08:48
Inoltre ti faccio presente che i lavori sui 32nm SOI iniziarono quando GlobalFoundries non esisteva ancora e le fabbriche erano tutte di AMD. AMD si è defilata completamente soltanto a marzo 2012.


Ohmammina :D
Ok, ti assecondo in questa tua pignoleria, ma da marzo 2012 siamo arrivati al 2015 almeno, e in 3 anni di appartenenza totale e completa alla sola Global Foundries cosa ha cambiato del processo? :stordita:

Dunque cercare di scaricare le responsabilità dei 32nm (che comunque non ci sono: vedi IBM POWER7+ & Z) su GlobalFoundries equivale a scaricarle su AMD.

Non è che mi cambi molto eh, amd, cannò il processo anche coi 65 nm, e allora?
Quale è il tuo punto del discorso? Etichettarmi come uno che difende sempre e solo amd?

Comunque mi piace il tuo aggrapparti sempre ad argomenti giuridici (società e quote sociali nella fattispecie) :sofico:

Mi riquoto:
Se no spiegami perché in PD hanno potuto aumentare la frequenza con l'aggiunta del RCM, e in 4 anni di questa architettura su 32, mi riferisco quindi ai soli FX escluse le apu, amd non abbia tirato fuori frequenze più elevate o per lo meno consumi decisamente ridotti con il SOI come ha sempre fatto in passato quando, pure in soli 12 mesi, se il silicio era buono, le cpu amd cambiavano eccome di step in step.

C'è un motivo per questo di sopra?
Perché a me sembra invece che questo 32 nm non sia così tanto buono... oh, ma se vuoi lo sottoscrivo che è colpa di amd e non di global foundries, anzi, vediamo di sottrarre dal 50% colpa del silicio associata poi di riflesso all'azienda di appartenenza, le quote di compartecipazione tra le due compagnie... hai voglia di fare i calcoli tu? Perché io proprio no :Prrr:

bjt2
30-07-2016, 09:03
Ma quello che dico io e' che il TDP dipende anche dal processo, ma non puo' prescindere dall'architettura/design del chip. Ripeto, guardiamo l'esempio di Maxwell contro Hawaii, stesso processo ma consumi molto diversi e clock persino piu' alti per la soluzione Nvidia. Con questo non voglio dire che in AMD non sappiano disegnare i chip, credo pero' che abbiano fatto delle scelte in termini di allocazione dell'area del chip che hanno reso meno in termini di TDP.

Certo. Il FO4 comanda, a parità di processo. Ma come ha fatto notare cdmauro, IBM sul 32nm è arrivata anche a 4.4GHz (seppur con potenze abnormi, come tradizione POWER) anche sul 32nm SOI, con una CPU da buon IPC. Suppongo, viste le frequenze, che il FO4 sia maggiore di BD... Evidentemente per il 32nm il FO4 ottimale NON era quello di BD... O c'erano altri problemi... Per ovviare all'errore ormai irreparabile a breve, hanno studiato l'RCM e l'AVFS, ma ovviamente sono paliativi...

Grazie, ma io non sono un addetto i lavori. Ho una laurea in Ingegneria Elettrica e lavoro nel campo dei semiconduttori, ma quelli di potenza e non dei microprocessori. Tuttavia non sono all'oscuro dei processi di fabbricazione dei circuiti VLSI e ho coltivato una passione piu' che ventennale per l'informatica, le CPU e le GPU. Sono stato anche moderatore qui su HWUpgrade per qualche anno, finche' gli impegni di lavoro non hanno preso il sopravvento.

Ne ho bruciate di coppie di VMOST, quando ero giovane, nel tentativo di fare un amplificatore in classe AB a MOSFET... :D

Supporto di path ottimizzati da parte delle applicazioni/compilatori, sfruttamento da parte dei programmi di alcune caratteristiche della FPU di Bulldozer (mi sovviene all'inizio ci furono problemi di sfruttamento della FMA4, ma potrei sbagliarmi, e' passato parecchio tempo). Bulldozer e derivati potevano/possono rendere di piu' ma a mio parere servirebbe un buon lavoro di "tuning" che nessuno credo si prenderebbe la briga di intraprendere dato lo scarso rapporto costi/benefici.

Mi ricordo che almeno le librerie matematiche, prodotte da AMD, ottimizzate per FMA4/XOP esistevano... Bisogna vedere in quanti le usavano...

bjt2
30-07-2016, 09:05
sull'architettura Z, si mormorava che dovesse superare abbondantemente i 6GHz...avendo lo stesso fo4 13 del power6...

Quindi è possibile fare una architettura CISC ad alto IPC con FO4 basso... Chi l'avrebbe mai detto! ;)

paolo.oliva2
30-07-2016, 10:32
Ma cosa c'è di più evidente?

Stiamo facendo 1000 calcoli sull'FO4 e di qui le frequenze raggiungibili... allora facciamo questo:
Ipotizziamo un Thuban X8 con +33% di core = +33% di TDP.
Thuban X6 125W, Thuban X8 = 160W
Sulla carta il 32nm doveva abbattere il TDP di circa il 40% (tra la miniaturizzazione più spinta e l'introduzione dell'HKMG).
Cosa otterremmo?
160W - 40% = 96W

BD guadagna grazie all'FO4 17 >33% di frequenza sul Phenom II (Llano <3GHz senza turbo vs BD 4GHz def) ed ancor più se confrontiamo le frequenze Phenom II sul 45nm vs frequenze BD 28nm a parità di TDP.

Su queste basi BD sarebbe dovuto risultare 96W (sul confronto Thuban X8) con ~4,389GHz di clock (3,3GHz + 33% FO4 17).

Ed è sempre quello che ha (all'inizio) dichiarato AMD, frequenze >4,5GHz sui 95W TDP.

Cosa c'è di più evidente? E' talmente palese che difendere è inutile.

AMD è partita nel 2010 (credo) a sbandierare ai 4 venti che dal 45nm sarebbe passata al 32nm HKMG ULK e di qui al 22nm.

Il 22nm è stato CANCELLATO, ma non è che è stato cancellato perchè hanno trovato problemi sullo sviluppo, ma è stato cancellato per i problemi trovati già sul 32nm, il 22nm non è mai nato, almeno da GF per AMD.

Secondo me il confronto con le fonderie IBM con il suo silicio non ha senso, perchè il silicio (docet Intel) ha sviluppi a seconda dell'architettura montata e i medesimi a seconda dei dindi investiti.
AMD può permettersi di pagare a GF lo sviluppo (che si riperquoterà sul prezzo finale dei proci) quanto IBM invece può fare?
Se IBM è già arrivata ben meno delle aspettative, mi pare ovvio che GF/AMD avranno ottenuto ancor meno...

Tra l'altro... ancora non è ben chiaro sto Zen, perchè dal die io vedo ben più similitudini ad un BD che ad un Intel. Magari dico sciocchezze, ma visto che Zen conserva il modulo quanto BD e AMD riporta SMT ma esplicitamente non ha detto nulla circa il CMT, e visto che le dimensioni Zen sembra siano più contenute di quelle Intel, non vorrei che Keller abbia inventato qualche diavoleria di ibrido tra SMT/CMT.

tuttodigitale
30-07-2016, 11:16
secondo me si fa un gran sbaglio, quando si dice che l'architetture bulldozer è nata per il throughput puro e semplice....
le ragioni sono molto semplici...la prima è che k10 è ancora oggi un mostro nel rapporto throughput/transistor....sbriciola qualsiasi processore derivati di SB compresi, nonotante il SMT, e allo stesso tempo offrendo un FO4 piuttosto basso, il che è quasi miracoloso per una architettura da 12 stadi.
Non era propriamente un caso se le CPU k10, consumavano un inerzia a parità di frequenza.

il fo4 basso unito al CMT serviva per lo più per aumentare le prestazioni nel ST...alla fin fine l'ipc di bulldozer/piledriver è pari al 85%, non certo bassissimo (è superiore a quelle dei core Jaguar, per intenderci...).

Ma se diamo retta a quello che pubblicizzava AMD, sarebbe stato necessario un 5GHz su tutti i core (non necessariamente come frequenza base) per avere quelle prestazioni in cinebench.. quindi 5,5GHz nel ST sarebbe stato nelle corde..a questa frequenza avrebbe raggiunto in CB 11.5 le prestazioni di un i7 2700k...



OK, sono 4,25 GHz POWER7 vs 4,42Ghz POWER7+ ma intanto c'è stato un aumento di frequenza o no? Inoltre bisogna vedere se i 4,25Ghz vengono raggiunti da POWER7 con lo stesso numero di core di POWER7+, altrimenti il confronto lascia il tempo che trova.
il power7 8 core a 3,8 GHz TDP 200w
power7+ 8 core a 3,4GHz TDP 170W
da questo confronto parebbe quasi meglio il 45nm.
purtroppo non è un confronto mele contro mele: è stato più che raddoppiato il quantitativo di l3 (AMD in k10 e in BD ha portato la l2 a 1MB per core con il passaggio ai 32nm), ma se conti che Intel è passata da 3,2GHz a 3,46GHz aumentando le risorse del 50%...

Piedone1113
30-07-2016, 11:27
No, è proprio il contrario: le prestazioni sono elevate quando si perde di reattività, perché c'è un thread hardware che monopolizza l'uso delle risorse.

Il che significa pure che le risorse vengono meglio sfruttate dai thread hardware.

Tagliamo la testa al toro: Memory Performance: 16GB DDR3-1333 to DDR3-2400 on Ivy Bridge IGP with G.Skill (http://www.anandtech.com/show/6372/memory-performance-16gb-ddr31333-to-ddr32400-on-ivy-bridge-igp-with-gskill)



Tranne che in cinebench e giochi via igp (il primo è strano il comportamento, dato che con gli altri software di rendering si ha un aumento delle prestazioni, mentre il secondo non fa testo dato che i dati servono la igp più che i core) vedo un evidente vantaggio passare da ddr3 1333 a ddr3 2133.

Certo non è che raddoppiare la banda ram equivale a raddoppiare le prestazioni ma affermare che non influisce è falso.
Se analizziamo le performance tra un 5930 e un 5960 sul single th abbiamo che a fronte di una maggiore frequenza del 17% le prestazioni sono maggiori del 10-15% a favore del 5930, segno che la cache l3 piu grande mitiga in parte le latenze verso la ram.
(latenze che solo in alcuni casi possono rallentare l'esecuzione dei processi, che sia ben chiaro, le cpu core sono cpu con un equilibrio pazzesco, non c'è un vero collo di bottiglia nell'architettura per l'uso generale alle quali queste cpu sono destinate)
Se consideriamo che nell'avvio, esecuzione e mantenimento di un th il 10% del tempo cpu (un valore altissimo) è usato per muovere dati da e verso la ram mi sembra normale che dimezzare i tempi verso la ram non è che possa portare ad aumenti di ipc considerevoli, ma in una cpu sotto carico spinto (come 4 th a core) il trasferimento dati assume un significato ben differente.

Ps non sto dicendo che le cpu intel sono sbilanciate lato mmc, semplicemente che il tipo di carico ipotizzato è anomalo e che non rispecchia affatto gli usi reali.
Sarebbe come voler paragonare una F40 ad una 911, superiore in tutto, tranne che per trasportare una roulotte (la f40 non ha possibilità di gancio traino, mentre la 911 si)
Ma questo scenario è davvero influente?
I miei test gli ho fatti più per curiosità e per capire dove l'fx peccava.
All'inizio pensavo che le prestazioni dell'fx fossero segate in parte dal software, ma test alla mano la colpa è dell'ipc basso rispetto la frequenza raggiunta.
Ibm sul soi ha raggiunto i 4.4 ghz, amd si è fermata a 4.0, il target avrebbe dovuto essere 4.8.
Non sappiamo il tipo, costo e complessità della metallizazione del power7+ e se questo trattamento lo si avrebbe potuto applicare in modo economico sulle cpu AMD (perchè se ibm va in pari con i costi di produzione, o addirittura in perdita poco importa dato che il core business è quello che gira intorno all'hardware e non l'hardware stesso).
In definitiva se il Power ha un costo a singola cpu di, esempio, 800$ a causa dei trattamenti e degli scarti questo è accettabile (e forse anche economicamente conveniente per ibm), ma lo sarebbe stato anche per amd (o intel ?)

Secondo me ad oggi un p4 che gira a 10ghz sarebbe possibile realizzarlo, ma a quale costo?
Sarebbe economico produrlo? Chi potrebbe acquistarlo?

tuttodigitale
30-07-2016, 11:35
Secondo me ad oggi un p4 che gira a 10ghz sarebbe possibile realizzarlo, ma a quale costo?
Sarebbe economico produrlo? Chi potrebbe acquistarlo?
Secondo me, no. BD ha necessità dell'azoto liquido sul SOI, per raggiungere gli 8GHz....se tanto mi dà tanto con lo stesso vcore un prescott potrebbe raggiungere "solo" 10, al massimo 11GHz....

AceGranger
30-07-2016, 11:35
Cinebench sull'8150 aveva un calo minimo su 16th, costante il calo fino a 32 th, a 64 th il calo era consistente e perdevi fluidità a desktop.
Sul 2600 il calo su 16th era leggermente più marcato in percentuale rispetto Amd, su 32 th il puntatore del mouse andava a scatti, su 64 sembrava bloccato il sitema, ma i test venivano conclusi sempre prima (se non sbaglio su 64th il divario tornava ad aumentare, è passato molto tempo e non ricordo).
Ma la mia conclusione fu che tranne fare da server per un db, una conversione video in backgroung e giocare a crisys, tutto in contemporanea l'i7 era superiore.
Ps fluidità percepita non rappresenta un maggior troughtout della cpu.


è esattamente quello che ho sempre detto, e che era anche stato dimostrato all'epoca dei famosi bench di Poolo che io rifeci con il 2600K e che postai nel vecchio thread con tanto di identici screen con Cinebench+7zip+Occt etc. etc.....

fra l'altro, la perdita di fluidita poteva essere risolta impostando correttamente l'affinita dei core; si perdeva un po di troughtout finale ( perchè ovviamente si rischiava di non sfruttare tutti i thread ) ma si rimaneva comuqnue sopra e in piu si rimaneva fluidi.

tuttodigitale
30-07-2016, 11:41
Se non sbaglio avevi fatto dei test sulla ram dove sopra i 1866mhz praticamente non avevi aumenti di ipc
ma credo che il problema siano proprio dei MC di AMD che non riescono a sfruttare la maggior banda a disposizione...i sintetici sono abbastanza esplicativi.
comunque più che la bandwidth in sè, riveste una importanza di gran lunga maggiore la latenza in ns, della memoria.

digieffe
30-07-2016, 11:47
Non rimangiarti niente....IBM ha migliorato del 10-15% l'efficienza in carichi HPC, ....guarda che il 4,4GHz+ è in verità un 4,42GHz e il 4GHz del power7 è un 4,24GHz....l'aumento di ipc è del 3%....
e in tutto questo IBM attribuisce "ben" il 6% al processo produttivo...

è una tabellina fuorviante....

tempo fa non hai postato un link su questi dati?

Piedone1113
30-07-2016, 11:53
Secondo me, no. BD ha necessità dell'azoto liquido sul SOI, per raggiungere gli 8GHz....se tanto mi dà tanto con lo stesso vcore un prescott potrebbe raggiungere "solo" 10, al massimo 11GHz....

Permettimi di dissentire.
Un ingegnere meccanico bravino (era in minardi f1 all'epoca) mi disse che il motore perfetto lo si poteva costruire, avrebbe avuto il solo inconveniente che nessuno al mondo avrebbe potuto permettersi il lusso di acquistarlo.

Ad oggi esistono prototipi (ibm) che trasformano l'energia termica in elettricità,
Cpu con integrati sitema di dissipazione a freon (nanotubi all'interno del silicio), e chissa quante altre diavolerie nei laboratori.
L'azoto liquido è il modo più economico per abbassare le temp di una cpu, ma il wr dell'fx fu fatto ad elio liquido (più costoso dell'azoto), come vedi esiste sempre un modo meno economico per alzare l'asticella.
Da me si dice che i soldi fanno venire la vista ai ciechi.

tuttodigitale
30-07-2016, 14:41
Dunque cercare di scaricare le responsabilità dei 32nm (che comunque non ci sono: vedi IBM POWER7+ & Z) su GlobalFoundries equivale a scaricarle su AMD.
il 32nm SOI è pessimo, ma solo confrontandolo con il 32nm BULK di Intel. La vera responsabilità del debacle di BD/power è di Intel :p
Per il resto intorno ai 3-4GHz se la gioca con il 28nm bulk..

Sul silicio, mi dispiace dirlo, mi sa che la concorrenza per i prossimi 5 anni sarà sempre un gradino sotto. Il 14nm LPP almeno da quello che ho capito, è nato per altro, e ha sostituito di fatto il FD-SOI che era stato sviluppato nelle FAB AMD, dove venivano prodotte le CPU della casa, prima del ripiegamento sui 28nm Bulk...

cdimauro
30-07-2016, 18:58
Ohmammina :D
Ok, ti assecondo in questa tua pignoleria,
Sono fatti e precisazioni dovuti, viste le leggende metropolitane che circolano su famigerato processo produttivo a 32nm di AMD/GF.
ma da marzo 2012 siamo arrivati al 2015 almeno, e in 3 anni di appartenenza totale e completa alla sola Global Foundries cosa ha cambiato del processo? :stordita:
Chiedilo a GF, che s'è trovata fra le mani l'eredità di AMD.

Comunque ti faccio notare che scendere da 32-28nm non è stato affatto semplice. Per tutti.
Non è che mi cambi molto eh, amd, cannò il processo anche coi 65 nm, e allora?
Vedi sopra: ho portato un po' di fatti per mettere le cose in chiaro sul processo a 32 nm SOI.

Nello specifico, non è AMD/GF che hanno cannato detto processo, visto che IBM è riuscito a trarne grandemente vantaggio, come dimostrano POWER7+ e z12/Next che peraltro sono architetture completamente diverse.

E' AMD che non è stata in grado di usarlo per i suoi processori: sia K10 sia Bulldozer.
Quale è il tuo punto del discorso? Etichettarmi come uno che difende sempre e solo amd?
Stai mettendo le mani avanti: coda di paglia?

Non esiste nemmeno una virgola in quello che ho scritto che possa dare adito a ciò che vorresti appiopparmi.
Comunque mi piace il tuo aggrapparti sempre ad argomenti giuridici (società e quote sociali nella fattispecie) :sofico:
Aggrapparmi? No, guarda che non ne sono certo io che ne ho bisogno per giustificare certe fantasie che circolano.

Io ho riportato FATTI che dimostrano come stiano realmente le cose.

Ovviamente chi vuol continuare ad aggrapparsi ai 32nm SOI brutti e cattivi può continuare a farlo, ma in tal caso si entra nel campo della mistificazione.
Mi riquoto:

C'è un motivo per questo di sopra?
Rileggiti il commento di leoneazzurro in proposito: l'unica spiegazione plausibile è quella, visto che, come già detto, IBM è riuscita a fare ben altro con lo stesso processo produttivo.
Perché a me sembra invece che questo 32 nm non sia così tanto buono...
Specifica: per AMD. E allora tutto torna. Perché per altri, invece, è stato un buon processo.
oh, ma se vuoi lo sottoscrivo che è colpa di amd e non di global foundries, anzi, vediamo di sottrarre dal 50% colpa del silicio associata poi di riflesso all'azienda di appartenenza, le quote di compartecipazione tra le due compagnie... hai voglia di fare i calcoli tu? Perché io proprio no :Prrr:
Basta con questo vittimismo. Questo è un forum tecnico e ho riportato dei dati tecnici. Tanto basta per chiudere questa storiella che circola da troppo tempo.

cdimauro
30-07-2016, 19:04
Quindi è possibile fare una architettura CISC ad alto IPC con FO4 basso... Chi l'avrebbe mai detto! ;)
Ni. E' bene precisare che ad avere il FO4 basso era z10, ma era un processore in-order!

z196 era a 45nm, ma out-of-order, e dalla sua documentazione:

"On average, the z196 can deliver up to 60% more performance in an n-way configuration than
an IBM System z10 EC n-way. However, variations on the observed performance increase
are dependent upon the workload type."

Purtroppo non è possibile sapere di quanto sia diminuita la frequenza da in-order a OoO, perché mancano dei processori di riferimento.

E immagino che pure il famigerato FO4 sia stato cambiato.

Quanto ad z12, rispetto z196 ha tratto ENORME vantaggio dai 32nm SOI:

"Compared to z196 and z114, the zEC12 and zBC12 processor design improvements and
architectural extensions include the following features:
Balanced Performance Growth
– 1.5 times more system capacity:
• 50% more cores in a central processor chip.
• Maximum number of cores increased from 96, on the z196, to 120 on the zEC12,
and from 14, on the z114, to 18 on the zBC12.
78 IBM zEnterprise System Technical Introduction
– Third Generation High Frequency processor:
• Frequency increased from 5.2 GHz, on the z196, to 5.5 GHz on zEC12, and from
3.8 GHz, on the z114, to 4.2 GHz on zBC12.
• Up to 25% faster zEC12 uniprocessor performance as compared to z196.
• Up to 36% faster zBC12 uniprocessor performance as compared to z114.
Innovative Local Data-Cache design with larger caches but shorter latency:
– Total L2 per core is 33% bigger.
– Total on-chip shared L3 is 100% larger.
– Unique private L2 cache (1 MB) design reduces L1 miss latency.
Second Generation of Out of Order design (OOO) with increased resources and
efficiency:
– Numerous pipeline improvements that are based on z10 and z196 designs.
– Number of instructions in flight is increased from five to seven.
Improved Instruction Fetching Unit:
– Improved capacity (24K branches) for large footprint workloads.
– Improved sequential instruction stream delivery.
Dedicated co-processor for each core with improved performance and more capability:
– New hardware support for Unicode UTF8<>UTF16 bulk conversions (CU12/CU21).
– Improved startup latency.
Multiple innovative architectural extensions for software usage:
– Transactional Execution (TX), known in the academia as Hardware Transactional
Memory (HTM). This feature allows software-defined “lockless” sequences to be
treated as an atomic “transaction” and improves efficiency on highly parallelized
applications and multi-processor handling.
– Runtime Instrumentation. Allows dynamic optimization of code generation as it is being
executed.
– Enhanced Dynamic Address Translation-2 (EDAT-2). Supports 2 GB page frames.
Increased instruction issue, execution, and completion throughput:
– Improved instruction dispatch and grouping efficiency.
– Millicode handling.
– Next Instruction Access Intent.
– Load and Trap instructions.
– Branch Prediction Preload.
– Data prefetch.
Hard"

In sintesi: 50% di core in più, raddoppio della cache L3, e 300Mhz in più. Tolti i core in più, tutto ciò si traduce fino al 25% in più di prestazioni.

cdimauro
30-07-2016, 19:21
secondo me si fa un gran sbaglio, quando si dice che l'architetture bulldozer è nata per il throughput puro e semplice....
le ragioni sono molto semplici...la prima è che k10 è ancora oggi un mostro nel rapporto throughput/transistor....sbriciola qualsiasi processore derivati di SB compresi, nonotante il SMT, e allo stesso tempo offrendo un FO4 piuttosto basso, il che è quasi miracoloso per una architettura da 12 stadi.
Non era propriamente un caso se le CPU k10, consumavano un inerzia a parità di frequenza.
Mi pare che la realtà sia completamente diversa, invece, sia per prestazioni sia per consumi:
http://www.hwupgrade.it/articoli/cpu/2116/phenom-ii-x4-le-cpu-amd-ritornano-competitive_5.html
http://www.hwupgrade.it/articoli/cpu/2264/amd-phenom-ii-x4-965-black-edition_7.html
http://www.hwupgrade.it/articoli/cpu/2268/analisi-multithreaded-51-cpu-intel-e-amd-a-confronto_8.html
http://www.hwupgrade.it/articoli/cpu/2432/phenom-ii-x6-cpu-desktop-a-6-core-anche-da-amd_7.html
http://www.hwupgrade.it/articoli/cpu/2549/3-nuovi-processori-phenom-ii-e-athlon-ii-da-amd_5.html
http://www.hwupgrade.it/articoli/cpu/2646/amd-phenom-ii-x6-1100t-per-100-mhz-in-piu_4.html

E questo senza nemmeno tirare in ballo SandyBridge: il vecchio Core 2 Quad era sufficiente a tenere a bada K10, mentre con Nehalem non c'è proprio storia.
il fo4 basso unito al CMT serviva per lo più per aumentare le prestazioni nel ST...alla fin fine l'ipc di bulldozer/piledriver è pari al 85%, non certo bassissimo (è superiore a quelle dei core Jaguar, per intenderci...).
Lo credo bene: Jaguar = OoO a 2 vie.
Ma se diamo retta a quello che pubblicizzava AMD, sarebbe stato necessario un 5GHz su tutti i core (non necessariamente come frequenza base) per avere quelle prestazioni in cinebench.. quindi 5,5GHz nel ST sarebbe stato nelle corde..a questa frequenza avrebbe raggiunto in CB 11.5 le prestazioni di un i7 2700k...
AMD poteva pubblicizzare quello che voleva, un po' come Intel con le roadmap per arrivare ai 10Ghz.
il power7 8 core a 3,8 GHz TDP 200w
power7+ 8 core a 3,4GHz TDP 170W
da questo confronto parebbe quasi meglio il 45nm.
Sbaglio o il Power7+ a quelle frequenze e consumi è il 12 core? ;)

Comunque dalla documentazione di IBM sul POWER7:

"In standard mode (also known as MaxCore mode), each 8-core SCM operates at 4.0 GHz with 32 MB of L3 cache and can scale up to 256-cores. When operating in TurboCore mode, each 8-core Single Chip Module (SCM) operates with up to four active cores per SCM at 4.25 GHz and 32
MB of L3 cache, twice the L3 cache per core available in MaxCore mode."

Quindi la frequenza massima del POWER7 è di 4GHz: a 4,25GHz arriva soltanto dimezzando i core attivi. :read:
purtroppo non è un confronto mele contro mele: è stato più che raddoppiato il quantitativo di l3 (AMD in k10 e in BD ha portato la l2 a 1MB per core con il passaggio ai 32nm), ma se conti che Intel è passata da 3,2GHz a 3,46GHz aumentando le risorse del 50%...
Permettimi: IBM poteva aggiungere 6 core e arrivare a 14 core col POWER7+, col 75% di transistor in più. Ha preferito potenziare la cache L3, perché evidentemente per il tipo di mercato in cui opera gli conviene questa strada. Come peraltro dimostrano i successivi modelli.

Per cui non capisco perché pensi che non sia un confronto mele contro mele.

In ogni caso i vantaggi che IBM ha avuto nel passaggio ai 32nm SOI è innegabile.
il 32nm SOI è pessimo, ma solo confrontandolo con il 32nm BULK di Intel. La vera responsabilità del debacle di BD/power è di Intel :p
Per il resto intorno ai 3-4GHz se la gioca con il 28nm bulk..
Mi spiace, ma i risultati di IBM dimostrano che il 32nm SOI è stato pessimo soltanto per AMD, che non è riuscito a sfruttarlo.
tempo fa non hai postato un link su questi dati?
Oltre all'immagine di riepilogo (che comunque è corretta), ho riportato anche PDF di IBM su POWER7+ e z12/Next, per cui non vedo cosa si possa contestare.

I fatti parlano chiaro.

cdimauro
30-07-2016, 19:31
Tranne che in cinebench e giochi via igp (il primo è strano il comportamento, dato che con gli altri software di rendering si ha un aumento delle prestazioni, mentre il secondo non fa testo dato che i dati servono la igp più che i core) vedo un evidente vantaggio passare da ddr3 1333 a ddr3 2133.

Certo non è che raddoppiare la banda ram equivale a raddoppiare le prestazioni ma affermare che non influisce è falso.
Non è solo Cinebench. Comunque mi quoto:

"Ci sono dei test che dimostrano che la maggior banda influenza mediamente poco le prestazioni."

Come, appunto, emerge dai benchmark. Infatti i guadagni su Xilisoft 7, Folding, x264 HD sono trascurabili, mentre WinRAR e Maya fanno segnare guadagni più marcati. In media, dunque, si guadagna poco.

Inoltre con SKylake, che hai ignorato, l'influenza è ancora minore.

Piedone1113
30-07-2016, 19:37
Non è solo Cinebench. Comunque mi quoto:

"Ci sono dei test che dimostrano che la maggior banda influenza mediamente poco le prestazioni."

Come, appunto, emerge dai benchmark. Infatti i guadagni su Xilisoft 7, Folding, x264 HD sono trascurabili, mentre WinRAR e Maya fanno segnare guadagni più marcati. In media, dunque, si guadagna poco.

Inoltre con SKylake, che hai ignorato, l'influenza è ancora minore.

Difatti io parlavo di prove fatte su Sandy Bridge e non successivi, sotto un carico praticamente inesistente nel mondo reale.
Per togliermi i dubbi ci vorrebbe un volontario che testasse un 2600 disabilitando 3 core (se possibile ) e farci macinare sopra 8 th per vedere se l'effetto lag è dovuto alle code oppure alla poca cache disponibile per quel tipo di carico.

cdimauro
30-07-2016, 19:44
Nel primo link che ho postato i benchmark erano su Ivy Bridge, che è un die shrink di Sandy Bridge. Non penso che cambi qualcosa, dunque.

Comunque a me premeva evidenziare, in particolare, di non aver mai affermato che l'aumento di banda non influisca sulle prestazioni: non l'ho mai detto, e ho riportato anche le mie precise parole in merito.

george_p
30-07-2016, 19:58
Cut...

Quindi?
perché in PD hanno potuto aumentare la frequenza con l'aggiunta del RCM, e in 4 anni di questa architettura su 32, mi riferisco quindi ai soli FX escluse le apu, amd non abbia tirato fuori frequenze più elevate o per lo meno consumi decisamente ridotti con il SOI come ha sempre fatto in passato quando, pure in soli 12 mesi, se il silicio era buono, le cpu amd cambiavano eccome di step in step.

Ah, giusto, amd non sa sfruttare il silicio... oh, effettivamente tutto può essere.

cdimauro
30-07-2016, 19:59
Quindi gli altri ci sono riusciti, come dimostrano i FATTI riportati. Tanto basta per mettere in chiaro come stiano le cose. :read:

george_p
30-07-2016, 20:16
Quindi gli altri ci sono riusciti, come dimostrano i FATTI riportati. Tanto basta per mettere in chiaro come stiano le cose. :read:

Bravo.

cdimauro
30-07-2016, 20:24
Non io: IBM. :read:

digieffe
30-07-2016, 20:27
Oltre all'immagine di riepilogo (che comunque è corretta), ho riportato anche PDF di IBM su POWER7+ e z12/Next, per cui non vedo cosa si possa contestare.

I fatti parlano chiaro.

infatti ho letto completamente il documento del power, appena ho un po' di tempo leggo quello dello z.

per tagliare la testa al toro chiedevo di riportare il documento originale per capire come si è espressa IBM stessa.

a me vengono tanti dubbi sulle nostre deduzioni solo che non li posto, perché metterebbero in dubbio delle posizioni qui espresse e potrei essere additato di "tifoseria" (dagli uni o dagli altri) che è la cosa che avverso di più , mentre a me interessa solo la verità.

Ps: I fatti a noi noti parlano chiaro.

cdimauro
30-07-2016, 20:33
E direi che sono più che sufficienti per dirimere la questione 32nm SOI.

I documenti che ho riportato sono ufficiali, e c'è un sacco di materiale tecnico (ma digeribile) sia su POWER7+ sia su Z12/Next.

Materiale molto più tecnico è disponibile, ed è quello da cui ho tratto gli ultimi fatti su POWER7 (frequenza a 4Ghz) e z10 (in-order), z196 (out-of-order), z12/Next (vedi sopra la mia risposta a bjt2).

Ed è tutta roba che continua a confermare quanto avevo già scritto in merito.

Più si scava, e più arrivano conferme...

Per il resto, non vedo perché non dovresti riportare quello che pensi.

Tanto i fanatici ci sono già, e continueranno ugualmente a far lavorare la fantasia anche di fronte alle evidenze.

digieffe
30-07-2016, 20:51
E direi che sono più che sufficienti per dirimere la questione 32nm SOI.

I documenti che ho riportato sono ufficiali, e c'è un sacco di materiale tecnico (ma digeribile) sia su POWER7+ sia su Z12/Next.

Materiale molto più tecnico è disponibile, ed è quello da cui ho tratto gli ultimi fatti su POWER7 (frequenza a 4Ghz) e z10 (in-order).

Ed è tutta roba che continua a confermare quanto avevo già scritto in merito.

Più si scava, e più arrivano conferme...

Per il resto, non vedo perché non dovresti riportare quello che pensi.

Tanto i fanatici ci sono già, e continueranno ugualmente a far lavorare la fantasia anche di fronte alle evidenze.

ora mi darai del fan di amd... (mentre non è così) :)

accenno qualcosa:
- inserire nell'equazione la effettiva disponibilità de prodotti sul mercato (14 mesi di differenza?)
- c'è l'incognita costo (che nonostante è stata segnalata è trascurata)
- Vi chiedo: è vero oppure no che IBM ha affermato che i miglioramenti del PP sono del 6% ?
- ...

secondo me ci sono tante variabili ed alcune con dei range molto grandi, quindi a meno di pronunce ufficiali possiamo dedurre poco.
cosa diversa con intel i cui prodotti sono più vicini alla fascia di amd

non dico che hai torto, ma forse che non puoi affermare con certezza le tue ragioni

george_p
30-07-2016, 20:54
infatti ho letto completamente il documento del power, appena ho un po' di tempo leggo quello dello z.

per tagliare la testa al toro chiedevo di riportare il documento originale per capire come si è espressa IBM stessa.

a me vengono tanti dubbi sulle nostre deduzioni*, solo che non li posto perché metterebbero in dubbio delle posizioni qui espresse e potrei essere additato di "tifoseria" (dagli uni o dagli altri) ed è la cosa che avverso di più , mentre a me interessa solo la verità.

Ps: I fatti a noi noti parlano chiaro.

Domandare è sempre lecito, le risposte che contano son quelle dei più esperti di noi, il resto diventa di tifoseria soprattutto se portato con ostinazione e fondato su ignoranza.

@ Cesare: Non posso mettere in discussione il tuo resoconto come non ho potuto ne posso farlo quando leggo i commenti di BJT2 o tuttodigitale o altri "esperti" quanto voi.
Dopo averne lette tante poi non è che, da ignorante quale sono, posso assumere una posizione o un altra.
Però, mi domando questo. Ok, documenti riportati su silicio IBM e quant'altro, ma... è possibile che amd, che (ok non è intel) tanto sprovveduta non mi pare, abbia sbagliato anno dopo anno nello sfruttare il silicio?
l'unica cosa sana che è riuscita a fare è inserire il RCM per riuscire ad alzare le frequenze e poi... basta? In 5 anni non è riuscita a correggere minimamente il tiro?

Basta un "semplice" documento come quello da te linkato (o più), appartenente ad IBM, per affermare con sicurezza (anche se direi più con esclusione di possibilità) che amd non è riuscita a sfruttare il silicio invece "apparentemente" buono di glofo?
I fatti, sono l'esistenza di uno o più documenti e ok, se ne riportano e linkano tanti in giro, come quello di BJT2 che si mise in firma ma, bastano davvero questi a costituire un fatto concreto?
Dopo tutto noi non ci siamo stati dentro le officine e laboratori delle due aziende (amd e glofo) per dire con certezza che amd non ha saputo sfruttare il silicio.

Non sto dicendo con questo che non sai di cosa scrivi naturalmente. Come ho risposto a Ren settimane fa, per me leggere bjt2 o leggerne un altro che riporta documentazioni tecniche non mi dice cosa è il futuro, oppure il passato senza averli visti o appurati in modo incontestabilmente affidabile.

non so se mi sono spiegato bene.

cdimauro
30-07-2016, 21:03
ora mi darai del fan di amd... (mentre non è così) :)

accenno qualcosa:
- inserire nell'equazione la effettiva disponibilità de prodotti sul mercato (14 mesi di differenza?)
Fra cosa?
- c'è l'incognita costo (che nonostante è stata segnalata è trascurata)
Non cambia di una virgola le questioni tecniche poste: i costi dei sistemi POWER e Z sono sempre stati elevati.

Quel che importa, ai fini della discussione, sono i miglioramenti tecnici dovuti al passaggio ai processi produttivi diversi.
- Vi chiedo: è vero oppure no che IBM ha affermato che i miglioramenti del PP sono del 6% ?
Non mi pare di averlo letto. Poi di che tipo di miglioramenti si tratterebbe? Solo le frequenze? In questo caso 4 -> 4,4Ghz = 10% in più che è > 6%.

Per quanto riguarda z12/Next, ho aggiornato la mia risposta a bjt2, dove IBM riporta un miglioramento fino al 25% rispetto al precedente z196.
- ...

secondo me ci sono tante variabili ed alcune con dei range molto grandi, quindi a meno di pronunce ufficiali possiamo dedurre poco.
cosa diversa con intel i cui prodotti sono più vicini alla fascia di amd

non dico che hai torto, ma forse che non puoi affermare con certezza le tue ragioni
Limitatamente alle questioni tecniche poste, i fatti e i numeri di IBM sono più che sufficienti allo scopo: stesso processo produttivo 32nm SOI, ma tangibili vantaggi in diversi comparti tecnici.

digieffe
30-07-2016, 21:05
Domandare è sempre lecito, le risposte che contano son quelle dei più esperti di noi, il resto diventa di tifoseria soprattutto se portato con ostinazione e fondato su ignoranza.

Dopo tutto noi non ci siamo stati dentro le officine e laboratori delle due aziende (amd e glofo) per dire con certezza che amd non ha saputo sfruttare il silicio.

non ha saputo o potuto sfruttare il silicio?

si fanno sempre ragionamenti tecnici ma manca sempre il tassello più importante, quello economico e di strategia aziendale

cdimauro
30-07-2016, 21:10
Domandare è sempre lecito, le risposte che contano son quelle dei più esperti di noi, il resto diventa di tifoseria soprattutto se portato con ostinazione e fondato su ignoranza.
Questo dovresti tenerlo ben presente, allora.
@ Cesare: Non posso mettere in discussione il tuo resoconto come non ho potuto ne posso farlo quando leggo i commenti di BJT2 o tuttodigitale o altri "esperti" quanto voi.
Dopo averne lette tante poi non è che, da ignorante quale sono, posso assumere una posizione o un altra.
Però, mi domando questo. Ok, documenti riportati su silicio IBM e quant'altro, ma... è possibile che amd, che (ok non è intel) tanto sprovveduta non mi pare, abbia sbagliato anno dopo anno nello sfruttare il silicio?
l'unica cosa sana che è riuscita a fare è inserire il RCM per riuscire ad alzare le frequenze e poi... basta? In 5 anni non è riuscita a correggere minimamente il tiro?
A quanto pare, sì.
Basta un "semplice" documento come quello da te linkato (o più), appartenente ad IBM, per affermare con sicurezza (anche se direi più con esclusione di possibilità) che amd non è riuscita a sfruttare il silicio invece "apparentemente" buono di glofo?
Ancora una volta sì, e ho portato diversi documenti. Se volete vi porto pure quelli più tecnici di cui parlavo prima (ma potete cercarli voi stessi, prendendo il contenuto che ho riportato, se v'interessa), ma la sostanza non cambia: IBM ha avuto tangibilissimi vantaggi passando ai 32nm SOI due architetture completamente diverse.
I fatti, sono l'esistenza di uno o più documenti e ok, se ne riportano e linkano tanti in giro, come quello di BJT2 che si mise in firma ma, bastano davvero questi a costituire un fatto concreto?
Quello che bjt2 ha in firma non può dimostrare come effettivamente andrà Zen.
Dopo tutto noi non ci siamo stati dentro le officine e laboratori delle due aziende (amd e glofo) per dire con certezza che amd non ha saputo sfruttare il silicio.
Non serve essere dentro: basta vedere i risultati, e confrontarli con quelli che sono riusciti a ottenere altri alle stesse condizioni. Sic et simpliciter.
Non sto dicendo con questo che non sai di cosa scrivi naturalmente. Come ho risposto a Ren settimane fa, per me leggere bjt2 o leggerne un altro che riporta documentazioni tecniche non mi dice cosa è il futuro, oppure il passato senza averli visti o appurati in modo incontestabilmente affidabile.

non so se mi sono spiegato bene.
Sul futuro, se hai letto i commenti che ho postato qui, ho sempre nutrito dubbi e ho preferito astenermi da previsioni.

Sul passato, invece, documentazione alla mano le valutazioni si possono tranquillamente fare. SE c'è la volontà di volerlo fare, ovviamente.

george_p
30-07-2016, 21:10
non ha saputo o potuto sfruttare il silicio?

si fanno sempre ragionamenti tecnici ma manca sempre il tassello più importante, quello economico e di strategia aziendale

Quoto perché in sintonia con ciò che ho appena scritto.

digieffe
30-07-2016, 21:27
Fra cosa?
(14 mesi?) fra la disponibilità sul mercato di BD e quella di power 7+, ergo IBM ha avuto più tempo per sistemare eventuali problemi

Non cambia di una virgola le questioni tecniche poste: i costi dei sistemi POWER e Z sono sempre stati elevati.

Quel che importa, ai fini della discussione, sono i miglioramenti tecnici dovuti al passaggio ai processi produttivi diversi.
appunto, avendo un costo elevato, non ha importanza se per ottenere dei risultati dal PP ibm deve spendere molti soldi in più, inoltre quest'ultima deve comunque mantenere un'immagine di tutt'altro livello rispetto ad amd e potrebbe produrre i power anche in perdita. Mentre, forse, amd non poteva produrre dei BD dal costo interno elevato non ne avrebbe venduto uno, quindi potrebbe aver preferito lasciare le cose come stavano...

Non mi pare di averlo letto. Poi di che tipo di miglioramenti si tratterebbe? Solo le frequenze? In questo caso 4 -> 4,4Ghz = 10% in più che è > 6%.
sto insistendo su questo punto proprio perché ho un vago ricordo che fosse così, ma se nessuno posta un documento ...

Per quanto riguarda z12/Next, ho aggiornato la mia risposta a bjt2, dove IBM riporta un miglioramento fino al 25% rispetto al precedente z196.
miglioramento del PP? dubbio: se avessero cambiato il FO4 (come sembra) come si può verificare?


Limitatamente alle questioni tecniche poste, i fatti e i numeri di IBM sono più che sufficienti allo scopo: stesso processo produttivo 32nm SOI, ma tangibili vantaggi in diversi comparti tecnici.

domanda mi quantifichi i costi di amd ed ibm per lo stesso pp?

digieffe
30-07-2016, 21:32
Ancora una volta sì, e ho portato diversi documenti. Se volete vi porto pure quelli più tecnici di cui parlavo prima (ma potete cercarli voi stessi, prendendo il contenuto che ho riportato, se v'interessa), ma la sostanza non cambia: IBM ha avuto tangibilissimi vantaggi passando ai 32nm SOI due architetture completamente diverse.

Quello che bjt2 ha in firma non può dimostrare come effettivamente andrà Zen.

Non serve essere dentro: basta vedere i risultati, e confrontarli con quelli che sono riusciti a ottenere altri alle stesse condizioni. Sic et simpliciter.

solo per spirito di bastian contrario

posta anche i documenti economici e di strategia aziendale :)

stesse condizioni includono anche quelle economiche ecc

Ren
30-07-2016, 21:35
Però, mi domando questo. Ok, documenti riportati su silicio IBM e quant'altro, ma... è possibile che amd, che (ok non è intel) tanto sprovveduta non mi pare, abbia sbagliato anno dopo anno nello sfruttare il silicio?
l'unica cosa sana che è riuscita a fare è inserire il RCM per riuscire ad alzare le frequenze e poi... basta? In 5 anni non è riuscita a correggere minimamente il tiro?

non ha saputo o potuto sfruttare il silicio?

si fanno sempre ragionamenti tecnici ma manca sempre il tassello più importante, quello economico e di strategia aziendale

I fatti ci dicono che Llano è la peggior schifezza (come design) partorita da AMD.
E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo.:p

BD è un architettura fallimentare.I continui affinamenti hanno persino minato i principi stessi dell'architettura, ossia la condivisione del front-end (passo indietro sui decoder) e le frequenze teoriche irraggiungibili (azzoppamento con le HDL carrizo). Anche il sistema di cache è una cagata stellare...

Con jaguar hanno investito una frazione delle risorse di BD, eppure è stato competitivo da subito, anche con core sintetizzati e silicio bulk. (nel suo segmento si intende)

digieffe
30-07-2016, 21:39
I fatti ci dicono che Llano è la peggior schifezza (come design) partorita da AMD.
E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo.:p

BD è un architettura fallimentare.I continui affinamenti hanno persino minato i principi stessi dell'architettura, ossia la condivisione del front-end (passo indietro sui decoder) e le frequenze teoriche irraggiungibili (azzoppamento con le HDL carrizo).

Con jaguar hanno investivo una frazione delle risorse di BD, eppure è stato competitivo da subito, anche con core sintetizzati e silicio bulk. (nel suo segmento si intende)

salta il cocomero e va ...

hai sbagliato a quotarmi o ... ?

george_p
30-07-2016, 21:43
Questo dovresti tenerlo ben presente, allora.
Si, comante.

A quanto pare, sì.
"A quanto pare" non costituisce comunque prova di cosa tu affermi con E' AMD che non è stata in grado di usarlo per i suoi processori: sia K10 sia Bulldozer.
E scritto da te che stai sempre a cercare prove concrete, insomma.
E con questo non escludo possa tu azzeccarci

Ancora una volta sì, e ho portato diversi documenti. Se volete vi porto pure quelli più tecnici di cui parlavo prima (ma potete cercarli voi stessi, prendendo il contenuto che ho riportato, se v'interessa), ma la sostanza non cambia: IBM ha avuto tangibilissimi vantaggi passando ai 32nm SOI due architetture completamente diverse.
Si, ok IBM, però i miei dubbi e domande sono sempre sulla tua affermazione in riferimento ad amd basata su carta, ufficiale, ma sempre carta.
Non vorrei finisse come col treccani.

Quello che bjt2 ha in firma non può dimostrare come effettivamente andrà Zen.
D'accordissimo.

Non serve essere dentro: basta vedere i risultati, e confrontarli con quelli che sono riusciti a ottenere altri alle stesse condizioni. Sic et simpliciter.


Si, e anche no se si fanno affermazioni con estrema certezza su amd basandosi sui documenti di IBM come stai facendo tu.

Come dire, per fare il pane ci vogliono quegli ingredienti, ma poi bisogna vedere se tutti sanno fare il pane bene e allo stesso identico modo.
Non so, non vedo così inattaccabile la tua affermazione e le tue prove portate su carta ufficiale. Ma come già scritto, tutto può essere.


Sul futuro, se hai letto i commenti che ho postato qui, ho sempre nutrito dubbi e ho preferito astenermi da previsioni.

Idem, solo quando si concretizza si può toccare con mano.
Ma sui bench e risultati delle cpu è più facile appurare una determinata realtà, molto di più che dire che una azienda, amd in questo caso, "non è stata in grado di usare (bene) il silicio per i suoi processori".
Cioè, tu non ci sei stato dietro e dentro, e non hai prove per affermare questo. Anche se ti ostini a riportare i documenti ufficiali di IBM che possono significare tutto e niente.


Sul passato, invece, documentazione alla mano le valutazioni si possono tranquillamente fare. SE c'è la volontà di volerlo fare, ovviamente.

Si, ok con la documentazione, certo, ma quanta documentazione ufficiale esistente mi parla di un prodotto che poi non sempre corrisponde alla realtà?
A te sembra basti sempre e solo la carta o quello che c'è riportato sopra per costituire una prova o una realtà e sei a posto.

george_p
30-07-2016, 21:46
I fatti ci dicono che Llano è la peggior schifezza (come design) partorita da AMD.
E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo.:p

BD è un architettura fallimentare.I continui affinamenti hanno persino minato i principi stessi dell'architettura, ossia la condivisione del front-end (passo indietro sui decoder) e le frequenze teoriche irraggiungibili (azzoppamento con le HDL carrizo). Anche il sistema di cache è una cagata stellare...

Con jaguar hanno investivo una frazione delle risorse di BD, eppure è stato competitivo da subito, anche con core sintetizzati e silicio bulk. (nel suo segmento si intende)

Riguardo il design non posso esprimermi con sicurezza come fai tu, ma di sicuro i fatti dicono che Llano non va in frequenza e in fin dei conti lo stesso accade per BD, solo che con quest'ultimo hanno inserito, così scrivono ufficialmente, il RCM mentre per Llano invece no.

cdimauro
30-07-2016, 21:48
(14 mesi?) fra la disponibilità sul mercato di BD e quella di power 7+, ergo IBM ha avuto più tempo per sistemare eventuali problemi
Ti risulta che AMD abbia risolto i suoi problemi dopo che POWER7+ è stato presentato?

Inoltre se AMD aveva problemi, poteva benissimo aspettare di risolverli invece di buttare sul mercato un prodotto non all'altezza.

Quanto alle date, POWER7+ è stato commercializzato ad agosto 2012, quindi 10 mesi dopo Bulldozer.
appunto, avendo un costo elevato, non ha importanza se per ottenere dei risultati dal PP ibm deve spendere molti soldi in più, inoltre quest'ultima deve comunque mantenere un'immagine di tutt'altro livello rispetto ad amd e potrebbe produrre i power anche in perdita. Mentre, forse, amd non poteva produrre dei BD dal costo interno elevato non ne avrebbe venduto uno, quindi potrebbe aver preferito lasciare le cose come stavano...
Non mi risulta che IBM abbia venduto i suoi processori in perdita.
sto insistendo su questo punto proprio perché ho un vago ricordo che fosse così, ma se nessuno posta un documento ...
Io li ho postati.
miglioramento del PP?
Grazie ai transistor in più e alla maggior frequenza, che sono derivati dal nuovo processo produttivo, per l'appunto.
dubbio: se avessero cambiato il FO4 (come sembra) come si può verificare?
Non so. Ma cambierebbe qualcosa se il FO4 fosse diverso?
domanda mi quantifichi i costi di amd ed ibm per lo stesso pp?
Non li conosco. Ma quale sarebbe il problema qui?

I costi di IBM per i suoi chip sono sempre stati più elevati, viste le loro dimensioni nonché frequenze operative.

Ciò che conta, e a quanto pare non è ancora chiaro, è vedere cos'è successo passando ai 32nm SOI alle stesse condizioni.

Stesse condizioni non significa che i costi di AMD e IBM siano gli stessi, ma che i chip di IBM costavano più di quelli AMD a 45 nm, e continuano a costare di più a 32nm.

Per cui, come già detto, il tutto si riconduce alle questione tecniche di cui prima: quali vantaggi siano stati ottenuti col passaggio ai 32nm.
solo per spirito di bastian contrario

posta anche i documenti economici e di strategia aziendale :)

stesse condizioni includono anche quelle economiche ecc
Non servono: vedi sopra.
I fatti ci dicono che Llano è la peggior schifezza (come design) partorita da AMD.
E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo.:p

BD è un architettura fallimentare.I continui affinamenti hanno persino minato i principi stessi dell'architettura, ossia la condivisione del front-end (passo indietro sui decoder) e le frequenze teoriche irraggiungibili (azzoppamento con le HDL carrizo). Anche il sistema di cache è una cagata stellare...

Con jaguar hanno investivo una frazione delle risorse di BD, eppure è stato competitivo da subito, anche con core sintetizzati e silicio bulk. (nel suo segmento si intende)
*

Ren
30-07-2016, 21:55
salta il cocomero e va ...

hai sbagliato a quotarmi o ... ?

Non volevi sapere se AMD non ha saputo sfruttare il silicio ?

Bene, con Llano hanno fatto un lavoro da cani con il design custom.

Basta fare un confronto con il phenom.

Riguardo il design non posso esprimermi con sicurezza come fai tu, ma di sicuro i fatti dicono che Llano non va in frequenza e in fin dei conti lo stesso accade per BD, solo che con quest'ultimo hanno inserito, così scrivono ufficialmente, il RCM mentre per Llano invece no.

IBM non ti basta come esempio\sicurezza... ;)

Non hanno variato FO4 nel Power7+ anzi hanno aumentato i transistor (ti evito altri tecnicismi)...

george_p
30-07-2016, 21:59
Non volevi sapere se AMD non ha saputo sfruttare il silicio ?

Bene, con Llano hanno fatto un lavoro da cani con il design custom.

Basta fare un confronto con il phenom.



IBM non ti basta come esempio\sicurezza.;)

Non hanno variato FO4 di una virgola nel Power7+ anzi hanno aumentato i transistor (ti evito altri tecnicismi)...

Sempre da ignorante eh, ma IBM è IBM mentre glofo è glofo, poi chissà quale è la verità.

digieffe
30-07-2016, 21:59
I fatti ci dicono che Llano è la peggior schifezza (come design) partorita da AMD.
E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo.:p

BD è un architettura fallimentare.I continui affinamenti hanno persino minato i principi stessi dell'architettura, ossia la condivisione del front-end (passo indietro sui decoder) e le frequenze teoriche irraggiungibili (azzoppamento con le HDL carrizo).

Con jaguar hanno investivo una frazione delle risorse di BD, eppure è stato competitivo da subito, anche con core sintetizzati e silicio bulk. (nel suo segmento si intende)

salta il cocomero e va ...

hai sbagliato a quotarmi o ... ?

visto Cesare, non mi sbagliavo sul fatto di voler tacere i miei dubbi...

mi hanno subito preso per un fanboy :D

cdimauro
30-07-2016, 22:01
Si, comante.
Evita prese in giro che non ti puoi permettere: sei TU che ti ostini a scrivere quando hai chiaramente detto di non capire un'acca delle questioni tecniche esposte.

E' chiaro che continui a farlo per puro fanatismo.
"A quanto pare" non costituisce comunque prova di cosa tu affermi con
"A quanto pare" in lingua italiana ha un certo significato.

Ma a questo punto te lo scrivo senza mezzi termini: le prove le ho portate.
E scritto da te che stai sempre a cercare prove concrete, insomma.
E con questo non escludo possa tu azzeccarci
Come dicevo, le prove le ho portate, per cui non ho proprio niente da azzeccare: è così.
Si, ok IBM, però i miei dubbi e domande sono sempre sulla tua affermazione in riferimento ad amd basata su carta, ufficiale, ma sempre carta.
Cosa vuoi dire? Non è chiaro.

Io, poi, dubbi non ne ho proprio.
Non vorrei finisse come col treccani.
Non vorrei doverti ricordare che sei stato TU a sfidarmi di dimostrare quella questione, e io mi sono "semplicemente" limitato a farlo.

La prossima volta evita di provocare.
Si, e anche no se si fanno affermazioni con estrema certezza su amd basandosi sui documenti di IBM come stai facendo tu.

Come dire, per fare il pane ci vogliono quegli ingredienti, ma poi bisogna vedere se tutti sanno fare il pane bene e allo stesso identico modo.
Non so, non vedo così inattaccabile la tua affermazione e le tue prove portate su carta ufficiale. Ma come già scritto, tutto può essere.
I dati di AMD e IBM sono lì: prova pure ad attaccarli, se ci riesci.
Idem, solo quando si concretizza si può toccare con mano.
Ma sui bench e risultati delle cpu è più facile appurare una determinata realtà, molto di più che dire che una azienda, amd in questo caso, "non è stata in grado di usare (bene) il silicio per i suoi processori".
Cioè, tu non ci sei stato dietro e dentro, e non hai prove per affermare questo. Anche se ti ostini a riportare i documenti ufficiali di IBM che possono significare tutto e niente.
Per chi non sa leggerli, magari sì. E a questo sarebbe meglio che ti astenessi dal commentare.

Ribadisco: se hai qualcosa da dire sui documenti e dati che ho riportato, fallo pure. Ma non limitarti alle chiacchiere, perché quelle le può fare anche mio figlio di 9 anni.

Qui non siamo al bar dello sport: ci sono PRECISE questioni TECNICHE di cui si sta discutendo.
Si, ok con la documentazione, certo, ma quanta documentazione ufficiale esistente mi parla di un prodotto che poi non sempre corrisponde alla realtà?
A te sembra basti sempre e solo la carta o quello che c'è riportato sopra per costituire una prova o una realtà e sei a posto.
Guarda che non ho alcun problema a cambiare la mia versione se mi dimostri che IBM NON abbia raggiunto quegli obiettivi col passaggio a 32nm SOI.

Fino a prova contraria IBM ha realizzato POWER7+ e z12, ha clienti di spessore sparsi in tutto il mondo, fattura miliardi di dollari, e se sbaglia qualcosa sta tranquillo che la concorrenza spietata lo metterà in risalto a caratteri cubitali.

Tu, invece, che fai di bello nella vita per poter dire che abbia sparato dati falsi?

Ren
30-07-2016, 22:03
visto Cesare, non mi sbagliavo sul fatto di voler tacere i miei dubbi...

mi hanno subito preso per un fanboy :D

Stai facendo tutto da solo.;)

Era una risposta alla domanda.

cdimauro
30-07-2016, 22:05
Sempre da ignorante eh, ma IBM è IBM mentre glofo è glofo, poi chissà quale è la verità.
Te l'avevo già scritto nonché riportato ampia documentazione sul fatto che:
- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM.

Quindi, in questo caso, IBM = GF. E' chiaro adesso?
visto Cesare, non mi sbagliavo sul fatto di voler tacere i miei dubbi...

mi hanno subito preso per un fanboy :D
Non mi pare. Ti riconosci in questo:

"E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo."

?

EDIT:
Stai facendo tutto da solo.;)

Era una risposta alla domanda.
Appunto. :)

digieffe
30-07-2016, 22:16
Ti risulta che AMD abbia risolto i suoi problemi dopo che POWER7+ è stato presentato?

Inoltre se AMD aveva problemi, poteva benissimo aspettare di risolverli invece di buttare sul mercato un prodotto non all'altezza.

Quanto alle date, POWER7+ è stato commercializzato ad agosto 2012, quindi 10 mesi dopo Bulldozer.

Non mi risulta che IBM abbia venduto i suoi processori in perdita.

Io li ho postati.

Grazie ai transistor in più e alla maggior frequenza, che sono derivati dal nuovo processo produttivo, per l'appunto.

Non so. Ma cambierebbe qualcosa se il FO4 fosse diverso?

Non li conosco. Ma quale sarebbe il problema qui?

I costi di IBM per i suoi chip sono sempre stati più elevati, viste le loro dimensioni nonché frequenze operative.

Ciò che conta, e a quanto pare non è ancora chiaro, è vedere cos'è successo passando ai 32nm SOI alle stesse condizioni.

Stesse condizioni non significa che i costi di AMD e IBM siano gli stessi, ma che i chip di IBM costavano più di quelli AMD a 45 nm, e continuano a costare di più a 32nm.

Per cui, come già detto, il tutto si riconduce alle questione tecniche di cui prima: quali vantaggi siano stati ottenuti col passaggio ai 32nm.

Non servono: vedi sopra.

*

Cesare, ci sono parecchi punti con evidenti fallacie, spero che tu stia "stanco" e non te ne sia accorto, inoltre vedo che accuratemente eviti, giri intorno, ecc.

Seriamente, ho (avevo?) stima di te mi spieghi perché dovrei stare al tuo gioco? :)

ti stai accanendo con un minimo di documenti ufficiali pubblici dai quali puoi trarre conclusioni parziali, stessa cosa vale per gli altri qui dentro a favore di amd.


Ps: non ho letto i tuoi post successivi a questo quotato, le discussioni fatte in questo modo non mi interessano


@tutti per quanto mi riguarda amd, ibm ed intel possono fallire anche domani mattina, invece sembra che per altri sia fonte di vita

cdimauro
30-07-2016, 22:25
Cesare, ci sono parecchi punti con evidenti fallacie, spero che tu stia "stanco" e non te ne sia accorto, inoltre vedo che accuratemente eviti, giri intorno, ecc.
Non mi risultano fallacie, ma sei libero di farmele notare.
Seriamente, ho (avevo?) stima di te mi spieghi perché dovrei stare al tuo gioco? :)
Io non sto giocando. :)
ti stai accanendo con un minimo di documenti ufficiali pubblici dai quali puoi trarre conclusioni parziali, stessa cosa vale per gli altri qui dentro a favore di amd.
Io sono a favore della verità storica, non di AMD, Intel, e quant'altro.

Se IBM con Power7+ ha aumentato di 400Mhz le frequenze rispetto POWER7, e di 300Mhz da z196 a z12, passando dai 45nm ai 32nm (SOI), questo è un dato oggettivo e incontrovertibile, e tutt'altro che "parziale".

Com'è oggettivo che da Phenom a Llano c'è stato un tracollo delle frequenze.
Ps: non ho letto i tuoi post successivi a questo quotato, le discussioni fatte in questo modo non mi interessano
Come dovrebbero essere fatte allora? Vorresti che i dati oggettivi fossero messi in discussione? I 4,4Ghz del POWER7+ possono essere messi in discussione? E idem le scarse frequenze di Llano?

Se è questo il gioco di cui parlavi, allora concordo con te: io non ci sto.
@tutti per quanto mi riguarda amd, ibm ed intel possono fallire anche domani mattina, invece sembra che per altri sia fonte di vita
E invece mi spiace vedere che il tuo giudizio non è oggettivo su tutte le aziende che hai citato, ma sbilanciato verso AMD.

Inoltre qui non è questione di fonte di vita o meno, ma di verità storica. E se la verità fa male, non è certo un problema mio...

Buonanotte a tutti

george_p
30-07-2016, 22:44
Evita prese in giro che non ti puoi permettere: sei TU che ti ostini a scrivere quando hai chiaramente detto di non capire un'acca delle questioni tecniche esposte.

Aspetta, leggi bene, mi ostino a chiederti sempre sulla tua affermazione non su cose che non posso dimostrare come ho già scritto.


E' chiaro che continui a farlo per puro fanatismo.

E' chiaro solo a te o ti piace tanto vederlo. Ho sempre pensato, probabilmente a torto, che BD fosse fallimentare sia per architettura che per silicio. In quale metà vedi il mio fanatismo? Ma non dovrei, essendo fanatico (di amd suppongo), difendere a spada tratta il suo prodotto a tutti i costi?

"A quanto pare" in lingua italiana ha un certo significato.
Si di apparenza.

Ma a questo punto te lo scrivo senza mezzi termini: le prove le ho portate.

Come dicevo, le prove le ho portate, per cui non ho proprio niente da azzeccare: è così.
Ok, su IBM le hai portate, io domandavo però riguardo le tue sicurezze con la tua affermazione su amd, e visto che anche tu scrivi che non è necessario esserci dentro e basta avere i risultati, tu che risultati hai per affermare su amd ciò che hai scritto?
Bada che potresti aver ragione e l'ho scritto ma per come la vedo io le prove su IBM non mi dicono nulla.
Può anche essere che IBM sappia fare molto bene il pane (silicio) e glofo non ne è in grado, vuoi per procedure diverse vuoi per forni e temperature diverse.


Cosa vuoi dire? Non è chiaro.
Vedi sopra?

Io, poi, dubbi non ne ho proprio.

Ok.

Non vorrei doverti ricordare che sei stato TU a sfidarmi di dimostrare quella questione, e io mi sono "semplicemente" limitato a farlo.
La prossima volta evita di provocare.
Mi riferivo al termine cercato sul treccani usato in modo inadeguato per me e la mia affermazione. E ti hanno pure risposto sul significato di quel termine.


I dati di AMD e IBM sono lì: prova pure ad attaccarli, se ci riesci.
Leggi bene se sto attaccando i dati di amd e IBM o sto chiedendo lumi a te su quella tua affermazione.
E smetto pure di chiedertelo, mica è così importante per me.

Per chi non sa leggerli, magari sì. E a questo sarebbe meglio che ti astenessi dal commentare.
-se hai qualcosa da dire sui documenti e dati che ho riportato, fallo pure. Ma non limitarti alle chiacchiere, perché quelle le può fare anche mio figlio di 9 anni-
Qui non siamo al bar dello sport: ci sono PRECISE questioni TECNICHE di cui si sta discutendo.

Guarda che non ho alcun problema a cambiare la mia versione se mi dimostri che IBM NON abbia raggiunto quegli obiettivi col passaggio a 32nm SOI.
Fino a prova contraria IBM ha realizzato POWER7+ e z12, ha clienti di spessore sparsi in tutto il mondo, fattura miliardi di dollari, e se sbaglia qualcosa sta tranquillo che la concorrenza spietata lo metterà in risalto a caratteri cubitali.
Vabbeh, chiudo la questione tanto è inutile scrivere che non contesto i documenti ufficiali IBM.




Tu, invece, che fai di bello nella vita per poter dire che abbia sparato dati falsi?
A parte che l'ultimo quote della mia frase riportava un esempio in generale e non era riferito ne a te ne a IBM nello specifico ma solo al fatto di come tu ti affidi ciecamente solo alle cose scritte e, ripeto per l'ennesima ma ultima volta perché vedo ostinazione e pregiudizi da parte tua, il tutto si riconduceva alla tua affermazione su amd.
Rileggi bene, e riportami dove ho scritto a chiare lettere che hai sparato dei falsi.

bjt2
30-07-2016, 22:48
Ni. E' bene precisare che ad avere il FO4 basso era z10, ma era un processore in-order!

z196 era a 45nm, ma out-of-order, e dalla sua documentazione:

"On average, the z196 can deliver up to 60% more performance in an n-way configuration than
an IBM System z10 EC n-way. However, variations on the observed performance increase
are dependent upon the workload type."

Purtroppo non è possibile sapere di quanto sia diminuita la frequenza da in-order a OoO, perché mancano dei processori di riferimento.

E immagino che pure il famigerato FO4 sia stato cambiato.

Quanto ad z12, rispetto z196 ha tratto ENORME vantaggio dai 32nm SOI:

"Compared to z196 and z114, the zEC12 and zBC12 processor design improvements and
architectural extensions include the following features:
Balanced Performance Growth
– 1.5 times more system capacity:
• 50% more cores in a central processor chip.
• Maximum number of cores increased from 96, on the z196, to 120 on the zEC12,
and from 14, on the z114, to 18 on the zBC12.
78 IBM zEnterprise System Technical Introduction
– Third Generation High Frequency processor:
• Frequency increased from 5.2 GHz, on the z196, to 5.5 GHz on zEC12, and from
3.8 GHz, on the z114, to 4.2 GHz on zBC12.
• Up to 25% faster zEC12 uniprocessor performance as compared to z196.
• Up to 36% faster zBC12 uniprocessor performance as compared to z114.
Innovative Local Data-Cache design with larger caches but shorter latency:
– Total L2 per core is 33% bigger.
– Total on-chip shared L3 is 100% larger.
– Unique private L2 cache (1 MB) design reduces L1 miss latency.
Second Generation of Out of Order design (OOO) with increased resources and
efficiency:
– Numerous pipeline improvements that are based on z10 and z196 designs.
– Number of instructions in flight is increased from five to seven.
Improved Instruction Fetching Unit:
– Improved capacity (24K branches) for large footprint workloads.
– Improved sequential instruction stream delivery.
Dedicated co-processor for each core with improved performance and more capability:
– New hardware support for Unicode UTF8<>UTF16 bulk conversions (CU12/CU21).
– Improved startup latency.
Multiple innovative architectural extensions for software usage:
– Transactional Execution (TX), known in the academia as Hardware Transactional
Memory (HTM). This feature allows software-defined “lockless” sequences to be
treated as an atomic “transaction” and improves efficiency on highly parallelized
applications and multi-processor handling.
– Runtime Instrumentation. Allows dynamic optimization of code generation as it is being
executed.
– Enhanced Dynamic Address Translation-2 (EDAT-2). Supports 2 GB page frames.
Increased instruction issue, execution, and completion throughput:
– Improved instruction dispatch and grouping efficiency.
– Millicode handling.
– Next Instruction Access Intent.
– Load and Trap instructions.
– Branch Prediction Preload.
– Data prefetch.
Hard"

In sintesi: 50% di core in più, raddoppio della cache L3, e 300Mhz in più. Tolti i core in più, tutto ciò si traduce fino al 25% in più di prestazioni.

Fare 5.2GHz sul 45nm e 5.5GHz sul 32nm SOI, implica probabilmente un FO4 basso, sicuramente non superiore a quello di BD, visto che immagino che siano mostri da molti core e 200 o più watt...

bjt2
30-07-2016, 22:51
Non è solo Cinebench. Comunque mi quoto:

"Ci sono dei test che dimostrano che la maggior banda influenza mediamente poco le prestazioni."

Come, appunto, emerge dai benchmark. Infatti i guadagni su Xilisoft 7, Folding, x264 HD sono trascurabili, mentre WinRAR e Maya fanno segnare guadagni più marcati. In media, dunque, si guadagna poco.

Inoltre con SKylake, che hai ignorato, l'influenza è ancora minore.

A guardare la teoria, sappiamo che se l'hit rate delle caches è il 95%, raddoppiare la banda sicuramente aumenta le prestazioni meno del 5%...
Questo è lo scopo delle caches...
Quindi le applicazioni che guadagnano molto da un raddoppio di banda sono quelle poco cache friendly...

george_p
30-07-2016, 22:55
Fare 5.2GHz sul 45nm e 5.5GHz sul 32nm SOI, implica probabilmente un FO4 basso, sicuramente non superiore a quello di BD, visto che immagino che siano mostri da molti core e 200 o più watt...

Ma giusto per capire, paragonato a BD questo power di IBM che prestazioni ha?

bjt2
30-07-2016, 23:05
Quello che bjt2 ha in firma non può dimostrare come effettivamente andrà Zen.

Permettimi di dire che non sono d'accordo... E te lo dimostro...

Quel grafico che avevo in firma era il consumo, in funzione della frequenza e del tipo di transistor/libreria, di una FPU NEON di una CPU ARM A57, in centinaia di mW in funzione della frequenza in GHz...
Siccome sappiamo che a 2.41 GHz e transistors LVT la FPU NEON consuma 330mW e che una intera CPU A57 nel peggiore dei casi consuma 750mW A 2.5GHz (con transistors probabilmente RVT, ma facciamo finta che siano LVT), quindi una intera CPU consuma meno di 1/3 di una intera FPU. Facciamo finta che una FPU Zen sia 4 volte più potente, quindi 1320mW, e che una CPU Zen sia 4 volte più esosa della sua FPU (cosa esagerata se si vede la CPU ARM)... Estrapolando il grafico a 4GHz si ha che la macro consuma circa 600mW, quindi una CPU Zen dovrebbe consumare meno di 10W a 4GHz e quindi 8 core meno di 80W...

bjt2
30-07-2016, 23:08
Ma giusto per capire, paragonato a BD questo power di IBM che prestazioni ha?

E' una architettura CISC molto complessa, con istruzioni che fanno anche il caffè... Ma non so quanto sia la latenza o il througput... Ci vorrebbero dei bench, ma si può assumere che siano dei trattori molto veloci...

digieffe
30-07-2016, 23:27
Non mi risultano fallacie, ma sei libero di farmele notare.

degli ultimi post rispondo solo a questo punto, non negandomi però la possibilità successiva di confutarti quelli omessi.

prima di farti notare cosa secondo me non quadra nel tuo ragionamento, vorrei ragionare sul "meta"discorso (spero si chiami così) ovvero perché non riusciamo a comunicare.

io ti faccio notare alcune cose e tu continui a ripetere + o - le stesse cose senza invalidare le mie... a questo punto è chiaro che siamo in un circolo vizioso.

ti "accanisci" su dettagli, forse trascurando lo scopo dell'intero discorso (deformazione professionale? :)), IMHO un discorso non è un programma, dove se hai verificato formalmente tutti i passaggi hai la certezza che funziona. Un caso della vita reale non può essere formalizzato se non introducendo dei vincoli e conoscendo tutte le possibili variabibili in gioco (cosa che nè io nè tu conosciamo, a meno che tu non disponga dei documenti interni di amd ed ibm).
Quindi, nonostante i SOLI documenti pubblici, per definizione le nostre sono chiacchiere dalle quali non si possono trarre conclusioni certe.
semplicemente: si possono portare tutti gli argomenti e documentazione che si vuole ma se ne manca solo una essenziale, tutto il resto "va a farsi friggere".

Il mio scopo non era quello di negare il tuo discorso, ma semplicemente di farti rendere conto che da ciò che hai apportato (che è insufficiente) non puoi trarre conclusioni (ciò vale anche per altri pro-amd)

il mezzo (forum) è quello che è: ha vantaggi ovvero le cose restano scritte e ci si può riflettere su ma ha anche svantaggi, ovvero non permette di chiarire velocemente piccoli equivoci per potersi concentrare sul merito, altro svantaggio è quello di non poter ascoltare il paraverbale.

dulcis in fundo, date le mie condizioni, a me costa fatica confutarti, percui ogni volta che m'interfaccio con qualcuno spero sempre che ci si intenda al volo (che non significa essere d'accordo ;)), se vuoi possiamo andare in audio con qualche mezzo e vedrai che in poco tempo si fugano tanti dubbi :)


ora se mi vuoi rispondere in modo diretto e nel merito del metadiscorso ti ringrazio :) altrimenti non si va da nessuna parte


Ps: senza entrare nel merito del discorso, dato che manca più di una informazione essenziale non si possono trarre conclusioni certe

Piedone1113
30-07-2016, 23:35
E' una architettura CISC molto complessa, con istruzioni che fanno anche il caffè... Ma non so quanto sia la latenza o il througput... Ci vorrebbero dei bench, ma si può assumere che siano dei trattori molto veloci...
Quello però che non si è detto di Power è:
Quanto costa in fabbrica la singola CPU.
Che margini di ricavo ha usato IBM sulle CPU.
Che tipo di metalizzazione ha usato IBM (il tipo, costo ed eventuali coperture da brevetti).
Insomma non si può dire che Fiat non sa fare i motori se dagli stessi stabilimenti con lo stesso alluminio escono dei fantastici 8 cilindri a V con un cavallino stampato sul coperchio della punteria.

Per quanto riguarda la cache di prima: ipotizzando che 16 th cpu intensive contemporanei occupano il 75% della cache è presumibile che 32 th non possono essere contenuti in cache ( dire che 32 th possono essere contenuti nella cache di un 2600 significa che nel 99,9%dei casi la cache è silicio sprecato.
Affermare che in questo scenario (assurdo e fuori da ogni logica) la banda ram non è limitante significa affibiare a Intel un basso ipc ( come avviene con bd).
Perché se ho ipc 100 e 8 mb di cache significa usare più cache a singolo ciclo di un altra architettura che ha ipc 80 e cache di 10mb.
Bene anche con th che hanno l'1% di cache miss in condizioni di carico normale non salirebbero in caso di sovraccarico?
E con th con cache hit del 95% in caso di concorrenza di più th (ed i lag ci sono perché la CPU è sovraccarica) rimarrebbero sempre al 95%
Non dimentichiamoci che siamo partiti dal presupposto di sovraccaricare la CPU con più istanze di Freeman ( conversione video quindi ram dipendente) cinebench ( quindi alto utilizzo cicli cpu) ed un videogame ( sensibilissimi già da soli alla banda ram).

Inviato dal mio GT-I9505 utilizzando Tapatalk

Ren
31-07-2016, 01:38
Permettimi di dire che non sono d'accordo... E te lo dimostro...

Quel grafico che avevo in firma era il consumo, in funzione della frequenza e del tipo di transistor/libreria, di una FPU NEON di una CPU ARM A57, in centinaia di mW in funzione della frequenza in GHz...
Siccome sappiamo che a 2.41 GHz e transistors LVT la FPU NEON consuma 330mW e che una intera CPU A57 nel peggiore dei casi consuma 750mW A 2.5GHz (con transistors probabilmente RVT, ma facciamo finta che siano LVT), quindi una intera CPU consuma meno di 1/3 di una intera FPU. Facciamo finta che una FPU Zen sia 4 volte più potente, quindi 1320mW, e che una CPU Zen sia 4 volte più esosa della sua FPU (cosa esagerata se si vede la CPU ARM)... Estrapolando il grafico a 4GHz si ha che la macro consuma circa 600mW, quindi una CPU Zen dovrebbe consumare meno di 10W a 4GHz e quindi 8 core meno di 80W...

Da dove li tiri fuori questi numeri (consumi e frequenza) ?

Hai fatto tdp inventato/4 ? :asd:

Dai ti faccio lo sconto, 2.1ghz|1.3watt. :fagiano:

Eccoti il consumo reale del ARM A57 | 14nm :


http://images.anandtech.com/doci/9330/a57-power-curve_575px.png


Buon trip mentale, tanto ormai 4ghz/95w is the magic number.:asd:

Ren
31-07-2016, 01:59
Quello però che non si è detto di Power è:
Quanto costa in fabbrica la singola CPU.
Che margini di ricavo ha usato IBM sulle CPU.
Che tipo di metalizzazione ha usato IBM (il tipo, costo ed eventuali coperture da brevetti).

Ragazzi vi state rendendo ridicoli. :p

Sono uguali, non vi entra in testa....:doh:

La grandezza del die non influisce sulla bontà del silicio.

L'unica cosa che cambia è l'architettura ed il design/layout fatto da IBM.

IBM non ha nessun vantaggio sul silicio nudo e crudo.

digieffe
31-07-2016, 03:46
Buonanotte a tutti

serenità e buonanotte anche a te

ci sono un paio di equivoci che ti hanno "preso male", domani chiarisco :)

digieffe
31-07-2016, 04:25
Fare 5.2GHz sul 45nm e 5.5GHz sul 32nm SOI, implica probabilmente un FO4 basso, sicuramente non superiore a quello di BD, visto che immagino che siano mostri da molti core e 200 o più watt...

z196 5.2ghz ~300w...
z12 5.5ghz ~300w
power 7 ?ghz ?w
power 7+ ?ghz ?w

digieffe
31-07-2016, 04:28
Ma giusto per capire, paragonato a BD questo power di IBM che prestazioni ha?

cerca i benchmarch che iniziano per spec*, es. specint2006, sono abbastanza seri e se presi cum grano salis anche significativi ;)

poi facci sapere :D

digieffe
31-07-2016, 04:31
Permettimi di dire che non sono d'accordo... E te lo dimostro...

Quel grafico che avevo in firma era il consumo, in funzione della frequenza e del tipo di transistor/libreria, di una FPU NEON di una CPU ARM A57, in centinaia di mW in funzione della frequenza in GHz...
Siccome sappiamo che a 2.41 GHz e transistors LVT la FPU NEON consuma 330mW e che una intera CPU A57 nel peggiore dei casi consuma 750mW A 2.5GHz (con transistors probabilmente RVT, ma facciamo finta che siano LVT), quindi una intera CPU consuma meno di 1/3 di una intera FPU. Facciamo finta che una FPU Zen sia 4 volte più potente, quindi 1320mW, e che una CPU Zen sia 4 volte più esosa della sua FPU (cosa esagerata se si vede la CPU ARM)... Estrapolando il grafico a 4GHz si ha che la macro consuma circa 600mW, quindi una CPU Zen dovrebbe consumare meno di 10W a 4GHz e quindi 8 core meno di 80W...

@Cesare ad esempio qui ho dei dubbi che possa essere così, ma
- potrebbero mancare delle variabili
- essendo una previsione non ci metto becco
chi vivrà vedrà

digieffe
31-07-2016, 05:33
edit

cdimauro
31-07-2016, 06:02
Aspetta, leggi bene, mi ostino a chiederti sempre sulla tua affermazione non su cose che non posso dimostrare come ho già scritto.
Hai già ricevuto ampie risposte (e annessi dati), ma continui a insistere.
E' chiaro solo a te o ti piace tanto vederlo. Ho sempre pensato, probabilmente a torto, che BD fosse fallimentare sia per architettura che per silicio. In quale metà vedi il mio fanatismo? Ma non dovrei, essendo fanatico (di amd suppongo), difendere a spada tratta il suo prodotto a tutti i costi?
Ed è proprio quello che fai, visto che continui a dare la colpa al silicio, che non c'entra: IBM ha saputo usarlo proficuamente per le sue architetture, DATI ALLA MANO.

E' in questo continuo insistere oltre l'evidenza che si configura il tuo fanatismo.
Si di apparenza.
O di ovvietà, in quel contesto. Quella frase si usa per rimarcare, un po' sarcasticamente, l'ineluttabilità di un evento conclamato.

- "Hai visto che la Ferrari ha fatto schifo e s'è fatta mettere sotto pure dalle Red Bull?"
* "A quanto pare..."

Questa è pura e semplice lingua italiana.
Ok, su IBM le hai portate, io domandavo però riguardo le tue sicurezze con la tua affermazione su amd, e visto che anche tu scrivi che non è necessario esserci dentro e basta avere i risultati, tu che risultati hai per affermare su amd ciò che hai scritto?
Non io: è una cosa che può fare chiunque, e dunque anche tu.

Prenditi i dati tecnici dei processori AMD sui 45 e 32nm, e confrontali con quelli di IBM e dei suoi DUE (perché mica c'è solo POWER7+) progetti.
Bada che potresti aver ragione e l'ho scritto ma per come la vedo io le prove su IBM non mi dicono nulla.
Può anche essere che IBM sappia fare molto bene il pane (silicio) e glofo non ne è in grado, vuoi per procedure diverse vuoi per forni e temperature diverse.
Lo vedi che continui a insistere testardamente riportando una falsità?

Mi riquoto:

"- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM."

Fammi un fischio quando l'avrai capito e ti entrà finalmente in testa una volta per tutte.
Mi riferivo al termine cercato sul treccani usato in modo inadeguato per me e la mia affermazione. E ti hanno pure risposto sul significato di quel termine.
Non è usato in modo inadeguato, e ho già risposto anche su quello che mi è stato scritto: nella lingua italiana è entrato con quel significato, pur essendo non corretto grammaticalmente.

Giusto per essere chiari, si usa così ormai. E non perché lo dice il sottoscritto, ma perché lo usano giornalisti "non di primo pelo", com'è anche riportato nella Treccani.

Per cui, a meno che non avvenga una rivoluzione, continuerà a essere usato a quel modo, io lo userò a quel modo, e mi permetterò di ripetere esattamente le stesse cose che ho detto prima sull'argomento.
Leggi bene se sto attaccando i dati di amd e IBM o sto chiedendo lumi a te su quella tua affermazione.
E smetto pure di chiedertelo, mica è così importante per me.
Ti ho già fornito tutte le risposte, ma se continui a ripetere le stesse cose a questo punto è un problema tuo, e se smetti di chiedere a pappagallo allora fai decisamente un favore a tutti.
Vabbeh, chiudo la questione tanto è inutile scrivere che non contesto i documenti ufficiali IBM.
E cosa contesti allora? Quelli di AMD?
A parte che l'ultimo quote della mia frase riportava un esempio in generale e non era riferito ne a te ne a IBM nello specifico ma solo al fatto di come tu ti affidi ciecamente solo alle cose scritte e, ripeto per l'ennesima ma ultima volta perché vedo ostinazione e pregiudizi da parte tua, il tutto si riconduceva alla tua affermazione su amd.
Rileggi bene, e riportami dove ho scritto a chiare lettere che hai sparato dei falsi.
Ma se continui a dirmi, addirittura nella stessa frase, che mi affiderei ciecamente a cose scritte: sono proprio i dati di IBM che ho riportato, che NON sono certo falsi e di "cieco" non c'è un bel nulla!

Ma poi, a cosa dovrei affidarmi in alternativa, al verbo dei fanboy di AMD che scrivono in un thread in cui si specula di tutto e di più, sparando dati su frequenze, consumi, e prestazioni senza avere nulla di concreto in mano? :rotfl:

La coerenza non sai dove stia di casa... :rolleyes:

Comunque sì: scusami se continuerò ad affidarmi alle "cose scritte" di IBM anziché alle vuote parole di fanboy che si stracciano le vesti sui 32nm brutti e cattivi che non hanno consentito ad AMD, e solo a lei, di fare un salto di qualità coi suoi prodotti (perché mica c'è solo Bulldozer: è Llano che dimostra come siano andate le cose realmente).

cdimauro
31-07-2016, 06:12
Permettimi di dire che non sono d'accordo... E te lo dimostro...

Quel grafico che avevo in firma era il consumo, in funzione della frequenza e del tipo di transistor/libreria, di una FPU NEON di una CPU ARM A57, in centinaia di mW in funzione della frequenza in GHz...
Siccome sappiamo che a 2.41 GHz e transistors LVT la FPU NEON consuma 330mW e che una intera CPU A57 nel peggiore dei casi consuma 750mW A 2.5GHz (con transistors probabilmente RVT, ma facciamo finta che siano LVT), quindi una intera CPU consuma meno di 1/3 di una intera FPU. Facciamo finta che una FPU Zen sia 4 volte più potente, quindi 1320mW, e che una CPU Zen sia 4 volte più esosa della sua FPU (cosa esagerata se si vede la CPU ARM)... Estrapolando il grafico a 4GHz si ha che la macro consuma circa 600mW, quindi una CPU Zen dovrebbe consumare meno di 10W a 4GHz e quindi 8 core meno di 80W...
Ne abbiamo già discusso e ho esposto i motivi per cui le due cose non siano confrontabili.

Se dovessi prendere i tuoi dati e fare delle previsioni, allora posso anche prendere quelli Ren sull'A57 che a 14nm a 2,1Ghz consuma 5,49W.

Dunque Zen quad core a 2,1Ghz@14nm = 5,49W * 4 * 4 = 87,84W. Vedi un po' tu se ha senso, ma soprattutto se ti piace, questo numero. ;)
E' una architettura CISC molto complessa, con istruzioni che fanno anche il caffè... Ma non so quanto sia la latenza o il througput... Ci vorrebbero dei bench, ma si può assumere che siano dei trattori molto veloci...
No, POWER è un'architettura RISC. E' Z che è un'architettura CISC.

I benchmark ci sono, com'è già stato detto.

digieffe
31-07-2016, 06:34
@Cesare ho provato ad imitare un po' il tuo stile :)


Non serve essere dentro: basta vedere i risultati, e confrontarli con quelli che sono riusciti a ottenere altri alle stesse condizioni. Sic et simpliciter.
si fanno sempre ragionamenti tecnici ma manca sempre il tassello più importante, quello economico e di strategia aziendale
senza conoscere i fattori economici e di strategia aziendale NON SONO LE STESSE CONDIZIONI. Sic et simpliciter.


Sul passato, invece, documentazione alla mano le valutazioni si possono tranquillamente fare. SE c'è la volontà di volerlo fare, ovviamente.
e SE c'è TUTTA la necessaria documentazione.
Quella pubblica è SOLO UNA PARTE della documentazione, non sufficiente


Ti risulta che AMD abbia risolto i suoi problemi dopo che POWER7+ è stato presentato?

Inoltre se AMD aveva problemi, poteva benissimo aspettare di risolverli invece di buttare sul mercato un prodotto non all'altezza.

Quanto alle date, POWER7+ è stato commercializzato ad agosto 2012, quindi 10 mesi dopo Bulldozer.
ti risulta che amd avesse convenienza economica a risolvere i suoi problemi dopo che POWER7+ è stato presentato?

chi ti dice che senza aspettare di risolverli, ma buttando fuori prodotti non all'altezza non fosse la soluzione migliore (meno peggio)?
hai in mano le condizioni contrattuali tra amd e gf? come anche i piani di produzione con relativi business plan dei phenom II e di BD? .... ?
senza questi documenti come fai ad affermare che poteva benissimo aspettare?

ricordo (ma potrei sbagliarmi) che il power 7+ fu presentato ad hotchips ad agosto 2012 ma poi fu disponibile sul mercato ad ottobre dello stesso anno.


Non mi risulta che IBM abbia venduto i suoi processori in perdita.
il mio discorso era ipotetico tu stai facendo un'affermazione, mi porti le prove?





accenno qualcosa:
- Vi chiedo: è vero oppure no che IBM ha affermato che i miglioramenti del PP sono del 6% ?
Non mi pare di averlo letto. Poi di che tipo di miglioramenti si tratterebbe? Solo le frequenze? In questo caso 4 -> 4,4Ghz = 10% in più che è > 6%.
sto insistendo su questo punto proprio perché ho un vago ricordo che fosse così, ma se nessuno posta un documento ...
Io li ho postati.
non quello al quale mi sto riferendo, spero che tuttodigitale sappia/ricordi qual'è il documento.




Per quanto riguarda z12/Next, ho aggiornato la mia risposta a bjt2, dove IBM riporta un miglioramento fino al 25% rispetto al precedente z196.
miglioramento del PP?
Grazie ai transistor in più e alla maggior frequenza, che sono derivati dal nuovo processo produttivo, per l'appunto.
dubbio: se avessero cambiato il FO4 (come sembra) come si può verificare?
Non so. Ma cambierebbe qualcosa se il FO4 fosse diverso?
certamente che cambierebbe più di qualcosa, per questo, in questi casi non dovrebbero farsi paragoni.



domanda mi quantifichi i costi di amd ed ibm per lo stesso pp?
Non li conosco. Ma quale sarebbe il problema qui?
.
non li conosci, ok.
quindi, se non sai quanto può aver investito ibm nel pp per ottenere le prestazioni che ha, non puoi neanche sapere se gli stessi investimenti, qualora fatti da amd e spalmati sul costo di BD, avrebbero potuto generare un prezzo di vendita di quest'ultimo fuorimercato.
la questione è tutta qui.


I costi di IBM per i suoi chip sono sempre stati più elevati, viste le loro dimensioni nonché frequenze operative.

Ciò che conta, e a quanto pare non è ancora chiaro, è vedere cos'è successo passando ai 32nm SOI alle stesse condizioni.

Stesse condizioni non significa che i costi di AMD e IBM siano gli stessi, ma che i chip di IBM costavano più di quelli AMD a 45 nm, e continuano a costare di più a 32nm.

Per cui, come già detto, il tutto si riconduce alle questione tecniche di cui prima: quali vantaggi siano stati ottenuti col passaggio ai 32nm
mi servirò di un esempio ipotetico così da non ingenerare equivoci:
power 7 - costo di produzione ~200$ - prezzo di vendita ~1500$
power 7+ - costo preventivato di produzione ~200$ - prezzo di vendita ~1500$
power 7+ - costo di produzione per risolere problemi soi 32nm ~1400$ - prezzo di vendita 1500$
BD - costo di produzione ~50$ - prezzo di vendita 150$
BD - costo di produzione per risolere problemi soi 32nm >> 150$ - prezzo di vendita fuori mercato

ibm con i suoi prezzi più alti ha maggior margine di manovra per correggere problemi.

come vedi dal mio ipotetico ma pur valido esempio, rimane una questione economica.
(IMHO nel mondo è quasi sempre una questione economica anche quando si tratta di cose tecniche)

spero che ti renda conto che in caso di problemi l'aspetto economico e di strategia aziendale* influenzi il tutto molto di più di quello tecnico.

*ibm potrebbe vendere anche in leggera perdita la cpu pur di mantenere le aspettative e l'immagine, il suo core business è altro, amd no.

non commento più di tanto questo punto ma mi affido alle tue deduzioni, spero che almeno su questo ci intendiamo :)



...
E' chiaro che continui a farlo per puro fanatismo.
george_p non ha bisogno di un avvocato, ma per onorare la realtà devo testimoniare che qui dentro (ovviamente ad esclusione dei fanboy intel) è tra i più critici nei confronti di amd.


Ma a questo punto te lo scrivo senza mezzi termini: le prove le ho portate.
mi dispiace Cesare, le prove sono insufficienti di conseguenza le tue deduzioni fallaci
chiunque non abbia accesso alla documentazione interna amd ed ibm non avrà mai tutte le prove necessarie (anche se le avesse servirebbe il disclosure agreement).


I dati di AMD e IBM sono lì: prova pure ad attaccarli, se ci riesci.
stasera siamo di cherrypicking? :) (nel senso che non ci sono tutti)
no, mi sa che questa fallacia è simile ma diversa... quando ho tempo verificherò come si chiama


Fino a prova contraria IBM ha realizzato POWER7+ e z12, ha clienti di spessore sparsi in tutto il mondo, fattura miliardi di dollari, e se sbaglia qualcosa sta tranquillo che la concorrenza spietata lo metterà in risalto a caratteri cubitali.
infatti con i margini di guadagno che ha non può sbagliare


Te l'avevo già scritto nonché riportato ampia documentazione sul fatto che:
- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM.

Quindi, in questo caso, IBM = GF. E' chiaro adesso?
puoi affermare che il pp sia lo stesso tra ibm e amd compresa metallizzazione ecc?


Non mi pare. Ti riconosci in questo:

"E' il cavallo di battaglia dei fanatici del silicio brutto e cattivo."

?
no, non mi riconosco, però poteva evitare di quotarmi o almeno poteva quotare solo la domanda, quotando anche il resto fa un effetto un po' beffardo


Non mi risultano fallacie, ma sei libero di farmele notare.
è ciò che pian pianino sto facendo ora sono le 4:03


Io non sto giocando. :)
intendevo altro (una figura retorica), fa nulla :)



ti stai accanendo con un minimo di documenti ufficiali pubblici dai quali puoi trarre conclusioni parziali, stessa cosa vale per gli altri qui dentro a favore di amd.

Io sono a favore della verità storica, non di AMD, Intel, e quant'altro.

Se IBM con Power7+ ha aumentato di 400Mhz le frequenze rispetto POWER7, e di 300Mhz da z196 a z12, passando dai 45nm ai 32nm (SOI), questo è un dato oggettivo e incontrovertibile, e tutt'altro che "parziale".

Com'è oggettivo che da Phenom a Llano c'è stato un tracollo delle frequenze.
anche io sono a favore della verità storica.

se ibm ha affermato che il guadagno del silicio è solo del 6% forse c'è qualcosa che non stai considerando?

forse manca qualche parametro alle tue valutazioni (tdp, core, freq, turbo, throughput, ...)?

se nello z, come sembra, hanno cambiato FO4, c'è ben poco da paragonare, come già detto.

@tuttodigitale dov'è il documento di questo 6%?



Come dovrebbero essere fatte allora? Vorresti che i dati oggettivi fossero messi in discussione? I 4,4Ghz del POWER7+ possono essere messi in discussione? E idem le scarse frequenze di Llano?

Se è questo il gioco di cui parlavi, allora concordo con te: io non ci sto.
sai che ti stimo (anche se a volte mi fai venire dei dubbi :D, si scherza). non contesto i dati da te (documenti ibm) riportati. fatto salvo eventuali errori, mi fiderei anche senza documenti ufficiali.
ciò su cui non concordo è il fatto che tu non consideri tutti i dati.
cmq, questa settimana che sta per iniziare mi metto pian pianino e mi dedico maggiormente.

lasciamo stare il gioco... era un modo per dire che siamo in un circolo vizioso.


E invece mi spiace vedere che il tuo giudizio non è oggettivo su tutte le aziende che hai citato, ma sbilanciato verso AMD.

Inoltre qui non è questione di fonte di vita o meno, ma di verità storica. E se la verità fa male, non è certo un problema mio...

Buonanotte a tutti

qui ti risponderò quando avrò un po' più riposato, non vorrei "fare la pipì fuori dal vaso" :D
e mi spiegherò su cosa intendevo per "discutere".



Ps:
- probabilmente mi sono ripetuto nelle risposte non ho avuto modo di rileggere
- una cortesia se mi risponderai conserva l'indentazione, se vuoi fondi o dividi ma mantieni la storia ad albero, grazie
- mi scuso se non ancora sono ruscito a rispondere alla parte finale ma dato che riguarda le persone meglio che lo scriva quando sarò riposato :).

cdimauro
31-07-2016, 06:37
Quello però che non si è detto di Power è:
Quanto costa in fabbrica la singola CPU.
Che margini di ricavo ha usato IBM sulle CPU.
Che tipo di metalizzazione ha usato IBM (il tipo, costo ed eventuali coperture da brevetti).
Come ha già detto Ren, non è così e non ha alcun senso questa richiesta.

IBM si affida a una fonderia, esattamente come tante altre aziende, fornendo le sue maschere. E ovviamente si mette d'accordo sul costo PER WAFER (in genere. Si può anche fare per chip funzionanti, come fece AMD tempo fa con GF).

Poi quello che ci fa coi chip estratti dai wafer, di come vengono impiegati, a quali frequenze, quanto consumano, ma soprattutto a quanto IBM li venda non sono affari della fonderia. Sono affari di IBM, e basta.

Giusto per essere chiari, non è che GF fa pagare i wafer 10 volte di più a IBM rispetto agli altri clienti, solo perché quest'ultima ci margina 10 volte di più, visto che i suoi chip li vende per certe tipologie di server o addirittura per supercomputer.

Altrimenti IBM si affiderebbe a un'altra fonderia, visto che GF non è certo l'unica.

E in tutto ciò non vedo cosa c'entrino i brevetti: è roba di pertinenza di IBM se riguardano i suoi chip, e della fonderia se riguardano la produzione grezza dei wafer.

I 32nm SOI sono gli stessi per i clienti di GF che li hanno usati, e parliamo di IBM e AMD. Poi ognuno con le proprie maschere ci fa quello che vuole, come già detto.
Insomma non si può dire che Fiat non sa fare i motori se dagli stessi stabilimenti con lo stesso alluminio escono dei fantastici 8 cilindri a V con un cavallino stampato sul coperchio della punteria.
Ecco, questo è proprio l'esempio giusto: ognuno l'alluminio lo usa come vuole. Fiat ci fa il Fire e il MultiJet, mentre Ferrari il V8, e la fabbrica che li produce potrebbe benissimo essere la stessa.

Le differenze, però, stanno nei progetti, che sono enormemente diversi.

Esattamente come ha detto in precedenza leoneazzurro in uno dei suoi commenti (http://www.hwupgrade.it/forum/showpost.php?p=43901179&postcount=4968), che riporto:

"Ma quello che dico io e' che il TDP dipende anche dal processo, ma non puo' prescindere dall'architettura/design del chip. Ripeto, guardiamo l'esempio di Maxwell contro Hawaii, stesso processo ma consumi molto diversi e clock persino piu' alti per la soluzione Nvidia. Con questo non voglio dire che in AMD non sappiano disegnare i chip, credo pero' che abbiano fatto delle scelte in termini di allocazione dell'area del chip che hanno reso meno in termini di TDP. "

e non si capisce perché si continui a non prenderne atto.

IBM coi 32nm SOI ha fatto delle scelte per POWER7+ & z12/Next, mentre AMD altre con Llano e Bulldozer.

Ad IBM è andata bene con entrambi i suoi progetti, mentre ad AMD no con tutti e due. Stesso processo produttivo. Sic et simpliciter.

george_p
31-07-2016, 06:59
CUT...

Continui ad accusarmi di fanboysmo perché non condivido le tue prove che solo tu puoi "leggere", e nonostante ciò non ti ho accusato di dichiarare falso ma continui a dire che io dichiaro falsi i documenti amd e IBM.
Pecchi di arroganza e pregiudizio.

Forse lavorare per una grande azienda ti mette su un piedistallo sopra gli altri.
Buona ragione caro Cesare, continui a parlare di fanatismo ma ti abbassi allo stesso livello sparando accuse con arroganza, proprio come avviene anche nei bar.

cdimauro
31-07-2016, 07:02
Non prendo lezioni da uno che nemmeno capisce che il processo produttivo di IBM è esattamente lo stesso di GF, visto che è stato sviluppato congiuntamente, e che è pure quest'ultima che gli produce i chip.

george_p
31-07-2016, 07:12
Non prendo lezioni da uno che nemmeno capisce che il processo produttivo di IBM è esattamente lo stesso di GF, visto che è stato sviluppato congiuntamente, e che è pure quest'ultima che gli produce i chip.

Se ti stai riferendo a me, Parlare di rispetto prescinde dalle mere conoscenze tecniche.
Inoltre non ho letto da nessuna parte nei tuoi post che global foundries produce i chip ad IBM, è la prima volta che leggo di una cosa del genere in 5 anni almeno.

E la ripetizione dei tuoi post non è mai stata su questa affermazione, altrimenti si ti avrei chiesto documenti inerenti global foundries (e non amd o ibm) per appurare la tua affermazione.

cdimauro
31-07-2016, 07:21
Se ti stai riferendo a me, Parlare di rispetto prescinde dalle mere conoscenze tecniche.
Inoltre non ho letto da nessuna parte nei tuoi post che global foundries produce i chip ad IBM, è la prima volta che leggo di una cosa del genere in 5 anni almeno.

E la ripetizione dei tuoi post non è mai stata su questa affermazione, altrimenti si ti avrei chiesto documenti inerenti global foundries (e non amd o ibm) per appurare la tua affermazione.
A questo punto è chiaro che nemmeno leggi quello che ti (A TE!) viene scritto.

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43901333&postcount=4973):

""Globalfoundries ed IBM hanno annunciato un accordo per la produzione congiunta di chip presso lo stabilimento "Fab 8" di Globalfoundries situato nella Contea di Saratoga, con la pianificazione della produzione in volumi durante la seconda metà del 2012. La produzione di questi processori è stata inizialmente avviata nello stabilimento di IBM presso East Fishkill che opera con wafer da 300mm.

I processori che verranno prodotti nello stabilimento Fab 8 sono basati sulla tecnologia SOI a 32 nanometri di IBM che è stata sviluppaa conginuntamente con Globalfoundries e altri membri della Process Development Alliance di IBM, assieme ad una iniziale attività di ricerca del College of Nanoscale Science and Engineering dell'Università di Albany."


Infatti GlobalFoundries ha prodotto (produce ancora?) i POWER7+ di IBM."

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43902972&postcount=5016):

"Te l'avevo già scritto nonché riportato ampia documentazione sul fatto che:
- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM.

Quindi, in questo caso, IBM = GF. E' chiaro adesso?"

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43903133&postcount=5034):

"Lo vedi che continui a insistere testardamente riportando una falsità?

Mi riquoto:

"- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM."


Fammi un fischio quando l'avrai capito e ti entrà finalmente in testa una volta per tutte."

Che dire: confuso e felice.

Forse per te va bene la quarta, ma da parte mia non ci sarà più alcuna ripetizione: ho già dato.

george_p
31-07-2016, 07:31
A questo punto è chiaro che nemmeno leggi quello che ti (A TE!) viene scritto.

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43901333&postcount=4973):

""Globalfoundries ed IBM hanno annunciato un accordo per la produzione congiunta di chip presso lo stabilimento "Fab 8" di Globalfoundries situato nella Contea di Saratoga, con la pianificazione della produzione in volumi durante la seconda metà del 2012. La produzione di questi processori è stata inizialmente avviata nello stabilimento di IBM presso East Fishkill che opera con wafer da 300mm.

I processori che verranno prodotti nello stabilimento Fab 8 sono basati sulla tecnologia SOI a 32 nanometri di IBM che è stata sviluppaa conginuntamente con Globalfoundries e altri membri della Process Development Alliance di IBM, assieme ad una iniziale attività di ricerca del College of Nanoscale Science and Engineering dell'Università di Albany."


Infatti GlobalFoundries ha prodotto (produce ancora?) i POWER7+ di IBM."

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43902972&postcount=5016):

"Te l'avevo già scritto nonché riportato ampia documentazione sul fatto che:
- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM.

Quindi, in questo caso, IBM = GF. E' chiaro adesso?"

Da qui (http://www.hwupgrade.it/forum/showpost.php?p=43903133&postcount=5034):

"Lo vedi che continui a insistere testardamente riportando una falsità?

Mi riquoto:

"- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM."


Fammi un fischio quando l'avrai capito e ti entrà finalmente in testa una volta per tutte."

Che dire: confuso e felice.

Forse per te va bene la quarta, ma da parte mia non ci sarà più alcuna ripetizione: ho già dato.


Si, scusa, mea culpa. Non avevo per niente letto a fondo le parti virgolettate. Questa notizia mi giunge proprio nuova.
Ora mi leggo i links riportati.

Stando così le cose anche per me rimarrebbe per esclusione che amd non sia riuscita o, come scrive digieffe, non abbia potuto per difficoltà economiche , o magari altro.

george_p
31-07-2016, 08:02
Ma anche no: Globalfoundries e IBM avviano la produzione congiunta presso la Fab 8 (http://pro.hwupgrade.it/news/mercato/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html)

"Globalfoundries ed IBM hanno annunciato un accordo per la produzione congiunta di chip presso lo stabilimento "Fab 8" di Globalfoundries situato nella Contea di Saratoga, con la pianificazione della produzione in volumi durante la seconda metà del 2012. La produzione di questi processori è stata inizialmente avviata nello stabilimento di IBM presso East Fishkill che opera con wafer da 300mm.

I processori che verranno prodotti nello stabilimento Fab 8 sono basati sulla tecnologia SOI a 32 nanometri di IBM che è stata sviluppaa conginuntamente con Globalfoundries e altri membri della Process Development Alliance di IBM, assieme ad una iniziale attività di ricerca del College of Nanoscale Science and Engineering dell'Università di Albany."

Infatti GlobalFoundries ha prodotto (produce ancora?) i POWER7+ di IBM.

Inoltre ti faccio presente che i lavori sui 32nm SOI iniziarono quando GlobalFoundries non esisteva ancora e le fabbriche erano tutte di AMD. AMD si è defilata completamente soltanto a marzo 2012: AMD rinuncia alle restanti quote in Globalfoundries (http://pro.hwupgrade.it/news/mercato/amd-rinuncia-alle-restanti-quote-in-globalfoundries_41050.html).

Ossia quando Llano prima e Bulldozer poi erano già stati commercializzati.

Dunque cercare di scaricare le responsabilità dei 32nm (che comunque non ci sono: vedi IBM POWER7+ & Z) su GlobalFoundries equivale a scaricarle su AMD.


Mi sono riletto e riquoto la tua risposta al mio post.
Effettivamente pur avendolo letto il tuo non avevo "recepito" il vero contenuto su globalfoundries ma ero più focalizzato su Llano e BD.

Ma ora son pieno di domande più che mai :O
Come mai la scelta di IBM di farsi produrre da glofo?
IBM è rimasta soddisfatta da questo pp? ha continuato ad utilizzarlo?
I processori successivi a power 7+ che processo utilizzano?
Sempre glofo dopo che questa ne ha acquisito le fab?

paolo.oliva2
31-07-2016, 08:39
è esattamente quello che ho sempre detto, e che era anche stato dimostrato all'epoca dei famosi bench di Poolo che io rifeci con il 2600K e che postai nel vecchio thread con tanto di identici screen con Cinebench+7zip+Occt etc. etc.....

fra l'altro, la perdita di fluidita poteva essere risolta impostando correttamente l'affinita dei core; si perdeva un po di troughtout finale ( perchè ovviamente si rischiava di non sfruttare tutti i thread ) ma si rimaneva comuqnue sopra e in piu si rimaneva fluidi.

Mi sembra doveroso appuntare dopo quanto postato da Piedone1113, che avevamo ragione entrambi. Nel senso... il sistema Intel si siede a livello di rfluidità nell'uso (e questo era stato interpretato da me come un abbassamento prestazionale) e tu che riportavi che le performances non calavano e con affinità si poteva risolvere il tutto.

Il forum è bello per questo, perchè alla fine si arriva ad una conclusione razionale.

P.S.
Ti chiedo scusa per quella discussione, ma ero convinto di avere ragione... non era un discorso di bandiera.

cdimauro
31-07-2016, 08:41
Mi sono riletto e riquoto la tua risposta al mio post.
Effettivamente pur avendolo letto il tuo non avevo "recepito" il vero contenuto su globalfoundries ma ero più focalizzato su Llano e BD.
Ottimo. In tutta onestà non ci speravo più, da com'era ormai presa, ma son contento che ci siamo chiariti.
Ma ora son pieno di domande più che mai :O
Come mai la scelta di IBM di farsi produrre da glofo?
Perché già da tempo IBM si sta trasformando in azienda di servizi, e non era interessata a rimanere in ambito hardware, se non per supportare i suoi server.

Per questo un po' di tempo fa ha persino pagato GF per prendersi le sue fabbriche.
IBM è rimasta soddisfatta da questo pp?
Io credo di sì, ma come vedi viene contestato il fatto che potrebbe addirittura vendere in perdita.

Fortunatamente i report economici dell'azienda sono pubblici e chiunque li può visionare (visto che si tratta di un'azienda quotata), per cui si può verificare quanto meno l'andamento delle divisioni coinvolte (addirittura Power e Z hanno bilanci separati), per cui anche se non si può risalire al costo di produzione per chip, ci si può fare un'idea se l'azienda abbia o meno risentito di problemi (come dimostrano i bilanci di AMD, che sono anch'essi pubblici), ed è quello che farò appena avrò un po' di tempo per smazzarmeli.
ha continuato ad utilizzarlo?
Sì, ma ovviamente i nuovi processori sono realizzati con processo produttivo nuovo.
I processori successivi a power 7+ che processo utilizzano?
POWER8 utilizza quello a 22nm.
POWER9 arriverà il prossimo anno e utilizzarà i 14nm
Sempre glofo dopo che questa ne ha acquisito le fab?
Sì.

paolo.oliva2
31-07-2016, 08:53
Te l'avevo già scritto nonché riportato ampia documentazione sul fatto che:
- il processo a 32nm SOI è stato sviluppato CONGIUNTAMENTE da IBM e GF;
- GF produce i POWER7+ di IBM.

Quindi, in questo caso, IBM = GF.

Io ricordo che alla GF erano andati dei tecnici silicio IBM, e comunque il silicio 32nm SOI è realizzato dal consorzio, quindi in questo cdimauro ha ragione.

Quello che invece è diverso, è che poi tutti sono liberi di affinare il silicio a seconda di quello che si produce e/o apportare modifiche architetturali per adattarle al silicio.

Mi sembra ovvio che paragonare AMD ad IBM, ammesso e concesso che IBM abbia guadagnato di più di AMD sul 32nm, non mi pare dipenda dal bravo e non bravo, direi di più dal numero di tecnici, dai soldi stanziati e dal prezzo finale applicabile al procio comparato a quanto speso.

AMD al periodo aveva già postdatato BD di circa 1 anno... tempo per ulteriori modifiche non c'era. Per me, avesse avuto tempo, AMD sarebbe dovuta uscire direttamente con PD e abbandonare completamente Zambesi. Avesse avuto più tempo e più dindi, forse avrebbe potuto anche alzare l'FO4 per renderlo più idoneo al silicio, con uno scricchetto all'IPC.

Come dire... in formula 1 una minardi andava tantissimo rispetto a quanto speso, poi magari vinceva la Ferrari, ma a mio parere, rispetto alla spesa, erano più bravi quelli della minardi che della ferrari.

cdimauro
31-07-2016, 08:55
L'importante è aver chiarito che la base di partenza sia esattamente la stessa. Peraltro, come dicevo, GF produce per entrambe le aziende (usando lo stesso processo, ovviamente).

Poi come ognuno realizzi le maschere da dare in pasto a GF, sono affari suoi, ed è qui che sta l'abilità del proprio staff tecnico (che dipende anche dal budget, ovviamente), per l'appunto.

tuttodigitale
31-07-2016, 09:40
Da dove li tiri fuori questi numeri (consumi e frequenza) ?
Non saprei quanto sono attendibili i numeri di anandtech...se è così XV è MOLTO meglio di qualsiasi architettura ARM non-custom, visto che un quad-core a 1,7GHz consuma 5W e ha un ipc pari al doppio...se l'ottimizzi nel range 1-2GHz e hai un mostro su 28nm...:cool:

tornando con i piedi per terra, secondo Anandtech, i soli core A57 a 20nm consumano 7,5W a 1,9GHz.
il consumo per core passa da 1,77 a 0,96 W...riduzione del 46%...
e sempre secondo anandtech dal passaggio a 28 a 20 nm, il consumo del a15 si è ridotto del 20% sempre a 1.9GHz...
in sostanza il consumo dal passaggio dai 28 ai 14nm LPE si è ridotto del 67%, quindi considerando un ulteriore 10% offerto dal LPP, si è ad un stratosferico -70% a 1,9 GHz.

ora considerando un FO4 30 vs FO4 17, per avere un andamento qualitativo di quello che abbiamo detto...
per un a72 i 1,9GHz sono equivalenti ai 3,3GHz di Excavator...ovvero ai transistor è richiesta la stessa prestazione..
ebbene i 4 core XV consumano circa 35W a questa frequenza (mi mantengo largo :D ), e quindi sarebbero appena 10,5W....

facendo finta che ZEN=1modulo XV e condivida il FO4 (come vedi ci sono dei se) abbiamo:
ZEN x8 3,3GHz 42W (il 16 core Opteron potrebbe avere una frequenza base di oltre 3 GHz)

abbiamo un ulteriore elemento... a 2,1GHz il consumo aumenta del 30%.
i 2,1GHz sono equivalenti a 3,6GHz

ZEN x8 3,6GHz 55W.

Inoltre, ZEN potrebbe adottare librerie ad alte prestazioni e/o transistor migliori . bjt2 nei post dietro ha detto che GF, ha un processo LPPP.


Buon trip mentale, tanto ormai 4ghz/95w is the magic number.:asd:
come vedi è possibilissimo, a patto che ZEN non sia eccessivamente complesso e abbia un fo4 alla bulldozer, cioè essere un gioiello di architettura :cool:
E se non fosse, i numeri ci divono che XV sui 14nm sarebbe meglio di slylake....:O
Ocio ad AMD

tuttodigitale
31-07-2016, 09:59
il punto, secondo me, che ribadisco, è che non è stata IBM e GF e AMD (per quello che ha potuto quest'ultima visto che credo è quella che tra le 3 ha investito meno) a fare un lavoro di cacca, ma è stata Intel a fare un lavoro superlativo....se così non fosse i 28nm TSMC sarebbero superiori ai 28nm di GF, eppure mi pare che le CPU Jaguar abbiamo guadagnato qualcosina con il processo di quest'ultima...Ed a onor di cronaca, mi pare che anche gli A72 siano venuti meglio con i 20nm Samsung che non con i 20nm di TSMC (con quest'ultima intenzionata a fare una variante high-power di questo processo :rolleyes: )

con i 32nm, HMKG era una tecnologia stra-collaudata da Intel, visto che è debuttata con i 45nm, non mi meraviglio affatto, che con processi più spinti, in cui queste nuove tecnologie sono ESSENZIALI, avere già una certa esperienza anche con processi più permissivi possa fare la differenza...

D'altra parte, mi pare che gli investimenti di Intel su silicio erano più grandi di quelli di TSMC/GF/ST messi assieme. Nulla di così sorprendente.

cdimauro
31-07-2016, 10:01
Ciò non toglie che IBM coi 32nm SOI abbia tirato fuori due signori (micro)architetture (peraltro completamente diverse: una RISC e una CISC).

Questo qualcosa vorrà dire, o no?

george_p
31-07-2016, 10:37
Ottimo. In tutta onestà non ci speravo più, da com'era ormai presa, ma son contento che ci siamo chiariti.

Perché già da tempo IBM si sta trasformando in azienda di servizi, e non era interessata a rimanere in ambito hardware, se non per supportare i suoi server.

Per questo un po' di tempo fa ha persino pagato GF per prendersi le sue fabbriche.

Io credo di sì, ma come vedi viene contestato il fatto che potrebbe addirittura vendere in perdita.

Fortunatamente i report economici dell'azienda sono pubblici e chiunque li può visionare (visto che si tratta di un'azienda quotata), per cui si può verificare quanto meno l'andamento delle divisioni coinvolte (addirittura Power e Z hanno bilanci separati), per cui anche se non si può risalire al costo di produzione per chip, ci si può fare un'idea se l'azienda abbia o meno risentito di problemi (come dimostrano i bilanci di AMD, che sono anch'essi pubblici), ed è quello che farò appena avrò un po' di tempo per smazzarmeli.

Sì, ma ovviamente i nuovi processori sono realizzati con processo produttivo nuovo.

POWER8 utilizza quello a 22nm.
POWER9 arriverà il prossimo anno e utilizzarà i 14nm

Sì.

Avevo letto della vendita delle sue fab ma mi era completamente sfuggita la notizia del power 7+ sul silicio glofo. E continuava a sfuggirmi pure tra i tuoi post :D , non volevo proprio vederlo :banned:


L'importante è aver chiarito che la base di partenza sia esattamente la stessa. Peraltro, come dicevo, GF produce per entrambe le aziende (usando lo stesso processo, ovviamente).

Poi come ognuno realizzi le maschere da dare in pasto a GF, sono affari suoi, ed è qui che sta l'abilità del proprio staff tecnico (che dipende anche dal budget, ovviamente), per l'appunto.

Infatti avevo letto un articolo su B&C a riguardo con il rafforzamento della partnership ultradecennale con la Synopsis (se non ricordo male il nome dell'azienda).
Correzioni assieme a quelle dei brevetti architetturali del periodo post BD-Meyer.

C'è da dire che anche glofo da parte sua ha cannato alcuni processi produttivi e questo si aggiungeva a tutto l'insieme per cui il silicio glofo non è mai stato visto di buon occhio. Ma anche la situazione finanziaria di amd non avrà probabilmente aiutato a risolvere le lacune architetturali col silicio.
Sarà forse uno dei motivi per i quali non ha trasferito BD sul 28 come octacore, anche se vista l'architettura... ha fatto bene a risparmiare soldi.

Alla luce di queste nuove informazioni mi auspico che amd lavori meglio su entrambi i fronti per i prossimi prodotti.

AceGranger
31-07-2016, 11:18
Mi sembra doveroso appuntare dopo quanto postato da Piedone1113, che avevamo ragione entrambi. Nel senso... il sistema Intel si siede a livello di rfluidità nell'uso (e questo era stato interpretato da me come un abbassamento prestazionale) e tu che riportavi che le performances non calavano e con affinità si poteva risolvere il tutto.

Il forum è bello per questo, perchè alla fine si arriva ad una conclusione razionale.

P.S.
Ti chiedo scusa per quella discussione, ma ero convinto di avere ragione... non era un discorso di bandiera.

abbiamo svalvolato entrambi :D

:flower: :flower: :ubriachi: :ubriachi:

bjt2
31-07-2016, 12:20
Da dove li tiri fuori questi numeri (consumi e frequenza) ?

Hai fatto tdp inventato/4 ? :asd:

Dai ti faccio lo sconto, 2.1ghz|1.3watt. :fagiano:

Eccoti il consumo reale del ARM A57 | 14nm :


http://images.anandtech.com/doci/9330/a57-power-curve_575px.png


Buon trip mentale, tanto ormai 4ghz/95w is the magic number.:asd:

A che processo si riferisce quel grafico? Perchè io sto parlando dell'Huwauei P9 plus, che ha un SoC fatto sul 16nm FF di TSMC, che ha 4 core A57 a 2.5Ghz, più 4 core A53 a 1.8GHz, più una GPU da 122GFLOPS, più il NB e il SB... E non credo che il TDP di tutto questo ben di dio sia più di 3 W, tenuto conto che la batteria da 10Wh è durata 18 ore, compreso lo schermo e l'apparato radio/wifi/bluetooth in uno scenario di utilizzo medio... Ho supposto che con il SoC a pieno carico (ad esempio videogioco) la batteria duri 3 ore, da cui 3W di consumo, compreso lo schermo. Ho supposto, esagerando, che i 3W li assorbano tutti i 4 core A57, quando invece c'è anche lo schermo, la GPU, il NB, l'apparato radio e i 4 core A53... Se quel grafico che hai postato si riferisce al processo a 14/16nm, allora quel cellulare, in situazione di videogioco scaricherebbe la batteria in mezz'ora, se non si fonde prima... Un cellulare non può dissipare più di 5W IMHO... Perchè i tablet con i SoC broadwell hanno TDP limitato a 15W e alcuni arrivano a scaldare, nonostante questo, anche oltre i 50 gradi...

bjt2
31-07-2016, 12:29
Ne abbiamo già discusso e ho esposto i motivi per cui le due cose non siano confrontabili.

Se dovessi prendere i tuoi dati e fare delle previsioni, allora posso anche prendere quelli Ren sull'A57 che a 14nm a 2,1Ghz consuma 5,49W.

Dunque Zen quad core a 2,1Ghz@14nm = 5,49W * 4 * 4 = 87,84W. Vedi un po' tu se ha senso, ma soprattutto se ti piace, questo numero. ;)

Secondo wikipedia, la GPU di quel SoC è 302GFlops, quindi superiore a quella dell'Huwauei P9 plus che ho postato io. E' anche possibile che questi core siano completamente ASIC e quindi con un FO4 molto alto. Facendoli custom si può tranquillamente passare de 60-70 a 30 di FO4, con crollo verticale dei consumi. Il SoC del Huwauei non è questo. E comunque la mia era una sovrastima:

1) Non è detto che la FPU di Zen consumi 4 volte questa NEON.
2) Non è detto che una CPU consumi 4 volte la sua FPU
3) Il FO4 di Zen, se va male, è pari a quello Di Jaguar, che è 24-26. Se va bene è pari a quello di BD, che è 17. Il FO4 delle architetture ARM, a seconda del livello di customizzazione, varia da 30 a 70... Quindi se va male, Zen può essere il 15% più veloce di queste CPU (FO4 30 vs 26), a pari Vcore.

Per gli altri calcoli, vedi la mia risposta di sopra a Ren.

No, POWER è un'architettura RISC. E' Z che è un'architettura CISC.

I benchmark ci sono, com'è già stato detto.

Ci deve essere stato un fraintendimento... Mi riferivo a Z, infatti... :)
Perchè un utente aveva riportato che Z aveva FO4 di 13...

bjt2
31-07-2016, 12:37
Non saprei quanto sono attendibili i numeri di anandtech...se è così XV è MOLTO meglio di qualsiasi architettura ARM non-custom, visto che un quad-core a 1,7GHz consuma 5W e ha un ipc pari al doppio...se l'ottimizzi nel range 1-2GHz e hai un mostro su 28nm...:cool:

tornando con i piedi per terra, secondo Anandtech, i soli core A57 a 20nm consumano 7,5W a 1,9GHz.
il consumo per core passa da 1,77 a 0,96 W...riduzione del 46%...
e sempre secondo anandtech dal passaggio a 28 a 20 nm, il consumo del a15 si è ridotto del 20% sempre a 1.9GHz...
in sostanza il consumo dal passaggio dai 28 ai 14nm LPE si è ridotto del 67%, quindi considerando un ulteriore 10% offerto dal LPP, si è ad un stratosferico -70% a 1,9 GHz.

ora considerando un FO4 30 vs FO4 17, per avere un andamento qualitativo di quello che abbiamo detto...
per un a72 i 1,9GHz sono equivalenti ai 3,3GHz di Excavator...ovvero ai transistor è richiesta la stessa prestazione..
ebbene i 4 core XV consumano circa 35W a questa frequenza (mi mantengo largo :D ), e quindi sarebbero appena 10,5W....

facendo finta che ZEN=1modulo XV e condivida il FO4 (come vedi ci sono dei se) abbiamo:
ZEN x8 3,3GHz 42W (il 16 core Opteron potrebbe avere una frequenza base di oltre 3 GHz)

abbiamo un ulteriore elemento... a 2,1GHz il consumo aumenta del 30%.
i 2,1GHz sono equivalenti a 3,6GHz

ZEN x8 3,6GHz 55W.

Inoltre, ZEN potrebbe adottare librerie ad alte prestazioni e/o transistor migliori . bjt2 nei post dietro ha detto che GF, ha un processo LPPP.


come vedi è possibilissimo, a patto che ZEN non sia eccessivamente complesso e abbia un fo4 alla bulldozer, cioè essere un gioiello di architettura :cool:
E se non fosse, i numeri ci divono che XV sui 14nm sarebbe meglio di slylake....:O
Ocio ad AMD

Ho postato, tempo fa, il link a quella presentazione, in cui si fa la differenza tra i design custom e ASIC, linkatami da Dresdenboy. Non so se l'hai messa in prima pagina...

Da li si vede che anche i migliori ARM hanno FO4>=30, mentre i Custom AMD vanno da 17 a 26... In più l'IBM Z, con il suo FO4 supposto di 13 (visto il clock a 5.2GHz) è un esempio di architettura CISC commerciale con un discreto successo, quindi non deve avere un IPC così schifoso... Questo per dire che si può fare...

bjt2
31-07-2016, 12:39
Ciò non toglie che IBM coi 32nm SOI abbia tirato fuori due signori (micro)architetture (peraltro completamente diverse: una RISC e una CISC).

Questo qualcosa vorrà dire, o no?

Ma anche AMD, visto che PD arriva a 5GHz... Il problema è l'IPC, per scelte progettuali discutibili, come 2 sole ALU, cache esclusive e ad alta latenza e altre cosette che hanno fatto crollare l'IPC... Come dimostra lo Z, è possibile fare una architettura CISC a basso FO4 e alto IPC... Solo che AMD non ha avuto la bravura di farla...

Piedone1113
31-07-2016, 14:46
Ciò non toglie che IBM coi 32nm SOI abbia tirato fuori due signori (micro)architetture (peraltro completamente diverse: una RISC e una CISC).

Questo qualcosa vorrà dire, o no?
Cesare lavori per Intel e anche per sentito dire dovresti sapere a spanne quanto incide sul bulk layer di metallizazioni consecutive.
Bd ha 11 layer differenti.
Power 7+ ne ha 13.
Sappiamo per esperienza che ogni layer aggiuntivo abbassa le temperature e i voltaggi di funzionamento di una CPU.
Credi che si Bd avesse avuto 13 layer ( 2 in più ) avrebbe potuto alzare le frequenze ed abbassare contemporaneamente anche i consumi, ma che probabilmente questo avrebbe portato si ad egualiare sb come prestazioni St e superarlo in mt, ma avrebbe portato il costo della CPU ad un livello tale da essere fuori mercato.
Pensi che le mie siano considerazioni campate in aria oppure che i 13 layer permettono la 32nm soi di rendere meglio?

Inviato dal mio GT-I9505 utilizzando Tapatalk

paolo.oliva2
31-07-2016, 15:48
Non prendo lezioni da uno che nemmeno capisce che il processo produttivo di IBM è esattamente lo stesso di GF, visto che è stato sviluppato congiuntamente, e che è pure quest'ultima che gli produce i chip.

Vorrei fare un esempio:

il 45nm SOI era di IBM.

Dalla FAB di Dresda è uscito 45nm versione liscia per Phenom II X4 e 45nm low-k per Phenom II X6.

Sempre dalla FAB di Dresda è stato prodotto il 32nm. Ora, sinceramente io non sapevo che sempre la FAB di Dresda produceva proci sul 32nm per IBM.
Ma come facciamo a sapere che il 32nm usato da IBM sia LO STESSO del 32nm usato per BD?

P.S. Edit
Già da quanto ha postato Piedone1113 (stavo scrivendo, non l'ho potuto leggere), Bd ha 11 layer differenti vs Power 7+ ne ha 13, quindi andrebbe rivista tutta la sequenza che hai postato di quanto IBM ha guadagnato nel passaggio silicio rispetto ad AMD perchè BD si è fermata a 11 layer e non è salita ulteriormente.

Tu dai per scontato questo (che non mi sembra coerente) solamente per rafforzare la tua opinione che BD aveva il silicio buono e se ha disatteso è solamente per l'architettura. Preciso... le carenze architetturali di BD non è che le nego, ma l'intenzione di AMD era quella di spendere il meno possibile realizzando un'architettura competitiva, ma competitiva si intende ad almeno 4,5GHz def e =>5GHz in turbo (per sopperire al basso IPC nell'ST) e sfruttare il CMT per ottenere potenze elevate in MT e CMT (come riduzione transistor) + SOI (basso leakage) per ottenere un numero di moduli SIMILE alla rivale Intel. AMD si è fermata nel desktop alla metà (8350 4m vs 5960X X8) e nell'ambito server 8m vs 22 core (quasi 1/3). E' tutto qui la mancanza di competitività... perchè OGGI, un BD XV 8m vs un Broadwell 8 core risulterebbe pure più efficiente.

A me stupisce che rispetto al 45nm il 32nm come passaggio miniaturizzazione non abbia abbassato il Vcore e pure l'aggiunta dell'HKMG sembra essere ininfluente.
Con le mie (poche) conoscenze tecniche, a me sembra un discorso che ciò abbia generate un leakage ben più alto, ed una conferma su ciò indirettamente è Komodo (BD X10). Se il problema era la frequenza, aumentare di 2 core avrebbe dovuto permettere un miglioramento di efficienza permettendo di abbassare le frequenze (un po' come fa Intel e tutti aumentando i core a die). Invece non l'ha fatto.
Il passaggio dal 32nm al 28nm Bulk non mi pare fosse esclusivamente per l'iGPU, in fin dei conti Trinity l'aveva, ma credo più basandomi sul fatto che Kaveri e Carrizo dovevano aumentare il numero di transistor per HSA (ed infatti hanno ben 3,2 milioni di transistor) e restare sul 32nm SOI probabilmente ciò non era possibile.

Se rifletti su questo punto, tu in post addietro hai riportato che il SOI era superiore al Bulk e quindi AMD non soffriva di perdite derivanti dal silicio.
Dal 32nm SOI è passata al 28nm Bulk, quindi con una diminuzione miniaturizzazione esigua, e se l'ha fatto non mi sembra manco da mettere in discussione che reputasse più idoneo il 28nm Bulk del 32nm SOI.

Sul confronto bontà PP del 28nm Bulk GF vs 22nm e 14nm Intel penso sia inutile postarlo. Su questo TH avevo letto che l'impiego di librerie ad alta densità sul 28nm Bulk GF comportava QUASI un guadagno di un nodo, non so se Intel le utilizzi, ma in ogni caso al max il 28nm Bulk GF non arriverebbe mai al 22nm Intel.

Ti rifaccio questa domanda a cui penso volutamente non vuoi rispondere (visto che ormai è la 5a volta o più)
Se prestazionalmente e per efficienza (consumo prestazioni) BD in veste BR, come si posiziona vs Intel/22nm? Se il silicio 22nm Intel è superiore al 28nm Bulk GF e l'architettura BD inefficiente, come te lo spieghi che BR + 28nm sarebbe più efficiente di Intel +22nm?
Se mi chiarisci questo punto, magari arriviamo ad un punto dove mi puoi convincere che più di 8 core sul 32nm SOI AMD non li ha potuti mettere per colpa dell'architettura e non del silicio.

shellx
31-07-2016, 16:20
Qualcuno che l'ha fatto c'è :P

http://www.bitsandchips.it/9-hardware/1802-amd-bulldozer-l-overclock-e-le-memorie-ottimizzare-latenze-e-frequenze?start=5

Senza andare a disturbare forum esterni, già nel thread dedicato a bd, anni fa, ho ripetuto più volte verbalmente e con fatti (un software da me sviluppato per testare appunto questo tipo di elaborazioni/carichi "SOD" -qualcuno se lo ricorderà-) che BD ha comportamenti prettamente da cpu server. Delle derivazioni da server per desktop gli 83xx sono praticamente quelle più vicine agli opteron, in tutta la storia del silicio informatico.

Un saluto a tutto il thread. ;)

el-mejo
31-07-2016, 17:35
Senza andare a disturbare forum esterni, già nel thread dedicato a bd, anni fa, ho ripetuto più volte verbalmente e con fatti (un software da me sviluppato per testare appunto questo tipo di elaborazioni/carichi "SOD" -qualcuno se lo ricorderà-) che BD ha comportamenti prettamente da cpu server. Delle derivazioni da server per desktop gli 83xx sono praticamente quelle più vicine agli opteron, in tutta la storia del silicio informatico.

Un saluto a tutto il thread. ;)

Le cpu desktop e quelle server sono identiche, cambia solo la selezione e alcune caratteristiche attive o meno (moltiplicatore sbloccato per gli fx/Phenom BE/Athlon 64 FX, supporto memorie ecc e registered e MCM per gli opteron).

Semmai BD è l'architettura Amd con architettura più server-oriented della sua storia ;)

Ma in senso lato, penso che nessuno batterà mai la piattaforma lga-2011 riguardo la derivazione server

bjt2
31-07-2016, 17:37
Da dove li tiri fuori questi numeri (consumi e frequenza) ?

Hai fatto tdp inventato/4 ? :asd:

Dai ti faccio lo sconto, 2.1ghz|1.3watt. :fagiano:

Eccoti il consumo reale del ARM A57 | 14nm :


http://images.anandtech.com/doci/9330/a57-power-curve_575px.png


Buon trip mentale, tanto ormai 4ghz/95w is the magic number.:asd:

Ah, dimenticavo una cosa... Qualcuno in questo thread aveva portato il consumo di un modulo dual core XV sul 28nm a 2.7GHz ed era 2.5W... Quindi un quad core XV a 2.7GHz consuma 5W. Sul 28nm. Con sicuramente più transistors di un quad core A57, vista la FPU molto più potente... Questo la dice lunga sul FO4 di questi core ARM...

Ad esempio l'APU FX9800P in 15W di TDP ha 4 core XV da 2.7-3.6GHz e una GPU con 512 SP a 758MHz... Considerando che c'è anche il NB e il SB compreso in questi 15W, 5W per 4 core sembra anche che siano troppi...
Il turbo max è indicativo: siccome un modulo XV non può essere spento a metà, significa che un modulo XV a 3.6GHz consuma massimo 15W...

el-mejo
31-07-2016, 17:57
Ah, dimenticavo una cosa... Qualcuno in questo thread aveva portato il consumo di un modulo dual core XV sul 28nm a 2.7GHz ed era 2.5W... Quindi un quad core XV a 2.7GHz consuma 5W. Sul 28nm. Con sicuramente più transistors di un quad core A57, vista la FPU molto più potente... Questo la dice lunga sul FO4 di questi core ARM...

Ad esempio l'APU FX9800P in 15W di TDP ha 4 core XV da 2.7-3.6GHz e una GPU con 512 SP a 758MHz... Considerando che c'è anche il NB e il SB compreso in questi 15W, 5W per 4 core sembra anche che siano troppi...
Il turbo max è indicativo: siccome un modulo XV non può essere spento a metà, significa che un modulo XV a 3.6GHz consuma massimo 15W...

Occhio che ho letto in giro che le frequenze dichiarate di XV mobile (ma anche di Kaveri desktop) sono molto indicative e il più delle volte con carico gpu+cpu calano anche sotto la soglia dichiarata:

http://www.tomshardware.com/reviews/amd-a10-7890k-gaming-performance-benchmark,4491-2.html

Mi sembra strano che 2 moduli/4 core a 2.7ghz consumino solo 5W a pieno carico...

Piedone1113
31-07-2016, 18:04
Le cpu desktop e quelle server sono identiche, cambia solo la selezione e alcune caratteristiche attive o meno (moltiplicatore sbloccato per gli fx/Phenom BE/Athlon 64 FX, supporto memorie ecc e registered e MCM per gli opteron).

Semmai BD è l'architettura Amd con architettura più server-oriented della sua storia ;)

Ma in senso lato, penso che nessuno batterà mai la piattaforma lga-2011 riguardo la derivazione server

I primi Opteron oltre ad avere porte ht attive per il multisocket (serie 2x 4x 8x) il supporto a ram ecc, avevano anche la cache L2 con timing più rilassati rendendole difatti diverse dalla CPU desktop.

Mi spiace contraddire poi le tue convinzioni: CPU server non sono prodotte soltanto da AMD e Intel, e lga2011 non è, e di conseguenza mai sarà la migliore infrastruttura server.

Inviato dal mio GT-I9505 utilizzando Tapatalk

bjt2
31-07-2016, 18:10
Occhio che ho letto in giro che le frequenze dichiarate di XV mobile (ma anche di Kaveri desktop) sono molto indicative e il più delle volte con carico gpu+cpu calano anche sotto la soglia dichiarata:

http://www.tomshardware.com/reviews/amd-a10-7890k-gaming-performance-benchmark,4491-2.html

Mi sembra strano che 2 moduli/4 core a 2.7ghz consumino solo 5W a pieno carico...

L'APU che ho postato io è quella nuova. Le vecchie avevano problemi al risparmio energetico, per cui, con GPU a massimo carico, le CPU andavano a frequenza fissa e ridotta. Comunque clock massimo di 3.6Ghz significa 1 modulo. GPU in idle, ma NB e SB attivi... Quindi sicuramente al max 10W per il modulo...

el-mejo
31-07-2016, 18:19
I primi Opteron oltre ad avere porte ht attive per il multisocket (serie 2x 4x 8x) il supporto a ram ecc, avevano anche la cache L2 con timing più rilassati rendendole difatti diverse dalla CPU desktop.

Ma infatti sono feature attivate (nel caso della cache, impostate) solo sui die della linea Opteron e disattivate in quella Athlon.
I pezzi di silicio sono gli stessi, cambia la destinazione d'uso.

Una cpu server "pura" è il Xeon Phi, che dalla prossima generazione verrà proposta anche sul socket sucessore del 2011-3-


Mi spiace contraddire poi le tue convinzioni: CPU server non sono prodotte soltanto da AMD e Intel, e lga2011 non è, e di conseguenza mai sarà la migliore infrastruttura server.

Lo so, ma è la piattaforma consumer di derivazione server più estrema: cpu con 8 core e 20mb di cache L3, memoria a 4 canali e supporto a 8 dimm, 40 linee pci-e integrate nel die della cpu.

Piedone1113
31-07-2016, 20:34
Lo so, ma è la piattaforma consumer di derivazione server più estrema: cpu con 8 core e 20mb di cache L3, memoria a 4 canali e supporto a 8 dimm, 40 linee pci-e integrate nel die della cpu.

Inverti pure i termini:
Xeon è la cpu server derivata dalla più estrema cpu consumer.
X86 non è nata per le alte prestazioni parallele da tipico impiego server, piuttosto è una cpu General purpose che con il passare del tempo ha raggiunto prestazioni e caratteristiche da poter essere impiegata anche in ambito server.



Inviato dal mio GT-I9505 utilizzando Tapatalk

cdimauro
31-07-2016, 20:44
Avevo letto della vendita delle sue fab ma mi era completamente sfuggita la notizia del power 7+ sul silicio glofo. E continuava a sfuggirmi pure tra i tuoi post :D , non volevo proprio vederlo :banned:
Tranquillo, che non sei il solo: vedi il post di Paolo. :D
Infatti avevo letto un articolo su B&C a riguardo con il rafforzamento della partnership ultradecennale con la Synopsis (se non ricordo male il nome dell'azienda).
Correzioni assieme a quelle dei brevetti architetturali del periodo post BD-Meyer.

C'è da dire che anche glofo da parte sua ha cannato alcuni processi produttivi e questo si aggiungeva a tutto l'insieme per cui il silicio glofo non è mai stato visto di buon occhio.
Come già detto, GF non è certo la sola ad aver avuto problemi coi processi produttivi: TSMC, Samsung e Intel hanno avuto anche loro problemi a scendere sotto i 32/28nm.
Ma anche la situazione finanziaria di amd non avrà probabilmente aiutato a risolvere le lacune architetturali col silicio.
Sarà forse uno dei motivi per i quali non ha trasferito BD sul 28 come octacore, anche se vista l'architettura... ha fatto bene a risparmiare soldi.
Difficile fare delle considerazioni qui senza avere informazioni.

I 28nm portano dei vantaggi a livello di integrazione, che poi è il motivo per cui si continua la corsa ai nuovi processi produttivi.

Ci sarà qualche altro motivo per cui ha preferito lasciare i 28nm alle GPU.
Alla luce di queste nuove informazioni mi auspico che amd lavori meglio su entrambi i fronti per i prossimi prodotti.
Un po' di liquidità ce l'ha, grazie ai contratti delle console. Non è molto rispetto a quanto normalmente margina con CPU e GPU, ma è ciò che le consente di andare avanti.

tuttodigitale
31-07-2016, 20:52
Ho postato, tempo fa, il link a quella presentazione, in cui si fa la differenza tra i design custom e ASIC, linkatami da Dresdenboy. Non so se l'hai messa in prima pagina...

Da li si vede che anche i migliori ARM hanno FO4>=30, mentre i Custom AMD vanno da 17 a 26... In più l'IBM Z, con il suo FO4 supposto di 13 (visto il clock a 5.2GHz) è un esempio di architettura CISC commerciale con un discreto successo, quindi non deve avere un IPC così schifoso... Questo per dire che si può fare...

io mi ero calcolato, se ricordi il FO4 lordo basandomi sul Vcore e la relativa frequenza di funzionamento ed eo arrivato alla conclusione spannometrica: 32 per l'a72/a57 e 19 per il Krait.

Ciò non toglie che IBM coi 32nm SOI abbia tirato fuori due signori (micro)architetture (peraltro completamente diverse: una RISC e una CISC).

Questo qualcosa vorrà dire, o no?
mi permetto di dissentire...l'aumento di IPC in ambito HPC è dell'ordine del 3%...e il power7+ a 3,4GHz ha un TDP stimato in 170W contro i 200W a 3,8GHz del power7....

Io tutta questa superiorità del 32nm rispetto ai 45nm low k fatico a vederla, sinceramente...qualcosa è stato fatto ma pochissima cosa rispetto al salto stratosferico che ha fatto Intel...

Poi è tanto superiore, che il Power8 disintegra il power7+ in efficienza, ma nonostante ciò mi pare che Intel sia superiore....con i suoi 26nm, pardon 22nm FINFET.

Ah, dimenticavo una cosa... Qualcuno in questo thread aveva portato il consumo di un modulo dual core XV sul 28nm a 2.7GHz ed era 2.5W... Quindi un quad core XV a 2.7GHz consuma 5W. Sul 28nm. Con sicuramente più transistors di un quad core A57, vista la FPU molto più potente... Questo la dice lunga sul FO4 di questi core ARM...
1,7GHz...non esageriamo

ma il bello REN fa finta di non vedere i progressi dei vari passaggi 28->20->14nmLPE



http://images.anandtech.com/doci/8718/Power_model20nm_575px.png
28->20nm riduzione del consumo del 20% a 1,9GHz


http://cdn03.androidauthority.net/wp-content/uploads/2015/06/exynos-7420-average-curves.jpg
20->14nm riduzione del consumo del 46% sempre a 1,9GHz


28->14 LPE riduzione del consumo del 67%

il mio vecchio post si basa su questi grafici....
http://www.hwupgrade.it/forum/showpost.php?p=43903361&postcount=5048

cdimauro
31-07-2016, 20:54
Secondo wikipedia, la GPU di quel SoC è 302GFlops, quindi superiore a quella dell'Huwauei P9 plus che ho postato io. E' anche possibile che questi core siano completamente ASIC e quindi con un FO4 molto alto. Facendoli custom si può tranquillamente passare de 60-70 a 30 di FO4, con crollo verticale dei consumi. Il SoC del Huwauei non è questo. E comunque la mia era una sovrastima:

1) Non è detto che la FPU di Zen consumi 4 volte questa NEON.
2) Non è detto che una CPU consumi 4 volte la sua FPU
3) Il FO4 di Zen, se va male, è pari a quello Di Jaguar, che è 24-26. Se va bene è pari a quello di BD, che è 17. Il FO4 delle architetture ARM, a seconda del livello di customizzazione, varia da 30 a 70... Quindi se va male, Zen può essere il 15% più veloce di queste CPU (FO4 30 vs 26), a pari Vcore.

Per gli altri calcoli, vedi la mia risposta di sopra a Ren.
L'ho vista. Il SoC in questione è questo (http://www.hwupgrade.it/news/cpu/samsung-annuncia-exynos-7420-a-14nm-octa-core-e-64-bit-per-la-fascia-alta_56087.html), che è fabbricato a 14nm FinFET, e dovrebbe rappresentare il mio processo a 14nm (finti) FinFET dopo quello Intel.

Per il resto, ti faccio notare che mi sono soltanto limitato ad applicare il tuo ragionamento, e da lì è venuto fuori un quadro disastroso.

Questo per rimarcare che continuare a fare confronti e speculazioni lascia il tempo che trova. Specialmente se poi si fa un minestrone mischiando A57, A53, A15, A72.

E' per questo che preferisco uscirmene fuori da questi ragionamenti.
Ci deve essere stato un fraintendimento... Mi riferivo a Z, infatti... :)
Perchè un utente aveva riportato che Z aveva FO4 di 13...
Forse lo z10, che è in-order.

Bisognerebbe trovare quello di z196 (il primo modello z OoO) e/o z12/Next.
Ma anche AMD, visto che PD arriva a 5GHz...
Dunque possiamo finalmente affermare che il problema NON è dei 32nm SOI?
Il problema è l'IPC, per scelte progettuali discutibili, come 2 sole ALU, cache esclusive e ad alta latenza e altre cosette che hanno fatto crollare l'IPC... Come dimostra lo Z, è possibile fare una architettura CISC a basso FO4 e alto IPC... Solo che AMD non ha avuto la bravura di farla...
Vedi sopra su FO4.

Sull'IPC di Z non ho idea di che livelli regga. Bisognerebbe recuperare qualche benchmark.

cdimauro
31-07-2016, 21:00
mi permetto di dissentire...l'aumento di IPC in ambito HPC è dell'ordine del 3%...e il power7+ a 3,4GHz ha un TDP stimato in 170W contro i 200W a 3,8GHz del power7....
Dal PDF che ho riportato prima risulta evidente che POWER7+ ha prestazioni per watt nettamente superiori a POWER7.
Io tutta questa superiorità del 32nm rispetto ai 45nm low k fatico a vederla, sinceramente...
Se POWER7+ non ti convince (ma il PDF di cui sopra a me ha convinto), allora dai un'occhiata a z12/Next. I numeri li ho riportati prima. E si tratta di un'architettura CISC con quasi mille istruzioni, di cui parecchie complicatucce. Dunque un buon benchmark visto che parliamo di CISC.
qualcosa è stato fatto ma pochissima cosa rispetto al salto stratosferico che ha fatto Intel...

Poi è tanto superiore, che il Power8 disintegra il power7+ in efficienza, ma nonostante ciò mi pare che Intel sia superiore....con i suoi 26nm, pardon 22nm FINFET.
Non in tutti i benchmark, ma mediamente sì.

Questo, però, non ha nulla a che vedere con la discussione sui 32nm SOI, i cui vantaggi per IBM sono palesi.
1,7GHz...non esageriamo

ma il bello REN fa finta di non vedere i progressi dei vari passaggi 28->20->14nmLPE


http://images.anandtech.com/doci/8718/Power_model20nm_575px.png
28->20nm riduzione del consumo del 20% a 1,9GHz


http://cdn03.androidauthority.net/wp-content/uploads/2015/06/exynos-7420-average-curves.jpg
20->14nm riduzione del consumo del 46% sempre a 1,9GHz


28->14 LPE riduzione del consumo del 67%
Fammi capire: il grafico di AnandTech che ha riportato, invece, non conta nulla? O magari è falso?

cdimauro
31-07-2016, 21:06
Cesare lavori per Intel e anche per sentito dire dovresti sapere a spanne quanto incide sul bulk layer di metallizazioni consecutive.
No, Antonio: io faccio altro e non sono tenuto a esserne a conoscenza.
Bd ha 11 layer differenti.
Power 7+ ne ha 13.
Sappiamo per esperienza che ogni layer aggiuntivo abbassa le temperature e i voltaggi di funzionamento di una CPU.
Credi che si Bd avesse avuto 13 layer ( 2 in più ) avrebbe potuto alzare le frequenze ed abbassare contemporaneamente anche i consumi, ma che probabilmente questo avrebbe portato si ad egualiare sb come prestazioni St e superarlo in mt, ma avrebbe portato il costo della CPU ad un livello tale da essere fuori mercato.
Pensi che le mie siano considerazioni campate in aria oppure che i 13 layer permettono la 32nm soi di rendere meglio?

Inviato dal mio GT-I9505 utilizzando Tapatalk
Penso che quest'analisi (http://www.chip-architect.org/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html) dimostri come stiano realmente le cose.

AMD ha utilizzato 12 (DODICI!) layer a 40nm per... Bobcat! Che è l'architettura più economica che ha realizzato. Il tutto mentre Intel ha usato soltanto 9 layer, e li ha aumentati soltanto coi 14nm.

Dunque dovrei credere che AMD sarebbe stata incapace di aggiungere un solo layer per i 32nm (SE fosse stato realmente necessario, sia chiaro: non sta scritto da nessuna parte che avrebbe dovuto farlo!) per le sue architetture desktop e/o server...

bjt2
31-07-2016, 21:13
E' per questo che preferisco uscirmene fuori da questi ragionamenti.

Ma se vedi i miei ragionamenti (a volte però l'ho ritenuto implicito) c'è un grande SE come premessa: se Zen ha lo stesso FO4 di BD/XV. Perchè è sotto gli occhi di tutti il livello di clock ottenuto da AMD con il 28nm BULK ciofeca (a detta di tutti): 4.3GHz di turbo max su XV... Mica bruscolini... E consumi di 2.5W a coppia di core, seppur a 1.7GHz... E 10-15W a coppia di core a 3.6GHz... Sul 28nm BULK fetecchia... E siccome il 14nm è Fin Fet, e sappiamo i vantaggi a livello elettronico che queso comporta, SE Zen ha lo stesso FO4 di BD/XV, ci si può auspicare un aumento di frequenza e/o diminuzione di TDP... Poi visto che la FPU di BD/XV è a 4 vie, è fisicamente possibile fare uno scheduler a 4 vie in un FO4 di 17, quindi anche passare da 2 ALU a 4 ALU, rimanendo in un FO4 17, dovrebbe essere possibile...

Dunque possiamo finalmente affermare che il problema NON è dei 32nm SOI?

BD/XV ha un FO4 quasi la metà della vecchia architettura Hounds... E infatti si passa dai 3GHz di LLano ai 4/4.7 Ghz di BD/PD (130W/220W). Contro i 3.6GHz della stessa architettura sul 45nm... Non direi che si è migliorati...

cdimauro
31-07-2016, 21:14
Vorrei fare un esempio:

il 45nm SOI era di IBM.

Dalla FAB di Dresda è uscito 45nm versione liscia per Phenom II X4 e 45nm low-k per Phenom II X6.

Sempre dalla FAB di Dresda è stato prodotto il 32nm. Ora, sinceramente io non sapevo che sempre la FAB di Dresda produceva proci sul 32nm per IBM.
Ma come facciamo a sapere che il 32nm usato da IBM sia LO STESSO del 32nm usato per BD?
Se non leggete quello che viene riportato, io non posso farci niente. Vedi le mie repliche a george.
P.S. Edit
Già da quanto ha postato Piedone1113 (stavo scrivendo, non l'ho potuto leggere), Bd ha 11 layer differenti vs Power 7+ ne ha 13, quindi andrebbe rivista tutta la sequenza che hai postato di quanto IBM ha guadagnato nel passaggio silicio rispetto ad AMD perchè BD si è fermata a 11 layer e non è salita ulteriormente.
Ho appena risposto anche a questo.
Tu dai per scontato questo (che non mi sembra coerente) solamente per rafforzare la tua opinione che BD aveva il silicio buono e se ha disatteso è solamente per l'architettura.
No: io ho detto che altri hanno saputo sfruttarlo. E dunque i problemi di AMD coi 32nm SOI non sono dovuti al silicio.
Preciso... le carenze architetturali di BD non è che le nego, ma l'intenzione di AMD era quella di spendere il meno possibile realizzando un'architettura competitiva, ma competitiva si intende ad almeno 4,5GHz def e =>5GHz in turbo (per sopperire al basso IPC nell'ST) e sfruttare il CMT per ottenere potenze elevate in MT e CMT (come riduzione transistor) + SOI (basso leakage) per ottenere un numero di moduli SIMILE alla rivale Intel. AMD si è fermata nel desktop alla metà (8350 4m vs 5960X X8) e nell'ambito server 8m vs 22 core (quasi 1/3). E' tutto qui la mancanza di competitività... perchè OGGI, un BD XV 8m vs un Broadwell 8 core risulterebbe pure più efficiente.
Come sai, non mi piacciono le speculazioni. Per quanto riguarda BD, ho fornito camionate da dati: è la (micro)architettura che è fatta male a prescindere dalle frequenze che si ipotizzavano. Anche perché i 5GHz sono stati toccati (ignorando i consumi, per adesso), e le prestazioni sono quelle che sono.
A me stupisce che rispetto al 45nm il 32nm come passaggio miniaturizzazione non abbia abbassato il Vcore e pure l'aggiunta dell'HKMG sembra essere ininfluente.
Con le mie (poche) conoscenze tecniche, a me sembra un discorso che ciò abbia generate un leakage ben più alto, ed una conferma su ciò indirettamente è Komodo (BD X10). Se il problema era la frequenza, aumentare di 2 core avrebbe dovuto permettere un miglioramento di efficienza permettendo di abbassare le frequenze (un po' come fa Intel e tutti aumentando i core a die). Invece non l'ha fatto.
Il passaggio dal 32nm al 28nm Bulk non mi pare fosse esclusivamente per l'iGPU, in fin dei conti Trinity l'aveva, ma credo più basandomi sul fatto che Kaveri e Carrizo dovevano aumentare il numero di transistor per HSA (ed infatti hanno ben 3,2 milioni di transistor) e restare sul 32nm SOI probabilmente ciò non era possibile.
E di Llano cosa dici?
Se rifletti su questo punto, tu in post addietro hai riportato che il SOI era superiore al Bulk e quindi AMD non soffriva di perdite derivanti dal silicio.
Non sono stato io ad affermarlo: è bjt2 che ha detto che il SOI ha 10-20 volte (se non ricordo male) meno leakage.
Dal 32nm SOI è passata al 28nm Bulk, quindi con una diminuzione miniaturizzazione esigua, e se l'ha fatto non mi sembra manco da mettere in discussione che reputasse più idoneo il 28nm Bulk del 32nm SOI.
Anche i 28nm hanno i loro vantaggi. Altrimenti sarebbero rimasti tutti fermi ai 32nm.
Sul confronto bontà PP del 28nm Bulk GF vs 22nm e 14nm Intel penso sia inutile postarlo. Su questo TH avevo letto che l'impiego di librerie ad alta densità sul 28nm Bulk GF comportava QUASI un guadagno di un nodo, non so se Intel le utilizzi, ma in ogni caso al max il 28nm Bulk GF non arriverebbe mai al 22nm Intel.

Ti rifaccio questa domanda a cui penso volutamente non vuoi rispondere (visto che ormai è la 5a volta o più)
Se prestazionalmente e per efficienza (consumo prestazioni) BD in veste BR, come si posiziona vs Intel/22nm? Se il silicio 22nm Intel è superiore al 28nm Bulk GF e l'architettura BD inefficiente, come te lo spieghi che BR + 28nm sarebbe più efficiente di Intel +22nm?
Se mi chiarisci questo punto, magari arriviamo ad un punto dove mi puoi convincere che più di 8 core sul 32nm SOI AMD non li ha potuti mettere per colpa dell'architettura e non del silicio.
Non mi pare di aver evitato risposte sull'argomento.

Comunque, come ha riportato anche poco fa tuttodigitale, i 22nm di Intel non sono 22nm reali, ma all'incirca 26nm. Per cui Intel non aveva questo gran vantaggio sui 28nm della concorrenza.

E' coi 14nm che la situazione s'è completamente ribaltata: quelli di Intel sono reali, mentre quelli della concorrenza saranno sui 22-20nm.

cdimauro
31-07-2016, 21:17
Ma se vedi i miei ragionamenti (a volte però l'ho ritenuto implicito) c'è un grande SE come premessa: se Zen ha lo stesso FO4 di BD/XV. Perchè è sotto gli occhi di tutti il livello di clock ottenuto da AMD con il 28nm BULK ciofeca (a detta di tutti): 4.3GHz di turbo max su XV... Mica bruscolini... E consumi di 2.5W a coppia di core, seppur a 1.7GHz... E 10-15W a coppia di core a 3.6GHz... Sul 28nm BULK fetecchia... E siccome il 14nm è Fin Fet, e sappiamo i vantaggi a livello elettronico che queso comporta, SE Zen ha lo stesso FO4 di BD/XV, ci si può auspicare un aumento di frequenza e/o diminuzione di TDP... Poi visto che la FPU di BD/XV è a 4 vie, è fisicamente possibile fare uno scheduler a 4 vie in un FO4 di 17, quindi anche passare da 2 ALU a 4 ALU, rimanendo in un FO4 17, dovrebbe essere possibile...
Troppi se: I give up. :)
BD/XV ha un FO4 quasi la metà della vecchia architettura Hounds... E infatti si passa dai 3GHz di LLano ai 4/4.7 Ghz di BD/PD (130W/220W). Contro i 3.6GHz della stessa architettura sul 45nm... Non direi che si è migliorati...
Per AMD no. Per IBM sì. :)

Di conseguenza è la prima che non è riuscita a sfruttare adeguatamente il nuovo processo produttivo, visto che è lo stesso adottato da entrambe le aziende.

cdimauro
31-07-2016, 21:22
I primi Opteron oltre ad avere porte ht attive per il multisocket (serie 2x 4x 8x) il supporto a ram ecc, avevano anche la cache L2 con timing più rilassati rendendole difatti diverse dalla CPU desktop.
Ma l'architettura base è quella. Anche Intel per gli Xeon ha alcune cosucce abilitate (che piacciono tanto a Google, Facebook, Microsoft, Amazon, ecc.), ma non si mette certo a realizzare una microarchitettura diversa da quelle desktop, soltanto per cambiamenti marginali come questi.
Ma infatti sono feature attivate (nel caso della cache, impostate) solo sui die della linea Opteron e disattivate in quella Athlon.
I pezzi di silicio sono gli stessi, cambia la destinazione d'uso.
Esatto.
Una cpu server "pura" è il Xeon Phi, che dalla prossima generazione verrà proposta anche sul socket sucessore del 2011-3-
Veramente è già disponibile da un po'. :cool:
Inverti pure i termini:
Xeon è la cpu server derivata dalla più estrema cpu consumer.
Nel senso che gli Xeon sono basati sulla precedente microarchitettura immagino.
X86 non è nata per le alte prestazioni parallele da tipico impiego server, piuttosto è una cpu General purpose che con il passare del tempo ha raggiunto prestazioni e caratteristiche da poter essere impiegata anche in ambito server.
Xeon Phi, che è x86, è stato appositamente realizzato per alte prestazioni parallele in ambito server e HPC.

bjt2
31-07-2016, 21:22
Troppi se: I give up. :)

Dai... :D Il Se è uno solo... :D Anche se bello grosso... :D

Ren
31-07-2016, 21:23
A che processo si riferisce quel grafico? Perchè io sto parlando dell'Huwauei P9 plus, che ha un SoC fatto sul 16nm FF di TSMC, che ha 4 core A57 a 2.5Ghz, più 4 core A53 a 1.8GHz, più una GPU da 122GFLOPS, più il NB e il SB... E non credo che il TDP di tutto questo ben di dio sia più di 3 W, tenuto conto che la batteria da 10Wh è durata 18 ore, compreso lo schermo e l'apparato radio/wifi/bluetooth in uno scenario di utilizzo medio... Ho supposto che con il SoC a pieno carico (ad esempio videogioco) la batteria duri 3 ore, da cui 3W di consumo, compreso lo schermo. Ho supposto, esagerando, che i 3W li assorbano tutti i 4 core A57, quando invece c'è anche lo schermo, la GPU, il NB, l'apparato radio e i 4 core A53... Se quel grafico che hai postato si riferisce al processo a 14/16nm, allora quel cellulare, in situazione di videogioco scaricherebbe la batteria in mezz'ora, se non si fonde prima... Un cellulare non può dissipare più di 5W IMHO... Perchè i tablet con i SoC broadwell hanno TDP limitato a 15W e alcuni arrivano a scaldare, nonostante questo, anche oltre i 50 gradi...


Ok, anandtech con test strumentali veri non è affidabile.:sofico:

Cosa mi dici di te che testi il consumo via batteria:p su un giochino con schermo accesso...
Fammi capire hai supposto anche il carico, il thermal limit, down-clock ed altre belle cosette con la forza dello sguardo.:Prrr:

Continua pure con i tuoi calcoli bislacchi...:asd:


ps. guarda nel Kirin del tuo telefono sono integrati gli A72 :D

bjt2
31-07-2016, 21:28
Ok, anandtech con test strumentali veri non è affidabile.:sofico:

Cosa mi dici di te che testi il consumo via batteria:p su un giochino con schermo accesso...
Fammi capire hai supposto anche il carico, il thermal limit, down-clock ed altre belle cosette con la forza dello sguardo.

Continua pure con i tuoi calcoli bislacchi...:asd:


ps. guarda nel Kirin del tuo telefono sono integrati gli A72;)

Certo che sono affidabili... Ma Zen non ha il FO4 di questi ARM e già sul 28nm con XV AMD fa di meglio... 4 core 5W a 1.7GHz (non 2.7), con dei core con il quadruplo di potenza FPU... Sul 28nm. Scusa se è poco...
Quindi questo cos'è? Un miracolo? O forse XV ha un FO4 molto inferiore agli ARM ASIC, completamente sintetizzati, in cui si risparmia al massimo i costi di progettazione, perchè tutti fanno così e comunque l'energia necessaria la paga il cliente?

EDIT: P.S.: ho un vetusto iPhone 4, e sto aspettando un windows phone con CPU x86 (magari AMD) perchè sono innamorato di windows 10 e continuum (e con CPU x86 si dovrebbe avere anche la compatibilità win32)

Ren
31-07-2016, 21:40
Certo che sono affidabili... Ma Zen non ha il FO4 di questi ARM e già sul 28nm con XV AMD fa di meglio... 4 core 5W a 1.7GHz (non 2.7), con dei core con il quadruplo di potenza FPU... Sul 28nm. Scusa se è poco...
Quindi questo cos'è? Un miracolo? O forse XV ha un FO4 molto inferiore agli ARM ASIC, completamente sintetizzati, in cui si risparmia al massimo i costi di progettazione, perchè tutti fanno così e comunque l'energia necessaria la paga il cliente?

EDIT: P.S.: ho un vetusto iPhone 4, e sto aspettando un windows phone con CPU x86 (magari AMD) perchè sono innamorato di windows 10 e continuum (e con CPU x86 si dovrebbe avere anche la compatibilità win32)

Ma non ti bastavano i consumi di un arm a57/14nm per dimostrare i tuoi calcoli bislacchi ? :sofico:
Cesare ti ha già fatto notare che non stanno in piedi con i consumi VERI del a57. :D


Se non ricordo male quei consumi di carrizo sono per "core pair", ossia un dual-core farlocco CMT. (infatti gli hanno fatto causa ad AMD)

Eccoti un carrizo 15-17w di tdp ;)

http://www.notebookcheck.net/Carrizo-in-Review-How-does-AMD-s-A10-8700P-Perform.147654.0.html

Io leggo 1.8ghz per 4core farlocchi CMT su prime95, ma va bene anche cinebench (2.1ghz) per me.

Facciamo che sono 10w di cpu e 7w di altro...;) (sono generoso lo so:p )
Abbiamo già raddoppiato i consumi con test reali sotto carico.

Io aspetto i dati veri del hotchips, tu continua pure con i tuoi calcoletti se ti fa piacere...:)

Piedone1113
31-07-2016, 22:48
No, Antonio: io faccio altro e non sono tenuto a esserne a conoscenza.

Penso che quest'analisi (http://www.chip-architect.org/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html) dimostri come stiano realmente le cose.

AMD ha utilizzato 12 (DODICI!) layer a 40nm per... Bobcat! Che è l'architettura più economica che ha realizzato. Il tutto mentre Intel ha usato soltanto 9 layer, e li ha aumentati soltanto coi 14nm.

Dunque dovrei credere che AMD sarebbe stata incapace di aggiungere un solo layer per i 32nm (SE fosse stato realmente necessario, sia chiaro: non sta scritto da nessuna parte che avrebbe dovuto farlo!) per le sue architetture desktop e/o server...
Cesare so che ti occupi di altro (prog su xeon phi )e per questo ti ho chiesto con il per sentito dire.
Il mio discorso invece è riferito ad altro:
I layer hanno costi diversi sia tra soi e bulk ( bobcat 40 nm tsmc) sia a parità di processo dalla complessità dei chip.
Più si scende di pp più è costoso il layer (ma bilanciato più che abbondantemente dalla maggiore quantità a wafer )
Che Bobcat abbia 12 layer non mi meraviglia ne mi fa cambiare opinione.
Un chip progettato e creato per il lowpower con un processo economico, dal design semplice e dal costo finale basso viene progettato in un certo modo ( e sopratutto su un processo rodato) e vai tranquillo.
Se progetti un chip che deve andare su un 32nm che ancora non esiste e ti prefiggi un certo costo con 11 layer e poi ti ritrovi un silicio che non ti permette le prestazioni preventivati corri ai ripari se:
Hai tempo.
Hai fondi.
Le modifiche da apportare non fanno lievitare i costi oltre un certo limite.
L'investimento può essere sfruttato anche in seguito.

Ma probabilmente AMD
Non aveva tempo
I costi di lavorazione lievitavano troppo.
Era antieconomico continuare a sviluppare un'architettura con evidenti (per AMD ) limiti.

Quindi credo che 13 layer avrebbero permesso i 4.5 Def 4.8 turbo (forse anche i 5 ghz) in 100w.

Avrebbe battuto il 4 core e pareggiato il 6 core Intel, con un prodotto dal costo produttivo comparabile e forse superiore, con investimenti che non sarebbero stati ammortizzati ( ritardo nell'uscita quasi a ridosso dei previsti 22 Intel che avrebbe reso bd costoso e inferiore ai diretti prodotti intel).
I 32 soi sono stati disastrosi per AMD per via dei costi non preventivati per farlo rendere al meglio.
Il 32 soi è superiore al 32 intel ma dal costo superiore (quindi non sfruttabile in ambito desktop) e midrange.
L'accoppiata intel 32bulk architettura ha un costo prestazioni ottimale per il settore di riferimento dei prodotti.
La storia che intel può investire più soldi in ricerca e sviluppo è valido fino ad un certo punto.
I soldi li deve recuperare ed anche guadagnarci sopra.
Sviluppo-progezzazione-costi produttivi-silicio hanno una perfetta convergenza tra loro ed il merito di aver ricavato tutto quanto possibile dal bulk è un merito di Intel e non un demerito di AMD.
Tutto questo però si è iniziato ad incrinare dopo i 22nm.
2 cose a sfavore di intel:
Architettura ormai da svecchiare pesantemente e costi di produzione praticamente partiti per la tangente.
Passare da 9 layer sul 32nm a 13 sul 14nm ha reso evidente la necessità di intel di ricalibrare la sua architettura alle diverse caretteristiche del silicio sui pp più spinti.

Inviato dal mio GT-I9505 utilizzando Tapatalk

Free Gordon
31-07-2016, 23:27
Zen verrà mostrato il 21-23 Agosto all'Hotchips di Cupertino...??? :oink: :oink: :D

Ren
31-07-2016, 23:45
Zen verrà mostrato il 21-23 Agosto all'Hotchips di Cupertino...??? :oink: :oink: :D

Yes, anche il Power9. :fagiano:

A New, High Performance x86 Core Design from AMD :oink:
Michael Clark
AMD


Micheal Clark è un veterano (in AMD dal 1993) ed ha SVILUPPATO BOBCAT E JAGUAR. :D

Non dico altro...:sperem:

Free Gordon
31-07-2016, 23:59
Non dico altro...:sperem:


:sperem: :sperem: :sperem:

george_p
01-08-2016, 00:08
Yes, anche il Power9. :fagiano:

A New, High Performance x86 Core Design from AMD :oink:
Michael Clark
AMD


Micheal Clark è un veterano (in AMD dal 1993) ed ha SVILUPPATO BOBCAT E JAGUAR. :D

Non dico altro...:sperem:

Ma il power9 da chi è prodotto?

Ren
01-08-2016, 00:11
Ma il power9 da chi è prodotto?

IBM, perchè ? :confused:

cdimauro
01-08-2016, 06:27
Cesare so che ti occupi di altro (prog su xeon phi )e per questo ti ho chiesto con il per sentito dire.
Il mio discorso invece è riferito ad altro:
I layer hanno costi diversi sia tra soi e bulk ( bobcat 40 nm tsmc) sia a parità di processo dalla complessità dei chip.
Più si scende di pp più è costoso il layer (ma bilanciato più che abbondantemente dalla maggiore quantità a wafer )
Che Bobcat abbia 12 layer non mi meraviglia ne mi fa cambiare opinione.
Un chip progettato e creato per il lowpower con un processo economico, dal design semplice e dal costo finale basso viene progettato in un certo modo ( e sopratutto su un processo rodato) e vai tranquillo.
Se progetti un chip che deve andare su un 32nm che ancora non esiste e ti prefiggi un certo costo con 11 layer e poi ti ritrovi un silicio che non ti permette le prestazioni preventivati corri ai ripari se:
Hai tempo.
Hai fondi.
Le modifiche da apportare non fanno lievitare i costi oltre un certo limite.
L'investimento può essere sfruttato anche in seguito.

Ma probabilmente AMD
Non aveva tempo
I costi di lavorazione lievitavano troppo.
Era antieconomico continuare a sviluppare un'architettura con evidenti (per AMD ) limiti.
Mentre per Bobcat, che era un'architettura economicissima e dalla quale, visto il mercato di riferimento, non poteva guadagnarci più di tanto, AMD s'è potuta permettere di investire e usare ben DODICI layer?

Antonio, con tutto il rispetto, ma questa cosa non riuscirò mai a bermela.
Quindi credo che 13 layer avrebbero permesso i 4.5 Def 4.8 turbo (forse anche i 5 ghz) in 100w.

Avrebbe battuto il 4 core e pareggiato il 6 core Intel, con un prodotto dal costo produttivo comparabile e forse superiore, con investimenti che non sarebbero stati ammortizzati ( ritardo nell'uscita quasi a ridosso dei previsti 22 Intel che avrebbe reso bd costoso e inferiore ai diretti prodotti intel).
I 32 soi sono stati disastrosi per AMD per via dei costi non preventivati per farlo rendere al meglio.
Il 32 soi è superiore al 32 intel ma dal costo superiore (quindi non sfruttabile in ambito desktop) e midrange.
L'accoppiata intel 32bulk architettura ha un costo prestazioni ottimale per il settore di riferimento dei prodotti.
E quindi come fai a dire che il 32nm SOI è superiore al bulk di Intel, se quest'ultima ha raggiunto tranquillamente gli obiettivi?

Intel è stata una spina nel fianco non solo per AMD, ma anche per IBM, nonostante il POWER7+ che è riuscito a sfruttare meglio i 32nm SOI.
La storia che intel può investire più soldi in ricerca e sviluppo è valido fino ad un certo punto.
I soldi li deve recuperare ed anche guadagnarci sopra.
Sviluppo-progezzazione-costi produttivi-silicio hanno una perfetta convergenza tra loro ed il merito di aver ricavato tutto quanto possibile dal bulk è un merito di Intel e non un demerito di AMD.
Com'è anche merito di IBM aver saputo sfruttare i 32nm SOI per POWER7+ e z12.
Tutto questo però si è iniziato ad incrinare dopo i 22nm.
2 cose a sfavore di intel:
Architettura ormai da svecchiare pesantemente e costi di produzione praticamente partiti per la tangente.
Scusami, ma qui non ti seguo: cos'avrebbe dovuto svecchiare Intel, che ha una (micro)architettura molto ben bilanciata e prestante?
Passare da 9 layer sul 32nm a 13 sul 14nm ha reso evidente la necessità di intel di ricalibrare la sua architettura alle diverse caretteristiche del silicio sui pp più spinti.

Inviato dal mio GT-I9505 utilizzando Tapatalk
Mi pare anche normale: i 14nm sono un processo molto diverso dai precedenti, e soprattutto è molto più denso. Coi 14nm Intel ha cambiato molte cose, ed evidentemente ha avuto bisogno di riprogettare le maschere per meglio sfruttare il nuovo processo.

george_p
01-08-2016, 07:22
IBM, perchè ? :confused:

Perché a quell'ora di notte e con tutte le sigle che scrivete pensavo all'arm prodotto da amd.

bjt2
01-08-2016, 07:47
Ma non ti bastavano i consumi di un arm a57/14nm per dimostrare i tuoi calcoli bislacchi ? :sofico:
Cesare ti ha già fatto notare che non stanno in piedi con i consumi VERI del a57. :D

Quei consumi mi servivano come limite superiore. Inoltre quei core ARM, oltre ad essere ASIC sintetizzati ad alto FO4, sono anche con transistors RVT, se non HVT, mentre Zen sarà con transistors LVT, se non sLVT e con FO4 probabilmente meno della metà. La macro ARM NEON con tranistors HVT e librerie HDL va a 1.5GHz a 330mW e 2.41GHz solo con transistors LVT e librerie HPL. Capirai che c'è una differenza enorme. E non ho neanche considerato il FO4 diverso... Quindi si, sono ottimista, perchè Zen non è una CPU da cellulare e sarà fatta con transistors LVT e probabilmente librerie HPL (ma la differenza tra HDL e HPL è qualche centinaio di MHZ) ed avrà FO4 almeno del 15% inferiore (ma probabilmente inferiore del 50%) a questa macro...


Se non ricordo male quei consumi di carrizo sono per "core pair", ossia un dual-core farlocco CMT. (infatti gli hanno fatto causa ad AMD)

Eccoti un carrizo 15-17w di tdp ;)

http://www.notebookcheck.net/Carrizo-in-Review-How-does-AMD-s-A10-8700P-Perform.147654.0.html

Io leggo 1.8ghz per 4core farlocchi CMT su prime95, ma va bene anche cinebench (2.1ghz) per me.

Facciamo che sono 10w di cpu e 7w di altro...;) (sono generoso lo so:p )
Abbiamo già raddoppiato i consumi con test reali sotto carico.

Io aspetto i dati veri del hotchips, tu continua pure con i tuoi calcoletti se ti fa piacere...:)

Pavillon 17 è il modello. Il TDP è limitato a 15W, secondo loro, anche se si può impostare da 12 a 35, probabilmente perchè il consumo massimo del sistema è uguale ad altri NB INTEL ULV da 15W. Ma come è stato stimato da altre parti (anand e semi) il NB da solo consuma 5-8W, a seconda della velocità RAM e canali. Facciamo 5W perchè è una versione a basso consumo e con RAM low voltage. Mettici anche la GPU in semi-idle (in prime95 visualizza solo il desktop), qualche W anche li, e siamo sotto i 10W, probabilmente 8 o meno. E poi Carrizo non è il nonplus ultra, perchè ci sono ancora bachi nel risparmio energetico... E' Bristol Ridge il riferimento, dove sono scesi ancora i consumi e saliti i clock...

Piedone1113
01-08-2016, 08:46
Mentre per Bobcat, che era un'architettura economicissima e dalla quale, visto il mercato di riferimento, non poteva guadagnarci più di tanto, AMD s'è potuta permettere di investire e usare ben DODICI layer?

Antonio, con tutto il rispetto, ma questa cosa non riuscirò mai a bermela.

Cosa c'è di difficile da capire che a parità di transistor e parità di silicio i layer hanno un costo maggiore allo scendere della miniaturizzazione?
Cosa c'è di difficile da capire che 12 layer sul bulk 40nm hanno un costo frazionato rispetto a 9 layer sul 32 SOI? (figuriamoci su 11)
Cosa c'è di difficile da capire che il singolo layer ha costi differenti (e crescenti ) sullo stesso processo e silicio al crescere della complessità del chip ?
O forse stai affermando che a parità di pp e silicio 11 layer di una cpu da 500mil di transistor hanno lo stesso costo (di produzione e sviluppo) che su una cpu da 2 miliardi?
Stai praticamente dicendo che 12 metal layer hanno lo stesso costo su una cpu da 250milioni circa di transistor su 40nm di quella di una da 1,2 miliardi sui 32nm (tralasciando il fatto che a parità di pp e layer è leggermente più costosa la metallizazione soi rispetto il bulk)

E quindi come fai a dire che il 32nm SOI è superiore al bulk di Intel, se quest'ultima ha raggiunto tranquillamente gli obiettivi?

Intel è stata una spina nel fianco non solo per AMD, ma anche per IBM, nonostante il POWER7+ che è riuscito a sfruttare meglio i 32nm SOI.

Com'è anche merito di IBM aver saputo sfruttare i 32nm SOI per POWER7+ e z12.

Semplicemente perchè il soi ibm ha permesso di fare una cpu con un elevato numero di transistor ed area totale rispetto al 32 intel.
Il fatto che intel si sia spinta fino ad 8 core senza andare oltre non significa che il bulk è migliore del soi, tutt'altro.
Significa che fino a tot rendeva, oltre era antieconomico andare.



Scusami, ma qui non ti seguo: cos'avrebbe dovuto svecchiare Intel, che ha una (micro)architettura molto ben bilanciata e prestante?

Non ho detto mai che l'architettura intel è sbilanciata, ho detto che inizia ad essere sbilanciata rispetto ai 14nm (i consumi e l'ipc lo confermano disattendendo in parte quello che ci si aspetta da una riduzione del pp, e se ci aggiungi i proble avuti nel portare l'architettura sul silicio ed i ritardi accumulati nello sviluppo travagliato tutto diventa chiaro)
Semplicemente l'architettura core fino al 22nm era un connubio perfetto con il silicio, sul 14 nm inizia a mostrare lacune (non di prestazioni o di equilibrio interno) ma di difficolta nell'evolversi, tutto questo sarà ancora più evidente sul 10.
Mettila così:
Hai un auto da corsa perfetta su pista asciutta, quando inizia a piovere diventa (con pp da 14 a scendere) diventa più difficile da gestire.
Sapendo che si andrà su piste bagnate non cerchi di modificare la macchina per amalgamarla meglio alle condizioni della pista?
Non è che diventa di colpo un cesso quell'auto eh, sia chiaro.

Mi pare anche normale: i 14nm sono un processo molto diverso dai precedenti, e soprattutto è molto più denso. Coi 14nm Intel ha cambiato molte cose, ed evidentemente ha avuto bisogno di riprogettare le maschere per meglio sfruttare il nuovo processo.
Per sfruttare il nuovo processo o per mascherare meglio i difetti del nuovo processo (perchè scendendo di pp puoi avere miglioramenti sui pregi, ma anche effetti collaterali che amplificano i difetti o ne presentano di nuovi.

tuttodigitale
01-08-2016, 09:32
Com'è anche merito di IBM aver saputo sfruttare i 32nm SOI per POWER7+ e z12.

boh, IBM ha migliorato si o no, l'efficienza nel MT del 15% dal passaggio 45->32nm. AMD ha fatto meglio con il passaggio Thuban->Piledriver. :read:

Per contro per il solo processo, questo è quello che ha ottenuto Intel..

http://ark.intel.com/it/products/37153/Intel-Core-i7-975-Processor-Extreme-Edition-8M-Cache-3_33-GHz-6_40-GTs-Intel-QPI

http://ark.intel.com/it/products/52585/Intel-Core-i7-990X-Processor-Extreme-Edition-12M-Cache-3_46-GHz-6_40-GTs-Intel-QPI

george_p
01-08-2016, 09:41
boh, IBM ha migliorato si o no, l'efficienza nel MT del 15% dal passaggio 45->32nm. AMD ha fatto meglio con il passaggio Thuban->Piledriver. :read:



Diciamo che non sono mai stato convinto di questo, o meglio se guardo la sola efficienza forse si ma se guardo l'efficienza relativa a tutto il resto numero di cores in più per BD con prestazioni addirittura pari o inferiori... ecco preferisco passare oltre.

Però invece mi piacerebbe un confronto tra l'architettura Power7+ e la serie BD per capire a parità di processo prestazioni, consumi ed efficienza totale, questo si e mi incuriosisce, con Zen alle porte non che mi interessi tanto ma mi piacerebbe vederlo.

tuttodigitale
01-08-2016, 09:56
Diciamo che non sono mai stato convinto di questo, o meglio se guardo la sola efficienza forse si ma se guardo l'efficienza relativa a tutto il resto numero di cores in più per BD con prestazioni addirittura pari o inferiori... ecco preferisco passare oltre.
Aspetta, se parliamo di prestazioni di un core all'interno del modulo è un conto, ma se parliamo di prestazioni nel ST, è un altro...

prendo gli sku da 140W.
piledriver
ipc 85%k10
clock +22% 2,8 vs 2,3GHz

Piledriver migliora (di poco) le prestazioni nel ST.


Però invece mi piacerebbe un confronto tra l'architettura Power7+ e la serie BD per capire a parità di processo prestazioni, consumi ed efficienza totale, questo si e mi incuriosisce, con Zen alle porte non che mi interessi tanto ma mi piacerebbe vederlo.
sarebbe interessante, per studiare le virtù di due architetture sullo stesso processo...
ma credo che sia giusto e doveroso affermare che INTEL sembrerebbe molto avanti con i 22nm finfet sui 22nm PD-SOI.

il confronto è abbastanza imbarazzante per ibm
http://images.anandtech.com/graphs/graph9567/67413c.png
il sistema power8 nei calcoli integer consuma più del doppio ed è dietro...

le differenze si assottigliano nel FP
http://images.anandtech.com/graphs/graph9567/78012.png
anche per i consumi la differenza è "solo" del 30%...(parliamo di sistema...le differenze a livello di cpu potrebbero essere più marcate).

La soluzione Intel ha circa il 60% di prestazioni in più nel ST nei calcoli interi,...pensate che il power7+ ha, da slide, il 63% dell'ipc del power8....praticamente se l'ipc del power7+ in questi test non è a livello di un p4 poco ci manca...

george_p
01-08-2016, 10:26
@tuttodigitale: Nei grafici non vedo il power7+ ma solo il power8, anche questo è prodotto col silicio glofo?

tuttodigitale
01-08-2016, 10:44
@tuttodigitale: Nei grafici non vedo il power7+ ma solo il power8, anche questo è prodotto col silicio glofo?
in teoria sono entrambi IBM...ma questa ha venduto le FAB a GF...
il power8 è sui 22nm mentre il power7 è su 32nm, entrambi SOI.

c'è da dire che l'analisi è MOLTO parziale, perchè in carichi a basso ipc come SAP, il sistema power8 va decisamente forte. Ma anche l'opteron piledriver distanzia di ben 35% il vecchio mangy-course, e un E5-2680 sandy bridge è veloce solo il 20% in più...
quest'ultimo è un 8 core/16 thread con frequenze del tutto simili ad un opteron 6386.

george_p
01-08-2016, 10:47
entrambi...il power8 è sui 22nm mentre il power7 è su 32nm

c'è da dire che l'analisi è MOLTO parziale, perchè in carichi a basso ipc come SAP, il sistema power8 va decisamente forte (ma anche l'opteron piledriver distanzia di ben 35% il vecchio mangy-course, e i prodotti SB sono veloci solo il 20% in più...)

Aspetta, glofo ha sviluppato un processo a 22nm e amd è rimasta sui 28??


Ma comunque volevo capire se fosse possibile un confronto più diretto tra power 7+ e BD/PD che è più rilevante.

davo30
01-08-2016, 10:57
Aspetta, glofo ha sviluppato un processo a 22nm e amd è rimasta sui 28??


Ma comunque volevo capire se fosse possibile un confronto più diretto tra power 7+ e BD/PD che è più rilevante.
Si, ha sviluppato il 22nm soi con ibm. Ma quando era pronto Amd aveva già virato su zen e sui 14nm

Inviato dal mio XT1092 utilizzando Tapatalk

tuttodigitale
01-08-2016, 11:21
Aspetta, glofo ha sviluppato un processo a 22nm e amd è rimasta sui 28??

Si, ma ci sono delle ragioni...il primo punto è che sotto i 32nm, senza FINFET veri miglioramenti sono impossibili da avere. tra i 20nm e i 16nm, cambia solo la presenza del fin. Eppure le prestazioni sono degne di un salto di nodo, anche se in effetti non c'è differenza alcuna nella densità dei transistor nei due processi (anzi i 14/16 di GF/TSMC non sembrerebbero neppure dei 20nm...).

GF nelle vecchie FAB di AMD stava sviluppando (e ha sviluppato) i FD-SOI...e per tale ragione unito al fatto delle mirabolanti prestazioni pubblicizzate da GF (anche in termini di alte/issime frequenze di clock) si pensava ad una possibile adozione di AMD

http://advancedsubstratenews.com/wp-content/uploads/2015/12/Samsung_28FDSOI_bodybias_8.jpg

Il CEO di AMD, a suo tempo, aveva detto che sarebbe stato un salto nel vuoto...si vede che c'era stata una abissale differenza tra quanto pubblicizzato da GF (non mi pare che ci siano prodotti ad alte prestazioni con questo processo...) e i primi sample....

quindi non penso minimamente che il classico SOI, miniaturizzato a 22nm potesse fare la differenza, quando il passaggio dai 45 ai 32nm ha portato benefici modesti.. (il 28nm Bulk è decisamente meglio del SOI 32nm a basse frequenze, o almeno questo risulta dal confronto richland-kaveri).

bjt2
01-08-2016, 12:17
Il FD SOI è fantastico perchè tramite la polarizzazione del substrato, si può cambiare un transistor da HVT a LVT o anche oltre... Quindi a seconda della frequenza (o anche in caso di idle) si può variare la VT per passare da alte prestazioni a bassi consumi... Tutto con lo stesso circuito...

paolo.oliva2
01-08-2016, 12:45
Si, ma ci sono delle ragioni...il primo punto è che sotto i 32nm, senza FINFET veri miglioramenti sono impossibili da avere. tra i 20nm e i 16nm, cambia solo la presenza del fin. Eppure le prestazioni sono degne di un salto di nodo, anche se in effetti non c'è differenza alcuna nella densità dei transistor nei due processi (anzi i 14/16 di GF/TSMC non sembrerebbero neppure dei 20nm...).

GF nelle vecchie FAB di AMD stava sviluppando (e ha sviluppato) i FD-SOI...e per tale ragione unito al fatto delle mirabolanti prestazioni pubblicizzate da GF (anche in termini di alte/issime frequenze di clock) si pensava ad una possibile adozione di AMD

http://advancedsubstratenews.com/wp-content/uploads/2015/12/Samsung_28FDSOI_bodybias_8.jpg

Il CEO di AMD, a suo tempo, aveva detto che sarebbe stato un salto nel vuoto...si vede che c'era stata una abissale differenza tra quanto pubblicizzato da GF (non mi pare che ci siano prodotti ad alte prestazioni con questo processo...) e i primi sample....

quindi non penso minimamente che il classico SOI, miniaturizzato a 22nm potesse fare la differenza, quando il passaggio dai 45 ai 32nm ha portato benefici modesti.. (il 28nm Bulk è decisamente meglio del SOI 32nm a basse frequenze, o almeno questo risulta dal confronto richland-kaveri).

C'è anche da considerare il fattore tempo.
Credo che AMD abbia optato sulla soluzione in grado di garantire maggiore competitività, perchè commercializzare Zen/BD sul 22nm avrebbe richiesto tempo e quando pronto AMD avrebbe incontrato Intel sul 14nm, praticamente ripetendo la situazione BD + 32nm vs Intel + 22nm.

Ipotizzo che AMD abbia usato il tempo per dedicarsi a features implementabili con Zen (vedi la mole di brevetti depositati), realizzare degli ES di Zen su silicio il più possibile compatibile con quello definitivo e quant'altro.

A me sembra che tra disponibilità silicio e l'effettiva commercializzazione di un procio su quel silicio, intercorra quasi 2 anni. La disponibilità del 14nm GF di quand'è? fine 2015, Zen verrà commercializzato fine 2016, mi sembrano tempi MOLTO stretti, figuriamoci che BD ha richiesto più di 2 anni...

Seconda la mia opinione, Zen dovrebbe essere una CPU in grado di esprimere il massimo che può concedere il PP silicio. Ha aumentato l'IPC, probabile che conservi l'efficienza FO4 17 (che secondo IBM è il migliore compromesso in TDP/Frequenza), finalmente AMD ha investito in miglioramento latenze cache, velocità e quant'altro, e soprattutto nasce con una architettura dimensionata per la miniaturizzazione attuale (X8 come die base e probabilmente X4 APU ma non con la parte X86 tirata per i capelli con degrado efficienza ma con la parte iGPU con potenze simili ad una discreta), quindi io direi che le carte competitività ci siano tutte.

@cdimauro
Intel ha operato e sfruttato commercialmente nel migliore dei modi la situazione, per questo non ha ritenuto opportuno modificare il numero dei core nella fascia 1155 e similari.
Il 6950X Intel non l'aveva in scaletta e l'ha introdotto (presumo) a seguito di Zen (altrimenti non ne vedo alcun motivo, anche perchè a 1800$ è più una cosa per dire "l'ho più lungo" che effettivamente di impatto commerciale. Tutta la fascia 1155 è rimasta ferma a 4 core, oltretutto perdendo enormemente in efficienza nei top X4 per cavarci prestazioni superiori rispetto agli equivalenti 22nm, e forse anche obbligata perchè Intel ha bisogno di banda memoria per sfruttare l'IPC dei suoi core, quindi >X4 ma con 1 quad-channel non è possibile se non a frequenze ridotte, ma ciò avrebbe comunque implicato o un aumento dei costi mobo o l'aggiunta di un altro socket, inutile.

La competitività maggiore di AMD io la vedo incentrata più su un'offerta Zen bilanciata al 14nm (Zen X8) ancor più su tutti i benchmark che seguiranno.
Se, come credo, AMD affronterrà una offerta prezzi/n° core proporzionata ai prezzi/possibilità del 14nm, Intel avrà una enorme difficoltà vs potenza MT di Zen, e nel settore game non so come si rapporterà vs un Zen X4 con una iGPU prestazionalmente alla pari di una discreta (considerando Zen X8 95W, Zen X4 ~50W con margini ENORMI per l'iGPU).
Mi sembra difficile che AMD non sfrutti ciò, a me sembra molto più tangibile di tutta la discussione su quale frequenza avrà Zen, quale IPC e quant'altro. Io in questo ci confido, e mi sembra che non sia l'unico, perchè se sono in tanti ad aspettare Zen, non ci vedo altri motivi se non la stessa cosa che aspetto io.

Piedone1113
01-08-2016, 14:48
Aspetta, se parliamo di prestazioni di un core all'interno del modulo è un conto, ma se parliamo di prestazioni nel ST, è un altro...

prendo gli sku da 140W.
piledriver
ipc 85%k10
clock +22% 2,8 vs 2,3GHz

Piledriver migliora (di poco) le prestazioni nel ST.


sarebbe interessante, per studiare le virtù di due architetture sullo stesso processo...
ma credo che sia giusto e doveroso affermare che INTEL sembrerebbe molto avanti con i 22nm finfet sui 22nm PD-SOI.

il confronto è abbastanza imbarazzante per ibm
http://images.anandtech.com/graphs/graph9567/67413c.png
il sistema power8 nei calcoli integer consuma più del doppio ed è dietro...

le differenze si assottigliano nel FP
http://images.anandtech.com/graphs/graph9567/78012.png
anche per i consumi la differenza è "solo" del 30%...(parliamo di sistema...le differenze a livello di cpu potrebbero essere più marcate).

La soluzione Intel ha circa il 60% di prestazioni in più nel ST nei calcoli interi,...pensate che il power7+ ha, da slide, il 63% dell'ipc del power8....praticamente se l'ipc del power7+ in questi test non è a livello di un p4 poco ci manca...

Scusami Tuttodigitale, ma non mi sembra che il mercato di riferimento di power sia quello dei test, sarebbe molto più realistico sapere quante istanze e richieste simultanee ( in vm e non ) riescono a gestire i due sistemi,
Perchè se il power mi soddisfa 300 richieste contemporanee mentre lo xeon 100 (ma anche 250) a parità di costo c'è poco da discutere quale sia il migliore.
Se poi il server deve fare da render server la cosa è diversa, ma sono una minoranza degli utilizzi di un server.
Come paragonare un fuoristrada puro ad un crossover, non acquisti un fuoristrada per farci fuoristrada e guardare i test prestazionali in autostrada.

Piedone1113
01-08-2016, 15:04
@cdimauro
Intel ha operato e sfruttato commercialmente nel migliore dei modi la situazione, per questo non ha ritenuto opportuno modificare il numero dei core nella fascia 1155 e similari.
Il 6950X Intel non l'aveva in scaletta e l'ha introdotto (presumo) a seguito di Zen (altrimenti non ne vedo alcun motivo, anche perchè a 1800$ è più una cosa per dire "l'ho più lungo" che effettivamente di impatto commerciale. Tutta la fascia 1155 è rimasta ferma a 4 core, oltretutto perdendo enormemente in efficienza nei top X4 per cavarci prestazioni superiori rispetto agli equivalenti 22nm, e forse anche obbligata perchè Intel ha bisogno di banda memoria per sfruttare l'IPC dei suoi core, quindi >X4 ma con 1 quad-channel non è possibile se non a frequenze ridotte, ma ciò avrebbe comunque implicato o un aumento dei costi mobo o l'aggiunta di un altro socket, inutile.

La competitività maggiore di AMD io la vedo incentrata più su un'offerta Zen bilanciata al 14nm (Zen X8) ancor più su tutti i benchmark che seguiranno.
Se, come credo, AMD affronterrà una offerta prezzi/n° core proporzionata ai prezzi/possibilità del 14nm, Intel avrà una enorme difficoltà vs potenza MT di Zen, e nel settore game non so come si rapporterà vs un Zen X4 con una iGPU prestazionalmente alla pari di una discreta (considerando Zen X8 95W, Zen X4 ~50W con margini ENORMI per l'iGPU).
Mi sembra difficile che AMD non sfrutti ciò, a me sembra molto più tangibile di tutta la discussione su quale frequenza avrà Zen, quale IPC e quant'altro. Io in questo ci confido, e mi sembra che non sia l'unico, perchè se sono in tanti ad aspettare Zen, non ci vedo altri motivi se non la stessa cosa che aspetto io.
Paolo se Intel avesse avuto la possibilità di fare sui socket 11xx una cpu 6 core dal costo-guadagno favorevole lo avrebbe fatto, non aspettava mica AMD per farlo, vai tranquillo.
Il bello della 2011 è che è una fascia semipro sul desktop e può essere confacente agli usi di diverse piccole realtà che non acquisterebbe una famiglia 2011xeon per limiti di budget.
Che poi i produttori di mb ti facciano le loro mb uberultra con lucine e stroboscopi e la vendono a 800€ è un conto, ma ci sono anche buone mb per chi preferisce un prodotto affidabile, senza velleità di oc e dalle prestazioni ragguardevoli a meno di 250€ (ps mancano però le lucine).
Ma una cpu 6 core (dall'elevato costo d'acquisto) con soli due canali ram a chi avrebbe fatto comodo se non a quelli disposti a comprare comunque una rampage5 con 5950 o 6950x.

paolo.oliva2
01-08-2016, 18:34
Paolo se Intel avesse avuto la possibilità di fare sui socket 11xx una cpu 6 core dal costo-guadagno favorevole lo avrebbe fatto, non aspettava mica AMD per farlo, vai tranquillo.
Il bello della 2011 è che è una fascia semipro sul desktop e può essere confacente agli usi di diverse piccole realtà che non acquisterebbe una famiglia 2011xeon per limiti di budget.
Che poi i produttori di mb ti facciano le loro mb uberultra con lucine e stroboscopi e la vendono a 800€ è un conto, ma ci sono anche buone mb per chi preferisce un prodotto affidabile, senza velleità di oc e dalle prestazioni ragguardevoli a meno di 250€ (ps mancano però le lucine).
Ma una cpu 6 core (dall'elevato costo d'acquisto) con soli due canali ram a chi avrebbe fatto comodo se non a quelli disposti a comprare comunque una rampage5 con 5950 o 6950x.
Io non discuto sulle prestazioni di una 2011 v3 con un 6950X o 6850K, però mi sembra evidente che Intel ci abbia marciato (perchè di fatto AMD come se non esistesse) perchè un 2600K sul 32nm veniva 250€ e fino a ieri un 6700K ne veniva 400€ sul 14nm (quando invece la miniaturizzazione più spinta porta con sè un abbassamento prezzi, e di nodi ce ne sono stati ben 2). Secondo me il numero idoneo di core sui 95W per un 14nm è da 8 in sù, non certamente 4 (ne è la prova che TDP si può ottenere da un X6/X8/X10 Intel su frequenze non tirate).
Io non metto in dubbio che Intel possa fare o meno un X6 sul socket 11XX e guadagnarci, dico che non l'ha fatto perchè con un X4 ci guadagna di più (vendendolo poi allo stesso prezzo, vedi X6 14nm base).
La mia speranza è che le cose cambino, perchè io sono della convinzione che un X8 sui 250mmq sul 14nm possa essere venduto tranquillamente sui 300€ anche all'inizio e su silicio non rodato, spero che AMD confermi con i fatti ciò che al momento ha detto solamente a parole, cioè di un aggiustamento prezzi idoneo (non polemizzo, le parole erano altre ma le ho cambiate volutamente).

GF vuole lavorare a regime pieno, AMD vuole recuperare fette di mercato, proporre Zen X8 allo stesso costo degli i7 X4 vorrebbe dire venderne a camionate. Non metto in dubbio che Intel calerà i prezzi, però sicuramente dovrà adeguare il numero di core, altrimenti con gli X2+2 sul mercato desktop non potrà contrarre il listino più di tanto.

Parlando da consumatore, posso capire AMD per limiti più che ovvi di silicio che non possa arrivare ad un certo numero di core, ma di certo non trovo scusanti per Intel, perchè in tutti sti anni, a parte sbandierare IPC e n core a die e silicio alla chi l'ha più lungo, quanto NELLE NOSTRE TASCHE abbiamo guadagnato in prezzo/prestazioni? NULLA. E allora tutta sta tecnologia a che serve? Il vero passo della tecnologia è, per noi mortali, quello di poter acquistare il nuovo ad un prezzo uguale se non inferiore al vecchio (vedi telefonni X8 a prezzo inferiore ai modelli X4 precedenti, vedi televisori 4K a prezzo inferiore degli HD, ecc., ecc.).

Piedone1113
01-08-2016, 19:26
Io non discuto sulle prestazioni di una 2011 v3 con un 6950X o 6850K, però mi sembra evidente che Intel ci abbia marciato (perchè di fatto AMD come se non esistesse) perchè un 2600K sul 32nm veniva 250€ e fino a ieri un 6700K ne veniva 400€ sul 14nm (quando invece la miniaturizzazione più spinta porta con sè un abbassamento prezzi, e di nodi ce ne sono stati ben 2). Secondo me il numero idoneo di core sui 95W per un 14nm è da 8 in sù, non certamente 4 (ne è la prova che TDP si può ottenere da un X6/X8/X10 Intel su frequenze non tirate).
Io non metto in dubbio che Intel possa fare o meno un X6 sul socket 11XX e guadagnarci, dico che non l'ha fatto perchè con un X4 ci guadagna di più (vendendolo poi allo stesso prezzo, vedi X6 14nm base).
La mia speranza è che le cose cambino, perchè io sono della convinzione che un X8 sui 250mmq sul 14nm possa essere venduto tranquillamente sui 300€ anche all'inizio e su silicio non rodato, spero che AMD confermi con i fatti ciò che al momento ha detto solamente a parole, cioè di un aggiustamento prezzi idoneo (non polemizzo, le parole erano altre ma le ho cambiate volutamente).

GF vuole lavorare a regime pieno, AMD vuole recuperare fette di mercato, proporre Zen X8 allo stesso costo degli i7 X4 vorrebbe dire venderne a camionate. Non metto in dubbio che Intel calerà i prezzi, però sicuramente dovrà adeguare il numero di core, altrimenti con gli X2+2 sul mercato desktop non potrà contrarre il listino più di tanto.

Parlando da consumatore, posso capire AMD per limiti più che ovvi di silicio che non possa arrivare ad un certo numero di core, ma di certo non trovo scusanti per Intel, perchè in tutti sti anni, a parte sbandierare IPC e n core a die e silicio alla chi l'ha più lungo, quanto NELLE NOSTRE TASCHE abbiamo guadagnato in prezzo/prestazioni? NULLA. E allora tutta sta tecnologia a che serve? Il vero passo della tecnologia è, per noi mortali, quello di poter acquistare il nuovo ad un prezzo uguale se non inferiore al vecchio (vedi telefonni X8 a prezzo inferiore ai modelli X4 precedenti, vedi televisori 4K a prezzo inferiore degli HD, ecc., ecc.).

Paolo ma che stai a di?
Il 2600k veniva quasi 400€ (intorno alle 370 se non sbaglio) il 2600 liscio 350, il 2500ksopra i 250€. (e l'8150 veniva intorno alle 240€).
Un sacco di fissati con le prestazioni acquistavano il 2500k perchè più di 4 th fisici non servivano (amd ne aveva 8 e pure scarsini)
Il 3770 liscio veniva 349€ dopo un po che c'era in giro.
Poi non venirmi a parlare di nuovo al prezzo del vecchio:
Il mio primo mast lo pagai 1200000 lit, ma ci ho masterizzato almeno 1000 cd ed ancora andava, quelli di oggi li paghi 29€, ma dopo 100 mast li puoi praticamente buttare.
I TVC di una volta duravano 20 e più anni, quelli di adesso si e no arrivano a 4.
E non è l'obsolescenza programmata (o almeno non in primis).
La gente vuole di più a prezzi sempre più bassi, ma sotto un certo limiti si ci arriva solo con prodotti e materiali qualitivamente inferiore.
Ti ricordi quando una lavatrice dopo 10 anni di servizio cedeva?
La maggiorparte delle volte era il cestello che si bucava per la ruggine.
Le massaie si lamentavano perchè era durata poca (ma come è nuova, non ha nemmeno 10 anni! :mad: )
Se intel non marginava sulle cpu con il cavolo che avremmo oggi i 14 nm.
Oppure pensi che un samsung s4 che costava 700€ aveva gli stessi costi di produzione di un s7 ne costa uguale.
I costi di produzione sono una piccola percentuale sul totale, e senza margini da strozzinaggio sui prodotti della massa l'unica ricerca sarebbe quella di Dionisio con la lampada dentro la sua bella botte (se non erro).

el-mejo
01-08-2016, 19:27
Parlando da consumatore, posso capire AMD per limiti più che ovvi di silicio che non possa arrivare ad un certo numero di core, ma di certo non trovo scusanti per Intel, perchè in tutti sti anni, a parte sbandierare IPC e n core a die e silicio alla chi l'ha più lungo, quanto NELLE NOSTRE TASCHE abbiamo guadagnato in prezzo/prestazioni? NULLA. E allora tutta sta tecnologia a che serve? Il vero passo della tecnologia è, per noi mortali, quello di poter acquistare il nuovo ad un prezzo uguale se non inferiore al vecchio (vedi telefonni X8 a prezzo inferiore ai modelli X4 precedenti, vedi televisori 4K a prezzo inferiore degli HD, ecc., ecc.).

Una cosa da Sb in più Intel ce l'ha data: la pasta termica sotto l'IHS :asd:

E per farlo si sono svenati così tanto che per non andare in rosso deciso di non dare più il dissipatore nelle cpu K :asd:

paolo.oliva2
02-08-2016, 02:43
Paolo ma che stai a di?
Il 2600k veniva quasi 400€ (intorno alle 370 se non sbaglio) il 2600 liscio 350, il 2500ksopra i 250€. (e l'8150 veniva intorno alle 240€).
Sinceramente c'era il battage pubblicitario che il 2600K costava meno dell'8150 andando di più, l'8150 a 400€ non c'è mai arrivato... comunque il costo di un 2600K era stato postato a 250€ ed io l'ho preso per buono...

Un sacco di fissati con le prestazioni acquistavano il 2500k perchè più di 4 th fisici non servivano (amd ne aveva 8 e pure scarsini)
Il 3770 liscio veniva 349€ dopo un po che c'era in giro.
Poi non venirmi a parlare di nuovo al prezzo del vecchio:
Il mio primo mast lo pagai 1200000 lit, ma ci ho masterizzato almeno 1000 cd ed ancora andava, quelli di oggi li paghi 29€, ma dopo 100 mast li puoi praticamente buttare.
I TVC di una volta duravano 20 e più anni, quelli di adesso si e no arrivano a 4.
E non è l'obsolescenza programmata (o almeno non in primis).
La gente vuole di più a prezzi sempre più bassi, ma sotto un certo limiti si ci arriva solo con prodotti e materiali qualitivamente inferiore.
Ti ricordi quando una lavatrice dopo 10 anni di servizio cedeva?
La maggiorparte delle volte era il cestello che si bucava per la ruggine.
Le massaie si lamentavano perchè era durata poca (ma come è nuova, non ha nemmeno 10 anni! :mad: )
Per quello che hai elencato ti do' ragione, ed anche le motivazioni, però è cambiato in toto il tutto. Una volta il televisore costava e lo riparavi se si guastava, oggi praticamente ne acquisti uno nuovo con più prestazioni al prezzo di riparare il vecchio. Comunque tieni presente che i prezzi in Europa sono fuori dal mondo. Mia moglie gli è caduto l'LG G3 e si è rotto il vetro, cambiato ad Abidjan con un equivalente marcato Cina (ma stessa risoluzione) alla modica cifra di 15€ manod'opera inclusa. In Italia credo 200€.

Se intel non marginava sulle cpu con il cavolo che avremmo oggi i 14 nm.
Su questo non sono d'accordo. La miniaturizzazione più spinta la si fa per guadagnare di più, non esclusivamente prestazionalmente (altrimenti Intel si poteva pure fermare al 22nm), ma perchè dallo stesso wafer escono molti più die. Vedremo AMD come prezzerà Zen, perchè finchè è solamente Intel sul 14nm, ok, ma quando anche altri arrivano sul 14nm, se possono applicare dei prezzi migliori, non è che a loro il 14nm gli è arrivato dal cielo e Intel invece l'ha strapagato.

Oppure pensi che un samsung s4 che costava 700€ aveva gli stessi costi di produzione di un s7 ne costa uguale.
I costi di produzione sono una piccola percentuale sul totale, e senza margini da strozzinaggio sui prodotti della massa l'unica ricerca sarebbe quella di Dionisio con la lampada dentro la sua bella botte (se non erro).
I costi produzione sono senz'altro calati, nel senso che in un telefonino, ad esempio il display, più risoluzione vuole anche dire più percentuale di die fallati, ma con l'affinamento produttivo, penso che oggi un 2K abbia meno fallati di un 640x480 vecchio, come pure, sempre all'interno del telefonino, la RAM, il procio e tutte le parti elettroniche.
Comunque il prezzo lo detta il mercato, quando sul mercato c'è concorrenza. Il mercato dei telefonini è zeppo di concorrenza e in Europa è una cosa ma qui dove sono, senza dazi doganali, ti ritrovi un telefonino cinese per 8€, obsoleto al 70% (risoluzione, memoria e quant'altro), ma da noi a quel prezzo forse ti prendi o l'alimentatore o la pila.

Onestamente per il prezzo reale di costo io una strada l'ho. Una volta che ci sono i cinesi che acquistano le catene obsolete di terzi, i ritrovi dei prezzi fuori dal mondo. Non discuto che vengano pagati poco (ma d'altronde anche i maggiori brand da made in sono passati in assembled in) e non abbiano costi di evoluzione/progettazione, ma d'altronde la catena comunque l'hanno pagata. Se un telefonino completo ti costa 8€, ma se vai nella merda completa anche sotto i 5€, come poteva costare un vecchio telefono con lo stesso procio 200€?
Secondo me il mercato si contrae e si espande e di qui il prezzo applicato. Il mondo dei telefonini numericamente ha quantitativi maggiori rispetto al mondo dei PC, però è frazionato sul numero dei vari brand, quindi comunque ogni brand ha volumi ben inferiori ad Intel. Nessuno discute che la complessità (progettazione, prduzione e quant'altro) di un procio PC sia superiore di un procio per cellulari, ma è anche vero che comunque i costi si frazionano nei volumi... e con i volumi Intel, il plus dei costi dovrebbe addirittura essere quantitativamente inferiore. Se si prendono i bilanci Intel come paragone di quanto sia brava, certamente non sfugge pure di quanto ci guadagni, non è che applicando prezzi inferiori non abbia più i fondi per continuare lo sviluppo architetturale e silicio. D'altronde AMD ha una frazione dei bilanci Intel e pure in rosso, ma sono assolutamente certo che la differenza architetturale di Zen sarà ben differente rispetto alla differenza di bilancio AMD/Intel, come pure non credo che GF regalerà il 14nm ad Intel, ma dubito fortemente che da 25$ ogni 100mmq passerà ai 300$ di Intel.

cdimauro
02-08-2016, 05:51
Cosa c'è di difficile da capire che a parità di transistor e parità di silicio i layer hanno un costo maggiore allo scendere della miniaturizzazione?
Cosa c'è di difficile da capire che 12 layer sul bulk 40nm hanno un costo frazionato rispetto a 9 layer sul 32 SOI? (figuriamoci su 11)
Cosa c'è di difficile da capire che il singolo layer ha costi differenti (e crescenti ) sullo stesso processo e silicio al crescere della complessità del chip ?
O forse stai affermando che a parità di pp e silicio 11 layer di una cpu da 500mil di transistor hanno lo stesso costo (di produzione e sviluppo) che su una cpu da 2 miliardi?
Stai praticamente dicendo che 12 metal layer hanno lo stesso costo su una cpu da 250milioni circa di transistor su 40nm di quella di una da 1,2 miliardi sui 32nm (tralasciando il fatto che a parità di pp e layer è leggermente più costosa la metallizazione soi rispetto il bulk)
Io non sto dicendo nulla del genere: é ovvio che mi aspetto dei costi maggiori, e sarebbe interessante avere dei numeri per fare un confronto. Da quel che dici, mi sembra che ne sia a conoscenza e quindi potresti fornirli tu.

Ma in particolare ti faccio notare che, prendendo la parte che ho sottolineato, la situazione non dovrebbe essere così drammatica.

Altra cosa, AMD nel 2009-2011 stava messa di gran lunga meglio economicamente rispetto a questi ultimi anni, dove ha passato trimestri su trimestri in rosso, eppure... è riuscita a progettare Zen e ha fare il salto ai 16-14nm FinFET per i suoi chip.

Evidentemente anche un'azienda che è 1/10 di Intel ha i soldi per progettare i suoi chip, incluso il passaggio a nuovi processi produttivi e maschere aggiuntive.
Semplicemente perchè il soi ibm ha permesso di fare una cpu con un elevato numero di transistor ed area totale rispetto al 32 intel.
Il fatto che intel si sia spinta fino ad 8 core senza andare oltre non significa che il bulk è migliore del soi, tutt'altro.
Significa che fino a tot rendeva, oltre era antieconomico andare.
Come già detto, prima dei 14nm Intel era votata alle pure prestazioni, e dunque i suoi processi produttivi non erano così densi.

Ecco perché a 32nm il numero dei transistor non era così elevato come la concorrenza. In compenso mi sembra ci siano ben pochi dubbi sul fatto che i suoi chip avevano prestazioni elevate (vedi che i successivi commenti di tuttodigitale in proposito, nel confronto con IBM/POWER).
Non ho detto mai che l'architettura intel è sbilanciata, ho detto che inizia ad essere sbilanciata rispetto ai 14nm (i consumi e l'ipc lo confermano disattendendo in parte quello che ci si aspetta da una riduzione del pp, e se ci aggiungi i proble avuti nel portare l'architettura sul silicio ed i ritardi accumulati nello sviluppo travagliato tutto diventa chiaro)
I consumi sono legati al processo, mentre l'IPC è di pertinenza della microarchitettura.
Semplicemente l'architettura core fino al 22nm era un connubio perfetto con il silicio, sul 14 nm inizia a mostrare lacune (non di prestazioni o di equilibrio interno) ma di difficolta nell'evolversi, tutto questo sarà ancora più evidente sul 10.
Mettila così:
Hai un auto da corsa perfetta su pista asciutta, quando inizia a piovere diventa (con pp da 14 a scendere) diventa più difficile da gestire.
Sapendo che si andrà su piste bagnate non cerchi di modificare la macchina per amalgamarla meglio alle condizioni della pista?
Non è che diventa di colpo un cesso quell'auto eh, sia chiaro.

Per sfruttare il nuovo processo o per mascherare meglio i difetti del nuovo processo (perchè scendendo di pp puoi avere miglioramenti sui pregi, ma anche effetti collaterali che amplificano i difetti o ne presentano di nuovi.
Coi 14nm Intel ha preferito puntare sulla densità del processo produttivo, per cui la causa potrebbe essere questa.

Ma a livello microachitetturale la situazione non è affatto peggiorata.

cdimauro
02-08-2016, 05:55
boh, IBM ha migliorato si o no, l'efficienza nel MT del 15% dal passaggio 45->32nm. AMD ha fatto meglio con il passaggio Thuban->Piledriver. :read:
Non ci sono solo le prestazioni. Come già detto, POWER7+ ha prestazioni per watt superiori a POWER7.
Per contro per il solo processo, questo è quello che ha ottenuto Intel..

http://ark.intel.com/it/products/37153/Intel-Core-i7-975-Processor-Extreme-Edition-8M-Cache-3_33-GHz-6_40-GTs-Intel-QPI

http://ark.intel.com/it/products/52585/Intel-Core-i7-990X-Processor-Extreme-Edition-12M-Cache-3_46-GHz-6_40-GTs-Intel-QPI
Sì, OK, ma non capisco perché continui (volutamente, a questo punto) a ignorare i miglioramenti di IBM con z12/Next.

Parliamo di +25% in ST, e del 50% di core in più. Dunque 25+50 = rozzamente il 75% di prestazioni migliorate in MT. E consumi simili rispetto a z196.

Dici che AMD ha fatto meglio di IBM con z12?

cdimauro
02-08-2016, 06:05
Su questo non sono d'accordo. La miniaturizzazione più spinta la si fa per guadagnare di più, non esclusivamente prestazionalmente (altrimenti Intel si poteva pure fermare al 22nm), ma perchè dallo stesso wafer escono molti più die.
Appunto: e con quei soldi Intel deve ripagarsi anche le fabbriche.

Ecco perché i processori non te li regala.
Vedremo AMD come prezzerà Zen, perchè finchè è solamente Intel sul 14nm, ok, ma quando anche altri arrivano sul 14nm, se possono applicare dei prezzi migliori, non è che a loro il 14nm gli è arrivato dal cielo e Intel invece l'ha strapagato.
Considerato che i 14nm di Intel sono veri mentre quelli degli altri no, potrebbe benissimo essere così.
Se si prendono i bilanci Intel come paragone di quanto sia brava, certamente non sfugge pure di quanto ci guadagni, non è che applicando prezzi inferiori non abbia più i fondi per continuare lo sviluppo architetturale e silicio.
E secondo te allora perché sono rimaste soltanto 4 fonderie in tutto il mondo?

Persino IBM, che era un colosso in questo campo, ha PAGATO GF per prendersi le sue fonderie...
D'altronde AMD ha una frazione dei bilanci Intel e pure in rosso,
Ecco, questa è una che bisogna tenere bene a mente, perché dimostra che progettare un processore non richiede fantastiliardi.

Mi pare che Zen sia costato ad AMD sui 30-40 milioni di dollari... e non credo che la maggior parte li abbia spesi per progettare le nuove maschere per i 14nm...

george_p
02-08-2016, 07:51
Mi pare che Zen sia costato ad AMD sui 30-40 milioni di dollari... e non credo che la maggior parte li abbia spesi per progettare le nuove maschere per i 14nm...

infatti è così.
Fottemberg scrisse un articolo a riguardo.

http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6276-lo-sviluppo-del-core-zen-e-costato-ad-amd-circa-40-50-mln-di-dollari-l-anno

AceGranger
02-08-2016, 08:19
Io non discuto sulle prestazioni di una 2011 v3 con un 6950X o 6850K, però mi sembra evidente che Intel ci abbia marciato (perchè di fatto AMD come se non esistesse) perchè un 2600K sul 32nm veniva 250€ e fino a ieri un 6700K ne veniva 400€ sul 14nm (quando invece la miniaturizzazione più spinta porta con sè un abbassamento prezzi, e di nodi ce ne sono stati ben 2).


Sinceramente c'era il battage pubblicitario che il 2600K costava meno dell'8150 andando di più, l'8150 a 400€ non c'è mai arrivato... comunque il costo di un 2600K era stato postato a 250€ ed io l'ho preso per buono...


2600K 317$
2700K 332$
3770K 313$
4770K 339$
6700K 339$

Intel ha praticamente mantenuto sempre la stessa fascia di prezzo per le sue CPU.

non si fanno MAI i paragoni fra passato e presente con i prezzi in Euro perchè il cambio dollaro-euro è andato a farsi benedire negli ultimi anni.

Piedone1113
02-08-2016, 09:20
Mi pare che Zen sia costato ad AMD sui 30-40 milioni di dollari... e non credo che la maggior parte li abbia spesi per progettare le nuove maschere per i 14nm...
Il costo del progetto delle maschere è incluso in quella lista.
E' escluso invece tutto il resto (compreso il costo della singola maschera sul silicio).
Sarebbe come dire che progettare un motore con bielle in magnesio costi proporzionalmente in più rispetto alla progettazione di un motore con bielle fuse in acciaio, e che la progettazione di bielle forgiate costa a metà strada tra le due.
Quello che costa non è progettare la biella, ma affinarne i processi di produzione e realizzarla.
Magari una biella fusa mi da uno scarto del 3% mentre quella in magnesio del 40%, ipotizzando un costo identico di stampaggio-fusione (non vero) quale dei due motori costerà di più, quale dei due consumerà di meno (a parità di tutto il resto) quale dei due rischia di essere fuori mercato prima?
Il costo della metallizazione (e di tutto il resto) non è incluso nel costo di progettazione, e se rileggi bene quello che ho scritto riferito al p4 si evince che considero possibile ad oggi un P4 che giri a 10ghz, ma con costi di produzioni proibitivi (mentre il progetto sarebbe quasi gratis).
Senza voler sminuire le tue capacità o competenze ma progettare un manufatto e realizzarlo sono due cose ben diverse, e molto spesso abbiamo prodotti dalle ottime caratteristiche basi castrate dal contenimento dei costi di produzione da parte della dirigenza.
Molte volte su questo sito riguardo notizie su prodotti incompleti e/o con carenze varie si spiegano cose dicendo che le dirigenze non caspiscono nulla di tecnologia.
Per esempio riguardo il macpro:
Prodotto pro con gravi carenze per la scarsa espandibilità sacrificata dal design.
Purtroppo (o per fortuna) il mercato apple va in quella direzione e se la dirigenza riesce a soddisfare le richieste dei potenziali clienti un prodotto mediocre potrebbe diventare un grosso successo, diversamente un ottimo prodotto senza successo di vendita diventa una tomba per l'intera linea.

Tornando al discorso PP metal Gate:
Tra thoro A e Thoro B ci sono voluti ben 6 mesi di sviluppo (dai primi es funzionanti ci si rese conto della necessità di dover mettere mano al silicio).
Le modifiche progettuali furono quasi nulle e dal costo irrisorio ma la variante Thoro B aveva un costo di produzione di quasi l'8% maggiore della A (5% dovuto all'area di silicio occupata con 84mm2 vs 80mm2 ed il resto dovuto al layer aggiuntivo)
ps al costo aggiuntivo del metalgate sono incluse le spese di ammortamento nell'arco di 18 mesi.

quindi ti chiedo: Sarebbe stato economicamente conveniente per amd ritardare di altri 6 mesi l'uscita della cpu, innalzare i costi di produzione e vedersi nel frattempo completamente azzerate le quote di mercato?
Credo di no, e credo che converrai con me che sia molto meglio sviluppare una nuova architettura piuttosto che spendere soldi su una destinata a non avere successo comunque.
Ps non è che un opteron 8 core 4,6 ghz 95w avrebbe avuto possibilità di successo commerciale contro le rispettive proposte intel, al massimo avrebbe allineato verso il basso un pochino i prezzi intel (ma nemmeno più di tanto) quindi qualsiasi manovra avrebbe significato il cotto sul ribollitto (quando tu continui a scottarti su una preesistente ustione).
Abbiamo visto bene le prestazioni dell'fx 9xxx, ed ad avere un tdb di soli 95w non avrebbe smosso di un piede le quote di mercato di amd.

Quindi secondo me:
Il silicio è colpevole del mancato raggiungimento delle frequenze di 4,6 ghz in 95w (con 11 layer).
Sarebbe stato possibile mitigare i consumi.
L'innalzamento dei costi di produzioni non avrebbe portato vantaggi (ma solo perdite economiche ulteriori) (ed io ho sempre parlato di costi di produzione e non di progettazione sia chiaro)
L'architettura BD è stato un fallimento confrontata all'architettura core di intel (e qua non ci piove).

Secondo il tuo parere invece il silicio avrebbe permesso i 4,6ghz in 95w e 11 layer e gli ingegneri amd sono degli incapaci perchè ibm ha fatto meglio con lo stesso silicio.
Come dire che gli ingegnieri intel sono degli incompetenti perché larabbee è stato un fiasco, perchè nonostante tutte le risorse spese, il pp migliore della concorrenza non è riuscita ad imporre l'architettura x86 nell'ultramobile (x86 vs arm).
Scusami ma io non sono abituato a ragionare in questi termini ed a meno che la De Longhi domani voglia entrare nell'automotive prendendo i suoi tecnici ed ingegneri e mettendoli a progettare un auto da f1 che sarà sicuramente un insuccesso cerco di valutare tutte le varianti possibili, le cause e le concause prima di dare degli incompetenti a qualcuno.


I consumi sono legati al processo, mentre l'IPC è di pertinenza della microarchitettura.

Quindi se una cpu avesse 10000 di ipc confrontata a bd =1 con gli stessi numeri di transistor ma una frequenza di 1 hz con 125w di consumo la colpa è di?
Il consumo è legato al connubio architettura-processo, l'ipc è una mediazione tra i consumi voluti e le caratteristiche del processo.
E' tutto uno scendere a compromessi, a mediare i vari limiti (di architettura, processo, tecnologia disponibile, costi di sviluppo e produzione).
Sai il divertimento degli ingegneri se non fossero vincoli dai costi di produzione e sviluppi (in tutti i campi e non solo microelettronica)
Sai come gli ingegneri fiat vorrebbero progettare una utilitaria con telaio in carbonio e motore ad idrogeno catalizzato (derivato dalla dalla scissione chimica e non stoccato in forma gassosa).
Certo che sarebbero capaci, ma una 500 verrebbe a costare più di 100 rolls royce. per dire

floop
02-08-2016, 14:44
signori, ma abbiamo bench o qualcosa del genere per capire come vanno ?
se escono a fine anno, possibile che non ci sia nulla?

Piedone1113
02-08-2016, 15:04
signori, ma abbiamo bench o qualcosa del genere per capire come vanno ?
se escono a fine anno, possibile che non ci sia nulla?

La cosa più sicura finora è il nome dell'architettura (ZEN), ed anche qui non ci metto la mano sul fuoco.
Per il resto le previsioni fatte in questo th dovrebbero essere più che affidabili:
Tra Cesare, Marco, Ren, Tuttodigitale, Paolo, ecc, qualcuno avrà sicuramente fatto una previsione molto vicina a quello che sarà (sperando che non vada come un PII e consumi come un TIR)

cdimauro
02-08-2016, 21:50
infatti è così.
Fottemberg scrisse un articolo a riguardo.

http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6276-lo-sviluppo-del-core-zen-e-costato-ad-amd-circa-40-50-mln-di-dollari-l-anno
Grazie per la conferma. :)
Il costo del progetto delle maschere è incluso in quella lista.
E' escluso invece tutto il resto (compreso il costo della singola maschera sul silicio).
Sarebbe come dire che progettare un motore con bielle in magnesio costi proporzionalmente in più rispetto alla progettazione di un motore con bielle fuse in acciaio, e che la progettazione di bielle forgiate costa a metà strada tra le due.
Quello che costa non è progettare la biella, ma affinarne i processi di produzione e realizzarla.
Magari una biella fusa mi da uno scarto del 3% mentre quella in magnesio del 40%, ipotizzando un costo identico di stampaggio-fusione (non vero) quale dei due motori costerà di più, quale dei due consumerà di meno (a parità di tutto il resto) quale dei due rischia di essere fuori mercato prima?
Il costo della metallizazione (e di tutto il resto) non è incluso nel costo di progettazione, e se rileggi bene quello che ho scritto riferito al p4 si evince che considero possibile ad oggi un P4 che giri a 10ghz, ma con costi di produzioni proibitivi (mentre il progetto sarebbe quasi gratis).
Senza voler sminuire le tue capacità o competenze ma progettare un manufatto e realizzarlo sono due cose ben diverse, e molto spesso abbiamo prodotti dalle ottime caratteristiche basi castrate dal contenimento dei costi di produzione da parte della dirigenza.
[...]
Tornando al discorso PP metal Gate:
Tra thoro A e Thoro B ci sono voluti ben 6 mesi di sviluppo (dai primi es funzionanti ci si rese conto della necessità di dover mettere mano al silicio).
Le modifiche progettuali furono quasi nulle e dal costo irrisorio ma la variante Thoro B aveva un costo di produzione di quasi l'8% maggiore della A (5% dovuto all'area di silicio occupata con 84mm2 vs 80mm2 ed il resto dovuto al layer aggiuntivo)
ps al costo aggiuntivo del metalgate sono incluse le spese di ammortamento nell'arco di 18 mesi.
Benissimo. Quindi alla fine il discorso si riduce ai costi di produzione.

Adesso prendiamo il rapporto annuale del 2012 di IBM (http://www.ibm.com/annualreport/2012/bin/assets/2012_ibm_annual.pdf) (e con questo rispondo, in parte, anche a digieffe), limitatamente ai sistemi Z e PowerSystem (POWER), perché questo è l'anno in cui sono stati introdotti rispettivamente z12/Next e POWER7+:

"System z revenue increased 5.4 percent (6 percent adjusted for currency) in 2012 versus 2011. The increase was driven by the new mainframe which began shipping late in the third quarter. Fourth quarter revenue increased 55.6 percent (56 percent adjusted for currency), as revenue increased in the major markets over 50 percent and over 65 percent in the growth markets. MIPS (millions of instructions per second) shipments increased 19 percent in 2012 versus the prior year. The increase in MIPS was driven by the new mainframe shipments, including specialty engines, which increased 44 percent year over year driven by Linux workloads. This is a good indicator of new workloads moving to this platform. The performance reflects the technology leadership and value of the vertically integrated stack that the company’s flagship server is delivering to its clients.

Power Systems revenue decreased 8.5 percent (7 percent adjusted for currency) in 2012 versus 2011. Low-end servers increased 6 percent (7 percent adjusted for currency) offset by declines in high-end and midrange products. Early in October, the company announced new POWER7+ based servers. The high-end and midrange models available in the fourth quarter performed well in the period. The company will continue to refresh the Power portfolio in the first half of 2013. In 2012, the company had nearly 1,200 competitive displacements resulting in over $1 billion of business; almost equally from Hewlett Packard and Oracle/Sun.

[...]

Overall gross margin decreased 0.7 points in 2012 versus the prior year. The decrease was driven by lower margins in System x (0.6 points), Microelectronics (0.6 points), Storage (0.5 points) and Power Systems (0.2 points), partially offset by improvement due to revenue mix (1.2 points)."

Com'è possibile notare, z12/Next ha venduto molto bene e ha generato utili.

POWER invece ha subito un declino e ha avuto delle perdite, ma per lo più legate ai vecchi (POWER7) sistemi, mentre quelli nuovi (POWER7+, che sono stati introdotti nel segmento high-end & mid-range) sono andati bene.

Dunque anche se z12 e POWER7+ sono stati prodotti a 32nm SOI, non sembra proprio che abbiano subito nefasti effetti dovuti a questo passaggio, con costi che sarebbero dovuti lievitare a causa anche dei 13 layer per i POWER7+ e ben 15 (QUINDICI! Vedere l'altro PDF, prego) per z12. Non c'è stato proprio nulla di tutto ciò!

Anzi, i nuovi POWER7+ costano anche meno, com'è scritto anche nel PDF che avevo riportato prima:

"Overall price performance has improved as much as 42% on the faster clock speed"

Direi che ce n'è abbastanza per comprendere che almeno IBM problemi non ne ha avuti coi 32 nm SOI. Anzi, ne ha saputo trarre vantaggio.

Vediamo adesso cos'altro v'inventerete dopo fattori economici, strategie aziendali, e le metallizzazioni.
quindi ti chiedo: Sarebbe stato economicamente conveniente per amd ritardare di altri 6 mesi l'uscita della cpu, innalzare i costi di produzione e vedersi nel frattempo completamente azzerate le quote di mercato?
Non sono un venditore, ma è chiaro che se ho speso dei soldi per realizzare un progetto voglio rientrare, e ovviamente cercare di guadagnare, il prima possibile.
Credo di no, e credo che converrai con me che sia molto meglio sviluppare una nuova architettura piuttosto che spendere soldi su una destinata a non avere successo comunque.
Non mi pare che AMD abbia bloccato le evoluzioni di Bulldozer e si sia dedicata a una nuova (micro)architettura. Bulldozer ha prodotto altre 3 microarchitetture.
Quindi secondo me:
Il silicio è colpevole del mancato raggiungimento delle frequenze di 4,6 ghz in 95w (con 11 layer).
Sarebbe stato possibile mitigare i consumi.
L'innalzamento dei costi di produzioni non avrebbe portato vantaggi (ma solo perdite economiche ulteriori) (ed io ho sempre parlato di costi di produzione e non di progettazione sia chiaro)
L'architettura BD è stato un fallimento confrontata all'architettura core di intel (e qua non ci piove).
Come già detto altre volte, il silicio abbia generato problemi solo ad AMD. E i costi di produzione, SE SONO AUMENTATI TROPPO (perché mica lo sappiamo), è ancora una volta un problema di AMD.

Perché, in entrambi i casi, IBM questi problemi non li ha avuti, e mi pare che adesso di dati ne ho portati fin troppi, mentre nessuno ha fatto lo stesso per dimostrare i problemi di AMD.
Secondo il tuo parere invece il silicio avrebbe permesso i 4,6ghz in 95w e 11 layer e gli ingegneri amd sono degli incapaci perchè ibm ha fatto meglio con lo stesso silicio.
Adesso la stai facendo fuori dal vaso Antonio: io NON ho mai asserito nulla del genere! Se permetti, e anche se non permetti a questo punto, io sono responsabile soltanto di quello che dico IO, e non di quello che tu o altri vorreste appiopparmi.

E giusto per essere chiari: io qui ho riportato dei FATTI, che dimostrano che IBM NON ha avuto problemi a passare ben DUE architetture, peraltro completamente diverse, ai 32mm SOI.

Ironia della sorte, quella più simile a x86 (z12, che è CISC. Con tanto di prefissi per le istruzioni, a uso x86 per l'appunto) non solo ha venduto bene e ha fatto guadagnare (anziché generare perdite o cali), ma usa ben 15 layer di metallizzazione, e ha guadagnato mostruosamente in prestazioni sia in ST sia in MT.

AMD, invece, non ha saputo sfruttare i 32nm SOI. E non so di chi è la colpa, ma il silicio non c'entra. O, per essere ancora più chiari, se AMD aveva delle aspettative sul silicio, che sono poi state disattese, non è colpa del silicio, ma delle previsioni che non sono state azzeccate.
Come dire che gli ingegnieri intel sono degli incompetenti perché larabbee è stato un fiasco,
Beh, questa è la verità: Larrabee non poteva competere con le GPU, perché queste ultime sono troppo ben specializzate sull'attuale meccanismo di rasterizzazione, e per il raytracing in tempo reale siamo ancora indietro.

Comunque c'è da dire che da Larrabee è nato Xeon Phi, che sta dando ben altre soddisfazioni, ed è la spina nel fianco delle GPU in ambito HPC / calcolo massicciamente parallelo & distribuito.
perchè nonostante tutte le risorse spese, il pp migliore della concorrenza non è riuscita ad imporre l'architettura x86 nell'ultramobile (x86 vs arm).
Questo è un altro discorso: il problema è che Intel è arrivata troppo tardi, in un mercato ormai dominato da ARM, con le applicazioni disponibili per quest'architettura.

A parti rovesciate, è quello che succede da tempo in ambito Windows, dove x86 domina e ARM non riesce a prendere piede, a causa delle applicazioni disponibili per x86 e x64.
Scusami ma io non sono abituato a ragionare in questi termini ed a meno che la De Longhi domani voglia entrare nell'automotive prendendo i suoi tecnici ed ingegneri e mettendoli a progettare un auto da f1 che sarà sicuramente un insuccesso cerco di valutare tutte le varianti possibili, le cause e le concause prima di dare degli incompetenti a qualcuno.
Ecco, allora comincia a valutare anche la possibilità di evitare di mettere in bocca ad altri cose che non hanno detto.

Per il resto ti faccio notare che una nota marca di bevande energetiche è entrata nel mondo delle F1 da completa outsider, ha vinto un fottio di campionati del mondo, e di recente ha pure scavalcato nuovamente la Ferrari nella classifica mondiale...
Quindi se una cpu avesse 10000 di ipc confrontata a bd =1 con gli stessi numeri di transistor ma una frequenza di 1 hz con 125w di consumo la colpa è di?
Il consumo è legato al connubio architettura-processo, l'ipc è una mediazione tra i consumi voluti e le caratteristiche del processo.
E' tutto uno scendere a compromessi, a mediare i vari limiti (di architettura, processo, tecnologia disponibile, costi di sviluppo e produzione).
Sai il divertimento degli ingegneri se non fossero vincoli dai costi di produzione e sviluppi (in tutti i campi e non solo microelettronica)
Sai come gli ingegneri fiat vorrebbero progettare una utilitaria con telaio in carbonio e motore ad idrogeno catalizzato (derivato dalla dalla scissione chimica e non stoccato in forma gassosa).
Certo che sarebbero capaci, ma una 500 verrebbe a costare più di 100 rolls royce. per dire
Non è questo che volevo dire in quel contesto. Ovviamente una microarchitettura che genera un certo IPC lo farà a spese dei consumi, perché impegnerà più risorse -> transistor attivi.

Nello specifico, volevo rimarcare che l'IPC è frutto della microarchitettura che Intel ha ormai rodato da tempo (con Nehalem capostipite), e dunque lo ritroviamo anche sui 14nm.

L'IPC è aumentato anche passando ai 14nm, per cui non vedo cosa sarebbe stato disatteso qui.

Mentre i consumi sono aumentati, nonostante il passaggio, e questo effettivamente disattende ciò che si aspetterebbe.

Ma sappiamo che un nuovo processo produttivo:
- ha l'obiettivo di abbattere i costi;
- non deve necessariamente produrre miglioramenti nei consumi;
- Intel ha avuto non pochi problemi a passare ai 14nm, e le rese sono migliorate soltanto DOPO un po' di mesi che Skylake è stato presentato.

cdimauro
02-08-2016, 22:52
@Cesare ho provato ad imitare un po' il tuo stile :)
Bene. :)
senza conoscere i fattori economici e di strategia aziendale NON SONO LE STESSE CONDIZIONI. Sic et simpliciter.

e SE c'è TUTTA la necessaria documentazione.
Quella pubblica è SOLO UNA PARTE della documentazione, non sufficiente
Ho portato un bel PDF col bilancio 2012 di IBM, che contiene un po' di documentazione utile, come puoi vedere dalla mia risposta ad Antonio.

Ciò che è bene precisare è che "i fattori economici e di strategia aziendale" di IBM NON sono cambiati con POWER7+ e z12: IBM è stata, dunque, in grado di continuare a fare affari negli stessi segmenti di mercato, guadagnando, e persino espandendosi (con z12 ha sensibilmente guadagnato quote).
ti risulta che amd avesse convenienza economica a risolvere i suoi problemi dopo che POWER7+ è stato presentato?
Considerato che ha sfornato ben 3 microarchitetture dopo Bulldozer, direi proprio di sì.
chi ti dice che senza aspettare di risolverli, ma buttando fuori prodotti non all'altezza non fosse la soluzione migliore (meno peggio)?
hai in mano le condizioni contrattuali tra amd e gf? come anche i piani di produzione con relativi business plan dei phenom II e di BD? .... ?
senza questi documenti come fai ad affermare che poteva benissimo aspettare?
Non ho nessun documento del genere, ma ci sono ben 3 altre microarchitetture che dimostrano i tentativi di correggere tali problemi.

Soprattutto mi preme far notare che le ultime due sono persino approdate su un processo produttivo diverso, i 28nm BULK, che a giudicare quello che ha scritto Antonio finora dovrebbero essere pure più economici da produrre rispetto a un equivalente SOI.
ricordo (ma potrei sbagliarmi) che il power 7+ fu presentato ad hotchips ad agosto 2012 ma poi fu disponibile sul mercato ad ottobre dello stesso anno.
Sì, è confermato anche dal report 2012. Lo stesso è avvenuto con POWER8 e z13, commercializzati circa un paio di mesi dopo la loro presentazione.

Anche questo traspare dai report (2014, nello specifico).
il mio discorso era ipotetico tu stai facendo un'affermazione, mi porti le prove?
Questo si chiama inversione dell'onere della prova. Ma anche se ipotetico, è un TUO ragionamento e devi essere TU a dimostrarlo. Non io.

Comunque le prove te le ho portate lo stesso, e le trovi nella mia risposta ad Antonio, con annesso link al report annuale 2012 di IBM, da cui sono tratti.
non quello al quale mi sto riferendo, spero che tuttodigitale sappia/ricordi qual'è il documento.
Non l'ha fatto finora, e non cambierebbe nulla: ho già postato il PDF di IBM sul POWER7+ e di dati ne trovi parecchi. Inclusi i grafici coi confronti di performance per watt di POWER7 e POWER7+.

E in ogni caso a rompere le uova nel paniere ci pensa z12/Next, che mostra miglioramenti ENORMI col passaggio ai 32nm SOI, che fanno impallidire persino POWER7+.

Con z12 potete cercare di girarci quanto volete, ma non c'è nulla a cui possiate appigliarvi per sminuire il lavoro (e i profitti) di IBM.
certamente che cambierebbe più di qualcosa, per questo, in questi casi non dovrebbero farsi paragoni.
Non mi pare proprio. Anche se il FO4 fosse cambiato (e bisognerebbe vedere se sia cambiato fra z196 e z12/Next, ma ne dubito fortemente dati i marginali incrementi di clock nel passaggio fra i due), rimarrebbe il fatto che IBM è riuscita a sfruttare meglio i 32nm SOI.

Poi non capisco perché non dovrebbero farsi paragoni. Ciò che conta è il risultato finale. Non lo prescrive il medico che non si debba cambiare FO4 con una nuova microarchitettura, anche a fronte del passaggio a un nuovo processo produttivo.

I confronti di P4 (con FO4 bassissimo) con Athlon e Athlon64 (FO4 ben più alto) mi sembra si siano sprecati. Ma qui facevano comodo, evidentemente...
non li conosci, ok.
quindi, se non sai quanto può aver investito ibm nel pp per ottenere le prestazioni che ha, non puoi neanche sapere se gli stessi investimenti, qualora fatti da amd e spalmati sul costo di BD, avrebbero potuto generare un prezzo di vendita di quest'ultimo fuorimercato.
la questione è tutta qui.
I bilanci di IBM li ho riportati, e non risentono minimamente di eventuali maggiori costi di progettazione e/o produzione. Quindi una parziale risposta ce l'hai già.

In ogni caso il confronto non ha senso, perché se IBM investe di più, è perché ciò è richiesto dal target di mercato di riferimento per i suoi prodotti. Ovviamente AMD investirà in base al suo target.

Detto in altri termini, il target di mercato è un'invariante rispetto alla problematica oggetto della discussione: IBM investiva molto sui 45nm, e ha continuato a investire molto sui 32nm, perché fa parte della sua strategia.

In ogni caso se IBM avesse avuto problemi, ne avrebbe dovuto risentire sicuramente, e a maggior ragione considerando che i suoi chip sono molto più grandi e lavorano a frequenze più elevate.

Dulcis in fundo, il fatto che Piledriver sia uscito giusto qualche mese dopo POWER7+ e z12/Next, e abbia raggiunto frequenze elevate (4,7Ghz base e 5Ghz turbo. Circa a metà strada fra POWER7+ e z12) usando lo stesso processo produttivo, con consumi comparabili (220W), dimostra che i limiti del silicio utilizzato a 32nm SOI erano sostanzialmente quelli. Per tutti.
mi servirò di un esempio ipotetico così da non ingenerare equivoci:
power 7 - costo di produzione ~200$ - prezzo di vendita ~1500$
power 7+ - costo preventivato di produzione ~200$ - prezzo di vendita ~1500$
power 7+ - costo di produzione per risolere problemi soi 32nm ~1400$ - prezzo di vendita 1500$
BD - costo di produzione ~50$ - prezzo di vendita 150$
BD - costo di produzione per risolere problemi soi 32nm >> 150$ - prezzo di vendita fuori mercato

ibm con i suoi prezzi più alti ha maggior margine di manovra per correggere problemi.

come vedi dal mio ipotetico ma pur valido esempio, rimane una questione economica.
(IMHO nel mondo è quasi sempre una questione economica anche quando si tratta di cose tecniche)

spero che ti renda conto che in caso di problemi l'aspetto economico e di strategia aziendale* influenzi il tutto molto di più di quello tecnico.

*ibm potrebbe vendere anche in leggera perdita la cpu pur di mantenere le aspettative e l'immagine, il suo core business è altro, amd no.

non commento più di tanto questo punto ma mi affido alle tue deduzioni, spero che almeno su questo ci intendiamo :)
Io ho portato altri dati (in particolare nella mia replica ad Antonio), che dovrebbero lasciare ormai poco alle deduzioni.
mi dispiace Cesare, le prove sono insufficienti di conseguenza le tue deduzioni fallaci
chiunque non abbia accesso alla documentazione interna amd ed ibm non avrà mai tutte le prove necessarie (anche se le avesse servirebbe il disclosure agreement).
Ma anche no: la documentazione che ho portato è sufficiente a chiarire la questione. Per lo meno riguardo a IBM.

Manca quella di AMD, ma "stranamente" per quest'azienda si parla molto, ma nessuno porta documenti a supporto.

E a questo punto non è nemmeno un problema mio.
stasera siamo di cherrypicking? :) (nel senso che non ci sono tutti)
no, mi sa che questa fallacia è simile ma diversa... quando ho tempo verificherò come si chiama
Sì, si chiama cherrypicking, ma si verifica quando è noto un insieme di dati, ma una persona ne riporta soltanto una parte per sostenere una certa tesi.

Nello specifico, quali dati avrei nascosto ad arte per sostenere ciò che dico? Quotami e riportali pure. :read:
infatti con i margini di guadagno che ha non può sbagliare
Può sbagliare lo stesso invece. Basti guardare i report annuali successi al 2012.

In particolare per il 2013:

"System z revenue decreased 13.4 percent (13 percent adjusted for currency) in 2013 versus 2012. The decrease was primarily driven by lower revenue in North America, while revenue increased in the growth markets. MIPS (millions of instructions per second) shipments increased 6 percent in 2013 versus the prior year. The increase in MIPS was driven by specialty engines, which increased 17 percent year over year and continue to be more than 50 percent of the total volumes. The decline in System z revenue was expected based on the product’s movement through the product cycle in 2013. In the current mainframe cycle, the company has shipped 28 percent more MIPS compared to the same period in the prior cycle. The revenue and gross profit in the current cycle are each about 99 percent of the previous cycle, net of currency. Mainframe products provide the highest levels of availability, reliability, efficiency and security, which position it as the ideal platform for high volume, mission critical workloads. The additional MIPS capacity in the current product cycle is a reflection of the ongoing relevance of the mainframe to clients, and provides the company with financial returns consistent with past cycles.

Power Systems revenue decreased 31.4 percent (31 percent adjusted for currency) in 2013 versus 2012. The Power platform continues to ship significant capacity into the UNIX market, however this has been more than offset by significant price performance, resulting in lower revenue. The company has been very successful in the UNIX market, and is taking two actions to improve its business model in Power Systems. First, it is making the platform more relevant to clients. To achieve this:
• In the fourth quarter of 2013, the company introduced a new Integrated Facility for Linux offering which enables clients to run Linux workloads in their existing servers. This mirrors the successful strategy the company executed on the System z platform;
• The company will expand its Linux relevance even further with POWER8 in 2014, which will provide additional big data and cloud capabilities; and
• Through the company’s OpenPOWER consortium it is making Power technology available to an open development alliance, building an ecosystem around the Power technologies.
These effects will take some time.
Secondly, even with these additional capabilities, the company recognizes that the size of the Power platform will not return to prior revenue levels. The company will take action by right-sizing the business for the demand characteristics it expects.

[...]

The decrease in external gross profit in 2013 versus 2012 was due to lower revenue and a lower overall gross profit margin reflecting the business model challenges. Overall gross margin decreased 3.5 points in 2013 versus the prior year. The decrease was driven by lower margins in Power Systems (1.0 points), System x (0.9 points), Microelectronics (0.7 points) and Storage (0.4 points) as well as a decline due to revenue mix (0.7 points), partially offset by margin improvement in System z (0.1 points)."

Le motivazioni sono semplici: Intel da una parte, e ARM dall'altra, hanno erose notevolmente le quote di mercato di IBM, e l'hanno costretta a ridurre i prezzi dei suoi POWER per cercare di rimanere competitiva.

Per questi motivo, e sostanzialmente riconoscendo di non farcela più da sola, ha creato il consorzio OpenPOWER, chiedendo, di fatto, aiuto all'esterno per i suoi POWER.
puoi affermare che il pp sia lo stesso tra ibm e amd compresa metallizzazione ecc?
Leggiti i commenti precedenti.
anche io sono a favore della verità storica.

se ibm ha affermato che il guadagno del silicio è solo del 6% forse c'è qualcosa che non stai considerando?

forse manca qualche parametro alle tue valutazioni (tdp, core, freq, turbo, throughput, ...)?

se nello z, come sembra, hanno cambiato FO4, c'è ben poco da paragonare, come già detto.

@tuttodigitale dov'è il documento di questo 6%?
Ho già risposto a tutto, ma se c'è qualcosa che non sto considerando, sei liberissimo di farmelo notare.

Per il resto ti faccio notare, invece, che ho portato PDF di IBM su Power7+, z12/Next, nonché bilanci, che confermano quanto ho scritto finora.

Per contro, di AMD nessuno sembra interessarsi portando documentazione per dimostrare le sue difficoltà, che a questo punto rimangono soltanto sulla carta: parole, insomma. Che lasciano il tempo che trovano.
sai che ti stimo (anche se a volte mi fai venire dei dubbi :D, si scherza). non contesto i dati da te (documenti ibm) riportati. fatto salvo eventuali errori, mi fiderei anche senza documenti ufficiali.
ciò su cui non concordo è il fatto che tu non consideri tutti i dati.
cmq, questa settimana che sta per iniziare mi metto pian pianino e mi dedico maggiormente.

lasciamo stare il gioco... era un modo per dire che siamo in un circolo vizioso.
Per quanto mi riguarda, da questo circolo ne sono uscito perché ho presentato fior di documentazione da cui emergono non pochi fatti che confermano sostanzialmente quanto ho scritto finora.

Adesso la palla passa a chi vuol dimostrare qualcosa su AMD, e allora deve cercare di fare uno sforzo paragonabile al mio, visto che ho perso un sacco di tempo a cercare e smazzarmi documentazione, riportando link e stralci.

Detto in altri termini: basta parole, ma portate documentazione.

bjt2
03-08-2016, 08:09
Non sappiamo se il FO4 di PD e le architetture IBM siano comparabili, ma proprio nel periodo precedente all'uscita di BD e le architetture di IBM in oggetto, sono usciti paper accademici di IBM sul FO4 ottimale dal punto di vista delle prestazioni/consumo, che è 17.
Visti i risultati è probabile che almeno IBM usi tale FO4 e che conviene avere un reparto di R&D con i fiocchi alla lunga...
Anche AMD ha sfornato dei brevetti ultimamente... Speriamo che rendano...

bjt2
03-08-2016, 08:12
https://twitter.com/Dresdenboy/status/760588903807987712

:eek:

Die shot di una probabile APU a 8 core del tipo cat, a 99 dollari su AM4!

:eek:

Dresdenboy sta verificando questo rumor...

stefanonweb
03-08-2016, 11:04
https://twitter.com/Dresdenboy/status/760588903807987712

:eek:

Die shot di una probabile APU a 8 core del tipo cat, a 99 dollari su AM4!

:eek:

Dresdenboy sta verificando questo rumor...


https://www.youtube.com/watch?v=AUDbY03ktTE

george_p
03-08-2016, 11:18
https://www.youtube.com/watch?v=AUDbY03ktTE

Quanti bei click e visualizzazioni con queste stupende notizie :O
Mettiamo il titolo però al link così si evita di perderci tempo a visualizzarlo e regalargli visite.

bjt2
03-08-2016, 11:30
Quanti bei click e visualizzazioni con queste stupende notizie :O
Mettiamo il titolo però al link così si evita di perderci tempo a visualizzarlo e regalargli visite.

O consumare MB... Sono con il cellulare... 5MB buttati nel cesso... Grazie.

paolo.oliva2
03-08-2016, 11:52
Appunto: e con quei soldi Intel deve ripagarsi anche le fabbriche.

Ecco perché i processori non te li regala.

Mi spieghi quale è la differenza?
Quello che cambia tra AMD ed Intel è che AMD non ha le FAB ed Intel si.
Puntualizziamo sulla FAB.
Quella GF, tale e uguale a quella Intel, ha gli stessi costi di sviluppo, gli stessi costi dei macchinari, dei dipendenti e quant'altro.
Quando GF produce per AMD, gli regala i die? Chiaro che no, gli fa pagare il die, gli applica un plus a die in base a quanto ha speso/spende per sviluppo, macchinari, dipendenti, e al tutto gli applica anche un plus perchè, evidentemente, ci deve pure guadagnare, cosa che Intel invece non ha sulle sue FAB.

Quindi, secondo te, Intel non può regalare i proci, mentre AMD si perchè GF non vuole nulla di quanto ha speso in macchinari e sviluppo (14nm = quello Intel) ed in più GF ha tecnici/dipendenti che lavorano gratis per AMD.

Considerato che i 14nm di Intel sono veri mentre quelli degli altri no, potrebbe benissimo essere così.
Veramente la cosa era che Intel dichiarava nm più spinti e gli altri no, non il contrario

E secondo te allora perché sono rimaste soltanto 4 fonderie in tutto il mondo?
Perchè ci vogliono soldi, evidentemente, ma questo è disgiunto dalla percentuale di ricarico.
Onestamente il filo del discorso mi sembra più impostato sul giustificare i prezzi Intel VS AMD, che un sunto razionale.
Per me, in termini di costi, tra avere le FAB e affidarsi a terzi per produrre, la differenza in termini di costi è esigua.
A riprova, ti ricordo che all'epoca 45nm, AMD aveva le FAB come Intel, ed all'uscita del Phenom II, Intel ritoccò i listini del Penryn da -17% a -50% e non penso proprio che abbia venduto sotto-costo, e se con Zen succederà la stessa cosa, mi pare ovvio che Intel farà bene i calcoli tra costo procio + costo FAB + guadagno per non vendere in negativo, ragion per cui mi pare ovvio che quel plus nulla abbia a che vedere tra avere FAB o meno.
Aggiungerei che se avere FAB i costi aumentano di 10 volte, benissimo, allora la scelta AMD di vendere le FAB, è la migliore. Intel può decidere quello che vuole, ma il problema se sia giusto o sbagliato è suo, non nostro.

P.S.
Io voglio solamente far notare che i prezzi attuali sono ultra-gonfiati immediatamente sopra al max prestazionale a cui può arrivare AMD. Che Intel sfrutti la situazione è logica di mercato, nulla da obiettare e ASSOLUTAMENTE nessuna polemica. Però negare l'evidenza facendola passare per costi reali... già vedere un procio server che costa addirittura meno dell'equivalente desktop, non è una riprova a tutto ciò?

Free Gordon
03-08-2016, 13:19
https://twitter.com/Dresdenboy/status/760588903807987712
:eek:
Die shot di una probabile APU a 8 core del tipo cat, a 99 dollari su AM4!
:eek:
Dresdenboy sta verificando questo rumor...


Sarebbe un X8 Jaguar sui 22nm FDsoi?

E adesso si svegliano a farlo uscire...?

marchigiano
03-08-2016, 13:36
https://twitter.com/Dresdenboy/status/760588903807987712

:eek:

Die shot di una probabile APU a 8 core del tipo cat, a 99 dollari su AM4!

:eek:

Dresdenboy sta verificando questo rumor...

ma che senso ha una cpu di classe atom su un socket top di gamma? :rolleyes:

bjt2
03-08-2016, 13:56
Sarebbe un X8 Jaguar sui 22nm FDsoi?

E adesso si svegliano a farlo uscire...?

Seguendo il link dice 28nm... Poi dice che la frequenza base è 3.3Ghz e ha un clock dinamico, ma comunque prestazioni pari o superiori all'8350, ma con la metà del consumo... Magari non sono più sintetizzati e hanno fatto salire il clock... Comunque la compatibilità con Xbox e PS4 a questo punto è alta... Il clock della CPU è pure più alto e probabilmente anche quello della GPU... Il framework microsoft già permette di sviluppare videogiochi per PC e XBOX con un solo eseguibile... Ora ci sarebbe anche una piattaforma economica e veloce per far girare i giochi...

bjt2
03-08-2016, 13:59
ma che senso ha una cpu di classe atom su un socket top di gamma? :rolleyes:

Beh... E' praticamente una XBOX o una PS4 pompate in frequenza sia lato CPU che GPU... Aggiungi un po' più di RAM per il SO più esoso, aggiungi che gli strumenti di sviluppo MS è da anni che consentono di fare app e giochi universal che possono girare su windows 8, 8.1, 10 e XBOX e anche su piattaforme non x86, perchè basate sul framework dot net e le DX 11/12... Aggiungi che costa 99$ e hai un perfetto PC da gioco a meno di 300-400$... Se poi lo colleghi alla TV... E' tutto quello che ti serve...

bjt2
03-08-2016, 14:00
Comunque secondo dresdenboy è probabilmente un fake molto elaborato...

Free Gordon
03-08-2016, 14:07
ma che senso ha una cpu di classe atom su un socket top di gamma? :rolleyes:


La cpu di classe ATOM, lo è a 1,6ghz...
A 3,3ghz + boost è di classe "i3/i5"...

Sempre che tutto sia vero :stordita:

Free Gordon
03-08-2016, 14:09
Ora ci sarebbe anche una piattaforma economica e veloce per far girare i giochi...

Non con solo 2 CU... ;)

Almeno stando a quel che è scritto

marchigiano
03-08-2016, 14:40
dice che la frequenza base è 3.3Ghz e ha un clock dinamico

La cpu di classe ATOM, lo è a 1,6ghz...
A 3,3ghz + boost è di classe "i3/i5"...

Sempre che tutto sia vero :stordita:

a ok mi era sfuggito il 3.3ghz di base.... solo che gli esperti non avevano detto che tale architettura (la cat-qualcosa...) più di tanto non sale?

che vogliano riciclare die xbox non venduti o con qualche difettino?

george_p
03-08-2016, 15:35
Capisco "ragionare" su zen, BR che si sa almeno ufficialmente devono uscire... ma personalmente considero quella foto per quello che è... una foto di un (chissà quale poi) chip postata da chissà chi sul web (e non mi riferisco a dresdenboy che l'ha ripresa)... notizie così escono come funghi, soprattutto quando si avvicinano i periodi di presentazione o debutto delle cpu.
Accade esattamente come per i pesci di aprile e mi torna in mente quello di B&C che ancora a distanza di settimane ne abboccava qualcuno ...di pesce :sofico:

Piedone1113
03-08-2016, 15:45
edit

Cesare, tutto quello postato è giusto, ma facciamo una piccola premessa
architettura Z sui 45nm 13 layer, architettura power sui 45 nm 11 layer (e gia questo cambia di molto le carte in tavola).

Stabilimento IBM di New York venduto a GF in piena produzione 32 nm IBM, quindi i 32 nm soi erano IBM e non GF, anche se teoricamente dovrebbero essere uguali, anche se ogni player del consorzio ha libertà nell'implementazione.
Ma nemmeno questa è la questione.
Hai postato i resoconti finanziari di Power System e System Z, e mi sta anche bene.
Quindi IBM non ha perso nei due settori, ma anzi ne ha guadagnato, senza considerare però che incluso c'è anche il contratto di assistenza annuale (dove IBM fa i veri ricavi) ed allo stesso tempo assumendo che il margine sia dovuto alla sola cpu, mentre magari ci ritroviamo con
Ram, network, mb, ali, hdd con costi in contrazione del 10% (ma la ram ebbe una contrazione anche maggiore) e magari la cpu con un costo di produzione del + 10% rispetto la precedente.
Ma il fatto poi di aver "acquistato la vendita" della fab 10 a GF nel 2015 non indica uno scenario economicamente vantaggioso circa il ricarico su tali cpu (no, perchè se la produzione di cpu portava utili non vendo la fab pagando l'acquirente)
Ma sopratutto: tra tutto quello che hai postato è possibile determinare il costo di produzione della sola cpu Power 7+ o di Z?
Credo di no, o sbaglio?

Tornando ai fatti dimentichi anche di ricordare la ricontrattazione del costo d'acquisto dei chip da parte di AMD a GF (i termini precisi sono ancora riservati) passando dalla vendita a wafer lavorati a quella dei soli chip funzionanti.
Adesso sono solo due i casi
1) GF aveva mantenuto le specifiche assicurate in fase di contratto d'acquisto del suo silicio e impietosita dalla gravissima crisi di AMD ha deciso di regalare i propri chip alla stessa (o quasi)

2) GF non ha rispettato le specifiche da contratto e si è vista costretta a subire la rimodulazione dei prezzi per i propri servigi.

Perchè quell'accordo?
Probabilmente perchè era conveniente per entrambi (gf avrebbe dovuto pagare penali da contratto, amd non avrebbe comunque guadagnato nulla in fatto di quote di mercato).

Poi possiamo se vuoi analizzare i bilanci dei fornitori di ibm per i sistemi incriminati per vedere se la % di margine è salita, scesa o rimasta invariata e normalizzare al volume totale di merce.
Possiamo analizzare i bilanci GF 2012/13 in profondo rosso per vedere se ha guadagnato o perso sulla propria produzione a 32 nm per AMD.
Ma tutto questo conferma come la tua certezza assoluta di incapacità di amd di sfruttare il silicio sia quantomeno da mettere in dubbio, e che tutti i discorsi di ricavi su un sistema completo non specificano se un elemento singolo dell'insieme sia diventato o meno più costoso da produrre.

Per il resto continuo a dire che un 8150 a 4,6 ghz avrebbe potuto contrastare l'ascesa degli I7 in modo marginale e che comunque non avrebbe smosso più di tanto le differenze in campo.

A riprova, ti ricordo che all'epoca 45nm, AMD aveva le FAB come Intel, ed all'uscita del Phenom II, Intel ritoccò i listini del Penryn da -17% a -50% e non penso proprio che abbia venduto sotto-costo, e se con Zen succederà la stessa cosa, mi pare ovvio che Intel farà bene i calcoli tra costo procio + costo FAB + guadagno per non vendere in negativo, ragion per cui mi pare ovvio che quel plus nulla abbia a che vedere tra avere FAB o meno.

Ps sei sicuro che fosse Penryn?
Perchè se è cosi ti rammento che oltre ai 9xxx intel aveva in vendita anche la piattaforma 1366 e quella 1155, mentre i penryn erano 775 e praticamente un taglio del listino sarebbe solo servito a smaltire le scorte per non farsi concorrenza in casa contro l'architettura Core.

paolo.oliva2
03-08-2016, 20:05
Ps sei sicuro che fosse Penryn?
Perchè se è cosi ti rammento che oltre ai 9xxx intel aveva in vendita anche la piattaforma 1366 e quella 1155, mentre i penryn erano 775 e praticamente un taglio del listino sarebbe solo servito a smaltire le scorte per non farsi concorrenza in casa contro l'architettura Core.
Per dire la verità mi ricordo benissimo il calo di listino, per il modello faccio fatica a ricordare... già faccio casino con i modelli AMD che avevo (socket AM2/AM3/AM3+), puoi capire con proci di cui ho sentito solamente il nome.

Leggendo i tuoi post, condivido il fatto che un 8150 foss'anche a 4,6GHz non avrebbe migliorato più di tanto la situazione AMD, ma secondo me il 32nm SOI non ha solamente disatteso le frequenze, ma soprattutto il TDP a numero di transistor, e di qui il numero di core a die.

Io sono sempre stato dell'idea che la grande batosta di AMD sia nel fatto che Intel con gli X4 ha surclassato in ST BD, ma lo ha anche superato in MT, cosa che un X10 e magari con l'affinamento un X12 non l'avrebbe permesso.
Per quanto riguarda i server, il punto è l'efficienza, cioè il consumo/prestazioni. E' innegabile che passare da un X16 137W a un X20 agli stessi consumi e al limite ad un X24, avrebbe portato molta più efficienza, rapportato comunque all'epoca, cioè Intel 22nm, ma questa situazione avrebbe portato all'evoluzione FX/Opteron come c'è stata sul 28nm e non di fatto stoppata come sul 32nm.

Cioè... il 45nm SOI con la sola aggiunta del low-k ha portato +50% dei core (da 4 a 6), mentre tutto l'ambaradan 32nm + HKMG praticamente +33% (da 6 a 8), che poi andrebbe considerato che il CMT ha permesso di risparmiare il 20% di transistor (anche se poi la L2 è aumentata), quindi mi sembra che di fatto AMD ha più incrementato con il sol low-k sul 45nm rispetto al passaggio al 32nm con l'implementazione HKMG. Del resto la cancellazione di Komobo (BD X10) è un dato più che confermativo di questa disfatta silicio.

Io sono più dell'idea che AMD nei server non abbia perso per BD, quanto invece nella somma BD + max X16 a 137W. Un BD X20/X24 nei 137W avrebbe modificato di non poco l'efficienza. Se AMD fosse stata più competitiva, l'evoluzione XV ci sarebbe stata pure nel desktop/server, e la tabella di marcia del passaggio 32nm SOI al 22nm SOI avrebbe certamente permesso un X24 XV agli stessi TDP di un PD X16.

cdimauro
03-08-2016, 22:11
Non sappiamo se il FO4 di PD e le architetture IBM siano comparabili, ma proprio nel periodo precedente all'uscita di BD e le architetture di IBM in oggetto, sono usciti paper accademici di IBM sul FO4 ottimale dal punto di vista delle prestazioni/consumo, che è 17.
Visti i risultati è probabile che almeno IBM usi tale FO4 e che conviene avere un reparto di R&D con i fiocchi alla lunga...
Anche AMD ha sfornato dei brevetti ultimamente... Speriamo che rendano...
z10 è accreditato di un FO4 pari a 15, come pure z196. Di z12 non ho trovato niente, ma come ho detto penso sia lo stesso.
Mi spieghi quale è la differenza?
Quello che cambia tra AMD ed Intel è che AMD non ha le FAB ed Intel si.
Puntualizziamo sulla FAB.
Quella GF, tale e uguale a quella Intel, ha gli stessi costi di sviluppo, gli stessi costi dei macchinari, dei dipendenti e quant'altro.
Non credo proprio che sia così, ma non ho voglia di andare cercare fra i bilanci di entrambe.
Quando GF produce per AMD, gli regala i die? Chiaro che no, gli fa pagare il die, gli applica un plus a die in base a quanto ha speso/spende per sviluppo, macchinari, dipendenti, e al tutto gli applica anche un plus perchè, evidentemente, ci deve pure guadagnare, cosa che Intel invece non ha sulle sue FAB.
Diciamo che Intel incassa virtualmente il margine di differenza.
Quindi, secondo te, Intel non può regalare i proci, mentre AMD si perchè GF non vuole nulla di quanto ha speso in macchinari e sviluppo (14nm = quello Intel) ed in più GF ha tecnici/dipendenti che lavorano gratis per AMD.
La questione è complessa. Non è che Intel non può regalarti i suoi processori, ma gestire una fonderia, specialmente negli ultimi anni, è diventato non solo molto costoso a livello di infrastrutture & mantenimento, ma anche soggetto a problematiche che possono capitare coi progressi livelli di miniaturizzazione.

Per cui il margine lo incassa e lo conserva per far fronte a queste cose.
Veramente la cosa era che Intel dichiarava nm più spinti e gli altri no, non il contrario
Fino ai 22nm. Coi 14nm, come già detto, non è più così.
Perchè ci vogliono soldi, evidentemente, ma questo è disgiunto dalla percentuale di ricarico.
No no: c'è anche quella. Perché quando hai problemi di resa, vi devi far fronte in qualche modo, per cui ti tocca scucire.
Onestamente il filo del discorso mi sembra più impostato sul giustificare i prezzi Intel VS AMD, che un sunto razionale.
Per me, in termini di costi, tra avere le FAB e affidarsi a terzi per produrre, la differenza in termini di costi è esigua.
Questo l'avevi già scritto tempo fa, e te lo ripeto: in tal caso nessuno si sarebbe più tenuto le fabbriche, e le avrebbe cedute al pollo di turno.
A riprova, ti ricordo che all'epoca 45nm, AMD aveva le FAB come Intel, ed all'uscita del Phenom II, Intel ritoccò i listini del Penryn da -17% a -50% e non penso proprio che abbia venduto sotto-costo,
Non ricordo di quest'evento. Anche perché i Phenom II non è che potessero impensierire più di tanto Intel, come traspare dalle recensioni che ho già postato un po' di giorni fa.
e se con Zen succederà la stessa cosa, mi pare ovvio che Intel farà bene i calcoli tra costo procio + costo FAB + guadagno per non vendere in negativo, ragion per cui mi pare ovvio che quel plus nulla abbia a che vedere tra avere FAB o meno.
Vedi sopra: non è così.
Aggiungerei che se avere FAB i costi aumentano di 10 volte, benissimo, allora la scelta AMD di vendere le FAB, è la migliore. Intel può decidere quello che vuole, ma il problema se sia giusto o sbagliato è suo, non nostro.
Dimentichi che Intel è 10 volte più grande di AMD, ed è per questo che può permettersi di continuare a investire nelle fabbriche: ha i soldi per poterlo fare. AMD no. Ecco perché ha venduto le sue.
P.S.
Io voglio solamente far notare che i prezzi attuali sono ultra-gonfiati immediatamente sopra al max prestazionale a cui può arrivare AMD. Che Intel sfrutti la situazione è logica di mercato, nulla da obiettare e ASSOLUTAMENTE nessuna polemica. Però negare l'evidenza facendola passare per costi reali... già vedere un procio server che costa addirittura meno dell'equivalente desktop, non è una riprova a tutto ciò?
Io ho mai parlato di costi reali, mi pare. Evita di appiopparmi cose che non ho detto.

Per il resto i prezzi sono quelli di mercato. Vedi anche quelli di IBM per i suoi server, che sono un altro esempio.