PDA

View Full Version : [Thread Ufficiale] Aspettando ZEN


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103

george_p
15-07-2016, 09:14
sono 2 soluzioni rischiose... bisogna vedere quale lo è meno.
se aspetti un buon silicio per progettarci sopra è possibile arrivare in ritardo al lancio del prodotto.
se progetti in attesa di un buon silicio rischi invece di investire un sacco di soldi senza avere la prospettiva di ritorno dell'investimento.
in teoria una via di mezzo sarebbe la cosa più sensata e forse è anche ciò che ha fatto AMD visto che non aveva mezzi finanziari della madonna per supportare un R&D senza avere prospettive concrete.

Penso che se nel frattempo, silicio o no, si hanno i soldi per progettare qualcosa di nuovo e soprattutto ben fatto è bene farlo. Poi quando c'è il silicio buono ok se non c'è ci si arrangia con quello cattivo, ma almeno l'architettura potrà dire la sua. Con BD si è arrivati con architettura progettata in modo poco attenta (ipc bassissimo, cache lentissime e cmt non proprio ben sfruttato, in aggiunta al silicio schifosissimo. Sfortuna delle sfortune.

Piedone1113
15-07-2016, 12:07
Penso che se nel frattempo, silicio o no, si hanno i soldi per progettare qualcosa di nuovo e soprattutto ben fatto è bene farlo. Poi quando c'è il silicio buono ok se non c'è ci si arrangia con quello cattivo, ma almeno l'architettura potrà dire la sua. Con BD si è arrivati con architettura progettata in modo poco attenta (ipc bassissimo, cache lentissime e cmt non proprio ben sfruttato, in aggiunta al silicio schifosissimo. Sfortuna delle sfortune.

Credo che i progetti tengono conto di diversi fattori.
Quello del silicio è uno:
Previsioni delle capacità del silicio entro un min max. Adattamento del progetto in modo da poter modificare timing, latenze e tensione di soglia dei transistor.
Dopodicchè con silicio pronto si trovano i migliori compromessi (sempre da specifiche di progetto) e quindi se per esempio la cache l1 è progettata per avere latenze tra x ed x+1 si usa il miglior rapporto tra efficenza e rapporto di scarto, ma se si è fuori dal range bisogna rivedere in profondità l'architettura (se si hanno risorse a disposizione), oppure metterci una pezza.
Questo vale anche se il silicio è migliore di quanto preventivato arrivando a non sfruttarlo pienamente.

paolo.oliva2
15-07-2016, 12:30
Naturalmente sono nessuno per dire cose di cui non ho mai visto ne sentito di persona ma... un bel grosso ma ce lo metto ...Keller è tornato in amd nel 2012, nemmeno un anno dal debutto di BD e della calciorotazione di Meyer.

Penso sia stata AMD a chiamarlo ma magari anche no.
Che sia stata AMD a chiamarlo non ho dubbi, ma molto dipende dal tipo di contratto che ha Keller.

Fatto sta che Keller serviva prima di tutto per dirigere un team in fase di progettazione, non è che appena un silicio risulta idoneo in azienda si impegnano a cercare ingegneri... per aspettare poi quanto con la fase di progettazione prima e quella di testing sul silicio poi?? Anni e perdere l'occasione di piazzare subito un buon prodotto su silicio adeguato?
avere invece pronti svariati progetti quando il silicio è idoneo è molto più conveniente.

Io sinceramente non so quanto prende Keller, se a mo di stipendio fisso a mese o un contratto a progetto o un insieme a percentuale a procio sulle vendite, ma la situazione potrebbe essere simile alla F1, dove un pilota investe la sua faccia ma contribuisce anche allo sviluppo dell'insieme, ma è ovvio che uno degli ultimi team non si può permettere un pilota da 120 milioni di € l'anno, come pure il pilota non perde anni preziosi e la faccia senza determinate garanzie.

Comunque la situazione di AMD e silicio (32nm SOI) è stata a dir poco imbarazzante, perchè di fatto AMD è rimasta sull'architettura PD sia sul desktop che come Opteron e di qui tutto il settore server... e se ti ricordi allora si diceva che AMD voleva lasciare il settore server e high-desktop, cosa palesemente non vera, visto che con Zen ripartirebbe in pompa magna, ma ovviamente il settore High-Desktop come ancor più quello server, richiedono efficienza come max numero d core in X TDP e max frequenza e numero di core nel desktop, cosa che ovviamente un silicio di 2-3 nodi addietro NON può assolutamente dare.

Keller secondo me è stato chiamato da AMD nel momento in cui AMD aveva ricevuto garanzie da GF/Samsung/Consorzio che le aspettative di un nuovo silicio erano concrete, come pure le aspettative. Di qui hai ragione a dire che probabilmente AMD/Keller si sono mossi in anticipo, ma in anticipo non vuole dire prima del silicio finale ma in contemporanea o immediatamente dopo alla fattibilità del nodo.
Per farti un esempio, IBM ha già realizzato il transistor sul 9nm da più di 1 anno, ma questo non vuole dire che è pronta a produrlo. Idem AMD 2-3 anni fa sapeva che il dopo 28nm Bulk ci sarebbe stato, ma ancora non sapeva se 22nm, 16nm e di che tipo... però era già sufficiente come garanzia di investire su Keller da una parte e Keller comunque poteva lavorare con un margine di garanzia superiore a 1,2 milioni di transistor per 125W.

paolo.oliva2
15-07-2016, 12:56
Credo che i progetti tengono conto di diversi fattori.
Quello del silicio è uno:
Previsioni delle capacità del silicio entro un min max. Adattamento del progetto in modo da poter modificare timing, latenze e tensione di soglia dei transistor.
Dopodicchè con silicio pronto si trovano i migliori compromessi (sempre da specifiche di progetto) e quindi se per esempio la cache l1 è progettata per avere latenze tra x ed x+1 si usa il miglior rapporto tra efficenza e rapporto di scarto, ma se si è fuori dal range bisogna rivedere in profondità l'architettura (se si hanno risorse a disposizione), oppure metterci una pezza.
Questo vale anche se il silicio è migliore di quanto preventivato arrivando a non sfruttarlo pienamente.

quoto... per me BD era stato creato in modo molto economico perchè AMD/GF erano stra-convinte che nel passaggio dal 45nm SOI liscio o al max ULK al 32nm SOI HKMG ULK avrebbero guadagnato un totale sia in termini di frequenza che TDP/frequenza e grazie all'FO4 17 avrebbero ottenuto prestazioni con la frequenza, risparmiando un totale di soldi rispetto ad aumentare l'IPC (cosa che vediamo in Zen, perchè a parte l'SMT e la sua logica/progettazione, ci sono interventi non da poco quali cache ben più veloci ed inclusive, l'aggiunta di L0, le HBM/HBM2 nella versione APU, tutta una sfliza di features per ottimizzare i consumi, presenti in XV ma assolutamente assenti (solo l'RCM) in PD, figuriamoci in Zambesi).

Mi sembra ovvio (almeno lo credo io) che se AMD avesse saputo in anticipo che per 5GHz non sarebbero bastati 95/125W ma 220W (9590), avrebbero speso per aumentare l'IPC in BD. Notare che oggi noi confrontiamo PD a Broadwell, ma un PD con +7% di IPC rispetto a Zambesi unito a +11,11% di frequenza def, ALLORA, vs 2600K, sarebbe già stato competitivo.... rimane il fatto che XV sul 32nm SOI non so se poteva permettere un X8 4GHz.

P.S.
La soluzione migliore, dal punto di vista sviluppo e produzione, e la tecnica Intel, Tick Tock. Nuova architettura su silicio di cui si conosce tutto (limiti) e a nuovo silicio stampo architettura (vecchia) conosciuta. Ma Intel ha dalla sua le FAB di proprietà, soldi per sviluppo e praticamente illimitati per raggiungere affinamento/PP desiderato, per sfruttare le caratteristiche dell'architettura dei suoi proci praticamente al 100%.

paolo.oliva2
15-07-2016, 14:15
Forse c'è un'altra spiegazione al Vcore alto della RX 480.
I chip migliori per una RX 490?
http://ocaholic.ch/modules/news/article.php?storyid=15073
e
http://ocaholic.ch/modules/news/article.php?storyid=15018

Zen APU X4
http://www.christiantoday.com/article/amd.zen.apu.release.date.first.zen.based.apu.to.arrive.in.2017/90516.htm

John Taylor, numero uno del Worldwide Marketing di AMD - "Zen competerà con Intel sulle prestazioni, sull'efficienza energetica e sulle specifiche tecniche - non solo sul prezzo".
http://tech.everyeye.it/articoli/speciale-amd-zen-summit-ridge-sfida-ad-intel-30206.html

https://www.youtube.com/watch?v=BXVGUUV4wXc
AMD Presentation (RX 480, 470 and 460 + APUs) in Korea

tuttodigitale
15-07-2016, 14:18
I soldi non sono né l'unico parametro né sono determinanti per lo sviluppo di un progetto.
a maggior ragione AMD può fare meglio con uno sforzo economico di gran lunga inferiore.


E di cosa? Quel link non l'ho certo portato per caso. :sborone:

AMD non è Apple, e credo che anche la casa di Cupertino ne sia consapevole.


Al momento è Apple che ha dimostrato di fare meglio di tutte le aziende che da anni competono in ambito ARM, e che sono di qualche ordine di grandezza più grandi di AMD.

Apple ha acquisito PASemi nel 2008 e la sua prima architettura custom è apparsa in un dispositivo commerciale nel settembre del 2012...
AMD ha acquisito la licenza ARM nel 2012 e venderà k12 nel 2017.

Vedi che la stai mettendo di nuovo, sul piano economico....


O che le risorse non erano sufficienti per portare avanti entrambi i progetti. :O

in che senso? Hanno semplicemente scambiato le priorità.

Secondo me Keller é ritornato nel momento in cui si prospettava per AMD la disponibilità di un nuovo silicio, prima era perfettamente inutile, perché l"efficienza architetturale (accorpando Keller ad un miglioramento prestazioni/consumo), qualsiasi sia, non può nulla rispetto a 2 o più nodi di differenza. Viceversa, il risparmio di Watt a die a parità di transistor nel passaggio dal 28nm al 14nm è enorme (praticamente un raddoppio dei core e più a parità di Watt) ed ancor più rispetto al 32nm SOI.

di certo non avrebbero potuto fare un 8 core interi con quel ipc sul SOI a 32nm... alcune idee sono state brevettate prima che keller facesse ritorno in AMD, tipo quello sulla cache uop, e probabilmente anche l'idea del checkpoint, ammesso che non sia un sistema RAS, , risale al 2009. :O
Non è detto che excavator inizialmente doveva essere così come lo conosciamo oggi, o avere alcune caratteristiche che debutteranno con ZEN.

Dando un occhiata alla concorrenza, la prossima architettura, stando ai rumors sarà molto più simile a skylake rispetto a quanto era stata preventivata sui 10nm...

tuttodigitale
15-07-2016, 14:35
quoto... per me BD era stato creato in modo molto economico perchè AMD/GF erano stra-convinte che nel passaggio dal 45nm SOI liscio o al max ULK al 32nm SOI HKMG ULK avrebbero guadagnato un totale sia in termini di frequenza che TDP/frequenza e grazie all'FO4 17 avrebbero ottenuto prestazioni con la frequenza, risparmiando un totale di soldi rispetto ad aumentare l'IPC (cosa che vediamo in Zen, perchè a parte l'SMT e la sua logica/progettazione, ci sono interventi non da poco quali cache ben più veloci ed inclusive, l'aggiunta di L0, le HBM/HBM2 nella versione APU, tutta una sfliza di features per ottimizzare i consumi, presenti in XV ma assolutamente assenti (solo l'RCM) in PD, figuriamoci in Zambesi).
Non sono per nulla d'accordo....aumentare l'ipc sono capaci tutti...la difficoltà è nel contenere il livello di complessità.
Credo che ZEN, costato solo 40-50 milioni di dollari l'anno, farà tesoro dei TANTI soldi spesi in quegli anni da AMD nel sviluppare bulldozer.

PS secondo bitsandchips, Apple avrebbe investito solo 30-35 milioni di dollari l'anno per lo sviluppo dei suoi SoC...quindi AMD avrebbe investito più capitali di Apple, a netto dell'acquisizione di PASemi

http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6276-lo-sviluppo-del-core-zen-e-costato-ad-amd-circa-40-50-mln-di-dollari-l-anno

plainsong
15-07-2016, 15:08
Una notizia che personalmente acquisisce una rilevanza diversa dopo aver visto le proiezioni in termini di performance del core Vulcan di Broadcom, è quella del reclutamento da parte di AMD di Nazar Zaidi come successore di Keller nel ruolo di chief architect.

Del resto scrivevano appena qualche mese fa su extremetech (http://www.extremetech.com/computing/225564-amd-appoints-former-broadcom-intel-engineer-to-head-cpu-development): "Nazar Zaidi was formerly a VP of engineering at Broadcom and worked on that company’s custom ARMv8 processor, dubbed Project Vulcan. That project appears to have quietly come to an end after Broadcom was acquired by Avago a year ago — at the very least, there’s been no significant news for nearly a year."
Sarebbe in effetti interessante capire se e quando questa architettura sarà commercializzata.

Piedone1113
15-07-2016, 15:16
quoto... per me BD era stato creato in modo molto economico perchè AMD/GF erano stra-convinte che nel passaggio dal 45nm SOI liscio o al max ULK al 32nm SOI HKMG ULK avrebbero guadagnato un totale sia in termini di frequenza che TDP/frequenza e grazie all'FO4 17 avrebbero ottenuto prestazioni con la frequenza, risparmiando un totale di soldi rispetto ad aumentare l'IPC (cosa che vediamo in Zen, perchè a parte l'SMT e la sua logica/progettazione, ci sono interventi non da poco quali cache ben più veloci ed inclusive, l'aggiunta di L0, le HBM/HBM2 nella versione APU, tutta una sfliza di features per ottimizzare i consumi, presenti in XV ma assolutamente assenti (solo l'RCM) in PD, figuriamoci in Zambesi).

Mi sembra ovvio (almeno lo credo io) che se AMD avesse saputo in anticipo che per 5GHz non sarebbero bastati 95/125W ma 220W (9590), avrebbero speso per aumentare l'IPC in BD. Notare che oggi noi confrontiamo PD a Broadwell, ma un PD con +7% di IPC rispetto a Zambesi unito a +11,11% di frequenza def, ALLORA, vs 2600K, sarebbe già stato competitivo.... rimane il fatto che XV sul 32nm SOI non so se poteva permettere un X8 4GHz.

P.S.
La soluzione migliore, dal punto di vista sviluppo e produzione, e la tecnica Intel, Tick Tock. Nuova architettura su silicio di cui si conosce tutto (limiti) e a nuovo silicio stampo architettura (vecchia) conosciuta. Ma Intel ha dalla sua le FAB di proprietà, soldi per sviluppo e praticamente illimitati per raggiungere affinamento/PP desiderato, per sfruttare le caratteristiche dell'architettura dei suoi proci praticamente al 100%.

Secondo me invece AMD avrebbe scelto quell'opzione per risparmiare tempo sulla progettazione di BD1 allineandosi alle prestazioni di Intel (125w 5ghz), per poi mettere mano di anno in anno ad affinamenti vari per un aumento di ipc tra il 5 ed il 10% annuo per portare avanti in parallelo lo sviluppo delle Apu.
semplicemente hanno cannato le previsioni del silicio alla grande (non dimentichiamoci che bd1 sotto no2 murava a oltre 8ghz segno che hanno dovuto rilassare e di molto l'aggressività della cache e dell'mmc e solo con bd 2 hanno ottimizzato meglio il processore al silicio guadagnando frequenza ed ipc ma facendo murare prima la cpu segno di timing interni più aggressivi e maggiormenti ottimizzati per quel silicio).
Insomma la colpa non è solo del silicio, ma anche del progetto in se che non si amalgama al materiale disponibile (non puoi pensare di fare un David con un martello pneumatico, invece sarebbe possibilissimo farci una sfinge e molto meglio che con gli attrezzi idonei per il David)

paolo.oliva2
15-07-2016, 15:17
Non sono per nulla d'accordo....aumentare l'ipc sono capaci tutti...la difficoltà è nel contenere il livello di complessità.
Credo che ZEN, costato solo 40-50 milioni di dollari l'anno, farà tesoro dei TANTI soldi spesi in quegli anni da AMD nel sviluppare bulldozer.

Aspetta, cerco di spiegarmi meglio.

BD non ha variato granchè nella velocità delle cache, ha integrato il CMT aumentando un po' la complessità, ma comunque il passaggio da Thuban a BD non è che sia stato dispendioso, nel senso a 360°. AMD arrivando a XV sicuramente ha implementato tutta una serie di features (RCM, alimentazione ad isola, le librerie ad alta densità e quant'altro) che comunque sono state forzate per sopperire al silicio, in Zambesi non c'era assolutamente nulla.

AMD con Zen è forzata ad aumentare l'IPC semplicemente perchè l'architettura SMT lo esige, altrimenti faresti un cesso... ma non concordo che aumentare l'IPC costi poco, perchè a parte la complessità architetturale, devi comunque aumentare le performances generali, a partire dall'MC e via via alle cache sino ad arrivare ai core, perchè se giochi sulla frequenza, aumenti i cicli nella stessa unità di tempo, quindi la velocità la puoi ottenere anche con una cache lenta semplicemente perchè va ad un X% di frequenza in più, i canali anche se lenti il transfer lo raggiungono perchè sale la frequenza (a mo di una DDR3 1333 che la occhi a 2000, esempio), ma se giochi sull'IPC, e a clock invariato, i core ti macinano e richiedono più banda I/O che gliela devi dare, altrimenti sarebbe come non fare nulla.

Io tra BD e Phenom II non vedo nulla, a livello di frequenza NB (si parlava di 3GHz, invece ci si è fermati a 200MHz in più del Phenom II, ma in OC meno),le cache in latenza e velocità sono le stesse, l'MC il medesimo.... Zen stravolge tutto... quello che mi è difficile da inquadrare è se effettivamente c'era bisogno di Zen o se un XV con tutto il po' po' di implementazioni di Zen già avrebbe ottenuto almeno un +20% di IPC con tutto il conseguente vantaggio in MT del CMT vs SMT.

Quello che mi è difficile da capire, è che il vero punto debole di BD è stata la potenza ST... ma immagina un XV con +15% di IPC, steccato sul 32nm SOI, con il preciso compito di competere con gli X4+4 Intel (quindi realizzare un X4 CMT stile 9590 nel limite dei 95W/125W), con frequenze tirate e idem turbo, certo non potrà avere un MT alla 6700K, ma l'intento iniziale, mdulo CMT vs core + SMT, sarebbe centrato. Poi mi pare più che ovvio che in MT il 32nm SOI non può permettere un numero di moduli quanti Intel, con il 14nm, li può steccare in 90/140W.... ma è ovvio che in questo SMT/CMT non c'entri una mazza.

Piedone1113
15-07-2016, 16:35
Quello che mi è difficile da capire, è che il vero punto debole di BD è stata la potenza ST... ma immagina un XV con +15% di IPC, steccato sul 32nm SOI, con il preciso compito di competere con gli X4+4 Intel (quindi realizzare un X4 CMT stile 9590 nel limite dei 95W/125W), con frequenze tirate e idem turbo, certo non potrà avere un MT alla 6700K, ma l'intento iniziale, mdulo CMT vs core + SMT, sarebbe centrato. Poi mi pare più che ovvio che in MT il 32nm SOI non può permettere un numero di moduli quanti Intel, con il 14nm, li può steccare in 90/140W.... ma è ovvio che in questo SMT/CMT non c'entri una mazza.

Paolo Amd non voleva competere con x4+4 di Intel, ma con X6 + 6HT

Se ricordi AMD dichiarava che a fronte di una superfice maggiore del 30% in più rispetto ad un core con ht ci sarebbero state prestazioni del 50% maggiori:

HT
100 +20 ht ipc, su 120u x6 core = 720 ipc su 720u (per u intendo superfice occupata)

CMT
120+60 ipc, su 156u x4 moduli = 720 ipc su 624u
Questo per il multith,
Ma gia dall'inizio si sapeva da quanto detto da AMD in st la situazione sarebbe stata
ipc intel = 100
ipc AMD = 80/85

Secondo il tuo ragionamente invece AMD avrebbe usato un die più grande per avere ipc mt uguale ad un 4+4 intel con un ipc st inferiore del 30% circa?
Sarebbe da internamento coatto e forzato per chiunque volesse intraprendere un attività commerciale con questi presupposti.

george_p
15-07-2016, 17:23
Paolo Amd non voleva competere con x4+4 di Intel, ma con X6 + 6HT

Se ricordi AMD dichiarava che a fronte di una superfice maggiore del 30% in più rispetto ad un core con ht ci sarebbero state prestazioni del 50% maggiori:

HT
100 +20 ht ipc, su 120u x6 core = 720 ipc su 720u (per u intendo superfice occupata)

CMT
120+60 ipc, su 156u x4 moduli = 720 ipc su 624u
Questo per il multith,
Ma gia dall'inizio si sapeva da quanto detto da AMD in st la situazione sarebbe stata
ipc intel = 100
ipc AMD = 80/85

Secondo il tuo ragionamente invece AMD avrebbe usato un die più grande per avere ipc mt uguale ad un 4+4 intel con un ipc st inferiore del 30% circa?
Sarebbe da internamento coatto e forzato per chiunque volesse intraprendere un attività commerciale con questi presupposti.

Si, probabilmente le intenzioni sarebbero state proprio quelle su descritte ma il risultato finale concreto è stato proprio ottenere gli stessi risultati in MT e un risultato in ST ben inferiore, e questo sia rispetto a intel sia rispetto alla sua precedente architettura X6.

Anche non essere in grado di prevedere una possibilità di silicio inefficiente per progettare una architettura che, entro certi limiti, sia indipendente il più possibile dal materiale su cui verrà realizzata è da internamento, e i risultati sono li a dircelo da ben 5 anni.

Piedone1113
15-07-2016, 17:47
Anche non essere in grado di prevedere una possibilità di silicio inefficiente per progettare una architettura che, entro certi limiti, sia indipendente il più possibile dal materiale su cui verrà realizzata è da internamento, e i risultati sono li a dircelo da ben 5 anni.

Non so le loro aspettative sul silicio, ma un'architettura che mura per limiti propri quasi al doppio della sua frequenza operativa può solo significare che è stata rilassata e di molto.
Secondo la mia opinione bd avrebbe dovuto girare nelle intenzioni dei progettisti a 4,8 def (95w) con turbo 5,2 e murare a causa dei timing intorno ai 6,4/6.5.
Tutto questo avrebbe dovuto tradursi in un +6% ipc multi th ed un +10% ips single th.
Purtroppo le correnti di switch preventivate sono state disattese ed alla grande (credo con un +50% sul preventivato) costringendo a rilassare i timing ed abbassare la frequenza per ritrovarsi con una cpu che praticamente ha perso anche nei confronti delle vecchie generazioni.

C'è qualcosa nel soi che non ha funzionato a dovere, probabilmente un effetto collaterale sui 32nm del tutto inaspettato come peso e ha demolito un'intera famiglia di cpu (AMD c'è con i tempi dato che teoricamente ogni nuova famiglia di cpu dura tra i 4 e i 6 anni, ma ottimizzare un'architettura di fatto da cestinare per limiti fisici del silicio è suicidiarsi col gas dopo essersi impiccati).
Non credo che BD su silicio Intel avrebbe fatto meglio, forse avrebbe guadagnato + 200 mhz o un + 5% di ipc, ma non sarebbe mai stata una cpu da server efficente (il vero mercato al quale era interessata AMD).
In fondo bd era stata ideata per sfruttare i punti di forza del soi rispetto al bulk intel e paradossalmente potrebbe risultare che bd su silicio intel sarebbe stato una ciofeca ancora peggiore.
come mettere un motore di fuoristrada su una ferrari o viceversa.

bjt2
15-07-2016, 18:05
Se il SOI fa schifo, allora il 28nm fa ancora più schifo... E' uscita, mi pare su semiaccurate, una estesa review sull'athlon x4 845, confrontato con le varie APU AMD a partire da quella 32nm SOI... A guardare le frequenze massime, si è avuta una regressione...

paolo.oliva2
15-07-2016, 18:13
Paolo Amd non voleva competere con x4+4 di Intel, ma con X6 + 6HT

Se ricordi AMD dichiarava che a fronte di una superfice maggiore del 30% in più rispetto ad un core con ht ci sarebbero state prestazioni del 50% maggiori:

HT
100 +20 ht ipc, su 120u x6 core = 720 ipc su 720u (per u intendo superfice occupata)

CMT
120+60 ipc, su 156u x4 moduli = 720 ipc su 624u
Questo per il multith,
Ma gia dall'inizio si sapeva da quanto detto da AMD in st la situazione sarebbe stata
ipc intel = 100
ipc AMD = 80/85

Secondo il tuo ragionamente invece AMD avrebbe usato un die più grande per avere ipc mt uguale ad un 4+4 intel con un ipc st inferiore del 30% circa?
Sarebbe da internamento coatto e forzato per chiunque volesse intraprendere un attività commerciale con questi presupposti.

Il mio discorso era diverso... mi sono spiegato male. Anzichè realizzare un PD X8 di 320mm2, ed essere impossibilitato a realizzare un XV X8 per prb di TDP, per me sarebbe stato meglio realizzare un XV X6 che con circa +20% di potenza MT avrebbe pressochè uguagliato l'MT di un 8350, ma nel contempo, sfruttando appieno il TDP, aumentare la frequenza turbo e grazie anche all'aumento IPC di XV su PD, offrire una potenza ST di gran lunga superiore a PD (ed il die risulterebbe più piccolo di un 8350 320mm2).
Poi, per fronteggiare gli X2+2 Intel, i BR sul 28nm si comportano bene, ma hanno comunque 3,7GHz def e 4,3GHz turbo... sul 32nm SOI, un 2 moduli progettato nativamente credo che almeno 4,2GHz def e 4,5GHz turbo sarebbe stato alla portata... poi è ovvio che AMD ha preferito ancorarsi in attesa del 14nm + Zen, però sarei dell'idea che AMD aveva preventivato 2-3 anni di stop, se all'epoca avesse saputo di 5 o 6 di stop, onestamente credo avrebbe optato per un BD XV tarato per il 32nm SOI.

tuttodigitale
15-07-2016, 18:18
anandtech ha testato Carrizo desktop.
http://www.anandtech.com/show/10436/amd-carrizo-tested-generational-deep-dive-athlon-x4-845

paolo.oliva2
15-07-2016, 18:40
Se il SOI fa schifo, allora il 28nm fa ancora più schifo... E' uscita, mi pare su semiaccurate, una estesa review sull'athlon x4 845, confrontato con le varie APU AMD a partire da quella 32nm SOI... A guardare le frequenze massime, si è avuta una regressione...

Di sicuro XV è efficiente sul 28nm Bulk solamente per la miriade di features che AMD ha implementato per ridurre il TDP ed aumentare le frequenze... e di certo i 4,3GHz massimi li raggiunge unicamente per l'FO4 di BD, non certo perchè il 28nm Bulk GF risulti meglio del 14nm Intel (4,2GHz Turbo di un 6700K).

Onestamente travasando tutte le features implementate sul 28nm Bulk GF sul nuovo 14nm FinFet, le aspettative si fanno mostruose (vedi Zen X32+32 addirittura in 55W), l'incognita rimane solamente quella di quale frequenza massima permetterà il 14nm, perchè è poi su quella che si avranno le massime prestazioni nel desktop.

Oggi è ancora tutto troppo nebuloso... sono ok le info di un Zen simile ad un 5960X, ma non dimentichiamoci che un 5960X/6850K si può occare di un 30%. Per stare tranquilli Zen dovrebbe uguagliare un 5960X/6850K a 3,1/3,3GHz, non di più, per concedere lo stesso margine di OC. Zen potrebbe pure avere 3,7GHz def in 95W, ma dubito che consentirebbe un OC del 30% quanto gli Intel., perchè dovrebbe salire >+1,1GHz...

tuttodigitale
15-07-2016, 18:46
Se il SOI fa schifo, allora il 28nm fa ancora più schifo... E' uscita, mi pare su semiaccurate, una estesa review sull'athlon x4 845, confrontato con le varie APU AMD a partire da quella 32nm SOI... A guardare le frequenze massime, si è avuta una regressione...
fanno entrambi piuttosto schifo...hai visto i vcore assurdi di kaveri/Carrizo?
http://images.anandtech.com/doci/10436/AMD%20Athlon%20X4%20845.png

http://images.anandtech.com/doci/10436/AMD%20Athlon%20X4%20860K.png

http://images.anandtech.com/doci/10436/AMD%20Athlon%20X4%20760K.png

bjt2
15-07-2016, 18:51
E' perchè siamo al limite del processo... Comunque è indicativo quello che diceva Paolo sulla FMAX di XV sul 28nm e di SKL sul 14nm INTEL...
Se dovessimo basarci solo sulle frequenze, diremmo che il 14nm INTEL fa schifo! :D

tuttodigitale
15-07-2016, 19:12
Non credo che BD su silicio Intel avrebbe fatto meglio, forse avrebbe guadagnato + 200 mhz o un + 5% di ipc, ma non sarebbe mai stata una cpu da server efficente (il vero mercato al quale era interessata AMD).
e perchè mai no? Sulla carta un modulo BD consuma meno di un core SB, e la differenza è tanto maggiore quanto più si viaggia nelle prossimità dei 3GHz. Secondo me a torto si sta sottovalutando questa sfortunata creatura.

george_p
15-07-2016, 21:10
Non so le loro aspettative sul silicio, ma un'architettura che mura per limiti propri quasi al doppio della sua frequenza operativa può solo significare che è stata rilassata e di molto.
Secondo la mia opinione bd avrebbe dovuto girare nelle intenzioni dei progettisti a 4,8 def (95w) con turbo 5,2 e murare a causa dei timing intorno ai 6,4/6.5.
Tutto questo avrebbe dovuto tradursi in un +6% ipc multi th ed un +10% ips single th.
Purtroppo le correnti di switch preventivate sono state disattese ed alla grande (credo con un +50% sul preventivato) costringendo a rilassare i timing ed abbassare la frequenza per ritrovarsi con una cpu che praticamente ha perso anche nei confronti delle vecchie generazioni.

C'è qualcosa nel soi che non ha funzionato a dovere, probabilmente un effetto collaterale sui 32nm del tutto inaspettato come peso e ha demolito un'intera famiglia di cpu (AMD c'è con i tempi dato che teoricamente ogni nuova famiglia di cpu dura tra i 4 e i 6 anni, ma ottimizzare un'architettura di fatto da cestinare per limiti fisici del silicio è suicidiarsi col gas dopo essersi impiccati).
Non credo che BD su silicio Intel avrebbe fatto meglio, forse avrebbe guadagnato + 200 mhz o un + 5% di ipc, ma non sarebbe mai stata una cpu da server efficente (il vero mercato al quale era interessata AMD).
In fondo bd era stata ideata per sfruttare i punti di forza del soi rispetto al bulk intel e paradossalmente potrebbe risultare che bd su silicio intel sarebbe stato una ciofeca ancora peggiore.
come mettere un motore di fuoristrada su una ferrari o viceversa.

Non capisco molto la frase, o è una tua opinione o erano le intenzioni dei progettisti.

In ogni caso di tutto questo per BD se ne è già parlato anni fa sul thread dedicato.

E' risaputo che BD sia stato creato per viaggiare con frequenze elevate, aveva un basso ipc che doveva venir compensato proprio dalle alte frequenze. Ma purtroppo per via del silicio penoso di gf ciò non è mai avvenuto, e solo per riuscire a sollevare la frequenza del 10% circa in PD amd ha inserito il RCM, altrimenti nel soi quella architettura sarebbe nata e morta a 3.6 GHz e limitato al minimo TDP di 125 W.

Per quanto riguarda il discorso BD su silicio intel... non so, in parte penso fosse possibile un risultato migliore ma visto che il bulk non offre possibilità di frequenze molto elevate
, oggi col senno di poi, sarei portato a dire che proprio per la natura di BD più di PD non avrebbe potuto fare molto probabilmente.
Penso però che il migliore silicio intel avrebbe offerto consumi un pò più ridotti.

Ma queste, da ignorante in materia quale sono, sono solo mie personali speculazioni, e valgono praticamente zero.

cdimauro
16-07-2016, 06:40
a maggior ragione AMD può fare meglio con uno sforzo economico di gran lunga inferiore.
Se ha le giuste risorse/idee, sì.
AMD non è Apple, e credo che anche la casa di Cupertino ne sia consapevole.
In che senso?
Apple ha acquisito PASemi nel 2008 e la sua prima architettura custom è apparsa in un dispositivo commerciale nel settembre del 2012...
AMD ha acquisito la licenza ARM nel 2012 e venderà k12 nel 2017.
Quindi?
Vedi che la stai mettendo di nuovo, sul piano economico....
Guarda che era proprio per dire che Apple è arrivata zitta zitta dove per anni altri colossi sviluppavano (micro)architetture ARM, e ha scodellato la migliore in assoluto.

"tutte le altre aziende" = Qualcomm, Samsung, Broadcomm, ecc.

"sono di qualche ordine di grandezza più grandi di AMD" = sempre le stesse aziende
in che senso? Hanno semplicemente scambiato le priorità.
Tempo fa erano circolate delle voci le quali affermavano che AMD, a causa dell'impegno sulle console, avesse dovuto spostare parte degli ingegneri dai progetti Zen e K12, ritardandoli.

Siccome adesso stanno lavorando anche alle versioni potenziate delle console, che arriveranno il prossimo anno, e a cui si aggiungerà anche la nuova NX di Nintendo, può essere che sia successo la stessa cosa.
di certo non avrebbero potuto fare un 8 core interi con quel ipc sul SOI a 32nm... alcune idee sono state brevettate prima che keller facesse ritorno in AMD,
Che non sarà tornato certo a caso: è stato dopo il fallimento di Bulldozer, che a sua volta era stato preceduto da K10 (che non era fallimentare, ma diciamo che ha avuto non pochi problemi, e non era abbastanza competitivo).

Probabilmente la dirigenza di AMD ha voluto mettere una pietra sopra e ricominciare puntando sul sicuro.

Non c'entra nulla il processo produttivo.
tipo quello sulla cache uop, e probabilmente anche l'idea del checkpoint, ammesso che non sia un sistema RAS, , risale al 2009. :O
Dalle informazioni che hai riportato prima, dev'essere proprio un sistema RAS.

Comunque è normale che sia così: non è che perché mancasse Keller le nuove idee si fossero fermate. Keller serviva per organizzare una nuova, competitiva architettura.
Dando un occhiata alla concorrenza, la prossima architettura, stando ai rumors sarà molto più simile a skylake rispetto a quanto era stata preventivata sui 10nm...
Non sono rumors: è ufficiale che Intel abbia introdotto un nuovo tipo di ciclo. Non più tick-tock, ma al tock segue un prodotto "ottimizzato" (basato sul tock, ovviamente, e con lo stesso processo produttivo).

Dunque Cannonlake, che sarebbe dovuto essere il tick a seguire di Skylake, è stato posticipato per dare spazio a Kaby Lake, che è un'ottimizzazione di quest'ultimo.
Non sono per nulla d'accordo....aumentare l'ipc sono capaci tutti...la difficoltà è nel contenere il livello di complessità.
Credo che ZEN, costato solo 40-50 milioni di dollari l'anno, farà tesoro dei TANTI soldi spesi in quegli anni da AMD nel sviluppare bulldozer.
Assolutamente d'accordo.
PS secondo bitsandchips, Apple avrebbe investito solo 30-35 milioni di dollari l'anno per lo sviluppo dei suoi SoC...quindi AMD avrebbe investito più capitali di Apple, a netto dell'acquisizione di PASemi

http://www.bitsandchips.it/informativa-sull-uso-dei-cookie/9-hardware/6276-lo-sviluppo-del-core-zen-e-costato-ad-amd-circa-40-50-mln-di-dollari-l-anno
PASemi non sarà costata certo poco ad Apple, anche se non se ne conoscono i termini. Ricordiamo che quest'azienda aveva anche dei contratti coi militari, che devono essere onorati per almeno 20 anni.

Inoltre Apple acquisì anche Intrinsity, che era un'azienda specializzata nell'ottimizzazione dei circuiti (per renderli più veloci e/o consumare di meno).
Se il SOI fa schifo, allora il 28nm fa ancora più schifo... E' uscita, mi pare su semiaccurate, una estesa review sull'athlon x4 845, confrontato con le varie APU AMD a partire da quella 32nm SOI... A guardare le frequenze massime, si è avuta una regressione...
Come vedi non sta scritto da nessuna parte che un nuovo processo produttivo debba necessariamente portare dei vantaggi in termini di frequenze massime raggiungibili. ;)
E' perchè siamo al limite del processo... Comunque è indicativo quello che diceva Paolo sulla FMAX di XV sul 28nm e di SKL sul 14nm INTEL...
Se dovessimo basarci solo sulle frequenze, diremmo che il 14nm INTEL fa schifo! :D
L'obiettivo principale coi processi produttivi è la riduzione del CPI (Cost Per Transistor). Il resto è grasso che cola.

Riguardo a Bulldozer & compagnia, AMD ha puntato tutto sulle frequenze elevate, con architettura dal basso IPC. Si vede che la batosta che prese Intel col Pentium 4 se l'erano già dimenticata...

bjt2
16-07-2016, 07:48
Riguardo a Bulldozer & compagnia, AMD ha puntato tutto sulle frequenze elevate, con architettura dal basso IPC. Si vede che la batosta che prese Intel col Pentium 4 se l'erano già dimenticata...

Loro si sono sempre bullati del fatto che il SOI, a parità di miniaturizzazione, avesse un leakage 10-20 volte di meno di un processo bulk, a parità di Vcore e temperatura... Quindi pensavano di non incappare nel problema del P4... E poi hanno usato un FO4 di 17, ottimale secondo i paper IBM, e non 13 come il P4... Semplicemente hanno semplificato troppo il core: se mettevano 4 ALU e passavano ad una cache inclusiva e magari una L2 separata per core, viste le enormi dimensioni, penso che un 20% in più di IPC non glielo toglieva nessuno... Su semiaccurate c'è un tizio che afferma che è la L2 il collo di bottiglia sia per le prestazioni pure che per salire in frequenza: poi una L2 che serve 2 core deve avere un numero di porte sufficiente, vista la L1 microscopica (16 e poi 32kb)...

Piedone1113
16-07-2016, 08:45
Non capisco molto la frase, o è una tua opinione o erano le intenzioni dei progettisti.

In ogni caso di tutto questo per BD se ne è già parlato anni fa sul thread dedicato.

E' risaputo che BD sia stato creato per viaggiare con frequenze elevate, aveva un basso ipc che doveva venir compensato proprio dalle alte frequenze. Ma purtroppo per via del silicio penoso di gf ciò non è mai avvenuto, e solo per riuscire a sollevare la frequenza del 10% circa in PD amd ha inserito il RCM, altrimenti nel soi quella architettura sarebbe nata e morta a 3.6 GHz e limitato al minimo TDP di 125 W.

Per quanto riguarda il discorso BD su silicio intel... non so, in parte penso fosse possibile un risultato migliore ma visto che il bulk non offre possibilità di frequenze molto elevate
, oggi col senno di poi, sarei portato a dire che proprio per la natura di BD più di PD non avrebbe potuto fare molto probabilmente.
Penso però che il migliore silicio intel avrebbe offerto consumi un pò più ridotti.

Ma queste, da ignorante in materia quale sono, sono solo mie personali speculazioni, e valgono praticamente zero.

faccio un esempio alla carlona:
Prevedo uno switch dei transistor della L2 che varia da 4 a 8 ns con 1.1v
Considero la L2 come la parte più limitante dell'architettura nel salire di freq e imposto tutto il resto su tale limite.
In fase di testing mi accorgo del fatto che i transistor della L2 impiegano 16ns per cambiare stato e che per arrivare a 8ns ho bisogno in realtà di 1,6v.
Cosa faccio allora:
sposto il range dei voltaggi da 1,1/1.2v a 1.35/1.45 (nella soglia limite prima che esploda il lackage) controllo le latenze che mi variano da 6 a 12ns.
Con queste premesse mi vedo costretto ad alzare i timing sulla cache, di conseguenza adattare i sincronismi con le altre parti della cpu abbassando di fatto l'ipc.
Ma oltre a questo se avevo preventivato frequenze di 4,6ghz con 1,3 v mi ritrovo invece voltaggi di 1,3v a soli 3,6 ghz a causa della L2.
Salire di frequenza mi chiede più a, più a = maggiore tdp, maggiore calore da dissipare ecc.
Il fatto poi che la cpu arrivi sotto azoto a 8 ghz sta a significare che i sincronismi sono perfette nella cpu, ma con timing destinati a frequenze molto più alte che quelle default ( e lasciamo perdere per un attimo la teoria dei superconduttori alle basse temp) ed anzi ancora più rilassate dell'optimum.

e perchè mai no? Sulla carta un modulo BD consuma meno di un core SB, e la differenza è tanto maggiore quanto più si viaggia nelle prossimità dei 3GHz. Secondo me a torto si sta sottovalutando questa sfortunata creatura.

Alt, non sto sottovalutando bd, semplicemente è stato progettato per un silicio che non è mai esistito. Per quanto riguarda il confronto bd amd sb intel hai ragione, ma sb non è bd ed utilizza timing molto più aggressivi.
Intel con SB si è prefissata un'architettura che dovesse girare al max a 3,6ghz def (esempio privo di turbo ecc) perchè il suo silicio gli permetteva una finestra di range frequenza/timing in qull'optimum.
Il bulk intel non è fatto per girare a 5 ghz def con buoni timing senza che esploda il lackage.
Quindi credo che bd su bulk Intel sarebbe stato una cagata, forse anche peggio di quanto è avvenuto con il 32Soi

Piedone1113
16-07-2016, 08:56
L'obiettivo principale coi processi produttivi è la riduzione del CPI (Cost Per Transistor). Il resto è grasso che cola.

Questo è quello che la gente non vuole capire, ridurre il pp serve a marginalizzare meglio, bassi voltaggi, minori consumi, maggiori frequenze sono effetti collaterali.


Riguardo a Bulldozer & compagnia, AMD ha puntato tutto sulle frequenze elevate, con architettura dal basso IPC. Si vede che la batosta che prese Intel col Pentium 4 se l'erano già dimenticata...
Forse tra 10 anni scopriremo il perchè del progetto e il perchè dei 5ghz non raggiunti.
Ma che il Soi permettesse di avere vantaggi sul bulk fino ai 32nm è indubbio, le prestazioni delle cpu Amd erano buone grazie anche al soi.

bjt2
16-07-2016, 09:23
Il bulk intel non è fatto per girare a 5 ghz def con buoni timing senza che esploda il lackage.
Quindi credo che bd su bulk Intel sarebbe stato una cagata, forse anche peggio di quanto è avvenuto con il 32Soi

Non sono d'accordo... E' l'architettura core che non è fatta per girare a 5ghz sul bulk intel... Abbassa il FO4 a 17 e vedi come rulla a oltre 5ghz anche sul bulk intel...

xk180j
16-07-2016, 14:19
http://fudzilla.com/news/processors/41088-16-zen-core-opteron-is-snowy-owl

sarei curioso di sapere quanto perda in frequenza risprtto all'8 core dovrebbero essere entrambi a 95w

Piedone1113
16-07-2016, 15:04
Non sono d'accordo... E' l'architettura core che non è fatta per girare a 5ghz sul bulk intel... Abbassa il FO4 a 17 e vedi come rulla a oltre 5ghz anche sul bulk intel...

Non ne sarei certo:
AMD con il soi hai sempre avuto problemi con la cache (oltre un certo limite di clock non riuscivano ad aggiornarsi in tempo creando errori in ram e facendo intervenire l'ecc di fatto abbassando le prestazioni rispetti a clock leggermenti più bassi, quindi si tratterebbe di ritardi nei cambi di stato e/o refresh), intel invece ha problemi sull'mc oltre un certo limite segno che soffre di interferenze fisiche esterne al cambio di stato.
Secondo me il soi permette un ottima schermatura a scapito di cambi di stato più lenti, il bulk intel (e forse ancora di più con il finfet) subisce maggiori problemi da interferente spurie derivanti dalle alte frequenze.
Paradossalmente anche non riconoscendo un banco di ram la cpu in se è stabile segno che non riesce a sincronizzarsi, più che funzionare correttamente.
Ma queste sono solo mie supposizioni, fermo restando l'assoluto rispetto delle opinioni di gente che con queste cose ci va a fare lo spuntino a mezzodì.

bjt2
16-07-2016, 15:09
Abbassare il FO4 vuol dire abbassare il FO4 di tutta la CPU, quindi anche la cache L2: si aumenta la latenza e stop.

Il problema di BD e la cache L2 è appunto che è la L2 il fattore limitante di BD...

paolo.oliva2
16-07-2016, 15:24
Vi ricordate che se il Vcore è troppo basso l'8350 non da' errore ma rallenta le prestazioni?
Io questo lo collegherei alla L2, perchè (non mi intendo, però) le cache dovrebbero avere un sistema di ECC (controllo d'errore), e se hanno un errore, semplicemente ripetono la lettura/scrittura... diversamente un Vcore insufficiente nella parte logica del procio, dovrebbe crashare il procio...

Piedone1113
16-07-2016, 15:44
Abbassare il FO4 vuol dire abbassare il FO4 di tutta la CPU, quindi anche la cache L2: si aumenta la latenza e stop.

Il problema di BD e la cache L2 è appunto che è la L2 il fattore limitante di BD...
La L2 è il fattore limitante di Bd sia per le latenze alte, sia per il clock basso (rapportato ai voltaggi che servirebbero per far funzionare in 125w la cpu a 4,8 ghz)
L'MC di intel è limitante solo oltre certe frequenze, se non sbaglio andando su di clock con il molti non si modifica le frequenze dell'mc, cambia il sincronismo tra mc e cache, e nonostante tutto oltre una certa freq della cpu il Mc non riconosce più qualche banco su qualche canale.

Non è poi automatico dire rilassare i timing e aumento il clock, lo potresti fare sulle ram, sui memory controller, ma non sugli stadi della pipeline, altrimenti non servirebbe a nulla alzare le frequenze, o sbaglio?

bjt2
16-07-2016, 15:57
La L2 è il fattore limitante di Bd sia per le latenze alte, sia per il clock basso (rapportato ai voltaggi che servirebbero per far funzionare in 125w la cpu a 4,8 ghz)
L'MC di intel è limitante solo oltre certe frequenze, se non sbaglio andando su di clock con il molti non si modifica le frequenze dell'mc, cambia il sincronismo tra mc e cache, e nonostante tutto oltre una certa freq della cpu il Mc non riconosce più qualche banco su qualche canale.

Non è poi automatico dire rilassare i timing e aumento il clock, lo potresti fare sulle ram, sui memory controller, ma non sugli stadi della pipeline, altrimenti non servirebbe a nulla alzare le frequenze, o sbaglio?

Sono i pricnipi del pipelining... Per abbassare il FO4 devo fare più stadi... Mentre la latenza aumenta, il throughput aumenta... Se prima avevo ad esempio 5 stadi e 1 GHz, potevo fare 1G istruzioni al secondo con latenza 5... Se passo a 10 stadi e 2GHz, avrò 2G istruzioni al secondo con latenza 10... Ovviamente se ci sono istruzioni dipendenti salta tutto, ma se sono poche, ho comunque un aumento delle prestazioni...

digieffe
16-07-2016, 17:50
http://fudzilla.com/news/processors/41088-16-zen-core-opteron-is-snowy-owl

sarei curioso di sapere quanto perda in frequenza risprtto all'8 core dovrebbero essere entrambi a 95w

al raddoppio dell'intera cpu avrà una frequenza NON inferiore al 71% (quindi una perdita del 29%)
es 8 core 3.4ghz = 16 core 2.4ghz


Edit: anche più del 71% nel caso la cpu richieda un aumento della tensione non lineare e/o ci sia una esplosione del leackage negli alle frequenze più alte.

digieffe
16-07-2016, 17:53
Zen APU X4
http://www.christiantoday.com/article/amd.zen.apu.release.date.first.zen.based.apu.to.arrive.in.2017/90516.htm


asp! solo 704 sp... non dico 1024 ma 896 a frequenza più bassa ne potevano mettere

george_p
16-07-2016, 18:03
Si, come no, magari è anche vero!
Che ci sarà Zen apu ok ma che questi sappiano già le specifiche ho molti dubbi... quanti click al suo sito con queste esclusive verità :O

Piedone1113
16-07-2016, 18:04
Sono i pricnipi del pipelining... Per abbassare il FO4 devo fare più stadi... Mentre la latenza aumenta, il throughput aumenta... Se prima avevo ad esempio 5 stadi e 1 GHz, potevo fare 1G istruzioni al secondo con latenza 5... Se passo a 10 stadi e 2GHz, avrò 2G istruzioni al secondo con latenza 10... Ovviamente se ci sono istruzioni dipendenti salta tutto, ma se sono poche, ho comunque un aumento delle prestazioni...
Questo è palese, ma attenzione, aumentare numero di stadi non deve significare aumentare la latenza della cache, perchè se hai bisogno di svuotare la pipeline devi aspettare il numero di cicli per la sua profondità (non sempre vero, anzi tutt'altro), ma se aumenti anche la latenza cache il totale dell'operazione non è più direttamente proporzionale al solo numero delle pipe, ma bisogna attendere ancora (sperando che i dati siano almeno in l2 perchè altrimenti addio).

Se poi il miglior compromesso sia con FO4 17 (?) o maggiore è relativo al silicio che stai utilizzando.
Mettiamola così:
Per funzionare a 5ghz def il silicio Intel ha bisogno di una densità del 30% minore rispetto a quanto avviene per frequenza a 4ghz.
Ammesso che l'ipc sia identico nel passaggio da 4 a 5 ghz (cosa non vera) avremo un + 25% throughput con un costo del +30% di superfice.
Senza contare che probabilmente avrebbe anche bisogno di un processo di drogaggio e metallizzazione del silicio differente e più costoso.

Considera anche che il passaggio da 4.2 a 4.4 ghz per le cpu intel vede un consumo esponenziale del chip anche a parità di vcore e credo che questo sia dovuto più al silicio che all'architettura.

bjt2
16-07-2016, 18:46
Questo è palese, ma attenzione, aumentare numero di stadi non deve significare aumentare la latenza della cache, perchè se hai bisogno di svuotare la pipeline devi aspettare il numero di cicli per la sua profondità (non sempre vero, anzi tutt'altro), ma se aumenti anche la latenza cache il totale dell'operazione non è più direttamente proporzionale al solo numero delle pipe, ma bisogna attendere ancora (sperando che i dati siano almeno in l2 perchè altrimenti addio).

Se poi il miglior compromesso sia con FO4 17 (?) o maggiore è relativo al silicio che stai utilizzando.
Mettiamola così:
Per funzionare a 5ghz def il silicio Intel ha bisogno di una densità del 30% minore rispetto a quanto avviene per frequenza a 4ghz.
Ammesso che l'ipc sia identico nel passaggio da 4 a 5 ghz (cosa non vera) avremo un + 25% throughput con un costo del +30% di superfice.
Senza contare che probabilmente avrebbe anche bisogno di un processo di drogaggio e metallizzazione del silicio differente e più costoso.

Considera anche che il passaggio da 4.2 a 4.4 ghz per le cpu intel vede un consumo esponenziale del chip anche a parità di vcore e credo che questo sia dovuto più al silicio che all'architettura.

L'esplosione dei consumi è dovuta al vcore. Se fai una architettura a FO4 più basso, per avere 5GHz bastano meno volts e quindi anche meno leakage... Ecco perchè AMD arriva a una frequenza più alta del 14nm INTEL anche sul 28nm... Mica è perchè il processo 28nm è migliore del 14nm INTEL...

xk180j
16-07-2016, 19:15
al raddoppio dell'intera cpu avrà una frequenza NON inferiore al 71% (quindi una perdita del 29%)
es 8 core 3.4ghz = 16 core 2.4ghz


Edit: anche più del 71% nel caso la cpu richieda un aumento della tensione non lineare e/o ci sia una esplosione del leackage negli alle frequenze più alte.
grazie

paolo.oliva2
17-07-2016, 06:21
L'esplosione dei consumi è dovuta al vcore. Se fai una architettura a FO4 più basso, per avere 5GHz bastano meno volts e quindi anche meno leakage... Ecco perchè AMD arriva a una frequenza più alta del 14nm INTEL anche sul 28nm... Mica è perchè il processo 28nm è migliore del 14nm INTEL...

Comunque il Vcore del 28nm GF è a dir poco spaventoso per raggiungere i 4GHz (Tuttodigitale aveva postato i CPU-Z), erano tutti >1,4V con punte di 1,55V, praticamente a livello dell'FX 9590.

Io non ho idea di come GF/AMD faccia per contenere l'esplosione del leakage sul 28nm, ma se ciò fosse dovuto in gran parte a tutte le features implementate (ed in minima parte al silicio in sè), il 14nm finfet dovrebbe letteralmente volare.

P.S.
Samsung ha la prossima generazione di processo a 14 nm in esecuzione (LPH, Advanced, LPC), GLOBALFOUNDRIES sta lavorando su HP (High Performance SOI) e LPP + (High Performance / Super Low Power). (Tradotto dal tedesco... https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&cad=rja&uact=8&ved=0ahUKEwjjy4Xv6fnNAhWPJhoKHTE3B1oQFghEMAQ&url=http%3A%2F%2Fwww.heise.de%2Fnewsticker%2Fmeldung%2FAnalyse-AMD-immer-wieder-3269087.html&usg=AFQjCNH90FQL63vHvC3Jb8p0eJq41IF5lw&bvm=bv.127178174,d.d2s)

cdimauro
17-07-2016, 06:49
Loro si sono sempre bullati del fatto che il SOI, a parità di miniaturizzazione, avesse un leakage 10-20 volte di meno di un processo bulk, a parità di Vcore e temperatura... Quindi pensavano di non incappare nel problema del P4...
Anche Intel pensava di arrivare a 10Ghz entro il 2010, e non mi pare fossero gli ultimi arrivati.

Il problema è che già quando è stato raggiunto il Ghz, si sono cominciati a manifestare problemi a salire in frequenza come in passato. Era, insomma, il primo segnale che la cuccagna fosse finita.

Poi c'è stato il P4.

E a questo punto mi chiedo come si poteva bellamente pensare che non potesse succedere altro.

E' ovvio che la fisica metta dei paletti: tanto alla miniaturizzazione, quanto alla frequenza, vcore, e quant'altro.
E poi hanno usato un FO4 di 17, ottimale secondo i paper IBM, e non 13 come il P4...
Come ho già detto altre volte questo non è il mio campo, ma mi sfugge qualcosa. Non s'è detto diverse volte di abbassare il FO4 per salire in frequenza? Perché un FO4 di 17, che è superiore al 13, avrebbe dovuto essere "ottimale" rispetto a quest'ultimo?
Semplicemente hanno semplificato troppo il core: se mettevano 4 ALU e passavano ad una cache inclusiva e magari una L2 separata per core, viste le enormi dimensioni, penso che un 20% in più di IPC non glielo toglieva nessuno... Su semiaccurate c'è un tizio che afferma che è la L2 il collo di bottiglia sia per le prestazioni pure che per salire in frequenza: poi una L2 che serve 2 core deve avere un numero di porte sufficiente, vista la L1 microscopica (16 e poi 32kb)...
Non è solo la cache L2 il problema di BD. IMO il problema più grosso è dovuto alla suddivisione del core in 2 macroALU intere. Come abbiamo già discusso, è meglio una coda unica che 2 specializzate.
Questo è quello che la gente non vuole capire, ridurre il pp serve a marginalizzare meglio, bassi voltaggi, minori consumi, maggiori frequenze sono effetti collaterali.
*
Non sono d'accordo... E' l'architettura core che non è fatta per girare a 5ghz sul bulk intel... Abbassa il FO4 a 17 e vedi come rulla a oltre 5ghz anche sul bulk intel...
Ma non è che puoi abbassarlo arbitrariamente. Serviranno dei cambiamenti notevoli alla microarchitettura.

Il P4, ancora una volta, è un esempio di ciò: il design è completamente diverso da quello del P3, proprio per essere orientato a scalare in frequenza. E da lì l'uso della trace cache per disaccoppiare il backend dal frontend (e dunque dal complesso decoder x86 in primis), 20 stadi per la pipeline (poi addirittura portati a 31, se non ricordo male), e cache L1 dati microscopica, ma molto veloce.

I risultati li conosciamo tutti, mi pare.
Sono i pricnipi del pipelining... Per abbassare il FO4 devo fare più stadi... Mentre la latenza aumenta, il throughput aumenta... Se prima avevo ad esempio 5 stadi e 1 GHz, potevo fare 1G istruzioni al secondo con latenza 5... Se passo a 10 stadi e 2GHz, avrò 2G istruzioni al secondo con latenza 10...
Ovviamente se ci sono istruzioni dipendenti salta tutto, ma se sono poche, ho comunque un aumento delle prestazioni...
Il problema è nel codice "general purpose", dove ovviamente ci sono, eccome, le dipendenze. Questo costringe il backend a tenersi in pancia parecchie istruzioni che aspettano di completare l'esecuzione, richiedendo quindi instruction window più grandi e retire logic più complesse. La maggiore latenza non fa che complicare tutto ciò, ovviamente.

Il codice che fa uso di FPU è molto più lineare, ed è anche per questo che è stato tirato fuori il paradigma SIMD. Ci sono anche qui le dipendenze, ma si "sbrogliano" più velocemente.
L'esplosione dei consumi è dovuta al vcore. Se fai una architettura a FO4 più basso, per avere 5GHz bastano meno volts e quindi anche meno leakage... Ecco perchè AMD arriva a una frequenza più alta del 14nm INTEL anche sul 28nm... Mica è perchè il processo 28nm è migliore del 14nm INTEL...
Scusa l'ignoranza, ma aumentare le frequenze non vuol dire anche essere più soggetti a interferenze nei segnali?

E abbassando il vcore non si amplificano i problemi d'integrità dei segnali?

Se sì, non è che si possa arbitrariamente pensare di aumentare le frequenze, addirittura diminuendo anche i voltaggi...

paolo.oliva2
17-07-2016, 09:53
Secondo me non c'è assolutamente similitudine tra PIV (inteso nei 10GHz) e BD, in primis perchè il PIV è a sè perchè si era nell'era del single core, mentre BD è inglobato con il CMT il quale guadagna un botto rispetto all'SMT.
Inoltre il PIV per essere competitivo doveva arrivare a 10GHz e Intel arrivò a 3,3GHz (con enormi problemi di dissipazione in quanto già il dissi stock non era sufficiente), cioè manco il 33% dell'aspettativa, BD doveva arrivare sui 4,7GHz def, siamo a 4GHz, è mancato il 20% del clock, mica il 67%...

Inoltre, secondo me, BD non è ben rappresentato come archtettura nella fascia FX semplicemente perchè come FX è ancora PD e non XV, e l'aumento del 15% di IPC di certo non sarebbe sufficiente in ST, ma in MT comporterebbe un buon incremento.
Se PD = 100, +15% XV = 115 vs Intel quanto? 170?
Ma in MT 115 + 80% = 207, vs Intel 170 + 30% = 221.

Da notare che i valori sopra riportati sono per parità di clock, ma già oggi, sul 28nm, BD riesce ad ottenere +100MHz come frequenza massima (4,2GHz) rispetto al 6700K (4,2GHz), ma in un discorso >X4, saremmo ad oltre +20% (4,3GHz AMD vs 3,5GHz Intel) e percentuali ben più importanti >X6.

Il divario del PIV vs AMD era talmente ampio che Intel fu costretta a cambiare in toto TUTTO, dall'A alla Z, AMD con BD in primis è ancora in produzione come APU con XV, in secondo luogo il discorso del clock mi sembra tutt'altro che abbandonato, visto che (SEMBRA) l'FO4 di Zen sembra essere il medesimo di BD, inoltre Zen, anche se adottando l'SMT sembra sposare Intel, guardando un die avrebbe più similitudini con BD di quanto le possa avere con Intel. Anche se io non ne capisco molto del dentro dei proci, Zen a me sembra un BD con l'SMT come evoluzione del CMT, del PIV di allora cosa ritroviamo?

In sintesi, non è che voglio difendere BD, CMT e quant'altro, ma trovo dispregiativo per BD l'associazione al PIV perchè di per sè il PIV è stata una ciofeca in quanto progetto e in quanto aspettative... a tutt'oggi BD, come architettura e come potenzialità, sarebbe bastato solamente aver avuto la disponibilità di un silicio che permettesse l'evoluzione da PD a XV e nel contempo l'aumento di moduli (>4m, almeno 6m se non 8) per avere un incremento da +50% di MT anche al doppio... Poi è ovvio che l'ST sarebbe stata sempre a favore di Intel, ma guardiamo a 360°, potenza ST = IPC * frequenza, i 4,2GHz di un 6700K non li ritroviamo in un 6850K, max 3,5GHz, è un IPC inferiore di XV ma con un +25% di frequenza, limano e non di poco la differenza di IPC.

bjt2
17-07-2016, 09:55
Come ho già detto altre volte questo non è il mio campo, ma mi sfugge qualcosa. Non s'è detto diverse volte di abbassare il FO4 per salire in frequenza? Perché un FO4 di 17, che è superiore al 13, avrebbe dovuto essere "ottimale" rispetto a quest'ultimo?

E' tutto un compromesso. All'abbassare del FO4 abbassi i ritardi di gate, ma i ritardi RC delle linee di trasmissione rimangono invariati (a meno di fare cavi più "spessi", minore R, ma comunque ci vogliono transistors più potenti per caricare e scaricare più velocemente le capacità parassite e di linea), poichè allo scendere del FO4 ovviamente aumenti il numero di stadi pipeline necessari, e dunque anche la lunghezza totale e la quantità dei "cavi" di collegamento, oltre al numero di registri di disaccoppiamento, ognuno dei quali aggiunge almeno 2.5 FO4, si è calcolato (o forse addirittura simulato) che sotto il FO4 di 7 si va a perdere e che 17 è il miglior compromesso prestazioni/watt e forse anche costo... Non ho letto i papers, ma solo un sunto... E poi credo che fossimo sul 65 o 45 SOI, perchè quei paper servirono a dimostrare che il POWER 6 era si veloce, ma non efficiente dal punto di vista energetico...

Scusa l'ignoranza, ma aumentare le frequenze non vuol dire anche essere più soggetti a interferenze nei segnali?

E abbassando il vcore non si amplificano i problemi d'integrità dei segnali?

Se sì, non è che si possa arbitrariamente pensare di aumentare le frequenze, addirittura diminuendo anche i voltaggi...

Se i ritardi di linea più quelli di gate sono abbassati in proporzione all'aumento della frequenza e il vcore è lo stesso, allora il margine di rumore è lo stesso... Il problema è che abbassando il FO4 diminuisci solo il ritardo di gate e non quello di linea... Quindi dimezzando il FO4 non si può raddoppiare la frequenza... Questo influisce anche sul compromesso e sul limite di cui parlavo prima.

Il Vcore più basso che intendevo è questo: ipotizziamo che tu riesca a trovare un Vcore (magari sotto azoto) a cui Skylake è stabile a 5GHz. Se abbassi il FO4 (e in base alle tensioni di soglia è possibile calcolare di quanto devi abbassarlo), puoi usare un Vcore più basso per i 5GHz e magari ti ritrovi con consumi umani. Ovviamente l'architettura va cambiata. Il processo può essere relativamente più facile se riesci a spezzare tutti gli stadi delle pipeline a metà, dimezzando o quasi il FO4 (in realtà ci sono i 2.5 FO4 dei registri usati per spezzare lo stadio), oppure può essere un casino, come hanno fatto con il P4, in cui hanno anche cambiato e semplificato le ALU e i decoder...

bjt2
17-07-2016, 10:03
http://forums.anandtech.com/showpost.php?p=38363321&postcount=2219

Non so quanto sia affidabile sto tizio, ma dice che gli ES A0 che ci sono in giro hanno base clock 2.8GHz, all core turbo 3Ghz e max turbo 3.2GHz, con frequenza idle 550MHz. Che ci saranno varianti 4 core 65W e 8 core 95W (poi le varianti server a 16, 24 e 32 core) e che almeno inizialmente non ci sarannmo le versioni a 6 core, ma solo core complexes interi, come avevo pensato. Inoltre gli ES x4 hanno la stessa frequenza degli ES x8 e in idle consumano 2.5W i 4 core e 5W gli 8 core... Non male per degli ES A0, se fosse vero...

capitan_crasy
17-07-2016, 10:43
http://forums.anandtech.com/showpost.php?p=38363321&postcount=2219

Non so quanto sia affidabile sto tizio, ma dice che gli ES A0 che ci sono in giro hanno base clock 2.8GHz, all core turbo 3Ghz e max turbo 3.2GHz, con frequenza idle 550MHz. Che ci saranno varianti 4 core 65W e 8 core 95W (poi le varianti server a 16, 24 e 32 core) e che almeno inizialmente non ci sarannmo le versioni a 6 core, ma solo core complexes interi, come avevo pensato. Inoltre gli ES x4 hanno la stessa frequenza degli ES x8 e in idle consumano 2.5W i 4 core e 5W gli 8 core... Non male per degli ES A0, se fosse vero...

E' affidabile quanto qualsiasi sconosciuto al suo primo post dove dice cose abbastanza note sulle versioni ES A0...:stordita:

paolo.oliva2
17-07-2016, 12:41
http://forums.anandtech.com/showpost.php?p=38363321&postcount=2219

Non so quanto sia affidabile sto tizio, ma dice che gli ES A0 che ci sono in giro hanno base clock 2.8GHz, all core turbo 3Ghz e max turbo 3.2GHz, con frequenza idle 550MHz. Che ci saranno varianti 4 core 65W e 8 core 95W (poi le varianti server a 16, 24 e 32 core) e che almeno inizialmente non ci sarannmo le versioni a 6 core, ma solo core complexes interi, come avevo pensato. Inoltre gli ES x4 hanno la stessa frequenza degli ES x8 e in idle consumano 2.5W i 4 core e 5W gli 8 core... Non male per degli ES A0, se fosse vero...

La notizia, se vera, sarebbe buona, perchè vorrebbe dire che gli Zen fallati (X6) non possono reggere un volume commerciale idoneo.

Domanda... :D. la lettura dei dati da e verso la RAM di sistema, da dove parte? Lo chiedo perchè... se parte dai core è un problema, ma se partisse dalla L3 (tipo il dato c'è o non c'è), allora in teoria non ci sarebbe manco bisogno di un ulteriore MC (a parte la banda/n° core), perchè essendo la L3 unificata, partirebbe la lettura/scrittura sulla DDR.

Io ho sempre l'idea che se ci fosse la possibilità (che il socket AM4 supporti 2 MC e/o qualche compromesso per supportare Zen >X8), la genialata di un Zen esempio X12 starebbe nel fatto di poter riciclare tutti i Zen fallati almeno come X4 "sano" e poterli monetizzare quanto un X8 sano nel caso di un Zen X12, a tutto vantaggio del prezzo, perchè il modello top X8 deve comunque integrare le "perdite" dei modelli con frequenza inferiore e/o con n° core inferiore. Un X12 a tutti gli effetti potrebbe costare il doppio di un X8, praticamente prezzando un die Zen fallato tanto quanto un die sano.

In ogni caso, a me sembra che AMD abbia "creato" il socket AM4 per durare certamente più di 1 anno. A mio avviso se il socket AM4 supportasse 1 solo MC, rappresenterebbe già un limite per Zen >X8 e per Zen APU > X4 (se con logica stile BD APU). A parte discorso di bandiera su chi l'ha più lungo... che non è quello che faccio, mi sembra da dementi, visto che il socket AM4 è anteriore alla conoscienza della frequenza massima di 14nm + Zen, e visto che AMD ha sbandierato Zen X8 95W TDP, perchè perdere in toto la possibilità di raggiungere potenze MT di rilievo anche optando per Zen >X8?

george_p
17-07-2016, 13:59
E' affidabile quanto qualsiasi sconosciuto al suo primo post dove dice cose abbastanza note sulle versioni ES A0...:stordita:

Quotone :O

xk180j
17-07-2016, 19:48
La notizia, se vera, sarebbe buona, perchè vorrebbe dire che gli Zen fallati (X6) non possono reggere un volume commerciale idoneo.

Domanda... :D. la lettura dei dati da e verso la RAM di sistema, da dove parte? Lo chiedo perchè... se parte dai core è un problema, ma se partisse dalla L3 (tipo il dato c'è o non c'è), allora in teoria non ci sarebbe manco bisogno di un ulteriore MC (a parte la banda/n° core), perchè essendo la L3 unificata, partirebbe la lettura/scrittura sulla DDR.

Io ho sempre l'idea che se ci fosse la possibilità (che il socket AM4 supporti 2 MC e/o qualche compromesso per supportare Zen >X8), la genialata di un Zen esempio X12 starebbe nel fatto di poter riciclare tutti i Zen fallati almeno come X4 "sano" e poterli monetizzare quanto un X8 sano nel caso di un Zen X12, a tutto vantaggio del prezzo, perchè il modello top X8 deve comunque integrare le "perdite" dei modelli con frequenza inferiore e/o con n° core inferiore. Un X12 a tutti gli effetti potrebbe costare il doppio di un X8, praticamente prezzando un die Zen fallato tanto quanto un die sano.

In ogni caso, a me sembra che AMD abbia "creato" il socket AM4 per durare certamente più di 1 anno. A mio avviso se il socket AM4 supportasse 1 solo MC, rappresenterebbe già un limite per Zen >X8 e per Zen APU > X4 (se con logica stile BD APU). A parte discorso di bandiera su chi l'ha più lungo... che non è quello che faccio, mi sembra da dementi, visto che il socket AM4 è anteriore alla conoscienza della frequenza massima di 14nm + Zen, e visto che AMD ha sbandierato Zen X8 95W TDP, perchè perdere in toto la possibilità di raggiungere potenze MT di rilievo anche optando per Zen >X8?

la trovo un'ipotesi probabile ma penso che la giocheranno fra un anno dall'uscita dell x8

sgrinfia
17-07-2016, 21:13
Ciao, ho letto che Zen sarà posticipato nella sua uscita, c'è qualcosa di vero?.

george_p
17-07-2016, 22:31
Ciao, ho letto che Zen sarà posticipato nella sua uscita, c'è qualcosa di vero?.

Se lo leggi su siti affidabili (e oggi si contano sulle dita di una mano) può essere vero e non è detto lo sia, se lo leggi su un canale ufficiale amd è vero.
Se lo leggi altrove sul web poniti sempre il dubbio dell'affidabilità della notizia, qualunque essa sia.

cdimauro
18-07-2016, 06:28
Secondo me non c'è assolutamente similitudine tra PIV (inteso nei 10GHz)
I 10GHz erano il piano a lungo termine di Intel, che prevedeva di raggiungerli nel 2010, ovviamente con l'architettura NetBurst del P4.
e BD, in primis perchè il PIV è a sè perchè si era nell'era del single core, mentre BD è inglobato con il CMT il quale guadagna un botto rispetto all'SMT.
Invece proprio il P4 ha introdotto l'SMT (in ambito consumer), con l'Hyperthreading. Dunque il confronto, anche da questo punto di vista, ci sta tutto.
Inoltre il PIV per essere competitivo doveva arrivare a 10GHz e Intel arrivò a 3,3GHz (con enormi problemi di dissipazione in quanto già il dissi stock non era sufficiente), cioè manco il 33% dell'aspettativa, BD doveva arrivare sui 4,7GHz def, siamo a 4GHz, è mancato il 20% del clock, mica il 67%...
Come già detto, il P4 doveva arrivarci nel 2010, mentre è stato ucciso molto prima, anche per altre ragioni.
Il divario del PIV vs AMD era talmente ampio che Intel fu costretta a cambiare in toto TUTTO, dall'A alla Z,
Il divario c'è stato con le prime versioni del P4, anche per certe scelte scellerate, come quella di legarsi mani e piedi con Ranbus e le sue memorie, mentre AMD e concorrenza poterono sfruttare le DDR, che consentivano buona banda di memoria unita a ottime latenze.

Caduto quest'accordo di esclusiva e aumentate nel frattempo le frequenze (il P4 non era certo nato per girare a 1,5Ghz), le cose sono cambiate.

Questo lo puoi controllare tu stesso se vai a vedere i benchmark dell'epoca seguendo l'evoluzione delle varie versioni del P4, e ovviamente degli Athlon di AMD.
AMD con BD in primis è ancora in produzione come APU con XV, in secondo luogo il discorso del clock mi sembra tutt'altro che abbandonato, visto che (SEMBRA) l'FO4 di Zen sembra essere il medesimo di BD, inoltre Zen, anche se adottando l'SMT sembra sposare Intel, guardando un die avrebbe più similitudini con BD di quanto le possa avere con Intel. Anche se io non ne capisco molto del dentro dei proci, Zen a me sembra un BD con l'SMT come evoluzione del CMT, del PIV di allora cosa ritroviamo?
Hyperthreading, bus (all'epoca il Pentium-M adottò il nuovo bus del P4, ovviamente, che è poi stato la basa delle successive evoluzioni), e cache L0 sono le prime cose che mi vengono in mente, a livello microarchitetturale.
In sintesi, non è che voglio difendere BD, CMT e quant'altro, ma trovo dispregiativo per BD l'associazione al PIV perchè di per sè il PIV è stata una ciofeca in quanto progetto e in quanto aspettative...
Mi spiace, ma il confronto ci sta tutto: entrambe erano architetture pensate per bassi IPC, ma puntando sulle alte frequenze.

Ed entrambe sono state un buco nell'acqua, con annesso cambio di (micro)architettura.

P.S: Ho tagliato i discorsi sui FO4 e numeri vari perché non c'è nulla di concreto.
E' tutto un compromesso. All'abbassare del FO4 abbassi i ritardi di gate, ma i ritardi RC delle linee di trasmissione rimangono invariati (a meno di fare cavi più "spessi", minore R, ma comunque ci vogliono transistors più potenti per caricare e scaricare più velocemente le capacità parassite e di linea), poichè allo scendere del FO4 ovviamente aumenti il numero di stadi pipeline necessari, e dunque anche la lunghezza totale e la quantità dei "cavi" di collegamento, oltre al numero di registri di disaccoppiamento, ognuno dei quali aggiunge almeno 2.5 FO4, si è calcolato (o forse addirittura simulato) che sotto il FO4 di 7 si va a perdere e che 17 è il miglior compromesso prestazioni/watt e forse anche costo... Non ho letto i papers, ma solo un sunto... E poi credo che fossimo sul 65 o 45 SOI, perchè quei paper servirono a dimostrare che il POWER 6 era si veloce, ma non efficiente dal punto di vista energetico...
Ma allora perché non si tiene fisso a 17 questo benedetto FO4, e le microarchitetture si modellano su questo punto di fisso?

Devono esserci altre motivazioni che portano ad avere un uso così diverso del FO4.
Se i ritardi di linea più quelli di gate sono abbassati in proporzione all'aumento della frequenza e il vcore è lo stesso, allora il margine di rumore è lo stesso... Il problema è che abbassando il FO4 diminuisci solo il ritardo di gate e non quello di linea... Quindi dimezzando il FO4 non si può raddoppiare la frequenza... Questo influisce anche sul compromesso e sul limite di cui parlavo prima.
OK, e questo spiega perché non si scala linearmente in frequenza col FO4.
Il Vcore più basso che intendevo è questo: ipotizziamo che tu riesca a trovare un Vcore (magari sotto azoto) a cui Skylake è stabile a 5GHz. Se abbassi il FO4 (e in base alle tensioni di soglia è possibile calcolare di quanto devi abbassarlo), puoi usare un Vcore più basso per i 5GHz e magari ti ritrovi con consumi umani. Ovviamente l'architettura va cambiata. Il processo può essere relativamente più facile se riesci a spezzare tutti gli stadi delle pipeline a metà, dimezzando o quasi il FO4 (in realtà ci sono i 2.5 FO4 dei registri usati per spezzare lo stadio), oppure può essere un casino, come hanno fatto con il P4, in cui hanno anche cambiato e semplificato le ALU e i decoder...
Beh, i suoi frutti li ha dati: il P4 ha raggiunto frequenze estremamente alte rispetto agli altri processori dell'epoca, e in ambito number crunching (FP) aveva ottime prestazioni.

Il problema è che tutto ciò non era abbastanza per arrivare ai 10GHz, ma soprattutto i consumi sono esplosi già molto prima, "grazie" al leakage.

paolo.oliva2
18-07-2016, 06:50
Se vogliamo, credo che AMD avesse preventivato Zen come ES finale al computex, e sicuramente in quel caso almeno 4 settimane di ritardo l'ha avuto (considerando 2 settimane prima del Computex e 2 settimane dopo che Lisa Su ha detto che lo avrebbe consegnato a tutti i brand).
Circa 3 settimane fa era scappata una bolla su internet riferita a degli ES Zen X32 spediti... quindi direi che le dichiarazioni di Lisa SU al Computex circa la spedizione degli ES Zen X86 desktop risulti vera... anche se in rete ancora non c'è una mazza circa le frequenze e/o bench.

Se si vuole essere ottimisti, per me addirittura si sarebbe con i tempi per Zen a settembre... se si vuole essere pessimisti, di... tra ES finale con il via alla produzione in volumi, ed 1 mese almeno per produrre il volume commerciale, montare il tutto sul package, un lasso di tempo di 2 max ci sta, quindi dal giorno X + 60 giorni comunque Zen ci sarebbe.

C'è un fatto che fa riflettere... trovo incomprensibile il ritardo della commercializzazione di BR, come pure incomprensibile il ritardo sul lancio delle mobo AM4 (caso precedente, mobo AM3+, con Thuban, disponibili già ben 3 mesi pre-Thuban). Se vogliamo, potremmo fare qualche congettura ipotizzando che AMD sacrifichi il lancio BR + mobo AM4 per secretare il più possibile le caratteristiche di Zen, e se ciò potrebbe essere vero, non sorprenderebbe la mancanza di fonti su Zen, ipotizzando Zen ES già disponibile, in quanto collegando il tutto all'NDA su Zen, l'NDA deve essere di ferro.

Non dimentichiamoci che Zen A0 ES era di novembre 2015, e rispetto all'ES di BD Buldozer, non si sa una mazza, manco con sicurezza le frequenze, mentre di BD ES si sapeva frequenze, bench, TDP, praticamente TUTTO.

bjt2
18-07-2016, 06:57
Ma allora perché non si tiene fisso a 17 questo benedetto FO4, e le microarchitetture si modellano su questo punto di fisso?

Devono esserci altre motivazioni che portano ad avere un uso così diverso del FO4.

I paper di IBM sono usciti solo di recente... Era da dimostrare che era il più efficiente.
Ma poi ci sono anche altri obiettivi: se vuoi le massime prestazioni, ti dirigi verso i FO4 bassi (era questa la strategia di INTEL, ma IMHO ha messo ALU troppo poco potenti), se vuoi i minori consumi, ti orienti verso i FO4 alti (i vari ARM nei cellulari)... Tutto dipende dal tuo obiettivo... Per una CPU general purpose che scali dai server ai cellulari, IMHO il 17 è un ottimo compromesso...

OK, e questo spiega perché non si scala linearmente in frequenza col FO4.

Beh, i suoi frutti li ha dati: il P4 ha raggiunto frequenze estremamente alte rispetto agli altri processori dell'epoca, e in ambito number crunching (FP) aveva ottime prestazioni.

Il problema è che tutto ciò non era abbastanza per arrivare ai 10GHz, ma soprattutto i consumi sono esplosi già molto prima, "grazie" al leakage.

Poi AMD se ne era uscito con le amd 64 e il P4, con le sue ALU a 16 bit dual pumped, ne è uscito sconfitto... Se il P4 fosse nato sin dall'inizio con ALU a 64 bit, magari anche dual pumped e/o a latenza variabile per avere ancora gli alti clock e maggiori prestazioni a 16/32 bit, magari in numero di 4 e altrettanto FPU, allora il P4 avrebbe avuto un IPC spettacolare e non sarebbe stato abbandonato... In realtà non era tanto male... E' l'implementazione che era scarsa... Il POWER 6 ha raggiunto i 6GHz... L'IPC non era tanto alto, ma come da tradizione POWER immagino che aveva tante pipeline ed essendo in-order, anche molti thread per sfruttarle...

bjt2
18-07-2016, 07:12
Su anandtech si fanno le pippe sul supposto ES step A0, dando per scontato che quelle siano le frequenze finali, e inoltre supponendo un guadagno da SMT poco sopra il 10%... Già.. Perchè AMD con 10 porte contro 8, di cui 4+4 contro 4 per le operazioni di calcolo, riuscirà sicuramente a fare peggio di INTEL... Perchè non sono in grado di fare per bene l'SMT... Come se il CMT fosse poi tanto diverso...

paolo.oliva2
18-07-2016, 07:17
@CDdimauro

Tieni presente che commercialmente era vitale per AMD raggiungere l'MT del socket 2011. La vera batosta per BD non è stato l'IPC e/o la potenza ST, quanto invece l'assenza dell'evoluzione dal 32nm al 22nm unito ad un TDP del 32nm che di fatto ha cancellato Komodo PD X10.

Un PD X10 già sul 32nm ed un XV almeno X12 sul 22nm avrebbero permesso, commercialmente, di intaccare l'offerta prestazionale MT degli X6+6 socket 2011.
Thuban, Phenom II X6, veniva venduto appunto perchè aveva più MT degli X4+4 Intel, anche se con lo stesso IPC Phenom II ed inferiore a quello Intel.
PD, nel gioco IPC * frequenza, equivale al Phenom II, XV, con +15%, non credo che rappresenti meno (o comunque molto meno) di quanto Intel abbia guadagnato dal 2600K ad oggi, perchè va anche considerato che AMD abbia rinunciato a qualche punto in più di IPC perchè frenata dal silicio in quanto TDP.

Guardala in questo modo: BD ha una efficienza segata dal silicio, perchè un PD X8 consuma quasi quanto un 5960X, con consumo/prestazioni enorme, ma non è un problema architetturale, perchè BR sul 28nm (BD in veste XV) è efficiente, come pure lo sarebbe un teorico XV X16 sul 14nm, ma è ovvio che un PD X8 con un TDP stile 5960X o 6850K sul 32nm non possa fare diversamente causa silicio.

Il PIV era sulla stessa miniaturizzazione AMD, non ha alcuna scusante silicio.

paolo.oliva2
18-07-2016, 07:29
Su anandtech si fanno le pippe sul supposto ES step A0, dando per scontato che quelle siano le frequenze finali, e inoltre supponendo un guadagno da SMT poco sopra il 10%... Già.. Perchè AMD con 10 porte contro 8, di cui 4+4 contro 4 per le operazioni di calcolo, riuscirà sicuramente a fare peggio di INTEL... Perchè non sono in grado di fare per bene l'SMT... Come se il CMT fosse poi tanto diverso...

Non ci fare caso, sono razionali nel trovare calcoli su AMD < Intel, e ci trovano di tutto di più.

Sarebbe possibile realizzare il modulo Zen X4 con 1 core con transistor idonei alla frequenza massima a scapito dei consumi da utilizzare come turbo e 3 core con transistor per la massima efficienza per l'utilizzo MT?
In fin dei conti, 1 core in turbo potrebbe arrivare al 100% del TDP dell'intero modulo (con gli altri 3 core spenti).
Se Intel indirizza i TH sul core più performante, la stessa cosa potrebbe fare AMD indirizzando il TH su quel core... :sofico:

Piedone1113
18-07-2016, 12:03
Non ci fare caso, sono razionali nel trovare calcoli su AMD < Intel, e ci trovano di tutto di più.

Sarebbe possibile realizzare il modulo Zen X4 con 1 core con transistor idonei alla frequenza massima a scapito dei consumi da utilizzare come turbo e 3 core con transistor per la massima efficienza per l'utilizzo MT?
In fin dei conti, 1 core in turbo potrebbe arrivare al 100% del TDP dell'intero modulo (con gli altri 3 core spenti).
Se Intel indirizza i TH sul core più performante, la stessa cosa potrebbe fare AMD indirizzando il TH su quel core... :sofico:
Troppo complicata l'implementazione fisica, ed anche troppo costosa.
Preferisco il turbo core 3 alla intel dove tutti i core sono identici ma viene preselezionato il migliore per il TB3.
fare 4 core di cui 3 con transistor lowpower, oltre ad essere essere un non sense, abbasserebbe di molto le prestazioni st (immagine un th assegnato al core 2, lowpower, che dopo una fase da basso ipc richiede elevata potenza, il th lo devi bassare al C0, ricaricare cache L1 e L0, riempire le pipeline ed eseguire il th, dopo 30 cicli torna ad avere necessità low power e ti tocca ripassarlo al C2) troppe latenze, meglio dei core identici che possono scendere di clock e voltaggio indipendentemente gli uni dagli altri, e se poi il TB3 sbaglia previsione sul th più affamato poco male, un th è accellerato, mentre tutti gli altri non sono rallentati.

Piedone1113
18-07-2016, 12:15
cut

Il P4 ha raggiunto i 3,8 ghz def sui 90 nm (sui 65nm si è fermato a 3,6 segno che il silicio intel miniaturizzandolo abbassa le frequenze), ma in nessun caso P4 vs A64 era pari, figuriamoci superiore.
Proprio sui test tra A64 e P4 ci sono state accuse di benchmark faziosi dove i singoli test erano ottimizzati per Intel senza integrare la possibilità di sfruttare le estensione degli Athlon64.
Una quasi parità tra p4 e Athlon64 ci fu solo con software mt e cpu single core, con l'avvento del dual core il P4 non ha mai impensierito prestazionalmente gli Athlon64.

bjt2
18-07-2016, 14:22
Non ci fare caso, sono razionali nel trovare calcoli su AMD < Intel, e ci trovano di tutto di più.

Sarebbe possibile realizzare il modulo Zen X4 con 1 core con transistor idonei alla frequenza massima a scapito dei consumi da utilizzare come turbo e 3 core con transistor per la massima efficienza per l'utilizzo MT?
In fin dei conti, 1 core in turbo potrebbe arrivare al 100% del TDP dell'intero modulo (con gli altri 3 core spenti).
Se Intel indirizza i TH sul core più performante, la stessa cosa potrebbe fare AMD indirizzando il TH su quel core... :sofico:

Il leakage è talmente basso che non vale la pena... Poi c'è il clock gate e il voltage gating... E poi si complicherebbe tutto...

el-mejo
18-07-2016, 16:20
Piccolo ot ma neanche tanto, visto che sono gli effetti della venuta di Zen.

Nuove info riguardo le future cpu Intel:

http://wccftech.com/intel-skylake-x-kaby-lake-x-platform-launch-2017/

In pratica:

Kaby Lake-s su socket 1151: 4 core, 95w, 8mb L3, ddr4 2400 e gpu integrata come upgrade per Skylake sulle piattaforme esistenti

Kaby Lake-X su Socket 2066: 4 core, 112w, 8mb L3, ddr4 2666 (solo 1 dimm per canale, altrimenti 2400mhz) e mancato supporto alla igpu

Skylake-X su Socket 2066: 6,8,10 core, 140w, 13,75mb L3, ddr4 2666 (sempre 1 solo dimm per canale), no iGPU


Lasciando perdere l'ovvio Kaby Lake-S, è molto interessante notare alcune cose riguardo le nuove proposte su piattaforma enthusiast:

- Ritorno alle proposte quadcore, pure con tdp pompato nonostante l'assenza, o più probabile disattivazione) della gpu. Interessante sarà vedere come viene gestita la memoria da questo die, sarà un dual channel che supporterà fino a 4 dimm massimi su mobo che solitamente ne rendono disponibili 8 oppure il die avrà 4 canali nativi e sarà Skylake-S ad averne 2 disattivati?

- Cache L3 fortemente ridotta rispetto alle cpu Broadwell-E, 13,75mb vs 25mb suppongo nelle versioni a 10 core: manovra per contenere i costi di produzioni ed aumentare le rese nell'ottica di una concorrenza nuovamente agguerrita? :sofico:

-Piattaforma LGA 2066 e non lga 3647, il socket monstre, che verrà a questo punto usato solo su server. Quest'ultimo non doveva essere un socket unificatore di tutte le proposte Xeon, eccetto quelle di derivazione mobile (4core + iGPU)? Che fine faranno le economie di scala che hanno permesso ad Intel di sviluppare e proporre il socket 2011 a prezzi accettabili, nonostante i bassi volumi globali? Possibile eliminazione delle proposte lga 115x a favore di soluzioni pre-saldate nella ormai limitata fascia bassa desktop, a favore del nuovo lga 2066?

Voi che ne pensate? A me pare che Zen e Am4 cominci a fare paura ad Intel ;)

paolo.oliva2
18-07-2016, 18:33
Piccolo ot ma neanche tanto, visto che sono gli effetti della venuta di Zen.

Nuove info riguardo le future cpu Intel:

http://wccftech.com/intel-skylake-x-kaby-lake-x-platform-launch-2017/

In pratica:

Kaby Lake-s su socket 1151: 4 core, 95w, 8mb L3, ddr4 2400 e gpu integrata come upgrade per Skylake sulle piattaforme esistenti

Kaby Lake-X su Socket 2066: 4 core, 112w, 8mb L3, ddr4 2666 (solo 1 dimm per canale, altrimenti 2400mhz) e mancato supporto alla igpu

Skylake-X su Socket 2066: 6,8,10 core, 140w, 13,75mb L3, ddr4 2666 (sempre 1 solo dimm per canale), no iGPU


Lasciando perdere l'ovvio Kaby Lake-S, è molto interessante notare alcune cose riguardo le nuove proposte su piattaforma enthusiast:

- Ritorno alle proposte quadcore, pure con tdp pompato nonostante l'assenza, o più probabile disattivazione) della gpu. Interessante sarà vedere come viene gestita la memoria da questo die, sarà un dual channel che supporterà fino a 4 dimm massimi su mobo che solitamente ne rendono disponibili 8 oppure il die avrà 4 canali nativi e sarà Skylake-S ad averne 2 disattivati?

- Cache L3 fortemente ridotta rispetto alle cpu Broadwell-E, 13,75mb vs 25mb suppongo nelle versioni a 10 core: manovra per contenere i costi di produzioni ed aumentare le rese nell'ottica di una concorrenza nuovamente agguerrita? :sofico:

-Piattaforma LGA 2066 e non lga 3647, il socket monstre, che verrà a questo punto usato solo su server. Quest'ultimo non doveva essere un socket unificatore di tutte le proposte Xeon, eccetto quelle di derivazione mobile (4core + iGPU)? Che fine faranno le economie di scala che hanno permesso ad Intel di sviluppare e proporre il socket 2011 a prezzi accettabili, nonostante i bassi volumi globali? Possibile eliminazione delle proposte lga 115x a favore di soluzioni pre-saldate nella ormai limitata fascia bassa desktop, a favore del nuovo lga 2066?

Voi che ne pensate? A me pare che Zen e Am4 cominci a fare paura ad Intel ;)

Non la capisco Intel, veramente.
Il 6700K a 4GHz è al limite del silicio con 1,31V (ma anche 1,35V)... cosa sperano di ottenere con 30W TDP in più ma su 4 core? Cacchio... potrebbero fare un X6 nei 95W sfruttando appieno il 14nm. Non lo dico per bandiera... ma per me Intel così sbaglia, perchè rischia, perchè AMD ha tutte le carte per commercializzare Zen APU >X4, e tra IGPU, possibile CF interno, game per sfruttare > 4 core, l'IPC superiore di Intel potrebbe risultare nullo nei game... Non faccio un discorso anti-Intel nè di bandiera, ma sinceramente m sarei aspettato degli X6 (almeno) pompati sulla fascia inferiore...

Il 14nm Intel da' il meglio di sè attorno ai 3GHz... e abbiamo visto che modelli anche X8 con turbo 3,5GHz. Credo non sia impossibile uno scricchetto al turbo per portarlo sui 3,7GHz (con silicio più affinato), 6 core a 3GHz overcloccabili, per me molto più competitivo di un 6700K veste Kaby Lake ma sempre X4 con forse 200MHz in più (def e turbo). Se Zen viaggiasse come sembra, e X8, Intel per forza di cose deve deprezzare tutta la fascia <X8. Per me Zen X8 non supererà i 400€, non sarebbe meglio per Intel un X6 a 350€ piuttosto che un X4 a 200€ o meno? Boh....

capitan_crasy
18-07-2016, 18:40
Piccolo ot ma neanche tanto, visto che sono gli effetti della venuta di Zen.

Nuove info riguardo le future cpu Intel:

http://wccftech.com/intel-skylake-x-kaby-lake-x-platform-launch-2017/

In pratica:

Kaby Lake-s su socket 1151: 4 core, 95w, 8mb L3, ddr4 2400 e gpu integrata come upgrade per Skylake sulle piattaforme esistenti

Kaby Lake-X su Socket 2066: 4 core, 112w, 8mb L3, ddr4 2666 (solo 1 dimm per canale, altrimenti 2400mhz) e mancato supporto alla igpu

Skylake-X su Socket 2066: 6,8,10 core, 140w, 13,75mb L3, ddr4 2666 (sempre 1 solo dimm per canale), no iGPU


Lasciando perdere l'ovvio Kaby Lake-S, è molto interessante notare alcune cose riguardo le nuove proposte su piattaforma enthusiast:

- Ritorno alle proposte quadcore, pure con tdp pompato nonostante l'assenza, o più probabile disattivazione) della gpu. Interessante sarà vedere come viene gestita la memoria da questo die, sarà un dual channel che supporterà fino a 4 dimm massimi su mobo che solitamente ne rendono disponibili 8 oppure il die avrà 4 canali nativi e sarà Skylake-S ad averne 2 disattivati?

- Cache L3 fortemente ridotta rispetto alle cpu Broadwell-E, 13,75mb vs 25mb suppongo nelle versioni a 10 core: manovra per contenere i costi di produzioni ed aumentare le rese nell'ottica di una concorrenza nuovamente agguerrita? :sofico:

-Piattaforma LGA 2066 e non lga 3647, il socket monstre, che verrà a questo punto usato solo su server. Quest'ultimo non doveva essere un socket unificatore di tutte le proposte Xeon, eccetto quelle di derivazione mobile (4core + iGPU)? Che fine faranno le economie di scala che hanno permesso ad Intel di sviluppare e proporre il socket 2011 a prezzi accettabili, nonostante i bassi volumi globali? Possibile eliminazione delle proposte lga 115x a favore di soluzioni pre-saldate nella ormai limitata fascia bassa desktop, a favore del nuovo lga 2066?

Voi che ne pensate? A me pare che Zen e Am4 cominci a fare paura ad Intel ;)

Penso che se dobbiamo commentare anche i rumors sulla concorrenza non ci bastano 3 threads!:rolleyes:
Restiamo su ZEN e lasciamo alle discussioni ufficiali specifiche tali news...

george_p
18-07-2016, 22:02
Se non ricordo male mancano poche settimane alla conferenza in cui Lisa Su parlerà di nuovo di Zen.
Beh, è un bel pò di tempo :sofico:

capitan_crasy
18-07-2016, 23:42
"E pur si muove": qualcosa...

http://i.imgur.com/Vc9f20r.jpg

digieffe
19-07-2016, 00:59
e bravo al capitano un bel A12 9800 su socket am4 :)

ora parti alla ricerca si un bel Zen su am4 :D



chiedo ai più esperti quella è una mobo di test o di produzione?
(a me da la sensazionedi test)

cdimauro
19-07-2016, 06:13
I paper di IBM sono usciti solo di recente... Era da dimostrare che era il più efficiente.
Ma poi ci sono anche altri obiettivi: se vuoi le massime prestazioni, ti dirigi verso i FO4 bassi (era questa la strategia di INTEL, ma IMHO ha messo ALU troppo poco potenti), se vuoi i minori consumi, ti orienti verso i FO4 alti (i vari ARM nei cellulari)... Tutto dipende dal tuo obiettivo... Per una CPU general purpose che scali dai server ai cellulari, IMHO il 17 è un ottimo compromesso...
Bene, allora ha senso che si usino FO4 diversi. Meno male: più spazio alle esigenze specifiche, ma anche alla creatività. :)
Poi AMD se ne era uscito con le amd 64 e il P4, con le sue ALU a 16 bit dual pumped, ne è uscito sconfitto... Se il P4 fosse nato sin dall'inizio con ALU a 64 bit, magari anche dual pumped e/o a latenza variabile per avere ancora gli alti clock e maggiori prestazioni a 16/32 bit, magari in numero di 4 e altrettanto FPU, allora il P4 avrebbe avuto un IPC spettacolare e non sarebbe stato abbandonato... In realtà non era tanto male...
Le ALU a 64 bit all'epoca erano del tutto inutili. Comunque mi pare che con Northwood o Prescott le ALU siano passate da 16 a 32 bit, più qualche altro miglioramento.

Non confondiamo il primo P4 coi successivi.
E' l'implementazione che era scarsa... Il POWER 6 ha raggiunto i 6GHz... L'IPC non era tanto alto, ma come da tradizione POWER immagino che aveva tante pipeline ed essendo in-order, anche molti thread per sfruttarle...
Esattamente: è fatto per offrire prestazioni aggregate elevate. A prezzo della latenza/tempi di risposta. Un design molto diverso da quello del P4.
Su anandtech si fanno le pippe sul supposto ES step A0, dando per scontato che quelle siano le frequenze finali, e inoltre supponendo un guadagno da SMT poco sopra il 10%... Già.. Perchè AMD con 10 porte contro 8, di cui 4+4 contro 4 per le operazioni di calcolo, riuscirà sicuramente a fare peggio di INTEL... Perchè non sono in grado di fare per bene l'SMT... Come se il CMT fosse poi tanto diverso...
Perdonami, ma lì le pippe non se le devono fare, mentre qui sì? :O :D
@CDdimauro

Tieni presente che commercialmente era vitale per AMD raggiungere l'MT del socket 2011. La vera batosta per BD non è stato l'IPC e/o la potenza ST, quanto invece l'assenza dell'evoluzione dal 32nm al 22nm unito ad un TDP del 32nm che di fatto ha cancellato Komodo PD X10.

Un PD X10 già sul 32nm ed un XV almeno X12 sul 22nm avrebbero permesso, commercialmente, di intaccare l'offerta prestazionale MT degli X6+6 socket 2011.
Thuban, Phenom II X6, veniva venduto appunto perchè aveva più MT degli X4+4 Intel, anche se con lo stesso IPC Phenom II ed inferiore a quello Intel.
PD, nel gioco IPC * frequenza, equivale al Phenom II, XV, con +15%, non credo che rappresenti meno (o comunque molto meno) di quanto Intel abbia guadagnato dal 2600K ad oggi, perchè va anche considerato che AMD abbia rinunciato a qualche punto in più di IPC perchè frenata dal silicio in quanto TDP.

Guardala in questo modo: BD ha una efficienza segata dal silicio, perchè un PD X8 consuma quasi quanto un 5960X, con consumo/prestazioni enorme, ma non è un problema architetturale, perchè BR sul 28nm (BD in veste XV) è efficiente, come pure lo sarebbe un teorico XV X16 sul 14nm, ma è ovvio che un PD X8 con un TDP stile 5960X o 6850K sul 32nm non possa fare diversamente causa silicio.

Il PIV era sulla stessa miniaturizzazione AMD, non ha alcuna scusante silicio.
Non c'entra. Il P4 è stato ammazzato proprio perché il silicio non ha dato i risultati sperati. Esattamente com'è successo con BD. In entrambi i casi si prevedeva di raggiungere frequenze più elevate, per compensare e superare l'inefficienza architetturale.

Quanto alla miniaturizzazione, non mi pare che fosse esattamente la stessa. AMD era su SOI, e Intel su StrainedSilicon, se non ricordo male.

Poi anche con le stesse tecnologie, un processo non è esattamente lo stesso.
Il P4 ha raggiunto i 3,8 ghz def sui 90 nm (sui 65nm si è fermato a 3,6 segno che il silicio intel miniaturizzandolo abbassa le frequenze), ma in nessun caso P4 vs A64 era pari, figuriamoci superiore.
Proprio sui test tra A64 e P4 ci sono state accuse di benchmark faziosi dove i singoli test erano ottimizzati per Intel senza integrare la possibilità di sfruttare le estensione degli Athlon64.
Una quasi parità tra p4 e Athlon64 ci fu solo con software mt e cpu single core, con l'avvento del dual core il P4 non ha mai impensierito prestazionalmente gli Athlon64.
Non mi pare di aver mai parlato di superiorità. Se rileggi il mio commento, ho risposto in merito a un ben preciso termine che era stato citato: "divario".

Che, come già detto, con le successive versioni del P4 è stato colmato (ergo: è diventato competitivo). Ma ciò non significa che il P4 sia stato superiore al K7 o al K8, se non per alcuni casi, e in particolare con l'uso dell'Hyperthreading dove le applicazioni ne potevano beneficiare.

Infine, sulle estensioni a 64 bit, all'epoca aveva poco senso effettuare benchmark in ambito consumer: non c'era nemmeno Windows XP x64, che uscì a metà 2005, quando i P4 stavano ormai uscendo di scena (l'ultimo rappresentante di questa famiglia uscirà a inizio 2006).

bjt2
19-07-2016, 06:44
Ricordo sul P4 northwood con HT (2.8GHz) quando modificai un software di filtraggio immagini per fare tutto su due thread... Ottenni un miglioramento del 7%... Rimasi deluso...

bjt2
19-07-2016, 07:49
Stamattina leggevo la recensione di un cellulare... Un SoC con 4 core ARM a 2.5GHz, 4 core low power a 1.8GHz, una GPU a 900MHz da 122GFlops, con una batteria da 3.4Ah (circa 10Wh) che dura 18 ore, quindi con un consumo medio comprensivo di display e apparato radio sotto al W... Quindi si può supporre che il consumo massimo dell'intero SoC sia 2-2.5W. (fatto sul 16nm FF+ TSMC)
E vorrebbero farmi credere che 8 core Zen a 2.8GHz dissipano 95W?!?!?
Anche ammettendo che un intero core Zen sia pari alle 4+4 CPU + la GPU Mali di quel SoC, mi vuoi dire che da 2.5GHz a 2.8 GHz, passiamo da 2.5W/core a 12W core? Oltretutto i core ARM sono degli ASIC con un FO4 spaventoso...

Mah!

marchigiano
19-07-2016, 08:11
Stamattina leggevo la recensione di un cellulare... Un SoC con 4 core ARM a 2.5GHz, 4 core low power a 1.8GHz, una GPU a 900MHz da 122GFlops, con una batteria da 3.4Ah (circa 10Wh) che dura 18 ore, quindi con un consumo medio comprensivo di display e apparato radio sotto al W... Quindi si può supporre che il consumo massimo dell'intero SoC sia 2-2.5W. (fatto sul 16nm FF+ TSMC)
E vorrebbero farmi credere che 8 core Zen a 2.8GHz dissipano 95W?!?!?
Anche ammettendo che un intero core Zen sia pari alle 4+4 CPU + la GPU Mali di quel SoC, mi vuoi dire che da 2.5GHz a 2.8 GHz, passiamo da 2.5W/core a 12W core? Oltretutto i core ARM sono degli ASIC con un FO4 spaventoso...

Mah!

quale cellulare?

e bravo al capitano un bel A12 9800 su socket am4 :)

ora parti alla ricerca si un bel Zen su am4 :D



chiedo ai più esperti quella è una mobo di test o di produzione?
(a me da la sensazionedi test)

in effetti sembra una mobo molto sempificata

Piedone1113
19-07-2016, 08:19
cut

Non mi pare di aver mai parlato di superiorità. Se rileggi il mio commento, ho risposto in merito a un ben preciso termine che era stato citato: "divario".

Che, come già detto, con le successive versioni del P4 è stato colmato (ergo: è diventato competitivo). Ma ciò non significa che il P4 sia stato superiore al K7 o al K8, se non per alcuni casi, e in particolare con l'uso dell'Hyperthreading dove le applicazioni ne potevano beneficiare.

Infine, sulle estensioni a 64 bit, all'epoca aveva poco senso effettuare benchmark in ambito consumer: non c'era nemmeno Windows XP x64, che uscì a metà 2005, quando i P4 stavano ormai uscendo di scena (l'ultimo rappresentante di questa famiglia uscirà a inizio 2006).

Cesare, ti do del tu se permetti, il mio non era un discorso per contraddire le tue affermazioni, quanto piuttosto un riassunto della situazione.
Ps la migliore e presunta efficienza del P4 che scalavano in prestazioni con il MT (rispetto alle proprie prestazioni ST) non furono mai sufficenti a contrastare AMD che vide il suo miglior periodo commerciale e prestazionale proprio nel settore Pro per le sue prestazioni elevate anche in MT e che scalavano pressocchè linearmente con l'aumento delle Cpu installate nei sistemi (grazie anche al bus HT interno alla cpu, mentre Intel doveva usare il Chipset rendendo la piattaforma più costosa e meno efficiente).
In definitiva quello che accomuna Pentium 4 e BD è il fatto che entrambi sono rimasti dei brutti anatroccoli senza mai diventare cigni ( Bd in verità almeno è stato più grassottello, da poterci fare almeno due Galletti arrosto, così per non rimanere digiuni)

paolo.oliva2
19-07-2016, 08:47
Non c'entra. Il P4 è stato ammazzato proprio perché il silicio non ha dato i risultati sperati. Esattamente com'è successo con BD. In entrambi i casi si prevedeva di raggiungere frequenze più elevate, per compensare e superare l'inefficienza architetturale.

Aspetta, ti chiarisco meglio il mio concetto.
Il 14nm GF permetterebbe un XV X16? Se un 5960X (22nm) e idem un 6850K vanno il doppio di un 8350, ed un XV X16 andrebbe più del doppio di un 8350, io non vedo un'efficienza architetturale peggiore di BD vs Broadwell, se per efficienza intendiamo la potenza a die in rapporto ai consumi.


Quanto alla miniaturizzazione, non mi pare che fosse esattamente la stessa. AMD era su SOI, e Intel su StrainedSilicon, se non ricordo male.
Parlando di miniaturizzazione io intendendo genericamente, le scelte di tipo silicio e miniaturizzazione sono soggettive, e comunque tornando al discorso sopra, se il 14nm Intel è il migliore sul mercato, se BD su un silicio peggiore raggiunge efficienze simili, come si fa ad estrapolare che BD è inefficiente come il PIV?

Per quello che ti ho evidenziato, non si può fare una minestra di tutto. Secondo me pure con Bradwell Intel sperava frequenze superiori, esempio un 6700K +200MHz def, ma puoi fare una similitudine con il PIV? Il PIV ha disatteso le aspettative di 10GHz arrivando a 3,8GHz, BD i 4,7GHz def li ha raggiunti, ma non al TDP sperato.

In secondo luogo, ma ti assicuro che non faccio un discorso di bandiera, BD ha migliorato verso l'architettura precedente Phenom II in tutto, MT, ST e carico (e parlando di architettura, sarebbe idoneo ipotizzare un FX XV e non un FX PD). Il PIV ha raggiunto gli stessi miglioramenti?
Che poi BD/CMT di certo non brilla in ST, pienamente d'accordo, ma per la sua fascia di prezzo hai comunque un procio Opteron con annesse e connesse tutte le caratteristiche di un procio server.

digieffe
19-07-2016, 09:03
Stamattina leggevo la recensione di un cellulare... Un SoC con 4 core ARM a 2.5GHz, 4 core low power a 1.8GHz, una GPU a 900MHz da 122GFlops, con una batteria da 3.4Ah (circa 10Wh) che dura 18 ore, quindi con un consumo medio comprensivo di display e apparato radio sotto al W... Quindi si può supporre che il consumo massimo dell'intero SoC sia 2-2.5W. (fatto sul 16nm FF+ TSMC)
E vorrebbero farmi credere che 8 core Zen a 2.8GHz dissipano 95W?!?!?
Anche ammettendo che un intero core Zen sia pari alle 4+4 CPU + la GPU Mali di quel SoC, mi vuoi dire che da 2.5GHz a 2.8 GHz, passiamo da 2.5W/core a 12W core? Oltretutto i core ARM sono degli ASIC con un FO4 spaventoso...

Mah!

non ne farei una questione di core e frequenze nominali ma di potenza reale complessiva.

i dati nominali di potenza complessiva per i chip mobili sono molto distanti da quelli reali, dovresti valurare per entrambi (consumo medio)/(potenza reale), tieni anche conto che quei chip sono ottimizzati al massimo per il consumo.

paolo.oliva2
19-07-2016, 09:07
quale cellulare?

Prendi qualsiasi cellulare X8 in commercio, alcuni hanno addirittura la batteria da 2800mA, riuscendo comunque a coprire le 24h...

Comunque anche a me viene da riflettere, perchè anche se non conosco al millesimo i dati di tutti i proci in commercio, a me sembra che AMD con XV e sul 28nm GF (che di certo non brilla nei consumi all'aumentare della frequenza) ha tutto sommato una curva dai 15W ai 65W accettabile in frequenza, mentre Broadwell mobile 14nm sui 15W è si stupendo, ma un 6700K ha 6 volte in più di TDP.
TEORIZZANDO un BR sul 14nm anzichè sul 28nm, in 95W che scapperebbe fuori se già in 65W sul 28nm ha +100MHz di frequenza turbo e -300MHz in frequenza def rispetto ad un 6700K (e penso con una iGPU più performante?).

Un 6950X X10 3GHz è senz'altro un'ottima performances per il 14nm Intel, ma per +500MHz (+16% di clock) ci ritroviamo a X6, -40% di core, è una vita. Per me è questo il punto che genera pessimismo sulle frequenze che avrà Zen, però a me sembra che si basi troppo su qualcosa che non va in Intel tra il suo silicio e l'FO4 della sua architettura, non generalizzato a chiunque.

paolo.oliva2
19-07-2016, 09:09
non ne farei una questione di core e frequenze nominali ma di potenza reale complessiva.

i dati nominali di potenza complessiva per i chip mobili sono molto distanti da quelli reali, dovresti valurare per entrambi (consumo medio)/(potenza reale), tieni anche conto che quei chip sono ottimizzati al massimo per il consumo.

Questo è comunque sacrosanto... però un qualche cosa c'è (quello che ho scritto nel mio post precedente il tuo).

bjt2
19-07-2016, 10:01
quale cellulare?

Oggi ho iniziato a leggere su PC professionale la recensione dell' Huawei P9 plus, con schermo 5,5" full HD... Il TDP l'ho supposto io, vista la durata della batteria, ma potrebbe tranquillamente essere 1,5W...

bjt2
19-07-2016, 10:05
non ne farei una questione di core e frequenze nominali ma di potenza reale complessiva.

i dati nominali di potenza complessiva per i chip mobili sono molto distanti da quelli reali, dovresti valurare per entrambi (consumo medio)/(potenza reale), tieni anche conto che quei chip sono ottimizzati al massimo per il consumo.

Ok, ma tu pensi che un singolo core Zen abbia più transistors di 8 core ARM più una GPU Mali da 122GFlops? Che con un FO4 spaventoso e probabilmente transistors RVT, se non HVT almeno per gli ARM piccolini, consumano di media 0,5W (ed ho supposto 2.5W a pieno carico)? E che 8 core Zen, invece di dissipare 20W a 2.5GHz, dissipano 95W a 2.8GHz?

E' chiaro che quell'ES è un primissimo esemplare di una nuova architettura, su processo nuovo e sconosciuto. Avrà dei Vcore spaventosi. Mi aspetto che in produzione i 2.8GHz base li abbia il 24 core o al massimo il 16...

digieffe
19-07-2016, 10:15
Prendi qualsiasi cellulare X8 in commercio, alcuni hanno addirittura la batteria da 2800mA, riuscendo comunque a coprire le 24h...

Comunque anche a me viene da riflettere, perchè anche se non conosco al millesimo i dati di tutti i proci in commercio, a me sembra che AMD con XV e sul 28nm GF (che di certo non brilla nei consumi all'aumentare della frequenza) ha tutto sommato una curva dai 15W ai 65W accettabile in frequenza, mentre Broadwell mobile 14nm sui 15W è si stupendo, ma un 6700K ha 6 volte in più di TDP.
TEORIZZANDO un BR sul 14nm anzichè sul 28nm, in 95W che scapperebbe fuori se già in 65W sul 28nm ha +100MHz di frequenza turbo e -300MHz in frequenza def rispetto ad un 6700K (e penso con una iGPU più performante?).

Un 6950X X10 3GHz è senz'altro un'ottima performances per il 14nm Intel, ma per +500MHz (+16% di clock) ci ritroviamo a X6, -40% di core, è una vita. Per me è questo il punto che genera pessimismo sulle frequenze che avrà Zen, però a me sembra che si basi troppo su qualcosa che non va in Intel tra il suo silicio e l'FO4 della sua architettura, non generalizzato a chiunque.

tieni conto che i 140w di intel sono veramente abbondanti, propio ieri pensavo che volendo "riempire" il TDP potrebbe dare +200mhz al X10 ed al X8.

Radeon80
19-07-2016, 10:27
Mi ha incuriosito il presunto rumor su Zen uscito qualche giorno fa.
Si parla di versione solo a 4 e 8 core(e non 6).
In base a quello che sappiamo essendo il die costituito da 2 blocchi da 4 core ciascuno con un singolo canale di memoria, allora la versione da 4 core nel caso sarà un 8 core con un "modulo" disabilitato dovrebbe essere single channel.

bjt2
19-07-2016, 10:43
Mi ha incuriosito il presunto rumor su Zen uscito qualche giorno fa.
Si parla di versione solo a 4 e 8 core(e non 6).
In base a quello che sappiamo essendo il die costituito da 2 blocchi da 4 core ciascuno con un singolo canale di memoria, allora la versione da 4 core nel caso sarà un 8 core con un "modulo" disabilitato dovrebbe essere single channel.

Probabilmente si disabilita solo il core complex e la relativa L3... Se un die ha uno dei due controller RAM (o qualsiasi altra parte del NB e SB, ovviamente) non funzionanti si butta...

capitan_crasy
19-07-2016, 10:52
e bravo al capitano un bel A12 9800 su socket am4 :)

ora parti alla ricerca si un bel Zen su am4 :D



chiedo ai più esperti quella è una mobo di test o di produzione?
(a me da la sensazionedi test)

La scheda dovrebbe provenire da un grande produttore OEM ed è in versione "definitiva" anche se non la vedremo MAI in commercio se non in qualche PC da supermercato...

paolo.oliva2
19-07-2016, 12:08
tieni conto che i 140w di intel sono veramente abbondanti, propio ieri pensavo che volendo "riempire" il TDP potrebbe dare +200mhz al X10 ed al X8.

L'X10 è già selezionato, e +200MHz su 10 core non è che sia un aumento da poco...

In ogni caso, sui TDP larghi di Intel, io nutro dubbi, perchè le valutazioni sono basate sulle testate che hanno avuto i proci da Intel (sorge il dubbio se siano selezionati o meno). Di info che provengono dalla massa, io ho letto solamente sul 6700K, tutto fuorchè di manica larga sia per TDP che per Vcore.

Comunque io rimango dell'idea che il 14nm Intel non brilla di certo per frequenza massima, e non è solamente per l'FO4, visto che scala peggio del 22nm sempre Intel. Mi sembra che il 22nm murava a 5GHz, il 14nm fatica a superare i 4,4GHz...

In ogni caso Intel, almeno commercialmente, specie se Zen pomperà, la carta dell'aumento del clock la giocherà di certo, ma io ci metterei un po' di malizia se ricorrerà, come varie volte ha fatto, di vendere un procio ad una frequenza che poi sotto carico e/o lungo tempo, non mantiene.

marchigiano
19-07-2016, 13:50
Prendi qualsiasi cellulare X8 in commercio, alcuni hanno addirittura la batteria da 2800mA, riuscendo comunque a coprire le 24h...

Oggi ho iniziato a leggere su PC professionale la recensione dell' Huawei P9 plus, con schermo 5,5" full HD... Il TDP l'ho supposto io, vista la durata della batteria, ma potrebbe tranquillamente essere 1,5W...

http://www.gsmarena.com/oneplus_3-review-1455p3.php

un cellulare di fascia alta, con l'ultimo soc disponibile, batteria generalmente attorno ai 10-12Wh, fa mediamente 6-12 ore di web broswing continuo o 10-15 ore di esecuzione di filmati video, quindi con la cpu mediamente in idle con qualche picco di lavoro.

se fai partire un benchmark che tiene costantemente la cpu al 100% credo in 3-4 ore scarichi la batteria

il tdp secondo me sfora i 2W, poi magari va in throttling per surriscaldamento

plainsong
19-07-2016, 14:23
Un quesito per i più esperti: guardando l'organizzazione del die di Zen, mi chiedo se la presenza di un pool di cache l3 condivisa tra blocchi di 4 core, pur presentando il vantaggio economico di una spiccata modularità, possa in qualche modo impattare negativamente le performance delle soluzioni 8-core e superiori rispetto ad un design con cache l3 unificata.

bjt2
19-07-2016, 15:20
http://www.gsmarena.com/oneplus_3-review-1455p3.php

un cellulare di fascia alta, con l'ultimo soc disponibile, batteria generalmente attorno ai 10-12Wh, fa mediamente 6-12 ore di web broswing continuo o 10-15 ore di esecuzione di filmati video, quindi con la cpu mediamente in idle con qualche picco di lavoro.

se fai partire un benchmark che tiene costantemente la cpu al 100% credo in 3-4 ore scarichi la batteria

il tdp secondo me sfora i 2W, poi magari va in throttling per surriscaldamento

Anche ammettendo il caso peggiore di 3 ore e quindi 3Wh di consumo, penso che tra wifi, apparato radio e schermo (un 5.5" poi), al SoC rimarranno al massimo 2W...

Piedone1113
19-07-2016, 15:25
L'X10 è già selezionato, e +200MHz su 10 core non è che sia un aumento da poco...

In ogni caso, sui TDP larghi di Intel, io nutro dubbi, perchè le valutazioni sono basate sulle testate che hanno avuto i proci da Intel (sorge il dubbio se siano selezionati o meno). Di info che provengono dalla massa, io ho letto solamente sul 6700K, tutto fuorchè di manica larga sia per TDP che per Vcore.

Comunque io rimango dell'idea che il 14nm Intel non brilla di certo per frequenza massima, e non è solamente per l'FO4, visto che scala peggio del 22nm sempre Intel. Mi sembra che il 22nm murava a 5GHz, il 14nm fatica a superare i 4,4GHz...

In ogni caso Intel, almeno commercialmente, specie se Zen pomperà, la carta dell'aumento del clock la giocherà di certo, ma io ci metterei un po' di malizia se ricorrerà, come varie volte ha fatto, di vendere un procio ad una frequenza che poi sotto carico e/o lungo tempo, non mantiene.
Paolo mi sa che il problema maggiore del 6700k non sia il silicio, ma la trasmissione di calore all'HIS.
Fermo restando che ho notato anch'io dopo i 32nm una minore propensione a salire di clock da parte del silicio Intel.
Lacuna che non credo affatto che derivi dall'architettura (o almeno in modo esclusivo)

bjt2
19-07-2016, 16:45
Paolo mi sa che il problema maggiore del 6700k non sia il silicio, ma la trasmissione di calore all'HIS.
Fermo restando che ho notato anch'io dopo i 32nm una minore propensione a salire di clock da parte del silicio Intel.
Lacuna che non credo affatto che derivi dall'architettura (o almeno in modo esclusivo)

E invece io credo che sia proprio la nuova architettura... La prossima revisione di Skylake e mi pare anche broadwell-E, hanno un setting per un offset negativo del clock, quando in avx 256... Questo perchè è questa unità che limita l'overclock... Quando è attivo l'avx2 a 256 bit, si può impostare di abbassare il clock, per poter salire di più...

paolo.oliva2
19-07-2016, 17:03
Paolo mi sa che il problema maggiore del 6700k non sia il silicio, ma la trasmissione di calore all'HIS.
Fermo restando che ho notato anch'io dopo i 32nm una minore propensione a salire di clock da parte del silicio Intel.
Lacuna che non credo affatto che derivi dall'architettura (o almeno in modo esclusivo)

Io sinceramente ho visto un articolo francese (che è stato postato su questo TH) dove si downcloccava e overvoltava un 6700K... ma il range era da 4GHz a 4,4GHz, a 4,5GHz era instabile con 1,35V e i 4GHz li teneva appena sotto 1,3V (1,29V mi sembra).
L'HIS non metto in dubbio che può influire sul raffreddamento del procio, ma non sul Vcore occorrente per scalare in frequenza... al limite marginalmente similarmente all'effetto che si ha tra un procio che si occa d'inverno e lo stesso d'estate.
Ma quel 6700K, per solamente +400MHz, richiedeva +0,06V, che sono una vita consideranto che il Vcore Intel per 3GHz è solamente a 1,1V, ben +0,2V per 1GHz in più, e +0,06V per ulteriori 400MHz.
Figurati che il mio 8370, 1,28V a 4GHz, per 4,5GHz che sono già +100MHz rispetto all'OC del 6700K, mi chiede 1,29V, solamente +0,01V contro 0,06V del 14nm Intel.

L'aumento di Vcore in base alla frequenza del 14nm Intel fa letteralmente paura... perchè per 3GHz può anche essere il migliore del mondo (e probabilmente lo è), ma una cosa è un 6950X X10 magari a 1,09V per 3GHz, con TDP ottimale, ma +0,2V per 1 GHz potrebbero voler dire che per +200MHz (3,2GHz) il Vcore passerebbe da 1,09V a 1,13V (+0,04V), e questo moltiplicato per 10 core non mi sembra un aumento TDP marginale... e saremmo ancora a 3,2GHz, pensa già per 4GHz a 1,3V o più....

Roland74Fun
19-07-2016, 17:46
......Figurati che il mio 8370, 1,28V a 4GHz, per 4,5GHz che sono già +100MHz rispetto all'OC del 6700K, mi chiede 1,29V, solamente +0,01V contro 0,06V del 14nm Intel......

Ma come fate tutti ad overcloccare così facilmente questi processori.
Il mio 8350 a 4.0 GHz con 1.28v per andare a 4.5 vuole una centrale elettonucleare....:eek::eek:

Piedone1113
19-07-2016, 17:57
Io sinceramente ho visto un articolo francese (che è stato postato su questo TH) dove si downcloccava e overvoltava un 6700K... ma il range era da 4GHz a 4,4GHz, a 4,5GHz era instabile con 1,35V e i 4GHz li teneva appena sotto 1,3V (1,29V mi sembra).
L'HIS non metto in dubbio che può influire sul raffreddamento del procio, ma non sul Vcore occorrente per scalare in frequenza... al limite marginalmente similarmente all'effetto che si ha tra un procio che si occa d'inverno e lo stesso d'estate.
Ma quel 6700K, per solamente +400MHz, richiedeva +0,06V, che sono una vita consideranto che il Vcore Intel per 3GHz è solamente a 1,1V, ben +0,2V per 1GHz in più, e +0,06V per ulteriori 400MHz.
Figurati che il mio 8370, 1,28V a 4GHz, per 4,5GHz che sono già +100MHz rispetto all'OC del 6700K, mi chiede 1,29V, solamente +0,01V contro 0,06V del 14nm Intel.

L'aumento di Vcore in base alla frequenza del 14nm Intel fa letteralmente paura... perchè per 3GHz può anche essere il migliore del mondo (e probabilmente lo è), ma una cosa è un 6950X X10 magari a 1,09V per 3GHz, con TDP ottimale, ma +0,2V per 1 GHz potrebbero voler dire che per +200MHz (3,2GHz) il Vcore passerebbe da 1,09V a 1,13V (+0,04V), e questo moltiplicato per 10 core non mi sembra un aumento TDP marginale... e saremmo ancora a 3,2GHz, pensa già per 4GHz a 1,3V o più....
Per assurdo Paolo, ma nemmeno tanto, maggiore è il potere dissipante e minore sono i voltaggi per stare alla stessa frequenza:
CPU più fredda minori voltaggi, ma te sei abituato al soi che è meno influenzato dalle temp da questo punto di vista.
Fermo restando che oramai il sistema a transistor "tradizionali" è stato spremuto all'inverosimile ed un ipc uguale a intel, ma con +500 mhz sulla frequenza la vedo come un miracolo da parte di AMD e GF, non perchè intel è il top, semplicemente perchè la fisica è quella, e a meno di un ottimo compromesso di disposizione delle area, densità relativa adeguata e tutto il resto dell'ambaraban per avere una cpu come preventivata AMD deve fare un'autentica opera d'arte.

paolo.oliva2
19-07-2016, 17:59
http://www.gamestar.de/hardware/news/prozessoren/3276038/amd_zen.html

Qua c'è un riporto su quanto aveva postato Bjt2 sugli ES Zen.
E' in tedesco, ho usato il traduttore.

Finora AMD non ha lasciato le sue carte quando si tratta di dettagli tecnici per futuri processori Zen. Tuttavia, i primi modelli di computer desktop sono venuti già sei o sette mesi sul mercato, quando AMD può rispettare il calendario previsto. Pertanto, ci sono naturalmente già chiamati campioni di ingegneria per i test presso i partner AMD, che sono alcune specifiche nel Foro di Anandtech sono emerse, che sono classificate anche da addetti ai lavori che realistico.
Di conseguenza, attualmente ci sono quattro versioni di processori Zen, di cui due CPU Opteron per server. Per i computer desktop, un modello per l'AM4 socket è quotata, che ha quattro core in grado di elaborare otto thread e ha un TDP di 65 watt. Un secondo modello con otto core e 16 thread consumerà 95 watt. Entrambi i processori saranno clock a riposo a 550 MHz giù e consumano senza carico solo 2,5 o 5 watt. Le due CPU sono sostanzialmente 2.8GHz rapidamente, tutti i core possono contemporaneamente accelerare a 3.050 MHz in modalità Turbo e raggiungere un massimo di 3,2 GHz qui. Di solito i campioni Engineering non sono più in alto clock come le versioni finali.

Con tutto il beneficio di affidabilità di ciò, la cosa buona, a mio parere, è che Zen X4 avrebbe un TDP di 65W vs un X8 di 95W.

Ragiogniamoci un attimo... avrebbe senso per AMD commercializzare un Zen X4 con un IPC inferiore ad Intel (~-10%) e nel contempo distante in frequenza def dai 4GHz di un 6700k? A me pare di no.

E qui viene il bello. Se un Zen X4 nei 65W fosse a frequenze simili ad un 6700K, cioè 4GHz, mi pare OVVIO, visto che Zen X8 non è altro che 2 moduli Zen X4, che Zen X8 con 65W * 2 = 130W, dovrebbe avere LE STESSE frequenze di un Zen X4.

Quindi l'aspettativa che un Zen X8 si possa tenere sui 4GHz dentro i 140W, a me sembrerebbero granitiche, ammesso e concesso che Zen X4 sia 65W.

paolo.oliva2
19-07-2016, 18:07
Ma come fate tutti ad overcloccare così facilmente questi processori.
Il mio 8350 a 4.0 GHz con 1.28v per andare a 4.5 vuole una centrale eletronucleare....:eek::eek:

Il mio 8350 voleva:

1,425V a 4,6GHz (ma io lo tenevo a 1,45V per sicurezza in quanto lo stracarico, e comunque avendo la dissipazione a liquido, +0,025V non lo sento neppure).

1,530V per 5GHz, ingestibile (per il DU, non per l'RS) in estate e con stracarico seppure a liquido.

Il mio 8370 l'ho solamente provato a 1,29V con il dissi stock all'equatore (sono in Costa d'Avorio) a 4,5GHz. Non ho provato frequenze più alte perchè ovviamente con il dissi stock non posso caricarlo... e comunque scalda di più (in OC) a parità di frequenza (>4,6GHz) anche se con Vcore nettamente più basso.

Il 25 parto e entro agosto faccio tutte le prove a liquido (ho fatto un bunker sotto terra, dovrei avere 24° circa), e mi metto in posizione per Zen :sofico:

P.S.
Il trucco per avere un buon Vcore è: raffreddare bene il procio, avere una mobo con Vcore/fasi certosina, un buon ali... e l'immancabile fondo schiena :)

digieffe
19-07-2016, 18:59
Ok, ma tu pensi che un singolo core Zen abbia più transistors di 8 core ARM più una GPU Mali da 122GFlops? Che con un FO4 spaventoso e probabilmente transistors RVT, se non HVT almeno per gli ARM piccolini, consumano di media 0,5W (ed ho supposto 2.5W a pieno carico)? E che 8 core Zen, invece di dissipare 20W a 2.5GHz, dissipano 95W a 2.8GHz?

E' chiaro che quell'ES è un primissimo esemplare di una nuova architettura, su processo nuovo e sconosciuto. Avrà dei Vcore spaventosi. Mi aspetto che in produzione i 2.8GHz base li abbia il 24 core o al massimo il 16...

penso che i transistor anche se uguali in numero ne lavorino di meno

xk180j
19-07-2016, 20:01
http://www.gamestar.de/hardware/news/prozessoren/3276038/amd_zen.html

Qua c'è un riporto su quanto aveva postato Bjt2 sugli ES Zen.
E' in tedesco, ho usato il traduttore.

Finora AMD non ha lasciato le sue carte quando si tratta di dettagli tecnici per futuri processori Zen. Tuttavia, i primi modelli di computer desktop sono venuti già sei o sette mesi sul mercato, quando AMD può rispettare il calendario previsto. Pertanto, ci sono naturalmente già chiamati campioni di ingegneria per i test presso i partner AMD, che sono alcune specifiche nel Foro di Anandtech sono emerse, che sono classificate anche da addetti ai lavori che realistico.
Di conseguenza, attualmente ci sono quattro versioni di processori Zen, di cui due CPU Opteron per server. Per i computer desktop, un modello per l'AM4 socket è quotata, che ha quattro core in grado di elaborare otto thread e ha un TDP di 65 watt. Un secondo modello con otto core e 16 thread consumerà 95 watt. Entrambi i processori saranno clock a riposo a 550 MHz giù e consumano senza carico solo 2,5 o 5 watt. Le due CPU sono sostanzialmente 2.8GHz rapidamente, tutti i core possono contemporaneamente accelerare a 3.050 MHz in modalità Turbo e raggiungere un massimo di 3,2 GHz qui. Di solito i campioni Engineering non sono più in alto clock come le versioni finali.

Con tutto il beneficio di affidabilità di ciò, la cosa buona, a mio parere, è che Zen X4 avrebbe un TDP di 65W vs un X8 di 95W.

Ragiogniamoci un attimo... avrebbe senso per AMD commercializzare un Zen X4 con un IPC inferiore ad Intel (~-10%) e nel contempo distante in frequenza def dai 4GHz di un 6700k? A me pare di no.

E qui viene il bello. Se un Zen X4 nei 65W fosse a frequenze simili ad un 6700K, cioè 4GHz, mi pare OVVIO, visto che Zen X8 non è altro che 2 moduli Zen X4, che Zen X8 con 65W * 2 = 130W, dovrebbe avere LE STESSE frequenze di un Zen X4.

Quindi l'aspettativa che un Zen X8 si possa tenere sui 4GHz dentro i 140W, a me sembrerebbero granitiche, ammesso e concesso che Zen X4 sia 65W.
condivido il ragionamento ma quello che non mi torna è come sia possibile che x8 abbia le stesse frequenze di 2 x4 ma un tdp di 95w e non 130w

bjt2
19-07-2016, 22:52
penso che i transistor anche se uguali in numero ne lavorino di meno

La mia era una domanda retorica... Su questo thread è stato postato un consumo di 2.5W a 2.7GHz sul 28nm per un intero modulo XV... Figuriamoci un core Zen sul 14nm...

marchigiano
19-07-2016, 23:12
Ma come fate tutti ad overcloccare così facilmente questi processori.
Il mio 8350 a 4.0 GHz con 1.28v per andare a 4.5 vuole una centrale elettonucleare....:eek::eek:

ci vuole tanto raffreddamento e tanta tensione

Anche ammettendo il caso peggiore di 3 ore e quindi 3Wh di consumo, penso che tra wifi, apparato radio e schermo (un 5.5" poi), al SoC rimarranno al massimo 2W...

lo schermo più che altro.... comunque per me i soc top di gamma arrivano anche a picchi di 3W lato core arm, la gpu non so

bjt2
19-07-2016, 23:18
ci vuole tanto raffreddamento e tanta tensione



lo schermo più che altro.... comunque per me i soc top di gamma arrivano anche a picchi di 3W lato core arm, la gpu non so

Beh 8 core ARM... Per quanto piccoli, credo che 2 core arm facciano il consumo di un core Zen o almeno BD... 4 core sicuro...

Piedone1113
19-07-2016, 23:22
condivido il ragionamento ma quello che non mi torna è come sia possibile che x8 abbia le stesse frequenze di 2 x4 ma un tdp di 95w e non 130w
Perché nei 65w sono inclusi il memory controller, il North bridge il controller Sata, forse anche audio e network. Tutte cose che non vengono duplicate nell'8 core.

Inviato dal mio GT-I9505 utilizzando Tapatalk

tuttodigitale
20-07-2016, 01:59
Un quesito per i più esperti: guardando l'organizzazione del die di Zen, mi chiedo se la presenza di un pool di cache l3 condivisa tra blocchi di 4 core, pur presentando il vantaggio economico di una spiccata modularità, possa in qualche modo impattare negativamente le performance delle soluzioni 8-core e superiori rispetto ad un design con cache l3 unificata.

Non sono un esperto e parliamo sempre di rumors. Nulla di quello che dico (e questo vale in generale ) va preso per buono.:D .
La cache partizionata è stata fatta per le prestazioni / consumi e non per il costo. Alla buona si cerca di ridurre le latenze di accesso sui 4 core per accedere alla L3. Credo che il contenuto della L3 sia accessibile anche dal modulo distante anche se con latenze superiori, ma comunque inferiori a quello all'accesso alla RAM.

cdimauro
20-07-2016, 06:08
Ricordo sul P4 northwood con HT (2.8GHz) quando modificai un software di filtraggio immagini per fare tutto su due thread... Ottenni un miglioramento del 7%... Rimasi deluso...
Mica ho detto che l'HT fosse la bacchetta magica che migliorava enormemente le prestazioni: dipendeva dal tipo di codice. A volte le prestazioni venivano persino abbassate, usandolo.
Stamattina leggevo la recensione di un cellulare... Un SoC con 4 core ARM a 2.5GHz, 4 core low power a 1.8GHz, una GPU a 900MHz da 122GFlops, con una batteria da 3.4Ah (circa 10Wh) che dura 18 ore, quindi con un consumo medio comprensivo di display e apparato radio sotto al W... Quindi si può supporre che il consumo massimo dell'intero SoC sia 2-2.5W. (fatto sul 16nm FF+ TSMC)
E vorrebbero farmi credere che 8 core Zen a 2.8GHz dissipano 95W?!?!?
Anche ammettendo che un intero core Zen sia pari alle 4+4 CPU + la GPU Mali di quel SoC, mi vuoi dire che da 2.5GHz a 2.8 GHz, passiamo da 2.5W/core a 12W core? Oltretutto i core ARM sono degli ASIC con un FO4 spaventoso...

Mah!
Sono cose completamente diverse. Inutile ostinarsi a fare confronti. Hai visto lo scherma di un SoC mobile? La CPU occupa un certo spazio, mentre la maggior parte dell'area è occupata da modem, DSP, acceleratori, e diavolerie varie di cui non conosciamo il contenuto.

Per inciso, anche le CPU Intel hanno diavolerie varie integrate di cui soltanto alcuni dettagli. E' roba che è abilitata soltanto per specifici vendor. Ed è uno dei motivi per cui Google, Facebook, Microsoft, Amazon, ecc. continuano a servirsi da Intel. ;)
Cesare, ti do del tu se permetti,
E' un forum: ci diamo tutti del tu. :)
il mio non era un discorso per contraddire le tue affermazioni, quanto piuttosto un riassunto della situazione.
Ps la migliore e presunta efficienza del P4 che scalavano in prestazioni con il MT (rispetto alle proprie prestazioni ST) non furono mai sufficenti a contrastare AMD che vide il suo miglior periodo commerciale e prestazionale proprio nel settore Pro per le sue prestazioni elevate anche in MT e che scalavano pressocchè linearmente con l'aumento delle Cpu installate nei sistemi (grazie anche al bus HT interno alla cpu, mentre Intel doveva usare il Chipset rendendo la piattaforma più costosa e meno efficiente).
In definitiva quello che accomuna Pentium 4 e BD è il fatto che entrambi sono rimasti dei brutti anatroccoli senza mai diventare cigni ( Bd in verità almeno è stato più grassottello, da poterci fare almeno due Galletti arrosto, così per non rimanere digiuni)
T'invito a rivedere le recensioni dell'epoca. Già a partire da Northwood, puoi notare che quello che avevo scritto prima era vero: il P4 era diventato competitivo con gli Athlon (XP, all'epoca, appena usciti) di AMD.

E così via con le altre versioni.

Senza nulla togliere che mediamente i processori di AMD se la smazzavano meglio.

Ma, ribadisco, il divario presentato col primo P4 non c'era più.
Aspetta, ti chiarisco meglio il mio concetto.
Il 14nm GF permetterebbe un XV X16? Se un 5960X (22nm) e idem un 6850K vanno il doppio di un 8350, ed un XV X16 andrebbe più del doppio di un 8350, io non vedo un'efficienza architetturale peggiore di BD vs Broadwell, se per efficienza intendiamo la potenza a die in rapporto ai consumi.
Come sai, preferisco non parlare di numeri senza avere il prodotto in mano.
Parlando di miniaturizzazione io intendendo genericamente, le scelte di tipo silicio e miniaturizzazione sono soggettive, e comunque tornando al discorso sopra, se il 14nm Intel è il migliore sul mercato, se BD su un silicio peggiore raggiunge efficienze simili, come si fa ad estrapolare che BD è inefficiente come il PIV?

Per quello che ti ho evidenziato, non si può fare una minestra di tutto. Secondo me pure con Bradwell Intel sperava frequenze superiori, esempio un 6700K +200MHz def, ma puoi fare una similitudine con il PIV? Il PIV ha disatteso le aspettative di 10GHz arrivando a 3,8GHz, BD i 4,7GHz def li ha raggiunti, ma non al TDP sperato.
Quindi secondo te BD doveva fermarsi a 4,7Ghz, o AMD aveva piani per raggiungere frequenze (e prestazioni) più elevate?
In secondo luogo, ma ti assicuro che non faccio un discorso di bandiera, BD ha migliorato verso l'architettura precedente Phenom II in tutto, MT, ST e carico (e parlando di architettura, sarebbe idoneo ipotizzare un FX XV e non un FX PD). Il PIV ha raggiunto gli stessi miglioramenti?
Direi di sì. Nuovamente, se vai a vederti le recensioni dell'epoca, noterai che già col Northwood la situazione è nettamente migliorata.
Che poi BD/CMT di certo non brilla in ST, pienamente d'accordo, ma per la sua fascia di prezzo hai comunque un procio Opteron con annesse e connesse tutte le caratteristiche di un procio server.
Opteron... che è sparito dal mercato server? :O
In ogni caso Intel, almeno commercialmente, specie se Zen pomperà, la carta dell'aumento del clock la giocherà di certo, ma io ci metterei un po' di malizia se ricorrerà, come varie volte ha fatto, di vendere un procio ad una frequenza che poi sotto carico e/o lungo tempo, non mantiene.
A cosa ti riferisci qui? Hai degli esempi concreti?
E invece io credo che sia proprio la nuova architettura... La prossima revisione di Skylake e mi pare anche broadwell-E, hanno un setting per un offset negativo del clock, quando in avx 256... Questo perchè è questa unità che limita l'overclock... Quando è attivo l'avx2 a 256 bit, si può impostare di abbassare il clock, per poter salire di più...
Esattamente, ma è il prezzo da pagare per avere un'unità FP molto performante con AVX. Più prestazioni (fino al doppio rispetto alle SSE), ma a frequenze un po' inferiori.

E' un prezzo che si può pagare. ;)

Ovviamente se non usi le AVX, o comunque non le usi pesantemente, il discorso nemmeno si pone.

bjt2
20-07-2016, 06:51
Esattamente, ma è il prezzo da pagare per avere un'unità FP molto performante con AVX. Più prestazioni (fino al doppio rispetto alle SSE), ma a frequenze un po' inferiori.

E' un prezzo che si può pagare. ;)

Ovviamente se non usi le AVX, o comunque non le usi pesantemente, il discorso nemmeno si pone.

L'idea dell'offset negativo in avx 256 è GENIALE. Se lo si usasse anche a default e non solo per l'overclock, tu potresti avere un clock base più alto (che sarebbe quello pubblicizzato) e una semplice nota in piccolo con il clock in AVX 256... Per i software che non usano queste AVX, hai un vantaggio in termini di clock, o meglio azzeri lo svantaggio di avere una zavorra che non usi...

paolo.oliva2
20-07-2016, 07:02
Opteron... che è sparito dal mercato server? :O
Mi sembra ovvio che se un 8350 è 125W sul 32nm e Intel è 140W con un 5960X, AMD non può certamente essere competitiva e di qui la perdita di punti di mercato. Il problema è il silicio 32nm che non può avere una efficienza (consumo/prestazioni) paragonabile al 22nm/14nm Intel, non architetturale. Cambierebbe qualcosa un Zen al posto di BD ma sul 32nm SOI anzichè 14nm finfet? Mi sembra ovvio che no... quindi a me sembra una forzatura voler imputare a BD CMT la mancanza di competitività.

A cosa ti riferisci qui? Hai degli esempi concreti?
Allora, la prima versione era uno Xeon X6 commercializzato ad una frequenza che sotto carico diminuiva in base al TDP, poi c'era un X4 che poteva sforare il TDP per 10" e anche altro di cui non ricordo specificatamente. Sono tutte cose che hanno fatto scalpore in rete... ripetute parecchie volte, che nell'ambito desktop tanto tanto, ma quella dello Xeon ha dato molto fastidio perchè ha toccato una clientela "sensibile" (perchè in pratica quel modello costava un tot in più rispetto allo stesso modello ma con meno frequenza, e chi l'aveva acquistato pensava ad un costo superiore per una selezione certosina, invece, praticamente, non era altro che il procio "inferiore" con una logica sforamento TDP). Il punto è che Intel ha la logica di controllo consumi con cui conosce perfettamente il consumo istantaneo (contrariamente ad AMD che è predittivo), quindi può giocare come vuole.
P.S.
Non pensare che io abbia postato questo per polemizzare, inoltre non è mio stile riportare cose non vere. Quello che ti faccio notare, non è tanto se si possa fare o non fare, quanto la motivazione. Sei in una situazione "annaspante" per rincorrere l'"avversario", posso capire... ma in una situazione dominante... non ne trovo il senso.

Piedone1113
20-07-2016, 08:11
E' un forum: ci diamo tutti del tu. :)

T'invito a rivedere le recensioni dell'epoca. Già a partire da Northwood, puoi notare che quello che avevo scritto prima era vero: il P4 era diventato competitivo con gli Athlon (XP, all'epoca, appena usciti) di AMD.

E così via con le altre versioni.

Senza nulla togliere che mediamente i processori di AMD se la smazzavano meglio.

Ma, ribadisco, il divario presentato col primo P4 non c'era più.


Cesare, onestamente ricordo bene le prestazione tra le cpu dell'epoca, voglio solo ricordarti che:
P4 3.0 ghz marzo 2003
Athlon 64 (3400+) settembre 2003.
Come avesse recuperato il p4 rispetto all'A64 di amd rimane un mistero (tranne che dall'uscita del 3.2 P4 di giugno 2003 fino appunto a settembre del 2003 possiamo parlare di un sostanziale pareggio medio durato soltando 3 mesi tra P4 ed Athlon Xp).
Gli A64 erano superiori in tutto ai P4, tranne che in alcuni bench sintetici (e ci sono molte recensioni in giro dove in piena era NF dual channel per gli Athlon Xp usavano ancora il chipset kt333A di via per testare i processori).
Ed onestamente non è che mi interessi molto capire quale cpu andasse meglio all'epoca (oggi tra xp e p4 northwood è preferibile la seconda per via dell'ht e sopratutto dell'sse2 implementate) e certamente tra P4 e Athlon Xp non c'erano differenze sostanzialmente marcate da far sembrare i P4 degli MMX nei confronti delle CPU Amd (a dire il vero P4 vs A64 dove la differenza era molto più marcata il primo ne usciva sconfitto in tutti i campi, ma non così distanziato come il ricordo del mito A64 tende a farci ricordare).

bjt2
20-07-2016, 09:58
Cesare, onestamente ricordo bene le prestazione tra le cpu dell'epoca, voglio solo ricordarti che:
P4 3.0 ghz marzo 2003
Athlon 64 (3400+) settembre 2003.
Come avesse recuperato il p4 rispetto all'A64 di amd rimane un mistero (tranne che dall'uscita del 3.2 P4 di giugno 2003 fino appunto a settembre del 2003 possiamo parlare di un sostanziale pareggio medio durato soltando 3 mesi tra P4 ed Athlon Xp).
Gli A64 erano superiori in tutto ai P4, tranne che in alcuni bench sintetici (e ci sono molte recensioni in giro dove in piena era NF dual channel per gli Athlon Xp usavano ancora il chipset kt333A di via per testare i processori).
Ed onestamente non è che mi interessi molto capire quale cpu andasse meglio all'epoca (oggi tra xp e p4 northwood è preferibile la seconda per via dell'ht e sopratutto dell'sse2 implementate) e certamente tra P4 e Athlon Xp non c'erano differenze sostanzialmente marcate da far sembrare i P4 degli MMX nei confronti delle CPU Amd (a dire il vero P4 vs A64 dove la differenza era molto più marcata il primo ne usciva sconfitto in tutti i campi, ma non così distanziato come il ricordo del mito A64 tende a farci ricordare).

Oggi un athlon 64 può far girare SO a 64 bit. Il Northwood no. Mi pare solo il Prescott introdusse i 64 bit e comunque non aveva alu a 64 bit (a 16 dual-pumped, ma Cesare ci fa notare che forse erano a 32 bit) ed era meno efficiente sul codice a 64 bit... Chiaramente allora era ininfluente, visto che MS aveva a stento XP x64 (come se aspettasse INTEL), poco supportato, al contrario di Linux che già viaggiava a 64 bit...

ziobepi
20-07-2016, 11:12
http://www.guru3d.com/news-story/ams-zen-engineering-sample-specs-leaked.html

già postato?
da quanto scrivete mi sono un po' perso :D

Ovviamente (?) le frequenze finali saranno maggiori.

Piedone1113
20-07-2016, 11:19
Oggi un athlon 64 può far girare SO a 64 bit. Il Northwood no. Mi pare solo il Prescott introdusse i 64 bit e comunque non aveva alu a 64 bit (a 16 dual-pumped, ma Cesare ci fa notare che forse erano a 32 bit) ed era meno efficiente sul codice a 64 bit... Chiaramente allora era ininfluente, visto che MS aveva a stento XP x64 (come se aspettasse INTEL), poco supportato, al contrario di Linux che già viaggiava a 64 bit...

Ho scritto difatti tra Xp (Athlon) e P4, non tra A64 e P4.
Gli Athlon 64 ad oggi si possono usare ancora con ottimi risultati su server linux based ( firewall, posta elettronica, sito web interno di debugging, DB per 10 postazioni su applicativi poco esosi ecc) impensabili da utilizzare con un P4 (sia lato prestazione che consumi e affidabilità)
Prossimamente proverò anche a farci un server interno per streaming di contenuti multimediali, ma credo che sarò limitato ai codec xvid e risoluzioni HD ready.

george_p
20-07-2016, 11:31
http://forums.anandtech.com/showpost.php?p=38363321&postcount=2219

Non so quanto sia affidabile sto tizio, ma dice che gli ES A0 che ci sono in giro hanno base clock 2.8GHz, all core turbo 3Ghz e max turbo 3.2GHz, con frequenza idle 550MHz. Che ci saranno varianti 4 core 65W e 8 core 95W (poi le varianti server a 16, 24 e 32 core) e che almeno inizialmente non ci sarannmo le versioni a 6 core, ma solo core complexes interi, come avevo pensato. Inoltre gli ES x4 hanno la stessa frequenza degli ES x8 e in idle consumano 2.5W i 4 core e 5W gli 8 core... Non male per degli ES A0, se fosse vero...

http://www.guru3d.com/news-story/ams-zen-engineering-sample-specs-leaked.html

già postato?
da quanto scrivete mi sono un po' perso :D

Ma questi recensori da dove attingono per i loro articoli sulla scoperta dell'acqua calda?

E' davvero sufficiente un qualsiasi pincopallino che col suo primo post scrive cose già risapute aggiungendone altre senza possibilità alcuna di verifica che a ruota i recensori pubblicano il loro articolo esclusiva su zen?

Siamo davvero messi bene...

bjt2
20-07-2016, 11:43
gli ES hanno sempre frequenze più basse per ovvi motivi.

Non quelli AMD... :O
Gli ES AMD sono super pompati... :O
Zen avrà base clock di 2.5GHz e sarà un fallimento... :O
Non vuol dire nulla che BD sul 32nm arriva a 4.7GHz e sul 28nm fa 4.3GHz... :O
Il 14nm è LP e perderà il 50% della frequenza rispetto al 28nm... :O

Piedone1113
20-07-2016, 11:48
Non quelli AMD... :O
Gli ES AMD sono super pompati... :O
Zen avrà base clock di 2.5GHz e sarà un fallimento... :O
Non vuol dire nulla che BD sul 32nm arriva a 4.7GHz e sul 28nm fa 4.3GHz... :O
Il 14nm è LP e perderà il 50% della frequenza rispetto al 28nm... :O

Se Zen X8 clocca a 3,4 ghz base clock con turbo all core 3600 e turbo 4 core 3900 con ipc simile ad intel, tutto in 95w sarà un successo anche se non raggiungesse i 3800mhz base clock. (considerando che l'ht dovrebbe essere anche più efficiente della controparte intel)

george_p
20-07-2016, 11:49
Non quelli AMD... :O
Gli ES AMD sono super pompati... :O
Zen avrà base clock di 2.5GHz e sarà un fallimento... :O
Non vuol dire nulla che BD sul 32nm arriva a 4.7GHz e sul 28nm fa 4.3GHz... :O
Il 14nm è LP e perderà il 50% della frequenza rispetto al 28nm... :O

Eccerto, se no quanta gente starebbe male se no? :D

tuttodigitale
20-07-2016, 13:22
I problemi sul silicio non sono tutti uguali....sul p4 il problema era dovuto al leakage.

capitan_crasy
20-07-2016, 13:49
http://www.guru3d.com/news-story/ams-zen-engineering-sample-specs-leaked.html

già postato?
da quanto scrivete mi sono un po' perso :D

http://i.imgur.com/fyM4uIW.png

Ma questi recensori da dove attingono per i loro articoli sulla scoperta dell'acqua calda?

E' davvero sufficiente un qualsiasi pincopallino che col suo primo post scrive cose già risapute aggiungendone altre senza possibilità alcuna di verifica che a ruota i recensori pubblicano il loro articolo esclusiva su zen?

Siamo davvero messi bene...

La formula del "sentito dire" è una autentica piaga ma ormai il mondo del web va avanti a suon di click e fa niente se fai la figura dei cioccolatai.
Oggi verificare la fonte e la coerenza dei contenuti è poco più di un opzione quando una volta era la dannata regola.

el-mejo
20-07-2016, 16:24
:p :p :p eh capitano, sto seguendo più le gpu ultimamente :D

http://www.bitsandchips.it/9-hardware/7265-intel-aggiunge-un-terzo-tock-i-10nm-si-allontanano

10nm Intel non prima del 2018 inoltrato, circa tra 2 anni.

amd sembra avere sempre più chance per rendersi competitiva.

Mentre TSMC dovrebbe averli pronti per il Q1 2017 e per la prima metà del 2018 arriveranno i 7nm, sperando che almeno uno dei 2 PP preveda progessi HP: http://www.hwupgrade.it/news/cpu/tsmc-adottera-la-litografia-euv-a-partire-dai-5-nanometri_63664.html

Pare che dopo lo slancio del 22nm finfet che gli ha dato un vantaggio strategico rispetto alle fonderie concorrenti Intel stia perdendo non pochi colpi.

Brutta storia invece il fatto che i 5nm saranno probabilmente l'ultima miniaturizzazione possibile su silicio a livello commerciale.
Di buono è che è prevista già per il 2020, ma dopo bisognerà cambiare completamente approccio e trovare rapidamente un sostituto altrimenti la vedo dura per lo sviluppo informatico :(

capitan_crasy
20-07-2016, 17:13
:p :p :p eh capitano, sto seguendo più le gpu ultimamente :D

Lasciale stare quelle; è il silicio del demonio!!!:mad: :eek:
Ti seducono con numeroni da frame rate divini poi appena ne esce una nuova ti mettono a 90 e te lo fanno "bruciare" avendo le stesse prestazioni ma con metà spesa!:cry:
:D


http://www.bitsandchips.it/9-hardware/7265-intel-aggiunge-un-terzo-tock-i-10nm-si-allontanano

10nm Intel non prima del 2018 inoltrato, circa tra 2 anni.

amd sembra avere sempre più chance per rendersi competitiva.

Già letta prima...
Ma se Intel va in affanno sul silicio con tutti i miliardi che spende allora per AMD le cose non sono tanto rosee...
In questo caso però bisogna seguire le novità di GF e soprattutto di Samsung...

paolo.oliva2
20-07-2016, 17:33
ma non era circolata voce che il 7nm GF/Samsung sarebbe pronto per fine 2017? Mi sembra di ricordare che si era supposto Zen+ sul 7nm...

Piedone1113
20-07-2016, 17:34
Lasciale stare quelle; è il silicio del demonio!!!:mad: :eek:
Ti seducono con numeroni da frame rate divini poi appena ne esce una nuova ti mettono a 90 e te lo fanno "bruciare" avendo le stesse prestazioni ma con metà spesa!:cry:
:D



Già letta prima...
Ma se Intel va in affanno sul silicio con tutti i miliardi che spende allora per AMD le cose non sono tanto rosee...
In questo caso però bisogna seguire le novità di GF e soprattutto di Samsung...

Dipende da dove arrivano e dove vanno:
Magari la lavorazione del silicio così come sviluppato da intel (e tutti i miliardi di attrezzatura e ricerca a corredo) hanno beccato un punto critico non preventivato, problema che magari gf samsung non hanno incontrato (o magari aggirato perchè meno pressante sul loro silicio).
Intel potrebbe vedersi costretta a ritardare il nuovo pp per non dover rivoluzionale (e conseguenza spesa extra) i suoi trattamenti, attrezzature.
Potrebbe essere anche questa la chiava di volta, ma bisogna vedere anche le differenze di caratteristiche del prodotto finale tra i due tipi di lavorazione.

Piedone1113
20-07-2016, 17:36
ma non era circolata voce che il 7nm GF/Samsung sarebbe pronto per fine 2017? Mi sembra di ricordare che si era supposto Zen+ sul 7nm...

i pp sembrano essere misurati con un metro elastico che si allunga o accorcia in base a quale fornitore lo usa. :D

paolo.oliva2
20-07-2016, 19:10
Dipende da dove arrivano e dove vanno:
Magari la lavorazione del silicio così come sviluppato da intel (e tutti i miliardi di attrezzatura e ricerca a corredo) hanno beccato un punto critico non preventivato, problema che magari gf samsung non hanno incontrato (o magari aggirato perchè meno pressante sul loro silicio).
Intel potrebbe vedersi costretta a ritardare il nuovo pp per non dover rivoluzionale (e conseguenza spesa extra) i suoi trattamenti, attrezzature.
Potrebbe essere anche questa la chiava di volta, ma bisogna vedere anche le differenze di caratteristiche del prodotto finale tra i due tipi di lavorazione.

Tutto può essere

i pp sembrano essere misurati con un metro elastico che si allunga o accorcia in base a quale fornitore lo usa. :D

D'accordo... però io spero che nel caso GF/Samsung sia a mo' di sviluppo SOI, cioè con costi passaggio miniaturizzazione minimi, e/o che Intel slitti i tempi per il post 14nm.... perchè se colleghiamo costi alti per il passaggio alla prox miniaturizzazione e tempi corti per ambedue sul 14nm (ammesso che AMD con Zen rispetti le attese), andrà tutto a scapito dei costi per noi umani.

E poi che ce ne facciamo di un 7nm? Per me già il 14nm dovrebbe permettere un raddoppio dei core allo stesso prezzo... se non cambia qualche cosa commercialmente, che ce ne facciamo di un X4 65W 50mmq a 400€? Tantovale pagare un 6700K 320€ sul 14nm...

bjt2
20-07-2016, 19:13
Forse il 10nm a fine 2017...
Comunque mi pare di ricordare che per nanometrie più basse il FDSOI consente di superare i problemi di leakage*... E intel si ostina a non volerlo usare...

* il FD SOI consente una pre-polarizzazione del substrato così da poter variare, anche transistor per transistor e dinamicamente (perchè lo si fa con una tensione) la tensione di soglia... Immaginate un circuito in idle a cui magicamente, con un quarto terminale, aumenti la Vsoglia a dismisura, praticamente azzerando il leakage, oppure viceversa un circuito in attività in cui abbassi la Vsoglia al minimo, in modo da poter usare un Vcore più basso possibile, a vantaggio della potenza dinamica... Ecco... Questo consente di fare il FDSOI...

Piedone1113
20-07-2016, 19:41
Forse il 10nm a fine 2017...
Comunque mi pare di ricordare che per nanometrie più basse il FDSOI consente di superare i problemi di leakage*... E intel si ostina a non volerlo usare...

* il FD SOI consente una pre-polarizzazione del substrato così da poter variare, anche transistor per transistor e dinamicamente (perchè lo si fa con una tensione) la tensione di soglia... Immaginate un circuito in idle a cui magicamente, con un quarto terminale, aumenti la Vsoglia a dismisura, praticamente azzerando il leakage, oppure viceversa un circuito in attività in cui abbassi la Vsoglia al minimo, in modo da poter usare un Vcore più basso possibile, a vantaggio della potenza dinamica... Ecco... Questo consente di fare il FDSOI...
Magari per questioni di costi legata alla conversione delle attrezzature, o magare i transistor soi sono più lenti, o altri miliardi di motivi, ma sempre e solo di carattere economico (o magari il soi costringe ad una densità minore tale che 10nm fd-soi = 14 nm intel)

el-mejo
20-07-2016, 20:18
Dipende da dove arrivano e dove vanno:
Magari la lavorazione del silicio così come sviluppato da intel (e tutti i miliardi di attrezzatura e ricerca a corredo) hanno beccato un punto critico non preventivato, problema che magari gf samsung non hanno incontrato (o magari aggirato perchè meno pressante sul loro silicio).
Intel potrebbe vedersi costretta a ritardare il nuovo pp per non dover rivoluzionale (e conseguenza spesa extra) i suoi trattamenti, attrezzature.
Potrebbe essere anche questa la chiava di volta, ma bisogna vedere anche le differenze di caratteristiche del prodotto finale tra i due tipi di lavorazione.

Credo sia successo proprio qualcosa del genere in Intel.

Magari per questioni di costi legata alla conversione delle attrezzature, o magare i transistor soi sono più lenti, o altri miliardi di motivi, ma sempre e solo di carattere economico (o magari il soi costringe ad una densità minore tale che 10nm fd-soi = 14 nm intel)

Oltre a tutto questo anche il fattore brevetti è da tenere in considerazione: se non sbaglio molti riguardanti il SOI sono in mano a Ibm.

plainsong
20-07-2016, 22:13
http://www.bitsandchips.it/9-hardware/7265-intel-aggiunge-un-terzo-tock-i-10nm-si-allontanano

10nm Intel non prima del 2018 inoltrato, circa tra 2 anni.

amd sembra avere sempre più chance per rendersi competitiva.

La parte della news dove parlano di un X6 Coffee Lake rilasciato su piattaforma mainstream per fine 2017, se confermata, ci dà un'idea dell'aspettativa di pressione competitiva stimata da Intel con l'arrivo di Zen x8. Dal momento che dubito abbiano già intenzione di cedere il trono delle performance su desktop, il nuovo 6-core potrebbe avere performance superiori, ma auspicabilmente paragonabili, al top di gamma su AM4.

Piedone1113
20-07-2016, 23:13
Oltre a tutto questo anche il fattore brevetti è da tenere in considerazione: se non sbaglio molti riguardanti il SOI sono in mano a Ibm.

Il SOI è gestito da un consorzio e non credo che Intel possa essere messa da parte.
Porterebbe strutture, laboratori, brevetti e tecniche di lavorazione maturate in molti anni di sviluppo.
Oltre a molti dollari.
Credo che per Intel amalgamare il silicio al SOI sarebbe un cattivo investimento in quanto sarebbe una fonderia simile a quelle orientali ma con costi decisamente maggiori.
Meglio avere un silicio diverso (con pregi e difetti diversi) in modo da poter offrire un prodotto superiore per alcune tipologie di chip.
Credo che in fin dei conti ad Intel convenga porsi a terzi anche come fonderia esterna.



Inviato dal mio GT-I9505 utilizzando Tapatalk

digieffe
21-07-2016, 00:21
Mentre TSMC dovrebbe averli pronti per il Q1 2017 e per la prima metà del 2018 arriveranno i 7nm, sperando che almeno uno dei 2 PP preveda progessi HP: http://www.hwupgrade.it/news/cpu/tsmc-adottera-la-litografia-euv-a-partire-dai-5-nanometri_63664.html

Pare che dopo lo slancio del 22nm finfet che gli ha dato un vantaggio strategico rispetto alle fonderie concorrenti Intel stia perdendo non pochi colpi.

Brutta storia invece il fatto che i 5nm saranno probabilmente l'ultima miniaturizzazione possibile su silicio a livello commerciale.
Di buono è che è prevista già per il 2020, ma dopo bisognerà cambiare completamente approccio e trovare rapidamente un sostituto altrimenti la vedo dura per lo sviluppo informatico :(

i pp sembrano essere misurati con un metro elastico che si allunga o accorcia in base a quale fornitore lo usa. :D

che i 10mn TMSC siano 14mn reali come quelli intel?

cdimauro
21-07-2016, 06:02
L'idea dell'offset negativo in avx 256 è GENIALE. Se lo si usasse anche a default e non solo per l'overclock, tu potresti avere un clock base più alto (che sarebbe quello pubblicizzato) e una semplice nota in piccolo con il clock in AVX 256... Per i software che non usano queste AVX, hai un vantaggio in termini di clock, o meglio azzeri lo svantaggio di avere una zavorra che non usi...
Ma il Turbo Boost 3 non dovrebbe comunque consentire di sfruttare al meglio possibile la frequenza dei singoli core?
Mi sembra ovvio che se un 8350 è 125W sul 32nm e Intel è 140W con un 5960X, AMD non può certamente essere competitiva e di qui la perdita di punti di mercato. Il problema è il silicio 32nm che non può avere una efficienza (consumo/prestazioni) paragonabile al 22nm/14nm Intel, non architetturale. Cambierebbe qualcosa un Zen al posto di BD ma sul 32nm SOI anzichè 14nm finfet? Mi sembra ovvio che no... quindi a me sembra una forzatura voler imputare a BD CMT la mancanza di competitività.
Ti faccio presente che Bulldozer è stato presentato qualche mese dopo che Intel aveva presentato Sandy, e usando lo stesso processo produttivo (32nm).

Ma questi sono i risultati (http://www.hwupgrade.it/articoli/cpu/2997/amd-fx-8150-al-debutto-le-soluzioni-bulldozer_9.html), che si commentano da soli, considerato che perde moltissimo proprio in ambito MT.

Dunque sì: il CMT è stato un buco nell'acqua.
Allora, la prima versione era uno Xeon X6 commercializzato ad una frequenza che sotto carico diminuiva in base al TDP, poi c'era un X4 che poteva sforare il TDP per 10" e anche altro di cui non ricordo specificatamente. Sono tutte cose che hanno fatto scalpore in rete... ripetute parecchie volte, che nell'ambito desktop tanto tanto, ma quella dello Xeon ha dato molto fastidio perchè ha toccato una clientela "sensibile" (perchè in pratica quel modello costava un tot in più rispetto allo stesso modello ma con meno frequenza, e chi l'aveva acquistato pensava ad un costo superiore per una selezione certosina, invece, praticamente, non era altro che il procio "inferiore" con una logica sforamento TDP). Il punto è che Intel ha la logica di controllo consumi con cui conosce perfettamente il consumo istantaneo (contrariamente ad AMD che è predittivo), quindi può giocare come vuole.
Il punto è se Intel abbia tenuto fede alle specifiche oppure no.
P.S.
Non pensare che io abbia postato questo per polemizzare, inoltre non è mio stile riportare cose non vere.
Su questo è meglio che lasciamo perdere.
Quello che ti faccio notare, non è tanto se si possa fare o non fare, quanto la motivazione. Sei in una situazione "annaspante" per rincorrere l'"avversario", posso capire... ma in una situazione dominante... non ne trovo il senso.
Il senso può essere soltanto uno fra i due: il processore s'è comportato secondo le specifiche oppure no.
Cesare, onestamente ricordo bene le prestazione tra le cpu dell'epoca, voglio solo ricordarti che:
P4 3.0 ghz marzo 2003
Athlon 64 (3400+) settembre 2003.
Come avesse recuperato il p4 rispetto all'A64 di amd rimane un mistero (tranne che dall'uscita del 3.2 P4 di giugno 2003 fino appunto a settembre del 2003 possiamo parlare di un sostanziale pareggio medio durato soltando 3 mesi tra P4 ed Athlon Xp).
Gli A64 erano superiori in tutto ai P4, tranne che in alcuni bench sintetici (e ci sono molte recensioni in giro dove in piena era NF dual channel per gli Athlon Xp usavano ancora il chipset kt333A di via per testare i processori).
Ed onestamente non è che mi interessi molto capire quale cpu andasse meglio all'epoca (oggi tra xp e p4 northwood è preferibile la seconda per via dell'ht e sopratutto dell'sse2 implementate) e certamente tra P4 e Athlon Xp non c'erano differenze sostanzialmente marcate da far sembrare i P4 degli MMX nei confronti delle CPU Amd (a dire il vero P4 vs A64 dove la differenza era molto più marcata il primo ne usciva sconfitto in tutti i campi, ma non così distanziato come il ricordo del mito A64 tende a farci ricordare).
Ho recuperato un po' di recensioni, che sono utili a chiarire la questione.

Aprile 2003, Pentium 4 3Ghz (http://www.hwupgrade.it/articoli/cpu/830/pentium-4-3-ghz-dual-ddr400-e-bus-a-800-mhz_5.html)
Settembre 2003, Athlon64 3200+ (http://www.hwupgrade.it/articoli/cpu/904/athlon-64-3200+-analisi-prestazionale_5.html)
Febbraio 2004, Pentium 4 Prescott 3.2Ghz e Pentium 4 Extreme Edition (Northwood) 3.2Ghz (http://www.hwupgrade.it/articoli/cpu/971/prescott-e-extreme-edition-le-novita-di-intel_4.html)
Maggio 2004, Intel Pentium 4 3,4 GHz: Prescott vs Northwood (http://www.hwupgrade.it/articoli/cpu/1025/intel-pentium-4-3-4-ghz-prescott-vs-northwood_3.html)

In tutte viene usata la piattaforma nForce di nVidia, che era la migliore in assoluto per AMD, e soltanto in UN caso (recensione Athlon64 3200+) c'è presente ANCHE una piattaforma Via.

Come vedi, anche togliendo i test sintetici (dei alcuni erano anche favorevolissimi ad AMD), non mi pare che si possa continuare a parlare di "divario". Tutt'altro. I Pentium 4 sono competitivi.

Mentre con applicazioni MT ovviamente si fa sentire molto il peso dell'HyperThreading, e lì si creano realmente divari, ma in direzione opposta.

Comunque i dati sono tutti lì, e chiunque può visionarli.
Oggi un athlon 64 può far girare SO a 64 bit. Il Northwood no. Mi pare solo il Prescott introdusse i 64 bit e comunque non aveva alu a 64 bit (a 16 dual-pumped, ma Cesare ci fa notare che forse erano a 32 bit) ed era meno efficiente sul codice a 64 bit...
Dal manuale delle architetture di Agner Fog:

"The trace cache entries on the P4E need to be bigger than on the P4 because the processor can run in 64 bit mode. This simplifies the design considerably. The need for borrowing storage space from neighboring entries has been completely eliminated. Each entry has 32 bits for immediate data, which is sufficient for all µops in 32 bit mode. Only a few instructions in 64 bit mode can have 64 bits of immediate data or address, and these instructions are split into two or three µops which contain no more than 32 data bits each.
Consequently, each µop uses one, and only one, trace cache entry.
[...]
The lower half of
the result (16 bits on P4, 32 bits on P4E) is calculated in the first half clock cycle, the upper half is calculated in the second half clock cycle, and the flags are calculated in the third halfclock cycle. "

P4 = fino a Northwood. P4E = Da Prescott.
Chiaramente allora era ininfluente, visto che MS aveva a stento XP x64 (come se aspettasse INTEL), poco supportato, al contrario di Linux che già viaggiava a 64 bit...
E infatti la piattaforma Opteron ha avuto parecchio fortuna.

Ma su desktop, dove erano le vendite maggiori, non c'era alcun s.o. a 64 bit...
:p :p :p eh capitano, sto seguendo più le gpu ultimamente :D

http://www.bitsandchips.it/9-hardware/7265-intel-aggiunge-un-terzo-tock-i-10nm-si-allontanano

10nm Intel non prima del 2018 inoltrato, circa tra 2 anni.

amd sembra avere sempre più chance per rendersi competitiva.
Non so dove hanno preso le informazioni sui 10nm, visto che le stesse fonti hanno riportato ben altro:

http://www.hwupgrade.it/immagini/roadmap_intel_coffee_lake.jpg

CannonLake = 10nm = 2017. Come da programma.

D'altra parte Kaby Lake deve pur aver spazio...
Forse il 10nm a fine 2017...
Comunque mi pare di ricordare che per nanometrie più basse il FDSOI consente di superare i problemi di leakage*... E intel si ostina a non volerlo usare...

* il FD SOI consente una pre-polarizzazione del substrato così da poter variare, anche transistor per transistor e dinamicamente (perchè lo si fa con una tensione) la tensione di soglia... Immaginate un circuito in idle a cui magicamente, con un quarto terminale, aumenti la Vsoglia a dismisura, praticamente azzerando il leakage, oppure viceversa un circuito in attività in cui abbassi la Vsoglia al minimo, in modo da poter usare un Vcore più basso possibile, a vantaggio della potenza dinamica... Ecco... Questo consente di fare il FDSOI...
Non ti seccare, ma mi pare una mancanza di rispetto nei confronti di chi, magari, ne sa molto più di me, te, e probabilmente tutti gli utenti che frequentano questo forum messi assieme.

Non credo che Mark Bohr abbia bisogno che qualcuno gli insegni il mestiere.

Leggetevi un po' l'ultima intervista a Bloomberg del nostro senior fellow, per capire di chi si tratta:

How Intel Makes a Chip (http://www.bloomberg.com/news/articles/2016-06-09/how-intel-makes-a-chip)
che i 10mn TMSC siano 14mn reali come quelli intel?
Infatti voglio proprio vederli questi "10nm" di TSMC & compagnia. :D

bjt2
21-07-2016, 06:47
Ma il Turbo Boost 3 non dovrebbe comunque consentire di sfruttare al meglio possibile la frequenza dei singoli core?

Ho finito di leggere proprio ieri la recensione di PC Professionale sul 10 core INTEL... Contrariamente a quanto pensavo (e cioè che fosse selezionato un singolo core fortunello tra i 10), il driver del turbo boost 3.0, presto integrato in windows 10, sceglie dinamicamente in ogni momento, in base immagino alla temperatura, il core da usare e la frequenza da usare quando un thread supera il 90% di uso. A fronte di un massimo teorico di 4GHz, hanno ottenuto, per il cinebench ST, una frequenza media di 3.75GHz...

A quanto ho capito, l'offset negativo in AVX 256 ti consentirebbe di avere un clock base più alto, ma forse dovresti pubblicizzare quello dell'AVX e quindi perderebbe senso, arrivando alla situazione di AMD, che ha il clock base, all-core turbo e max turbo...

Non ti seccare, ma mi pare una mancanza di rispetto nei confronti di chi, magari, ne sa molto più di me, te, e probabilmente tutti gli utenti che frequentano questo forum messi assieme.

Non credo che Mark Bohr abbia bisogno che qualcuno gli insegni il mestiere.

Leggetevi un po' l'ultima intervista a Bloomberg del nostro senior fellow, per capire di chi si tratta:

How Intel Makes a Chip (http://www.bloomberg.com/news/articles/2016-06-09/how-intel-makes-a-chip)

Non intendevo offendere con quel termine... Ci sarà sicuramente un motivo valido se non usano il SOI, diverso, credo da quello tecnico, visti i vantaggi...
Costo licenze, immagine (voler fare tutto da solo), altri svantaggi a livello elettronico che magari in situazioni particolari sono svantaggiose, maggior costo di progettazione per sfruttarne le peculiarità (ovviamente la polarizzazione del substrato è una complicazione, ad esempio), e chissà quali altri motivi...

paolo.oliva2
21-07-2016, 08:26
@cdimauro

non capisco cosa intendi per specifiche. Se io acquisto un procio che viene dato a 3,5GHz def, per me vuol dire che deve operare a quella frequenza in qualsiasi condizione. L'X6 Xeon veniva dato ad una frequenza che risultava alta se veniva caricato, sforando il TDP e di qui il forzato abbassamento della frequenza.
Esempio AMD. l'8350 ed idem l'8370, hanno la frequenza def di 4GHz, ma contemporaneamente una frequenza turbo (su tutti i core) che alza la frequenza def a 4,1GHz nel caso di carichi non intensivi.
Mi sembra corretto interpretare la frequenza def come frequenza minima operativa su tutti i core e di qui chiedere un prezzo per quella frequenza... vendere il procio per una frequenza che in realtà è quella turbo senza un carico intensivo, sarebbe come se AMD vendesse un 8350 per 4,1GHz def, ed è la stessa cosa che ha fatto Intel con quel Xeon X6. Tanto regolare non mi sembra visto che dopo quell'episodio non l'ha più fatto (almeno con gli Xeon).

Per quanto riguarda il silicio, è stato postato mille volte quanto Intel ci ha guadagnato dal passaggio 32nm fino ad oggi 14nm, sia in frequenza (e quindi in potenza ST e MT), in TDP a parità di core e aumento core a parità di TDP. Non è una novità che l'incremento architetturale sia praticamente nullo rispetto a quanto guadagnato dal passaggio silicio. E per te la differenza AMD vs Intel è unicamente per causa CMT perchè l'SMT è meglio...
Se il 32nm avesse concesso la produzione di Komodo (X10) che avrebbe naturalmente portato BD al confronto con il socket 2011 per via del maggiore MT rispetto agli X4+4 Intel, si avrebbe avuto un confronto CMT vs SMT diverso, visto che per me è fazioso confrontare il CMT vs SMT su X4+4 quando un 8350 è un Opteron a tutti gli effetti e quindi il suo antagonista (per cache, numero TH e carico) è uno Xeon (un X4+4 Intel tiene si 8TH come un 8350, ma, come dimostrato tante volte su questo TH, si siede molto prima di un 8350 sotto carico >8 TH).

Guardando Carrizo e BR, io ci vedo un'efficienza architetturale IMMENSA se rapportati al tipo di silicio su cui sono prodotti... 28nm Bulk GF, e personalmente, riguardo SMT vs CMT, confrontando il mio Broadwell 14nm ai mobili AMD precedenti, Llano e Trinity, non ci vedo nulla di entusiasmante... e ho tutta l'intenzione di cambiarlo con BR mobile, anche se l'ho pagato 750€ perchè lo credevo X4, visto la sigla i7.

Ren
21-07-2016, 13:19
Infatti voglio proprio vederli questi "10nm" di TSMC & compagnia. :D
che i 10mn TMSC siano 14mn reali come quelli intel?

Al massimo hanno mezzo nodo di vantaggio con i 10nm farlocchi :fagiano: .

I 10nm LP TSMC sono un processo di transizione previsto per il 2017(per apple). I 7nm HPL sono previsti in volumi per il 2019.

TSMC ha scelto di andare sul sicuro con i suoi nuovi processi. Nessuna innovazione di materiali o litografica.

Samsung adotterà EUV per ridurre i costi di design.

GF dice di voler correre da sola. :what:

Intel di solito anticipa le innovazioni obbligate(metal gate, finfet etc...). La prossima sulla tabella di marcia è il III-V.:boh:

marchigiano
21-07-2016, 13:25
http://www.hwupgrade.it/immagini/roadmap_intel_coffee_lake.jpg

CannonLake = 10nm = 2017. Come da programma.

ma o ho il monitor storto io oppure i 10nm li vedo per il 2018...

Ren
21-07-2016, 13:31
ma o ho il monitor storto io oppure i 10nm li vedo per il 2018...

Il III-V aumenta le prestazioni con bassi voltaggi (0.5v), quindi è perfetto per i core m.

bjt2
21-07-2016, 14:00
Il III-V aumenta le prestazioni con bassi voltaggi (0.5v), quindi è perfetto per i core m.

L'FDSOI consente di modulare dinamicamente e azzerare la tensione di soglia dei transistors, preporalizzandoli... Così da usare un Vcore più basso...

Ren
21-07-2016, 14:20
L'FDSOI consente di modulare dinamicamente e azzerare la tensione di soglia dei transistors, preporalizzandoli... Così da usare un Vcore più basso...

Il SOI non piace alle fonderie che devo dirti.:fagiano:

A parte IBM che ha brevetti sull'edram soi, nessun altro ne vuole sapere nulla...

Intel nelle vecchie slide(se ricordo bene), stimava 500m di dollari di aggravio per nodo, più i costi di produzione.

cmq per i QWFET InGaAs ho visto sparate markettare del +80% 0.5v. Credo che il miracolo valga per bassissimi voltaggi.:boh:

bjt2
21-07-2016, 15:08
Il SOI non piace alle fonderie che devo dirti.:fagiano:

A parte IBM che ha brevetti sull'edram soi, nessun altro ne vuole sapere nulla...

Intel nelle vecchie slide(se ricordo bene), stimava 500m di dollari di aggravio per nodo, più i costi di produzione.

cmq per i QWFET InGaAs ho visto sparate markettare del +80% 0.5v. Credo che il miracolo valga per bassissimi voltaggi.:boh:

Il QWFET semplicemente usa il quarto lato rispetto ai tre usati ora... Penso che sia il semiconduttore la chiave...

paolo.oliva2
21-07-2016, 17:01
Qui c'è una aggiunta a quanto già si sa... però è interessante.

http://www.pcgamesn.com/amd-zen-idle-power

The most interesting part of the report though stems from the idle performance of the Zen chips. They are reported to idle with a clockspeed of just 550MHz delivering a low power state of 2.5W and 5W for the quad and octo-core CPUs. That’s a seriously low idle power, especially given that AMD’s previous CPU architecture draws some 30W even at idle. The Core i7-6700K looks pretty good at around 3.5W, but Zen’s quad-core chip might even better that.

Qui c'è una Fudzillata sulle frequenze di Zen desktop e server
http://www.overclock3d.net/news/cpu_mainboard/amd_zen_cpu_engineering_sample_specifications_leak/1
Zen X32+32 turbo 2,9GHz

Qui 3 socket per server
http://www.fudzilla.com/news/processors/41164-amd-2017-opteron-comes-in-three-sockets

P.S.
Nelle news addietro, si parlava di un Zen X4 65W ed un Zen X8 95W allo stesso clock. Visto che è ovvio che l'X4 avrebbe almeno +10W per i core (ipotizzando 15W tra NB/SB/MC, X8 95W -15W = 80W, / 2 = 40W modulo X4), potrebbe anche essere per un Turbo più spinto, stando alle dichiarazioni che entrambi i proci avrebbero una frequenza def 2,8GHz.

A parte questo... io non credo verosimile un Zen X4 a 2,8GHz def, in quanto BR, con lo stesso TDP, avrebbe +900MHz di frequenza (2,8GHz Zen vs BR 3,7GHz), il che si tradurrebbe in 2,8GHz, +40% IPC = frequenza equivalente BR 3,92GHz. In pratica... BR 65W, ipotizzando un presso ~180€, dalla sua avrebbe l'iGPU e una potenza ~-5% rispetto a Zen X4+4. AMD a quanto dovrebbe prezzarlo Zen? :confused: 150€?

Oltre a questo... a 2,8GHz Zen X4 non avrebbe senso perchè non risquoterebbe interesse alcuno vs un 6700K, probabilmente obbligando AMD addirittura a prezzarlo sulle 150€ (almeno un 30€ in meno rispetto a BR APU), ma a sto punto, meglio produrre solamente Zen X8 che equivarrebbe ad un 6700K ad una frequenza almeno di 5GHz (valutando 2,8GHz Zen * il doppio dei core = 5,6GHz meno qualcosa per un IPC probabilmente inferiore) e sicuramente con possibilità di prezzarlo ben più in alto di 150€ * 2 = 300€.

Ovviamente se poi l'X4 Zen in turbo ~4GHz e l'SMT AMD >+30%, la cosa cambierebbe notevolmente.

george_p
21-07-2016, 18:10
Personalmente continuo a vedere lo stesso post di informazioni prima rimbalzato di forum in forum e ora con carambole sui siti "recensori"... da prendere con le pinze chirurgiche sterilizzate.
Ma non spreco manco una mezza lettera su info del genere.

bjt2
21-07-2016, 19:15
Se le frequenze di clock di Zen non sono almeno 4GHz base, tanto valeva fare uno shrink di BR... Ma proprio non ci arrivano? AMD ha dichiarato che competeranno anche con le prestazioni... Come si può competere con 2.8GHz?!?! Con il ragionamento di questi geni, siccome l'ES del 10 core INTEL girava a 2.2GHz, allora in produzione non doveva superare i 2.4... E invece fa i 3GHz... Ed è una architettura collaudata su processo collaudato... Figuriamoci una architettura nuova su processo nuovo... E' uno step A0, cavolo... Il primo funzionante... E si fermerebbero li?

george_p
21-07-2016, 19:48
Se le frequenze di clock di Zen non sono almeno 4GHz base, tanto valeva fare uno shrink di BR... Ma proprio non ci arrivano? AMD ha dichiarato che competeranno anche con le prestazioni... Come si può competere con 2.8GHz?!?! Con il ragionamento di questi geni, siccome l'ES del 10 core INTEL girava a 2.2GHz, allora in produzione non doveva superare i 2.4... E invece fa i 3GHz... Ed è una architettura collaudata su processo collaudato... Figuriamoci una architettura nuova su processo nuovo... E' uno step A0, cavolo... Il primo funzionante... E si fermerebbero li?

Non possono arrivarci perché non esiste il tempo di andare a informarsi per poi a propria volta pubblicare un articolo che informi i lettori piuttosto che disinformarli a solo vantaggio dei propri click ricevuti per campare.
Senza naturalmente considerare che di ufficiale e concreto non esiste proprio nulla :O

marchigiano
21-07-2016, 19:56
That’s a seriously low idle power, especially given that AMD’s previous CPU architecture draws some 30W even at idle.

mi sembra tantino...

http://www.xbitlabs.com/articles/cpu/display/fx-8350-8320-6300-4300_8.html

qua consuma miseri 8W più di un pentium ivy bridge, considerando la piattaforma obsoleta con NB separato che consuma abbastanza

bjt2
21-07-2016, 20:32
Non possono arrivarci perché non esiste il tempo di andare a informarsi per poi a propria volta pubblicare un articolo che informi i lettori piuttosto che disinformarli a solo vantaggio dei propri click ricevuti per campare.
Senza naturalmente considerare che di ufficiale e concreto non esiste proprio nulla :O

Mi riferivo ai vari utenti uccellacci del malaugurio sui vari forum...

el-mejo
21-07-2016, 21:06
Se le frequenze di clock di Zen non sono almeno 4GHz base, tanto valeva fare uno shrink di BR... Ma proprio non ci arrivano? AMD ha dichiarato che competeranno anche con le prestazioni... Come si può competere con 2.8GHz?!?! Con il ragionamento di questi geni, siccome l'ES del 10 core INTEL girava a 2.2GHz, allora in produzione non doveva superare i 2.4... E invece fa i 3GHz... Ed è una architettura collaudata su processo collaudato... Figuriamoci una architettura nuova su processo nuovo... E' uno step A0, cavolo... Il primo funzionante... E si fermerebbero li?

Occhio che il die a 10 intel in effetti è stato commercializzato a max 2,4ghz (Xeon E5-2640 v4, step R0): l' i7-6950x deriva da una selezione di die a 24 core, che giustifica il prezzo elevato. ;)

Resta il fatto che solo un folle penserebbe che Amd presenti Zen x8 con frequenze minori ai 3,2 ghz del Core i7-6900K, e gia avrebbe prestazioni inferiori (ma sicuramente un rapporto prezzo/prestazioni ben superiore, dopo le dichiarazioni di voler far ritornare "onesta" Intel).
Ritengo più probabili i 3,5ghz, alla fine i 14nm GloFo non si stanno rilevando entusiasmanti.

george_p
21-07-2016, 21:32
Mi riferivo ai vari utenti uccellacci del malaugurio sui vari forum...

Io a entrambi. Queste notizie pubblicate come articoli partono da utenti anonimi che fanno rimbalzare non-informazioni come palle da biliardo.
Poi utenti (spacciati da molti come esperti) che molto probabilmente sono pagati per postare 24 ore su 24 in svariati forum per convincere tutta l'utenza di una loro verità su una azienda o prodotto fanno proprio bene il loro lavoro.

Ren
21-07-2016, 21:45
Io a entrambi. Queste notizie pubblicate come articoli partono da utenti anonimi che fanno rimbalzare non-informazioni come palle da biliardo.
Poi utenti (spacciati da molti come esperti) che molto probabilmente sono pagati per postare 24 ore su 24 in svariati forum per convincere tutta l'utenza di una loro verità su una azienda o prodotto fanno proprio bene il loro lavoro.

:asd:

http://lh3.googleusercontent.com/kT9NsiSxUVig28zQfh35SyP_RNVX3tlmGkC3wJNoWwAUdRaU56PH6sviFoSQum8Hey_Ag52CWaTNKEcMgeNjRZ4=s240

george_p
21-07-2016, 21:50
:asd:

http://lh3.googleusercontent.com/kT9NsiSxUVig28zQfh35SyP_RNVX3tlmGkC3wJNoWwAUdRaU56PH6sviFoSQum8Hey_Ag52CWaTNKEcMgeNjRZ4=s240

Ahahah si, in effetti.
Ti sei mai chiesto come fanno certi utenti a postare fiumi e fiumi di post al giorno e su almeno tre forum?
Nemmeno quando non ho niente da fare riesco a scrivere così tanto, ma poi per dire cosa, contro tutto e tutti? :sofico:
Sembra la guerra di uno sfigato o due che deve convincere tutto il mondo :Prrr:

Piedone1113
21-07-2016, 22:11
@cesare parliamo di oggi è non di 13 anni fa che è meglio.
http://www.hwupgrade.it/forum/showthread.php?t=2119003
Giusto per rinfrescarsi la memoria ( i primi casi denunciati sono già del 2005, ed è presumibile che l'uso sia iniziato già dai primi p4)
Se poi l antitrust usa ha messo sugli attenti intel credo non siamo fantasie mie.
Le CPU amd erano superiori, spesso lo erano anche con il freno a mano tirato, e si difendevano anche discretamente con codice scritto per le peculiarità intrinseche dell'architettura p4.
E soprattutto non giustificare intel dicendo che il compilatore era il suo, perché non ha mai avvertito le software house degli effetti collaterali con CPU non intel ( togliendo di fatto la possibilità di poter scegliere consapevolmente un compilatore alternativo agli sviluppatori e erogando di fatto non solo il settore hardware ma anche quello software).
Quindi puoi portarmi tutti i test delle CPU dell'epoca a confronto, ma gli stessi software ricompilati ad oggi con l'attuale compilatore intel potrebbero restituire risultati differenti, e non di poco.

george_p
21-07-2016, 22:16
@cesare parliamo di oggi è non di 13 anni fa che è meglio.
http://www.hwupgrade.it/forum/showthread.php?t=2119003
Giusto per rinfrescarsi la memoria ( i primi casi denunciati sono già del 2005, ed è presumibile che l'uso sia iniziato già dai primi p4)
Se poi l antitrust usa ha messo sugli attenti intel credo non siamo fantasie mie.
Le CPU amd erano superiori, spesso lo erano anche con il freno a mano tirato, e si difendevano anche discretamente con codice scritto per le peculiarità intrinseche dell'architettura p4.
E soprattutto non giustificare intel dicendo che il compilatore era il suo, perché non ha mai avvertito le software house degli effetti collaterali con CPU non intel ( togliendo di fatto la possibilità di poter scegliere consapevolmente un compilatore alternativo agli sviluppatori e erogando di fatto non solo il settore hardware ma anche quello software).
Quindi puoi portarmi tutti i test delle CPU dell'epoca a confronto, ma gli stessi software ricompilati ad oggi con l'attuale compilatore intel potrebbero restituire risultati differenti, e non di poco.

Perché, ad oggi, siamo sicuri che intel non stia facendo lo stesso gioco di anni fa?
Come si può verificare ciò?
Mi sembra che non sia cosa a portata di tutti ma solo di chi sa programmare e a certi livelli... ignoranza mia.

Piedone1113
21-07-2016, 22:38
Perché, ad oggi, siamo sicuri che intel non stia facendo lo stesso gioco di anni fa?
Come si può verificare ciò?
Mi sembra che non sia cosa a portata di tutti ma solo di chi sa programmare e a certi livelli... ignoranza mia.

Sulle cpu attuali potrebbe anche essere (anche per motivi tecnici reali) ma a distanza di 13 anni ignorate ancora la compatibilità di istruzioni degli a64 e A xp dopo l'esplicita condanna dell'Antitrust e realitiva richiesta significa finire nel penale.
Quindi tra BD e Core potrebbero esserci alcune differenze di trattamento di alcune routine logiche, ma non una discriminazione palese.

marchigiano
21-07-2016, 22:54
Nemmeno quando non ho niente da fare riesco a scrivere così tanto, ma poi per dire cosa, contro tutto e tutti? :sofico:
Sembra la guerra di uno sfigato o due che deve convincere tutto il mondo :Prrr:

magari fossero solo quelli gli sfigati al mondo... vogliamo parlare di quelli che stanno tutto il giorno a postare di scie chimiche, alieni, grande ordine mondiale, no vaccini, rettiliani, ecc...? :muro: :muro: :muro: :muro:

digieffe
21-07-2016, 22:57
Occhio che il die a 10 intel in effetti è stato commercializzato a max 2,4ghz (Xeon E5-2640 v4, step R0): l' i7-6950x deriva da una selezione di die a 24 core, che giustifica il prezzo elevato. ;)


Xeon E5-2640 v4 è 90w tdp

nella varie recensioni c'è scritto che i7-6950x deriva dal die piccolino nel quale ci sono al max 10 core

george_p
21-07-2016, 23:32
magari fossero solo quelli gli sfigati al mondo... vogliamo parlare di quelli che stanno tutto il giorno a postare di scie chimiche, alieni, grande ordine mondiale, no vaccini, rettiliani, ecc...? :muro: :muro: :muro: :muro:

Sui vaccini e sui farmaci allopatici in genere sono proprio contrario, ma per osservazione diretta e indiretta non certo per partito preso da sola lettura.
Le informazioni una volta prese vanno assimilate e constatate di persona per non divenire schiavi di una parte o del suo opposto.
Stando cioè fuori dal gioco il più possibile e con consapevolezza.
Dare ragione, senza mai sperimentare o osservare di persona, ai complottisti o agli anticomplottisti è da lobotomizzati a prescindere, e quindi è la stessa identica cosa per ogni parte.
E questo è il solito gioco duale in cui cascano la stragrande maggioranza delle persone, ognuna delle quali, senza un minimo di approccio diretto e senza usare il proprio cervello, pende da una parte o dall'altra.
Accade per tutto incluso il settore informatico. Non viene mai guardata una certa oggettività ma solo se chi la esprime, vera o falsa che sia, è simpatico o meno e allora diventa o un amico o un nemico da elevare a intoccabile o da dargli addosso per annullarlo.
Comportamento osservabilissimo tutti i giorni anche solo nei forum senza andare a scomodare il nostro mondo nel proprio piccolo vissuto.


Fine OT :)

george_p
21-07-2016, 23:35
Quando è la data della conferenza in cui Lisa Su parlerà di Zen?
Parlerà è una parola un pò grossa, magari scucirà qualcosina in più si spera.
non ricordo mai, mi pare in agosto ma non ricordo in quale periodo del mese
Sarà comunque un agosto ancora più caldo sicuramente :cool: :D

el-mejo
22-07-2016, 00:08
Xeon E5-2640 v4 è 90w tdp

nella varie recensioni c'è scritto che i7-6950x deriva dal die piccolino nel quale ci sono al max 10 core

Potrebbe anche essere ma ne dubito, il corrispettivo Xeon (10 core, 3,1ghz, 165w tdp) è composto da un die da 24 core: se avessero avuto dei die a 10 core stabili a 3gzh credo li avrebbero riservati al settore server e lasciato al consumer gli 8 core, ma piazzare in quel settore cpu a 10 core a 2700$ è difficile se un modello equivalente da 2,4ghz costa un terzo :asd:

Fortuna per loro esistono gli enthusiast :D

Ecco una slide che schematizza il tutto, mancano perà i 10 core nativi a basso consumo: http://cdn.wccftech.com/wp-content/uploads/2016/03/Intel-Broadwell-EP-Die.png

Ovvio che per avere la certezza bisognerebbe chiedere direttamente ad Intel oppure deliddare...

digieffe
22-07-2016, 00:15
Potrebbe anche essere ma ne dubito, il corrispettivo Xeon (10 core, 3,1ghz, 165w tdp) è composto da un die da 24 core: se avessero avuto dei die a 10 core stabili a 3gzh credo li avrebbero riservati al settore server e lasciato al consumer gli 8 core, ma piazzare in quel settore cpu a 10 core a 2700$ è difficile se un modello equivalente da 2,4ghz costa un terzo :asd:

Fortuna per loro esistono gli enthusiast :D

Ecco una slide che schematizza il tutto, mancano perà i 10 core nativi a basso consumo: http://cdn.wccftech.com/wp-content/uploads/2016/03/Intel-Broadwell-EP-Die.png

Ovvio che per avere la certezza bisognerebbe chiedere direttamente ad Intel oppure deliddare...

non consideri alcune cose,il modello derivante dal 24 core ha "n-mila" canali di memoria, alrettanti bus per l'interconnessione a 4 o 8 socket, tecnologie per la correzione degli errori, insomma sono tutt'altra cosa ;)

cdimauro
22-07-2016, 06:10
Ho finito di leggere proprio ieri la recensione di PC Professionale sul 10 core INTEL... Contrariamente a quanto pensavo (e cioè che fosse selezionato un singolo core fortunello tra i 10), il driver del turbo boost 3.0, presto integrato in windows 10, sceglie dinamicamente in ogni momento, in base immagino alla temperatura, il core da usare e la frequenza da usare quando un thread supera il 90% di uso. A fronte di un massimo teorico di 4GHz, hanno ottenuto, per il cinebench ST, una frequenza media di 3.75GHz...
Perché immagino che Cinebench usi le AVX, e dunque stressi di più il processore, generando più calore. D'altra parte elabora il doppio dei FLOPS rispetto alle SSE.
A quanto ho capito, l'offset negativo in AVX 256 ti consentirebbe di avere un clock base più alto, ma forse dovresti pubblicizzare quello dell'AVX e quindi perderebbe senso, arrivando alla situazione di AMD, che ha il clock base, all-core turbo e max turbo...
Mi pare che Intel pubblicizzi entrambi i clock: quello principale, e quello usando (intensamente) AVX. Da qualche parte nelle slide (pubbliche, ovviamente) ho visto la distinzione fra i due, e credo sia importante anche per una questione di trasparenza: chi compra deve sapere che il processore non può reggere la stessa frequenza quando usa le AVX.
se vabbe, ma non ci vuole molto a capire quella tabella (o lo fai apposta?)
Non confondermi con i fanboy che frequentano il sito della scimmia (inclusa).
: se intendi come usare i 14nm per i core-m allora tutto è possibile, poi però i veri 14nm per le cpu caxxute sono usciti quasi 2 anni dopo e cioè adesso :sofico:
Forse perché Intel ha avuto problemi con 14nm? Magari l'avrai sentito da qualche parte.

Per cui ha dovuto privilegiare alcuni settori (quelli dove margina di più) anziché altri.

Comunque in linea generale non è cambiato molto: se vai a vedere Haswell, tutti i processori di questa famiglia sono stati rilasciati nell'arco di 2 anni.
coffee lake è a 14nm.
Sì, dunque? Mi pare che anche Haswell abbia avuto un refresh, no?
è probabile che i 10nm saranno scaglionati in 3 anni come successo con i 14, nel fine 2017 per gli ultra power (U/Y), 2018 per la fascia mainstream e 2019 per la fascia extreme/server.
Considerato che usciranno nell'ultimo quarto 2017 (a giudicare dalle immagini), l'arco di tempo sarà lo stesso di quello attuale: circa 2 anni.
io lo dico dai 22nm che intel non poteva più sostenere quel ritmo nello sviluppo dei processi HP, è naturale e non c'è nulla di sbagliato, ma del resto si sa che i processi fatti da tsmc e samsung, per non parlare di gf, non sono ai livelli del HP intel.
Stai riportando un'ovvietà: si sa che a scendere sotto i 32nm ci sono stati problemi, e per tutti. Intel è riuscita ad arrivare ai 22nm, ma non senza problemi, mentre altri hanno gettato la spugna.

Per cui che non si possa più sostenere il ritmo degli anni precedenti è la classica scoperta dell'acqua calda: lo può fare chiunque.
@cdimauro

non capisco cosa intendi per specifiche. Se io acquisto un procio che viene dato a 3,5GHz def, per me vuol dire che deve operare a quella frequenza in qualsiasi condizione.
Questo significa rispettare le specifiche.
L'X6 Xeon veniva dato ad una frequenza che risultava alta se veniva caricato, sforando il TDP e di qui il forzato abbassamento della frequenza.
Bene. E questo potrebbe succedere anche nel caso in cui il processore non sia adeguatamente raffreddato.

Comunque, è anche scritto nelle specifiche che se il processore ha problemi di surriscaldamento può abbassare la frequenza di funzionamento.

Il trottling normalmente non dovrebbe succedere, se il sistema di raffreddamento è adeguato.
Esempio AMD. l'8350 ed idem l'8370, hanno la frequenza def di 4GHz, ma contemporaneamente una frequenza turbo (su tutti i core) che alza la frequenza def a 4,1GHz nel caso di carichi non intensivi.
Mi sembra corretto interpretare la frequenza def come frequenza minima operativa su tutti i core e di qui chiedere un prezzo per quella frequenza... vendere il procio per una frequenza che in realtà è quella turbo senza un carico intensivo, sarebbe come se AMD vendesse un 8350 per 4,1GHz def, ed è la stessa cosa che ha fatto Intel con quel Xeon X6. Tanto regolare non mi sembra visto che dopo quell'episodio non l'ha più fatto (almeno con gli Xeon).
Hai per caso il link a questa notizia? Perché è la prima volta che lo sento.

Comunque ti faccio presente che alcuni processori AMD impiegati in ambito notebook et similia (quindi APU) soffrono di trottling. Hai qualcosa da dire anche in questo caso, oppure per AMD facciamo un'eccezione?
Per quanto riguarda il silicio, è stato postato mille volte quanto Intel ci ha guadagnato dal passaggio 32nm fino ad oggi 14nm, sia in frequenza (e quindi in potenza ST e MT), in TDP a parità di core e aumento core a parità di TDP. Non è una novità che l'incremento architetturale sia praticamente nullo rispetto a quanto guadagnato dal passaggio silicio.
Perché continui a parlare di cose che non conosci? Fra Sandy Bridge (32nm) e Haswell (22nm) gli incrementi (micro)architetturali sono NOTEVOLI.
E per te la differenza AMD vs Intel è unicamente per causa CMT perchè l'SMT è meglio...
Mi pare ovvio: se Sandy Bridge, che è sempre a 32nm, si mangia a colazione Bulldozer (stesso processo produttivo) a frequenze inferiori e con l'SMT, allora c'è qualcosa che non va nel CMT.

Ma qui sto dicendo un'ovvietà.
Se il 32nm avesse concesso la produzione di Komodo (X10) che avrebbe naturalmente portato BD al confronto con il socket 2011 per via del maggiore MT rispetto agli X4+4 Intel, si avrebbe avuto un confronto CMT vs SMT diverso, visto che per me è fazioso confrontare il CMT vs SMT su X4+4 quando un 8350 è un Opteron a tutti gli effetti e quindi il suo antagonista (per cache, numero TH e carico) è uno Xeon (un X4+4 Intel tiene si 8TH come un 8350, ma, come dimostrato tante volte su questo TH, si siede molto prima di un 8350 sotto carico >8 TH).
Si, buona notte: adesso paragoni l'8350 agli Opteron, visto che non c'è altro a cui appigliarti.

Allora perché non prendi direttamente gli Opteron basati su BD e li confronti con gli Xeon basati su SB? Anche qui, stesso processo produttivo, e frequenze inferiori per gli Xeon. Vuoi vedere che il risultato non cambia? :rolleyes:
Guardando Carrizo e BR, io ci vedo un'efficienza architetturale IMMENSA se rapportati al tipo di silicio su cui sono prodotti... 28nm Bulk GF, e personalmente, riguardo SMT vs CMT, confrontando il mio Broadwell 14nm ai mobili AMD precedenti, Llano e Trinity, non ci vedo nulla di entusiasmante... e ho tutta l'intenzione di cambiarlo con BR mobile, anche se l'ho pagato 750€ perchè lo credevo X4, visto la sigla i7.
De gustibus. Ma che il CMT sia stato fallimentare lo vedi sullo stesso processo produttivo: non serve scomodare i 14nm. Vedi sopra.
Al massimo hanno mezzo nodo di vantaggio con i 10nm farlocchi :fagiano: .

I 10nm LP TSMC sono un processo di transizione previsto per il 2017(per apple). I 7nm HPL sono previsti in volumi per il 2019.

TSMC ha scelto di andare sul sicuro con i suoi nuovi processi. Nessuna innovazione di materiali o litografica.

Samsung adotterà EUV per ridurre i costi di design.

GF dice di voler correre da sola. :what:

Intel di solito anticipa le innovazioni obbligate(metal gate, finfet etc...). La prossima sulla tabella di marcia è il III-V.:boh:
Hai centrato perfettamente il punto: Intel è obbligata a innovare. Altrimenti non sarebbe dov'è. ;)
ma o ho il monitor storto io oppure i 10nm li vedo per il 2018...
Se controlli meglio, magari zoomando e/o usando un programma tipo Paint (io ho usato Paint.NET per verificare al pixel), Kaby Lake parte da fine 2016, e Cannon Lake da fine 2017.

Infatti giusto ieri il CEO di Intel ha annunciato che Kaby Lake è già in consegna ai partner. Dunque è presumibile che i primi prodotti arriveranno a settembre o ottobre.
Se le frequenze di clock di Zen non sono almeno 4GHz base, tanto valeva fare uno shrink di BR... Ma proprio non ci arrivano? AMD ha dichiarato che competeranno anche con le prestazioni... Come si può competere con 2.8GHz?!?! Con il ragionamento di questi geni, siccome l'ES del 10 core INTEL girava a 2.2GHz, allora in produzione non doveva superare i 2.4... E invece fa i 3GHz... Ed è una architettura collaudata su processo collaudato... Figuriamoci una architettura nuova su processo nuovo... E' uno step A0, cavolo... Il primo funzionante... E si fermerebbero li?
Ma il problema forse è proprio quello: in teoria Zen dovrebbe arrivare nel Q4, e dunque fra pochi mesi, ma:
- si continua a parlare di A0;
- non ci sono informazioni su stepping diversi;
- non ci sono informazioni, in generale, su versioni commerciali (almeno stepping) nelle mani dei partner.

Per cui la domanda sorge spontanea: se nessuno non ha ancora in mano niente, quand'è che uscirà realmente Zen?
Mi riferivo ai vari utenti uccellacci del malaugurio sui vari forum...
C'è una cosa che non capirò mai: ma perché tifare così per una marca anziché un'altra.

Siete dipendenti? Avete delle azioni? :D

Sia chiaro che non ce l'ho con te: è una mera osservazione. :)
Io a entrambi. Queste notizie pubblicate come articoli partono da utenti anonimi che fanno rimbalzare non-informazioni come palle da biliardo.
Poi utenti (spacciati da molti come esperti) che molto probabilmente sono pagati per postare 24 ore su 24 in svariati forum per convincere tutta l'utenza di una loro verità su una azienda o prodotto fanno proprio bene il loro lavoro.
Boom. Ha ragione Ren: troppo complottismo. :D :D :D
@cesare parliamo di oggi è non di 13 anni fa che è meglio.
http://www.hwupgrade.it/forum/showthread.php?t=2119003
Giusto per rinfrescarsi la memoria ( i primi casi denunciati sono già del 2005, ed è presumibile che l'uso sia iniziato già dai primi p4)
Se poi l antitrust usa ha messo sugli attenti intel credo non siamo fantasie mie.
Le CPU amd erano superiori, spesso lo erano anche con il freno a mano tirato, e si difendevano anche discretamente con codice scritto per le peculiarità intrinseche dell'architettura p4.
E soprattutto non giustificare intel dicendo che il compilatore era il suo, perché non ha mai avvertito le software house degli effetti collaterali con CPU non intel ( togliendo di fatto la possibilità di poter scegliere consapevolmente un compilatore alternativo agli sviluppatori e erogando di fatto non solo il settore hardware ma anche quello software).
Quindi puoi portarmi tutti i test delle CPU dell'epoca a confronto, ma gli stessi software ricompilati ad oggi con l'attuale compilatore intel potrebbero restituire risultati differenti, e non di poco.
Conosco la situazione, ma:

1) non sappiamo sei quegli eseguibili siano stati compilati o meno col compilatore Intel
2) non sappiamo se quel compilatore sia di quelli che ottimizza soltanto per microarchitetture Intel
3) Il compilatore può ottimizzare soltanto per le sue microarchitetture. Ma dovrebbe renderlo pubblico (il nocciolo della questione è quello)
4) In ogni caso, ed è la cosa più importante, qualunque sia stata la situazione, gli utenti che hanno usato QUELLE applicazioni hanno ottenuto QUELLE prestazioni con QUEI processori in QUEL periodo.

Per cui ciò che ho riportato è e rimane esattamente ciò che la storia reale c'ha consegnato.
Perché, ad oggi, siamo sicuri che intel non stia facendo lo stesso gioco di anni fa?
No.
Come si può verificare ciò?
Prendi il compilatore Intel e leggi le informazioni allegate.
Mi sembra che non sia cosa a portata di tutti ma solo di chi sa programmare e a certi livelli... ignoranza mia.
Non ti serve compilare: ti basta prendere il manuale del compilatore e leggere le indicazioni.
Sulle cpu attuali potrebbe anche essere (anche per motivi tecnici reali) ma a distanza di 13 anni ignorate ancora la compatibilità di istruzioni degli a64 e A xp dopo l'esplicita condanna dell'Antitrust e realitiva richiesta significa finire nel penale.
Ma anche no: si può ignorare qualsiasi cosa del genere, se il compilatore ottimizza per MICROarchitetture. Com'è ovvio che sia per un compilatore che deve ottimizzare, per l'appunto.
Quindi tra BD e Core potrebbero esserci alcune differenze di trattamento di alcune routine logiche, ma non una discriminazione palese.
Non si tratta di discriminazione: io posso decidere di spendere risorse (= SOLDI) per ottimizzare soltanto per le mie (micro)architetture.

L'importante è che ciò sia chiaramente riportato nella documentazione. Così non era anni fa, ed è il motivo per cui, all'epoca, Intel fu condannata. Dopo la condanna, è tutto riportato.

Amen.

bjt2
22-07-2016, 06:57
:asd:

http://lh3.googleusercontent.com/kT9NsiSxUVig28zQfh35SyP_RNVX3tlmGkC3wJNoWwAUdRaU56PH6sviFoSQum8Hey_Ag52CWaTNKEcMgeNjRZ4=s240

Il GOMBLODDO è far credere che un 8 core Zen andrà max a 2.8GHz a 95W, quando un SoC low power con 8 core ARM e una GPU da 122GFLOPs con un TDP totale di meno di 3 W ha clock di 2.5GHz... :O

Facciamo i conti: sappiamo che a 2.41GHz la FPU consuma 330mW... Supponiamo che i 3W li consumino DA SOLI i 4 core ARM a 2.5GHz. Sarebbero 0.75W a core, quindi meno del triplo della FPU...
Perciò le mie previsioni che danno un core consumare il quadruplo della FPU sono fin troppo conservative... A maggior ragione per Zen, per cui ho supposto una FP da 1.2W...

Piedone1113
22-07-2016, 06:59
Conosco la situazione, ma:

1) non sappiamo sei quegli eseguibili siano stati compilati o meno col compilatore Intel
2) non sappiamo se quel compilatore sia di quelli che ottimizza soltanto per microarchitetture Intel
3) Il compilatore può ottimizzare soltanto per le sue microarchitetture. Ma dovrebbe renderlo pubblico (il nocciolo della questione è quello)
4) In ogni caso, ed è la cosa più importante, qualunque sia stata la situazione, gli utenti che hanno usato QUELLE applicazioni hanno ottenuto QUELLE prestazioni con QUEI processori in QUEL periodo.

Per cui ciò che ho riportato è e rimane esattamente ciò che la storia reale c'ha consegnato.



No Cesare, non girare la frittata:
Se mi dici che i software sotto windows non sfruttavano le potenzialità delle architetture Amd è una cosa ben diversa dal dire che i P4 avevano prestazioni superiori dei corrispettivi A64.
Non mischiamo pere con mele, perchè sono due cose diverse.
Poi la storia del compilatore che ottimizza per architettura ( o disottimizza come nel caso PIII vs P4 willamette) sono dichiarazioni di comodo.
Quindi secondo le tue definizioni i P4 erano più veloci nel settore desktop, mentre gli A64 lo erano in quello enterprise (come dire il P4 era la cpu per i bimbiminkia brufolosi, mentre gli A64 erano le cpu per i professionisti con le OOO che necessitavano di elevata potenza ed affidabilità per compiti gravosi e non per farci 4 test in croce).
Allora hai ragione, ma con una piccola precisazione:
I p4 erano le cpu più veloci nel settore giocattoloso, mentre in quello serio erano poco più che giocattoli (giocattoli venduti a caro prezzo, oserei dire)



Non si tratta di discriminazione: io posso decidere di spendere risorse (= SOLDI) per ottimizzare soltanto per le mie (micro)architetture.

L'importante è che ciò sia chiaramente riportato nella documentazione. Così non era anni fa, ed è il motivo per cui, all'epoca, Intel fu condannata. Dopo la condanna, è tutto riportato.

Amen.

Gia, proprio come con i produttori di tabacco, peccato che dopo essere state obbligate a informare dei danni dello stesso, hanno dovuto sborsare ad ogni pincopallino di passaggio fior di milione perchè hanno aggiunto artificialmente nicotina nel tabacco omettendo di dichiararlo.

bjt2
22-07-2016, 07:19
Perché immagino che Cinebench usi le AVX, e dunque stressi di più il processore, generando più calore. D'altra parte elabora il doppio dei FLOPS rispetto alle SSE.

Non vorrei sbagliarmi, ma mi pare di ricordare che cinebench R15 è usato così di frequente come bench, perchè non va oltre le AVX 128, e quindi è utile per testare le microarchitetture... E' ovvio che se avesse le AVX256, siccome i calcoli sono complessi e non dovrebbero essere limitati dalla banda RAM, probabilmente andrebbe più del doppio che sui processori AMD...

C'è una cosa che non capirò mai: ma perché tifare così per una marca anziché un'altra.

Siete dipendenti? Avete delle azioni? :D

Sia chiaro che non ce l'ho con te: è una mera osservazione. :)

La cosa che mi da fastidio è che questi tizi, che non esito a chiamare fanboy INTEL, senza nessuna cognizione di microarchitetture, si ostinano a dire che siccome INTEL su un 8 core non supera i 3GHz a default, sul 14nm INTEL che è "il più super migliorissimo processo di tutti gli universi conosciuti", non è fisicamente possibile che AMD ci riesca...
Peccato che questi tizi si dimentichino del FO4 presumibilmente basso, dell'RCM, dell'AVFS... Già sul 28nm bulk, che è una ciofeca anche rispetto ai 32nm bulk INTEL, figuriamoci rispetto al 14nm FinFet, AMD compete con le frequenze INTEL su 2 nodi avanti (anzi è superiore su quella turbo 4.3 vs 4.2 4C vs 4C)... Figuriamoci quando passerà al 14nm FinFet, che dovrebbe essere molto migliore...


Mi riquoto:

Il GOMBLODDO è far credere che un 8 core Zen andrà max a 2.8GHz a 95W, quando un SoC low power con 8 core ARM e una GPU da 122GFLOPs con un TDP totale di meno di 3 W ha clock di 2.5GHz...

Facciamo i conti: sappiamo che a 2.41GHz la FPU consuma 330mW... Supponiamo che i 3W li consumino DA SOLI i 4 core ARM a 2.5GHz. Sarebbero 0.75W a core, quindi meno del triplo della FPU...
Perciò le mie previsioni che danno un core consumare il quadruplo della FPU sono fin troppo conservative... A maggior ragione per Zen, per cui ho supposto una FP da 1.2W...

george_p
22-07-2016, 08:02
No.
Prendi il compilatore Intel e leggi le informazioni allegate.
Non ti serve compilare: ti basta prendere il manuale del compilatore e leggere le indicazioni.

Ah ok, pensavo fosse molto più complicato.


Non si tratta di discriminazione: io posso decidere di spendere risorse (= SOLDI) per ottimizzare soltanto per le mie (micro)architetture.
L'importante è che ciò sia chiaramente riportato nella documentazione. Così non era anni fa, ed è il motivo per cui, all'epoca, Intel fu condannata. Dopo la condanna, è tutto riportato.


Si, un dettaglio che è bene specificare.


Boom. Ha ragione Ren: troppo complottismo

Sono un complottista se ritengo inverosimile per una persona scrivere per ore e ore, ogni giorno su almeno 3 forums fiumi e fiumi e fiumi di parole per andare addosso a un azienda piuttosto che un altra rispondendo meticolosamente a decine di persone ripetendosi all'infinito?
E se mi metto il dubbio che questa persona possa venire pagata da una azienda?
ma secondo te, davvero una realtà del genere è impossibile? Libero di crederlo ma per me non sei certo un anticomplottista per questo ;)

Dare del complottista (o anticomplottista) è un modo per annullare un altra persona ergendosi sul piedistallo della ragione.

Eppure tu stesso hai scritto che non ti capaciti di come si possa tifare per un marchio piuttosto che un altro :O

bjt2
22-07-2016, 08:42
http://www.anandtech.com/show/10435/assessing-ibms-power8-part-1

Analisi approfondita di Power 8 vs Broadwell/Skylake

@cdmauro: secondo anandtech anche skylake può fare il fetch delle istruzioni solo fino a 16 bytes ciclo, contro i 32 bytes ciclo di AMD... Ma non capisco l'asimmetria di skylake della cache uop, che può buttare 6uop/ciclo, mentre i decoder max 5 uop ciclo...

george_p
22-07-2016, 08:47
L'esistenza di gente pagata per fare marketing/FUD su forum/social è più che nota, di cosa state parlando? :confused:

E soprattutto: com'è di interesse a questa discussione?

E' scaturita da una mia frase due o tre post (miei) fa.
Frase che ha messo in movimento il solito meccanismo complottista/anticomplottista.

el-mejo
22-07-2016, 10:20
non consideri alcune cose,il modello derivante dal 24 core ha "n-mila" canali di memoria, alrettanti bus per l'interconnessione a 4 o 8 socket, tecnologie per la correzione degli errori, insomma sono tutt'altra cosa ;)
Li ha anche il die a 10 core (eccetto al supporto a piattaforme con + di 2 processori), solo che sono disattivati ;)

digieffe
22-07-2016, 11:38
Ah ok, pensavo fosse molto più complicato.



Si, un dettaglio che è bene specificare.




Sono un complottista se ritengo inverosimile per una persona scrivere per ore e ore, ogni giorno su almeno 3 forums fiumi e fiumi e fiumi di parole per andare addosso a un azienda piuttosto che un altra rispondendo meticolosamente a decine di persone ripetendosi all'infinito?
E se mi metto il dubbio che questa persona possa venire pagata da una azienda?
ma secondo te, davvero una realtà del genere è impossibile? Libero di crederlo ma per me non sei certo un anticomplottista per questo ;)

Dare del complottista (o anticomplottista) è un modo per annullare un altra persona ergendosi sul piedistallo della ragione.

Eppure tu stesso hai scritto che non ti capaciti di come si possa tifare per un marchio piuttosto che un altro :O

+1

paolo.oliva2
22-07-2016, 16:55
Si, buona notte: adesso paragoni l'8350 agli Opteron, visto che non c'è altro a cui appigliarti.
:confused: Ma tu sai di cosa stai parlando? Lo conosci l'8350?
Il die Opteron è base X8 = 8350, come lo sarà Zen X8+8, che altro non sarà che Zen Opteron portato nel desktop.

Appigliare? Se guardi addietro, sono stati postati n confronti di carico tra un X4+4 SMT 8TH e un 4M/X8 CMT, con tanto di dettagli di quanto si ferma prima un X4+4 superati gli 8TH confronto un 8TH 8350 CMT, appunto perchè l'8350, ha specifiche di carico da server, non da desktop.

Ha senso confrontare un 6700K per il suo ST con l'ST di un 6850K o 6950X o un X22+22? Mi pare ovvio che non ha senso, ed infatti nessuno lo fa, appunto perchè hanno tipologie differenti.

Però si vede che ci trovano il senso nel confrontarlo ad un 8350, come vedrai che troveranno il senso pure per il confronto Zen X8+8 che, come l'8350, NASCE come OPTERON e riciclato come desktop.

Io non capisco cosa ci sia da contestare a ciò che dico... la potenza ST e la potenza IPC del 6700K è data da una frequenza def di 4GHz e turbo di 4,2GHz, assolutamente d'accordo che Intel arrivi a quella potenza con quel procio, ma mi sembra non poco da bandiera considerare la potenza ST del 6700K come universale Broadwell. L'IPC di Broadwell è +70%? Benissimo, ma va considerato IPC * frequenza, e all'infuori di un 6700K la frequenza def è ben inferiore ai 4GHz, che riduce il vantaggio IPC Intel.
Per cosa credi che c'è tutta sta menata sulle frequenze Zen? Perchè se Zen avrà anche -10% di IPC, con tutta probabilità la frequenza def sarà ben superiore al 10% di quella Intel... ed è dura da accettare, con un silicio Intel superiore del 15% o più rispetto a quello GF.

bjt2
22-07-2016, 17:09
Di la su semiaccurate, analizzando sia le immagini del die di Zen, sia alcune trascrizioni di un recente talk, stanno supponendo che quello che si vede nel die sono 8 controller a 128 bit HBM, probabilmente da usare come cache L4, visto che non è una APU e perchè vicino al controller della cache L3... Hanno anche postato un brevetto AMD sull'uso di memoria HBM come cache...

Piedone1113
22-07-2016, 18:06
:confused: Ma tu sai di cosa stai parlando? Lo conosci l'8350?
Il die Opteron è base X8 = 8350, come lo sarà Zen X8+8, che altro non sarà che Zen Opteron portato nel desktop.

Appigliare? Se guardi addietro, sono stati postati n confronti di carico tra un X4+4 SMT 8TH e un 4M/X8 CMT, con tanto di dettagli di quanto si ferma prima un X4+4 superati gli 8TH confronto un 8TH 8350 CMT, appunto perchè l'8350, ha specifiche di carico da server, non da desktop.

Ha senso confrontare un 6700K per il suo ST con l'ST di un 6850K o 6950X o un X22+22? Mi pare ovvio che non ha senso, ed infatti nessuno lo fa, appunto perchè hanno tipologie differenti.

Però si vede che ci trovano il senso nel confrontarlo ad un 8350, come vedrai che troveranno il senso pure per il confronto Zen X8+8 che, come l'8350, NASCE come OPTERON e riciclato come desktop.

Io non capisco cosa ci sia da contestare a ciò che dico... la potenza ST e la potenza IPC del 6700K è data da una frequenza def di 4GHz e turbo di 4,2GHz, assolutamente d'accordo che Intel arrivi a quella potenza con quel procio, ma mi sembra non poco da bandiera considerare la potenza ST del 6700K come universale Broadwell. L'IPC di Broadwell è +70%? Benissimo, ma va considerato IPC * frequenza, e all'infuori di un 6700K la frequenza def è ben inferiore ai 4GHz, che riduce il vantaggio IPC Intel.
Per cosa credi che c'è tutta sta menata sulle frequenze Zen? Perchè se Zen avrà anche -10% di IPC, con tutta probabilità la frequenza def sarà ben superiore al 10% di quella Intel... ed è dura da accettare, con un silicio Intel superiore del 15% o più rispetto a quello GF.

Paolo sono tra i più ottimisti circa le possibilità di riscatto di AMD a livello di prestazioni.
Il vero zen si vedrà con la rev 2 (ZEN2), e questa è una cpu di transizione.
Che il silicio intel sia ottimo (per l'industrializzazione intel) è fuori d'ogni dubbio, che su un silicio con caratteristiche diverse si possa costruire intorno una cpu altrettanto valida è fuori d'ogni dubbio.
Ma attenzione, alto ipc, alte frequenze su silicio non ottimizzato non sono impossibili, ma nemmeno così facili come siamo portati a credere.

Ren
22-07-2016, 19:16
Il GOMBLODDO è far credere che un 8 core Zen andrà max a 2.8GHz a 95W, quando un SoC low power con 8 core ARM e una GPU da 122GFLOPs con un TDP totale di meno di 3 W ha clock di 2.5GHz... :O

Perciò le mie previsioni che danno un core consumare il quadruplo della FPU sono fin troppo conservative... A maggior ragione per Zen, per cui ho supposto una FP da 1.2W...

Mancavano giusto le Supposte. :sofico:

Li voglio proprio vedere sti 4ghz(base clock)/95w 8core.:asd:

ps. aggiungete i watt alle vostre previsioni in prima pagina, altrimenti so boni tutti... ;)

Ren
22-07-2016, 19:27
C'è una cosa che non capirò mai: ma perché tifare così per una marca anziché un'altra.

Siete dipendenti? Avete delle azioni? :D


Boom. Ha ragione Ren: troppo complottismo. :D :D :D

Te ne sei accorto anche tu...:sofico:
Avranno frainteso la dottrina Zen. :D :D :D

Cesare stai rischiando :p (sei anche dipendente intel).
Se non segui il SCIOGNO :p ti bollano come fan intel complottista.:asd:

george_p
22-07-2016, 19:43
Te ne sei accorto anche tu...:sofico:
Avranno frainteso la dottrina Zen. :D :D :D

Cesare stai rischiando :p (sei anche dipendente intel).
Se non segui il SCIOGNO :p ti bollano come fan intel complottista.:asd:

Menomale che ci sei tu a farmi svegliare.

Ren
22-07-2016, 19:49
Menomale che ci sei tu a farmi svegliare.

Nemmeno davanti alla realtà vi svegliate, tant'è che BD è un capolavoro stroncato da un altro complotto...:sofico:

Siete uno spasso.:D


ps. spero siate almeno azionisti...

Piedone1113
22-07-2016, 19:50
Mancavano giusto le Supposte. :sofico:

Li voglio proprio vedere sti 4ghz/95w 8core.:asd:

ps. aggiungete i watt alle vostre previsioni in prima pagina, altrimenti so boni tutti... ;)

Abbiamo capito le tue opinioni a riguardo.
Saranno attese o disattese si vedrà, ma a furia di ripeterlo non è che il clock finale aumenti o diminuisca.
Per come la vedo io 3,8 GHZ su 8 core sarebbe un risultato ottimo (anche se in 130w), credo più probabili i 3,5 ghz come clock finale (almeno in un primo tempo) per la cpu più spinta, ma non è che se 8 core AMD vs 8 Core Intel saranno separati da un 5-10% di prestazione media finale si potrebbe additare a zen come un flop.
Certo se poi il silicio differente da quello intel permetterà clock + alti o bassi non è che ci viene qualcosa in tasca a noi (forse ne tireremo fuori di meno per acquistare una nuova cpu, al massimo).
Ma continuare con la stessa litania a lungo andare indispettisce anche i santi.

Ren
22-07-2016, 20:01
Abbiamo capito le tue opinioni a riguardo.
Saranno attese o disattese si vedrà, ma a furia di ripeterlo non è che il clock finale aumenti o diminuisca.
Per come la vedo io 3,8 GHZ su 8 core sarebbe un risultato ottimo (anche se in 130w), credo più probabili i 3,5 ghz come clock finale (almeno in un primo tempo) per la cpu più spinta, ma non è che se 8 core AMD vs 8 Core Intel saranno separati da un 5-10% di prestazione media finale si potrebbe additare a zen come un flop.
Certo se poi il silicio differente da quello intel permetterà clock + alti o bassi non è che ci viene qualcosa in tasca a noi (forse ne tireremo fuori di meno per acquistare una nuova cpu, al massimo).
Ma continuare con la stessa litania a lungo andare indispettisce anche i santi.

Fammi capire gli altri possono sparare previsioni mirabolanti, ripetendolo come un mantra, ed io devo stare zitto...:sofico:

Le TUE previsioni non sono marziane, quindi non puoi che trovarmi d'accordo.

Con i dati del hotchips(se spera) finalmente avremo del vero materiale su cui fare proiezioni realistiche.

Se AMD sforna un buon prodotto il mio portafogli è contento, quindi non posso far altro che sperare, ma non per questo SCIOGNO (con nulla in mano, tanto ripetersi)...

bjt2
22-07-2016, 20:40
Mancavano giusto le Supposte. :sofico:

Li voglio proprio vedere sti 4ghz(base clock)/95w 8core.:asd:

ps. aggiungete i watt alle vostre previsioni in prima pagina, altrimenti so boni tutti... ;)

L'A10 7890K è 4.0-4.3GHz, con in più 8x64=512 shader ed è 95W. Sul 28nm.
Ed essendo kaveri, sappiamo che ha qualche sistema di risparmio energetico malfunzionante e quindi disabilitato. Excavator è meglio da questo punto di vista... Vedremo Bristol Ridge.
E' vero che sono solo 4 core, ma la GPU consuma qualcosina... E il 14nm promette più del dimezzamento dei consumi a parità di frequenza...
Io penso che in 95W possano fare 4GHz di base e 4.5-4.6 di turbo... Se il processo è ottimo, fino a 5GHz...

bjt2
22-07-2016, 20:45
Fammi capire gli altri possono sparare previsioni mirabolanti, ripetendolo come un mantra, ed io devo stare zitto...:sofico:

Le TUE previsioni non sono marziane, quindi non puoi che trovarmi d'accordo.

Con i dati del hotchips(se spera) finalmente avremo del vero materiale su cui fare proiezioni realistiche.

Se AMD sforna un buon prodotto il mio portafogli è contento, quindi non posso far altro che sperare, ma non per questo SCIOGNO (con nulla in mano, tanto ripetersi)...

SoC da 3 W che vanno a 2.5GHz (e ti ricordo che le CPU ARM hanno un FO4 enorme e usano transistors RVT), proiezioni di consumi bassissimi in base al consumo delle FPU, leakage bassissimo, transconduttanza più alta, Vcore più basso a parità di frequenza... Cosa vuoi di più? :sofico:

george_p
22-07-2016, 20:55
L'A10 7890K è 4.0-4.3GHz, con in più 8x64=512 shader ed è 95W. Sul 28nm.
Ed essendo kaveri, sappiamo che ha qualche sistema di risparmio energetico malfunzionante e quindi disabilitato. Excavator è meglio da questo punto di vista... Vedremo Bristol Ridge.
E' vero che sono solo 4 core, ma la GPU consuma qualcosina... E il 14nm promette più del dimezzamento dei consumi a parità di frequenza...
Io penso che in 95W possano fare 4GHz di base e 4.5-4.6 di turbo... Se il processo è ottimo, fino a 5GHz...

Speriamo, sarà tutto da vedere col prodotto su strada... le premesse su carta sembrano esserci, ma... c'è anche gf di mezzo e gli imprevisti sempre dietro l'angolo.
A prescindere anche se zen non sarà superiore alla intel pare che le commesse per amd non stiano di certo mancando.

http://www.bitsandchips.it/50-enterprise-business/7272-2q16-amd-torna-a-respirare-grazie-al-mercato-dei-semi-custom

cdimauro
22-07-2016, 22:07
No Cesare, non girare la frittata:
Non ne ho proprio bisogno, "Piedone".
Se mi dici che i software sotto windows non sfruttavano le potenzialità delle architetture Amd è una cosa ben diversa dal dire che i P4 avevano prestazioni superiori dei corrispettivi A64.
Non mischiamo pere con mele, perchè sono due cose diverse.
Non ho affermato nulla del genere né ho mischiato alcunché.

Poi ti faccio notare che, eventualmente, lo stesso avveniva con l'HyperThreading che è stato introdotto proprio col P4, e la situazione era pure peggiore da questo punto di vista. Quante applicazioni, pur potendo sfruttarlo (perché gli algoritmi lo consentivano), sono state modificate allo scopo?

E' un po' lo stesso motivo per cui ci si lamenta del fatto che HSA non sia supportato.

Mentre supportare l'A64 è stato, invece, di gran lunga più semplice (normalmente sarebbe bastata una ricompilazione).
Poi la storia del compilatore che ottimizza per architettura ( o disottimizza come nel caso PIII vs P4 willamette)
Non mi è chiaro questo: potresti fornire delle informazioni?
sono dichiarazioni di comodo.
No, sono "semplicemente" dichiarazioni di uno che sa come funziona un compilatore, cosa significa generare codice ottimizzato, e che ha conoscenze delle differenze microarchitetturali e cosa comportano a livello di ottimizzazione.

Devo dire che anch'io, quando uscì la notizia, storsi, e non poco, il naso per la vicenda (anche su questo forum: se cerchi trovi ancora i miei post). Ma questo perché non mi ero sufficientemente documentato, come traspare dal thread di cui hai postato il link.

Questo NON significa che non riconosca le colpe di Intel sulla vicenda, ma almeno posso parlare con cognizione di causa. Tant'è che ho pure riportato qual è l'esatto motivo per cui Intel è stata condannata.
Quindi secondo le tue definizioni i P4 erano più veloci nel settore desktop, mentre gli A64 lo erano in quello enterprise (come dire il P4 era la cpu per i bimbiminkia brufolosi, mentre gli A64 erano le cpu per i professionisti con le OOO che necessitavano di elevata potenza ed affidabilità per compiti gravosi e non per farci 4 test in croce).
Allora hai ragione, ma con una piccola precisazione:
I p4 erano le cpu più veloci nel settore giocattoloso, mentre in quello serio erano poco più che giocattoli (giocattoli venduti a caro prezzo, oserei dire)
Non mi pare di averlo sostenuto, e a questo punto mi pare evidente che tu non abbia neppure controllato i link che avevo postato: ti saresti accorto che è proprio nel settore professionale (rendering, conversioni video, ecc.) che il P4 dà il meglio di sé, e a volte con distacchi imbarazzanti.

Mentre, viceversa, l'A64 rende meglio coi giochi.

Quindi, prendendo in prestito le tue parole, potremmo dire che:

"l'A64 era la cpu per i bimbiminkia brufolosi, mentre i P4 erano le cpu per i professionisti con le OOO"

:read:
Gia, proprio come con i produttori di tabacco, peccato che dopo essere state obbligate a informare dei danni dello stesso, hanno dovuto sborsare ad ogni pincopallino di passaggio fior di milione perchè hanno aggiunto artificialmente nicotina nel tabacco omettendo di dichiararlo.
Mi pare un paragone tirato in ballo soltanto per appesantire enormemente la vicenda, ma non c'entra nulla: non c'è stata la salute della gente in gioco.

Calza molto meglio, invece, il paragone coi produttori di CPU che spacciano CPU come 8 core, mentre di core ne hanno solo 4, e gli 8 di cui parlano sono, invece, thread hardware.

Ecco, questa rende sicuramente meglio... e c'è pure una causa in corso. :O

Ciò detto, non capisco cos'è che non ti vada bene del fatto che Intel sia stata condannata e abbia corretto il tiro.
Non vorrei sbagliarmi, ma mi pare di ricordare che cinebench R15 è usato così di frequente come bench, perchè non va oltre le AVX 128, e quindi è utile per testare le microarchitetture... E' ovvio che se avesse le AVX256, siccome i calcoli sono complessi e non dovrebbero essere limitati dalla banda RAM, probabilmente andrebbe più del doppio che sui processori AMD...
Purtroppo c'è un'incomprensione di fondo, e molto comune, con le AVX: non è con AVX2 che vengono raddoppiate (256 bit = 8 FP32 o 4 FP64) le prestazioni FP, ma ciò avviene già con la prima versione.

Le AVX2 introducono, invece, il supporto agli interi coi registri a 256 bit, quindi raddoppiando le prestazioni anche per questo tipo di calcoli.
La cosa che mi da fastidio è che questi tizi, che non esito a chiamare fanboy INTEL, senza nessuna cognizione di microarchitetture, si ostinano a dire che siccome INTEL su un 8 core non supera i 3GHz a default, sul 14nm INTEL che è "il più super migliorissimo processo di tutti gli universi conosciuti", non è fisicamente possibile che AMD ci riesca...
Peccato che questi tizi si dimentichino del FO4 presumibilmente basso, dell'RCM, dell'AVFS... Già sul 28nm bulk, che è una ciofeca anche rispetto ai 32nm bulk INTEL, figuriamoci rispetto al 14nm FinFet, AMD compete con le frequenze INTEL su 2 nodi avanti (anzi è superiore su quella turbo 4.3 vs 4.2 4C vs 4C)... Figuriamoci quando passerà al 14nm FinFet, che dovrebbe essere molto migliore...

Mi riquoto:
Premesso che di FPU et similia ne abbiamo già parlato, seguendo il tuo ragionamento, e dunque prendendo il fattore 4 come "conservativo", allora secondo te un quad core Zen dovrebbe consumare 3 * 4 = 12W a 2,5Ghz? E 24W per un octa core.

A me pare un po' troppo ottimistico.

Comunque prima mi riferivo ad altro. Ma ne parlo quotando Ren.
Sono un complottista se ritengo inverosimile per una persona scrivere per ore e ore, ogni giorno su almeno 3 forums fiumi e fiumi e fiumi di parole per andare addosso a un azienda piuttosto che un altra rispondendo meticolosamente a decine di persone ripetendosi all'infinito?
E se mi metto il dubbio che questa persona possa venire pagata da una azienda? ma secondo te, davvero una realtà del genere è impossibile?
Certo che è possibile: tutto è possibile. Poi bisogna vedere se è uno scenario realistico, e allora è un altro paio di maniche. Perché serve ben più che una supposizione: servono le prove!

Inoltre anche se trovassi le prove che un'azienda si comportasse in questo modo, logica alla mano non saresti autorizzato a estendere il ragionamento alla totalità (o, meno sportivamente, soltanto a quelle che non ti stanno simpatiche).

Dulcis in fundo, stai escludendo che il fatto che il fanatismo pseudoreligioso che attanaglia certe persone, facendoli diventare talebani difensori di una certa marca, possa essere del tutto gratuito.

E questo è, IMO, lo scenario più plausibile. :)
Libero di crederlo ma per me non sei certo un anticomplottista per questo ;)

Dare del complottista (o anticomplottista) è un modo per annullare un altra persona ergendosi sul piedistallo della ragione.
Complottista è chi vede complotti senza averne le prove.

Io non sono anticomplottista, perché questo termine non esiste. Non esiste perché un anticomplottista è soltanto una persona normale: una che di fronte a delle affermazioni ne chiede "semplicemente" le prove. :read:
Eppure tu stesso hai scritto che non ti capaciti di come si possa tifare per un marchio piuttosto che un altro :O
Perdonami, ma dovresti capirlo tu stesso che tifare non equivale a complottare. :stordita:
L'esistenza di gente pagata per fare marketing/FUD su forum/social è più che nota, di cosa state parlando? :confused:
Se è nota non sarà difficile portare le prove di ciò.
E soprattutto: com'è di interesse a questa discussione?
Perché è facile che in una discussione si cominci a parlar d'altro.
http://www.anandtech.com/show/10435/assessing-ibms-power8-part-1

Analisi approfondita di Power 8 vs Broadwell/Skylake
L'avevo già divorata ieri. :oink:
@cdmauro: secondo anandtech anche skylake può fare il fetch delle istruzioni solo fino a 16 bytes ciclo, contro i 32 bytes ciclo di AMD...
Vuol dire che Intel ritiene che 16 byte siano sufficienti, sebbene siamo vicini alla dimensione media per istruzione (poco meno di 4 byte. 4 * 4 = 16 byte).
Ma non capisco l'asimmetria di skylake della cache uop, che può buttare 6uop/ciclo, mentre i decoder max 5 uop ciclo...
Perché sono due cose diverse & separate.

Il decoder ha quel throughput massimo, perché è dominato dai 5 decodificatori di cui fa uso.

La cache ha il compito di smistare un certo numero di istruzioni allo scheduler, e può farlo con limiti diversi dal decoder.

Comunque è molto interessante una cosa che è stata riportata:

"The complexity of an architecture generally scales quadratically with the number of "ways" (hardware parallelism)"

Se questo è realmente accertato/dimostrato, pone i CISC in condizione di vantaggio rispetto ai RISC, poiché sono in grado di elaborare più "lavoro utile" per istruzione, a parità di "vie". :cool:

C'è comunque una cosa che non mi è chiara, e che se fosse come penso invaliderebbe le prove che ha fatto AnandTech.

Sto meditando se sia il caso di iscrivermi al loro forum e chiedere lumi, ma al momento ho una cosa molto urgente e importante da finire entro mercoledì, e non posso né voglio dedicare tempo ad altro. Magari lo faccio dopo.
:confused: Ma tu sai di cosa stai parlando? Lo conosci l'8350?
Il die Opteron è base X8 = 8350, come lo sarà Zen X8+8, che altro non sarà che Zen Opteron portato nel desktop.

Appigliare? Se guardi addietro, sono stati postati n confronti di carico tra un X4+4 SMT 8TH e un 4M/X8 CMT, con tanto di dettagli di quanto si ferma prima un X4+4 superati gli 8TH confronto un 8TH 8350 CMT, appunto perchè l'8350, ha specifiche di carico da server, non da desktop.

Ha senso confrontare un 6700K per il suo ST con l'ST di un 6850K o 6950X o un X22+22? Mi pare ovvio che non ha senso, ed infatti nessuno lo fa, appunto perchè hanno tipologie differenti.

Però si vede che ci trovano il senso nel confrontarlo ad un 8350, come vedrai che troveranno il senso pure per il confronto Zen X8+8 che, come l'8350, NASCE come OPTERON e riciclato come desktop.
E quindi Sandy Bridge come nasce? Non so, pensi che la versione Xeon abbia una (micro)architettura completamente diversa da quella desktop?

Ribadisco: continui a parlare di cose che non conosci.

Bulldozer in configurazione desktop... è un processore desktop. Punto. E fattene una ragione.
Io non capisco cosa ci sia da contestare a ciò che dico... la potenza ST e la potenza IPC del 6700K è data da una frequenza def di 4GHz e turbo di 4,2GHz, assolutamente d'accordo che Intel arrivi a quella potenza con quel procio, ma mi sembra non poco da bandiera considerare la potenza ST del 6700K come universale Broadwell. L'IPC di Broadwell è +70%? Benissimo, ma va considerato IPC * frequenza, e all'infuori di un 6700K la frequenza def è ben inferiore ai 4GHz, che riduce il vantaggio IPC Intel.
Per cosa credi che c'è tutta sta menata sulle frequenze Zen? Perchè se Zen avrà anche -10% di IPC, con tutta probabilità la frequenza def sarà ben superiore al 10% di quella Intel... ed è dura da accettare, con un silicio Intel superiore del 15% o più rispetto a quello GF.
Io non capisco di cos'è che adesso mi accusi, e cos'è che non riuscirei ad accettare.

Quotami e fammi vedere, perché dalle mie parti si dice che stai facendo "manicu e quartara" (manico e vaso: in pratica stai facendo tutto tu).
Te ne sei accorto anche tu...:sofico:
Avranno frainteso la dottrina Zen. :D :D :D

Cesare stai rischiando :p (sei anche dipendente intel).
Se non segui il SCIOGNO :p ti bollano come fan intel complottista.:asd:
Guarda, a parte il fatto che il fanboyismo senza avere un tornaconto personale lo trovo assolutamente ridicolo, la cosa che mi fa più ridire è che nemmeno un dipendente di un'azienda come quelle citate si comporta così.

Chi lavora per certe realtà sa come funziona la baracca, e che dall'altra parte ci sono altri come lui che stanno lavorando sodo per portare la pagnotta a casa.

E sa che lavorare per l'attuale azienda, non equivale ad averla sposata e passarci tutta la vita assieme.

Infatti non è affatto raro che ci sia un passaggio di dipendenti, anche fra aziende concorrenti.

Chi continua ad alzare le barricate e propugnare campagne d'odio nei confronti di aziende che ritiene "nemiche", non ha capito una mazza di cosa significa vivere e lavorare in certi ambienti.

E per smontare le tesi complottistiche, prendo proprio l'articolo di AnandTech che ha postato bjt2, a pagina 5 dei commenti:

"Drumsticks - Thursday, July 21, 2016 - link
I'm a verification intern on the Phi team right now, and you can indeed boot Knight's Landing! Anandtech mentions it here: http://www.anandtech.com/show/9802/supercomputing-..."

che mostra come ci si comporta in un'azienda come la mia, dove per policy aziendale sei obbligato a dichiarare per chi lavori nel momento in cui fai delle affermazioni in un social network o forum, che potrebbero comportare un conflitto d'interessi.

Rendi, insomma, pubblico il tuo status, cosicché chiunque ne sia a conoscenza e possa valutare come gli crede quelle affermazioni.

Trasparenza. Sempre.

Ed è quello che ho fatto diverse volte qui (e in altri forum, anche internazionali), pur avendo messo in firma il tutto.

Non c'è nulla di nascosto, insomma, e che possa dar adito a complottismi. Almeno nella mia azienda. E questo per contratto (se cercate il Code of Conduct trovate tutto lì).

Piedone1113
22-07-2016, 22:14
Fammi capire gli altri possono sparare previsioni mirabolanti, ripetendolo come un mantra, ed io devo stare zitto...:sofico:

Le TUE previsioni non sono marziane, quindi non puoi che trovarmi d'accordo.


Tralasciando paolo che più che fanboy AMD lo definirei pittoresco tifoso, la maggior parte dei commenti non si rivolgono a chi la pensa diversamente sperculandolo.
Invece i tuoi (alcuni, ma non tutti per fortuna) lo fanno.
Seguo anche il th di aspettando le nuove nvidia (da estimatore amd) eppure non credo di aver mai fatto sfottò.
Anzi quando mi arriva una notifica di tuoi messaggi, di mikael e qualcuno che posta in genere cose interessanti corro subito a leggere.
Ps la mia idea sul futuro delle vga vede un futuro con il mercato spartito tra Intel ed amd, con nvidia leader però in settori complementari e/o di nicchia.



Inviato dal mio GT-I9505 utilizzando Tapatalk

george_p
22-07-2016, 23:35
Certo che è possibile: tutto è possibile. Poi bisogna vedere se è uno scenario realistico, e allora è un altro paio di maniche. Perché serve ben più che una supposizione: servono le prove!


Beh almeno lo ritieni possibile e questo basta.
Anche se non lo esprimi come ho fatto io, anzi io lo ritengo molto probabile il che non è uguale a dire che è così. E' una mia opinione con beneficio del dubbio, forse perché ritengo meno patologico l'essere pagati rispetto al fanatismo più estremo, mi piace vederla da questo punto di vista.

L'altra opzione è appunto quella descritta da te, possibilissimo e assai probabile anche essa.

Ho bisogno di portare prove per questo?
Ho fatto nomi, accusato con assoluta certezza?
Non si può proprio esprimere nulla, anche senza fare nomi, cosa di cui mi sognerei nemmeno appunto senza prove, ma mi riferisco a un comportamento talmente estremo che molti dubbi li fa venire... sempre dal mio punto di vista naturalmente, e si, ripeto, che a furia di leggere individui del genere a me fa venire in mente la possibilità, potenzialmente reale, che uno possa farlo per lavoro. Non mi capacito di un fanatismo così estremo, pur non escludendone la possibilità.



Inoltre anche se trovassi le prove che un'azienda si comportasse in questo modo, logica alla mano non saresti autorizzato a estendere il ragionamento alla totalità (o, meno sportivamente, soltanto a quelle che non ti stanno simpatiche).

Questa adesso è una tua estensione di giudizio?
No, perché non ho parlato di nessuna azienda specifica a riguardo e non mi trovo nella eventualità da te illustrata.

Dulcis in fundo, stai escludendo che il fatto che il fanatismo pseudoreligioso che attanaglia certe persone, facendoli diventare talebani difensori di una certa marca, possa essere del tutto gratuito.
Non lo escludo, e la penso ogni volta che leggo questi fanatici estremi ma a volte ti fa pensare all'altra opzione e semplicemente ho scritto quella per me più probabile.

E questo è, IMO, lo scenario più plausibile.
Si, può essere, tanto non abbiamo prove ne per l'una nè per l'altra opzione.
C'è solo da fare testa o croce.



Io non sono anticomplottista, perché questo termine non esiste. Non esiste perché un anticomplottista è soltanto una persona normale: una che di fronte a delle affermazioni ne chiede "semplicemente" le prove.
Ah no?
E di questa affermazione puoi portarne le prove? :mc:


Perdonami, ma dovresti capirlo tu stesso che tifare non equivale a complottare.

E che cosa c'entra questo?
Come scritto sopra, è proprio perché anche io non mi capacito di un tifo così estremo che son portato a propendere per la seconda possibilità... quasi per esclusione.
Poi se a te riporta subito al gioco del complottismo/anticomplottismo, libero di pensarlo mica posso cambiarti i pensieri, ognuno ha le sue percezioni.

Fino a che non faccio nomi di persone o aziende non ho bisogno di portare prove di alcun genere, ne a te ne a nessuno.

Ma poi basta con sta cosa delle prove, sembra più un aula di tribunale con giustizieri, giudici e accusatori da una parte e dall'altra che un thread su una cpu che non è ancora uscita.

digieffe
23-07-2016, 01:52
@cdimauro
@paolo.oliva

seguo questo thread dalla nascita e prima ancora quello su BD, premesso ciò sono sicuro che tra cdimauro e paolo.oliva ci sono degli equivoci relativamente ad alcuni argomenti.

paolo dice una cosa, probabilmente non espressa tecnicamente al meglio (io so cosa vuole intendere), cesare ne capisce un'altra (o nulla) e risponde di conseguenza

scusatemi ma purtroppo, ora, non ho il tempo di fare "il mediatore culturale", invece di punzecchiarvi cercate di intendervi sulla materia del contendere...

...poi datevele di santa ragione :D (scherzo)



@cesare
solo per cultura, può un debunker (es Paolo Attivisimo) essere inteso come un anticomplottista?


@george_p
chi è che scrive tutta la giornata su tre forum?
se non è opportuno che sia pubblico mandami un MP :).

paolo.oliva2
23-07-2016, 06:34
Paolo sono tra i più ottimisti circa le possibilità di riscatto di AMD a livello di prestazioni.
Il vero zen si vedrà con la rev 2 (ZEN2), e questa è una cpu di transizione.
Che il silicio intel sia ottimo (per l'industrializzazione intel) è fuori d'ogni dubbio, che su un silicio con caratteristiche diverse si possa costruire intorno una cpu altrettanto valida è fuori d'ogni dubbio.
Ma attenzione, alto ipc, alte frequenze su silicio non ottimizzato non sono impossibili, ma nemmeno così facili come siamo portati a credere.
Ma io non sono in disaccordo su questo, sono in disaccordo sul voler considerare inefficiente il CMT vs SMT in maniera radicale (ci sarebbe pure da discutere sulla differenza CMT in sè e l'integrazione CMT su BD che è partita da un IPC troppo basso) chiudendo ambedue gli occhi sulla differenza silicio 32nm SOI (e BD PD e non XV) e quello Intel 22/14nm, imputando in toto l'efficienza all'architettura SMT Intel.

Mi sembra scontato che il processore "valido", lo è se c'è una architettura che poggia su un silicio che può sfruttare fino all'ultimo le possibilità architetturali. Ovviamente un Broadwell sul 14nm è una cosa, un PD sul 32nm tutt'altro.

Inoltre il 14nm Intel, ottimo dai 3GHz in giù, di certo non brilla dai 3GHz in su, perchè concede al massimo 4,2GHz, entrambi raggiunti e superati sia dal 28nm Bulk ciofeca (4,3GHz) che dal 32nm SOI, quindi che a parità di FO4 Zen possa anche migliorare tali frequenze, ci sono tutte (ma evidentemente c'è chi non lo può manco considerare per bandiera).
Che poi ci possano essere problemi nel connubio alto IPC e FO4 basso per ottenere alte frequenze, completamente d'accordo, ma una cosa è questo e tutt'altra un discorso sullo stile "il 14nm Intel è il migliore sul commercio e quindi il 14nm Samsung non può ottenere frequenze superiori", perchè il 14nm di Intel è peggio, in frequenza massima, del 22nm sempre Intel, e a mio avviso le possibilità che il 14nm Samsung possa concedere frequenze maggiori, ci sarebbero tutte).

-----

Il CMT BD non era competitivo perchè il silicio non ha permesso > 4m, perchè di fatto ha portato il confronto BD CMT vs gli X4+4 Intel, facendo risaltare il basso IPC e di qui la potenza ST. Un pareggio di miniaturizzazione avrebbe portato un doppio 8350, cioè 8m e non 4m, che avrebbe portato il confronto vs un 5960X, e di qui la differenza IPC sarebbe stata quasi ininfluente per il fatto della frequenza maggiore di BD/FO4. Notare che in diversi bench la differenza tra 8350 e 5960X è dovuta alla mancanza di implementazione set di istruzioni che invece in XV sono integrate. Che c'è di bandiera in questo? Voler prendere IPC e frequenze di un X4+4 Intel e di qui il confronto SMT vs CMT mi sembra incoerente appunto perchè, per ovvie considerazioni strutturali, l'SMT richiede un IPC alto in partenza e con il minor numero di core concede frequenze più alte, ma a 360°, cioè nell'arco del numero possibile di core a die, la frequenza cala e il confronto modulo CMT vs core + SMT vede (o comunque vedrebbe) una frequenza maggiore a favore del CMT.

Per me se Zen avrà meno di 3,5GHz def, senza altri vantaggi tipo costo die e implementazioni future ignote, io sarei dell'idea che un bel XV X16/16TH sarebbe stato preferibile, visto e considerato che andrebbe di più tra TDP/prestazioni rispetto ad un 6850K Broadwell, quindi tutto sto gran vantaggio dell'SMT vs CMT, e poi in riferimento server, io proprio non lo vedo. Poi è chiaro che se giudico un X22+22 14nm Intel vs un X16 Opteron BD 32nm, considerando prestazioni/consumo, l'SMT vince in tutto e per tutto, ma sarebbe come confrontare un Phenom I (65nm) vs un 8350 (32nm), la differenza silicio sarebbe la stessa.

cdimauro
23-07-2016, 06:39
Beh almeno lo ritieni possibile e questo basta.
Ma non è sufficiente. E', ad esempio, anche possibile che venga generato un micro buco nero dalla collisione di protoni nell'LHC. Ma la probabilità che ciò avvenga è talmente bassa (ma NON nulla!), che possiamo tranquillamente trascurarla.

Inoltre per un micro buco nero ci sono teorie, formule e calcoli dietro per arrivare a quella probabilità.
Anche se non lo esprimi come ho fatto io, anzi io lo ritengo molto probabile il che non è uguale a dire che è così. E' una mia opinione con beneficio del dubbio, forse perché ritengo meno patologico l'essere pagati rispetto al fanatismo più estremo, mi piace vederla da questo punto di vista.

L'altra opzione è appunto quella descritta da te, possibilissimo e assai probabile anche essa.

Ho bisogno di portare prove per questo?
Se vuoi dargli un minimo di fondamento sì.
Ho fatto nomi,
E perché no? Se nell'iperuranio del "tutto è possibile" si può parlare di eventi che, senza alcuna prova, sono "molto probabili", si può benissimo completare il discorso e tirare fuori i nomi.
accusato con assoluta certezza?
No. Finora ti sei limitato al "molto probabile", che è un parente prossimo.
Non si può proprio esprimere nulla, anche senza fare nomi, cosa di cui mi sognerei nemmeno appunto senza prove,
Come già detto, nell'universo del possibile nessuno ti vieta di fare anche i nomi.

Tanto qualunque cosa è possibile: anche che una teiera giri attorno al Sole, come un qualunque altro pianeta. E no, non è scherzo: è un fatto ben noto.
ma mi riferisco a un comportamento talmente estremo che molti dubbi li fa venire... sempre dal mio punto di vista naturalmente, e si, ripeto, che a furia di leggere individui del genere a me fa venire in mente la possibilità, potenzialmente reale, che uno possa farlo per lavoro. Non mi capacito di un fanatismo così estremo, pur non escludendone la possibilità.
Io, invece, mi capacito eccome di come il fanatismo possa portare a cosa del genere.

Se può portare un uomo a farsi esplodere per guadagnarsi il paradiso e 144 vergini che lo aspettano, se può portare un uomo ad accoltellare e ucciderne un altro soltanto perché è tifoso di un'altra squadra di calcio, ecc., allora ritengo di gran lunga più plausibile che ci possa essere una schiera ben più corposa di fanatici che passano il tempo a gettare merda su quella che hanno individuato come l'azienda "nemica"...
Questa adesso è una tua estensione di giudizio?
No, perché non ho parlato di nessuna azienda specifica a riguardo e non mi trovo nella eventualità da te illustrata.
Non è un'estensione: si chiama Generalizzazione, ed è una ben nota fallacia logica. L'ho semplice riportata per mettere in guardia dall'applicarla.
Non lo escludo, e la penso ogni volta che leggo questi fanatici estremi ma a volte ti fa pensare all'altra opzione e semplicemente ho scritto quella per me più probabile.

Si, può essere, tanto non abbiamo prove ne per l'una nè per l'altra opzione.
C'è solo da fare testa o croce.
Come già detto, pur parlé si può dire quello che vuole. Non c'è nemmeno bisogno di tirare in ballo le probabilità, perché tanto tutto è possibile.

Va da sé che il valore di queste affermazioni lascia il tempo che trova.
Ah no?
E di questa affermazione puoi portarne le prove? :mc:
Ecco qui, direttamente dalla Treccani:

http://www.treccani.it/vocabolario/anticomplottista/
http://www.treccani.it/vocabolario/anticomplottista_%28Neologismi%29/

"La tua ricerca non ha prodotto risultati in nessun documento"

per entrambe, come vedi, non c'è alcuna voce.

Mentre per complottista:

http://www.treccani.it/vocabolario/complottista_%28Neologismi%29/

"complottista s. m. e f. e agg. Chi o che ritiene che dietro molti accadimenti si nascondano cospirazioni, trame e complotti occulti."

:read:
E che cosa c'entra questo?
Come scritto sopra, è proprio perché anche io non mi capacito di un tifo così estremo che son portato a propendere per la seconda possibilità... quasi per esclusione.
Poi se a te riporta subito al gioco del complottismo/anticomplottismo, libero di pensarlo mica posso cambiarti i pensieri, ognuno ha le sue percezioni.

Fino a che non faccio nomi di persone o aziende non ho bisogno di portare prove di alcun genere, ne a te ne a nessuno.

Ma poi basta con sta cosa delle prove, sembra più un aula di tribunale con giustizieri, giudici e accusatori da una parte e dall'altra che un thread su una cpu che non è ancora uscita.
Mi spiace, ma questo è e rimane complottismo. Almeno secondo la Treccani, di cui ti riporto la parte in questione:

"Chi o che ritiene che dietro molti accadimenti si nascondano cospirazioni, trame e complotti occulti."

:read: :read: :read:
@cdimauro
@paolo.oliva

seguo questo thread dalla nascita e prima ancora quello su BD, premesso ciò sono sicuro che tra cdimauro e paolo.oliva ci sono degli equivoci relativamente ad alcuni argomenti.

paolo dice una cosa, probabilmente non espressa tecnicamente al meglio (io so cosa vuole intendere), cesare ne capisce un'altra (o nulla) e risponde di conseguenza

scusatemi ma purtroppo, ora, non ho il tempo di fare "il mediatore culturale", invece di punzecchiarvi cercate di intendervi sulla materia del contendere...

...poi datevele di santa ragione :D (scherzo)
Non sono qui per questo, e francamente ho ben altro a cui pensare.

Mi basterebbero un paio di cose, che Paolo dovrebbe fare:
- chiarire meglio quello che dice
- evitare di mettermi in bocca cosa che non mi sono sognato di affermare.
@cesare
solo per cultura, può un debunker (es Paolo Attivisimo) essere inteso come un anticomplottista?
Debunker ha un senso più generale. Ovviamente ci rientra anche smantellare i vari complotti di cui, purtroppo, sempre più è piena internet.
@george_p
chi è che scrive tutta la giornata su tre forum?
se non è opportuno che sia pubblico mandami un MP :).
Non vedo perché in privato: se questi tizi scrivono pubblicamente, tale informazione è già pubblica. Dunque potrebbe benissimo riportarla qui, per tutti. ;)

EDIT: ho visto che ha appena scritto Paolo.

Paolo, le tue sono ancora tutte chiacchiere.

La realtà è Bulldozer a 32nm col CMT vs Sandy Bridge a 32nm con l'SMT. E i dati li conosci già.

george_p
23-07-2016, 07:45
@Cesare:
Sono una persona normale anche io.
Se ti interessano tanto le prove o contro prove che ritieni così tanto vitali quando si parla in generale, cercatele, ne troveresti a pacchi sul web, se questo ti fa sentire bene.
E se a me viene un dubbio che alcuni users vengano pagati mi piace esprimerlo senza la tua santa inquisizione, e senza che tu mi debba portare in tribunale sull'andare a cercare prove, o accusarmi di complottismo.

La chiudo qui perché se no anche io tra poco scrivo fiumi di parole e nessuno mi paga per questo :D

@digieffe: se vai sui forum più quotati e hai tempo di "leggere" ne troverai un pò, spero almeno tu mi scuserai se non faccio nomi, cognomi o nickname :)

cdimauro
23-07-2016, 07:54
Se sono informazioni pubbliche, puoi benissimo fare i nomi di questi fanboy (perché tali sono, fino a prova contraria).

Per il resto, l'onere della prova rimane a carico di chi fa certe affermazioni. In mancanza, e se si applica, io continuerò usare il termine complottismo.

george_p
23-07-2016, 08:03
Se sono informazioni pubbliche, puoi benissimo fare i nomi di questi fanboy (perché tali sono, fino a prova contraria).

Per il resto, l'onere della prova rimane a carico di chi fa certe affermazioni. In mancanza, e se si applica, io continuerò usare il termine complottismo.

Certo :)
Però sono un probabile complottista, visto che non dichiaro con sicurezza ma con un certo margine e beneficio del dubbio :D

paolo.oliva2
23-07-2016, 08:36
Che ci abbia preso?

http://www.kitguru.net/components/cpu/matthew-wilson/amd-zen-engineering-samples-are-floating-around-specs-leak-online/

KitGuru Says: If this leak is accurate, then it is clear that AMD has made some strides in terms of CPU power efficiency. We still don’t have an exact release date for Zen, but current rumours point towards a possible October release date, so hopefully we hear more in the coming months. Are any of you currently waiting to see what AMD brings to the table with Zen?

E circa Zen APU:

http://ocaholic.ch/modules/news/article.php?storyid=15117

Secondo gli ultimi rumor, le future APU di AMD realizzate con architettura Zen dovrebbero offrire un ottimo boost prestazionale rispetto alle serie attuali, e non solo a livello di CPU, ma anche a livello di GPU grazie all'architettura Polaris, che dovrebbe permettere prestazioni simili a quelle della Radeon RX 460.

Certo che se realizzerebbero un Zen APU X8 con CF tra le due iGPU, il tutto sul socket AM4 senza chip-set esterni, l'involucro di un HD 3,5" esterno risulterebbe più grande dell'intero PC.

Piedone1113
23-07-2016, 10:00
Non ne ho proprio bisogno, "Piedone".

Non ho affermato nulla del genere né ho mischiato alcunché.

Poi ti faccio notare che, eventualmente, lo stesso avveniva con l'HyperThreading che è stato introdotto proprio col P4, e la situazione era pure peggiore da questo punto
Non mi pare di averlo sostenuto, e a questo punto mi pare evidente che tu non abbia neppure controllato i link che avevo postato: ti saresti accorto che è proprio nel settore professionale (rendering, conversioni video, ecc.) che il P4 dà il meglio di sé, e a volte con distacchi imbarazzanti.


Antonio :)

Io ho visto benissimo i link, ma mi sembra che tu non abbia letto bene quello che ho scritto:

Se ricompili dai sorgenti, il software usato in quei test, con i compilatori moderni i risultati sarebbero ben diversi (perchè a scanso di equivoci, tutti i software ricompilati sotto linux per uso pro nei server mostravano un vantaggio per amd, stesso vantaggio che vide anche BigBlu).
Ma tutto questo è ininfluente sia per quello che fu (ormai appartiene alla storia) sia per quello che sarà zen.
Ci stiamo dilungando su questioni di nessun valore annoiando molti e gasando alcuni.

Per il resto non accuso nessuno e non credo che si voglia fare un processo su questo th, a nessuno (anzi nel vecchio th fu crocifissa GF)

bjt2
23-07-2016, 10:34
Purtroppo c'è un'incomprensione di fondo, e molto comune, con le AVX: non è con AVX2 che vengono raddoppiate (256 bit = 8 FP32 o 4 FP64) le prestazioni FP, ma ciò avviene già con la prima versione.

Le AVX2 introducono, invece, il supporto agli interi coi registri a 256 bit, quindi raddoppiando le prestazioni anche per questo tipo di calcoli.

Devo dire che sono colpevole anche io, perchè è da eoni che non programmo più in assembler, visti i compilatori e le librerie ottimizzate... Mi riferivo al fatto che Cinebench sia compilato con il supporto a max 128 bit... Può darsi che mi sbaglio, ma nel caso che abbia ragione, sarebbe un ottimo bench...

Premesso che di FPU et similia ne abbiamo già parlato, seguendo il tuo ragionamento, e dunque prendendo il fattore 4 come "conservativo", allora secondo te un quad core Zen dovrebbe consumare 3 * 4 = 12W a 2,5Ghz? E 24W per un octa core.

A me pare un po' troppo ottimistico.

Comunque prima mi riferivo ad altro. Ma ne parlo quotando Ren.

Beh, nel caso di Zen c'è poi il NB, il SB, il controller RAM più sofisticato e con frequenze più elevate... In ogni caso i conti dovrebbero tornare, forse aggiungendo qualcosa in più perchè quel SoC di cellulare, che ho supposto consumare 3W, con 8 core+GPU e accessori, sarà fatto con transistors RVT e HVT (almeno i 4 core little, se non anche la GPU, visto che va a 900MHz) e quindi a più basso leakage... Ma converrai che, per quanto complesso, un singolo core Zen non penso che equivalga, come consumo, a 4 core Big a 2.5GHz, 4 core little a 1.8GHz, una GPU da 122GFlops a 900MHz, più gli accessori (NB/SB ecc)... E infatti sul 28nm in 3W ci va un intero modulo XV attorno ai 2.5GHz... Quindi penso che si... 3W a 2.5GHz sia anche troppo per un core Zen... Ma non scordiamoci che Zen, per essere competitivo, deve arrivare almeno a 4GHz, per cui se andiamo con l'ipotesi della potenza con il cubo della frequenza, abbiamo 3*(4/2.5)^3=12W per core, 98W in totale... Quindi siamo al limite per i 95W per 8 core a 4GHz... Ma ricordiamoci che 3W@2.5GHz è esagerato...

L'avevo già divorata ieri. :oink:

Vuol dire che Intel ritiene che 16 byte siano sufficienti, sebbene siamo vicini alla dimensione media per istruzione (poco meno di 4 byte. 4 * 4 = 16 byte).

Perché sono due cose diverse & separate.

Il decoder ha quel throughput massimo, perché è dominato dai 5 decodificatori di cui fa uso.

La cache ha il compito di smistare un certo numero di istruzioni allo scheduler, e può farlo con limiti diversi dal decoder.

Comunque è molto interessante una cosa che è stata riportata:

"The complexity of an architecture generally scales quadratically with the number of "ways" (hardware parallelism)"

Se questo è realmente accertato/dimostrato, pone i CISC in condizione di vantaggio rispetto ai RISC, poiché sono in grado di elaborare più "lavoro utile" per istruzione, a parità di "vie". :cool:

C'è comunque una cosa che non mi è chiara, e che se fosse come penso invaliderebbe le prove che ha fatto AnandTech.

Sto meditando se sia il caso di iscrivermi al loro forum e chiedere lumi, ma al momento ho una cosa molto urgente e importante da finire entro mercoledì, e non posso né voglio dedicare tempo ad altro. Magari lo faccio dopo.

Il numero delle vie per cui aumenta quadraticamente la complessità è IMHO al livello del core RISC. Per questo è conveniente fare domini separati e non coda unica come INTEL. AMD ha INT/MEM e FP separati... Il Power 8 separa in Branch+condition code+int/fp+mem/int semplici... L'unica cosa che non mi piace è la coda unica int/fp come intel, parzialmente compensata dalle 4 unità memoria che possono fare istruzioni intere semplici e quindi 8 in totale.
Il cisc ha solo il vantaggio di una maggiore densità di codice... Ma se una istruzione cisc si traduce in n uops che potrebbero essere eseguite in parallelo, la complessità del motore OOO non diminuisce rispetto a un core risc dove devi mandare le n istruzioni separatamente...

digieffe
23-07-2016, 11:31
E se a me viene un dubbio che alcuni users vengano pagati mi piace esprimerlo senza la tua santa inquisizione, e senza che tu mi debba portare in tribunale sull'andare a cercare prove, o accusarmi di complottismo.

@digieffe: se vai sui forum più quotati e hai tempo di "leggere" ne troverai un pò, spero almeno tu mi scuserai se non faccio nomi, cognomi o nickname :)

ricordo che appena il fenomeno fu scoperto lessi qualcosa proposito delle figure che facevano quel lavoro, erano inquadrate in qualcosa tipo stealtmarketing, undercovermarketing e forse guerrillamarketing.

non credo di avere il tempo di andare a cercare, ma soprattutto dovrei sperare che utilizzino lo stesso nickname.

Wolfhang
23-07-2016, 12:44
L'A10 7890K è 4.0-4.3GHz, con in più 8x64=512 shader ed è 95W. Sul 28nm.
Ed essendo kaveri, sappiamo che ha qualche sistema di risparmio energetico malfunzionante e quindi disabilitato. Excavator è meglio da questo punto di vista... Vedremo Bristol Ridge.
E' vero che sono solo 4 core, ma la GPU consuma qualcosina... E il 14nm promette più del dimezzamento dei consumi a parità di frequenza...
Io penso che in 95W possano fare 4GHz di base e 4.5-4.6 di turbo... Se il processo è ottimo, fino a 5GHz...

Si, ma quando lavorano contemporaneamente CPU e iGPU la CPU viene segata a 3 GHz per rientrare nel TDP e la stessa cosa succede anche con Carrizo mobile, cosí rispondo pure a Paolo sulla questione delle frequenze nominali di AMD

Roland74Fun
23-07-2016, 13:09
"Complottista= Chi o che ritiene che dietro molti accadimenti si nascondano cospirazioni, trame e complotti occulti."


In realtà il termine secondo la lingua italiana é inesatto.

Il suffisso "-ista" generalmente viene usato per il soggetto che svolge una parte attivo in un determinato settore od in una certa situazione/avvenimento.

Ad es: Carburatorista= chi si occupa di carburatori.
Marmista= chi lavora il marmo.
Elettricista= chi lavora con apparati/impianti elettrici.
E così via.

Se, tanto per fare un esempio, dico che gli USA hanno applicato strategie di intelligence o militari riservate per destabilizzare governi di alcuni stati dell'America Latina e per affermare ciò pubblico libri con note, riferimenti e con prove documentali, allora non sono un complottista ma un complottologo, cioè uno che studia i complotti, anche se in taluni casi si potrebbe parlare di congiura se l'oggetto delle attenzioni é un numero più o meno ristretto di individui.

Chi invece si interessa di questi avvenimenti per puro diletto personale, leggendo librri di complottologi o siti internet più o meno affidabili, allora non é un complottologo ma un complottofilo, ossia un semplice appassionato.

Il termine complottista in senso stretto andrebbe invece utilizzato in riferimento a chi si fa promotore/autore di certe situazioni. Nell'esempio succitato gli USA.

bjt2
23-07-2016, 13:16
Si, ma quando lavorano contemporaneamente CPU e iGPU la CPU viene segata a 3 GHz per rientrare nel TDP e la stessa cosa succede anche con Carrizo mobile, cosí rispondo pure a Paolo sulla questione delle frequenze nominali di AMD

Sappiamo che il risparmio energetico sulle APU AMD è buggato e le frequenze CPU quando attiva la GPU sono cablate nel firmware e non sfruttano il TDP e comunque si sa che nelle APU AMD il budget del TDP è spostato verso la GPU...

Se per le CPU sono allocati più di 30-40W è tanto. Sicuramente meno del 50%.

plainsong
23-07-2016, 13:36
Si, ma quando lavorano contemporaneamente CPU e iGPU la CPU viene segata a 3 GHz per rientrare nel TDP e la stessa cosa succede anche con Carrizo mobile, cosí rispondo pure a Paolo sulla questione delle frequenze nominali di AMD

Un andamento, quello delle frequenze cpu con gpu sotto carico, che mi lascia molto perplesso. Non sono sicuro che il downclock a 3.0 Ghz avvenga con tutte le motherboard e/o versioni dei bios, ma raccogliendo testimonianze sul web e avendo personalmente assemblato diversi sistemi basati su apu Trinity senza incappare in questo problema, ho il sospetto che esso si sia presentato con Kaveri (alla faccia delle decantate "nuove avanzate features di risparmio energetico"...).

bjt2
23-07-2016, 14:10
Un andamento, quello delle frequenze cpu con gpu sotto carico, che mi lascia molto perplesso. Non sono sicuro che il downclock a 3.0 Ghz avvenga con tutte le motherboard e/o versioni dei bios, ma raccogliendo testimonianze sul web e avendo personalmente assemblato diversi sistemi basati su apu Trinity senza incappare in questo problema, ho il sospetto che esso si sia presentato con Kaveri (alla faccia delle decantate "nuove avanzate features di risparmio energetico"...).

Si sa da tempo che il risparmio energetico su Kaveri è buggato... E' per questo che Carrizo fa moooolto meglio...

paolo.oliva2
23-07-2016, 15:45
Paolo, le tue sono ancora tutte chiacchiere.

La realtà è Bulldozer a 32nm col CMT vs Sandy Bridge a 32nm con l'SMT. E i dati li conosci già.

Non capisco il concetto di spostare il buono Intel a seconda di come fa comodo. Quando si parla di silicio, è migliore quello Intel, quando si parla di prestazioni, di colpo il silicio Intel è come tutti gli altri e le prestazioni vengono dall'architettura.

Lo sai che ti dico? Cosa si inventerà (se) Zen andrà più di Broadwell? Di chi sarà la colpa? Il 14nm Intel del 25% migliore, l'architettura Intel cazzuta... forse la colpa la si dara all'HIS.... :sofico: ma saranno sempre altre chiacchiere.

paolo.oliva2
23-07-2016, 16:11
@Wolfhang

Non trovo il tuo post, ma il punto non è la frequenza ottenuta a quale TDP, ma è proprio un limite prestazionale del 14nm Intel. Il problema non è un 6700K a 90W o 140W, il problema è che 1,35V è il massimo Vcore applicabile al 14nm Intel, quindi è esclusivamente un limite di silicio, e a quel Vcore il 14nm Intel arriva sui 4,4GHz (con die piccoli, con più die più grandi richiede più Vcore a parità di frequenza), a meno che utilizzando raffreddamenti <0° (credo, non lo so).

Il 28nm Bulk GF, in accoppiata a XV, nei 65W arriva a una frequenza massima commerciale che è solamente di 100MHz inferiore a quella massima in OC ottenibile sul 14nm Intel, ma ovviamente anche il 28nm GF si può overcloccare, di certo con più margine rispetto ai +200MHz dal turbo di un 6700k al max 4,4GHz.

Per farti un paragone, il 9590 è venduto a 220W per 4,7GHz def e 5GHz turbo, ma seppur a quel TDP stratosferico, lo porti a 5,315GHz che di fatto rappresentano +600MHz def e +300MHz turbo.

A me, personalmente, non mi frega una tozza se Zen verrà venduto a 95W o 125W e, relativamente, a quale frequenza. Per me è molto più importante, sperando in un Zen sbloccato, a quale Vcore/frequenza/TDP può reggere il 14nm Samsung. Facendo un esempio... il 6700K non arriva a generare un TDP proibitivo per un sistema di raffreddamento casalingo, ma comunque non supera i 4,4GHz. Per me Zen potrebbe anche arrivare a 170W, ma se in RS/DU e con un Vcore "tranquillo" per il silicio, che cacchio me ne frega del TDP se poi questo vorrebbe dire 4,5GHz? (esempio).

La mia "paura", ora come ora, è il perchè di 95W per un X8+8... (dato ufficiale AMD), perchè io naso un prb di svettamento TDP oltre la frequenza def per 95W più di quanto potrebbe essere che in quei 95W AMD possa competere in potenza verso gli Intel a 140W. Diversamente, a parità di FO4, sulla carta il 14nm FinFet GF dovrebbe concedere frequenze superiori al 28nm Bulk sempre GF, quindi se non ci sarà un PP del 14nm peggiore rispetto al 28nm, 200-300MHz in più ci dovrebbero essere, per Zen 14nm (a parità FO4) rispetto a XV 28nm.

cdimauro
23-07-2016, 16:25
Certo :)
Però sono un probabile complottista, visto che non dichiaro con sicurezza ma con un certo margine e beneficio del dubbio :D
Sofismi. :fagiano:
Che ci abbia preso?

http://www.kitguru.net/components/cpu/matthew-wilson/amd-zen-engineering-samples-are-floating-around-specs-leak-online/

KitGuru Says: If this leak is accurate, then it is clear that AMD has made some strides in terms of CPU power efficiency. We still don’t have an exact release date for Zen, but current rumours point towards a possible October release date, so hopefully we hear more in the coming months. Are any of you currently waiting to see what AMD brings to the table with Zen?
Parlano ancora di ES e commercializzazione per ottobre. Un ossimoro...
Antonio :)

Io ho visto benissimo i link, ma mi sembra che tu non abbia letto bene quello che ho scritto:

Se ricompili dai sorgenti, il software usato in quei test, con i compilatori moderni i risultati sarebbero ben diversi (perchè a scanso di equivoci, tutti i software ricompilati sotto linux per uso pro nei server mostravano un vantaggio per amd, stesso vantaggio che vide anche BigBlu).
Ma tutto questo è ininfluente sia per quello che fu (ormai appartiene alla storia) sia per quello che sarà zen.
Ci stiamo dilungando su questioni di nessun valore annoiando molti e gasando alcuni.

Per il resto non accuso nessuno e non credo che si voglia fare un processo su questo th, a nessuno (anzi nel vecchio th fu crocifissa GF)
Permettimi, Antonio: prima hai parlato al passato e ti sei anche riferito a quel periodo. Adesso parli di compilatori moderni. Le due cose non vanno molto d'accordo. ;)
Devo dire che sono colpevole anche io, perchè è da eoni che non programmo più in assembler, visti i compilatori e le librerie ottimizzate... Mi riferivo al fatto che Cinebench sia compilato con il supporto a max 128 bit... Può darsi che mi sbaglio, ma nel caso che abbia ragione, sarebbe un ottimo bench...
Non vorrei che fosse compilato solo per le SSE. Avrebbe poco senso compilare usando le AVX, ma continuando a usare i registri soltanto a 128 bit: si perderebbe il maggior guadagno in termini prestazionali.
Beh, nel caso di Zen c'è poi il NB, il SB, il controller RAM più sofisticato e con frequenze più elevate... In ogni caso i conti dovrebbero tornare, forse aggiungendo qualcosa in più perchè quel SoC di cellulare, che ho supposto consumare 3W, con 8 core+GPU e accessori, sarà fatto con transistors RVT e HVT (almeno i 4 core little, se non anche la GPU, visto che va a 900MHz) e quindi a più basso leakage... Ma converrai che, per quanto complesso, un singolo core Zen non penso che equivalga, come consumo, a 4 core Big a 2.5GHz, 4 core little a 1.8GHz, una GPU da 122GFlops a 900MHz, più gli accessori (NB/SB ecc)... E infatti sul 28nm in 3W ci va un intero modulo XV attorno ai 2.5GHz... Quindi penso che si... 3W a 2.5GHz sia anche troppo per un core Zen... Ma non scordiamoci che Zen, per essere competitivo, deve arrivare almeno a 4GHz, per cui se andiamo con l'ipotesi della potenza con il cubo della frequenza, abbiamo 3*(4/2.5)^3=12W per core, 98W in totale... Quindi siamo al limite per i 95W per 8 core a 4GHz... Ma ricordiamoci che 3W@2.5GHz è esagerato...
Anche nei SoC ARM c'è parecchia altra roba, come dicevo prima, e il tutto contenuto in appena 3W.

Comunque dal link di Paolo si parla di 2,8Ghz base a 3,2Ghz turbo, con 65W per il quad core e 95W per l'octa core.

Non siamo lontani dai 2,5GHz di cui parlavamo, ma quanto a consumi c'è un abisso. E personalmente trovo le informazioni abbastanza realistiche.
Il numero delle vie per cui aumenta quadraticamente la complessità è IMHO al livello del core RISC. Per questo è conveniente fare domini separati e non coda unica come INTEL. AMD ha INT/MEM e FP separati... Il Power 8 separa in Branch+condition code+int/fp+mem/int semplici... L'unica cosa che non mi piace è la coda unica int/fp come intel, parzialmente compensata dalle 4 unità memoria che possono fare istruzioni intere semplici e quindi 8 in totale.
Il cisc ha solo il vantaggio di una maggiore densità di codice... Ma se una istruzione cisc si traduce in n uops che potrebbero essere eseguite in parallelo, la complessità del motore OOO non diminuisce rispetto a un core risc dove devi mandare le n istruzioni separatamente...
Dipende da quanto "lavoro utile" facciano le uop nel caso dei CISC e dei RISC (perché ancora loro possono spezzare alcune istruzioni complesse in uops. I POWER lo fanno sicuramente, e da tempo). ;)

Riguardo a decoder e uops, fra i commenti del link che hai riportato ne è apparso uno interessante e che riguarda Skylake. L'autore sostiene che il decoder utilizzato non sia a 5 vie, ma a 4. E dunque la capacità di generare fino a 5uop per ciclo di clock deriva dai pattern che adesso sono gestibili dal decoder: 1+1+1+1, 2+1+1+1, 3+1+1, 4+1, ... più ovviamente i casi più semplici, con meno uop generate.

Quindi da una parte il decoder rimane più semplice, visto che non ci sono 5 ma soltanto 4 unità di decodifica. E dall'altro diventa più flessibile ed efficiente, perché consente di intercettare più "casi d'uso".

Questo spiega perché rimangono i 16 byte per ciclo di clock analizzati. Poiché la dimensione media delle istruzioni è di poco inferiore a 4 byte, come detto prima, 4 * 4 = 16 e rientriamo in questo limite. Con 5 istruzioni decodificate per ciclo di clock si sarebbero sforati i 16 byte: 5 * 4 = 20.
ricordo che appena il fenomeno fu scoperto lessi qualcosa proposito delle figure che facevano quel lavoro, erano inquadrate in qualcosa tipo stealtmarketing, undercovermarketing e forse guerrillamarketing.

non credo di avere il tempo di andare a cercare, ma soprattutto dovrei sperare che utilizzino lo stesso nickname.
Non perderci tempo: sono tutte tecniche di marketing che non si applicano agli scenari ipotizzati qui.
Si, ma quando lavorano contemporaneamente CPU e iGPU la CPU viene segata a 3 GHz per rientrare nel TDP e la stessa cosa succede anche con Carrizo mobile, cosí rispondo pure a Paolo sulla questione delle frequenze nominali di AMD
Oibò. Povero Paolo. :D
In realtà il termine secondo la lingua italiana é inesatto.

Il suffisso "-ista" generalmente viene usato per il soggetto che svolge una parte attivo in un determinato settore od in una certa situazione/avvenimento.

Ad es: Carburatorista= chi si occupa di carburatori.
Marmista= chi lavora il marmo.
Elettricista= chi lavora con apparati/impianti elettrici.
E così via.

Se, tanto per fare un esempio, dico che gli USA hanno applicato strategie di intelligence o militari riservate per destabilizzare governi di alcuni stati dell'America Latina e per affermare ciò pubblico libri con note, riferimenti e con prove documentali, allora non sono un complottista ma un complottologo, cioè uno che studia i complotti, anche se in taluni casi si potrebbe parlare di congiura se l'oggetto delle attenzioni é un numero più o meno ristretto di individui.

Chi invece si interessa di questi avvenimenti per puro diletto personale, leggendo librri di complottologi o siti internet più o meno affidabili, allora non é un complottologo ma un complottofilo, ossia un semplice appassionato.

Il termine complottista in senso stretto andrebbe invece utilizzato in riferimento a chi si fa promotore/autore di certe situazioni. Nell'esempio succitato gli USA.
Non sarà corretto grammaticalmente, ma è entrato nel lessico familiare, tant'è che la Treccani lo riporta come neologismo. D'altra parte non è certo l'unico caso di parola non perfettamente in linea con la lingua.

Comunque secondo te chi genera/alimenta complotti potrebbe rientrare o no nel termine? Per essere chiari, mi riferisco a gente che, di punto in bianco, si mette a scrivere che c'è un complotto blah blah blah ordito da blah blah ai danni di blah. Di fatto il complotto viene creato da roba che qualcuno s'è messo a scrivere.
Non capisco il concetto di spostare il buono Intel a seconda di come fa comodo. Quando si parla di silicio, è migliore quello Intel, quando si parla di prestazioni, di colpo il silicio Intel è come tutti gli altri e le prestazioni vengono dall'architettura.

Lo sai che ti dico? Cosa si inventerà (se) Zen andrà più di Broadwell? Di chi sarà la colpa? Il 14nm Intel del 25% migliore, l'architettura Intel cazzuta... forse la colpa la si dara all'HIS.... :sofico: ma saranno sempre altre chiacchiere.
Ti stai arrampicando sugli specchi, cercando di cambiare discorso: non mi pare di aver citato Zen.

Ti ricordo che AMD ha sempre usato il SOI, anche coi 32nm di Bulldozer, che sarebbe superiore al bulk di Intel (sempre 32nm), se ho capito bene quello che è stato scritto finora qui sull'argomento.

Dunque AMD sarebbe comunque stata in vantaggio in termini di processo produttivo.

Non di prestazioni, perché i risultati sono stati quelli che sono...

Wolfhang
23-07-2016, 16:43
Si sa da tempo che il risparmio energetico su Kaveri è buggato... E' per questo che Carrizo fa moooolto meglio...

In che senso scusa, guarda che le frequenze della CPU vengono tagliate anche sulle APU carrizo...

bjt2
23-07-2016, 17:14
Non vorrei che fosse compilato solo per le SSE. Avrebbe poco senso compilare usando le AVX, ma continuando a usare i registri soltanto a 128 bit: si perderebbe il maggior guadagno in termini prestazionali.

Si, scusa... SSE...

Anche nei SoC ARM c'è parecchia altra roba, come dicevo prima, e il tutto contenuto in appena 3W.

Comunque dal link di Paolo si parla di 2,8Ghz base a 3,2Ghz turbo, con 65W per il quad core e 95W per l'octa core.

Non siamo lontani dai 2,5GHz di cui parlavamo, ma quanto a consumi c'è un abisso. E personalmente trovo le informazioni abbastanza realistiche.

Ma stiamo parlando del 28nm, giusto? E l'athlon x4 845 in 65W è dato 3.5 base e 3.8 turbo, con core excavator e suppongo che siano gli scarti con la GPU non funzionante... Sempre sul 28nm...
Lascia stare il link di Paolo... Sono scopiazzate del rumor di un tizio, appena iscritto e con un solo post su un forum, dove afferma quello senza prove... E i siti acchiappaclick ci sono andati a nozze... Si parla di un ES step A0... Siccome combacia con i preconcetti di molta gente (clock non superiore all'octacore intel) è stranamente stato preso per vangelo...

Sul 28nm l'x4 845 in 65W fa 3.5GHz base e 3.8 turbo e Zen sul 14nm fa peggio?!?!? Ma stiamo scherzando?!?!? A questo punto faccio uno shrink di excavator e salgo pure di più...

Dipende da quanto "lavoro utile" facciano le uop nel caso dei CISC e dei RISC (perché ancora loro possono spezzare alcune istruzioni complesse in uops. I POWER lo fanno sicuramente, e da tempo). ;)

Ma che razza di RISC sarebbe? :D :sofico:

Riguardo a decoder e uops, fra i commenti del link che hai riportato ne è apparso uno interessante e che riguarda Skylake. L'autore sostiene che il decoder utilizzato non sia a 5 vie, ma a 4. E dunque la capacità di generare fino a 5uop per ciclo di clock deriva dai pattern che adesso sono gestibili dal decoder: 1+1+1+1, 2+1+1+1, 3+1+1, 4+1, ... più ovviamente i casi più semplici, con meno uop generate.

Quindi da una parte il decoder rimane più semplice, visto che non ci sono 5 ma soltanto 4 unità di decodifica. E dall'altro diventa più flessibile ed efficiente, perché consente di intercettare più "casi d'uso".

Questo lo si sapeva da tempo: 4 decoder con al massimo una uop fusion, quindi 5 in totale. E la fusion solo in alcuni casi: cmp+jcc consecutivi, alu op +mem ecc...

Questo spiega perché rimangono i 16 byte per ciclo di clock analizzati. Poiché la dimensione media delle istruzioni è di poco inferiore a 4 byte, come detto prima, 4 * 4 = 16 e rientriamo in questo limite. Con 5 istruzioni decodificate per ciclo di clock si sarebbero sforati i 16 byte: 5 * 4 = 20.

Ovviamente 16 byte alla volta è il fetch dalla Icache, ma ha un buffer di almeno 32 byte (non ricordo di preciso) su cui operare per la decodifica... E comunque esistono anche istruzioni di 1 solo byte...
Non ricordo se per la uop fusion, oltre ai limiti delle operazioni, ci sono anche limiti sull'occupazione... Sicuramente non devo superare la lunghezza del buffer...

bjt2
23-07-2016, 17:17
In che senso scusa, guarda che le frequenze della CPU vengono tagliate anche sulle APU carrizo...

Ho letto su semi o anand (non ricordo) che nelle varie generazioni di APU mobile sono state aggiustate gradatamente cose che non funzionavano... Ad esempio l'AVFS c'era anche prima di carrizo... Solo che non funzionava ed era disabilitato... Così per molte altre cose... Ho già detto che su Kaveri le frequenze CPU con GPU attiva erano fisse e basse, ad esempio...

Free Gordon
23-07-2016, 17:39
In realtà il termine secondo la lingua italiana é inesatto.

:cincin:

cdimauro
23-07-2016, 18:03
Si, scusa... SSE...
Allora tutto quadra.
Ma stiamo parlando del 28nm, giusto? E l'athlon x4 845 in 65W è dato 3.5 base e 3.8 turbo, con core excavator e suppongo che siano gli scarti con la GPU non funzionante... Sempre sul 28nm...
Lascia stare il link di Paolo... Sono scopiazzate del rumor di un tizio, appena iscritto e con un solo post su un forum, dove afferma quello senza prove... E i siti acchiappaclick ci sono andati a nozze... Si parla di un ES step A0... Siccome combacia con i preconcetti di molta gente (clock non superiore all'octacore intel) è stranamente stato preso per vangelo...
Mi riferivo soltanto a Zen, secondo le informazioni del link di Paolo.

Dunque possiamo andare a buttare tutti i discorsi fatti. :D
Sul 28nm l'x4 845 in 65W fa 3.5GHz base e 3.8 turbo e Zen sul 14nm fa peggio?!?!? Ma stiamo scherzando?!?!? A questo punto faccio uno shrink di excavator e salgo pure di più...
Ma l'architettura di Zen non dovrebbe essere molto più efficiente? ;)
Ma che razza di RISC sarebbe? :D :sofico:
Da un pezzo i RISC non sono più quelli per cui è nato questo concetto / macrofamiglia. :)

Se è per questo, fanno anche uso di microcodice, e nello specifico sicuramente ARM e PowerPC/POWER, che hanno istruzioni molto complesse.
Questo lo si sapeva da tempo: 4 decoder con al massimo una uop fusion, quindi 5 in totale. E la fusion solo in alcuni casi: cmp+jcc consecutivi, alu op +mem ecc...
Con la uop fusion si fa l'inverso: si genera una uop "fondendone" due. Dunque il numero di uop generate dal decoder diminuirebbe.

Mentre Skylake genera una uop in più rispetto ai predecessori...
Ovviamente 16 byte alla volta è il fetch dalla Icache, ma ha un buffer di almeno 32 byte (non ricordo di preciso) su cui operare per la decodifica...
Mi pare che la decodifica operi soltanto su 16 byte alla volta, mentre il fetch dalla ICache è di 32 byte.
E comunque esistono anche istruzioni di 1 solo byte...
Certamente. E ce ne sono alcune che generano 4 uop, e alcune... microcodice. :D :D :D
Non ricordo se per la uop fusion, oltre ai limiti delle operazioni, ci sono anche limiti sull'occupazione... Sicuramente non devo superare la lunghezza del buffer...
Non lo ricordo nemmeno io. :-/

george_p
23-07-2016, 18:13
Sofismi. :fagiano:


E cosa pretendi da un complottista? Tu, persona normale :O

george_p
23-07-2016, 18:17
Si sa da tempo che il risparmio energetico su Kaveri è buggato... E' per questo che Carrizo fa moooolto meglio...

Puoi spiegare meglio?

Free Gordon
23-07-2016, 18:20
Non lo ricordo nemmeno io. :-/


Il link che hai in firma su Python è interessante. :D

cdimauro
23-07-2016, 18:54
Enjoy! :cool:

digieffe
23-07-2016, 19:18
Non perderci tempo: sono tutte tecniche di marketing che non si applicano agli scenari ipotizzati qui.

sinceramente non riesco a capire lo scenario che è in atto qui.

Ti ricordo che AMD ha sempre usato il SOI, anche coi 32nm di Bulldozer, che sarebbe superiore al bulk di Intel (sempre 32nm), se ho capito bene quello che è stato scritto finora qui sull'argomento.

Dunque AMD sarebbe comunque stata in vantaggio in termini di processo produttivo.

Non di prestazioni, perché i risultati sono stati quelli che sono...

"medio un po'": è risaputo che il 32mn soi è uno tra i peggiori PP di GF, insieme al 65mn. (questo era uno degli equivoci)

qualcuno ti spieghera meglio ed in dettaglio, ma "maccheronicamente" ciò che sul 45mn girava a 3.8 sul 32mn girava a 2.9 (o 3.0?). Sul 32nm cerano anche altri component gpu, ecci, fatto sta che andava meno del 45.

affiu
23-07-2016, 19:20
Ti faccio presente che Bulldozer è stato presentato qualche mese dopo che Intel aveva presentato Sandy, e usando lo stesso processo produttivo (32nm).

D

Ciao.

Non si chiede precisione ed accuratezza ma uno a gennaio 2011 ed uno ad ottobre 2011.
Poi di altra imprecisione, a mio parere io la vedrei anche qui:


Mi pare ovvio: se Sandy Bridge, che è sempre a 32nm, si mangia a colazione Bulldozer (stesso processo produttivo) a frequenze inferiori e con l'SMT, allora c'è qualcosa che non va nel CMT.

Ma qui sto dicendo un'ovvietà.

De gustibus. Ma che il CMT sia stato fallimentare lo vedi sullo stesso processo produttivo: non serve scomodare i 14nm. Vedi sopra.



Bah a mio parere personale non credo che si possa utilizzare la parola ''mangia'' perchè ad esempio in ambito multi-task tra bulldozer e sandy non vedo affatto nessuna superiorità sempre parlando di vari aspetti tecnici di un processore.
In secondo luogo se proprio dobbiamo essere precisi, escluso il single-threads, se paragoniamo sandy a piledriver in ambito multi-thread non vedrei nessuna superiorità in multi-threads...e sempre sul 32nm siamo per entrambi.
In ambito multitask:read: ti inviterei a leggere qui:
http://www.hwupgrade.it/forum/showpost.php?p=39584540&postcount=348
Qui c'è stata la richiesta:http://www.hwupgrade.it/forum/showpost.php?p=39335449&postcount=6306
http://www.hwupgrade.it/forum/showpost.php?p=39336556&postcount=6300
Qui la risposta:
http://www.hwupgrade.it/forum/showpost.php?p=39338427&postcount=6302
http://www.hwupgrade.it/forum/showpost.php?p=39342701&postcount=6313
......ovviamente non se visto nessuna prova a confutare l'ipotesi o argomentazione....come te lo spiegheresti?....chi sarebbe superiore in quest'ambito?

Il cmt di per se è solo un astrazione filosofica a mio parere ma non nasce per caso ma in un ottica di integrazione per le future APU amd ed non è una scelta certamente vincente in ambito desktop ma in ambito apu amd di certo non è peggiorato nelle evoluzioni di codeste.
Ora su zen bisognerà capire che tipo di smt amd adotterà, perchè io avrei forti dubbi che si discosti molto dal cmt di bulldozer in quanto un core si che deve elaborare piu thread(in questo caso 2 ed in futuro magari più di uno) ma in che modo:
1)a threads ''inter-dipendenti'' cioè che non interferiscono
2)a threads ''inter-dipendenti'' cioè che interferiscono.
Lo so che non hanno senso le due supposizioni ma vorrei intendere se un threads venga in qualche modo ''bloccato'' da un altro oppure ''parcheggiato'' .....figuriamoci nel dopo zen+ fusion in cui un core fusion amd drovà elaborarne 4/8/n(come filosoficamente fanno le gpu d'altronde) threads alla volta stile cmt di bulldozer odierno :muro:
Sarebbe tutta qui, sempre a mio parere la differenza tra il smt e il cmt, cioè come vengano elaborati i threads senza che questi si affoghino tra loro....appunto da qui si vede cosa sia il motivo del multi-task di bulldozer dato che tra sandy e bulldozer sempre 8 threads alla volta elaborano, ma in modo diverso.
adesso si attende capire dove sia la differenza tra :
Bulldozer:1-core-1-thread
Zen: 1-core-2-threads...ma come???

digieffe
23-07-2016, 19:22
Si, scusa... SSE...



Ma stiamo parlando del 28nm, giusto? E l'athlon x4 845 in 65W è dato 3.5 base e 3.8 turbo, con core excavator e suppongo che siano gli scarti con la GPU non funzionante... Sempre sul 28nm...
Lascia stare il link di Paolo... Sono scopiazzate del rumor di un tizio, appena iscritto e con un solo post su un forum, dove afferma quello senza prove... E i siti acchiappaclick ci sono andati a nozze... Si parla di un ES step A0... Siccome combacia con i preconcetti di molta gente (clock non superiore all'octacore intel) è stranamente stato preso per vangelo...

Sul 28nm l'x4 845 in 65W fa 3.5GHz base e 3.8 turbo e Zen sul 14nm fa peggio?!?!? Ma stiamo scherzando?!?!? A questo punto faccio uno shrink di excavator e salgo pure di più...

c'e gia il 3.7 (o 3.8?) base e 4.1 turbo 65w - forse è A12 9800

bjt2
23-07-2016, 19:39
Ma l'architettura di Zen non dovrebbe essere molto più efficiente? ;)

Il mio discorso vale se sono riusciti a rimanere nello stesso FO4, aumentando l'IPC. Ed è possibile, perchè se le unità rimangono le stesse (intese con lo stesso numero di stadi), Zen ha solo 2 ALU in più. Ma questo non aumenta il FO4 perchè già lo scheduler della FPU di BD è a 4 vie e quindi dovrebbe essere possibile fare nello stesso FO4 anche lo scheduler a 4 vie della ALU. Le altre cose possono essere eventualmente implementate con uno o due stadi in più. L'SMT per esempio penso possa essere implementato come il CMT: già in BD il front end supporta 2 thread... Quindi è molto simile. L'unica cosa sono le cache: ma basta aumentare la latenza in cicli e si può fare il ciclo più corto...
Le unità sembra che siano rimaste le stesse perchè le latenze non sono diminuite (anzi alcune istruzioni hanno latenza maggiore), quindi non ho perso la speranza di un FO4 basso...

Con la uop fusion si fa l'inverso: si genera una uop "fondendone" due. Dunque il numero di uop generate dal decoder diminuirebbe.

Mentre Skylake genera una uop in più rispetto ai predecessori...

Immagino che qui ci possa essere del misunderstanding... Mi pare di ricordare che 5 sono le istruzioni massime decodificate, che risultano in 4 uop di cui una fusa, ma potrei sbagliarmi...

Mi pare che la decodifica operi soltanto su 16 byte alla volta, mentre il fetch dalla ICache è di 32 byte.

AMD fa fetch di 32 byte alla volta e il buffer è 64 byte, ma legge 16 byte alla volta, anche perchè una istruzione può essere anche 15 byte e quindi questo è il minimo che deve leggere... Immagino che sia una cosa simile per INTEL, ma in ogni caso il buffer deve essere pari almeno al doppio della granularità del fetch...

Certamente. E ce ne sono alcune che generano 4 uop, e alcune... microcodice. :D :D :D

O alcune che ne generano 200 e oltre... :sofico: Come FSINCOS... :asd:

bjt2
23-07-2016, 19:41
Puoi spiegare meglio?

Non ti so dire i dettagli, ne mi sono salvato il link al post del tizio, che comunque era vago... Ricordo solo che disse che ci sono delle cose implementate che non funzionano e che sono disabilitate... Per esempio il doppio controller DDR3 e GDDR5 che doveva consentire di fare APU con memoria GDDR5 locale e che non si è potuta fare perchè buggata, l'AVFS che funziona solo su Carrizo, ma era già presente in Kaveri, ma disabilitato, ecc...

bjt2
23-07-2016, 19:44
c'e gia il 3.7 (o 3.8?) base e 4.1 turbo 65w - forse è A12 9800

Bristol Ridge... :D Ok, ma ancora deve uscire... :D
65W compresa GPU? E funzionerà il turbo con la GPU accesa? :asd:

Piedone1113
23-07-2016, 19:44
Ciao.

Non si chiede precisione ed accuratezza ma uno a gennaio 2011 ed uno ad ottobre 2012.
Poi di altra imprecisione, a mio parere io la vedrei anche qui:


Bah a mio parere personale non credo che si possa utilizzare la parola ''mangia'' perchè ad esempio in ambito multi-task tra bulldozer e sandy non vedo affatto nessuna superiorità sempre parlando di vari aspetti tecnici di un processore.
In secondo luogo se proprio dobbiamo essere precisi, escluso il single-threads, se paragoniamo sandy a piledriver in ambito multi-thread non vedrei nessuna superiorità in multi-threads...e sempre sul 32nm siamo per entrambi.
In ambito multitask:read: ti inviterei a leggere qui:
http://www.hwupgrade.it/forum/showpost.php?p=39584540&postcount=348
Qui c'è stata la richiesta:http://www.hwupgrade.it/forum/showpost.php?p=39335449&postcount=6306
http://www.hwupgrade.it/forum/showpost.php?p=39336556&postcount=6300
Qui la risposta:
http://www.hwupgrade.it/forum/showpost.php?p=39338427&postcount=6302
http://www.hwupgrade.it/forum/showpost.php?p=39342701&postcount=6313
......ovviamente non se visto nessuna prova a confutare l'ipotesi o argomentazione....come te lo spiegheresti?....chi sarebbe superiore in quest'ambito?

Il cmt di per se è solo un astrazione filosofica a mio parere ma non nasce per caso ma in un ottica di integrazione per le future APU amd ed non è una scelta certamente vincente in ambito desktop ma in ambito apu amd di certo non è peggiorato nelle evoluzioni di codeste.
Ora su zen bisognerà capire che tipo di smt amd adotterà, perchè io avrei forti dubbi che si discosti molto dal cmt di bulldozer in quanto un core si che deve elaborare piu thread(in questo caso 2 ed in futuro magari più di uno) ma in che modo:
1)a threads ''inter-dipendenti'' cioè che non interferiscono
2)a threads ''inter-dipendenti'' cioè che interferiscono.
Lo so che non hanno senso le due supposizioni ma vorrei intendere se un threads venga in qualche modo ''bloccato'' da un altro oppure ''parcheggiato'' .....figuriamoci nel dopo zen+ fusion in cui un core fusion amd drovà elaborarne 4/8/n(come filosoficamente fanno le gpu d'altronde) threads alla volta stile cmt di bulldozer odierno :muro:
Sarebbe tutta qui, sempre a mio parere la differenza tra il smt e il cmt, cioè come vengano elaborati i threads senza che questi si affoghino tra loro....appunto da qui si vede cosa sia il motivo del multi-task di bulldozer dato che tra sandy e bulldozer sempre 8 threads alla volta elaborano, ma in modo diverso.
adesso si attende capire dove sia la differenza tra :
Bulldozer:1-core-1-thread
Zen: 1-core-2-threads...ma come???

Io ho sempre pensato che a segare BD sia stato il silicio, ma non bd Desktop, quanto piuttosto Opteron.
Avere la possibilità di un x16 bd a 4.0ghz su multisocket avrebbe permesso ad AMD di insidiare intel nel mercato server in tutte quelle situazioni dove si devono gestire molteplici istanze.
Il fallimento è stato li, dove si fanno i soldi è li, ed è li che ha toppato, il mercato desktop non era prioritario nella progettazione di bd.

digieffe
23-07-2016, 19:48
Bristol Ridge... :D Ok, ma ancora deve uscire... :D
65W compresa GPU? E funzionerà il turbo con la GPU accesa? :asd:

3.8ghz base, 4.1 turbo, 65wè il tdp comprensivo di gpu 512sp a 1.1ghz

ancora non si sa se c'è una diminuzione della frequenza

bjt2
23-07-2016, 19:55
3.8ghz base, 4.1 turbo, 65wè il tdp comprensivo di gpu 512sp a 1.1ghz

ancora non si sa se c'è una diminuzione della frequenza

Se mantiene i 3.8 anche con GPU accesa al max, visti gli 1.1GHz, vuol dire che i 4 core a 3.8GHz consumano max 20W... Non male... Vuol dire che un octacore 3.8GHz 40W ci può stare... E un 16 core 80W... Sul 28nm!
E un octacore 4GHz@95W sul 14nm non si può fare?!?!?!

digieffe
23-07-2016, 20:07
"altra mediazione": vedendo altri post intercorsi, mi sovviene che un altra cosa sulla quale non vi siete intesi ovvero il concetto di "carico".
Alcuni avrebbero fatto dei test dai quali risulterebbe che sovraccaricando la cpu con n_thread_software >> n_thread_hardware, alcune cpu smt intel avrebbero un decadimento di prestazioni repentino rispetto ad altre cpu cmt amd.

digieffe
23-07-2016, 20:09
Se mantiene i 3.8 anche con GPU accesa al max, visti gli 1.1GHz, vuol dire che i 4 core a 3.8GHz consumano max 20W... Non male... Vuol dire che un octacore 3.8GHz 40W ci può stare... E un 16 core 80W... Sul 28nm!
E un octacore 4GHz@95W sul 14nm non si può fare?!?!?!

se così fosse perchè amd non ha fatto modelli fx ed opteron sul 28mn?

george_p
23-07-2016, 20:26
Non ti so dire i dettagli, ne mi sono salvato il link al post del tizio, che comunque era vago... Ricordo solo che disse che ci sono delle cose implementate che non funzionano e che sono disabilitate... Per esempio il doppio controller DDR3 e GDDR5 che doveva consentire di fare APU con memoria GDDR5 locale e che non si è potuta fare perchè buggata, l'AVFS che funziona solo su Carrizo, ma era già presente in Kaveri, ma disabilitato, ecc...

Ok, grazie.
Sul memory controller spiegavano che il costo delle ddr5 era troppo alto per implementarlo o qualcosa del genere.
Comunque usandolo in cinema4D nei render ho notato che la gpu cala di prestazioni, dovrebbero alternarsi a vicenda tra cpu e gpu con riduzione di frequenza a seconda della priorità dell'una o dell'altra.

bjt2
23-07-2016, 20:29
se così fosse perchè amd non ha fatto modelli fx ed opteron sul 28mn?

Perchè sul 32nm SOI riesce a salire fino a 5GHz...
Tutte queste CPU sul 28nm sono APU fatte con l'HDL, per lasciare più spazio possibile per la GPU... Anche l'Athlon X4 845 dovrebbe avere la GPU seppur disabilitata... E sappiamo che l'HDL oltre i 3GHz perde efficienza rispetto alla HPL...

digieffe
23-07-2016, 20:48
Perchè sul 32nm SOI riesce a salire fino a 5GHz...
Tutte queste CPU sul 28nm sono APU fatte con l'HDL, per lasciare più spazio possibile per la GPU... Anche l'Athlon X4 845 dovrebbe avere la GPU seppur disabilitata... E sappiamo che l'HDL oltre i 3GHz perde efficienza rispetto alla HPL...

se fosse 40w@3.8 per 8 core non credo che non supererebbe i 4ghz entro i 65/95w.
invece l'opteron x16 80w@3.8 se la baterebbe con gli ultimi 8 core della concorrenza, consumando abbastanza meno.

quindi secondo te Zen desktop sarà con le HPL? e opteron? HDL?

BodyKnight
23-07-2016, 20:54
***********ATTENZIONE wishful thinking in azione!!!***********

Catzo, se Zen esce nel Q1 2017, il mio PC entrerà per allora nel suo decimo anno.

Non avete idea di quanto mi sto trattenendo. COnfesso che mi accontenterei di prestazioni modeste, consumi ragionevoli, prezzi contenuti, tutto, purchè la piattaforma si dimostri upgradabile RADICALMENTE, e ripeto, radicalmente (del tipo che fu passare da E6600 a Q9550).

el-mejo
23-07-2016, 21:18
***********ATTENZIONE wishful thinking in azione!!!***********

Catzo, se Zen esce nel Q1 2017, il mio PC entrerà per allora nel suo decimo anno.

Non avete idea di quanto mi sto trattenendo. COnfesso che mi accontenterei di prestazioni modeste, consumi ragionevoli, prezzi contenuti, tutto, purchè la piattaforma si dimostri upgradabile RADICALMENTE, e ripeto, radicalmente (del tipo che fu passare da E6600 a Q9550).

Cioè intendi che avrà una grande compatibilità in avanti, tipo supporto ad un ipotetico Zen III @ 10nm nel 2018?
In questo caso ne dubito, i tempi del LGA 775 o del Am2/am2+/am3/am3+ temo siano finiti.

Se vuoi un upgrade radicale, se non l'hai già fatto, prendi un ssd ;)

bjt2
23-07-2016, 22:25
se fosse 40w@3.8 per 8 core non credo che non supererebbe i 4ghz entro i 65/95w.
invece l'opteron x16 80w@3.8 se la baterebbe con gli ultimi 8 core della concorrenza, consumando abbastanza meno.

quindi secondo te Zen desktop sarà con le HPL? e opteron? HDL?

A quanto ho capito le 12 T non esistono sul 14nm... Ma ci sono le 10.5T che sono una via di mezzo... Io penso che faranno un solo die e lo faranno con le "HPL" 10.5T e con transistors sLVT nei punti critici...

paolo.oliva2
24-07-2016, 06:50
Sofismi. :fagiano:

Parlano ancora di ES e commercializzazione per ottobre. Un ossimoro...
Non capisco il perchè. Un ES può anche essere pre-produzione, quindi un 30 giorni prima dell'effettiva commercializzazione (N.B. che AMD ha un volume commerciale minimo nettamente inferiore a quello Intel). Visto che siamo in luglio e già si starebbe con i tempi per settembre, se gli ES Zen fossero pre-produzione (e visto che non ci sono info se gli ES Zen siano pre-produzione o meno), ottobre è anche più in là con i tempi.

Oibò. Povero Paolo. :D

Oddio, lui fa un discorso di TDP, io faccio un discorso di frequenza massima silicio. Il 14nm Intel come ti ripeto, arriva al max 4,2GHz commercialmente e un 6700K si occa a 4,4GHz. Il ciofeca 28nm Bulk GF arriva a 4,3GHz commercialmente, 100MHz in meno del massimo OC 14nm Intel. E' chiaro e lampante che il 14nm Intel non brilla in fatto di frequenze massime, e fare il paragone frequenze 14nm Intel in proiezione 14nm Samsung per me è sbagliato perchè la stessa Samsung dichiara frequenze del suo 14nm superiori rispetto al 28nm GF, Se il 28nm GF ha GIA' FREQUENZE SUPERIORI al 14nm Intel, come potrebbe il 14nm Finfet Samsung avere frequenze inferiori al 14nm Intel? (chiaramente a parità FO4 Zen vs XV). Punto.

Ti stai arrampicando sugli specchi, cercando di cambiare discorso: non mi pare di aver citato Zen.
Magari evita le frasi battutine, perchè ad ogni tuo post c'è sempre una punzecchiata per denigrare... abituati che il forum è un insieme di "teste" dove ognuno ha la sua idea e si discute tecnicamente appunto per cercare basi per discernere le correnti di bandiera.

Ti ricordo che AMD ha sempre usato il SOI, anche coi 32nm di Bulldozer, che sarebbe superiore al bulk di Intel (sempre 32nm), se ho capito bene quello che è stato scritto finora qui sull'argomento.
Il SOI riduce il leakage rispetto al Bulk, ma ti ricordo che il SOI implementato da AMD 45nm, era liscio con la versione low-k esclusivamente per il Thuban. Contrariamente, Intel, il suo Bulk, dal 45nm, ha implementato sia l'HKMG che il low-k, con un pozzo senza fine di soldi per l'affinamento.
Ora, che il SOI riduca da 10 a 20 volte il leakage rispetto al Bulk, è risaputo, ma è anche risaputo che il leakage è proporzionale al valore del Vcore applicato, quindi quel valore da 10 a 20 volte è relativo alla tensione. Mi pare ovvio che nel computo vada considerato che il 32nm SOI HKMG ULK di fatto non ha calato una mazza il Vcore rispetto al 45nm liscio (e questa è una ulteriore prova di quanto abbia disatteso le aspettative), e parlando di 1,35V def, ha credo +0,2V rispetto al 32nm Bulk HKMG ULK Intel, e questo ovviamente cambia il discorso del SOI in fatto di leakage vs Bulk.
La differenza prestazionale (n° transistor/TDP) tra il 32nm SOI e il 32nm Bulk probabilmente era relativa, ma il tracollo nel settore server (dove conta il consumo/prestazioni), non era a parità di miniaturizzazione, in quanto PD 32nm aveva come avversario il 22nm, dove Intel poteva inserire il doppio dei core rispetto al numero di moduli AMD (a parità di TDP), con ovvio stravolgimento sia di prestazioni a die che, ancor più, di consumo/prestazioni.

Dunque AMD sarebbe comunque stata in vantaggio in termini di processo produttivo.

Ti ho spiegato sopra

Non di prestazioni, perché i risultati sono stati quelli che sono...
Le prestazioni le possiamo dividere in 2 parti.
Quella ST e quella MT
Quella ST è la forza bruta del core, ed è una prerogativa dell'SMT che si debba partire con un IPC alto perchè l'SMT rende quasi 1/3 nel 2° TH rispetto al CMT.
Quella MT è il modulo CMT vs il core + SMT, e sin dall'inizio AMD aveva sempre riportato che il modulo CMT era l'alternativa al core + SMT Intel (ripeto, 1 modulo CMT vs 1 core + SMT e non, per prb silicio, 4 moduli CMT vs 8 core + SMT)

Il CMT, come caratteristica architetturale, dovrebbe essere inferiore all'SMT per quanto riguarda la potenza 1TH a core, ma guadagnare quanto perde in ST in MT (con 2TH).

Quello che tu continui a non voler capire, è che se AMD avesse avuto a disposizione un silicio che permetteva di inserire in un die n moduli tanti quanti il silicio Intel permetteva n core, il problema di prestazioni (a die) non sarebbe mai esistito perchè, addirittura, con l'FO4 di BD, all'aumentare dei core AMD sarebbe stata sempre più competitiva, perchè gli Intel avrebbero calato la frequenza def e di qui il divario in ST (visto come, correttamente, IPC * frequenza), e nel contempo AMD avrebbe avuto una frequenza più alta per numero di moduli vs core a vantaggio dell'MT (perchè si sarebbe sommata una frequenza def superiore al +80% del CMT con il 2° TH rispetto al +30% dell'SMT).

Nel momento in cui Intel ci mette un X22 sul 14nm e AMD sul 32nm si ferma a 8m, il divario è 14 core in più a favore di Intel. Il silicio c'entra eccome, perchè come ti ho già fatto notare 1000 volte e tu continui ad ignorare, l'efficienza di BR 2m sul 28nm (SEMPRE BD, CMT) è superiore a quella di Intel X2+2 sul 22nm, sempre SMT e perde, di poco, verso Broadwell che è sul 14nm... Come farebbe una architettura, che tu giudichi inefficiente, a limare la differenza silicio da un 28nm Bulk GF (sicuramente ben lontano dall'essere il migliore silicio Bulk sul mercato, per giunta a 28nm) ad essere lì lì con il super-cazzuto 14nm Intel che non fate altro che postare +25% sul 14nm FinFet Samsung? Tra l'altro nella frequenza <3GHz che è l'ottimale per il 14nm Intel?

Poi è chiaro che se Intel sul 22nm ci mette un X8 e AMD invece di un 8m per 15W TDP in meno ci può mettere un 4m, Intel ha prestazioni superiori e maggiore efficienza.

P.S.
Guarda, riassumiamo:
Per te il CMT fa schifo rispetto all'SMT, BD è una ciofeca non per il silicio ma per l'architettura. Tua opinione, fatti tuoi.
Mia opinione è che AMD doveva in primis "saggiare" il 32nm SOI per capirne i limiti di frequenza, da lì creare un CMT on un IPC idoneo (anche se poi, purtroppo, non avrebbe di certo risolto il problema silicio).
Da qui, Zen SMT sarà competitivo vs XV CMT UNICAMENTE se avrà frequenze > simili a XV CMT, altrimenti sarà un disastro, avrà più potenza ST a fronte di un calo MT.
A parità di frequenza Zen avrà +40% di IPC e nel caso di un SMT uguale ad Intel, +30% MT

A 3GHz Zen avrà una potenza relativa ad un XV a 4,2GHz. Il problema è nell'MT, in quanto il core Zen con SMT guadagnerebbe +30% su 4,2GHz, mentre il modulo XV CMT ne guadagnerebbe 80% su 4GHz.

In ogni caso.... se il silicio Intel è migliore del 25% rispetto al silicio Samsung, mi pare ovvio che a parità di efficienza architetturale Intel dovrebbe conservare quel 25%, tipo in 25% in meno di consumo a parità di prestazioni. Sarà interessante Zen in 95W al posto di Intel 140W (inteso a parità di core) e Zen Opteron X32 vs X22 massimo Intel dove si posizionerà in termini di prestazioni e di qui prestazioni/Watt, perchè ho come il sentore che metterà in discussione la tanto decantata efficienzaarchitetturale Intel.

BodyKnight
24-07-2016, 06:55
Cioè intendi che avrà una grande compatibilità in avanti, tipo supporto ad un ipotetico Zen III @ 10nm nel 2018?
In questo caso ne dubito, i tempi del LGA 775 o del Am2/am2+/am3/am3+ temo siano finiti.

Se vuoi un upgrade radicale, se non l'hai già fatto, prendi un ssd ;)

GIà fatto. SOlo che ora i limiti della bandwidth delle ddr2 e delle linee pcie 1.1 iniziano a farsi sentire.

paolo.oliva2
24-07-2016, 07:43
"altra mediazione": vedendo altri post intercorsi, mi sovviene che un altra cosa sulla quale non vi siete intesi ovvero il concetto di "carico".
Alcuni avrebbero fatto dei test dai quali risulterebbe che sovraccaricando la cpu con n_thread_software >> n_thread_hardware, alcune cpu smt intel avrebbero un decadimento di prestazioni repentino rispetto ad altre cpu cmt amd.

Io avevo postato a suo tempo una valanga di test di confronto con il Thuban.
A differenza del Thuban, il quale superati i 6TH (Thuban X6) doveva frazionare i tempi con un decadimento prestazionale nel complesso, l'8150 (ma comunque pure l'8350), guadagnava addirittura qualche cosa con un carico più intensivo di TH nominali (> di 8).
per farti un esempio... (in realtà Freemaker non sfrutta + di 4TH, ma faccio un paragone preciso di TH per facilitare).

Thuban 6TH = 100% di prestazioni.
Esempio 2 conversioni video sequenziali 1h, caricandole contemporaneamente (quindi un numero di TH superiore a quello nominale) 1h e qualche minuto (praticamente 2TH a core facevano perdere efficienza).

8150 e idem 8350 il comportamento era diverso.
2 conversioni video sequenziali 1h, caricandole contemporaneamente (quindi un numero di TH superiore a quello nominale), il tempo complessivo diminuisce di qualche minuto, cioè circa 57' anzichè 1h.

Quello che ti posso dire, è che in questa condizione le temp dell'8150/8350 aumentano del 5/10%, ed è sempre quello che ho postato... che io stracaricando il procio, in realtà ho temp superiori (e Vcore superiori) rispetto alla media del TH.

La mia idea è che BD è fatto per avere carichi (stile server), ed è ottimizzato appunto per lavorare carico. Quando fai girare 8TH, è come se i dati avessero dei loop di attesa, mentre con più TH praticamente è come se sti loop rimanessero invariati ma con 2TH e quindi con il doppio dei dati.
Questo me lo spiego perchè la media di chi occa porta a il Vcore NB a 1,25V/1,3V, mentre io, stracaricando, non posso superare 1,25V e l'ottimale è su 1,2V (il Vcore NB interessa l'MC e tutta la parte L3 del procio).

Per quanto riguarda il confronto con l'SMT, un X4+4 8TH si siede un totale prima di un 8350 8TH, ma preferirei evitare questo discorso perchè è stato fatto in passato dove sono stato smentito a iosa (io avevo fatto comparazioni private con un utente che aveva un 2600K), fortunatamente poi è arrivato george_p che ha postato recensioni a riprova di quanto dicevo.

paolo.oliva2
24-07-2016, 08:06
@digieffe

Quanto ho scritto precedentemente, lo puoi constatare tranquillamente (ed io l'ho sulla mia pelle), sul mobile. Un X2+2 Broadwell in ST e con poco carico va veloce, nessuno lo può negare, ma la velocità la tiene con 1 carico. Se io facessi una conversione video (a parte i tempi stratosferici essendo abituato all'8350), lavorarci sopra vuole dire perdere tutto lo smalto di un Broadwell a 3GHz, innanzitutto perchè sarei a 2,4GHz (perderei il turbo) e comincerebbero le solite paranoie che il cursore ti segue quando vuole lui...

A suo tempo, era per questo che volevo acquistare un 5960X, perchè avrei potuto aumentare sia le prestazioni MT che comunque il carico, cosa che non avrei ottenuto ad esempio nel passaggio ad un 6700K.

I miei dubbi Zen vs XV sono proprio questi... perchè da un 8350 X8 passare ad un X16 XV con un +20% di IPC, ho per così dire una garanzia di quanto otterrei... Un Zen X8 è indubbio che raddoppierà carico/MT di un 8350, ma non sarebbe nè più nè meno di un XV X16, ma la certezza che un XV X16 sarebbe 4GHz è ben superiore a quella di un Zen 4GHz.... la cosa mi "turba" non poco.

bjt2
24-07-2016, 09:08
Probabilmente è dovuto al fatto che la L2, L3 e il MC di BD possono avere più transazioni in sospeso... E poi la banda RAM... Thuban aveva le DDR2, giusto?

°Phenom°
24-07-2016, 09:46
Probabilmente è dovuto al fatto che la L2, L3 e il MC di BD possono avere più transazioni in sospeso... E poi la banda RAM... Thuban aveva le DDR2, giusto?
Supportava entrembe, ddr2 e ddr3

Inviato dal mio SM-G920F utilizzando Tapatalk

paolo.oliva2
24-07-2016, 10:50
Probabilmente è dovuto al fatto che la L2, L3 e il MC di BD possono avere più transazioni in sospeso... E poi la banda RAM... Thuban aveva le DDR2, giusto?

Il Thuban dipende su che mobo lo montavi (la retrocompatbilità AMD), comunque su una AM3+ praticamente supportava le DDR3 1600 tranquillamente... io avevo delle 2133 ma non so se le avevo montate sull'8150... comunque l'8350/8370 tiene tranquillamente DDR3 2400 occate a 2550, oltre non so perchè non mi tengono botta le DDR.

Comunque il Phenom II X4 guadagnava occando l'NB (chiaramente in concomitanza all'OC core), il Thuban un po' meno perchè supporrei MC/L3/core potenziata per i 2 core in più, l'8350 io non ho riscontrato alcun guadagno, a 5,2GHz tra NB def e DDR3 1600 e NB OC e DDR3 2400, con Cinebench, poi chiaro che Winrar e software simili guadagnano, ma quello è per un discorsao di banda.

Piedone1113
24-07-2016, 12:04
Il Thuban dipende su che mobo lo montavi (la retrocompatbilità AMD), comunque su una AM3+ praticamente supportava le DDR3 1600 tranquillamente... io avevo delle 2133 ma non so se le avevo montate sull'8150... comunque l'8350/8370 tiene tranquillamente DDR3 2400 occate a 2550, oltre non so perchè non mi tengono botta le DDR.

Comunque il Phenom II X4 guadagnava occando l'NB (chiaramente in concomitanza all'OC core), il Thuban un po' meno perchè supporrei MC/L3/core potenziata per i 2 core in più, l'8350 io non ho riscontrato alcun guadagno, a 5,2GHz tra NB def e DDR3 1600 e NB OC e DDR3 2400, con Cinebench, poi chiaro che Winrar e software simili guadagnano, ma quello è per un discorsao di banda.
Paolo thuban era socket AM3. Ma avendo il doppio controller era retrocompatibile am2+ BIOS permettendo.
Alcuni phenom II erano solo am2+ (se non sbaglio il 940 e il 720)

Inviato dal mio GT-I9505 utilizzando Tapatalk

capitan_crasy
24-07-2016, 12:47
Paolo thuban era socket AM3. Ma avendo il doppio controller era retrocompatibile am2+ BIOS permettendo.
Alcuni phenom II erano solo am2+ (se non sbaglio il 940 e il 720)

Inviato dal mio GT-I9505 utilizzando Tapatalk

Gli unici Phenom2 45nm socket AM2+ erano i modelli 920 e 940 (di derivazione Opteron) fra l'altro sono stati i primi ad essere messi in commercio, sostituiti dai modelli 925/945 AM3...
Tutti gli altri modelli erano socket AM3 compreso il mitico 720...

gabmac2
24-07-2016, 12:59
facendo una previsione a spanne,
un 6-core Zen quanto avrà in più a livello di prestazione rispetto ad un attuale 8320?

marchigiano
24-07-2016, 13:27
se ho capito bene non ci saranno 6 core ma solo multipli di 4 (e quindi i threads multipli di 8)

george_p
24-07-2016, 13:44
se ho capito bene non ci saranno 6 core ma solo multipli di 4 (e quindi i threads multipli di 8)

Non lo so, non si sa con certezza ma su B&C pensano che invece ci saranno solo 6 e 8 cores, almeno inizialmente, per Desktop si intende, per server e professonal workstation è diverso.

gabmac2
24-07-2016, 14:16
ok, incremento prestazioni?

george_p
24-07-2016, 14:39
ok, incremento prestazioni?

Non segui il thread dall'inizio vero? :D
Ufficiale amd, si ha 40% in più rispetto a un core excavator, + SMT come lo ha intel.

paolo.oliva2
24-07-2016, 15:22
ok, incremento prestazioni?

A spannella, se le frequenze di Zen saranno simili a PD, +40% in ST e in MT ~+50% nel caso di Zen X6 e ~+100% nel caso di Zen X8 (parametro di riferimento un 8350).

paolo.oliva2
24-07-2016, 15:28
Paolo thuban era socket AM3. Ma avendo il doppio controller era retrocompatibile am2+ BIOS permettendo.
Alcuni phenom II erano solo am2+ (se non sbaglio il 940 e il 720)

Inviato dal mio GT-I9505 utilizzando Tapatalk

Che io ricordi il socket AM3+ era stato fatto apposta per il Thuban, perchè il low-k diminuiva un pelo il Vcore e quindi a parità di Vcore (125W come i Phenom II X4), richiedeva più corrente Mi sembra il socket AM3+ concedeva 10A in più). Poi c'era un qualche cosa con i power-plane, ma non ricordo se era riferito al Thuban o a BD (ricordo che c'era stato un rallentamento nei tempi di uscita BD perchè AMD preferì adattare BD al socket AM3+ piuttosto che cambiarlo).

Tra l'altro non ricordo se avevo una CF IV o CF V, però ricordo che era uscito l'aggiornamento bios per il Thuban (che ancora non avevo) e con l'aggiornamento non riuscivo più a tenere la frequenza NB alta come prima.

http://www.hwupgrade.it/forum/showpost.php?p=33398450&postcount=3311 mi sono trovato sto mio post sul Thuban... che ricordi...

Piedone1113
24-07-2016, 16:02
Che io ricordi il socket AM3+ era stato fatto apposta per il Thuban, perchè il low-k diminuiva un pelo il Vcore e quindi a parità di Vcore (125W come i Phenom II X4), richiedeva più corrente Mi sembra il socket AM3+ concedeva 10A in più). Poi c'era un qualche cosa con i power-plane, ma non ricordo se era riferito al Thuban o a BD (ricordo che c'era stato un rallentamento nei tempi di uscita BD perchè AMD preferì adattare BD al socket AM3+ piuttosto che cambiarlo).

Tra l'altro non ricordo se avevo una CF IV o CF V, però ricordo che era uscito l'aggiornamento bios per il Thuban (che ancora non avevo) e con l'aggiornamento non riuscivo più a tenere la frequenza NB alta come prima.

http://www.hwupgrade.it/forum/showpost.php?p=33398450&postcount=3311 mi sono trovato sto mio post sul Thuban... che ricordi...
No Paolo, il socket AM£+ è stato fatto apposta per BD:
I pin hanno diametro maggiore (perchè bd ha un voltaggio inferiore ma richiede più ampere) e tutte le cpu am3 vanno nell'am3+, mentre bd non entra fisicamente nello socket perchè i fori hanno diametro inferiore.
Molte MB sarebbero compatibili con BD se non fosse per questo fatto, addirittura tu hai usato la N68-C UCC che è nata come AM2, aggioranata ad am2+, poi ad am3 ed infine ad AM3+ montando il socket nero (ps data la rom del bios piccola gli ultimi bios non supportano i microcodici di alcune vecchie cpu perchè non c'era spazio disponibile.

paolo.oliva2
24-07-2016, 17:39
No Paolo, il socket AM£+ è stato fatto apposta per BD:
I pin hanno diametro maggiore (perchè bd ha un voltaggio inferiore ma richiede più ampere) e tutte le cpu am3 vanno nell'am3+, mentre bd non entra fisicamente nello socket perchè i fori hanno diametro inferiore.
Molte MB sarebbero compatibili con BD se non fosse per questo fatto, addirittura tu hai usato la N68-C UCC che è nata come AM2, aggioranata ad am2+, poi ad am3 ed infine ad AM3+ montando il socket nero (ps data la rom del bios piccola gli ultimi bios non supportano i microcodici di alcune vecchie cpu perchè non c'era spazio disponibile.

Se ne sei sicuro ti do' ragione... anche perchè io ho avuto uno stop forzato di 3 anni circa e sinceramente manco mi ricordo di come è fatto un bios :sofico:
Cacchio, certo ne è passato di tempo...

Domani riparto per l'Africa... ho organizzato gli impegni per tornare per avere un lasso di tempo da novembre 2016 a maggio 2017, per combaciare con la commercializzazione di Zen. Spero che basti... :sofico:
Ho una nostalgia di overclock... con tutti i lavori che ho fatto per farmi una stanza da OC, ci manca solo che AMD vende Zen bloccato e/o un 14nm GF che non concede overclock... :doh:

digieffe
24-07-2016, 18:55
facendo una previsione a spanne,
un 6-core Zen quanto avrà in più a livello di prestazione rispetto ad un attuale 8320?

teoricamente +50% rispetto 8370, non conosco l' 8320, fai tu la proporzione

capitan_crasy
25-07-2016, 00:09
Se ne sei sicuro ti do' ragione... anche perchè io ho avuto uno stop forzato di 3 anni circa e sinceramente manco mi ricordo di come è fatto un bios :sofico:
Cacchio, certo ne è passato di tempo...

Domani riparto per l'Africa... ho organizzato gli impegni per tornare per avere un lasso di tempo da novembre 2016 a maggio 2017, per combaciare con la commercializzazione di Zen. Spero che basti... :sofico:
Ho una nostalgia di overclock... con tutti i lavori che ho fatto per farmi una stanza da OC, ci manca solo che AMD vende Zen bloccato e/o un 14nm GF che non concede overclock... :doh:

Te lo confermo anch'io...
Thuban è un socket AM3; AM3+ è stato creato per Bulldozer...

paolo.oliva2
25-07-2016, 07:25
Te lo confermo anch'io...
Thuban è un socket AM3; AM3+ è stato creato per Bulldozer...

K, probabile che mi sono confuso perchè io il Thuban l'avevo già su AM3+ e non avevo acquistato mobo per Buldozer.

Comunque, a parte i power-plane, come corrente credo non sia cambiato granchè dal Thuban a BD.

GREENMERCURY
25-07-2016, 07:33
GIà fatto. SOlo che ora i limiti della bandwidth delle ddr2 e delle linee pcie 1.1 iniziano a farsi sentire.
Per sei mesi prendi una P45 ddr3 che hai pci-e 2.0 e ddr3 in o.c. fino alle 1333 o più. Viene sulle 50 spedita e monti più di 8giga.

paolo.oliva2
25-07-2016, 08:02
La notizia di disponibilità di Zen per ottobre 2016 viene postata da diverse testate, bisogna vedere se nasce da più fonti o se rimbalza.

Comunque c'è una cosa contraddittoria. Viene interpretata disponibilità volume con quantità modelli.

AMD ha sempre dichiarato che Zen X86 è un modello Zen e che l'architettura Zen in tutte le varianti sarebbe stata disponibile nel 2017. Infatti Lisa Su anche nelle ultime dichiarazioni non ha fatto altro che ribadire e confermare quanto da sempre è stato detto.

Io penso probabile che AMD produca Zen X86 in primis perchè di fatto aumenta l'offerta di potenza massima desktop, ma nel contempo risparmia tempo (e soldi) nell'affinamento silicio. Di conseguenza credo che Zen X86 rifletta quello che abbiamo visto con le VGA 14nm, cioè Vcore def relativamente alti ed una frequenza def inferiore sia rispetto al Vcore def che alle possibilità del 14nm (per intenderci, di certo ben diverse dai limiti che Intel fissa per un 6700K).

Una volta affinato meglio il silicio, si potrà centellinare meglio il TDP nelle singole parti del procio e di qui ricercare frequenze maggiori.

Qui http://www.thecountrycaller.com/55186-advanced-micro-devices-incs-amd-zen-processors-scheduled-to-arrive-in-q1-2017/ c'è una fonte che riporta Zen addirittura competitivo con la prossima architettura Intel e non con quelle passate e presenti.

capitan_crasy
25-07-2016, 09:22
K, probabile che mi sono confuso perchè io il Thuban l'avevo già su AM3+ e non avevo acquistato mobo per Buldozer.

Comunque, a parte i power-plane, come corrente credo non sia cambiato granchè dal Thuban a BD.

Il socket AM3+ è stato una necessità dato che durante lo sviluppo di BD le caratteristiche del AM3 non erano più sufficienti: peccato che AMD aveva già sbandierato la compatibilità con il vecchio socket rimangiandosi la parola poco tempo dopo...
Può darsi che la scelta di far uscire il socket AM4 così avanti sia proprio per evitare un altro caso "socket AM3+", portando avanti il più possibile lo sviluppo di ZEN per avere le caratteristiche definitive destinate al nuovo socket.

paolo.oliva2
25-07-2016, 11:44
Il socket AM3+ è stato una necessità dato che durante lo sviluppo di BD le caratteristiche del AM3 non erano più sufficienti: peccato che AMD aveva già sbandierato la compatibilità con il vecchio socket rimangiandosi la parola poco tempo dopo...
Può darsi che la scelta di far uscire il socket AM4 così avanti sia proprio per evitare un altro caso "socket AM3+", portando avanti il più possibile lo sviluppo di ZEN per avere le caratteristiche definitive destinate al nuovo socket.

Infatti è proprio su questo che supporrei un supporto socket AM4 >X8 (Zen), in primis perchè il socket AM4 supporta 140W e al momento AMD parla di Zen X8 95W (quindi ci sarebbe già il margine per un Zen X12 nei 140W), secondo perchè sarebbe inutile sbandierare potenze massime desktop uguali ad Intel quando la stessa Intel ha già commercializzato un X10 desktop, terzo, perchè storicamente AMD ha offerto la metà dei core nel desktop rispetto ai server (chiaramente inteso a die, poi i socket di una mobo server possono essere 2 o 4 ma quella è un'altra storia). Quindi con un Zen Opteron X32 sullo stesso die, l'offerta per Zen desktop potrebbe/dovrebbe arrivare a X16... X8 è troppo bassa.

capitan_crasy
25-07-2016, 12:34
Infatti è proprio su questo che supporrei un supporto socket AM4 >X8 (Zen), in primis perchè il socket AM4 supporta 140W e al momento AMD parla di Zen X8 95W (quindi ci sarebbe già il margine per un Zen X12 nei 140W), secondo perchè sarebbe inutile sbandierare potenze massime desktop uguali ad Intel quando la stessa Intel ha già commercializzato un X10 desktop, terzo, perchè storicamente AMD ha offerto la metà dei core nel desktop rispetto ai server (chiaramente inteso a die, poi i socket di una mobo server possono essere 2 o 4 ma quella è un'altra storia). Quindi con un Zen Opteron X32 sullo stesso die, l'offerta per Zen desktop potrebbe/dovrebbe arrivare a X16... X8 è troppo bassa.

Non conosco esattamente il TDP massimo del socket AM4 ma dubito che arrivi a 140W...
Qualche mese fa c'erano dei rumors su un possibile secondo socket AMD dedicato al mercato "enthusiasm" forse di derivazione server (mono socket) ad un prezzo a dir poco oscenico sia come infrastruttura, sia come CPU...

bjt2
25-07-2016, 13:47
Io non capisco perchè su Anand si ostinano ad essere sicuri che Zen avrà un alto FO4, senza riscontri oggettivi... GLi unici riscontri che abbiamo sono di latenze almeno pari a BD, e quindi FO4 probabilmente minore o uguale a BD... Perchè si devono ostinare a prevedere un FO4 alto? Perchè altrimenti si supererebbe INTEL?

unnilennium
25-07-2016, 15:47
Finché non escono sono speculazioni, per quello che posso capirne io, adesso è aria fritta, slides ed indiscrezioni, ma alla fine dovranno pure uscire...

Inviato dal mio MI PAD 2 utilizzando Tapatalk

bjt2
25-07-2016, 15:48
http://forums.anandtech.com/showpost.php?p=38380565&postcount=2445

Finalmente su anand uno che usa la testa,o che almeno non è pessimista come gli altri...

La sua considerazione è interessante: il +40% di IPC è solo architetturale. Gli ingegneri AMD si aspettano un incremento anche dal processo (ossia clock più alti di Zen rispetto almeno a XV)... E mi pare anche ovvio... Passare da un 28nm bulk a un 14nm ff deve pur portare a qualcosa...
Se veramente gli ingegneri AMD hanno detto questo, allora il FO4 di Zen deve essere al massimo lo stesso di XV, altrimenti non ci si può automaticamente aspettare un incremento di clock dal processo...

bjt2
25-07-2016, 16:36
Un'altra considerazione a favore del basso FO4 la fa un altro utente su semi...

Zen dovrebbe essere una architettura per il rilancio in ambito server.
1) Un core Zen ha più o meno gli stessi transistors di un modulo BD/XV...
2) Da quello che si sa, a parità di clock si ha un +40% in ST e più o meno lo stesso, se non poco di meno, in MT.
3) A parità di transistors e quindi di area, si hanno più o meno gli stessi thread
4) Se il clock fosse inferiore o uguale, si avrebbe un througput inferiore con più o meno gli stessi transistors...

Per una architettura orientata ai server sarebbe una sconfitta... Tanto varrebbe fare uno shrink di XV...

Perciò Zen DEVE avere un FO4 più basso, per sperare di avere un clock più alto e quindi un througput più alto...

george_p
25-07-2016, 17:59
Un'altra considerazione a favore del basso FO4 la fa un altro utente su semi...

Zen dovrebbe essere una architettura per il rilancio in ambito server.
1) Un core Zen ha più o meno gli stessi transistors di un modulo BD/XV...
2) Da quello che si sa, a parità di clock si ha un +40% in ST e più o meno lo stesso, se non poco di meno, in MT.
3) A parità di transistors e quindi di area, si hanno più o meno gli stessi thread
4) Se il clock fosse inferiore o uguale, si avrebbe un througput inferiore con più o meno gli stessi transistors...

Per una architettura orientata ai server sarebbe una sconfitta... Tanto varrebbe fare uno shrink di XV...

Perciò Zen DEVE avere un FO4 più basso, per sperare di avere un clock più alto e quindi un througput più alto...

Fare lo stesso risultato in MT non è da suicidio ma direttamente da seppellimento :O
Dubito che in amd ragionino a questo modo dopo il 2012, tanto valeva continuare con l'architettura modulare.

Free Gordon
25-07-2016, 18:18
Perchè si devono ostinare a prevedere un FO4 alto? Perchè altrimenti si supererebbe INTEL?

Probabilmente vedendo i 2.8 dell'ES, si aspettano frequenze di base sui 3.2/3.4 per i primi Zen commercializzati. Ergo FO4 alto..e IPC massiccio.....