View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller
george_p
04-09-2015, 09:03
Tanto amd non ha precisato nulla ma... e se il +40% di ipc fosse riferito a modulo piuttosto che a singolo core?
Cosa cambierebbe?
Ossia, un core +SMT è superiore del 40% rispetto a un core + CMT.
Mmh forse è troppo per amd? :D
Ma tanto mi pare che con le cpu intel siamo davvero a questi livelli di differenza (da SB).
Un approccio con SMT forse permetterebbe di guadagnare in consumo rispetto a quello con CMT.
Intel a "parità" di silicio offre un quadcore con SMT e scheda grafica integrata mentre amd offre solo due moduli cioè due core + CMT ciascuno in una APU.
SB è se non erro sui 32 nm poi traslitterato sui 22nm in Ivy Bridge, sui 28 nm Bulk (bulk come quelli intel) siamo sempre 1 core + CMT e IGP, da li non si scappa.
Amd ha una gpu integrata più complessa e ok ma 4 moduli proprio non riesce a ficcarceli e un sistema SMT non ce l'ha.
george_p
04-09-2015, 09:10
Riguardando la slide sono segnati "bulldozer core" "excavator core" e "ZEN core"... quindi se la slide è precisa è a core.
paolo.oliva2
04-09-2015, 10:19
Paolo, ricordiamo che noi stiamo speculando, semplicemente speculando.
E soprattutto che senza l'uscita di Zen non abbiamo certezza alcuna ma solo speranze, ipotesi e opinioni.
Quindi ciò che stiamo scrivendo è frutto di ogni pensiero individuale senza riscontro con la realtà.
Io non discutono su questo né tantomeno su Zen.
Discuto solamente sul fatto che se per ricercare più IPC si perda una buona fetta di potenza MT, non ne vedo alcun senso.
Ti faccio un esempio pratico:
Un 5960X ha lo stesso IPC, ma un X8 viaggia a 3GHz, un X6 a 3,5GHz ed un X4 a 4GHz.
Lasciamo stare i turbo, perché nell'uso consono al tipo di procio, entrerà in funzione in base al carico e mi sembra palese che un uso di un X6 e X8 il carico minimo sarebbe superiore a quello che si compra un X4.
Quindi la potenza a core è IPC x 4GHz per un X4, IPC x 3,5GHz per un X6 ed IPC x 3GHz per un X8.
La discussione è incentrata sul fatto che AMD deve aumentare la potenza a core, e qui concordiamo tutti, per aumentare la potenza totale.
È chiaro che se faccio il confronto con un 8350, ci aumento di un 65% l'IPC ed in più guadagno un 30% a core per l'SMT, il tutto risparmiando transistor confronto ad Excavator, non posso che concordare, altrimenti sarei idiota.
Ma se Zen comunque resterebbe indietro ad Intel nell'IPC (e presumo i soliti bench idioti sugli FPS con risoluzioni assurde per i monitor in commercio e/o con CF da 3000¢, per poi stare pure sotto ad un i7 X6, dopo aver speso un pacco di soldi, che a me poco importa che AMD li abbia spesi, ma, purtroppo, se li ha spesi si sommeranno al costo procio, questo si che mi importa.
Un Excavator X12, magari funzionante a 4GHz, e cioè a +33% rispetto ad un 5960X, unito al 50% di core in più, proposto ad un prezzo nettamente inferiore rispetto ad un Zen X8, io lo vedrei più competitivo, perché comunque Zen dando tutto per scontato avrebbe +40% a core e +30% per l'SMT, quindi verrebbe al max 182 a core, che per 8 core farebbe 1456, contro un Excavator X12 che farebbe 1200
E questo è tutto al massimo, perché presumibilmente Zen non potrebbe avere la stessa frequenza di un Ex, quindi già con Zen a 3,5GHz e EX a 4GHz, andrebbe più Ex in MT.
Inoltre non rriesco ad inquadrare quale strategia adotti AMD nei server, perché partendo da un X8 che potenzialmente non può arrivare ad un X8 Intel, e 95W massimi non lasciano sperare che le frequenze siano spremute per ovviare ad un IPC inferiore, di fatto avrebbe un tetto max di X16 (2 die).
Per contro, un BD X16 nativo che forse nei 140W ci potrebbe stare bene, che magari con tutte le features di risparmio introdotte da AMD potrebbe girare a 3GHz, sarebbe un vero mostro diventando un X32 come doppio die.
È questo che non capisco... Zen deve partire come Opteron, e come Opteron deve avere la potenza MT, quindi non capisco il senso di ovviare al gap IPC per lottare contro i 6700K? E perdere comunque?
george_p
04-09-2015, 10:24
Certo che te lo permetto, ci mancherebbe altro... ma detta così ha tutto un altro senso rispetto a come l'avevi scritto prima. ;)
Anche se il termine "truffa" mi pare francamente esagerato.
Baio
Forse più che truffa è meglio parlare di "inganno" perché in ogni caso loro pubblicizzavano il cmt come più performante rispetto all'smt ma questo è vero se si considera ognuno di questi sistemi a se stante escludendo tutto il resto dell'architettura.
Difatti è vero che il cmt apporta maggiore potenza di calcolo al core col suo circa +70% rispetto all'smt che ne aggiunge circa +40% (di entrambi ho fatto una media) ma se alla fine mi abbassi di tanto l'ipc del core di base (-30% rispetto ai phenom) allora l'aumento del cmt risulta pressoché uguale a quello del cmt di intel, solo che intel mantiene un ipc più alto al quale aggiunge il miglioramento dell'smt.
Fino all'ultimo amd ha publicizzato i suoi BD come stracciaintel, ricordi quel bruttissimo video dove i ninja rossi (mi pare fossero ninja) combattevano contro i "cattivi" blu?
Poi hanno usato il marchio FX su questi processori quando non sono mai stati all'altezza, pessimo marketing sotto tutti i punti di vista.
E in ambito server? Hanno declassato/rovinato il marchio opteron.
Ecco l'inganno.
Ma come scritto ieri a me può importare "poco", è amd stessa che ci ha rimesso per mano di chi l'ha gestita dal 2007 fino ad allora.
Jones D. Daemon
04-09-2015, 10:37
Io non discutono su questo né tantomeno su Zen.
Discuto solamente sul fatto che se per ricercare più IPC si perda una buona fetta di potenza MT, non ne vedo alcun senso.
Ti faccio un esempio pratico:
Un 5960X ha lo stesso IPC, ma un X8 viaggia a 3GHz, un X6 a 3,5GHz ed un X4 a 4GHz.
Lasciamo stare i turbo, perché nell'uso consono al tipo di procio, entrerà in funzione in base al carico e mi sembra palese che un uso di un X6 e X8 il carico minimo sarebbe superiore a quello che si compra un X4.
Quindi la potenza a core è IPC x 4GHz per un X4, IPC x 3,5GHz per un X6 ed IPC x 3GHz per un X8.
La discussione è incentrata sul fatto che AMD deve aumentare la potenza a core, e qui concordiamo tutti, per aumentare la potenza totale.
È chiaro che se faccio il confronto con un 8350, ci aumento di un 65% l'IPC ed in più guadagno un 30% a core per l'SMT, il tutto risparmiando transistor confronto ad Excavator, non posso che concordare, altrimenti sarei idiota.
Ma se Zen comunque resterebbe indietro ad Intel nell'IPC (e presumo i soliti bench idioti sugli FPS con risoluzioni assurde per i monitor in commercio e/o con CF da 3000¢, per poi stare pure sotto ad un i7 X6, dopo aver speso un pacco di soldi, che a me poco importa che AMD li abbia spesi, ma, purtroppo, se li ha spesi si sommeranno al costo procio, questo si che mi importa.
Un Excavator X12, magari funzionante a 4GHz, e cioè a +33% rispetto ad un 5960X, unito al 50% di core in più, proposto ad un prezzo nettamente inferiore rispetto ad un Zen X8, io lo vedrei più competitivo, perché comunque Zen dando tutto per scontato avrebbe +40% a core e +30% per l'SMT, quindi verrebbe al max 182 a core, che per 8 core farebbe 1456, contro un Excavator X12 che farebbe 1200
E questo è tutto al massimo, perché presumibilmente Zen non potrebbe avere la stessa frequenza di un Ex, quindi già con Zen a 3,5GHz e EX a 4GHz, andrebbe più Ex in MT.
Inoltre non rriesco ad inquadrare quale strategia adotti AMD nei server, perché partendo da un X8 che potenzialmente non può arrivare ad un X8 Intel, e 95W massimi non lasciano sperare che le frequenze siano spremute per ovviare ad un IPC inferiore, di fatto avrebbe un tetto max di X16 (2 die).
Per contro, un BD X16 nativo che forse nei 140W ci potrebbe stare bene, che magari con tutte le features di risparmio introdotte da AMD potrebbe girare a 3GHz, sarebbe un vero mostro diventando un X32 come doppio die.
È questo che non capisco... Zen deve partire come Opteron, e come Opteron deve avere la potenza MT, quindi non capisco il senso di ovviare al gap IPC per lottare contro i 6700K? E perdere comunque?
Paolo scusa ma chi l'ha detto che Zen deve partire come Opteron? Se un'architettura è progettata per essere scalare, puoi realizzare prodotti che partono dai dual core fino ad arrivare anche a 18 core, esattamente come fa Intel. In ambito server avere cpu con doppio die o roba del genere serve a poco, molto meglio avere delle cpu efficienti e con un buon numero di core, tanto si possono realizzare sistemi anche con 8 socket, quindi anche se la cpu top di gamma Opteron basata su Zen avrà 16 core, un server 8 socket acrà 128 core (HT escluso). Sempre in ambito server c'è l'altra parte della medaglia: che applicazione dovrà girare? Un qualcosa che richiedi molti thread anche se poco potenti (cpu con molti core ma a bassa frequenza) o un'applicazione che richiedi pochi thread ma veloci (meno core ma frequenza più alta)? Se AMD vuole riprendere qualcosa del mercato server deve progettare ZEN con alto IPC e scalare, così da poter avere nel settore desktop con con 8 core ad alto ipc, e nel mercato server un'architettura flessibile che riesce a coprire tutti gli scenari. Se punta ancora una volta solo ad un'architettura che va bene solo in MT ma con un IPC scarso (come minimo deve pareggiare l'IPC degli Ivy, meglio ancora se Hashwell) dal fail di bulldozer non hanno imparato nulla. Va bene farà anche figo leggere X32 sulla scatola e vedere tutti quei thread nel task manager del pc, e potrebbe andare bene anche per server quali apache o mysql che richiedono molti thread a "bassa potenza", ma per tutti gli altri usi sarebbe ancora un disastro.
paolo.oliva2
04-09-2015, 10:54
@gridracedriver
È proprio sul discorso efficienza che ho dei dubbi.
Concordo che per il software attuale un 6700k sia più efficiente a sfruttare il software, ma parlando di proci a 8TH, perché il CMT rende meglio dell'SMT quando aumentano i TH.
Quindi la competività ci sarebbe quando il silicio permettesse ad AMD di uguagliare in moduli quello che Intel riesce a fare in core.
Da notare che il rapporto 1m AMD = 1c Intel era valido con l'IPC Piledriver, con Excavator basterebbero già 6m = 8c.
Con il 16nm AMD avrebbe la possibilità tangibile di riuscire a proporre un numero di moduli 6 vs 8 core, e se rivedesse la logica del turbo, potrebbe spremere 500MHz in più.
Passare dai 4,2GHz turbo ai 4,7/4,8GHz, unito all'aumento di IPC Pile-Ex, sarebbe comunque un +35/40%, ma con un MT su X12 di tutto rispetto.
Invece per la seconda volta AMD farebbe il salto nuova architettura + nuovo silicio, con possibilità di fare il bis 8150,
Il mio non è un discorso AMD vs Intel o CMT vs SMT, è che un CMT sul 16nm stravolgerebbe tutto, mentre voltare pagina, anche se giudico AMD migliore come inventiva, fantasia e capacità innovative rispetto ad Intel, non vedo alcuna possibilità lato attuazione di copiare quello che Intel ha fatto in 15 anni in soli 2 anni, su un silicio al buio e con tutti i prb lato I/O che AMD ha cronici (predizione, velocità cache e quant'altro) che oltretutto oltre a progettare bisogna anche implementare su un silicio che non si conosce... Onestamente AMD in questo è stata sempre sfigata... Quindi quante probabilità ci sarebbero?
george_p
04-09-2015, 11:04
Fammi capire... viviamo in un mondo in cui in tv reclamizzano macchine che cadono in verticale dal cielo senza farsi un graffio e donne forse neanche reali (ma arrapantissime) che si spruzzano nuvole di profumi e ci mettiamo a disquisire sugli annunci di AMD?
Hai mai visto una pubblicità che non fosse ingannevole? :read:
No no, ti sbagli, oltre ad AMD ci hanno rimesso tutti i consumatori... ma non nel senso che le CPU che hanno acquistato sono buone giusto per farci la zeppa alle scrivanie che sdindellano, ma nel senso che se Intel ed AMD fossero in concorrenza vera, tutti spenderemmo di meno.
Baio
Va bene, dimentica ciò che ho scritto sullo spot resta sempre il fatto che tramite suo ceo D.M. e non solo lui amd sbandierava come migliore un sistema a 8 cores veri rispetto a quelli intel. Che poi se andiamo a vedere non si possono definire 8 cores interi visto che il cmt ne stronca col suo 70/80% la potenza o ipc o quel cavolo che è e il resto dell'architettura in BD ne perde altro 30%.
Per la seconda frase che quoto è conseguenza di questa pessima gestione in amd.
george_p
04-09-2015, 11:15
Io non discutono su questo né tantomeno su Zen.
Discuto solamente sul fatto che se per ricercare più IPC si perda una buona fetta di potenza MT, non ne vedo alcun senso.
Ti faccio un esempio pratico:
Un 5960X ha lo stesso IPC, ma un X8 viaggia a 3GHz, un X6 a 3,5GHz ed un X4 a 4GHz.
Lasciamo stare i turbo, perché nell'uso consono al tipo di procio, entrerà in funzione in base al carico e mi sembra palese che un uso di un X6 e X8 il carico minimo sarebbe superiore a quello che si compra un X4.
Quindi la potenza a core è IPC x 4GHz per un X4, IPC x 3,5GHz per un X6 ed IPC x 3GHz per un X8.
La discussione è incentrata sul fatto che AMD deve aumentare la potenza a core, e qui concordiamo tutti, per aumentare la potenza totale.
È chiaro che se faccio il confronto con un 8350, ci aumento di un 65% l'IPC ed in più guadagno un 30% a core per l'SMT, il tutto risparmiando transistor confronto ad Excavator, non posso che concordare, altrimenti sarei idiota.
Ma se Zen comunque resterebbe indietro ad Intel nell'IPC (e presumo i soliti bench idioti sugli FPS con risoluzioni assurde per i monitor in commercio e/o con CF da 3000¢, per poi stare pure sotto ad un i7 X6, dopo aver speso un pacco di soldi, che a me poco importa che AMD li abbia spesi, ma, purtroppo, se li ha spesi si sommeranno al costo procio, questo si che mi importa.
Un Excavator X12, magari funzionante a 4GHz, e cioè a +33% rispetto ad un 5960X, unito al 50% di core in più, proposto ad un prezzo nettamente inferiore rispetto ad un Zen X8, io lo vedrei più competitivo, perché comunque Zen dando tutto per scontato avrebbe +40% a core e +30% per l'SMT, quindi verrebbe al max 182 a core, che per 8 core farebbe 1456, contro un Excavator X12 che farebbe 1200
E questo è tutto al massimo, perché presumibilmente Zen non potrebbe avere la stessa frequenza di un Ex, quindi già con Zen a 3,5GHz e EX a 4GHz, andrebbe più Ex in MT.
Inoltre non rriesco ad inquadrare quale strategia adotti AMD nei server, perché partendo da un X8 che potenzialmente non può arrivare ad un X8 Intel, e 95W massimi non lasciano sperare che le frequenze siano spremute per ovviare ad un IPC inferiore, di fatto avrebbe un tetto max di X16 (2 die).
Per contro, un BD X16 nativo che forse nei 140W ci potrebbe stare bene, che magari con tutte le features di risparmio introdotte da AMD potrebbe girare a 3GHz, sarebbe un vero mostro diventando un X32 come doppio die.
È questo che non capisco... Zen deve partire come Opteron, e come Opteron deve avere la potenza MT, quindi non capisco il senso di ovviare al gap IPC per lottare contro i 6700K? E perdere comunque?
E che ti posso rispondere Paolo?
Amd ha dichiarato un +40% di ipc rispetto a excavator mica ha parlato se il resto dell'architettura funziona meglio o peggio di BD e seguenti o di quelle intel.
Posso solo pensare, come fossi io al loro posto, che se hanno abbandonato il cmt per l'smt lo hanno fatto valutando tutti i pro e contro visto che con BD hanno preso una bella batosta a 360°.
Col cmt hanno fatto scendere di potenza ogni core del 20% aggiungi altro -30% di ipc rispetto a precedente loro cpu e siamo a circa 50%... dove cavolo andiamo col 50% di ipc a core?
Con excavator saranno già arrivati al limite o quasi dello sfruttamento architetturale, dopo un X12 che processo produttivo ha bisogno questo approccio? Del 3 nm?
Ma alla fine non ho manco voglia di perdermi in calcoli che tanto senza pratica servono a nulla.
Dura aspettare Zen.
AceGranger
04-09-2015, 13:31
Paolo scusa ma chi l'ha detto che Zen deve partire come Opteron? Se un'architettura è progettata per essere scalare, puoi realizzare prodotti che partono dai dual core fino ad arrivare anche a 18 core, esattamente come fa Intel. In ambito server avere cpu con doppio die o roba del genere serve a poco, tanto si possono realizzare sistemi anche con 8 socket
in linea teorica si, ma il linea pratica AMD ha sempre utilizzato la strada del doppio die perchè non ha abbastanza numeri per poter seguire la strada di Intel.
Intel puo permettersi di fare piu CPU monolitiche perchè tanto poi di CPU Xeon ne vende a vagonate; AMD non ha i numeri per fare troppe varianti di CPU monolitiche quindi ha sempre optato per il doppio die affiancato.
il fatto poi che si possano mettere 8 socket non è un deterrente al fatto di mettere piu core a CPU, anche perchè i costi con i multisocket salgono esponenzialmente.
Jones D. Daemon
04-09-2015, 13:43
in linea teorica si, ma il linea pratica AMD ha sempre utilizzato la strada del doppio die perchè non ha abbastanza numeri per poter seguire la strada di Intel.
Intel puo permettersi di fare piu CPU monolitiche perchè tanto poi di CPU Xeon ne vende a vagonate; AMD non ha i numeri per fare troppe varianti di CPU monolitiche quindi ha sempre optato per il doppio die affiancato.
il fatto poi che si possano mettere 8 socket non è un deterrente al fatto di mettere piu core a CPU, anche perchè i costi con i multisocket salgono esponenzialmente.
Mettere più core in un singolo die della cpu è una storia, mettere due die affiancati sullo stesso package è un'altra. Mettere 2 o più die sullo stesso package crea cali di performance dati dalle interconnessioni dei die stessi. Le prime cpu dual-core erano appunto die differenti montati sullo stesso package, e le prestazioni confrontandole con le successive cpu dual-core a die monolitico erano pessime. Dato che AMD non ha le risorse per progettare una cpu a doppio die scarterei questa ipotesi in favore di desktop ad 8 core massimo e server a 16 core con un numero di socket alto per server.
plainsong
04-09-2015, 13:58
in CB15 a 4.0ghz Zen (con tutto 40%) dovrebbe fare a 129 mentre, a spanne sandy bridge farebbe un 138, quindi ancora un 7% di meno, però questo caso è quello favorevole (vedi mio post precedente)
Da notare che in un caso decisamente meno ottimistico, ad es. stimando per un eventuale x8/16 threads@4 Ghz tubo on un risultato single cpu di 122 punti in cinebench r15 (quindi "solo" +30% di ipc sul singolo thread rispetto a Steamroller@4 Ghz senza cache l3, che di suo su anandtech si attesa a 94), in multi cpu con smt=+12% @3.6 Ghz arriveremmo a 985 punti. Una simile cpu avvicinerebbe comunque la fascia Extreme di Intel, segnando in multi un -5,5% sull' i7 4930K (su anandtech 1043 punti multi, 140 single, turbo on).
Un x6/12 threads, con i suoi 122 punti in single @4 Ghz e 820 in multi @3.8 Ghz, sarebbe competitivo con un 4770k (156 single, 791 multi).
AceGranger
04-09-2015, 14:03
Mettere più core in un singolo die della cpu è una storia, mettere due die affiancati sullo stesso package è un'altra. Mettere 2 o più die sullo stesso package crea cali di performance dati dalle interconnessioni dei die stessi. Le prime cpu dual-core erano appunto die differenti montati sullo stesso package, e le prestazioni confrontandole con le successive cpu dual-core a die monolitico erano pessime. Dato che AMD non ha le risorse per progettare una cpu a doppio die scarterei questa ipotesi in favore di desktop ad 8 core massimo e server a 16 core con un numero di socket alto per server.
guarda che è quello che ha sempre fatto perchè costa meno; sia gli Opteron basati sul Phenom II sia quelli basati su Bulldozer sono 2 die affiancati, ed è quello che fara molto probabilmente anche con Zen.
se faranno desktop a 8 core le CPU Server sarnno al 99% due die 8 core affiancati
Free Gordon
04-09-2015, 14:37
Chiedo se hai maggiori informazioni sulla costruzione di una cache e non parlo del pp ma del progetto. Come nasce e come funziona?
Ricordo discussioni di bjt2 e di Yossarian sull'argomento cache, ricordo che rispetto ad Intel, già era P4, AMD aveva un gap in quel settore. Velocità intesa proprio come clock raggiungibili e, ovvio, integrazione all'interno della pipeline ;)
Free Gordon
04-09-2015, 14:41
(non c'è intel cattiva e amd buona ma prestigio e predominio del momento).
hmmm beh... :stordita:
AMD non è buona perché non esiste l'azienda "buona"... :nonio:
Ma Intel è proprio cattivella eh... :D è stata anche multata per pratiche scorrette. Purtroppo troppo poco per i danni che ha fatto imho.
george_p
04-09-2015, 15:00
Ricordo discussioni di bjt2 e di Yossarian sull'argomento cache, ricordo che rispetto ad Intel, già era P4, AMD aveva un gap in quel settore. Velocità intesa proprio come clock raggiungibili e, ovvio, integrazione all'interno della pipeline ;)
Quel gap probabilmente lo hanno colmato con i brevetti degli ultimi due/tre anni.
hmmm beh... :stordita:
AMD non è buona perché non esiste l'azienda "buona"... :nonio:
Ma Intel è proprio cattivella eh... :D è stata anche multata per pratiche scorrette. Purtroppo troppo poco per i danni che ha fatto imho.
Si, probabilmente avrei dovuto utilizzare termini diversi da buono e cattivo per il mio esempio.
paolo.oliva2
04-09-2015, 16:55
Mettere più core in un singolo die della cpu è una storia, mettere due die affiancati sullo stesso package è un'altra. Mettere 2 o più die sullo stesso package crea cali di performance dati dalle interconnessioni dei die stessi. Le prime cpu dual-core erano appunto die differenti montati sullo stesso package, e le prestazioni confrontandole con le successive cpu dual-core a die monolitico erano pessime. Dato che AMD non ha le risorse per progettare una cpu a doppio die scarterei questa ipotesi in favore di desktop ad 8 core massimo e server a 16 core con un numero di socket alto per server.
Ma oltre a questo, c'è pure un altro problema. Se fai un procio server, deve avere l'I/O da server, deve avere cache da server e non puoi levare la L3. Quindi ti aumentano i costi produzione, che sarebbero armortizzati ovviamente a seconda del posizionamento desktop. Con gli FX c'era un accordo AMD/GF dove GF pagava solo i proci idonei alla vendita e li pagava in proporzione se X4, X6 e X8 e relative frequenze def. Ma è presumibile che Zen abbia un numero di transistor superiore agli FX, perché anche se sembra abbia cache L2 e L1 inferiori agli FX, avrà l'SMT, il PCI integrato e le ALU (almeno la FP) il doppio più grande ed essendo non condivisa praticamente 4 volte quella del modulo FX, indubbiamente sarà a 16nm, ma di certo non rodato quanto il 32nm SOI che sono 5 anni che produce.
Jones D. Daemon
04-09-2015, 18:15
Ma oltre a questo, c'è pure un altro problema. Se fai un procio server, deve avere l'I/O da server, deve avere cache da server e non puoi levare la L3. Quindi ti aumentano i costi produzione, che sarebbero armortizzati ovviamente a seconda del posizionamento desktop. Con gli FX c'era un accordo AMD/GF dove GF pagava solo i proci idonei alla vendita e li pagava in proporzione se X4, X6 e X8 e relative frequenze def. Ma è presumibile che Zen abbia un numero di transistor superiore agli FX, perché anche se sembra abbia cache L2 e L1 inferiori agli FX, avrà l'SMT, il PCI integrato e le ALU (almeno la FP) il doppio più grande ed essendo non condivisa praticamente 4 volte quella del modulo FX, indubbiamente sarà a 16nm, ma di certo non rodato quanto il 32nm SOI che sono 5 anni che produce.
Permettimi ma hai le idee un po confuse. La cache l3 con i sottosistemi di i/o non c'entra assolutamente nulla. Una si occupa di tenere in memoria i dati elaborati o in attesa di elaborazione della CPU, gli altri sistemi spostano e immagazzinano dati in altre parti del sistema. In ambito server per avere alti i/o si usano svariate tecniche, che utilizzano cache flash, acceleratori di storage, interconnessioni ad alta velocita...c'è un mondo dietro, ma è completamente separato dalla cache della CPU. L'i/o da server (che si definisce enterprise) lo si raggiunge utilizzando un'insieme di tecnologie adatte, non con o senza la l3. E questo è un altro punto in cui AMD deve investire, deve per forza aggiornare i suoi chipset, che oramai integrano tecnologie vecchissime, e si affidano a chip di terze parti per quasi ogni cosa, e le prestazioni ne risentono.
Inviato dal mio ASUS_Z00A utilizzando Tapatalk
paolo.oliva2
04-09-2015, 18:16
Vado un po' OT.
Nel confronto con Intel, dando un'occhiata all:'offerta momentanea di Intel, per me è un suicidio fargli la guerra con la stessa tipologia.
Non solo sono a 14nm e comunque il silicio gli permette frequenze def attorno ai 4GHz (quindi difficile nel caso di IPC inferiore da bilanciare con frequenze superiori), ma ha realizzato dei die su misura per sfruttare tutto il TDP possibile.
AMD ha gli APU BD ancora a 28nm, Zen che sarebbe a 16nm ma ancora da quantificarne la potenza ed al momento sul mercato mobile (dove gli APU AMD sono più competitivi), una miriade di svendite i5/i7 mobile a prezzi inferiori ai Carrizo.
Per essere competitiva AMD, non dovrebbe mettere sul mercato uno Zen che se la vedrebbe con gli X4+4 Intel, ma obbligatoriamente competitivo verso gli i7 X6 e superiori.
Mah... io la vedo dura per AMD
cut...
Anche se il termine "truffa" mi pare francamente esagerato.
Baio
Mica tanto. E' regolare truffa ai danni dell'acquirente, punto. Se io adesso vado sul mercatino di questo forum, vendo un notebook presentandolo con una cpu i7 skylake, tu lo compri, ti arriva a casa e ti accorgi che la cpu è un i5 sandy bridge, me lo chiedi il rimborso ? O ti accontenti di quello che hai ricevuto ? Potrai anche rispondermi: "beh dipende quanto lo pagato" .. caxxate, me lo chiederai il rimborso lo stesso. Tanto per iniziare bd costava oltre 250 euro al debutto (quasi quanto gli i7 di quel periodo), seconda cosa anche se spendi non molto, ti senti comunque preso per il culo e ti incazzi, c'è poco da fare. Ecco molti utenti (compresi me) si sono incazzati ma comunque sono rimasti soddisfatti della propria cpu (in base al mio/loro utilizzo). Meno male che io non sono un hard_gamer, altrimenti erano per me caxxi amari. Infatti in quel periodo molti pro gamer vendettero il loro Zambesi per un I7. Ora, partiamo dal presupposto che sono simpatizzante di AMD (è questo mi sembra già scontato a molti), ma negare le evidenze è da chi vuole difendere robe che neppure gli competono in interessi.
Tutte le propagande sono ingannevoli, è nei nostri giorni quotidiani compriamo tanta roba che ha avuto una pubblicità ingannevole in precedenza. Ma c'è modo e modo di propagandare il falso. Un conto è che dico che la cpu è 100 e poi va a 90, un altro conto è dire che è 100 e va a 60, pagandola per 85.
Tu potrai pensarla a modo tuo, ma per me rimane "truffa". Attenzione, è ricevere truffa anche comprando gli iphone per quello che sono e per il prezzo che hanno, questo per dire che non è stata solo amd a fare ciò, anzi amd l'ha fatto solo una volta nella sua vita, ci sono aziende di elettronica che vivono di evidente e spacciata propaganda ingannevole. Vanno avanti perchè i lobotomizzati nel mondo superano la gente normale. ;)
paolo.oliva2
04-09-2015, 18:37
Permettimi ma hai le idee un po confuse. La cache l3 con i sottosistemi di i/o non c'entra assolutamente nulla. Una si occupa di tenere in memoria i dati elaborati o in attesa di elaborazione della CPU, gli altri sistemi spostano e immagazzinano dati in altre parti del sistema. In ambito server per avere alti i/o si usano svariate tecniche, che utilizzano cache flash, acceleratori di storage, interconnessioni ad alta velocita...c'è un mondo dietro, ma è completamente separato dalla cache della CPU. L'i/o da server (che si definisce enterprise) lo si raggiunge utilizzando un'insieme di tecnologie adatte, non con o senza la l3. E questo è un altro punto in cui AMD deve investire, deve per forza aggiornare i suoi chipset, che oramai integrano tecnologie vecchissime, e si affidano a chip di terze parti per quasi ogni cosa, e le prestazioni ne risentono.
Inviato dal mio ASUS_Z00A utilizzando Tapatalk
Il mio era un discorso globale, per I/O intendevo una struttura sia più efficiente che predisposta al collegamento ad altri proci (cosa che in un APU AMD non esiste),la L3 la puoi anche togliere nel Desktop (esempio Llano, Trinity, Kaveri e Carrizo), ma se riciclo un procio server dove la L3 deve esistere e manco piccola, come ad esempio tutti gli FX come anche X4, ne hanno 8MB di L3.
Il tutto, assieme, pesa e non poco, perché oltre a far lievitare il costo del die, produce una zavorra di TDP in più tutt'altro che esigua.
Tutto il resto che hai scritto è ovviamente più che giusto, ma per rientrare in tema, un 6700k è un procio desktop, con una circuiteria idonea al desktop. Uno Zen avrebbe si circa lo stesso TDP, ma per natura avrebbe le caratteristiche di un i7 socket 2011 che viaggia a 140W non solamente per 2 core in più, ma per tutto il resto.
Io non conosco bene le caratteristiche degli Intel, ma Zen essendo Opteron (al 99,99%), e stando a X8+8, dovrebbe confrontarsi con un 5960X, cosa che reputo impossibile, ma pure gli i7 X6 avrebbero 40W TDP in più, quindi va bene 16nm vs 22nm, ma a voler essere ottimisti sarebbe pure difficile pareggiare in prestazioni con questi. Se a ciò consideri che un i7 X6 entry-level costa meno di un 6700k, dove cavolo vuole andare AMD?
paolo.oliva2
04-09-2015, 18:56
Mica tanto. E' regolare truffa ai danni dell'acquirente, punto. Se io adesso vado sul mercatino di questo forum, vendo un notebook presentandolo con una cpu i7 skylake, tu lo compri, ti arriva a casa e ti accorgi che la cpu è un i5 sandy bridge, me lo chiedi il rimborso ? O ti accontenti di quello che hai ricevuto ? Potrai anche rispondermi: "beh dipende quanto lo pagato" .. caxxate, me lo chiederai il rimborso lo stesso. Tanto per iniziare bd costava oltre 250 euro al debutto (quasi quanto gli i7 di quel periodo), seconda cosa anche se spendi non molto, ti senti comunque preso per il culo e ti incazzi, c'è poco da fare. Ecco molti utenti (compresi me) si sono incazzati ma comunque sono rimasti soddisfatti della propria cpu (in base al mio/loro utilizzo). Meno male che io non sono un hard_gamer, altrimenti erano per me caxxi amari. Infatti in quel periodo molti pro gamer vendettero il loro Zambesi per un I7. Ora, partiamo dal presupposto che sono simpatizzante di AMD (è questo mi sembra già scontato a molti), ma negare le evidenze è da chi vuole difendere robe che neppure gli competono in interessi.
Tutte le propagande sono ingannevoli, è nei nostri giorni quotidiani compriamo tanta roba che ha avuto una pubblicità ingannevole in precedenza. Ma c'è modo e modo di propagandare il falso. Un conto è che dico che la cpu è 100 e poi va a 90, un altro conto è dire che è 100 e va a 60, pagandola per 85.
Tu potrai pensarla a modo tuo, ma per me rimane "truffa". Attenzione, è ricevere truffa anche comprando gli iphone per quello che sono e per il prezzo che hanno, questo per dire che non è stata solo amd a fare ciò, anzi amd l'ha fatto solo una volta nella sua vita, ci sono aziende di elettronica che vivono di evidente e spacciata propaganda ingannevole. Vanno avanti perchè i lobotomizzati nel mondo superano la gente normale. ;)
Questa è grande per quanto, purtroppo,è la sacrosanta verità.
Onestamente a me dà più fastidio un test-bench taroccato rispetto alla pubblicità ingannevole, perché ad occhio e croce una certa esperienza l'ho e di conseguenza un prezzo/prestazioni lo faccio in autonomia. I bench taroccati, invece, sono più difficili da inquadrare perché per smascherarli devi avere già acquistato il tutto e quindi dirottano l'acquisto ingiustamente.
Tornando indietro, ti posso dire che acquistare un 8150 è stato un mix tra buona fede verso AMD e presunzione verso i benché di parte, anche se, tutto sommato, io la mobo AM3+ l'avevo già e quindi al più non era un confronto tra 8150 vs 2600k ma tra Thuban e 8150... Dove un 8150 costava non tanto di più di un Thuban.
L'8320 come il 6350 mi sembra siano stati i proci con il migliore prezzo/prestazioni di sempre. OK prestazioni inferiori rispetto alla pubblicità, ma una cosa è pagare un prezzo in base alla pubblicità, un altro il prezzo reale ie più conveniente in base alle prestazioni, poi una cosa è il prezzo al D-Day, un'altra 1 mese dopo.
Siamo in parecchi ad aspettare Zen, per i più svariati motivi, ma credo che in via di massima sia per pagare meno del prezzo attuale le prestazioni, vuoi per un Zen a prezzo più basso, vuoi per un abbassamento del listino Intel di conseguenza, quindi alla fine ha più importanza la pubblicità ingannevole o gonfiata di AMD (che poi fanno tutti, alla fine) o che AMD non esista?
Jones D. Daemon
05-09-2015, 10:24
Il mio era un discorso globale, per I/O intendevo una struttura sia più efficiente che predisposta al collegamento ad altri proci (cosa che in un APU AMD non esiste),la L3 la puoi anche togliere nel Desktop (esempio Llano, Trinity, Kaveri e Carrizo), ma se riciclo un procio server dove la L3 deve esistere e manco piccola, come ad esempio tutti gli FX come anche X4, ne hanno 8MB di L3.
Il tutto, assieme, pesa e non poco, perché oltre a far lievitare il costo del die, produce una zavorra di TDP in più tutt'altro che esigua.
Tutto il resto che hai scritto è ovviamente più che giusto, ma per rientrare in tema, un 6700k è un procio desktop, con una circuiteria idonea al desktop. Uno Zen avrebbe si circa lo stesso TDP, ma per natura avrebbe le caratteristiche di un i7 socket 2011 che viaggia a 140W non solamente per 2 core in più, ma per tutto il resto.
Io non conosco bene le caratteristiche degli Intel, ma Zen essendo Opteron (al 99,99%), e stando a X8+8, dovrebbe confrontarsi con un 5960X, cosa che reputo impossibile, ma pure gli i7 X6 avrebbero 40W TDP in più, quindi va bene 16nm vs 22nm, ma a voler essere ottimisti sarebbe pure difficile pareggiare in prestazioni con questi. Se a ciò consideri che un i7 X6 entry-level costa meno di un 6700k, dove cavolo vuole andare AMD?
Per favore lasciamo stare la fascia extreme, quella è la fascia che vende meno, e per ovvi motivi. Costa moltissimo e le prestazioni che offre servono all'1% degli utenti. AMD se vuole riprendersi anche finanziariamente deve costruire delle CPU anche x8 che possano rivaleggiare con gli i7, e devono reggere il confronto con questi ultimi in tutti i campi. Non solo in 7zip. In questo modo puoi vendere le tue cpu , anche le x6 e le x4, in tutte le fasce di prezzo. AMD potrebbe inoltre iniziare a tirare fuori una apu degna di questo nome, e potrebbe farlo in questo modo: dato il grosso salto di nodi previsto per il 2016, sia per le CPU ma sopratutto per le GPU, potrebbe tirare fuori una apu quad core zen + una GPU da 1280sp affiancata da 2gb di hbm, tutto nello stesso package...e non penso sia impossibile farlo. Una apu del genere coprirebbe quasi tutto il mercato, con una potenza tale da giovare a 1080p senza compromessi (non come oggi, i compromessi ci sono e come) con la possibilità di declinare l'offerta in apu con 1024sp o meno e con 1gb di hbm, oppure le apu entry-level utilizzerebbero le ddr4 di sistema.
Inviato dal mio ASUS_Z00A utilizzando Tapatalk
Free Gordon
05-09-2015, 10:51
ato il grosso salto di nodi previsto per il 2016, sia per le CPU ma sopratutto per le GPU, potrebbe tirare fuori una apu quad core zen + una GPU da 1280sp affiancata da 2gb di hbm, tutto nello stesso package...e non penso sia impossibile farlo. Una apu del genere coprirebbe quasi tutto il mercato, con una potenza tale da giovare a 1080p senza compromessi (non come oggi, i compromessi ci sono e come) con la possibilità di declinare l'offerta in apu con 1024sp o meno e con 1gb di hbm, oppure le apu entry-level utilizzerebbero le ddr4 di sistema.
D'accordo con te, tranne sulla memoria. Secondo me servirebbero 4GB di HBM per l'APU più veloce. ;)
Spero proprio di vedere un'apu del genere nei prox anni... l'ideale sarebbe averla già nel 2016! :)
Un'APU del genere cannibalizzerebbe tutto il mercato low e mainstream dei pc da gioco...sarebbe l'uovo di Colombo per AMD...
Del resto, un'APU con 1100 e rotti sp esiste già da anni...ed è dentro a PS4. Solo con una cpu più minuta...
Ma sui 16nm...con le HBM.... se non lo fanno SUBITO son dei fessi!
Mister D
05-09-2015, 12:19
Fammi capire... viviamo in un mondo in cui in tv reclamizzano macchine che cadono in verticale dal cielo senza farsi un graffio e donne forse neanche reali (ma arrapantissime) che si spruzzano nuvole di profumi e ci mettiamo a disquisire sugli annunci di AMD?
Hai mai visto una pubblicità che non fosse ingannevole? :read:
No no, ti sbagli, oltre ad AMD ci hanno rimesso tutti i consumatori... ma non nel senso che le CPU che hanno acquistato sono buone giusto per farci la zeppa alle scrivanie che sdindellano, ma nel senso che se Intel ed AMD fossero in concorrenza vera, tutti spenderemmo di meno.
Baio
Quotone!!! Ma per tutti gli altri che si lamentano del marketing di amd, ma vi rendete conto che qualsiasi forma di marketing è un'edulcorazione della verità perché siamo in una società capitalistica??? O forse non ve ne siete accorti? Ritorna il detto: Oste, com'è il TUO vino? Cosa pensate che vi risponda?? Dai svegliaaaaa!!! E che cavolo.
Poi vi lamentate di amd ma di nvidia o intel?
George_p ha scritto che nel 2007 amd "dominava" il mercato. Sì nelle prestazioni ma per colpa di chi non nelle quote di mercato? Qualcuno ha detto Intel?? Concorrenza sleale? Do you know???? Almeno abbiate la pietà di raccontarla tutta la storia se no sembra veramente che in amd siano masochisti puri:D
PS: e dell'accordo extragiudiziale in cui intel ha preteso la clausola in cui, se in futuro, amd dovesse superare una certa x% come quote di mercato, lei può tornare a operare con quelle pratiche commerciali (però con che coraggio intel definisce la concorrenza sleale solamente pratiche commerciali) e poi vi meravigliate che anche amd menta un pochino nel marketin???? Eddai su. E poi il CMT è superiore al SMT. Punto. Che poi applicato ad una cpu con scarsissimo ipc lo faccia risultare perdente rispetto all'applicazione del SMT sua una cpu con alto IPC è lapalissiano. La menzogna sta nell'aver sorvolato su questo aspetto. Ma quando andate a comprare una macchina credete davvero nei consumi che scrivono??? ah ah ah.
paolo.oliva2
05-09-2015, 14:03
Quoto tutti, ogni virgola.
Il CMT non ha nulla a che vedere con l'IPC di BD, salvo il -20% a modulo ma con il +50% con il 2° TH in più dell'SMT. Se poi l'IPC di partenza è del 50% inferiore è colpa del CMT? A cosa è dovuto, se non al CMT, se il modulo quasi pareggia su 2TH?
E parliamo sempre di un'architettura che è su un 32nm con PP non eccelso che si scontra con 22nm/14nm.
AceGranger
05-09-2015, 14:47
E parliamo sempre di un'architettura che è su un 32nm con PP non eccelso che si scontra con 22nm/14nm.
era impietoso anche il confronto con Sandy Bridge che stava sul 32nm.
Quoto tutti, ogni virgola.
Il CMT non ha nulla a che vedere con l'IPC di BD, salvo il -20% a modulo ma con il +50% con il 2° TH in più dell'SMT. Se poi l'IPC di partenza è del 50% inferiore è colpa del CMT? A cosa è dovuto, se non al CMT, se il modulo quasi pareggia su 2TH?
E parliamo sempre di un'architettura che è su un 32nm con PP non eccelso che si scontra con 22nm/14nm.
Infatti, secondo me, serviva un ipc di partenza più alto, ma ottenuto questo il cmt nn sarebbe stato da abbandonare... però mi chiedo se amd nn sia costretta ad abbandonarlo per via del cambio di comandante della nave, sia perchè cacciando il capo di quel progetto penso possano esserci problemi a portarlo avanti, sia perchè Keller sicuramente vuole portare avanti le sue idee... e nn quelle di altri :confused:
PS
guardando come gira il mondo, nn definirei quella di amd una truffa, la maggior parte delle pubblicità sono ingannevoli e spesso dichiarano cose nn vere... poi nello specifico nn si possono usare 2 metri e 2 misure, visto che con la clausola riportata da Mister D (a cui faccio i complimenti per il post) in pratica é stato legalizzato (almeno per lei) il comportamento per cui intel é stata multata, dandogli il consenso ad usare certi sistemi... se amd supera una certa quota :doh:
come dire che fra un ricco e un povero, se il povero raggiunge il 10% del ricco questo ha il permesso di rubargli :mbe:
;) ciauz
paolo.oliva2
05-09-2015, 22:20
Impietoso il 2600k vs 8150 o 8350/8370?
http://cpuboss.com/cpus/Intel-Core-i7-2600K-vs-AMD-FX-8350
7,9 in MT 8350 vs 8 2600k è impietoso, o il solito benck ST?
Il confronto Piledriver 32nm (meglio 8370) può reggere tranquillamente contro un 2600k, ed un X10 scartato avrebbe retto ben di più, ma è chiaro che mentre Intel ha realizzato il 3770k, 4770k e 6700k passando dal 32nm al 22nm e ora al 14nm, AMD è rimasta a Piledriver e sul 32nm... Non per problema di BD.
Comunque è difficile discutere, anche quando le cose migliori del CMT non si vogliono ammettere, come quella del carico che per 5 anni la si è sempre volutamente negata.
Impietoso il 2600k vs 8150 o 8350/8370?
http://cpuboss.com/cpus/Intel-Core-i7-2600K-vs-AMD-FX-8350
7,9 in MT 8350 vs 8 2600k è impietoso, o il solito benck ST?
Il confronto Piledriver 32nm (meglio 8370) può reggere tranquillamente contro un 2600k, ed un X10 scartato avrebbe retto ben di più, ma è chiaro che mentre Intel ha realizzato il 3770k, 4770k e 6700k passando dal 32nm al 22nm e ora al 14nm, AMD è rimasta a Piledriver e sul 32nm... Non per problema di BD.
Comunque è difficile discutere, anche quando le cose migliori del CMT non si vogliono ammettere, come quella del carico che per 5 anni la si è sempre volutamente negata.
Il CMT non è un un approccio architetturale idoneo per il desktop. E' inutile arrampicarsi sugli specchi. Adesso puoi elaborare anche altri 1200 post, ma la verità resta questa. Non lo dico perchè sono contro i tuoi ideali o contro amd, lo dico perchè è una realtà. Se poi a te piace la fantascienza, allora dillo che ci mettiamo d'accordo per una conversazione fantasy.
paolo.oliva2
05-09-2015, 23:06
Infatti, secondo me, serviva un ipc di partenza più alto, ma ottenuto questo il cmt nn sarebbe stato da abbandonare... però mi chiedo se amd nn sia costretta ad abbandonarlo per via del cambio di comandante della nave, sia perchè cacciando il capo di quel progetto penso possano esserci problemi a portarlo avanti, sia perchè Keller sicuramente vuole portare avanti le sue idee... e nn quelle di altri :confused:
PS
guardando come gira il mondo, nn definirei quella di amd una truffa, la maggior parte delle pubblicità sono ingannevoli e spesso dichiarano cose nn vere... poi nello specifico nn si possono usare 2 metri e 2 misure, visto che con la clausola riportata da Mister D (a cui faccio i complimenti per il post) in pratica é stato legalizzato (almeno per lei) il comportamento per cui intel é stata multata, dandogli il consenso ad usare certi sistemi... se amd supera una certa quota :doh:
come dire che fra un ricco e un povero, se il povero raggiunge il 10% del ricco questo ha il permesso di rubargli :mbe:
;) ciauz
Per me se Zen X8 avrà una potenza MT almeno simile a quella di un FX Excavator X12, ben venga l'aumento IPC, ma io non penso che l'IPC sia sempre la panacea.
Ad esempio io ho venduto l'i3 mobile per un Trinity, ed il Trinity ha meno IPC di un i3.
I miei parametri sono che un X12 Excavator sarebbe dell'80% più veloce di un 8350 almeno (IPC Piledriver 100 +20% e +50% di core). Benissimo, Zen aumenta l'IPC tanto quanto che un X8 Zen vada quanto un X12 Excavator? Benissimo. Ma se ad un IPC superiore devo perdere un 20% e più di potenza MT e di potenza di carico...
A me piace il 5960X, perché è un 16TH e anche se a 3GHz ha più boost a core di un 8350 a 4GHz. Un Excavator a 4GHz invece risulterebbe essere più potente a core (a parte il discorso turbo), e anche se 12TH arriverebbe vicino al 5960X e reggerebbe più carico.
Ora, sto procio se AMD lo vendesse, io non prendersi il 5960X. Se al posto invece producesse Zen con tanto di SMT per poi andare meno in MT di un i7 X6, personalmente io non lo vedrei migliore... Ma non perché voglio difendere il CMT, ma proprio perché non ci siamo.
Sarebbe come se io prendessimo un FX X8 e per avere più forza bruta a core, disabili tassi il 2° core di ogni modulo per aumentare l'IPC, e sfruttando il TDP inferiore lo occassi a +300MHz rispetto a X8... Per segarmi un 40% di potenza MT.
Qualcuno lo farebbe?
paolo.oliva2
05-09-2015, 23:57
Il CMT non è un un approccio architetturale idoneo per il desktop. E' inutile arrampicarsi sugli specchi. Adesso puoi elaborare anche altri 1200 post, ma la verità resta questa. Non lo dico perchè sono contro i tuoi ideali o contro amd, lo dico perchè è una realtà. Se poi a te piace la fantascienza, allora dillo che ci mettiamo d'accordo per una conversazione fantasy.
Allora tu preferisci un 2+2 (4 TH) ad un CMT 2m 4TH? Siamo in ambito desktop? Allora come puoi dire che io non capisco che il CMT non è adatto per desktop quando un CMT 4 TH è nettamente sopra ad un 4TH ma 2+2?
Prova a lavorare con un i3 mobile e poi con un Trinity (manco Kaveri o Carrizo) come mia esperienza e poi torna a dire che un CMT non va bene per desktop (inteso come pure mobile)
Il CMT di AMD ha un IPC basso ma non perché è il CMT la causa, ma perché i core impiegati nel CMT di AMD hanno di partenza un IPC basso.
Dove l'IPC non è influente (o per somma di IPC * frequenza) riduce la differenza, allora il CMT è più che valido.
Perché un 2m va meglio di un 2+2? Nel mobile, perche ad una frequenza penalizzante per il 2+2 ecco che il 2m (CMT) offre il carico maggiore, permettendo una fluidità ben più maggiore.
Il confronto 4m vs 4+4 è diverso perché tra IPC, frequenze di lavoro e carico, la differenza di forza bruta e un carico nel 4+4 comunque sufficiente, penalizzano il CMT.
Un'altra condizione desktop che si potrebbe creare, cioè quando la forza a core di un sistema SMT calerebbe, è ad esempio su un 5960X. Con una frequenza di 3GHz e 8+8, come si comporterebbe un CMT 8m o anche un 6m Excavator? Sono condizioni desktop o no?
P.S.
Io a te sto molto antipatico, le vedo le tue continue frecciatine... Invece per dire la verità tu mi stai simpatico e ti reputo competente, visto anche che da anni ormai non lavoro piu e per me è solamente hobby. Una volta hai detto bene, circa che io sono prevenuto su certi punti, e magari ci hai visto bene... Leggi quanto ho scritto e fai un punto: CMT con + IPC di quanto commercializzato con Pile (basta pure Ex), ed un silicio che conceda almeno moduli su un rapporto di 3 a 4 vs SMT, con una frequenza di un 10/15% superiore giusto per portare ad un -30% la differenza di potenza a core, per avere un vantaggio equivalente se non superiore (circa) nei 2TH, e poi trai le conclusioni, senza pregiudizi.
cut...
A me piace il 5960X, perché è un 16TH e anche se a 3GHz ha più boost a core di un 8350 a 4GHz. Un Excavator a 4GHz invece risulterebbe essere più potente a core (a parte il discorso turbo), e anche se 12TH arriverebbe vicino al 5960X e reggerebbe più carico.
Ora, sto procio se AMD lo vendesse, io non prendersi il 5960X. Se al posto invece producesse Zen con tanto di SMT per poi andare meno in MT di un i7 X6, personalmente io non lo vedrei migliore... Ma non perché voglio difendere il CMT, ma proprio perché non ci siamo.
Sarebbe come se io prendessimo un FX X8 e per avere più forza bruta a core, disabili tassi il 2° core di ogni modulo per aumentare l'IPC, e sfruttando il TDP inferiore lo occassi a +300MHz rispetto a X8... Per segarmi un 40% di potenza MT.
Qualcuno lo farebbe?
Non esiste processore AMD che riesce solo ad immaginarsi la potenza del 5960X. Un excavator a 4 ghz sarebbe un ulteriore fantomatica fantascienza di chi cerca di voler sfondare la potenza del socket 2011-v3 di Intel. Ragazzi scherzi a parte, non esiste allo stato attuale (tranne nella nostra immaginazione) chip che possa competere con questa fascia. Ma sai qual'è la cosa che mi fa ridere ? Che parlo come se fossi un Intellista, e per qualcuno risulto antipatico, caxxo sono un amdista...ma questa è una realtà...non va alterata... è la realtà ! Zen ? Secondo me neppure lui sfonderà le difese del socket 2011-v3. In questa fascia Intel fa chip troppo potenti per la concorrenza. Vi giuro, vorrei aver torto, vorrei vedere un AMD che gli rompe il culo ad Intel anche su quella fascia, ma non è cosi, e non sarà cosi neppure nel futuro...mi dispiace per me e per tanti altri...
Per me se Zen X8 avrà una potenza MT almeno simile a quella di un FX Excavator X12, ben venga l'aumento IPC, ma io non penso che l'IPC sia sempre la panacea.
Ad esempio io ho venduto l'i3 mobile per un Trinity, ed il Trinity ha meno IPC di un i3.
I miei parametri sono che un X12 Excavator sarebbe dell'80% più veloce di un 8350 almeno (IPC Piledriver 100 +20% e +50% di core). Benissimo, Zen aumenta l'IPC tanto quanto che un X8 Zen vada quanto un X12 Excavator? Benissimo. Ma se ad un IPC superiore devo perdere un 20% e più di potenza MT e di potenza di carico...
A me piace il 5960X, perché è un 16TH e anche se a 3GHz ha più boost a core di un 8350 a 4GHz. Un Excavator a 4GHz invece risulterebbe essere più potente a core (a parte il discorso turbo), e anche se 12TH arriverebbe vicino al 5960X e reggerebbe più carico.
Ora, sto procio se AMD lo vendesse, io non prendersi il 5960X. Se al posto invece producesse Zen con tanto di SMT per poi andare meno in MT di un i7 X6, personalmente io non lo vedrei migliore... Ma non perché voglio difendere il CMT, ma proprio perché non ci siamo.
Sarebbe come se io prendessimo un FX X8 e per avere più forza bruta a core, disabili tassi il 2° core di ogni modulo per aumentare l'IPC, e sfruttando il TDP inferiore lo occassi a +300MHz rispetto a X8... Per segarmi un 40% di potenza MT.
Qualcuno lo farebbe?
Nn ho mai avuto un trinity, ma ho un 860K e da quello che ho potuto vedere nn teme i confronti con i3 in mt, é vero che kaveri ha un ipc un po' più alto dei trinity, ma penso che anche gli i3 abbiano migliorato da quello che avevi te... quindi il rapporto dovrebbe essere molto simile.
Per il tuo uso una cpu con 16 thread può andare bene, ma la maggior parte della gente nn saprebbe cosa farne, già un FX 8 core é difficile da saturare... quando avevo l'UD3 io ho provato a disabilitare il secondo core dei moduli e oltre al fatto che se la mobo avesse avuto la stabilità della sabertooth in oc (la rev1 nn permette questa procedura) credo che avrei potuto tenerlo a 5ghz in daily, ti assicuro che se nn sfrutti più di 4 core il vantaggio c'é (ad esempio a cinebench 11.5 a 4,8ghz con 4 core su 2 moduli facevo 4,07 mentre alla stessa frequenza ma con 4 core su 4 moduli facevo 5,06... al bench F1 con 4 core su 4 moduli facevo una media di 110 fps e con 8 core di 111 fps), quindi dipende che uso ne fai.
Personalmente credo che l'ipc sia fondamentale per la potenza ST, ma é molto utile anche per quella MT e viste le caratteristiche del CMT agli FX sarebbe bastato anche un po' più basso di quello intel, a parità di thread, per primeggiare in MT... almeno con le cpu con HT, cioé 4xxx vs i3 e 8xxx vs i7 mentre con gli i5 i 6xxx avrebbero potuto dire la loro grazie ai 2 core in più... ma avendolo troppo basso riescono a dire la loro solo sotto carichi molto pesanti, grazie alla loro unica caratteristica buona.
;) ciauz
AceGranger
06-09-2015, 00:49
Impietoso il 2600k vs 8150 o 8350/8370?
http://cpuboss.com/cpus/Intel-Core-i7-2600K-vs-AMD-FX-8350
7,9 in MT 8350 vs 8 2600k è impietoso, o il solito benck ST?
Il confronto Piledriver 32nm (meglio 8370) può reggere tranquillamente contro un 2600k, ed un X10 scartato avrebbe retto ben di più, ma è chiaro che mentre Intel ha realizzato il 3770k, 4770k e 6700k passando dal 32nm al 22nm e ora al 14nm, AMD è rimasta a Piledriver e sul 32nm... Non per problema di BD.
solito bench ST ? non so è, ma quasi tutto quello che usa la gente normale ha task principalmente ST.... e non è che perchè in qualche bench MT lo raggiunge allora "tiene botta"...
l'FX8350 sta comunque sotto con un'abnorme area di 315mm2 contro i miseri 216mm2 del 2600K con in piu il controller PCI-EX e la GPU.... come possa anche solo essere lontanamente buono il CMT lo vedi solo tu, e non tiratre in ballo la solita scusa del silicio è, perche anche a 5GHz ha prestazioni mediocri e non va minimamente quello che sarebbe dovuto andare; il problema vero è sempre stato l'architettura.
Comunque è difficile discutere, anche quando le cose migliori del CMT non si vogliono ammettere, come quella del carico che per 5 anni la si è sempre volutamente negata.
si va bè dai, sempre la solita storia, con sempre i soliti risultati che vedi solo tu; affinita dei core e passa la paura pure sugli Intel e le tue stesse prove le avevo rifatte pure io e vevo postato qui i tuoi stessi screen, ma lasciamo perdere che tanto poi finisce sempre male.
e vorrei farti notare che il fantomatico carico MT ha portato AMD praticamente a SPARIRE dal mercato server dove nessun Opteron Bulldozer reggeva minimamente il carico degli Xeon Intel, e il rapporto dei core è sempre stato uguale a quello desktop.
Non esiste processore AMD che riesce solo ad immagginarsi la potenza del 5960X. Un excavator a 4 ghz sarebbe un ulteriore fantomatica fantascienza di chi cerca di voler sfondare la potenza del socket 2011-v3 di Intel. Ragazzi scherzi a parte, non esiste allo stato attuale (tranne nella nostra immaginazione) chip che possa competere con questa fascia. Ma sai qual'è la cosa che mi fa ridere ? Che parlo come se fossi un Intellista, e per qualcuno risulto antipatico, caxxo sono un amdista...ma questa è una realtà...non va alterata... è la realtà ! Zen ? Secondo me neppure lui sfonderà le difese del socket 2011-v3. In questa fascia Intel fa chip troppo potenti per la concorrenza. Vi giuro, vorrei aver torto, vorrei vedere un AMD che gli rompe il culo ad Intel anche su quella fascia, ma non è cosi, e non sarà cosi neppure nel futuro...mi dispiace per me e per tanti altri...
Se amd tirasse fuori una cpu che eclissa un 5960X penso piacerebbe a molti di quelli che scrivono in queste pagine :cool:
ma io sarei contento se riuscisse a farne che se la vedono testa a testa con quelle sckt 1151 e penso che sia quello a cui deve puntare amd, perchè é la fascia che vende di più e quindi quella che può portare più incassi.
;) ciauz
Se amd tirasse fuori una cpu che eclissa un 5960X penso piacerebbe a molti di quelli che scrivono in queste pagine :cool:
ma io sarei contento se riuscisse a farne che se la vedono testa a testa con quelle sckt 1151 e penso che sia quello a cui deve puntare amd, perchè é la fascia che vende di più e quindi quella che può portare più incassi.
;) ciauz
Ci siamo capiti ;)
paolo.oliva2
06-09-2015, 09:00
ShellX, il confronto del CMT vs SMT secondo me va inquadrato alla radice.
Se partissimo con dei core con IPC simile, il CMT a core perderebbe un 20% di forza bruta con un guadagno del 50% con 2TH.
Su questa scala un 3 moduli X6 avrebbe circa la potenza MT di un X8 + SMT e quindi sballerebbe completamente vol discorso efficienza inteso come numero di transistor per X potenza.
Questo secondo me è un ragionamento razionale, dopo le forzature di chi vuole incarnare il CMT come architettura in uno Zambesi e guardare un procio Intel dall'alto dei 14nm giudicando che è l'architettura più efficiente e non il silicio, mi sembra la solita sparata di parte.
AMD implementando il CMT dove ha toppato? Un IPC iniziale troppo basso, unito a frequenze più basse del previsto e su un silicio che non ha potuto garantire un aumento dei moduli oltre a 4.
A questo AMD poteva recuperare perché l'IPC l'ha aumentato con Steamroller e Excavator ed un 16nm può supportare tranquillamente sia l'incremento di IPC che un aumento dei moduli.
Da questo punto mi pare limpido che dove sarebbe richiesta una potenza MT di rilievo quale per natura dovrebbe essere un Opteron, il CMT + Ex + 16nm certamente potrebbe dire la sua, e un die X12 starebbe tranquillamente al passo di un socket 2011.
Non sarebbe poi remota la speranza che, da un X12 Ex foss'anche 140W, facendo una similitudine Thuban D0 server e Thuban E1 desktop, fare in modo, visto anche le caratteristiche di frequenza di BD, ottenere forza bruta semplicemente con turbo più aggressivi.
Zen cambia strada e punta sull'IPC.
Benissimo, ma allora visto che un BD Ex X12 offrirebbe ben di più di MT di un 6700k (la faccio semplice, se 4m Pile stanno sotto e 4m Ex forse starebbero alla pari, è chiaro che 6m ci starebbero sopra almeno di un +50%), se Keller pensa che questo lo si può ottenere con 8+8 ben venga.
Ma se a parità di TH Zen concederebbe una potenza inferiore, allora nascerebbero 2 punti:
1) un numero di core superiore per la stessa potenza MT.
2) un numero di TH non sfruttabile in desktop.
Il primo punto porterebbe un pareggio tra +transistor CMT e SMT meno performante.
Il secondo, beh, un Ex X12 avrebbe solamente 12TH, quindi starebbe solamente nel silicio la possibilità di portarlo a X16 e quindi 16TH, mentre un X8+8 Zen avendo già 16TH, avrebbe toppato semplicemente perché offrirebbe meno potenza a parità vdi TH vs CMT.
Tra le 2 cose, cioè architettura Excavator pronta, conversione APU pronta, e Zen tutto al buio, specialmente con stesura su un silicio sconosciuto, io avrei preferito al limite realizzare un core Zen senza SMT, lasciare il modulo e al limite togliere la condivisione cioè il CMT...
Paolo secondo me sbagli a guardare cpuboss per i bench, lo trovo buono per confrontare le specifiche ma i bench lasciano molto a desiderare.
Per quello preferisco anandtech e li 2600k vs 8350 (http://www.anandtech.com/bench/product/287?vs=697) è molto più chiaro.
In alcuni bench si avvicinano, ma in altri il 2600k prende il largo.
È quello che dico da un po', teoricamente e tecnicamente gli FX hanno molto da dire, ma in pratica nessuno compra una cpu perchè va forte in 7zip e pov-ray e basta.
Il discorso di Paolo é logico, ma ipotetico... perchè nn é stato fatto, certo se guardi i bench su anandtech sono impietosi, ma con un silicio che avesse permesso un excavator FX l'ipc più alto l'avrebbe portato più vicino all'i7 in ST e grazie al maggior apporto del secondo core del modulo rispetto all'SMT sicuramente sarebbe stato avanti in MT... se poi abbandonare il CMT in favore dell'SMT sia stata la scelta giusta lo vedremo in futuro, penso che una cpu con IPC alto sia meno dipendente dal silicio e sono convinto che Keller tirerà fuori una buona architettura, quindi credo che le future cpu amd potranno dire la sua anche su un PP nn eccelso (e spero che lo sia) :sperem:
;) ciauz
plainsong
06-09-2015, 14:51
La cosa però che salta all'occhio facendo questo confronto è che un A10 (che è meno di un ipotetico mezzo fx excavator) brucia l'i3 (che è mezzo i7 sb) su tutto il resto.
Ma anche un FX 2 modili piledrive come il 4300 passa o pareggia un i3-2100.
Sarebbe quindi logico aspettarsi che un FX a 4 moduli pareggi un i7 ma non è così perchè 4 moduli sono 8 core e non vengono sfruttati al massimo.
Per questo io continuo a dire che gli Zen per mercato consumer a 8 core non serviranno (anche se da qui a fine 2016 magari cambia qualcosa) a confrontarsi con al concorrenza.
Ci sono diverse applicazioni che scalano bene anche su 8 threads (es. cinebench), e in questi casi il motivo per cui un FX8350, a differenza di un FX4300 con gli i3 sb, può non tenere altrettanto bene testa agli i7 sb, è che questi ultimi hanno frequenze più spinte rispetto agli i3 e turbo attivo.
In simili scenari un i7 2600k va più del doppio di un i3 2100.
Un excavator non si avvicina ad un SB in ST e lo si vede molto chiaramente confrontando un A10 con un i3 (anche se A10 non ha L3 vero?)
Per esempio A10-7800 vs i3-2100 (http://www.anandtech.com/bench/product/289?vs=1291")
La cosa però che salta all'occhio facendo questo confronto è che un A10 (che è meno di un ipotetico mezzo fx excavator) brucia l'i3 (che è mezzo i7 sb) su tutto il resto.
Ma anche un FX 2 modili piledrive come il 4300 passa o pareggia un i3-2100.
Sarebbe quindi logico aspettarsi che un FX a 4 moduli pareggi un i7 ma non è così perchè 4 moduli sono 8 core e non vengono sfruttati al massimo.
Per questo io continuo a dire che gli Zen per mercato consumer a 8 core non serviranno (anche se da qui a fine 2016 magari cambia qualcosa) a confrontarsi con al concorrenza.
Resta però il problema che A10 e FX lavorano a frequenza più alte dei corrispettivi intel.
Stai sbagliando, il 7800 (come le altre apu desktop serie 7xxx) é kaveri nn carrizo, quindi nn é excavator e nn lo é neanche il 7870K perchè godavari é un refresh di carrizo, cioé ancora steamroller e nn excavator (nonostante ciò nn cambierei l'860K con un i3 4xxx figuriamoci con il 2100 :asd: )... e sbagli anche sulle frequenze, un 6700K ha frequenza default di 4ghz come l'8370 (nn considero la serie 9xxx che personalmente ritengo inutile), un 7870K l'ha a 3,9 come l'i3 6320.
8 core per il top possono anche starci,l'importante é che siano cazzuti, poi naturalmente ci saranno i modelli inferiori con 4/6 core... quelli che ritengo inutili per la maggior parte degli utenti consumer sono 16 threads, ma ci sono le apu che partiranno immagino ancora da 2 core e come ho detto, di zen nn ci sarà certo un solo modello... poi nn mi é ancora chiaro se il top sarà 8+8 o 4+4 (visto che sembra sicuro abbia l'HT).
PS
nel confronto 13 vs 4xxx e i7 vs 8xxx c'é da considerare che le cpu intel sono sempre superiori in ST per via dell'ipc mostruoso, ma perdono un po' di terreno quando sono sfruttati più core di quelli fisici che hanno... e ci sono molti scenari dove sono sfruttati più di 2 core ma pochi capaci d'impegnare al 100% i 4 core fisici dell'i7 (e poi un 30% d'incremento lo portano anche i core logici), per questo é abbastanza facile vedere un i3 con l'acqua alla gola ma quasi impossibile vederci un i7
;) ciauz
AceGranger
06-09-2015, 15:42
Ci sono diverse applicazioni che scalano bene anche su 8 threads (es. cinebench), e in questi casi il motivo per cui un FX8350, a differenza di un FX4300 con gli i3 sb, può non tenere altrettanto bene testa agli i7 sb, è che questi ultimi hanno frequenze più spinte rispetto agli i3 e turbo attivo.
In simili scenari un i7 2600k va più del doppio di un i3 2100.
l'i3 2100 è a 3,1 GHz; per una correttqa comparazione si dovrebbe usare il top i3 a 65W che è il 2130 a 3,4 GHz.
300 MHz son quasi il 10% in piu
paolo.oliva2
06-09-2015, 16:40
Paolo secondo me sbagli a guardare cpuboss per i bench, lo trovo buono per confrontare le specifiche ma i bench lasciano molto a desiderare.
Per quello preferisco anandtech e li 2600k vs 8350 (http://www.anandtech.com/bench/product/287?vs=697) è molto più chiaro.
In alcuni bench si avvicinano, ma in altri il 2600k prende il largo.
È quello che dico da un po', teoricamente e tecnicamente gli FX hanno molto da dire, ma in pratica nessuno compra una cpu perchè va forte in 7zip e pov-ray e basta.
Quello che aggiungo, per rendere più comprensibile ciò che dico, è quello di guardare i benché ST e la differenza tra i 2 proci, e poi i benché MT.
Il divario in ST è impietoso, ma guarda quanto recupera in MT.
Ma perché recupera e basta e non passa avanti? Perché l'IPC di partenza è troppo basso, ma al posto di -50% ci fosse -30%, il CMT farebbe miracoli, e quel +20/25% esiste già in Excavator.
Il rapporto tra CMT e SMT è una cosa, il rapporto tra CMT AMD e SMT Intel è un'altra, come lo sarebbe un core con IPC AMD + SMT e un core Intel + CMT.
Hai ragione non sono excavator, sono steamroller, ho sbagliato :doh:
Per le frequenze vedi sopra.
Il vantaggio degli i7 è che hanno 8 thread che spingono quando ci sono software che usano 8t, ma spingono anche quando ci sono programmi che ne usano solo 4 perchè comunque vengono usati tutti i core.
Invece BD e famiglia se i programmi usano solo 4t metà cpu resta spenta.
Non so se 8c possano essere deleteri per la serie consumer, se c'è un HT simil intel probabilmente oggi sarebbe meglio 4 per la maggior parte degli utilizzi.
Metterne 8 aumenterebbe il TDP o ridurrebbe le frequenze, si potrebbe ovviare con un bel turbo scalabile, tipo che quando usa 4C va a 4GHz e quando ne usa 8 a 3.5GHz o meno.
Nn ho capito cosa devo guardare per le frequenze, delle cpu che ho nominato sono quelle che ho scritto (pur essendone sicuro, l'ho pure controllate)
con 8 thread la differenza fra i7 e fx 8 core é molto minore che in ST, perchè il secondo core di amd porta un +80% mentre il core logico intel solo un +30% e questo doveva essere il grande vantaggio del'architettura bulldozer... peccato che l'80% di poco (ipc basso) nn sia sufficente a recuperare il gap perchè il 30% di tanto (ipc alto) gli é inferiore di poco... ma tieni presente che con quell'architetture aumentando l'ipc di 1 in ST rimane 1 ma in MT lo moltiplicava per 80 mentre intel per 30... mentre con la nuova architettura vedremo, ma se intel con il core logico si é fermata al 30% bb credo che amd riesca a fare meglio al primo tentativo.
Per il mercato consumer potrebbe andare bene anche un 4+4 ma bisognerebbe che il core logico portasse almeno un +50% e come ho scritto sopra lo reputo improbabile, oppure un 8+8 dove il core logico fa quello che può senza rompere l'anima quando nn é usato ma quelli fisici sono veramente potenti... questa soluzione oltre per il mercato consumer sarebbe ottima anche per quello server.
;) ciauz
Allora tu preferisci un 2+2 (4 TH) ad un CMT 2m 4TH? Siamo in ambito desktop? Allora come puoi dire che io non capisco che il CMT non è adatto per desktop quando un CMT 4 TH è nettamente sopra ad un 4TH ma 2+2?
Lo vedi come continui a sostenere il falso ? Non è vero che un CMT 4th è sopra ad un SMT 2+2, anzi è vero solo nel tuo utilizzo e al massimo il mio, vallo dire a chi con il pc gioca e gli crea il bottleneck per cpu limited sulla scheda video.
Ripeto tu guardi la cosa solo dal tuo punto di vista e dal tuo utilizzo, ma non hai capito che esiste una massa, quest'ultima si chiama "Gamer's", e i pc desktop oggi se sono in vita lo sono appunto grazie a questa tipologia di utenza (gamer e professionisti). Se tu fai chip non idonei per l'utenza più remunerativa del mercato desktop, allora è logico che affondi e schiatti all'inferno con tutta l'azienda incompetente. Per fortuna AMD ha capito che Zen deve essere SMT, avere un ipc alto e deve competere con Intel SOPRATTUTTO nel mercato gaming (che poi dal punto di vista di massa si traduce in fascia mainstream -socket 1151-).
Prova a lavorare con un i3 mobile e poi con un Trinity (manco Kaveri o Carrizo) come mia esperienza e poi torna a dire che un CMT non va bene per desktop (inteso come pure mobile)
Lascia perdere il mobile che è un'altra ancora tipologia d'uso.
Ho lavorato con il notebook della mia compagna (un AMD A8), prima di questo aveva un i3 (non ricordo il modello esatto). Beh sinceramente nell'utilizzo mobile non ho notato una grossisima differenza, tuttavia ti posso dire che l'A8 a dispetto di quanto dicono alcuni è un chip valido, e il portatile è sempre fluido e veloce. Ma ripeto per ciò che ho fatto sul portatile figurati di cosa posso accorgermene. I portatili servono per la mobilità, (per studenti e gente che è sempre in giro) e non per fare lavori di decoding, 3d, rendering e altri complessi, specie portatili sul prezzo dei 400/500 euro. Se vuoi un notebook per lavorare allora ne spendi 900/1000 e ti prendi qualcosa di più valido. Come trovo sbagliato anche quella gente che si compra i portatili per lasciarli attaccati sulla scrivania come fossero dei fissi. Beh se non devi portartelo, cavolo prenditi un desktop (anche mitx o matx) che con lo stesso prezzo hai 3 volte in più la potenza. Ma purtroppo c'è ignoranza.
Il CMT di AMD ha un IPC basso ma non perché è il CMT la causa, ma perché i core impiegati nel CMT di AMD hanno di partenza un IPC basso.
Invece secondo me è proprio il CMT (almeno come è stato implementato da amd) che ha dei limiti nel poter aumentare l'ipc a singolo core. L'SMT risulta l'approccio perfetto per avere un alto ipc (anche se il silicio non è al top comunque un ipc su smt sarà sempre superiore ad un ipc su cmt che sta su un buon silicio)
Dove l'IPC non è influente (o per somma di IPC * frequenza) riduce la differenza, allora il CMT è più che valido.
Negli scenari comuni (o comuque di massa gaming) praticamente l'ipc è sempre necessario. Ripeto a te, a me e altri due in croce interessa il mt con un basso ipc, la massa vuole potenza sul singolo core, perchè i giochi (tutti) sfruttano questa, anche in quei giochi dove sfruttano 4 e + core's, serve tanta potenza ipc su ognuno di essi per potersi godere un esperienza videoludica senza microscatti e abbassamenti di fps. Questo non lo dico ne io e nei bench, lo dicono l'esperienze vissute in molti forum di molti utenti gamer (che alla fine sono dovuti passati ad i7 per avere giovamenti, ottenendoli). Ora a te sta cosa può pure non fregartene nulla perchè con il pc non ci giochi, ma devi capire che una azienda guarda prima di tutto gli utenti maggiori che fanno uso dei prodotti che essa vende. Al giro passato amd ha utilizzato un approccio non idoneo per soddisfare questi utenti (ed intel ha fatto ciò che ha voluto), adesso penso e spero che amd abbia capito: ci vuole SMT e un alto ipc su ogni core se vuoi tornare competitiva. Altrimenti torniamo punto e a capo, e al prossimo errore fa meglio ad alzare bandiera bianca per sempre.
Perché un 2m va meglio di un 2+2? Nel mobile, perche ad una frequenza penalizzante per il 2+2 ecco che il 2m (CMT) offre il carico maggiore, permettendo una fluidità ben più maggiore.
E vabbe grazie: se gli castri molto la frequenza a un smt è logico che un cmt occato ti fa di più. Perchè poi l'ipc è rapportato alla frequenza, se questa è troppo bassa, il risultato del rapporto fra i due è inferiore ad un ipc basso rapportato ad una alta frequenza. Prova a confrontare entrambi alla stessa frequenza per capire chi ha piu ipc. Credo che comunque già lo sai, adesso domandati: " stessa frequenza e l'smt risulta piu potente sul singolo core, ma a che serve e a chi serve ?"
Io ti rispondo: serve a tutti tranne me, te e cicciopalla, e serve perchè il 90% di applicazioni sono scritte per andare bene su smt e su ipc alti (a prescindere dal loro numero di core e dalla loro frequenza). Aumentare i core's più del dovuto e aumentare allo strazio la frequenza per compensare la mancaza di ipc è una soluzione dannatamente e disperatamente inutile e controproducente (soprattutto nel mercato di massa desktop consumer).
Il confronto 4m vs 4+4 è diverso perché tra IPC, frequenze di lavoro e carico, la differenza di forza bruta e un carico nel 4+4 comunque sufficiente, penalizzano il CMT.
Appunto, esatto. Ecco perchè ci vuole smt e ipc alto. Vedi che allora lo sai e la verità è quindi che a te personalmente ti sta sulle palle l'smt e l'ipc alto ? Perchè in realtà a te piace vedere il cpu-z con su scritto 1200 core's sul grafico e 8ghz per ogni core (a prescindere se poi la cpu va come un ZX Spectrum). Ma come dicevo prima avere tati core's e tanta frequenza non è la soluzione per compensare la mancanza di ipc. Non sempre otterrai la stessa potenza di un chip con alto ipc. Solo che a te piace vedere tanti core's punto. Comprati un opteron per Dio e risolvi ogni dramma. E poi comunque il carico MT su un 4+4 smt non si limita ad essere sufficiente, e qualcosa che va oltre alla sufficienza ;)
Un'altra condizione desktop che si potrebbe creare, cioè quando la forza a core di un sistema SMT calerebbe, è ad esempio su un 5960X. Con una frequenza di 3GHz e 8+8, come si comporterebbe un CMT 8m o anche un 6m Excavator? Sono condizioni desktop o no?
Partiamo dal presupposto che la fascia enthusiast di Intel, anche se è desktop, personalmente non l'ho mai realmente considerata tale. O meglio dire, è desktop si, ma non la considero consumer. La vedo come una fascia workstation desktop ma tipo ibrido fra server e sistemi potenti per i professionisti (ergo di nicchia). Quindi rispondendoti: no, non sono condizioni desktop, ma poi scusami, stesso discorso di prima, che senso ha fare sti esempi del menga ? Non è neppure ipotizzabile una cosa del genere, se castri allo strazio il 5960X è logico che il top CMT si avvicina ad esso, ma non è comunque uno scenario desktop normale, ecco che subentra la cosiddetta "fantasy" di cui ti parlo spesso. Che cacchio di senso ha fare sti paragoni. Secondo te chi si compra il 5960X si diverte a castrarlo per farlo andare meno di un top CMT ? Quindi io mi compro un Ferrari castro il motore per farlo andare lentissimo e poi dico che la condizione del mio amico che ha una bicicletta non è da ciclismo ma da corsa su strada perche adesso la sua bicicletta va quanto il mio Ferrari castrato.
Comprati un 5960X e comprati il top CMT (di quelli realmente prodotti da amd e no quelli che Paolo vorrebbe che amd avesse prodotto) senza castrare nulla, chi ha di più una condizione desktop ?
P.S.
Io a te sto molto antipatico, le vedo le tue continue frecciatine... Invece per dire la verità tu mi stai simpatico e ti reputo competente, visto anche che da anni ormai non lavoro piu e per me è solamente hobby. Una volta hai detto bene, circa che io sono prevenuto su certi punti, e magari ci hai visto bene... Leggi quanto ho scritto e fai un punto: CMT con + IPC di quanto commercializzato con Pile (basta pure Ex), ed un silicio che conceda almeno moduli su un rapporto di 3 a 4 vs SMT, con una frequenza di un 10/15% superiore giusto per portare ad un -30% la differenza di potenza a core, per avere un vantaggio equivalente se non superiore (circa) nei 2TH, e poi trai le conclusioni, senza pregiudizi.
Non dire adesso cavolate. Solitamente tendo a non rispondere a chi mi sta antipatico. Ergo se ti quoto molte volte vuol dire che mi stai molto simpatico ;) Le mie non sono frecciatine, tu muovi per me interessanti argomenti, e se io non sono d'accordo ti rispondo (come si fa in un forum del resto). Il giorno che non ti quoterò più vuol dire che è arrivato il giorno che mi stai antipatico e ritengo che non vale più la pena svenarmi per risponderti. ergo fin'ora appartieni agli utenti simpatici. Che poi su questo thread non esiste ancora un utente che mi stia antipatico.
@ shellx
nn ne capisco quanto te e Paolo e nn lavoro con i pc, ma vorrei farti ugualmente alcuni appunti, perdonami :D
nn ho avuto modo di provare personalmente gli i3 haswell e i nuovi skylake, ma quando ho confrontato i Sandy Bridge con il 4100 che avevo il risultato lampante éra che (visto che parli di gamers, parliamo di giochi) con i giochi che sfruttano 1 o 2 core l'i3 da più fps, a patto che nn ci sia troppa roba che impegna la cpu a girare sotto (il discorso i7 é diverso, come già detto, ma i 2 core dell'i3 sono saturabili anche con usi "normali"), però con giochi che sfruttano più core (per molti test usai crysis 3) il 4100 (che tenevo a 4,8ghz in daily) nn andava affatto peggio e visto che architettura e ipc rimangono gli stessi usando 1 core o 4 la differenza stà solo nella supremazia del CMT nei confronti dell'SMT... poi che poteva essere implementato meglio posso concordare (anche se entro in un campo di cui sò veramente poco), magari poteva valere la pena di rinunciare ad un po' di frequenza pur di avere un ipc un po' più alto... ma visto l'incremento percentuale dato dal secondo core del modulo rispetto il core logico dell'SMT, nn si può certo dire che il CMT nè esce sconfitto.
;) ciauz
Quello che avevo scritto sopra nello stesso post per plainsong :D
Si, ma quali cpu specifiche confronti?
Perchè se prendi i top di gamma (che ho scritto nell'altro post) le frequenze sono le stesse... se invece prendi gli haswell il 4790K ha la stessa frequenza, mentre l'i3 4370 ha 100mhz in meno del 7870K ma 100 in più del 7850K (che éra la top apu amd fino a poco fa)... quindi come fai ad affermare che A10 e FX viaggiano a frequenza più alta dei corrispettivi intel :confused:
;) ciauz
@ shellx
nn ne capisco quanto te e Paolo e nn lavoro con i pc, ma vorrei farti ugualmente alcuni appunti, perdonami :D
nn ho avuto modo di provare personalmente gli i3 haswell e i nuovi skylake, ma quando ho confrontato i Sandy Bridge con il 4100 che avevo il risultato lampante éra che (visto che parli di gamers, parliamo di giochi) con i giochi che sfruttano 1 o 2 core l'i3 da più fps, a patto che nn ci sia troppa roba che impegna la cpu a girare sotto (il discorso i7 é diverso, come già detto, ma i 2 core dell'i3 sono saturabili anche con usi "normali"), però con giochi che sfruttano più core (per molti test usai crysis 3) il 4100 (che tenevo a 4,8ghz in daily) nn andava affatto peggio e visto che architettura e ipc rimangono gli stessi usando 1 core o 4 la differenza stà solo nella supremazia del CMT nei confronti dell'SMT... poi che poteva essere implementato meglio posso concordare (anche se entro in un campo di cui sò veramente poco), magari poteva valere la pena di rinunciare ad un po' di frequenza pur di avere un ipc un po' più alto... ma visto l'incremento percentuale dato dal secondo core del modulo rispetto il core logico dell'SMT, nn si può certo dire che il CMT nè esce sconfitto.
;) ciauz
Per capire se un approccio architetturale è idoneo o meno, non è possibile effettuare un paragone fra un modello e un modello di cpu di due strutture d'architettura differenti. Il problema non è quanti core's sfruttano i giochi, il problema è l'ipc sul singolo core. Per poter aumentare la potenza di un core con basso ipc, bisogna caricarlo di frequenza allo strazio tirandolo per i capelli. QUesto scenario è per me analogo ad un allenatore di calcio che usa i panchinari cercando di recuperare una sconfitta in campo. La soluzione per il mercato desktop è avere chip performanti a prescindere dalla loro frequenza operativa, è per rendere ciò possibile la soluzione è avere un ipc non basso. Lasciam perdere se il chip a 4 o 6 o 8 o 10 core's, un quad core con un ipc alto risulterebbe risolutivo nel 99% degli scenari su una macchina desktop consumer. Che poi quest'ultima si inginocchia dopo 55 threads aperti rispetto un cmt che tiene 120 threads (e poi sul singolo thread "particolare" muore) agli utenti globali non gli e ne frega un cavolo, perchè chi gioca al pc è difficile che contemporaneamente tiene 50 threads aperti sotto il gioco, ma invece vuole prestazioni affidabili sul singolo thread all'utente interessato. Scenari diversi da quest'ultimo si chiamano scenari server's. A meno che i gamer's non siano diventati interessati agli utilizzi server's non vedo dove il CMT possa arrecare loro guadagni.
Tuttavia, sia il 4100 che l'i3 sono cpu poco idonee al gaming, o perlomeno all'hard_gaming. Vanno bene forse per un casual_gaming. Per cui il confronto lascia il tempo che trova. Ma pur confrontandoli, come hai tu stesso riportato, se l'i3 libero da n.mila threads sotto, restituisce maggiori fps sul game....ossia: proprio ciò che la massa cerca. E Zen dovrebbe essere questo per competere seriamente con Intel. Non esiste un alternativa valida. Ma sono quasi sicuro che Zen sarà proprio questo...
Lo vedi come continui a sostenere il falso ? Non è vero che un CMT 4th è sopra ad un SMT 2+2, anzi è vero solo nel tuo utilizzo e al massimo il mio, vallo dire a chi con il pc gioca e gli crea il bottleneck per cpu limited sulla scheda video.
Ripeto tu guardi la cosa solo dal tuo punto di vista e dal tuo utilizzo, ma non hai capito che esiste una massa, quest'ultima si chiama "Gamer's", e i pc desktop oggi se sono in vita lo sono appunto grazie a questa tipologia di utenza (gamer e professionisti). Se tu fai chip non idonei per l'utenza più remunerativa del mercato desktop, allora è logico che affondi e schiatti all'inferno con tutta l'azienda incompetente. Per fortuna AMD ha capito che Zen deve essere SMT, avere un ipc alto e deve competere con Intel SOPRATTUTTO nel mercato gaming (che poi dal punto di vista di massa si traduce in fascia mainstream -socket 1151-).
Invece secondo me è proprio il CMT (almeno come è stato implementato da amd) che ha dei limiti nel poter aumentare l'ipc a singolo core. L'SMT risulta l'approccio perfetto per avere un alto ipc (anche se il silicio non è al top comunque un ipc su smt sarà sempre superiore ad un ipc su cmt che sta su un buon silicio)
Negli scenari comuni (o comuque di massa gaming) praticamente l'ipc è sempre necessario. Ripeto a te, a me e altri due in croce interessa il mt con un basso ipc, la massa vuole potenza sul singolo core, perchè i giochi (tutti) sfruttano questa, anche in quei giochi dove sfruttano 4 e + core's, serve tanta potenza ipc su ognuno di essi per potersi godere un esperienza videoludica senza microscatti e abbassamenti di fps. Questo non lo dico ne io e nei bench, lo dicono l'esperienze vissute in molti forum di molti utenti gamer (che alla fine sono dovuti passati ad i7 per avere giovamenti, ottenendoli). Ora a te sta cosa può pure non fregartene nulla perchè con il pc non ci giochi, ma devi capire che una azienda guarda prima di tutto gli utenti maggiori che fanno uso dei prodotti che essa vende. Al giro passato amd ha utilizzato un approccio non idoneo per soddisfare questi utenti (ed intel ha fatto ciò che ha voluto), adesso penso e spero che amd abbia capito: ci vuole SMT e un alto ipc su ogni core se vuoi tornare competitiva. Altrimenti torniamo punto e a capo, e al prossimo errore fa meglio ad alzare bandiera bianca per sempre.
Io ti rispondo: serve a tutti tranne me, te e cicciopalla, e serve perchè il 90% di applicazioni sono scritte per andare bene su smt e su ipc alti (a prescindere dal loro numero di core e dalla loro frequenza). Aumentare i core's più del dovuto e aumentare allo strazio la frequenza per compensare la mancaza di ipc è una soluzione dannatamente e disperatamente inutile e controproducente (soprattutto nel mercato di massa desktop consumer).
Esatto. AMD deve pensare a quello che gli porta soldini. E adesso il mercato che porta soldi è quello gaming.
Il problema è che AMD ha creato un'architettura TROPPO dipendente dal silicio. Silicio che probabilmente la stessa Intel non avrebbe potuto creare nel caso in cui fosse stata lei a tirare fuori gli FX. Come cavolo gli è venuto in mente di creare un'architettura che necessitava di stare a def x8@4,7 (tipo FX9000) in 125W?
Che poi GF ci abbia messo il suo zampino è indubbio, ma che non abbiano pensato che l'architettura BD necessitasse di un pp pressochè PERFETTO altrimenti sarebbe uscita una fece di cane, per me è incredibile.
Per capire se un approccio architetturale è idoneo o meno, non è possibile effettuare un paragone fra un modello e un modello di cpu di due strutture d'architettura differenti. Il problema non è quanti core's sfruttano i giochi, il problema è l'ipc sul singolo core. Per poter aumentare la potenza di un core con basso ipc, bisogna caricarlo di frequenza allo strazio tirandolo per i capelli. QUesto scenario è per me analogo ad un allenatore di calcio che usa i panchinari cercando di recuperare una sconfitta in campo. La soluzione per il mercato desktop è avere chip performanti a prescindere dalla loro frequenza operativa, è per rendere ciò possibile la soluzione è avere un ipc non basso. Lasciam perdere se il chip a 4 o 6 o 8 o 10 core's, un quad core con un ipc alto risulterebbe risolutivo nel 99% degli scenari su una macchina desktop consumer. Che poi quest'ultima si inginocchia dopo 55 threads aperti rispetto un cmt che tiene 120 threads (e poi sul singolo thread "particolare" muore) agli utenti globali non gli e ne frega un cavolo, perchè chi gioca al pc è difficile che contemporaneamente tiene 50 threads aperti sotto il gioco, ma invece vuole prestazioni affidabili sul singolo thread all'utente interessato. Scenari diversi da quest'ultimo si chiamano scenari server's. A meno che i gamer's non siano diventati interessati agli utilizzi server's non vedo dove il CMT possa arrecare loro guadagni.
Tuttavia, sia il 4100 che l'i3 sono cpu poco idonee al gaming, o perlomeno all'hard_gaming. Vanno bene forse per un casual_gaming. Per cui il confronto lascia il tempo che trova. Ma pur confrontandoli, come hai tu stesso riportato, se l'i3 libero da n.mila threads sotto, restituisce maggiori fps sul game....ossia: proprio ciò che la massa cerca. E Zen dovrebbe essere questo per competere seriamente con Intel...
Mio stesso punto di vista. Prendiamo in esempio il mio caso. Principalmente io gioco, difficilmente faccio lavori pesanti (esempio grafica o video), e tendenzialmente mentre gioco ho teamspeak e alcune tab di chrome aperte. Ho un 6300 che come MT è assimilabile a un i5. Tralasciando il discorso prezzo (mi sto focalizzando su un paragone potenza MT), penso che il 90% dei giocatori, acnhe hardcore gamer (purtroppo io non me lo posso permettere) della potenza MT di un i5 ne hanno abbastanza, non hanno sicuramente necessità di avere un 8320 che sicuramente "si siede" moooolto dopo un i5, poiche non si troveranno neanche mai nella condizione di far sedere un i5.
Esatto. AMD deve pensare a quello che gli porta soldini. E adesso il mercato che porta soldi è quello gaming.
Il problema è che AMD ha creato un'architettura TROPPO dipendente dal silicio. Silicio che probabilmente la stessa Intel non avrebbe potuto creare nel caso in cui fosse stata lei a tirare fuori gli FX. Come cavolo gli è venuto in mente di creare un'architettura che necessitava di stare a def x8@4,7 (tipo FX9000) in 125W?
Che poi GF ci abbia messo il suo zampino è indubbio, ma che non abbiano pensato che l'architettura BD necessitasse di un pp pressochè PERFETTO altrimenti sarebbe uscita una fece di cane, per me è incredibile.
Si ma anche se il pp fosse stato il migliore degli ultimi 30 anni, ti assicuro che la situazione non sarebbe stata molto diversa da ciò che abbiamo vissuto e assistito.
cut...
poiche non si troveranno neanche mai nella condizione di far sedere un i5.
Per far sedere una cpu i5/i7 devi essere per forza quasi un sistemista di rete, che usa il pc per fare virtualizzazioni e/o utilizzi da scenari server's, e a quel punto è meglio che prendi uno Xeon/Opteron. Altrimenti è quasi impossibile nell'uso quotidiano riempirla di oltre n.threads. Tranne se lo fai per gioco, giusto per il gusto di provare il suo limite, ma dubito che un utente si imparanoia giornate intere e usa il pc per caricarlo di threads che manco gli servono giusto per il gusto di vedere quando si siede, come se fosse un sadico maniaco del pc. Le macchine servono per lavorare o giocare, insomma per fare cose comunque finalizzate, i test li fai un paio di volte massimo, giusto per capire di cosa è capace il tuo chip. Ma se passi le giornate per mesi interi a godere nel vedere la tua cpu sedersi e riempirla solo di thread inutili per il gusto di caricare processi senza un fine razionale, penso che più che una cpu performante ti serve uno psicanalista, e di quelli seri per giunta.
george_p
07-09-2015, 09:22
Si ma anche se il pp fosse stato il migliore degli ultimi 30 anni, ti assicuro che la situazione non sarebbe stata molto diversa da ciò che abbiamo vissuto e assistito.
Proprio per quello BD è stato creato da un ingegnere del futuro, abituato ai prossimi 4 nm, catapultato nel passato :D :D :D
paolo.oliva2
07-09-2015, 11:55
Scusate, ma faccio un riassunto brevissimo.
Corre AMD 100.
Core AMD senza CMT 120. +30% per SMT = 158.
Quindi 120 in ST e 158 in MT 2 TH.
Core AMD con CMT 100 e in MT + 80% =180
Quindi a parità di IPC iniziale, l'SMT renderebbe un +20% a fronte di una potenza MT inferiore rispetto al guadagno ST.
Nulla toglie al fatto che una potenza ST sia migliore in alcuni ambiti, ma tutto è legato al fatto che 1 core + ST non sarebbe proprio sfruttabile rispetto ad 1 modulo , come del resto 8 moduli in ambito desktop avrebbero senso solo utilizzando programmi MT idonei o per più carichi contemporanei.
Quindi per me l'SMT a 360° deve avere essere almeno X4+4 e il CMT idoneo a patto che si confronti con un nero di moduli del 75% rispetto al numero di core + SMT, fermo restando un utilizzo di TH >di 4 almeno.
Il confronto SMT (Intel) e CMT (AMD) non rappresenta un confronto architetturale CMT/SMT ma un core con un IPC superiore su un silicio che per miniaturizzazione e bontà PP concede TDP inferiori, e di qui un confronto impossibile.
Un 8350 vs 5960X non è CMT vs SMT, ma lo sarebbe un 5960X X16 senza SMT vs 5960X X8+8. Che poi con CMT non diventi X16 possibile, ma basterebbe già alla grande un X12 CMT per ottenere più potenza MT di un 8+8.
Se vogliamo comprendere questo, e non mi sembra che sia difficile, ci risparmieremmo le continue sparate di bandiera sulla potenza ST di Intel come se fosse causa del CMT, perché un core BD + SMT sarebbe ancora di gran lunga peggiore dello stesso ma in CMT..
180 x 4 = 720. Ci vorrebbero 5 core + SMT per pareggiare, ma 5 core con FP ciascuno e circuiteria SMT in addizione, 10 MB di L2 e non 8MB, forse una L3 più grande, ecc ecc. Dimensione die?
tuttodigitale
07-09-2015, 12:26
Non voglio difendere a spada AMD, tuttavia certe scelte sono ponderate. Dire HT per l'aumento di ipc sempre e comunque è una stupidaggine. Negli ultimi Atom, Intel ha tolto HT, segno che non sempre è una strada percorribile/preferibile.
Il CMT ha i propri assi nella manica, soprattutto nella sua prima apparizione: porta ad un significativo aumento del throughput della FPunit condivisa come l'HT, riduce il costo di decodifica, e permette di usare un maggior numero di risorse. Teoricamente sul MT, non c'è dubbio su quale approccio sia vincente. E qui mi sorprende che shellx, dica che nel migliore degli scenari il CMT pareggi con il SMT. la realtà è che lo supera abbondantemente, più di quanto una cpu con qualche pipeline aggiuntiva possa superarlo nel ST.
AMD avrebbe potuto aumentare il numero delle ALU e implementare un HT, ma se i risultati frequenza/consumo sono stati così pessimi (vedi llano) anche con solo 2 alu per core, pensa averne anche "solo" 6 core +HT, 6 decoder con 18 ALU vs 8core CMT, con 16ALU e 4 decoder. La frequenza di una simile cpu sarebbe stata molto bassa per una cpu high-end
george_p
07-09-2015, 13:19
Scusate, ma faccio un riassunto brevissimo.
Corre AMD 100.
Core AMD senza CMT 120. +30% per SMT = 158.
Quindi 120 in ST e 158 in MT 2 TH.
Core AMD con CMT 100 e in MT + 80% =180
Quindi a parità di IPC iniziale, l'SMT renderebbe un +20% a fronte di una potenza MT inferiore rispetto al guadagno ST.
Scusa Paolo,
quoto te e solo questo ma mi riferisco alla stessa linea di pensiero di altri utenti in questo thread dove, in riferimento al CMT sfugge un particolare molto sottile che, almeno per me, fa la vera differenza.
Avevo già scritto pochi post addietro.
Il tutto va considerato a core e anche a thread. Mettiamo il caso di un quadcore:
Intel al suo quadcore aggiunge potenza grazie a 4 cores "virtuali" dell'SMT mentre Amd con il suo CMT aggiunge si 4 cores veri ma questi perdono efficienza pari a circa il 20% ognuno per cui non hai 8 cores al 100% ognuno.
Parliamo poi di ipc, mentre intel ne ha quasi il doppio di amd quest'ultima con BD lo ha ulteriormente ridotto.
Amd può chiamare il suo FX 8xxx octacore ma va da se che 1) ha ridotto le fpu ad 1/2 e 2) va serenamente quanto un quadcore intel.
La strada scelta da amd per il cmt è stata troppo azzardata e rischiosa e nella realtà si è avverato tutto il peggio possibile.
A me frega poco poter aprire infiniti threads e il mio kaveri resiste più di un dualcore i7 se poi l'i7 mi fa mangiare la polvere in un render 3D.
E il render 3D è un settore professionale, non necessariamente videoludico.
Nella realtà BD ha toppato, per quanto "aiuti" avere 8 cores a 4 ghz va meno di un 8 cores intel fatto da 4 fisici + 4 virtuali.
E frega veramente poco che chi ha progettato BD abbia potenziato le alu e chissà quali altri componenti se nel loro insieme tutta questa bella potenza e velocità di elaborazione viene praticamente persa e bruciata.
Ma ancora, vogliamo difendere un progetto che la stessa amd dopo i risultati catastrofici del 2011/2012 ha lei stessa scelto di buttare nel cesso con tutto il CMT?
plainsong
07-09-2015, 14:32
Non voglio difendere a spada AMD, tuttavia certe scelte sono ponderate. Dire HT per l'aumento di ipc sempre e comunque è una stupidaggine. Negli ultimi Atom, Intel ha tolto HT, segno che non sempre è una strada percorribile/preferibile.
Il CMT ha i propri assi nella manica, soprattutto nella sua prima apparizione: porta ad un significativo aumento del throughput della FPunit condivisa come l'HT, riduce il costo di decodifica, e permette di usare un maggior numero di risorse. Teoricamente sul MT, non c'è dubbio su quale approccio sia vincente. E qui mi sorprende che shellx, dica che nel migliore degli scenari il CMT pareggi con il SMT. la realtà è che lo supera abbondantemente, più di quanto una cpu con qualche pipeline aggiuntiva possa superarlo nel ST.
AMD avrebbe potuto aumentare il numero delle ALU e implementare un HT, ma se i risultati frequenza/consumo sono stati così pessimi (vedi llano) anche con solo 2 alu per core, pensa averne anche "solo" 6 core +HT, 6 decoder con 18 ALU vs 8core CMT, con 16ALU e 4 decoder. La frequenza di una simile cpu sarebbe stata molto bassa per una cpu high-end
Llano aveva 3 alu/core. Per il resto quoto in pieno, il problema non è il CMT, ma la sua implementazione non abbastanza performante. Aggiungo però che una cpu innovativa come bd ha probabilmente richiesto più tempo e soldi di quanto ne sarebbero serviti, anche con risultati altrettanto modesti, per rimaneggiare k10 e dotarlo di SMT.
tuttodigitale
07-09-2015, 15:22
Quello che mi preme sottolineare è che l'abbassamento dell'ipc di bulldozer da k10 solo in parte dipende dal CMT, che da solo fa perdere "solo" il 13-22% di ipc nel MT. Numeri alla mano, sempre in cinebench, un k10 offrirebbe circa il 15% di ipc in più di un ipotetico Bulldozer senza CMT. Questo ancora una volta dovrebbe sottolineare quale aspettattive di clock e consumi aveva riposto AMD nei 32nm SOI (50% di prestazioni in più con "solo" il 33% dei core in più).
A me frega poco poter aprire infiniti threads e il mio kaveri resiste più di un dualcore i7 se poi l'i7 mi fa mangiare la polvere in un render 3D.
E il render 3D è un settore professionale, non necessariamente videoludico.
il render 3D è adattissimo ad un architettura stile bulldozer :rolleyes: .
Secondo me qui, si fa troppa confusione tra cpu e architettura.
Bulldozer è migliore in praticamente tutto rispetto a k10, che a sua volta era dannatamente competitivo nel MT con Nehalem. Fare meglio di k10 equivale fare meglio di Nehalem in MT, e quindi essere automaticamente competitivo con SB che da solo non ha portato chissà quali stravolgimenti (un buon 80% dei miglioramenti è merito del passaggio dai 45 ai 32nm bulk).
Alla fine dei conti, l'unico vero rammarico di AMD è di non essere riuscita a fare il deca-core e con frequenze da fx9590 (hai detto niente: +45% di forza bruta, e +25% nel ST)
Amd può chiamare il suo FX 8xxx octacore ma va da se che 1) ha ridotto le fpu ad 1/2 e 2) va serenamente quanto un quadcore intel.
in un post avevo anche scritto che in realtà un modulo BD, deve essere visto come un supercore dimezzato, visto le rinunce fatte a causa della condivisione e della riduzione delle pipeline di esecuzione.
Per colpa del 32nm SOI consumava quanto un esa-core della concorrenza. Questo è stato il problema. Se per complessità un FX 8xxx è un quad+Ht della concorrenza, perchè, a parità di consumo, non gira a clock maggiori di almeno il 15% (a cui va raggiunto un altro 10-15% dovuto al RCM) considerando il basso FO4?
K10/PD consumano uguale, anche se il secondo gira con clock superiori del 30%.
Perchè allora PD octa-core non gira più di un quad-core Intel a parità di TDP, visto che differenze da questo punto di vista non si sono viste con il passaggio da Nehalem a SB (i7 990x vs i7 3960x), e k10 girava con un clock del 12% più elevato delle soluzioni Intel.
Per estensione PD octa core, in 95W di TDP doveva girare il 30-45% più veloce di un quad-core Intel: 4,7-5,2GHz di base. E senz'altro non sarebbe stato peggio di un i7 3700k.
Aggiungo però che una cpu innovativa come bd ha probabilmente richiesto più tempo e soldi di quanto ne sarebbero serviti, anche con risultati altrettanto modesti, per rimaneggiare k10 e dotarlo di SMT.
Il SMT ha necessità di pipeline profonde per dare il meglio di sé. I soli 12 stadi di k10 non sono l'ideale
george_p
07-09-2015, 16:19
Quello che mi preme sottolineare è che l'abbassamento dell'ipc di bulldozer da k10 solo in parte dipende dal CMT, che da solo fa perdere "solo" il 13-22% di ipc nel MT. Numeri alla mano, sempre in cinebench, un k10 offrirebbe circa il 15% di ipc in più di un ipotetico Bulldozer senza CMT. Questo ancora una volta dovrebbe sottolineare quale aspettattive di clock e consumi aveva riposto AMD nei 32nm SOI (50% di prestazioni in più con "solo" il 33% dei core in più).
il render 3D è adattissimo ad un architettura stile bulldozer :rolleyes: .
Secondo me qui, si fa troppa confusione tra cpu e architettura.
Bulldozer è migliore in praticamente tutto rispetto a k10, che a sua volta era dannatamente competitivo nel MT con Nehalem. Fare meglio di k10 equivale fare meglio di Nehalem in MT, e quindi essere automaticamente competitivo con SB che da solo non ha portato chissà quali stravolgimenti (un buon 80% dei miglioramenti è merito del passaggio dai 45 ai 32nm bulk).
Alla fine dei conti, l'unico vero rammarico di AMD è di non essere riuscita a fare il deca-core e con frequenze da fx9590 (hai detto niente: +45% di forza bruta, e +25% nel ST)
in un post avevo anche scritto che in realtà un modulo BD, deve essere visto come un supercore dimezzato, visto le rinunce fatte a causa della condivisione e della riduzione delle pipeline di esecuzione.
Per colpa del 32nm SOI consumava quanto un esa-core della concorrenza. Questo è stato il problema. Se per complessità un FX 8xxx è un quad+Ht della concorrenza, perchè, a parità di consumo, non gira a clock maggiori di almeno il 15% (a cui va raggiunto un altro 10-15% dovuto al RCM) considerando il basso FO4?
K10/PD consumano uguale, anche se il secondo gira con clock superiori del 30%.
Perchè allora PD octa-core non gira più di un quad-core Intel a parità di TDP, visto che differenze da questo punto di vista non si sono viste con il passaggio da Nehalem a SB (i7 990x vs i7 3960x), e k10 girava con un clock del 12% più elevato delle soluzioni Intel.
Per estensione PD octa core, in 95W di TDP doveva girare il 30-45% più veloce di un quad-core Intel: 4,7-5,2GHz di base. E senz'altro non sarebbe stato peggio di un i7 3700k.
Il SMT ha necessità di pipeline profonde per dare il meglio di sé. I soli 12 stadi di k10 non sono l'ideale
44% 25% 4m4c 2m4c render 3D ipc + o - e tutto quello che vogliamo metterci, BD in 8 core o in 4 supercore non ha superato ne i suoi predecessori ne tantomeno la concorrenza e sottolineo SUPERATO perché in primis l'obbiettivo di amd era quello.
Consumi alti e non per via del solo silicio perché allora anche il 28 nm bulk è un silicio uscito male come il 32.
Mentre intel ci piazza dentro la stessa miniaturizzazione, quasi, un octacore con 8 veri core e hyperthreading oppure un quadcore con igp e con consumi ridotti amd a malapena ci mette un "superdualcore"/"quadcore" con igp a 95 w di tdp?
E soprattutto con quali risultati di potenza elaborativa?
Chiudo definitivamente da parte mia questo loop di sempre uguali discussioni, tutto quello che c'era da scrivere, constatare e mettere in dubbio l'ho scritto precedentemente.
Preferisco guardare avanti che indietro e BD è solo passato.
Sicuramente ad amd serve un ipc più alto e sarebbe servito anche a BD, ma nn parlo della sopportazione ai carichi pesanti (anche se a me questa caratteristica degli FX piace), parlo delle prestationi pure e nn su millemila core... però ormai i dualcore per molte cose rimangono stretti, anche quelli con ipc alto, quindi diciamo che per il mercato consumer 2 o 4 core possono andare bene alla maggior parte degli utenti... ma se invece che la metà BD avesse avuto un ipc che arrivava al 75/80% di quello intel un FX 2 moduli se la sarebbe vista con gli i5 invece che con gli i3 grazie al maggior apporto del CMT, con la nuova architettura SMT amd dovrà avere un HT nn inferiore a quello intel, un ipc nn inferiore a quello intel e frequenze uguali, per stargli alla pari con uguale numero di core... ci riuscirà :confused:
;) ciauz
Parlando di cose più mondane: non sarebbe opportuno cambiare nome al thread in "[Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Zen"
Perchè aspettando Steamroller faremo la muffa :asd:
Si dovrebbe, ma pare che per poter modificare il titolo del thread occorra un moderatore. Probabilmente il capitano non è riuscito ancora a mettersi in contatto.
Io non sono per niente d' accordo con quanto detto nei post precedenti.
Nei calcoli multithreading un fx a 8core è quasi alla pari di un i7 sandy-ivi-bridge, molte review sono imprecise perchè testano gli fx con i settaggi a default non ottimali sulle mobo am3+ .
Idem per i giochi, semplicemente perchè le prestazioni dipendono soprattutto dalla vga, anzi in molti giochi recenti è più facile trovare colli di bottiglia con gli i3 che non con le cpu amd.
Qua dentro si parla degli fx come dei cessi inutili, ma le cose non stanno così, anzi i veri bidoni sono stati gli i7 a 300 e più euro quando un fx 8350 costava la metà :muro:
plainsong
07-09-2015, 18:53
Il SMT ha necessità di pipeline profonde per dare il meglio di sé. I soli 12 stadi di k10 non sono l'ideale
Anche per questo parlavo di un k10 rimaneggiato (del resto Penryn ha una pipeline a 14 stadi, Nehalem a 16, SB e Haswell a 14 con cache hit nella uop cache che secondo anandtech si verifica mediamente nell'80% dei casi).
Io non sono per niente d' accordo con quanto detto nei post precedenti.
Nei calcoli multithreading un fx a 8core è quasi alla pari di un i7 sandy-ivi-bridge, molte review sono imprecise perchè testano gli fx con i settaggi a default non ottimali sulle mobo am3+ .
Idem per i giochi, semplicemente perchè le prestazioni dipendono soprattutto dalla vga, anzi in molti giochi recenti è più facile trovare colli di bottiglia con gli i3 che non con le cpu amd.
Qua dentro si parla degli fx come dei cessi inutili, ma le cose non stanno così, anzi i veri bidoni sono stati gli i7 a 300 e più euro quando un fx 8350 costava la metà :muro:
Nessuno ha mai detto che gli FX sono dei bidoni o cessi inutili. Altrimenti ti assicuro che non sarebbe mai stato all'interno del mio case. Nei post precedenti si parlava di tutt'altro...
Io non sono per niente d' accordo con quanto detto nei post precedenti.
Nei calcoli multithreading un fx a 8core è quasi alla pari di un i7 sandy-ivi-bridge, molte review sono imprecise perchè testano gli fx con i settaggi a default non ottimali sulle mobo am3+ .
Idem per i giochi, semplicemente perchè le prestazioni dipendono soprattutto dalla vga, anzi in molti giochi recenti è più facile trovare colli di bottiglia con gli i3 che non con le cpu amd.
Qua dentro si parla degli fx come dei cessi inutili, ma le cose non stanno così, anzi i veri bidoni sono stati gli i7 a 300 e più euro quando un fx 8350 costava la metà :muro:
Io sono contentissimo dei miei FX e nn lì cambierei con degli i5... l'i7 dovrebbero regalarmelo, perchè costa troppo :Prrr:
;) ciauz
paolo.oliva2
07-09-2015, 21:04
Io sinceramente adesso non prenderei un FX.
Ai tempi di Zambezi vs Sandy Bridge (2011) e ai tempi di Vishera vs Ivy Bridge (2012) avrei comprato un FX, ma AMD si è fermata li ragazzi.
A parte le cpu ma pure i chipset sono rimasti parecchio indietro, diamine ci sono cpu intel che consumano meno dei chipset amd.
Se la serie FX avesse seguito l'evoluzione delle apu come core, pp e chipset allora si.
Ma sappiamo che AMD è un po' in crisi ed evidentemente ha preferito investire altrove.
E sia chiaro che non voglio manco prendere intel, non vorrei almeno, cerco di resistere fino a Zen con il mio macino (in arrivo un X5460 però) ma che Zen sia quantomeno decente.
Il problema non è tanto AMD, perché mi sembra che il chipset degli APU sia abbastanza con i tempi (e per i tempi intendo che le nuove features siano supportate da un hardware che costi il giusto, come esempio ora avere le DDR4 significa solamente spendere di più per avere uguale o meno).
Il discorso AM3+ è legato agli FX, e siccome gli FX non sono decollati, il sistema FX se uno lo acquista lo fa per un discorso prestazioni/prezzo, ma avere una mobo con tutte le features cheti alza comunque il prezzo del sistema sarebbe comunque una cosa inutile (se cerchi il miglior rapporto prestazioni/prezzo, non ti frega una mazza se le USB 3.0 sono nel chipset o comunque sono presenti nella mobo, o che il chipset sia a 22nm o a 45nm perché consumerebbe 1W in meno).
Mi sembra ovvio che se un FX fosse stato competitivo quanto un i7 socket 2011, con ovvi guadagni, non avrebbe fatto altro che implementare quello che ha già fatto per gli APU nel socket AM3+.
george_p
07-09-2015, 21:34
Nessuno ha mai detto che gli FX sono dei bidoni o cessi inutili. Altrimenti ti assicuro che non sarebbe mai stato all'interno del mio case. Nei post precedenti si parlava di tutt'altro...
Quoto. Penso che i post vadano letti e "compresi" i pensieri di chi scrive.
Per questioni di budget mi son preso una apu che mi ha permesso di risparmiare anche sulla scheda video potendo permettermi almeno 16 gb di ram, diversamente mi sarei preso l'octacore per una maggiore velocità nei rendering.
Naturalmente oggi sono rivolto in avanti e un fx vecchio stampo non entrerà nel mio prossimo pc.
tuttodigitale
07-09-2015, 22:01
Anche per questo parlavo di un k10 rimaneggiato (del resto Penryn ha una pipeline a 14 stadi, Nehalem a 16, SB e Haswell a 14 con cache hit nella uop cache che secondo anandtech si verifica mediamente nell'80% dei casi).
La fonte dei soli 14 stadi per SB e Haswell? Fonte attendibili parlano di pipeline da 16-19 stadi vs 20-22 di BD.
PS forse intendi la riduzione della penalità da miss-prediction, cosa diversa dal numero degli stadi che costituiscono la pipeline.
PPS la uop cache è presenta anche in steamroller. Ricordo che in breve, grazie alle micro-op, Conroe guadagnava solo il 4-5% di ipc.
paolo.oliva2
07-09-2015, 22:51
@ georgep
Cerca di capirmi. Tu parti dal presupposto che l'IPC basso è colpa del CMT, il TDP alto è colpa dell'architettura e che Intel ha un IPC alto per via dell'SMT e consuma poco per via dell'architettura.
Io come altri abbiamo scritto millemila volte che il CMT abbassa l'IPC al max del 20%, quindi come può il CMT incidere come tu dici? (A me sembra esagerato che Intel abbia un IPC doppio, altrimenti un 5960X andrebbe quanto 4 8350...)
Secondo... Come scrivi che BD ha mezzi core per via della FP condivisa (a parte che l'FP condivisa è doppia rispetto a quella del K10, infatti BD esegue le AVX nativamente mentre il K10 no), allora un modulo AMD dovrebbe consumare pressoche quanto un core Intel + SMT, mentre 4m AMD consumano ben di piu di 4 core + SMT Intel, non è lampante che il silicio sia la causa? Una volta si diceva che era per le frequenze, oggi che anche Intel a 4GHz, non lo si dice più... (Che coincidenza)
A parità di IPC iniziale per me SMT e CMT hanno pregi o difetti a seconda del numero di core e dell'utilizzo e del settore. Non è l'SMT che aumenta l'IPC, l'SMT porta ad una ottimizzazione del core facendolo lavorare al 100%. Se il core ha un IPC 50, allora tramite l'SMT si avrà il 50 +30%, se ha 100 si avrà il 30% di 100 e così via per qualsiasi valore vuoi dare all'IPC.
Vogliamo dare valori precisi alle cose?
Allora partiamo dal presupposto che BD nasce su studi di IBM dell'FO4 quale maggior rendimento tra lunghezza pipeline, IPC, TDP prodotto e frequenza raggiungibile.
Il 32nm non ha una bontà PP tale da mettere in pratica quanto studiato su carta, e questo lo si evince dai risultati di Llano core stars sul 32nm e invece cosa faceva sul 45nm, quindi se sul 32nm la potenza ottenuta è aumentata rispetto al K10, viene addirittura da ipotizzare che sia dovuta a BD e non viceversa.
Io sarei dell'idea, ed all'uscita si vociferava ciò, che Zambesi non fosse il BD su carta, ma che fosse un BD "zoppo", nel senso che delle cose siano state eliminate perché avrebbero reso impossibile un X8 a determinate frequenze, intese IPC x frequenza.
Zambesi infatti era 3,6GHz seppur con IPC inferiore a Piledriver.
Piledriver, dopo aver implementato la gestione dei clock ha inserito una pipeline nella FP ed ha aumentato di 400MHz la frequenza def. Le release Steamroller ed Excavator potrebbero essere comunque soluzioni non del max IPC ma della massima ottimizzazione tra consumi e prestazioni, essendo architetture fatte per il solo utilizzo mobile.
Ma poi non c'è manco tanto da trovare spiegazioni, perché il problema di oggi non è la progettazione, ma quanto il silicio permetta di produrre, quindi mi sembra abbastanza palese che un Excavator progettato su un 28nm non può implementare tutte le features possibili del medesimo ma realizzato su un 16nm
Insomma, BD è venuto male non perché non valido, ma perché il silicio non ha reso possibile la produzione di quanto progettato (i simulatori arrivano al 99,99% di precisione, se AMD aveva una aspettativa di 100, ha riportato 100. Una cosa è che l'abbia detto in buona fede, tutt'altra che l'abbia volutamente fatto e che lo stia rifacendo con Zen, magari è proprio per questo che non si sa una mazza.
P.S.
Scusa il papiro, ma mi sembra ovvio che dire che AMD lavora male si possa stilizzate in 3 parole, ma è ovvio che elencare i perché non si possa compressore in 3 parole.
plainsong
07-09-2015, 23:25
La fonte dei soli 14 stadi per SB e Haswell? Fonte attendibili parlano di pipeline da 16-19 stadi vs 20-22 di BD.
PS forse intendi la riduzione della penalità da miss-prediction, cosa diversa dal numero degli stadi che costituiscono la pipeline.
PPS la uop cache è presenta anche in steamroller. Ricordo che in breve, grazie alle micro-op, Conroe guadagnava solo il 4-5% di ipc.
Da anandtech (http://www.anandtech.com/show/6355/intels-haswell-architecture/6): "Haswell leaves the overall pipeline untouched. It's still the same 14 - 19 stage pipeline that we saw with Sandy Bridge depending on whether or not the instruction is found in the uop cache (which happens around 80% of the time)".
Anche pubblicazioni universitarie riportano questi valori:
http://research.engineering.wustl.edu/~songtian/pdf/intel-ivy.pdf
http://www.slideshare.net/sumit_khanka/ivy-bridge-vs-sandy-bridge-microarchitecture
"A 14- to 19-stage instruction pipeline, depending on the micro-operation cache hit or miss".
A quanto capisco la uop cache, passando istruzioni x86 ricorsive già decodificate in microps, permette in caso di hit di saltare gli stadi instruction fetch/prediction/decode.
@ georgep
Cerca di capirmi. Tu parti dal presupposto che l'IPC basso è colpa del CMT, il TDP alto è colpa dell'architettura e che Intel ha un IPC alto per via dell'SMT e consuma poco per via dell'architettura.
Io come altri abbiamo scritto millemila volte che il CMT abbassa l'IPC al max del 20%, quindi come può il CMT incidere come tu dici? (A me sembra esagerato che Intel abbia un IPC doppio, altrimenti un 5960X andrebbe quanto 4 8350...)
Secondo... Come scrivi che BD ha mezzi core per via della FP condivisa (a parte che l'FP condivisa è doppia rispetto a quella del K10, infatti BD esegue le AVX nativamente mentre il K10 no), allora un modulo AMD dovrebbe consumare pressoche quanto un core Intel + SMT, mentre 4m AMD consumano ben di piu di 4 core + SMT Intel, non è lampante che il silicio sia la causa? Una volta si diceva che era per le frequenze, oggi che anche Intel a 4GHz, non lo si dice più... (Che coincidenza)
A parità di IPC iniziale per me SMT e CMT hanno pregi o difetti a seconda del numero di core e dell'utilizzo e del settore. Non è l'SMT che aumenta l'IPC, l'SMT porta ad una ottimizzazione del core facendolo lavorare al 100%. Se il core ha un IPC 50, allora tramite l'SMT si avrà il 50 +30%, se ha 100 si avrà il 30% di 100 e così via per qualsiasi valore vuoi dare all'IPC.
Vogliamo dare valori precisi alle cose?
Allora partiamo dal presupposto che BD nasce su studi di IBM dell'FO4 quale maggior rendimento tra lunghezza pipeline, IPC, TDP prodotto e frequenza raggiungibile.
Il 32nm non ha una bontà PP tale da mettere in pratica quanto studiato su carta, e questo lo si evince dai risultati di Llano core stars sul 32nm e invece cosa faceva sul 45nm, quindi se sul 32nm la potenza ottenuta è aumentata rispetto al K10, viene addirittura da ipotizzare che sia dovuta a BD e non viceversa.
Io sarei dell'idea, ed all'uscita si vociferava ciò, che Zambesi non fosse il BD su carta, ma che fosse un BD "zoppo", nel senso che delle cose siano state eliminate perché avrebbero reso impossibile un X8 a determinate frequenze, intese IPC x frequenza.
Zambesi infatti era 3,6GHz seppur con IPC inferiore a Piledriver.
Piledriver, dopo aver implementato la gestione dei clock ha inserito una pipeline nella FP ed ha aumentato di 400MHz la frequenza def. Le release Steamroller ed Excavator potrebbero essere comunque soluzioni non del max IPC ma della massima ottimizzazione tra consumi e prestazioni, essendo architetture fatte per il solo utilizzo mobile.
Ma poi non c'è manco tanto da trovare spiegazioni, perché il problema di oggi non è la progettazione, ma quanto il silicio permetta di produrre, quindi mi sembra abbastanza palese che un Excavator progettato su un 28nm non può implementare tutte le features possibili del medesimo ma realizzato su un 16nm
Insomma, BD è venuto male non perché non valido, ma perché il silicio non ha reso possibile la produzione di quanto progettato (i simulatori arrivano al 99,99% di precisione, se AMD aveva una aspettativa di 100, ha riportato 100. Una cosa è che l'abbia detto in buona fede, tutt'altra che l'abbia volutamente fatto e che lo stia rifacendo con Zen, magari è proprio per questo che non si sa una mazza.
P.S.
Scusa il papiro, ma mi sembra ovvio che dire che AMD lavora male si possa stilizzate in 3 parole, ma è ovvio che elencare i perché non si possa compressore in 3 parole.
Ma sei il 32nm SOI è così pessimo, perchè non sono passati a piè pari al 28 bulk steamroller appena possibile, che peraltro avrebbe consentito un notevole risparmio di silicio o la possibilità di un fx x12 o adirittura x16, con possibile rilancio sul settore server dove questa architettura da il meglio?
george_p
08-09-2015, 08:11
Ma sei il 32nm SOI è così pessimo, perchè non sono passati a piè pari al 28 bulk steamroller appena possibile, che peraltro avrebbe consentito un notevole risparmio di silicio o la possibilità di un fx x12 o adirittura x16, con possibile rilancio sul settore server dove questa architettura da il meglio?
Mesi fa su Bit&Chips ipotizzarono della necessità di molti soldi per ridisegnare i layers su questo silicio ma di recente quando è saltato fuori che amd ha perso 30 milioni di dollari circa sul 20 nm di water-glofo che quest'ultima ha poi abbandonato (come già fatto per i 22 nm blk e i 14nm) viene da pensare che amd ha bruciato soldi per pp fantasmi e non ne aveva per ritentare la fortuna di un fx sui 28nm.
Tra l'altro water-glofo non ha pagato nessuna penale per questo ma ha semplicemente fatto sconti ad amd sui pezzi prodotti, meschina.
@ georgep
Cerca di capirmi. Tu parti dal presupposto che l'IPC basso è colpa del CMT, il TDP alto è colpa dell'architettura e che Intel ha un IPC alto per via dell'SMT e consuma poco per via dell'architettura.
La tua lettura dei miei post è totalmente errata ed opposta.
Poi non è che parto da un presupposto ma semplicemente riporto i dati dichiarati nel tempo da amd con il suo cmt che apporta l'80% di potenza elaborativa in più. Un core all'80% è un core meno potente del 100%.
Prendendo in Cinebench (motore di rendering 3D di cinema4d, settore professionale e non videoludico) il valore in ST di BD rispetto al Thuban il primo ottiene valori più bassi con frequenze più alte, quindi l'ipc a core è drasticamente inferiore.
Il tdp alto dell'architettura lo constato perché anche nel 28nm non sono riusciti ad abbassarlo di una virgola rispetto al 32, vedi Kaveri a 95 w con frequenza più bassa e richland a 100w con frequenza più alta ma sui 32 nm.
Senza contare il paragone con la concorrenza che quasi a parità di pp (22nm e 28nm o ancora peggio i 32nm di intel con SB vs i 28nm di amd) ci ficca dentro una cpu potente che consuma molto meno (che sia octa, esa o quadcore con igp).
E intel ha un maggiore ipc pur senza smt, questo mica lo dico io.
L'architettura non c'entra? invece si caro mio, per questo non riescono a ridurre consumi senza un processo produttivo piccolissimo. BD doveva rimanere ancora su carta fino al 2017. Ma alcuni di voi pensano il contrario.
°Phenom°
08-09-2015, 12:24
Sempre detto, il primo prob è l'architettura, mettici poi anche il pessimo silicio ed ecco cosa ne é venuto fuori. Ma ancora molti danno come problema maggiore quello del silicio, pensiero errato anche a mio parere ;)
Mesi fa su Bit&Chips ipotizzarono della necessità di molti soldi per ridisegnare i layers su questo silicio ma di recente quando è saltato fuori che amd ha perso 30 milioni di dollari circa sul 20 nm di water-glofo che quest'ultima ha poi abbandonato (come già fatto per i 22 nm blk e i 14nm) viene da pensare che amd ha bruciato soldi per pp fantasmi e non ne aveva per ritentare la fortuna di un fx sui 28nm.
Tra l'altro water-glofo non ha pagato nessuna penale per questo ma ha semplicemente fatto sconti ad amd sui pezzi prodotti, meschina.
Ma aveva già i core x86 pronti sui 28nm, li stai usando adesso ;)
Bastava creare maschere a 4,6 o 8 moduli e aggiungere cache l3 quanto basta: oltretutto essendo un die multicore la frequanza max non sarebbe stata alta comunque, ma almeno sfruttavi pienamente i vantaggi di un architetture che da il meglio sul multitrhead pesante, in particolare nel settore server e workstation, dove girano i big money.
Kaveri mobile ( la versione desktop è più o meno un riciclo) invece non se lo fila nessun oem e nel caso se lo filasse, lo casta con ram scrause e a quel punto tutti a comprare comunque Intel + dedicata...
Scusate signori se interrompo la vostra discussione con questo post consumista, ma mi interesserebbe sapere se e quando usciranno nuove CPU desktop AMD, in giro non trovo notizie :stordita:
Jones D. Daemon
08-09-2015, 19:37
Ottimisticamente Q3 2016
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
paolo.oliva2
08-09-2015, 20:35
Tu fai una correlazione di nm senza valutare il PP.
I transistor consumano quando cambiano stato. Un IPC superiore vuol dire più istruzioni elaborate, quindi è ovvio che ci sia un superiore cambio di stato dei transistor il che vuol dire più consumo alias TDP. A questo aggiungici il peso dell'SMT e di parti logiche sfruttate al 100%. Già solo valutando questo, AMD dovrebbe avere un TDP almeno almeno della metà, quindi 70W rispetto ai 140W di un 5960X
Un 5960X ha la bellezza di 2,6miliardi di transistor contro manco 1,2 miliardi di un FX 8350, il che equivarrebbe che un 5960X dovrebbe avere un TDP più che doppio.
Quindi... sommando ambedue le cose, un FX 8350 dovrebbe avere 1/3 del TDP di un 5960X, cioè stiamo super larghi, 50W, invece siamo a 125W vs 140W, e per te unicamente colpa del l'efficienza architetturale perché i nm di Intel sono pressappoco come i 28nm Bulk di GF
Pago la cena a tutto il mondo se da un Kavery 95W X4 GF potrebbe fare un 5960X a 140W perché la colpa è l'architettura modulare di BD.
paolo.oliva2
08-09-2015, 20:51
Ma aveva già i core x86 pronti sui 28nm, li stai usando adesso ;)
Bastava creare maschere a 4,6 o 8 moduli e aggiungere cache l3 quanto basta: oltretutto essendo un die multicore la frequanza max non sarebbe stata alta comunque, ma almeno sfruttavi pienamente i vantaggi di un architetture che da il meglio sul multitrhead pesante, in particolare nel settore server e workstation, dove girano i big money.
Kaveri mobile ( la versione desktop è più o meno un riciclo) invece non se lo fila nessun oem e nel caso se lo filasse, lo casta con ram scrause e a quel punto tutti a comprare comunque Intel + dedicata...
Tu hai centrato il discorso che si è creato da alcune pagine, cioè, BD ha un IPC di partenza basso, ma il 32nm SOI ed Idem il 28nm Bulk non hanno un PP sufficiente per implementare l'aumento di IPC architetturale accompagnato dall'aumento dei moduli. Addirittura Kaveri X6 APU era stato creato sulla carta ma mai entrato in produzione.
Per evitare un nuovo salto nel buio (alias nuova architettura + nuovo silicio) secondo me sarebbe stato molto più saggio realizzare un Excavator FX X12 OPTERON, dove per certo l'MT sarebbe stato grandioso, e magari stendere Zen in ambito APU, dove dato il ridotto numero di core, un SMT ha più senso.
Probabilmente il 28nm Bulk, come non rende oltre un certo TDP (45W) con BD, avrebbe reso ancora peggio con un SMT Zen
Paolo, possiamo parlare di tutto il silicio che vuoi, ma NON PUOI creare un architettura che per essere DECENTE deve ALMENO partire da 5ghz in 125w di TDP
Inviato dal mio iPhone utilizzando Tapatalk
paolo.oliva2
08-09-2015, 22:59
Paolo, possiamo parlare di tutto il silicio che vuoi, ma NON PUOI creare un architettura che per essere DECENTE deve ALMENO partire da 5ghz in 125w di TDP
Inviato dal mio iPhone utilizzando Tapatalk
Io dico solo questo:
Intel con il suo 22nm ci mette 2,6 miliardi di transistor in 140W.
Possiamo almeno dire che a parità di transistor e a parità di frequenza (abbuono pure l'IPC superiore di Intel) dovrebbe essere 140W pure un FX con 2,6miliardi di transistor?
Benissimo 2,6miliardi / 1,2miliardi dà 2,166, questo vorrebbe dire che da X8 un FX dovrebbe essere X17,33.
Insomma, mi pare parecchio evidente che tra silicio 32nm SOI e 22nm Bulk Intel ci sia una tale differenza che sarebbe incolmabile da qualsiasi architettura, perché nulla può portare ad un'efficienza del +213%.
A me non frega una tozza il punto del giudizio sull'architettura BD, ma mi pare ovvio che se si parte dal presupposto di ignorare il guadagno CMT in MT e l'aumento di IPC non commercializzato e quant'altro, dicendo che BD è fallimentare perché ha il 50% in meno di IPC di Intel, come si fa a ignorare completamente che il silicio genera un +213% di TDP rispetto ad Intel?
Se un FX 8350 è 125W ed un 9590 è 220W, con quel 213% di differenza un 8350 sarebbe 60W ed un 9590 sui 100W, ci scapperebbe un X10 a 5GHz, nei 125W. Ed è sorprendente che rispecchia (anzi di più) ciò che AMD riportava, cioè FX X8 a 95W e l'X10 a 125W, con frequenze sopra i 4,5GHz. Ora, per chi cerca la forza bruta, che si compri pure Intel, ma non facciamo paternalismo affermando che un X4+4 è più potente anche in MT perché l'SMT rende di piu, perché anche un 6700K con l'ultimissima architettura e pure sul 14nm non starebbe in MT davanti ad un FX X10 4,5GHz def. Ma io preferirei un 5960X ugualmente, ma un FX su un 22nm su base Excavator, chissà.
Io non sto difendendo AMD, ma sto solo mettendo in chiaro quanto incide il silicio. Stop. Se Zen non andrà, che sia prb di architettura o che sia prb di silicio o qualsivoglia, mi pare abbastanza chiaro che uno acquista il prodotto per quello che va, come del resto se Intel facesse pagare a mm2 tanto quanto AMD, il 5960 costerebbe 220€ e non esisterebbe questo TH ed AMD avrebbe chiuso con la parte CPU.
cut...
Ok, ok, ok, ok stop. BD è la migliore architettura degli ultimi 10 anni, non esiste rivale, tutta colpa di quel cattivone del 32nm. Ma secondo me Zen romperà il culo a BD. Sei d'accordo ?
Io dico solo questo:
Intel con il suo 22nm ci mette 2,6 miliardi di transistor in 140W.
Possiamo almeno dire che a parità di transistor e a parità di frequenza (abbuono pure l'IPC superiore di Intel) dovrebbe essere 140W pure un FX con 2,6miliardi di transistor?
Benissimo 2,6miliardi / 1,2miliardi dà 2,166, questo vorrebbe dire che da X8 un FX dovrebbe essere X17,33.
Insomma, mi pare parecchio evidente che tra silicio 32nm SOI e 22nm Bulk Intel ci sia una tale differenza che sarebbe incolmabile da qualsiasi architettura, perché nulla può portare ad un'efficienza del +213%.
A me non frega una tozza il punto del giudizio sull'architettura BD, ma mi pare ovvio che se si parte dal presupposto di ignorare il guadagno CMT in MT e l'aumento di IPC non commercializzato e quant'altro, dicendo che BD è fallimentare perché ha il 50% in meno di IPC di Intel, come si fa a ignorare completamente che il silicio genera un +213% di TDP rispetto ad Intel?
Se un FX 8350 è 125W ed un 9590 è 220W, con quel 213% di differenza un 8350 sarebbe 60W ed un 9590 sui 100W, ci scapperebbe un X10 a 5GHz, nei 125W. Ed è sorprendente che rispecchia (anzi di più) ciò che AMD riportava, cioè FX X8 a 95W e l'X10 a 125W, con frequenze sopra i 4,5GHz. Ora, per chi cerca la forza bruta, che si compri pure Intel, ma non facciamo paternalismo affermando che un X4+4 è più potente anche in MT perché l'SMT rende di piu, perché anche un 6700K con l'ultimissima architettura e pure sul 14nm non starebbe in MT davanti ad un FX X10 4,5GHz def. Ma io preferirei un 5960X ugualmente, ma un FX su un 22nm su base Excavator, chissà.
Io non sto difendendo AMD, ma sto solo mettendo in chiaro quanto incide il silicio. Stop. Se Zen non andrà, che sia prb di architettura o che sia prb di silicio o qualsivoglia, mi pare abbastanza chiaro che uno acquista il prodotto per quello che va, come del resto se Intel facesse pagare a mm2 tanto quanto AMD, il 5960 costerebbe 220€ e non esisterebbe questo TH ed AMD avrebbe chiuso con la parte CPU.
La prima parte del tuo pensiero è corretta , meno la seconda imho.
Stai dando per scontato, come i vecchi ingenieri del Pentium 4 e quelli più recenti di Bulldozer, che la riduzione del PP porti ad un aumento delle frequenze massime e soprattutto ad una riduzione dei consumi a parità di frequenza.
Un ipotetico FX X8 @ 4ghz @ 22nm probabilmente avrebbe consumato comunque 125w, ma avrebbe avuto un die nettamente più piccolo rispetto al 32nm SOI, che come tecnologia richiede una bassa densità di transistor.
Il grosso vantaggio sarebbe stato nelle maggiori rese e nella possibilità di produrre magari un x16 @ 3.3ghz @ 140w, evitando di far morire il suo settore server, ove tra l'altro le cpu FX avrebbero qualcosa da dire.
Nel settore consumer invece quest'architettura così come è non è competitiva, punto.
Frequenze superiori portano ad un aumento eccessivo dei consumi, il risultato lo abbiamo sotto ai nostri occhi con la serie fx 9000 o con qualunque cpu overcloccata.
edit: 32000° post di questo thread ! :o
paolo.oliva2
09-09-2015, 10:39
La prima parte del tuo pensiero è corretta , meno la seconda imho.
Stai dando per scontato, come i vecchi ingenieri del Pentium 4 e quelli più recenti di Bulldozer, che la riduzione del PP porti ad un aumento delle frequenze massime e soprattutto ad una riduzione dei consumi a parità di frequenza.
Un ipotetico FX X8 @ 4ghz @ 22nm probabilmente avrebbe consumato comunque 125w, ma avrebbe avuto un die nettamente più piccolo rispetto al 32nm SOI, che come tecnologia richiede una bassa densità di transistor.
Il grosso vantaggio sarebbe stato nelle maggiori rese e nella possibilità di produrre magari un x16 @ 3.3ghz @ 140w, evitando di far morire il suo settore server, ove tra l'altro le cpu FX avrebbero qualcosa da dire.
Nel settore consumer invece quest'architettura così come è non è competitiva, punto.
Frequenze superiori portano ad un aumento eccessivo dei consumi, il risultato lo abbiamo sotto ai nostri occhi con la serie fx 9000 o con qualunque cpu overcloccata.
edit: 32000° post di questo thread ! :o
A prescindere che la frequenza max dipende dal PP e non dalla miniaturizzazione, la miniaturizzazione più spinta concede un TDP inferiore a parità di transistor.
Un 8370E, testato da Tom's, che certamente non è pro AMD, aveva rilevato 90W TDP con un OC a @4,4GHz, quindi mi sembra irreale che un passaggio ad un 22nm non solo non diminuisca il TDP del 32nm non eccelso ma che addirittura lo aumenti.
Il punto delle frequenze è ballerino, finché Intel aveva 3,5GHz come frequenza def, BD consumava perché era 4GHz, ora che la stessa Intel è a 4GHz, allora il discorso si sposta a 4,5GHz. Mi sembra ovvio che un BD alla stessa frequenza di Intel non possa consumare di più, come per un IPC inferiore debba consumare meno a parità di frequenza.Io riporto solamente che un Excavator con 20/25% in più di IPC, a 4GHz renderebbe quanto un 8350 a 4,8/5GHz, un dato di fatto senza aumentare la frequenza.
Io per scontato dico solo che BD + 32nm offre una cosa e che BD + Ex sul 16nm be tutta un'altra cosa, mentre a me sembra che si associa BD a quanto ha potuto offrire il 32nm e sul 16nm farebbe lo stesso flop.
Immagina solamente come si comporterebbe un Carrizo X6 APU nel mobile...
Ragazzi ho bisogno del vostro aiuto.
Visto il calo di prezzi della ram volevo fare un upgrade.
Pensavo di aggiungere altri 8 GB, poi ho ricordato di aver letto qui da qualche parte che occupando tutti gli slot le performance calano o addirittura si hanno problemi di stabilità.
Mi conviene quindi acquistare altri 8 oppure andare di kit 2x8?
Configurazione in firma.
Ragazzi ho bisogno del vostro aiuto.
Visto il calo di prezzi della ram volevo fare un upgrade.
Pensavo di aggiungere altri 8 GB, poi ho ricordato di aver letto qui da qualche parte che occupando tutti gli slot le performance calano o addirittura si hanno problemi di stabilità.
Mi conviene quindi acquistare altri 8 oppure andare di kit 2x8?
Configurazione in firma.
Spesso (ma non sempre) avere i 4 slot di memoria occupati porta le memorie ad andare a 1600mhz. Fermo restando che i moduli devono essere della stessa marca e modello per evitare problemi (sarebbe consigliabile anche lo stetto batch di produzione, ecco perchè esistevano i kit da 4 moduli anche prima delle cpu quad channel).
Se vuoi avere il massimo di prestazioni evitando problemi vari ed eventuali, vai di kit 2x8gb.
A proposito, sai come sfruttare quei 16giga di ram? Per quando hai intenzione di tenere la tua piattaforma in firma?
Io con i miei 8gb sono Planetary Annilhation è riuscito a saturarle (rimanendo comunque fluido) con 4 IA attive...
Ragazzi ho bisogno del vostro aiuto.
Visto il calo di prezzi della ram volevo fare un upgrade.
Pensavo di aggiungere altri 8 GB, poi ho ricordato di aver letto qui da qualche parte che occupando tutti gli slot le performance calano o addirittura si hanno problemi di stabilità.
Mi conviene quindi acquistare altri 8 oppure andare di kit 2x8?
Configurazione in firma.
Imho non ha senso, a meno di particolari esigenze 8 gb sono piu che sufficenti. Le DDR3 ad un futuro upgrade (AMD o Intel che sia) comunque le cestineresti
Spesso (ma non sempre) avere i 4 slot di memoria occupati porta le memorie ad andare a 1600mhz. Fermo restando che i moduli devono essere della stessa marca e modello per evitare problemi (sarebbe consigliabile anche lo stetto batch di produzione, ecco perchè esistevano i kit da 4 moduli anche prima delle cpu quad channel).
Se vuoi avere il massimo di prestazioni evitando problemi vari ed eventuali, vai di kit 2x8gb.
A proposito, sai come sfruttare quei 16giga di ram? Per quando hai intenzione di tenere la tua piattaforma in firma?
Io con i miei 8gb sono Planetary Annilhation è riuscito a saturarle (rimanendo comunque fluido) con 4 IA attive...
Immaginavo...
Volevo solo avere la conferma.
Saturo quando faccio compressione/editing video.
Per il gioco è un po' che non mi dedico, anzi giusto in questo periodo vorrei ricominciare con qualche RTS e poi andare di nuova VGA.
Pensavo ad una R9 285/380 visto che ha il nuovo Tonga, il chip più avanzato di AMD, soprattutto per le decodifiche video integrate.
Aspetto naturalmente Zen per cambiare tutto, vediamo un po' che combina AMD.
Imho non ha senso, a meno di particolari esigenze 8 gb sono piu che sufficenti. Le DDR3 ad un futuro upgrade (AMD o Intel che sia) comunque le cestineresti
Quindi mi consigli di rimanere così.
Effettivamente al cambio di piattaforma con Zen passeremo alle DDR4.
Immaginavo...
Volevo solo avere la conferma.
Saturo quando faccio compressione/editing video.
Per il gioco è un po' che non mi dedico, anzi giusto in questo periodo vorrei ricominciare con qualche RTS e poi andare di nuova VGA.
Pensavo ad una R9 285/380 visto che ha il nuovo Tonga, il chip più avanzato di AMD, soprattutto per le decodifiche video integrate.
Aspetto naturalmente Zen per cambiare tutto, vediamo un po' che combina AMD.
Quindi mi consigli di rimanere così.
Effettivamente al cambio di piattaforma con Zen passeremo alle DDR4.
Non ti consiglio di cambiare ora vga, il prossimo anno escono i 16/14nm e tutte quelle attuali saranno obsolete. Se proprio cerca qualcosa nell'usato, io ho pagato 130€ ss incluse la mia 7970.
Se vuoi giocare ad un bel rts prova Forged Alliance Forever, client amatoriale su base Supreme Commander. Uno del migliori RTS !
Se vuoi info MP
Se vuoi passare a zen allora tieni le ram che hai, altrimenti 16gb possono andare bene in ottica futura o se dellla ram in più non puoi farne a meno ora.
cut...
Comunque, pensala come ti pare... io sono felice che AMD esista, ho CPU AMD da sempre (a parte il primo Pentium 60) e mai e poi mai mi sono sentito di aver comprato una CPU insufficiente per i miei bisogni.
Baio
Sono felice anchio che AMD esista. Ho cpu AMD anchio da sempre (tranne un vecchio e5400 e i920 ma contemporaneamente ad altre stazioni amd). E anchio come te sono sempre stato soddisfatto dei chip amd che ho avuto (comprese schede video), e non mi sono mai pentito e/o pensato di aver acquistato una roba non idonea ai miei bisogni. Ma tutto questo è un discorso a parte a tutti quelli fatti nei post precedenti.
Spesso (ma non sempre) avere i 4 slot di memoria occupati porta le memorie ad andare a 1600mhz. Fermo restando che i moduli devono essere della stessa marca e modello per evitare problemi (sarebbe consigliabile anche lo stetto batch di produzione, ecco perchè esistevano i kit da 4 moduli anche prima delle cpu quad channel).
Se vuoi avere il massimo di prestazioni evitando problemi vari ed eventuali, vai di kit 2x8gb.
A proposito, sai come sfruttare quei 16giga di ram? Per quando hai intenzione di tenere la tua piattaforma in firma?
Io con i miei 8gb sono Planetary Annilhation è riuscito a saturarle (rimanendo comunque fluido) con 4 IA attive...
Nel pc di mio figlio c'é un kit 4x4gb:
http://thumbnails114.imagebam.com/43471/bc82a7434705260.jpg (http://www.imagebam.com/image/bc82a7434705260)
e nn ha nessun problema, penso che con banchi tutti uguali e senza incompatibilità i problemi siano abbastanza rari.
;) ciauz
tuttodigitale
10-09-2015, 01:06
La tua lettura dei miei post è totalmente errata ed opposta.
Poi non è che parto da un presupposto ma semplicemente riporto i dati dichiarati nel tempo da amd con il suo cmt che apporta l'80% di potenza elaborativa in più. Un core all'80% è un core meno potente del 100%.
Prendendo in Cinebench (motore di rendering 3D di cinema4d, settore professionale e non videoludico) il valore in ST di BD rispetto al Thuban il primo ottiene valori più bassi con frequenze più alte, quindi l'ipc a core è drasticamente inferiore.
Ma anche senza CMT, BD ha un ipc in cinebench inferiore a Thuban di un buon 15%. Un 4c/4m è inferiore ad un quad core Deneb c'è poco da fare.
E intel ha un maggiore ipc pur senza smt, questo mica lo dico io.
Intel non ha neppure fatto un quad core da 2,1 GHz in 15W, se è per questo con i suoi 32nm, ma si è fermato ad un "misero" dual core da 1,8GHz in 17W, e non ha il south bridge integrato...praticamente le cpu Intel, anche grazie all'uso delle hdl da parte di AMD, consumano praticamente il triplo a parità di numero core e silicio, alla stessa frequenza. Ancora convinto che sia una architettura affamata di corrente?
L'architettura non c'entra? invece si caro mio, per questo non riescono a ridurre consumi senza un processo produttivo piccolissimo. BD doveva rimanere ancora su carta fino al 2017. Ma alcuni di voi pensano il contrario.
si, e magari invece di un bel FX8350, ci saremmo dovuti accontentarci di un fantastico Phenom x8 da 2,4GHz con turbo core a 3GHz,
Non ci scordiamo che il modello di punta da 65W non era un a10-7800 da 3,5GHz, ma un a8-3800 da 2,4 GHz.
Mi chiedo allora dove cavolo sta la superiorità di k10, tanto pubblicizzata da molti, con frasi del tipo " è troppo avanti con i tempi". Non bastano RCM e 6 mesi di sviluppo sul pp, per guadagnare quasi il 50% di clock, ma un vero e proprio miracolo (1,1 GHz in più lo sono), o più semplicemente un 'architettura diversa.
Il tdp alto dell'architettura lo constato perché anche nel 28nm non sono riusciti ad abbassarlo di una virgola rispetto al 32, vedi Kaveri a 95 w con frequenza più bassa e richland a 100w con frequenza più alta ma sui 32 nm.
con i 28nm, i grossi miglioramenti si hanno dai 65 watt a scendere. E per un ipotetico x12, sono importanti quelli nel range 35-45.
Paolo, possiamo parlare di tutto il silicio che vuoi, ma NON PUOI creare un architettura che per essere DECENTE deve ALMENO partire da 5ghz in 125w di TDP
se in quei 125W oltre i 5Ghz ci fossero stati anche due core in più, Piledriver sarebbe stata una bestia COMPLETAMENTE diversa.
Sempre detto, il primo prob è l'architettura, mettici poi anche il pessimo silicio ed ecco cosa ne é venuto fuori. Ma ancora molti danno come problema maggiore quello del silicio, pensiero errato anche a mio parere ;)
i 32nm hanno tagliato le gambe anche ad una collauda architettura come k10. Il silicio è fondamentale, visto che llano sulla carta doveva andare oltre i 3GHz in 65W di TDP.
Ok, ok, ok, ok stop. BD è la migliore architettura degli ultimi 10 anni, non esiste rivale, tutta colpa di quel cattivone del 32nm. Ma secondo me Zen romperà il culo a BD. Sei d'accordo ?
Anche excavator su 28nm HDL romperebbe il culo a BD, figurati con i 16nm.
Comunque si, BD è la migliore architettura di AMD degli ultimi 10 anni: la migliore sia sui 32nm SOI, dove batte k10, sia sui 28nm, dove batte i core jaguar.
quello che mi dà fastidio di tutti questi discorsi, che sembra ci siano scelte obbligate, quando tutte le strade sono in realtà potenzialmente ottime se le scelte di contorno sono fatte con criterio. Se l'approccio CMT, permette potenzialmente di aumentare, il 20% le prestazioni per watt nel MT, e al contempo perdere il 20% nel ST, dovuta alla riduzione dell'ampiezza del core, resta un ottima soluzione, in ambito server (che poi dovrebbe essere il mercato di riferimento per la AMD di domani).
paolo.oliva2
10-09-2015, 08:03
Quello che ho paura, è che fare doppio salto (architettura + silicio) è rischiosissimo.
Implica dei problemi insuperabili.
Io non sono un tecnico di silicio, ma per quello che ho potuto capire, il die in quanto tale èun immenso compromesso da progetto carta a produzione silicio.
Facendo un esempio, se per 1 core 1W in più o in meno sembra una cosa ridicola, se però si parte con il presupposto di fare un X8 nativo, già diventerebbero 8W in più, quindi magari sarebbe convenuto inquadrare un X6 come base ma se poi il silicio avrebbe un consumo superiore con l'aumento della frequenza?
Partendo invece da un silicio conosciuto, tutto è più facile perché si saprebbero a priori i valori TDP del core e quindi un margine più che ottimo di partenza.
Per quello che si sa, un +40% di Zen su BD non uguaglierebbe l'IPC di Intel. Per contro, i 95W su un X8+8 permetterebbero un X10+10 sui 125W. Su questo dato ad occhio e croce, sembrerebbe che sto silicio 16nm raggiunga come TDP/potenza l'efficienza del 22nm Intel. (Paragonando 140W di un 5960X a quello che potrebbe fare uno Zen X10 sui 125W)
Per contro, un 5960X è 2,6 miliardi di transistor, di più di quelli necessari ad un X16 su base Excavator.
Quindi a grandi linee non ci vedo in Zen un gran vantaggio su BD di ottimizzazione, perché praticamente Zen guadagnerebbe in ST tanto quanto perderebbe in MT su BD
Se a questo ci aggiungiamo i soldi spesi ed il rischio di una nuova architettura, io vedrei BD una scelta più logica... Oppure magari togliendo il CMT sull'FP ma conservando il modulo si sarebbe incrementato l'IPC e nel contempo riducendo da X16 a X14.
P.S.
4 anni fa la discussione era incentrata sull'efficienza architetturale valutando la potenza ottenuta con quanti transistor.
Per chi continua a dire che il silicio non c'entra, dico questo:
Un 5960X ha 2,6 miliardi di transistor. Un 8350 ne ha 1,2 miliardi. Un 5960X va più del doppio di un 8350X ma ha anche più del doppio di transistor. Dove è l'efficienza superiore? Si, 2,6miliardi di transistor in 140W vs 1,2miliardi in 125W, ma questo non è silicio?
Jones D. Daemon
10-09-2015, 08:25
Quello che ho paura, è che fare doppio salto (architettura + silicio) è rischiosissimo.
Implica dei problemi insuperabili.
Io non sono un tecnico di silicio, ma per quello che ho potuto capire, il die in quanto tale èun immenso compromesso da progetto carta a produzione silicio.
Facendo un esempio, se per 1 core 1W in più o in meno sembra una cosa ridicola, se però si parte con il presupposto di fare un X8 nativo, già diventerebbero 8W in più, quindi magari sarebbe convenuto inquadrare un X6 come base ma se poi il silicio avrebbe un consumo superiore con l'aumento della frequenza?
Partendo invece da un silicio conosciuto, tutto è più facile perché si saprebbero a priori i valori TDP del core e quindi un margine più che ottimo di partenza.
Per quello che si sa, un +40% di Zen su BD non uguaglierebbe l'IPC di Intel. Per contro, i 95W su un X8+8 permetterebbero un X10+10 sui 125W. Su questo dato ad occhio e croce, sembrerebbe che sto silicio 16nm raggiunga come TDP/potenza l'efficienza del 22nm Intel. (Paragonando 140W di un 5960X a quello che potrebbe fare uno Zen X10 sui 125W)
Per contro, un 5960X è 2,6 miliardi di transistor, di più di quelli necessari ad un X16 su base Excavator.
Quindi a grandi linee non ci vedo in Zen un gran vantaggio su BD di ottimizzazione, perché praticamente Zen guadagnerebbe in ST tanto quanto perderebbe in MT su BD
Se a questo ci aggiungiamo i soldi spesi ed il rischio di una nuova architettura, io vedrei BD una scelta più logica... Oppure magari togliendo il CMT sull'FP ma conservando il modulo si sarebbe incrementato l'IPC e nel contempo riducendo da X16 a X14.
P.S.
4 anni fa la discussione era incentrata sull'efficienza architetturale valutando la potenza ottenuta con quanti transistor.
Per chi continua a dire che il silicio non c'entra, dico questo:
Un 5960X ha 2,6 miliardi di transistor. Un 8350 ne ha 1,2 miliardi. Un 5960X va più del doppio di un 8350X ma ha anche più del doppio di transistor. Dove è l'efficienza superiore? Si, 2,6miliardi di transistor in 140W vs 1,2miliardi in 125W, ma questo non è silicio?
Paolo per farti tornare meglio i conti perché non usi negli esempi uno xeon E7-8895 v2 invece del 5960x? Così in 155w hai 15 core a 2.8 ghz e puoi continuare a fare paragoni su architetture e silici completamente differenti per non far giustificare la grandiosa efficienza e potenza della serie FX... :muro:
Paolo per farti tornare meglio i conti perché non usi negli esempi uno xeon E7-8895 v2 invece del 5960x? Così in 155w hai 15 core a 2.8 ghz e puoi continuare a fare paragoni su architetture e silici completamente differenti per non far giustificare la grandiosa efficienza e potenza della serie FX... :muro:
il costo di questa cpu?
vedendo cpu-world (http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E7-8895%20v2.html)
a vedere i "parenti" di questa cpu mi sembra in una fascia di prezzo
(all'atto del lancio) un pelo fuori confronto magari meglio confrontarlo
con un opteron di pari prezzo (al lancio)
qui (http://www.cpu-world.com/CPUs/Bulldozer/AMD-Opteron%206386%20SE%20-%20OS6386YETGGHK.html)come prezzi per gli opteron c32 (almeno già confrontabili imho)
Jones D. Daemon
10-09-2015, 09:02
il costo di questa cpu?
vedendo cpu-world (http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E7-8895%20v2.html)
a vedere i "parenti" di questa cpu mi sembra in una fascia di prezzo
(all'atto del lancio) un pelo fuori confronto magari meglio confrontarlo
con un opteron di pari prezzo (al lancio)
qui (http://www.cpu-world.com/CPUs/Bulldozer/AMD-Opteron%206386%20SE%20-%20OS6386YETGGHK.html)come prezzi per gli opteron c32 (almeno già confrontabili imho)
Certo, ma anche il 5960X non è che rientri nella fascia di prezzo dell'8350. Si prende come confronto per tirare delle conclusioni inutili, si confronta il TDP di cpu di generazioni differenti, con architetture differenti, litografie differenti e componenti interni differenti. Tutto per riuscire a giustificare in qualche modo l'architettura bulldozer e far uscire fuori che era efficiente e con un buon IPC, tutta era colpa del silicio cattivo.
se in quei 125W oltre i 5Ghz ci fossero stati anche due core in più, Piledriver sarebbe stata una bestia COMPLETAMENTE diversa.
Si, e poi la marmotta confezionava la cioccolata. Scusate solo una cosa, ma se questa architettura fosse cosi fantastica, per quale motivo AMD l'ha eradicata completamente? Già è senza soldi, se l'architettura era cosi buona bastava aspettare i 14/16nm e proporre un semplice shrink di Excavator, invece di spendere milioni a crearne una nuova.
paolo.oliva2
10-09-2015, 09:50
Certo, ma anche il 5960X non è che rientri nella fascia di prezzo dell'8350. Si prende come confronto per tirare delle conclusioni inutili, si confronta il TDP di cpu di generazioni differenti, con architetture differenti, litografie differenti e componenti interni differenti. Tutto per riuscire a giustificare in qualche modo l'architettura bulldozer e far uscire fuori che era efficiente e con un buon IPC, tutta era colpa del silicio cattivo.
Strano... Io faccio una comparazione che per te è "illecita", mentre invece quando si compara il CMT all'SMT non solo non si valuta quanto tu hai scritto ma addirittura ci si basa sull'8350 che manco èl'ultima evoluzione di BD, ma questo è lecito
Inutile discutere.
Scusa, ma l'efficienza del CMT la si valuta in numero di transistor per X potenza, pro e contro tea massima potenza ST e MT. Siamo d'accordo o no fino a questo punto?
Ora, se il silicio permette con Intel in un TDP da desktop di commercializzare 16TH ed a AMD invece 8, la colpa di chi e? Di BD che è esoso? O è del silicio? Ci sono prove EVIDENTI che lo stesso K10 ha perso sul 32nm, quindi che stiamo cercando?
Io non entro in merito della forza bruta perché per me che ci sia Zen o meno, comunque Intel l'avrà sempre superiore, ma mi pare ovvio che l'alternativa sarà cosa offrirà AMD ad un ST inferiore, ed è lampante che giocherà sul prezzo e/o sulla potenza MT/numero di core. In questo io non vedo assolutamente uno svantaggio in MT di BD su Zen, e resta da vedere quanto ne avrà Zen su BD tra ST e MT.
Ccontinuare a scrivere quanti mille core Intel ci stecca a die, come se fosse per l'SMT e colpa del CMT, è un'offesa all'intelligenza individuale, dai.
Sui prodotti oggi in commercio, io preferisco un 2m ad un 2+2, un 4+4 va più di un 4m e >di 8TH esiste solamente Intel. È così difficile da ammettere che un EX a parità di bontà silicio potrebbe essere preferibile con 12TH almeno ad un 4+4 Intel? Qui mi sembra incentrato tutto su questo, perché ancora non si vuole ammettere che un 2m è preferibile ad un 2+2, figuriamoci rimuovere dall'Olimpo un 6700K, guerra fino alla morte :), e di qui la chiusura completa ad ogni discussione, ed è normalissimo che quello che scrivo, causa silicio, non voglia essere accettata.
Jones D. Daemon
10-09-2015, 09:59
Strano... Io faccio una comparazione che per te è "illecita", mentre invece quando si compara il CMT all'SMT non solo non si valuta quanto tu hai scritto ma addirittura ci si basa sull'8350 che manco èl'ultima evoluzione di BD, ma questo è lecito
Inutile discutere.
infatti è inutile. Comparare CMT e SMT è lecito perché sono 2 tecniche per tirare fuori dei core "virtuali", e possono essere paragonate tra loro in quanto tali. Sono slegate da tutto il resto e devono essere implementate in un'architettura, e possono essere implementate addirittura insieme. Quindi si ha senso paragonarle. Non ha senso invece paragonare cpu di due vendor diversi completamente diverse. Prendere un 2600K con i suoi 95w e fare dei sofismi su come sarebbe stato un 8350 in 95 eccetera eccetera...non vuol dire nulla. Nei 95w un 2600k integra anche una gpu e tutta un'altra serie di componenti che un 8350 non ha, e che insieme contribuiscono al tdp. Ma tutto questo non lo prendi in considerazione vero? Stessa cosa per il 5960X, che integra controller pci express, controller ram, controller sata...ma si sa questi componenti non consumano corrente e non influiscono sul tdp. Hai ragione meglio fare paragoni su numeri che non hanno senso.
Certo, ma anche il 5960X non è che rientri nella fascia di prezzo dell'8350. Si prende come confronto per tirare delle conclusioni inutili, si confronta il TDP di cpu di generazioni differenti, con architetture differenti, litografie differenti e componenti interni differenti. Tutto per riuscire a giustificare in qualche modo l'architettura bulldozer e far uscire fuori che era efficiente e con un buon IPC, tutta era colpa del silicio cattivo.
Se guardi il prezzo lo confronti al massimo con l'i5... anzi un 6600K costa quasi il doppio di un 8350 :mbe:
;) ciauz
AceGranger
10-09-2015, 10:06
4 anni fa la discussione era incentrata sull'efficienza architetturale valutando la potenza ottenuta con quanti transistor.
Per chi continua a dire che il silicio non c'entra, dico questo:
Un 5960X ha 2,6 miliardi di transistor. Un 8350 ne ha 1,2 miliardi. Un 5960X va più del doppio di un 8350X ma ha anche più del doppio di transistor. Dove è l'efficienza superiore? Si, 2,6miliardi di transistor in 140W vs 1,2miliardi in 125W, ma questo non è silicio?
un 5960X ha un Quad channel, il controller PCI-EX integrato e l'elettronica del doppio se non quadruplo QPI Link ( disabilitato poi in base alle versioni di Xeon 4 Socket, 2 Socket o i7 )
un 3770K ha 1,4 Miliardi di transistor ( il 2660K ne aveva 1,6 Miliardi, e fra uno e l'altro hanno praticamente aumentato solo la GPU ) di cui un buon 40% è occupato dalla GPU, PCI-EX, controller display etc. etc.; occhio e croce se fossero solo CPU pure come l'FX, i 4 core+HT avrebbero un 800-900 Milioni di Transistor
AMD fa quello che fa Intel con quasi il 50% in piu di transistor...
Jones D. Daemon
10-09-2015, 10:11
Se guardi il prezzo lo confronti al massimo con l'i5... anzi un 6600K costa quasi il doppio di un 8350 :mbe:
;) ciauz
Ok costa quasi il doppio...ma l'8350 è del 2012. Nel frattempo c'è chi ha dovuto spendere dollari per un processo a 14nm (ora come ora l'unico adatto a cpu high-power, anche se non eccelso), ha integrato molti componenti nel die e ha portato avanti parallelamente lo sviluppo dell gpu embedded nelle cpu. Il prezzo è alto, ma dietro ci sono costi non indifferenti.
FazzoMetal
10-09-2015, 10:12
Questo per rispondere a chi sostiene che aumentare l'IPC a parità di silicio aumenti i consumi: non è così. Si può aumentare l'IPC e anche di molto mantenendo i consumi costanti ricorrendo ad architetture migliori e implementando un maggior numero di tecniche orientate al low-power.
Se guardi il prezzo lo confronti al massimo con l'i5... anzi un 6600K costa quasi il doppio di un 8350 :mbe:
;) ciauz
Si, ma stai parlando di una cpu del 2012 che in un'altro periodo sarebbe reputata arcaica. Come se nel 2008, invece di comprare un C2Q 9xxx, avresti acquistato un Pentium 4 del 2005....
george_p
10-09-2015, 12:34
Questo per rispondere a chi sostiene che aumentare l'IPC a parità di silicio aumenti i consumi: non è così. Si può aumentare l'IPC e anche di molto mantenendo i consumi costanti ricorrendo ad architetture migliori e implementando un maggior numero di tecniche orientate al low-power.
Intel docet ma la stessa amd ancora di più 10 anni fa e passa.
paolo.oliva2
10-09-2015, 16:12
infatti è inutile. Comparare CMT e SMT è lecito perché sono 2 tecniche per tirare fuori dei core "virtuali", e possono essere paragonate tra loro in quanto tali. Sono slegate da tutto il resto e devono essere implementate in un'architettura, e possono essere implementate addirittura insieme. Quindi si ha senso paragonarle. Non ha senso invece paragonare cpu di due vendor diversi completamente diverse. Prendere un 2600K con i suoi 95w e fare dei sofismi su come sarebbe stato un 8350 in 95 eccetera eccetera...non vuol dire nulla. Nei 95w un 2600k integra anche una gpu e tutta un'altra serie di componenti che un 8350 non ha, e che insieme contribuiscono al tdp. Ma tutto questo non lo prendi in considerazione vero? Stessa cosa per il 5960X, che integra controller pci express, controller ram, controller sata...ma si sa questi componenti non consumano corrente e non influiscono sul tdp. Hai ragione meglio fare paragoni su numeri che non hanno senso.
Però, per intenderci meglio, io non sto difendendo il prodotto AMD, quanto invece l'architettura AMD di BD.
Partiamo immediatamente da un punto: il CMT a parità di TH è competitivo con l'SMT.
Se AMD lascia il CMT, perché voler forzare che è a causa del CMT fallimentare?
Mi sembra che il CMT lo implementi pure IBM e di certo non in modo fallimentare.
Partiamo da un punto: il CMT è superiore all'SMT in MT a patto che la perdita in ST sia annullata dall'MT e che il silicio possa offrire un numero di TH massimi simile alla concorrenza. Il CMT di AMD è partito con una potenza ST talmente bassa che il CMT non ha potuto compensare ed inoltre il silicio non ha permesso un numero di moduli quanto la concorrenza in core + SMT.A questociogiungici che AMD non ha più le FAB e quindi non può sviluppare un silicio a suo uso e consumo (come Intel).
Continuare sul CMT senza sicurezze di silicio sarebbe un suicidio... perché forzare in modo vizioso che cio è dovuto al CMT che è fallimentare?
Per me... Il CMT mi piaceva, ma di più un i7 X6 e X8. A me non piacciono gli i7 X4+4 e di certo non mi piacerebbe uno Zen fotocopia. L'unica speranza è che Zen possa almeno confrontarsi con un i7 X6, altrimenti non ne vedo un senso, avendo la scimmia di un 5960X. Se inquadrò il mio discorso al di fuori della bandiera, allora mi puoi capire. Io avrei preferito un Excavator X16 ad un i7 X6, per fobia personale.
°Phenom°
10-09-2015, 16:27
Ma infatti, il cmt non è fallimentare forse per il TUO tipo di utilizzo, e perchè piace a TE, ma visto che in ambito desktop la maggior parte del software giova più che altro da un ipc maggiore a core, che da mille mila cores, e tra l'altro come aveva anche aggiunto shellx, ciò che tira il mercato pc desktop, in buona parte è il settore gaming, dove appunto non c'è paragone tra le soluzioni intel ed amd, vedrai che il cmt è comunque un approccio sbagliato a prescindere. (non che lato server e professionale bd abbia fatto meglio, anzi, lì si è affondati completamente).
La questione silicio invece viene successivamente, ed è stato il colpo di grazia.
Per cui continuo a non capire il difendere questa arch solo perchè fa comodo a te, credo che amd necessiti di una buona arch a 360 gradi che possa essere competitiva in ambito desktop, visto che di sicuro non fa i numeri vendendo "solo" a paolo.oliva2, che preferisce per il SUO uso avere 5000 core cmt magari con l'ipc di un p4.
(Spero di aver reso l'idea ovviamente :asd: )
Jones D. Daemon
10-09-2015, 16:31
Però, per intenderci meglio, io non sto difendendo il prodotto AMD, quanto invece l'architettura AMD di BD.
Partiamo immediatamente da un punto: il CMT a parità di TH è competitivo con l'SMT.
Se AMD lascia il CMT, perché voler forzare che è a causa del CMT fallimentare?
Mi sembra che il CMT lo implementi pure IBM e di certo non in modo fallimentare.
Partiamo da un punto: il CMT è superiore all'SMT in MT a patto che la perdita in ST sia annullata dall'MT e che il silicio possa offrire un numero di TH massimi simile alla concorrenza. Il CMT di AMD è partito con una potenza ST talmente bassa che il CMT non ha potuto compensare ed inoltre il silicio non ha permesso un numero di moduli quanto la concorrenza in core + SMT.A questociogiungici che AMD non ha più le FAB e quindi non può sviluppare un silicio a suo uso e consumo (come Intel).
Continuare sul CMT senza sicurezze di silicio sarebbe un suicidio... perché forzare in modo vizioso che cio è dovuto al CMT che è fallimentare?
Per me... Il CMT mi piaceva, ma di più un i7 X6 e X8. A me non piacciono gli i7 X4+4 e di certo non mi piacerebbe uno Zen fotocopia. L'unica speranza è che Zen possa almeno confrontarsi con un i7 X6, altrimenti non ne vedo un senso, avendo la scimmia di un 5960X. Se inquadrò il mio discorso al di fuori della bandiera, allora mi puoi capire. Io avrei preferito un Excavator X16 ad un i7 X6, per fobia personale.
In 125w? Cloccato a 1 ghz immagino.
Vuoi veramente paragonare l'utilizzo (a parte che IBM nei POWER 8 utilizza sia CMT che SMT) dei processori POWER, utilizzati principalmente nei mainframe dove ogni singola riga di codice è scritta sull'hardware, all'utilizzo del CMT in ambito desktop?
Si ritorna al discorso precedente, se ti piace vedere il task manager di windows pieno di core è un conto, se vuoi una cpu valida è un'altro. Poi scusami paolo, ma quale sarebbe il TUO utilizzo?
Ribattiamo sempre sui soliti punti, concordo che 16 cores nn lì sfrutterebbe quasi nessuno... ma nn é questo il punto, 2/3/4 cores lì sfruttiamo tutti, bene allora prendiamo in esame i3, 4300 e 7850K (nn l'ho quindi tralasciando l'igp mi basero sulle prestazioni del 860K), in ST un i3 é mostruosamente avanti ad un 4300 ma quando sono sfruttati 4 cores sono alla pari o é avanti la cpu amd, un kaveri rimane ancora indietro in ST (anche perchè l'aumento d'ipc é stato annullato o quasi dalle frequenze raggiungibili più basse) ma in MT nn teme confronti, uno steamroller a parità di frequenza avrebbe fatto anche meglio e un excavator potrebbe arrivare a pareggiare (o quasi) anche in ST, quindi supremazia assoluta in un MT che quasi tutti sfruttiamo... nn mi sembra un'architettura fallimentare e con un PP decente nn credo sarebbe stato diverso con le cpu con più core :confused:
certo c'é voluto troppo tempo, ma se il prossimo silicio fosse stato all'altezza poteva essere la rivalsa dell'architettura BD :)
;) ciauz
tuttodigitale
10-09-2015, 18:57
Ribattiamo sempre sui soliti punti, concordo che 16 cores nn lì sfrutterebbe quasi nessuno...
qualsiasi compito gravoso che non sia il gioco (colpa principalmente delle dx11), può beneficiare in maniera massiccia del MT.
Quali sono i software che richiedono potenza?
elaborazione video e immagine
software come photoshop e premiere scalano una bellezza anche con 32 thread
rendering idem
OCR idem
compilazione idem
Le cose sono due, o nel prossimo futuro non avremmo bisogno di potenza di calcolo aggiuntiva (dubito fortemente) e quindi per molti di noi basteranno le attuali cpu della fascia mainstream, oppure continueremmo a comprare, sempre in fascia media, il prodotto che offra le migliori prestazioni nel MT (ovvero dove conta) che sia CMT o SMT non ha importanza alcuna.
Per i giocatori, sappiate che i prossimi giochi sfrutteranno al 40-50% il sesto thread messo a disposizione dalle cpu. Tempo un anno e un i7 quad-core diventerà l'i3 di domani (se AMD diventerà competitiva non è da escludere il fatto che un i3 non resterà una soluzione dual core+ht)
Però, per intenderci meglio, io non sto difendendo il prodotto AMD, quanto invece l'architettura AMD di BD.
Partiamo immediatamente da un punto: il CMT a parità di TH è competitivo con l'SMT.
Se AMD lascia il CMT, perché voler forzare che è a causa del CMT fallimentare?
Lo sai mi ricordano i discorsi che alcuni facevano sull' HT, tutti a parlarne male quando usci conroe...SMT e CMT (quest'ultimo in realtà è una implementazione parziale del smt) sono scelte progettuali evergreen, con tutte le loro peculiarità che possono adattarsi o meno ad una determinata architettura e/o silicio.
Il CMT è stato a ben vedere progressivamente abbandonato, segno che aveva ancora molto da offrire..In steamroller e in excavator, anzichè ritrovarci con un CMT parzialmente snaturato avremmo dovuto avere quanto meno una soluzione CMP classica.
D'altra parte se una soluzione 8core/ 4 fpu consumava 125W, siamo davvero convinti con una soluzione da 8core/8fpu in 125W avrebbe girato almeno a 3,3GHz, solo per pareggiare le prestazioni nel MT (nel ST avremmo avuto una regressione del 10%).
Tutti sembrano meravigliarsi, se dopo 4 versioni di BD, fa il debutto una nuova.
cut...
Anche excavator su 28nm HDL romperebbe il culo a BD, figurati con i 16nm.
Comunque si, BD è la migliore architettura di AMD degli ultimi 10 anni: la migliore sia sui 32nm SOI, dove batte k10, sia sui 28nm, dove batte i core jaguar.
quello che mi dà fastidio di tutti questi discorsi, che sembra ci siano scelte obbligate, quando tutte le strade sono in realtà potenzialmente ottime se le scelte di contorno sono fatte con criterio. Se l'approccio CMT, permette potenzialmente di aumentare, il 20% le prestazioni per watt nel MT, e al contempo perdere il 20% nel ST, dovuta alla riduzione dell'ampiezza del core, resta un ottima soluzione, in ambito server (che poi dovrebbe essere il mercato di riferimento per la AMD di domani).
Ah ecco: lo avrò detto all'incirca 1200 volte che il CMT è un approccio architetturale che strizza l'occhio ad utilizzo di tipo server. Il mercato server dovrebbe essere il mercato di riferimento di amd tanto quanto quello consumer. Se tu mi fai un achitettura solo per il server, allora smetti di produrre cpu consumer e dedicati solo ai server, ma fallo bene però e supera la concorrenza visto che fai solo quello. Tuttavia il CMT come implementato da amd si è dimostrato essere idoneo ai server (nonostante tutto anche inferiore agli xeon), ma poco idoneo a tutto il resto del mercato. Vedi Jaguar per le scatolette, hanno dovuto fare un passo indietro ed utilizzare il cmp per farlo rendere in quel settore. Quindi alla fine tutti quanti facciamo discorsi diversi ma diciamo tutti la stessa cosa.
ps: installo e amministro infrastrutture server, utilizzo la maggiorparte delle volte (tranne su richiesta diversa del cliente) architetture AMD (Opteron), i clienti con gli ultimi chip basati su BD non si sono mai lamentati, sono processori potenti e fanno quello che devono fare. Poi che Xeon vada meglio è risaputo, ma non sempre è necessario montare Intel, fare spendere quasi il doppio al cliente (e parliamo di cifre alte, no cifre da pc desktop), per avere quel boost di prestazioni che neppure gli servono. Con questo voglio dire che Zen deve aumentare le prestazioni sugli Opteron per essere più competitiva anche in questo settore, ma soprattutto ritornare competitiva nel mercato consumer desktop (almeno dove c'è il socket 1151 di Intel). Sembra che lo abbia capito, ecco la scelta di non usare più il CMT, in modo da abbracciare competitivamente quasi tutto il mercato, e no solo una piccola porzione. Ergo: "SMT is the best way...." Come fa Intel.
paolo.oliva2
10-09-2015, 22:21
Ma infatti, il cmt non è fallimentare forse per il TUO tipo di utilizzo, e perchè piace a TE, ma visto che in ambito desktop la maggior parte del software giova più che altro da un ipc maggiore a core, che da mille mila cores, e tra l'altro come aveva anche aggiunto shellx, ciò che tira il mercato pc desktop, in buona parte è il settore gaming, dove appunto non c'è paragone tra le soluzioni intel ed amd, vedrai che il cmt è comunque un approccio sbagliato a prescindere. (non che lato server e professionale bd abbia fatto meglio, anzi, lì si è affondati completamente).
La questione silicio invece viene successivamente, ed è stato il colpo di grazia.
Per cui continuo a non capire il difendere questa arch solo perchè fa comodo a te, credo che amd necessiti di una buona arch a 360 gradi che possa essere competitiva in ambito desktop, visto che di sicuro non fa i numeri vendendo "solo" a paolo.oliva2, che preferisce per il SUO uso avere 5000 core cmt magari con l'ipc di un p4.
(Spero di aver reso l'idea ovviamente :asd: )
Ma perché non n la smettiamo con sta scena che io userei un procio esclusivo?
Chi acquista un i7 X6 o X8 per cosa lo fa? Per avere più potenza MT.
Che differenza c'è tra un i7 X6 12TH ed un ipotetico BD X12 ma sempre 12TH?
Me lo dovete spiegare... Se un 5960X Intel lo mette come fascia top extreme, non è certo per superpippo, ma per una potenza MT superiore all'i7 X6 12TH, infatti è un 16TH, ma quello va benissimo, invece un BD 12TH viene preso come millemila core e Paolo.oliva2.
Leggi quanto scritto da tutto digitale.
I software che si avvantaggiano di più core (o TH logici) ci sono nel desktop, se uno vuole spendere 400€ in un 6700K lo può fare, ma se un altro USA software MT, non gli frega una tozza di quanti FPS fa con i giochi, ma quanto ci mette a fare quel lavoro, e se BD ha 16 core e 16 TH e Intel ha sempre 16 TH ma su 8 core, che cavolo gli frega? Anzi, visto che il CMT regge meglio il carico, ben vengano core = TH.
@ShellX.
Nessuno ha mai obiettato che il CMT sia più idoneo al mercato server, ma nessuno può anche obiettare che sia più idoneo all'MT (modulo vs core SMT).
Il punto è che si giudica (per bandiera) il CMT fallimentare e non il CMT di AMD che è partito con un IPC basso su un silicio che non ha permesso >4 moduli, IPC a parte.
Tu lo sai meglio di me che BD si basa su un FO4 di IBM,e che l'aspettativa sul silicio era di 5 moduli e l'anno successivo il 22nm SOI. Come cacchio si può ignorare tutto questo?
Non sto parlando a bandiera... Trova un post dove affermo che Zen con l'SMT sarà una bomba, ho sempre scritto che ben che vada sarà almeno un 20% sotto Intel.
Tu come altri mica avete torto sul discorso desktop con IPC alto, però i fondi li fai se hai il margine. Intel vende uno sputo di mm2 a prezzi stratosferici, se AMD non superasse un 6700k, a quanto lo potrebbe calare dai 400€ Intel? Senza contare le "politiche commerciali" e quant'altro. Non vedo Zen la soluzione per il mercato di massa per vendere 100 volte di più a margini ridicoli e con un procio non Opteron. Io preferirei un procio Opteron dirottato sul desktop che si posizioni sul socket 2011 foss'anche X6).
Poi se Zen va bene, lo schiaffi al posto di Carrizo.
Se Zen andasse così bene e fosse la panacea kill BD, perché AMD non converte gli APU BD in Zen? Nel mercato mobile AMD va bene, con BD APU. Guarda gli ultimi prezzi dei portatili Intel, costano il 30% in meno rispetto all'annuncio di Carrizo. Coincidenza? O pulizia magazzino a favore dei 14nm? O... "politiche commerciali"? Certo che è buffa aspettare un procio AMD per pagare di meno un procio Intel.
C'è solo un'enorme differenza Paolo. Un 5960x si porta dietro anche una potenza ST non indifferente. Un BD 12th sarebbe un BiDone lentissimo, a 2ghz al massimo. Potente quanto vuoi in MT, ma ai livelli di un 486 per tutto il resto. Quindi sarebbe un procio totalmente inutile in ambito consumer
Inviato dal mio iPhone utilizzando Tapatalk
C'è solo un'enorme differenza Paolo. Un 5960x si porta dietro anche una potenza ST non indifferente. Un BD 12th sarebbe un BiDone lentissimo, a 2ghz al massimo. Potente quanto vuoi in MT, ma ai livelli di un 486 per tutto il resto. Quindi sarebbe un procio totalmente inutile in ambito consumer
Inviato dal mio iPhone utilizzando Tapatalk
Il 16 core Opteron arriva fino a 2,8 GHz :)
paolo.oliva2
11-09-2015, 01:55
Il 16 core Opteron arriva fino a 2,8 GHz :)
Sul 32nm e 14W. Mi sembra che abbia il turbo su 8 core sui 3.2GHz o superiore.
Se un 32nm riuscito male porta 16 core a 2.8GHz nei 140W, e a parità di bontà silicio è il TDP che frena il clock, un X16 sul 16nm potrebbe tranquillamente essere sopra i 3.5GHz, uniscici il fatto che avrebbe 20/25% in più di IPC, che corrispinderebbero a 700MHz / 850MHz almeno relativo ad un Piledriver, quindi si avrebbe come un 8350 con il doppio di MT,più di un i7 X6 e vicino ad un i7 X8, non sarebbe certo male.
Mi sembra di ricordare che anche in ambito server la forza bruta in determinati casi conta, ma una cosa è stare sotto sia in ST che MT, un'altra stare ugualmente sotto in ST ma poter dire qualche coda in MT. Onestamente un Zen Opteron a quanto potrà andare?
paolo.oliva2
11-09-2015, 02:08
Comunque anche avendo tutto il TH contro per me un Excavator X12 4GHz con turbo 4,5GHz sarebbe un bel procio. Sarebbe relativamente a Piledriver un 4.8/5GHz def, 5,5GHz turbo e pressappoco un X15.
Gli APU li porti a 6 core almeno, o anche X8, per avere la massima copertura offerta, e via.
Arriva Zen... Spero almeno che possa stare alla pari ad un i7 X6 cazzuto, altrimenti addio Opteron.
Ma perché non n la smettiamo con sta scena che io userei un procio esclusivo?
Chi acquista un i7 X6 o X8 per cosa lo fa? Per avere più potenza MT.
Che differenza c'è tra un i7 X6 12TH ed un ipotetico BD X12 ma sempre 12TH?
Me lo dovete spiegare... Se un 5960X Intel lo mette come fascia top extreme, non è certo per superpippo, ma per una potenza MT superiore all'i7 X6 12TH, infatti è un 16TH, ma quello va benissimo, invece un BD 12TH viene preso come millemila core e Paolo.oliva2.
Beh, allora comprati un 5960X e paragonalo al tuo BD X12 (che neppure esiste) vedi tu chi è piu potente in MT ed in ST. TI assicuro che il 5960X neppure lo vedrebbe in tutti gli ambiti (multith e singleth) un X12 BD, figurati il realistico BD X8.
Leggi quanto scritto da tutto digitale.
I software che si avvantaggiano di più core (o TH logici) ci sono nel desktop, se uno vuole spendere 400€ in un 6700K lo può fare, ma se un altro USA software MT, non gli frega una tozza di quanti FPS fa con i giochi, ma quanto ci mette a fare quel lavoro, e se BD ha 16 core e 16 TH e Intel ha sempre 16 TH ma su 8 core, che cavolo gli frega? Anzi, visto che il CMT regge meglio il carico, ben vengano core = TH.
Si d'accordo, però c'è una cosa che forse sfugge a diverse menti, ti faccio io una domanda: in percentuale dimmi quanti utenti usano le cpu per MT estremo e quanti per giocare ? La maggiore percentuale (qualunque essa sia per te) che ti sfiorerà la mente sarà quella che amd deve colmare nei suoi mercati. Adesso attribuiisci tu le percentuali che vuoi.
@ShellX.
Nessuno ha mai obiettato che il CMT sia più idoneo al mercato server, ma nessuno può anche obiettare che sia più idoneo all'MT (modulo vs core SMT).
E a te chi ti dice che l'SMT non sia più idoneo del CMT in multithread ? Quindi secondo te le cpu top di Intel con oltre 4 core's che sono smt, fanno cagare in multith ? BADA CHE SONO SUPERIORI AI BD ANCHE IN MT ! ! !
Il punto è che si giudica (per bandiera) il CMT fallimentare e non il CMT di AMD che è partito con un IPC basso su un silicio che non ha permesso >4 moduli, IPC a parte.
Tu lo sai meglio di me che BD si basa su un FO4 di IBM,e che l'aspettativa sul silicio era di 5 moduli e l'anno successivo il 22nm SOI. Come cacchio si può ignorare tutto questo?
Ancora con ste bandiere ? Guarda il mio avatar e la mia firma e vedi di quale bandiera faccio parte. Forse tu che credi che le mie risposte sono da intellista, sei tu quello che da risposte da amdista con i prosciutti agli occhi.
Io sono amdista come te, ma quando giudico le cose, lo faccio con occhi neutri e che vedono cose reali, e no cose che la mia mente vorrebbe che fossero.
Comunque per risponderti: l'ho detta un miliardo di volte la frase "CMT implementato da AMD", non ho mai parlato del CMT di IBM. Quest'ultimo non ha niente a che vedere con quello di amd su tutti i punti di vista. Tuttavia ti dirò di più: anche il cmt di ibm sarebbe non idoneo al mercato desktop consumer, sia per lo stesso motivo del cmt di amd che per altri aggiuntivi. L'unica differenza del cmt di ibm è che estramamente più potente nel suo ambito MT rispetto quello di AMD. Per il resto entrambi sarebbero un flop per il mercato consumer e gaming.
Non sto parlando a bandiera... Trova un post dove affermo che Zen con l'SMT sarà una bomba, ho sempre scritto che ben che vada sarà almeno un 20% sotto Intel.
Infatti anche qui sbagli: affermi che Zen sarà più scarso dei top di Intel perchè non ti garbano i chip zen per via del fatto che no navranno più il tuo amato cmt o perchè lo sostieni davvero ? Perchè sappi che se Zen sarà SMT, in un buon silicio, e tutta l'implementazione architetturale verrà eseguita bene, Zen può davvero impensierire Intel stavolta, altro che -20% sotto intel. Poi dipende cosa intendi per -20%. Forse intendi dire -20% dal un 5930k/5820K del socket 2011-v3 ?
Tu come altri mica avete torto sul discorso desktop con IPC alto, però i fondi li fai se hai il margine. Intel vende uno sputo di mm2 a prezzi stratosferici, se AMD non superasse un 6700k, a quanto lo potrebbe calare dai 400€ Intel?
Senza contare le "politiche commerciali" e quant'altro. Non vedo Zen la soluzione per il mercato di massa per vendere 100 volte di più a margini ridicoli e con un procio non Opteron.
Stai pur certo che se Zen sarà potente quanto i top Intel, scordati i prezzi amd che hai avuto con BD. Mica amd è la Caritas ? E ti dirò di più, ipotizzando uno scenario simile, sono sicuro che anche a prezzi più elevati, amd fara più numeri finanziari di quanto fatto con bd a costi bassi. La gente vuole buoni prodotti prima di tutto, quel che paghi e ciò che hai dello stesso valore di quanto hai pagato. E la gente (specie i gamer) preferiscono spendere di più e avere la cpu dei loro sogni. Se il tuo ragionamento fosse esatto, allora tutti quei gamer che sono passati ad I7 per colpa di BD sono fantascienza ? Hanno venduto tutta la piattaforma am3+, aggiunto del denaro per avere una piattaforma che soddisfa le loro esigenze.
Io preferirei un procio Opteron dirottato sul desktop che si posizioni sul socket 2011 foss'anche X6).
Poi se Zen va bene, lo schiaffi al posto di Carrizo.
Ma io non capisco ste robe... che cavolo significa che vuoi un procio opteron diroccato su desktop ? Tutti i proci desktop sono opteron diroccati. Ma vuoi un Opteron, per DIO prenditi un socket c32/g34 e caricati su 2 opteron. Se Zen andrà bene, il top desktop Zen sarà un Opteron Zen diroccato sul socket desktop, ergo di conseguenza vorrà dire che gli otepron zen saranno anch'essi usciti bene. Zen è un architettura, se va riesce bene in mt ed st, prendi il procio server e ci rifili quello per desktop (come è sempre stato nella storia dei semiconduttori). Rifili e modifichi ancora e fai i chip per mainstream desktop e via di conseguenza. RIguardo al socket 2011, ho capito che è un tuo sogno, ma dubito che Zen (opteron ed fx che siano) riuscirà a competere con quel dannato socket. Poi oohh... tutto è possibile nella vita, nell'informatica e nell'elettronica. Ma io ho forti dubbi in merito...
Se Zen andasse così bene e fosse la panacea kill BD, perché AMD non converte gli APU BD in Zen? Nel mercato mobile AMD va bene, con BD APU.
E magari se gli dai il tempo che Zen prima esca, poi magari in futuro farà in questo modo come dici tu anche nel settore apu. Cee ti deve convertire adesso che manco esiste Zen.
Guarda gli ultimi prezzi dei portatili Intel, costano il 30% in meno rispetto all'annuncio di Carrizo. Coincidenza? O pulizia magazzino a favore dei 14nm? O... "politiche commerciali"?
Pulizia magazzino.
Certo che è buffa aspettare un procio AMD per pagare di meno un procio Intel.
E' sempre stato cosi nell'elettronica, non solo amd vs intel, anche nelle schede video (amd vs nvidia) funziona alla stessa maniera, anche nei cellulari, tablet e via dicendo. Ho aspettato che uscisse il nuovo galaxy samsung per prendermi a meno prezzo il precedente. A me va bene il precedente per ciò che devo farci. Ma del resto questo fenomeno funziona anche quando escono certi chip intel, amd abbassa i prezzi ancor di più nonostante li abbia più bassi di lei, anche se in liena di massima amd lo fa sempre per pulire i magazzini che ultimamente erano rimasti abbastanza pienotti e l'unico modo è svendere la roba.
Comunque anche avendo tutto il TH contro per me un Excavator X12 4GHz con turbo 4,5GHz sarebbe un bel procio. Sarebbe relativamente a Piledriver un 4.8/5GHz def, 5,5GHz turbo e pressappoco un X15.
Gli APU li porti a 6 core almeno, o anche X8, per avere la massima copertura offerta, e via.
WOw...lo so è il tuo sogno avare n.mila core's ovunque per poterti prendere il top con 64 core's :D . Ma bada che 5,5ghz non sono relativi ad un procio X15. Mica in tutti gli ambiti una maggiore frequenza compete con maggiori core's ? Se fosse cosi allora, nei server's ad alta densità (parliamo di mobiletti da oltre 100 rack) tipo sulle 200 cpu ARM a 1,2ghz sarebbero un flop ? INvece no, ci sono scenari dove servono tanti core's anche avendo poca frequenza. Ma se a questi scenari di 100 cpu provi a dimezzarle e all'altra metà restante gli aumenti la frequenza ti assicuro che per quel tipo di utilizzo che devono fare andrebbero mooolto peggio.
Comunque lo ripeto, secondo me tu devi farti una piattaforma server (opteron). Per te il desktop non va bene.
Arriva Zen... Spero almeno che possa stare alla pari ad un i7 X6 cazzuto, altrimenti addio Opteron.
No, se non sta alla pari di un I7 X4 cazzuto, addio amd (insieme ai suoi opteron).
george_p
11-09-2015, 08:06
Quoto praticamente tutto il post di Shellx.
Ho sempre scritto anche io che è l'architettura di amd a rendere nulli i vantaggi del cmt rispetto all'smt, se vogliamo paragonare il superquad BD ai quad+smt di intel.
Credo che paolo per cpu server intenda un chippone stile Phenom II x6, che non era un razzo in ST (ma il turbocore aiutava) ma in MT ,se ricordo bene, tallonava gli I7 1366 quadcore.
In questo frangente, una ipotetico Piledrive x12 @ 3.3ghz @ 125w TDP con turbo core @ 4.3ghz come lo vedreste?
george_p
11-09-2015, 11:43
Credo che paolo per cpu server intenda un chippone stile Phenom II x6, che non era un razzo in ST (ma il turbocore aiutava) ma in MT ,se ricordo bene, tallonava gli I7 1366 quadcore.
In questo frangente, una ipotetico Piledrive x12 @ 3.3ghz @ 125w TDP con turbo core @ 4.3ghz come lo vedreste?
All'epoca i phenom/thuban in st non erano tanto distanti quanto lo fu poi BD due anni dopo che come ipc calò addirittura del 30% mentre la concorrenza aumentava di 10/20% ogni volta.
All'epoca i phenom/thuban in st non erano tanto distanti quanto lo fu poi BD due anni dopo che come ipc calò addirittura del 30% mentre la concorrenza aumentava di 10/20% ogni volta.
Nel cinebench 11.5 un thuban a 4ghz fa 1,21 a 4,3 fa 1,3 in ST... un piledriver fa 1,25 a 4,7 e 1,33 a 5ghz, che all'incirca corrispondono ai 4,3 del thuban (limite oc ad aria per bench)... quindi direi che finalmente l'architettura BD ha pareggiato l'ipc con quella stars e steamroller ed excavator dovrebbero stare avanti.
;) ciauz
Grizlod®
11-09-2015, 12:08
Nel cinebench 11.5 un thuban a 4ghz fa 1,21 a 4,3 fa 1,3 in ST... un piledriver fa 1,25 a 4,7 e 1,33 a 5ghz, che all'incirca corrispondono ai 4,3 del thuban (limite oc ad aria per bench)... quindi direi che finalmente l'architettura BD ha pareggiato l'ipc con quella stars e steamroller ed excavator dovrebbero stare avanti.
;) ciauzCinebench, non è tutto...per esempio con ycruncher, presenta ancora lacune, lo stesso con physics di 3DMark (che usa il Bullet come rendering).
Cinebench, non è tutto...per esempio con ycruncher, presenta ancora lacune, lo stesso con physics di 3DMark (che usa il Bullet come rendering).
Con ycruncher nn saprei dire (mai provato), ma nel physics dell'ultimo 3dmark
Il mio 8350 fa più punti (anche se nn molti) del 1090 a 4,3... poi concordo che cinebench nn sia tutto, ma viene usato spesso come metro dell'ipc :confused:
;) ciauz
Grizlod®
11-09-2015, 13:06
Con ycruncher nn saprei dire (mai provato), ma nel physics dell'ultimo 3dmark
Il mio 8350 fa più punti (anche se nn molti) del 1090 a 4,3... poi concordo che cinebench nn sia tutto, ma viene usato spesso come metro dell'ipc :confused:
;) ciauzIn ycruncher,avevo confrontato(un po di tempo fa) il mio risultato con quelli postati online e pur non arrivando @ 4.3 GHz, avevo raggiunto gli 8 cores FX.
In 3DMark (sì l'ultimo), mi ricordo di aver sempre visto sotto gli FX...forse non ne ho visti @ 5 GHz.
C'è da sottolineare cmq che K10, non ha SSE 4.1, 4.2 e neppure AVX, del quale ycruncher implementa, mentre molto probabilmente Cinebench no, ma sicuramente la serie SSE 4.0, sì.
Features non indifferenti IMO.
P.S.mi correggo... K10, ha le 4.0a, ma non le usa quasi nessun programma...
george_p
11-09-2015, 13:54
Nel cinebench 11.5 un thuban a 4ghz fa 1,21 a 4,3 fa 1,3 in ST... un piledriver fa 1,25 a 4,7 e 1,33 a 5ghz, che all'incirca corrispondono ai 4,3 del thuban (limite oc ad aria per bench)... quindi direi che finalmente l'architettura BD ha pareggiato l'ipc con quella stars e steamroller ed excavator dovrebbero stare avanti.
;) ciauz
Su anandTech il thuban a 3.3 in CB ST fa un punteggio di 1.1 contro 0.97 dell'8150, è il primo BD da prendere in considerazione e non so nemmeno come si comporta il turbo in entrambi per cui bisognerebbe fare un confronto a parità di frequenza base.
Quindi vedo un poco Molto in realtà) strano il punteggio di 1.2 in ST a quella frequenza.
Poi stiam sempre parlando di PD arrivato un anno dopo il primo BD.
In ycruncher,avevo confrontato(un po di tempo fa) il mio risultato con quelli postati online e pur non arrivando @ 4.3 GHz, avevo raggiunto gli 8 cores FX.
In 3DMark (sì l'ultimo), mi ricordo di aver sempre visto sotto gli FX...forse non ne ho visti @ 5 GHz.
C'è da sottolineare cmq che K10, non ha SSE 4.1, 4.2 e neppure AVX, del quale ycruncher implementa, mentre molto probabilmente Cinebench no, ma sicuramente la serie SSE 4.0, sì.
Features non indifferenti IMO.
P.S.mi correggo... K10, ha le 4.0a, ma non le usa quasi nessun programma...
Questo é il massimo che ho ottenuto dal 1090:
http://www.3dmark.com/3dm/260916
quanto fa l'8350 a 5ghz:
http://www.3dmark.com/3dm/240072
e questo é il massimo che ho fatto con l'8350:
http://www.3dmark.com/3dm/254212
che stà sotto al thuban nn direi.
;) ciauz
Su anandTech il thuban a 3.3 in CB ST fa un punteggio di 1.1 contro 0.97 dell'8150, è il primo BD da prendere in considerazione e non so nemmeno come si comporta il turbo in entrambi per cui bisognerebbe fare un confronto a parità di frequenza base.
Quindi vedo un poco Molto in realtà) strano il punteggio di 1.2 in ST a quella frequenza.
Poi stiam sempre parlando di PD arrivato un anno dopo il primo BD.
Io nn ho detto zambezi, ho detto che piledrive ha raggiunto l'ipc del thuban... quindi in notevole ritardo, ma l'ha raggiunto e a parità di frequenza dice poco, hanno frequenze default diverse e in oc raggiungono frequenze ancora più diverse... nn avendo test a default ho preso in esame le frequenze da daily e quelle del massimo oc da bench.
Fai bene a credere all'affidabilissimo anandTech :asd:
cmq questi sono i miei test:
http://thumbnails114.imagebam.com/43510/b6af3c435091223.jpg (http://www.imagebam.com/image/b6af3c435091223)
http://thumbnails113.imagebam.com/43510/8d8711435091283.jpg (http://www.imagebam.com/image/8d8711435091283)
posso sbagliare, ma nn dico il falso... e nn baro.
;) ciauz
george_p
11-09-2015, 15:02
Non intendevo mettere in dubbio i tuoi test anche perché nel post che ti ho quotato non specificavi fossero tuoi o almeno non l'ho capito io, e io non ho nessuna garanzia di anandtech o di altri ma non avendo mai avuto ne thuban ne i vari BD ecc posso solo usare i test fatti in giro come metro di paragone.
Ma tu scrivi:
Nel cinebench 11.5 un thuban a 4ghz fa 1,21 a 4,3 fa 1,3 in ST... un piledriver fa 1,25 a 4,7 e 1,33 a 5ghz, che all'incirca corrispondono ai 4,3 del thuban
Si corrispondono ai 4.3 del thuban ma con un divario di ben 700 mhz e non a parità di frequenza.
Il divario lo recupera con EX direi, come ho sempre sostenuto.
Non intendevo mettere in dubbio i tuoi test anche perché nel post che ti ho quotato non specificavi fossero tuoi o almeno non l'ho capito io, e io non ho nessuna garanzia di anandtech o di altri ma non avendo mai avuto ne thuban ne i vari BD ecc posso solo usare i test fatti in giro come metro di paragone.
Ma tu scrivi:
Si corrispondono ai 4.3 del thuban ma con un divario di ben 700 mhz e non a parità di frequenza.
Il divario lo recupera con EX direi, come ho sempre sostenuto.
Nn éra riferito a te, ma bench falsati in rete nè sono circolati tanti :)
e parlo anche di testate abbastanza note :mbe:
700mhz é anche la differenza default che corre fra un 1100 e un 8350... e un FX lo tieni a 4,7ghz in daily con un raffreddamento ad aria come tieni un thuban a 4ghz (l'ho entrambi) e quindi é una differenza di frequenza che ci stà tutta, se poi excavator avrà un ipc più alto e girerà di default a 3,3ghz faremo i test a parità di frequenza, ma nn puoi parlare di test alla stessa frequenza fra un'architettura che tiene agevolmente i 4,8 e una che a malapena supera i 4ghz.
PS
curiosità personale, a che frequenza massima riesci a tenere il 7850K in daily?
con l'860K direi che al massimo si tiene i 4,4 (almeno con il mio), va bene che corrispondono +/- ai 4,8 di un 4300... ma penso dica tutto su perchè amd nn ha presentato steamroller FX sul 28nm bulk
;) ciauz
george_p
11-09-2015, 16:33
Nn éra riferito a te, ma bench falsati in rete nè sono circolati tanti :)
e parlo anche di testate abbastanza note :mbe:
700mhz é anche la differenza default che corre fra un 1100 e un 8350... e un FX lo tieni a 4,7ghz in daily con un raffreddamento ad aria come tieni un thuban a 4ghz (l'ho entrambi) e quindi é una differenza di frequenza che ci stà tutta, se poi excavator avrà un ipc più alto e girerà di default a 3,3ghz faremo i test a parità di frequenza, ma nn puoi parlare di test alla stessa frequenza fra un'architettura che tiene agevolmente i 4,8 e una che a malapena supera i 4ghz.
;) ciauz
In realtà non si dovrebbero mai confrontare architetture diverse ma tant'è. Personalmente mi riferisco sempre all'ipc che è a parità di frequenza perché l'IPC è quello.
Grizlod®
11-09-2015, 16:33
Questo é il massimo che ho ottenuto dal 1090:
http://www.3dmark.com/3dm/260916
quanto fa l'8350 a 5ghz:
http://www.3dmark.com/3dm/240072
e questo é il massimo che ho fatto con l'8350:
http://www.3dmark.com/3dm/254212
che stà sotto al thuban nn direi.
;) ciauzMe lo ricordavo a meno l'FX...meglio così.
In realtà non si dovrebbero mai confrontare architetture diverse ma tant'è. Personalmente mi riferisco sempre all'ipc che è a parità di frequenza perché l'IPC è quello.
Secondo me 2 cpu o le confronti a default o a parità di condizioni d'overclock... ad eccezione di confronti con cpu che nn si possono overclockare, in quel caso costringere anche l'altra al default serve solo per avere dati falsati
Me lo ricordavo a meno l'FX...meglio così.
sono solo i miei risultati... e nn essendo un mostro di bravura, sicuramente possono fare di meglio... ma avendoli fatti io con entrambi penso che il confronto possa essere attendibile (ho messo lo stesso impegno con tutti e due :cool: ).
;) ciauz
IlCavaliereOscuro
11-09-2015, 17:24
È vero che la CPU FX8350 è sfruttata meglio da Windows 8.1 e Windows 10 rispetto a Windows 7?
Credo che paolo per cpu server intenda un chippone stile Phenom II x6, che non era un razzo in ST (ma il turbocore aiutava) ma in MT ,se ricordo bene, tallonava gli I7 1366 quadcore.
In questo frangente, una ipotetico Piledrive x12 @ 3.3ghz @ 125w TDP con turbo core @ 4.3ghz come lo vedreste?
Si ma l'architettura stars era CMP e no CMT (ecco perchè BD ha bisogno molta frequenza in più per pareggiare i thuban, per colpa del CMT (basso ipc, strutture e condivisioni dei vari hub/ip differenti rispetto il cmp, implementazione strutturale dell'architettura fatta a fallo di cane, pp utilizzato paragonabile allo sterco bovino, ecc ecc), ma anche se l'architettura fosse stata implementata bene e su un un buon pp, sarebbe cambiato molto poco, è proprio la natura del cmt che tende alle alte frequenza e il basso ipc: grandioso per i server's, impacciato per i desktop.
Beh un Piledriver x12 lo vedrei qualcosa meglio del X8, ma nulla di miracoloso, secondo me sempre dietro ai top haswell lga1150 (skylake neppure lo cito). Inoltre resta sempre lo stesso discorso: non riesco a trovarlo su nessun mercatino il piledriver x12.
È vero che la CPU FX8350 è sfruttata meglio da Windows 8.1 e Windows 10 rispetto a Windows 7?
Da quel che so era uscita una patch di windows per migliorare la gestione dei thread, sia negli Fx sia negli Intel con HT
Si ma l'architettura stars era CMP e no CMT (ecco perchè BD ha bisogno molta frequenza in più per pareggiare i thuban, per colpa del CMT (basso ipc, strutture e condivisioni dei vari hub/ip differenti rispetto il cmp, implementazione strutturale dell'architettura fatta a fallo di cane, pp utilizzato paragonabile allo sterco bovino, ecc ecc), ma anche se l'architettura fosse stata implementata bene e su un un buon pp, sarebbe cambiato molto poco, è proprio la natura del cmt che tende alle alte frequenza e il basso ipc: grandioso per i server's, impacciato per i desktop.
Beh un Piledriver x12 lo vedrei qualcosa meglio del X8, ma nulla di miracoloso, secondo me sempre dietro ai top haswell lga1150 (skylake neppure lo cito). Inoltre resta sempre lo stesso discorso: non riesco a trovarlo su nessun mercatino il piledriver x12.
Un X12 come quello batterebbe in MT un 4790k con prestazioni a basso numero di thread ubuale al 8350 (come il 8370e) e sarebbe stato una bella botta di marketing per AMD, ricordiamoci che i prodotti si vendono anche (a volte soprattutto, vedi Apple) con quello, oltre che una gioia a chi il MT lo sfrutta.
Il vero problema imho , oltre alle finanze disastrate di amd, sono state il silicio: un 32nm troppo esoso di spazio ed un 28nm bulk al debutto per amd.
Infatti avete notato che le la prima infornata da apu 28nm hanno come frequanza max 3,7ghz mentre a breve debutterà un modello da 4ghz pieni?
Essendo i 28nm maturi al tempo delle prime apu steamroller, credo che le frequenze ridotte siano state causate dall'inesperienza di AMD sul bulk: se così fosse potremmo trovarci piacevoli sorprese con la prossima generazione bulk a 16/14nm, o almeno speriamo! :doh:
Voi che ne pensate?
IlCavaliereOscuro
11-09-2015, 21:34
Da quel che so era uscita una patch di windows per migliorare la gestione dei thread, sia negli Fx sia negli Intel con HT
Anche per WINDOWS 7, dici?
Anche per WINDOWS 7, dici?
Ho dimenticato di scriverlo, si per Windows 7 intendo.
george_p
11-09-2015, 22:22
Secondo me 2 cpu o le confronti a default o a parità di condizioni d'overclock... ad eccezione di confronti con cpu che nn si possono overclockare, in quel caso costringere anche l'altra al default serve solo per avere dati falsati
I confronti vanno fatti a parità di frequenza e da li vedi l'ipc che altro non è che Istruzioni per clock di frequenza.
Stiam parlando di cose risapute su BD con ipc basso rispetto a phenom/thuban e da quel che ho visto sui vari bench e in particolare CB (ho un successore di BD anche io e i test fatti in giro sono abbastanza attendibili almeno a default) l'ipc che avrebbe dovuto a vere di partenza quello minimissimo (ossia pari al phenomII) lo sta recuperando ora con excavator.
Di sicuro non lo ha fatto con PD.
paolo.oliva2
11-09-2015, 22:49
Si d'accordo, però c'è una cosa che forse sfugge a diverse menti, ti faccio io una domanda: in percentuale dimmi quanti utenti usano le cpu per MT estremo e quanti per giocare ? La maggiore percentuale (qualunque essa sia per te) che ti sfiorerà la mente sarà quella che amd deve colmare nei suoi mercati. Adesso attribuiisci tu le percentuali che vuoi.
La poni in modo sbagliato la cosa. Qui nel TH perché hanno un BD nessuno gioca? Perché alle risoluzioni dei monitor attuali, si va di VGA-limited e non di CPU-limited, pure anche con un CF l'8350 regge, un BD con EXcavator con 20/25% di IPC in più reggerebbe ancor meglio. Quindi fare uno Zen che abbia più IPC, non cambierebbe nulla, perché tanto andrebbe di Intel ugualmente.
E a te chi ti dice che l'SMT non sia più idoneo del CMT in multithread ? Quindi secondo te le cpu top di Intel con oltre 4 core's che sono smt, fanno cagare in multith ? BADA CHE SONO SUPERIORI AI BD ANCHE IN MT ! ! !
Perché tu parti sempre dal core Intel +SMT vs core AMD + CMT.
Core 100, +SMT 30% = 100 ST e 130 con 2TH.
Core CMT 80 (-20% per il CMT), +CMT 2° TH +80% = 80 ST e 144 2° TH.
Quindi... Con Excavator secondo me si dovrebbe già raggiungere una prestazione superiore con 2TH rispetto al core +SMT. Se Zen fosse implementato nel modulo CMT, otterrebbe di più di un core + SMT.
Ancora con ste bandiere ? Guarda il mio avatar e la mia firma e vedi di quale bandiera faccio parte. Forse tu che credi che le mie risposte sono da intellista, sei tu quello che da risposte da amdista con i prosciutti agli occhi.
Io sono amdista come te, ma quando giudico le cose, lo faccio con occhi neutri e che vedono cose reali, e no cose che la mia mente vorrebbe che fossero.
Comunque per risponderti: l'ho detta un miliardo di volte la frase "CMT implementato da AMD", non ho mai parlato del CMT di IBM. Quest'ultimo non ha niente a che vedere con quello di amd su tutti i punti di vista. Tuttavia ti dirò di più: anche il cmt di ibm sarebbe non idoneo al mercato desktop consumer, sia per lo stesso motivo del cmt di amd che per altri aggiuntivi. L'unica differenza del cmt di ibm è che estramamente più potente nel suo ambito MT rispetto quello di AMD. Per il resto entrambi sarebbero un flop per il mercato consumer e gaming.
Infatti anche qui sbagli: affermi che Zen sarà più scarso dei top di Intel perchè non ti garbano i chip zen per via del fatto che no navranno più il tuo amato cmt o perchè lo sostieni davvero ? Perchè sappi che se Zen sarà SMT, in un buon silicio, e tutta l'implementazione architetturale verrà eseguita bene, Zen può davvero impensierire Intel stavolta, altro che -20% sotto intel. Poi dipende cosa intendi per -20%. Forse intendi dire -20% dal un 5930k/5820K del socket 2011-v3 ?
Perché il calcolo è semplice, +40% di IPC su Excavator non arriverebbe all'IPC di Intel.Non penso che AMD possa rendere l'SMT più funzionale di Intel, quindi 1 core AMD per forza di cose andrebbe meno di 1 core Intel. Ora, se a questo aggiungi che avrà max 8 core, mi pare ovvio che se la potrà vedere con gli i7 X6 e non von gli X8, e di qui, se non con un leakage bassissimo, sarebbe comunque sotto anche come Opteron.
Invece al posto di realizzare l'SMT avesse implementato l'IPC Zen sul modulo, io penso che avrebbe ottenuto potenze MT Opteron di tutto rispetto e combattuto nella fascia 2011 e bene.
Stai pur certo che se Zen sarà potente quanto i top Intel, scordati i prezzi amd che hai avuto con BD. Mica amd è la Caritas ? E ti dirò di più, ipotizzando uno scenario simile, sono sicuro che anche a prezzi più elevati, amd fara più numeri finanziari di quanto fatto con bd a costi bassi. La gente vuole buoni prodotti prima di tutto, quel che paghi e ciò che hai dello stesso valore di quanto hai pagato. E la gente (specie i gamer) preferiscono spendere di più e avere la cpu dei loro sogni. Se il tuo ragionamento fosse esatto, allora tutti quei gamer che sono passati ad I7 per colpa di BD sono fantascienza ? Hanno venduto tutta la piattaforma am3+, aggiunto del denaro per avere una piattaforma che soddisfa le loro esigenze.
È appunto questo il punto.
A prescindere dalle prestazioni, Zen costerà comunque perché AMD deve sostenere le spese di progettazione, mentre anche a parità di potenza MT, un BD base Ex sarebbe costato molto meno. Quelli che hanno un i7 per gamer, non li schioderai mai da Intel, quindi comunque AMD non venderà mai ed non otterrà mai i numeri che dici purché è stato sempre così. Un BD Ex X12, sparo a 300/350€, lo venderebbe a tutti quelli che si sono trovati bene con gli FX e non hanno il paraocchi alle frasi tipo "AMD non va bene per i giochi" e si ritrovano un procio nettamente sopra un 8350 che può guardare in faccia gli i7 socket 2011
Ma io non capisco ste robe... che cavolo significa che vuoi un procio opteron diroccato su desktop ? Tutti i proci desktop sono opteron diroccati. Ma vuoi un Opteron, per DIO prenditi un socket c32/g34 e caricati su 2 opteron. Se Zen andrà bene, il top desktop Zen sarà un Opteron Zen diroccato sul socket desktop, ergo di conseguenza vorrà dire che gli otepron zen saranno anch'essi usciti bene. Zen è un architettura, se va riesce bene in mt ed st, prendi il procio server e ci rifili quello per desktop (come è sempre stato nella storia dei semiconduttori). Rifili e modifichi ancora e fai i chip per mainstream desktop e via di conseguenza. RIguardo al socket 2011, ho capito che è un tuo sogno, ma dubito che Zen (opteron ed fx che siano) riuscirà a competere con quel dannato socket. Poi oohh... tutto è possibile nella vita, nell'informatica e nell'elettronica. Ma io ho forti dubbi in merito..
Tu cosa giudichi per procio server? Io un procio con molta capacità di carico, che può fare più cose contemporaneamente e che se lavora lo puoi utilizzare senza aspettare che finisca. Questo non vuole dire che devo acquistare un server. Io non capisco, se uno compra un i7 X6/X8 sembra normale, se uno vuole le stesse caratteristiche pur con forza bruta inferiore, si parla di millemila core, procio inadatto al desktop e quant'altro.
Io non ce l'ho con Intel, ed ho sempre detto che il 5960X è la mia scimmia nel cassetto. Basterebbe anche un X6, ma visto il costo del sistema, preferisco spendere di più in un X8 che fermarmi a X6, appunto per il carico. Io non gioco, la forza bruta al più per me rappresenterebbe un bench, io semplicemente eseguirsi più lavori contemporaneamente, ho 18TB di film, li concerto, nel frattempo giocherei e farei altro... Mi intrippa questo modo di lavorare/divertirmi con il PC. Con l'i3 mi trovavo male per questo, perché abituato con il Thuban/8150/8350, semplicemente mi sentivo stretto, e che cacchio, sono l'unico a pensare che lavorare con il PC non sia 1 cosa alla volta eccitandosi di come pompa a forza bruta il mio procio?
Se Zen X8+8 andasse come un X12 BD Ex almeno, OK, ma se invece perdesse in MT ed anche in capacità di carico, che diventerebbe? Un 6700k? Se diventasse un 6700k non lo prendersi semplicemente perché prendersi un i7 X6/8
P.S.
Una legge non scritta dice che se il tuo avversario è più forte, devi trovare il punto debole.
AMD se vuole fare guerra ad Intel, lo deve fare dove AMD è più forte e assolutamente no dove Intel è più forte.
Se sto Zen andasse veramente, lo dovrebbe implementare e da subito negli APU, mobile in primis, e attendere un silicio rodato per realizzare un die nativo con il max dei core possibili. In vesteOpteron/desktop.
Zen parte pubblicizzato per fascia alta desktop e server... Con SMT e numero di core nativo uguale a quello Intel ed inferiore a quelli server. Praticamente già inferiore come potenza a core e con un numero di core massimo inferiore ad Intel. La guerra a me sembra già persa, che ci sia Keller o meno...
paolo.oliva2
11-09-2015, 23:07
Io penso che sia uno dei pichi che ha portato un Thuban a @4,7GH in Cinebench ST, e c'è solamente un 0,01 di differenza con un 8350 @5,217GHz, che di certo non è il massimo OC (i 9590 arrivano a 5,3GHz).
Comunque un FX su core Excavator, valutando un aumento del 20/25% di IPC, dovrebbe ottenere un punteggio simile al K10 anche a -10% di frequenza.
P.S.
Gli 8150 erano 3.6GHz def e sulla carta potevano arrivare a 3,9GHz in turbo (non ricordo se su tutti i core o su 4). In realtà oltre i 3,750GHz non sono mai andati, a parte che addirittura i primi BIOS proprio in turbo non ci andavano. Ricordo le prime comparazioni che calcolavano l'IPC sulla presunta frequenza di 3,9GHz,
I confronti vanno fatti a parità di frequenza e da li vedi l'ipc che altro non è che Istruzioni per clock di frequenza.
Stiam parlando di cose risapute su BD con ipc basso rispetto a phenom/thuban e da quel che ho visto sui vari bench e in particolare CB (ho un successore di BD anche io e i test fatti in giro sono abbastanza attendibili almeno a default) l'ipc che avrebbe dovuto a vere di partenza quello minimissimo (ossia pari al phenomII) lo sta recuperando ora con excavator.
Di sicuro non lo ha fatto con PD.
Ok l'ipc si misura come dici te, ma ti faccio un esempio:
prendi un kabini (io ho un 5150) e un 4300 (nn l'ho ma posso disabilitare 2 moduli all'8350), downclocki l'fx a 1600mhz e fai cinebench single core con entrambi... cosa ottieni?
probabilmente che l'fx é superiore solo nei consumi :doh:
ma é una dimostrazione reale di quello che possono fare le 2 cpu :confused:
direi di no... il kabini ha un ipc più alto e consuma meno (nel suo piccolo va benissimo), ma nn ha la forza di fare quello che può fare un 4300 e quando si compra una cpu nn interessa sapere se ha 10 o 100 d'ipc, quello che interessa é cosa riesce a fare e come lo fa, al massimo uno si preoccupa di quanto consuma... una cpu che ha ipc 100 e gira a 2ghz da gli stessi risultati di una che l'ha a 50 ma gira a 4ghz, se fra il thuban 1100 e l'fx 8350 ci sono 700mhz di differenza anche a default perchè devo downclockarne uno o overclockare l'altro per vedere cosa riescono a fare :mbe:
anche te parli di test attendibili a default e a default fra il 1100T e l'8350 ci sono 700mhz di differenza, perchè devi testarli alla stessa frequenza? :muro:
;) ciauz
paolo.oliva2
12-09-2015, 10:39
Ok l'ipc si misura come dici te, ma ti faccio un esempio:
prendi un kabini (io ho un 5150) e un 4300 (nn l'ho ma posso disabilitare 2 moduli all'8350), downclocki l'fx a 1600mhz e fai cinebench single core con entrambi... cosa ottieni?
probabilmente che l'fx é superiore solo nei consumi :doh:
ma é una dimostrazione reale di quello che possono fare le 2 cpu :confused:
direi di no... il kabini ha un ipc più alto e consuma meno (nel suo piccolo va benissimo), ma nn ha la forza di fare quello che può fare un 4300 e quando si compra una cpu nn interessa sapere se ha 10 o 100 d'ipc, quello che interessa é cosa riesce a fare e come lo fa, al massimo uno si preoccupa di quanto consuma... una cpu che ha ipc 100 e gira a 2ghz da gli stessi risultati di una che l'ha a 50 ma gira a 4ghz, se fra il thuban 1100 e l'fx 8350 ci sono 700mhz di differenza anche a default perchè devo downclockarne uno o overclockare l'altro per vedere cosa riescono a fare :mbe:
anche te parli di test attendibili a default e a default fra il 1100T e l'8350 ci sono 700mhz di differenza, perchè devi testarli alla stessa frequenza? :muro:
;) ciauz
Quoto.
L'IPC è un valore che rappresenta le istruzioni per clock, ma il clock è strettamente legato al tipo di architettura, in quanto, a parità di PP silicio, una architettura con alto IPC avrà comunque un TDP superiore rispetto alla stessa ma con IPC inferiore, alla stessa frequenza.di conseguenza il margine per una frequenza superiore def sarà più ridotto.
Quindi per forza di cose è più corretto il confronto IPC e frequenza def del procio per ovvi motivi.
Nell'esempio del Thuban, un 1090 era 125W a 3,3GHz, mentre alla stessa frequenza un FX X8 sarebbe 95W. Mi sembra ovvio che analizzando solamente l'IPC non può essere valutato che BD per quell'IPC e alla stessa frequenza produce 30W TDP in meno e che a parità di TDP ha 700MHz di frequenza in più, che si traducono in 700 milioni cicli al secondo in più del Thuban.
Di fatto, così, verrebbe fuori che un K10.ha un determinato IPC che però produrrebbe un TDP simile a BD ma a 20% di frequenza inferiore. È vero che si parla di un 45nm vs 32nm, ma è anche vero che il K10 sul 32nm con Llano ha addirittura concesso frequenze di molto inferiori a parità di TDP, quindi quel 20% di frequenza in più dovrebbero essere perfino maggiori.
Aggiungo che quando si parla che BD ha bisogno di una frequenza superiore per "rendere", di concetto è sbagliata perché è proprio la sua architettura che permette frequenze superiori.
FazzoMetal
12-09-2015, 11:40
Quoto.
... in quanto, a parità di PP silicio, una architettura con alto IPC avrà comunque un TDP superiore rispetto alla stessa ma con IPC inferiore, alla stessa frequenza....
Questa cosa non è vera. A parità di silicio è possibile realizzare un'architettura con IPC più elevato e che al tempo stesso consumi di meno a parità di frequenza e di core (o che a parità di TDP offra frequenze superiori nonostante il TDP più elevato).
Questa cosa non è vera. A parità di silicio è possibile realizzare un'architettura con IPC più elevato e che al tempo stesso consumi di meno a parità di frequenza e di core (o che a parità di TDP offra frequenze superiori nonostante il TDP più elevato).
Sarà possibile, ma Llano dimostra che fra stars e bd nn é stato così e il nostro discorso riguarda quello, poi é vero che thuban ha un PP diverso e misurato come dice george_p ha un ipc maggiore... ma nn stà sopra un piledriver nè a default nè in oc, quindi questi FX bastano per pareggiare le prestazioni ipc x frequenza default dell'architettura precedente (purtroppo é quello che, come minimo, doveva fare zambezi).
;) ciauz
Jones D. Daemon
12-09-2015, 15:43
Quoto.
L'IPC è un valore che rappresenta le istruzioni per clock, ma il clock è strettamente legato al tipo di architettura, in quanto, a parità di PP silicio, una architettura con alto IPC avrà comunque un TDP superiore rispetto alla stessa ma con IPC inferiore, alla stessa frequenza.di conseguenza il margine per una frequenza superiore def sarà più ridotto.
Quindi per forza di cose è più corretto il confronto IPC e frequenza def del procio per ovvi motivi.
Nell'esempio del Thuban, un 1090 era 125W a 3,3GHz, mentre alla stessa frequenza un FX X8 sarebbe 95W. Mi sembra ovvio che analizzando solamente l'IPC non può essere valutato che BD per quell'IPC e alla stessa frequenza produce 30W TDP in meno e che a parità di TDP ha 700MHz di frequenza in più, che si traducono in 700 milioni cicli al secondo in più del Thuban.
Di fatto, così, verrebbe fuori che un K10.ha un determinato IPC che però produrrebbe un TDP simile a BD ma a 20% di frequenza inferiore. È vero che si parla di un 45nm vs 32nm, ma è anche vero che il K10 sul 32nm con Llano ha addirittura concesso frequenze di molto inferiori a parità di TDP, quindi quel 20% di frequenza in più dovrebbero essere perfino maggiori.
Aggiungo che quando si parla che BD ha bisogno di una frequenza superiore per "rendere", di concetto è sbagliata perché è proprio la sua architettura che permette frequenze superiori.
Ma se thuban era a 45nm...un'eternità rispetto ai 32 di bulldozer...fai i calcoli sul tdp su due nodi differenti ancora per difendere bulldozer...
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
Ma se thuban era a 45nm...un'eternità rispetto ai 32 di bulldozer...fai i calcoli sul tdp su due nodi differenti ancora per difendere bulldozer...
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
Vero ma poi confronta Llano con BD e con i 32nm effettivamente k10 aveva frequenze adirittura inferiori rispetto ai 45nm.
Jones D. Daemon
12-09-2015, 16:12
Vero ma poi confronta Llano con BD e con i 32nm effettivamente k10 aveva frequenze adirittura inferiori rispetto ai 45nm.
Llano era la prima espressione del progetto apu da parte di amd, e dovevano farci entrare una gpu di una certa Potenza. Per restare in un tdp decente e non avere una gpu e una CPU nello stesso package che producono un calore eccessivo anche facendo il salto nei nm dovevano per forza abbassare il clock da qualche parte. Stars era un'architettura calda di per se, il mio ex 1075 a 4.2 in daily aveva bisogno del liquido.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
tuttodigitale
12-09-2015, 16:18
Ah ecco: lo avrò detto all'incirca 1200 volte che il CMT è un approccio architetturale che strizza l'occhio ad utilizzo di tipo server.
mettiamo conto che il CMT possa garantire un +20% nel MT rispetto al SMT, se vuoi puntare al mercato server non hai altra scelta, che sacrificare l'ipc. Sarebbe da stupidi perdere quel 20% in più, per puntare al mercato gamer entusiast (credo che con consumer tu intenda solo e unicamente questo)
Se tu mi fai un achitettura solo per il server, allora smetti di produrre cpu consumer e dedicati solo ai server, ma fallo bene però e supera la concorrenza visto che fai solo quello.
perchè mai non dovresti produrre nel mercato consumer, una cpu che perda circa il 20% nel ST, ma più veloce nel MT, a parità di TDP.
Tuttavia il CMT come implementato da amd si è dimostrato essere idoneo ai server (nonostante tutto anche inferiore agli xeon).
è gia tanto che PD/BD superino k10: ma lo sappiamo che gli opteron dovevano avere 20 core e 3 GHz+ di frequenza, per prestazioni di gran lunga superiore a quelle odierne.
Vedi Jaguar per le scatolette, hanno dovuto fare un passo indietro ed utilizzare il cmp per farlo rendere in quel settore. Quindi alla fine tutti quanti facciamo discorsi diversi ma diciamo tutti la stessa cosa.
scusami excavator è successivo a jaguar, ed è attualmente il modello di punta, nel range 15-25W. Dove e quando è stato abbandonato l'approccio CMT?
Io vedo, una pianificazione che ha portato da un SMT parziale ad un SMT completo.
C'è solo un'enorme differenza Paolo. Un 5960x si porta dietro anche una potenza ST non indifferente. Un BD 12th sarebbe un BiDone lentissimo, a 2ghz al massimo. Potente quanto vuoi in MT, ma ai livelli di un 486 per tutto il resto. Quindi sarebbe un procio totalmente inutile in ambito consumer
ma se già oggi abbiamo 4 core excavator da 2,1GHz in 15W di TDP, ci starebbero ben 32core in 125W.
E sempre su 28nm, ma senza HDL, la frequenza a 45W, è di 3,3GHz base (a10-7800 impostato a 45w)....
tra 28 e 32nm c'è una enorme differenza intorno a 3 GHz, differenza altrettanto grande esiste tra 28nm e 28nm HDL intorno ai 2 GHz, che diventa a dir poco enorme con le AVFS.
Infatti anche qui sbagli: affermi che Zen sarà più scarso dei top di Intel perchè non ti garbano i chip zen per via del fatto che no navranno più il tuo amato cmt o perchè lo sostieni davvero ? Perchè sappi che se Zen sarà SMT, in un buon silicio, e tutta l'implementazione architetturale verrà eseguita bene, Zen può davvero impensierire Intel stavolta, altro che -20% sotto intel. Poi dipende cosa intendi per -20%. Forse intendi dire -20% dal un 5930k/5820K del socket 2011-v3 ?
no, Paolo e io ci basavamo sulle slide pubblicate da AMD. Ma guarda non sono neppure convinto che sia inferiore Intel, avrà solo un ipc più basso (consumerà meno a parità di frequenza).
Ma non sono neppure convinto che BD sia abbandonato nella sua interezza, come qualcuno auspica. AMD ha investito ingenti capitali nel recente passato cosa che non è avvenuta con Zen. Secondo me ha "semplicemente" adattato BD in chiave SMT (visto il progressivo avvicinamento al CMP, era nell'aria e se vogliamo la naturale evoluzione) e rivoluzionato la gestione e la velocità delle cache, con tutto quello che ne consegue.
george_p
12-09-2015, 16:23
Llano era la prima espressione del progetto apu da parte di amd, e dovevano farci entrare una gpu di una certa Potenza. Per restare in un tdp decente e non avere una gpu e una CPU nello stesso package che producono un calore eccessivo anche facendo il salto nei nm dovevano per forza abbassare il clock da qualche parte. Stars era un'architettura calda di per se, il mio ex 1075 a 4.2 in daily aveva bisogno del liquido.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
C'è da chiedersi invece come mai amd abbia scelto di usare il k10 per la prima apu e non BD, penso che la risposta sia il nodo cruciale.
Oltre al fatto che ok, llano era "castrato" nella frequenza, causa silicio o altri motivi non è importante poiché è sempre a parità di frequenza che va calcolato l'ipc di una architettura.
installato winzoz 10 da poco, non regge piu l'oc precedente il mio 8320 e non so spiegarmi il perchè 2 anni con 7 e nessun problema, comunque sembra tutto piu' reattivo il sistema e pare che la cpu sia sfruttata meglio dal so.... :)
Llano era la prima espressione del progetto apu da parte di amd, e dovevano farci entrare una gpu di una certa Potenza. Per restare in un tdp decente e non avere una gpu e una CPU nello stesso package che producono un calore eccessivo anche facendo il salto nei nm dovevano per forza abbassare il clock da qualche parte. Stars era un'architettura calda di per se, il mio ex 1075 a 4.2 in daily aveva bisogno del liquido.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
Il mio 1090T arrivava a 4,3ghz con lo stesso dissipatore (NH-D14) e gli stessi problemi di temp con cui l'8350 arriva a 5ghz, più che architettura calda direi che quello éra il suo limite.
;) ciauz
paolo.oliva2
12-09-2015, 18:56
Ma se thuban era a 45nm...un'eternità rispetto ai 32 di bulldozer...fai i calcoli sul tdp su due nodi differenti ancora per difendere bulldozer...
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
E risaie. Leggi quello che ho scritto.
Il K10 è stato prodotto sul 32nm? E allora cosa c'è di meglio che confrontare le due architetture SULLO STESSO SILICIO?
Siccome Llano (che è K10) ha ottenuto frequenza più basse a parità di TDP sul 32nm rispetto che sul 45nm (e non di poco), quello che hai postato non ha alcun senso.
Trinity che è il successore di Llano, chiaramente BD su architettura Piledriver e nulla a che vedere con le features implementate nel 28nm Bulk, proponeva potenze nettamente superiori allo stesso consumo, pur con una IGP ancor più potente.
paolo.oliva2
12-09-2015, 19:12
Il mio 1090T arrivava a 4,3ghz con lo stesso dissipatore (NH-D14) e gli stessi problemi di temp con cui l'8350 arriva a 5ghz, più che architettura calda direi che quello éra il suo limite.
;) ciauz
Il K10 che io sappia, a liquido aveva il limite nei 4,5GHz e con 1 core a 4,7GHz.
BD su 1 core può fare 5GHz pure con il dissy stock, per i 4,5GHz su 8 core, se proprio non basta il dissy stock, poco ci manca.
La differenza di TDP tra BD e K10 è enorme, come lo è in OC.
Il Thuban @4,5GHz in Cinebench mi sembra facesse 8 e qualche cosa, l'8350 a @5,217 fa 9. Mi sembra eclatante la differenza tra le 2 architetture tra IPC e frequenza. Non è il 32nm che ha concessi frequenze maggiori, vedi Llano, ma è proprio BD che le permette.
Tu cosa giudichi per procio server? Io un procio con molta capacità di carico, che può fare più cose contemporaneamente e che se lavora lo puoi utilizzare senza aspettare che finisca. Questo non vuole dire che devo acquistare un server. Io non capisco, se uno compra un i7 X6/X8 sembra normale, se uno vuole le stesse caratteristiche pur con forza bruta inferiore, si parla di millemila core, procio inadatto al desktop e quant'altro.
Paolo, con tutto rispetto, devi mettere le mani su un procio server per poter giudicare di che pasta è fatto rispetto le cpu per dekstop. Oltre questo non ti dico altro perchè ho capito le tue necessità ed ho anche capito che non conosci il comportamento di una cpu per server... (sempre con tutto il rispetto parlando)...
Io non ce l'ho con Intel, ed ho sempre detto che il 5960X è la mia scimmia nel cassetto. Basterebbe anche un X6, ma visto il costo del sistema, preferisco spendere di più in un X8 che fermarmi a X6, appunto per il carico. Io non gioco, la forza bruta al più per me rappresenterebbe un bench, io semplicemente eseguirsi più lavori contemporaneamente, ho 18TB di film, li concerto, nel frattempo giocherei e farei altro... Mi intrippa questo modo di lavorare/divertirmi con il PC. Con l'i3 mi trovavo male per questo, perché abituato con il Thuban/8150/8350, semplicemente mi sentivo stretto, e che cacchio, sono l'unico a pensare che lavorare con il PC non sia 1 cosa alla volta eccitandosi di come pompa a forza bruta il mio procio?
Rispetto la tua idea e il tuo modo di usare il pc, sul gusto non c'è giudizio e ne critica.
P.S.
Una legge non scritta dice che se il tuo avversario è più forte, devi trovare il punto debole.
AMD se vuole fare guerra ad Intel, lo deve fare dove AMD è più forte e assolutamente no dove Intel è più forte.
Qui non mi trovi d'accordo...amd deve fare guerra dove Intel domina, e no dove Intel non gli e ne frega un cazxo del mercato...
Se sto Zen andasse veramente, lo dovrebbe implementare e da subito negli APU, mobile in primis, e attendere un silicio rodato per realizzare un die nativo con il max dei core possibili. In vesteOpteron/desktop.
Ma bada che nessuno ha mai detto che Zen avrà pochi core's. Fino ad oggi abbiam discusso dell'ipc, ma non ho mai detto che Zen avrà pochi core's, parti dal presupposto che secondo me i core's partiranno da 8 (come bd) per il top di gamma, ma immagino che amd nel futuro li aumenterà per la fascia alta, quindi tranquillo, io penso che amd anche nel desktop butta alla fine almeno un 12 core's top, ma quest'ultimo sarà inutile se avrà un ipc di merda e sarà quindi ancora basato su cmt. La capisci questa mia teoria o no Paolo ?
Zen parte pubblicizzato per fascia alta desktop e server... Con SMT e numero di core nativo uguale a quello Intel ed inferiore a quelli server. Praticamente già inferiore come potenza a core e con un numero di core massimo inferiore ad Intel. La guerra a me sembra già persa, che ci sia Keller o meno...
Non è vero non è cosi, questo è ciò che hai capito tu. Zen parte pubblicizzato per fascia alta desktop e server si, con SMT si, e numero di core a partire uguale e al top superiore alla fascia 1151 di Intel, quindi anche oltre i 6 e gli 8 core's. Nei server potrebbero stavolta superare i 16 core's, e nel desktop arrivare anche ai 12 (come top di gamma). Ma se avrà un ipc basso, nel desktop sarà una merda immonda. Solo questo è il mio cavolo di pensiero.
scusami excavator è successivo a jaguar, ed è attualmente il modello di punta, nel range 15-25W. Dove e quando è stato abbandonato l'approccio CMT?
Io vedo, una pianificazione che ha portato da un SMT parziale ad un SMT completo.
Jaguar è CMP ! Excavator è CMT !. Sono due architetture approcciate in modo diverso per mercati diversi. Lascia perdere sti cavoli di Watt, vai a guardare cosa è Jaguar dal punto di vista di filosofia di progettazione architetturale e confronta l'analoga indagine con Excavator.
Il K10 che io sappia, a liquido aveva il limite nei 4,5GHz e con 1 core a 4,7GHz.
BD su 1 core può fare 5GHz pure con il dissy stock, per i 4,5GHz su 8 core, se proprio non basta il dissy stock, poco ci manca.
La differenza di TDP tra BD e K10 è enorme, come lo è in OC.
Il Thuban @4,5GHz in Cinebench mi sembra facesse 8 e qualche cosa, l'8350 a @5,217 fa 9. Mi sembra eclatante la differenza tra le 2 architetture tra IPC e frequenza. Non è il 32nm che ha concessi frequenze maggiori, vedi Llano, ma è proprio BD che le permette.
Niente da obbiettare, solo alcune precisazioni...
Il limite di frequenza per K10 mi torna, ho raggiunto i 4,3 ad aria, ma con l'8350 ho raggiunto i 5ghz quindi con il liquido dovrebbe fare un po' di più (su 8 cores)
ln cinebench a 4,3 ho fatto 7,71 con il thuban, quindi ok... ma nn mi sembra corretto confrontare 6 cores con 4 moduli, meglio prendere in esame il test single core
l'architettura BD éra nata per frequenze alte che sono state segate dal silicio, quella stars invece credo che fosse già arrivata al limite come frequenze (anche se più di una volta mi sono chiesto come sarebbe stato un thuban sui 32nm... al tempo di zambezi).
;) ciauz
paolo.oliva2
12-09-2015, 22:59
Niente da obbiettare, solo alcune precisazioni...
Il limite di frequenza per K10 mi torna, ho raggiunto i 4,3 ad aria, ma con l'8350 ho raggiunto i 5ghz quindi con il liquido dovrebbe fare un po' di più (su 8 cores)
ln cinebench a 4,3 ho fatto 7,71 con il thuban, quindi ok... ma nn mi sembra corretto confrontare 6 cores con 4 moduli, meglio prendere in esame il test single core
l'architettura BD éra nata per frequenze alte che sono state segate dal silicio, quella stars invece credo che fosse già arrivata al limite come frequenze (anche se più di una volta mi sono chiesto come sarebbe stato un thuban sui 32nm... al tempo di zambezi).
;) ciauz
K, però vorrei fare notare 2 cose.
Llano era 100W e con una IGP inferiore a Trinity.
Llano in OC non riusciva manco ad arrivare alla frequenza def di 3,7GHz dei Phenom II X4, mi pare di ricordate 3,4GHz al max.
Trinity non aveva prb di sorta, arrivando a -300MHz rispetto ai fratelli FX.
È sorprendente una coincidenza.
Se mettessimo una percentuale a quanto ha perso Llano (rispetto ai 4GHz previsti), sarebbe la stessa percentuale circa tra Zambesi e l'aspettativa. I 400MHz di Piledriver non sono venuti dal silicio, ma tramite l'RCM.
Se lo stesso discorso lo ribaltassimo nel TDP, nel senso che facessimo una proporzione tra 45nm e 32nm a X frequenza e Y TDP, a me sembra che si ritroverebbe la stessa differenza tra l'aspettativa X10 BD ed invece max X8.
Ho scritto tutto questo perché a conti fatti, BD non ha un'efficienza peggiore del K10, perché se da una parte il CMT perde il 20% di IPC, dall'altra è naturale valutare che il CMT permetta un +25% dei core.
Quindi dici bene che un Thuban è X6, ma è anche vero che gli 8 core vengano per il CMT, non per il 32nm... Altrimenti facciamo lo stesso giochetto dell'IPC, cioè non valutiamo la frequenza def come non valutiamo che il CMT riduce i transistor rispetto ai core classici.
Jones D. Daemon
12-09-2015, 23:07
E risaie. Leggi quello che ho scritto.
Il K10 è stato prodotto sul 32nm? E allora cosa c'è di meglio che confrontare le due architetture SULLO STESSO SILICIO?
Siccome Llano (che è K10) ha ottenuto frequenza più basse a parità di TDP sul 32nm rispetto che sul 45nm (e non di poco), quello che hai postato non ha alcun senso.
Trinity che è il successore di Llano, chiaramente BD su architettura Piledriver e nulla a che vedere con le features implementate nel 28nm Bulk, proponeva potenze nettamente superiori allo stesso consumo, pur con una IGP ancor più potente.
Lo capisco che non si possono confrontare bd e llano perché sono completamente differenti? Una ha una gpu e l'altra no. Gia questo basta per far cadere nel ridicolo un confronto. Che llano sia k10 a 32nm no vuol dire nulla, quella è stata la prima apu amd, e sono dovuti scendere a compromessi sulle frequenze, data la potente gpu integrata e i limiti ovvi sul tdp. Parlare di limiti sulle architetture non ha senso, anche i muri sanno che ogni chip è diverso e può operare a frequenze diverse. Se io ho in chip che mura a 4 GHz a liquido ti puoi averne uno che prende i 4,5 ad aria, e la cosa non sarebbe strana. L'unica cosa reale per confrontare 2 architetture, tralasciando il silicio, e l'ipc, e k10 era avanti a bulldozer, e c'è rimasta per un bel pezzo. E questo è inaccettabile per una cpu che ne dovrebbe prendere il posto, che abbia 1 o 1000 core.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
plainsong
13-09-2015, 01:51
Comunque per risponderti: l'ho detta un miliardo di volte la frase "CMT implementato da AMD", non ho mai parlato del CMT di IBM. Quest'ultimo non ha niente a che vedere con quello di amd su tutti i punti di vista. Tuttavia ti dirò di più: anche il cmt di ibm sarebbe non idoneo al mercato desktop consumer, sia per lo stesso motivo del cmt di amd che per altri aggiuntivi. L'unica differenza del cmt di ibm è che estramamente più potente nel suo ambito MT rispetto quello di AMD. Per il resto entrambi sarebbero un flop per il mercato consumer e gaming.
Con CMT di IBM intendi genericamente chip multithreading (e quindi, nel caso specifico, un approccio CMP +SMT) ? Te lo chiedo perchè non mi risulta che IBM abbia mai implemenato un'architettura di tipo clustered multithreading.
Ma non sono neppure convinto che BD sia abbandonato nella sua interezza, come qualcuno auspica. AMD ha investito ingenti capitali nel recente passato cosa che non è avvenuta con Zen. Secondo me ha "semplicemente" adattato BD in chiave SMT (visto il progressivo avvicinamento al CMP, era nell'aria e se vogliamo la naturale evoluzione) e rivoluzionato la gestione e la velocità delle cache, con tutto quello che ne consegue.
Anche io ho il sospetto che Zen derivi da BD.
Ma, ho dato una lettura alle pagine precedenti e alla prima pagina, ma mi chiedevo, una data indicativa di uscita dei primi processori Steamroller c'è? :)
george_p
13-09-2015, 08:33
Ma, ho dato una lettura alle pagine precedenti e alla prima pagina, ma mi chiedevo, una data indicativa di uscita dei primi processori Steamroller c'è? :)
In realtà il titolo del thread andrebbe cambiato in "Aspettando Zen" poiché questo è il nuovo processore in arrivo prossimo anno da amd e Steamroller (abbreviato SR) è uscito nella sola versione apu (Kaveri prima e godavari poi) da febbraio 2014.
george_p
13-09-2015, 08:37
Con CMT di IBM intendi genericamente chip multithreading (e quindi, nel caso specifico, un approccio CMP +SMT) ? Te lo chiedo perchè non mi risulta che IBM abbia mai implemenato un'architettura di tipo clustered multithreading.
Anche io ho il sospetto che Zen derivi da BD.
Dalle dichiarazioni ufficiali di amd il CMT pare destinato alla completa eliminazione poi non so se per BD intendi questo.
Poi tutto può essere ma...
Lo capisco che non si possono confrontare bd e llano perché sono completamente differenti? Una ha una gpu e l'altra no. Gia questo basta per far cadere nel ridicolo un confronto. Che llano sia k10 a 32nm no vuol dire nulla, quella è stata la prima apu amd, e sono dovuti scendere a compromessi sulle frequenze, data la potente gpu integrata e i limiti ovvi sul tdp. Parlare di limiti sulle architetture non ha senso, anche i muri sanno che ogni chip è diverso e può operare a frequenze diverse. Se io ho in chip che mura a 4 GHz a liquido ti puoi averne uno che prende i 4,5 ad aria, e la cosa non sarebbe strana. L'unica cosa reale per confrontare 2 architetture, tralasciando il silicio, e l'ipc, e k10 era avanti a bulldozer, e c'è rimasta per un bel pezzo. E questo è inaccettabile per una cpu che ne dovrebbe prendere il posto, che abbia 1 o 1000 core.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
Da quello che scrivi é evidente che intendi BD come architettura ed é una vita che l'architetture e le cpu amd vengono confrontate con quelle intel... su un PP diverso, cmq nel nostro caso basta confrontare Llano con trinity, entrambi su 32nm ma uno con architettura stars e l'altro con architettura BD, punto.
Riguardo alle frequenze ci sono sempre state e sempre ci saranno cpu più e meno fortunate... ma quanti thuban raggiungono i 4,5ghz ad aria e quanti BD murano a 4ghz a liquido :confused:
Zambezi già doveva partire davanti a thuban e così nn é stato, questo é vero... ma piledriver nn gli é più dietro, peccato che nn siano stati possibili FX steamroller e excavator... però in questo devo darti ragione, nn possono volerci 2 anni perchè l'architettura nuova raggiunga quella vecchia, ma come Paolo penso che le colpe maggiori siano del silicio.
;) ciauz
george_p
13-09-2015, 09:49
Da quello che scrivi é evidente che intendi BD come architettura ed é una vita che l'architetture e le cpu amd vengono confrontate con quelle intel... su un PP diverso, cmq nel nostro caso basta confrontare Llano con trinity, entrambi su 32nm ma uno con architettura stars e l'altro con architettura BD, punto.
Riguardo alle frequenze ci sono sempre state e sempre ci saranno cpu più e meno fortunate... ma quanti thuban raggiungono i 4,5ghz ad aria e quanti BD murano a 4ghz a liquido :confused:
Zambezi già doveva partire davanti a thuban e così nn é stato, questo é vero... ma piledriver nn gli é più dietro, peccato che nn siano stati possibili FX steamroller e excavator... però in questo devo darti ragione, nn possono volerci 2 anni perchè l'architettura nuova raggiunga quella vecchia, ma come Paolo penso che le colpe maggiori siano del silicio.
;) ciauz
All'architettura BD sono state allungate di parecchio le pipeline, operazione che ha portato ad un netto abbassamento dell'ipc da compensare con l'aumento di frequenza.
Il fulcro di tutto il discorso ipc sta qua.
Aumentare la frequenza porta a consumi maggiori. Aumentare le pipeline porta a maggiori possibilità di errori con maggiori perdite di cicli operativi da compensare con BPU (unità di predizione diramazioni) che siano ben progettate.
Perché l'architettura BD ha creato tutti questi problemi? Maggior consumo, maggior calore da disperdere per totale dipendenza da silicio e basso ipc con conseguente scarsa elaborazione istruzioni per frequenze "troppo" basse.
Senza considerare che i vantaggi del CMT sono stati annullati per questo.
Il silicio non è stato all'altezza e quindi BD è fermo da 3 anni all'FX 8350.
Intel ha risolto il problema del pentium IV con il core duo decisamente molto più efficiente in quanto elabora molte più istruzioni per clock, amd, si auspica, con Zen.
All'architettura BD sono state allungate di parecchio le pipeline, operazione che ha portato ad un netto abbassamento dell'ipc da compensare con l'aumento di frequenza.
Il fulcro di tutto il discorso ipc sta qua.
Aumentare la frequenza porta a consumi maggiori. Aumentare le pipeline porta a maggiori possibilità di errori con maggiori perdite di cicli operativi da compensare con BPU (unità di predizione diramazioni) che siano ben progettate.
Perché l'architettura BD ha creato tutti questi problemi? Maggior consumo, maggior calore da disperdere per totale dipendenza da silicio e basso ipc con conseguente scarsa elaborazione istruzioni per frequenze "troppo" basse.
Senza considerare che i vantaggi del CMT sono stati annullati per questo.
Il silicio non è stato all'altezza e quindi BD è fermo da 3 anni all'FX 8350.
Intel ha risolto il problema del pentium IV con il core duo decisamente molto più efficiente in quanto elabora molte più istruzioni per clock, amd, si auspica, con Zen.
Appunto, é ferma all'8350 per colpa del silicio... l'ipc l'ha aumentato ad ogni step ed escavator FX avrebbe potuto dire la sua almeno nella fascia mainstream, ma manca un silicio idoneo... a questo punto, speriamo in zen.
;) ciauz
paolo.oliva2
13-09-2015, 10:42
Lo capisco che non si possono confrontare bd e llano perché sono completamente differenti? Una ha una gpu e l'altra no. Gia questo basta per far cadere nel ridicolo un confronto. Che llano sia k10 a 32nm no vuol dire nulla, quella è stata la prima apu amd, e sono dovuti scendere a compromessi sulle frequenze, data la potente gpu integrata e i limiti ovvi sul tdp. Parlare di limiti sulle architetture non ha senso, anche i muri sanno che ogni chip è diverso e può operare a frequenze diverse. Se io ho in chip che mura a 4 GHz a liquido ti puoi averne uno che prende i 4,5 ad aria, e la cosa non sarebbe strana. L'unica cosa reale per confrontare 2 architetture, tralasciando il silicio, e l'ipc, e k10 era avanti a bulldozer, e c'è rimasta per un bel pezzo. E questo è inaccettabile per una cpu che ne dovrebbe prendere il posto, che abbia 1 o 1000 core.
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
Ma ci fai o ci sei?
Llano è APU, Trinity è APU, entrambi sul 32nm SOI.
Llano è 100W TDP, di cui per dati ufficiali AMD, si sa che metà TDP sono per la parte X86 e l'altra metà per l'IGP, né più né meno di Trinity, solamente che Trinity ci mette il modulo e BD nella parte X86.
Dove sono le differenze?
Valutando la parte X86 K10 e la parte X86 BD, BD risulta avere più frequenza, lIPC in meno è compensato alla grande dalla frequenza maggiore, e minori consumi a parità di prestazioni pur con una IGP più potente, il tutto sullo stesso SILICIO.
PUNTO.
Questa è la pura verità, se poi per bandiera non ti fa comodo, cavoli tuoi, ma quando scrivi che io sto sempre a difendere BD, e per quello che hai scritto non ne sai una mazza di BD... Il tuo post che valenza ha?
george_p
13-09-2015, 10:48
Appunto, é ferma all'8350 per colpa del silicio... l'ipc l'ha aumentato ad ogni step ed escavator FX avrebbe potuto dire la sua almeno nella fascia mainstream, ma manca un silicio idoneo... a questo punto, speriamo in zen.
;) ciauz
Quello che non si vuole capire è: Che silicio occorre avere per queste architetture?
Un silicio che smaltisca tutto il calore prodotto da frequenze elevatissime per compensare un IPC schifosamente basso.
Ribadisco Intel ha risolto con il core duo decisamente molto più efficiente, ossia con efficiente inteso una cpu capace di elaborare un elevatissimo numero di istruzioni per clock per cui le frequenze più ridotte danno consumi bassi e puoi dipendere meno dal silicio.
Fino al 2005 Amd usava questa strada perché il suo processo produttivo era indietro rispetto a quello di intel, fino a che quest'ultima ha introdotto il core duo.
Fino ad allora amd ha saputo progettare bene le sue architetture, dal 2006 in poi è vissuta di rendita con le risorse e competenze dei precedenti ingegneri.
E per concludere PD non ha raggiunto l'ipc del K10. Si è avvicinato SR.
paolo.oliva2
13-09-2015, 11:13
All'architettura BD sono state allungate di parecchio le pipeline, operazione che ha portato ad un netto abbassamento dell'ipc da compensare con l'aumento di frequenza.
Il fulcro di tutto il discorso ipc sta qua.
Aumentare la frequenza porta a consumi maggiori. Aumentare le pipeline porta a maggiori possibilità di errori con maggiori perdite di cicli operativi da compensare con BPU (unità di predizione diramazioni) che siano ben progettate.
Perché l'architettura BD ha creato tutti questi problemi? Maggior consumo, maggior calore da disperdere per totale dipendenza da silicio e basso ipc con conseguente scarsa elaborazione istruzioni per frequenze "troppo" basse.
Senza considerare che i vantaggi del CMT sono stati annullati per questo.
Il silicio non è stato all'altezza e quindi BD è fermo da 3 anni all'FX 8350.
Intel ha risolto il problema del pentium IV con il core duo decisamente molto più efficiente in quanto elabora molte più istruzioni per clock, amd, si auspica, con Zen.
Ma infatti bisognerebbe quantificare la perdita delle pipeline lunghe, la predizione non migliore del K10, le latenze cache non migliori del K10, il CMT vs K10, ecc ecc.
Allora, da una parte si può dire che pipeline più lunghe hanno aumentato il clock, ma tra frequenze def BD e quelle K10 possiamo dire che la perdita di IPC è compensata da un clock maggiore?
Il CMT perde IPC, ma la condivisione diminuisce i transistor a favore di un numero maggiore di core?
La predizione e le latenze cache sono si negative, ma rispetto ad punto, perché tra K10 e BD, almeno nel ciclo def, BD migliora. Il Phenom II migliorava installando DDDR più aggressive? Il Phenom II bisognava toccare l'NB se si aumentava il clock ai core? Un 8350 può tenere le DDR3 a 1600 e NB a def ed overcloccarlo a @5,2GHz ottenendo comunque il massimo.
Il punto è che il silicio non ha offerto una frequenza alta come doveva, non ha permesso di implementare il 5° modulo, non è seguito il 22nm SOI che avrebbe concesso Steamroller e Excavator, e via di seguito.
Il nocciolo è che tu giudichi BD che consuma tanto, ma Precisiamo. Consuma più del K10 a parità di prestazioni e a parità di silicio? Llano dice chiaramente di no verso un Trinity. Questo conferma che il 32nm SOI potrebbe aver portato una condizione similare a quella di Intel tra il 22nm e 14nm. Ora, perché per forza dobbiamo impuntarci che è BD esoso e che il 32nm SOI che permette BD a 4GHz?
Ci rendiamo conto che AMD ha abbandonato un 32nm SOI per un 28nm Bulk? Ci rendiamo conto che il 45nm SOI non aveva manco l'HMG e inseriva il low-k solamente per il Thuban? E teneva testa al 45nm Bulk Intel HKMG low-K?
Vogliamo credere che il 28nm Bulk di GF possa equivalere al 32nm bulk Intel? Ma ci rendiamo conto che il 28nm di GF non ha potuto manco permettere un X6 APU sia per limiti dei 100W TDP che per limiti di frequenza, mentre Intel sfornava proci a 140W X6 + SMT ad una frequenza superiore? E se AMD ha lasciato il 32nm SOI a favore del 28nm, mi sembra palese che giudicasse migliore il 28nm Bulk.
Ora, se BD + 32nm SOI non va, è più colpa di BD o del silicio?
george_p
13-09-2015, 11:29
Penso questo, Llano è stato un tentativo veloce per creare la prima apu che amd voleva assolutamente lanciare.
Confrontare Trinity che è uscito un anno dopo il primo BD e con migliorie per correggerlo con Llano/K10 considerando soprattutto che il primo gode di un silicio, almeno penso, migliore rispetto a Llano realizzato un anno prima è poco corretto.
BD infatti nella versione FX aveva frequenza 3600, nella prima apu quanto avrebbe avuto come frequenza? Sempre 3600? Oppure meno? Sappiamo solamente che non lo hanno scelto per l'apu... perché? Facciamo i conti anche li dai.
paolo.oliva2
13-09-2015, 11:35
Quello che non si vuole capire è: Che silicio occorre avere per queste architetture?
Un silicio che smaltisca tutto il calore prodotto da frequenze elevatissime per compensare un IPC schifosamente basso.
No, basterebbe un silicio che ottenga lo stesso TDP per numero di transistor rispetto a quello Intel. Un BD potrebbe funzionare anche a 3,2GHz (come uno Xeon 5960) perche equivarrebbe ad un Pile 4GHz, ma al pisto di X8 sarebbe X16 (o meglio, al posto di 8TH ne avrebbe 16 nativi)
Visto che anche Intel è a 4GHz, perché Intel con un 6700k ci sta a 4GHz ed invece con un X6 deve già calare? Perché un FX X8 invece ha la stessa frequenza massima di soluzioni con meno core? Se fosse un forno come dici, dovrebbe diminuire la frequenza ancor più di Intel.
Ribadisco Intel ha risolto con il core duo decisamente molto più efficiente, ossia con efficiente inteso una cpu capace di elaborare un elevatissimo numero di istruzioni per clock per cui le frequenze più ridotte danno consumi bassi e puoi dipendere meno dal silicio.
Vero, ma se adesso è arrivata ugualmente a 4GHz, e visto che esegue un 50% in più di istruzioni a parità di frequenza con AMD, ad un TDP inferiore, è o non è per il silicio? O è un discorso BD e stop?
Fino al 2005 Amd usava questa strada perché il suo processo produttivo era indietro rispetto a quello di intel, fino a che quest'ultima ha introdotto il core duo.
Fino ad allora amd ha saputo progettare bene le sue architetture, dal 2006 in poi è vissuta di rendita con le risorse e competenze dei precedenti ingegneri.
E per concludere PD non ha raggiunto l'ipc del K10. Si è avvicinato SR.
Peccato che sia SR che EX non sono stati prodotti FX, a causa del silicio, ma tu continui a dire che il silicio non conta.
paolo.oliva2
13-09-2015, 11:48
Però Paolo, e questo è un mio pensiero, Llano è stato un tentativo veloce per creare la prima apu che amd voleva assolutamente lanciare. Confronti Trinity che è uscito un anno dopo il primo BD con Llano e per di più su un silicio più vecchio di un anno.
Con Trinity (PD) hanno corretto alcuni bug o comunque apportanto migliorie e allo stesso tempo penso abbiano migliorato un poco il silicio (in 12 mesi), quindi Llano è un espediente per tappare in fretta e furia una falla che altrimenti con BD sarebbe stata ancora più enorme.
Perché non hanno fatto allora una apu con K10 12 mesi dopo?
Personalmente penso che avrebbe avuto frequenze ben più alte come successo per Trinity che viaggiava a 3800 mhz (Ben il 30% in più rispetto a Llano che ne aveva 2900).
Mi pare troppo comodo fare questo tipo di confronto. Ma poiché come tu stesso scrivi, ed è così, amd ha investito ingenti capitali in questa architettura modulare sarebbe stato da pazzi continuare con il K10.
Anche se sinceramente forse forse...
Ma puoi anche valutare Zambesi che è uscito con Llano, il K10 starebbe sempre sotto.
Pile non ha migliorato il silicio, è stato l'RCM che ha permesso un aumento frequenze e una diminuzione TDP nel moduo inserendo una pipeline ed aumentando l'IPC. Gli ultimi 8370 derivano da Warsavia ed è lo stesso PP dei Piledriver, soltanto con un RCM ottimizzato per 4GHz. È sempre il B2f da 4 anni.
Un CMT riduce i transistor rispetto a 2 core classici. La riduzione è del 25%, la perdita è del 20%. Anche alla stessa frequenza, ci dobbiamo ritrovare un die che deve dare una potenza complessiva del 5% superiore.
Per complessiva intendo X core con IPC 100 e con BD X core (+25‰) con IPC -20%.
Zambesi forniva la stessa potenza di un Thuban X6 con il +33% dei core sullo stesso TDP ma con solamente +400MHz di frequenza def. Vogliamo credere che il 32nm abbia perso tutto in quei 400MHz? Intel ne ha guadagnati 800MHz aumentando l'IPC, e per la massima non deriva di certo dall'efficienza architettura.
tuttodigitale
13-09-2015, 11:53
Jaguar è CMP ! Excavator è CMT !. Sono due architetture approcciate in modo diverso per mercati diversi. Lascia perdere sti cavoli di Watt, vai a guardare cosa è Jaguar dal punto di vista di filosofia di progettazione architetturale e confronta l'analoga indagine con Excavator.
Jaguar è CMP, ma è antecedente a excavator, nel mobile
Vedi Jaguar per le scatolette, hanno dovuto fare un passo indietro ed utilizzare il cmp per farlo rendere in quel settore. Quindi alla fine tutti quanti facciamo discorsi diversi ma diciamo tutti la stessa cosa.
solo ora ho compreso che per scatolette intendessi le console, ma la questione non cambia. Test alla mano, a aprità di frequenza SR, nel MT (dove in teoria è svantaggiato dal CMT), va l' 8% in più.
Unisci questo al fatto che l'ipc di excavator è più elevato almeno del 5%, e la frequenza base è più elevata di 300 MHz (2,1 GHz vs 1,8GHz) +17%: siamo a +35% in 15W di TDP.
E tra parentesi, le console hanno perso circa 150-200MHz per il semplice fatto di aver usato i 28nm bulk di TSMC (quindi la differenza in efficienza tra i core jaguar e xv è del 50%). Ovviamente non consideriamo il ST, dove XV può contare su un aggiuntivo e abbondante 10% su jaguar. Quindi dove e quando XV/SR sarebbe peggiore di Jaguar per le console? Vuoi vedere che il vero motivo è che XV non era pronto per la commercializzazione?
george_p
13-09-2015, 11:55
No, basterebbe un silicio che ottenga lo stesso TDP per numero di transistor rispetto a quello Intel. Un BD potrebbe funzionare anche a 3,2GHz (come uno Xeon 5960) perche equivarrebbe ad un Pile 4GHz, ma al pisto di X8 sarebbe X16 (o meglio, al posto di 8TH ne avrebbe 16 nativi)
Visto che anche Intel è a 4GHz, perché Intel con un 6700k ci sta a 4GHz ed invece con un X6 deve già calare? Perché un FX X8 invece ha la stessa frequenza massima di soluzioni con meno core? Se fosse un forno come dici, dovrebbe diminuire la frequenza ancor più di Intel.
Vero, ma se adesso è arrivata ugualmente a 4GHz, e visto che esegue un 50% in più di istruzioni a parità di frequenza con AMD, ad un TDP inferiore, è o non è per il silicio? O è un discorso BD e stop?
Peccato che sia SR che EX non sono stati prodotti FX, a causa del silicio, ma tu continui a dire che il silicio non conta.
Ma sei sicuro che per me il silicio non conta? :D
Se scrivo da mesi che per questa architettura occorre un silicio troppo avanzato, cosa vuole dire?
Parto dalla premessa che l'architettura BD sia molto poco efficiente e dipenda tanto dal silicio.
Cosa vuole dire questa frase? Ma poi contestualizziamo per favore?
Io parlo di 10 cose e si prendono solo le unità decontestualizzate dal resto.
Per cui io sono contro amd :D per me il CMT fa schifo e basta quando invece parlo del resto dell'architettura in cui è stato inserito, oppure per me il silicio non conta quando spiego perché e quindi il mio pensiero fa riferimento a un contesto decisamente più articolato.
Riguardo Intel e i suoi 4Ghz specifica per favore in quali cpu le raggiunge e con quali processi produttivi. Che poi tanto una cpu intel a parità di frequenza e qui di 4 ghz elabora mooooolte più istruzioni rispetto a BD e ha processi produttivi più avanzati, nonostante il 14 nm abbia fatto un po schifo almeno ora permette un quadcore più elaborato.
Avere 16 core porta vantaggi in termini di consumi? Perché anche sui 28 nm SR ed EX non sono stati possibili in versione FX? E' solo il silicio o l'architettura che, causa consumi, non permette di aggiungere manco un quarto di modulo? Eppure sul 28 nm qualche transistor in più ci sta.
Eppure sto scrivendo sempre le stesse cose, ma si vuole leggere solo pezzettini...
george_p
13-09-2015, 11:58
Ma puoi anche valutare Zambesi che è uscito con Llano, il K10 starebbe sempre sotto.
Pile non ha migliorato il silicio, è stato l'RCM che ha permesso un aumento frequenze e una diminuzione TDP nel moduo inserendo una pipeline ed aumentando l'IPC. Gli ultimi 8370 derivano da Warsavia ed è lo stesso PP dei Piledriver, soltanto con un RCM ottimizzato per 4GHz. È sempre il B2f da 4 anni.
Un CMT riduce i transistor rispetto a 2 core classici. La riduzione è del 25%, la perdita è del 20%. Anche alla stessa frequenza, ci dobbiamo ritrovare un die che deve dare una potenza complessiva del 5% superiore.
Per complessiva intendo X core con IPC 100 e con BD X core (+25‰) con IPC -20%.
Zambesi forniva la stessa potenza di un Thuban X6 con il +33% dei core sullo stesso TDP ma con solamente +400MHz di frequenza def. Vogliamo credere che il 32nm abbia perso tutto in quei 400MHz? Intel ne ha guadagnati 800MHz aumentando l'IPC, e per la massima non deriva di certo dall'efficienza architettura.
Io posso valutarlo zambesi ma sta di fatto che zambesi è una cpu pura mentre llano è apu e nella prima apu BD non ce l'hanno messo manco per sbaglio. tutto regolare? A me pare di no.
Poi scusa il silicio in un anno non è cambiato niente niente? Seppur pessimo avrà permesso qualche cosa in più?
Se no pessimo pessimo eh
tuttodigitale
13-09-2015, 12:07
Lo capisco che non si possono confrontare bd e llano perché sono completamente differenti? Una ha una gpu e l'altra no.
il fatto che uno abbia l'igp e uno no, non ha senso alcuno. Francamente non credo che in nessuno modo la presenza di una igp nel die disabilitata possa influire nell'oc.
Di cpu pure sono rimaste solo gli haswell-e e le cpu FX.
Come ha detto Paolo è stato il RCM, a permettere a PD di girare a 4GHz:
http://diit.cz/sites/default/files/amd_piledriver_32nm_resonant_clock_mesh_.png
come puoi vedere il RCM, ha permesso di aumentare l'efficienza a 3,6GHz (frequenza del 8150) del 20-25%, che si traduce in una riduzione del TDP da 125 a 100 W. In pratica, come ha detto Paolo, il 32nm di PD non è migliore dei 32nm usati da BD, almeno che non si dimostri che un FX8150 cosnumi a 4 GHz 160 o più W.
Su Tomshw, l'oc a 4GHz fa si che il fx8150 richieda 27W aggiuntivi...come volevasi dimostrare.
http://media.bestofmicro.com/G/4/316804/original/power_psu_load.png
tuttodigitale
13-09-2015, 12:44
Riguardo Intel e i suoi 4Ghz specifica per favore in quali cpu le raggiunge e con quali processi produttivi.
va precisato che INTEL non ha avuto su 32nm, i 4 GHZ per sua scelta. Ad oggi le cpu SB sono tra le più overcloccabili. I 3,5GHz li raggiunge a 95W di TDP, cosa che AMD non in grado di fare con i fx8370E che si fermano a soli 3,3GHz. Come se non bastasse ha dovuto usare il Resonant Clock Mesh, per ottenere questo risultato non esaltante. Senza l'utilizzo della maglia di condensatori il fc8370e consumerebbe 15-20W in più.
Come vedi, AMD non solo non ha avuto nessun vantaggio dalle lunghe pipeline (maggior clock e/o riduzione dei consumi) rispetto ad Intel, ma anzi i punti di forza sono diventati punti deboli.
Avere 16 core porta vantaggi in termini di consumi? Perché anche sui 28 nm SR ed EX non sono stati possibili in versione FX? E' solo il silicio o l'architettura che, causa consumi, non permette di aggiungere manco un quarto di modulo? Eppure sul 28 nm qualche transistor in più ci sta.
sui 28nm, non pensare che i livelli di integrazione sia così esaltante. La dimensione della cache l2 è rimasta pressoapoco equivalente (secondo le mie misure è leggermente aumentata rispetto ai 32nm) e così anche quel die. Quindi no, a livello di integrazione i 28 nm non forniscono nessun vantaggio.
L'architettura confrontata con jauar e k10 (di cui si conoscono le indubbie qualità), sembra effettivamente gli ultimi dei problemi delle moderne cpu FX:
george_p
13-09-2015, 12:58
Allora vanno presi anche i 28 nm come pessimo silicio?
Mentre riguardo la scelta da parte di intel di non arrivare a 4 ghz beh... hai una architettura così efficiente che la concorrenza non ti spaventa, puoi tenere bassi i consumi senza forzare troppo tdp e dominare incontrastata per prestazioni e bassi consumi.
Mica scemi.
Jones D. Daemon
13-09-2015, 13:06
Ma ci fai o ci sei?
Llano è APU, Trinity è APU, entrambi sul 32nm SOI.
Llano è 100W TDP, di cui per dati ufficiali AMD, si sa che metà TDP sono per la parte X86 e l'altra metà per l'IGP, né più né meno di Trinity, solamente che Trinity ci mette il modulo e BD nella parte X86.
Dove sono le differenze?
Valutando la parte X86 K10 e la parte X86 BD, BD risulta avere più frequenza, lIPC in meno è compensato alla grande dalla frequenza maggiore, e minori consumi a parità di prestazioni pur con una IGP più potente, il tutto sullo stesso SILICIO.
PUNTO.
Questa è la pura verità, se poi per bandiera non ti fa comodo, cavoli tuoi, ma quando scrivi che io sto sempre a difendere BD, e per quello che hai scritto non ne sai una mazza di BD... Il tuo post che valenza ha?
Non ci faccio ne ci sono, e cosi puoi anche rivolgerti a qualcun'altro grazie. Certo si sa che metá sono cpu e meta gpu...Paolo lo sa. Continua pure a pontificare su dati inventati e ad additare gli altri come di bandiera differente quando proprio tu per bandiera fai di tutto per difendere un progetto fallimentare abbandonato dalla stessa azienda. Mi ricordi molto un'altro utente...
Inviato dal mio ASUS_Z00AD utilizzando Tapatalk
george_p
13-09-2015, 13:08
il fatto che uno abbia l'igp e uno no, non ha senso alcuno. Francamente non credo che in nessuno modo la presenza di una igp nel die disabilitata possa influire nell'oc.
Di cpu pure sono rimaste solo gli haswell-e e le cpu FX.
Come ha detto Paolo è stato il RCM, a permettere a PD di girare a 4GHz:
come puoi vedere il RCM, ha permesso di aumentare l'efficienza a 3,6GHz (frequenza del 8150) del 20-25%, che si traduce in una riduzione del TDP da 125 a 100 W. In pratica, come ha detto Paolo, il 32nm di PD non è migliore dei 32nm usati da BD, almeno che non si dimostri che un FX8150 cosnumi a 4 GHz 160 o più W.
Su Tomshw, l'oc a 4GHz fa si che il fx8150 richieda 27W aggiuntivi...come volevasi dimostrare.
Ma una domanda sorge spontanea. Il RCM come funziona? E cosa è?
EDIT
ho trovato qualcosa in rete. Si applica al generatore di clock per ridurre il consumo a parità di frequenza generata.
Sapevo che il 32nm è pessimo ma pensavo che in qualche modo nel corso dei mesi fosse stato almeno un poco migliorato mentre invece è un processo produttivo davvero molto schifoso.
Insomma se non fosse stato per il RCM non avremo visto evoluzioni dell'architettura BD.
Dopo qualche settimana che seguo e partecipo umilmente a questo thread, ho capito che la cosa più importante per AMD non è usare CMT o SMT , bulk o SOI, 8 core o 16 core, ma non avere più nulla a che fare con Globalfoundries!:banned:
george_p
13-09-2015, 16:07
Dopo qualche settimana che seguo e partecipo umilmente a questo thread, ho capito che la cosa più importante per AMD non è usare CMT o SMT , bulk o SOI, 8 core o 16 core, ma non avere più nulla a che fare con Globalfoundries!:banned:
Questa è la cosa che le auguro di vero cuore.
plainsong
13-09-2015, 16:51
Dalle dichiarazioni ufficiali di amd il CMT pare destinato alla completa eliminazione poi non so se per BD intendi questo.
Poi tutto può essere ma...
L'approccio CMT sembra essere accantonato, ma come notava tuttodigitale grossi investimenti in termini di ricerca sono stati fatti su BD ed è difficile immaginare che tutto questo lavoro venga accantonato. Benchè i risultati complessivi siano stati in parte al di sotto delle aspettative, Agner Fog descrive per BD un branch predictor basato su perceptron, molto più complesso ed efficace di quanto visto su k10. Il memory controller, pur rimanendo ben lontano dalle prestazioni di Intel, ha mostrato evidenti miglioramenti, e anche la Flex FP appare come un componente ben progettato. Imho per Zen sono partiti da basi simili, con ovvie modifiche della pipeline derivanti in primis dall'abbandono del secondo core INT nel modulo, nonchè col già annunciato completo redesign del sistema di caching.
george_p
13-09-2015, 16:59
L'approccio CMT sembra essere accantonato, ma come notava tuttodigitale grossi investimenti in termini di ricerca sono stati fatti su BD ed è difficile immaginare che tutto questo lavoro venga accantonato. Benchè i risultati complessivi siano stati in parte al di sotto delle aspettative, Agner Fog descrive per BD un branch predictor basato su perceptron, molto più complesso ed efficace di quanto visto su k10. Il memory controller, pur rimanendo ben lontano dalle prestazioni di Intel, ha mostrato evidenti miglioramenti, e anche la Flex FP appare come un componente ben progettato. Imho per Zen sono partiti da basi simili, con ovvie modifiche della pipeline derivanti in primis dall'abbandono del secondo core INT nel modulo, nonchè col già annunciato completo redesign del sistema di caching.
Ma come minimo si sfrutta ciò che si è ben realizzato, ci mancherebbe. Tutta la componentistica da te citata va sfruttata all'occorrenza.
Lo stesso discorso l'aveva fatto shellx proprio rispondendo a non ricordo chi in riferimento a questo tipo di riutilizzo.
FazzoMetal
13-09-2015, 18:02
No, basterebbe un silicio che ottenga lo stesso TDP per numero di transistor rispetto a quello Intel.
Non è proprio così: il TDP, a parità di silicio, non è proporzionale al numero di transistor. Ci sono almeno 2 diverse tecniche architetturali, tra cui quella del pipelining, che permettono di abbassare i consumi a parità di performance proprio inserendo dei transistor in più.
Il TDP, quindi, non è proporzionale al numero di transistor; il numero di transistor incide maggiormente sull'area e i costi aumentano come la quarta potenza dell'area. Soluzioni come il CMT permettono di ridurre (almeno sulla carta) il numero di transistor a parità di core e di performance (nel caso di uso medio con un carico maggiormente composto da computazione fixed point) permettendo quindi di ridurre il costo di un processore pesantemente multi core.
tuttodigitale
13-09-2015, 18:49
Allora vanno presi anche i 28 nm come pessimo silicio?
tutto dipende dalla frequenza. Vedi confronto Richland Kaveri:
a 100W a10-7870k 3,9 GHz vs a10-6800K 4,1GHz
il 28nm sembrerebbe peggiore dei 32nm (ma potrebbe essere dovuto alla maggior complessità dell'architettura SR). Oggi un eventuale confronto kaveri-Richland, vedrebbe il primo battere, seppur di poco (+7%), il secondo.
A "soli" 45W kaveri ha una frequenza base di 3,3GHz, esattamente come un Fx8370E da 95W. Un +13% di ipc nel MT, fa si che i 3,3 GHz SR equivalgano ai 3,7GHz PD. Ora bisogna considerare che da una parte c'è la cache l3, dall'altra 512x2sp e Northbridge x2 e un memory controller dual channel in più.
su Tom, se la memoria non mi tradisce a10-7800 con tdp impostato a 65W era più veloce e efficiente del i3 2100. In effetti sembra che non ci siano dubbi sulla superiorità dei 28nm a frequenze intorno ai 3GHz.
george_p
13-09-2015, 20:25
tutto dipende dalla frequenza. Vedi confronto Richland Kaveri:
a 100W a10-7870k 3,9 GHz vs a10-6800K 4,1GHz
il 28nm sembrerebbe peggiore dei 32nm (ma potrebbe essere dovuto alla maggior complessità dell'architettura SR). Oggi un eventuale confronto kaveri-Richland, vedrebbe il primo battere, seppur di poco (+7%), il secondo.
A "soli" 45W kaveri ha una frequenza base di 3,3GHz, esattamente come un Fx8370E da 95W. Un +13% di ipc nel MT, fa si che i 3,3 GHz SR equivalgano ai 3,7GHz PD. Ora bisogna considerare che da una parte c'è la cache l3, dall'altra 512x2sp e Northbridge x2 e un memory controller dual channel in più.
su Tom, se la memoria non mi tradisce a10-7800 con tdp impostato a 65W era più veloce e efficiente del i3 2100. In effetti sembra che non ci siano dubbi sulla superiorità dei 28nm a frequenze intorno ai 3GHz.
I 28 bulk non son fatti per frequenze altissime, così ho sempre letto su B&C.
Kaveri rappresenta un evoluzione non indifferente rispetto ai precedenti BD sia per un lieve ritocco alle pipeline sia per le altre migliorie sul MC.
Non son sicuro però che il 28nm utilizzato sia peggiore del 32 nm soi visto che amd ci ha investito soldi portando un lieve incremento di frequenza con godavari.
Inoltre si i 28 sono più piccoli dei 32 ma rispetto alle precedenti apu cambiano entrambe le architetture con aggiunte non di poco.
Posso però pensare che glofo non sia minimamente capace di ottenere buoni silici.
I 28 bulk non son fatti per frequenze altissime, così ho sempre letto su B&C.
Kaveri rappresenta un evoluzione non indifferente rispetto ai precedenti BD sia per un lieve ritocco alle pipeline sia per le altre migliorie sul MC.
Non son sicuro però che il 28nm utilizzato sia peggiore del 32 nm soi visto che amd ci ha investito soldi portando un lieve incremento di frequenza con godavari.
Inoltre si i 28 sono più piccoli dei 32 ma rispetto alle precedenti apu cambiano entrambe le architetture con aggiunte non di poco.
Posso però pensare che glofo non sia minimamente capace di ottenere buoni silici.
Inoltre è la prima cpu bulk in tempi recenti di Amd, qualche problematica l'avranno avuta abituati come erano con il soi.
cut... Quindi dove e quando XV/SR sarebbe peggiore di Jaguar per le console? Vuoi vedere che il vero motivo è che XV non era pronto per la commercializzazione?
Le console hanno un software operativo dedicato di sistema, compresi tutti i giochi scritti ad hoc. Il motivo per il quale è stato scelto Jaguar è dovuto alla sicurezza applicativa (in termini di performance) verso quel concetto architetturale e anche per avere bassissimi consumi (anche a frequenze basse), un ipc superiore, e che gestisse in maniera dinamica e soprattutto ormai rodata applicativi dove serve stabilità e prestazioni limitate nella cerchia di quella categoria applicativa. Mettere processori CMT, dove molti problemi (di più nature) sono venuti a capo nei chip per soluzioni desktop e server non è una buona idea, visto che le console sono dispositivi che una volta lanciate nel mercato, se fai flop non danneggi solo te stessa ma pure chi le produce (vedi M$ e $ony), arrecando danni ingenti al settore ed ad altre aziende. Ergo io e te non siamo nei laboratori amd, ma una cosa viene spontaneamente nella logica comune: uso qualcosa di rodato stabile e che conosco bene, dove so che posso garantire prestazioni adeguate per quello che quel dispositivo deve fare. Ergo Jaguar non è stato scelto perchè qualcosa non era ancora pronto, ma è un progetto DEDICATO ai quei particolari dispositivi (console) , studiato appositivamente (con o senza Excavator/Steamroller) per essere ospitato da macchine che devono compiere ruoli embedded in un mercato che non può errare. Niente è meglio del rodato CMP in questo scenario...
@per paolo, leggiti un pò sta roba:
https://scalibq.wordpress.com/2012/02/14/the-myth-of-cmt-cluster-based-multithreading/
http://www.anandtech.com/show/5279/the-opteron-6276-a-closer-look/6
AMD claimed more than once that Clustered Multi Threading (CMT) is a much more efficient way to crunch through server applications than Simultaneous Multi Threading (SMT), aka Hyper-Threading (HTT).
@per altri:
https://en.wikipedia.org/wiki/Simultaneous_multithreading
https://www-304.ibm.com/connections/blogs/davidian/tags/cmt?lang=en_us
La Sun Microsystems-Oracle utilizzò un approccio CMT in alcuni modelli SPARC, IBM non approvò questo approccio per via della sua natura efficientemente scarsa.
Tuttavia: https://www-304.ibm.com/connections/blogs/davidian/entry/ibm_s_power7_does_not_validate_sun_s_cmt_sparc_processor_architecture2?lang=en_us
george_p
14-09-2015, 08:22
@per paolo, leggiti un pò sta roba:
https://scalibq.wordpress.com/2012/02/14/the-myth-of-cmt-cluster-based-multithreading/
http://www.anandtech.com/show/5279/the-opteron-6276-a-closer-look/6
@per altri:
https://en.wikipedia.org/wiki/Simultaneous_multithreading
https://www-304.ibm.com/connections/blogs/davidian/tags/cmt?lang=en_us
La Sun Microsystems-Oracle utilizzò un approccio CMT in alcuni modelli SPARC, IBM non approvò questo approccio per via della sua natura efficientemente scarsa.
Tuttavia: https://www-304.ibm.com/connections/blogs/davidian/entry/ibm_s_power7_does_not_validate_sun_s_cmt_sparc_processor_architecture2?lang=en_us
Dall'articolo di anandtech emerge ciò di cui si parla qui, il cmt offre percentuali più alte di supporto alla cpu rispetto a quanto fa l'smt il quale non viene per questo sottovalutato, anzi, ma mentre intel parte da un ipc ben più alto amd ne ha uno inferiore del 30% e il lavoro svolto dal cmt viene praticamente vanificato.
Nell'ambito server sarà pure più utile anche se guardando le quote di mercato azzerate in questo quinquennio a cosa è servito tutto ciò?
Mi auspico sia servito a far svegliare amd e rimboccarsi bene le maniche per tornare ai fasti di un tempo anche come azienda più creativa e dinamica.
george_p
14-09-2015, 08:35
Le console hanno un software operativo dedicato di sistema, compresi tutti i giochi scritti ad hoc. Il motivo per il quale è stato scelto Jaguar è dovuto alla sicurezza applicativa (in termini di performance) verso quel concetto architetturale e anche per avere bassissimi consumi (anche a frequenze basse), un ipc superiore, e che gestisse in maniera dinamica e soprattutto ormai rodata applicativi dove serve stabilità e prestazioni limitate nella cerchia di quella categoria applicativa. Mettere processori CMT, dove molti problemi (di più nature) sono venuti a capo nei chip per soluzioni desktop e server non è una buona idea, visto che le console sono dispositivi che una volta lanciate nel mercato, se fai flop non danneggi solo te stessa ma pure chi le produce (vedi M$ e $ony), arrecando danni ingenti al settore ed ad altre aziende. Ergo io e te non siamo nei laboratori amd, ma una cosa viene spontaneamente nella logica comune: uso qualcosa di rodato stabile e che conosco bene, dove so che posso garantire prestazioni adeguate per quello che quel dispositivo deve fare. Ergo Jaguar non è stato scelto perchè qualcosa non era ancora pronto, ma è un progetto DEDICATO ai quei particolari dispositivi (console) , studiato appositivamente (con o senza Excavator/Steamroller) per essere ospitato da macchine che devono compiere ruoli embedded in un mercato che non può errare. Niente è meglio del rodato CMP in questo scenario...
Non si può che quotare in toto.
paolo.oliva2
14-09-2015, 10:58
http://www.extremetech.com/computing/214092-amds-zen-rumored-to-slip-to-q4-2016-microsoft-reportedly-still-interested-in-acquiring-the-company
http://wccftech.com/amd-x86-zen-processors-rumored-launch-q4-2016-yield-rates-affect-14nm-finfet-node/
Da 16nm ora sarebbero 14nm e sempre da GF?
paolo.oliva2
14-09-2015, 11:16
@shellX
Ora me li leggo, ma a casa con gli occhiali.
Comunque, facendo un riassunto, sia il CMT che l'SMT dipendono strettamente dall'IPC iniziale del core. Se oggi confrontassimo un CMT su un core Intel ed un SMT sul core AMD, il risultato sarebbe ancor più tragico del presente, senza tirare in ballo il silicio.
Il problema sta anche sul contorno dell'IPC, cioè predizione, cache e via dicendo.
Quindi mi pare ovvio che comunque AMD non sarebbe arrivata all'IPC di Intel perdendo inoltre il 20% per il CMT, ma con l'aiuto del silicio secondo me sarebbe stata competitiva in ambito server e comunque in desktop, valutando che almeno avrebbe offerto più MT vs gli X4+4. Lasciamo a parte i sistemi game top, ma mi sembra evidente che un EX FX avrebbe comunque concesso un 20/25% in più di un 8350.
Di Zen addirittura riportano che al +40% su Excavator, seguirà Zen+ con un altro 5/10%, il che porterebbe ad un massimo di +64% su Piledriver. Di, un X8+8 in questa maniera sembrerebbe un mostro, specie se l'aumento di IPC sia ottenuto a lunghezze pipeline non troppo corte, perche se più lunghe di quelle Intel, a parità di bontà PP, si otterrebbero frequenze più alte.
Rimango dubbioso sull'incremento IPC di Zen... Perché equivarrebbe ad uguagliare Intel.
http://www.extremetech.com/computing/214092-amds-zen-rumored-to-slip-to-q4-2016-microsoft-reportedly-still-interested-in-acquiring-the-company
http://wccftech.com/amd-x86-zen-processors-rumored-launch-q4-2016-yield-rates-affect-14nm-finfet-node/
Da 16nm ora sarebbero 14nm e sempre da GF?
No, i 16 sono di TSMC, i 14 di GF/Samsung. Il problema è che ancora non si è capito quale nodo userà (almeno io non ci sono riuscito, magariqualcuno ha piu notizie).
Il problema è che i 14nm non sono ad oggi adatti a chip HP, cosa che invece lo sono i 16FF++ di TSMC
Cmq https://www.linkedin.com/pub/praveen-dongara/2/a13/a75
• System Architect for Carrizo APU (launched in 2015) and AMD's next-generation (to be launched in 2017) mainstream mobile/desktop FX and A-series APU. Accelerated Processing Units are System On Chips (SOCs) with CPU, GPU, I/O, Northbridge, Southbridge, Multimedia, etc. integrated on a single die and package.
Allunghiamo ancora un po i tempi, tanto gli FX PD sono freschi come rose....
paolo.oliva2
14-09-2015, 11:47
Non è proprio così: il TDP, a parità di silicio, non è proporzionale al numero di transistor. Ci sono almeno 2 diverse tecniche architetturali, tra cui quella del pipelining, che permettono di abbassare i consumi a parità di performance proprio inserendo dei transistor in più.
Il TDP, quindi, non è proporzionale al numero di transistor; il numero di transistor incide maggiormente sull'area e i costi aumentano come la quarta potenza dell'area. Soluzioni come il CMT permettono di ridurre (almeno sulla carta) il numero di transistor a parità di core e di performance (nel caso di uso medio con un carico maggiormente composto da computazione fixed point) permettendo quindi di ridurre il costo di un processore pesantemente multi core.
Io non sono un tecnico di silicio, però parto da questo punto:
Il 28nm Bulk è ottimizzato sui 35W a scendere. L'architettura BD si dimostra efficiente e più performante nel confronto 2m vs X2+2.
Nel confronto 4m vs X4+4 c'è un tracollo e da qui vs Intel che riesce ad inserire pure X8+8 impossibili per AMD.
Se un Carrizo fa quello che fa con 15W, dovrebbe farlo pure con TDP superiori, mentre l'efficienza la perde già sopra i 45W. Se tracciassimo una linea, ad un 22nm Intel X6+6, AMD dovrebbe poter proporre un die che consevi lo stesso rapporto consumo/potenza di Carrizo non APU, anche volendo considerare frequenze simili, AMD non può realizzarlo.
Il tuo appunto è tra architetture diverse, io come esempio ti porto la stessa architettura a scalare con il numero di core, confrontandola con la stessa architettura Intel.
Se il problema fosse l'efficienza architetturale in se, lo sarebbe a 360°, se invece intervenissero problemi di silicio, allora si giustifica che l'architettura AMD efficiente sul 28nm sotto i 45W non lo sia più perché il silicio aumenta il TDP, e parlando delle stesse frequenze, vuol dire PP peggiore.
Dire che BD necessita di un buon PP, è vero, ma comunque qui stiamo parlando di frequenze non superiori alla concorrenza e di un massimo di transistor che a parità della concorrenza è meno della metà. Con questi numeri, Zen sarebbe competitivo?
Se il prb fosse BD, Zen potrebbe essere prodotto anche sul 32nm SOI ORA, come sul 28nm, ma se AMD non lo fa, è ovvio per limiti di silicio.
Se BD fosse un'architettura esosa come si descrive, allora un "8 +8 Zen sarebbe già possibile produrla.
Avete letto che l'uscita di zen e' addirittura prevista per fine 2016? Comunicazione amd
FazzoMetal
14-09-2015, 12:42
Io non sono un tecnico di silicio, però parto da questo punto:
Il 28nm Bulk è ottimizzato sui 35W a scendere. L'architettura BD si dimostra efficiente e più performante nel confronto 2m vs X2+2.
Nel confronto 4m vs X4+4 c'è un tracollo e da qui vs Intel che riesce ad inserire pure X8+8 impossibili per AMD.
Se un Carrizo fa quello che fa con 15W, dovrebbe farlo pure con TDP superiori, mentre l'efficienza la perde già sopra i 45W. Se tracciassimo una linea, ad un 22nm Intel X6+6, AMD dovrebbe poter proporre un die che consevi lo stesso rapporto consumo/potenza di Carrizo non APU, anche volendo considerare frequenze simili, AMD non può realizzarlo.
Il tuo appunto è tra architetture diverse, io come esempio ti porto la stessa architettura a scalare con il numero di core, confrontandola con la stessa architettura Intel.
Se il problema fosse l'efficienza architetturale in se, lo sarebbe a 360°, se invece intervenissero problemi di silicio, allora si giustifica che l'architettura AMD efficiente sul 28nm sotto i 45W non lo sia più perché il silicio aumenta il TDP, e parlando delle stesse frequenze, vuol dire PP peggiore.
Dire che BD necessita di un buon PP, è vero, ma comunque qui stiamo parlando di frequenze non superiori alla concorrenza e di un massimo di transistor che a parità della concorrenza è meno della metà. Con questi numeri, Zen sarebbe competitivo?
Se il prb fosse BD, Zen potrebbe essere prodotto anche sul 32nm SOI ORA, come sul 28nm, ma se AMD non lo fa, è ovvio per limiti di silicio.
Se BD fosse un'architettura esosa come si descrive, allora un "8 +8 Zen sarebbe già possibile produrla.
Ok, dato che parlavi di "stesso TDP per numero di transistor rispetto a quello Intel" pensavo stessi confrontando 2 soluzioni diverse prendendo come metro di confronto il numero di transistor che si possono integrare a parità di TDP.
Se si bloccano le variabili architettura e frequenza allora si, il TDP dovrebbe essere in prima approssimazione funzione del numero di moduli integrati.
Comunque sia questa affermazione è molto azzardata in quanto non tiene in conto di numerosi altri fattori che possono far crescere il TDP più che linearmente con l'aumentare del numero di transistor. AMD usa un approccio a 2 die per gli Opteron che è molto meno efficiente dell'approccio monolitico che usa Intel per gli I7 socket 2011. Avere 2 die nello stesso package, solo a livello di interconnessioni, porta a problematiche notevoli in termini di potenza dissipata in quanto le interconnessioni tra die non sono scalate quanto quelle all'interno del die stesso.
george_p
14-09-2015, 15:44
Avete letto che l'uscita di zen e' addirittura prevista per fine 2016? Comunicazione amd
Puoi linkare la fonte?
Si, ma era già ciò che ci aspettavamo, o almeno io :D
Purtroppo non è di certo una sorpresa, diciamo che vista la situazione speravo in un q1 o q2 2016, non 2017. Farsi un'altro anno di sole apu di fascia medio bassa è assurdo. Sicuramente se sarà 2017, passo ad intel.
Inviato dal mio iPhone utilizzando Tapatalk
Puoi linkare la fonte?
A [questo link] (http://hardware.hdblog.it/2015/09/12/amd-zen-ritardo-2016/) ho trovato qualcosa ma è indicato soltanto come rumor... ;)
paolo.oliva2
14-09-2015, 18:50
Per me potrebbe essere settembre, ma anche ottobre, tanto che io ricordi si è sempre fatto settembre con gli speculatori e ottobre a metà in quantità.
A parte le date indicative, quello che è certo è che di sicuro dovrebbero fare un altro step, ma non comprendo perché non ci siano ancoraancora sample almeno per i contatti elettrici, tanto come farebbero ad esserci mobo con socket AM4 sul nulla?
Ma io non credo che siano in alto mare, dalle solide riportano che le prox VGA dovrebbero raddoppiare le prestazioni a parità di consumi, quindi qualche cosa devono avere... Comunque in quegli articoli si parla anche di problemi di resa.
ciao a tutti, io ho un problema ho messo da 2 giorni windows 10,la cpu l'ho rimessa a default perchè crashava e non so come mai, le ram a 1600 Mhz; ho una asus m5a97 evo, 8 gb di ram kingston 2x4gb e 8320. Per 2 giorni niente di strano, poi da oggi pomeriggio mi si pianta il mouse ogni 2 per tre per qualche secondo....ho rimesso le ram a 1333 MHz e fa lo stesso problema
Test ram con memtest e nessun problema, test hard disk e nessun problema, test stabilità con prime 95 per 1 ora ed è stabile....cosa potrebbe essere?
Io toglierei w10 e lascerei Windows 7. Il 10 per me e' troppo acerbo come sistema operativo da usare tutti i giorni
Io toglierei w10 e lascerei Windows 7. Il 10 per me e' troppo acerbo come sistema operativo da usare tutti i giorni
dici che sia il sistema operativo? non me l'aveva mai fatto sto problema, le componenti sembrano tutte funzionare a dovere tranne per 1 volta che amd overdrive mi ha scritto che c'eran problemi nell'allocazione della memoria, tuttavia uscito da winzoz e facendo da dos memtest la memoria non ha problemi e non da errori :confused:
ciao a tutti, io ho un problema ho messo da 2 giorni windows 10,la cpu l'ho rimessa a default perchè crashava e non so come mai, le ram a 1600 Mhz; ho una asus m5a97 evo, 8 gb di ram kingston 2x4gb e 8320. Per 2 giorni niente di strano, poi da oggi pomeriggio mi si pianta il mouse ogni 2 per tre per qualche secondo....ho rimesso le ram a 1333 MHz e fa lo stesso problema
Test ram con memtest e nessun problema, test hard disk e nessun problema, test stabilità con prime 95 per 1 ora ed è stabile....cosa potrebbe essere?
Probabilmente qualcosa nn perfettamente compatibile con win10 anche se magari solo a livello di driver, io una prova veloce sul pc1 in firma (molto simile al tuo) l'ho fatta e nn ho riscontrato problemi (ma neanche stravolgimenti nelle prestazioni), senza modificare nessuna impostazione (compreso l'oc in firma).
;) ciauz
dici che sia il sistema operativo? non me l'aveva mai fatto sto problema, le componenti sembrano tutte funzionare a dovere tranne per 1 volta che amd overdrive mi ha scritto che c'eran problemi nell'allocazione della memoria, tuttavia uscito da winzoz e facendo da dos memtest la memoria non ha problemi e non da errori :confused:
Se overdrive l'usi per controllare temp e altro ok, ma se l'usi per modificare l'impostazioni a caldo... lascia perdere.
;) ciauz
Probabilmente qualcosa nn perfettamente compatibile con win10 anche se magari solo a livello di driver, io una prova veloce sul pc1 in firma (molto simile al tuo) l'ho fatta e nn ho riscontrato problemi (ma neanche stravolgimenti nelle prestazioni), senza modificare nessuna impostazione (compreso l'oc in firma).
;) ciauz
overdrive lo uso senza modificare niente, per quanto riguarda i driver è possibile che dia problemi proprio dopo 2 giorni di utilizzo :confused: mi sembra strano non credi?
pare che abbia risolto il problema, ho tolto i file di paging sull'hard disk ed ora mi usa la ram finalmente ne ho 8 gb perchè usarne 2???? :muro: :asd:
Per me potrebbe essere settembre, ma anche ottobre, tanto che io ricordi si è sempre fatto settembre con gli speculatori e ottobre a metà in quantità.
A parte le date indicative, quello che è certo è che di sicuro dovrebbero fare un altro step, ma non comprendo perché non ci siano ancoraancora sample almeno per i contatti elettrici, tanto come farebbero ad esserci mobo con socket AM4 sul nulla?
Ma io non credo che siano in alto mare, dalle solide riportano che le prox VGA dovrebbero raddoppiare le prestazioni a parità di consumi, quindi qualche cosa devono avere... Comunque in quegli articoli si parla anche di problemi di resa.
Sinceramente non so che pensare. Da un lato spero sia tutta una tattica per non dare troppe aspettative e presentare un prodotto concorrenziale, ma allo stesso tempo non bruciarsi con il troppo hype (vedi fury, tanto per capirci). Dall'altro ho il terrore che siano ancora in alto mare per mille motivi, non ultimo GF che ha un pp penoso o non adatto a chip ad alte prestazioni. Sinceramente propendo più per la seconda
Inviato dal mio iPhone utilizzando Tapatalk
george_p
14-09-2015, 22:22
A [questo link] (http://hardware.hdblog.it/2015/09/12/amd-zen-ritardo-2016/) ho trovato qualcosa ma è indicato soltanto come rumor... ;)
Si, infatti anche io ho trovato quello perché sul sito amd non ho trovato nulla.
Avete letto che l'uscita di zen e' addirittura prevista per fine 2016? Comunicazione amd
Fine Settembre/ Max metà Ottobre 2016: questa è la data. Segnatela... tu dirai, "fonte ?": fidati di me...
tuttodigitale
15-09-2015, 08:14
Il motivo per il quale è stato scelto Jaguar è dovuto alla sicurezza applicativa (in termini di performance) verso quel concetto architetturale
questo significa che non si hanno certezze di prestazioni, con XV e nel CMT in generale, con tutti i test che sono stati eseguiti dal 2011? :confused:
anche per avere bassissimi consumi (anche a frequenze basse),
ma guarda che 4 core jaguar a 1,6GHz con 128sp-GCN ha lo stesso TDP di 4 core excavator a 2,1GHz con 512 sp-GCN. Di quali bassissimi consumi stiamo parlando? Solo al di sotto dei 10W, jaguar potrebbe avere una chance (ma anche qui permetto di dubitarne visto che grazie alle AVFS un modulo xv a 1,7GHz consuma a malapena 2,5W)
un ipc superiore
ma dove? Jaguar nel MT ha un ipc superiore a Piledriver, ma inferiore a Steamroller del 7-8% circa, quindi excavator ha un ipc superiore di oltre il 10% rispetto a jaguar (sempre nel MT, nel ST siamo intorno a +20%)
Mettere processori CMT, dove molti problemi (di più nature) sono venuti a capo nei chip per soluzioni desktop e server non è una buona idea,
ancora non ho capito quali siano questi problemi. Il CMT non è altro che un HT riservato all'unità floating point, che peraltro ha la possibilità di mettere a disposizione in parallelo registri da 128 bit (grazie alla flessibilità offerta dalla fpu di BD, questi registri sono gestiti in maniera indipendente, cosa non vera per le soluzioni della concorrenza, diventando all'occorrenza praticamente un dual core CMP.). Senz'altro offre un comportamento più uniforme rispetto ai core virtuali offerti dall' hyperthreading. L'unica cosa che deve fare attenzione il SO è alimentare prima una unità int di un modulo poi quello dell'altro modulo, non ci sono thread preferiti all'interno del modulo. In caso contrario si perde fino al 13% di prestazioni, davvero poca cosa. Il tutto poi è gestito a livello di sistema operativo. Ben più complicato sarà sfruttare HSA (che per quanto neso è compatibile al livello hardware solo in PS4)
Se tutto questo non bastasse, ricordo che di cpu che usano un più sofisticato SMT le console ne hanno avuto in passato, vedi Xenon di xbox 360.
Quindi di quali difficoltà stiamo parlando?
Ergo io e te non siamo nei laboratori amd, ma una cosa viene spontaneamente nella logica comune: uso qualcosa di rodato stabile e che conosco bene, dove so che posso garantire prestazioni adeguate per quello che quel dispositivo deve fare. .
NI, AMD avrebbe potuto garantirne le prestazioni, visto che i 28nm GF li conosce fin troppo bene, ma XV non era pronto, e steamroller non era adatto per il semplice fatto di non aver usato le HDL. Sony e MS avrebbero dovuto aspettare il 2016, con un ritardo di almeno 24 mesi, per avere "solo" il 35% di prestazioni in più, ammesso e non concesso che il processo produttivo di TSMC, non penalizzi in misura maggiore XV più di quanto non faccia con jaguar (200 MHz in meno su 1,8GHz non sono pochi)
I 28 bulk non son fatti per frequenze altissime, così ho sempre letto su B&C.
neppure i 32nm, a quanto pare.
i decoder condivisi è stata una scelta che ha penalizzato di circa il 7% le prestazioni(l'ulteriore 6% invece è dovuto a modifiche più profonde). Di per sè la scelta avrebbe avuto un senso se avesse permesso di aumentare la frequenza di almeno il 5%: Almeno sulla carta alle alte frequenze tra 32 e 28nm, il 28nm sembra fare addirittura meglio, perchè quei 200MHz in più offerti dai 32nm, non sono neppure in grado di compensare il 7% che AMD ha perso in prestazioni, per scelta, con la condivisione dei decoder.
i vantaggi dei 32nm si concretizzano concretamente solo con l'azoto liquido.
Non son sicuro però che il 28nm utilizzato sia peggiore del 32 nm soi visto che amd ci ha investito soldi portando un lieve incremento di frequenza con godavari.
come detto sopra la frequenza è si più alta, ma l'architettura steamroller è ben più attrezzata nel MT. Su questo sembra che abbiamo trovato un punto di incontro :)
Inoltre si i 28 sono più piccoli dei 32 ma rispetto alle precedenti apu cambiano entrambe le architetture con aggiunte non di poco.
tempo fa ho misurato le dimensioni del core e cache e i risultati sono questi:
Vishera 32nm SOI
modulo piledriver 31,8mmq (core 20,07mmq, cache 11,7mmq)
trinity 32nm SOI
modulo piledriver 28,5mmq (core 18,05mmq, cache 10,45mmq)
Kaveri 28nm Bulk
modulo steamroller 30,58mmq (core 19,2mmq, cache 11,38mmq)
Carrizo 28nm BULK HDL (dati ricavati dalle slide)
modulo excavator 27 mmq (core 15,62 cache 11,38)
a titolo ci comparazione un core k10 sui 32nm SOI, 9,32 mmq (slide AMD)
ora senza prendere questi dati per oro colato, anche se a onor del vero non sono stato preciso ma di più :cool: , vantaggi d'integrazione dei 28nm, sembrano del tutto inesistenti (sulla carta i 32nm dovevano essere più grandi del 30%).
Notare che se da una parte, la slide di XV riporta dimensioni fisiche della cache l2 invariata rispetto a steamroller, dall'altra è praticamente ufficiale che la cache l2 è stata dimezzata.
quindi le dimensioni di un modulo excavator sarebbero di appena 21,31 mmq, praticamente nello spazio di 4 moduli SR, ce ne entrerebbero 6 XV. PS XV potrebbe beneficiare in misura maggiore della cache l3.
Grizlod®
15-09-2015, 10:53
Sinceramente non so che pensare. Da un lato spero sia tutta una tattica per non dare troppe aspettative e presentare un prodotto concorrenziale, ma allo stesso tempo non bruciarsi con il troppo hype (vedi fury, tanto per capirci). Dall'altro ho il terrore che siano ancora in alto mare per mille motivi, non ultimo GF che ha un pp penoso o non adatto a chip ad alte prestazioni. Sinceramente propendo più per la seconda
Inviato dal mio iPhone utilizzando TapatalkBah, dati gli ultimi sviluppi (divisione GPUs), forse non prenderei più come oro colato le ultime slides ufficiali, in quanto puo significare solamente una cosa...NON ci sono soldi!
Tuttavia, non dispererei più di tanto; Keller, male che vada si "appoggerà" alle proprie solide concretezze, tirando fuori un ispirazione evolutiva dei suoi vecchi progetti.
Questo xkè forse non riusciranno a farci stare molti cores sulle prossime CPUs Zen, dato che ufficialmente GF ha a tutt'oggi un solo nodo (economico) per alte prestazioni...il 22nm di IBM:
http://globalfoundries.com/technology-solutions/leading-edge-technology/22fdx
22FDX-uhp: Ultra-high Performance
22FDX-rfa: RF & Analog
•FinFET performance via forward body-bias and overdrive
•Overdrive support
•IP for high-performance libraries and high-speed interfaces
•MIM decoupling capacitor, Multiple 2x routing metals
Se poi Samsung ed altri investitori (cinesi), ci metteranno del suo, forse, verranno rispettate le ultime slides ufficiali, altrimenti ci vedo "solo" un evoluzione di K8 e K10 con max 6/8 cores e tanta cache L3.
Bah, dati gli ultimi sviluppi (divisione GPUs), forse non prenderei più come oro colato le ultime slides ufficiali, in quanto puo significare solamente una cosa...NON ci sono soldi!
Tuttavia, non dispererei più di tanto; Keller, male che vada si "appoggerà" alle proprie solide concretezze, tirando fuori un ispirazione evolutiva dei suoi vecchi progetti.
Questo xkè forse non riusciranno a farci stare molti cores sulle prossime CPUs Zen, dato che ufficialmente GF ha a tutt'oggi un solo nodo (economico) per alte prestazioni...il 22nm di IBM:
http://globalfoundries.com/technology-solutions/leading-edge-technology/22fdx
22FDX-uhp: Ultra-high Performance
22FDX-rfa: RF & Analog
•FinFET performance via forward body-bias and overdrive
•Overdrive support
•IP for high-performance libraries and high-speed interfaces
•MIM decoupling capacitor, Multiple 2x routing metals
Se poi Samsung ed altri investitori (cinesi), ci metteranno del suo, forse, verranno rispettate le ultime slides ufficiali, altrimenti ci vedo "solo" un evoluzione di K8 e K10 con max 6/8 cores e tanta cache L3.
Anche io avevo pensato ai 22SOI IBM, però mi è sorto un dubbio, la compatibilità con eventuali 16/14nm e successivi. Non è che poi ci ritroviamo nella stessa situazione del passaggio tra i 32 e i 28? Conoscendo la fonderia....
Inoltre vedo un'altro problema. Ok, io ho una scimmia addosso di Zen infinita. Il problema è che, come me penso altri, non abbiamo piu ne voglia ne tempo di aspettare, e una volta persi tutti i possibili acquirenti che passano a Skylake, di certo non passano poi a Zen. Un po come è successo con la serie 300, che aspetta aspetta, tutti hanno comprato le 900, e i risultati si sono visti. In un anno AMD ha preso qualcosa come il 20% di MS.
Grizlod®
15-09-2015, 11:38
Anche io avevo pensato ai 22SOI IBM, però mi è sorto un dubbio, la compatibilità con eventuali 16/14nm e successivi. Non è che poi ci ritroviamo nella stessa situazione del passaggio tra i 32 e i 28? Conoscendo la fonderia....
Ora, non hanno tempo di sviluppare, ma se veramente usciranno con i 22nm (spero solo adottino il gate-last), poi avranno tutto il tempo necessario anche per ricavarci un mero die-shrink (per dire...), ma almeno sui 10nm.
Inoltre vedo un'altro problema. Ok, io ho una scimmia addosso di Zen infinita. Il problema è che, come me penso altri, non abbiamo piu ne voglia ne tempo di aspettare, e una volta persi tutti i possibili acquirenti che passano a Skylake, di certo non passano poi a Zen. Un po come è successo con la serie 300, che aspetta aspetta, tutti hanno comprato le 900, e i risultati si sono visti. In un anno AMD ha preso qualcosa come il 20% di MS.Non penso ci sia una soluzione a tal problema...d'altra parte quando non ci sono soldi, c'è ben poco da fare...
tuttodigitale
15-09-2015, 12:03
Bah, dati gli ultimi sviluppi (divisione GPUs), forse non prenderei più come oro colato le ultime slides ufficiali, in quanto puo significare solamente una cosa...NON ci sono soldi!
Dare un pò di autonomia decisionale alla divisione GPU, mi sembra cosa buona e giusta, soprattutto in questo particolare periodo storico in cui i processi produttivi vengono cancellati e/o rinviati costantemente. Probabilmente il ritardo di Fiji, poteva essere evitato, se la divisione GPU avesse avuto un leader forte. Oggi finalmente, il capo della divisione gpu, ha pieno controllo sulla roadmap delle gpu.
Vedremo, i frutti già dalla prossima generazione di schede video.
Tuttavia, non dispererei più di tanto; Keller, male che vada si "appoggerà" alle proprie solide concretezze, tirando fuori un ispirazione evolutiva dei suoi vecchi progetti.
keller non è il solo ad avere le proprie solide concretezze in AMD. Se dati alla mano, questi dimostreranno che bulldozer, non solo sia migliore allo stato attuale di k10, ma potenzialmente è in grado di subire maggiori migliorie, dubito che partiranno da k10, anche se ha carta bianca dovrà comunque tener conto dei limiti temporali assai stringenti. Nulla toglie che potrebbe stracciare tutto, e partire davvero da zero, con tutti i rischi del caso (rischi che AMD farebbe bene a non correre) con l'eventuale impossibilità di debuttare nel tardo 2016. Non resta che attendere gli sviluppi.
Comunque notare la direzione che punta il nuovo CEO, è esattamente quella che puntava Dirk Meyer, cacciato a suo tempo perchè secondo gli analisti non avrebbe investito a sufficienza nel nascente mercato smartphone/tablet o probabilmente non è andato giù il fatto che Intel ha versato nelle tasche di nvidia più soldi di quanti ne abbia dati ad AMD, per porre termine alle dispute legali.
Voci ufficiose, provenienti da un rappresentante di AMD, riferiscono che Zen avrà sia il CMT sia il SMT.
http://www.theregister.co.uk/2015/03/31/amd_opens_kimono_on_chip_futures_a_little_more/ , anche se mi sembra alquanto improbabile (ma se l'ha detto una persona dell'ufficio marketing c'è da crederci?)
paolo.oliva2
15-09-2015, 13:06
A me non sono chiare delle cose.
Il CMT inquadrato nel modulo si potrebbe interpretare come 1 core con meno forza bruta ma con 2 TH fisici contemporanei.
Ora, il punto di AMD criticato è la scarsa forza bruta, perché senza tirare fuori SR/EX il modulo considerato come 1 core con 2TH tiene bene botta.
Io mi chiedo... Una vota che aumenti l'IPC, e che quindi si ridurrebbe il problema forza bruta, ha senso steccarsi nell'SMT con tutti i problemi di una architettura acerba? Non sarebbe più facile fare in modo che il modulo si consideri come 1 core disabilitando la condivisione con 1TH e di qui perdite zero?
Cioè, 1m = ¹ core quando c'è 1TH, con più TH si dividono con tutti i moduli, quando i TH superano il numero di moduli, allora scstterebbe il CMT con il vantaggio che il secondo TH va per i cavoli sui senza aspettare che il 1° core sia libero.
Cioè, il modulo ha la L2 dimensionata per 2 core, quando lavorerebbe solamente 1 core, sarebbe un super core con tutte le chances di ottenere il massimo. E il 2° core sarebbe spento con consumo zero.
Quando invece lavorerebbero entrambi i core, aumenterebbe si il TDP, però potrebbe pure diminuire la frequenza operativa. Se inquadriamo 100 a 4GHz, un SMT arriverebbe a 130, ma se diviso su 2 core, potrebbero essere 70 l'uno ma per 140 totali.
Io se AMD inquadrasse un CMT con SMT, lo posso immaginare solamente in questo modo.
Grizlod®
15-09-2015, 13:13
@ tuttodigitale
Forse mi sono spiegato male...mi riferivo ad una slide ufficiale AMD, dove evidenziava un (intepretabile) 'High core count with multithreading':
http://s26.postimg.org/fjex1k11l/AMD_2016_Roadmap_2.jpg (http://postimage.org/)
Se appunto dovesse essere obbligata, causa scarse finanze, ad usare i 22nm di IBM, secondo me dovremo scodarcela tale slide.
Tuttavia, ci sarebbe una news più fresca, dove indica i 16nm (per me indediti):
http://tech.everyeye.it/notizie/amd-potrebbe-lanciare-i-processori-zen-a-fine-2016-237417.html
nel qual caso,le slides ufficiali sarebbero confermate quasi in toto (forse a parte i 95W). Resta il fatto cmq, per riprendere la parentesi GPUs, che AMD non ha soldi:
http://www.bitsandchips.it/52-english-news/6019-amd-is-no-more-the-simpleton-company-of-the-it-industry
tanto da non fornire più hardware per recensioni a siti/testate non (a loro) gradite...
tuttodigitale
15-09-2015, 19:59
Non sarebbe più facile fare in modo che il modulo si consideri come 1 core disabilitando la condivisione con 1TH e di qui perdite zero?
aspetta, eh. Se fai in questo modo la FPunit resterebbe sottoutilizzata. Do per scontato che in excavator/steamroller, non ci siano perdite dei core int nel MT, visto che è duplicato tutto il front-end. Un piccolo collo di bottiglia potrebbe esserci per la cache condivisa, ma praticamente il +87% è dovuto, oltre alla presenza di un core int (idealmente +100%) al miglior utilizzo della FlexFP (circa +75% dovuto al secondo thread). La Fpunit ha la assoluta necessità del secondo thread, come dimostrano test fp-intensive come cinebench.
Cioè, 1m = ¹ core quando c'è 1TH, con più TH si dividono con tutti i moduli, quando i TH superano il numero di moduli, allora scstterebbe il CMT con il vantaggio che il secondo TH va per i cavoli sui senza aspettare che il 1° core sia libero.
Certamente a livello di scheduler, il CMT+SMT è una bestia assai più complessa. C'è il serio rischio di aver un calo di prestazioni, anche importante, come è avvenuto a suo tempo con win2000 e il supporto parziale del SMT.
Tuttavia non è detto che alimentare tutti i moduli, sia una mossa astuta. In steamroller un 2c/1m è molto prossimo a livello di prestazioni con un 2c/2m.
Cioè, il modulo ha la L2 dimensionata per 2 core, quando lavorerebbe solamente 1 core, sarebbe un super core con tutte le chances di ottenere il massimo. E il 2° core sarebbe spento con consumo zero.
non so a suo tempo AMD consigliava di caricare i moduli per sfruttare il turbo core. Da una parte hai ragione che probabilmente la potenza totale sarà maggiore, ma non è da sottovalutare il beneficio di una maggiore prestazione nel ST dovuto alla maggior frequenza operativa (il CMT è 87% di un CMP solo quando viene caricato al massimo)
Io se AMD inquadrasse un CMT con SMT, lo posso immaginare solamente in questo modo.
il CMT+SMT ha un suo senso se pensiamo che una eventuale futura FlexFP sia in grado di offrire all'occorrenza 4 registri da 128 bit.
paolo.oliva2
16-09-2015, 00:31
C'è un calcolo che evidenzia che AMD aveva più che l'aspettativa la certezza del clock alto su BD.
Un 8350 ha una frequenza def di 4GHz ed il turbo a 4,2GHz.
Praticamente il turbo incrementa la frequenza del 5%, e di cascata lo stesso aumento di potenza. Un funzionamento di 1 core a modulo, invece, aumenterebbe l'IPC dell'8% (mi sembra). È praticamente ovvio che inserire il turbo su 2 moduli fosse stato scelto a priori perché più conveniente. Infatti, a me sembra di ricordare che JF avesse parlato di un turbo con aumento di 500MHz, ed infatti così tornerebbe vantaggioso.
Ho inserito sto commento, per rendere un attimo quanto pesa in ordine di tempo un dettaglio progettato a priori e poi forzatamente posto sul silicio anche se svantaggioso, e obbligatoriamente prodotto.
AMD ci ha messo credo 5 anni per BD Zambesi, 1 anno per Piledriver, 1 anno per Steamroller ed 1 anno per Excavator, il tutto condizionato dal silicio con gran parte degli sforzi atti a features per abbassare il TDP più che aumentare l'IPC.
E Zen uscirebbe fuori su un silicio al buio, con una complessità architetturale ben superiore, e con dipendenze che si accavallano tra loro e strettamente dipendenti.
Facendo un esempio, la predizione deve migliorare e devono migliorare le latenze e velocità delle cache. È chiaro che cicli ed incremento di IPC dipenderanno da questo... Basterebbe già che solo una di queste cose non sia supportata dal silicio e amen...
Può permettersi AMD un'altra Waterloo senza avere certezze sul silicio? Per me sarebbe peggio che giocare alla roulotte russa, cioè al posto di una pallottola in un tamburo da 8, sarebbe 7 pallottole ed uno vuoto.
Guardate che per me una rivoluzione simile sarebbe stretta già per Intel e con una FAB ed equipe tecnica interamente dedicata, e poi in un tempo di 2 anni.
Quindi io sarei più dell'idea che Excavator a suo tempo si parlava di un raddoppio di ALU, ma probabilmente l'Excavator attuale non è quello iniziale, e non sarebbe una sorpresa, visto il target limitato di TDP concesso dal 28nm, è presumibile che sia stato volutamente zoppato, e sto Zen potrebbe essere un Excavator ancor più potenziato, su un modulo che integra l'SMT.
george_p
16-09-2015, 09:18
Amd può contare sia su zen sia su excavator ma senza silicio adeguato abbiamo visto che nemmeno l'architettura BD vedrebbe luce in veste a più di 4 moduli quindi dove sta il problema?
ma perché 2 anni?
è dal 2012 che progettano il cambio architettura, e togliendo mezzo anno del 2012 come riorganizzazione degli ingegneri e mezzo anno del 2016 come produzione in volumi ci passano ben 4 anni... sono tempi giusti
Io penso anche di più. Penso che da prima del 2012 amd sappia che gf gli avrebbe proposto i 28nm, e quindi costretta a cambiare architettura perché incompatibile con i suoi processi. Io penso ci siano dietro dal 2011
Inviato dal mio iPhone utilizzando Tapatalk
tuttodigitale
16-09-2015, 14:28
Io penso anche di più. Penso che da prima del 2012 amd sappia che gf gli avrebbe proposto i 28nm, e quindi costretta a cambiare architettura perché incompatibile con i suoi processi. Io penso ci siano dietro dal 2011
La data significativa, è il ritorno di keller nel maggio del 2012. Credo che sia stato proprio costui a definire i caposaldi della prossima architettura. Avrà considerato tutto e anche di più. Potrebbe aver buttato nel c€sso bulldozer, ma anche, finchè non avremmo informazioni maggiori queste restano solo supposizioni.
Ps vedevo un test su notebookcheck, excavator a 15W di TDP girerebbe in cinebench addirittura a 2,3Ghz, dove un ben più ingorgo fx7600p, va solo il 10% in più potente. Ora non sappiamo quanto il consumo del fx7600p sia distante dal TDP nominale, ma il risultato è comunque impressionante, anche se a onor del vero le soluzioni Intel di punta, sono in grado di fare decisamente meglio
paolo.oliva2
16-09-2015, 19:20
ma perché 2 anni?
è dal 2012 che progettano il cambio architettura, e togliendo mezzo anno del 2012 come riorganizzazione degli ingegneri e mezzo anno del 2016 come produzione in volumi ci passano ben 4 anni... sono tempi giusti
Dal 2012? Io ancora starei aspettando il dopo FX Piledriver...
sgrinfia
16-09-2015, 19:22
Ciao,
Spesso gli fx (2012) vengono paragonati per avere un massimale sulle prestazioni a Intel I5-I7 anche recenti , e cosi molto spesso vengono criticati . secondo la mia opinione ingiustamente , visto che seguendo la data di produzione e i nanometri sarebbe più opportuno paragonarli alla serie 2000 ho 3000 al limite di Intel , infatti cosi ho fatto con il mio fx8320E vs I5 2400 di mio fratello che entrambi girano sui 3.2ghz . volete i risultati ? bè il test e stato che il 2400 a mostrato subito i suoi limiti nel l'ambito del pc degno di questo nome, mostrando però un leggero vantaggio con i giochi più datati .
Di cpu ne sono passate molte a casa mia ,molte solo di passaggio ,e erano cpu di qualità tipo I7 2600k- i5 2500k - I5 2400- qx9650 -q8200 -phenon 1100t, e più o meno facevano quello che fa il mio fx . almeno ne mio uso "normale".:confused: :mbe:
paolo.oliva2
16-09-2015, 19:38
Comunque i 2 poli sono TSMC e GF (tirando fuori Intel), perché tanto Samsung è comunque dentro al consorzio di GF e IBM, anche se quest'ultima ha venduto a GF.
A parte un silicio specifico per AMD, io avevo postato un articolo in cui IBM aveva già fatto vedere funzionante transistor su silicio a 9nm, ed aveva già risolto il problema del 9nm che hanno un gare troppo piccolo per il silicio normale (hanno messo il germanio), Intel parla di oltre 2017 per la realizzazione di un suo 9nm e tempo ancora per la produzione... Sarebbero idioti GF/IBM/Samsung & C a non sfruttare quello che hanno già fatto.
Intel è stata avanti con i tempi, ma credo che come i tempi del SOI siano finiti, forse lo potrebbero essere anche quelli del bulk, anche se la definizione bulk non mi sembra molto appropriata per il silicio Intel.
tuttodigitale
17-09-2015, 02:00
Ciao,
visto che seguendo la data di produzione e i nanometri sarebbe più opportuno paragonarli alla serie 2000 ho 3000 al limite di Intel , infatti cosi ho fatto con il mio fx8320E vs I5 2400 di mio fratello che entrambi girano sui 3.2ghz . volete i risultati ? bè il test e stato che il 2400 a mostrato subito i suoi limiti nel l'ambito del pc degno di questo nome, mostrando però un leggero vantaggio con i giochi più datati .
la serie 2000 ha debuttato nei primi mesi del 2011, e se da una parte è vero che un fx8350 è più veloce di un 2700k dall'altra su 32nm esiste una cpu come l'i7 3970x (sempre sandy bridge), che non ha, a pare mio, molto da invidiare all'attuale top di gamma octa-core (16 thread): il nuovo modello in cinebench, praticamente offre le stesse prestazioni nel ST, e un +27% nel MT
http://anandtech.com/bench/product/994?vs=1317
La critica degli FX è infatti riferita all'enorme distacco venutasi a creare con il top di gamma Intel, quando invece con i 45nm, AMD era stata estremamente competitiva (soprattutto in ambito server) con Nehalem.
°Phenom°
17-09-2015, 06:38
8350 più veloce del 2700k? Ma da quando? http://www.anandtech.com/bench/product/697?vs=287
AceGranger
17-09-2015, 09:05
la serie 2000 ha debuttato nei primi mesi del 2011, e se da una parte è vero che un fx8350 è più veloce di un 2700k dall'altra su 32nm esiste una cpu come l'i7 3970x (sempre sandy bridge), che non ha, a pare mio, molto da invidiare all'attuale top di gamma octa-core (16 thread): il nuovo modello in cinebench, praticamente offre le stesse prestazioni nel ST, e un +27% nel MT
http://anandtech.com/bench/product/994?vs=1317
La critica degli FX è infatti riferita all'enorme distacco venutasi a creare con il top di gamma Intel, quando invece con i 45nm, AMD era stata estremamente competitiva (soprattutto in ambito server) con Nehalem.
si ma NESSUNO le tiene a default quelle CPU..... in OC arrivano praticamente a frequenze simili e l'8 core parte da 500 MHz in meno; quindi in realta l'8 core arriva a un 10% in piu in ST e un 40% in MT.
Altra conferma che i 14nm GF/Sammy non sono adatti a CPU e GPU
http://www.tomshw.it/news/samsung-non-produrra-i-chip-grafici-pascal-nvidia-ha-scelto-tsmc-70138
paolo.oliva2
17-09-2015, 10:18
si ma NESSUNO le tiene a default quelle CPU..... in OC arrivano praticamente a frequenze simili e l'8 core parte da 500 MHz in meno; quindi in realta l'8 core arriva a un 10% in piu in ST e un 40% in MT.
Il discorso di tutto digitale si basa sul fatto concreto che sul 45nm AMD era competitiva lato desktop e lo era anche nei server, e tutt'oggi non lo è non per BD in sé ma per un ovvia carenza di silicio con potenze/TDP competitive. Si può parlare quanto vuoi di ST MT e quant'altro, ma quando sul silicio ci devi steccare i transistor, il limite è il TDP e se per X potenza un silicio ti permette 100 e l'altro 50 o meno, l'architettura quanto vuoi che influisca?
La posizione Thuban X6 di allora, cioè un ST inferiore ad Intel ma più potenza MT degli X4+4, sarebbe nettamente replicabile se AMD avesse avuto un 32nm all'altezza con Piledriver e/o l'evoluzione Steamroller/Excavator FX non fattibile, il tutto per mancanza silicio..
Se pure Intel ha dovuto aspettare il 22nm per realizzare un X8+8 (DESKTOP) peraltro a frequenze inferiori rispetto all'X6+6, mi sembra palese che AMD su un 32nm con PP che tutti riconoscono non eccelso, non lo possa assolutamente rwalizzare. La forzatura è imputare questo a BD/CMT.
In questo che c'entra l'OC? Tra l'altro, senza nulla togliere ad un 5960X occato, dai 140W in condizione def, cosa otterresti ad aria in DU estate/inverno? Per un OC serio sui 4GHz si dovrebbe andare ad acqua, vorrei vedere chi si mette a smanettare in quel modo ad uso professionale... Certamente io si, tu anche, ma che tutti lo facciano, è ampiamente discutibile.i
george_p
17-09-2015, 11:00
L'architettura influisce Paolo, eccome.
Non è il solo silicio a fare la differenza, si divide il tutto in due parti uguali perché una architettura la si può progettare efficiente oppure no e il silicio allo stesso modo può permettere la riduzione del die o dei consumi rispetto alla precedente miniaturizzazione oppure no.
Ripetuta iuvant ...oppure no.
AceGranger
17-09-2015, 11:02
Il discorso di tutto digitale si basa sul fatto concreto che sul 45nm AMD era competitiva lato desktop e lo era anche nei server, e tutt'oggi non lo è non per BD in sé ma per un ovvia carenza di silicio con potenze/TDP competitive. Si può parlare quanto vuoi di ST MT e quant'altro, ma quando sul silicio ci devi steccare i transistor, il limite è il TDP e se per X potenza un silicio ti permette 100 e l'altro 50 o meno, l'architettura quanto vuoi che influisca?
dai su Paolo, va bene che il silicio faceva schifo, l'ho sempre detto e scritto pure io, ma siamo realisti.... l'architettura BD è palesemente, oggettivamente, senza ombra di dubbio, uscita MALISSIMO, anche ignorando totalmente i consumi, nemmeno a 5 GHz BD rendeva quello che avrebbe dovuto, prestazioni comunque mediocri e un die size abnorme.
il silicio ha aggravato una situazione che era gia di suo tragica... è stato il capro espiatorio ma non è certo stato il principale problema.
Se pure Intel ha dovuto aspettare il 22nm per realizzare un X8+8 peraltro a frequenze inferiori rispetto all'X6+6,
Intel l'8 core lo ha fatto con i 32 nm... con i 22nm ha fatto i 12 core... il motivo per cui non li abbiamo visti nel mercato Consumer è perchè Intel non è stupida da farsi concorrenza da sola...
l'8 core a 32nm erano 2,9 GHz turbo 3,8 in 135W
il 5960X 22nm sono 3 GHz turbo 3,5 GHz in 140W
se guardiamo gli Xeon 22nm, senza nemmeno andare a guardare i V3, abbiamo
E5-2690 V2 22nm, 10 core 3 Ghz turbo 3.6 GHz in 130W
se prendi i V3 sempre a 22nm, ti da 14 core a 2.6GHz turbo 3.6 GHz in 145 W...
seriamente, non ha senso prendere le CPU consumer per fare i calcoli, il loro TDP è veramente a scaglioni e ci navigano dentro; non rappresentano il massimo che puo fare Intel, ma sono solo quello che vuole venderti perchè non ha concorrenza...
l'8 core lo hanno fatto giusto un pelo migliore del 6 core a default perchè se Intel ti vendesse nel mercato consumer quello che veramente potrebbe fare, ti darebbe pochi motivi per cambiare piattaforma e inizierebbe ad intaccare seriamente il suo mercato Pro.
infatti guarda un po che ora i 2 core ha iniziato a darli solo al cambio di piattaforma.... es. Broadwell-E sara massimo 8 core, quando come minino, potrebbe sganciarci i 10 core... ma ovviamente se li tiene per Skylake-E cosi vendera meglio la piattaforma consumer... roba che come Xeon sono previsti i 26 core, VENTISEI :eek:
In questo che c'entra l'OC? Tra l'altro, senza nulla togliere ad un 5960X occato, dai 140W in condizione def, cosa otterresti ad aria in DU estate/inverno? Per un OC serio sui 4GHz si dovrebbe andare ad acqua, vorrei vedere chi si mette a smanettare in quel modo ad uso professionale... Certamente io si, tu anche, ma che tutti lo facciano, è ampiamente discutibile.i
come sopra, le CPU Consumer Intel sono un caso a parte, e per ambiti Pro se uno non vuole fare OC o non è capace non hanno senso di essere prese.
dai su Paolo, va bene che il silicio faceva schifo, l'ho sempre detto e scritto pure io, ma siamo realisti.... l'architettura BD è palesemente, oggettivamente, senza ombra di dubbio, uscita MALISSIMO, anche ignorando totalmente i consumi, nemmeno a 5 GHz BD rendeva quello che avrebbe dovuto, prestazioni comunque mediocri e un die size abnorme.
il silicio ha aggravato una situazione che era gia di suo tragica... è stato il capro espiatorio ma non è certo stato il principale problema.
Intel l'8 core lo ha fatto con i 32 nm... con i 22nm ha fatto i 12 core... il motivo per cui non li abbiamo visti nel mercato Consumer è perchè Intel non è stupida da farsi concorrenza da sola...
l'8 core a 32nm erano 2,9 GHz turbo 3,8 in 135W
il 5960X 22nm sono 3 GHz turbo 3,5 GHz in 140W
se guardiamo gli Xeon 22nm, senza nemmeno andare a guardare i V3, abbiamo
E5-2690 V2 22nm, 10 core 3 Ghz turbo 3.6 GHz in 130W
se prendi i V3 sempre a 22nm, ti da 14 core a 2.6GHz turbo 3.6 GHz in 145 W...
seriamente, non ha senso prendere le CPU consumer per fare i calcoli, il loro TDP è veramente a scaglioni e ci navigano dentro; non rappresentano il massimo che puo fare Intel, ma sono solo quello che vuole venderti perchè non ha concorrenza...
l'8 core lo hanno fatto giusto un pelo migliore del 6 core a default perchè se Intel ti vendesse nel mercato consumer quello che veramente potrebbe fare, ti darebbe pochi motivi per cambiare piattaforma e inizierebbe ad intaccare seriamente il suo mercato Pro.
infatti guarda un po che ora i 2 core ha iniziato a darli solo al cambio di piattaforma.... es. Broadwell-E sara massimo 8 core, quando come minino, potrebbe sganciarci i 10 core... ma ovviamente se li tiene per Skylake-E cosi vendera meglio la piattaforma consumer... roba che come Xeon sono previsti i 26 core, VENTISEI :eek:
come sopra, le CPU Consumer Intel sono un caso a parte, e per ambiti Pro se uno non vuole fare OC o non è capace non hanno senso di essere prese.
Bisogna dire che Intel si è aperta molto con il socket 2011-3, infatti buona parte delle mobo sono compatibili con tutte le cpu xeon, anche i modelli da 18 core, e alcune cpu xeon (o addirittura tutte?) hanno il moltiplicatore sbloccato.
EDIT: Il E5-2699 v3 , cpu 18 core @ 2,3ghz da più di 4000€ ha il molti sbloccato.
AceGranger
17-09-2015, 11:43
Bisogna dire che Intel si è aperta molto con il socket 2011-3, infatti buona parte delle mobo sono compatibili con tutte le cpu xeon, anche i modelli da 18 core.
quello è sempre stato a discrezione del produttore di MB non di Intel, perchè le AsRock hanno sempre supportato gli Xeon sin dalla prima variante di socket 2011.
e alcune cpu xeon (o addirittura tutte?) hanno il moltiplicatore sbloccato.
EDIT: Il E5-2699 v3 , cpu 18 core @ 2,3ghz da più di 4000€ ha il molti sbloccato
:confused: che io sappia nessuna CPU Xeon ha il moltiplicatore sbloccato; puoi forzare il turbo a funzionare sempre, ma non puoi aumentarlo come nelle versioni K
Grizlod®
17-09-2015, 13:20
Altra conferma che i 14nm GF/Sammy non sono adatti a CPU e GPU
http://www.tomshw.it/news/samsung-non-produrra-i-chip-grafici-pascal-nvidia-ha-scelto-tsmc-70138
Ecco, ora bisognerà solo attendere conferme/smentite sui 16nm di TSMC, riguardo la possibile litografia High Performance, xkè se Zen dovrà essere ancora 'HDL', sarebbe più adatto IMO a SeaMicro, per cui, tanto vale scommettere sui 22nm di IBM e rifare il progetto o tagliare il quantitativo max di cores.
P.S. se avessero potenza economica, potrebbero portare avanti 2 distinti progetti...uno APU/Seamicro, con i 16nm e Zen con i 22nm...
Il discorso di tutto digitale si basa sul fatto concreto che sul 45nm AMD era competitiva lato desktop e lo era anche nei server, e tutt'oggi non lo è non per BD in sé ma per un ovvia carenza di silicio con potenze/TDP competitive. Si può parlare quanto vuoi di ST MT e quant'altro, ma quando sul silicio ci devi steccare i transistor, il limite è il TDP e se per X potenza un silicio ti permette 100 e l'altro 50 o meno, l'architettura quanto vuoi che influisca?
La posizione Thuban X6 di allora, cioè un ST inferiore ad Intel ma più potenza MT degli X4+4, sarebbe nettamente replicabile se AMD avesse avuto un 32nm all'altezza con Piledriver e/o l'evoluzione Steamroller/Excavator FX non fattibile, il tutto per mancanza silicio..
Se pure Intel ha dovuto aspettare il 22nm per realizzare un X8+8 (DESKTOP) peraltro a frequenze inferiori rispetto all'X6+6, mi sembra palese che AMD su un 32nm con PP che tutti riconoscono non eccelso, non lo possa assolutamente rwalizzare. La forzatura è imputare questo a BD/CMT.
In questo che c'entra l'OC? Tra l'altro, senza nulla togliere ad un 5960X occato, dai 140W in condizione def, cosa otterresti ad aria in DU estate/inverno? Per un OC serio sui 4GHz si dovrebbe andare ad acqua, vorrei vedere chi si mette a smanettare in quel modo ad uso professionale... Certamente io si, tu anche, ma che tutti lo facciano, è ampiamente discutibile.i
Eì vero, il silicio faceva schifo. Constatato questo (non penso che ci sia nessuno che possa contraddire cio), se un'altra qualsiasi architettura con un silicio buono all'70% gia era competitiva, BD NECESSITAVA di un silicio buono al 150%. Un pp buono al 100% serviva per recuperare l'infimo ipc che l'architettura ha, il restante 50% serviva a aumentare eventualmente il numero di core o diminuire il TDP. In rapporto però con una qualsiasi altra architettura che con un pp al 70/80% era competitiva, BD era un bidone.
Ecco, ora bisognerà solo attendere conferme/smentite sui 16nm di TSMC, riguardo la possibile litografia High Performance, xkè se Zen dovrà essere ancora 'HDL', sarebbe più adatto IMO a SeaMicro, per cui, tanto vale scommettere sui 22nm di IBM e rifare il progetto o tagliare il quantitativo max di cores.
P.S. se avessero potenza economica, potrebbero portare avanti 2 distinti progetti...uno APU/Seamicro, con i 16nm e Zen con i 22nm...
I 22nm saranno FFet?
paolo.oliva2
17-09-2015, 16:28
@AceGranger
Guarda che il discorso era un Thuban ai suoi tempi vs BD attuale.
Il Thuban aveva sempre un IPC inferiore agli X4+4 Intel, ma offriva un MT più prestante.
A parte che un Excavator a 4GHz equivarrebbe ad un Pile 5GHz per l'aumento di IPC, ma il punto è che un silicio con un TDP migliore, avrebbe portato un FX su base EX ad offrire più potenza MT di quanto ne concedeva il Thuban ai suoi tempi.
Cerchiamo di capirci meglio. Perché facciamo un confronto SMT vs CMT quando un core Intel senza SMT comunque consuma meno di BD? E il silicio Intel ne potrebbe implementare il doppio a parità di TDP rispetto ad AMD?
La forza bruta di un 6700k è IPC per 4,2GHz di frequenza, la forza bruta di un 5960X è di un tot inferiore, tanti quanto il minor IPC x 700MHz di frequenza in meno. Giudichi un cesso il 5960X perché con superpippo va meno? Non esiste perché l'acquisto ha ben altre affinità. Se un FX EX offrisse la stessa differenza di forza bruta che c'è tra un 6700k ed un 5960X ma in meno di un 5960X, ma offrisse il 20/30% in più di MT di un 6700k, sarebbe un cesso? Mettiamo un po' di giuste proporzioni, anche perché non credo che siano tutti a pagare un procio 400€ per un 6700k o 1000€ per un 5960X, o che tutti abbiano 3000€ di CF per giocate.
tuttodigitale
17-09-2015, 16:46
dai su Paolo, va bene che il silicio faceva schifo, l'ho sempre detto e scritto pure io, ma siamo realisti.... l'architettura BD è palesemente, oggettivamente, senza ombra di dubbio, uscita MALISSIMO, anche ignorando totalmente i consumi, nemmeno a 5 GHz BD rendeva quello che avrebbe dovuto, prestazioni comunque mediocri e un die size abnorme.
A ridaglie:
1) il die size mostruoso, è frutto del campo di destinazione, quello server, in cui è importante avere un abbondante quantitativo di cache l3, che da sola è costituita da oltre 400 milioni di transistor.
2) un FX8350 a 5 GHz con un TDP da 95W sarebbe stato un eccellente processore. Ricordiamo secondo roadmap, era previsto fin dal principio un unico modello octa core da 125W, tale margine termico sarebbe servito per portare sul mercato un die da dieci core (un die PD con soli 8 core nativi non era nei piani di AMD)
quindi un ipoteticp FX10 da 4,7 GHz se l'avrebbe giocata con la miglior cpu di Intel, senza ma e senza se.
il silicio ha aggravato una situazione che era gia di suo tragica... è stato il capro espiatorio ma non è certo stato il principale problema.
è stato il problema principale.
Intel ha migliorato l'efficienza dell'architettura "solo" del 15%, un aggiuntivo +50% la offerto il silicio.
k10 in oc a 3,6 GHz consumava 180W con soli quad core. Alla faccia di problema di poco conto.
Intel l'8 core lo ha fatto con i 32 nm... con i 22nm ha fatto i 12 core... il motivo per cui non li abbiamo visti nel mercato Consumer è perchè Intel non è stupida da farsi concorrenza da sola...
AMD aveva fatto un 12 core con i 45nm. Cosa c'entra? La forza dei 32nm è che Intel ha potuto aumentare del 50% il numero di core, senza abbassare di una virgola la frequenza di clock!
l'8 core a 32nm erano 2,9 GHz turbo 3,8 in 135W
il 5960X 22nm sono 3 GHz turbo 3,5 GHz in 140W
l'i7 3960x offiva 88% le prestazioni dello Xeon (frequenza di base decisamente più elevata). Siamo li.
se guardiamo gli Xeon 22nm, senza nemmeno andare a guardare i V3, abbiamo
E5-2690 V2 22nm, 10 core 3 Ghz turbo 3.6 GHz in 130W
se prendi i V3 sempre a 22nm, ti da 14 core a 2.6GHz turbo 3.6 GHz in 145 W...
ma guarda le serie consumer, in linea di principio sono destinati i peggiori die. :read:
comunque è vero che la cpu ha aumentato il TDP (e probabilmente il consumo) ma non dimentichiamoci che nel die sono stipate tante cose carine come il controller pci-express. Poi considera che solo in northbridge, nelle soluzioni AMD consuma 14W.
infatti guarda un po che ora i 2 core ha iniziato a darli solo al cambio di piattaforma.... es. Broadwell-E sara massimo 8 core, quando come minino, potrebbe sganciarci i 10 core... ma ovviamente se li tiene per Skylake-E cosi vendera meglio la piattaforma consumer... roba che come Xeon sono previsti i 26 core, VENTISEI :eek:
il vantaggio tecnologico di Intel è molto ampio. AMD con excavator, e solo nella fascia 15-25W, ha superato le prestazioni di un i7 ivy bridge, soluzione che ha debuttato nel mercato più di 3 anni fa. Nel frattempo Intel, grazie ai 14nm e al miglioramento della sua architettura, ha migliorato di un altro 50%. il risultato è che Carrizo compete ad armi pari solo con gli i3
Il silicio sta dando un grandissimo vantaggio ad Intel, è inutile negarlo.
AceGranger
17-09-2015, 19:27
A ridaglie:
1) il die size mostruoso, è frutto del campo di destinazione, quello server, in cui è importante avere un abbondante quantitativo di cache l3, che da sola è costituita da oltre 400 milioni di transistor.
si va bè...
uno Xeon 8 core E5-2687W 32nm erano 435 mm2
gli Opteron x16 avevano uno stratosferico die size di 640 mm2.
quindi tremendamente grosso ed inefficiente; anche alle frequenze con le quali si narrava dovesse uscire se il silicio non avesse dato problemi; un x10 ( e quindi un x20 Opteron) non so in quali sogni pensavano veramente di produrli e di venderli con un'area di 800 mm2... per poi andare comuqnue meno degli Xeon...
AMD aveva fatto un 12 core con i 45nm. Cosa c'entra?
che Paolo diceva che per gli 8 core si è dovuti aspettare i 22nm e invece sono arrivati con i 32nm...
Grizlod®
17-09-2015, 20:08
I 22nm saranno FFet?No, ma è già rodato e maturato da IBM con i 'Power' mi sa...
Dovrebbe essere già abbastanza economico da poter usare gate-last.
Personalmente cmq ce lo verdrei un K11/13 (o come vorranno chiamarlo) con max 6 core, integrato di SSE3, SSE4.1/4.2, AES, AVX256/512, senza FMA3/4 e XOP, con 1024 KB L2 e 12 MB di L3.
Partendo da una frequenza stock di 4.0 GHz, IMO starebbe già davanti ( e non di poco) a Piledriver @ 5.0 Ghz .
Se poi riescono ad affinarlo ulteriormente, si possono aggiungere un altro paio di cores.
Naturalmente ci si derivano pure gli X4.
EDIT: aggiungo che dovrebbe restare nei 125W TDP.
no
http://globalfoundries.com/technology-solutions/leading-edge-technology/22fdx
Appunto. Quindi a meno che AMD si rimangi ciò che ha detto alla presentazione di zen (in questo caso non ci vedrei nulla di male) non sarà sui 22nm ibm
Inviato dal mio XT1092 utilizzando Tapatalk
quello è sempre stato a discrezione del produttore di MB non di Intel, perchè le AsRock hanno sempre supportato gli Xeon sin dalla prima variante di socket 2011.
:confused: che io sappia nessuna CPU Xeon ha il moltiplicatore sbloccato; puoi forzare il turbo a funzionare sempre, ma non puoi aumentarlo come nelle versioni K
Hai ragione, avevo letto di alcune xeon occate, tipo la 18 core @ 2,9ghz e pensavo avesse il molti sbloccato. :doh:
tuttodigitale
17-09-2015, 21:30
si va bè...
uno Xeon 8 core E5-2687W 32nm erano 435 mm2
gli Opteron x16 avevano uno stratosferico die size di 640 mm2.
si va bé confondi mele e pere e fai paragoni:
1) In teoria, da slide, un modulo BD sarebbe dovuto andare il 20% più di due core SB. Un 16 core BD/PD avrebbe dovuto superare i 3GHz.
la soluzione di AMD sarebbe stata decisamente più veloce
2) il die size "enorme" è anch'esso figlio del SOI: 32nm Bulk di Intel permettono di integrare ben 5.22 milioni di transistor per mmq contro i soli 3.81milioni di transistor del SOI: +37%. Come ben saprai, le dimensioni fisiche sono importanti a fini dei consumi. Il 32nm BULK Intel è oggettivamente di gran lunga migliore dei 32nm SOI di GF.
Pensa che i 45 nm lisci permettevano 2,93 Mtransistor/mmq ( i 45nm Bulk di Intel 2.78 MTr/mmq):
c'è più differenza a livello di integrazione tra i 32nm SOI e Bulk(+37%),
che non tra i 45 nm e i 32 nm SOI (+30%).
Incredibile....Intel, nonostante partisse in una condizione di sostanziale parità ha migliorato il livello di integrazione del 88% contro il 30% di AMD:
ancora convinto che il debacle non sia dovuto al silicio?
PS neppure con i 28nm BULK e HDL, AMD ha raggiunto l'integrazione di Intel lato cpu (ha ridotto le dimensioni complessive della sezione x86 solo del 10%)
Prima che ti salti in mente la malsana idea di dare la colpa all'architettura, ricordo che il livello di integrazione llano è pressochè identico a quello di Trinity. Anzi, secondo le mie misure, 2 core con la cache l2 da 2MB, sono più grandi, di un inerzia rispetto ad un modulo PD con la sua cache, sempre da 2MB, ma condivisa...
Appunto. Quindi a meno che AMD si rimangi ciò che ha detto alla presentazione di zen (in questo caso non ci vedrei nulla di male) non sarà sui 22nm ibm
interessantissimo, quel 70% lower power than 28HKMG.
Questo starebbe a significare che sarebbe possibile un kaveri a10-7800 da 3,5GHz in meno di 30W di TDP con tanto di gpu....e praticamente una cpu pura con x16 core SR da ci sguazzerebbe nel TDP di 125W.
Praticamente, se queste fossero le premesse, ZEN deve come minimo raddoppiare l'efficienza di un fx8350 (in caso contrario o è peggiore di BD o le dichiarazioni di GF si riveleranno ancora una volta troppo ottimistiche).
secondo questo documento
http://globalfoundries.com/docs/default-source/PDF/22fdx-product-brief.pdf?sfvrsn=10
i fdx a 22nm con FBB permettono addirittura un +70% di frequenza operativa rispetto ai 28 bulk e addirittura (ed è imho il più interessante) un +40% con -50% dei consumi...Questo dovrebbe stare a significare, che sarebbe possibile una cpu steamroller x16 da 5GHz o un x8 da 6GHz (frequenze di base). Praticamente AMD sarebbe in grado di aumentare del 70% la potenza nel ST, senza toccare l'architettura.
Tuttavia ci sono dei problemi. Il livello di integrazione non è così esaltante: solo una riduzione del 20%, contro il 33% nominale, ma dovrebbe comunque costare meno :"20% lower die cost than 16/14nm"
Grizlod®
18-09-2015, 00:29
Sono andato sui siti TSMC, dove con i 16nm (FF+), si legge solo di mobile e power reduction:
http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm
mentre solo sui 20nm planari si legge Desktop, Server, High Performance e gate last...
http://www.tsmc.com/english/dedicatedFoundry/technology/20nm.htm
e Samsung con i suoi 14nm FF LPE/LPP...+/- stessa solfa...niente HP:
http://www.samsung.com/semiconductor/foundry/process-technology/14nm
http://www.samsung.com/global/business/semiconductor/file/media/Samsung_Foundry_14nm_FinFET-0.pdf
...per ora, la vedo grigia per AMD!
Grizlod®
18-09-2015, 00:41
.........
secondo questo documento
http://globalfoundries.com/docs/default-source/PDF/22fdx-product-brief.pdf?sfvrsn=10
i fdx a 22nm con FBB permettono addirittura un +70% di frequenza operativa rispetto ai 28 bulk e addirittura (ed è imho il più interessante) un +40% con -50% dei consumi...Questo dovrebbe stare a significare, che sarebbe possibile una cpu steamroller x16 da 5GHz o un x8 da 6GHz (frequenze di base). Praticamente AMD sarebbe in grado di aumentare del 70% la potenza nel ST, senza toccare l'architettura.
Tuttavia ci sono dei problemi. Il livello di integrazione non è così esaltante: solo una riduzione del 20%, contro il 33% nominale, ma dovrebbe comunque costare meno :"20% lower die cost than 16/14nm"Credo siano non problemi, comuni a tutti...forse tranne Intel, ma da quando sono risultate misure personalizzate, non ci giurerei...
http://thefoundryfiles.com/tag/14nm/
But in reality the naming of nodes has become somewhat arbitrary over the past several nodes. A node used to be named based on the smallest transistor feature size, which was typically the channel length. But channel length scaling stopped at about 45nm, so the industry does not actually have a 28nm gate in a 28nm technology.
Sono andato sui siti TSMC, dove con i 16nm (FF+), si legge solo di mobile e power reduction:
http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm
mentre solo sui 20nm planari si legge Desktop, Server, High Performance e gate last...
http://www.tsmc.com/english/dedicatedFoundry/technology/20nm.htm
e Samsung con i suoi 14nm FF LPE/LPP...+/- stessa solfa...niente HP:
http://www.samsung.com/semiconductor/foundry/process-technology/14nm
http://www.samsung.com/global/business/semiconductor/file/media/Samsung_Foundry_14nm_FinFET-0.pdf
...per ora, la vedo grigia per AMD!
Tsmc ha anche i 16FF++ , che dovrebbero essere quelli delle gpu
Inviato dal mio XT1092 utilizzando Tapatalk
AceGranger
18-09-2015, 07:39
si va bé confondi mele e pere e fai paragoni:
1) In teoria, da slide, un modulo BD sarebbe dovuto andare il 20% più di due core SB. Un 16 core BD/PD avrebbe dovuto superare i 3GHz.
la soluzione di AMD sarebbe stata decisamente più veloce
si ma mica grazie alle frequenze... si aspettavano ben altre prestazioni dall'architettura....
l'X16 è uscito a 2.6 GHz e a malapena stava al passo con i vecchi westmere 6 core X5660-X5650 ( in ordine terza e quarta CPU ); anche a 3,5 GHz sarebbe stato comuqnue sotto gli Xeon Sandy Bridge 8 core in uscita da li a poco, il che la dice lunga sugli errori architetturali, silicio o non silicio.
Hai ragione, avevo letto di alcune xeon occate, tipo la 18 core @ 2,9ghz e pensavo avesse il molti sbloccato. :doh:
eh no, magari.... quelle sono state overclocckate portando il bus a 104-105 MHz
Grizlod®
18-09-2015, 07:42
Tsmc ha anche i 16FF++ , che dovrebbero essere quelli delle gpu
Inviato dal mio XT1092 utilizzando TapatalkHo letto qui: http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=8849
e su varie discussioni, ma di ufficiale, non c'è nulla ad oggi; non è che tocca ad AMD fare da cavia pure stavolta :confused:
D'altra parte, quando non si ha il coltello dalla parte del manico...
george_p
18-09-2015, 08:30
Ho letto qui: http://www.bitsandchips.it/forum/viewtopic.php?f=4&t=8849
e su varie discussioni, ma di ufficiale, non c'è nulla ad oggi; non è che tocca ad AMD fare da cavia pure stavolta :confused:
D'altra parte, quando non si ha il coltello dalla parte del manico...
Fottemberg ha sue fonti affidabili che nella maggior parte dei casi hanno rilasciato informazioni risultate poi vere. Naturalmente il mondo dell'informatica è in continuo movimento e cambiamento per cui l'imprevedibilità delle situazioni è abbastanza alta.
Tra le tante previsioni riportate nei loro articoli o post del forum c'è l'utilizzo dei processi FF che poi AMD ha confermato ufficialmente.
Poi naturalmente utilizzano anche loro il condizionale poiché, come già scritto, il mondo informatico (ma non solo) è soggetto a continui cambiamenti.
No, ma è già rodato e maturato da IBM con i 'Power' mi sa...
Dovrebbe essere già abbastanza economico da poter usare gate-last.
Personalmente cmq ce lo verdrei un K11/13 (o come vorranno chiamarlo) con max 6 core, integrato di SSE3, SSE4.1/4.2, AES, AVX256/512, senza FMA3/4 e XOP, con 1024 KB L2 e 12 MB di L3.
Partendo da una frequenza stock di 4.0 GHz, IMO starebbe già davanti ( e non di poco) a Piledriver @ 5.0 Ghz .
Se poi riescono ad affinarlo ulteriormente, si possono aggiungere un altro paio di cores.
Naturalmente ci si derivano pure gli X4.
EDIT: aggiungo che dovrebbe restare nei 125W TDP.
Perche dici senza FMA3/4 e XOP?
Grizlod®
18-09-2015, 08:46
Perche dici senza FMA3/4 e XOP?Per diminuire le circuiterie (quindi transistors), inoltre FMAx, penso siano più portate all'architettura BD (cioè con filosofia K1x comporterebbe maggior complessità che inciderebbe sul TDP). Le XOP, mi pare siano una rivisitazione delle ex SSE5 che Intel boicottò a suo tempo e che nessuno se le fila.
Anche le stesse FMAC se le filano in pochi (nei confronti delle varie SSE per es.), sostanzialmente benchmarks e forse qualche progetto BOINC.
Ok l'innovazione, ma AMD deve innovare dove conta per essa...tipo il DRAM controller integrato nella CPU; per le istruzioni è costretta ad "inseguire"Intel.
Non puo permettersi invenzioni "fuori", non la cagherà nessuno.
EDIT: ricordavo bene...con Intel è sempre la stessa storia... https://en.wikipedia.org/wiki/XOP_instruction_set
tuttodigitale
18-09-2015, 09:39
si ma mica grazie alle frequenze... si aspettavano ben altre prestazioni dall'architettura....
si aspettavano ben altre prestazioni, vero. Ma le prestazioni sono il prodotto dell'ipc per la frequenza.
Forse tu non lo sai, ma la cpu viene simulata, ben prima della messa in produzione. AMD sapeva perfettamente, quando ha pubblicato quelle famose slide, quale sarebbe stato il risultato ottenuto da diversi benchmark ad una determinata frequenza.
l'X16 è uscito a 2.6 GHz e a malapena stava al passo con i vecchi westmere 6 core X5660-X5650 ( in ordine terza e quarta CPU );
ma davvero? :rolleyes:
http://images.anandtech.com/graphs/graph6508/52688.png
di seguito test per il mercato HPC
http://images.anandtech.com/graphs/graph6508/51995.png
è proprio inferiore. SI SI.
anche a 3,5 GHz sarebbe stato comuqnue sotto gli Xeon Sandy Bridge 8 core in uscita da li a poco, il che la dice lunga sugli errori architetturali, silicio o non silicio.
Hai test? Per estrapolazione (dal sito anandtech), la soluzione di AMD risulterebbe più potente, non di molto, ma comunque più potente della vecchia soluzione top di gamma Intel (tranne in cinebench dove l'octa core sarebbe più potente, anche se con un vantaggio inferiore al 5%)
AceGranger
18-09-2015, 10:47
si aspettavano ben altre prestazioni, vero. Ma le prestazioni sono il prodotto dell'ipc per la frequenza.
Forse tu non lo sai, ma la cpu viene simulata, ben prima della messa in produzione. AMD sapeva perfettamente, quando ha pubblicato quelle famose slide, quale sarebbe stato il risultato ottenuto da diversi benchmark ad una determinata frequenza.
ma davvero? :rolleyes:
CUT
è proprio inferiore. SI SI.
Hai test? Per estrapolazione (dal sito anandtech), la soluzione di AMD risulterebbe più potente, non di molto, ma comunque più potente della vecchia soluzione top di gamma Intel (tranne in cinebench dove l'octa core sarebbe più potente, anche se con un vantaggio inferiore al 5%)
scusa, ma hai capito almeno i grafici che hai postato :mbe: ?
Xeon E52687W 3,1 GHz --- TOP
Xeon E52690 2,9 GHz
Xeon E52680 2,7 GHz --- Recensito
Xeon E52665 2,4 GHz
Xeon E52660 2,2 GHz --- Recensito
Opteron 6386E 2,8 GHz --- Recensito TOP
Opteron 6380 2,5 GHz --- Recensito
Opteron 6378 2,4 GHz
Opteron 6376 2,3 GHz --- Recensito
primo grafico
il Top AMD totalizza 33.320 @2,8 GHz
Intel E52680 totalizza 40180 @2,7 GHz
Intel - 3,5% di clock +20% prestazioni
il Top Intel a 3,1GHz, +400 MHz = +15 % di clock = +/- 46.000
l'ipotetico AMD @ 3,5GHz + 700 MHz = + 26% di clock = +- 42.000
e stiamo gia parlando di Piledriver, seconda incarnazione dell'architettura...
Sarebbero serviti ALMENO 3,8 GHz per eguagliare gli Intel nello scenario MIGLIORE :rolleyes:; e non venirmi a dire che si aspettavano anche solo lontanamente di arrivare a 3,8 GHz sull'X16 è.
secondo grafico
Opteron 6380 2.5GHz totalizza 536 secondi
Xeon E52660 2.2Ghz totalizza 492 secondi
Intel -12% di clock e 10% piu veloce
una situazione peggiore di prima :rolleyes:
e hai pure linkato le 2 situazioni MIGLIORI :asd: :sofico:
SAP S&D 2-tier 95%
LS Dyna 92%
nel resto è un bagno di sangue
ESXi + Linux 86%
SPECjbb2013 85%
Cinebench 84%
3D max 56% ( aveva problemi Max non lo contiamo )
è il 10-15% piu lento con un 10% di clock in piu.
se la cava giusto in un solo bench sulla decrittazione dove poi negli altri è una tragedia.
è proprio inferiore. SI SI.
si si,:asd: direi di si
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.