View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller
paolo.oliva2
09-09-2014, 10:47
e che.... come BD vogliono fare nuovo pp + nuova architettura
una parte comune e poi o arm o x86 a seconda di cosa serva, quindi parti comuni ....
lintercambiabilità è bella ma difficile , gia se arrivano alle prestazioni di un 9590 io batterei le mani
sarò pessimista ma per me resta un progetto bello sulla carta come le apu, ma non potrà mai andar bene subito
Comunue, Nardu, il confronto AMD-Intel può avere differenze enormi o limitate, a seconda di come si evolverà il futuro.
Già solamente l'opzione di quale TDP avranno i proci del futuro, può essere svantaggiosa o vantaggiosa per AMD. Essendo Intel avanti con la miniaturizzazione, AMD non potrà MAI riuscire a proporre un procio con consumo/prestazioni migliore di Intel negli X4. Ma la cosa cambierebbe nel caso di sfruttamento dell'intero TDP 125W/140W per ottenere il numero max di core, perchè l'architettura Intel con le Cache inclusive, richiedono una dimensione enorme del die che unito alle caratteristiche Bulk (leakage), ridurrebbero il vantaggio della miniaturizzazione su AMD, perchè la L3 per essere inclusiva deve contenere le stesse dimensioni della somma di tutte le L1 e L2 del procio, contrariamente ad AMD, che essendo esclusiva, ha un incremento standard.
Quindi che abbiamo? +2 core AMD richiederebbero il modulo con 2MB di cache L2 e + 2MB di L3, e così via a numero infinito di core totali, mentre Intel, per esempio con il 5960X, l'ha aumentata di +5MB, con un numero di transistor equivalente all'intero modulo di AMD con tanto di L2 e circuiteria logica core e dei 2MB di L3, e più aumenterebbero i core totali e più aumenterebbe la differenza, cioè tipo da X8 a X12 Intel (+4 core) risulterebbe simile a +3 moduli AMD (cioè +6 core).
Sarò ripetitivo, ma guardiamo solamente cosa ha guadagnato Intel tra IVY e Haswell in accoppiata al passaggio 32nm a 22nm. Ha aumentato l'IPC, ha aumentato le frequenze def di un +6% (i7), ha aumentato del 33% il numero di core max (i7 X6 --> 5960X) a parità di TDP. AMD, pur con un passaggio architetturale doppio (+10%) sulla carta rispetto ad Intel, non ha guadagnato NULLA ed addirittura ha diminuito del 50% la massima potenza offerta (Kaveri X4 vs 8350 X8). AMD può realizzare qualsiasi architettura, ma se non ha la disponibilità di un PP silicio che permetta di più del 32nm SOI, farebbe la stessa fine di Steamroller/28nm Bulk. Un buon silicio, invece, permetterebbe sia l'aumento dei core, lo sfruttamento architetturale, realizzare APU anche su un X8 e più... uno scenario totalmente diverso, se poi in aggiunta ad HSA, sarebbe il bingo.
AceGranger
09-09-2014, 11:02
Incredibile ma vero :eek:
comunque col senno di poi non so se vendere le Fab e acquistare ATI per 5 milioni sia stato cosi giusto, anche se in grossa perdita... boh...
ATI la doveva acquistare, ma certamente non al prezzo che ha sborsato...
vendere le Fab secondo me è stata una stupidata, se Intel è capace di produrre per lei e di produrre anche per gli altri mantenendo le linee occupate, in AMD dovevano svegliarsi e farle funzionare nel modo corretto.
°Phenom°
09-09-2014, 11:19
:asd:
In ogni caso, visto che mancherebbe più di un anno e mezzo, ci potrebbero essere pure sorprese lato software (Huma/HSA e motori giochi che sfruttino un numero di core favorevole all'offerta AMD), come del resto sarebbe pure possibile che il prx FX non sia solamente X86 ma APU, e se la pensiamo bene, la cosa non stupirebbe nemmeno più di tanto, perchè AMD è in vantaggio lato IGP APU, quindi commercialmente sarebbe meglio misurarsi con Intel dove è più forte.
Vero, nessuno vieta che i prossimi Fx siano apu in tutto e per tutto. Il problema imho però è uno. La fascia Fx, come del resto la fascia i5/i7, nasce per essere affiancata a video dedicate. Attualmente un 7850k viene praticamente venduto al prezzo di un i5/8350 (il piu economico, 4430 mi sembra), ma, senza hsa, prestazionalmente sta sulla fascia i3. Quindi, a meno che per scelta non si voglia affiancare una vga dedicata, il 7850 è pressoche inutile.
Se tra 2 anni i nuovi Fx fossero Apu, ma hsa fosse ancora al palo, avremmo ancora Apu indubbiamente bilanciate, ma tagliate fuori da tutti coloro a cui interessa affiancare una dedicata poiche si avrebbero Apu con prezzi di fascia i5 (per fare esempio) ma con prestazioni da i3, di cui si pagherebbe una parte che non interessa (igpu)
paolo.oliva2
09-09-2014, 13:36
Incredibile ma vero :eek:
comunque col senno di poi non so se vendere le Fab e acquistare ATI per 5 milioni sia stato cosi giusto, anche se in grossa perdita... boh...
Se AMD avesse ancora le FAB, cambierebbe poco, da quanto letto il 22nm e il 14nm hanno letteralmente prosciugato le casse Intel, quindi di certo AMD, con gli utili Piledriver/32nm che viene venduto ad una cifra ridicola al mm2, già non avrebbe avuto i fondi per 1 solo passaggio, figuriamoci rincorrere Intel.
L'acquisizione ATI è stato si uno svenamento per AMD (rispetto al suo bilancio), ma da un bilancio ATI negativo l'ha portata in positivo ed in 7 anni avrà sicuramente guadagnato, quindi di fatto ammortizzato quanto speso nell'acquisizione, inoltre ha potuto offrire gli APU (senza ATI impossibile) che sono abbastanza importati nel bilancio AMD...
E' difficile confrontare la situazione AMD + FAB ma senza ATI e la situazione attuale AMD + ATI e senza FAB... ma tieni presente che l'acquisizione ATI al momento non ha portato tutti i frutti, nel senso che AMD l'ha acquisita in un contesto di APU/HSA, che è si una scommessa, ma che se andasse in porto, posizionerebbe AMD in tutt'altro modo. Di certo sarebbe stato meglio AMD + FAB + ATI e dindi per la progettazione di tutto... ma AMD non ha i fondi Intel, e dubito che sarebbe ancora viva. Nella posizione odierna, AMD ha i fondi per lo sviluppo, ATI guadagna, lo sviluppo ATI si fonde con gli APU, la non proprietà di FAB porta problemi sicuramente notevoli, ma in ogni caso para il fondo schiena di AMD, perchè la progettazione su carta ha un costo nettamente inferiore rispetto al trasbordo carta/silicio e sviluppo silicio, quindi la situazione AMD senza FAB è che spende ugualmente per lo sviluppo architetturale su carta, ma paga il silicio se vende e il mancato guadagno (situazione silicio sviluppato in proprio e di qui proci superiori) vedrebbe comunque una situazione di salto nel buio... perchè ad esempio come sarebbe la situazione AMD SE avesse tenuto le FAB e sviluppato un silicio tale ed uguale al 32nm SOI? Sarebbe saltata?
In ogni caso, tieni presente che l'acquisizione ATI aveva come progetto APU e APU/HSA... e (credo) che AMD abbia si preventivato una perdita di competitività silicio, ma l'obiettivo HSA, è si di aumentare le prestazioni, ma il vero guadagno di HSA è nel consumo/prestazioni.
Io non sono ben informato... ma ricordo a mente che un Kaveri 95W riusciva tramite HSA ad aumentare le prestazioni sino a 6-7 volte (nel caso migliore), quindi HSA, dove e quando possibile utilizzare, produrrebbe un enorme guadagno consumo/prestazioni... e se 2 step di miniaturizzazione silicio occorrono per ammortizzare del 50% i consumi, quanti ce ne vorrebbero per abbattere del 70-80% i consumi? In teoria, un 32nm + HSA, con HSA attivo, potrebbe addirittura avere un consumo/prestazioni migliore rispetto ad un procio X86 convenzionale realizzato anche a 10nm, e di qui la scommessa HSA e vendere le FAB.
P.S. Edit.
Ricordo che il vantaggio del SOI sul Bulk, è quella che non richiede di cambiare i macchinari ad ogni salto di miniaturizzazione, ma solamente la parte della litografia. Quindi nel passaggio dal 45nm al 32nm, in realtà AMD (nel caso di FAB ancora sue) non avrebbe speso più di tanto, a parte l'affinamento... ma visto che il SOI IBM la stessa IBM ha riportato non possibile aumentare la miniaturizzazione, l'unica alternativa è il passaggio all'FD-SOI di Samsung (in cui la posizione AMD sarebbe la stessa di quella GF, in quanto è un consorzio e GF ha preso il posto di AMD), ma se richiedesse la sostituzione in toto di tutte le macchine, la spesa sarebbe ingente.
La cosa buffa, è che GF potrebbe anche aver pagato un di più sulla convinzione (allora data per certa) che la FAB di Dresda aveva macchinari compatibili almeno fino al 22nm e forse più... mentre di fatto tutto morirebbe al 32nm SOI, peraltro manco performante.
beh ma infatti il 7850k nasce per essere stand-alone, se ci metti una dedicata è perché avevi già un sistema e non lo vuoi cambiare, esempio:
oggi compri mobo e apu e tra un anno se non ti soddisfa sul piano gaming ci compri una dedicata che va comunque bene, non fa da collo con gpu mid-range, sui 200€, ma almeno non cambia tutta la piatta...
ex-novo non ha molto senso fare 7850k più dedicata...
Esatto, trasporta questa situazione tra 2 anni, dove io vorrei cambiare il mio 6300 e dedicata, e mi ritrovo davanti un FX A10xx al prezzo di un i6 che lato cpu va come un i4 (sto sparando a caso). Non sceglierei mai la soluzione FX, e come me farebbero praticamente tutti coloro che vogliono abbinare una dedicata, di conseguenza AMD rimarrebbe tagliata fuori da questa fascia di mercato. Imho è giustissimo che punti sulle Apu, ma finche HSA non prenderà piede è insensato che vengano proposte Apu e non Cpu in fascia medio alta, visto che per ovvi motivi il comparto grafico integrato aumenta il costo del processore, ne riduce le prestazioni (nel senso che la parte dedicata alla grafica potrebbe essere utilizzata per aggiungere core/moduli, o aumentare le frequenze a parità di TDP)
giustissimo, o ad esempio anche solo la parte L3 al posto della igpu, porta pochi vantaggi in confronto all'aumento di TDP, ma pur sempre ne porta...
diciamo che al prezzo che sono le soluzioni athlon su base SteamRoller non sono poi male male se vuoi affiancare una dedicata, dovrebbero esserci 840 e 860k x4 da 65 e 95 watt sotto gli 80 euro o meno
Imho, fossi amd farei una cosa del genere.
Partiamo, come piace a loro, per fare un calcolo completamente teorico, dai Compute Cores. Poniamo caso di rimanere come adesso, che in 95W Tdp ci facciamo stare massimo 12CC, e di conseguenza scendiamo.
Fx Apu 12CC= 8cpu + 4gpu 170/150€ 95W
Fx Apu 10CC= 6cpu + 4gpu 140/120€ 65W
A10 12CC=4Cpu + 8Gpu 150/130€ 95W
A8 10CC= 4cpu + 6gpu 100/80€ 65W
A6 8CC= 2cpu + 6gpu 70/50€ 45W
A4 6CC= 2cpu + 4gpu 50/30€ 35W
In questo modo, si avrebbero in fascia alta (fx) apu dove la parte cpu è piu preminente, in modo che a chi non interessa la dedicata abbiano una scelta valida, e allo stesso tempo quando ci sarà Hsa avranno un minimo di gpu per sfruttarla.
Allo stesso modo, a chi non interessa la dedicata, avrebbero soluzioni AIO ben bilanciate tra cpu e gpu.
Grazie a tutti per le delucidazioni. A quanto pare l'fx8120 mi fara compagnia ancora fino al 2016.
Mi fa soprattutto piacere che nel thread nonostante i mesi passati l'aria non è mai cambiata fra alcuni utenti vs altri :D
Vi seguo... ;)
paolo.oliva2
10-09-2014, 06:30
si tutto giusto, ma quando decolla HSA?...
lo so ci va tempo e non è una provocazione la mia, ma a detta di chi ne sa (e non sono io :asd: ) è comunque utopico sperare che HSA risolva i problemi e che sia tutto parallelizzabile o gestibile via igpu o stream processor, ed per quello che stanno mettendo giù una architettura tutta nuova insieme a Keller ad esempio... si spera di rivivere i fasti di k7 e k8...
PS. comunque quando ha comprato ATI il progetto HSA non esisteva, esisteva il concetto APU ed HSA è un consorzio, non è di proprietà AMD, dietro c'è pure ARM ed è importante... ma i frutti? :stordita: è lunga la sonata...
beh certo per lo meno con ATI ora AMD rivaleggia nel mercato GPU, sia consumer che professional anche se arranca un po' li, ed è recente la notizia che Matrox utilizzerà GPU made in AMD customizzate per i viewport estremi da esempio 12 monitor (AMD con Eyefinity arriva a 6 monitor)
Io non ho le basi per poter comprendere quanto è paralllelizzabile e quanto non lo è, ma la situazione di oggi è che la stragrande maggioranza degli utilizzatori di PC potrebbe avere tranquillamente un Sempron, e qui il discorso IPC è praticamente nullo. Poi c'è la fascia gamer, che nel caso di 1 VGA non c'è differenza tra acquistare Intel o AMD (quindi la stragrande maggioranza) e la fascia professionale dove si cerca la massima potenza e qui può esistere solamente Intel.
Valutando che la differenza di IPC tra AMD ed Intel si assottiglierà sempre più (come lo si vede dal trend Zambesi-SB, Piledriver-IVY e Steamroller-Haswell, discorso frequenza def a parte perchè dipendente dal silicio), la scelta in base alla potenza dovrebbe assumere una importanza inferiore, e valutando un futuro che vedrà APU e non più solo X86, un procio APU-HSA renderebbe più competitiva AMD nella fascia professionale (nel caso prg con supporto HSA) e, credo, un miglioramento nel settore gaming, quindi praticamente HSA di fatto consentirebbe ad AMD di acquisire fette di mercato altrimenti negate.
Ma non è solamente un discorso HSA, ma dell'insieme, secondo me il futuro dovrebbe vedere un APU AMD conservare il margine di vantaggio nella grafica e diminuire la differenza IPC... quindi comunque un prodotto più competitivo di quello che è oggi il confronto Kaveri-Intel. A questo si aggiunge un supporto nativo HSA che oggi di fatto quasi non esiste, sia per la quasi assenza di programmi che supportano HSA e sia perchè l'implementazione hardware di HSA su Kaveri è ancora parziale.
Se AMD mantenesse sempre competitivo il listino, è ovvio che avrebbe un prodotto molto più competitivo di quello che offre oggi... quindi, a parte la potenza commerciale del marchio Intel, le cose dovrebbero/potrebbero cambiare, HSA sarebbe solo una ciliegina sulla torta... che può essere più o meno grossa, perchè si potrebbe stravolgere tutto il mercato. Oggi il dektop esiste perchè concede una potenza superiore rispetto al mobile... domani, un portatile "normale" potrebbe essere più potente del desktop (sempre con HSA dove utilizzabile), e di fatto eliminare la spesa del desktop (pre-figurando l'acquisto tipo desktop + mobile).
P.S. OT
Tu che conosci meglio i prodotti Intel... come mai l'E5-2667v3 è 135W TDP X8 3,2GHz mentre il 5960X è 140W X8 per 3GHz? Comunque il 22nm Intel è pazzesco per essere un bulk... da X8 a X12 perdendo solamente 600MHz di clock, X18 nei 145W a 2,3GHz e un X12, seppur a 1,8GHz, nei 65W. ... voglio vedere GF e altri realizzare un Bulk così... praticamente ha più TDP un Kaveri X4 a 3GHz che un X12 a 1,8GHz, con 660mm2 di die.
nardustyle
10-09-2014, 07:52
P.S. OT
Tu che conosci meglio i prodotti Intel... come mai l'E5-2667v3 è 135W TDP X8 3,2GHz mentre il 5960X è 140W X8 per 3GHz? Comunque il 22nm Intel è pazzesco per essere un bulk... da X8 a X12 perdendo solamente 600MHz di clock, X18 nei 145W a 2,3GHz e un X12, seppur a 1,8GHz, nei 65W. ...
le versioni xeon sono le prime che vengono smerciate, i desk sono gli scarti , comunque uno costa il doppio dell'altro ma non è sbloccato mi sembrano il minimo 200mhz e 100 in turbo :D
io son rimasto quasi incredulo che abbiano fatto 2 pp uno a 8 core e uno a 18
quando amd non ha il denaro per cambiare i core degli fx tenendo lo stello progetto :D
su un'apu puoi mettere l'hsa ma chi lo implementa se vi mettono a vendere processori che vanno meglio in x86
18core 36 thread si mangiano l'apu pure con l'hsa, basta che quando vuole abbassi i prezzi (e puo farlo)
nardustyle
10-09-2014, 08:48
in che senso 2 PP?
si fa capire molte cose di come stanno messi economicamente :help:
se intendi i die sono tre, come scritto prima, da li ci fanno uscire le versione minori esempio a 16/14 core (dal x18) o 10 core (dal x12) o 6/4 core (dal x8)
a si mi ero dimenticato del'x12 :D
è già!!! già sono li li con 4 core senza altro ... e quasi dominano il mercato con quelli
gli restano 14 core e 18thread di vantaggio :sofico:
capitan_crasy
10-09-2014, 09:43
Rory Read CEO di AMD ha svelato il nuovo nome in codice della nuova architettura X86 ad alte prestazioni: "ZEN"!
La nuova architettura x86 sarà presentata entro il 2016 al fianco delle soluzioni ARM+X86 nome in codice K12.
Il CEO continua dicendo che ZEN dovrebbe essere prodotta con tecnologia FinFET, con transizioni future a 14 e 10nm; ce la possibilità che la prima versione di ZEN potrebbe essere prodotta con i 16nm, silicio proveniente da TSMC.
Ricordo che secondo le ultime voci la nuova architettura X86 AMD dovrebbe adottare uno stile "Simultaneous Multi Threading" o SMT, quindi con core di grandi dimensioni e ad alta efficienza.
Rory Read non ha per niente accennato al nodo 20nm quindi almeno per le attuali soluzioni con architettura Bulldozer AMD continuerà ad utilizzare gli attuali 32nm SOI e 28nm bulk almeno fino al 2016.
Nel 2015 rimangono ancora in roadmap le soluzioni AMD Skybridge (ARM+X86 AMD) a 20nm previsti per il mercato server.
Clicca qui... (http://wccftech.com/breaking-amds-gen-x86-high-performance-core-code-named-zen-debut-k12/)
HadesSaint
10-09-2014, 09:50
quindi da qui al 2016 si avra solo qualche aggiornamento lato FX lol?
tra l'altro c'è anche questo articolo postato 2 settimane fa:
http://wccftech.com/amd-discusses-gen-fx-cpus-20nm-gpus-5way-crossfirex-freesync-ddr4/
°Phenom°
10-09-2014, 10:08
Rory Read CEO di AMD ha svelato il nuovo nome in codice della nuova architettura X86 ad alte prestazioni: "ZEN"!
La nuova architettura x86 sarà presentata entro il 2016 al fianco delle soluzioni ARM+X86 nome in codice K12.
Il CEO continua dicendo che ZEN dovrebbe essere prodotta con tecnologia FinFET, con transizioni future a 14 e 10nm; ce la possibilità che la prima versione di ZEN potrebbe essere prodotta con i 16nm, silicio proveniente da TSMC.
Ricordo che secondo le ultime voci la nuova architettura X86 AMD dovrebbe adottare uno stile "Simultaneous Multi Threading" o SMT, quindi con core di grandi dimensioni e ad alta efficienza.
Rory Read non ha per niente accennato al nodo 20nm quindi almeno per le attuali soluzioni con architettura Bulldozer AMD continuerà ad utilizzare gli attuali 32nm SOI e 28nm bulk almeno fino al 2016.
Nel 2015 rimangono ancora in roadmap le soluzioni AMD Skybridge (ARM+X86 AMD) a 20nm previsti per il mercato server.
Clicca qui... (http://wccftech.com/breaking-amds-gen-x86-high-performance-core-code-named-zen-debut-k12/)
Speriamo ne esca fuori qualcosa di ottimo, sono fiducioso ;)
Rory Read CEO di AMD ha svelato il nuovo nome in codice della nuova architettura X86 ad alte prestazioni: "ZEN"!
La nuova architettura x86 sarà presentata entro il 2016 al fianco delle soluzioni ARM+X86 nome in codice K12.
Il CEO continua dicendo che ZEN dovrebbe essere prodotta con tecnologia FinFET, con transizioni future a 14 e 10nm; ce la possibilità che la prima versione di ZEN potrebbe essere prodotta con i 16nm, silicio proveniente da TSMC.
Ricordo che secondo le ultime voci la nuova architettura X86 AMD dovrebbe adottare uno stile "Simultaneous Multi Threading" o SMT, quindi con core di grandi dimensioni e ad alta efficienza.
Rory Read non ha per niente accennato al nodo 20nm quindi almeno per le attuali soluzioni con architettura Bulldozer AMD continuerà ad utilizzare gli attuali 32nm SOI e 28nm bulk almeno fino al 2016.
Nel 2015 rimangono ancora in roadmap le soluzioni AMD Skybridge (ARM+X86 AMD) a 20nm previsti per il mercato server.
Clicca qui... (http://wccftech.com/breaking-amds-gen-x86-high-performance-core-code-named-zen-debut-k12/)
Bella notizia, speriamo sia vero che mollino quei paracarri di GF....
Inviato dal mio GT-I9505 usando Tapatalk 4
vegitto4
10-09-2014, 10:34
intanto, se come si è visto il 22nm intel è eccezionale, guardate i nuovi 14nm a basso consumo. Le prestazioni sono assurde x essere un soc con tdp di 4.5w.
http://www.pcper.com/reviews/Processors/IDF-2014-Intel-Shows-Core-M-5Y70-Performance-Numbers
Superano agevolmente cpu e apu con tdp di 4-5 volte superiori.
Chissà cosa vedremo con le declinazioni ad alto tdp dei 14nm (broadwell e skylake). Tra l'altro skylake dimostrato ieri dal vivo all'idf. Il responsabile Intel ha detto che è un grande miglioramento sotto tutti i punti di vista.
E anche che la roadmap a 10nm non è cambiata e che arrivano nel 2016 con cannonlake (shrink di skylake).
Se AMD sarà competitiva nel 2016 ci sarà una guerra di prezzi ottima x noi consumatori. Bisogna capire se potranno competere con tutta la carne al fuoco che sta mettendo Intel.
capitan_crasy
10-09-2014, 10:42
Bella notizia, speriamo sia vero che mollino quei paracarri di GF....
Inviato dal mio GT-I9505 usando Tapatalk 4
La cosa migliore è di utilizzare entrambe le FAB, tuttavia non è molto chiaro la questione 16nm vs 14nm.
Nel senso che nel 2016 sembra troppo presto per i 14nm per entrambe le FAB (sicuramente per i 10nm) ma che utilizzi i 16nm di TSMC è solo un ipotesi basata sui presunti tempi di sviluppo del silicio...
Secondo me i K12 saranno prodotti da TSMC mentre le soluzioni ZEN resteranno in casa GF...
vegitto4
10-09-2014, 11:32
se quei risultati sono confermati (e sembra di si, c'è anche un'altra review su hothardware), sono realmente impressionanti, e questo 14nm con broadwell e maggiormente con skylake darà tante soddisfazioni, anche lato gpu. Con questi core-m ad esempio i nuovi amd beema e mullins vengono letteralmente spazzati via, anche kaveri mobile. Chiaro bisognerà vedere i prezzi
AceGranger
10-09-2014, 13:10
ma come diavolo sono possibili quei risultati a quel TDP?... boh mi pare impossibile... si lo dicevano pure per i 14nm che la roadmap non era cambiata, e poi...
guardando come si sono tenuti l'asso nella manica di ben 18 core con i 22nm non mi stupisco piu di nulla.
immagino gli Atom su 14nm cosa saranno, se riuscira nel breve tempo a integrare tutto nel soc recuperera anche nel mercato smartphone.
°Phenom°
10-09-2014, 13:16
Secondo me broadwell sará un minor update abbastanza trascurabile, almeno nella fascia desktop, visto che sará rivolto soprattutto al mobile. Le vere novitá by Intel ci saranno con Skylake e il successore Cannonlake
ok che in casa amd si deve aspettare e sperare....ma se volevo sapere tutto sulle novità intel,mi cercavo il thread apposito...:D
ma come diavolo sono possibili quei risultati a quel TDP?... boh mi pare impossibile... si lo dicevano pure per i 14nm che la roadmap non era cambiata, e poi...
quindi riassumendo:
2015 32nm FX, 28nm Carrizo APU per desktop (in poche parole il progetto BD lasciato alla deriva e a morire) e 20nm Skybridge (x86 o ARM a seconda del cliente) SoC per Server?
ma nel mobile o desktop low power invece? Puma+ a 20nm di TSMC?
il core x86 di Skybridge su che base sarà, la stessa di Puma+ presumo giusto?
invece la variante ARM sarà sulla prima architettura nativa by AMD a 64bit della serie v8, Cortex-A57 e Cortex-A53?
Sempre ieri hanno confermato l uscita di skylake a meta 2015, quindi ci sarà un sovrapporsi tra btoadwell e appunto skylake recuperando cosi il ritardo accumulato.
Sempre ieri hanno confermato l uscita di skylake a meta 2015, quindi ci sarà un sovrapporsi tra btoadwell e appunto skylake recuperando cosi il ritardo accumulato.
Beh no hanno dato come periodo il 2H, quindi potrebbe essere giugno come novembre, anche perchè nessuno acquisterebbe i broadwell-k in uscita tra qualche mese a distanza di neanche 6 mesi da skylake. In ogni caso spero che Amd abbia la decenza di far uscire Carrizo desktop, sarebbe imbarazzante combattere i 14 nm con gli Fx 2012 32nm e Kaveri 2014 28nm nel 2015. Almeno le nuove Apu DEVE presentarle, anche se saranno da 28nm.
intanto, se come si è visto il 22nm intel è eccezionale, guardate i nuovi 14nm a basso consumo. Le prestazioni sono assurde x essere un soc con tdp di 4.5w.
http://www.pcper.com/reviews/Processors/IDF-2014-Intel-Shows-Core-M-5Y70-Performance-Numbers
Superano agevolmente cpu e apu con tdp di 4-5 volte superiori.
Chissà cosa vedremo con le declinazioni ad alto tdp dei 14nm (broadwell e skylake). Tra l'altro skylake dimostrato ieri dal vivo all'idf. Il responsabile Intel ha detto che è un grande miglioramento sotto tutti i punti di vista.
E anche che la roadmap a 10nm non è cambiata e che arrivano nel 2016 con cannonlake (shrink di skylake).
Se AMD sarà competitiva nel 2016 ci sarà una guerra di prezzi ottima x noi consumatori. Bisogna capire se potranno competere con tutta la carne al fuoco che sta mettendo Intel.
Beh c'è da dire che anche Amd ne ha messa parecchia sul fuoco, tra nuovo x86, skybridge, k12, carrizo ecc. SE rispetta le roadmap, il 2015 sarà un anno molto divertente, e il 2016 con la nuova archi x86 ancora di piu
Beh no hanno dato come periodo il 2H, quindi potrebbe essere giugno come novembre, anche perchè nessuno acquisterebbe i broadwell-k in uscita tra qualche mese a distanza di neanche 6 mesi da skylake. In ogni caso spero che Amd abbia la decenza di far uscire Carrizo desktop, sarebbe imbarazzante combattere i 14 nm con gli Fx 2012 32nm e Kaveri 2014 28nm nel 2015. Almeno le nuove Apu DEVE presentarle, anche se saranno da 28nm.
Hai ragione, avevo letto male la notizia
paolo.oliva2
10-09-2014, 19:09
Finalmente stamattina presto ho avuto a disposizione i famosi 5 minuti... e devo dire che sono bastati!
Ho potuto fare solo una prova veloce ma pare reggere @4.7 e 1.42v. Solo non ho trovato nel bios il settaggio "phase extreme".
Ora però c'è un problema... hai risvegliato in me l'antico demone dell'overclocker! :D
Non avevo intenzione di acquistare una CPU nuova, però visto che di fatto ce l'avevo in casa... ma mi piacerebbe tweakkarla il più possibile! Cosa devo fare per provare i 5Ghz?
E per settare i vari Pstate per avere una 9590FX a tutti gli effetti?
Ed il NB? Mi pare di ricordare che oltre una certa soglia di Mhz andava alzato pure quello...
Non mi puoi lasciare a metà del lavoro eh!! ;)
Baio
Per i 5GHz dipende come li vuoi... per benchare, per RS o per RS DU?
Ti dico subito che il prb (a parte la mobo e ali) è unicamente la dissipazione.
Se prendi i 4,7GHz a 1,42V (che è ottimo), è possibile ottenere i 5GHz con 1,5V (il mio a 1,42V è sui 4,5GHz, 200MHz meno del tuo, e per i 5GHz il mio vuole 1,525V in condizionali normali e 1,55V in stracarico, ma il mio impianto (in Italia) non mi permette di reggere il DU oltre 1,525V (inteso nel funzionamento 24h/24)).
Il prb è che 1,475V è il max circa per un raffreddamento TOP ad aria, quindi il prb RS non sta nei core ma nelle temp... se raffreddato correttamente, basta impostare 1,55V sui core ed il molti a 25X e il sistema boota ed è RS.
La frequenza NB è più che sufficiente anche per 5,2GHz, perchè ho benchato con Cinebench a NB 2,2GHz con DDR3 1600 facendo 9 e con NB 2,4GHz e DDR3 2,4GHz ed ho fatto sempre 9, quindi ti consiglierei di non toccare la frequenza NB rischiando una instabilità per miglioramento zero, come del resto non metterei il Vcore NB oltre 1,2V (anche se leggo di Vcore NB a 1,225V ed anche 1,25V), perchè comunque alzeresti le temp del procio... quindi è una cosa per me da farsi unicamente in caso di instabilità.
123ddssgga
10-09-2014, 19:12
Rory Read CEO di AMD ha svelato il nuovo nome in codice della nuova architettura X86 ad alte prestazioni: "ZEN"!
La nuova architettura x86 sarà presentata entro il 2016 al fianco delle soluzioni ARM+X86 nome in codice K12.
Il CEO continua dicendo che ZEN dovrebbe essere prodotta con tecnologia FinFET, con transizioni future a 14 e 10nm; ce la possibilità che la prima versione di ZEN potrebbe essere prodotta con i 16nm, silicio proveniente da TSMC.
Ricordo che secondo le ultime voci la nuova architettura X86 AMD dovrebbe adottare uno stile "Simultaneous Multi Threading" o SMT, quindi con core di grandi dimensioni e ad alta efficienza.
Rory Read non ha per niente accennato al nodo 20nm quindi almeno per le attuali soluzioni con architettura Bulldozer AMD continuerà ad utilizzare gli attuali 32nm SOI e 28nm bulk almeno fino al 2016.
Nel 2015 rimangono ancora in roadmap le soluzioni AMD Skybridge (ARM+X86 AMD) a 20nm previsti per il mercato server.
Clicca qui... (http://wccftech.com/breaking-amds-gen-x86-high-performance-core-code-named-zen-debut-k12/)
quindi FX tutta la vita !!!
almeno fino al 2016 :asd: :asd: :asd:
paolo.oliva2
10-09-2014, 19:49
Faccio un discorso OT sul 22nm/Haswell per riallacciarmi a quanto dicevo sulla gestione TDP di AMD.
Un 8350 è 125W TDP per i 4GHz, e siccome AMD garantisce il non sforamento in qualsiasi condizione, è palese che sia in condizione di stracarico e con una temp procio vicina alla massima consentita (effetto Joule che aumenta il TDP).
Haswell ha un circuito certosino di controllo istantaneo del TDP. Ho notato che nel 5960X (ma anche nei proci server) il turbo non prevede mai tutti i core, ma 6 su 8. Da questo cosa si dedurrebbe? Che la frequenza def su tutti i core sarebbe già la max (e non come AMD che prevede da 4GHz a 4,1GHz su tutti i core).
Mi viene da supporre, a questo punto, che tutta la gestione certosina del consumo/temp istantaneo di ogni core (e disgiunto dagli altri) impostata a 3GHz per il 5960X def siano su un carico "normale" del 100% e in condizione di stracarico la frequenza possa diminuire (ma sempre al 99,99% dei 140W TDP nominali (cosa che capita in OC oltre i 4,1/4,2GHz ma per il controllo temp più che nello sforamento TDP, in quanto il 5960X è libero all'OC)
Se collegassimo questo all'8350, basta notare 3 cose: il Vcore def è in grado di portare l'8350 a 4,4GHz in tutta tranquillità, ma sforerebbe i 125W TDP in condizione di stracarico, ed una gestione all'Intel potrebbe portare la frequenza come X8 a 4GHz, che del resto è la frequenza garantita in qualsiasi situazione.
Per evitare incomprensioni, il mio post non è contro Intel e/o a favore di AMD, ma soltanto nella gestione frequenza procio sfruttando il 99,99% del TDP, cosa che Intel fa (indipendentemente se io suppongo che possa diminuire le frequenze def) e AMD no... del resto un 5960X TDP e non TDP lo si può tenere a 4GHz ad aria in tranquillità, quindi se poi i 3GHz def variassero fino a 2,8GHz in caso di carico, non svaluterebbe di certo il prodotto.
Lights_n_roses
10-09-2014, 22:44
quindi nel 2016 ci sarà un processore AMD x86 con architettura Zen e processo produttivo a 16 nm, intel che processo produttivo avrà nel 2016? ( per fare un confronto! )
P.S. Mi sa che è giunta l'ora di cambiare il titolo del thread!! Tanto ormai steamroller e altra roba su am3+ non ci arriverà più!
george_p
10-09-2014, 22:47
Rory Read CEO di AMD ha svelato il nuovo nome in codice della nuova architettura X86 ad alte prestazioni: "ZEN"!
La nuova architettura x86 sarà presentata entro il 2016 al fianco delle soluzioni ARM+X86 nome in codice K12.
Il CEO continua dicendo che ZEN dovrebbe essere prodotta con tecnologia FinFET, con transizioni future a 14 e 10nm; ce la possibilità che la prima versione di ZEN potrebbe essere prodotta con i 16nm, silicio proveniente da TSMC.
Ricordo che secondo le ultime voci la nuova architettura X86 AMD dovrebbe adottare uno stile "Simultaneous Multi Threading" o SMT, quindi con core di grandi dimensioni e ad alta efficienza.
Rory Read non ha per niente accennato al nodo 20nm quindi almeno per le attuali soluzioni con architettura Bulldozer AMD continuerà ad utilizzare gli attuali 32nm SOI e 28nm bulk almeno fino al 2016.
Nel 2015 rimangono ancora in roadmap le soluzioni AMD Skybridge (ARM+X86 AMD) a 20nm previsti per il mercato server.
Clicca qui... (http://wccftech.com/breaking-amds-gen-x86-high-performance-core-code-named-zen-debut-k12/)
Tutto molto bello e interessante e credo molto nei nuovi progetti di amd nonostante il "flop" di BD, ma fino ad allora non ci danno nemmeno carrizo su desktop? Manco un sei core?
.....
°Phenom°
10-09-2014, 23:02
Carrizo desktop dovrebbe uscire comunque
feldvonmanstein
10-09-2014, 23:08
quindi nel 2016 ci sarà un processore AMD x86 con architettura Zen e processo produttivo a 16 nm, intel che processo produttivo avrà nel 2016? ( per fare un confronto! )
P.S. Mi sa che è giunta l'ora di cambiare il titolo del thread!! Tanto ormai steamroller e altra roba su am3+ non ci arriverà più!
Aspettando "ZEN" :D
è tempo di meditare gente ! :O
ps : Nome azzeccato, La prima ad aver meditato parecchio sarà stata AMD visto che a quanto pare cambieranno approccio; non più CMT ma SMT..
°Phenom°
10-09-2014, 23:30
Il passaggio dal cmt all'smt per la nuova arch ormai si sapeva da mesi, purtroppo il cmt per quanto buono come idea, ha avuto fin troppi problemi, sia architetturali che a livello di pp, per cui inutile continuare ad investirci sù, ci sarebbe troppo da dover recuperare, meglio investire su una nuova arch che promette bene ;)
P.s. speriamo che l'aver meditato dia i frutti sperati :asd:
AceGranger
11-09-2014, 08:39
ps : Nome azzeccato, La prima ad aver meditato parecchio sarà stata AMD visto che a quanto pare cambieranno approccio; non più CMT ma SMT..
bè era palese che avrebbero cestinato in toto il fail di BD; anche togliendo i problemi del pp si è dimostrato totalmente inadeguato.
paolo.oliva2
11-09-2014, 09:52
Il CMT, almeno come concetto, rimarrà in vita alla grande, perchè un APU in chiave hardware con supporto HSA, rispecchia pur sempre la filosofia CMT, inglobando la parte X86 alla parte IGP.
Lo stragrande problema di AMD è stato quello di non avere un procio che permettesse una potenza MT superiore alla fascia X4 Intel, e questo lo è stato per il silicio (gli FX erano previsti tutti a 95W TDP tranne il top a 125W, che sarebbe dovuto essere un FX a frequenze simili al 9590 oppure l'X10).
Con questo non voglio di certo dire che sarebbero state tutte rose e fiori, ma un conto è vendere un procio 8350 sotto ad un 4770K in tutto, un altro lo stesso procio ma con un +10% di ST e +30% e passa di MT, perchè in MT lo avrebbe posizionato nella fascia superiore Intel, con ovvi migliori guadagni, sia in ambito desktop che server.
A questo va aggiunto che il 32nm SOI doveva passare al 22-20nm, con ulteriori guadagni sia in prestazioni (tra architettura e numero core) che nei consumi, e questo non è stato possibile, ed ha gambizzato AMD perchè non ha previsto alternative... e la situazione 28nm Bulk è ben conosciuta.
Se tutto fosse andato liscio, oggi avremmo un 20-22nm SOI, ed un prodotto che pur essendo sul CMT avrebbe un +10% di IPC su Piledriver (Steamroller, se non di più con Exavator) ed un numero di core di almeno 12, con una potenza massima almeno +10% di ST e oltre il 60% in MT.
Il confronto CMT e procio con più IPC lo abbiamo avuto con Llano (IPC stile Phenom II ma con passaggio dal 45nm al 32nm) ed è stato catastrofico, permettendo solamente 3GHz di frequenza contro un Richland-Piledriver che raggiungeva i 4,1GHz (allo stesso TDP). Questo dimostra che l'architettura BD a parità di silicio offriva di più di quella Phenom II, perchè Llano ha una potenza ST (IPC * frequenza) inferiore a Richland e perchè il CMT permetteva un +25% di core e quindi un valore superiore di potenza rispetto alla perdita del CMT. Un BD X8 è X8 non per il 32nm, ma per il CMT, semplicemente perchè altrimenti LLano, pur essendo APU, poteva anche essere un Thuban + IGP, e, viceversa, BD è rimasto X8 non per il CMT, ma perchè il 32nm SOI non ha potuto permettere l'X10.
AceGranger
11-09-2014, 10:08
Il CMT, almeno come concetto, rimarrà in vita alla grande, perchè un APU in chiave hardware con supporto HSA, rispecchia pur sempre la filosofia CMT, inglobando la parte X86 alla parte IGP.
Lo stragrande problema di AMD è stato quello di non avere un procio che permettesse una potenza MT superiore alla fascia X4 Intel, e questo lo è stato per il silicio (gli FX erano previsti tutti a 95W TDP tranne il top a 125W, che sarebbe dovuto essere un FX a frequenze simili al 9590 oppure l'X10).
Con questo non voglio di certo dire che sarebbero state tutte rose e fiori, ma un conto è vendere un procio 8350 sotto ad un 4770K in tutto, un altro lo stesso procio ma con un +10% di ST e +30% e passa di MT, perchè in MT lo avrebbe posizionato nella fascia superiore Intel, con ovvi migliori guadagni, sia in ambito desktop che server.
A questo va aggiunto che il 32nm SOI doveva passare al 22-20nm, con ulteriori guadagni sia in prestazioni (tra architettura e numero core) che nei consumi, e questo non è stato possibile, ed ha gambizzato AMD perchè non ha previsto alternative... e la situazione 28nm Bulk è ben conosciuta.
Se tutto fosse andato liscio, oggi avremmo un 20-22nm SOI, ed un prodotto che pur essendo sul CMT avrebbe un +10% di IPC su Piledriver (Steamroller, se non di più con Exavator) ed un numero di core di almeno 12, con una potenza massima almeno +10% di ST e oltre il 60% in MT.
Il confronto CMT e procio con più IPC lo abbiamo avuto con Llano (IPC stile Phenom II ma con passaggio dal 45nm al 32nm) ed è stato catastrofico, permettendo solamente 3GHz di frequenza contro un Richland-Piledriver che raggiungeva i 4,1GHz (allo stesso TDP). Questo dimostra che l'architettura BD a parità di silicio offriva di più di quella Phenom II, perchè Llano ha una potenza ST (IPC * frequenza) inferiore a Richland e perchè il CMT permetteva un +25% di core e quindi un valore superiore di potenza rispetto alla perdita del CMT. Un BD X8 è X8 non per il 32nm, ma per il CMT, semplicemente perchè altrimenti LLano, pur essendo APU, poteva anche essere un Thuban + IGP, e, viceversa, BD è rimasto X8 non per il CMT, ma perchè il 32nm SOI non ha potuto permettere l'X10.
anche portando l'8350 a 5-5,5 GHz e fregandocene totalmente dei consumi NON va quanto sarebbe dovuto andare; e altro che il 4 core, minimo doveva andare come il 6 core visto che Intel ha viaggiato e sta viaggiando con il freno a mano tirato; l'8 core era atteso almeno un anno fa, ma ovviamente si è guardata bene dal lanciarlo.
george_p
11-09-2014, 12:09
2015: FX_Vishera 32nm, APU_Carrizo 28nm, e Skybridge (x86/ARM) 20nm... in più io aggiungo la versione Puma+ a 20nm successore di Puma che se la vedrà contro i 14nm di Intel come questi Core-M presentati, che mi hanno lasciato di stucco :stordita: ... solo che costa 280$...
alla fine il CMT si è dimostrato inadeguato coi tempi che corrono, anche in chiave server...
Ma che Carrizo ci sia nel 2015 lo si sa, è che non ci sarà su desktop e tanto meno oltre i 4 core...
Il CMT è stato mal progettato poco ma sicuro, si fossero degnati di implementare la tecnologia ibm del muoltithreading forse forse avrebbero creato qualcosa di mostruoso ma si sono puntati con la superiorità del CMT in realtà mai vista, e non riesco a spiegarmi proprio come abbiano fatto a puntarsi su qualcosa che non era.
epimerasi
11-09-2014, 13:59
Ma che Carrizo ci sia nel 2015 lo si sa, è che non ci sarà su desktop e tanto meno oltre i 4 core...
Il CMT è stato mal progettato poco ma sicuro, si fossero degnati di implementare la tecnologia ibm del muoltithreading forse forse avrebbero creato qualcosa di mostruoso ma si sono puntati con la superiorità del CMT in realtà mai vista, e non riesco a spiegarmi proprio come abbiano fatto a puntarsi su qualcosa che non era.
Ma è ovvio, per presentare una piattaforma CPU only AMD sta aspettando l'affermazione delle DD4.
L'AM3+ ormai è troppo vecchio per puntarci ed evidentemente ritengono ancora troppo prematuro presentare una nuova piattaforma (oltre che probabilmente non ancora pronta).
°Phenom°
11-09-2014, 14:02
Ma che Carrizo ci sia nel 2015 lo si sa, è che non ci sarà su desktop e tanto meno oltre i 4 core...
Il CMT è stato mal progettato poco ma sicuro, si fossero degnati di implementare la tecnologia ibm del muoltithreading forse forse avrebbero creato qualcosa di mostruoso ma si sono puntati con la superiorità del CMT in realtà mai vista, e non riesco a spiegarmi proprio come abbiano fatto a puntarsi su qualcosa che non era.
Sicuro non esca in versione desktop Carrizo? :mbe:
george_p
11-09-2014, 14:13
Scusate ragazzi mi son perso un pò in questi mesi tra tutte le millemila informazioni, non ricordo più se l'uscita desktop non avverrà nel 2014 o nel 2015, in ogni caso anche se carrizo esce in versione desktop nel 2015 non ho ancora visto nulla di uffioso o ufficiale dove viene indicato almeno una sua versione con più di 4 cores.
Un beneficio del 30% a parità di tdp era l'info per i mobile ed entro un certo tdp, sono rimasto dieci giorni senza internet e non ho letto ulteriori news a riguardo ma mi sembra che oltre allo ZEN del 2016 (02017?) Amd non stia meditando su altro nel brevissimo futuro.
Se arm sostituirà gli fx nel 2015 come potenza ben venga, perché sinceramente un octa core vecchio come PD lo escludo per un mio prossimo investimento.
Due anni però fino alla prossima architettura x86 sono davvero pesantissimi da trascorrere con sole apu 4X.
Scusate ragazzi mi son perso un pò in questi mesi tra tutte le millemila informazioni, non ricordo più se l'uscita desktop non avverrà nel 2014 o nel 2015, in ogni caso anche se carrizo esce in versione desktop nel 2015 non ho ancora visto nulla di uffioso o ufficiale dove viene indicato almeno una sua versione con più di 4 cores.
Un beneficio del 30% a parità di tdp era l'info per i mobile ed entro un certo tdp, sono rimasto dieci giorni senza internet e non ho letto ulteriori news a riguardo ma mi sembra che oltre allo ZEN del 2016 (02017?) Amd non stia meditando su altro nel brevissimo futuro.
Se arm sostituirà gli fx nel 2015 come potenza ben venga, perché sinceramente un octa core vecchio come PD lo escludo per un mio prossimo investimento.
Due anni però fino alla prossima architettura x86 sono davvero pesantissimi da trascorrere con sole apu 4X.
Le novità amd a breve termine, per il desktop, mi sembra che siano molto... molto limitate, ma penso che per la maggior parte degli utenti un buon quad core sia più che sufficente... purtroppo chi usa molti core, magari in ambito professionale, dovrà rivolgersi altrove :stordita:
personalmente con il pc nn faccio niente di trascendentale, ma passando da 6 a 8 core (6300/8350) alla stessa frequenza nn ho avuto differenze tangibili, l'unica cosa é che mi sono abituato a fare più cose contemporaneamente... e mi piace... nn vorrei perdere la capacità di sopportare i carichi degli FX.
;) ciauz
Smt... :eh: :yeah:
Spero in qualcosa tipo... Amd Phenom III X6
Aspettando "ZEN" :D
è tempo di meditare gente ! :O
ps : Nome azzeccato, La prima ad aver meditato parecchio sarà stata AMD visto che a quanto pare cambieranno approccio; non più CMT ma SMT..
Tutto è possibile, ma una cosa possono essere le aspettative o le evidenze, una cosa possono essere che la filosofia resta sempre quella.
Partendo da una specie di antitesi di base che è il cmt, cerchiamo di separare ciò che si vede oggi da ciò che si potrebbe vedere domani.
Cioè qualsiasi concezione di sfruttamento per il multi-threads, aiutato dal multicore come progettazione, qualsiasi concezione che si scelga come via, alla fine tutto si dovrebbe livellare, nel senso che il numero di thrad ''circa'' max non dipende più solo dal vantaggio, ma dal punto finale, che nella concezione amd cme ancora non è giunta a compimento, mentre nel smt è gia evoluto , ed aggiungerei pure più raffinato; ovvero il cmt è una cosa si, ''trascinata'' nel mondo desktop amd con gli fx, però il cmq nasce per essere fuso con le gpu...difatti si assiste ad un avanzamento nel settore apu e quasi nulla nel desktop fascia alta amd;come si potrebbe catalogare la cosa?
Il cmt è un modo di affrontare un ''multi-thread'' in modo da eseguirne in maniera indipendentemente ogni thread...indipendentemente da ''tutto'', della lentenza di esecuzione e quant'altro.
Questa diciamo così ''natura'' si traduce ad avere un multi-task ''pulito'' indipendentemente dalla potenza di ogni core.
Cercare di cancellare il progetto bulldozer si tradurrebbe alla pre-fusione, perchè avendo un 20nm, è difficile che amd non faccia un APU x8(sicuramente di evoluzione excavator come core x86); a questo punto, un 8 core a + 25% medio di ipc + la scalabilità in aggiunta, avremo sempre e comunque un st a cineb11.5 di circa 1,5 + un relativo lievitamento a 1,6/1,7 in base alloverclock max raggiunto+ ddr47ddr5 + gpu da almeno 2,5 teraflops di potenza grafica.
Ecco allora crederei così l'abbandono di bulldozer, che non dimentichiamoci è destino a scomparire dentro l'apu.
Non crediamo mica che un 8 core excavator, lasciando stare il cineben11,5, crederesti che sia molto distante da un 8 core smt?
Poi in quanto a multitask, come la mettiamo?Magari con un APU X8 Amd 20nm riuscirò a fare il doppio di quello che faccio oggi con bulldozer x8 core e tutto finisce lì....sempre a 5ghz:D
Alla peggio ''siamo'' sopra un x6 smt.;) ....ma una gpu deve avere un ''co-processore'' che abbia un certo parallelismo(più o meno si intende come multi-task) altrimenti non avremo il bilanciamento necessario che dià il max dalla gpu, cioè il settore APU amd desktop ne è un esempio.
george_p
11-09-2014, 15:38
Le novità amd a breve termine, per il desktop, mi sembra che siano molto... molto limitate, ma penso che per la maggior parte degli utenti un buon quad core sia più che sufficente... purtroppo chi usa molti core, magari in ambito professionale, dovrà rivolgersi altrove :stordita:
personalmente con il pc nn faccio niente di trascendentale, ma passando da 6 a 8 core (6300/8350) alla stessa frequenza nn ho avuto differenze tangibili, l'unica cosa é che mi sono abituato a fare più cose contemporaneamente... e mi piace... nn vorrei perdere la capacità di sopportare i carichi degli FX.
;) ciauz
Si infatti a me aiuterebbe parecchio nei rendering 3D, e per quanto possa andare abbastanza bene una piattaforma con FX83xx preferisco acquistare qualcosa di decisamente più nuovo che un sistema già vecchio di 3 anni (riferendomi al 2015), soprattutto in virtù del fatto che am3 è decisamente un socket obsoleto.
Ho optato per l'FM2 anche per questo, si sa mai che mi venga voglia di aggiornare il 7850 con una apu più performante in futuro.
Per il resto non discuto delle potenzialità in multitask :)
paolo.oliva2
11-09-2014, 17:29
anche portando l'8350 a 5-5,5 GHz e fregandocene totalmente dei consumi NON va quanto sarebbe dovuto andare;
Con te si fa sempre fatica a parlare, perchè per te conta solo l'IPC e se l'8350 non va è per il CMT, punto, e volutamente IGNORI tutto il resto..
Ora che è certo che le sparate tipo "AMD lascia desktop e server", se l'evoluzione del 32nm SOI fosse stata come previsto, AMD sarebbe sul 20nm almeno da 1 anno, e nel frattempo ha evoluto l'architettura a Steamroller ed Excavator.
Mi sembra PIU' CHE OVVIO, che paragonare la potenza architetturale BD all'8350 sul 32nm (perchè quello è in commercio), significa IGNORARE che sul 22nm SOI oggi avremmo almeno un X12 e un IPC superiore dal 10 al 25% superiore, vuoi per Steamroller (che conosciamo gli incrementi) e vuoi per Excavator.... che ambedue sono CMT, quindi che mazza c'entra il CMT o il CMT nell'incarnazione 8350?
e altro che il 4 core, minimo doveva andare come il 6 core
Su questo concordo, ma AMD non ha i dindi di Intel, quindi lo sviluppo è quello che è, con Zambesi che è stato un cesso come prima incarnazione di BD, ma il prb è che il CMT doveva INCREMENTARE il numero di core totali, ma questo è stato segato dal 32nm SOI, perchè anche se l'X4 non va come sarebbe dovuto andare, se il silicio fosse stato "normale", l'X6 lo avrebbe permesso lui, visto che un X6 già lo permetteva il 45nm con solo il low-k ed il 32nm ci aggiungeva anche l'HKMG.
visto che Intel ha viaggiato e sta viaggiando con il freno a mano tirato;
Peccato che non tira il freno anche con i prezzi... l'i3 lo dovrebbe quasi regalare, invece costa quasi quanto un X8 AMD (non tiriamo fuori IPC e super-pippo... perchè è un 2,5 core alla fine, e parte i bench, nell'uso normale già è impiccato solamente se aggiungi l'antivirus al programma che esegui).
l'8 core era atteso almeno un anno fa, ma ovviamente si è guardata bene dal lanciarlo.
Ma per interesse tuo, mio, per la collettività, o... per le sue tasche? Vendere un 32nm X6 a 999$, con il 32nm rodato al max, è unicamente per guadagnare fino all'ultimo centesimo... non certo per "simpatia" per AMD.
devil_mcry
11-09-2014, 18:04
Con te si fa sempre fatica a parlare, perchè per te conta solo l'IPC e se l'8350 non va è per il CMT, punto, e volutamente IGNORI tutto il resto..
Ora che è certo che le sparate tipo "AMD lascia desktop e server", se l'evoluzione del 32nm SOI fosse stata come previsto, AMD sarebbe sul 20nm almeno da 1 anno, e nel frattempo ha evoluto l'architettura a Steamroller ed Excavator.
Mi sembra PIU' CHE OVVIO, che paragonare la potenza architetturale BD all'8350 sul 32nm (perchè quello è in commercio), significa IGNORARE che sul 22nm SOI oggi avremmo almeno un X12 e un IPC superiore dal 10 al 25% superiore, vuoi per Steamroller (che conosciamo gli incrementi) e vuoi per Excavator.... che ambedue sono CMT, quindi che mazza c'entra il CMT o il CMT nell'incarnazione 8350?
Su questo concordo, ma AMD non ha i dindi di Intel, quindi lo sviluppo è quello che è, con Zambesi che è stato un cesso come prima incarnazione di BD, ma il prb è che il CMT doveva INCREMENTARE il numero di core totali, ma questo è stato segato dal 32nm SOI, perchè anche se l'X4 non va come sarebbe dovuto andare, se il silicio fosse stato "normale", l'X6 lo avrebbe permesso lui, visto che un X6 già lo permetteva il 45nm con solo il low-k ed il 32nm ci aggiungeva anche l'HKMG.
Peccato che non tira il freno anche con i prezzi... l'i3 lo dovrebbe quasi regalare, invece costa quasi quanto un X8 AMD (non tiriamo fuori IPC e super-pippo... perchè è un 2,5 core alla fine, e parte i bench, nell'uso normale già è impiccato solamente se aggiungi l'antivirus al programma che esegui).
Ma per interesse tuo, mio, per la collettività, o... per le sue tasche? Vendere un 32nm X6 a 999$, con il 32nm rodato al max, è unicamente per guadagnare fino all'ultimo centesimo... non certo per "simpatia" per AMD.
Well... l'i3 haswell di Intel costa meno di un 7850k e va di più, oltre a costare poi 10€ in più di un FX 4300 che ha prestazioni comunque inferiori... Quindi mi pare perfettamente allineato il prezzo e corretto.
Ormai al cinebench r15 un i5 ha quasi agganciato un fx8, a parità di clock la differenza è di una 50ina di punti scarsi a favore del fx8, meno del 10%. Gli rimane la frequenza massima più alta visto che un 4670k al massimo arriva sui 4.7, l'altro fa un po' di più... Gran risultato, con broadwell ci sarà probabilmente il pareggio, e parlo di MT non ST ovviamente.
Vendere a 350€ un 22nm 6/12 haswell non mi pare frenare con i prezzi... AMD un'offerta del genere probabilmente non l'avrà nemmeno tra 2 anni (probabilmente con 200w di TDP).
Vendere e rivendere a prezzi sempre maggiore un'architettura vecchia di due anni invece è più onesto? Parliamo di quelli che hanno prezzato 999$ un 8350, e poi è Intel a cercare di guadagnare fino all'ultimo centesimo? Dai...
AMD non avrà i soldi che ha Intel, ma il problema non è solo quello...
Alla faccia.. e menomale che non c'erano news...tutte adesso le sto scoprendo leggendo i post:
1. AMD passa da CMT ad SMT
2. APU Carrizo (che neppure sapevo che uscivano nel 2015)
3. k12 x86+arm nel 2015
4. Adesso sto ZEN
praticamente aveva ragione chi l'anno scorso diceva che nel futuro di amd il concetto architetturale di bulldozer (cmt) modulare verrà cestinato per ritornare no al cmp, ma per seguire l'approccio di Intel con core semi tradizionali ma con concetto fisico e logico (smt). Anche se c'era chi diceva che sarebbe ritornata al tradizionale cmp nell'hight end.
Tuttavia carne al fuoco c'è ne....altro che no...
OT: non ero a conoscenza neppure del fatto che Intel verrà scorporata, anche se non ci credo molto a sta cosa qui...FINE OT
Alla faccia.. e menomale che non c'erano news...tutte adesso le sto scoprendo leggendo i post:
1. AMD passa da CMT ad SMT
2. APU Carrizo (che neppure sapevo che uscivano nel 2015)
3. k12 x86+arm nel 2015
4. Adesso sto ZEN
praticamente aveva ragione chi l'anno scorso diceva che nel futuro di amd il concetto architetturale di bulldozer (cmt) modulare verrà cestinato per ritornare no al cmp, ma per seguire l'approccio di Intel con core semi tradizionali ma con concetto fisico e logico (smt). Anche se c'era chi diceva che sarebbe ritornata al tradizionale cmp nell'hight end.
Tuttavia carne al fuoco c'è ne....altro che no...
OT: non ero a conoscenza neppure del fatto che Intel verrà scorporata, anche se non ci credo molto a sta cosa qui...FINE OT
Neh l'unica nuova è zen, le alte sono vecchiotte. Tra l'altro Carrizo sappiamo uscirà su mobile, su desktop era uscito qualche rumor che forse non lo vedremo mai
george_p
11-09-2014, 19:36
Proprio lo zen ci vuole per aspettare ancora due anni qualcosa di decente.
Proprio lo zen ci vuole per aspettare ancora due anni qualcosa di decente.
Già. Obiettivamente, da acquirente amd da sempre, se non ci fosse Carrizo lato desktop (che poi è tutto da vedere come sarà), chi compra nel 2015 processore del 2013 con piattaforma del 2011? Non me la sentirei neanche piu di consigliarli, ormai hanno fatto davvero il loro tempo, per quanto buoni possano essere, am3+ è davvero troppo vecchio. Per non parlare di Kaveri che imho è tutt'altro che competitivo. Praticamente, sempre se non uscisse Carrizo desktop, regalano un anno di vendite ad Intel....
AceGranger
11-09-2014, 19:56
Con te si fa sempre fatica a parlare, perchè per te conta solo l'IPC e se l'8350 non va è per il CMT, punto, e volutamente IGNORI tutto il resto..
Ora che è certo che le sparate tipo "AMD lascia desktop e server", se l'evoluzione del 32nm SOI fosse stata come previsto, AMD sarebbe sul 20nm almeno da 1 anno, e nel frattempo ha evoluto l'architettura a Steamroller ed Excavator.
l'FX8350 è della stessa generazione del 4930K e l'8150 del 39430K; non lo paragonavo ad Haswell.
sia l'8150 che l'8350 NON vanno quello che sarebbero dovuti andare silicio o non silicio, punto è un dato di fatto, IPC o non IPC nemmeno in MT vanno quello per cui erano stati pubblicizzati a destra e a manca.
che il silicio abbia colpa nessuno lo mette in dubbio, ma l'architettura è un fail TALE E QUALE al silicio.
Su questo concordo, ma AMD non ha i dindi di Intel, quindi lo sviluppo è quello che è, con Zambesi che è stato un cesso come prima incarnazione di BD, ma il prb è che il CMT doveva INCREMENTARE il numero di core totali, ma questo è stato segato dal 32nm SOI, perchè anche se l'X4 non va come sarebbe dovuto andare, se il silicio fosse stato "normale", l'X6 lo avrebbe permesso lui, visto che un X6 già lo permetteva il 45nm con solo il low-k ed il 32nm ci aggiungeva anche l'HKMG.
non aveva i dindi nemmeno con i Phenom 2 eppure reggevano il confronto, non ha i dindi nemmeno per le GPU ma reggono il confronto con nVidia, non ha i dindi eppure Kabini è li li con Atom; se BD ha fatto schifo è perchè hanno PALESEMENTE toppato; è inutile che continui a difendere l'indifendibile, ora hai pure la confera di quello che ti dicevo gia unanno fa, quel cesso di CMT verra giustamente abbandonato; nemmeno con il silicio nuovo hanno intenzione di riproporlo.
Se in questi anni ci fosse stato Jim Keller col cavolo che sarebbe arrivato il CMT, molto probabilmente avrebbeero fatto sin da subito un'architettura stile Phenom 2.
Peccato che non tira il freno anche con i prezzi... l'i3 lo dovrebbe quasi regalare, invece costa quasi quanto un X8 AMD (non tiriamo fuori IPC e super-pippo... perchè è un 2,5 core alla fine, e parte i bench, nell'uso normale già è impiccato solamente se aggiungi l'antivirus al programma che esegui).
non so tu che i3 abbia preso in mano, ma un i3 Haswell nell'uso normale dell'utente comune lavora sicuramente meglio di un fx8350, lo fa consumando 1/4 con pure la GPU integrata e lo puoi far stare in una scatoletta 15x15.
le CPU costano quello che valgono.
Ma per interesse tuo, mio, per la collettività, o... per le sue tasche? Vendere un 32nm X6 a 999$, con il 32nm rodato al max, è unicamente per guadagnare fino all'ultimo centesimo... non certo per "simpatia" per AMD.
:rolleyes: e chi ha mai parlato di simaptia ? se AMD dorme di certo intel non si fa concorrenza da sola.
epimerasi
11-09-2014, 23:34
Alla faccia.. e menomale che non c'erano news...tutte adesso le sto scoprendo leggendo i post:
1. AMD passa da CMT ad SMT
2. APU Carrizo (che neppure sapevo che uscivano nel 2015)
3. k12 x86+arm nel 2015
4. Adesso sto ZEN
praticamente aveva ragione chi l'anno scorso diceva che nel futuro di amd il concetto architetturale di bulldozer (cmt) modulare verrà cestinato per ritornare no al cmp, ma per seguire l'approccio di Intel con core semi tradizionali ma con concetto fisico e logico (smt). Anche se c'era chi diceva che sarebbe ritornata al tradizionale cmp nell'hight end.
Tuttavia carne al fuoco c'è ne....altro che no...
OT: non ero a conoscenza neppure del fatto che Intel verrà scorporata, anche se non ci credo molto a sta cosa qui...FINE OT
I punti 3 e 4 non sono stati annunciati per il 2016?
george_p
11-09-2014, 23:44
Se in questi anni ci fosse stato Jim Keller col cavolo che sarebbe arrivato il CMT, molto probabilmente avrebbero fatto sin da subito un'architettura stile Phenom 2.
Verissimo, però è anche vero che si apprezza molto di più qualcosa quando si vive appieno la sua mancanza, e Keller con l'SMT non fanno eccezione.
Ci voleva il fail BD per far nascere processori amd con smt.
Personalmente ritengo sempre che il CMT sia stato molto mal progettato in BD ma una volta fatta la frittata quello era.
Per spendere rimettendo mano a tutti i bug di questa architettura è ovvio che si fa molto prima (e meglio, con Keller) a rifarne una nuova in toto.
capitan_crasy
12-09-2014, 00:13
Ciao Shellx!:)
Alla faccia.. e menomale che non c'erano news...tutte adesso le sto scoprendo leggendo i post:
1. AMD passa da CMT ad SMT
2. APU Carrizo (che neppure sapevo che uscivano nel 2015)
3. k12 x86+arm nel 2015
4. Adesso sto ZEN
praticamente aveva ragione chi l'anno scorso diceva che nel futuro di amd il concetto architetturale di bulldozer (cmt) modulare verrà cestinato per ritornare no al cmp, ma per seguire l'approccio di Intel con core semi tradizionali ma con concetto fisico e logico (smt). Anche se c'era chi diceva che sarebbe ritornata al tradizionale cmp nell'hight end.
Tuttavia carne al fuoco c'è ne....altro che no...
Attenzione che AMD non ha mai dichiarato che ZEN sarà un ritorno al SMT, ne tanto meno ha dato indicazioni o rumors su come sarà la nuova architettura...
Per quanto ne sappiamo potrebbe essere un ibrido tra un classico core X86 e una GPU (qualcuno si ricorda di Fusion 2?)...
OT: non ero a conoscenza neppure del fatto che Intel verrà scorporata, anche se non ci credo molto a sta cosa qui...FINE OT
Che cosa mi sono perso?:eek:
Ottimo. Lo dicevo dall'uscita di BD. Ora si potrebbe iniziare a ragionare. Spero per Amd non sia troppo tardi. Keller mi piace.
Ciao Shellx!:)
Attenzione che AMD non ha mai dichiarato che ZEN sarà un ritorno al SMT, ne tanto meno ha dato indicazioni o rumors su come sarà la nuova architettura...
Per quanto ne sappiamo potrebbe essere un ibrido tra un classico core X86 e una GPU (qualcuno si ricorda di Fusion 2?)...
Che cosa mi sono perso?:eek:
Ciao capitano ;)
Ah ok sono solo rumors di cosa sia Zen, quindi il fatto che la nuova architettura x86 addotti smt (come dicevi tu nel post di presentazione di zen) sono solo delle voci. Però da quell'articolo non riesco a capire dove il CEO di AMD abbia dichiarato che ZEN sia architettura x86 destinata all'high performance, lo sostiene wccf, ma dalle sue dichiarazioni non lo leggo.
Nel 2015 ci sarà pure sto k12 (x86+arm) soluzioni destinate credo nei server come quelle che nel 2015 saranno chiamate Skybridge. Sapevo anche di Carrizo, ma non sapevo del 2016 e soprattutto che non usciranno per desktop, ma solo per mobile. Ma anche questi sono rumors ho lo ha dichiarato amd che le apu carrizo non vedranno socket fmx ?
OT per quanto riguarda lo scorporamento di Intel l'ho letto in un post qui dentro, esattamente questo:
si è un Bulk pazzesco, tu pensa se scorporassero Intel (cosa che vorrebbero fare a quanto ho capito) e quel PP lo potrebbe utilizzare pure AMD o chissà chi altro pure per i SoC ci guadagneremmo tutti comprese le Fab ora di Intel che andrebbero a pieno regime
Non so se è vero o meno, ma io non ci credo.
Cmq credo anchio che Zen sarà una sorta di fusione piu accentuata fra x86+gpu, su una sorta di unificazione di socket (amx+fmx) in un unico socket che ospiterà tutte le soluzioni di A-CPU, dalle piu veloci (enthusiast) a quelle di fascia mainstream. Un cambio di nomenclatura anche della famiglia dell'FCH proveniente nelle features dalle piattaforme FMx attuali, e le piattaforme verranno selezionate per diverse fasce (con le cpu con piu linee pci-e ecc ecc da accoppiare a mobo con piu slot pci e maggiori features che supportano quelle offerte dalle cpu top e quelle medie) il tutto con DDR4. Come può darsi che tutto ciò che ho detto non si verificherà...buu..? Vedremo ...
ot
Nel frattmepo ci godiamo quelle che abbiamo, soprattutto in vista di w .. w... windows 9, che secondo M$ basta scopiazzare le idee grafiche e di funzioni degli ambienti unix per fare del kernel di un OS il piu vicino a Linux, ergo generoso in performance con tutte le architetture. :D
paolo.oliva2
12-09-2014, 09:31
Forse non tutti ricordano che la frequenza operativa di BD si basa su uno studio di IBM, in cui a quella frequenza si doveva ottenere il massimo rendimento prestazionale e con consumi più ridotti. Ma il rendimento è basato su una bontà di PP silicio simile, è chiaro che se il silicio ha un picco di TDP oltre certe frequenze, stravolge l'intero rapporto.
Ora... lo studio di IBM si basa sul SOI, ed il SOI ha minore leakage del Bulk, quindi "regge" meglio frequenze più alte e numero di transistor maggiori.
La situazione AMD, con il 32nm SOI HKMG ULK al di sotto delle aspettative, non miniaturizzabile fino al 22nm, ha di fatto alterato il risultato degli studi, e la frittata di optare per il 28nm Bulk ha di fatto fatto il resto, con Steamroller solamente X4 APU e un'offerta di potenza massima addirittura inferiore del 50% rispetto al 32nm SOI.
Questo è un dato di fatto, non certamente che è l'architettura AMD, ed addirittura il flop, perchè se il CMT si fosse appoggiato ad un IPC più alto, sarebbero diminuite le frequenze operative e reso l'architettura BD più sfruttabile anche con PP silicio non ottimo, e mi sembra chiaro che il punto non sia il CMT ma al limite dell'IPC, ma visto che il CMT introduce una filosofia di unione tra 2 core, non vedo come si possa forzare l'unione di IPC con il CMT, perchè di per sè il CMT funzionerebbe tranquillamente con IPC doppi o tripli rispetto a quanto da' il core AMD.
Se ipotizzassimo un futuro, AMD DEVE fare i conti che non ha più le FAB e quindi lo sviluppo generico di un PP su silicio X NON PUO' essere al top esclusivamente per i suoi proci, ma più saggio sarebbe adattare i suoi proci alle caratteristiche dei silicio futuri che probabilmente avrà a disposizione.
Aumentare l'IPC è un dato di fatto, perchè così si richiederebbe meno frequenza a parità di potenza, e il silicio in linea di massima arriva sempre sui 3GHz senza TDP di rilievo. Il discorso CMT resterebbe comunque valido, perchè ad esempio il Bulk, a parità di miniaturizzazione, è svantaggiato con il SOI a causa del leakage (parlo di Bulk normale, quello sviluppato da Intel è lo stato dell'arte del bulk), che è da 10 a 20 volte maggiore.
Ora il leakage, o perdita di corrente, la si ha in 2 determinate condizioni: con la frequenza e con il numero di transistor.
- Con la frequenza perchè aumenta la tensione (e questo spiega perchè Intel ha Vcore di 1V contro AMD che a parità di frequenza ha almeno 1,25V, e perchè l'IPC Intel lo alza, per riuscire ad ottenere una determinata potenza ad una frequenza inferiore)
- con il numero di transistor perchè più transistor ci sono, più aumenta proporzionatamente la perdita di corrente (ed un X18 su 665mm2, più del doppio di un X8 Piledriver, con un numero di transistor totali triplo, la dice moooolto lunga).
In questo contesto, il CMT risulta sempre valido, visto che ha l'obiettivo di diminuire i transistor ma garantendo una potenza uguale o superiore... soprattutto considerando che AMD ha acquisito un'esperienza sul CMT e quindi un affinamento di rendimento, ed inoltre lo userà al 100% sul progetto di fusione X86/IGP, che comunque lo si voglia interpretare a bandiera, l'HSA rimane l'unico progetto in grado di aumentare e di molto la potenza senza dover attendere il 10nm e superiori.
A prescindere da tutto questo, è impossibile stabilire alla radice il confronto tra CMT e SMT, perchè ovviamente si guarda il prodotto in commercio, ma il prodotto in commercio è su una architettura affinata da 10 anni (Intel) contro una che ha 4 anni su prb enormi di silicio, ma abbiamo un dato di fatto in cui l'aumento di IPC AMD viaggia al doppio di quello Intel, e mi sembra abbastanza chiaro che ciò indichi un punto fondamentale, che l'architettura AMD è ben lontana dall'affinamento massimo, mentre quella Intel lo è ed è per questo che consente guadagni marginali, e su tutto grava la situazione silicio, dove Intel porta lo sviluppo silicio al top per uso e consumo dei suoi proci, sfruttandoli al max, ed AMD che si deve "accontentare" di quello che trova.
E' cambiato tutto dagli anni '80, a quei tempi essere in svantaggio di 1 step di miniaturizzazione o anche 2, non presupponeva un vantaggio nortevole, e ciò poteva essere annullato con un'architettura più efficiente. Passare ad esempio dal 120nm al 100nm (cifre a caso) permetteva un margine di miglioramento che comunque poteva essere raggiunto tramite l'architettura. Se oggi un 22nm garantisce un 25-30% di efficienza in più di un 32nm, quando mai può essere ovviato dall'architettura, quando questa viaggia sul 5-10% al max? Quale architettura potrebbe offrire AMD sul 32nm quando Intel, nel passaggio 32nm-22nm-14nm, otterrebbe un miglioramento del 55-70%?
Il contesto IPC ha un valore rispetto alla potenza del procio nel suo insieme. Intel offre +IPC, minori consumi, +MT, ok, tutto meglio, allora meglio +IPC. Ma in un contesto dove AMD avrebbe il 22nm ed Intel invece il 32nm.... cosa si avrebbe? Indubbiamente AMD avrebbe + potenza MT (considerando Intel X6 32nm ed AMD X12-X16 sul 22nm), quindi un utilizzo intenso MT, vedrebbe 16 core, anche se Piledriver, ottenere potenze superiori rispetto ad un IPC superiore. E qui torna il discorso confronto AMD-Intel sul CMT, IPC, e quant'altro... e la mia visione, sarò cocciuto, che il silicio conta, eccome, per me anche sul 75% e passa, appunto perchè un Piledriver (manco Steamroller e nemmeno Excavator) avrebbe consumi minori sul 20nm di un X6 Intel sul 32nm, ed avrebbe una potenza MT ben superiore, considerando Intel +50% IPC e AMD +100%/150% di core totali. Quindi chi fa uso intensivo di MT, dell'IPC non gli frega una mazza, ma conta la potenza massima MT, e quind il confronto IPC avrebbe tutt'altro valore, e comunque modulabile, perchè se è possibile far lavorare + core nello stesso TDP, puoi sempre offrire meno core (ma più core della concorrenza) ad una frequenza superiore, in cui il rapporto IPC*frequenza porterebbe comunque una potenza superiore rispetto al reale IPC.
Infine... lo scorporamento Intel sarebbe una vaccata... perchè anche se Intel ha indubbiamente giocato sporco e molto per arrivare alla sua situazione attuale, ma ha pagato (anche se il miliardo di dollari mi pare irrisorio), non mi sembra lecito obbligarla a scorporarsi, semplicemente perchè comunque i dindi li ha spesi (lei).
george_p
12-09-2014, 09:42
mah, secondo me hanno cestinato pure l'idea Fusion :(
Molto ma molto improbabile e remota come prospettiva.
Il tonfo nell'acqua lo hanno fatto con l'architettura modulare di BD, e Fusion non c'entra proprio niente poiché quest'ultima è l'unificazione di core X86 (prettamente integer) con core GPU (prettamente virgola mobile).
Molto probabilmente pensavano di ridurre l'FPU, come hanno fatto in BD appunto, per poterla soppiantare del tutto con la parte GPU.
Ma a mio parere il CMT che lo ritengo valido non è stato per niente ben progettato soprattutto vista la decisione di utilizzare parti architetturali scarse come le cache lentissime e ridurre le FPU o, peggio ancora, aumentare enormemente le pipeline.
Tutti punti di forza (cache a parte) delle precedenti architetture che non hanno saputo sostituire con altrettanti punti di forza.
animeserie
12-09-2014, 09:43
non so tu che i3 abbia preso in mano, ma un i3 Haswell nell'uso normale dell'utente comune lavora sicuramente meglio di un fx8350, lo fa consumando 1/4 con pure la GPU integrata e lo puoi far stare in una scatoletta 15x15.
le CPU costano quello che valgono.
Ma più che altro dire che un i3 è impiccato con un programma in esecuzione assieme all' antivirus significa dimostrare che lui un i3 (quantomeno da Sandy in poi) non lo hai mai provato.
perchè è un 2,5 core alla fine, e parte i bench, nell'uso normale già è impiccato solamente se aggiungi l'antivirus al programma che esegui).
Mi spiace, ma questo passaggio quotato è solo ed esclusivamente diffamazione di un prodotto nonchè disinformazione.
george_p
12-09-2014, 09:50
Forse non tutti ricordano che la frequenza operativa di BD si basa su uno studio di IBM, in cui a quella frequenza si doveva ottenere il massimo rendimento prestazionale e con consumi più ridotti.
Per brevità ti rispondo solo su questo che ho quotato.
Io lo ricordo perfettamente ma IBM è IBM e ha sperimentato lei, sempre che abbia sperimentato effettivamente e non solo ipotizzato, qui parlo per ignoranza.
In ogni caso i punti deboli di BD sono l'aver dimezzato l'FPU e aver utilizzato pure le cache lentissime.
Non hanno innovato nulla, nulla che potesse sostituire i punti forti mancanti.
Questa è a mio parere una grossa lacuna.
Ma non sono riusciti a sistemare granché dopo due anni, quindi impossibile farlo, già con Kaveri hanno ritoccato le pipeline ma con questo le linee produttive e pp erano diversi.
Questo errore di progettazione con processo produttivo meravigliosamente indecente di GloFo ha fatto fermare l'evoluzione di amd nel settore High end.
Solo mi auspico ci diano qualcosa di interessante nel desktop nel 2015 in attesa del nuovo che arriverà poi.
Ma più che altro dire che un i3 è impiccato con un programma in esecuzione assieme all' antivirus significa dimostrare che lui un i3 (quantomeno da Sandy in poi) non lo hai mai provato.
Mi spiace, ma questo passaggio quotato è solo ed esclusivamente diffamazione di un prodotto nonchè disinformazione.
Si ok, ma dire che un i3 è meglio di un fx-8350 è ancora peggio della disinformazione...
animeserie
12-09-2014, 09:59
Si ok, ma dire che un i3 è meglio di un fx-8350 è ancora peggio della disinformazione...
Non so, non l'ho scritto io che un i3 sia meglio di un 83xx :)
io ho scritto solo che un i3 assolutamente non si impicca per un antivirus, credo tu concorderai con me su questo specifico punto no ? :)
.338 lapua magnum
12-09-2014, 10:03
l'FX8350 è della stessa generazione del 4930K e l'8150 del 39430K; non lo paragonavo ad Haswell.
sia l'8150 che l'8350 NON vanno quello che sarebbero dovuti andare silicio o non silicio, punto è un dato di fatto, IPC o non IPC nemmeno in MT vanno quello per cui erano stati pubblicizzati a destra e a manca.
che il silicio abbia colpa nessuno lo mette in dubbio, ma l'architettura è un fail TALE E QUALE al silicio.
E come non quotare, basta vedere la mattanza lato server.......
Ma più che altro dire che un i3 è impiccato con un programma in esecuzione assieme all' antivirus significa dimostrare che lui un i3 (quantomeno da Sandy in poi) non lo hai mai provato.
Mi spiace, ma questo passaggio quotato è solo ed esclusivamente diffamazione di un prodotto nonchè disinformazione.
Se non erro ha avuto un I3 mobile e si é trovato impiccatissimo, e da li é dovuto il suo post.
AceGranger
12-09-2014, 10:07
Per chi riporta che il silicio è si importante ma non è tutto, rovesciamo la situazione con Intel sul 32nm ed AMD sul 22nm.
Intel con SB stava sui 32nm e AMD è arrivata con l'8150 sui 32nm, l'fx8150 overcloccato,tralasciando completamente i consumi, anche portato a 5Ghz dava prestazioni SCADENTI, indice che non era solo il silicio il problema;
un fx8150 con ben 315mm2 di die size che a 5GHz in MT dava le prestazioni di un 2600K con soli 216mm2 di die size con pure la GPU integrata!, rimanendo comunque lontano in ST, grande architettura :rolleyes: .
ci vuole coraggio a dare la colpa solo al processo produttivo quando è palese che l'architettura CMT sia stata un flop.
Si ok, ma dire che un i3 è meglio di un fx-8350 è ancora peggio della disinformazione...
l'utente normale comune non sfrutta l'MT, e se pensi di si mi sa che non hai ben presente come sia l'utente medio; il suddetto utente non andra mai a saturare un i3 Haswell e l'i3 in ST è una pista davanti all'fx8350; contando che i software comuni sono tutti ST, vedi un po tu per l'utente medio cosa è meglio, contando pure i consumi e la GPU integrata.
devil_mcry
12-09-2014, 10:41
Si ok, ma dire che un i3 è meglio di un fx-8350 è ancora peggio della disinformazione...
Dipende da cosa ci fai, e per un utente medio che naviga su internet sicuramente un i3 ha potenza da vendere, persino per un gamer è meglio di un FX, in MT ovviamente no ma il discorso non era quello.
Tolte comunque alcune enormi vaccate che si possono leggere sopra, rimane il fatto che NON puoi, da ingegnere, pensare ad una architettura senza che ci sia la possibilità tecnologica di realizzarla come l'hai immaginata. Sopratutto quando non sei nella posizione economica da poterci investire fior di soldi (o buttarli).
C'è poco da dire "e ma il silicio non ha reso", ma che cosa pretendevano?
Hanno fatto ESATTAMENTE la stessa cosa che Intel aveva fatto con netburst con la differenza che all'epoca i PP non erano spinti come oggi.
Come Netburst Bulldozer consuma una valanga, come Netburst ha un IPC ridicolo e pipeline lunghissime(anche se onestamente non so se il gap allora era tanto elevato quanto oggi), ma vi ricordate che Intel credeva di poter raggiungere i 10GHz con il P4? E' stato un fail allora oggi in quale universo sarebbe possibile?
Il top di gamma di AMD, che ha provato anche a vendere a quasi 1000$ rimarchiandolo (LOL) non regge il passo con le CPU di fascia media di Intel, oltre a consumare una valanga ed ad avere una quantità di transistor nettamente superiore. Questo non è un problema di tecnologia, è un problema architetturale.
Non è solo il silicio ad aver fallito, anzi, tutto sommato superare i 5GHz non è male, ma anche fossero arrivati a 6GHz non sarebbe bastato per rendere queste CPU competitive...
george_p
12-09-2014, 10:49
per rispondere a tutti e due sul CMT:
si è dimostrato inadeguato perché è dispendioso in termini di silicio, a meno di silicio perfetto porta lo svantaggio dei transistor in più (maggior consumo), mentre SMT ha l'effetto opposto, pure su silicio scarso limita i transistor, e col silicio di oggi avrebbe fatto bene ad AMD...
secondo me è per questo che passano ad SMT, valutano che d'ora in poi sarà sempre più difficile evolvere o creare silicio ad alte rese e per di più SoI, per cui si parano le chiappe con un architettura di base che richiede minor numero di transistor, se poi il silicio lo permette hai due scelte: aumenti i core e abbassi la frequenza (server) o il contrario (desktop)...
Non ricordavo in termini di transistor, ma già solo questo avrebbe dovuto frenare amd che invece mi pare essere stata un pò "orgogliosa" insistendo su questa tecnologia piuttosto che sull SMT come intel ha fatto da quasi 10 anni... poteva farlo benissimo anche lei, intel dopottutto si è equipaggiata nel tempo dell'hypertransport migliorando ulteriormente la sua architettura Core.
Vabbeh, ormai il colpo lo aveva accusato e se ora è ferma è per tutto il contorno e contesto.
Aspettiamo Zen e rilassiamoci pure noi :nonio:
Free Gordon
12-09-2014, 10:49
Quì secondo me ci si dimentica di una cosa fondamentale :D
l'Hw non serve a nulla senza software.
AMD creando l'architettura Bulldozer (al di là del gap che ha cmq sempre avuto nei confronti di Intel, lato pp) ha scelto di andare in una direzione che non è stata per nulla sfruttata a livello software. Perlomeno dai principali producer.
Al di là del fattore consumo che è sicuramente un problema legato a quel tipo di architettura con pipe così lunghe (il P4 aveva gli stessi problemi, anche con dei pp Intel molto avanzati per il tempo), l'effettiva resa o meno di un certo tipo di silicio è strettamente dipendente da come viene programmato.
AMD è stata molto avventata ad andare in quella direzione, probabilmente è stato un tentativo "o la và o la spacca" :D per recuperare il terreno che aveva perso dall'uscita del Conroe in poi, rispetto ad Intel.
Ma è andata male, praticamente nessun software di uso comune (e Windows stesso oltretutto) hanno sfruttato correttamente quel tipo di archi.
Forse perché i carichi di lavoro sono stati previsti in modo errato, forse anche per questioni commerciali/politiche :D legate al duopolio M$/Intel (ma anche con base Linux, si notano diversi problemi, magari minori...ma ci sono cmq), resta il fatto che la scelta di andare sul CMT non ha pagato per nulla, anzi, è stata abbastanza disastrosa.. ;(
Spero sinceramente che, tornato Keller, si rimettano in carreggiata e cerchino la strada del compromesso ottimale (come ha sempre fatto la grande AMD, quella che rullava... ;) ), tenendo come obiettivo principale quello dei consumi.
E speriamo che IBM ci metta una pezza lato pp...sennò cmq sarà molto difficile creare un'alternativa valida a 360° rispetto ad Intel, e non solo dal pdv del prezzo finale..... ;)
nardustyle
12-09-2014, 10:51
c'è da dire che se avessero fatto gli step previsti (quindi pd ed escavator) con il +15% che sognavano
non sarebbe stato poi così distante da un 4770 anzi
sono fermi alla pari del 2500/2600k
io a passare dal x6 smt all' fx (cmt) ho trovato grossi miglioramenti sul multitasking e pochi difetti, avessero continuato....... a mio avviso il tipo di architettura di per se è buona se fatta bene
capitan_crasy
12-09-2014, 10:53
Ciao capitano ;)
Ah ok sono solo rumors di cosa sia Zen, quindi il fatto che la nuova architettura x86 addotti smt (come dicevi tu nel post di presentazione di zen) sono solo delle voci. Però da quell'articolo non riesco a capire dove il CEO di AMD abbia dichiarato che ZEN sia architettura x86 destinata all'high performance, lo sostiene wccf, ma dalle sue dichiarazioni non lo leggo.
Nel 2015 ci sarà pure sto k12 (x86+arm) soluzioni destinate credo nei server come quelle che nel 2015 saranno chiamate Skybridge. Sapevo anche di Carrizo, ma non sapevo del 2016 e soprattutto che non usciranno per desktop, ma solo per mobile. Ma anche questi sono rumors ho lo ha dichiarato amd che le apu carrizo non vedranno socket fmx ?
AMD aveva già detto che stava lavorando ad una nuova architettura X86 ad alte prestazioni e sapevano che stava anche lavorando al K12 ( che molti avevano attribuito l'ibrido X86+ARM come il futuro delle CPU AMD almeno sulla questione X86)...
Rody in questo caso parla del K12 e di ZEN anche se nell'articolo non ce la frase specifica "sarà la CPU del futuro"; in realtà non si parla mai di CPU ma si accenna alle APU, di nuove architetture comprese il mercato GPU.
Per Carrizo non ce ancora niente di definitivo se uscirà o meno solo per il mobile, rimangono anche i rumors su uno Steamroller 2.0 stile Richland; quello abbastanza sicuro è che verranno utilizzati i 28nm di GF...
AceGranger
12-09-2014, 11:00
AMD creando l'architettura Bulldozer (al di là del gap che ha cmq sempre avuto nei confronti di Intel, lato pp) ha scelto di andare in una direzione che non è stata per nulla sfruttata a livello software. Perlomeno dai principali producer.
suvvia, non prendiamoci ancora in giro con la balla del software, che nemmeno le patch della stessa AMD hanno fatto qualcosa.
va male perchè l'architettura è quella che è, stop.
devil_mcry
12-09-2014, 11:01
Quì secondo me ci si dimentica di una cosa fondamentale :D
l'Hw non serve a nulla senza software.
AMD creando l'architettura Bulldozer (al di là del gap che ha cmq sempre avuto nei confronti di Intel, lato pp) ha scelto di andare in una direzione che non è stata per nulla sfruttata a livello software. Perlomeno dai principali producer.
Al di là del fattore consumo che è sicuramente un problema legato a quel tipo di architettura con pipe così lunghe (il P4 aveva gli stessi problemi, anche con dei pp Intel molto avanzati per il tempo), l'effettiva resa o meno di un certo tipo di silicio è strettamente dipendente da come viene programmato.
AMD è stata molto avventata ad andare in quella direzione, probabilmente è stato un tentativo "o la và o la spacca" :D per recuperare il terreno che aveva perso dall'uscita del Conroe in poi, rispetto ad Intel.
Ma è andata male, praticamente nessun software di uso comune (e Windows stesso oltretutto) hanno sfruttato correttamente quel tipo di archi.
Forse perché i carichi di lavoro sono stati previsti in modo errato, forse anche per questioni commerciali/politiche :D legate al duopolio M$/Intel (ma anche con base Linux, si notano diversi problemi, magari minori...ma ci sono cmq), resta il fatto che la scelta di andare sul CMT non ha pagato per nulla, anzi, è stata abbastanza disastrosa.. ;(
Spero sinceramente che, tornato Keller, si rimettano in carreggiata e cerchino la strada del compromesso ottimale (come ha sempre fatto la grande AMD, quella che rullava... ;) ), tenendo come obiettivo principale quello dei consumi.
E speriamo che IBM ci metta una pezza lato pp...sennò cmq sarà molto difficile creare un'alternativa valida a 360° rispetto ad Intel, e non solo dal pdv del prezzo finale..... ;)
Non è il software il problema, perchè a detta di AMD W8 avrebbe messo in mostra i reali vantaggi di BD quindi per loro il SW era pronto, inoltre anche in MT su programmi professionali non brilla BD mentre ad esempio un P2 X6 in MT a parità di clock andava di più di un nehalem i7 anche se questi riuscivano a raggiungere clock più alti.
george_p
12-09-2014, 11:21
AMD aveva già detto che stava lavorando ad una nuova architettura X86 ad alte prestazioni e sapevano che stava anche lavorando al K12 ( che molti avevano attribuito l'ibrido X86+ARM come il futuro delle CPU AMD almeno sulla questione X86)...
Rody in questo caso parla del K12 e di ZEN anche se nell'articolo non ce la frase specifica "sarà la CPU del futuro"; in realtà non si parla mai di CPU ma si accenna alle APU, di nuove architetture comprese il mercato GPU.
Per Carrizo non ce ancora niente di definitivo se uscirà o meno solo per il mobile, rimangono anche i rumors su uno Steamroller 2.0 stile Richland; quello abbastanza sicuro è che verranno utilizzati i 28nm di GF...
Ma allora capitano,
amd sta lavorando a due architetture x-86 diverse?
Il K-12 e Zen?
Chissà se ne presenteranno qualche specifica in anteprima come successe per l'athlon nel 1999 (che uscì un anno e mezzo dopo circa).
carlottoIIx6
12-09-2014, 12:42
Ma allora capitano,
amd sta lavorando a due architetture x-86 diverse?
Il K-12 e Zen?
Chissà se ne presenteranno qualche specifica in anteprima come successe per l'athlon nel 1999 (che uscì un anno e mezzo dopo circa).
K12 è ARM. Bulldozer era necessario perchè amd doveva competere con il 32nm. Questo significa parti condivise. Chiaramente a 16nm le cose cambiano. A chi canta lo strapotere Intel, questo si basa sul sul x86, che ancora le persone considerano il solo calcolo possibile dimenticandosi che HSA è superiore.
nardustyle
12-09-2014, 13:02
K12 è ARM. Bulldozer era necessario perchè amd doveva competere con il 32nm. Questo significa parti condivise. Chiaramente a 16nm le cose cambiano. A chi canta lo strapotere Intel, questo si basa sul sul x86, che ancora le persone considerano il solo calcolo possibile dimenticandosi che HSA è superiore.
dimentichi che hsa gira su 4core+8compute core
x86 gira su attualmente 18core - 36 thread
quindi a parità di massima tecnologia disponibile cmq nessuno sviluppa .... perchè attualmente non c'è interesse
il futoro del software lo decide google, sansung e pochi altri ... non certo amd
se entreranno si vedrà
capitan_crasy
12-09-2014, 13:19
Ma allora capitano,
amd sta lavorando a due architetture x-86 diverse?
Il K-12 e Zen?
Chissà se ne presenteranno qualche specifica in anteprima come successe per l'athlon nel 1999 (che uscì un anno e mezzo dopo circa).
Il K12 dovrebbe essere l'evoluzione di Skybridge quindi si parla di un core X86 a basso consumo stile jaguar altrimenti non avrebbe senso accoppiarli con core ARM.
Se il CEO di AMD ha parlato di ZEN e del K12 significa che dovrebbero essere due cose diverse...
george_p
12-09-2014, 13:20
K12 è ARM. Bulldozer era necessario perchè amd doveva competere con il 32nm. Questo significa parti condivise. Chiaramente a 16nm le cose cambiano. A chi canta lo strapotere Intel, questo si basa sul sul x86, che ancora le persone considerano il solo calcolo possibile dimenticandosi che HSA è superiore.
Ah ok, perché ancora non ho chiaro e mi confondo un poco.
K12 è quindi ibrido x-86 arm.
Zen la futura architettura x-86 per il settore high end di amd.
george_p
12-09-2014, 13:22
Il K12 dovrebbe essere l'evoluzione di Skybridge quindi si parla di un core X86 a basso consumo stile jaguar altrimenti non avrebbe senso accoppiarli con core ARM.
Se il CEO di AMD ha parlato di ZEN e del K12 significa che dovrebbero essere due cose diverse...
Aspetta capitano, ma K12 è solo x-86 e senza arm?
Quindi una via di mezzo tra high end e low :confused:
°Phenom°
12-09-2014, 13:25
Skybrdge (K12) sarà sia arm che x86 socket compatibile
george_p
12-09-2014, 13:29
dimentichi che hsa gira su 4core+8compute core
x86 gira su attualmente 18core - 36 thread
quindi a parità di massima tecnologia disponibile cmq nessuno sviluppa .... perchè attualmente non c'è interesse
il futoro del software lo decide google, sansung e pochi altri ... non certo amd
se entreranno si vedrà
Si ma hsa dovrebbe garantire performance del 500% almeno se sfruttato davvero quindi un solo 4 core basta e avanza per un 18 della controparte cpu.
george_p
12-09-2014, 13:31
Skybrdge (K12) sarà sia arm che x86 socket compatibile
Mi devo abituare e capire meglio la differenza, se amd usa tecnologia arm creando un ibrido compatibile per entrambi i socket o se crea un socket ibrido, insomma ibrido è il socket o la cpu? Beh, il solo socket ibrido è una mia baggianata senz'altro :D
°Phenom°
12-09-2014, 13:38
Sarà ibrido il socket, nel senso che le cpu arm/x86 saranno pin compatibili con lo stesso socket, non si sa se ci saranno varianti di cpu ibride con all'interno core x86 ed arm, anche se personalmente presumo di si :)
devil_mcry
12-09-2014, 13:40
Si ma hsa dovrebbe garantire performance del 500% almeno se sfruttato davvero quindi un solo 4 core basta e avanza per un 18 della controparte cpu.
Si ma nei bench di hsa (con quei due programmi che lo supportano) non andava mica tanto più in la di un i5 da far pensare che un 18/36 sia più lento
E poi c'è il discorso che la potenza è comunque poca, una gpu discreta in opencl è comunque nettamente più potente
Cerco di dire la mia. Secondo me la verità sta nel mezzo. Amd ha provato a buttarsi sul CMT e la prima sfornata è stata un fail atomico, sia architetturalmente, sia il silicio. Poi con PD ha aggiustato il tiro e abbiamo gli fx che ancora oggi, a distanza di 2 anni, dicono ancora la loro. Il problema secondo me nasce da un'altro fattore, quando hai sviluppato BD, e tutte le 3 sue coniugazioni successive (PD, SR, EX) ti sarà balenato in testa che dovevi poi aggiornare il PP? Con Pd secondo me avevano messo le basi di quello che sarebbero poi dovuti essere SR e EX, che però non vedremo mai perchè i geniacci di Amd (e GF, ce ha abbondantemente le sue colpe), non si sono accorti che il Bulk fa schifo per l'architettura CMT. L'errore piu grande secondo me è stato questo. BD era la prima incarnazione, e ci sta tranquillamente che sia uscita male, cose che PD invece tutto sommato non è stata. Teniamo conto delgi incrementi che ci sono stati da BD a PD, e da PD a SR in termini di ipc; se gia solo SR invece che il bulk fosse stato sul SOI 22nm (sparo a caso) e di conseguenza EX, imho non avremmo avuto dei proci cosi distanti dalla fascia medio/alta intel.
devil_mcry
12-09-2014, 13:59
se va beh, adesso però non esageriamo...
lo sai benissimo che IPC di BD non è lo stesso di PIV, ma grosso modo quello dell'era 65/45nm sia AMD che Intel...
che poi doveva avere +20% su stars invece che -20% è assodato, ma dire che è come PIV mi sembra una bestemmia :sofico:
innanzitutto la pipeline sta sui 22-24 stadi e non 32 come PIV, e nessuno ha mai detto che doveva puntare ai 10ghz, ma dai 4 ai 5, che poi IPC sia uscito il 40% inferiore al previsto non c'entra col target della frequenza finale, che si è stata raggiunta ma a 220w e non 125w come dicevan
loro dicevano 4.5/5ghz a 125w, non 220w e con IPC almeno del 40/50% superiore al primo Zambezi
che poi il marketing dei 999$ sia una presa per il culo ok, ma ormai quello hanno e quello devono fruttare, lo fece pure Intel coi suoi PIV-Ex...
E dove ho scritto che hanno lo stesso IPC? Ho detto che hanno fatto la stessa vaccata.
Inoltre i primi P4 avevano pipeline da 20 stadi, solo i prescott erano a 31...
Se il loro target era 4.5 - 5 la colpa non è del silicio, perchè per metà l'hanno presa, è l'architettura a far pena eppure qualcuno riesce ancora a trovare dei MA.
Per il discorso delle CPU da 1000$ non so chi ha iniziato prima tra AMD e Intel 10 anni fa, ma almeno l'EE non era un p4 normale selezionato.
george_p
12-09-2014, 14:02
si ma su quanti e quali tipi di software?... è tutto li il problema
Infatti ho scritto se sfruttata davvero, da quei programmi adatti per la parallelizzazione non certo dagli office.
E comunque tutte speculazioni le nostre fino a quando la base hardware amd sarà ampiamente tale da invogliare i colossi a sfruttarla.
Si ma nei bench di hsa (con quei due programmi che lo supportano) non andava mica tanto più in la di un i5 da far pensare che un 18/36 sia più lento
E poi c'è il discorso che la potenza è comunque poca, una gpu discreta in opencl è comunque nettamente più potente
HSA viene spesso confusa con openCl ma il funzionamento non è opencl ma sfruttare la potenza elaborativa dei core gpu molto ben più potenti della semplice fpu.
HSA permette di far vedere i cores gpu come cores tradizionali detto in modo semplice, è l'adattatore per la programmazione di questo hardware con programmi che funzionano su x-86.
Open cl è un altra cosa e viene sfruttata anche dalle gpu dedicate.
K12 è ARM. Bulldozer era necessario perchè amd doveva competere con il 32nm. Questo significa parti condivise. Chiaramente a 16nm le cose cambiano. A chi canta lo strapotere Intel, questo si basa sul sul x86, che ancora le persone considerano il solo calcolo possibile dimenticandosi che HSA è superiore.
HSA è una slide di OpenOffice da 9 mesi....
Cmq per chiarire, da quello che ho capito
-Skybride è il socket su cui saranno compatibili cpu ARM e X86 (ma saranno 2 cpu diverse) e sarà il rpimo passo verso l'unificazione
-K12 sarà una unica cpu sia Arm che X86
-Zen solo X86 high end (i nuovi Fx per capirci) e non dovrebbe centrare una fava con skybridge e k12
forse non lo sai, ma il post 32nm doveva essere il 22nm SoI nel 2012/2013, e oltretutto il 32nm e BD_Zambezi erano previsti per il 2010...
AMD non ha mai pensato BD in chiave Bulk, ma sempre e solo SoI, almeno fino al 22nm, facendo una sorta di tick tock alla Intel:
BD 32nm (inizialmente tentativo di proporlo sul 45nm, ma troppo grande)
PD 32nm
SR 22nm
EX 22nm...
per cui hai già le risposte che cerchi :)
Immaginavo, infatti non ho capito quando GF gli ha proposto il Bulk 28nm glidovevano rispondere che se lo potevano tenere...
devil_mcry
12-09-2014, 14:07
Infatti ho scritto se sfruttata davvero, da quei programmi adatti per la parallelizzazione non certo dagli office.
E comunque tutte speculazioni le nostre fino a quando la base hardware amd sarà ampiamente tale da invogliare i colossi a sfruttarla.
HSA viene spesso confusa con openCl ma il funzionamento non è opencl ma sfruttare la potenza elaborativa dei core gpu molto ben più potenti della semplice fpu.
HSA permette di far vedere i cores gpu come cores tradizionali detto in modo semplice, è l'adattatore per la programmazione di questo hardware con programmi che funzionano su x-86.
Open cl è un altra cosa e viene sfruttata anche dalle gpu dedicate.
HSA is an optimized platform that will be leveraged to enhance the OpenCL runtime. HSA is not an alternative to OpenCL. HSA benefits OpenCL by removing memory copies, bringing low latency dispatch, and improving memory model and pointers shared between the CPU and GPU.
The HSA Foundation will also work with all software foundations and open initiatives for the promotion of respective language runtimes and libraries around the advancement of heterogeneous computing.
http://www.hsafoundation.com/f-a-q/
Penso non serva aggiungere altro
pensa te, li hanno lasciati di stucco secondo me... :eek:
...ed infatti è per quello che IBM nella trattativa con GF (degli ultimi mesi) per acquistare le sue Fab a 22nm SoI sta tentennando e non vuole cederle a poco e senza garanzie, non vuole trovarsi poi come AMD con eventuali 14/10nm saltati o non adeguati...
ps. il PP IBM a 32/22nm era quello studiato dal Consorzio SoI di cui fa parte GloFo... ma che poi GloFo non ne ha più fatto nulla...
Infatti questa è la cosa GRAVISSIMA che ha fatto AMD, aver accettato un PP INADEGUATO per gli FX da parte di GF. Perchè non hanno detto o mi dai il 22nm SOI o vado da IBM?
Ad oggi avessimo avuto un 22nm Soi, sarebbe potuto tranquillamente uscire un x10 in 125W se non addirittura 95, e probabilmente x8 a 5ghz in 95W. Senza contare il guadagno che ha avuto SR solo architetturalmente, depurato della perdita di frequenza del bulk.....
Per quello spero che AMD lasci quei paracarri di GF per passare a TMSC, che almeno hanno una roadmap chiara su quali pp sviluppano.
C'è una bella differenza tra sapere quale PP verrà sviluppato e adeguarti di conseguenza (anche se non nelle tue corde, es il bulk), e sviluppare un'architettura per Soi e doverla adattare al bulk 6 mesi prima della presentazione
carlottoIIx6
12-09-2014, 15:11
HSA è una slide di OpenOffice da 9 mesi....
Cmq per chiarire, da quello che ho capito
-Skybride è il socket su cui saranno compatibili cpu ARM e X86 (ma saranno 2 cpu diverse) e sarà il rpimo passo verso l'unificazione
-K12 sarà una unica cpu sia Arm che X86
-Zen solo X86 high end (i nuovi Fx per capirci) e non dovrebbe centrare una fava con skybridge e k12
è prima di tutto un nuovo modo di fare calcolo.
devil_mcry
12-09-2014, 15:13
Infatti questa è la cosa GRAVISSIMA che ha fatto AMD, aver accettato un PP INADEGUATO per gli FX da parte di GF. Perchè non hanno detto o mi dai il 22nm SOI o vado da IBM?
Ad oggi avessimo avuto un 22nm Soi, sarebbe potuto tranquillamente uscire un x10 in 125W se non addirittura 95, e probabilmente x8 a 5ghz in 95W. Senza contare il guadagno che ha avuto SR solo architetturalmente, depurato della perdita di frequenza del bulk.....
Per quello spero che AMD lasci quei paracarri di GF per passare a TMSC, che almeno hanno una roadmap chiara su quali pp sviluppano.
C'è una bella differenza tra sapere quale PP verrà sviluppato e adeguarti di conseguenza (anche se non nelle tue corde, es il bulk), e sviluppare un'architettura per Soi e doverla adattare al bulk 6 mesi prima della presentazione
Ma penso che quando hanno stretto accordi per la produzione di BD il 22 SOI ancora non era pronto... alla fine sono cose che avvengono molto prima della messa in commercio del prodotto.
Poi bisogna vedere cosa c'è dietro perchè penso ci fossero accordi preesistenti che vincolavano entrambe le parti vista la recente separazione al tempo...
l'hanno presa a 220w :stordita: che senso ha?
appunto era uno xeon fai te come erano messi...
comunque era solo per mettere i puntini sulle i, non sto qua a giustificare proprio nulla, riporto solo fatti e misfatti, quello che era e non è stato/potuto essere...
Si ma i puntini sulle i li hai messi nei posti sbagliati lol...
carlottoIIx6
12-09-2014, 15:14
cut
HSA viene spesso confusa con openCl ma il funzionamento non è opencl ma sfruttare la potenza elaborativa dei core gpu molto ben più potenti della semplice fpu.
HSA permette di far vedere i cores gpu come cores tradizionali detto in modo semplice, è l'adattatore per la programmazione di questo hardware con programmi che funzionano su x-86.
Open cl è un altra cosa e viene sfruttata anche dalle gpu dedicate.
open cl sono delle istruzioni processabili sia da gpu che da cpu.
hsa può dare una spinta a farle andare ancora più forti.
devil_mcry
12-09-2014, 15:22
ma lol lo dico io
:asd:
hai detto cose inesatte, punto
Tipo? Che le prime 2 gen di P4 avevano le pipeline a 20 stadi lunghe quasi come quelle di BD?
Che entrambe le architetture avevano poco IPC in relazione alla controparte e contavano su tecnologie non pronte? Che consumavano tanto?
Il resto lo hai aggiunto tu (es che BD ha lo stesso IPC di un P4) lol
La differenza tra BD oggi e un i7 e un P4 e un Athlon 64 all'epoca è che il P4 non aveva così tanto gap, AMD non ha nulla in grado di tenere il confronto con un i7 6-12 di 3 anni fa oggi... Vuoi dirmi che non ha fatto cagare come il p4? suvvia...
AceGranger
12-09-2014, 15:22
HSA viene spesso confusa con openCl ma il funzionamento non è opencl ma sfruttare la potenza elaborativa dei core gpu molto ben più potenti della semplice fpu.
HSA permette di far vedere i cores gpu come cores tradizionali detto in modo semplice, è l'adattatore per la programmazione di questo hardware con programmi che funzionano su x-86.
Open cl è un altra cosa e viene sfruttata anche dalle gpu dedicate.
devil_mcry ti ha risposto piu che bene su come stanno le cose; quella da te esposta è una strana visione che hanno alcuni di HSA che credono sia la nuova panacea di tutti i mali di AMD...
HSA è teoricamente utile solo in quegli applicativi che creano molte piccole richieste in modo tale da sfruttare l'accesso veloce alla ram e da CPU a GPU, e tali da non saturare la piccola GPU entry lvl delle APU e stop; i software che beneficiano appieno della GPU gia la usano e dell'integratina, delle APU non se ne faranno mai nulla.
se un software non lavora bene sulla GPU non è che con HSA magicamente la sfruttera appieno...
animeserie
12-09-2014, 15:36
dai Grid e Devil, state dicendo la stessa cosa solo che forse non vi capite :) :)
penso che il succo sia che BD, come NetBurst all'epoca, abbia patito gli stessi problemi ossia:
- poco Ipc rispetto alla gen precedente
- pipeline lunghe
- scaling su frequenze impossibili a cui poi non si è arrivati.
Sbaglio ?
inutile bisticciare su questo punto, su ;)
devil_mcry
12-09-2014, 15:36
ma per te in una cpu contano solo gli stadi pipeline? sai quanti ne hanno sandy-ivy o haswell? ... non sono molto lontani da BD o da SR...
non aveva il gap perché AMD ha poi toppato il dopo athlon ed ha recuperato agevolmente sul PP, non come ora dove AMD non può contare sul PP indietro di parecchio e su una architettura ormai cestinata che batte gli ultimi colpi in attesa della nuova...
sono altri tempi, manco si sapeva cosa era ARM prima, ad esempio... ora sono concentrati pure su quello... sono paragoni che non ci stanno dieci anni dopo...
No, conta la bontà dell'architettura... Sulle architetture Core (post SB) le pipeline non sono a lunghezza fissa e possono essere lunghe anche solo 14 stadi. Intel ha sempre avuto pipeline più lunghe in proporzione di AMD (anche tra core 2 duo e K10) ma pipeline estremamente lunghe come quelle di BD le ha solo pensate in un P4.
AMD dal canto suo ha fatto un bel salto indietro passando da architetture a 12 stadi a una a 20-22 ...
La lunghezza media della pipeline è di 4-5 stadi inferiore sulle architteture post SB, e non è che trovi architetture a 10 stadi moderne... Sono passati da pipeline di 12 stadi a pipeline lunghe quasi il doppio, non c'era da stupirsi che l'IPC ne avrebbe risentito.
Per la seconda parte se rileggi il mio post non dico da nessuna parte che hanno lo stesso IPC (questo l'hai detto tu), ma che entrambe hanno un IPC ridicolo, cosa che confermi tu stesso quando dici che equivale ad un processore di 6 anni fa...
Ma il punto non è quello, tu hai iniziato a parlare di numeri e allora scusa, dove sarebbero i puntini sulle i se:
NON ho detto che hanno lo stesso IPC, ma che entrambi avevano IPC basso (e il post dopo lo hai detto pure tu... quindi cosa cambia?)
I P4 non erano a 32 stadi, solo i Prescott e comunque erano 31 stadi mi pare, ma per due generazione avevano pipeline lunghe come BD tant'è che varie testate hanno fatto il parallelo tra Netburst e BD al suo lancio sotto questo aspetto
La storia degli EE è vera ma non è proprio la stessa cosa di un 8350 rimarchiato (anche se nel 2004 ne Intel ne AMD offrivano realmente qualcosa in più a 1000$, e comunque su sta cosa più o meno mi pare che ci troviamo)
? Magari non ci capiamo eppure continuando a rileggere non trovo riferimenti a quell'affermazione...
LurenZ87
12-09-2014, 15:46
Il problema non è oggi ma nell'immediato futuro...
Avete letto l'articolo del sito riguardante i nuovi Core-M??? La questione si mette molto male per AMD, sia sul fronte cpu che gpu (con Maxwell di NVidia). Purtroppo gli unici a rimetterci saremo noi utenti finali, sapete già come funziona...
Inviato dal mio OnePlus One utilizzando Tapatalk
IBM ormai fabbrica solo per lei e poco altro (vecchie console) e oltretutto ha le casse prosciugate dalle fonderie a 22nm, sennò non venderebbe la Fab per 2 miliardi, vuole diventare Fabless :eek: e avere una FAB solo per R&D...
per cui AMD, cosa avrebbe dovuto fare? TSMC non ha mai fatto silicio per CPU-x86 high-end HPC, come x86 fa solo i SoC low power per AMD, Brazos 40nm, Jaguar/Puma 28nm HP-LP
inizialmente al progetto Komodo era previsto x10 nei 32nm se non erro, nei 22nm ci starebbe un 8m/16c nativo in ~125 watt a ~3.5ghz
i 16nm turbo-plus (dovrebbe chiamarsi cosi la derivazione HP) TSMC probabilmente sono studiati anche per x86-HE oltre che per le GPU-HE, ma non è ancora detto non ci sono notizie ufficiali....
Appunto, vuoi che IBM, proprio perchè all'asciutto, non avrebbe volentieri adattato il suo SOI all'x86 di amd per avere un po di soldi. Male che vada facevi anche FX SR ed EX sul 32nm, meglio che vedersi proposto il "refresh" Fx PD all'alba del 2015!
george_p
12-09-2014, 15:51
devil_mcry ti ha risposto piu che bene su come stanno le cose; quella da te esposta è una strana visione che hanno alcuni di HSA che credono sia la nuova panacea di tutti i mali di AMD...
HSA è teoricamente utile solo in quegli applicativi che creano molte piccole richieste in modo tale da sfruttare l'accesso veloce alla ram e da CPU a GPU, e tali da non saturare la piccola GPU entry lvl delle APU e stop; i software che beneficiano appieno della GPU gia la usano e dell'integratina, delle APU non se ne faranno mai nulla.
se un software non lavora bene sulla GPU non è che con HSA magicamente la sfruttera appieno...
Errore mio, scusate :(
Volevo riferirmi al concetto di Fusion(e) tra x86 e gpu ossia quello che è appena appena cominciato con kaveri tramite Huma, e che migliorerà nelle prossime evoluzioni (Fusion2) dove amd intende da sempre (motivo per cui ha acquisito ati, non certo per avere pochi punti percentuali in più rispetto agli x-86) l'integrazione più intima tra le cpu tradizionali e le gpu.
Non sarà la panacea di tutti i mali amd e sinceramente non l'ho mai pensato, se una architettura è progettata male come BD hai voglia a utilizzare Fusion e HSA per sopperire alle sue lacune ed handicap, ma infatti Fusion con HSA hanno tuttaltro scopo che è quello di aumentare (SE SUPPORTATE VIA SOFTWARE e bla bla bla) notevolmente le prestazioni ...BD o meno.
Se amd soffre di marketing inadeguato, di amministratori e o ingegneri incompetenti o poco attenti, non sarà certo HSA o Fusion a porvi rimedio.
Dubito volessero utilizzare questi due per rimediare alla scarsezza di BD e anzi secondo me pensavano di integrare pian piano la nuova tecnologia ma quel pian piano si è rivelato decisamente troppo piano e troppo prolungato.
I tempi non sono ancora maturi per cambiare totalmente architettura.
Amen :O
fracama87
12-09-2014, 16:08
comunque ragà capisco che dovete fare passare il tempo in attesa delle (lontane) novità, ma state solo a litigare lol :D
Inviato dal mio XT1032 utilizzando Tapatalk
Nhirlathothep
12-09-2014, 16:46
Ho sentito una perturbazione nella forza, qualcuno ha detto male di ibm?
sono altri tempi, manco si sapeva cosa era ARM prima, ad esempio... ora sono concentrati pure su quello... sono paragoni che non ci stanno dieci anni dopo...
si che si sapeva: solo che al tempo non erano interessanti per determinati mercati che oggi ospitano questa architettura, ma erano idonei solo per alcuni, esempio i vecchi cellulari, o l'adozione da parte di Intel di alcune soluzioni di cpu arm destinate ai PPC (Pocket PC). Tutto questo perchè oggi ARM sono delle carriole poco piu performanti di quelle del tempo in consumi nettamente inferiori rispetto altri tipi di architetture (x86 esempio). Oggi negli smartphone e tablet come ieri cellullari e pocket pc, poco è cambiato, l'unica verà novità e ritrovarseli nei datacenter per installazioni di nodi destinati al bigdata. E su questo sono favorevole perchè hanno riscontrato un ottima affidabilità per quel tipo di utilizzo dove di calcoli intensivi ne devono fare pochi ma devono invece concentrarsi su calcoli di ricerche e archiviazione tutti quanti assieme in alta densità come tantissimi bimbi che fanno i bravi all'asilo.
Tuttavia per me ARM (presi in singoli) sempre carriole piene di cemento e calcestruzzo rimangono.
george_p
12-09-2014, 17:50
...cut
Tuttavia per me ARM (presi in singoli) sempre carriole piene di cemento e calcestruzzo rimangono.
Beh però si sa l'edilizia ancora rende in alcuni settori :D
devil_mcry
12-09-2014, 19:06
forse ho interpretato troppo male il post, ed esce in fuori la mia vena "rossa" :D , anche se cerco sempre di essere il più neutrale possibile ed oggettivo, soprattutto sui consigli altrui, ma è un altro discorso...
poi dopo che sto dando ragione al nuovo corso AMD, e trovo giusto il cestinamento di BD , anche se ero anch'io uno dei sostenitori del CMT e di BD in generale...
poi ultimamente Intel mi sta tornando un pochino simpatica, ma un pochino eh...
ma per fortuna non ho necessità di aggiornare il sistema posso aspettare un paio d'anni :sofico:
no non stiamo affatto litigando, su internet poi e di cpu che senso avrebbe
:)
Mah io onestamente non ho preferenze. Il primo procio che ho avuto era un P2 300MHz, al tempo dei primi Athlon (prima palo, poi barton e 64) avevo quelli. Ho avuto anche un x2 e sono tornato su Intel con i Core 2 Duo (per esattezza l'e8400) e da li sono passato agli i7 (nehalem SB HS). Nonostante questo ho ancora comprato vari Phenom ultimo il 955 C3 che è stata l'ultima CPU AMD che ho preso. Ma BD dal primo momento mi è sempre sembrato zoppo.
george_p
12-09-2014, 22:45
Anche Rory Read ammette il completo fallimento di BD, insomma è l'argomento del giorno ormai... povero BD.
http://www.bitsandchips.it/9-hardware/4768-cosa-ha-detto-rory-read-alla-deutsche-bank-technology-conference
paolo.oliva2
12-09-2014, 23:22
Ma più che altro dire che un i3 è impiccato con un programma in esecuzione assieme all' antivirus significa dimostrare che lui un i3 (quantomeno da Sandy in poi) non lo hai mai provato.
Mi spiace, ma questo passaggio quotato è solo ed esclusivamente diffamazione di un prodotto nonchè disinformazione.
Io ho avuto un Llano che mi hanno fottuto nel viaggio, al che ho comprato un i3 mobile, mi sembra HP, 2GHz e rotti def e 2,4GHz in turbo, 32nm, cambiato felicemente con un Trinity 1,9/2,4GHz, alla faccia di tutti i bench sull'IPC che davano l'i3 superiore.
Più che disinformazione da parte mia (visto che sbagli a dire che non ho avuto un i3, e ti dico pure che scaldava almeno 20° in più del mio Trinity) probabilmente non ti è chiaro il concetto di fluidità perche tu, un BD non lo hai mai provato :)
Nhirlathothep
12-09-2014, 23:39
Io ho avuto un Llano che mi hanno fottuto nel viaggio, al che ho comprato un i3 mobile, mi sembra HP, 2GHz e rotti def e 2,4GHz in turbo, 32nm, cambiato felicemente con un Trinity 1,9/2,4GHz, alla faccia di tutti i bench sull'IPC che davano l'i3 superiore.
Più che disinformazione da parte mia (visto che sbagli a dire che non ho avuto un i3, e ti dico pure che scaldava almeno 20° in più del mio Trinity) probabilmente non ti è chiaro il concetto di fluidità perche tu, un BD non lo hai mai provato :)
io ho dato via un notebook con un i3 sandy ulv 1.5 GHz. La cpu faceva pena, (pena totale, sia in bench che in uso giornaliero ) ma credo che queli desktop siano tutto un' altro discorso
ah nemmeno io ho mai provato bd
°Phenom°
12-09-2014, 23:50
Io ho avuto un Llano che mi hanno fottuto nel viaggio, al che ho comprato un i3 mobile, mi sembra HP, 2GHz e rotti def e 2,4GHz in turbo, 32nm, cambiato felicemente con un Trinity 1,9/2,4GHz, alla faccia di tutti i bench sull'IPC che davano l'i3 superiore.
Più che disinformazione da parte mia (visto che sbagli a dire che non ho avuto un i3, e ti dico pure che scaldava almeno 20° in più del mio Trinity) probabilmente non ti è chiaro il concetto di fluidità perche tu, un BD non lo hai mai provato :)
Se non erro animeserie aveva un 8350 o 8320 prima dell'i7.
Comunque sono d'accordo che gli i3 mobile facciano pena (parlo almeno di un modello sandy), in quanto un mio amico a possederlo si lamenta in continuazione, ma gli i3 desktop difficilmente hanno problemi del genere
paolo.oliva2
12-09-2014, 23:56
Per brevità ti rispondo solo su questo che ho quotato.
Io lo ricordo perfettamente ma IBM è IBM e ha sperimentato lei, sempre che abbia sperimentato effettivamente e non solo ipotizzato, qui parlo per ignoranza.
In ogni caso i punti deboli di BD sono l'aver dimezzato l'FPU e aver utilizzato pure le cache lentissime.
Non hanno innovato nulla, nulla che potesse sostituire i punti forti mancanti.
Questa è a mio parere una grossa lacuna.
Ma non sono riusciti a sistemare granché dopo due anni, quindi impossibile farlo, già con Kaveri hanno ritoccato le pipeline ma con questo le linee produttive e pp erano diversi.
Questo errore di progettazione con processo produttivo meravigliosamente indecente di GloFo ha fatto fermare l'evoluzione di amd nel settore High end.
Solo mi auspico ci diano qualcosa di interessante nel desktop nel 2015 in attesa del nuovo che arriverà poi.
Io non dico differentemente da te.
In tutti i miei post ho solo detto che in primis è un errore parlare di 8350 (Piledriver) 32nm confrontandolo con Haswell in prestazioni, consumi e prestazioni massime, perchè di fatto AMD è fermo su Piledriver per ragioni di silicio (quindi al limite si dovrebbe ipotizzare, sulla base di Kaveri, le prestazioni su un teorico Steamroller FX), in secondo luogo, che il consumo e prestazioni/TDP sono in grandissima parte dipendenti dal silicio.
Inoltre incentrare il discorso sulle prestazioni inferiori basandosi sull'architettura CMT, è assolutamente fuori luogo, perchè basandosi anche su quello che dici tu, il depotenziamento della FPU non ha nulla a che vedere con il CMT, come pure l'IPC, perchè il CMT significa condivisione di parti di logica, indipendentemente dal valore IPC a monte.
Il prb di AMD è stato un IPC inferiore alle aspettative unito a delle frequenze inferiori, e fin qui concordiamo tutti, ma molti non comprendono, o non vogliono comprendere, che il prb più grande di AMD è il silicio, non l'architettura. Che vantaggi ha portato Steamroller in prestazioni massime? Eppure rispetta quello che tutti chiedono, cioè più IPC. Ma cosa è servito il +10% di IPC rispetto a Piledriver senza un silicio migliore del 32nm SOI? Che cosa offrirà Carrizo in più di Piledriver/Steamroller se verrà prodotto sempre sul 28nm Bulk nonostante possa avere +20% ma spariamo anche +30% di IPC? NULLA, perchè dovrà ridurre le frequenze operative.
Pensi che con +50% di IPC AMD realizzerebbe un 5960X? E su quale silicio? Sul 28nm Bulk che permette max un APU X4 o sul 32nm SOI che permette max un X8 ma con minor IPC?
Allora, per uno che voglia (tipo me) di più di un 8350, guarderebbe gli X4 (X4 Steamroller +10% di IPC su Piledriver e X4 Excavator +~20% di IPC su Piledriver) oppure, nel caso di un X12, lo acquisterebbe di corsa? Ma che cacchio me ne frega di un 10% di IPC in meno (Piledriver vs Steamroller) se pompasse +50% in più in MT? Cacchio, boh... io mi diverto un totale a caricare a più non posso l'8350 e credo di sfruttare il procio come X8 in tutto e per tutto... un X12 mi permetterebbe un 50% in più di carico e permetterebbe comunque, disabilitando 1 core a modulo, di ottenere l'IPC di Steamroller con un X6 e non X4...
carlottoIIx6
13-09-2014, 00:14
Anche Rory Read ammette il completo fallimento di BD, insomma è l'argomento del giorno ormai... povero BD.
http://www.bitsandchips.it/9-hardware/4768-cosa-ha-detto-rory-read-alla-deutsche-bank-technology-conference
io non sò cosa amd combina, ma non si sputa nel piatto in cui si mangia.
amd doveva convivere con BD perché non aveva scelta. Dice anche se sapeva che non dava la svolta per l'azienda. ok! ma vorrei dire a commentatori, che BD ha mancato gli Fx con steamroller e carizzo nel frattempo langue. il punto è che non si sa per quanto tempo resteranno i 28nm che sono stati il vero limite al salto di BD verso Excavator.
paolo.oliva2
13-09-2014, 00:44
dai Grid e Devil, state dicendo la stessa cosa solo che forse non vi capite :) :)
penso che il succo sia che BD, come NetBurst all'epoca, abbia patito gli stessi problemi ossia:
- poco Ipc rispetto alla gen precedente
- pipeline lunghe
- scaling su frequenze impossibili a cui poi non si è arrivati.
Sbaglio ?
inutile bisticciare su questo punto, su ;)
Aspetta, le differenze ci sono e tante.
In primis il PIV abbisognava di 10GHz per essere competitivo, cioè 3 volte quasi la frequenza a cui sono arrivati... Se un 8350 @7,650 arriva in Cinebench quasi ad un 5960X a def, per la frequenza rimanente ci dovresti sommare le performances per intero di un altro 8350..... altro che competitivo :)
Il PIV è monocore e quindi è stato un flop perchè puntava tutto ed unicamente sulla frequenza, BD ha il CMT il cui scopo è a parità di transistor aumentare il numero di core.
Se unisci le 2 cose, cioè PIV 3 volte la frequenza a cui sono arrivati e AMD che con il +50% di frequenza sarebbe competitiva, c'è una galassia di differenza. Ma la vera differenza è che mentre il PIV non poteva sperare in uno step di miniaturizzazione per aumentare le frequenze (dipende dal PP silicio, cioè a che frequenza il PP comincia a far impennare il TDP, indipendentemente dalla miniaturizzazione), e quindi di fatto NESSUNA possibilità di aumentare la potenza finale essendo mono-core, BD con una miniaturizzazione più spinta (e sfruttando proprio la peculiarità del CMT, cosa che il PIV assolutamente non ha) aumenterebbe comunque la potenza massima, di un +25% passando ad X10, +50% ad X12, +100% ad X16, con una similitudine quando AMD era sul 45nm con l'IPC del Phenom II (sempre inferiore ad Intel), ha realizzato il Thuban X6, ed anche se l'i920 aveva più IPC, il prodotto architettura Phenom II potenziato del +50% di core ha tenuto botta in MT ad Intel a parità di miniaturizzazione silicio, perchè con l'i980X sul 32nm non c'era scampo, e sarebbe la stessa cosa oggi, cioè un X12 BD (anche se Piledriver) sarebbe lì con gli i7 X6 32nm, ma nulla può contro un 5960X 22nm.
Se rifletti su questo, allora puoi capire il perchè dico che il prb enorme è il silicio per AMD.... perchè a parte architetture nuove già pronte nel cassetto (Steamroller ed Excavator) ma ferme per mancanza silicio, sarebbe MOLTO meglio avere un silicio superiore ma architettura vecchia, perchè un +50% di guadagno MT sarebbero un bel plus di potenza, ma qualsiasi architettura ma sempre sul 32nm SOI e/o 28nm Bulk al più guadagnerebbe un 20% ad essere di manica larghissima.
FazzoMetal
13-09-2014, 00:54
Vorrei lasciare anche io un piccolo feedback sul discorso i3/i5 mobile vs FX: ormai sono tre anni che utilizzo un i5 mobile sul notebook, in particolare un Sandy Bridge da 2.4GHz, 3GHz in turbo. E' una bella CPU, con un IPC di tutto rispetto ed HT, ed offre complessivamente una potenza adatta alla maggior parte dei carichi consumer. Devo dire però che i soli 2 core fisici sono limitanti: a volte basta esportare un video di 5 minuti con Premiere per non riuscire più a navigare al 100% della fluidità. Spesso mi sono ritrovato col laptop impiccato anche, banalmente, per compilare del firmware un pò più complesso e con un pò di librerie in più del solito: si parla di molte operazioni complesse ma comunque non "pesanti" da eseguire. Spesso lavorando con qualche CAD e tenendo aperti Spotify, Firefox e Adobe Reader (tutti applicativi piuttosto leggeri) si nota come la CPU fatichi a gestire la situazione, specie in determinati frangenti, rispetto a quando si fa una cosa alla volta. In questo l'FX6300 che utilizzo da un annetto offre un'esperienza d'uso molto migliore permettendo di fare molte cose contemporaneamente, magari non alla velocità di un Intel, ma sempre fluidamente. Non voglio assolutamente confrontare una CPU da 95W con una CPU+GPU da 35W, questo no, però vorrei soltanto spezzare una lancia all'approccio adottato fin qui da AMD: avere tanti core fisici a disposizione, IMHO, torna utile e non solo in quei software che sfruttano pesantemente il MT.
°Phenom°
13-09-2014, 01:02
Si ma fatto sta che non si può dare la colpa al solo silicio, perchè il problema sta anche alla radice, cioè l'architettura, in quanto per farti un esempio, un 8350 a 6ghz in cb r15 fa 958, lo stesso score che fa un 4770k a 4.7ghz circa ed un 3770k a 5.1ghz circa. Con il 4790k a 4.9ghz faccio 1011pt in MT: http://www.hwlegendshack.com/out.php/i10197_cb-r15-4.9ghz.png
A 5ghz dovrei provare.
Penso che anche con un ottimo silicio i 6ghz+ sarebbero stati un utopia a meno di non andarci ad azoto per daily, tralasciando i possibili consumi :asd:
Riguardo al discorso della cpu impiccata in mt pesante, io sono passato dal 9370 a 5ghz al 4790k a 4.8ghz e nell'uso MT intenso l'i7 4+4 non è per nulla impiccato. Poi certo se avvio 2 rendering, 2 video, 2 giochi ecc tutto in contemporanea, li di sicuro il 4790k si impicca rispetto al 9370 che continua a tirare, ma parlando seriamente, chi fa un uso del pc in questo modo? O comunque chi ci va così pesante in MT da riuscire ad impiccare un i7 o comunque anche un i5? :mbe:
Free Gordon
13-09-2014, 01:19
Il problema non è oggi ma nell'immediato futuro...
Avete letto l'articolo del sito riguardante i nuovi Core-M??? La questione si mette molto male per AMD, sia sul fronte cpu che gpu (con Maxwell di NVidia). Purtroppo gli unici a rimetterci saremo noi utenti finali, sapete già come funziona...
Non credo che AMD (ATI) avrà mai problemi a contrastare efficacemente Nvidia. :)
Certo, ci possono essere alti e bassi (tutte e due le case li hanno avuti) ma GPU-side, AMD è messa molto ma molto meglio che CPU-side. ;)
CPU-side ci vorrà un mezzo miracolo per riprendersi un pò nei prossimi 2 anni... GPU-side potrebbe tranquillamente uscirsene con un'architettura nuova che metta in difficoltà Nvidia ;) (come furono le serie HD4-5-6000 ;) ).
paolo.oliva2
13-09-2014, 01:40
Se non erro animeserie aveva un 8350 o 8320 prima dell'i7.
Comunque sono d'accordo che gli i3 mobile facciano pena (parlo almeno di un modello sandy), in quanto un mio amico a possederlo si lamenta in continuazione, ma gli i3 desktop difficilmente hanno problemi del genere
Ma guarda... gli i3 desktop non li ho provati, ed è probabile che con più clock siano più reattivi, però non può cambiare più di tanto il carico max.
L'8350 lo posso caricare con 2TH a core (16 totali) ed avere il procio reattivo come se fosse in idle... Trinity perde, il max è 1TH a core per avere reattività per un 5°. L'HT, nel passaggio da uno all'altro TH, deve svuotare la che L1 e questo comunque implica un rallentamento più o meno marcato in base alla frequenza operativa, ma di per sè parleremmo di 2TH, ben distanti dai 4TH di Trinity e dai 16TH di un 8350. Del resto ho letto molti commenti da possessori di i7 che in fatto di reattività sul carico l'8350 non ha nulla da invidiare ad un 3930K o 4930K, che indubbiamente ha più margine di un 3770K/4770K, figuriamoci di un i3.
Ma sono 2 cose differenti, l'i3 è sufficiente per fare determinate cose, ma si restringono sempre più, perchè anche nel gamer (che io non faccio), se leggo di utenti intenzionati al passaggio i5-->i7, è segno che 4 core + HT risultino insufficienti, cosa si può dire per un X2 seppur con HT? L'8350 è un procio a 360°, e se non si pretendono prestazioni massime, a 150€ è un affarone.
george_p
13-09-2014, 07:10
io non sò cosa amd combina, ma non si sputa nel piatto in cui si mangia.
amd doveva convivere con BD perché non aveva scelta. Dice anche se sapeva che non dava la svolta per l'azienda. ok! ma vorrei dire a commentatori, che BD ha mancato gli Fx con steamroller e carizzo nel frattempo langue. il punto è che non si sa per quanto tempo resteranno i 28nm che sono stati il vero limite al salto di BD verso Excavator.
Gli è andata male anche considerando il processo produttivo completamente penoso, almeno quest'ultimo avrebbe aiutato a colmare i gap della mal progettazione.
Ribadisco che i tempi per un architettura modulare forse erano/sono davvero troppo per niente maturi, e per fare uscire BD ormai in cantiere da anni hanno fatto (fare) le cose frettolosamente.
Il processo produttivo non consente loro evidentemente di far uscire un buon excavator capace di competere efficacemente in prestazioni e consumi.
AceGranger
13-09-2014, 09:17
Riguardo al discorso della cpu impiccata in mt pesante, io sono passato dal 9370 a 5ghz al 4790k a 4.8ghz e nell'uso MT intenso l'i7 4+4 non è per nulla impiccato. Poi certo se avvio 2 rendering, 2 video, 2 giochi ecc tutto in contemporanea, li di sicuro il 4790k si impicca rispetto al 9370 che continua a tirare, ma parlando seriamente, chi fa un uso del pc in questo modo? O comunque chi ci va così pesante in MT da riuscire ad impiccare un i7 o comunque anche un i5? :mbe:
Il fatto che si impicchi dipende solo dalla casualita di come vanno a finire i thread sui core, basta impostare l'affinita dei core con le applicazioni e ti ritrovi un 4790k che non si impicca e che globalmente continua a darti performance migliori del 9370.
Feci queste prove al tempo ( 2600K vs fx8150 ) quando nacque la leggenda e si iniziarono a fare le prove con CB a 64 Th + 2-3 sessioni di 7zip + OCCT + vlc etc. etc. postando qui gli stessi identici screen e i risultati erano superiori a quelli dell 8150; bastano 2 click nel pannello Gestione attivita... Con il 3930K non persi nemmeno tempo a farlo.
non esiste la potenza inespressa di BD.
Caterpillar_WRT
13-09-2014, 10:06
Ma sono 2 cose differenti, l'i3 è sufficiente per fare determinate cose, ma si restringono sempre più, perchè anche nel gamer (che io non faccio), se leggo di utenti intenzionati al passaggio i5-->i7, è segno che 4 core + HT risultino insufficienti, ....
Per i gamers, il passaggio da i5 ad i7 è dovuto esclusivamente alle frequenze ed alla cache superiori in quanto praticamente non esistono giochi che sfruttino + di 4 core.
devil_mcry
13-09-2014, 10:10
Ma guarda... gli i3 desktop non li ho provati, ed è probabile che con più clock siano più reattivi, però non può cambiare più di tanto il carico max.
L'8350 lo posso caricare con 2TH a core (16 totali) ed avere il procio reattivo come se fosse in idle... Trinity perde, il max è 1TH a core per avere reattività per un 5°. L'HT, nel passaggio da uno all'altro TH, deve svuotare la che L1 e questo comunque implica un rallentamento più o meno marcato in base alla frequenza operativa, ma di per sè parleremmo di 2TH, ben distanti dai 4TH di Trinity e dai 16TH di un 8350. Del resto ho letto molti commenti da possessori di i7 che in fatto di reattività sul carico l'8350 non ha nulla da invidiare ad un 3930K o 4930K, che indubbiamente ha più margine di un 3770K/4770K, figuriamoci di un i3.
Ma sono 2 cose differenti, l'i3 è sufficiente per fare determinate cose, ma si restringono sempre più, perchè anche nel gamer (che io non faccio), se leggo di utenti intenzionati al passaggio i5-->i7, è segno che 4 core + HT risultino insufficienti, cosa si può dire per un X2 seppur con HT? L'8350 è un procio a 360°, e se non si pretendono prestazioni massime, a 150€ è un affarone.
:sofico:
Lol la sagra delle boiate, una dietro l'altra :sofico: Qui l'unico segno è un altro...
C'è gente che qui è passata da un 8350 a un 9590 o 9370 per 200mhz allora come te lo spieghi? Usando la tua logica nessuno dovrebbe avere un FX visto che in gaming sono tutti sotto ad degli i5 (secondo te ovviamente).
c'è qualche buon uomo che mi fa un benchino con x264 fhd 1.0.1 con un fx-8320 a 3.2ghz? :stordita:
Il fatto che si impicchi dipende solo dalla casualita di come vanno a finire i thread sui core, basta impostare l'affinita dei core con le applicazioni e ti ritrovi un 4790k che non si impicca e che globalmente continua a darti performance migliori del 9370.
Feci queste prove al tempo ( 2600K vs fx8150 ) quando nacque la leggenda e si iniziarono a fare le prove con CB a 64 Th + 2-3 sessioni di 7zip + OCCT + vlc etc. etc. postando qui gli stessi identici screen e i risultati erano superiori a quelli dell 8150; bastano 2 click nel pannello Gestione attivita... Con il 3930K non persi nemmeno tempo a farlo.
non esiste la potenza inespressa di BD.
mi spieghi meglio questo concetto? pls :)
paolo.oliva2
13-09-2014, 11:02
Il fatto che si impicchi dipende solo dalla casualita di come vanno a finire i thread sui core, basta impostare l'affinita dei core con le applicazioni e ti ritrovi un 4790k che non si impicca e che globalmente continua a darti performance migliori del 9370.
Feci queste prove al tempo ( 2600K vs fx8150 ) quando nacque la leggenda e si iniziarono a fare le prove con CB a 64 Th + 2-3 sessioni di 7zip + OCCT + vlc etc. etc. postando qui gli stessi identici screen e i risultati erano superiori a quelli dell 8150; bastano 2 click nel pannello Gestione attivita... Con il 3930K non persi nemmeno tempo a farlo.
Dubito altamente che l'utente medio ad ogni esecuzione software si metta a smanettare con le affinità... ma a parte questo ti ripeto che un 8150 può avere 2 TH a core e nel contempo poter visualizzare senza scatti un BR già a frequenza def, mentre un 2600K non può, e anche se lo occhi, non cambia nulla.
Il fatto è che io non cerco di far apparire meglio BD, ma espongo quello che BD è, e il migliore modo di utilizzarlo. Se BD rende di più stracaricandolo, non vuol dire che va quanto un 4790K, ma semplicemente perchè quello è il suo punto forte. Se chi ha un 4770K deve giocare con le affinità per ottenere la stessa cosa, quali sono i problemi?
La differenza sta nell'hardware e non serve una conoscienza approfondita. Un modulo AMD ha 2MB di L2 e 2MB di L3, gestisce tranquillamente 2 TH come noccioline e può raddoppiare il carico di TH rimanendo sempre reattivo, con delle normalissime DDR3 a 1600 senza bisogno di timing tirati, e se lo occhi, pure a @5,2GHz, la scalabilità rimane la stessa senza ricorrere a DDR3 più performanti e nemmeno con l'obbligo di occare l'NB.
Non ho provato un 4770K e nemmeno conosco bene le caratteristiche, ma so che le cache L2 e L3 sono di grandezza inferiore ed a questo si deve pure aggiungere che l'inclusività delle cache Intel riduce ulteriormente la capacità effettiva... se poi uno si mette a smanettare con le affinità, ci monta delle DDR3 a clock stratosferici e timing aggressivi occando poi il procio e quant'altro, mi sembra un po' differente all'affermazione che reggono lo stesso carico.
Prova a fare una semplice cosa: carica 2 sessioni di Cinebench e avviale contemporaneamente. Fai la somma dei risultati e otterrai un valore finale inferiore rispetto ad avere una sola sessione di Cinebench. Il Phenom II faceva la stessa cosa, BD no, il risultato è perfettamente in linea, e con conversioni video il risultato addirittura migliora.
non esiste la potenza inespressa di BD.
Falso, e l'ho dimostrato, postando i risultati, più volte, ed è tranquillamente riscontrabile da chiunque semplicemente prendendo la somma dei tempi con più esecuzioni contemporanee.
Devo capire una cosa... a 51 anni mi metterei a strimpellare con l'8350 per diffondere una bufala che l'8350 rende il 5%/10% in più stracaricandolo rispetto ad 1 singolo programma 8TH? A che pro? Per cercare di far apparire che un 8350 al posto di andare 1/3 di un 5960X andrebbe 1,1/3?
Il tutto è nato semplicemente da quello che faccio, conversioni video su una videoteca di oltre 15TB. Ora non ricordo freemaker quanti TH utilizza e in che percentuale, ma è venuto fuori che utilizzando 2 sessioni contemporanee (e 100% di utilizzo di tutti i core) e invece 3 o 4, la somma dei tempi era migliore stracaricando il procio, e il riscontro è un aumento delle temp piuttosto marcato (dai 45° ai 50° per 1,45V/4,6GHz a liquido in Italia) oltre alla necessità di aumentare il Vcore > di 0,025V per la stabilità.
Quando a suo tempo avevo l'8150 e dissi di preferirlo al Thuban perchè l'8150 era più fluido e in MT reggeva più carichi e nel contempo era più potente del Thuban, che cacchio avevo detto di sbagliato? Eppure avevo tutti contro con la frase patetica che "difendevo l'indifendibile"... ma che cacchio dovevo fare? L'8150 nel mio utilizzo era migliore del 1090T, e l'ho postato... con la magra consolazione che dopo 2 anni quello che dicevo è stato riconosciuto come verità.
Ora, riportando che l'8350 da' il meglio stracaricandolo, devo aspettare altri 2 anni per avere la soddisfazione che venga riconosciuto? Ma sai che me ne frega, e non mi interessa nemmeno sapere se il 4770K si possa caricare o meno allo stesso modo, che sbelinino con le affinità o perdano tempo in test inutili per trovare le combinazioni da postare per far vedere che carica uguale ad un 8350, contenti loro...
Nell'uso che io faccio del procio, e non credo di essere l'unico al mondo che ha acquistato un X8 per un utilizzo MT, le comparazioni mi sembra chiaro che le faccio in MT, e la differenza in MT tra un 8350 ed un 4770K è di gran lunga inferiore rispetto a quella dell'IPC, quindi se dico che non vedo assolutamente nel 4770K un'alternativa soddisfacente all'8350, sia per la percentuale che guadagnerei in MT e sia per il prezzo che dovrei spendere, non è parlare male di Intel, perchè un 5960X mi renderebbe ultra-soddisfatto, specialmente ora con un prezzo più appetibile per le prestazioni.
L'8350 non ha la potenza di un 5930K, ma può sopportare la stessa mole di carico di un i7, come è stato riportato da molti in questo TH. Asserire che un 4770K può sopportare lo stesso carico di un 8350, equivale a dire che un 4770K può sopportare lo stesso carico di un i7, cosa che è palesamente fuori da qualsiasi contesto di realtà.
paolo.oliva2
13-09-2014, 12:25
:sofico:
Lol la sagra delle boiate, una dietro l'altra :sofico: Qui l'unico segno è un altro...
C'è gente che qui è passata da un 8350 a un 9590 o 9370 per 200mhz allora come te lo spieghi? Usando la tua logica nessuno dovrebbe avere un FX visto che in gaming sono tutti sotto ad degli i5 (secondo te ovviamente).
Alè. ora la confraternita è al completo.
Nei giochi, in una configurazione con 1 VGA di qualsiasi potenza, alle risoluzioni attuali dei normali monitor LCD, un normalissimo 8350 a def sfrutta l'intero potenziale della VGA arrivando a GPU-LIMIT, quindi qualsiasi potenza abbia il procio, a parte i soliti bench, le differenze prestazionali massime lato X86 non contano una mazza, a parte la situazione di più VGA, ma l'utente che è disposto a spendere 2000€ per un multi-VGA, non prenderà AMD come non prenderà mai un i3.
L'i3 non si occa (almeno ho letto), offre un supporto carico ed MT inferiore a qualsiasi procio in commercio, quindi non può assolutamente soddisfare un utilizzo a 360°, cosa che invece per circa la stessa cifra può fare un 8320 occato (tranquillamente) come un 8350, quindi con le stesse potenzialità in gioco sopra descritte, oltre a permettere una vita più longeva dell'intero sistema, per qualsiasi evoluzione software in futuro.
Non mi è chiara una cosa... AMD sarebbe fuori dal mondo perchè ha un IPC inferiore ad Intel (supponendo una richiesta di potenza gi gran lunga superiore all'utente medio), ma un i3 X2 invece soddisferebbe chiunque... lol... della serie qualsiasi procio Intel è superiore al top AMD, patetico. E sarei io che spara boiate.
nevets89
13-09-2014, 12:39
ok che un 8320 è preferibile rispetto ad un i3...però se uno guarda solamente i giochi l'i3 vince quasi sempre...e anche di parecchio a volte... però si spera che i prossimi giochi sfrutteranno sempre più i multi core...e poi vuoi mettere avere la ruota del carro di intel o la punta di diamante di amd per lo stesso prezzo?:sofico:
AceGranger
13-09-2014, 12:47
mi spieghi meglio questo concetto? pls :)
quando tu fai partire una o piu applicazioni i core lavorano tutti in contemporanea a tutte le applicazioni; se vai in:
Gestione Attivita---Processi--clicchi con il destro su un processo
ti compariranno i core presenti nel tuo sistema ( 8 se hai un 4770K o un fx8350, 12 se ha un 4930K, 16 se prenderai il nuovo EE Intel etc. etc. )
togliendo le flag ai rispettivi core puoi decidere quali core impiegare per l'una o l'altra applicazione.
es. io ho un 4930K, se voglio fare un render e in contemporanea lavorare perfettamente in PS seleziono l'eseguibile di 3D Max e gli associo solo i primi 8 core, in modo tale che gli altri 4 ( in totale sono 12 per via dell'HT ) lavoreranno sul resto tranne che su 3D max, quindi mi ritrovo che finiro il render come se avessi un 4770K e in contemporanea lavoro in PS come se fossi su un i3.
facendo render di rete potresti anche settare solo 2 core al programma di render che coordina la render farm e poi con gli altri fare altri render o quello che vuoi.
Dubito altamente che l'utente medio ad ogni esecuzione software si metta a smanettare con le affinità...
l'utente medio non sfruttera mai nemmeno l'MT quindi il problema non si pone.
Falso, e l'ho dimostrato, postando i risultati, più volte, ed è tranquillamente riscontrabile da chiunque semplicemente prendendo la somma dei tempi con più esecuzioni contemporanee.
e io ti ho dimostrato al tempo che eseguendo i tuoi stessi test il 2600K otteneva lo stesso plus dell'fx8150, e per il problema del lagghettino del mouse bastava semplicemente impostare le affinita.
Prova a fare una semplice cosa: carica 2 sessioni di Cinebench e avviale contemporaneamente. Fai la somma dei risultati e otterrai un valore finale inferiore rispetto ad avere una sola sessione di Cinebench. Il Phenom II faceva la stessa cosa, BD no, il risultato è perfettamente in linea, e con conversioni video il risultato addirittura migliora.
non puoi fare piu sessioni di cinebench.
Paolo il 4770K é un i7, é sckt 1150 e nn 2011... ma sempre un i7 é :D
per il resto concordo e aggiungo che per apprezzare gli FX (nn solo l'8350 perchè anche i fratelli minori si comportano meglio, o uguale ma ad un costo inferiore, della controparte) bisogna averli provati con carichi pesanti e per fare più cose contemporaneamente.
;) ciauz
devil_mcry
13-09-2014, 13:19
-...Asserire che un 4770K può sopportare lo stesso carico di un 8350, equivale a dire che un 4770K può sopportare lo stesso carico di un i7, cosa che è palesamente fuori da qualsiasi contesto di realtà.[/B]
Tu continui a parlare di cose che NON sai e NON hai mai nemmeno visto da distante. Il 4770K è un i7
http://ark.intel.com/it/products/75123/Intel-Core-i7-4770K-Processor-8M-Cache-up-to-3_90-GHz
Ma ti rendi conto di cosa dici? Di quale contesto della realtà parliamo? Il tuo?
quando tu fai partire una o piu applicazioni i core lavorano tutti in contemporanea a tutte le applicazioni; se vai in:
Gestione Attivita---Processi--clicchi con il destro su un processo
ti compariranno i core presenti nel tuo sistema ( 8 se hai un 4770K o un fx8350, 12 se ha un 4930K, 16 se prenderai il nuovo EE Intel etc. etc. )
togliendo le flag ai rispettivi core puoi decidere quali core impiegare per l'una o l'altra applicazione.
es. io ho un 4930K, se voglio fare un render e in contemporanea lavorare perfettamente in PS seleziono l'eseguibile di 3D Max e gli associo solo i primi 8 core, in modo tale che gli altri 4 ( in totale sono 12 per via dell'HT ) lavoreranno sul resto tranne che su 3D max, quindi mi ritrovo che finiro il render come se avessi un 4770K e in contemporanea lavoro in PS come se fossi su un i3.
facendo render di rete potresti anche settare solo 2 core al programma di render che coordina la render farm e poi con gli altri fare altri render o quello che vuoi.
grazie molto esauriente :)
incredibile come non conoscessi questa funzione :eek:
ok che un 8320 è preferibile rispetto ad un i3...però se uno guarda solamente i giochi l'i3 vince quasi sempre...e anche di parecchio a volte... però si spera che i prossimi giochi sfrutteranno sempre più i multi core...e poi vuoi mettere avere la ruota del carro di intel o la punta di diamante di amd per lo stesso prezzo?:sofico:
Per favore non diciamo eresie.....
Inviato dal mio GT-I9505 usando Tapatalk 4
Tu continui a parlare di cose che NON sai e NON hai mai nemmeno visto da distante. Il 4770K è un i7
http://ark.intel.com/it/products/75123/Intel-Core-i7-4770K-Processor-8M-Cache-up-to-3_90-GHz
Ma ti rendi conto di cosa dici? Di quale contesto della realtà parliamo? Il tuo?
Devil nn mi sembra il caso d'animarsi tanto, sicuramente é stata una svista... che io per primo gli ho fatto notare... credo che paolo scrivendo i7 si riferisse a quelli sckt 2011... e il 4770K, pur essendo un i7, nn lo é.
;) ciauz
nevets89
13-09-2014, 13:50
Per favore non diciamo eresie.....
Inviato dal mio GT-I9505 usando Tapatalk 4
beh, io ho guardato un po di benchmark degli ultimi giochi: thief, assassin's, watch dogs e tranne che su quest'ultimo negli altri l'i3 vince e non per 2 o 3 frame... poi se parliamo di giochi più vecchi allora il divario aumenta pure.
però proprio watch dogs (porting di ....) mi fa sperare che i prossimi porting sviluppati nativamente sulle nuove console sfruttino bene gli fx..
ok che un 8320 è preferibile rispetto ad un i3...però se uno guarda solamente i giochi l'i3 vince quasi sempre...e anche di parecchio a volte... però si spera che i prossimi giochi sfrutteranno sempre più i multi core...e poi vuoi mettere avere la ruota del carro di intel o la punta di diamante di amd per lo stesso prezzo?:sofico:
Premetto che nn ho ancora avuto modo di mettere le mani su un i3 haswell, ma avendo visto gli incrementi di questa generazione rispetto le precedenti, credo che sia sicuramente meglio... ma solo con i giochi che sfruttano fino a 2 cores, anche considerando che le cpu intel nel gaming vanno benissimo, penso che in watch dogs o crisis 3 anche il mio 6300 sia meglio... senza scomodare un 8 cores.
PS
ops abbiamo postato in contemporanea
;) ciauz
devil_mcry
13-09-2014, 13:58
Devil nn mi sembra il caso d'animarsi tanto, sicuramente é stata una svista... che io per primo gli ho fatto notare... credo che paolo scrivendo i7 si riferisse a quelli sckt 2011... e il 4770K, pur essendo un i7, nn lo é.
;) ciauz
Dai, sono 3-4 post che dice cose insensate. Il 4770k è un i7 e inoltre da quando esistono gli i7 quelli 115x hanno sempre avuto più IPC di quelli 1366-2011
Questo perchè su bloomfield aveva l'uncore più lento di lynnfield, perchè sb-e aveva un ring più lungo di sb.
Gli i7 sono etichettati così per performance, vuoi dirmi che anche la storia del i3 e dell'antivirus è una svista? Senza contare la questione del "dovrebbero regalarli" e del fatto che un i3 non costa come un fx 8320 o 8350...
PS, non sono animato :D ma certe cose dette per tirare acqua al proprio mulino non hanno senso, sembra sempre una questione religiosa quando pure AMD ha abbandonato questa architettura
Dai, sono 3-4 post che dice cose insensate. Il 4770k è un i7 e inoltre da quando esistono gli i7 quelli 115x hanno sempre avuto più IPC di quelli 1366-2011
Questo perchè su bloomfield aveva l'uncore più lento di lynnfield, perchè sb-e aveva un ring più lungo di sb.
Gli i7 sono etichettati così per performance, vuoi dirmi che anche la storia del i3 e dell'antivirus è una svista? Senza contare la questione del "dovrebbero regalarli" e del aftto che un i3 non costa come un fx 8320 o 8350...
Nn ho letto tutti i post, ma quello che ha scritto sul comportamento degli FX con i carichi pesanti nn é insensato... e lo confermo, come confermo che gli i3 sb/ib (gli haswell nn l'ho ancora provati) pur essendo più veloci con i carichi leggeri si siedevano prima del mio 4100 (che presi per scommessa e l'ho sempre considerato un bidone).
;) ciauz
beh, io ho guardato un po di benchmark degli ultimi giochi: thief, assassin's, watch dogs e tranne che su quest'ultimo negli altri l'i3 vince e non per 2 o 3 frame... poi se parliamo di giochi più vecchi allora il divario aumenta pure.
però proprio watch dogs (porting di ....) mi fa sperare che i prossimi porting sviluppati nativamente sulle nuove console sfruttino bene gli fx..
Direi di no, fatti un giro su gamegpu e guarda qualche bench, tendenzialmente il 4330 ( gli i 3 piu vecchi praticamente sono a fando classifica quasi perennemente) se la batte con il 6300 a def. Nei rari casi in cui va meglio si avvicina all'8350, ma da qui a batterlo, e di tanti fps, ce ne passa
Direi di no, fatti un giro su gamegpu e guarda qualche bench, tendenzialmente il 4330 ( gli i 3 piu vecchi praticamente sono a fando classifica quasi perennemente) se la batte con il 6300 a def. Nei rari casi in cui va meglio si avvicina all'8350, ma da qui a batterlo, e di tanti fps, ce ne passa
Ma il 4430 é un i5... mica un i3 :confused:
;) ciauz
Ma il 4430 é un i5... mica un i3 :confused:
;) ciauz
Sisi, me ne ero accorto anche io, avevo digitato male. Ho corretto
Sisi, me ne ero accorto anche io, avevo digitato male. Ho corretto
Quindi gli i3 sono ancora più in basso :stordita:
;) ciauz
nevets89
13-09-2014, 14:43
Direi di no, fatti un giro su gamegpu e guarda qualche bench, tendenzialmente il 4330 ( gli i 3 piu vecchi praticamente sono a fando classifica quasi perennemente) se la batte con il 6300 a def. Nei rari casi in cui va meglio si avvicina all'8350, ma da qui a batterlo, e di tanti fps, ce ne passa
ho guardato sia la pagina di fps che di rpg...e tranne divinity mi pare che l'i3 batte sempre l'fx 8350 :eek:
devil_mcry
13-09-2014, 14:48
Nn ho letto tutti i post, ma quello che ha scritto sul comportamento degli FX con i carichi pesanti nn é insensato... e lo confermo, come confermo che gli i3 sb/ib (gli haswell nn l'ho ancora provati) pur essendo più veloci con i carichi leggeri si siedevano prima del mio 4100 (che presi per scommessa e l'ho sempre considerato un bidone).
;) ciauz
Si ma perchè?
Perchè al di la di quello che uno poi nel tempo ha voluto o meno credere (dopo che le prestazioni sono diventate di dominio pubblico), il modulo di BD può operare perfettamente come 2 core Star.
Solo una parte del front end (3 stadi di pipeline) sono condivisi tra i due core il resto è tutto indipendente. L'FPU è in grado di operare tranquillamente come se fossero presenti 2 FPU da 128bit, quelle che AMD aveva nei core Star.
Al di la dell'IPC e delle performance dell'FPU quando computa dati a 128bit, in una buona percentuale dei casi un FX lavora esattamente come se fosse un ocatacore o un esacore o un quadcore.
Se già mandaste in elaborazione 4 thread che usano l'FPU a 256bit le prestazioni crollano, 4 thread e quindi 4 semi moduli sono zoppi.
Ora ti faccio questa domanda... In ambito consumer la maggior parte della gente probabilmente si mette a fare un paio di cose per volta e per lo più e qualcosa tipo navigare e qualcosa tipo ascoltare la musica... Dov'è il vantaggio di quella soluzione ?
In ambito più professionale, rendering, encoding etc il tempo maggiore è speso in computazione pesante, stando ai risultati presenti su hwbot ad esempio al cinebench r15 un 9590 a 5600MHz non ottiene lo score del mio 4770k a 4400MHz (899pti vs i 900 del mio anche se mi pare di aver ottenuto come massimo 910 o giù di li, e non ho nemmeno la cache in sincrono).
In questo caso quale CPU permette di ottenere prima dei risultati? C'è quasi il 30% di gap tra le due CPU in termini di MHz e quindi di IPC... Sembra poco ma su un render di 6-7 ore (che non è poi inusuale già a livello universitario) metterci il 30% in più del tempo (circa 2h) non mi sembra poco...
Quindi quand'è che BD sfrutterebbe questo vantaggio? Senza considerare che ACE dice che schedulando a mano i thread il comportamento tra un i7 e un 8350 è uguale...
Scusa il post lunghetto
sybase, citrix, amanda, CMDBuild: fateli girare sugli FX, altro che leggende, altro che 4770K a seguire, bisogna disturbare la serie top extreme intel o gli xeon direttamente per infastidire gli FX su applicazioni db_intesive.
"Presero un piccolo Opteron lo alzarono al cielo e amd disse: ti chiamerò FX e ti infilerò nel mercato dei segaioli... e cosi fu ! [mia cit.]"
l'ho sempre detto, gli FX hanno comportamenti da cpu per server e no per desktop...
Certamente questo non giustifica la scelta di amd, anzi ritengo sia una scelta sbagliata. Tuttavia vi scannate senza capire ancora dove gli FX rullano. E aihmè il problema non è chi c'è la piu grosso in MT, ma in quale contesto MT: gli Intel mainstream (anche i7) in MT con applicazioni di calcolo intensivo generico in float (es rendering) e altri tipi di applicazioni, vanno pure meglio degli FX, ma se li metti a farli rullare su applicativi C-I.D (computation-intensive database) crollano molto prima degli FX, il multicore degli FX si comporta meglio in questi ambiti. Tuttavia non sono ambiti consumer desktop. Ergo è come paragonare maiali con le pecore.
ho guardato sia la pagina di fps che di rpg...e tranne divinity mi pare che l'i3 batte sempre l'fx 8350 :eek:
Non so cosa tu abbia guardato ma (non ho voglia linkare tutte le immagini)
Enemy front è cappato a 82 e fanno gli stessi fps
Murdered è l'unico che si avvicina e fa 9 fps in piu dell fx 8350
Garden Warfare sta sotto al 6300
Titanfall cappato
Wd sotto al 6300
Wolfenstein sotto al 6100 (non ho sbagliato, 6100)
Dark souls cappato
BF4 pari dell'8350
Risen cappato
Divinity sta sotto al 4300
Sacred cappato
Diablo intel stravince (ma basta guardare il carico cpu e si capisce perchè, a malapena carica 2 core)
Metro fa piu dell'8350.
Ora, su tutti quelli che ho elencato, il 4330 (gli i3 sandy/ivy gia pagano tantissimo, e questo è gia un motivo per cui non comprerei un i3 per gaming, l'anno dopo perde gia prestazioni), solo su 2 titoli va meglio, gli altri va come un 6300 (a def) o peggio, al massimo pareggia l'8350....
Non tenendo conto dei cappati
devil_mcry
13-09-2014, 15:38
sybase, citrix, amanda, CMDBuild: fateli girare sugli FX, altro che leggende, altro che 4770K a seguire, bisogna disturbare la serie top extreme intel o gli xeon direttamente per infastidire gli FX su applicazioni db_intesive.
"Presero un piccolo Opteron lo alzarono al cielo e amd disse: ti chiamerò FX e ti infilerò nel mercato dei segaioli... e cosi fu ! [mia cit.]"
l'ho sempre detto, gli FX hanno comportamenti da cpu per server e no per desktop...
Certamente questo non giustifica la scelta di amd, anzi ritengo sia una scelta sbagliata. Tuttavia vi scannate senza capire ancora dove gli FX rullano. E aihmè il problema non è chi c'è la piu grosso in MT, ma in quale contesto MT: gli Intel mainstream (anche i7) in MT con applicazioni di calcolo intensivo generico in float (es rendering) e altri tipi di applicazioni, vanno pure meglio degli FX, ma se li metti a farli rullare su applicativi C-I.D (computation-intensive database) crollano molto prima degli FX, il multicore degli FX si comporta meglio in questi ambiti. Tuttavia non sono ambiti consumer desktop. Ergo è come paragonare maiali con le pecore.
Siamo sempre li, per carichi non FPU intensive o dove sono comunque al massimo vengono processati dati a 128bit, un fx 8350 è un octacore al 99.999999% (gli i7 a parte il nuovo 8/16 non lo sono). Ma questo non lo prenderei come un merito...
Si ma perchè?
Perchè al di la di quello che uno poi nel tempo ha voluto o meno credere (dopo che le prestazioni sono diventate di dominio pubblico), il modulo di BD può operare perfettamente come 2 core Star.
Solo una parte del front end (3 stadi di pipeline) sono condivisi tra i due core il resto è tutto indipendente. L'FPU è in grado di operare tranquillamente come se fossero presenti 2 FPU da 128bit, quelle che AMD aveva nei core Star.
Al di la dell'IPC e delle performance dell'FPU quando computa dati a 128bit, in una buona percentuale dei casi un FX lavora esattamente come se fosse un ocatacore o un esacore o un quadcore.
Se già mandaste in elaborazione 4 thread che usano l'FPU a 256bit le prestazioni crollano, 4 thread e quindi 4 semi moduli sono zoppi.
Ora ti faccio questa domanda... In ambito consumer la maggior parte della gente probabilmente si mette a fare un paio di cose per volta e per lo più e qualcosa tipo navigare e qualcosa tipo ascoltare la musica... Dov'è il vantaggio di quella soluzione ?
In ambito più professionale, rendering, encoding etc il tempo maggiore è speso in computazione pesante, stando ai risultati presenti su hwbot ad esempio al cinebench r15 un 9590 a 5600MHz non ottiene lo score del mio 4770k a 4400MHz (899pti vs i 900 del mio anche se mi pare di aver ottenuto come massimo 910 o giù di li, e non ho nemmeno la cache in sincrono).
In questo caso quale CPU permette di ottenere prima dei risultati? C'è quasi il 30% di gap tra le due CPU in termini di MHz e quindi di IPC... Sembra poco ma su un render di 6-7 ore (che non è poi inusuale già a livello universitario) metterci il 30% in più del tempo (circa 2h) non mi sembra poco...
Quindi quand'è che BD sfrutterebbe questo vantaggio? Senza considerare che ACE dice che schedulando a mano i thread il comportamento tra un i7 e un 8350 è uguale...
Scusa il post lunghetto
Io nn faccio chissà che cosa con il pc, ma ti assicuro che nn posso solo navigare... ma anche giocare o fare altre cose impegnative, mentre faccio conversioni, scansioni o recupero dati da hd rovinati... ho visto i3 e i5 (i7 l'ho sempre visti pochi) arrendersi molto prima.
;) ciauz
devil_mcry
13-09-2014, 16:03
Io nn faccio chissà che cosa con il pc, ma ti assicuro che nn posso solo navigare... ma anche giocare o fare altre cose impegnative, mentre faccio conversioni, scansioni o recupero dati da hd rovinati... ho visto i3 e i5 (i7 l'ho sempre visti pochi) arrendersi molto prima.
;) ciauz
Rispetto la tua opinione ma ti posso portare ad esempio mie esperienze quotidiane.
Io lavoro presso la divisione ricerca e sviluppo di un'azienda che lavora nel settore dei servizi, sviluppiamo app e tecnologie mobile per clienti business.
Prima che mi dessero il PC aziendale ho usato per un bel po' (4 mesi circa) un portatile con i3 3110m per lo sviluppo, l'impiego tipico prevedeva l'uso di un IDE di sviluppo ovviamente (eclipse o intellij), una o due macchina virtuali con su una immagine x86 di android (genymotion), un server locale per alcune prove più tutto il contorno web e nonostante stiamo parlando di un uso non leggero e che quel i3 non fosse un mostro girava alla grande.
L'i5 mobile della mia ragazza riesce a gestire tranquillamente il multitasking tra giochi, download e altro, io con il mio i7 4770k quando riduco ad icona un gioco pesante (anche se si tratta di uno dei titoli AAA recenti) è super responsive come se fosse paint (e non scherzo).
Non dico che l'i3 fosse il massimo per quel compito, anzi, ma comunque riusciva ad andare avanti (altro che basta un antivirus per inchiodare tutto...) ma l'attuale i5 (che ho per lavoro) svolge ruoli davvero intensivi senza batter ciglio... è non è proprio roba leggera ...
Nell'ambito consumer non è un caso che hanno solo preso mazzate ste CPU, perchè quelle cose che dici tu (molte delle quali sono più IO intensive che CPU intensive) le fai comunque tranquillamente anche con un fx 6 core o un 4 core, figurati con un i5 o un i7 con gli stessi risultati, anzi, migliori
Il fatto che si impicchi dipende solo dalla casualita di come vanno a finire i thread sui core, basta impostare l'affinita dei core con le applicazioni e ti ritrovi un 4790k che non si impicca e che globalmente continua a darti performance migliori del 9370.
Feci queste prove al tempo ( 2600K vs fx8150 ) quando nacque la leggenda e si iniziarono a fare le prove con CB a 64 Th + 2-3 sessioni di 7zip + OCCT + vlc etc. etc. postando qui gli stessi identici screen e i risultati erano superiori a quelli dell 8150; bastano 2 click nel pannello Gestione attivita... Con il 3930K non persi nemmeno tempo a farlo.
non esiste la potenza inespressa di BD.
Ciao.
D'accordo che non esiste per chi non la vuole proprio vedere;.....possibile che c'è sempre da rinnovare la memoria con un piccolo post( uno dei tanti!!).
http://www.hwupgrade.it/forum/showpost.php?p=40729228&postcount=9922
Altri post inerenti: http://www.hwupgrade.it/forum/showpost.php?p=39584540&postcount=348 o per chi vuole vedere la verità piu nascoste dietro alla ''presunta'' potenza inespressa di bulldozer o meglio del connubio cmt&multi-task....GCN
I test che sono stati chiesti fra noi utenti, come d'altronde c'è traccia nel post che vi ho ri-ricordato come sempre al link sopra, riguardava prove SOLO VIDEO:read: su qualsiasi cosa NIENTE di scritto e numeri o parole e guarda caso non se mai visto nulla?Come(per l'ennesima volta) ve lo spieghereste?
Figuriamoci se si può parlare di cmt o smt, come se fossero la stessa cosa nell'affrontare un thread....come lo potremo vedere con le parole o coi video.
Bisogna scendere in campo ed chiamare i coni ed i bastoncelli non l'incudine il martello o la staffa!;)
Ad ogni modo figuratevi se io crederei che anche il 12 thread farebbe girare 5 giochi contemporaneamente o che un excavator a 20nm sia a 8 core o 10 0 12 che potranno essere UMILIANO nel peggiore dei modi qualsiasi cosa ci sarà in ambito multi-task.
Certe cose sottendono a delle regole della natura o delle concezioni umane è non ha senso distaccarsi o pensare altro od addirittura ammettere il contrario.
...Aspettando la grande APU e quella dopo, come sempre vedremo come ciascuno si piegherà ad intendere cosa siano le prossime console oltre quelle odierne e la loro ''forma'' di potenza....ed anche questo SAPETE già che saranno APU AMD o crediamo agli asini che volano?;)
Ps: sto aspettando ancora qualsiasi video con tutto in contemporanea...ma non si vedranno come non si sono visti fino ad oggi altrimenti poi cosa si fa a dire che 2 + 2 fa sempre 4?oppure no?
°Phenom°
13-09-2014, 16:23
Rispetto la tua opinione ma ti posso portare ad esempio mie esperienze quotidiane.
Io lavoro presso la divisione ricerca e sviluppo di un'azienda che lavora nel settore dei servizi, sviluppiamo app e tecnologie mobile per clienti business.
Prima che mi dessero il PC aziendale ho usato per un bel po' (4 mesi circa) un portatile con i3 3110m per lo sviluppo, l'impiego tipico prevedeva l'uso di un IDE di sviluppo ovviamente (eclipse o intellij), una o due macchina virtuali con su una immagine x86 di android (genymotion), un server locale per alcune prove più tutto il contorno web e nonostante stiamo parlando di un uso non leggero e che quel i3 non fosse un mostro girava alla grande.
L'i5 mobile della mia ragazza riesce a gestire tranquillamente il multitasking tra giochi, download e altro, io con il mio i7 4770k quando riduco ad icona un gioco pesante (anche se si tratta di uno dei titoli AAA recenti) è super responsive come se fosse paint (e non scherzo).
Non dico che l'i3 fosse il massimo per quel compito, anzi, ma comunque riusciva ad andare avanti (altro che basta un antivirus per inchiodare tutto...) ma l'attuale i5 (che ho per lavoro) svolge ruoli davvero intensivi senza batter ciglio... è non è proprio roba leggera ...
Nell'ambito consumer non è un caso che hanno solo preso mazzate ste CPU, perchè quelle cose che dici tu (molte delle quali sono più IO intensive che CPU intensive) le fai comunque tranquillamente anche con un fx 6 core o un 4 core, figurati con un i5 o un i7 con gli stessi risultati, anzi, migliori
Concordo, io sono passato dal FX 9370 al 4790k ed ho avuto solo miglioramenti, anche in velocità complessiva nell'uso daily oltre che in MT e ST. Come detto anche dagli altri, gli ambiti dove l'fx potrebbe essere preferibile sono limitati a una percentuale quasi irrisoria di utenza.. di certo amd non può puntare solo su queste poche persone per monetizzare.
Rispetto la tua opinione ma ti posso portare ad esempio mie esperienze quotidiane.
Io lavoro presso la divisione ricerca e sviluppo di un'azienda che lavora nel settore dei servizi, sviluppiamo app e tecnologie mobile per clienti business.
Prima che mi dessero il PC aziendale ho usato per un bel po' (4 mesi circa) un portatile con i3 3110m per lo sviluppo, l'impiego tipico prevedeva l'uso di un IDE di sviluppo ovviamente (eclipse o intellij), una o due macchina virtuali con su una immagine x86 di android (genymotion), un server locale per alcune prove più tutto il contorno web e nonostante stiamo parlando di un uso non leggero e che quel i3 non fosse un mostro girava alla grande.
L'i5 mobile della mia ragazza riesce a gestire tranquillamente il multitasking tra giochi, download e altro, io con il mio i7 4770k quando riduco ad icona un gioco pesante (anche se si tratta di uno dei titoli AAA recenti) è super responsive come se fosse paint (e non scherzo).
Non dico che l'i3 fosse il massimo per quel compito, anzi, ma comunque riusciva ad andare avanti (altro che basta un antivirus per inchiodare tutto...) ma l'attuale i5 (che ho per lavoro) svolge ruoli davvero intensivi senza batter ciglio... è non è proprio roba leggera ...
Nell'ambito consumer non è un caso che hanno solo preso mazzate ste CPU, perchè quelle cose che dici tu (molte delle quali sono più IO intensive che CPU intensive) le fai comunque tranquillamente anche con un fx 6 core o un 4 core, figurati con un i5 o un i7
Devo ammettere di nn avere idea della pesantezza di alcuni degli impiegni che nomini :muro:
ma scaricare e navigare lo facevo anche con il vecchio barton, naturalmente il download l'ho sempre sotto anche io e se gioco menre scansiono un hd ogni tanto riduco a icona per vedere a che punto é e magari faccio una capatina in hwupgrade, quindi c'é sempre anche il browser aperto (tanto mi serve continuamente anche per i driver o fare ricerche)... in effetti si é possibile farlo anche con un 6 cores, infatti fino a poco tempo fa lo facevo con il 6300... come ti ho detto i7 ne ho visti pochini, ma l'i5 l'ho provato e in questo nn regge neanche il paragone con il 6300 figuriamoci con un 4 moduli, ma nn nego che se giochi soltanto nella maggior parte dei titoli fai più fps... anche se magari per accorgertene devi giocare con fraps aperto.
;) ciauz
AceGranger
13-09-2014, 16:25
Ciao.
D'accordo che non esiste per chi non la vuole proprio vedere;.....possibile che c'è sempre da rinnovare la memoria con un piccolo post( uno dei tanti!!).
http://www.hwupgrade.it/forum/showpost.php?p=40729228&postcount=9922
I test che sono stati chiesti fra noi utenti, come d'altronde c'è traccia nel post che vi ho ri-ricordato come sempre al link sopra, riguardava prove SOLO VIDEO:read: su qualsiasi cosa NIENTE di scritto e numeri o parole e guarda caso non se mai visto nulla?Come(per l'ennesima volta) ve lo spieghereste?
Figuriamoci se si può parlare di cmt o smt, come se fossero la stessa cosa nell'affrontare un thread....come lo potremo vedere con le parole o coi video.
Bisogna scendere in campo ed chiamare i coni ed i bastoncelli non l'incudine il martello o la staffa!;)
Ad ogni modo figuratevi se io crederei che anche il 12 thread farebbe girare 5 giochi contemporaneamente o che un excavator a 20nm sia a 8 core o 10 0 12 che potranno essere UMILIANO nel peggiore dei modi qualsiasi cosa ci sarà in ambito multi-task.
Certe cose sottendono a delle regole della natura o delle concezioni umane è non ha senso distaccarsi o pensare altro od addirittura ammettere il contrario.
...Aspettando la grande APU e quella dopo, come sempre vedremo come ciascuno si piegherà ad intendere cosa siano le prossime console oltre quelle odierne e la loro ''forma'' di potenza....ed anche questo SAPETE già che saranno APU AMD o crediamo agli asini che volano?;)
Ps: sto aspettando ancora qualsiasi video con tutto in contemporanea...ma non si vedranno come non si sono visti fino ad oggi altrimenti poi cosa si fa a dire che 2 + 2 fa sempre 4?oppure no?
e 2 post sotto avevi gia ricevuo una riposta piu che esauriente.
°Phenom°
13-09-2014, 16:31
Ps: sto aspettando ancora qualsiasi video con tutto in contemporanea...ma non si vedranno come non si sono visti fino ad oggi altrimenti poi cosa si fa a dire che 2 + 2 fa sempre 4?oppure no?
Non credo ci sia bisogno di video, ho fatto le prove di MT estremo anche con l'attuale 4790K e non cambia una mazza rispetto al 9370.
Se poi intendi fare 10 rendering, 10 giochi, vedere 10 video ecc tutto in contemporanea, oltre a doverti dare il nobel, potresti avere dei vantaggi con il 9370.
Chi mi conosce sul forum sa che sono sempre molto oggettivo ed anzi, pro amd, per certi versi, ma le cose stanno così, inutile negarlo.
e 2 post sotto avevi gia ricevuo una riposta piu che esauriente.
Non metto in dubbio le parole ne tantomeno le critico...ma i VIDEO dove sono o perchè non li fate voi stesso?
Basterebbe essere sportivi ed ammettere certe cose che poi rispecchiano le archietture diverse e le potenzialità che ciascune hanno ;)
Non credo ci sia bisogno di video, ho fatto le prove di MT estremo anche con l'attuale 4790K e non cambia una mazza rispetto al 9370.
Se poi intendi fare 10 rendering, 10 giochi, vedere 10 video ecc tutto in contemporanea, oltre a doverti dare il nobel, potresti avere dei vantaggi con il 9370.
Chi mi conosce sul forum sa che sono sempre molto oggettivo ed anzi, pro amd, per certi versi, ma le cose stanno così, inutile negarlo.
Ci voleva tanto ad essere sportivi?
Mica si sta cercando di sovvertire il quadro della realta...ho solo corretto delle inesattezze, tanto la parola differenza non riguarda il valore numerico in assoluto(grande o piccolo che sia) ma solo la sua esistenza;o non esiste?
Ad ogni modo io parlo di esperienze di entrambe le architetture, fatte personalmente a suo tempo....non di fantasie.
AceGranger
13-09-2014, 16:45
Non metto in dubbio le parole ne tantomeno le critico...ma i VIDEO dove sono o perchè non li fate voi stesso?
Basterebbe essere sportivi ed ammettere certe cose che poi rispecchiano le archietture diverse e le potenzialità che ciascune hanno ;)
alla nascita di tutto, al tempo ,avevo postato gli stessi identici screen con gli stessi identici test, non è che avevo scritto numeri a caso sulla fiducia :rolleyes: ...
se mi regali una GPU ( che ho una quadro ) e giochi ( non ne ho non gioco ) se vuoi lo faccio.
°Phenom°
13-09-2014, 16:46
Ci voleva tanto ad essere sportivi?
Mica si sta cercando di sovvertire il quadro della realta...ho solo corretto delle inesattezze, tanto la parola differenza non riguarda il valore numerico in assoluto(grande o piccolo che sia) ma solo la sua esistenza;o non esiste?
Ad ogni modo io parlo di esperienze di entrambe le architetture, fatte personalmente a suo tempo....non di fantasie.
Era retorico ovviamente, ma ti sembra normale fare tutte quelle cose insieme? :doh: :asd:
L' architettura a moduli multi-core amd non è affatto un fallimento come concetto, dipende anche dall' applicazione da come è programmata e da come sfrutta i core. Ci sono molti programmi di editing ed encoding video che vedono solo i core fisici ed infatti i processori amd vanno alla grande. Inoltre in alcuni operazioni di multitasking intensivo come il rendering 3d interattivo (tipo quello di blender), vedo che il mio i7 quad-core non sfrutta al massimo la sua velocità di rendering (oscilla al 50-70 per cento) per permettermi l'interazione senza lag, potenzialmente un fx grazie alla sua architettura potrebbe raggiungere una percentuale più alta (magari se avrò la possibilità di fare personalmente dei test con un fx vi farò sapere se andrà bene o se và come un bulldozzer nel senso letterale della parola :D )
Era retorico ovviamente, ma ti sembra normale fare tutte quelle cose insieme? :doh: :asd:
Secondo me non centra il fatto che sia normale o meno che si facciano tutte quelle cose insieme, ma solo teoricamente se c'è parità di risposta a condizioni estreme.
Non è che se ad un orologio, ad esempio, che c'è scritto subaqueo fino a 200 metri, si debba necessariamente provarlo rispetto ad uno che arriva a 100metri?
E' solo formalità e analisi e null'altro.;)
devil_mcry
13-09-2014, 17:28
Devo ammettere di nn avere idea della pesantezza di alcuni degli impiegni che nomini :muro:
ma scaricare e navigare lo facevo anche con il vecchio barton, naturalmente il download l'ho sempre sotto anche io e se gioco menre scansiono un hd ogni tanto riduco a icona per vedere a che punto é e magari faccio una capatina in hwupgrade, quindi c'é sempre anche il browser aperto (tanto mi serve continuamente anche per i driver o fare ricerche)... in effetti si é possibile farlo anche con un 6 cores, infatti fino a poco tempo fa lo facevo con il 6300... come ti ho detto i7 ne ho visti pochini, ma l'i5 l'ho provato e in questo nn regge neanche il paragone con il 6300 figuriamoci con un 4 moduli, ma nn nego che se giochi soltanto nella maggior parte dei titoli fai più fps... anche se magari per accorgertene devi giocare con fraps aperto.
;) ciauz
Si ma dubito che gestiva quello in multitasking con cs go o altr giochi :D Per un i5 ulv non mi pare male
Si ma dubito che gestiva quello in multitasking con cs go o altr giochi :D Per un i5 ulv non mi pare male
Se ti riferisci al barton, ho solo detto che riuscivo a navigare mentre scaricavo... nn Ho nominato giochi :asd:
e visto che all'epoca avevo un modem 54K... éra già tanto aprire le pagine
i processori per portatili li conosco poco, ma mi sembra che tali i5 nn siano quadcore ma 2+HT... in pratica degli i3.
;) ciauz
devil_mcry
13-09-2014, 18:10
Se ti riferisci al barton, ho solo detto che riuscivo a navigare mentre scaricavo... nn Ho nominato giochi :asd:
e visto che all'epoca avevo un modem 54K... éra già tanto aprire le pagine
i processori per portatili li conosco poco, ma mi sembra che tali i5 nn siano quadcore ma 2+HT... in pratica degli i3.
;) ciauz
Yep, quindi non è male riuscire a fare multitasking con un gioco sopratutto visto che è ulv e non va a freq molto elevate
Io quando avevo il Barton (che ho ancora insieme alla nf7-s rev2.0) avevo già l'adsl :sofico:
Peccato che era sfigato, presi un 3000+ al suo tempo ma in OC andava meno di alcuni 2500+ m
paolo.oliva2
13-09-2014, 18:17
Era retorico ovviamente, ma ti sembra normale fare tutte quelle cose insieme? :doh: :asd:
Si ma il punto non è se sia normale o anormale fare più cose contemporaneamente (perchè come le hai descritte tu è certamente più anormale :)), ma semplicemente che l'FX ha architetturalmente una capacità di carico ben superiore al Phenom II a parità di core, quale può essere il Thuban vs 6300 e un Phenom II X4 vs FX X4, semplicemente perchè... è così.
Il problema, alla radice, è che certa gente non riesce ad accettare che un AMD possa avere qualche cosa meglio di un Intel, quindi si cerca di far passare per dementi chi lo dice (è evidente che per i7 io intendo il socket 2011 e non il 1155 e chiunque l'ha capito, chi lo voleva capire).
Ora... tu che hai entrambi i proci e confermi, vediamo di porre fine a questo teatrino, perchè non cambia assolutamente nulla nella posizione attuale AMD.
P.S.
Comunque, come ho scritto più volte, io non carico mille a cose a destra e a sinistra, ma semplicemente è l'unica soluzione per quello che devo fare.
Freemaker ha dei limiti nella propria esecuzione, ad esempio quando unisci dei video, lui unisce tutti i video cariicati in quella sessione, come pure non puoi fare conversioni a risoluzioni differenti nella stessa sessione. Per risolvere il tutto, carico semplicemente più sessioni e posso così impostare e/o unire indifferentemente a mio piacere. Poi è chiaro che stai al PC, ci sono 3-4 conversioni sotto, ed intanto fai altro, aspettando che una sessione finisca... per caricarne un'altra. A mio parere non è che sia qualche cosa di anormale... :) anzi, se l'utente "normale" non fa più di 1 cosa alla volta, perchè non si è preso un FX 6 o ancor meno? Anzi, un Intel (che non sia un i3, però :Prrr:) pure meglio.
Comunque, a parte gli scherzi, e l'ho detto più volte, la mia è una fobia, cercare l'OC migliore, cercare l'ottimizzazione migliore e in questo rientra pure la ricerca di sfruttamento procio max, che è assolutamente diversa sia dello stesso procio ma con numero diverso di core che proci di architettura differente.
Ti faccio questo esempio... quando passo dall'8350 a Trinity mobile, cambio radicalmente il modus operandi... perchè lo spazio CPU che tengo libero è sempre quello, ma l'8350 può caricare il triplo di quello che posso caricare con Trinity, ma sfruttando ambedue i proci al massimo, che non vuol dire che l'8350 l'ha più lungo, ma che sono 2 proci che per farli rendere al 100% richiedono un diverso utilizzo.
Idem nel tuo caso, Intel e AMD, un 8350 non può rendere al massimo se lo fai lavorare come un Intel, come un Intel non lavorerebbe al meglio se lo fai lavorare come AMD. Per questo mi intrippa il 5960X, perchè ipotizzo un carico superiore all'8350 e contemporaneamente la forza bruta di Intel, ed ipotizzando un mio rientro in Italia, un 5960X@4GHz al posto di un 8350@4,6GHz, mi permetterebbe un carico ancora più intenso e nel contempo tempi più che dimezzati.
devil_mcry
13-09-2014, 18:50
Cosa intendi te per i7 è "evidente" solo a te, gli i7 sono anche quelli 1150...
george_p
13-09-2014, 18:54
Si ma il punto non è se sia normale o anormale fare più cose contemporaneamente (perchè come le hai descritte tu è certamente più anormale :)), ma semplicemente che l'FX ha architetturalmente una capacità di carico ben superiore al Phenom II a parità di core, quale può essere il Thuban vs 6300 e un Phenom II X4 vs FX X4, semplicemente perchè... è così.
(è evidente che per i7 io intendo il socket 2011 e non il 1155 e chiunque l'ha capito, chi lo voleva capire).
Ecco, mi auguro che con la prossima architettura (ZEN??) amd mantenga nel processore la capacità di carico elevata, non solo a vantaggio della velocità pura.
Magari un processore modulare tornerà più avanti quando il pp lo permetterà per consentire tdp e consumi sensibilmente migliori, correggendo tutte le lacune di BD.
Ma che differenza c'è tra il socket 2011 di intel e l'altro? Perché uno è "i7" e l'altro no?
devil_mcry
13-09-2014, 19:00
Ecco, mi auguro che con la prossima architettura (ZEN??) amd mantenga nel processore la capacità di carico elevata, non solo a vantaggio della velocità pura.
Magari un processore modulare tornerà più avanti quando il pp lo permetterà per consentire tdp e consumi sensibilmente migliori, correggendo tutte le lacune di BD.
Ma che differenza c'è tra il socket 2011 di intel e l'altro? Perché uno è "i7" e l'altro no?
Non cambia praticamente nulla, l'unica differenza è che le versioni 2011 hanno un controller PCI-E a che prevede 2 linee pci-e 16x, quelli 1150 solo 1. C'è anche il Memory Controller tri-quad channel ma non ha impatto sulle prestazioni in modo rilevante.
I DIE dei 2011 hanno anche i 2 core aggiuntivi tagliati ed è per questo che il ring maggiore penalizza lievemente l'IPC (vedi l'i7 3820 rispetto al 2600k).
Su Nehalem persino l'uncore tirava di meno e Lynnfield (che erano quelli 1156) avevano un po' più di IPC
Haswell-e ancora non l'ho analizzato bene, ma per dire l'i7 3820 si poteva overcloccare meno di un 2600k perchè non era una versione da overclock.
Hanno la stessa architettura e le stesse features.
Inoltre di solito gli i7 115x sono sempre una gen avanti, PR a parte (l'7 3820 era SB-E mentre l'i7 3770k era IB, l'i7 4820k è IB-E mentre il 4770K è Haswell).
123ddssgga
13-09-2014, 19:38
Ma che differenza c'è tra il socket 2011 di intel e l'altro? Perché uno è "i7" e l'altro no?
non vorrei fare la figure del nabbo ma questa cosa mi sfugge...
forse perchè non ho letto tutti i post (lo ammetto sono un eretico a non leggere tutti i post farò ammenda ;) )
aspettiamo che paolo.oliva2 ci illumini
lui ne sà + di tutti noi messi insieme
Yep, quindi non è male riuscire a fare multitasking con un gioco sopratutto visto che è ulv e non va a freq molto elevate
Io quando avevo il Barton (che ho ancora insieme alla nf7-s rev2.0) avevo già l'adsl :sofico:
Peccato che era sfigato, presi un 3000+ al suo tempo ma in OC andava meno di alcuni 2500+ m
Proprio oggi ho rimontato il 6300 sulla UD3, é abbastanza carente in oc, ma ha il bios che permette di disattivare un core a modulo e ho iniziato a fare qualche test in questo senso (stà a 4,6ghz con temp ridicole), sarei curioso di vedere 3 core FX vs i 2+2 di un i3... nn dico che così il 6300 sia superiore anche in ST ma sicuramente, con la mobo giusta, questi FX hanno una versatilità eguagliabile da poche cpu... anche se con la mobo sbagliata possono apparire dei flop tremendi.
PS
mi sembra che tenevi delle frequenze di tutto rispetto... e poi dipende quale mobile prendevi come esempio, alcuni per l'epoca érano veramente mostruosi
;) ciauz
123ddssgga
13-09-2014, 19:44
graz devil_mcry adesso è + chiaro
mentre scrivevo devil_mcry ha già dato la risposta
( sono andato a girare la pasta e ci ho messo un eternità a postare il mess)
capita ;)
°Phenom°
13-09-2014, 19:45
non vorrei fare la figure del nabbo ma questa cosa mi sfugge...
forse perchè non ho letto tutti i post (lo ammetto sono un eretico a non leggere tutti i post farò ammenda ;) )
aspettiamo che paolo.oliva2 ci illumini
lui ne sà + di tutti noi messi insieme
devil_mcry ha già risposto in maniera credo esaustiva:
Non cambia praticamente nulla, l'unica differenza è che le versioni 2011 hanno un controller PCI-E a che prevede 2 linee pci-e 16x, quelli 1150 solo 1. C'è anche il Memory Controller tri-quad channel ma non ha impatto sulle prestazioni in modo rilevante.
I DIE dei 2011 hanno anche i 2 core aggiuntivi tagliati ed è per questo che il ring maggiore penalizza lievemente l'IPC (vedi l'i7 3820 rispetto al 2600k).
Su Nehalem persino l'uncore tirava di meno e Lynnfield (che erano quelli 1156) avevano un po' più di IPC
Haswell-e ancora non l'ho analizzato bene, ma per dire l'i7 3820 si poteva overcloccare meno di un 2600k perchè non era una versione da overclock.
Hanno la stessa architettura e le stesse features.
Inoltre di solito gli i7 115x sono sempre una gen avanti, PR a parte (l'7 3820 era SB-E mentre l'i7 3770k era IB, l'i7 4820k è IB-E mentre il 4770K è Haswell).
non vorrei fare la figure del nabbo ma questa cosa mi sfugge...
forse perchè non ho letto tutti i post (lo ammetto sono un eretico a non leggere tutti i post farò ammenda ;) )
aspettiamo che paolo.oliva2 ci illumini
lui ne sà + di tutti noi messi insieme
L'ha appena spiegato devil, cmq per dirla in soldoni, intel usa questa nomenclatura sia per le cpu sckt 1366/2011 (fascia alta) che per quelle più potenti dei sckt 1155/56 (fascia media)... pur appartenendo tutte alla famiglia i7 sono cpu che differiscono per caratteristiche, numero di core, PP, quindi adatte ad usi diversi... e con prezzi diversi.
;) ciauz
Wolfhang
13-09-2014, 21:08
infatti per quello che fai tu FX-8 è stata una manna dal cielo :)
però il problema è tutto qui... chi altro apre 3/4 sessioni di freemaker e le carica in contemporanea? :D
paolo, già mi pregusto i tuoi record in OC col 5960x :sofico:
si ma terra terra ve lo spiego io, per chi conosce e legge spesso cosa scrive...
Paolo ha sempre detto che ad un FX-8 avrebbe preferito Intel solo per un i7 extreme perché gli avrebbe permesso un reale aumento di prestazioni, cosa che per quello che fa lui in freemaker un i7 mainstream non avrebbe permesso, anzi avrebbe avuto minor o uguali prestazioni a costo maggiore, tenendo pure in cosiderazione che lui in Africa la corrente la paga 1/10 che da noi e che per ultima CPU si trovano ancora dei PIV come ritrovato tecnologico... fate voi
Che gli avrebbe permesso un reale aumento di prestazioni rispetto ad un i7 non so come continui a dirlo ancora adesso quando non ne ha mai provato uno......diversi utenti (me compreso) hanno sempre replicato ai suoi test con risultati uguali o migliori dei suoi e sto parlando di più sessioni contemporanee di winrar, 7zip, cinebench, freemake e chi più ne ha più ne metta........poi per il costo maggiore della piattaforma meglio lasciare perdere con tutto quello che ha speso per raffreddare i suoi proci (lasciando perdere l'ingombro e il rumore) e i danni che ha causato per cercare di aumentare di qualche hz le frequenze..........ti dico solo che l'8150 che ha preso l'ha pagato a suo tempo 300€ quando il mio misero 2600k costava 250/260€ e con una mobo da 100€ lo portavi a 5Ghz.........ma ormai il fatto che gli Fx li puoi stracaricare e gli i7 no è diventata una leggenda metropolitana.........e con questo ritorno nell'anonimato
feldvonmanstein
13-09-2014, 23:25
Questo TEST potrebbe interessarvi parecchio! :read: quale cpu sbarella prima??:D
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-01-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-03-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-05-pcgh.png
cut...
Prima che mi dessero il PC aziendale ho usato per un bel po' (4 mesi circa) un portatile con i3 3110m per lo sviluppo, l'impiego tipico prevedeva l'uso di un IDE di sviluppo ovviamente (eclipse o intellij), una o due macchina virtuali con su una immagine x86 di android (genymotion), un server locale per alcune prove più tutto il contorno web e nonostante stiamo parlando di un uso non leggero e che quel i3 non fosse un mostro girava alla grande.
cut...
Vabbe ma la macchina virtuale, se dedichi un tot di risorsa hardware (e per l'immagine di android ne basta davvero poca) non ne risente piu di tanto un i3 specie se ha integrata la tecnologia di virtualizzazione e il vt-x (e mi sembra di si), se non erro solo la tecnologia per la virtualizzazione diretta degli input/output non ha integrata quella cpu. Per quanto riguarda eclipse: figurati... quando non fai debugging lo puoi usare anche con un Pentium III, ha la stessa pesantezza di un processo in background di emacs (per i windowsiani notepad), e quando fai debugging, a meno che non debugghi codice pesante del tipo che hai scritto un sistema operativo intero o applicazioni che sfruttano librerie per la gestione grafica (es: giochi) non dovrebbe appesantire cosi tanto una cpu.
Il server locale: sia se configuri manualmente i componenti PHP, Apache, MySQL, PhpMyAdmin ecc ecc o sia se usi pacchetti WAMP (XAMPP, EasyPHP, WAMP, MAMP) con tutti i componenti incorporati, fatto un server locale non appesantisce niente. La domanda è: qual'è il ruolo di questo server locale ? Devi ospitare file DB ? Devi metterci file HTML per un sito ? Ma siccome hai detto che sviluppi un applicativo mobile immagino che ti serve per le prove, ergo applicativo web dinamico (software in php, java, javascript), a questo punto facendolo processare assieme al client che segue l'applicativo sempre dalla stessa cpu in contemporanea già la cosa diventa pesantuccia, ma no da inginocchiare un I3. Stai certo che un FX (anche il 4xxx) davanti a questo scenario se la riderebbe. Ma no perchè "amd is better", ma per il motivo citato nel mio post precedente. Anche se il db qui non c'è, i processi elaborati sono di tipo server: una volta scritto il codice e debuggato viene creato l'eseguibile, da questo momento l'iDE lo puoi anche spegnere, ergo la pesantezza sarebbe: esegui codice da un client virtualizzato e usi il server locale per richiamarlo su esso stesso o su altri dispositivi ?
Per me non è questa la definizione di pesantezza o di come appesantire un sistema. Esistono scenari dove un contesto come questo da te citato sarebbe solo un inconsistente script di una elaborazione a a 9 zeri di codice.
(Riferendomi ovviamente al punto di vista di pesantezza applicativa e no di valore o difficoltà di progetto lavorativo)
paolo, già mi pregusto i tuoi record in OC col 5960x
oh mio Dio ? Se Paolo passa ad Intel io mi installo Windows Millenium Edition in tutti gli hdd e partizioni...
Il problema di Paolo è che vede cazzuta solo la roba extreme di Intel, solo perchè il socket 1150 sta nella fascia mainstream lo vede come un passo indietro rispetto il sistema che ha adesso, e purtroppo qui commette un grosso errore. Perchè la fascia alta di amd (l'attuale AMx + FX top) coincide prestazionalmente (nella maggiorparte dei casi) con quella bassa della mainstream di Intel (I5 massimo + mobo H97). Ergo prendere un I7 + Z97 significa fare un paio di passi avanti rispetto il suo sistema (nella maggiorparte dei casi). E questa purtroppo è una cruda realtà.
FazzoMetal
14-09-2014, 00:02
Vorrei ancora una volta scrivere riguardo una testimonianza diretta: in questo momento sto nuovamente esportando un video con Adobe Premiere (FullHD 30FPS da 20Mbit/s della durata di 6 minuti circa) e con il mio i5 mobile Sandy Bridge (2.4GHz -- >3GHz in turbo) sono con tutti e 4 i core logici bloccati al 100% e, con il solo browser aperto oltre a Premiere, non riesco a navigare fluidamente. Quando sono nella stessa situazione ma con l'FX 6300 riesco tranquillamente a svolgere altre attività col PC, anche più pesanti del web browsing, senza risentire così pesantemente della conversione in corso. Questo a testimoniare che, secondo me, la user experience di un i3 desktop Sandy Bridge (un i3 desktop è confrontabile per caratteristiche con un i5 mobile, 2 core + HT ambedue) non è preferibile a quella offerta da un FX 6300 anche a frequenze stock. Riguardo gli i3 Ivy e Haswell non esprimo giudizio non avendoli testati personalmente.
io con l'fx 8320 riesco ad aprire 4 sessioni di handbrake per il video encoding e giocare a crysis 3 contemporaneamente senza aver nessun problema, la stessa resa probabilmente si ha con un 6 core intel quindi scartando completamente tutta la piattaforma 1150.......
Nhirlathothep
14-09-2014, 04:00
io non ho mai avuto cpu fascia bassa Intel e nemmeno ne ho mai usata una in un pc fisso. Ho avuto 1366 (i7 920 superovercloccato) - 2011 (3970x) e vedremo se prenderò in (lontano) futuro 5960x.
Non è per le prestazioni che ho evitato i socket bassi, è che sono giocattoli nell' overclock.
L' oc lo paghi prendendo la cpu k e la mobo Z, cambi 2 settaggi di numero, fatti apposta per darti gusto che qualcosa hai fatto ( e invece lo hai pagato apposta e te lo ha venduto e confezinato la intel il tuo overclock) e ti senti un grande.
Hanno messo la pasta tra his e die anziche saldarlo nelle ultime serie della fascia bassa e in questo modo perdevi anche la garanzia per fare un oc legittimo. Doppia vittoria per Intel.
Sono giocattoli nell' oc, ma molto convenienti e potentissimi per quello che costano.
Li consiglio a tutti i non appassionati di hw e di oc: a tutti quelli che hanno il pc con un fine che non sia il pc stesso.
Secondo me tutti gli appassionati competenti di hardware li hanno presi solo per gaming avendo un altro sitema dove sbizzarrirsi nell' oc.
io ne prenderò uno tra poco perchè sono cpu stupende come prestazioni e consumi (mi ci farò uno stupendo muletto ITX)
le cpu amd non mi prendono in giro con cpu K e mobo Z, paghi di più la mobo perchè deve dare più corrente ed è un altro discorso.
La serie bassa intel è un passo nob per un appassionato di hw e di oc, ma non è un passo in dietro come prestazioni
paolo.oliva2
14-09-2014, 04:47
poi per il costo maggiore della piattaforma meglio lasciare perdere con tutto quello che ha speso per raffreddare i suoi proci
Mah, il liquido l'avrei preso ugualmente sia che avessi AMD o Intel. E poi il liquido l'avevo già con il Phenom II X4 appena uscito, il WC l'avevo preso per dimostrare che un Thuban vinceva con l'i920 in OC e potenza finale MT (8,02 con Cinebench a 4,5GHz), quindi tutte cose antecedenti BD.
(lasciando perdere l'ingombro e il rumore)
Ingombro e rumore sono cose totalmente soggettive... ingombro per me non esiste se porta dei vantaggi, il rumore, non mi dice nulla, anche perchè è solamente una questione di abitudine
e i danni che ha causato per cercare di aumentare di qualche hz le frequenze..........
Oddio, in 10 anni, in Italia, ho segato una CF V per condensa nel socket e mi sono saltati il mio primo Phenom II X4 ed un Thuban, ma AMD me li ha cambiati in garanzia. Una mobo in 10 anni non mi sembra disastroso, specie se conti che nello stesso tempo mi sono saltate 3 mobo con proci pressochè a def per morti naturali quindi nulla a che vedere con l'OC.
Oddio, qualche hz è stato +1,3GHz con il Thuban in bench e +1,7GHz in screen, + 1,4GHz per l'8150 5GHz e + 1,217GHz l'8350 5,217GHz e +1,417GHz a screen (ma solo in un mese, poi in Africa è stato impossibile).
I guasti in Africa sono dovuti a tutt'altro, perchè mi è saltato di tutto, 2 alimentatori ricarica/batteria Canon, gli stabilizzatori di 2 pompe, i telecomandi delle vetture, 2 tablet Samsung... figurati che devo portare in Italia (qui non mi fido) un sigma 50/500 perchè ha la condensa all'interno...
ti dico solo che l'8150 che ha preso l'ha pagato a suo tempo 300€ quando il mio misero 2600k costava 250/260€ e con una mobo da 100€ lo portavi a 5Ghz
In primis l'8150 era da testare, perchè se ricordi bene, c'era una posizione ufficiale AMD che riportava determinate performances e tante boiate in rete che riportavano l'opposto, e le varie testate che sono tutto tranne pro-AMD.
In secondo luogo, l'8150 era un upgrade da 300€, il 2600K anche se costava meno, avrebbe obbligato l'acquisto della mobo, quindi di certo non ho speso di più.
In ogni caso, giusto per guardare il proprio piatto, il passaggio Thuban-8150 ha portato un guadagno superiore in MT in OC (8,05 vs 8,25), mentre il passaggio 2600K-3770K ha perso almeno 300MHz di OC che percentualmente fanno di più rispetto all'incremento di 4-5% di IPC. Oh, non ne sono sicuro al 100%, perchè scapperà fuori quello che lo scoperchia ad azoto e poi dice che è ad aria :), ma comunque io sono passato da 8,05 con un super-Thuban, a 8,25 con un 8150, a Cinebench. Non ricordo di post che un 3770K abbia fatto più di un 2600K.
ma ormai il fatto che gli Fx li puoi stracaricare e gli i7 no è diventata una leggenda metropolitana.........e con questo ritorno nell'anonimato
Basta che leggi i post di gente che ha entrambi i sistemi.
paolo.oliva2
14-09-2014, 05:36
io non ho mai avuto cpu fascia bassa Intel e nemmeno ne ho mai usata una in un pc fisso. Ho avuto 1366 (i7 920 superovercloccato) - 2011 (3970x) e vedremo se prenderò in (lontano) futuro 5960x.
Non è per le prestazioni che ho evitato i socket bassi, è che sono giocattoli nell' overclock.
L' oc lo paghi prendendo la cpu k e la mobo Z, cambi 2 settaggi di numero, fatti apposta per darti gusto che qualcosa hai fatto ( e invece lo hai pagato apposta e te lo ha venduto e confezinato la intel il tuo overclock) e ti senti un grande.
Hanno messo la pasta tra his e die anziche saldarlo nelle ultime serie della fascia bassa e in questo modo perdevi anche la garanzia per fare un oc legittimo. Doppia vittoria per Intel.
Sono giocattoli nell' oc, ma molto convenienti e potentissimi per quello che costano.
Li consiglio a tutti i non appassionati di hw e di oc: a tutti quelli che hanno il pc con un fine che non sia il pc stesso.
Secondo me tutti gli appassionati competenti di hardware li hanno presi solo per gaming avendo un altro sitema dove sbizzarrirsi nell' oc.
io ne prenderò uno tra poco perchè sono cpu stupende come prestazioni e consumi (mi ci farò uno stupendo muletto ITX)
le cpu amd non mi prendono in giro con cpu K e mobo Z, paghi di più la mobo perchè deve dare più corrente ed è un altro discorso.
La serie bassa intel è un passo nob per un appassionato di hw e di oc, ma non è un passo in dietro come prestazioni
Per me la visione è un po' diversa. In primis in ogni caso ho assemblato PC per 25 anni, e a parte gli Intel MMX a 200MHz e più che andavano a scheggia rispetto alla concorrenza, le cose sono state altalenanti, ma visto che vendevo assemblati, dovevo essere concorrenziale con i PC pre-assemblati di marca, e visto che tra assemblare un Intel e avere il prezzo competitivo su un pre-assemblato AMD non c'era gran margine, è ovvio che mi sono buttato su AMD.
In generale, AMD ti da' più prb di Intel (vedi i K6 che sopra i 300MHz dovevano installare una patch nell'OS) ma per l'utente che non vuole spendere una cifra, AMD ti consente di fare i numeri, Intel no, ma non nel senso del procio, ma sul confronto verso gli altri.
In Intel c'è una fobia di far passare OC con sistemi super-dissipati per aria e/o liquido, cosa che in AMD è praticamente assente, giusto per far credere che chi fa OC l'ha più lungo. Tu che hai avuto un i920... te la ricordi la bufala degli i920 "fortunelli" @4GHz ad aria? Sai bene che un i920 a @4GHz scalda più di un 8150@5GHz.
Prova a misurarti a liquido con uno che porta il procio a -30° e invece ti dice che è a liquido "normale". L'OC, una volta che prendi una mobo idonea ed un ALI generoso, è dipendente unicamente alla temp che fai lavorare il procio. BD non ha alcun muro architetturale, sale proporzionatamente alla potenza del reparto dissipazione... ed un 8320 a liquido ha più possibilità di arrivare a frequenze più alte di un 8350 ad aria, come un 8350 a liquido di più di un 8350 ad aria, indipendentemente da "fortunello" o meno. C'è chi ha benchato a @7,650GHz con un 8350, totalizzando sopra i 13 a Cinebench, io a 5,2GHz mi fermo a 9, ma di certo non era nè ad aria nè a liquido :D
paolo.oliva2
14-09-2014, 06:27
Vorrei ancora una volta scrivere riguardo una testimonianza diretta: in questo momento sto nuovamente esportando un video con Adobe Premiere (FullHD 30FPS da 20Mbit/s della durata di 6 minuti circa) e con il mio i5 mobile Sandy Bridge (2.4GHz -- >3GHz in turbo) sono con tutti e 4 i core logici bloccati al 100% e, con il solo browser aperto oltre a Premiere, non riesco a navigare fluidamente. Quando sono nella stessa situazione ma con l'FX 6300 riesco tranquillamente a svolgere altre attività col PC, anche più pesanti del web browsing, senza risentire così pesantemente della conversione in corso. Questo a testimoniare che, secondo me, la user experience di un i3 desktop Sandy Bridge (un i3 desktop è confrontabile per caratteristiche con un i5 mobile, 2 core + HT ambedue) non è preferibile a quella offerta da un FX 6300 anche a frequenze stock. Riguardo gli i3 Ivy e Haswell non esprimo giudizio non avendoli testati personalmente.
Ed è la stessa cosa che hoi provato io. Un i3 32nm 2GHz/2,5GHz turbo vs un Trinity 1,9GHz/2,3GHz Turbo, Il Trinity mi permette tranquillamente di fare quello che voglio con una conversione sotto, mentre l'i3 mi andava a scatti, seppur IPC/frequenza molto superiore a Trinity.
Il PC più o meno potente è una cosa, ma il PC che lagga da' un fastidio tremendo. Dal fisso al mobile puoi accettare una perdita di potenza, ma non il funzionamento a scatti.
Sto pensando di cambiare il mio Trinity con Kaveri... ma aspetto prezzi/clock. Kaveri con lo stesso TDP dovrebbe guadagnare 500MHz a cui si aggiunge l'incremento di IPC, dovrebbe essere alla portata un +30% rispetto a Trinity... mica male.
AceGranger
14-09-2014, 09:23
io con l'fx 8320 riesco ad aprire 4 sessioni di handbrake per il video encoding e giocare a crysis 3 contemporaneamente senza aver nessun problema, la stessa resa probabilmente si ha con un 6 core intel quindi scartando completamente tutta la piattaforma 1150.......
http://www.bit-tech.net/hardware/2013/06/01/intel-core-i7-4770k-cpu-review/4
in handbrake un 4770K fa 3600, un fx 8350 2700;
2700 punti ( 3600/4 = 900 x 3 = 2700 ) un 4770K li fa con 3 core;
usando la misteriosissima affinita o anche la priorita, molto probabilmente avresti sia fps migliori in gioco che migliori tempi di encoding.
paolo.oliva2
14-09-2014, 11:40
http://www.bit-tech.net/hardware/2013/06/01/intel-core-i7-4770k-cpu-review/4
in handbrake un 4770K fa 3600, un fx 8350 2700;
2700 punti ( 3600/4 = 900 x 3 = 2700 ) un 4770K li fa con 3 core;
usando la misteriosissima affinita o anche la priorita, molto probabilmente avresti sia fps migliori in gioco che migliori tempi di encoding.
Si ma è sempre come ti ha postato Affiu, sintetizzando, ottimizzi il numero di TH a core e la priorità per far si che il carico di TH sia più congeniale all'architettura, ma non è assolutamente questo il punto... Utilizzando un procio X, il limite di carico è praticamente quando c'è un decadimento di prestazioni globali, e questo lo può essere per il numero di core e per il tipo di architettura. STOP. Non ha senso smanettare con priorità/affinità per far risultare che 2 proci differenti sembrino uguali, ma semplicemente li si applica un carico differente per farli lavorare al max, e un 4770K finirà comunque prima di un 8350, indipendentemente dal frazionamento del numero di programmi a sessione che si caricano, quindi quando dico che l'8350 può accettare carichi maggiori di un X4 Intel, non vuol dire che l'ha più lungo, ma che ha un tipo di architettura che lo permette di fare.
Idem il discorso i3... rimane pur sempre un X2 anche se nel desktop, tra aumento IPC e aumento frequenza def, la capacità di carico aumenta rispetto ad un qualsiasi vecchio X2. Ma quando passiamo al mobile, con frequenze quasi dimezzate e con un puttanaio di programmi/driver residenti già nell'installazione a def, il vantaggio si perde ed è relativamente facile metterlo in ginocchio, ed il confronto di carico con un X4 Trinity/Richland/Kaveri lo dimostra tranquillamente, ma qui non è più un discorso 8350/4770K, dove comunque a saturarli ce ne vuole, nel mobile basta un plus di carico ridotto per manifestare il lag che è fastidiosissimo. Purtroppo è la mancanza di concorrenza il problema, sarebbe bastato un silicio che avesse permesso Kaveri X6, perchè oltre all'X6, si sarebbe avuto X4 a frequenze più alte a parità di TDP. Con il 14nm spero che Intel non abbassi il TDP proponendo lo stesso numero di core, perchè non avrebbe senso visto che l'IPC non salirebbe più di tanto... ma che piuttosto sfrutti il minor TDP per offrire X4.
AceGranger
14-09-2014, 12:27
Si ma è sempre come ti ha postato Affiu, sintetizzando, ottimizzi il numero di TH a core e la priorità per far si che il carico di TH sia più congeniale all'architettura, ma non è assolutamente questo il punto... Utilizzando un procio X, il limite di carico è praticamente quando c'è un decadimento di prestazioni globali, e questo lo può essere per il numero di core e per il tipo di architettura. STOP. Non ha senso smanettare con priorità/affinità per far risultare che 2 proci differenti sembrino uguali, ma semplicemente li si applica un carico differente per farli lavorare al max, e un 4770K finirà comunque prima di un 8350, indipendentemente dal frazionamento del numero di programmi a sessione che si caricano, quindi quando dico che l'8350 può accettare carichi maggiori di un X4 Intel,
E invece è proprio quello il punto, perchè se bastano 2 click in win per eliminare eventuali problemi fluidita ottenendo al contempo prestazioni superiori, la storiella del carico maggiore è e rimane una gran vaccata.
Se qualcuno ne ignora l'esistenza o per pippa mentale non le vuole utilizzare è un suo problema, ma le prestazioni che puo raggiungere una CPU sono quelle.
non vuol dire che l'ha più lungo, ma che ha un tipo di architettura che lo permette di fare.
l'architettura serve a far girare l'OS e se l'OS mi permette di sfruttare al meglio una determinata architettura lo faccio.
a livello pratico NON esiste il vantaggio che continuate a paventare.
Wolfhang
14-09-2014, 13:33
E invece è proprio quello il punto, perchè se bastano 2 click in win per eliminare eventuali problemi fluidita ottenendo al contempo prestazioni superiori, la storiella del carico maggiore è e rimane una gran vaccata.
Se qualcuno ne ignora l'esistenza o per pippa mentale non le vuole utilizzare è un suo problema, ma le prestazioni che puo raggiungere una CPU sono quelle.
l'architettura serve a far girare l'OS e se l'OS mi permette di sfruttare al meglio una determinata architettura lo faccio.
a livello pratico NON esiste il vantaggio che continuate a paventare.
Ma ormai questa storia va avanti da anni, ci sono utenti che ormai non postano più dopo aver dimostrato con comparazioni reali tra i diversi proci (possedendoli entrambi) quali erano le prestazioni effettive che si potevano ottenere.
Poi Paolo racconta anche balle affermando che con intel avrebbe dovuto cambiare anche mobo quando, in attesa dell' 8150, si era preso NUOVE ram e una NUOVA mobo super cazzuta spendendo ben oltre 100€ (penso tra i 150 e i 200) con la giustificazione che i vari siti che avevano testato l'8150 non avevano fatto tutte le ottimizzazioni che si potevano fare.
Ecco, è questo il punto, com AMD solo lui sapeva fare tutte le tarature necessarie, mentre con Intel rompe le palle perdere tempo per due click per eventualmente impostare, quando serve, la priorità o l'affinità da SO.......ma lasciamo perdere và che è meglio......
Inviato dal mio GT-I9505
Questo TEST potrebbe interessarvi parecchio! :read: quale cpu sbarella prima??:D
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-01-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-03-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-05-pcgh.png
ma è vero o farlocco il grafico? :D
FazzoMetal
14-09-2014, 15:26
Comunque con tutto il rispetto credo che il punto non sia confrontare l'FX 8350 con il 4770K, il punto è comparare ciò che Intel e AMD attualmente offrono a parità di fascia di prezzo:
-l'FX 4300 affronta i Pentium G
-l'FX 6300 si batte con l'i3 3210
-l'FX 8320 con l'i3 4330
Io credo che, per un utente che non utilizza il PC solo per web browsing e gaming (c'è comunque un'utenza non trascurabile che fa editing audio/foto/video, usa vari CAD, utilizza IDE e macchine virtuali, gestisce archivi multimediali ecc) l'offerta AMD restituisca attualmente una user experience migliore offrendo, a parità di prezzo, delle CPU non velocissime ma capaci di gestire più agevolmente carichi di lavoro eterogenei e/o contemporanei con fluidità.
E' questo il motivo per cui, quando ho dovuto decidere con cosa sostituire il mio caro E8400@4.1GHz, ho optato per AMD.
feldvonmanstein
14-09-2014, 15:46
ma è vero o farlocco il grafico? :D
se guardi nel link dal grafico è possibile switchare da crysis 3 ( che sfrutta bene i core) al test di skyrim, un gioco dove le cpu intel la fanno da padrone e si vede bene come l'i3 pur partendo in vantaggio senza nnt in background appena viene caricato con altro crolla. stessa cosa l'i 5 e l'i 7 , sebbene la cosa sia più contenuta quando si attiva l' HT, nn hanno la stessa stabilità di prestazione o resitsenza al carico dell' 8350 che invece segue una curva quasi liniare.
questa differenza la si può notare anche senza scomodare intel e quindi tra il vecchio phenom II x6 ed un FX 6300
ciò nn accade nel confronto tra athlon II 740x e phenom II x 4 e la cosa secondo me è da addebitare alla mancanza della cache L3 del primo.
dall'ultimo confronto si può dedurre anche che più che l'architettura interna, nel multitasking spinto, conti il quantitativo di cache integrato; ma questo mi pare che già si sapeva .
In definitiva secondo me quelle di Paolo nn sono solo sensazioni.
ps: Ecco xk nei test dell recensioni dove vengono testati i proci a sistema pulito gli i 3 nei giochi sono sopra agli fx ; ma nella realtà saranno poche le persone che avranno un sitema con nnt in background e vista la curva discendente che prende l'i 3 preferirei mille volte un fx 6300, anche solo per giocare.
se guardi nel link dal grafico è possibile switchare da crysis 3 ( che sfrutta bene i core) al test di skyrim, un gioco dove le cpu intel la fanno da padrone e si vede bene come l'i3 pur partendo in vantaggio senza nnt in background appena vine caricato con altro crolla. stessa cosa l'i 5 e l'i 7 , sebbene la cosa sia più contenuta quando si attiva l' HT, nn hanno la stessa stabilità di prestazione o resitsenza al carico dell' 8350 che invece segue una corva quasi liniare.
questa differenza la si può notare anche senza scomodare intel e quindi tra il vecchio phenom II x6 ed un FX 6300
ciò nn accade nel confronto tra athlon II 750K e phenom II x 4 e la cosa secondo me è d aaddebitare ala mancanza della cache L3 del primo.
dall'ultimo confronto si può dedurre anche che più che l'architettura interna, nel multitasking spinto, conti il quantitativo di cache integrato; ma questo mi pare che già si sapeva .
In definitiva secondo me quelle di Paolo nn sono solo sensazioni.
ps: Ecco xk nei test dell recensioni dove vengono testati i proci a sistema pulito gli i 3 nei giochi sono sopra agli fx ; ma nella realtà saranno poche le persone che avranno un sitema con nnt in background e vista la curva discendente che prende l'i 3 preferirei mille volte un fx 6300, anche solo per giocare.
Io lo stò dicendo da tanto, i test fatti con sistema pulito e niente più del necessario che gira sotto sono una cosa... l'uso quotidiano con antivirus, software, utility e millemila applicazioni che girano in background un'altra... e per essere una leggenda metropolitana le testimonianze cominciano ad essere parecchie :eek:
;) ciauz
AceGranger
14-09-2014, 16:53
se guardi nel link dal grafico è possibile switchare da crysis 3 ( che sfrutta bene i core) al test di skyrim, un gioco dove le cpu intel la fanno da padrone e si vede bene come l'i3 pur partendo in vantaggio senza nnt in background appena viene caricato con altro crolla. stessa cosa l'i 5 e l'i 7 , sebbene la cosa sia più contenuta quando si attiva l' HT, nn hanno la stessa stabilità di prestazione o resitsenza al carico dell' 8350 che invece segue una curva quasi liniare.
vorrei proprio vedere se quei 5 fps non li recuperi impostando la priorita dei thread; affinita/priorita dei thread che, fra l'altro, nell'ultimo step avrebbe bisogno anche l'8350...
dopo aver settato entrambi i sistemi cosi sarebbe bello anche vedere, oltre agli fps, le prestazioni delle conversioni in modo tale da avere le prestazioni globali dei sistemi, e poi, tirare le conclusioni.
quello sarebbe un test condotto nel modo corretto.
devil_mcry
14-09-2014, 16:58
Io lo stò dicendo da tanto, i test fatti con sistema pulito e niente più del necessario che gira sotto sono una cosa... l'uso quotidiano con antivirus, software, utility e millemila applicazioni che girano in background un'altra... e per essere una leggenda metropolitana le testimonianze cominciano ad essere parecchie :eek:
;) ciauz
Si ma applicativi a bassa priorità pensati per girare in background non sono equivalenti ad una conversione h264 che gira sempre al massimo. Quanta % di carico ha l'antivirus sulla CPU del tuo PC ad esempio?
In ogni caso da quel grafico tutta sta differenza tra l'i7 e l'8350 che si voleva far passare non c'è, a sentir parlare qualcuno doveva come minimo andare sotto 0, e voglio proprio vedere chi fa
A prescindere da come è stato fatto quel test o meno, senza considerare che lo scenario cambia abbastanza su Skyrim, dove pure un i5 tiene il passo con l'FX8350 per un bel po' (anzi fa meglio)
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-02-pcgh.png
feldvonmanstein
14-09-2014, 17:27
Si ma applicativi a bassa priorità pensati per girare in background non sono equivalenti ad una conversione h264 che gira sempre al massimo. Quanta % di carico ha l'antivirus sulla CPU del tuo PC ad esempio?
In ogni caso da quel grafico tutta sta differenza tra l'i7 e l'8350 che si voleva far passare non c'è, a sentir parlare qualcuno doveva come minimo andare sotto 0, e voglio proprio vedere chi fa
A prescindere da come è stato fatto quel test o meno, senza considerare che lo scenario cambia abbastanza su Skyrim, dove pure un i5 tiene il passo con l'FX8350 per un bel po' (anzi fa meglio)
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-02-pcgh.png
Proprio nn volete capire il senso del test.:doh:
Il discorso nn è chi è meglio o peggio, nn si vuole dimotrare che amd fa più fps, ma che gli fx reggono meglio il carico dell cpu intel e mi sembra anche abbastanza evidente diamine!
l'8350 nn fa gli fps migliori ma anche caricandolo la curva delle prestazioni rimane stabile quando un i 5 parte in cielo e arriva in terra e anche l'I7 senza l'HT ( quindi non rompete con il discorso dell affinità che può valere anche per gli fx oltre al fatto che che gli smanettamneti mi par dii capire sono validi solo quando fa comodo all'una o all'altra bandiera ) ma anche attivandolo nn ha la stessa liniarità dell'fx. è un discorso di percentuali rispetto a se stessi nn di risultati finali. le cpu intel perdono una percentuale di prestazioni maggiori all'aumentare del carico rispetto alle cpu fx così come la vecchia architettura K10 .
Avrà altri millemila difetti ma quest è un punto di forza di queste cpu mettetevelo in testa.
devil_mcry
14-09-2014, 17:56
Proprio nn volete capire il senso del test.:doh:
Il discorso nn è chi è meglio o peggio, nn si vuole dimotrare che amd fa più fps, ma che gli fx reggono meglio il carico dell cpu intel e mi sembra anche abbastanza evidente diamine!
l'8350 nn fa gli fps migliori ma anche caricandolo la curva delle prestazioni rimane stabile quando un i 5 parte in cielo e arriva in terra e anche l'I7 senza l'HT ( quindi non rompete con il discorso dell affinità che può valere anche per gli fx oltre al fatto che che gli smanettamneti mi par dii capire sono validi solo quando fa comodo all'una o all'altra bandiera ) ma anche attivandolo nn ha la stessa liniarità dell'fx. è un discorso di percentuali rispetto a se stessi nn di risultati finali. le cpu intel perdono una percentuale di prestazioni maggiori all'aumentare del carico rispetto alle cpu fx così come la vecchia architettura K10 .
Avrà altri millemila difetti ma quest è un punto di forza di queste cpu mettetevelo in testa.
Un i7 senza HT è un i5... capisco cosa intendi ma è ovvio che si comportino nello stesso modo.
Come dicevo nella pagina precedente l'fx al 99% è realmente un octacore, quindi la cosa non è poi chissà che novità, ma le performance finali rimangono comunque pressochè equivalenti quindi il discorso che gli i7 muoiono e non ti permettono di fare cose che gli fx ti permettono non è vera.
Perde di più in percentuale, vero, ma alla fine vanno più o meno uguale.
feldvonmanstein
14-09-2014, 17:58
vorrei proprio vedere se quei 5 fps non li recuperi impostando la priorita dei thread; affinita/priorita dei thread che, fra l'altro, nell'ultimo step avrebbe bisogno anche l'8350...
dopo aver settato entrambi i sistemi cosi sarebbe bello anche vedere, oltre agli fps, le prestazioni delle conversioni in modo tale da avere le prestazioni globali dei sistemi, e poi, tirare le conclusioni.
quello sarebbe un test condotto nel modo corretto.
Guarda di programmini che impostano la prioriotà maggiore alle applicazioni in primo piano ne consco a bizzeffe, uno su tutti, semplice semplice, lunaworX o qualcosa di più complesso e ultrapersonalizzabile come Process lasso con funzioni di monitoraggio per preservare la reattività del sistema limitando i processi che tentano di prendere il sopravvento.
Soluzioni del genere possono essere applicate a qualsiasi architettura ma rimangono soluzioni Software (dalla mia eperienza non miracolose) che poco hanno a che fare con una predisposizione hardware
feldvonmanstein
14-09-2014, 18:08
Un i7 senza HT è un i5... capisco cosa intendi ma è ovvio che si comportino nello stesso modo.
Come dicevo nella pagina precedente l'fx al 99% è realmente un octacore, quindi la cosa non è poi chissà che novità, ma le performance finali rimangono comunque pressochè equivalenti quindi il discorso che gli i7 muoiono e non ti permettono di fare cose che gli fx ti permettono non è vera.
Perde di più in percentuale, vero, ma alla fine vanno più o meno uguale.
nn è comq un i 5 xk ha più cache.
vanno più o meno uguale ? da quello che vedo , test skyrim( forse il gioco più intel dipendente) dal punto 1 al punto 5 un i 5 parte da 80 fps per arrivare a 10( inchiodato) :eek:
mentre l'fx parte da 65 (+ di quanto il 99 % dei monitor possono visualizzare)
per arrivare a 55 (giocabilissimi) perdendo solo 10 fps.
l'I7 con ht ne perde 30 fps scendendo anche sotto l'fx.
se prendiamo crysis a confronto, gioco che carica maggiormente la cpu, l'I5 crolla anche prima mentre l'fx perde solo 5fps.
Se questa nn è maggiore resistenza al carico ditemi voi cosa altro vi serve per dimostrarlo.
feldvonmanstein
14-09-2014, 18:09
a proposito dei discorsi che si sono fatti in preedenza tra STM e CMT.
L'SMT sarà anche più efficiente ma partendo da un ipc fx per singolo core di quasi la metà rispetto ad una core intel, con 8 thread attivi la cpu fx nn da certo la metà dei risultati del core intel + HT 8 TH.
questo recupero serve a testimoniare che L'alu virtualizzata di intel nn potrà mai sopperire alla alu finsica del CMT di amd; teoricamente quindi amd nn aveva sbagliato a considerare il CMT superiore a l' SMT .
Il problema quindi nn è tanto lapproccio architetturale, ma la realizzazione della stessa, scarsa efficienza prestazionale del singolo core amd rispetto al core intel . Immaginate , sempre se sia realizzabile, il singolo core di un fx 8350 avere lo stesso ipc di un i 7 4770, ebbene in questo caso Il CMT si rivelerebbe nettamente superiore all'SMT nella situazione di massimo sfruttamento dei thread con un marigine di un buon 30%.....
AceGranger
14-09-2014, 18:14
Guarda di programmini che impostano la prioriotà maggiore alle applicazioni in primo piano ne consco a bizzeffe, uno su tutti, semplice semplice, lunaworX o qualcosa di più complesso e ultrapersonalizzabile come Process lasso con funzioni di monitoraggio per preservare la reattività del sistema limitando i processi che tentano di prendere il sopravvento.
Soluzioni del genere possono essere applicate a qualsiasi architettura ma rimangono soluzioni Software (dalla mia eperienza non miracolose) che poco hanno a che fare con una predisposizione hardware
a me fraga ben poco se sia hardware o software; se la soluzione software con l'architettura X mi da prestazioni migliori dell'architettura Y che è hardware, grazie io preferisco la prima situazione; se tu preferisci la seconda opzione buon per te, ma all'atto pratico di superiore non c'è nulla.
a proposito dei discorsi che si sono fatti in preedenza tra STM e CMT.
L'SMT sarà anche più efficiente ma partendo da un ipc fx per singolo core di quasi la metà rispetto ad una core intel, con 8 thread attivi la cpu fx nn da certo la metà dei risultati del core intel + HT 8 TH.
questo recupero serve a testimoniare che L'alu virtualizzata di intel nn potrà mai sopperire alla alu finsica del CMT di amd; teoricamente quindi amd nn aveva sbagliato a considerare il CMT superiore a l' SMT .
.
guarda che nessuno ha mai detto il contrario è; le lamentele sono sempre state rivolte alla realizzazione, non dell'idea che ci sta dietro... anche perchè il CMT non eclude l'SMT e vice versa.
feldvonmanstein
14-09-2014, 18:31
=AceGranger;41518432]a me fraga ben poco se sia hardware o software; se la soluzione software con l'architettura X mi da prestazioni migliori dell'architettura Y che è hardware, grazie io preferisco la prima situazione; se tu preferisci la seconda opzione buon per te.
"la soluzione software con l'architettura X mi da prestazioni migliori dell'architettura Y che è hardware"
Questo è tutto da dimostrare, io ho postato dei test, tu no.
poi puoi smanettare quanto ti pare ma all fine, si inchioderà prima xk ha meno margine.
Si ma applicativi a bassa priorità pensati per girare in background non sono equivalenti ad una conversione h264 che gira sempre al massimo. Quanta % di carico ha l'antivirus sulla CPU del tuo PC ad esempio?
In ogni caso da quel grafico tutta sta differenza tra l'i7 e l'8350 che si voleva far passare non c'è, a sentir parlare qualcuno doveva come minimo andare sotto 0, e voglio proprio vedere chi fa
A prescindere da come è stato fatto quel test o meno, senza considerare che lo scenario cambia abbastanza su Skyrim, dove pure un i5 tiene il passo con l'FX8350 per un bel po' (anzi fa meglio)
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-02-pcgh.png
Prova a fare lo stesso bench con il so che adoperi da anni e con tutto quello che usi (e probabilmente anche tanta roba che nn usi più) installato e poi fai lo stesso benchmark dopo aver formattato e installato solo i driver e il necessario per il test... io l'ho fatto e sono rimasto meravigliato dalla differenza.
Che gli FX sono octacore (nel mio caso esacore) a tutti gli effetti al 99% nn é proprio esatto, ho fatto realbench con il 6300 con tutti i core attivi:
http://thumbnails110.imagebam.com/35130/e6b64c351291134.jpg (http://www.imagebam.com/image/e6b64c351291134)
e poi l'ho fatto disabilitando un core a modulo:
http://thumbnails111.imagebam.com/35130/f4f2f2351291793.jpg (http://www.imagebam.com/image/f4f2f2351291793)
come vedi ho fatto ben più della metà, addirittura in editing ho avuto un punteggio più alto con un core a modulo... direi che una differenza c'é e posso anche dirti che il mio 1090 a 4,3ghz tiene testa al 6300 a 4,6... ma nn si sogna nemmeno di reggere gli stessi carichi e lo stesso succede con gli intel, hanno prestazioni migliori, sono ottime cpu, ma a parità di costo nn reggono gli stessi carichi... che tu voglia ammetterlo o no.
;) ciauz
plainsong
14-09-2014, 18:42
Quelli evidenziati da feldvonmanstein sono risultati interessanti che per quanto mi riguarda mettono finalmente in luce in modo chiaro quanto diversi utenti, come paolo, affermano da tempo, e cioè la maggiore linearità delle prestazioni degli FX nel reggere carichi di lavoro pesantemente multitasking rispetto alle architetture Intel. Per quanto riguarda il discorso sul settaggio affinità dei thread, esso può senz'altro migliorare le prestazioni, ma imho solo entro una certa soglia. Che lavorare su questo parametro elimini completamente lo svantaggio architetturale di Intel in questo specifico ambito va dimostrato, e la dimostrazione dovrebbe provare che all'aumentare del carico le prestazioni della cpu Intel decadono rispetto a sè stesse in misura uguale o inferiore di quanto non accada con un FX. Un tale comportamento è a mio avviso altamente improbabile.
AceGranger
14-09-2014, 19:11
"la soluzione software con l'architettura X mi da prestazioni migliori dell'architettura Y che è hardware"
Questo è tutto da dimostrare, io ho postato dei test, tu no.
evidentemente hai la memoria corta, visto che i bench li postai al tempo dei test di Paolo; stessi identici creen con stessi guadagni % e to guarda niente perdite :rolleyes:
[B]
poi puoi smanettare quanto ti pare ma all fine, si inchioderà prima xk ha meno margine.
credi pure a quello che vuoi ;)
E invece è proprio quello il punto, perchè se bastano 2 click in win per eliminare eventuali problemi fluidita ottenendo al contempo prestazioni superiori, la storiella del carico maggiore è e rimane una gran vaccata.
Se qualcuno ne ignora l'esistenza o per pippa mentale non le vuole utilizzare è un suo problema, ma le prestazioni che puo raggiungere una CPU sono quelle.
l'architettura serve a far girare l'OS e se l'OS mi permette di sfruttare al meglio una determinata architettura lo faccio.
a livello pratico NON esiste il vantaggio che continuate a paventare.
vorrei proprio vedere se quei 5 fps non li recuperi impostando la priorita dei thread; affinita/priorita dei thread che, fra l'altro, nell'ultimo step avrebbe bisogno anche l'8350...
dopo aver settato entrambi i sistemi cosi sarebbe bello anche vedere, oltre agli fps, le prestazioni delle conversioni in modo tale da avere le prestazioni globali dei sistemi, e poi, tirare le conclusioni.
quello sarebbe un test condotto nel modo corretto.
a me fraga ben poco se sia hardware o software; se la soluzione software con l'architettura X mi da prestazioni migliori dell'architettura Y che è hardware, grazie io preferisco la prima situazione; se tu preferisci la seconda opzione buon per te, ma all'atto pratico di superiore non c'è nulla.
guarda che nessuno ha mai detto il contrario è; le lamentele sono sempre state rivolte alla realizzazione, non dell'idea che ci sta dietro... anche perchè il CMT non eclude l'SMT e vice versa.
dalle mie parti si dice "ta fe prima a meteghel in del cu che a meteghel in del cò".....viva intel,viva il re e la regina...io continuo a fare mille cose insieme(moooolto piu' lentamente del tuo processore intel,ci mancherebbe...l affinita dei core moltiplica le risorse con gli intel...),mi metto nell angolino buio e giuro di non darti piu' fastidio qui nel thread intel.... :asd:
AceGranger
14-09-2014, 19:27
dalle mie parti si dice "ta fe prima a meteghel in del cu che a meteghel in del cò".....viva intel,viva il re e la regina...io continuo a fare mille cose insieme(moooolto piu' lentamente del tuo processore intel,ci mancherebbe...l affinita dei core moltiplica le risorse con gli intel...),mi metto nell angolino buio e giuro di non darti piu' fastidio qui nel thread intel.... :asd:
ah si scusa, dimentico sempre di essere nel thread delle barzellette e delle leggende metropolitane; tranquillo, non disturbero piu i tuoi sogni :zzz:
feldvonmanstein
14-09-2014, 19:32
Così mi farò capire..
i 7 è una ferrari, fx è un King tiger .
zavorrali entrambi gradualmente e vedrai che la ferrari perderà L'enorme vantaggio molto rapidamente fino a rimanere al palo quando il king ancora avanzerà quasi indisturbato.:
alll ferrari potrai montare i cingoli ma all fine ti si brucia la frizione . :tapiro: :tapiro:
devil_mcry
14-09-2014, 19:32
Prova a fare lo stesso bench con il so che adoperi da anni e con tutto quello che usi (e probabilmente anche tanta roba che nn usi più) installato e poi fai lo stesso benchmark dopo aver formattato e installato solo i driver e il necessario per il test... io l'ho fatto e sono rimasto meravigliato dalla differenza.
Che gli FX octacore (nel mio caso esacore) al 99% nn é proprio esatto, ho fatto realbench con il 6300 con tutti i core attivi:
come vedi ho fatto ben più della metà, addirittura in editing ho avuto un punteggio più alto con un core a modulo... direi che una differenza c'é e posso anche dirti che il mio 1090 a 4,3ghz tiene testa al 6300 a 4,6... ma nn si sogna nemmeno di reggere gli stessi carichi e lo stesso succede con gli intel, hanno prestazioni migliori, sono ottime cpu, ma a parità di costo nn reggono gli stessi carichi... che tu voglia ammetterlo o no.
;) ciauz
Isomen perdonami ma il fatto che tu abbia ottenuto questi risultati e ti sembrano notevoli credo sia dovuto al fatto che non hai ben chiaro come funziona la Flex FP di BD.
Se tu disabiliti 1 core a modulo non hai ottenuto la metà di prima come potenza computazionale, questo perchè le due FPU a 128bit che sono presenti nella Flex FP possono essere assegnate entrambe allo stesso core, duplicando di fatto dal potenza elaborativa a 128bit (o quasi) la dove non vengono usate le AVX.
Se invece stavi usando un SW che sfrutta le AVX a 256bit semplicemente hai tolto il tappo che la Flex FP genera quando i core cercano di accedere in modo concorrente a quella risorsa.
Come funziona la Flex FP, se non si stanno usando dati a 256bit in FP un modulo BD è in grado di sfruttare le due unità a 128bit rendendole disponibili una per core (di fatto abbiamo realmente una FPU per core) o 2 FPU per un core ( "raddoppiando" la potenza di calcolo di quel core).
In caso di dati a 256bit li si va in mutua esclusione, si elabora un dato prima per uno e poi per l'altro.
Ma questo cosa vuol dire? Che semplicemente nelle tue prove hai allocato per ogni core più risorse, non hai usato metà della logica dell'architettura ma più di metà sopratutto hai usato tutta la Flex FP che è la parte condivisa più importante. Questa soluzione l'hanno implementata tutto sommato in modo furbo, solo che AMD non ha avuto probabilmente le capacità ingegneristiche per rendere più efficiente tutto questo e, sopratutto, non ha incrementato in modo consistente le performance delle FMAC rispetto a STAR che così non solo non vanno più di prima, ma meno a causa dello scheduler condiviso.
In Piledriver AMD ha aumentato le performance non andando ad aumentare la potenza di calcolo delle FPU o altre parti ma sopratutto lavorando sui blocchi di front end condivisi tra cui lo scheduler della FPU.
Con questo polpettone cosa voglio dire... Se ti leggi anche la documentazione ufficiale di AMD, noti che tecnicamente un modulo BD è fatto in modo da poter allocare una FMAC a core rendendo di fatto uguale il conteggio di core int e fp, il fatto che le FMAC siano a 128bit non è strano perchè anche STAR le aveva a 128bit.
Quindi è per questo che quando disabiliti un core a modulo hai performance maggiori rispetto alla metà del punteggio ideale (ma questo non vuol dire che sia giusto perchè idealmente non avresti 2 FMAC a core) ed è per questo che su carichi a bassa intensità di uso di FPU scala come un octacore.
Allo stesso tempo è per questo che appena spari un sw FPU intensive crolla tutto, ma tecnicamente BD può avere 8FPU contemporaneamente associate a 8 thread diversi.
Poi se non ti fidi, cercando Flex FP trovi tutto, anche sul sito di AMD, questo è come è fatta questa CPU quindi non è che voglio ammetterlo o meno, c'è la documentazione.
PS non prenderla in tono sgarbato, non lo è assolutamente anzi. :)
ah si scusa, dimentico sempre di essere nel thread delle barzellette e delle leggende metropolitane; tranquillo, non disturbero piu i tuoi sogni :zzz:
ho sempre notato nei tuoi post una certa insofferenza verso chi non la pensava come te...e ancora una volta mi dai la stessa impressione.
forse non hai ancora capito che c e' gente che compra questi processori con l intenzione di usarli in certi modi,oppure per il semplice fatto che costano poco...o perché gli piace l idea di avere un vero mulo..lento,caldo,sporco brutto e cattivo....vedi te...,perché usano il pc in un modo che esula dai canoni tradizionali di utilizzo del pc stesso.
se io voglio fare tante cose tutte insieme,credo d essere padrone di agire in questo modo....se una serie di test mostrano che la mia sensazione e' reale,non me ne frega nulla di sentire che selezionando l affinita dei core con intel avrei risultati migliori....il succo e' che so in partenza che il mio processore e' più lento della fascia media intel ma per come uso io il pc,preferisco una macchina che risponde ai miei input in un certo modo e che mi permette di fare altro nell attesa,piuttosto che finire prima ma dover aspettare magari 10 secondi di incertezza tra un lavoro e l altro
edit....non disturbi i miei sogni,stai tranquillo...di solito i miei sogni non riguardano i pc e spero neanche i tuoi.il pc e' solo uno strumento/giocattolo che uso come passatempo.
Isomen perdonami ma il fatto che tu abbia ottenuto questi risultati e ti sembrano notevoli credo sia dovuto al fatto che non hai ben chiaro come funziona la Flex FP di BD.
Se tu disabiliti 1 core a modulo non hai ottenuto la metà di prima come potenza computazionale, questo perchè le due FPU a 128bit che sono presenti nella Flex FP possono essere assegnate entrambe allo stesso core, duplicando di fatto dal potenza elaborativa a 128bit (o quasi) la dove non vengono usate le AVX.
Se invece stavi usando un SW che sfrutta le AVX a 256bit semplicemente hai tolto il tappo che la Flex FP genera quando i core cercano di accedere in modo concorrente a quella risorsa.
Come funziona la Flex FP, se non si stanno usando dati a 256bit in FP un modulo BD è in grado di sfruttare le due unità a 128bit rendendole disponibili una per core (di fatto abbiamo realmente una FPU per core) o 2 FPU per un core ( "raddoppiando" la potenza di calcolo di quel core).
In caso di dati a 256bit li si va in mutua esclusione, si elabora un dato prima per uno e poi per l'altro.
Ma questo cosa vuol dire? Che semplicemente nelle tue prove hai allocato per ogni core più risorse, non hai usato metà della logica dell'architettura ma più di metà sopratutto hai usato tutta la Flex FP che è la parte condivisa più importante. Questa soluzione l'hanno implementata tutto sommato in modo furbo, solo che AMD non ha avuto probabilmente le capacità ingegneristiche per rendere più efficiente tutto questo e, sopratutto, non ha incrementato in modo consistente le performance delle FMAC rispetto a STAR che così non solo non vanno più di prima, ma meno a causa dello scheduler condiviso.
In Piledriver AMD ha aumentato le performance non andando ad aumentare la potenza di calcolo delle FPU o altre parti ma sopratutto lavorando sui blocchi di front end condivisi tra cui lo scheduler della FPU.
Con questo polpettone cosa voglio dire... Se ti leggi anche la documentazione ufficiale di AMD, noti che tecnicamente un modulo BD è fatto in modo da poter allocare una FMAC a core rendendo di fatto uguale il conteggio di core int e fp, il fatto che le FMAC siano a 128bit non è strano perchè anche STAR le aveva a 128bit.
Quindi è per questo che quando disabiliti un core a modulo hai performance maggiori rispetto alla metà del punteggio ideale (ma questo non vuol dire che sia giusto perchè idealmente non avresti 2 FMAC a core) ed è per questo che su carichi a bassa intensità di uso di FPU scala come un octacore.
Allo stesso tempo è per questo che appena spari un sw FPU intensive crolla tutto, ma tecnicamente BD può avere 8FPU contemporaneamente associate a 8 thread diversi.
Poi se non ti fidi, cercando Flex FP trovi tutto, anche sul sito di AMD, questo è come è fatta questa CPU quindi non è che voglio ammetterlo o meno, c'è la documentazione.
PS non prenderla in tono sgarbato, non lo è assolutamente anzi. :)
Devil, devi perdonarmi te... io sò ben poco di come é fatta internamente una cpu e anche come lavorano i software, sono solo un appassionato d'oc che con gli anni ha fatto un po' di pratica... però così, secondo me, sono 3 core interi, mentre nell'altro modo (quello di funzionamento classico) sono sei 3/4 di core, perchè l'ultimo quarto é condiviso... il secondo core del modulo amd in prestazioni perde meno del core virtuale intel, nonostante questo le cpu intel rimangono più veloci per via dell'ipc mostruoso dell'ottima architettura... che dire, intel farà le macchine da corsa e amd i trattori... nn ho mai visto una F1 tirare un coltro :asd:
PS
nn la prendo affatto in modo sbagliato (almeno credo), stò esponendo quello che penso serenamente :mano:
;) ciauz
sgrinfia
14-09-2014, 21:06
Cavolo, ma come si fa?, ad paragonare un i7 a un fx 8 core, e normale che questo ultimo riesca a supportare più carico, i suoi core sono fisici, e non virtuali........ poi un i7 non può reggere il confronto in certe condizioni perché se vuoi che HT faccia il suo lavoro ,i suoi core non devono essere sollecitati al 100% col carico . perché HT funziona quando i core non sono al 100% , in modo che le risorse rimanenti vengano sfruttate, in poche parole per avere dei core virtuali nel i7,bisogna che i core fisici non vengano sollecitati al 100%.:)
feldvonmanstein
14-09-2014, 21:42
Cavolo, ma come si fa?, ad paragonare un i7 a un fx 8 core, e normale che questo ultimo riesca a supportare più carico, i suoi core sono fisici, e non virtuali........ poi un i7 non può reggere il confronto in certe condizioni perché se vuoi che HT faccia il suo lavoro ,i suoi core non devono essere sollecitati al 100% col carico . perché HT funziona quando i core non sono al 100% , in modo che le risorse rimanenti vengano sfruttate, in poche parole per avere dei core virtuali nel i7,bisogna che i core fisici non vengano sollecitati al 100%.:)
nn è solo una questione di fisicità dei core o meno (che pure aiuta nel confronto con l'HT di intel)ma c'è dell'altro, xk se prendo un phenom II x6 e un fx 6300 (addirittura il primo ha anche il vantaggio di 3 fpu in più e 6 alu fisiche totalmente indipendenti ) anche in questo caso l'fx 6300 cede terreno con una percentuale inferiore sotto carico pesante.
milanok82
14-09-2014, 23:02
Per me la visione è un po' diversa. In primis in ogni caso ho assemblato PC per 25 anni, e a parte gli Intel MMX a 200MHz e più che andavano a scheggia rispetto alla concorrenza, le cose sono state altalenanti, ma visto che vendevo assemblati, dovevo essere concorrenziale con i PC pre-assemblati di marca, e visto che tra assemblare un Intel e avere il prezzo competitivo su un pre-assemblato AMD non c'era gran margine, è ovvio che mi sono buttato su AMD.
In generale, AMD ti da' più prb di Intel (vedi i K6 che sopra i 300MHz dovevano installare una patch nell'OS) ma per l'utente che non vuole spendere una cifra, AMD ti consente di fare i numeri, Intel no, ma non nel senso del procio, ma sul confronto verso gli altri.
In Intel c'è una fobia di far passare OC con sistemi super-dissipati per aria e/o liquido, cosa che in AMD è praticamente assente, giusto per far credere che chi fa OC l'ha più lungo. Tu che hai avuto un i920... te la ricordi la bufala degli i920 "fortunelli" @4GHz ad aria? Sai bene che un i920 a @4GHz scalda più di un 8150@5GHz.
Prova a misurarti a liquido con uno che porta il procio a -30° e invece ti dice che è a liquido "normale". L'OC, una volta che prendi una mobo idonea ed un ALI generoso, è dipendente unicamente alla temp che fai lavorare il procio. BD non ha alcun muro architetturale, sale proporzionatamente alla potenza del reparto dissipazione... ed un 8320 a liquido ha più possibilità di arrivare a frequenze più alte di un 8350 ad aria, come un 8350 a liquido di più di un 8350 ad aria, indipendentemente da "fortunello" o meno. C'è chi ha benchato a @7,650GHz con un 8350, totalizzando sopra i 13 a Cinebench, io a 5,2GHz mi fermo a 9, ma di certo non era nè ad aria nè a liquido :D
C'è di meglio:
http://i.imgur.com/okJ3LGOl.png (http://imgur.com/okJ3LGO)
- Una cpu che non crolla nel carico in uno scenario di massa applicativa anche se ogni singola applicazione spinge 50, è una classica server-cpu.
- Una cpu che spinge 100 nella singola applicazione (per un massimo limitato di applicazioni) e che crolla dopo un numero ridotto di queste, è una desktop-cpu.
- L'architettura Bulldozer è stata studiata solo per uso server e adattata con pochi cambiamenti oltretutto castranti per desktop.
- L'archiettura desktop intel è percentualmente piu soggetta a modifiche castranti rispetto gli xeon.
Adesso considerando che gli xeon sono superiori agli opteron su tutto (perchè è l'intera architettura Intel ad essere superiore sia in MT che in ST), è chiaro che le cpu derivanti da esso hanno castrazioni piu radicali nel MT, per renderle idonee al mercato desktop e rendere piu appetibile il socket 2011. Se gli I7 1150 fossero meno castrati (rispetto xeon) nel MT e resi piu simili agli Xeon, vedreste che i carichi intensivi applicativi di cui state parlando sarebbero superiori rispetto gli FX. Nel mercato desktop, il MT su singola applicazione è aihmè tutt'oggi poco sfruttato (immaginate il MT intesivo sull'application_mass che si parla in questi post). Se giochi a crysis e contemporanemante fai encoding e contemporanemente fai tanto altro, o prendi un FX o prendi una cpu Intel di fascia alta. Se invece con il pc vuoi ottenere maggiori performance nelle singole applicazioni e te ne sbatti altamente di aprire n.mila applicazioni (perchè sei un gamer e no uno sys-admin server), una piattaforma 1150 è superiore al top dell'Amx.
Ergo è verissimo che gli FX crollano dopo degli I7 aprendo n.mila applicazioni per i motivi sopra citati, ma è anche altrettanto vero il motivo per il quale accade questo (sempre sopra citato). Come è vero che se compri il pc per giocare e no per fare l'amministratore di rete, allora ti conviene una cpu Intel (se vuoi ottenere soddisfazioni nei singoli fps o nella rapidità di esecuzione di singoli applicativi). In caso contrario un FX è il bust-buy.
Questa è la verità.
"Prese uno dei piccoli Opteron lo alzò al cielo e AMD disse: ti chiamerò FX e ti infilerò nel mercato dei segaioli...e cosi fù."
;)
Nhirlathothep
14-09-2014, 23:42
li ho visti ora, io non ci credo, simpatizzo AMD, ma mettere in rete questi grafici e' fuorviante
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-01-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-03-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-05-pcgh.png
ma scherziamo? questa e' fantasia.
milanok82
15-09-2014, 00:08
li ho visti ora, io non ci credo, simpatizzo AMD, ma mettere in rete questi grafici e' fuorviante
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-01-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-03-pcgh.png
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-05-pcgh.png
ma scherziamo? questa e' fantasia.
Non si vedono.Cosa sono?
°Phenom°
15-09-2014, 00:09
Di essere vero è vero, quando avevo il 9370 ho fatto diversi test in mt spinto più gaming è la perdita di fluidità ed fps era molto bassa, ma è anche vero che quasi nessuno gioca facendo tutte queste cose in contemporanea, inoltre di base il 4790K rende di più in tutto, in modo marcato soprattutto in ST, per cui la capacità degli fx si annulla quasi, in quanto difficilmente replicabile in realtà se non da pochi utenti che fanno uso del pc in questo modo o comunque utilizzano particolari software dove un FX è preferibile senza spendere un occhio della testa. Poi come faceva notare qualcuno, anche con gli intel si possono avere comportamenti simili twekkando l'affinità core. Io sinceramente sto preferendo complessivamente il 4790K al 9370 per il mio utilizzo, visto che anche sotto rendering video ecc si riesce a fare tutto tranquillamente senza impuntamenti. Poi per chi fà 300 cose in contemporanea, magari nel frattempo giocando, l'FX octa è un buon sostituto più economico ad una controparte 4 core e 4 threads sicuramente più costosa, o comunque per chi oltre a giocare fa uso anche di prog MT, sicuramente è 100 volte preferibile un FX octa ad un "misero" i3 di pari fascia di prezzo.
paolo.oliva2
15-09-2014, 07:40
- Una cpu che non crolla nel carico in uno scenario di massa applicativa anche se ogni singola applicazione spinge 50, è una classica server-cpu.
- Una cpu che spinge 100 nella singola applicazione (per un massimo limitato di applicazioni) e che crolla dopo un numero ridotto di queste, è una desktop-cpu.
- L'architettura Bulldozer è stata studiata solo per uso server e adattata con pochi cambiamenti oltretutto castranti per desktop.
- L'archiettura desktop intel è percentualmente piu soggetta a modifiche castranti rispetto gli xeon.
Adesso considerando che gli xeon sono superiori agli opteron su tutto (perchè è l'intera architettura Intel ad essere superiore sia in MT che in ST), è chiaro che le cpu derivanti da esso hanno castrazioni piu radicali nel MT, per renderle idonee al mercato desktop e rendere piu appetibile il socket 2011. Se gli I7 1150 fossero meno castrati (rispetto xeon) nel MT e resi piu simili agli Xeon, vedreste che i carichi intensivi applicativi di cui state parlando sarebbero superiori rispetto gli FX. Nel mercato desktop, il MT su singola applicazione è aihmè tutt'oggi poco sfruttato (immaginate il MT intesivo sull'application_mass che si parla in questi post). Se giochi a crysis e contemporanemante fai encoding e contemporanemente fai tanto altro, o prendi un FX o prendi una cpu Intel di fascia alta. Se invece con il pc vuoi ottenere maggiori performance nelle singole applicazioni e te ne sbatti altamente di aprire n.mila applicazioni (perchè sei un gamer e no uno sys-admin server), una piattaforma 1150 è superiore al top dell'Amx.
Ergo è verissimo che gli FX crollano dopo degli I7 aprendo n.mila applicazioni per i motivi sopra citati, ma è anche altrettanto vero il motivo per il quale accade questo (sempre sopra citato). Come è vero che se compri il pc per giocare e no per fare l'amministratore di rete, allora ti conviene una cpu Intel (se vuoi ottenere soddisfazioni nei singoli fps o nella rapidità di esecuzione di singoli applicativi). In caso contrario un FX è il bust-buy.
Questa è la verità.
"Prese uno dei piccoli Opteron lo alzò al cielo e AMD disse: ti chiamerò FX e ti infilerò nel mercato dei segaioli...e cosi fù."
;)
Ma io ti quoto tranquillamente, e ti sottolineo:
- ho detto che l'architettura AMD regge più carico rispetto all'equivalente Intel (come carico), cioè 8 core AMD vs 4 + 4 core Intel.
- E ho detto (perchè se dici che un AMD fa meglio una cosa di un Intel ti si scagliano addosso) che comunque uno lavora sul procio a seconda del procio, quindi in Intel opererà in modo che i core non siano al 100% per sfruttare pienamente l'HT, con AMD non c'è questo problema e in teoria puoi fare come vuoi.
Quindi mi sembra chiaro che non l'ho detto perchè AMD recupererebbe chissà quale svantaggio, ma unicamente sottolineare una caratteristica (migliore) dell'architettura CMT, che la si critica per tutto e in tutto.
Ricordo che JF disse, a suo tempo, che la stragrande massa di operazioni sono sugli INT e sull'FP di media c'è 1/3 delle istruzioni, quindi la soluzione di condividere l'FP a 2 core INT si basava su questo.
Non ho la competenza per capire meglio la cosa... ma ipotizzo che Excavator, raddoppiando l'FP per supportare le AVX2, ma in uno scenario software attuale dove le AVX ancora non sono sfruttate, di fatto avrebbe un'FP doppia rispetto a Zambesi/Piledriver/Steamroller, e bisogna vedere se questo contribuirà ad aumentare l'IPC, non tanto per l'aumento di potenza FP, ma sull'impronta di aggiungere una pipeline MMX all'FP in Piledriver, ma di eliminare eventuali stalli della parte INT nell'attesa dell'elaborazione della parte FP.
carlottoIIx6
15-09-2014, 08:03
- Una cpu che non crolla nel carico in uno scenario di massa applicativa anche se ogni singola applicazione spinge 50, è una classica server-cpu.
- Una cpu che spinge 100 nella singola applicazione (per un massimo limitato di applicazioni) e che crolla dopo un numero ridotto di queste, è una desktop-cpu.
- L'architettura Bulldozer è stata studiata solo per uso server e adattata con pochi cambiamenti oltretutto castranti per desktop.
- L'archiettura desktop intel è percentualmente piu soggetta a modifiche castranti rispetto gli xeon.
Adesso considerando che gli xeon sono superiori agli opteron su tutto (perchè è l'intera architettura Intel ad essere superiore sia in MT che in ST), è chiaro che le cpu derivanti da esso hanno castrazioni piu radicali nel MT, per renderle idonee al mercato desktop e rendere piu appetibile il socket 2011. Se gli I7 1150 fossero meno castrati (rispetto xeon) nel MT e resi piu simili agli Xeon, vedreste che i carichi intensivi applicativi di cui state parlando sarebbero superiori rispetto gli FX. Nel mercato desktop, il MT su singola applicazione è aihmè tutt'oggi poco sfruttato (immaginate il MT intesivo sull'application_mass che si parla in questi post). Se giochi a crysis e contemporanemante fai encoding e contemporanemente fai tanto altro, o prendi un FX o prendi una cpu Intel di fascia alta. Se invece con il pc vuoi ottenere maggiori performance nelle singole applicazioni e te ne sbatti altamente di aprire n.mila applicazioni (perchè sei un gamer e no uno sys-admin server), una piattaforma 1150 è superiore al top dell'Amx.
Ergo è verissimo che gli FX crollano dopo degli I7 aprendo n.mila applicazioni per i motivi sopra citati, ma è anche altrettanto vero il motivo per il quale accade questo (sempre sopra citato). Come è vero che se compri il pc per giocare e no per fare l'amministratore di rete, allora ti conviene una cpu Intel (se vuoi ottenere soddisfazioni nei singoli fps o nella rapidità di esecuzione di singoli applicativi). In caso contrario un FX è il bust-buy.
Questa è la verità.
"Prese uno dei piccoli Opteron lo alzò al cielo e AMD disse: ti chiamerò FX e ti infilerò nel mercato dei segaioli...e cosi fù."
;)
quando mai le cpu desktop non sono state di origine sever?
i core fisicini danno di più di quelli virtuali, quindi crolla dopo, ma è questo il punto?
secondo me, no.
la verità è che non siamo mai arrivati al progetto BD pieno per il processo produttivo (consideriamo anche la concentrazione di amd negli altri progetti e la carenza di soldi) e questo fa si che PD sia da solo contro gli i7 senza speranza di superarisu un processo produttivo simile a intel lo avrebbe superato tranquillamente.
Il processo produttivo guida l'incarnazione dell'architettura, determina alal fini il progetto.
paolo.oliva2
15-09-2014, 08:11
a proposito dei discorsi che si sono fatti in preedenza tra STM e CMT.
L'SMT sarà anche più efficiente ma partendo da un ipc fx per singolo core di quasi la metà rispetto ad una core intel, con 8 thread attivi la cpu fx nn da certo la metà dei risultati del core intel + HT 8 TH.
questo recupero serve a testimoniare che L'alu virtualizzata di intel nn potrà mai sopperire alla alu finsica del CMT di amd; teoricamente quindi amd nn aveva sbagliato a considerare il CMT superiore a l' SMT .
Il problema quindi nn è tanto lapproccio architetturale, ma la realizzazione della stessa, scarsa efficienza prestazionale del singolo core amd rispetto al core intel . Immaginate , sempre se sia realizzabile, il singolo core di un fx 8350 avere lo stesso ipc di un i 7 4770, ebbene in questo caso Il CMT si rivelerebbe nettamente superiore all'SMT nella situazione di massimo sfruttamento dei thread con un marigine di un buon 30%.....
Come non quotarti, è quello che dico da sempre.
C'è chi reputa il CMT un flop, ma il CMT, alla luce dei fatti, porta uno svantaggio notevole di IPC a core a monte (core AMD vs core Intel), al quasi pareggio a valle (modulo AMD vs core Intel + HT).
E' INDUBBIO che comunque la potenza sia ridotta, perchè un X8 BD doveva competere con gli X6 Intel e non con gli X4, ma mi sembra evidente che il core BD di certo non abbia un 50% in più di IPC rispetto al core Phenom II, quindi è ovvio che se la potenza non c'è, non sia di certo il CMT la causa principe.
Poi tieni presente che a parità di aumento IPC, Intel ottiene il 130%, AMD il 200%. A questo aggiungici il fatto che da Zambesi a Steamroller architetturalmente non è cambiato nulla di serio (Intel mi sembra abbia modificato la grandezza delle cache L1/L2 e molto altro) eppure AMD ha guadagnato il doppio se non di più in IPC, ed è per questo che AMD, seppur recuperando parecchio è distante in ST ma di certo ha recuperato un totale in MT rispetto Zambesi-2600K e 8350-4770K.
Insomma... se Exavator aumentasse l'IPC di almeno un +15% (e dal 7% di Piledriver e 10,5% di Steamroller, visto che Excavator porterebbe cambiamenti profondi nel modulo, il +15% potrebbe essere possibile), aggiunto ad un silicio che finalmente possa concretizzare il CMT nell'aumento dei core, beh... non sarebbe un 5960X, ma di certo ben sopra a qualsiasi X4 + HT Intel.
paolo.oliva2
15-09-2014, 08:25
quando mai le cpu desktop non sono state di origine sever?
i core fisicini danno di più di quelli virtuali, quindi crolla dopo, ma è questo il punto?
secondo me, no.
la verità è che non siamo mai arrivati al progetto BD pieno per il processo produttivo (consideriamo anche la concentrazione di amd negli altri progetti e la carenza di soldi) e questo fa si che PD sia da solo contro gli i7 senza speranza di superarisu un processo produttivo simile a intel lo avrebbe superato tranquillamente.
Il processo produttivo guida l'incarnazione dell'architettura, determina alal fini il progetto.
E ritorna quello che dico. E' ovvio che la richiesta sia un aumento dell'IPC, ma cosa ha portato Steamroller (+10% di IPC)? NULLA, se non nella fascia 35W/65W TDP. Il silicio ha segato l'opportunità di rendere un 8350 con +10% di IPC e di aumentarne i core.
Excavator potrà avere qualsiasi IPC si voglia accreditare, ma prodotto su un 28nm Bulk di fatto non potrebbe permettere un aumento di TDP/potenza superiore al 5%, forse il 10% con un PP migliorato.
Un 20nm permetterebbe sia Steamroller che un X12 sulla fascia FX, con un aumento massimo di potenza sopra il 60% (cambiamento silicio e non architettura). Un Excavator 28nm Bulk al max il 10% (cambiamento architettura e non di silicio). Cosa sarebbe più importante?
E' ovvio che se si ipotizzasse un Excavator (+20% di IPC su Piledriver) e nel contempo pure il passaggio al 20nm, le cose sarebbero ancora migliori.
paolo.oliva2
15-09-2014, 08:39
Di essere vero è vero, quando avevo il 9370 ho fatto diversi test in mt spinto più gaming è la perdita di fluidità ed fps era molto bassa, ma è anche vero che quasi nessuno gioca facendo tutte queste cose in contemporanea, inoltre di base il 4790K rende di più in tutto, in modo marcato soprattutto in ST, per cui la capacità degli fx si annulla quasi, in quanto difficilmente replicabile in realtà se non da pochi utenti che fanno uso del pc in questo modo o comunque utilizzano particolari software dove un FX è preferibile senza spendere un occhio della testa. Poi come faceva notare qualcuno, anche con gli intel si possono avere comportamenti simili twekkando l'affinità core. Io sinceramente sto preferendo complessivamente il 4790K al 9370 per il mio utilizzo, visto che anche sotto rendering video ecc si riesce a fare tutto tranquillamente senza impuntamenti. Poi per chi fà 300 cose in contemporanea, magari nel frattempo giocando, l'FX octa è un buon sostituto più economico ad una controparte 4 core e 4 threads sicuramente più costosa, o comunque per chi oltre a giocare fa uso anche di prog MT, sicuramente è 100 volte preferibile un FX octa ad un "misero" i3 di pari fascia di prezzo.
Ma io ho solamente detto che l'architettura FX 8350 regge più carico di un X4 + HT Intel, punto, nulla di più, ed è tutto tranne una leggenda metropolitana.
Il discorso, al più, nel confronto SMT CMT, se vogliamo, dovrebbe partire da una potenza core uguale, allora si che sarebbe un confronto.
Cosa risulterebbe un CMT impostato su core Intel, e gli stessi core Intel + HT?
Perchè nel confronto, si parla di transistor totali tra le 2 soluzioni, ma è ovvio che su questo incide che Intel è più ottimizzata per potenza/transistor già nel core, ma non è di certo unicamente l'HT che aumenta la potenza a dismisura con minimo apporto di transistor... non so se riesco a spiegarmi. Ad oggi un sereno confronto CMT vs HT non è possibile, perchè è ovvio che un 5960X 22nm non lo puoi confrontare all'8350 32nm imputando il tutto alla differente architettura perchè AMD è su Piledriver nella fascia FX perchè non può produrre Steamroller >X4 sul 28nm Bulk e non ha un silicio nettamente paragonabile al 22nm.
Purtroppo con AMD, dal 45nm in poi, non si comprende perfettamente quanto è casusa di silicio e quanto di architettura, la perdita di concorrenza vs Intel, ma è chiaro che in termini puri il 32nm AMD non potrebbe competere mai con il 22nm Intel, manco se fosse eccelso, cosa che indubbiamente non lo è.
Caterpillar_WRT
15-09-2014, 08:45
Secondo me, da uomo della strada che fino a ieri ha usato AMD a partire dall'athlon slot A fino ad un x2-250e con molta soddisfazione anche (e sopratutto) per giocare, se questi BD fossero prodotti a 22nm con minori richieste in termini di alimentazione, dissipazione, consumi e conseguente affidabilità e durata del sistema, non stareste qui a fare milioni di parole.
Senza entrare in tecnicismi spinti, già il fatto di dover aggiungere il costo di un dissipatore decente, cambia i termini del confronto con le cpu intel.
Morale della favola ... attendere prego o accontentarsi delle APU che, da quanto ho potuto vedere su alcuni portatili economici, sono molto soddisfacenti.
nardustyle
15-09-2014, 08:54
Senza entrare in tecnicismi spinti, già il fatto di dover aggiungere il costo di un dissipatore decente, cambia i termini del confronto con le cpu intel.
:mbe:
http://www.tomshw.it/guides/hardware/guide/20071201/images/guida_installazione_pc-37.jpg
vs
http://www.palermonelmedioevo.com/eldoradoshop/foto%20inserzioni/CPU/dissipatore1.jpg
a parte il fatto del rumore se proprio devi cambiarne uno quello è proprio l'intel
quando mai le cpu desktop non sono state di origine sever?
i core fisicini danno di più di quelli virtuali, quindi crolla dopo, ma è questo il punto?
secondo me, no.
la verità è che non siamo mai arrivati al progetto BD pieno per il processo produttivo (consideriamo anche la concentrazione di amd negli altri progetti e la carenza di soldi) e questo fa si che PD sia da solo contro gli i7 senza speranza di superarisu un processo produttivo simile a intel lo avrebbe superato tranquillamente.
Il processo produttivo guida l'incarnazione dell'architettura, determina alal fini il progetto.
Carlotto bentornato!
:mbe:
http://www.tomshw.it/guides/hardware/guide/20071201/images/guida_installazione_pc-37.jpg
per essere precisi Nardu questo è il vecchio dissipatore Intel, attualmente su tutti gli haswell desktop (compreso anche il top devils canyon) viene incluso la versione che davano sui Sandy serie T; in altezza, è la metà di quello che posti in foto :D
ecca ca, nuovo e vecchio
http://www.pcprofessionale.it/stappro61/uploads/2008/01/intel_e8000_stock_cooler_03.jpg
nardustyle
15-09-2014, 09:42
per essere precisi Nardu questo è il vecchio dissipatore Intel, attualmente sugli tutti gli haswell desktop (compreso anche il top devils canyon) viene incluso la versione che davano sui Sandy serie T; in altezza, è la metà di quello che posti in foto :D
incredibile che bassa dispersione abbiano questi i7 , veramente impressionanti ...
odierò sempre che li tengano al limite termico per 20 centesimi di alluminio ....
ma restano incredibili
I dissipatori stock in genere non sono male, sono le ventole che o sono fatte male o semplicemente sono rumorose
capitan_crasy
15-09-2014, 09:58
:mbe:
http://www.tomshw.it/guides/hardware/guide/20071201/images/guida_installazione_pc-37.jpg
vs
http://www.palermonelmedioevo.com/eldoradoshop/foto%20inserzioni/CPU/dissipatore1.jpg
a parte il fatto del rumore se proprio devi cambiarne uno quello è proprio l'intel
Per quello che vale fanno ribrezzo entrambi!:asd:
carlottoIIx6
15-09-2014, 13:09
E ritorna quello che dico. E' ovvio che la richiesta sia un aumento dell'IPC, ma cosa ha portato Steamroller (+10% di IPC)? NULLA, se non nella fascia 35W/65W TDP. Il silicio ha segato l'opportunità di rendere un 8350 con +10% di IPC e di aumentarne i core.
Excavator potrà avere qualsiasi IPC si voglia accreditare, ma prodotto su un 28nm Bulk di fatto non potrebbe permettere un aumento di TDP/potenza superiore al 5%, forse il 10% con un PP migliorato.
Un 20nm permetterebbe sia Steamroller che un X12 sulla fascia FX, con un aumento massimo di potenza sopra il 60% (cambiamento silicio e non architettura). Un Excavator 28nm Bulk al max il 10% (cambiamento architettura e non di silicio). Cosa sarebbe più importante?
E' ovvio che se si ipotizzasse un Excavator (+20% di IPC su Piledriver) e nel contempo pure il passaggio al 20nm, le cose sarebbero ancora migliori.
inutile pensare che si possa superare intel senza un silicio altrettanto performante.
intel si dissanguerà sul silicio, ma sa che è la strada per conquistare il mercato.
Amd da parte sua si sta concentrando sui proggetti futuri, dove sa che avrà un silicio decente per competere.
L'unica speranza di vedere excavator rimane carizzo dove, in virtù del mobile che tira e del miglioramento dei consumi, ha ancora senso farlo uscire.
quando mai le cpu desktop non sono state di origine sever?
i core fisicini danno di più di quelli virtuali, quindi crolla dopo, ma è questo il punto?
secondo me, no.
la verità è che non siamo mai arrivati al progetto BD pieno per il processo produttivo (consideriamo anche la concentrazione di amd negli altri progetti e la carenza di soldi) e questo fa si che PD sia da solo contro gli i7 senza speranza di superarisu un processo produttivo simile a intel lo avrebbe superato tranquillamente.
Il processo produttivo guida l'incarnazione dell'architettura, determina alal fini il progetto.
Tutte le cpu desktop sono scarti dei chip destinati al mercato server.
Ma prima di finire nel desktop subiscono modifiche, ecco è qui subentra il mio discorso: AMD ha modificato molto meno i chip opteron destinati a chiamarsi FX, rispetto quanto abbia fatto Intel con gli xeon per poi chiamarli I7 per il socket 1150. Il motivo l'ho spiegato sopra.
Wolfhang
15-09-2014, 15:28
ma lo dico IO? ho solo spiegato quello che Paolo dice da 2 anni a questa parte, e quello che molti utenti hanno riportato con test...
che poi alcuni di voi abbiano replicato e dimostrato che con alcuni accorgimenti questo avviene anche su Intel è del tutto lecito...
Io non ho mai provato un i7 per vari motivi, in primis perché sono appassionato ma non a tal punto di spendere soldi in questo hobby da fare test, o da regalere soldi ad Intel, ma non si stava parlando di ME, ma di Paolo...
Perchè io a chi mi riferivo scusa?
riguardo alla discussione, certo che arrivare a paragonare un i7 22nm haswell ad un FX-8 32nm piledriver ce ne vuole, come ce ne vuole a stupirsi che vada meglio in tutto :rolleyes:
Io ho sempre replicato i test di Paolo e altri utenti col mio 2600k
E il saccente non sono io ma chi all'epoca non credeva a tutte le recensioni uscite e affermava di poter dimostrare il contrario, e stiamo parlando del 2011
°Phenom°
15-09-2014, 15:53
Non toccare il cpu vid da aod o comunque altri settings. Con la crosshair v se vuoi un voltaggio stabile in load, piú o meno fisso a quello che setti da bios, devi settare la load line calibration su ultra high e settare le fasi su extreme.
paolo.oliva2
15-09-2014, 23:10
Perchè io a chi mi riferivo scusa?
Io ho sempre replicato i test di Paolo e altri utenti col mio 2600k
ma come ti ho già detto 1000 volte, con l'8150 (e non 8350) ho fatto test con 2 persone con il 2600K con vari software caricati e il BR non lo puoui vedere fluido ma a scatti, anche in condizione di OC a 4,7GHz, mentre un 8150 a def permette anche l'aggiunta di 1 altro o altri 2 programmi senza pregiudicare la visione.
Poi scappano fuori i trucchetti all'affinamento e priorità... ma non ti viene da pensare che se si fanno le stesse cose con un 8350 i TH caricabili aumenterebbero?
E il saccente non sono io ma chi all'epoca non credeva a tutte le recensioni uscite e affermava di poter dimostrare il contrario, e stiamo parlando del 2011
Ale. Prima mi dite che sparo pagine di stronzate, poi che dico bufale metropolitane, poi quando metà TH vi porta una serie di prove inconfutabili, allora ritornate a prendere per il .... con la storia del 2011.
Guarda, è a causa vostra che abbiamo perso Bjt2... e non mi riesco a trattenere dal dire che era molto più costruttivo 1 unico post di Bjt2 rispetto a pagine e pagine di vostri post dove è un continuo "Intel è migliore in tutto", e i vostri interventi verso di me sono proprio perchè io ho detto "AMD supporta più carico" azzo, ho toccato il Dio Intel... forse è meglio che rileggi cosa altri utenti, non paolo.oliva2, ti hanno risposto.
A quando la prossima bambinata che io dico una cosa e mi ritrovo la combriccola che puntualmente si spalleggia l'un l'altro dicendo il contrario?
paolo.oliva2
15-09-2014, 23:41
Secondo me, da uomo della strada che fino a ieri ha usato AMD a partire dall'athlon slot A fino ad un x2-250e con molta soddisfazione anche (e sopratutto) per giocare, se questi BD fossero prodotti a 22nm con minori richieste in termini di alimentazione, dissipazione, consumi e conseguente affidabilità e durata del sistema, non stareste qui a fare milioni di parole.
E' quello che dico anche io, ad AMD serve un altro silicio che permetta già Steamroller in accoppiata a +4 core. Un Excavator (potenziamento di BD, sarebbe un procio da favola se costasse solamente 300€ ma con un +20% di IPC a core e + 60% di MT, cosa che sul 28nm Bulk non permetterebbe manco un X4 APU >3,7GHz (valutando che Excavator con IPC maggiore difficilmente avrà un TDP inferiore, al max uguale, ma più probabilmente superiore.
Senza entrare in tecnicismi spinti, già il fatto di dover aggiungere il costo di un dissipatore decente, cambia i termini del confronto con le cpu intel.
Morale della favola ... attendere prego o accontentarsi delle APU che, da quanto ho potuto vedere su alcuni portatili economici, sono molto Ma soddisfacenti.
Mah, lasciando a parte Zambesi che l'unica soddisfazione che mi ha dato è quella di superate gli 8,05 di un Thuban in Cinebench... un 8350 soddisfa un tot di più, scalda un totale di meno, con il vantaggio che ad aria si arriva tranquillamente a 4,7GHz mentre con il Thuban, penso che solamente a liquido si potevano tenere sui 4,2GHz.... mentre un 8350 raschia i 5GHz. Guarda, non voglio riaprire nessun discorso, ma use AMD già vendessere un procio con +10% di IPC (possibilissimo con Steamroller) su un silicio che rendesse possibile portarlo a X12, sarebbe una libine, anche ad un prezzo di 300€ (a chi usa un X8 come X8)
george_p
16-09-2014, 08:44
Si continua a paragonare un processore intel che, a prescindere, è sempre stato avanti nel processo produttivo da sempre, mai indietro, mi pare naturale che dia performance in più e non necessariamente dovute alla sola (ottima) architettura.
L'unica pecca di BD è che è stato progettato male e troppo in anticipo per poterlo realizzare con processi produttivi del tempo (ormai 3 anni fa) non buoni per consumi ed efficienza.
Se almeno i 32nm Soi fossero stati degni come da carta la mal progettazione sarebbe stata compensata tranquillamente e oggi avremo avuto anche uno steamroller sullo stesso pp a 8 e forse più core, per non parlare di Excavator, tutte evoluzioni invece castrate dai processi produttivi utilizzati.
Perché non facciamo realizzare un intel hanswell o tutta la serie Core ix da GloFo? E poi vediamo i risultati, non credo ci starebbero 18 core a 140 w :sofico:
Che Buddha ce lo mandi buono :D
paolo.oliva2
16-09-2014, 08:48
Un quesito:
Piledriver ha aumentato del 7% l'IPC su Zambesi semplicemente con dei set di istruzioni nuovi e con una pipeline MMX sull'FP.
Non so quantificare l'apporto di IPC per il set di istruzioni nuove sulla parte INT, ma mi viene da pensare che l'aggiunta della pipeline MMX sia per non stallare la parte INT in attesa dell'elaborazione della parte FP, e la pipeline MMX non è un potenziamento della parte FP ma semplicemente un modo di alimentare maggiormente l'FP per far si che esegua più istruzioni nello stesso tempo.
Ora... ipotizzo, visto che l'FP di Piledriver può eseguire istruzioni AVX, possa essere a tutti gli effetti una doppia FP con istruzioni della metà delle AVX (e di qui la pipeline MMX per alimentare l'altra metà). Excavator raddoppierebbe l'FP con il supporto nativo di elaborazioni AVX2, quindi potendo sia elaborare 2 AVX che 4 istruzioni di metà lunghezza.
Leggendo, ho appreso che il software in grado di utilizzare le AVX è irrisorio, ed ancor più lo sarebbe con Exacavator quello che supporterebbe le AVX2...
quindi... se correttamente alimentata, tipo per farla lavorare come un 4 FP con istruzioni corte, e 2 FP con istruzioni quali AVX, dovrebbe aumentare e di molto prestazionalmente il discorso condivisione con 2 core, perchè se da una parte è si 1 FP con 2 INT quando eseguirebbe AVX2, ma dall'altra sarebbe come avere 2 FP su 2 core se non 4 (ma visto che le istruzioni FP sono meno di 1/3 di quelle INT, sarebbe inutile).
Su tutto comunque grava una cosa... una volta avevo ipotizzato che lo sviluppo APU/FX era simile fino a quando il modulo di per sè aveva lo stesso sviluppo in comune. Kaveri è ancora a tutti gli effetti il modulo classico, che poi sia implementato su un APU o su un FX, non farebbe differenza. Diverso potrebbe essere Excavator, perchè sulla base di voci che darebbero un 1° Excavator ancora sul 28nm e un 2° su un teorico 20nm o più, avrebbe un senso pensare che siano 2 architetture differenti, cioè il 1° un Kaveri con il modulo Excavator ed il 2° potrebbe essere un Excavator più sul progetto fusion2, e di qui il salto degli X86 FX/Opteron ad APU con parte FP sull'IGP.
Quello che non mi è chiaro... ho letto e riletto che l'IGP, potrebbe comunque lavorare con il set di istruzioni X86 FP, ma con efficienza diversa a seconda del tipo di istruzioni. Quello che non mi è chiaro, è se si potrebbe fare in modo di parallelizzare l'elaborazione almeno quando possibile... perchè avrebbe una importanza relativa se l'istruzione X passata all'IGP ci potrebbe mettere il doppio rispetto alla stessa elaborata dall'FP X86, SE nel frattempo l'FP X86 potesse fare altro.
Inoltre... il progetto BD, modulare e CMT, è comunque nato sul progetto APU con fine APU Next Generation, cioè un procio che autonomamente smisterebbe le istruzioni FP dove potrebbero essere eseguite più velocemente, cioè FP X86 e IGP come FP. Il progetto HSA richiederebbe una ricompilazione software per il supporto IGP, mentre un APU next generation praticamente è come se avesse un HSA hardware al suo interno e quindi funzionante con qualsiasi software senza bisogno di ricompilazione.
Se quel tizio che è arrivato all'AMD,cioè quello che è sempre stato per l'IPC più potente possibile, non vedo una incompatibilità di concetto tra l'aumentare l'IPC facendo un SMT sulla parte X86 e invece un X86 tradizionale basato sul modulo e quindi 2 core INT se inquadrassimo l'IGP come una specie di HT sulla parte IGP per l'FP.
E' un casino spiegarlo... 2 core INT, se parallelizzabili, otterrebbero un IPC INT doppio rispetto al classico unico core, e con 2 canali distinti verso l'IGP fatta lavorare come FP. Se non parallelizzabili, il guadagno sarebbe nullo o anche negativo, perchè in quel caso l'IPC sarebbe quello max di 1 core con il 2° inutile... ma questo è unicamente la condizione ST, perchè in MT comunque lavorerebbero più core (oppure più programmi ST contemporaneamente attivi).
Inoltre... a parte tutte le ipotesi commerciali dei proci in futuro, è chiaro che AMD, per essere competitiva, deve avere un prodotto valido che ottenga una potenza massima su un silicio che non avendo FAP di proprietà comunque sarebbe sempre indietro rispetto a quello Intel. L'EV6 è stato una volta il grande salto di AMD, l'APU/HSA implementato hardware potrebbe essere un salto simile se non superiore, perchè sfruttando tutti i transistor di un procio APU (e HSA fa proprio questo) il guadagno effettivo non è tanto sulla maggiore potenza ottenuta, ma che quella potenza in plus ottenuta è a TDP zero. Il vantaggio sarebbe enorme, perchè potrebbe annullare un gap di una o 2 miniaturizzazioni in meno, e quindi il divario, e nel contempo non richiedere le somme enormi di sviluppo silicio/sostituzione FAB che comunque ricaderebbero sul prezzo finale procio.
paolo.oliva2
16-09-2014, 09:51
Si continua a paragonare un processore intel che, a prescindere, è sempre stato avanti nel processo produttivo da sempre, mai indietro, mi pare naturale che dia performance in più e non necessariamente dovute alla sola (ottima) architettura.
L'unica pecca di BD è che è stato progettato male e troppo in anticipo per poterlo realizzare con processi produttivi del tempo (ormai 3 anni fa) non buoni per consumi ed efficienza.
Se almeno i 32nm Soi fossero stati degni come da carta la mal progettazione sarebbe stata compensata tranquillamente e oggi avremo avuto anche uno steamroller sullo stesso pp a 8 e forse più core, per non parlare di Excavator, tutte evoluzioni invece castrate dai processi produttivi utilizzati.
Perché non facciamo realizzare un intel hanswell o tutta la serie Core ix da GloFo? E poi vediamo i risultati, non credo ci starebbero 18 core a 140 w :sofico:
Che Buddha ce lo mandi buono :D
E' relativamente facile calcolare quanto incida il silicio e quanto l'architettura tra Piledriver-Steamroller e IVY-Haswell.
Piledriver-Steamroller + 10% IPC e su silicio ZERO
IVY-Haswell +5% di IPC e su silicio +10% tra IPC/Frequenza e +25% di aumento core... che sommando fa +37,5%.
A guadagno simile di silicio, AMD avrebbe dovuto avere un Steamroller FX a 4,2GHz con +10% di IPC (simile ad un 8350@4,620GHz) e tra l'X10 e X12 di core, raggiungendo una potenza MT rispettivamente equivalente un 8350@5,775GHz (X10) e 8350@6,930GHz (X12).
Il confronto odierno 8350 vs 4770K si tramuterebbe in -15% nel gap ST (tra IPC e frequenza) e +43,75% in MT (+15% IPC/frequenza + 25% dei core) e +72,5% nel caso di X12. Senza nulla togliere al 5960X, come sarebbe il confronto con gli X4 Intel? E sulla luce di questo, quale sarebbe il giudizio sul CMT e sull'architettura BD? Di certo si potrebbe sempre controbattere sull'efficienza architetturale, ma a fronte che sul 28nm Bulk di GF difficilmente sarebbe producibile un Haswell X6, nulla toglie che Intel abbia un'efficienza architetturale superiore, ma di certo non quella di permettere un X8 Hanswell vs un 8370 o 8390 a parità di TDP.
P.S.
Da notare una cosa... il 22nm migliora su un 32nm Intel che era comunque ottimo, quindi un teorico silicio con una riuscita PP simile al 22nm Intel, porterebbe miglioramenti ancor più marcati perchè su un 32nm SOI inferiore al 32nm Intel come riuscita PP.
george_p
16-09-2014, 12:30
Comunque e a proposito di processo produttivo guardando l'articolo adesso pubblicato dalla redazione l'8370 perde in cinebench di ben un 20 percento e a ragione!!! :doh:
Questa scelta dei "nuovi" FX va bene da un lato solo per i consumi ma per niente dall'altro per le prestazioni, è un pessimo trucco quello di abbassare la frequenza default di tante centinaia di mhz per alzare quella turbo di soli 100 mhz :mbe:
Continuo ad aspettare Buddha :D
george_p
16-09-2014, 13:46
si ma lo ripeto, è la stessa cosa che fa Intel nella sua offerta tra sigle come S,T,K ecc... guardati i bench del 4770S rispetto al 4770K...
Si si ma io sempre ribadisco che è una cosa pessima a priori.
E comunque intel almeno classifica la cpu con lo stesso numero e lettera diversa ad identificare un modello diverso, qui abbiamo un 8370 che è maggiore di 8350 e non un 8350 L (come LOW) :)
Questo mi fa credere che non ci sia stato nessunissimo miglioramento nel processo produttivo. Altrimenti avrebbero aumentato la frequenza default, fosse anche solo di 100 mhz ma quella non la frequenza turbo.
°Phenom°
16-09-2014, 13:58
Ho già settato quei due valori come mi avevi indicato nel primo post... ma la CPU @4.7GHz non regge neppure a 1.44v.
Baio
Con cosa stai testando la stabilità? Che temp massime hai in load? Gli amd sono molto sensibili alla temp per la loro stabilità in oc. Te lo chiedo anche per questo
che c'entra, perché fa riferimento alla versione 8370...
oltretutto in undervolt a 1.25v raggiunge i 4.3 ghz, non ho capito se stabili, ma visto cosi i 4ghz a 1.20v mi sembrano fattibilissimi con prestazioni da 8350 def a consumi inferiori...
a cinebench vero perde il 20% di prestazioni ma a fronte di -68 watt (-45%) per l'intera piattaforma che si può benissimo accreditare del tutto alla cpu...
8320 non ha questa efficienza, contando che utilizzano sempre sti cacchio di 32nm (dopo ben 3 anni :rolleyes: ) , non è poi malaccio...
per un aggiornamento senza cambiare l'intera piattaforma non mi sembra poi tanto male, anche se 1 anno fa sarebbe stato meglio...
no lo step è il layout è lo stesso, ma non è lo stesso identico silicio nel senso che le rese saranno prossime al 99% o quanto meno sarà selezionato
In genere tutti gli fx delle ultime sfornate, tranne qualche sample proprio sfigato, tengono i 4GHz con 1.20/1.25v stabili rs.
george_p
16-09-2014, 14:00
Come che c'entra? Un processore così lo chiami e identifichi con un numero inferiore non certo superiore, 8370 si può associare ad un processore che ha prestazioni più elevate dell'8350, qui potevano identificarlo con un numero più basso come hanno già fatto in passato con l'8300... potevano chiamarlo 8320+ o 8330 ma non di sicuro 8370.
Poi certo se vogliono possono chiamarlo anche 10.000 ma dove sta la logica?
george_p
16-09-2014, 15:01
si chiama marketing non lo scopri certo oggi
di certo non spendo 200€ per sta cpu ;)
Appunto.
george_p
16-09-2014, 15:59
No beh se parliamo di marketing bello lo spot qui sul portale stesso con la scritta "la concorrenza è verde d'invidia" :asd:
Tornando IT questo marketing fatto così è pessimo, ma ok, per chi non usa cinema4D o simili il consumo ridotto può "andare bene".
Mi spiace solo che il pp non permetta di realizzare le altre evoluzioni di questa architettura modulare.
devil_mcry
16-09-2014, 16:23
Ma la questione dei transistor è molto torbida perchè AMD nel tempo li ha ritrattati.
Se fossero stati 2B come in prima dichiarazione sarebbero stati effettivamente il doppio circa di una architettura SB/SB-E (che differiscono in numero di transistor, uno è poco meno di 1B, l'altro è 1.2)
Se sono realmente 1.2 come ha dichiarato in un secondo conteggio (:rolleyes:) non c'è differenza tangibile tra le architetture SMT di Intel
Secondo me non è tanto una questione del PP, steamroller su 32 SOI potevano farlo secondo me, probabilmente hanno ritenuto che i costi per le maschere superassero il guadagno dalla vendita di tali CPU e hanno desistito.
Produrle a 28nm bulk non avrebbe avuto senso, il clock sarebbe stato sicuramente più basso (probabilmente ancora di più su un octacore rispetto a un quad) e alla fine sarebbe andato meno del precedente (e credo che la resa produttiva sia stata oltretutto bassa visto come si sono distribuite le cpu nel tempo e i vari ritardi)
Anche il discorso del 22nm di Intel, non è detto che BD con quel PP sarebbe andato a frequenze più alte, al max probabilmente avrebbe consumato meno.
Mondiè c'è la rece su hwupgrade :eek:
"Nuovi" proci disponibili su eprezzo a prezzi molto convenienti :asd:
cioè a fine 2014 dovrei spendere 200 euro per un proci oche va come l'8300 del 2012 e costa quasi il doppio dell'8320?
questo nn è mrktg e qualcosa altro
capitan_crasy
16-09-2014, 17:42
Mondiè c'è la rece su hwupgrade :eek:
"Nuovi" proci disponibili su eprezzo a prezzi molto convenienti :asd:
cioè a fine 2014 dovrei spendere 200 euro per un proci oche va come l'8300 del 2012 e costa quasi il doppio dell'8320?
questo nn è mrktg e qualcosa altro
Clicca qui... (http://semiaccurate.com/2014/09/08/amds-fx-8370-8370e-30-watts-good/)
Clicca qui... (http://semiaccurate.com/2014/09/08/amds-fx-8370-8370e-30-watts-good/)
ma anche l'8300 è 95w
devil_mcry
16-09-2014, 18:33
il senso del transistor count è che CMT vs SMT dovrebbe essere circa +15% o giù di li come confronto core fisici e logici... cioè anche HT necessità di una maggiorazione di transistor rispetto ad un core nudo e crudo, ma in % realizzare 1m/2c costa in termini di numero e superficie un +15%, forse Paolo e il Capitano o altri se lo ricordano meglio;
Non consideri che nel TC di piledriver manca la igpu che anche nella architettura Intel man mano ha avuto il suo aumento % rispetto al totale del core, superiore allo sviluppo dell'x86...
http://cdn4.wccftech.com/wp-content/uploads/2013/07/AMD-Richland-vs-Haswell-GPU.jpg
tenendo fede a questa tabella: http://cdn4.wccftech.com/wp-content/uploads/2013/07/AMD-Kaveri-APU-Die-Size-635x698.jpg
devi scorporare i transistor destinati alla igpu di sandy (32nm) ad esempio:
sandy 1.16B - 17% = 1.16-0.2 = 0.96 B contro gli 1.2/1.3B di BD/PD, cioè ben un +30% di transistor count, penso derivati anche dall'enorme cache L3 di BD, ma di certo dovuto al CMT
per il discorso 22nm, ovviamente sono ipotesi e non ha molto senso, e non parlavo di frequenze ma del fatto che avrebbe permesso sicuramente un 6m/12c a ~3-3.5ghz, battendo gli i7 mainstream in MT con un TDP che non avrebbe superato i 125watt, contando che ivy e haswell sono sui 80/85 watt in mainstream e 140 in extreme, e avendo prestazioni simili agli x6 Intel, ma a 300€...
alla faccia della concorrenza, non da 1000€, ma nemmeno come ora sui 150€...
Ma SB-E ha 1.2B di T nella versione 4c/8t , non ha la GPU...
Infati SB normale il count dei transistor della CPU è circa 950 M come dicevo sopra (li appunto ne riporta 1.12
capitan_crasy
16-09-2014, 19:38
ma anche l'8300 è 95w
Si ma 8300 lo trovi sul mercato asiatico...
Si ma 8300 lo trovi sul mercato asiatico...
ho capito, ma ciò nn toglie che amd propone dopo + di 2 anni un procio a 200 euro con le stesse specifiche, volendo uno potrebbe rischiare eprenderlo su ebay a 140, cosa che nn ho fatto prima perchè mi sembrava troppo ,figuriamoci 200
cmq avevo capito che l'8300, dalle notizie di agosto, doveva essere venduto pure da noi, per nn parlare dell'8310 che è sparito dai radar
paolo.oliva2
16-09-2014, 21:57
Ma la questione dei transistor è molto torbida perchè AMD nel tempo li ha ritrattati.
Se fossero stati 2B come in prima dichiarazione sarebbero stati effettivamente il doppio circa di una architettura SB/SB-E (che differiscono in numero di transistor, uno è poco meno di 1B, l'altro è 1.2)
Se sono realmente 1.2 come ha dichiarato in un secondo conteggio (:rolleyes:) non c'è differenza tangibile tra le architetture SMT di Intel
Io non mi ricordo le cifre, ma mi ricordo che c'era uno scompenso sia nel numero di transistor (che in AMD era maggiore) che nella potenza (che in AMD era inferiore e cioè meno efficiente). Ma non ricordo anche se era stato trattato il discorso delle cache... perchè 8MB di L2 e 8MB di L3 pesano e non poco dul numero totale di transistor.
Secondo me non è tanto una questione del PP, steamroller su 32 SOI potevano farlo secondo me
Non posso postarlo perchè non so rintracciare dove l'ho letto, ma il 28nm Bulk non sarebbe riuscito a sopportare nè un X8 ne minimamente a raggiungere frequenze simili al 32nm SOI (quindi stesso discorso di Kaveri, più IPC ma meno frequenza = stessa o minor potenza). Il prb è che strada facendo, probabilmente perchè non riuscivano a stirare il TDP all'aumentare della frequenza, si sono concentrati sulla fascia 35/65W TDP (che è quella appunto dove Kaveri ottiene più frequenza a parità di TDP rispetto a Richland). Un X8 avrebbe frequenze ridicole a 65W TDP, inoltre, non essendo un Bulk con Vcore simile ad Intel (non mi ricordo se uguale al SOI, ma al più una via di mezzo) il leakage sarebbe aumentato (cosa che in Kaveri non si può valutare, sia perchè mezzo procio viaggia a 1GHz per l'IGP e sia perchè un X4 alla fine non può avere poi tanto leakage)
probabilmente hanno ritenuto che i costi per le maschere superassero il guadagno dalla vendita di tali CPU e hanno desistito.
Produrle a 28nm bulk non avrebbe avuto senso, il clock sarebbe stato sicuramente più basso (probabilmente ancora di più su un octacore rispetto a un quad) e alla fine sarebbe andato meno del precedente (e credo che la resa produttiva sia stata oltretutto bassa visto come si sono distribuite le cpu nel tempo e i vari ritardi)
Anche il discorso del 22nm di Intel, non è detto che BD con quel PP sarebbe andato a frequenze più alte, al max probabilmente avrebbe consumato meno.
Molto probabile... Il silicio Intel è chiaramente sviluppato per far rendere al max l'architettura Intel, quindi ~3,5GHz con un buon margine di overclock, ma sui 4,2GHz comincia il picco di TDP (non so gli altri, io ho letto la rece sul 5960X). L'architettura BD di certo non potrebbe avere 4GHz def, probabilmente 3,7GHz circa... ma con un salto di core enorme... se Intel riesce a realizzare un X18 nei 140W TDP, contando la differenza di IPC a core, ci scapperebbe un 24 core almeno Steamroller, che rispetto agli 8 sul 32nm SOI sono una galassia.
Dimenticavo... vista la gestione eccelsa dello sfruttamento di TDP di Haswell (date a Cesare quel che è di Cesare), probabilmente dai ~3,7GHz che ho scritto sopra, un AMD sul 22nm di Intel al più sarebbe 3,3GHz/3,4GHz :doh: .
paolo.oliva2
16-09-2014, 22:47
http://www.hwupgrade.it/articoli/cpu/4135/amd-fx-8370e-8-core-a-consumo-contenuto-in-95-watt_6.html
Ho letto la rece...
"abbiamo ottenuto un valore di 4.300 MHz stabile con tensione di alimentazione di 1,25V", li hanno scritto stabile... comunque se c'è un miglioramento, è piccolo.
"Spingendosi oltre come tensione di alimentazione, in abbinamento ad un sistema di raffreddamento ad aria, il processore ha automaticamente scalato la propria frequenza di clock su valori inferiori a quanto impostato in quanto non in grado di mantenere funzionamento stabile al dato selezionato" non capisco se il procio abbassa la frequenza a causa delle temp (esplicitamente scrivono ad aria) o abbassa la frequenza a causa di un limite TDP inferiore all'8350.
"In idle le due CPU AMD della famiglia FX registrano dati pressoché identici; entrambe del resto forzano la frequenza di clock al valore più contenuto possibile in questa impostazione proprio per contenere il consumo. Notiamo come il confronto con le due CPU Intel evidenzi valori per più contenuti per le proposte concorrenti: questo è legato al consumo dell'intera piattaforma, quindi della scheda madre, che è nettamente più contenuto per il modello socket LGA 1150 dei processori Intel rispetto a quella socket AM3+ delle proposte AMD"..... "...il divario che separa la CPU FX 8370E dal modello Intel Core i5-4670K: se da questo dato togliamo la differenza di consumo della piattaforma rilevata in idle giungiamo ad un consumo complessivo stimato per la CPU che è superiore di circa 15 Watt al modello concorrente di Intel, maggiormente in linea con i dati di TDP dichiarati dalle due aziende (95 Watt per AMD e 84 Watt per Intel).
Azzo, la mobo AM3+ consuma 25W in più della 1155?
Comunque... alla grande 8320, 8350 o 9590... altro che 8370.
http://www.hwupgrade.it/articoli/cpu/4135/amd-fx-8370e-8-core-a-consumo-contenuto-in-95-watt_6.html
Ho letto la rece...
"abbiamo ottenuto un valore di 4.300 MHz stabile con tensione di alimentazione di 1,25V", li hanno scritto stabile... comunque se c'è un miglioramento, è piccolo.
"Spingendosi oltre come tensione di alimentazione, in abbinamento ad un sistema di raffreddamento ad aria, il processore ha automaticamente scalato la propria frequenza di clock su valori inferiori a quanto impostato in quanto non in grado di mantenere funzionamento stabile al dato selezionato" non capisco se il procio abbassa la frequenza a causa delle temp (esplicitamente scrivono ad aria) o abbassa la frequenza a causa di un limite TDP inferiore all'8350.
"In idle le due CPU AMD della famiglia FX registrano dati pressoché identici; entrambe del resto forzano la frequenza di clock al valore più contenuto possibile in questa impostazione proprio per contenere il consumo. Notiamo come il confronto con le due CPU Intel evidenzi valori per più contenuti per le proposte concorrenti: questo è legato al consumo dell'intera piattaforma, quindi della scheda madre, che è nettamente più contenuto per il modello socket LGA 1150 dei processori Intel rispetto a quella socket AM3+ delle proposte AMD"..... "...il divario che separa la CPU FX 8370E dal modello Intel Core i5-4670K: se da questo dato togliamo la differenza di consumo della piattaforma rilevata in idle giungiamo ad un consumo complessivo stimato per la CPU che è superiore di circa 15 Watt al modello concorrente di Intel, maggiormente in linea con i dati di TDP dichiarati dalle due aziende (95 Watt per AMD e 84 Watt per Intel).
Azzo, la mobo AM3+ consuma 25W in più della 1155?
Comunque... alla grande 8320, 8350 o 9590... altro che 8370.
Sicuramente nn hanno disabilitato l'apm e tagliava la frequenza per sforamento del tdp :doh:
cmq 4,3ghz su tutti i core nei 95w nn é male
;) ciauz
Sicuramente nn hanno disabilitato l'apm e tagliava la frequenza per sforamento del tdp :doh:
cmq 4,3ghz su tutti i core nei 95w nn é male
;) ciauz
Boh, secondo me anche un normalissimo 8320/8350, con i dovuti aggiustamenti di vcore ce la fa. Sinceramente l'unica cosa buona di questi "nuovi" fx è stato l'ulteriore abbassamento di prezzo dell'8320. Fine della loro utilità...
paolo.oliva2
17-09-2014, 07:47
Sicuramente nn hanno disabilitato l'apm e tagliava la frequenza per sforamento del tdp :doh:
cmq 4,3ghz su tutti i core nei 95w nn é male
;) ciauz
Però conferma l'incapacità di AMD di gestire il TDP ottenendo il suo massimo sfruttamento a favore di frequenze def più elevate.
Praticamente abbiamo che a 95W TDP ottieni un X8 a @4,3GHz contro un 8350 che con ben 30W di TDP in più offre -300MHz di frequenza def e -100MHz di frequenza Turbo.
Non si può parlare di selezione perchè altrimenti l'8370E costerebbe di più dell'8370, e visto che gli FX 9 sono calati dai 300$ ai 229$, e se consideriamo la selezione non tanto come verifica delle possibilità del procio quanto un effettivo migliore silicio, la serie 8370 è né più né meno la medesima dell'8350, e se vogliamo, possiamo pure ipotizzare che i 9590 siano stati presi dal magazzino Opteron che ovviamente dovrebbe risultare pienozzo... e questo spiegherebbe anche il prezzo fuori di testa iniziale, semplicemente perchè nell'inventario/valore, se immagazzinato come die per Opteron X16, gli era stato attribuito un valore magazzino nettamente superiore ad un 8350, e di qui 999$. Il calo di prezzo non è per svarione AMD, ma semplicemente perchè AMD paga a GF (almeno così lo era) un prezzo proporzionato al valore listino procio, quindi si spiega il perchè AMD fondamentalmente ha si abbassato il prezzo dell'8350, ma lo ha pure aumentato rimarchiandolo l'8370/8370E, associando i prezzi FX 9 al più consono +20$ a modello, quale poteva essere (139$ 8320, 159$ 8350, 179$ 8370, 199$ 9370 e 219$ 9590).
Se prima di certo non gioivo per 265€ di un 9590 rispetto ai 160€ di un 8350, oggi non ci penso manco 1" di preferire alla grande un 9590 a +30€ rispetto ad un 8370, magari 2" per +50€ rispetto ad un 8350, forse 3", però... in quei 50€ ci sta un miglioramento situazione Africa, un miglioramento OC bench se tornassi a vivere in Italia, verificare di persona l'effettiva differenza tra il mio 8350 e un 9590, postare la condizione carico/stracarico e relativo effettivo Vcore senza postare Vcore incredibilmente bassi... 50€ in più non rappresentano chissà che cosa... in fin dei conti sono accettabilissimi 30€ per un 8350 su un 8320... e comunque quando ritorno in Italia (il 15 ottobre, biglietti acquistati), ho una scimmia repressa immane di OC... e di certo non mi posso portare il kit liquido dall'Africa all'Italia, quindi, conoscendomi, non mi vorrei trovare nella condizione di acquistare un 8350 e successivamente spendere 200€ nel liquido, ma spero di tenerla buona, la scimmia, con un 9590 + dissi aria top 95€ (non ricordo la sigla). E poi quale prova servirebbe in più se con un 9590 ad aria ottenessi gli stessi OC/bench del mio 8350 a liquido?
Prezzi su trovapr di oggi:
150€ 8350
204€ 8370
208€ 9590.
58€ del 9590 sull'8350 sono una cosa, ma di certo non acquisterei MAI un 8370 per risparmiare 4€ su un 9590.
Completamente d'accordo che pure un 9590 a 4,7/5GHz perde con Intel, quindi non cambierebbe di certo la situazione, ma tra proporre un X8 a 4GHz max per 125W, una gestione stile Intel del TDP per ottenere la max frequenza possibile, non sarebbe tanto difficile ottenere dai 4,3GHz per 95W ALMENO 4,4GHz per 125W, mentre con il 9370 a parità di frequenza AMD gli ha appioppato addirittura 220W!!!.
Poi, se qualcuno ha voglia, potrebbe fare un semplicissimo test:
Chi ha un 8350 con dissi def, potrebbe avviare OCCT a 4GHz def e annotare le temp, poi disabilitare 2 moduli e salire in frequenza (aumentando il Vcore) sino ad ottenere le medesime temp (visto che le temp rappresenterebbero, a tutti gli effetti, un ottimo metro per stabilire l'effettivo aumento di corrente/tensione).
Nei test che ho fatto, a suo tempo, dai 4GHz def è possibile arrivare almeno a 4,6/4,7GHz con 125W perchè io sulla Asrock 95W portavo l'8350 con 2 moduli disattivati a 4,4GHz (e 4,3GHz per il 9370E lo dimostrano ulteriormente).
Chiaro che +600/700MHz del turbo con 125W sono validi sulla base di partenza di 4GHz, quindi ad una frequenza def X8 superiore corrisponderebbe un Turbo con guadagno inferiore, ma pur sempre ALMENO sui 4,6/4,7GHz.
AMD DEVE introdurre una logica di sfruttamento TDP massimo per ottenere le massime frequenze possibili senza sforarlo, stile Intel, proprio perchè deve fare i conti che difficilmente le FAB di terzi gli potranno offrire un PP con riuscita simile a quello che Intel raggiunge a misura per i suoi proci. 4GHz rispetto a teorici 4,4GHz rappresenterebbero di per sè un aumento di potenza equivalente al guadagno IPC ottenuto con Steamroller... ed aggiungerei, anzi, che visto che il TDP varia e parecchio in base al carico, e il carico degli FX è notevole, sarebbe ancor più esatto fare come fece Intel con l'X6 basato sul core2, con 3 die, dove assegnò una frequenza def maggiore calcolata su un carico medio, che diminuiva in base al carico/TDP.
Partendo dalla teoria che un 9370 ci potrebbe stare nei 125W, e quindi 4,4GHz def e 4,7GHz turbo, nei 140W si dovrebbe ottenere almeno un 4,5GHz/4,8GHz almeno, che potrebbero diventare comunque 4,7GHz/5GHz in base al carico, cioè come X8 ma con un carico come X6 ed un Turbo senza 4 core al 100% ma ad esempio 2 o 3.
Lo scopo è sfruttare il procio (architettura/silicio) al 100%, unito all'immagine. Intel lo fece con gli X6/core2 e lo fece pure permettendo il superamento del TDP nominale per 10" (non mi ricordo con che architettura), ma sono cose che colpiscono, perchè la frequenza def dichiarata è un metro su cui si basa anche l'utente meno esperto (che non capisce una mazza di IPC), e i +10" di sforamento TDP a suo tempo portavano un aumento dei risultati nei bench, superiore rispetto alla reale differenza. AMD, ti svegli? Al posto di copiare le sigle dei proci, pensa anche al più concreto.
P.S.
E' ovvio che per chi occa è indifferente la frequenza/Vcore def, ed anche se un 8350 fosse 4,4GHz def il limite di OC non aumenterebbe di certo, ma penso sia una magra consolazione dire che l'OC di un 8350 si può overcloccare di +1,2GHZ/1,3GHZ perchè parte da 4GHz def, mentre da 4,4GHz diminuirebbe a +800/900MHz...
FulValBot
17-09-2014, 08:48
per la mia sk madre tra le cpu supportate sono apparse le fx-8320E e fx-8370E, saranno realmente le ultime in assoluto a 95W?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.