View Full Version : Riduzioni di prezzo per le CPU AMD FX e della serie A
Redazione di Hardware Upg
07-05-2012, 07:14
Link alla notizia: http://www.hwupgrade.it/news/cpu/riduzioni-di-prezzo-per-le-cpu-amd-fx-e-della-serie-a_41979.html
AMD ufficializza le riduzioni di prezzo previste per i processori della famiglia FX, integrandole con tagli di simile portata anche per le APU della famiglia A basate su architettura Llano
Click sul link per visualizzare la notizia.
:muro: adesso mi pento di non aver scelto amd..:muro: va bien.
AleLinuxBSD
07-05-2012, 07:30
I processori Amd restano una soluzione interessante per chi è dotato di una motherboard amd3+ però, secondo me, avrebbero dovuto abbassare prima i prezzi delle loro Cpu, per risultare un po' più attrattivi.
ilratman
07-05-2012, 08:54
Ottimo fx8150 si trova adesso a 133 e dopo sarà sui 110.
Mi sa che ne prendo uno da dedicare al rendering.
devil_mcry
07-05-2012, 08:58
Ottimo fx8150 si trova adesso a 133 e dopo sarà sui 110.
Mi sa che ne prendo uno da dedicare al rendering.
mamma mia quanto ha svalutato... ok era intuibile ma é davvero notevole, al lancio costava come un 2600k circa se non ricordo male,
AceGranger
07-05-2012, 09:00
Ottimo fx8150 si trova adesso a 133 e dopo sarà sui 110.
Mi sa che ne prendo uno da dedicare al rendering.
mi sa che hai letto male... su trovaprezzi il prezzo piu basso è 180 euro; 133 euro è il 6100.
mamma mia quanto ha svalutato... ok era intuibile ma é davvero notevole, al lancio costava come un 2600k circa se non ricordo male,
bè, gia non li valeva contro il 2600K, figuriamoci contro il 3770K dove ballano ben 100 Watt di differenza nei consumi... e gli va bene che il 3770K è appena uscito e ci impeghera qualche settimana ad arrivare a 260 euro.
Ottimo fx8150 si trova adesso a 133 e dopo sarà sui 110.
Mi sa che ne prendo uno da dedicare al rendering.
Sicuro? Io il prezzo più basso che ho visto per l'fx-8150 è 180 €...l'unico che ho trovato sui 130 € è fx-6100.
Nella tabella mancano gli FX-4xxx... :stordita:
birmarco
07-05-2012, 09:44
:muro: adesso mi pento di non aver scelto amd..:muro: va bien.
Hai fatto bene ;) Al momento AMD non ha nulla da offrire. La sua config top è il Phenom II 1100T che è una CPU di parecchio tempo fa, a 45nm e coredata da una piattaforma chipset nemmeno troppo buona ;)
sdjhgafkqwihaskldds
07-05-2012, 09:52
:muro: adesso mi pento di non aver scelto amd..:muro: va bien.
Ma dai... chi prendi in giro?
Hai fatto bene ;) Al momento AMD non ha nulla da offrire. La sua config top è il Phenom II 1100T che è una CPU di parecchio tempo fa, a 45nm e coredata da una piattaforma chipset nemmeno troppo buona ;)
Non hanno nulla da offrire perchè hanno messo in commercio una nuova architettura ancora troppo acerba, che necessitava di ulteriori affinamenti prima di poter essere commercializzata.
Il 1100T è praticamente introvabile, al massimo si riesce a trovare qualche 1055T sui 160 €.
Azz 3870k a $115..... altro che i3+gma :asd: :asd:
b.u.r.o.87
07-05-2012, 10:40
Azz 3870k a $115..... altro che i3+gma :asd: :asd:
quoto ottima notizia. le altre cpu possono tenersele
quoto ottima notizia. le altre cpu possono tenersele
Ma perché amd fa pure altre cpu? :asd:
birmarco
07-05-2012, 11:17
Non hanno nulla da offrire perchè hanno messo in commercio una nuova architettura ancora troppo acerba, che necessitava di ulteriori affinamenti prima di poter essere commercializzata.
Il 1100T è praticamente introvabile, al massimo si riesce a trovare qualche 1055T sui 160 €.
Il 1100T non è conveniente, meglio un 1090T che è cmq BE ma costa parecchio meno :)
Più che un'architettura acerba è un'architettura fatta malissimo. Ha un IPC ridicolo e nei test fa meno schifo di quanto dovrebbe solo perchè hanno frequenze più alte. Ma confrontando un X6 qualunque a 4GHz con un FX-8150 a 4GHz l'FX appare una schifezza. Sembra l'esperimento del primo P4 che doveva fare i 10GHz ad aria :asd: Solo che ai tempi del P4 nessuno sapeva che sarebbe stato impossibile... :doh: Ridicolo che l'abbiano venduto caro fino adesso. Visto che va più piano di un i5 2500 dovrebbe costare massimo 140-150€, non un € di più. Altro che 200$ (prima 245!!)!!!
Quando presi la mia piattaforma AMD con X6 speravo in un upgrade in una di queste CPU BD, ma non pensavo che il passaggio ad una top gamma BD sarebbe stato un downgrade :asd:
Inoltre vengono vendute come octacore quando sono dei semplici quadcore con alcuni elementi replicati due volte :rolleyes:
Il 1100T non è conveniente, meglio un 1090T che è cmq BE ma costa parecchio meno :)
Più che un'architettura acerba è un'architettura fatta malissimo. Ha un IPC ridicolo e nei test fa meno schifo di quanto dovrebbe solo perchè hanno frequenze più alte. Ma confrontando un X6 qualunque a 4GHz con un FX-8150 a 4GHz l'FX appare una schifezza. Sembra l'esperimento del primo P4 che doveva fare i 10GHz ad aria :asd: Solo che ai tempi del P4 nessuno sapeva che sarebbe stato impossibile... :doh: Ridicolo che l'abbiano venduto caro fino adesso. Visto che va più piano di un i5 2500 dovrebbe costare massimo 140-150€, non un € di più. Altro che 200$ (prima 245!!)!!!
Quando presi la mia piattaforma AMD con X6 speravo in un upgrade in una di queste CPU BD, ma non pensavo che il passaggio ad una top gamma BD sarebbe stato un downgrade :asd:
Inoltre vengono vendute come octacore quando sono dei semplici quadcore con alcuni elementi replicati due volte :rolleyes:
Ciao,
l'IPC è solo uno dei parametri necessari a stabilire la bontà di un'architettura, così come lo è il clock. E' sbagliato quindi dire che BD è un fail a priori solo perchè ha un IPC più basso di quello dei precedenti K10.5
Tra l'altro, l'IPC di BD non è neanche male, in molti casi risultando solo poco sotto a quello di un PhenomII. I veri problemi di BD, a mio avviso, sono altri:
- poca banda sulle cache L2 (per altro write-through e non write-back);
- "solo" 4 FPU contro le 6 dei precedenti PII X6;
- alto TDP, con conseguenti clock più bassi di quanto ci si potesse aspettare.
Qui elaboro in dettaglio: http://www.ilsistemista.net/index.php/hardware-analysis/24-bulldozer-vs-sandy-bridge-vs-k10-comparison-whats-wrong-with-amd-bulldozer.html
Ciao. :)
devil_mcry
07-05-2012, 12:15
Non hanno nulla da offrire perchè hanno messo in commercio una nuova architettura ancora troppo acerba, che necessitava di ulteriori affinamenti prima di poter essere commercializzata.
Il 1100T è praticamente introvabile, al massimo si riesce a trovare qualche 1055T sui 160 €.
sicuro, ma quando sarà affinata sarà cmq vecchia
il gap prestazionale con sb era imbarazzante, tanto da rendere appunto la soluzione tip di gamma concorrenziale solo al suo predecessore. ora con ib e ancora peggio
ormai amd ha da offrire solo più sulla fascia bassa dove ricicla architettura star rivista con igp integrata
manco servisse a qualcosa un'igp del genere poco potente x i giochi, inutile per il resto
Ma dai... chi prendi in giro?
con amd risparmiavo e puntavo le spese su altro:)
sicuro, ma quando sarà affinata sarà cmq vecchia
il gap prestazionale con sb era imbarazzante, tanto da rendere appunto la soluzione tip di gamma concorrenziale solo al suo predecessore. ora con ib e ancora peggio
ormai amd ha da offrire solo più sulla fascia bassa dove ricicla architettura star rivista con igp integrata
manco servisse a qualcosa un'igp del genere poco potente x i giochi, inutile per il resto
Se per te imbarazzante vuol dire avere in media prestazioni da 2500k allora mi sa che devi ridefinire i tuoi standard di "imbarazzante".
Inoltre sarebbe anche ora che i software inizino a supportare i multi core.
VLC li supporta dalla 2.0 (ed è un progetto comunitario)
iTunes di Apple ancora se lo sogna il supporto al multicore dove serve realmente. E tanti altri software fatti da multinazionali, i cui algoritmi DOVREBBERO essere parallelizzabili, di fatto vengono lasciati a singolo processo.
Ciao,
l'IPC è solo uno dei parametri necessari a stabilire la bontà di un'architettura, così come lo è il clock. E' sbagliato quindi dire che BD è un fail a priori solo perchè ha un IPC più basso di quello dei precedenti K10.5
Tra l'altro, l'IPC di BD non è neanche male, in molti casi risultando solo poco sotto a quello di un PhenomII. I veri problemi di BD, a mio avviso, sono altri:
- poca banda sulle cache L2 (per altro write-through e non write-back);
- "solo" 4 FPU contro le 6 dei precedenti PII X6;
- alto TDP, con conseguenti clock più bassi di quanto ci si potesse aspettare
Sul primo punto sono d'accordo in parte, il motivo per cui non lo sono lo trovi nel terzo :)
2)Le "sole" 4 FPU sono più che giustificabili: i calcoli interi sono SEMPRE più veloci dei calcoli in virgola mobile, questi ultimi sono utilizzati in casi particolari, ed inoltre, le grandi aziende stanno iniziando a portare i calcoli in virgola mobile sulla GPU. BD è un progetto nato per studiare (ed ottimizzare) il comportamento della CPU in una situazione mai tentata da nessuno (diminuire le parti che sono il maggiore problema di una CPU e accomunarle) in attesa del 2014/2015, quando TUTTI i processori AMD includeranno la grafica integrata, dove quasi sicuramente ne vedremo delle belle. IMHO introdurrà delle istruzioni che portano i calcoli in virgola mobile alla IGP, che, tra l'altro, potrebbe condividere realmente la RAM con la CPU e non avere la sua "partizione" come avviene ad oggi. Purtroppo finchè il progetto HSA (ex Fusion) diventerà realtà, la quantità di FPU sarà giustificabili.
3) Purtroppo il processo produttivo uscito fa ultrapena, quindi AMD ha dovuto diminuire in modo consistente il clock dei suoi processori per non sforare il TDP che, tra le altre, è il motivo per cui la L2 è così lenta (la write trough è più economica e ha latenze più alte, ma ampiamente compensabili con una frequenza più alta).
Speriamo nelle prestazioni future (non tanto perchè ho una mobo AM3+, ma per aumentare la concorrenza).
birmarco
07-05-2012, 13:49
Ciao,
l'IPC è solo uno dei parametri necessari a stabilire la bontà di un'architettura, così come lo è il clock. E' sbagliato quindi dire che BD è un fail a priori solo perchè ha un IPC più basso di quello dei precedenti K10.5
Tra l'altro, l'IPC di BD non è neanche male, in molti casi risultando solo poco sotto a quello di un PhenomII. I veri problemi di BD, a mio avviso, sono altri:
- poca banda sulle cache L2 (per altro write-through e non write-back);
- "solo" 4 FPU contro le 6 dei precedenti PII X6;
- alto TDP, con conseguenti clock più bassi di quanto ci si potesse aspettare.
Qui elaboro in dettaglio: http://www.ilsistemista.net/index.php/hardware-analysis/24-bulldozer-vs-sandy-bridge-vs-k10-comparison-whats-wrong-with-amd-bulldozer.html
Ciao. :)
Be, ma se l'IPC è basso e il clock pure quello che ottieni è una CPU lenta :)
La cache lenta peggiora la situazione per l'esecuzione multiprocesso, però eseguendo un singolo programma (come nei test), dove ci sono poche miss, la cache penalizza di meno. Poi va be, ogni test non è contenuto completamente nella cache ma se la gestione della cache è almeno decente (anche se è come dici tu una write-through è ancora peggio di quel che pensassi) questa non dovrebbe incidere così tanto sui test singoli quanto più su un PCMark o un'esecuzione multithread. A proposito, per questo fatto mi stupisco un po' che alcuni consiglino BD per il multithreading vero!
Il TDP altissimo è poi il coronamento dell'insuccesso :rolleyes: Fosse stato almeno un po' più basso ci si poteva consolare con i consumi ridotti o almeno sperare di avere frequenze più elevate.
Secondo me sarebbe bastata una "fase di tock" di Phenom II Thuban dove miglioravano cache e mettevano un controller di memoria superiore, magari a 3 o 4 canali per la fascia alta (fatto bene però!) che sicuramente avrebbe aiutato tantissimo.
devil_mcry
07-05-2012, 14:42
Se per te imbarazzante vuol dire avere in media prestazioni da 2500k allora mi sa che devi ridefinire i tuoi standard di "imbarazzante".
Inoltre sarebbe anche ora che i software inizino a supportare i multi core.
VLC li supporta dalla 2.0 (ed è un progetto comunitario)
iTunes di Apple ancora se lo sogna il supporto al multicore dove serve realmente. E tanti altri software fatti da multinazionali, i cui algoritmi DOVREBBERO essere parallelizzabili, di fatto vengono lasciati a singolo processo.
ma dai, anche nei programmi altamente parallelizzati pecca sopratutto quelli fpu intensive. nel cinebench va meglio un 1100t ed è uno tra i programmi più paralleli che esistono
certo un 2500k è una bella cpu
da un lato una cpu quad core e 4 thread
dall'altra una cpu con 4 moduli, praticamente 8 core completi ad eccezione delle FPU, condivise a 2 a 2 in grado di elaborare 8 thread
da una parte 3.3ghz con turbo max a 3,7
dall'altra 3.6ghz con turbo max a 4.2
da una parte (al tempo) meno di 200€, dall'altra circa 260...
e questo ovviamente vale per il multithread perchè in ST...
paragone decisamente infelice.
ho sempre considerato molto più interessanti le soluzioni Llano (più che altro sul mobile) che bulldozer. e visto in quanti sono rimasti con i phenom x6 o sono passati a intel anzichè prendere uno di quelli direi che è cosi e basta
Il 1100T non è conveniente, meglio un 1090T che è cmq BE ma costa parecchio meno :)
Non c'è problema per questo, tanto nei negozi per gli x6 si trovano solo il 1045T ed il 1055T, di cui tra l'altro sono un felicissimo possessore :).
Più che un'architettura acerba è un'architettura fatta malissimo. Ha un IPC ridicolo e nei test fa meno schifo di quanto dovrebbe solo perchè hanno frequenze più alte. Ma confrontando un X6 qualunque a 4GHz con un FX-8150 a 4GHz l'FX appare una schifezza. Sembra l'esperimento del primo P4 che doveva fare i 10GHz ad aria :asd: Solo che ai tempi del P4 nessuno sapeva che sarebbe stato impossibile... :doh: Ridicolo che l'abbiano venduto caro fino adesso.
Volevo essere gentile :)...e cmq quello che hai scritto si può semplicente tradurre con acerba, nel senso che non era ancora pronta per la vendita, sul fatta male non credo, direi al momento che è solo diversa...e forse un po' troppo complicata.
Quando presi la mia piattaforma AMD con X6 speravo in un upgrade in una di queste CPU BD, ma non pensavo che il passaggio ad una top gamma BD sarebbe stato un downgrade :asd:
Ho fatto anche io le stesse considerazioni :).
Inoltre vengono vendute come octacore quando sono dei semplici quadcore con alcuni elementi replicati due volte :rolleyes:
Marketing e basta, per come la vedo io sono dei semplici quad/tri/dual core con l'hypertreading.
Sul primo punto sono d'accordo in parte, il motivo per cui non lo sono lo trovi nel terzo :)
2)Le "sole" 4 FPU sono più che giustificabili: i calcoli interi sono SEMPRE più veloci dei calcoli in virgola mobile, questi ultimi sono utilizzati in casi particolari, ed inoltre, le grandi aziende stanno iniziando a portare i calcoli in virgola mobile sulla GPU. BD è un progetto nato per studiare (ed ottimizzare) il comportamento della CPU in una situazione mai tentata da nessuno (diminuire le parti che sono il maggiore problema di una CPU e accomunarle) in attesa del 2014/2015, quando TUTTI i processori AMD includeranno la grafica integrata, dove quasi sicuramente ne vedremo delle belle. IMHO introdurrà delle istruzioni che portano i calcoli in virgola mobile alla IGP, che, tra l'altro, potrebbe condividere realmente la RAM con la CPU e non avere la sua "partizione" come avviene ad oggi. Purtroppo finchè il progetto HSA (ex Fusion) diventerà realtà, la quantità di FPU sarà giustificabili.
Giusto in teoria, ma nella pratica, in un mondo dove il GPGPU fatica ad imporsi, le FPU x87/SSE servono eccome. Inoltre, considera che, dal punto di vista consumer, l'array di risorse vettoriali stile GPU presenti sulle attuali CPU/GPU ha utilità pratica solo in pochi ambiti. E guarda caso, quello più importante (transcodifica video) vede come dominatore incontrastato Intel, con un progetto (QuickSynch) che è l'antitesi del GPGPU (invece di vasti array programmabili, viene usato un hardware "statico" molto veloce a dall'alta efficienza energetica).
Non dico che l'integrazione prospettata da AMD non sia interessante (l'aspetto con ansia ;)), ma al giorno d'oggi, le 4 FPU di Bulldozer faticano contro le 6 dei PII X6.
3) Purtroppo il processo produttivo uscito fa ultrapena, quindi AMD ha dovuto diminuire in modo consistente il clock dei suoi processori per non sforare il TDP che, tra le altre, è il motivo per cui la L2 è così lenta (la write trough è più economica e ha latenze più alte, ma ampiamente compensabili con una frequenza più alta).
Speriamo nelle prestazioni future (non tanto perchè ho una mobo AM3+, ma per aumentare la concorrenza).
Il processo produttivo limita il clock, ma non la velocità della cache L2. La policy WT non è il risultato di problemi nel processo produttivo: è stata usata per eliminare l'ECC delle cache L1 e renderle più veloci (risultato non proprio raggiunto, dato che la L1 di BD ha 4 cicli di latenza contro i 3 dei K10).
Inoltre, per mascherare le alte latenze tipiche di una cache WT, Bulldozer implementa una WCC (write coalesce cache) da 4 KB, che puoi vedere come un combining buffer. In altre parole, il problema della L2 è, ancor prima che di latenza, proprio della scarsa ampiezza di banda (dalla mia analisi sembra che uno slice da 2 MB di L2 abbia "solo" due canali a 64 bit, ognuno dedicato a un singolo integer cluster. Dico "sembra" perchè non mi pare che AMD abbia dichiarato in via ufficiale i dettagli del bus L2).
Ciao. :)
Be, ma se l'IPC è basso e il clock pure quello che ottieni è una CPU lenta :)
Appunto: è il prodotto IPC x CLOCK che determina le prestazioni della CPU. Dire che un processore è "migliore" o "peggiore" di un altro solo in base a uno dei due parametri significa avere una visione solo parziale del problema. ;)
La cache lenta peggiora la situazione per l'esecuzione multiprocesso, però eseguendo un singolo programma (come nei test), dove ci sono poche miss, la cache penalizza di meno. Poi va be, ogni test non è contenuto completamente nella cache ma se la gestione della cache è almeno decente (anche se è come dici tu una write-through è ancora peggio di quel che pensassi) questa non dovrebbe incidere così tanto sui test singoli quanto più su un PCMark o un'esecuzione multithread. A proposito, per questo fatto mi stupisco un po' che alcuni consiglino BD per il multithreading vero!
In realtà, per come sono organizzati i cluster integer e la cache L2 di Bulldozer rispetto a quella dei PhenomII e Nehalem, direi che sono le prestazioni single-thread a risentirne di più: in multi-threading su calcoli integer Bulldozer può quasi raddoppiare le prestazioni per modulo (quindi su un FX-8150 hai un ipotetico aumento di velocità fino a x8), al contrario di PhenomII (x6) e Nehalem/SB/YB (~4.5x - 6x, considerando un 4 core + HT). Il fatto è che è proprio la base di partenza (capacità in single-thread) ad essere limitata. ;)
Il TDP altissimo è poi il coronamento dell'insuccesso :rolleyes: Fosse stato almeno un po' più basso ci si poteva consolare con i consumi ridotti o almeno sperare di avere frequenze più elevate.
Questo è vero purtroppo...
Secondo me sarebbe bastata una "fase di tock" di Phenom II Thuban dove miglioravano cache e mettevano un controller di memoria superiore, magari a 3 o 4 canali per la fascia alta (fatto bene però!) che sicuramente avrebbe aiutato tantissimo.
Il problema di fondo è che l'architettura K10.5 è ormai vecchiotta, e ha difficoltà sia a scalare nel numero di core/threads che nel clock. Le idee alla base di BD mi sembrano piuttosto buone, è che l'implementazione sul silicio non è delle migliori...
Ciao. :)
birmarco
07-05-2012, 17:39
Appunto: è il prodotto IPC x CLOCK che determina le prestazioni della CPU. Dire che un processore è "migliore" o "peggiore" di un altro solo in base a uno dei due parametri significa avere una visione solo parziale del problema. ;)
In realtà, per come sono organizzati i cluster integer e la cache L2 di Bulldozer rispetto a quella dei PhenomII e Nehalem, direi che sono le prestazioni single-thread a risentirne di più: in multi-threading su calcoli integer Bulldozer può quasi raddoppiare le prestazioni per modulo (quindi su un FX-8150 hai un ipotetico aumento di velocità fino a x8), al contrario di PhenomII (x6) e Nehalem/SB/YB (~4.5x - 6x, considerando un 4 core + HT). Il fatto è che è proprio la base di partenza (capacità in single-thread) ad essere limitata. ;)
Questo è vero purtroppo...
Il problema di fondo è che l'architettura K10.5 è ormai vecchiotta, e ha difficoltà sia a scalare nel numero di core/threads che nel clock. Le idee alla base di BD mi sembrano piuttosto buone, è che l'implementazione sul silicio non è delle migliori...
Ciao. :)
Si, infatti, sulla carta sarebbero ottime CPU, spero che nella seconda reincarnazione siano migliori e risolvano tutte queste problematiche :)
Queste sono le discussioni che mi piacciono su un forum per appassionati, che spesso rimanda al tecnico. :D
Giusto per dire, AMD non si è dovuta inventare il termine core per dire che è una CPU a 8 core, è bastato andare nel passato. La CPU Intel 8086 (quella che probabilmente ha dato il nome all'architettura) consisteva in sole ALU Integer, per i calcoli a virgola mobile la Intel ha introdotto un'altro "chippone": il 8087 (da cui probabilmente il nome alle super vetuste e ultra obsolete istruzioni x87).
Giusto in teoria, ma nella pratica, in un mondo dove il GPGPU fatica ad imporsi, le FPU x87/SSE servono eccome. Inoltre, considera che, dal punto di vista consumer, l'array di risorse vettoriali stile GPU presenti sulle attuali CPU/GPU ha utilità pratica solo in pochi ambiti. E guarda caso, quello più importante (transcodifica video) vede come dominatore incontrastato Intel, con un progetto (QuickSynch) che è l'antitesi del GPGPU (invece di vasti array programmabili, viene usato un hardware "statico" molto veloce a dall'alta efficienza energetica).
Il mio punto di vista è questo: se AMD riesce a trovare un modo per fa condividere realmente la grafica tra CPU e GPU (ricordo che adesso l'IGP ha la sua parte riservata, il che comporta spostamento di dati sugli stessi banchi che fa perdere qualche ciclo di clock) e introduce delle istruzioni dedicate (che magari userà anche Intel) senza la necessità di riadattare il codice, basta una ricompilazione del codice con un compilatore che le supporta per provarne i benefici (c'è anche una piccola parte di debugging, ma praticamente nulla rispetto alla riscrittura di tutto il codice).
Il rischio flop è alto, ma se questo sistema funzionasse a dovere fin da subito dimostrerebbe ancora una volta quanto i produttori se ne strafregano dell'ottimizzazione del software, tanto le prestazioni le aumentano i produttori di hardware anno dopo anno.
Non dico che l'integrazione prospettata da AMD non sia interessante (l'aspetto con ansia ;)), ma al giorno d'oggi, le 4 FPU di Bulldozer faticano contro le 6 dei PII X6.
E probabilmente faticheranno sempre. Per raggiungere quelle FPU una sola FPU di BD dovrebbe andare "solo" il 50% in più di una dei Phenom X6, il che mi sembra uno scenario praticamente impossibile.
Il processo produttivo limita il clock, ma non la velocità della cache L2. La policy WT non è il risultato di problemi nel processo produttivo: è stata usata per eliminare l'ECC delle cache L1 e renderle più veloci (risultato non proprio raggiunto, dato che la L1 di BD ha 4 cicli di latenza contro i 3 dei K10).
Inoltre, per mascherare le alte latenze tipiche di una cache WT, Bulldozer implementa una WCC (write coalesce cache) da 4 KB, che puoi vedere come un combining buffer. In altre parole, il problema della L2 è, ancor prima che di latenza, proprio della scarsa ampiezza di banda (dalla mia analisi sembra che uno slice da 2 MB di L2 abbia "solo" due canali a 64 bit, ognuno dedicato a un singolo integer cluster. Dico "sembra" perchè non mi pare che AMD abbia dichiarato in via ufficiale i dettagli del bus L2).
Ciao. :)
Mi sembrava di aver visto degli screenshot fatti su test di AIDA64 dove all'aumentare del clock la banda della cache dei Bulldozer aumentava.
Ma, ora che ci penso, è molto probabile che mi sbagliassi (ah, memoria nella mia testa perchè devi essere volatile, non potevi essere pseudo infinita, veloce e non volatile? Non chiedevo molto, solo un SSD da millemila TB XD )
carlottoIIx6
07-05-2012, 23:10
mi piacerebbe provarli ma dalle recensioni in ambito gaming si perdono troppi frames rispetto a cpu intel anche vecchie o a minor clock, non me ne capacito
si gioca bene a tutto.
provali e poi dimmi se non hai fatto bene.
carlottoIIx6
07-05-2012, 23:15
mi sa che hai letto male... su trovaprezzi il prezzo piu basso è 180 euro; 133 euro è il 6100.
bè, gia non li valeva contro il 2600K, figuriamoci contro il 3770K dove ballano ben 100 Watt di differenza nei consumi... e gli va bene che il 3770K è appena uscito e ci impeghera qualche settimana ad arrivare a 260 euro.
è vero che consumano di più ma in full se non overcloccki la differenza si limita di 40W e in iddle non c'è differenza.
considera che la cpu non è quasi mai in full quindi il consumo medio in più e di una 20ina di watt
carlottoIIx6
07-05-2012, 23:18
Hai fatto bene ;) Al momento AMD non ha nulla da offrire. La sua config top è il Phenom II 1100T che è una CPU di parecchio tempo fa, a 45nm e coredata da una piattaforma chipset nemmeno troppo buona ;)
8 core a 180 euro con un processore che è tra il 2500k e il 2600k come prestazioni medie non è niente?
carlottoIIx6
07-05-2012, 23:20
Non hanno nulla da offrire perchè hanno messo in commercio una nuova architettura ancora troppo acerba, che necessitava di ulteriori affinamenti prima di poter essere commercializzata.
Il 1100T è praticamente introvabile, al massimo si riesce a trovare qualche 1055T sui 160 €.
ma quale acerba? se mai avanti!
nuovo istruzione non ancora supportate dai software
software non ottimizzato per il multi
predisposizione per il calcolo eterogeneo
e già così ha prestazioni medie superiori al 1100.
carlottoIIx6
07-05-2012, 23:24
Il 1100T non è conveniente, meglio un 1090T che è cmq BE ma costa parecchio meno :)
Più che un'architettura acerba è un'architettura fatta malissimo. Ha un IPC ridicolo e nei test fa meno schifo di quanto dovrebbe solo perchè hanno frequenze più alte. Ma confrontando un X6 qualunque a 4GHz con un FX-8150 a 4GHz l'FX appare una schifezza. Sembra l'esperimento del primo P4 che doveva fare i 10GHz ad aria :asd: Solo che ai tempi del P4 nessuno sapeva che sarebbe stato impossibile... :doh: Ridicolo che l'abbiano venduto caro fino adesso. Visto che va più piano di un i5 2500 dovrebbe costare massimo 140-150€, non un € di più. Altro che 200$ (prima 245!!)!!!
Quando presi la mia piattaforma AMD con X6 speravo in un upgrade in una di queste CPU BD, ma non pensavo che il passaggio ad una top gamma BD sarebbe stato un downgrade :asd:
Inoltre vengono vendute come octacore quando sono dei semplici quadcore con alcuni elementi replicati due volte :rolleyes:
quando gli ingegneri fanno le cpu massimizzano il prodotto ipc*frequenza, questo significa che un processore che ha un ipc inferiore (se fatto bene) va ad una frequenza superiore necessariamente.
le prestazioni medie del 8150k, con software sbilanciati verso il single, sono tra il 2500k e il 2600k.
ma i core in più vanno bene per fare girare tanti software contemporaneamente e qui amd è avanti.
Queste sono le discussioni che mi piacciono su un forum per appassionati, che spesso rimanda al tecnico. :D
Anche a me! :D
Giusto per dire, AMD non si è dovuta inventare il termine core per dire che è una CPU a 8 core, è bastato andare nel passato. La CPU Intel 8086 (quella che probabilmente ha dato il nome all'architettura) consisteva in sole ALU Integer, per i calcoli a virgola mobile la Intel ha introdotto un'altro "chippone": il 8087 (da cui probabilmente il nome alle super vetuste e ultra obsolete istruzioni x87).
Il discorso di cosa è un "core" è piuttosto dibattuto ;) Se da un lato quello che dici tu è vero (per anni l'FPU è stata un chip a parte), dall'altro tutti i core x86 (anche l'8086) fino a BD, avevano un decoder x86 dedicato.
Quindi, se si considera "core" un sottosistema completo capace di eseguire il fetch/decode delle istruzioni, un modulo BD non rappresenta due core completi. In questo caso, sarebbe più corretto parlare di un core con due integer cluster.
Dico la mia: essendo il decoder di BD effettivamente 2 volte più ampio dei singoli core interi (il decoder è a 4 vie, i due core sono a due vie ciascuno), AMD può legittimamente presentarlo come "8 core". Comunque comprendo perfettamente anche chi lo considera un 4 core con due integer cluster per core.
Il mio punto di vista è questo: se AMD riesce a trovare un modo per fa condividere realmente la grafica tra CPU e GPU (ricordo che adesso l'IGP ha la sua parte riservata, il che comporta spostamento di dati sugli stessi banchi che fa perdere qualche ciclo di clock) e introduce delle istruzioni dedicate (che magari userà anche Intel) senza la necessità di riadattare il codice, basta una ricompilazione del codice con un compilatore che le supporta per provarne i benefici (c'è anche una piccola parte di debugging, ma praticamente nulla rispetto alla riscrittura di tutto il codice).
Il rischio flop è alto, ma se questo sistema funzionasse a dovere fin da subito dimostrerebbe ancora una volta quanto i produttori se ne strafregano dell'ottimizzazione del software, tanto le prestazioni le aumentano i produttori di hardware anno dopo anno.
Vero. Tuttavia, fare quello che indichi sopra va fatto, a seconda dei casi e delle implementazioni, tramite autovettorializzazione o autoparallelizzazione del codice. La prima è estremamente difficile: l'unico compilatore che la esegue in modo piuttosto "pervasio" è, guardacaso, quello Intel :D, mentre la secondo (autoparallelizzazione) può essere più semplice da implementare (ci sono librerie come OpenMP che servono proprio a questo), ma di lavoro da fare ce n'è sempre tanto...
E probabilmente faticheranno sempre. Per raggiungere quelle FPU una sola FPU di BD dovrebbe andare "solo" il 50% in più di una dei Phenom X6, il che mi sembra uno scenario praticamente impossibile.
In realtà, in qualche caso è possibile che le 4 FPU di BD vadano come le 6 di un PII X6: mentre quest'ultimo ha, in ogni FPU, una porta FADD e una FMUL, Bulldozer ha due porte "universali" FADD/FMUL. In altre parole, l'architettura BD è più flessibile quando si tratta dello sfruttare al massimo le risorse disponibili. Peccato per la singola porta FSTORE e per la cache L2 molto lenta...
Mi sembrava di aver visto degli screenshot fatti su test di AIDA64 dove all'aumentare del clock la banda della cache dei Bulldozer aumentava.
Ma, ora che ci penso, è molto probabile che mi sbagliassi (ah, memoria nella mia testa perchè devi essere volatile, non potevi essere pseudo infinita, veloce e non volatile? Non chiedevo molto, solo un SSD da millemila TB XD )
E' normale che overloccando il processore salga anche la banda verso la L2: quest'ultima è sullo stesso clock domain del core, quindi scala in frequenza insieme alle unità di esecuzione. Però, quando si confrontano i byte trasferiti per clock, si riscontra sempre una bassa efficienza, dovuta ai fattori esposti qualche post sopra.
Ciao. :)
carlottoIIx6
07-05-2012, 23:33
ma dai, anche nei programmi altamente parallelizzati pecca sopratutto quelli fpu intensive. nel cinebench va meglio un 1100t ed è uno tra i programmi più paralleli che esistono
certo un 2500k è una bella cpu
da un lato una cpu quad core e 4 thread
dall'altra una cpu con 4 moduli, praticamente 8 core completi ad eccezione delle FPU, condivise a 2 a 2 in grado di elaborare 8 thread
da una parte 3.3ghz con turbo max a 3,7
dall'altra 3.6ghz con turbo max a 4.2
da una parte (al tempo) meno di 200€, dall'altra circa 260...
e questo ovviamente vale per il multithread perchè in ST...
paragone decisamente infelice.
ho sempre considerato molto più interessanti le soluzioni Llano (più che altro sul mobile) che bulldozer. e visto in quanti sono rimasti con i phenom x6 o sono passati a intel anzichè prendere uno di quelli direi che è cosi e basta
in uno scenario penalizzante per il 8150, dove i software sono per la maggiorparte single, o ottimizzati epr pochi core, il 8150 ha comunque prestazioni medie superiori al 2500k.
ho visto su trovaprezzi e si trova già a 168,70 euri :)
in uno scenario penalizzante per il 8150, dove i software sono per la maggiorparte single, o ottimizzati epr pochi core, il 8150 ha comunque prestazioni medie superiori al 2500k.
ho visto su trovaprezzi e si trova già a 168,70 euri :)
E questo quando probabilmente lo street price non si è ancora stabilizzato per quello che è il nuovo prezzo della CPU (secondo me si arriva anche intorno a 150€, ma rimane sempre un'ottima CPU).
ma quale acerba? se mai avanti!
nuovo istruzione non ancora supportate dai software
Il pc io lo uso oggi però, ammesso che il tutto venga sfruttato al meglio con windows 8 gia saranno uscite le nuove cpu amd che correggeranno i difetti di queste e sicuramente avranno prestazioni migliori, come è normale che sia essendo di ultima generazione.
software non ottimizzato per il multi
E sarà cosi ancora per molto tempo, non mi pare che dal lato software ci sia tutta sta frenesia nel voler sfruttare al meglio il multitreading...tranne pochi programmi professionali il resto al massimo viaggia su due core.
predisposizione per il calcolo eterogeneo
Ci vorranno anni prima di avere software che sfrutti a dovere l'interazione tra cpu e gpu, mi sa che quando accadrà queste cpu saranno gia morte e sepolte.
e già così ha prestazioni medie superiori al 1100.
Ma consumi nettamente più alti, il che rende preferibile ancora la vecchia generazione a quella nuova, i consumi sono importanti non si può fare una nuova generazione di processori che vanno poco di più di quelli vecchi e con consumi superiori.
AceGranger
08-05-2012, 08:28
è vero che consumano di più ma in full se non overcloccki la differenza si limita di 40W e in iddle non c'è differenza.
considera che la cpu non è quasi mai in full quindi il consumo medio in più e di una 20ina di watt
come no :rolleyes: ; 40 watt di differenza fra un po non riusciva ad averli con il 2600K.
http://techreport.com/articles.x/22835/5
la differenza in Idle varia da 10 a 23 Watt
http://techreport.com/r.x/ivy-bridge/x264-power-idle.gif
la differenza in Full è di ben 96 Watt, praticamente il doppio :rolleyes:
http://techreport.com/r.x/ivy-bridge/x264-power-peak.gif
e questo è un bel grafico sull'efficienza con i consumi nel tempo
http://techreport.com/r.x/ivy-bridge/x264-power-amd.gif
e sono stati pure gentili ad usare l'encoding x264 dove l'8150 perde meno colpi; se avessero usato Cinebench come nelle vecchie review il distacco sarebbe stato maggiore; lato consumi ed efficienza c'è poco da stare qui a discutere.
il prezzo attule di 180 euro mi sembrano consoni a quello che offre.
carlottoIIx6
08-05-2012, 09:13
come no :rolleyes: ; 40 watt di differenza fra un po non riusciva ad averli con il 2600K.
cut
io sono più portato a credere a questi test
http://www.hwupgrade.it/articoli/cpu/2997/amd-fx-8150-al-debutto-le-soluzioni-bulldozer_7.html
sopratutto perchè il consumo in idle dei test da te postati è troppo, visto che la cpu è capace di spegnere i moduli se non usati.
carlottoIIx6
08-05-2012, 09:16
Il pc io lo uso oggi però, ammesso che il tutto venga sfruttato al meglio con windows 8 gia saranno uscite le nuove cpu amd che correggeranno i difetti di queste e sicuramente avranno prestazioni migliori, come è normale che sia essendo di ultima generazione.
E sarà cosi ancora per molto tempo, non mi pare che dal lato software ci sia tutta sta frenesia nel voler sfruttare al meglio il multitreading...tranne pochi programmi professionali il resto al massimo viaggia su due core.
Ci vorranno anni prima di avere software che sfrutti a dovere l'interazione tra cpu e gpu, mi sa che quando accadrà queste cpu saranno gia morte e sepolte.
Ma consumi nettamente più alti, il che rende preferibile ancora la vecchia generazione a quella nuova, i consumi sono importanti non si può fare una nuova generazione di processori che vanno poco di più di quelli vecchi e con consumi superiori.
non ho detto che il software evolve velocemente, contesto solo l'immagine di cpu che l'utente dava.
amd fin da ora supporta e va in contro al futuro.
non è vero che consuma di più
http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=12
AceGranger
08-05-2012, 09:26
io sono più portato a credere a questi test
http://www.hwupgrade.it/articoli/cpu/2997/amd-fx-8150-al-debutto-le-soluzioni-bulldozer_7.html
sopratutto perchè il consumo in idle dei test da te postati è troppo, visto che la cpu è capace di spegnere i moduli se non usati.
la differenza in idle puo variare tranquillamente di 10 Watt a seconda del tipo di MB che viene utilizzata.
http://images.anandtech.com/graphs/graph5793/46041.png
e stranamente la media delle review è un 10 watt di differenza, senza contare che ora è con IB che se la deve vedere non SB.
non ho detto che il software evolve velocemente, contesto solo l'immagine di cpu che l'utente dava.
Io ho detto solo che è acerba...una cpu che va poco di più della generazione precedente, che ha consumi nettamente più alti (perchè 40W sono tanti) pur avendo un processo produttivo migliore, non può che essere definita non pronta per la commercializzazione...quindi acerba.
amd fin da ora supporta e va in contro al futuro.
Supportata non so, le ultime cose che mi ricordo sono un paio di patch per windows 7 che cmq non mi pare abbiano cambiato chissà cosa...il discorso del futuro è molto relativo, io devo poter sfruttare la cpu al 100% nel momento che l'acquisto, non forse tra un anno o chissà quando.
non è vero che consuma di più
http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=12
Si parlava dell'8150 confrontato con il 1100T...che mi posti i consumi del 4100 e 4170 non vuol dire nulla...e cmq concordo con AceGranger, quei risultati sembrano strani anche a me.
birmarco
08-05-2012, 10:14
Queste sono le discussioni che mi piacciono su un forum per appassionati, che spesso rimanda al tecnico. :D
Giusto per dire, AMD non si è dovuta inventare il termine core per dire che è una CPU a 8 core, è bastato andare nel passato. La CPU Intel 8086 (quella che probabilmente ha dato il nome all'architettura) consisteva in sole ALU Integer, per i calcoli a virgola mobile la Intel ha introdotto un'altro "chippone": il 8087 (da cui probabilmente il nome alle super vetuste e ultra obsolete istruzioni x87).
Il mio punto di vista è questo: se AMD riesce a trovare un modo per fa condividere realmente la grafica tra CPU e GPU (ricordo che adesso l'IGP ha la sua parte riservata, il che comporta spostamento di dati sugli stessi banchi che fa perdere qualche ciclo di clock) e introduce delle istruzioni dedicate (che magari userà anche Intel) senza la necessità di riadattare il codice, basta una ricompilazione del codice con un compilatore che le supporta per provarne i benefici (c'è anche una piccola parte di debugging, ma praticamente nulla rispetto alla riscrittura di tutto il codice).
Il rischio flop è alto, ma se questo sistema funzionasse a dovere fin da subito dimostrerebbe ancora una volta quanto i produttori se ne strafregano dell'ottimizzazione del software, tanto le prestazioni le aumentano i produttori di hardware anno dopo anno.
E probabilmente faticheranno sempre. Per raggiungere quelle FPU una sola FPU di BD dovrebbe andare "solo" il 50% in più di una dei Phenom X6, il che mi sembra uno scenario praticamente impossibile.
Mi sembrava di aver visto degli screenshot fatti su test di AIDA64 dove all'aumentare del clock la banda della cache dei Bulldozer aumentava.
Ma, ora che ci penso, è molto probabile che mi sbagliassi (ah, memoria nella mia testa perchè devi essere volatile, non potevi essere pseudo infinita, veloce e non volatile? Non chiedevo molto, solo un SSD da millemila TB XD )
Eh, questo sarebbe tutto molto bello :) Io sono anni che aspetto software che possano essere sfruttate veramente le GPU in ambiti esterni ai videogiochi e la codifica degli h264 :) Se AMD ci riesce sarebbe davvero un gran bel salto! Però ci sarebbero da riscrivere molti software.
Si potrebbero ottenere dei benefici trasferendo delle operazioni mandate alla CPU direttamente alla GPU, senza richiedere una riscrittura codice dei programmi ma questo temo possa diventare complicato e richiedere modifiche hardware e l'aggiunta di speciali driver software.
Purtroppo con la potenza di calcolo esagerata del momento nessuno ottimizza più nulla, solo che 1+1+1+1+....+1 fa sempre 100! Per cui generalmente si arriva alla frutta :rolleyes: Sta dando una spinta la comparsa dei tablet e dispositivi mobile a basso costo e bassa potenza che richiedono software fatti decentemente. Basti pensare ai passagi tra Vista>7>8 dove le prestazioni software sono addirittura aumentate.
8 core a 180 euro con un processore che è tra il 2500k e il 2600k come prestazioni medie non è niente?
Dipende dai test. Mi sono informato per bene e le prestazioni variano tra meno di un 1055T e vicino al 2600K, a seconda dei test. Il fatto è che nella maggioranza dei casi si posiziona tra 1100T e 2500K. Sicuramente il prezzo attuale è decisamente più onesto, prima, a 265$, era preferibile di gran lunga un 2500K dove le prestazioni in certi casi sono inferiori a FX-8150 ma nella media dei test sono più elevate. Poi c'è il fattore consumo. Un FX-8150 consima davvero tantissimo!
Inoltre, il passaggio da un 1100T ad un FX-8150, basandosi sui test, non porta benefici sostanziali tali da giustificare la spesa
quando gli ingegneri fanno le cpu massimizzano il prodotto ipc*frequenza, questo significa che un processore che ha un ipc inferiore (se fatto bene) va ad una frequenza superiore necessariamente.
le prestazioni medie del 8150k, con software sbilanciati verso il single, sono tra il 2500k e il 2600k.
ma i core in più vanno bene per fare girare tanti software contemporaneamente e qui amd è avanti.
Le prestazioni in quei casi sono più elevate perchè c'è il turbo che spinge la CPU oltre i 4GHz, non è mica poco! Un X6 spinto a quella frequenza è decisamente più performante, specialmente per lo svantaggio dell'FX-8150 di avere dei falsi core...
carlottoIIx6
08-05-2012, 11:46
Eh, questo sarebbe tutto molto bello :) Io sono anni che aspetto software che possano essere sfruttate veramente le GPU in ambiti esterni ai videogiochi e la codifica degli h264 :) Se AMD ci riesce sarebbe davvero un gran bel salto! Però ci sarebbero da riscrivere molti software.
Si potrebbero ottenere dei benefici trasferendo delle operazioni mandate alla CPU direttamente alla GPU, senza richiedere una riscrittura codice dei programmi ma questo temo possa diventare complicato e richiedere modifiche hardware e l'aggiunta di speciali driver software.
Purtroppo con la potenza di calcolo esagerata del momento nessuno ottimizza più nulla, solo che 1+1+1+1+....+1 fa sempre 100! Per cui generalmente si arriva alla frutta :rolleyes: Sta dando una spinta la comparsa dei tablet e dispositivi mobile a basso costo e bassa potenza che richiedono software fatti decentemente. Basti pensare ai passagi tra Vista>7>8 dove le prestazioni software sono addirittura aumentate.
amd sta investendo nel calcolo eterogeneo, cpu-gpu. tanto è vero che sono usciti articoli a proposoto, in cui amd collabbora con case produttrici di software, e con guadagni di calcolo impressionanti sulle apu. l'evoluzione degli fx volge ad un perfetta integrazione, ed è per questo che la fpu ha subito una modifica.
Dipende dai test. Mi sono informato per bene e le prestazioni variano tra meno di un 1055T e vicino al 2600K, a seconda dei test. Il fatto è che nella maggioranza dei casi si posiziona tra 1100T e 2500K. Sicuramente il prezzo attuale è decisamente più onesto, prima, a 265$, era preferibile di gran lunga un 2500K dove le prestazioni in certi casi sono inferiori a FX-8150 ma nella media dei test sono più elevate. Poi c'è il fattore consumo. Un FX-8150 consima davvero tantissimo!
non eseggeriamo.
attualmente gli i7 hanno un rendimento imbattibile, ma il consumo amd è troppo calcato.
la nuova architettura non è poco efficente, ma lo diventa a causa di diversi fattori.
penso che sei la cpu è riempita, da molti software che girano contemporaneamente, anche il rendimento dovrebbe diventare confrontabile.
Inoltre, il passaggio da un 1100T ad un FX-8150, basandosi sui test, non porta benefici sostanziali tali da giustificare la spesa
Le prestazioni in quei casi sono più elevate perchè c'è il turbo che spinge la CPU oltre i 4GHz, non è mica poco! Un X6 spinto a quella frequenza è decisamente più performante, specialmente per lo svantaggio dell'FX-8150 di avere dei falsi core...
il passaggio non vale la candela. ma chi ha un 8150 non torna ad un 1100.
penso che 5 GHz stiano diventando normali per un fx. un fx 6200 ho visto che va tranquillamente a 5GHz
poi non sono falsi core, anzi.
semmai hanno un basso ipc (anche se poi non è precisamente vero, un 4170 va come un phenom II 980 se le nuove istruzioni sono supportate).
non eseggeriamo.
attualmente gli i7 hanno un rendimento imbattibile, ma il consumo amd è troppo calcato.
la nuova architettura non è poco efficente, ma lo diventa a causa di diversi fattori.
penso che sei la cpu è riempita, da molti software che girano contemporaneamente, anche il rendimento dovrebbe diventare confrontabile.
Purtroppo nel caso dei consumi si guarda il numerino e basta, che poi siano alti per colpa di vari fattori e non dell'architettura realmente poco efficiente conta poco, sempre alti restano.
il passaggio non vale la candela. ma chi ha un 8150 non torna ad un 1100.
Chi ha un 8150 ovviamente non tornerà mai ad un 1100, ma è anche vero che chi ha un 1100 difficilmente penserà di prendere un 8150 :)...ed in questo amd ha "perso" dei potenziali clienti.
penso che 5 GHz stiano diventando normali per un fx. un fx 6200 ho visto che va tranquillamente a 5GHz
Dipende dall'ambito in cui ti trovi, se prendi una cpu per lavorare l'overclock non lo prendi proprio in considerazione.
devil_mcry
08-05-2012, 19:03
in uno scenario penalizzante per il 8150, dove i software sono per la maggiorparte single, o ottimizzati epr pochi core, il 8150 ha comunque prestazioni medie superiori al 2500k.
ho visto su trovaprezzi e si trova già a 168,70 euri :)
programmi che non vengono usati nelle recensioni
dove si vede rendering con cinebench blender e simili (altamente parallelizzati)
compressione con 7zip o winrar (decisamente parallelizzati)
encoding video dove il multithread è ottimamente sfruttato
se non ci credi, guarda come scalano le soluzioni con la metà dei core ma penso che sia banale, tuttavia ad esempio in alcuni casi c'è questo scenario
è vero che in media ha prestazioni superiori al 2500k (in multhread e con più clock) ma ha il doppio dei core (anche se 4fpu). questo in una recensione perchè nell'uso reale probabilmente la cosa cambierebbe a favore del 2500k visto che non tutte le applicazioni sono multithread
un 2600k che ha una tecnologia meno raffinata (l'ht è l'ottimizzazione delle pipeline sostanzialmente, un fx ha invece di fatto quasi tutte le unità duplicate) ha prestazioni decisamente superiori a clock inferiori...
ad ogni modo 140e sarà più o meno il prezzo adeguato a quella cpu (considerando il taglio e visto il prezzo attuale)
carlottoIIx6
08-05-2012, 19:14
Purtroppo nel caso dei consumi si guarda il numerino e basta, che poi siano alti per colpa di vari fattori e non dell'architettura realmente poco efficiente conta poco, sempre alti restano.
Chi ha un 8150 ovviamente non tornerà mai ad un 1100, ma è anche vero che chi ha un 1100 difficilmente penserà di prendere un 8150 :)...ed in questo amd ha "perso" dei potenziali clienti.
cut
.
guarda, i consumi vanno sempre proiettati sulla situazione reale dell'utente.
comunue gli i7 restano molto efficenti, ma resta che l'fx non sono sfruttati a dovere. pernsa alal cache, pen 8 mb che occupano gran parte dell'area e che non sono usati a dovere, se si disattivassero, i consumi calerebbero e le prestazioni non ne risentiribbero (ma se li carichi con tanti software fanno si che la cpu sia sempre rifornita e lavori continuo). pensa alle istruzioni non supportate, quanti cicli a vuoto per simularle?
non torna all'1100 per raggioni di stabilità di sistema e potenzialità di carico superiori degli f soprattutto.
carlottoIIx6
08-05-2012, 19:18
programmi che non vengono usati nelle recensioni
dove si vede rendering con cinebench blender e simili (altamente parallelizzati)
compressione con 7zip o winrar (decisamente parallelizzati)
encoding video dove il multithread è ottimamente sfruttato
se non ci credi, guarda come scalano le soluzioni con la metà dei core ma penso che sia banale, tuttavia ad esempio in alcuni casi c'è questo scenario
è vero che in media ha prestazioni superiori al 2500k (in multhread e con più clock) ma ha il doppio dei core (anche se 4fpu). questo in una recensione perchè nell'uso reale probabilmente la cosa cambierebbe a favore del 2500k visto che non tutte le applicazioni sono multithread
un 2600k che ha una tecnologia meno raffinata (l'ht è l'ottimizzazione delle pipeline sostanzialmente, un fx ha invece di fatto quasi tutte le unità duplicate) ha prestazioni decisamente superiori a clock inferiori...
ad ogni modo 140e sarà più o meno il prezzo adeguato a quella cpu (considerando il taglio e visto il prezzo attuale)
guarda, se la danno a pari del 2500k è preferibile o no a secondo l'uso che uno fa della macchina, specialmente se uno carica molto al cpu i preferirei il 8150.
ma se te lo danno a 140, te lo regalano, non c'è più storia.
Il pc io lo uso oggi però
Lo stesso ragionamento applicato al hyperthreading (o SMT, come lo chiama Intel dalla reintroduzione) nel momento in cui uscì avrebbe dovuto portare all'eliminazione della tecnologia semplicemente perchè rispetto ai processori precedenti i Pentium con HT andavano parecchio peggio. Intel ha perseverato, MS ha modificato lo scheduler (e già si sono visti piccoli miglioramenti) e i programmatori hanno iniziato ad abbracciare la filosofia del multithreading (o esecuzione parallela, per dirla all'italiana). Il risultato è stato quello di avere tra le mani un PC la cui CPU sembrava essere stata sostituita.
Quello che molti non capiscono è che l'informatica è in continua evoluzione, ed evolve talmente velocemente che spesso si creano progetti che portano i loro frutti qualche anno dopo la loro effettiva introduzione.
Lo stesso ragionamento applicato al hyperthreading (o SMT, come lo chiama Intel dalla reintroduzione) nel momento in cui uscì avrebbe dovuto portare all'eliminazione della tecnologia semplicemente perchè rispetto ai processori precedenti i Pentium con HT andavano parecchio peggio. Intel ha perseverato, MS ha modificato lo scheduler (e già si sono visti piccoli miglioramenti) e i programmatori hanno iniziato ad abbracciare la filosofia del multithreading (o esecuzione parallela, per dirla all'italiana). Il risultato è stato quello di avere tra le mani un PC la cui CPU sembrava essere stata sostituita.
Io non discuto che con il tempo le cpu vengano sfruttate a dovere, ma al momento per un eventuale upgrade da un X6 non li vedo convenienti...ovviamente faccio un discorso per me che ho un X6, per un pc nuovo magari li prenderei in considerazione per il prezzo basso, se poi effettivamente lo comprerei non lo so, probabilmente no, spenderei un po' di più e prenderei un intel.
guarda, i consumi vanno sempre proiettati sulla situazione reale dell'utente.
Indubbiamente, ma non credo che uno compri una cpu top di gamma per tenere sempre il pc in idle a scaricare, credo lo userà per farci rendering, montaggi video e simili, cioè tutti quei software dove c'è un alto uso di risorse.
Indubbiamente, ma non credo che uno compri una cpu top di gamma per tenere sempre il pc in idle a scaricare, credo lo userà per farci rendering, montaggi video e simili, cioè tutti quei software dove c'è un alto uso di risorse.
Contando che si compra iPhone per mandare messaggi e chiamare (internet sul telefono? ma scherzi?).
Se mi metto a fare un discorso su come sfrutta la gente il PC in università (e studio informatica), per loro stessa ammissione, capiresti che lo scenario a cui pensi è il meno probabile.
un 2600k che ha una tecnologia meno raffinata (l'ht è l'ottimizzazione delle pipeline sostanzialmente, un fx ha invece di fatto quasi tutte le unità duplicate) ha prestazioni decisamente superiori a clock inferiori...
Mmm... non è che l'SMT usato nelle CPU Intel sia una tecnologia poco raffinata, semplicemente approccia il problema dell'uso della pipeline in modo diverso.
Dato che, nei software comuni, raramente il numero di istruzioni parallelamente elaborabili è nettamente superiore a 1 per clock, AMD ha deciso di equipaggiare un modulo con 2 core integer a 2 vie (totale: 4 ALU condivise tra 2 threads).
Intel invece ha fatto la considerazione opposta: invece di spezzare in due il suo backend di esecuzione, lo ha addirittura rinforzato (micro e macro op fusion) ma lo condivide fra due threads contemporanei.
L'approccio AMD ha il vantaggio di avere prestazioni più facilmente prevedibili e scalabili, quello Intel di fornire ottimi risultati anche con programmi single-thread (dato che in quel caso l'intero core è dedicato a un singolo thread).
guarda, i consumi vanno sempre proiettati sulla situazione reale dell'utente.
In idle l'FX-8150 non se la cava male, ma in full load è molto dietro a SB e ancora più a YB.
comunue gli i7 restano molto efficenti, ma resta che l'fx non sono sfruttati a dovere. pernsa alal cache, pen 8 mb che occupano gran parte dell'area e che non sono usati a dovere, se si disattivassero, i consumi calerebbero e le prestazioni non ne risentiribbero (ma se li carichi con tanti software fanno si che la cpu sia sempre rifornita e lavori continuo).
Storicamente, le cache dissipano molto poco (quelle Intel @ 45nm dissipavano 1-2 Watt per MB; quelle AMD qualcosa in più, ma parliamo sempre di consumi bassi rispetto al core). Inoltre, la cache L3 lavora su domini di clock e voltaggi separati, quindi concorre ancora meno al consumo della CPU. Basti vedere che, tra un AthlonII X4 e un PhenomII X4, la differenza di consumi è davvero bassa.
pensa alle istruzioni non supportate, quanti cicli a vuoto per simularle?
Il valore di quelle istruzioni, così come quelle vettoriali di Intel, è limitato a determinati ambiti: le FMA4 di Bulldozer sono utili soprattutto in campo HPC e workstation, meno in ambito desktop (per quanto possano dare un certo boost nella codifica video e nel trattamento di immagini).
Il punto è che, nel 99% dei casi, l'utente medio non le userà praticamente mai, soprattutto considerando che Intel si è messa in mezzo e ha modificato le specifiche delle sue FMA3 per renderle incompatibili con le istruzioni AMD (nonostante le specifiche di quest'ultima siano migliori, dato che si parla di FMA4 vs FMA3 di Intel).
non torna all'1100 per raggioni di stabilità di sistema
Uh? Forse non ho capito... i PhenomII sono CPU stabilissime, così come tutte le sue CPU dagli Athlon64 (anzi, direi dal K6 in poi... ma il discorso chipset è stato, fino all'A64, un problema aperto).
Ciao. :)
AceGranger
08-05-2012, 21:26
comunue gli i7 restano molto efficenti, ma resta che l'fx non sono sfruttati a dovere. (ma se li carichi con tanti software fanno si che la cpu sia sempre rifornita e lavori continuo)
dai su non prendiamoci in giro ancora con queste storielle.
basta prendere in mano i test sugli Opteron di Anandtech che li ha testati in tutti gli ambiti professionali dove la CPU è sempre bella carica, virtualizzazione in primis, dove prende bastonate su bastonate e dove non le prende è mediocre.
inutile continuare a tirare in ballo la barzellatta dei software, qui è la CPU il problema non il software. Avrei capito se fossero stati quei 2 o 3 programmi a non rendere, ma qui arranca quasi ovunque.
birmarco
08-05-2012, 22:06
amd sta investendo nel calcolo eterogeneo, cpu-gpu. tanto è vero che sono usciti articoli a proposoto, in cui amd collabbora con case produttrici di software, e con guadagni di calcolo impressionanti sulle apu. l'evoluzione degli fx volge ad un perfetta integrazione, ed è per questo che la fpu ha subito una modifica.
non eseggeriamo.
attualmente gli i7 hanno un rendimento imbattibile, ma il consumo amd è troppo calcato.
la nuova architettura non è poco efficente, ma lo diventa a causa di diversi fattori.
penso che sei la cpu è riempita, da molti software che girano contemporaneamente, anche il rendimento dovrebbe diventare confrontabile.
il passaggio non vale la candela. ma chi ha un 8150 non torna ad un 1100.
penso che 5 GHz stiano diventando normali per un fx. un fx 6200 ho visto che va tranquillamente a 5GHz
poi non sono falsi core, anzi.
semmai hanno un basso ipc (anche se poi non è precisamente vero, un 4170 va come un phenom II 980 se le nuove istruzioni sono supportate).
Gli FX-6000 sono piuttosto scarsi, anche a 5GHz... risulta sempre preferibile un Thuban.
FX-8150 è una scelta solo in caso di PC nuovi ed è un'alternativa ad Intel solo ora che costa meno. Prima, a parità di prezzo, era cmq preferibile Intel
ilratman
08-05-2012, 22:48
guarda, se la danno a pari del 2500k è preferibile o no a secondo l'uso che uno fa della macchina, specialmente se uno carica molto al cpu i preferirei il 8150.
ma se te lo danno a 140, te lo regalano, non c'è più storia.
facciamo così, tu ti prendi fx8150 e mi vendi il tuo 1090T!
quoto AceGranger
carlottoIIx6
09-05-2012, 01:21
dai su non prendiamoci in giro ancora con queste storielle.
basta prendere in mano i test sugli Opteron di Anandtech che li ha testati in tutti gli ambiti professionali dove la CPU è sempre bella carica, virtualizzazione in primis, dove prende bastonate su bastonate e dove non le prende è mediocre.
inutile continuare a tirare in ballo la barzellatta dei software, qui è la CPU il problema non il software. Avrei capito se fossero stati quei 2 o 3 programmi a non rendere, ma qui arranca quasi ovunque.
la mia era solo una ipotesi, ma con qualche fondamento.
per testarli come vorrei io dovrebbero fare due, poi tre poi quattro ecc test e vedere il consumo e il tempo impiegato per calcolare l'efficenza.
comunque non è che dico che migliora al punto da pareggiare intel, solo che migliora.
carlottoIIx6
09-05-2012, 01:25
Gli FX-6000 sono piuttosto scarsi, anche a 5GHz... risulta sempre preferibile un Thuban.
FX-8150 è una scelta solo in caso di PC nuovi ed è un'alternativa ad Intel solo ora che costa meno. Prima, a parità di prezzo, era cmq preferibile Intel
http://www.insidehardware.it/hardware/cpu/1248-amd-fx-6200-piu-ottani-per-bulldozer-prima-recensione-al-mondo?start=5#content
non sempre.
per me a parità di prezzo uno fatiga a scegliere (dipende da cosa ne fa dellamacchina), a prezzi minori diventa conveniente andare sugli fx. perchè comunque le prestazione sono abbastanza elevate da fare tutto quel che gli si da' bene.
Uh? Forse non ho capito... i PhenomII sono CPU stabilissime, così come tutte le sue CPU dagli Athlon64 (anzi, direi dal K6 in poi... ma il discorso chipset è stato, fino all'A64, un problema aperto).
e no shodan, purtroppo anche dopo gli A64 persistono problematiche in certi parametri di stabilita'...
PCI prefetch e Bus mastering sono ancora le pecche di AMD (almeno sino a K10), e purtroppo queste tecnologie toccano anche il PCI-ex, visto che viene trattato nello stesso modo, in ambito software.
come per le vecchie sound blaster live su PCI in piattaforme 462 ancora oggi, complici driver di periferica fatti male, si risentono disturbi su streaming di dati ad accesso diretto, soprattutto quando si esaltano le qualita' del risparmio energetico (spostando da bilanciato a risparmio energetico, che segue piu' fedelmente le richieste di potenza).
il vero problema pero' e' stato sempre il chipset, sia VIA che NVIDIA hanno sempre trattato male questi bus, anche su intel... oggi con ATI non si notano piu' seri problemi come prima, ma certe volte divento talmente disperato da voler cambiare le configurazioni passando ai chipset intel (con tutto cio' che ne consegue), anche se pure questi non sono esenti da alcune serie problematiche.
il reale problema, anche se ci sono detrattori di quest'affermazione, e' che i software di oggi son fatti proprio male, ed i driver, molte volte, succhiano letteralmente il sangue.
l'errore di AMD e' pero' quello di aver cambiato repentinamente un sacco di cose, invece di fare come intel che rinnova, ma a mio parere tutti questi cambiamenti sono solo una piccola parte di quelli che avverranno da qui a 3 anni (entreremmo nell'era dei veri SOC, finalmente), e anche intel, volente o nolente, dovra' adeguarsi.
Contando che si compra iPhone per mandare messaggi e chiamare (internet sul telefono? ma scherzi?).
Gli smartphone in generale sono stati sminuiti a cellulari normali, visto che trovare in commercio qualche feature phone decente è diventato abbastanza difficile...e se lo trovi costa quanto uno smartphone se non di più.
Se mi metto a fare un discorso su come sfrutta la gente il PC in università (e studio informatica), per loro stessa ammissione, capiresti che lo scenario a cui pensi è il meno probabile.
In facoltà da me girano solo vaio e macbook da 13''...e cmq lo studente universitario medio non conosce la differenza tra un pc ed un tostapane, quindi come campione è un po' "scadente".
Cmq ho capito quello che intendi :)...bisogna anche dire che di desktop se ne vendono pochini ormai ed in genere vengono presi da persone che li usano per lavorare, il pc di casa ormai è il notebook e di solito viene preso in offerta in qualche grande catena di elettronica, le caratteristiche hardware sono secondarie, conta solo il prezzo finale.
birmarco
09-05-2012, 10:19
http://www.insidehardware.it/hardware/cpu/1248-amd-fx-6200-piu-ottani-per-bulldozer-prima-recensione-al-mondo?start=5#content
non sempre.
per me a parità di prezzo uno fatiga a scegliere (dipende da cosa ne fa dellamacchina), a prezzi minori diventa conveniente andare sugli fx. perchè comunque le prestazione sono abbastanza elevate da fare tutto quel che gli si da' bene.
Se dovessi scegliere un FX, prenderei sicuramente un serie 8000, gli altri sono piuttosto scarsi e conviene di più un vecchio thuban ;)
Enriko81
09-05-2012, 10:28
Se dovessi scegliere un FX, prenderei sicuramente un serie 8000, gli altri sono piuttosto scarsi e conviene di più un vecchio thuban ;)
in giro si trovano i vecchi am3 phenom II 965 a 95 euro.
io consiglio tali cpu per giocare e multimedia-video leggero.
abbinati ad una vga amd 6870. si gioca a poco prezzo.
birmarco
09-05-2012, 12:05
in giro si trovano i vecchi am3 phenom II 965 a 95 euro.
io consiglio tali cpu per giocare e multimedia-video leggero.
abbinati ad una vga amd 6870. si gioca a poco prezzo.
Si infatti :) Poi si overclockano anche bene. :) Il meglio secondo me è il Thuban X4 dove puoi tentare lo sblocco a X6 ;)
Se dovessi scegliere un FX, prenderei sicuramente un serie 8000, gli altri sono piuttosto scarsi e conviene di più un vecchio thuban ;)
Concordo, l'8120 costa ormai una inezia per quello che offre :fagiano:
in giro si trovano i vecchi am3 phenom II 965 a 95 euro.
io consiglio tali cpu per giocare e multimedia-video leggero.
abbinati ad una vga amd 6870. si gioca a poco prezzo.
Vero, viene fuori un pc con rapporto prezzo/prestazioni veramente notevole :)
e no shodan, purtroppo anche dopo gli A64 persistono problematiche in certi parametri di stabilita'...
PCI prefetch e Bus mastering sono ancora le pecche di AMD (almeno sino a K10), e purtroppo queste tecnologie toccano anche il PCI-ex, visto che viene trattato nello stesso modo, in ambito software.
Si, vero... però dai KT333/400 in poi i problemi sul PCI erano per lo più prestazionali, e non di stabilità. Nei chipset precedenti, invece, era molto più facile imbattersi in problemi bloccanti (ricordo il famoso bug sul SouthBridge 686A che andava patchato a livello di codice esadecimale tramite WPCREDIT...)
come per le vecchie sound blaster live su PCI in piattaforme 462 ancora oggi, complici driver di periferica fatti male, si risentono disturbi su streaming di dati ad accesso diretto, soprattutto quando si esaltano le qualita' del risparmio energetico (spostando da bilanciato a risparmio energetico, che segue piu' fedelmente le richieste di potenza).
Vero anche questo, però le SB Live! andavano in conflitto anche con i ferri da striro! :D Scherzi a parte, all'epoca davano problemi anche su i845/i850, mentre il buon vecchio BX e i SiS735/745 andavano benone...
il vero problema pero' e' stato sempre il chipset, sia VIA che NVIDIA hanno sempre trattato male questi bus, anche su intel... oggi con ATI non si notano piu' seri problemi come prima, ma certe volte divento talmente disperato da voler cambiare le configurazioni passando ai chipset intel (con tutto cio' che ne consegue), anche se pure questi non sono esenti da alcune serie problematiche.
Si, dall'acquisizione di ATI le cose sono migliorate molto a livello chipset...
il reale problema, anche se ci sono detrattori di quest'affermazione, e' che i software di oggi son fatti proprio male, ed i driver, molte volte, succhiano letteralmente il sangue.
l'errore di AMD e' pero' quello di aver cambiato repentinamente un sacco di cose, invece di fare come intel che rinnova, ma a mio parere tutti questi cambiamenti sono solo una piccola parte di quelli che avverranno da qui a 3 anni (entreremmo nell'era dei veri SOC, finalmente), e anche intel, volente o nolente, dovra' adeguarsi.
Vedremo, il futuro si preannuncia interessante... ;)
Ciao. :)
StarwayPrince
09-05-2012, 19:14
ciao,trehad molto interessante,soprattutto per me che son possessore di phenom x61100 T; ero quasi intentionato a passare a bulldozer,per puro sfizio,ma vedo che sarebbe una spesa iutile; inutile,forse,guardare anche il 16 core ad 8 moduli.....cmqla forza di AMD è anche il costo inferiore ad intel a mio parere,alla fine cercando un compromesso,buone rpestazioni a minor costo
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.