PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

OPP
21-03-2012, 20:59
Sto preparando un regalino (anche per gli amici windowsiani).
Gli screen dei carichi su GoCall non li ho piu fatti perchè ho gia consegnato la soluzione al cliente.
Per cui liberatomi del mio lavoro, mi son messo a realizzare una piccola utility derivante dal alcune funzione basi di gocall e soprattutto di qualsiasi database.
Proprio per effettuare test (ed anche bench perchè calcola il tempo impiegato dei vari test che supporta).
E' compatibile ALLA STESSA MANIERA sia con Intel che con AMD (lo script che esegue il FIRE TEST è ottimizzato per architetture CMT).
Datemi il tempo di sistemare alcune cosine e vi do poi illink per il download, sia per w.w..windows che ovviamente per il pinguino carino carino.
Eccovi intanto uno screen:
http://i42.tinypic.com/dr5sw0.jpg

grande shelx :eek:

Cocco83
21-03-2012, 21:03
Sto preparando un regalino (anche per gli amici windowsiani).
Gli screen dei carichi su GoCall non li ho piu fatti perchè ho gia consegnato la soluzione al cliente.
Per cui liberatomi del mio lavoro, mi son messo a realizzare una piccola utility derivante dal alcune funzione basi di gocall e soprattutto di qualsiasi database.
Proprio per effettuare test (ed anche bench perchè calcola il tempo impiegato dei vari test che supporta).
E' compatibile ALLA STESSA MANIERA sia con Intel che con AMD (lo script che esegue il FIRE TEST è ottimizzato per architetture CMT).
Datemi il tempo di sistemare alcune cosine e vi do poi illink per il download, sia per w.w..windows che ovviamente per il pinguino carino carino.
Eccovi intanto uno screen:
http://i42.tinypic.com/dr5sw0.jpg

ti stimo

aldooo
21-03-2012, 21:06
mi son messo a realizzare una piccola utility derivante dal alcune funzione basi di gocall e soprattutto di qualsiasi database.
Proprio per effettuare test (ed anche bench perchè calcola il tempo impiegato dei vari test che supporta).


Ottimo! :rolleyes:
Se è opensorcio lo testero' appena lo rilasci.

Grizlod®
21-03-2012, 21:25
qualcuno di voi sa se il kit a liquido brandizzato AMD si trova in vendita da qualche parte anche da solo (senza processore)?:)

parlo di questo che si vede nella foto della news di oggi di hw upgrade

http://www.hwupgrade.it/immagini/kit_liquido_amd_fx.jpg
Assomiglia molto all'Antec:
http://store.antec.com/Product/cooling-cpu_cooler/kuhler-h2o-620/0-761345-77085-9.aspx

Sembra cambi solo il castelletto di ritenzione.

Se fai una ricerchina lo trovi...

OPP
21-03-2012, 21:28
Assomiglia molto all'Antec:
http://store.antec.com/Product/cooling-cpu_cooler/kuhler-h2o-620/0-761345-77085-9.aspx

Sembra cambi solo il castelletto di ritenzione.

Se fai una ricerchina lo trovi...

si lo so che è praticamente uguale ma chiedevo di quello per via del logo amd fx illuminato sopra la pompa, mi piace assai :D

shellx
21-03-2012, 21:31
Ottimo! :rolleyes:
Se è opensorcio lo testero' appena lo rilasci.

A questa cosa devo ancora decidere se chiudere il sorgente o lasciarlo aperto.

Intanto devo sistemare delle cosine per le architetture delle cpu Intel con i core logici HT. Attualmente non li supporta per bene.
Non ho una cpu HT e mi tocca testarne per simulazione script prendendo spunto dal sistema di scheduling per queste architetture.
Ma mi sa che è arrivato il momento di prendermi un sistema 1155 (pure dal mercatino).

Grizlod®
21-03-2012, 21:46
si lo so che è praticamente uguale ma chiedevo di quello per via del logo amd fx illuminato sopra la pompa, mi piace assai :DMmh...prescindendo dal fatto che forse lo si potrebbe trovare 'usato', fra qualche tempo, non mi pare che il logo (IMHO di un adesivo...)sia illuminabile; da dove arriverebbero i fili?:mbe:
Forse è a microcelle fotovoltaiche a 32 nm di GF :D :sofico:

Potrebbe essere fosforescente o catarifrangente...

shellx
21-03-2012, 21:54
Mmh...prescindendo dal fatto che forse lo si potrebbe trovare 'usato', fra qualche tempo, non mi pare che il logo (IMHO di un adesivo...)sia illuminabile; da dove arriverebbero i fili?:mbe:
Forse è a microcelle fotovoltaiche a 32 nm di GF :D :sofico:

Potrebbe essere fosforescente o catarifrangente...

ashsauhhusa oo mio dioooo ! allora è da latrina vietnamita come il pp :D

@OPP
se vuoi ti faccio fare un adesivo a led illuminato con scritto:

shellx
Turbo Cooling

è piu bello di quel coso AMD FX

e comunque non si illumina, è un semplice adesivo (marketing) su una pompa di un altra marca rimarchiata con quell'adesivo inutile.

Un po come fa Telecom con i router di altra nota marca mettendogli quegli orribili placchette rosse con scritto ALICE (e oltretutto limitandoli tramite firmware)...quanto odio ilmercato limitato per $$$$
siamo circondati da marketing

piuttosto la cosa piu valida è la mobo che c'è sotto

OPP
21-03-2012, 22:14
no ragazzi, si illumina davvero la scritta fx, aspettate che linko

http://www.techstation.it/hardware/articoli/liquid-cooling-per-amd-fx-8150/il-dissipatore-180.html



li è bianca, ma su un'altro sito avevo letto che il colore è personalizzabile:cool:

shellx
21-03-2012, 22:19
no ragazzi, si illumina davvero la scritta fx, aspettate che linko

http://www.techstation.it/hardware/articoli/liquid-cooling-per-amd-fx-8150/il-dissipatore-180.html

li è bianca, ma su un'altro sito avevo letto che il colore è personalizzabile:cool:

wooow...per cui adesso è bello e inutile :D
comunque figo il fatto che personalizzi il colore, se trovi il link passalo

ps: per caso hai la risoluzione a 10000x10000 ?
Mi hai umiliato il monitor quando ha fatto preview di quell'immagine, forse è meglio se la editi
:D

OPP
21-03-2012, 22:23
wooow...per cui adesso è bello e inutile :D
comunque figo il fatto che personalizzi il colore, se trovi il link passalo

ps: per caso hai la risoluzione a 10000x10000 ?
Mi hai umiliato il monitor quando ha fatto preview di quell'immagine, forse è meglio se la editi
:D

editato, scusatemi:D
appena trovo il link lo posto:)

ecco qua trovato
http://www.legitreviews.com/article/1743/5/

The last tab is the Settings tab. Here you adjust the LED color for the logo on the pump housing, or disable it completely.

fai tutto dal software di controllo :)

shellx
21-03-2012, 22:34
editato, scusatemi:D
appena trovo il link lo posto:)

ecco qua trovato
http://www.legitreviews.com/article/1743/5/

The last tab is the Settings tab. Here you adjust the LED color for the logo on the pump housing, or disable it completely.

fai tutto dal software di controllo :)

pensa te...
quanto se ne studia amd pur di vendere...:)

Alla fine poi un NOCTUA ad aria costoso, gli fa il culo a quella specie di kit a liquido ?

OPP
21-03-2012, 22:36
pensa te...
quanto se ne studia amd pur di vendere...:)

vero, poi sarebbe una bella idea regalo per mia sorella :asd:

shellx
21-03-2012, 22:41
vero, poi sarebbe una bella idea regalo per mia sorella :asd:

aridagleeeee...
ci scommetto che tua sorella non vede l'ora di vedere dal plexiglass del case illuminarsi quel coso
ahahaha tua sorella però ... mica tuuu ...

OPP
21-03-2012, 22:45
aridagleeeee...
ci scommetto che tua sorella non vede l'ora di vedere dal plexiglass del case illuminarsi quel coso ?
ahahaha tua sorella però ... mica tuuu ...

certo shellx, lei lei :angel:
ha voluto pure la crosshair v, ha proprio le mani bucate:D

Phenomenale
21-03-2012, 22:48
liberatomi del mio lavoro, mi son messo a realizzare una piccola utility derivante dal alcune funzione basi di gocall e soprattutto di qualsiasi database.
Ottimo, lo proverò anche io su w..w..w.. bè quella roba là :D

shellx
21-03-2012, 23:13
certo shellx, lei lei :angel:
ha voluto pure la crosshair v, ha proprio le mani bucate:D

mannaggia ste donne sono proprio spendaccione...quando vedono colori e luci perdono la testa...devono sempre fare le esibizioniste :D

Ottimo, lo proverò anche io su w..w..w.. bè quella roba là

Certo...e sulla sconsumer spreview di swin8 si comporta meglio rispetto swin7 (almeno sul mio sistema)..
comunque adesso sono stanco, domani continuo a lavoraci meglio, perchè voglioottimizzarlo ed eguagliare le cose sia per architetture intel che per amd (altrimenti poi midicono che ho fatto il furbo)...ed entro la fine di questa settimana ve lo linko

Grizlod®
21-03-2012, 23:29
no ragazzi, si illumina davvero la scritta fx, aspettate che linko

http://www.techstation.it/hardware/articoli/liquid-cooling-per-amd-fx-8150/il-dissipatore-180.html



li è bianca, ma su un'altro sito avevo letto che il colore è personalizzabile:cool::eek: Hai ragione...:O

Dev' esserci un led sotto a un copechio con diffusore opalino, e sopra l'adesivo ritagliato...:what:

Adatto agli enthusiast...


Io, ancora, devo provare il mio:sofico: artigianale...
http://img32.imageshack.us/img32/3149/wbglis001.th.jpg (http://imageshack.us/photo/my-images/32/wbglis001.jpg/)

devo finire un po di roba prima ed ora non ne ho voglia...

shellx
21-03-2012, 23:41
Dev' esserci un led sotto a un copechio con diffusore opalino

Perdona l'ingnoranza: come funziona il diffusore opalino ?

Grizlod®
21-03-2012, 23:50
Perdona l'ingnoranza: come funziona il diffusore opalino ?Non so se hai presente i diffusori sui flash a slitta delle fotocamere. I fotografi, li usano per avere una luce meno diretta (se cerchi in rete, trovi info a iosa)...meno dura, meno "violenta".

Sostanzialmente un pezzetto di plastica, solitamente bianco, (diciamo) opacizzato...

paolo.oliva2
22-03-2012, 00:07
Condivido il fatto che quel raffreddamento a liquido di AMD sia una ciofeca... per il semplice fatto che per me un raffreddamento a liquido deve avere un serbatoio a partire da 20 litri... :D , però tempo addietro valeva il detto che il peggior raffreddamento a liquido è sempre meglio del miglior raffreddamento ad aria... anche se ultimamente i raffreddamenti ad aria sofisticati sono "ibridi".

Comunque il raffreddamento a liquido, di media, permette d'estate le stesse frequenze che un raffreddamento ad aria darebbe d'inverno.

Grizlod®
22-03-2012, 00:17
.................voglioottimizzarlo ed eguagliare le cose sia per architetture intel che per amd ...................

EDIT:
Quale sarà il max di istruzioni per entrambe le piattaforme ?

shellx
22-03-2012, 00:32
Significa che, per entrambe le piattaforme, integrerà le ultime istruzioni (AVX1/2)?

No, perchè le peculiarità di testing di quella mia utility sono si per scalabilità relazionata al numero di core e numero di thread (mt), ma non hanno nessuna influenza con le istruzioni AVX o SSE4 che sono istruzioni dedicate al mt direzionato su parchi applicativi multimediali (modellazione 3D, calcolo scientifico, e criptazione AES).
Per intenderci non è un cinebench fai da te (da me in questo caso :D ).

Serve invece a testare il carico elaborativo si MT, ma su operazioni di tipologia database.
Di conseguenza quasi simile come a fargli elaborare n.thread a sbafo senza risentirne di rallentamenti durante un uso quotidiano dentro l'os. Ma in forma ancora piu pesante e in ambito applicativo server database.
E oltre all'mt, supporta il carico anche su singolo core e anche l'ST su piu core o cluster, ma in caso di cpu a single core o dual core o con architettura ad approccio tradizionale (no CMT) consiglio di non eseguire il FIRE TEST, per il bene delle vostre cpu ;)
Poi quando è pronto vi spiego perchè.

paolo.oliva2
22-03-2012, 02:33
Qui compare l'8170 a listino? :eek:

http://detail.zol.com.cn/cpu_index/subcate28_list_p22126_1.html

Anche qui, giapponese. (http://freerss.net/reader/usr/tokkou3/show.cgi?cmd=show_aid&aid=30300)

12年Q2に登場予定のFX-6130、FX-4130の情報
[ 03/21 23:25:44 ]

12年Q2(4月?)に登場する予定のFX-6130、FX-4130の情報です。

・ AMD Readies Two More FX Series Processors - techPowerUp

AMDのFXシリーズの新モデルとして3月24日に4コアで4.2GのFX-4170が発売するといわれていますが、Q2(4月?)にFX-6130、FX-4130の2モデルが予定されています。

FX-6130は3.6G (TC3.9G)の6コアモデル。現行の6コア FX-6100よりも定格のクロックが300MHzほどアップ(ターボコア時は同じ3.9GHz)しています。ただしTDPは125Wとなります。

FX-4130の3.8G (TC3.9G)の4コアモデルで、現行の4コア FX-4100よりも200MHz高いクロックになります。ただし、L3 キャッシュは通常のFXの半分となる4MB、TDPは125Wとなります。L3が4MBのFXシリーズは初ですが、TDPも高いことから4.2GのFX-4170になれなかったCPUなのかもしれません。

●AMD FXシリーズ ラインアップ (Zambezi、Socket AM3+、DDR3-1866)
- FX-8170 : 4M/8C、3.9G (TC4.5G)、L2 2MBx4/L3 8MB、TDP125W、不明
- FX-8150 : 4M/8C、3.6G (TC4.2G)、L2 2MBx4/L3 8MB、TDP125W、2.8万
- FX-8140 : 4M/8C、3.2G (TC4.1G)、L2 2MBx4/L3 8MB、TDP 95W、12年Q1
- FX-8120 : 4M/8C、3.1G (TC4.0G)、L2 2MBx4/L3 8MB、TDP125W、1.8万
- FX-8120 : 4M/8C、3.1G (TC4.0G)、L2 2MBx4/L3 8MB、TDP 95W、OEM
- FX-8100 : 4M/8C、2.8G (TC3.7G)、L2 2MBx4/L3 8MB、TDP 95W、OEM
--------------------------------------------------------------------
- FX-6200 : 3M/6C、3.8G (TC4.1G)、L2 2MBx3/L3 8MB、TDP125W、12年Q1
◎FX-6130 : 3M/6C、3.6G (TC3.9G)、L2 2MBx3/L3 8MB、TDP125W、12年Q2
- FX-6120 : 3M/6C、3.5G (TC4.1G)、L2 2MBx3/L3 8MB、TDP 95W、12年Q1
- FX-6100 : 3M/6C、3.3G (TC3.9G)、L2 2MBx3/L3 8MB、TDP 95W、1.3万
--------------------------------------------------------------------
- FX-4170 : 2M/4C、4.2G (TC4.3G)、L2 2MBx2/L3 8MB、TDP125W、1.3万
- FX-4150 : 2M/4C、3.9G (TC4.1G)、L2 2MBx2/L3 8MB、TDP 95W、12年Q1
◎FX-4130 : 2M/4C、3.8G (TC3.9G)、L2 2MBx2/L3 4MB、TDP125W、12年Q2
- FX-4100 : 2M/4C、3.6G (TC3.8G)、L2 2MBx2/L3 8MB、TDP 95W、1.0万

SE fosse vero, lo step B2g sarebbe già in grado di arrivare a 4,5GHz come frequenza massima def... a sto punto lo step C potrebbe anche veramente stupirci.

AceGranger
22-03-2012, 08:36
Condivido il fatto che quel raffreddamento a liquido di AMD sia una ciofeca... per il semplice fatto che per me un raffreddamento a liquido deve avere un serbatoio a partire da 20 litri... :D , però tempo addietro valeva il detto che il peggior raffreddamento a liquido è sempre meglio del miglior raffreddamento ad aria... anche se ultimamente i raffreddamenti ad aria sofisticati sono "ibridi".

Comunque il raffreddamento a liquido, di media, permette d'estate le stesse frequenze che un raffreddamento ad aria darebbe d'inverno.

si, un impiato serio.

Questi mini kit sono compromessi mediocri che in estate, in inverno, in daily e in OC, raffreddano peggio di un aria top gamma, che fa oltretutto meno rumore.

questo kit in particolare dovrebbe essere un Antec Kuhler H20 920 rimarchiato.

http://www.xtremehardware.it/images/stories/news/202b.jpg
http://d1535dk28ea235.cloudfront.net/preset_64/Antec_Kulher_H2O_920_00_0.jpg

un dissi come il Silver Arrow, costa meno, ha un paio di gradi di vantaggio e fa molto meno rumore.

paolo.oliva2
22-03-2012, 09:45
Non trovo notizie ufficiali AMD sull'8170, ma parecchi siti danno l'8170 disponibile per il Q1, mentre i 2 nuovi proci FX (X4 e X6) sono ufficialmente riportati per il Q2, quindi addirittura l'8170 dovrebbe essere distribuito entro questo mese, cioè marzo.

QUI (http://en.wikipedia.org/wiki/List_of_AMD_FX_microprocessors) ho trovato delle caratteristiche dell'8170 che sarebbero interessanti.

Rispetto all'8150, la tensione minima passerebbe da 0,775V a 0,750V, quindi si dovrebbe avere un consumo inferiore in idle, e la tensione massima salirebbe a 1,450V contro 1,425V, pur rimanendo dentro i 125W TDP, quindi comunque il silicio sarebbe migliorato nel rapporto Vcore/TDP ma non nel rapporto Vcore/Frequenza.

Aspettiamo, ma certamente se reale sarebbe una gran cosa, visto e considerato che un X8 riuscirebbe ad avere comunque una potenza superiore in ST rispetto ad un X4 a pari TDP (+200MHz 8170 vs 4170) ed il funzionamento di 8 core implicherebbe una perdita di frequenza solamente di -100MHz rispetto ad un 4 core sempre BD.

Nota molto positiva è l'aumento di frequenza massima riferito alla potenza ST, perché a sto punto, valutando 3,7GHz per un 1100T, i 4,5GHz di un 8170 rappresenterebbero di per sé un +21,62%, quindi l'aumento di frequenza sarebbe superiore alla diminuzione di IPC di BD, portando un 8170 ad eguagliare circa un Phenom II X4 980 in ST.

Ma la cosa più importante è che SE l'8170 diventasse realtà, le aspettative su Vishera aumenterebbero, perché universalmente allo step C (Vishera) vengono attribuite frequenze maggiori rispetto allo step B2g, quindi un Vishera 3,9GHz all'uscita sarebbe il minimo, ma lascerebbe il posto ad un possibile 4,2GHz infornata dopo infornata.

Oltre a ciò, Vishera avrà un IPC superiore rispetto a BD 1° generazione, quindi le frequenze di Vishera saranno comunque relativamente superiori.

A questo punto... sempre SE 8170 e Vishera rispettassero le aspettative, si arriverebbe al punto in cui BD, tramite le frequenze superiori permesse dall'architettura BD/CMT, Vishera dovrebbe comunque superare la potenza ST di un Phenom II ed arrivare alla condizione modulo BD = 2 core Phenom II, con la realtà che nell'MT BD comunque ha 2 core in più (8 vs 6) e la possibilità di arrivare a 10 sempre sul 32nm...

Se tutto ciò diventasse realtà... e non mi sembra comunque irrealizzabile, tutt'altro, mi sembra spieghi abbastanza bene il perché AMD abbia smesso il Phenom II...

paolo.oliva2
22-03-2012, 09:56
si, un impiato serio.

Questi mini kit sono compromessi mediocri che in estate, in inverno, in daily e in OC, raffreddano peggio di un aria top gamma, che fa oltretutto meno rumore.

questo kit in particolare dovrebbe essere un Antec Kuhler H20 920 rimarchiato.

http://www.xtremehardware.it/images/stories/news/202b.jpg
http://d1535dk28ea235.cloudfront.net/preset_64/Antec_Kulher_H2O_920_00_0.jpg

un dissi come il Silver Arrow, costa meno, ha un paio di gradi di vantaggio e fa molto meno rumore.

Guarda... secondo me nell'OC il discorso rumore, ingombro, consumo... hanno poco senso.

Cioè... se vuoi che il procio venga raffreddato bene, la pompa deve avere portanza e potenza (aumenta il consumo e rumore), devi avere un serbatoio di capacità adeguata e non 1 litro dei kit dentro al case (aumenta il tempo perchè si arrivi alle temp di regime, e più sono i litri presenti, più si verifica la condizione di non arrivare mai alla temp regime massima... io con 25 litri circa mi servono almeno 3h di super-carico procio per arrivarci d'inverno, meno d'estate (e partendo da sistema acceso, perché io non lo spengo mai).

Io sarò abituato al mio impianto... ho 4 ventole 3000rpm da 12cm doppia altezza sui radiatori che di casino ne fanno e parecchio, ma guardo il fine di quello che faccio... se voglio il massimo raffreddamento permesso da un kit a liquido, le condizioni sono queste... se si comincia a pensare al rumore, estetica, volumi, allora meglio tenersi un dissi stock e non occare... si risparmiano i soldi e soprattutto meno paranoie... i compromessi non soddisfano mai, le scimmie sono sempre in agguato e alla fine il portafoglio si aprirà più volte.

capitan_crasy
22-03-2012, 10:01
Rory Read (AMDs president and chief executive officer) conferma che AMD è al lavoro con Globalfoundries per lo sviluppo dei futuri 28nm destinati alle APU/CPU con architettura Steamroller:

“In just one quarter, we were able to see more than a doubling of yields on 32nm, allowing us to exit 2011 having exceeded our 32nm product shipment requirements. Based on this successful ramp of 32nm HKMG, we are committed to moving ahead on 28nm with Globalfoundries,”

Clicca qui... (http://www.xbitlabs.com/news/other/display/20120321200633_Globalfoundries_Celebrates_Shipment_of_250_Thousand_32nm_HKMG_Wafers_to_AMD.html)

Sayan V
22-03-2012, 10:07
Non trovo notizie ufficiali AMD sull'8170, ma parecchi siti danno l'8170 disponibile per il Q1, mentre i 2 nuovi proci FX (X4 e X6) sono ufficialmente riportati per il Q2, quindi addirittura l'8170 dovrebbe essere distribuito entro questo mese, cioè marzo.

QUI (http://en.wikipedia.org/wiki/List_of_AMD_FX_microprocessors) ho trovato delle caratteristiche dell'8170 che sarebbero interessanti.

Rispetto all'8150, la tensione minima passerebbe da 0,775V a 0,750V, quindi si dovrebbe avere un consumo inferiore in idle, e la tensione massima salirebbe a 1,450V contro 1,425V, pur rimanendo dentro i 125W TDP, quindi comunque il silicio sarebbe migliorato nel rapporto Vcore/TDP ma non nel rapporto Vcore/Frequenza.

Aspettiamo, ma certamente se reale sarebbe una gran cosa, visto e considerato che un X8 riuscirebbe ad avere comunque una potenza superiore in ST rispetto ad un X4 a pari TDP (+200MHz 8170 vs 4170) ed il funzionamento di 8 core implicherebbe una perdita di frequenza solamente di -100MHz rispetto ad un 4 core sempre BD.

Nota molto positiva è l'aumento di frequenza massima riferito alla potenza ST, perché a sto punto, valutando 3,7GHz per un 1100T, i 4,5GHz di un 8170 rappresenterebbero di per sé un +21,62%, quindi l'aumento di frequenza sarebbe superiore alla diminuzione di IPC di BD, portando un 8170 ad eguagliare circa un Phenom II X4 980 in ST.

Ma la cosa più importante è che SE l'8170 diventasse realtà, le aspettative su Vishera aumenterebbero, perché universalmente allo step C (Vishera) vengono attribuite frequenze maggiori rispetto allo step B2g, quindi un Vishera 3,9GHz all'uscita sarebbe il minimo, ma lascerebbe il posto ad un possibile 4,2GHz infornata dopo infornata.

Oltre a ciò, Vishera avrà un IPC superiore rispetto a BD 1° generazione, quindi le frequenze di Vishera saranno comunque relativamente superiori.

A questo punto... sempre SE 8170 e Vishera rispettassero le aspettative, si arriverebbe al punto in cui BD, tramite le frequenze superiori permesse dall'architettura BD/CMT, Vishera dovrebbe comunque superare la potenza ST di un Phenom II ed arrivare alla condizione modulo BD = 2 core Phenom II, con la realtà che nell'MT BD comunque ha 2 core in più (8 vs 6) e la possibilità di arrivare a 10 sempre sul 32nm...

Se tutto ciò diventasse realtà... e non mi sembra comunque irrealizzabile, tutt'altro, mi sembra spieghi abbastanza bene il perché AMD abbia smesso il Phenom II...


:cool:

capitan_crasy
22-03-2012, 10:53
Non trovo notizie ufficiali AMD sull'8170, ma parecchi siti danno l'8170 disponibile per il Q1, mentre i 2 nuovi proci FX (X4 e X6) sono ufficialmente riportati per il Q2, quindi addirittura l'8170 dovrebbe essere distribuito entro questo mese, cioè marzo.

QUI (http://en.wikipedia.org/wiki/List_of_AMD_FX_microprocessors) ho trovato delle caratteristiche dell'8170 che sarebbero interessanti.

Rispetto all'8150, la tensione minima passerebbe da 0,775V a 0,750V, quindi si dovrebbe avere un consumo inferiore in idle, e la tensione massima salirebbe a 1,450V contro 1,425V, pur rimanendo dentro i 125W TDP, quindi comunque il silicio sarebbe migliorato nel rapporto Vcore/TDP ma non nel rapporto Vcore/Frequenza.

Aspettiamo, ma certamente se reale sarebbe una gran cosa, visto e considerato che un X8 riuscirebbe ad avere comunque una potenza superiore in ST rispetto ad un X4 a pari TDP (+200MHz 8170 vs 4170) ed il funzionamento di 8 core implicherebbe una perdita di frequenza solamente di -100MHz rispetto ad un 4 core sempre BD.

Nota molto positiva è l'aumento di frequenza massima riferito alla potenza ST, perché a sto punto, valutando 3,7GHz per un 1100T, i 4,5GHz di un 8170 rappresenterebbero di per sé un +21,62%, quindi l'aumento di frequenza sarebbe superiore alla diminuzione di IPC di BD, portando un 8170 ad eguagliare circa un Phenom II X4 980 in ST.

Ma la cosa più importante è che SE l'8170 diventasse realtà, le aspettative su Vishera aumenterebbero, perché universalmente allo step C (Vishera) vengono attribuite frequenze maggiori rispetto allo step B2g, quindi un Vishera 3,9GHz all'uscita sarebbe il minimo, ma lascerebbe il posto ad un possibile 4,2GHz infornata dopo infornata.

Oltre a ciò, Vishera avrà un IPC superiore rispetto a BD 1° generazione, quindi le frequenze di Vishera saranno comunque relativamente superiori.

A questo punto... sempre SE 8170 e Vishera rispettassero le aspettative, si arriverebbe al punto in cui BD, tramite le frequenze superiori permesse dall'architettura BD/CMT, Vishera dovrebbe comunque superare la potenza ST di un Phenom II ed arrivare alla condizione modulo BD = 2 core Phenom II, con la realtà che nell'MT BD comunque ha 2 core in più (8 vs 6) e la possibilità di arrivare a 10 sempre sul 32nm...

Se tutto ciò diventasse realtà... e non mi sembra comunque irrealizzabile, tutt'altro, mi sembra spieghi abbastanza bene il perché AMD abbia smesso il Phenom II...

Era da tanto che non mi andavi in overboost!!!:D
Comunque mi spiace dirtelo ma ho il codice OPN del 8170 già da fine novembre 2011, ma per ora è ancora una sigla morta.
Finchè non vedrò OPN nei circuiti degli OEM, 8170 E' e rimane una CPU cancellata...

george_p
22-03-2012, 11:42
Era da tanto che non mi andavi in overboost!!!:D
Comunque mi spiace dirtelo ma ho il codice OPN del 8170 già da fine novembre 2011, ma per ora è ancora una sigla morta.
Finchè non vedrò OPN nei circuiti degli OEM, 8170 E' e rimane una CPU cancellata...

Pensavo lo stesso...per Paolo...e in effetti anche questo 8170 tarda troppo con Trinity alle porte :)

shellx
22-03-2012, 11:49
Rory Read (AMDs president and chief executive officer) conferma che AMD è al lavoro con Globalfoundries per lo sviluppo dei futuri 28nm destinati alle APU/CPU con architettura Steamroller:

“In just one quarter, we were able to see more than a doubling of yields on 32nm, allowing us to exit 2011 having exceeded our 32nm product shipment requirements. Based on this successful ramp of 32nm HKMG, we are committed to moving ahead on 28nm with Globalfoundries,”

Clicca qui... (http://www.xbitlabs.com/news/other/display/20120321200633_Globalfoundries_Celebrates_Shipment_of_250_Thousand_32nm_HKMG_Wafers_to_AMD.html)

:sperem:

shellx
22-03-2012, 14:02
Il mio sviluppo dell'utility TOD prosegue:
http://i39.tinypic.com/2dwgf15.jpg

paolo.oliva2
22-03-2012, 15:13
Era da tanto che non mi andavi in overboost!!!:D
Comunque mi spiace dirtelo ma ho il codice OPN del 8170 già da fine novembre 2011, ma per ora è ancora una sigla morta.
Finchè non vedrò OPN nei circuiti degli OEM, 8170 E' e rimane una CPU cancellata...
Si, si, infatti lo si credeva disponibile 1 mese dopo l'uscita dell'8150...

Però c'è un però... :D
Il dubbio sull'8170 io l'ho sempre avuto non tanto sui 3,9GHz per 8 core al posto di 3,6GHz dell'8150 rimanendo dentro i 125W TDP, quanto, invece, per i 4,5GHz come frequenza massima Turbo anche se solamente su 4 core.
Infatti comunque l'8150 ha sempre avuto la frequenza massima più alta nonostante X8 rispetto ai vari X6 e X4.
Invece ora i nuovi BD X4 hanno la frequenza più alta, anche se solamente di 100MHz...
Visto che Vishera tra 6 mesi dovrebbe comparire, mese più mese meno, qualsiasi scorta magazzino di modelli superiori non avviata alla commercializzazione causa quantità commerciali esigue, dovrebbe comunque smollarle :D , perché se non lo fa ora, di certo non lo potrà fare tra 3-4 mesi con Vishera alle porte.
Inoltre, c'è anche da valutare un'altra cosa... come vanno le vendite dei BD Opteron? Sarebbe possibile che parte della selezione superiore per server sia in esubero e quindi dirottata al desktop?
Non c'era già una voce di Opteron con package desktop?

Onestamente... ste voci sono ricominciate a circolare dopo l'annuncio dei nuovi modelli X4 e X6. Se fosse per attirare l'attenzione... tantovarrebbe tirare in ballo Vishera... è proprio la coincidenza con gli altri modelli e il tempo utile per la commercializzazione pre-Vishera che mi fanno credere su una realtà ben più vicina rispetto a quella sentita a novembre 2011.

-NINGEN-
22-03-2012, 16:10
AMD ha condiviso questo articolo su FB (http://www.eweek.com/c/a/IT-Infrastructure/AMD-Opteron-3200-Chips-Target-Cloud-Web-Hosting-587279/), in pratica parla degli opteron 3200 e del mercato piccoli server etcetc. Comunque, la parte interessante è nei commenti: non so chi sia il secondo utente, ma parrebbe escludere il supporto ufficiale AMD degli opteron 3200 su mobo consumer

http://img688.imageshack.us/img688/2894/opteron3200.png

Mister D
22-03-2012, 18:49
Rory Read (AMDs president and chief executive officer) conferma che AMD è al lavoro con Globalfoundries per lo sviluppo dei futuri 28nm destinati alle APU/CPU con architettura Steamroller:

“In just one quarter, we were able to see more than a doubling of yields on 32nm, allowing us to exit 2011 having exceeded our 32nm product shipment requirements. Based on this successful ramp of 32nm HKMG, we are committed to moving ahead on 28nm with Globalfoundries,”

Clicca qui... (http://www.xbitlabs.com/news/other/display/20120321200633_Globalfoundries_Celebrates_Shipment_of_250_Thousand_32nm_HKMG_Wafers_to_AMD.html)

Ciao Capitano,
mi è venuta in mente una cosa al riguardo. Nelle dichiarazioni del CFO AMD si evince solamente che i 28 nm non saranno SOI non che AMD abbandoni completamente il SOI e ho ripensato alle ultime roadmap:
http://www.hwupgrade.it/forum/showpost.php?p=36850222&postcount=5671
Non è che il fatto di non aver indicato nella roadmap le future cpu basate su Steamroller per il 2013 sia sintomo proprio di voler attendere per quest'ultime i futuri nodi SOI (22 o 20 FDSOI)? Alla fine se ci pensi così si chiuderebbe il cerchio. AMD cerca per le APU di rinnovare la piattaforma ogni anno e molto probabilmente GF non sarebbe riuscita a dare alla luce il nodo inferiore per il SOI, da cui AMD, spinta anche dal fatto che forse è più facile sviluppare la parte CPU in Bulk che la parte GPU in SOI, decide di usare lo step 28nm bulk per tutte le future APU per il 2013 e mantiene piledriver a 32 SOI come CPU forse con ulteriori raffinamenti di silico (chi pensa al famoso ULK) in attesa di cambiare poi al 22/20 nm FDSOI con Steamroller versione CPU o direttamente Excavator. Che ne dici? Potrebbe essere plausibile o secondo la tua esperienza è un ipotesi poco credibile la mia?

shellx
22-03-2012, 18:55
Ciao Capitano,
mi è venuta in mente una cosa al riguardo. Nelle dichiarazioni del CFO AMD si evince solamente che i 28 nm non saranno SOI non che AMD abbandoni completamente il SOI e ho ripensato alle ultime roadmap:
http://www.hwupgrade.it/forum/showpost.php?p=36850222&postcount=5671
Non è che il fatto di non aver indicato nella roadmap le future cpu basate su Steamroller per il 2013 sia sintomo proprio di voler attendere per quest'ultime i futuri nodi SOI (22 o 20 FDSOI)? Alla fine se ci pensi così si chiuderebbe il cerchio. AMD cerca per le APU di rinnovare la piattaforma ogni anno e molto probabilmente GF non sarebbe riuscita a dare alla luce il nodo inferiore per il SOI, da cui AMD, spinta anche dal fatto che forse è più facile sviluppare la parte CPU in Bulk che la parte GPU in SOI, decide di usare lo step 28nm bulk per tutte le future APU per il 2013 e mantiene piledriver a 32 SOI come CPU forse con ulteriori raffinamenti di silico (chi pensa al famoso ULK) in attesa di cambiare poi al 22/20 nm FDSOI con Steamroller versione CPU o direttamente Excavator. Che ne dici? Potrebbe essere plausibile o secondo la tua esperienza è un ipotesi poco credibile la mia?

L'ipotesi è sensata.
Ma personalmente dubito che salti il 28nm per le fascia alta.Non avrebbe senso fare steamroller solo per le apu, e lasciare piledriver sulla fascia alta perpoi passarla a steamroller oltretutto 22nm, quando è alle porte excavator.
Io credo che ad ogni segmento in una maniera o in un altra assegna tutte le sue evoluzioni di BD.
Poi tutto è possibile...

Phenomenale
22-03-2012, 19:34
Non è che il fatto di non aver indicato nella roadmap le future cpu basate su Steamroller per il 2013 sia sintomo proprio di voler attendere per quest'ultime i futuri nodi SOI (22 o 20 FDSOI)... decide di usare lo step 28nm bulk per tutte le future APU per il 2013 e mantiene piledriver a 32 SOI come CPU forse con ulteriori raffinamenti di silico (chi pensa al famoso ULK) in attesa di cambiare poi al 22/20 nm FDSOI con Steamroller versione CPU o direttamente Excavator
Mah, teoria brillante, ma secondo me hai sovrainterpretato...

shellx
22-03-2012, 19:59
Io sono del parere che in base a quella roadmap, amd non abbia presentato mesi fa il successore di vishera nel 2013 perchè sta lavorando sul cambio socket per il 28nm steamroller per la fascia Performance.
E' probabile che a tempo debito riaggiornerà le roadmap, e magari verra fuori il famoso komodo (o altro nome) basato su socket FMx con l'hub pci-e (magari 3.0) integrato nella cpu (ma senza gpu integrata) nella fascia alta desktop. Cosi toglie dalle palle finalmente quell'impiccioso, latente e inutile bus HT.

Una cosa volevo sapere dal capitano: roadmap a lungo termine significa (oltre al fatto che indicano le strategie per il futuro piu distante) che non saranno anche soggette a modifiche o aggiornamento nel corso del tempo prima delle uscite ?
O le roadmap possono sempre comunque subire delle modifiche nel tempo ?

capitan_crasy
22-03-2012, 20:40
Ciao Capitano,
mi è venuta in mente una cosa al riguardo. Nelle dichiarazioni del CFO AMD si evince solamente che i 28 nm non saranno SOI non che AMD abbandoni completamente il SOI e ho ripensato alle ultime roadmap:
http://www.hwupgrade.it/forum/showpost.php?p=36850222&postcount=5671
Non è che il fatto di non aver indicato nella roadmap le future cpu basate su Steamroller per il 2013 sia sintomo proprio di voler attendere per quest'ultime i futuri nodi SOI (22 o 20 FDSOI)? Alla fine se ci pensi così si chiuderebbe il cerchio. AMD cerca per le APU di rinnovare la piattaforma ogni anno e molto probabilmente GF non sarebbe riuscita a dare alla luce il nodo inferiore per il SOI, da cui AMD, spinta anche dal fatto che forse è più facile sviluppare la parte CPU in Bulk che la parte GPU in SOI, decide di usare lo step 28nm bulk per tutte le future APU per il 2013 e mantiene piledriver a 32 SOI come CPU forse con ulteriori raffinamenti di silico (chi pensa al famoso ULK) in attesa di cambiare poi al 22/20 nm FDSOI con Steamroller versione CPU o direttamente Excavator. Che ne dici? Potrebbe essere plausibile o secondo la tua esperienza è un ipotesi poco credibile la mia?

Ciao::)
Per quanto ne so FD-SOI è ancora in fase sperimentale e dubito che sia utilizzata per i 20nm; inoltre questo processo è atteso con tecnologia bulk e non SOI.
Anche se ci sono stati esperimenti con questa tecnologia sui 28nm, FD-SOI è previsto per i 14nm assieme ai aver da 450mm e transistor 3D di nuova generazione.
Credo che le CPU Steamroller siano già in programma da AMD, il fatto che non sono state presentate in roadmap è più prudenza che una scelta di non farle.
Per quanto riguarda Excavator o i 20nm è troppo presto per avere qualcosa di concreto, in compenso sto aspettando alcune conferme su presunti sample a 28nm GF per capire se si parla di silicio funzionante oppure solo wafer da esposizione...

Mister D
22-03-2012, 21:02
Ciao::)
Per quanto ne so FD-SOI è ancora in fase sperimentale e dubito che sia utilizzata per i 20nm; inoltre questo processo è atteso con tecnologia bulk e non SOI.
Anche se ci sono stati esperimenti con questa tecnologia sui 28nm, FD-SOI è previsto per i 14nm assieme ai aver da 450mm e transistor 3D di nuova generazione.
Credo che le CPU Steamroller siano già in programma da AMD, il fatto che non sono state presentate in roadmap è più prudenza che una scelta di non farle.
Per quanto riguarda Excavator o i 20nm è troppo presto per avere qualcosa di concreto, in compenso sto aspettando alcune conferme su presunti sample a 28nm GF per capire se si parla di silicio funzionante oppure solo wafer da esposizione...

Grazie Capitano!
Da quello che dici direi che allora GF è più indietro di quanto pensassi nello sviluppo del SOI rispetto ad altri player del consorzio (vedi ST che ha già illustrato nei suoi paper la volontà di utilizzare i nodi 28nm e 22nm FDSOI). Peccato! E speriamo che almeno con il bulk siano più competitivi da subito altrimenti la vedo dura per AMD contro intel e il suo 22nm bulk 3D HMGK

@Shellx e Phenomenale
Molto probabilmente sono troppo ottimista;)

Cmq siccome la speranza deve essere l'ultima a morire ci spero sempre che GF/AMD ci possano regalare delle belle sorprese!

Wolfhang
22-03-2012, 21:08
Guarda... secondo me nell'OC il discorso rumore, ingombro, consumo... hanno poco senso.

Cioè... se vuoi che il procio venga raffreddato bene, la pompa deve avere portanza e potenza (aumenta il consumo e rumore), devi avere un serbatoio di capacità adeguata e non 1 litro dei kit dentro al case (aumenta il tempo perchè si arrivi alle temp di regime, e più sono i litri presenti, più si verifica la condizione di non arrivare mai alla temp regime massima... io con 25 litri circa mi servono almeno 3h di super-carico procio per arrivarci d'inverno, meno d'estate (e partendo da sistema acceso, perché io non lo spengo mai).

Io sarò abituato al mio impianto... ho 4 ventole 3000rpm da 12cm doppia altezza sui radiatori che di casino ne fanno e parecchio, ma guardo il fine di quello che faccio... se voglio il massimo raffreddamento permesso da un kit a liquido, le condizioni sono queste... se si comincia a pensare al rumore, estetica, volumi, allora meglio tenersi un dissi stock e non occare... si risparmiano i soldi e soprattutto meno paranoie... i compromessi non soddisfano mai, le scimmie sono sempre in agguato e alla fine il portafoglio si aprirà più volte.

questa è una tua personalissima opinione, per me il rumore è altrettanto importante dell'overclock, se mai dovesse esserci una ventola oltre i 1000 giri nel mio sistema, sarebbe già volato dalla finestra...

paolo.oliva2
22-03-2012, 21:41
questa è una tua personalissima opinione, per me il rumore è altrettanto importante dell'overclock, se mai dovesse esserci una ventola oltre i 1000 giri nel mio sistema, sarebbe già volato dalla finestra...
Che sia una mia opinione, non ne discuto, perché dipende da quali sono i propri obiettivi finali.
Il discorso comunque era nato sul giudizio del kit di raffreddamento a liquido AMD, che a mio parere ha dei limiti non tanto perché è made in AMD, ma proprio per le caratteristiche degli impianti fatti radiatore/pompa/1 litro di liquido, e qualsiasi radiatore possa avere (già il fatto che sta dentro il case e assorbe le temp di tutto oltre che del procio), qualsiasi pompa possa avere (e con 1 metro di tubi non penso che ci montino una pompa da 12 metri di portanza) e qualsiasi ventola, non renderà mai quanto un kit a liquido esterno dal case, con il suo bel radiatore con una superficie più ampia di quella concessa dal case, con una ventola che non butta l'aria già calda dell'interno del case ma quella più fresca esterna e con il suo serbatorio di 20 litri.
Poi è chiaro... se uno mette al primo posto il rumore, può sempre acquistare quel kit, disabilitare la ventola, integrarlo in un WC per acquari con pesci polari (temp liquido fino a 3°), regolarlo in automatico ad una temp non inferiore di 10° rispetto quella ambiente (prb condensa), e l'unico rumore udibile sarebbe quello tipo di un frigo quando entra in funzione... di solito 1 minuto su 5 con un 8150 occato a 4,6GHz, quindi con un rumore perfino inferiore rispetto alla ventola da 1000 giri... ma con un consumo di 70/100W l'ora sotto carico... prossimo allo zero in idle.

Wolfhang
22-03-2012, 21:57
Che sia una mia opinione, non ne discuto, perché dipende da quali sono i propri obiettivi finali.
Il discorso comunque era nato sul giudizio del kit di raffreddamento a liquido AMD, che a mio parere ha dei limiti non tanto perché è made in AMD, ma proprio per le caratteristiche degli impianti fatti radiatore/pompa/1 litro di liquido, e qualsiasi radiatore possa avere (già il fatto che sta dentro il case e assorbe le temp di tutto oltre che del procio), qualsiasi pompa possa avere (e con 1 metro di tubi non penso che ci montino una pompa da 12 metri di portanza) e qualsiasi ventola, non renderà mai quanto un kit a liquido esterno dal case, con il suo bel radiatore con una superficie più ampia di quella concessa dal case, con una ventola che non butta l'aria già calda dell'interno del case ma quella più fresca esterna e con il suo serbatorio di 20 litri.
Poi è chiaro... se uno mette al primo posto il rumore, può sempre acquistare quel kit, disabilitare la ventola, integrarlo in un WC per acquari con pesci polari (temp liquido fino a 3°), regolarlo in automatico ad una temp non inferiore di 10° rispetto quella ambiente (prb condensa), e l'unico rumore udibile sarebbe quello tipo di un frigo quando entra in funzione... di solito 1 minuto su 5 con un 8150 occato a 4,6GHz, quindi con un rumore perfino inferiore rispetto alla ventola da 1000 giri... ma con un consumo di 70/100W l'ora sotto carico... prossimo allo zero in idle.


per poi magari fottersi scheda madre e cpu come è già capitato a qualcuno...., un dissi ad aria da 60€, 5 minuti per installarlo e i 4.6Ghz li prendo senza tanti sbattimenti...

shellx
22-03-2012, 22:12
...quesito: dalle roadmap amd si nota ke non si conosce il processo produttivo utilizzato per le cpu fascia alta desktop 2013, ma dice piledriver 32 nm derivati da fine 2012, ma se cosi fosse e ci ritrovassimo a fine 2013 ad avere ancora una cpu a 32 nm contro la praticamente certa ultima cpu a 22 nm intel del 2013 dopo ivy(haswell) e al 99% arriverà a 14 nm :eek: nel 2014, non sarebbe troppo indietro tecnologicamente parlando?
secondo me sicuramente dovrà utilizzare almeno i 28 se non meno... per non restare troppo indietro cm tecnologia e di conseguenza cm feature annesse ad esso...

...altro quesito: cm decidono i "nodi" da utilizzare in casa amd? cioe i vari tagli (28/22/20/14...ecc) grazie...

Ci dovremmo ritrovare ad avere ancora una cpu a 32 nm piledriver FX (quindi vishera) fino alla prima metà o secondo trimestre 2013 (Fino a Giugno/Luglio).
Il successore di Vishera su 28nm seguendo il modus operandi dovrebbe venir fuori proprio nello stesso periodo di vishera (terzo trimestre dell'anno -Settembre/Ottobre-). Ma nulla toglie che venga sfornato anche verso la fine del secondo trimestre 2013 (Giugno/Luglio).

Zambesi ebbe un ritardo di qualche mese (ottobre).

paolo.oliva2
22-03-2012, 22:28
...quesito: dalle roadmap amd si nota ke non si conosce il processo produttivo utilizzato per le cpu fascia alta desktop 2013, ma dice piledriver 32 nm derivati da fine 2012, ma se cosi fosse e ci ritrovassimo a fine 2013 ad avere ancora una cpu a 32 nm contro la praticamente certa ultima cpu a 22 nm intel del 2013 dopo ivy(haswell) e al 99% arriverà a 14 nm :eek: nel 2014, non sarebbe troppo indietro tecnologicamente parlando?
Il discorso Intel/AMD dipende molto dalle circostanze del mercato.
In poche parole, cambiare miniaturizzazione delle FAB e la relativa architettura, costa dei soldi, ed i prezzi dei proci, all'uscita, sono calcolati in base ad un X volume di vendite proprio perché si devono ammortizzare tali spese. Una volta ammortizzate tali spese, il prezzo di vendita potrebbe basarsi unicamente sull'effettivo costo, quindi praticamente crollare.
Finché Intel sul 32nm mantiene la sua superiorità rispetto ad AMD, ogni procio a 32nm venduto è grasso che cola, ed è probabilmente per questo che Intel ha rinviato il 22nm.
Ad esempio, il progetto SB-e ha avuto un costo e quindi necessiterebbe di un X quantitativo di SB-e 32nm venduti. SE BD fosse stato più potente di un SB-e, Intel se ne sarebbe fregata altamente di non arrivare al budget prefissato, ma avrebbe già commercializzato un IVY-B 22nm X6 (FORSE) già sul finire dello scorso anno, 2011. Invece Intel ha comunicato che il 22nm sul socket 2011 lo si vedrà dopo la metà 2013, semplicemente perché così venderebbe SB-e per più tempo e con maggiori utili.
Siamo nel commercio, e chiunque opera per massimizzare i guadagni... nessuno stopperebbe la produzione su un silicio/architettura che garantirebbe ben più utili per passare al successivo... l'importante è guadagnare, se averlo più lungo significa guadagnare di più, ha molta più importanza che aggiungerci MOLTO più lungo.

secondo me sicuramente dovrà utilizzare almeno i 28 se non meno... per non restare troppo indietro cm tecnologia e di conseguenza cm feature annesse ad esso...
Guarda... il problema secondo me odierno di AMD non è quello di essere indietro ad Intel nell'offerta potenza massima, quanto invece l'enorme problema di non aver la potenza sufficiente per sopravvanzare il socket 1155 e quindi l'impossibilità di applicare un prezzo superiore ai 2600K, ben diverso rispetto all'epoca dei Phenom II, quando l'i980X rappresentava comunque la superiorità Intel sia per miniaturizzazione silicio che per potenza espressa, ma un Thuban aveva comunque il suo spazio.
Finché Intel avrà 2 piattaforme distinte con relativi prezzi, commercialmente, per AMD è indispensabile almeno posizionarsi a cavallo tra le 2 più che ipotizzare una concorrenza sulla fascia alta... cosa del resto possibile solamente tramite un miracolo, visto l'enorme differenza di investimenti tra le 2 società.

...altro quesito: cm decidono i "nodi" da utilizzare in casa amd? cioe i vari tagli (28/22/20/14...ecc) grazie...
Questo non lo so...:D

shellx
22-03-2012, 23:09
gia ma allora xke non indicarlo subito?... magari han fatto apposta a non menzionarlo per farci rimanere col dubbio ancora per un anno circa (inizio 2013), ma siccome hanno detto ke si concentreranno piu sul settore apu ke sola cpu non dovrebbero esserci molte sorprese sul fatto ke sia al max a 28 nm e non con un ulteriore ridimensionamento... certo ke 28nm vs 14nm è un bel salto o sbaglio? in termini di tdp e oc, si traduce in un 40/50% circa?

http://www.hwupgrade.it/forum/showpost.php?p=37150235&postcount=7469

http://www.hwupgrade.it/forum/showpost.php?p=37150486&postcount=7470

però fa strano pensare ke intel freni la sua corsa sl xke la controparte non ha i mezzi x starle dietro, questo è uno schiaffo all'etica professionale e allo sviluppo in genere secondo me...

I motivi per il quale il segmento Extreme e Premium Performance P2 con il socket 2011 rimanga in stallo per piu tempo, sono piu di uno.
Uno di questi fondamentale è che c'è poca necessità (non solo per mancanza di concorrenza sul quel segmento, ma anche perchè come ha detto Paolo gli investimenti su quel socket sono piu alti, e per uso workstation e piattaforme estreme puo bastare e avanzare anche per quelche mese in piu.
E comunque dovèè il problema ?
Ti pare che il socket 1366 sia durato poco ?

...sul fatto di stare a cavallo tra il socket 1155 e 2011 la vedo dura anche cn piledriver e oltre e non dimentichiamoci del 1150 tra un anno...

Paolo è dettagliato in tante cose ma certe volte è superfluo su altre.
Per stare a cavallo sul socket vuole intedere:
fra il top del socket 1155 (del segmento Premium Performance P1) e i modelli di cpu socket 2011 (del segmento Premium Performance P2).

E no il segmento Extreme ! (a questo amd non ci arriva manco se Intel gli regala fabbriche, denaro e ingegneri).

°Phenom°
22-03-2012, 23:11
Beh, dato che AMD ci tiene molto a quest'architettura, si può intuire che possa essere molto longeva riguardo i miglioramenti, però deve darsi una mossa in quanto è MOLTO indietro..
Per quanto riguarda la gente che compra Intel, non ha torto, ad esempio io, ho SEMPRE acquistato cpu AMD, dato che in ambito gaming come prezzo-prestazioni, AMD era imbattibile, ma poi si arriva al punto di dare anche troppa fiducia, sperando sempre che future cpu saranno finalmente decenti anche nel resto degli usi, ma quando ti trovi soluzioni in single thread penose come bulldozer, che addirittura vanno peggio di soluzioni di 4 anni fa, e decentemente con 8 core in multi, a quel punto ti chiedi, ma ha senso continuare con AMD? La risposta, almeno per me, è no, dato che indirettamente ti senti come preso per il c...
Io come ho già detto attenderò Vishera, sempre sperando che AMD faccia un piccolo miracolo, in caso contrario, anche se con dispiacere, cambierò giro.

capitan_crasy
23-03-2012, 00:04
Grazie Capitano!
Da quello che dici direi che allora GF è più indietro di quanto pensassi nello sviluppo del SOI rispetto ad altri player del consorzio (vedi ST che ha già illustrato nei suoi paper la volontà di utilizzare i nodi 28nm e 22nm FDSOI). Peccato! E speriamo che almeno con il bulk siano più competitivi da subito altrimenti la vedo dura per AMD contro intel e il suo 22nm bulk 3D HMGK


Parti da un presupposto sbagliato...
IBM indicava i 32nm e i 22nm per la tecnologia SOI, mentre per il bulk erano previsti i 28nm e i 20nm...
Non ci sono passaggi intermedi come un 28nm o 20nm SOI, inoltre di posso garantire che FD-SOI è in fase embrionale e fisicamente non ci sono i mezzi 8soprattutto finanziari) per poterlo sviluppare sui processi produttivi come i 28/20nm, almeno per la produzione di elementi complessi come una CPU/APU AMD.
IBM ha tirato i remi in barca sul SOI dopo i 32nm affidandosi ad un consorzio per poter continuare lo sviluppo, ma per FD-SOI ne passerà di tempo prima di vedere questa tecnologia su APU/CPU AMD...

shellx
23-03-2012, 01:16
Io come ho già detto attenderò Vishera, sempre sperando che AMD faccia un piccolo miracolo, in caso contrario, anche se con dispiacere, cambierò giro.

Con quel nick, quell'avatar e quella firma...sarebbe un peccato :D

ps: comunque non credo abbia bisogno di un miracolo, anche perchè i miracoli non esistono ;)

sarebbe ideale se ci fosse una vera e propria concorrenza il ke gioverebbe a tutti, e non una "finta" cm negli ultimi anni dove intel guarda le mosse di amd e decide di conseguenza avendo gia nel cassetto le "mutande nuove"

E' la dura legge della jungla ;)

ot. pur essendo giovane agli inizi degli anni 90 quando mio padre era patito ho avuto sempre intel da win95 in poi passando dal 133 al P4 3.2ghz... a 18 anni nel momento in cui mi sn trovato a comprare il pc coi mie soldini(lavorando) ho detto ciao intel ed ho optato per l'Athlon 64 X2 6000+, am2 e aime ancora nvidia, vizi di gioventù chiuso ot
ot
Io provengo da un bel po di generazioni prima...;) dagli apple 1989, e i primi intel 8086 a 8mhz con ms-dos 5 e 6.22 (quando MS era meno M$), fino ad oggi ne ho passate tantissime fra intel e amd (perdo il conto).
Ma dal socket A e K7 (2002/2003) ho quasi sempre avuto tutte cpu amd.
fine ot (continua in pm se devi quotare nuovamente questo ot).

ps: hai la firma irregolare (anche se bella colorata) ;)

yallkok
23-03-2012, 09:15
http://www.businessmagazine.it/news/globalfoundries-taglia-il-traguardo-dei-250-mila-wafer-a-32nm_41350.html

paolo.oliva2
23-03-2012, 09:19
La concorrenza è l'angelo del nostro portafoglio e della nostra scimmia.
Senza concorrenza i prezzi non cambiano e lo sviluppo rallenta.

Per la scelta d'acquisto... praticamente basta fare un parallelismo alle vetture. Le indiane, coreane e simili, si comprano perché ad un prezzo molto basso offrono prestazioni motoristiche soddisfacenti unite ad un numero nutrito di accessori e se anche la qualità non è eccelsa, il valore è alto riferito al costo. Ed è per questo che la gente le compra, come del resto nessuno le comprerebbe se costassero uguale ad una giapponese (caso 8150 vs 2600K :D ).

AMD non può pensare di essere competitiva sul mercato producendo un procio grande oltre i 300mm2, e lottare per competere con un altro che è quasi la metà, tra l'altro pure con il problema delle rese inferiori.

Ancora peggio contro il 22nm Intel, perchè una volta a regime, se AMD fosse ancora sull'8150, allo stesso costo produzione Intel si troverebbe 3 IVY APU X4, AMD costretta a tenere il prezzo all'osso, Intel utili da capogiro. Per questo giudico vitale per AMD di riuscire a proporre un procio che superi per prestazioni il socket 1055, anche perché nel conto comunque entrerebbe la differenza costo mobo 1055/2011, mentre per AMD rimarrebbe invariata.

OPP
23-03-2012, 09:28
in questa nuova recensione di bd si vede benissimo la questione logo illuminato dal colore personalizzabile sul kit a liquido amd :)

http://www.hwlegend.com/recensioni/articoli/processori/1670-amd-fx-8150-eight-core-.html?start=7

ci sono anche prove molto interessanti sulla scalabilità e con win8 :)

paolo.oliva2
23-03-2012, 09:34
http://www.businessmagazine.it/news/globalfoundries-taglia-il-traguardo-dei-250-mila-wafer-a-32nm_41350.html

"AMD e Globalfoundries hanno lavorato a stretto contatto durante il 2011 e l'annuncio di oggi testimonia il progresso fatto insieme" ha dichiarato il CEO di AMD Rory Read. "In appena un trimestre siamo stati capaci di vedere rese più che raddoppiate sui 32nm, permettendoci di terminare il 2011 eccedendo i nostri requisiti di consegne per prodotti a 32 nanometri. Sulla base di ciò siamo impegnati a proseguire con Globalfoundries anche con i 28 nanometri".

Le rese più che raddoppiate? :eek: azzo...

In quell'articolo c'è un richiamo ad una diceria poi smentita da AMD, circa l'intervento di IBM sul silicio 32nm di BD.

http://www.businessmagazine.it/news/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html

GF ed IBM stanno lavorando assieme sul 32nm SOI di IBM (e quindi potrebbe anche nulla a che vedere con l'HKMG UL-K)... però GF da novembre 2010 fino a ottobre 2011 non ha tirato fuori un ragno da un buco sul silicio, addirittura AMD che dichiara di passare al bulk, scappa fuori IBM con GF, si riparla del 28nm SOI, rese più che raddoppiate, AMD pienamente soddisfatta di GF... bah...

niubbo69
23-03-2012, 10:29
...
ci sono anche prove molto interessanti sulla scalabilità e con win8 :)

Sarè interessante scoprire se i miglioramenti rilevati con Win8 saranno estesi anche alla controparte Intel... comunque per quanto riguarda BD effettivamente Win8 pare comportarsi meglio che Win7.

capitan_crasy
23-03-2012, 10:31
"AMD e Globalfoundries hanno lavorato a stretto contatto durante il 2011 e l'annuncio di oggi testimonia il progresso fatto insieme" ha dichiarato il CEO di AMD Rory Read. "In appena un trimestre siamo stati capaci di vedere rese più che raddoppiate sui 32nm, permettendoci di terminare il 2011 eccedendo i nostri requisiti di consegne per prodotti a 32 nanometri. Sulla base di ciò siamo impegnati a proseguire con Globalfoundries anche con i 28 nanometri".

Le rese più che raddoppiate? :eek: azzo...

In quell'articolo c'è un richiamo ad una diceria poi smentita da AMD, circa l'intervento di IBM sul silicio 32nm di BD.

http://www.businessmagazine.it/news/globalfoundries-e-ibm-avviano-la-produzione-congiunta-presso-la-fab-8_40211.html

GF ed IBM stanno lavorando assieme sul 32nm SOI di IBM (e quindi potrebbe anche nulla a che vedere con l'HKMG UL-K)... però GF da novembre 2010 fino a ottobre 2011 non ha tirato fuori un ragno da un buco sul silicio, addirittura AMD che dichiara di passare al bulk, scappa fuori IBM con GF, si riparla del 28nm SOI, rese più che raddoppiate, AMD pienamente soddisfatta di GF... bah...

Hai sbagliato articolo...
La smentita riguardava la produzione da parte di IBM delle APU Trinity, GF e IBM è una vita che collaborano per lo sviluppo del SOI.
AMD ha sceto il Bulk primo perchè dopo i 65nm e questi primi 32nm non vuole più sorprese, il secondo motivo è che IBM ha cancellato i 22nm SOI, quindi per forza di cose doveva passare ai 28nm...

OPP
23-03-2012, 10:33
Sarè interessante scoprire se i miglioramenti rilevati con Win8 saranno estesi anche alla controparte Intel... comunque per quanto riguarda BD effettivamente Win8 pare comportarsi meglio che Win7.

io avevo provato con il 920 in ufficio e nei pochi programmi di benchmark provati guadagnava più dell'8150, in %

blindwrite
23-03-2012, 11:14
Parti da un presupposto sbagliato...
IBM indicava i 32nm e i 22nm per la tecnologia SOI, mentre per il bulk erano previsti i 28nm e i 20nm...
Non ci sono passaggi intermedi come un 28nm o 20nm SOI, inoltre di posso garantire che FD-SOI è in fase embrionale e fisicamente non ci sono i mezzi 8soprattutto finanziari) per poterlo sviluppare sui processi produttivi come i 28/20nm, almeno per la produzione di elementi complessi come una CPU/APU AMD.
IBM ha tirato i remi in barca sul SOI dopo i 32nm affidandosi ad un consorzio per poter continuare lo sviluppo, ma per FD-SOI ne passerà di tempo prima di vedere questa tecnologia su APU/CPU AMD...

Global founderies la tecnologia 28FDSOI la compra de ST, ST ha bisogno di venderla perche' ha bisogno di una second source per i suoi prodotti.. quindi win win.

il 28FDSOI e' 28bulk migrato... si modifica di poco il fornt-end (flip well e capacita' in accumulazione soppresse) e si mantiene tutto il back end.

Esiste una procedura di migrazione design da bulk a fdsoi.

bjt2
23-03-2012, 11:52
Global founderies la tecnologia 28FDSOI la compra de ST, ST ha bisogno di venderla perche' ha bisogno di una second source per i suoi prodotti.. quindi win win.

il 28FDSOI e' 28bulk migrato... si modifica di poco il fornt-end (flip well e capacita' in accumulazione soppresse) e si mantiene tutto il back end.

Esiste una procedura di migrazione design da bulk a fdsoi.

Quindi secondo te quando si vedranno i primi prodotti con 28nm FDSOI? Saranno solo di altri clienti o anche AMD potrebbe usarlo? Se si, per cosa? GPU, APU? CPU? O tutte e tre? Possibile che la news linkata sopra fraintenda ed è il 28nm FDSOI quello su cui stanno lavorando?

aldooo
23-03-2012, 12:08
Non tutti sono riusciti a digerire l'abbandono del SOI,
e ci si aggrappa a ogni possibile appiglio
per tenere viva la speranza.

Ma è davvero così importante?
Io penso che si possono realizzare ottimi processori anche con tecnologia bulk...

paolo.oliva2
23-03-2012, 12:23
Hai sbagliato articolo...
La smentita riguardava la produzione da parte di IBM delle APU Trinity, GF e IBM è una vita che collaborano per lo sviluppo del SOI.

:D Vero... :doh: si vede che ho preso troppo sole!.

AMD ha scelto il Bulk primo perchè dopo i 65nm e questi primi 32nm non vuole più sorprese, il secondo motivo è che IBM ha cancellato i 22nm SOI, quindi per forza di cose doveva passare ai 28nm...
Questo punto non mi è chiaro. IBM so che ha detto no al 22nm SOI e si al 28nm SOI. Però AMD mi sembra avesse detto che dopo il 32nm SOI passava al 28nm ma bulk. :cry: , presumo per il motivo sorpresa 65nm e 32nm..., ma se adesso torna indietro e opta per il 28nm SOI anziché bulk, reputerei difficile che sia sulla fiducia della sola GF (visto il 32nm).
Cioè... fino a 3 mesi fa AMD pagava in base alla resa quantità proci/wafer, numero di moduli a procio e penso pure alle frequenze operative... ora sono tutti baci ed abbracci con GF? Se il PP 32nm non avesse concesso i 3,6GHz def ad un 8150 ma bensì max i 3,2GHz... AMD dove sarebbe ora? Secondo me per "rischiare" ancora, o ha testato già il silicio, o qualcuno si è aggiunto oltre a GF come garanzia... ed è qui che penso ad IBM.

aldooo
23-03-2012, 12:27
Credo che il rinnovamento dell'accordo con GF
sia la prova che le mediocri prestazioni di BD non siano dovute al silicio...

capitan_crasy
23-03-2012, 12:43
:D Vero... :doh: si vede che ho preso troppo sole!.

Questo punto non mi è chiaro. IBM so che ha detto no al 22nm SOI e si al 28nm SOI.
Però AMD mi sembra avesse detto che dopo il 32nm SOI passava al 28nm ma bulk. :cry: , presumo per il motivo sorpresa 65nm e 32nm..., ma se adesso torna indietro e opta per il 28nm SOI anziché bulk, reputerei difficile che sia sulla fiducia della sola GF (visto il 32nm).

Scusa paolo ma ti stai ancora confondendo...
IBM non ha MAI programmato i 28nm SOI, la sua roadmap prevedeva i 32nm e 22nm...
Anche se c'erano delle voci su un possibile avanzamento fuori roadmap IBM, gli addetti ai lavori escludevano a priori un 28nm SOI di origine IBM o GF e così è stato.
Le future APU/CPU AMD a 28nm saranno con tecnologia bulk costruita e progettata da GF (non si esclude che gli eredi di brazos a 28nm siano affidati a TMSC)...

Cioè... fino a 3 mesi fa AMD pagava in base alla resa quantità proci/wafer, numero di moduli a procio e penso pure alle frequenze operative... ora sono tutti baci ed abbracci con GF? Se il PP 32nm non avesse concesso i 3,6GHz def ad un 8150 ma bensì max i 3,2GHz... AMD dove sarebbe ora? Secondo me per "rischiare" ancora, o ha testato già il silicio, o qualcuno si è aggiunto oltre a GF come garanzia... ed è qui che penso ad IBM.

La prima edizione dei 32nm SOI è stata ben al di sotto delle aspettative pronosticate da IBM e GF.
Piledriver viene prodotta da una seconda generazione del silicio con alcune nuove tecnologie, dove dovrebbero abbassare il rapporto frequenza/consumo.

paolo.oliva2
23-03-2012, 12:50
Non tutti sono riusciti a digerire l'abbandono del SOI,
e ci si aggrappa a ogni possibile appiglio
per tenere viva la speranza.

Ma è davvero così importante?
Io penso che si possono realizzare ottimi processori anche con tecnologia bulk...

Il discorso è diverso, come ti hanno già spiegato, il SOI offre più potenzialità del Bulk anche se più costoso da produrre.
Il discorso architettura è come un motore nelle macchine di F1, ed il silicio è telaio. I motori hanno suppergiù la stessa potenza, ma se il telaio è fatto bene (silicio), offre meno resistenza all'aria, quindi più frequenza a parità di TDP, meno consumo a parità di prestazioni, ecc.
Quindi motore + telaio in F1 è simile all'architettura + silicio nel procio.
Le differenze in F1 sono tutte nel telaio, chi lo fa meglio, vince.
Il silicio con un buon PP ti sfrutta l'architettura al massimo, più carente è il PP, più risulta zoppa l'architettura, del resto basta considerare che i reali incrementi di potenza li ha concessi il silicio con la miniaturizzazione, hai voglia creare un'architettura super e poi produrla sul silicio di un 8088...

aldooo
23-03-2012, 12:53
Il discorso è diverso, come ti hanno già spiegato, il SOI offre più potenzialità del Bulk anche se più costoso da produrre.

Come puoi notare, tutti spiegano e nessuno quantifica.
Il SOI offre più possibilità dei Bulk... ok..
QUANTO, tradotto in prestazioni CPU?

paolo.oliva2
23-03-2012, 12:58
siccome sono ignorante :D sulla definizione di SOI o Bulk e derivati... potreste cortesemente indicarmi dei link anche magari postati qui sul forum pagine addietro, dove capire le differenze con i pregi e i difetti di queste tecniche? grazie... dopo breve ricerche non ho trovato molto e ho capito ancora meno... :stordita:

I link non li so, ma il SOI ha un sub-strato aggiuntivo rispetto al bulk, che riduce il leakage. Il leakage è la corrente persa ed è proporzionale sia al numero dei transistor che all'aumentare della frequenza operativa.
Questo è uno dei motivi per cui il bulk è di norma associato all'HKMG e ULK (entrambi riducono la tensione e quindi diminuiscono le "perdite"), mentre il SOI riesce a tenere botta anche liscio seppur con tensioni alte, ed è per questo che AMD è riuscita a proporre proci con un numero di core più elevato, tipo X6 45nm ma bulk X6 a 32nm, X8 32nm ma bulk a 22nm.
Oltre a questo, il SOI permette di passare alla miniaturizzazione inferiore senza dover cambiare tutti i macchinari, al contrario del bulk.

blindwrite
23-03-2012, 13:15
Quindi secondo te quando si vedranno i primi prodotti con 28nm FDSOI? Saranno solo di altri clienti o anche AMD potrebbe usarlo? Se si, per cosa? GPU, APU? CPU? O tutte e tre? Possibile che la news linkata sopra fraintenda ed è il 28nm FDSOI quello su cui stanno lavorando?

C'e' un tapeout a giugno e ci comincio a lavorare tra qualche settimana. Su quel MPW parte anche un A9+SGX544. Poi c'e' il tempo di attendere di avere del rendimento e di terminare il transfer a GF..

Direi prodotti in massa nel 2013

blindwrite
23-03-2012, 13:18
Come puoi notare, tutti spiegano e nessuno quantifica.
Il SOI offre più possibilità dei Bulk... ok..
QUANTO, tradotto in prestazioni CPU?

Su dei transistor low power con forte backbias applicato anche 100% in piu' per l'FDSOI rispetto al bulk

aldooo
23-03-2012, 13:22
Su dei transistor low power con forte backbias applicato anche 100% in piu' per l'FDSOI rispetto al bulk

100% in termini CPU?
Cioe' con un silicio migliore BD andrebbe due volte piu' veloce?

paolo.oliva2
23-03-2012, 13:28
Come puoi notare, tutti spiegano e nessuno quantifica.
Il SOI offre più possibilità dei Bulk... ok..
QUANTO, tradotto in prestazioni CPU?

Non sono un ingegnere :D , ma ad intuito non è così semplice e scontato, perché il silicio viene potenziato in base all'architettura e/o comunque l'architettura viene progettata in base al silicio.

Ad esempio, per le caratteristiche dell'architettura BD, il leakage è importantissimo semplicemente perché crea problemi esponenziali sia all'aumentare dei transistor (X8-X10 e tutta la logica CMT a puttane quindi) che all'aumentare della frequenza (BD ha un IPC basso e la potenza la si ottiene sulla frequenza). Realizzare BD sul Bulk è come spararsi sulle....
Intel è sul bulk, però le caratteristiche architetturali sono idonee al bulk... numero basso di core, IPC pompato per ottenere potenza ad una frequenza inferiore, insomma, Intel ha sempre usato il bulk e a fatto l'architettura in base al bulk.
Se ipotizzassimo un immaginario cambio silicio tra un 2600K ed un 8150, secondo me il 2600K al più aumenterà di 10W il TDP, ma l'8150 sul 32nm bulk Intel forse manco arriverebbe a 3GHz def e tanti saluti ai 2 stadi turbo.

Ora come ora l'accoppiata architettura Intel + Bulk è la migliore semplicemente perché silicio e architettura riescono a sfruttarsi reciprocamente molto meglio che l'accoppiata BD + SOI.

Per farti un esempio, il 45nm SOI low-k aveva lo stesso rapporto consumo/prestazioni del 45nm Bulk HKMG Intel (Thuban vs i7 8XX).
Oggi che abbiamo? Che un 32nm SOI, con l'aggiunta dell'HKMG, con 30W in più non pareggia le prestazioni di un 2600K... C'è qualche cosa che non va nel silicio? Mi sembra evidente...

blindwrite
23-03-2012, 13:31
100% in termini CPU?
Cioe' con un silicio migliore BD andrebbe due volte piu' veloce?

Non e' quello che ho scritto

blindwrite
23-03-2012, 13:33
... cut Mi sembra evidente...

No, discorso assolutamente campato in aria

aldooo
23-03-2012, 13:42
Non e' quello che ho scritto

Ah, allora non hai risposto a quello che ho domandato.

blindwrite
23-03-2012, 13:48
Io ho quantificato il quantificabile

La tua domanda non puo' avere risposta. Esistono modelli fisici per transistor non modelli fisici per CPU...

posso simulare quanto guadagno su un transistor di un certo tipo non quanti punti farebbe al 3Dmark un processore con una certa opzione di processo.

aldooo
23-03-2012, 13:50
La tua domanda non puo' avere risposta.


CVD

dav1deser
23-03-2012, 14:29
Da quello che avevo letto io, in termini di prestazioni/consumi il passaggio da bulk a SOI è paragonabile ad un miglioramento nella miniaturizzazione (però da prove fatte su CPU ARM, non è detto che sugli x86 la differenza sia così marcata) quindi un 45nm SOI e un 32nm bulk, a parità di transistor, dovrebbero andare circa uguale. Inoltre il SOI dovrebbe permettere una riduzione del 10% nell'area del die a parità di miniaturizzazione.

capitan_crasy
23-03-2012, 15:31
C'e' un tapeout a giugno e ci comincio a lavorare tra qualche settimana. Su quel MPW parte anche un A9+SGX544. Poi c'e' il tempo di attendere di avere del rendimento e di terminare il transfer a GF..

Direi prodotti in massa nel 2013

Dubito che ci saranno prodotti AMD con i 28nm FD-SOI o comunque in linea generale...

blindwrite
23-03-2012, 16:14
Io non ne ho la minima idea

paolo.oliva2
23-03-2012, 19:30
No, discorso assolutamente campato in aria
Per il discorso che l'architettura non è la stessa?
Va beh... io parto dal presupposto (o meglio preconcetto) che l'architettura successiva risulti più ottimizzata rispetto alla precedente... o che almeno abbia i margini di miglioramento... perché nessuno penso darebbe il via alla produzione commerciale ad un progetto più scarso del precedente... e qui abbiamo comunque che un Thuban ha lo stesso rapporto consumo/prestazioni di un 8150, con la differenza che il Thuban è 45nm low-k, l'8150 è 32nm HKMG e ULK.
Ipotizzando un teorico 30-40% di miglioramento tra miniaturizzazione silicio e HKMG, l'aggiunta di Vcore selettivi a modulo contro un Vcore uguale per i tutti i core del Thuban, il fatto che BD possa spegnere i moduli non attivi contro un Thuban che li doveva alimentare comunque anche se in idle, la condivisione di parti dei core che il Thuban non aveva (diminuzione transistor)... se tutto ciò si traducesse in colpe dell'architettura e non del silicio, vorrebbe dire che BD avrebbe una efficienza almeno del 50% inferiore rispetto al Phenom II...

Grizlod®
23-03-2012, 22:54
siccome sono ignorante :D sulla definizione di SOI o Bulk e derivati... potreste cortesemente indicarmi dei link anche magari postati qui sul forum pagine addietro, dove capire le differenze con i pregi e i difetti di queste tecniche? grazie... dopo breve ricerche non ho trovato molto e ho capito ancora meno... :stordita:Ho trovato questa pagina di file pdf da scaricare...si potrebbe cominciare con GLOSSARY...

http://www.pdfgeni.com/book/high-k-metal-gate-pdf.html

zosma84
24-03-2012, 01:57
salve ragazzi
sto cercando informazioni ma tra vecchie e nuove news ho capito poco, come sarà la roadmap per le cpu socket am3+? il top di gamma rimarrà l'8150 e ancora previsto l'8170 e uno step B3 o si passerà a piledriver direttamente?

Grizlod®
24-03-2012, 12:11
gracias :) mi tocca leggerlo in inglese naturalmente :read:Ti passo un link ad un sito, che ai tempi, era considerato la "bibbia" in ITA dell' informatica...se c'è qualcosa, puoi trovarla... http://www.lithium.it/articoli.asp

ke pecca non saperlo cm si deve :(Già...la penso allo stesso modo...

Vinsss
24-03-2012, 13:01
Già...la penso allo stesso modo...

siamo in tre!!:D

aldooo
24-03-2012, 13:06
siamo in tre!!:D

Quattro!
In realtà io lo leggo molto bene, ma sono impedito nel listening.

Grizlod®
24-03-2012, 13:16
Ragazzi! Su...un po di forza d'animo; io ormai ho (quasi:D ) fatto il mio tempo, ma voi avete modo di poterlo studiare per bene...
Un po di brio e volontà nella vita e ci si riesce ;)

Ricordate il famoso motto...: Volere è Potere

Grizlod®
24-03-2012, 19:18
in questa nuova recensione di bd si vede benissimo la questione logo illuminato dal colore personalizzabile sul kit a liquido amd :)

Lo fa Asetek: http://www.asetek.com/available-in.html ...anche per altri marchi.

OPP
24-03-2012, 19:28
Lo fa Asetek: http://www.asetek.com/available-in.html ...anche per altri marchi.

si avevo letto che era prodotto da asetek, quasi quasi provo a mandare una mail ad asetek per vedere se è acquistabile direttamente da loro :)

paolo.oliva2
24-03-2012, 20:57
8 ore di lavoro al gg, 2 ore di palestra 3 gg a settimana più 2 ore ogni 2 gg di calcio e la partita la domenica, sto cn la ragazza la sera dopo cena 5 gg su 7, piccola passione per l'hardware e prevalentemente i giochi viedoludici... per fortuna ke il sabato nn lavoro... a volte non ho nemmeno tempo per :ciapet: ahah... cmq a leggerlo nn ho molti problemi, e tutto il resto vedi listening, speaking & writing o come si scrivono appunto :) leggerlo ancora ancora ce la si fa... cmq grazie anche per l'ultimo link...

:eek: Io quello che fai in 1 giorno non lo faccio in 1 anno (esclusa la parte bernarda ;) ), eppure non trovo la voglia di leggermi quei link. Mi sa che soffro di pigrizia acuta...

george_p
25-03-2012, 16:24
Siamo vicini a un qualche evento pubblico dove Amd possa presentare un pò di novità e anticipazioni?

capitan_crasy
25-03-2012, 19:09
Siamo vicini a un qualche evento pubblico dove Amd possa presentare un pò di novità e anticipazioni?

Il prossimo è il Computex 2012 che si terrà il 5 giugno; se poi in mezzo ci sarà qualcosa vedremo...

Grizlod®
25-03-2012, 20:11
Vi rompo ancora le scatole per una "cosa", che ritengo degna di nota; ho corretto una stringa in 'Environment':
"SupportToDualMemoryControllersEnable"="TRUE"

Ora dovrebbe (uso il condizionale, sempre per il motivo che non tutti i PC sono uguali:fagiano: ), verificarsi un sensibile aumento della larghezza di banda,da quanto ho potuto constatare dai bench che ho provato sull'argomento.

Parecchie applicazioni dovrebbero giovarne, in particolare i videogames, da quanto ho potuto constatare. Naturalmente il maggior boost, lo si ottiene overclockando di membus (FSB) e/o northbridge (Ma anche a default lo si nota). In pratica ora gli arrivano molti più dati:cool: ...poi dipende dalla CPU, processarli:D


Per coloro che avessero già installato il tweak precedente, possono modificare a mano, come evidenziato sopra, una stringa simile già presente, ottenendo lo stesso risultato.

E' cmq possibile scaricare l'ultima release,riveduta e corretta, con l'aggiunta di altre piccole "cosucce" ( diciamo così) di contorno, cliccando sul link in firma.

Ho aggiornato pure il tweak per Phenom, per quanto Windows (non) sappia sfruttare al meglio il 'Dual Channel'...:incazzed:

zosma84
25-03-2012, 22:19
salve ragazzi :)
sto cercando informazioni ma tra vecchie e nuove news ho capito poco, come sarà la roadmap per le cpu socket am3+? il top di gamma rimarrà l'8150 e ancora previsto l'8170 e uno step B3 o si passerà a piledriver direttamente?

shellx
26-03-2012, 00:49
TOD è quasi finito. Entro domani sera massimo dopodomani vi posto il link.
Ecco intanto un altro screen: http://i43.tinypic.com/14cd1fm.jpg

Intanto mi serve una cavia (possedente cpu AMD FX) per alcune verifiche.
Randa vieni fuori che fine hai fatto ? :D
Il FIRETEST è attualmente disabilitato per ovvi motivi. :Perfido:

Phenomenale
26-03-2012, 08:01
TOD è quasi finito... Il FIRETEST è attualmente disabilitato per ovvi motivi
Ottimo! Anzi stavo pensando, visto che deriva dal GoCall ed il pezzo forte è il FireTest, perchè non gli metti GoFire come soprannome nella schermata? :sborone:

george_p
26-03-2012, 08:38
Grazie Cap!
Manca poco :)

shellx
26-03-2012, 15:03
Ottimo! Anzi stavo pensando, visto che deriva dal GoCall ed il pezzo forte è il FireTest, perchè non gli metti GoFire come soprannome nella schermata? :sborone:

Il concetto di calcolo deriva da GoCall, no il codice.
L'utility dovendola farla anche per windows non potevo derivarne il codice da GoCall per motivi particolari. Per cui ho dovuto optare ad una realizzazione indipendente per windows basata su un altra piattaforma di sviluppo DB.
Quell'utility altro non è che un simulatore di operazioni piu comuni che avvengono all'interno di un database, ovviamente tali operazioni sono basate su esecuzioni di script complessi, dove alcuni di essi addirittura vengono replicati in maniera piu marcata rispetto l'uso tradizionale che si fa in una soluzione basata su database.

GoCall sia dal punto di vista grafico che quello che ti offre in termini di operazioni e funzioni non ha niente a che vedere con questo programma. Questa è solo una utility di test e bench basata su questo tipo di operazioni dove le singole operazioni basi sono durante il loro processo eseguite con criteri e priorita piu aggressive rispetto una normale esecuzione. Proprio per stressare le cpu con questa tipologia di elaborazioni.

Per quanto riguarda il nome stavo veramente pensando di chiamarlo SOD al posto di TOD: simulatore di operazioni database.

Ma per adesso sto lavorando sul fire test e sul login test perchè devo renderlo piu efficiente possibile con tutte le architetture.

Sicuramente (no in questa versione perchè ho premura intanto di darvelo) ma in una prossima 2.0, implementerò delle funzioni tramite un menu, di ottimizzazione registro os per windows, per le determinate architetture e core's. Mentre per linux ottimizzi anche il kernel e lo autosalva nel sistema in base alle esigenze architetturali della cpu.
E poi anche un programmino in batch che si esegue da TOD e poi apre la shell o cmd avviando delle procedure piu sofisticate di ottimizzazione.

Per ora questo.
Poi si mi gira è probabile che gli implemento anche la capacità di overcloccare e overvoltare cpu ram e gpu tramite esso.

PS: Il firetest non credere che sarà il pezzo piu forte ;) Non sottovalutare gli altri. Ti dico solo che il il test di record loop mi fa schizzare al 100% tutti e 8 core del mio 8120 e me lo manda in crisi dopo meno di 10 secondi.

phicrand_6358
27-03-2012, 09:37
Ho aggiornato pure il tweak per Phenom, per quanto Windows (non) sappia sfruttare al meglio il 'Dual Channel'...:incazzed:

dove sta??
sono interessato al tweak per Phenom X4.... :)

dav1deser
27-03-2012, 09:54
Quand'è che qualcuno pubblica qualche risultato di bench con la fix per gli FX di Grizlod®? Dai che son curioso...

OPP
27-03-2012, 10:43
Quand'è che qualcuno pubblica qualche risultato di bench con la fix per gli FX di Grizlod®? Dai che son curioso...

ho scaricato la versione aggiornata, uno di questi giorni provo:)

Grizlod®
27-03-2012, 12:09
dove sta??
sono interessato al tweak per Phenom X4.... :)nella signature dei miei posts...RegistryTweak Thuban

°Phenom°
27-03-2012, 12:10
Si ha qualche nuova notizia su Piledriver? :)

capitan_crasy
27-03-2012, 12:21
Si ha qualche nuova notizia su Piledriver? :)

Qualora ci saranno nuove news le posterò, ricordando che in prima pagina ce l'elenco dellle notizie postate da me...

Sayan V
27-03-2012, 15:39
Qualora ci saranno nuove news le posterò, ricordando che in prima pagina ce l'elenco dellle notizie postate da me...


Grazie :)

shellx
27-03-2012, 15:51
pensavo ad una cosa sul chipset 1090fx

ma a distanza di 6 mesi dall'uscita di piledriver, non è tardi ora per un eventuale revisione almeno per il 2012 della piattaforma "Vishera" (socket am3+) ma con il chipset 990fx revisionato in 1090fx o dallo stesso sb950 in sb1070?

cioè, l'hanno scorso le am3+ 990fx/sb950 sn uscite ad inizio maggio, per cui a distanza di 5 mesi prima di BD (che dovevano essere 4 se fosse uscito a settembre), ma cmq lo si sapeva da molto prima...
ora siamo ad aprile praticamente, e fa strano secondo me che non ci siano ancora nemmeno voci a parte quelle delle vecchie slide di novembre sulla presunta revisione dei chipset...
per cui mi fa pensare che almeno per il 2012 non verranno aggiornati :)

ps: magari fra un paio d'ore verrò smentito in modo schiacciante :rotfl: ahah..

Non vorrei sbagliarmi o illuderti, ma l'uscita delle mobo am3+ e 990fx nel 2011 li abbiamoviste sugli scaffali verso fine maggio e inizi giugno, ma le notizie ufficiali li abbiamo avute solo poco prima verso la fine di aprile (non prima), prima erano solo rumors (proprio come quelli di adesso). Inoltre devi considerare un'altra cosa, il 5 giugno c'è il computex 2012 (puo darsi che li presenteranno in quel periodo), se ci pensi non abbiamo la stessa situazione dell'anno scorso, dove c'è la forte necessita di tirare subito fuori le mobo compatibili per la nuova architettura. Queste 1090FX sono solo una rename del 990fx e l'unica revisione la si ha sul chipset sb950 al sb1060 (no 1070, questo dovrebbe essere l'altro modello northbridge inferiore al 1090fx, come gli attuali 990x e 970, che poi non capisco che motivo avra di esistere se gia il 1090FX è solo un rename del 990FX, ma credo a questo punto che è tutto marketing e semmai usciranno vedremo pure un 1090X, sempre giusto per marketing e features delle mobo).

Ergo essendo appunto revisione spicciola, non fa niente se anzichè uscire a maggio, escono invece a fine giugno (dopo il computex). E le notizie le inizieremo a sentire verso aprile/maggio.
Tieni anche conto che rename o revision o che esso sia, i player di mobo devono pur campare e al costo di farlo con il marketing, sicuramente per vishera ti tireranno fuori qualche revisione delle mobo attuali facendoti pensare tramite marketing che è indispensabile averle per il nuovo vishera. E poi magari per la tua mobo basta un aggiornamneto bios(visto che non cambia niente con quella nuova), e che magari non rilasciano per tutti i modelli 990fx proprio per obbligare all'acquisto della nuova mobo revision. Ormai ste cose le sappiamo bene come vanno.

Ma c'è anche la possibilita che non esca fuori nessun 1090fx e resta tutto comè...ma secondo me vedremo le nuove revision mobo molto presto. ;)

dav1deser
27-03-2012, 17:54
C'è da sperare che anche se il 1090FX avrà le stesse features del 990FX, almeno sia prodotto a 45 (o 32)nm invece dei 65nm del 990FX. Almeno così avrebbe un senso visto che consumerebbe meno.

shellx
27-03-2012, 18:23
il tuo discorso sul lato necessità di mobo am3+ non fa una piega,
ma più che altro mi fa strano se rimarrà cosi vedere la mancanza del supporto al pci-ex 3 quando invece proprio amd nel reparto vga ha la interfaccia pci-ex 3... ok, ora come ora è solo di facciata :mc: xke non abbiamo la saturazione della connessione, ecc., .... ma se lo faranno senza pci-ex 3 ne gioverà solo la longevità della mia mobo :Prrr:

Secondo le ipotesi del capitano il 1090fx sara un rename del 990fx e l'sb 1060 una revisione del 950 presumo per il supporto nativo del usb3 e qualcos'altro. Per questo motivo sostiene che il controller pci-e di terza generazione non ci sara sul northbridge 1090fx (appunto perchè è solo un rename).

A questo suo dire allora io ipotizzo che tale hub pci-e 3.0 (come nel socket 2011 di intel) verra integrato nelle cpu fx (senza gpu) dopo piledriver e vishera, con i 28nm, steamroller e nuovo socket con ipotetica infrastruttura FMx.


ma che senso avrebbe fare solo un rename 990fx>1090fx cn le stesse caratteristiche invece di un vero e proprio cambio chipset? se lo faranno uguale sarà solo marketing ok, ma commerciare un chipset e spacciarlo per nuovo quando ha le stesse caratteristiche del precedente soprattutto nel lato connessioni con la vga (pci-ex 3) mi sembra senza senso anche se solo marketing... :mc:
forse può servire per dare più luce a piledriver, col motto del "abbiamo revisionato il chipset per dare maggiori prestazioni al processore" (esempio)

Figurati ne ho viste di peggiori con il marketing informatico.

Grizlod®
27-03-2012, 19:10
ho scaricato la versione aggiornata, uno di questi giorni provo:)Raga...per coloro che non l'hanno ancora installata, consiglio di attendere qualche giorno...

Sto "lavorando" ad una versione + "pulita" ed ulteriormente affinata.

paolo.oliva2
27-03-2012, 19:47
Dal punto di vista NB sicuramente sarà solamente una sigla nuova.
Lato SB invece penso anche io che ci saranno novità I/O.
Ma c'è anche il fatto che è l'SB che "pilota" l'alimentazione del procio, ivi compreso tutti i P-State e stadi turbo.
Che Vishera si possa montare sull'AM3+ è scontato, ma non darei altrettanto scontato che SB950+AM3+ possa sfruttare in tutto un Vishera.
Ora non mi ricordo bene... ma ad esempio il socket AM3 non supporta pienamente i proci AM3+, anche perché i P-State sono aumentati e non più 4 o 5 del Phenom II.
Vishera ha il TurboCore 3.0 e ci sono voci circa l'introduzione di un ulteriore Turbo nella condizione 1 modulo sotto carico. Questo non necessiterebbe di un P-State ulteriore? L'SB950 è compatibile con questo previo un aggiornamento software?

C'è da sperare che anche se il 1090FX avrà le stesse features del 990FX, almeno sia prodotto a 45 (o 32)nm invece dei 65nm del 990FX. Almeno così avrebbe un senso visto che consumerebbe meno.
Se debba essere 32nm, speriamo non lo produca GF :D .
Comunque il consumo del Chipset è talmente ridicolo che farlo a 65nm o 32nm non penso che influisca un granché... chiaramente sempre meglio che consumi meno.

dav1deser
27-03-2012, 19:51
Se debba essere 32nm, speriamo non lo produca GF :D .
Comunque il consumo del Chipset è talmente ridicolo che farlo a 65nm o 32nm non penso che influisca un granché... chiaramente sempre meglio che consumi meno.

Anche il peggiore dei 32nm dovrebbe essere meglio dei 65nm, e da wiki, un 890FX (65nm come il 990FX) ha un TDP di circa 16W, non molti ma abbastanza di più di uno Z68 ad esempio, e se a livello CPU competere in efficienza è sempre più difficile, si può almeno migliorare un po' l'efficienza complessiva del sistema migliorando quella dei bridge.

OPP
27-03-2012, 20:01
Raga...per coloro che non l'hanno ancora installata, consiglio di attendere qualche giorno...

Sto "lavorando" ad una versione + "pulita" ed ulteriormente affinata.

ok daccordo:)

shellx
27-03-2012, 20:05
Dal punto di vista NB sicuramente sarà solamente una sigla nuova.
Lato SB invece penso anche io che ci saranno novità I/O.
Ma c'è anche il fatto che è l'SB che "pilota" l'alimentazione del procio, ivi compreso tutti i P-State e stadi turbo.
Che Vishera si possa montare sull'AM3+ è scontato, ma non darei altrettanto scontato che SB950+AM3+ possa sfruttare in tutto un Vishera.
Ora non mi ricordo bene... ma ad esempio il socket AM3 non supporta pienamente i proci AM3+, anche perché i P-State sono aumentati e non più 4 o 5 del Phenom II.

Esatto, l'sb 950 potrebbe limitare le cpu vishera ecco perchè dell'ipotetico revision. Sicuramente aggiornando il bios di alcuni modelli mobo si puo comunque farlo funzionare egregiamente (marketing escluso), perchè la condizione di alimentazione non dovrebbe essere molto diversa da zambesi, quindi no come thuban to zambesi.
Il motivo principale per il quale il socket am3 non supporta le cpu am3+ è per la peculiarità di alimentazione che il socket am3+ eroga in piu rispetto il precedente (vedi esempio dei buchini piu larghi). E i proci FX-BD vogliono pappare piu corrente e hanno avuto bisogno di un socket diverso anche se basato con la stessa infrastruttura.


Vishera ha il TurboCore 3.0 e ci sono voci circa l'introduzione di un ulteriore Turbo nella condizione 1 modulo sotto carico. Questo non necessiterebbe di un P-State ulteriore? L'SB950 è compatibile con questo previo un aggiornamento software?

Il turbo core 3.0 è uno dei motivi principali per il quale è necessaria una revisione delle mobo am3+. Il chispet delle mobo am3+ attuali non sa manco che cos'è il turbo core 3.0, ma non saprei dirti se con un aggiornamento di bios delle attuali mobo potrebbe riconoscerlo, ma dubito visto che parliamo di una peculiarità hardware evoluta all'interno della cpu. Quindi non ti sbagli.
Inoltre il turbo core 3.0 non è l'unica novita che dovrebbe esserci in vishera, ma non ricordo dove lo letto, dovrebbe esserci anche un MC piu evoluto, forse supportante piu di due canali ddr e in piu un aumento del supporto di frequenza delle stesse.
Ora cerco il link e te lo sparo qui.


Se debba essere 32nm, speriamo non lo produca GF :D .

Ti pregoo non non nominare GF che mi viene l'orticaria e inizio a grattarmi ultimamente peggio di come mi viene con windows. :D

Comunque il consumo del Chipset è talmente ridicolo che farlo a 65nm o 32nm non penso che influisca un granché... chiaramente sempre meglio che consumi meno.

Beh ora come ora una piattaforma basata su sistema amd, ha bisogno di consumare poco, tanto da risicare qualsiasi guadagno di consumo ovunque essa possa risicarlo.

°Phenom°
27-03-2012, 20:40
Beh ora come ora una piattaforma basata su sistema amd, ha bisogno di consumare poco, tanto da risicare qualsiasi guadagno di consumo ovunque essa possa risicarlo.

Concordo! ;)

paolo.oliva2
27-03-2012, 23:38
INDISCUTIBILE che il sistema BD debba consumare meno, molto meno...
Non è che ho detto che sia inutile fare il chip-set a 32nm anziché a 65nm, perché comunque consumerebbe meno, ma vedere un rapporto consumo/prestazioni di 125W TDP vs 95W con IGP compresa, e addirittura meno performances... ho valutato ridicolo (ma non insensato) pensare a 2-3W del chip-set, tutto qui.

Comunque non mi ricordo dove, ma l'SB fa molto di più dell'I/O...
Ad esempio, con AOD, basta avere da un SB 7XX a superiore... ma ci sono cose (anche se in questo dipende anche il bios), che un 7XX non fa ed un 8XX fa... ed un 9XX fa meglio.

Comunque... bisogna valutare... secondo me anche montando Vishera su una mobo AM3+/9XX la riduzione di consumo dovrebbe essere comunque elevata, anche se il supporto fosse anche al 90% delle features.

Che un Vishera possa aumentare di un 15% le prestazioni rispetto ad un 8150 direi che sia fattibile. Purtroppo è praticamente scontato che se ci riuscirà, sarà sempre a 125W TDP e non a 95W (se fosse 95W, le performances massime sarebbero ben superiori :cry: ).

capitan_crasy
28-03-2012, 10:21
Allora vi confermo, grazie al grandissimo Labview:winner: , l'imminente uscita del modello Quad core FX-4200 con TDP 125W e cache L3 8MB.

http://www.xtremeshack.com/immagine/i145466_cattura4.jpg

L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz, cosa che non è in linea con il number CPU di questo modello...

°Phenom°
28-03-2012, 10:23
Allora vi confermo, grazie al grandissimo Labview:winner: , l'imminente uscita del modello Quad core FX-4200 con TDP 125W e cache L3 8MB.

http://www.xtremeshack.com/immagine/i145466_cattura4.jpg

L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz, cosa che non è in linea con il number CPU di questo modello...

Infatti, c'è qual quadra che non cosa :asd:

paolo.oliva2
28-03-2012, 10:45
Allora vi confermo, grazie al grandissimo Labview:winner: , l'imminente uscita del modello Quad core FX-4200 con TDP 125W e cache L3 8MB.

http://www.xtremeshack.com/immagine/i145466_cattura4.jpg

L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz, cosa che non è in linea con il number CPU di questo modello...
AMD non potrebbe aver fatto un "accorpamento?".
Magari dico baggianate, ma comunque AMD deve pulire i magazzini dallo step B2g, d'accordo che Vishera è ancora distante, ma Trinity è prossimo e tra aumento IPC, Turbo a 4,2GHz, 100W TDP massimi contro 125W dell'FX, sarebbe comunque un'alternativa.
Con un po' di fantasia... (molta :D ) ) si potrebbe pensare che AMD riferisca il number CPU più alla massima frequenza turbo più che a quella def... forse nei test di selezione il silicio ha garantito i 4,3GHz sempre dentro 1,415V e 125W TDP, e di qui la sigla... e la logica TurboCore 2.0 comunque assegna la frequenza massima a 2 moduli.

Tra l'altro... non so se gli ultimi bios lavorano in modo diverso... ma ho notato che su un 8150, il 1° stadio turbo (> 2 moduli sotto carico), ha un range di frequenza tra 3,6GHz (def) e 3,9GHz, ma a seconda del carico comunque raramente supera i 3,7GHz di media. Invece il 2° stadio turbo, quello =<2 moduli sotto carico, è fisso a 4,2GHz e non varia.

Se questo lo ribaltassi sull'FX4200, praticamente sarebbe sempre in turbo massimo sotto carico...

dav1deser
28-03-2012, 11:34
Allora vi confermo, grazie al grandissimo Labview:winner: , l'imminente uscita del modello Quad core FX-4200 con TDP 125W e cache L3 8MB.

http://www.xtremeshack.com/immagine/i145466_cattura4.jpg

L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz, cosa che non è in linea con il number CPU di questo modello...

Se solo avesse 1GHz in più tornerebbe tutto...

Comunque vi annuncio che se non cambio idea all'ultimo, fra circa 7 giorni avrò un FX anche io, un 6100 per l'esattezza (ad un prezzo di 101€:sofico: )

Phenomenale
28-03-2012, 13:11
Quad core FX-4200... L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz
Potrebbe essere una precisa scelta commerciale, limitare i clock a default sui modelli più economici per non insidiare le fascie superiori... vecchio trucco in stile AthlonII (venduti sempre a clock inferiori ai PhenomII) :rolleyes:

dav1deser
28-03-2012, 13:20
In quel caso sarebbe un 95W.

300MHz in meno e 30W di TDP in più, o sono i chip peggio riusciti in assoluto oppure c'è un qualche errore. Se è tutto giusto, considerato che un 4100 viene circa 100/95€ questo non ce lo vedo a più di 85€. Da notare inoltre come sarebbe disastroso, in termini di efficienza e performance, questo modello se paragonato ad un A8-3870K.

OPP
28-03-2012, 13:23
Potrebbe essere una precisa scelta commerciale, limitare i clock a default sui modelli più economici per non insidiare le fascie superiori... vecchio trucco in stile AthlonII (venduti sempre a clock inferiori ai PhenomII) :rolleyes:

però uno così potrebbe farsi fregare pensando giustamente che l'fx-4200 è meglio del fx4170, invece poi va a 900mhz in meno quello nuovo:(

ma non è che hanno riportato male la frequenza nella tabella che ha postato il capitano? :confused:
è come se uscisse l'8170 con frequenza più bassa dell'8150 che c'è adesso, non è logico

Catan
28-03-2012, 13:28
Se solo avesse 1GHz in più tornerebbe tutto...

Comunque vi annuncio che se non cambio idea all'ultimo, fra circa 7 giorni avrò un FX anche io, un 6100 per l'esattezza (ad un prezzo di 101€:sofico: )

io è quasi 2 mesi che ho la roba per mettere sotto liquido un 6100 con una chV, e è ancora tutto fermo per via di una mano che mi sono rotto!

capitan_crasy
28-03-2012, 14:03
Potrebbe essere una precisa scelta commerciale, limitare i clock a default sui modelli più economici per non insidiare le fascie superiori... vecchio trucco in stile AthlonII (venduti sempre a clock inferiori ai PhenomII) :rolleyes:

allora chiamalo FX-4050/FX-4070 e non FX-4200...

OPP
28-03-2012, 14:20
allora chiamalo FX-4050/FX-4070 e non FX-4200...

giusto:)

-Maxx-
28-03-2012, 15:45
Se solo avesse 1GHz in più tornerebbe tutto...

Comunque vi annuncio che se non cambio idea all'ultimo, fra circa 7 giorni avrò un FX anche io, un 6100 per l'esattezza (ad un prezzo di 101€:sofico: )

Appunto, non è che hanno sbagliato a scrivere e la frequenza è 4300MHz in realtà? :fagiano:

Sayan V
28-03-2012, 16:31
allora chiamalo FX-4050/FX-4070 e non FX-4200...


;)

capitan_crasy
28-03-2012, 17:28
Appunto, non è che hanno sbagliato a scrivere e la frequenza è 4300MHz in realtà? :fagiano:

Anche sul sito gigabyte il FX-4200 ha 3.30Ghz...

OPP
28-03-2012, 18:13
Anche sul sito gigabyte il FX-4200 ha 3.30Ghz...

:stordita:

phicrand_6358
28-03-2012, 23:03
nella signature dei miei posts...RegistryTweak Thuban

Raga...per coloro che non l'hanno ancora installata, consiglio di attendere qualche giorno...

Sto "lavorando" ad una versione + "pulita" ed ulteriormente affinata.

grazie mille :)
nella versione per Phenom potresti indicare i valori delle stringhe per poterlo adattare a un X4? scusami la richiesta....

paolo.oliva2
29-03-2012, 08:55
mamma mia, se davvero cosi fosse, sarebbe davvero una presa per il :ciapet: !
ma almeno ha qualche features particolari in turbo, ke so magari un turbo a 4.3ghz su tutti i core invece del 2 core come x il 4170... :boh: la butto li...

E' quello che penso anche io... se lavorasse con la logica di un 8150, praticamente sarebbe sempre in turbo massimo.

paolo.oliva2
29-03-2012, 11:31
Comunque il 32nm GF sta migliorando.
L'X16 Opteron era 2,5GHz def e 3,5GHz come massima frequenza, ora a parità di TDP la frequenza def è passata a 2,8GHz, ma purtroppo la massima è rimasta invariata.
Però... +300MHz secchi di aumento freq def a parità di TDP per 2 proci X8 nello stesso package non è cosa da poco (soprattutto sempre rimanendo sullo step B2g).

-----

AMD today announced a collaboration with Green Hills Software, the largest independent vendor of embedded software, that brings its industry-leading INTEGRITY real-time operating system (RTOS) to the AMD Embedded G-Series Accelerated Processing Unit (APU) platform.

Qui (http://www.techpowerup.com/163160/AMD-Embedded-G-Series-APU-Platform-Adds-Real-Time-Operating-System-Support.html)

-------

Per il resto... Vishera, 8350, autunno. E aspettiamo... :)

Grizlod®
29-03-2012, 11:49
grazie mille :)
nella versione per Phenom potresti indicare i valori delle stringhe per poterlo adattare a un X4? scusami la richiesta....Beh...quando parlavo di attendere la versione aggiornata, mi riferivo a 'Bulldozer' (infatti ho postato su questo thread...), in quanto ha un'architettura molto particolare...

Per la release Thuban, dovrete pazientare di più; oltretutto, ora, non ho un computer con K10 attivo, per cui...
Cmq vedrò cosa posso fare! Ora non sto sul mio PC...

Riguardo all' X4, puoi cmq inserire tu i valori di cache L1, cercando sul web il quantitativo in decimale, convertito in esadecimale
La L2, lasciala com'è; ad ogni modo, puoi pure (se non hai pazienza) installarla 'as is' e bon... non credo possa fare danni o peggiorarti le performances.

phicrand_6358
30-03-2012, 13:24
Riguardo all' X4, puoi cmq inserire tu i valori di cache L1, cercando sul web il quantitativo in decimale, convertito in esadecimale
La L2, lasciala com'è; ad ogni modo, puoi pure (se non hai pazienza) installarla 'as is' e bon... non credo possa fare danni o peggiorarti le performances.

quello l'ho già fatto... il mio dubbio è se sono incluse stringhe tipiche dello step E0 di thuban che potrebbero dar noie su cpu con precedenti step...
grazie mille e mi scuso per la discussione non propriamente InTopic :)

Grizlod®
30-03-2012, 18:37
quello l'ho già fatto... il mio dubbio è se sono incluse stringhe tipiche dello step E0 di thuban che potrebbero dar noie su cpu con precedenti step...
grazie mille e mi scuso per la discussione non propriamente InTopic :)No, non include alcuna stringa riguardante gli steps di revisione. Solo "generiche", per tutti i K10 (volendo potrebbe essere adattabile, anche ad Agena e persino a Llano).


P.S. prima di ricevere richiami dai Mods, meglio chiudere qua...

sergio.p.
30-03-2012, 18:46
con il 4170 come ti trovi? quanto sale? e consumi?
domande in serie xD

Grizlod®
30-03-2012, 19:13
con il 4170 come ti trovi? quanto sale? e consumi?
domande in serie xDMi trovo meglio che col 1055T che avevo installato prima, anche solo a "girare" per Windows; io l'ho attribuito
alla MB con socket apposito per AM3+ (non ho cambiato nient'altro, solo sostituito il processore). I sei cores non non mi servono più, l'X6 l'avevo acquistato per BOINC, ora ho smesso. Mi soddisfa pure nei giochi ( quanti ne circolano che supportino + di quattro cores?), il frame rate è + più che soddisfacente (anche se non ne ho di recentissimi, ed è pero affiancato da una video card che puo dire ancora la sua...).

Uso + che altro PSPx4 (più altri freeware) per fotoritocco delle immagini che faccio con la mia Fuji S5 pro e se la cava egregiamente.

Naturalmente (imho) vuole necessariamente overclockato; diciamo che per i miei gusti, zambezi, rende da 4.5 GHz in sù ( meglio, di non solo moltiplicatore...).

Ai consumi non ho ancora dedicato molto tempo, ma avendo un wattmetro, posterò qualche risultato. Ora ho cmq voltaggi abbastanza altini @ 22*210 MHz di bus. Penso che gli farò fare un po di 'burn-in', per vedere se riesco ad undervoltare...

sergio.p.
30-03-2012, 19:22
un tizio non ricordo dove ha scrtto che è il 20% più veloce del suo vecchio phenom ii 965...e non penso sia molto credibile...anche in overclock i phenom salgono fino 3.8/4.0/4.2 e i bd sui 4.7/.8 a quanto ho capito e il divario resta la...poi non so se il 965 lo teneva immacolato e questo lo spreme

Grizlod®
30-03-2012, 21:50
un tizio non ricordo dove ha scrtto che è il 20% più veloce del suo vecchio phenom ii 965...e non penso sia molto credibile...anche in overclock i phenom salgono fino 3.8/4.0/4.2 e i bd sui 4.7/.8 a quanto ho capito e il divario resta la...poi non so se il 965 lo teneva immacolato e questo lo spremePer la mia esperienza, il divario è evidente sopratutto con la FPU, e sopratutto nei benchmark.

Con la maggior parte delle applicazioni (interi) se la cava ottimamente (se overclockato), a mio parere.

Tengo a precisare, pero, che avendocelo da poco tempo, non l'ho ancora provato per bene; per esempio non ho convertito alcun video/filmato...

A tal proposito, posso aggiungere, se puo esserti utile, uno screen del benchmark X264 HD v4.0
http://img835.imageshack.us/img835/3683/fx41704620mhzx264hdv40.th.jpg (http://img835.imageshack.us/i/fx41704620mhzx264hdv40.jpg/)
In favore di FX,... dovrebbe integrare le istruzioni AVX/XOP
http://www.lostcircuits.com/mambo//index.php?option=com_content&task=view&id=102&Itemid=42&limit=1&limitstart=13 link ad una delle review di ottobre 2011
...se non che, il sistema operativo che sto usando, non le supporta, perciò...non saprei:boh:

paolo.oliva2
30-03-2012, 22:08
Secondo me tra Phenom II e BD c'è una differenza di circa 500MHz in OC... non si arriva certamente al +20% di performances a favore di BD (io mi fermo al +2,5% circa), a meno che non trattasi di programmi che usano le AVX, a quel punto anche un FX 4100, X4, risulta anche 40 volte più veloce di un Thuban, ma enormemente sotto in tutto il resto.

Il divario principale è nell'ST, lì sono dolori... per pareggiare BD ha bisogno di circa un 20% in più di clock. Se pensi che il Thuban può arrivare in OC liquido a 4,7GHz con 2 core, non sarebbero stati nemmeno proibitivi i 3,7GHz +20%, se il 32nm avesse rispettato le aspettative.
In MT, è facile con 2 core in più... basterebbe un 8170 a 3,9GHz def per distanziare in tutto un Thuban.

sergio.p.
30-03-2012, 22:23
mi sa che un 960t è molto meglio...in overclock consuma meno di un deneb e a pari consumo arriva molto in alto..

°Phenom°
30-03-2012, 22:37
Beh finchè lo si trova il 960T per quello che costa è fantastico, ora a breve vorrei acquistare un 4170 per fare un bel confronto, oppure un 8120 se lo trovo ad un buon prezzo :)

sergio.p.
31-03-2012, 09:15
Beh finchè lo si trova il 960T per quello che costa è fantastico, ora a breve vorrei acquistare un 4170 per fare un bel confronto, oppure un 8120 se lo trovo ad un buon prezzo :)

su xxx è 151€ e l'8150 225

Grizlod®
31-03-2012, 13:19
Bene ho uploadato l'aggiornamento del 'tweak' per FX xxxx.
http://www.webalice.it/grizlod1/Downloads.html


In questa release ho cercato di far (ri)conoscere al sistema operativo le caratteristiche dell'architettura a moduli di Bulldozer ed anche come sono organizzati i vari livelli di caches. Ho tolto anche un po di "roba" superflua...
Ho aggiunto chiavi distinte per le Features (standard ed extended) Flags della CPU.

Io non ho la patch di microsoft installata...se volete, potreste monitorare il comportamento col task manager, per verificare se migliora la "spalmatura" dei processi sulle 'coppie di cores'.

Ad esempio io ho provato anche con Fritz_Chess Benchmark, dal quale si possono scalare il cores, oppure con più applicazioni aperte...; insomma non sono certo io a dovervelo dire...

P.S. se vi sono domande, potete chiedere via mail: grizlod at alice dot it
Se incontraste problematiche di interesse generale, ritengo possiate postare sul thread...

lukesh
31-03-2012, 14:35
Beh finchè lo si trova il 960T per quello che costa è fantastico, ora a breve vorrei acquistare un 4170 per fare un bel confronto, oppure un 8120 se lo trovo ad un buon prezzo :)

possibile che dopo 1 mese che l'ho presa questa cpu è già diventata così difficile da trovare?! cmq sono davvero contento di aver fatto in tempo :cool:

°Phenom°
31-03-2012, 14:41
Eh si, fai conto che i Phenom II a 45nm non vengono più prodotti, quindi quelli che ora si trovano sono solo le rimanenze dei magazzini ;)

giuliojiang
31-03-2012, 17:03
Eh si, fai conto che i Phenom II a 45nm non vengono più prodotti, quindi quelli che ora si trovano sono solo le rimanenze dei magazzini ;)

ormai anche nei negozi online più grandi ne sono rimasti pochissimi pezzi...

sergio.p.
31-03-2012, 18:54
ormai anche nei negozi online più grandi ne sono rimasti pochissimi pezzi...

avrebbero fatto bene a produrre inizalmente phenom a 32nm per testare silicio...però probabilmente BD avrebbe avuto ancor meno successo..

shellx
31-03-2012, 19:49
avrebbero fatto bene a produrre inizalmente phenom a 32nm per testare silicio...

llano

°Phenom°
31-03-2012, 20:23
llano

Beh, non è proprio giusto mettere Llano in mezzo, dato che deve integrare anche la VGA, non si può sapere come sarebbe andato un Phenom II con solo la parte x86 in Die Shrink a 32nm..

Grizlod®
31-03-2012, 22:22
EDIT:

Aggiungo il link per la versione 2.0 :D

http://www.mediafire.com/?suf1gigxcs70sp4 :tapiro: :sofico:

Catan
31-03-2012, 23:20
Beh, non è proprio giusto mettere Llano in mezzo, dato che deve integrare anche la VGA, non si può sapere come sarebbe andato un Phenom II con solo la parte x86 in Die Shrink a 32nm..

l'integrazione della vga, per come è fatto ora, è ininfluente, e se parliamo di contributo di tdp si attesta su circa 15W.
Realmente è proprio llano, l'esponente stars a 32nm, senza l3, ma con l2 da 1mb contro i 512kb dei phenomII...e tutti abbiamo visto come anche disabilitando la parte grafica, il muro dei llano è di 3.6 ghz...quindi credo che in qualche maniera già si sapeva un certo limite dei 32nm...evidentemente è stato sottovalutato perchè avranno pensato che probabilmente llano non era un procio da "prestazione" e che molto del clock poteva esser recuperato con l'archidettura bulldozzer....cosa in parte vera però visto che più si va a processi spinti e più il processo influisce sul "successo del procio" quasi quanto la sua archidettura avere un processo produttivo non al top può castrare il tutto.

Diciamo che il peso della bontà del processo produttivo è iniziato a diventare importante dai 65nm in giù...via via che scendi diventa sempre più importante quasi quanto l'efficienza stessa dell'archidettura.

°Phenom°
31-03-2012, 23:31
Si quello che dici tu è giusto, ma comunque io intedevo delle cpu k10 con die shrink a 32nm fatte per buone prestazioni, llano come hai anche detto tu non è stata concepita per questo a livello della parte x86, poi puoi notare anche che il silicio 32nm di gf ha una marea di falle, ma in overclock permette ottimi risultati, quindi forse (chi lo sa) se ci sarebbero stati dei Phenom II "puri" in Die Shrink a 32nm, magari avrebbero dato buoni risultati.

shellx
01-04-2012, 00:40
Beh, non è proprio giusto mettere Llano in mezzo, dato che deve integrare anche la VGA, non si può sapere come sarebbe andato un Phenom II con solo la parte x86 in Die Shrink a 32nm..

Ci sono gia i llano con vga disabilitata (solo x86).
llano= k10(stars) on 32nm ... indi non si scappa ;)



Si quello che dici tu è giusto, ma comunque io intedevo delle cpu k10 con die shrink a 32nm fatte per buone prestazioni, llano come hai anche detto tu non è stata concepita per questo a livello della parte x86, poi puoi notare anche che il silicio 32nm di gf ha una marea di falle, ma in overclock permette ottimi risultati, quindi forse (chi lo sa) se ci sarebbero stati dei Phenom II "puri" in Die Shrink a 32nm, magari avrebbero dato buoni risultati.

è stato un incidente piu che una volontà...
il 32nm è la causa di tutti gli incidenti di percorso di amd dal maggio 2011 a oggi.
L'overclock e la resa di frequenza def (ci si aspettava freq. def superiori -vedi paolo quante volte impreca questo-) è una delle maggiori falle del 32nm.
La parte x86 di llano è stars, niente meno niente piu. Se llano fosse stato messo sul 45nm avrebbe concesso piu frequenza e forse anche piu efficienza.
Ma il cambio di processo produttivo era indispensabile. Llano ne è stata la cavia, ma tuttavia il suo maggiore successo è avvenuto proprio perchè la tipologia di processore non è destinata ad utilizzi ad alte prestazioni, ergo in ambito media generale si è manifestata un ottima cpu soprattutto anche per la peculiarità dell'affiancamento dell'igp (dove in ambiti ufficio e media home sono fondamentali)...e quindi in seguito le ottime vendite.
Zambesi non è llano, zambesi è molto di piu (destinato a utilizzi dalle elaborazioni piu esigenti) e soprattutto sul solito primo 32nm latrinoso (come spiegato prima e come llano) e quindi a differenza di llano ha fatto una pessima figura.

Soluzione: affinamento 32nm e dopo il 28nm ... ovviamente per questo appena nascerà c'è solo da :sperem:

sergio.p.
01-04-2012, 00:49
ma llano non so perchè non mi convince...a 3.5 consuma più di un deneb a 4.0...so che il core è quello ma boh...è inaccettabile un consumo superiore a frequenza minore con ipc pressocchè uguale e processo a 32nm....forse qualcosa nell'alimentazione...insomma fantasticherie

°Phenom°
01-04-2012, 01:02
In ogni caso io bulldozer sia ora che in futuro con le nuove evoluzioni l'avrei reso solo una cpu server con tantissimi core, magari con qualche esemplare ad 8-10 core anche per desktop, mentre avrei progettato un architettura simile ai k10 ma ovviamente pompata di ipc e con un massimo di 6 core per l'ambito desktop, in questo modo credo che sarebbe andata alla grande AMD, ovviamente lo so che per progettare una CPU non ci vogliono 5 minuti, ma se invece di restare a dormire sui k10 45 nm AMD si sarebbe data da fare già da prima, imho avrebbe avuto tutto il tempo per sviluppare queste 2 architetture, sempre se poi gf non avrebbe rovinato tutto con un silicio scarso..
Ditemi se sbaglio

shellx
01-04-2012, 01:30
ma llano non so perchè non mi convince...a 3.5 consuma più di un deneb a 4.0...so che il core è quello ma boh...è inaccettabile un consumo superiore a frequenza minore con ipc pressocchè uguale e processo a 32nm....forse qualcosa nell'alimentazione...insomma fantasticherie

:D figa la ridondanza di sto thread:
32nm immaturo VS 45nm rodato

il core di llano è quello ma non il pp rispetto il deneb ;)

In ogni caso io bulldozer sia ora che in futuro con le nuove evoluzioni l'avrei reso solo una cpu server con tantissimi core, magari con qualche esemplare ad 8-10 core anche per desktop, mentre avrei progettato un architettura simile ai k10 ma ovviamente pompata di ipc e con un massimo di 6 core per l'ambito desktop, in questo modo credo che sarebbe andata alla grande AMD, ovviamente lo so che per progettare una CPU non ci vogliono 5 minuti, ma se invece di restare a dormire sui k10 45 nm AMD si sarebbe data da fare già da prima, imho avrebbe avuto tutto il tempo per sviluppare queste 2 architetture, sempre se poi gf non avrebbe rovinato tutto con un silicio scarso..
Ditemi se sbaglio

Gf ha gia rovinato tutto con il silicio scarso e che ora sta migliorando via via.

Andando al tuo discorso: 3 architetture per 4 segmenti di cui 2 dedicate ad un solo segmento ? Per quale scopo sto putiferio ?
Tra le altre cose k10 è gia stata adottata per i desktop (con llano) ma sul 32nm, perchè necessitava il cambio pp per avanzarne l'evoluzione ...non è che si puo restare fermi decenni su un pp.
La prima sfornata del 32nm ha dato risultati negativi. Che si fa si torna al 45nm e i phenom per soddisfare i bimbominkia in giro che vogliono l'ipc degno di rocco siffredi per fare eccitare 2fps in piu a BF3 ? (non parlo di te).

aldooo
01-04-2012, 08:09
Cari amici,
oggi probabilmente i PESCI colpiranno anche AMD, state all'erta!

dav1deser
01-04-2012, 09:46
Da venerdì sono un possessore di un FX-6100. Dopo ore fra problemi col dissipatore che non faceva contatto, socket "a mollo" (lunga storia...), SP1 di 7 che non si installa, Battlefield BC2 che appena finito di scaricare da origin si deve ancora aggiornare (2 ore il solo aggiornamento, dico io, far scaricare la versione già aggiornata è chiedere troppo?) etc... Finalmente posso usarlo come si deve, assieme ad una Asrock 990FX Extreme3 e 2*4GB di AMD Performance Edition. E testando i giochi più recenti che ho (alla risuoluzione più bassa possibile) e paragonando i risultati col mio vecchio E7300, non mi sembra vada così male:

E7300 Crysis CPU Test 32bit (il 64bit non andava...)
Medi:127,75 Max:145,77 Min:86,69

FX-6100 Crysis CPU Test 64bit (il 32bit non andava...)
Medi:100,21 Max:198 Min:36,98


E7300 Crysis CPU Test2 32bit
Medi:77,71 Max:90,15 Min:59,93

FX-6100 Crysis CPU Test2 64bit
Medi:63,71 Max:78 Min:26,06


E7300 Resident Evil 5 Benchmark variabile
Medi:86,4 Max:177 Min:58

FX-6100 Resident Evil 5 Benchmark variabile
Medi:144,4 Max:205 Min:94


E7300 Shift2
Medi:39,4 Max:40 Min:38

FX-6100 Shift2
Medi:68,5 Max:89 Min:53


E7300 Battlefield Bad Company 2
Medi:52,2 Max:77 Min:14

FX-6100 Battlefield Bad Company 2
Medi:136,2 Max:186 Min:84

Escluso Crysis che usa palesemente solo 2 core, direi che il cambio ne è valsa la pena, anche considerando che l'FX l'ho pagato quanto avrei pagato (nello stesso negozio) un Pentium 2,8GHz (Sandy Bridge certo...ma pur sempre Dual Core, senza HT, senza turbo, senza OC etc...).

P.S. Sto preparando qualche altro test.

aldooo
01-04-2012, 09:54
Cioè, ti sei comprato un'architettura AM3+ in questi giorni?
Anche la scheda madre?
A neanche un mese dagli Ivy?

Abbiamo il primo pesce d'aprile!!! :sofico:

dav1deser
01-04-2012, 10:43
Cioè, ti sei comprato un'architettura AM3+ in questi giorni?
Anche la scheda madre?
A neanche un mese dagli Ivy?

Abbiamo il primo pesce d'aprile!!! :sofico:

Non hai letto il punto in cui ho parlato del prezzo? Pari ad un Pentium G 2.8GHz? Cercherò di essere esplicito, il 6100 l'ho pagato 102€, in quello stesso negozio (non faccio acquisti on-line quindi se in altri posti le cose costano meno, a me non cambia niente), il più scrauso i3 viene minimo 115 o 120€, un FX-4100 sta a 114, un FX-6100 "di norma" sta a 140. Non ho troppi soldi da investire quindi più di 130-140€ per una CPU nn voglio metterceli, e considerando che il più scrauso i5 Ivy Bridge costerà sicuramente più di quella cifra, aspettarli non ha senso, ci saranno gli i3 Ivy Bridge...ma quest'estate e complessivamente un 6100 credo sarà superiore a un i3IB, magari non in ST...ma in tutto il resto si. E comunque do molta importanza all'OC, e spendere più di 200€ per poterlo fare...no grazie.

°Phenom°
01-04-2012, 10:47
Non hai letto il punto in cui ho parlato del prezzo? Pari ad un Pentium G 2.8GHz? Cercherò di essere esplicito, il 6100 l'ho pagato 102€, in quello stesso negozio (non faccio acquisti on-line quindi se in altri posti le cose costano meno, a me non cambia niente), il più scrauso i3 viene minimo 115 o 120€, un FX-4100 sta a 114, un FX-6100 "di norma" sta a 140. Non ho troppi soldi da investire quindi più di 130-140€ per una CPU nn voglio metterceli, e considerando che il più scrauso i5 Ivy Bridge costerà sicuramente più di quella cifra, aspettarli non ha senso, ci saranno gli i3 Ivy Bridge...ma quest'estate e complessivamente un 6100 credo sarà superiore a un i3IB, magari non in ST...ma in tutto il resto si. E comunque do molta importanza all'OC, e spendere più di 200€ per poterlo fare...no grazie.

Infatti, per il prezzo a cui l'hai preso hai fatto un ottima scelta :)

potresti indicarmi a che risoluzine hai effettuato i test e la frequenza di entrambe le cpu?
Grazie ;)

Phenomenale
01-04-2012, 11:40
Cercherò di essere esplicito, il 6100 l'ho pagato 102€, in quello stesso negozio ... il più scrauso i3 viene minimo 115 o 120€, un FX-4100 sta a 114, un FX-6100 "di norma" sta a 140
A quel prezzo hai fatto un affare, ed anche un investimento per il futuro, consiferando che con AM3+ potrai metterci sopra Vishera ;)

aldooo
01-04-2012, 11:44
Ah, è tutto vero... :eek:
Calcola anche il costo in bolletta cmq!

Spero proprio che la redazione di HW Upgrade si inventi un modo
per pesare la differenza di Watt nei moneybench,
per fornire un miglior servizio ai consumatori...

dav1deser
01-04-2012, 12:24
Ah, è tutto vero... :eek:
Calcola anche il costo in bolletta cmq!

Spero proprio che la redazione di HW Upgrade si inventi un modo
per pesare la differenza di Watt nei moneybench,
per fornire un miglior servizio ai consumatori...

So bene che un FX consuma di più di un SB o ancor più di un IB...ma il C-50 del mio netbook credo consumi meno di questi ultimi, e quando non ho bisogno di potenza, posso usare lui.

Non mi pare se ne sia mai parlato quindi eccovi un interessante programmino
AMD MSR Tweaker (http://www.xtremesystems.org/forums/showthread.php?277724-New-tool-AmdMsrTweaker).
Permette di modificare i P-State delle ultime architetture AMD, BD compreso. Può essere utile ad esempio per ridurre i consumi, impostando tensioni più basse per i P-State a basse frequenze.

dav1deser
01-04-2012, 12:35
E beccatevi anche questo: differenze prestazionali fra nessuna patch, le 2 patch di windows, infine la patch di Grizlod (con le 2 patch di win sempre installate). In particolare ho usato i test di Aida, i test CPU e Memorie di Passmark Performance Test 7, il bench variabile di Resident Evil 5, i due CPU bench di Crysis, Shift2 e Battlefield Bad Company 2

http://img141.imageshack.us/img141/3990/benchfx.jpg (http://imageshack.us/photo/my-images/141/benchfx.jpg/)

Le Patch di windows, anche se marginalmente, sembrano avere un effetto positivo, in particolare sul Performance Test i miglioramenti sono notevoli, e anche sui bench di crysis.
Escludendo Crysis (dove magari i primi test erano influenzati negativamente da qualcosa) negli altri giochi si osserva un miglioramento del 5-6%, non si griderà al miracolo...ma è meglio di niente.
La patch di Grizlod sembra non avere un effetto netto sui test che ho usato, a volte migliora un po', a volte peggiora, mediamente non fa nulla.

P.S In effetti potevo evitare di saltarmene fuori proprio il 1° di aprile, però è vero che ho preso BD, vi faccio anche screen se non mi credete:D

aldooo
01-04-2012, 12:38
vi faccio anche screen se non mi credete:D

LOL

Molto bella la tabella, grazie!

sergio.p.
01-04-2012, 12:46
se il 5% ora vale 5 di prestazioni in più..in overclock considerando già un 110% assumendo il def come 100 avrà valore 5.5 (la mattinata potrebbe farmi bestemmiare più del normale)

capitan_crasy
01-04-2012, 12:55
modera i termini, per favore.

ciao spitfire...
E inutile insistere con certi utenti, ne abbiamo visti tanti come lui e prima o poi finiscono sempre dove meritano...;)

Phenomenale
01-04-2012, 12:55
E beccatevi anche questo: differenze prestazionali fra nessuna patch, le 2 patch di windows, la patch di Grizlord.
Grazie!!! Completissimo!
Sbaglio, od i registry di Grizlord sembrano avere grossomodo gli setssi effetti della patch di windows??? :eek:

dav1deser
01-04-2012, 12:57
Grazie!!! Completissimo!
Sbaglio, od i registry di Grizlord sembrano avere grossomodo gli setssi effetti della patch di windows??? :eek:

Giusto, non ho specificato, ho testato prima senza nessuna patch, poi con le 2 patch di windows, poi ho aggiunto la patch di grizlord ma le 2 patch di win erano ancora li.

M4R1|<
01-04-2012, 13:20
Ciao ragazzi,

da quanto tempo che non posto più nei thread del capo :)
Paolo c'è ancora? edit: si Paolo c'è xD

Mi faccio nuovamente vivo perchè avrei bisogno di alcune informazioni sullo S-Spec degli Opteron.
Riporto i codici di un socket F che ho sotto mano:

OSA22186AA6CX
CCBGF 0810FPMW
9496816D80512

Questa è (o meglio dovrebbe essere) una CPU OEM, però ne ho molte altre qui che sono degli ES (e lo capisco dal fatto che c'è scritto "AMD ENG SAMPLE" al posto di Opteron).
Il primi due, tra questi codici, dovrebbe essere lo S-Spec ma da quale blocco identifico che una CPU è ES?
Leggendo in rete:
OSA = Opteron
221 = Modello
8 = Stepping (credo)
6AA = ???
6 = forse la cache
CX = ???
CCBGF = ???
0810 = La settimana di produzione, quindi la decima del 2008
FPMW = ???

E l'ultimo codice è l'univocità della CPU?

°Phenom°
01-04-2012, 15:44
Raga per fare la comparativa ho deciso di prendere un FX della serie 4xxx, pensate che in overclock ad aria (con il noctua NH D14) un FX 4100 salga quanto un FX 4170, dato che non so se magari il 4170 ha un silicio più selezionato.
Grazie per le risposte ;)

Grizlod®
01-04-2012, 16:08
.....................................
Le Patch di windows, anche se marginalmente, sembrano avere un effetto positivo, in particolare sul Performance Test i miglioramenti sono notevoli, e anche sui bench di crysis.
Escludendo Crysis (dove magari i primi test erano influenzati negativamente da qualcosa) negli altri giochi si osserva un miglioramento del 5-6%, non si griderà al miracolo...ma è meglio di niente.
La patch di Grizlord sembra non avere un effetto netto sui test che ho usato, a volte migliora un po', a volte peggiora, mediamente non fa nulla.

Wow...il tweak, insererito in una comparativa con la patch di MS, mi lusinga parecchio, grazie. Colgo, l'occasione per ringraziare tutti coloro che hanno deciso di provarla...veramente GRAZIE!

Aggiungo che su Win-Vista (senza patch MS) si "sente" maggiormente il tweak. Devo ancora provare su Win-XP (ho un dual boot)...spero renda altrettanto...

dav1deser
01-04-2012, 16:17
Speriamo allora che qualcuno pubblichi qualche risultato su un sistema senza le patch per i BD così si potrà vedere l'effettivo effetto del tuo tweak. Personalmente non proverò a disinstallare le patch perchè non voglio rischiare di incasinare win, già l'ho reinstallato 2 volte fra ieri e l'altro ieri, non voglio rischiare una terza:D

Intanto ho iniziato l'ottimizzazione dei P-State: il P6 l'ho abbassato da 1.4GHz@0.9125V a 0.8GHz@0.85V, il Turbo_all ho ridotto la tensione da 1.4125V a 1.3875V mentre il Turbo_max l'ho ridotto da 1.4125V a 1.4V. Col tempo vedrò di ottimizzarli meglio.

Grizlod®
01-04-2012, 16:27
Speriamo allora che qualcuno pubblichi qualche risultato su un sistema senza le patch per i BD così si potrà vedere l'effettivo effetto del tuo tweak. Personalmente non proverò a disinstallare le patch perchè non voglio rischiare di incasinare win, già l'ho reinstallato 2 volte fra ieri e l'altro ieri, non voglio rischiare una terza:D Scherzi? Ma ci mancherebbe altro...

Intanto ho iniziato l'ottimizzazione dei P-State: il P6 l'ho abbassato da 1.4GHz@0.9125V a 0.8GHz@0.85V, il Turbo_all ho ridotto la tensione da 1.4125V a 1.3875V mentre il Turbo_max l'ho ridotto da 1.4125V a 1.4V. Col tempo vedrò di ottimizzarli meglio. Proverò anch'io l'MSR, ora lo sto sottoponendo a bunr-in per un po.

Grizlod®
01-04-2012, 16:30
Raga per fare la comparativa ho deciso di prendere un FX della serie 4xxx, pensate che in overclock ad aria (con il noctua NH D14) un FX 4100 salga quanto un FX 4170, dato che non so se magari il 4170 ha un silicio più selezionato.
Grazie per le risposte ;)Sembrerebbe che salga allo stesso, modo; non credo il silicio sia migliore (lo speravo:D )...è sempre della stessa mortadella...anzi salame...

http://www.legitreviews.com/article/1766/16/

Phenomenale
01-04-2012, 17:53
ho deciso di prendere un FX della serie 4xxx, pensate che in overclock ad aria (con il noctua NH D14) un FX 4100 salga quanto un FX 4170
Come purtroppo tutti sappiamo, l'unica garanzia che ti fa prendere il procio che sale di più è il "culo". :ciapet:
Per prove di overclock, io prenderei quello che costa meno... sperando di essere baciato dalla fortuna! ;)

°Phenom°
01-04-2012, 18:11
Mi sa che prenderò il 4100 allora, dato che voglio testare sia il mio phenom II e l'FX alla massima frequenza possibile col noctua e fare una bella comparativa completa di tutto, poi se riesco mi faccio prestare una piattaforma con i7 di prima generazione e/o sandy bridge.

LS1987
01-04-2012, 18:36
Secondo me il problema non è l'architettura, ma l'elevata latenza della cache. Che cosa ne pensate? Secondo me forse la latenza della cache può contare più dell'architettura in una CPU.

aaadddfffgggccc
01-04-2012, 18:45
Allora vi confermo, grazie al grandissimo Labview:winner: , l'imminente uscita del modello Quad core FX-4200 con TDP 125W e cache L3 8MB.

http://www.xtremeshack.com/immagine/i145466_cattura4.jpg

L'unica cosa che mi lascia perplesso è la frequenza di clock di soli 3.30Ghz, cosa che non è in linea con il number CPU di questo modello...

Anche sul sito gigabyte il FX-4200 ha 3.30Ghz...

Quì.... (http://www.pcgameshardware.de/aid,875463/Bulldozer-FX-4200-Release/CPU/News/) hanno il dubbio di un possibile errore da parte di gigabyte nella pubblicazione, ma loro non sanno che io sò.. :D e quindi traggono conclusioni basandosi da un unica fonte.

I dati che ti ho inviato dei 4 FX restano per il momento confermati al 100%, vedremo nei prossimi giorni se ci sarà qualche ulteriore novità.

Tengo a precisare che quel procio non è mai arrivato fisicamente, quindi si potrebbe pensare anche ad un errore di comunicazione da parte di AMD ai produttori, ma ne dubito fortemente... ;)

paolo.oliva2
01-04-2012, 20:08
Ci sono gia i llano con vga disabilitata (solo x86).
llano= k10(stars) on 32nm ... indi non si scappa ;)

è stato un incidente piu che una volontà...
il 32nm è la causa di tutti gli incidenti di percorso di amd dal maggio 2011 a oggi.
L'overclock e la resa di frequenza def (ci si aspettava freq. def superiori -vedi paolo quante volte impreca questo-) è una delle maggiori falle del 32nm.
La parte x86 di llano è stars, niente meno niente piu. Se llano fosse stato messo sul 45nm avrebbe concesso piu frequenza e forse anche piu efficienza.
Ma il cambio di processo produttivo era indispensabile. Llano ne è stata la cavia, ma tuttavia il suo maggiore successo è avvenuto proprio perchè la tipologia di processore non è destinata ad utilizzi ad alte prestazioni, ergo in ambito media generale si è manifestata un ottima cpu soprattutto anche per la peculiarità dell'affiancamento dell'igp (dove in ambiti ufficio e media home sono fondamentali)...e quindi in seguito le ottime vendite.
Zambesi non è llano, zambesi è molto di piu (destinato a utilizzi dalle elaborazioni piu esigenti) e soprattutto sul solito primo 32nm latrinoso (come spiegato prima e come llano) e quindi a differenza di llano ha fatto una pessima figura.

Soluzione: affinamento 32nm e dopo il 28nm ... ovviamente per questo appena nascerà c'è solo da :sperem:

Quoto.
Faccio un ragionamento contorto, come il mio solito :) lo faccio a spanella perché non ho nessuna laurea.

A parità di architettura e di numero dei transistor, come giudichiamo uno step più efficiente dell'altro? Semplice, consumo inferiore a parità di frequenza e/o frequenze superiori a parità di consumo (tralasciando la parte OC, dove può capitare che uno step anche con consumi maggiori risulti comunque più occabile).

Ora... valutando Llano nelle versioni mobile e nella versione desktop, abbiamo che in quella mobile il 32nm ha un'efficienza stratosferica rispetto al 45nm, perché manco un Sempron X2 sarebbe riuscito ad arrivare ad un'autonomia di 4,5h, mentre invece un Llano 2,4GHz ci arriva con una potenza ben superiore.

Dove arriva il problema? Che i margine letteralmente svanisce e addirittura si va in perdita, considerando che un Llano per 100W non supera i 2,9GHz mentre con il 45nm un X6 95W a frequenze superiori era fattibile (mi sembra chiaro che 2 core consumino di più dell'IGP di Llano), con un consumo/prestazioni ben superiore del 32nm rispetto al 45nm e se un 8150 raggiunge i 4,2GHz con un consumo/prestazioni leggermente migliore rispetto ad un Thuban, se non è un miracolo lo si deve unicamente a meriti architetturali di BD e non certamente per il silicio.

paolo.oliva2
01-04-2012, 20:23
Secondo me il problema non è l'architettura, ma l'elevata latenza della cache. Che cosa ne pensate? Secondo me forse la latenza della cache può contare più dell'architettura in una CPU.

Io sono dell'idea che AMD possa aver impostato le latenze così alte alle cache principalmente per 2 distinti motivi.

Il primo è sulla previsione di clock ben più alti... stile DDR3, il problema è che con le memorie se abbassi la frequenza puoi impostare timing più aggressivi, probabilmente in BD non era possibile rimanendo nei tempi di produzione/commercializzazione.

In secondo luogo... problemi con il silicio. Se prendete PSchech, viene LIMPIDAMENTE mostrato che la tensione NB (che interessa la L3 e l'MC), per 2,2GHz è 1,165V, per 800MHz, in idle, PASSA A 1,45V.
Per chi ha dimestichezza con il il Thuban, sa che passando in idle si possono diminuire sia il Vcore core che il Vcore NB. Per quale motivo invece in BD lo si deve aumentare? :eek:

capitan_crasy
02-04-2012, 00:03
Quì.... (http://www.pcgameshardware.de/aid,875463/Bulldozer-FX-4200-Release/CPU/News/) hanno il dubbio di un possibile errore da parte di gigabyte nella pubblicazione, ma loro non sanno che io sò.. :D e quindi traggono conclusioni basandosi da un unica fonte.

I dati che ti ho inviato dei 4 FX restano per il momento confermati al 100%, vedremo nei prossimi giorni se ci sarà qualche ulteriore novità.

Tengo a precisare che quel procio non è mai arrivato fisicamente, quindi si potrebbe pensare anche ad un errore di comunicazione da parte di AMD ai produttori, ma ne dubito fortemente... ;)
Grazie della segnalazione, in attesa di novità...:)

-Maxx-
02-04-2012, 09:13
Quì.... (http://www.pcgameshardware.de/aid,875463/Bulldozer-FX-4200-Release/CPU/News/) hanno il dubbio di un possibile errore da parte di gigabyte nella pubblicazione, ma loro non sanno che io sò.. :D e quindi traggono conclusioni basandosi da un unica fonte.

I dati che ti ho inviato dei 4 FX restano per il momento confermati al 100%, vedremo nei prossimi giorni se ci sarà qualche ulteriore novità.

Tengo a precisare che quel procio non è mai arrivato fisicamente, quindi si potrebbe pensare anche ad un errore di comunicazione da parte di AMD ai produttori, ma ne dubito fortemente... ;)

Ok, attendiamo gli sviluppi :fagiano:

Io sono dell'idea che AMD possa aver impostato le latenze così alte alle cache principalmente per 2 distinti motivi.

Il primo è sulla previsione di clock ben più alti... stile DDR3, il problema è che con le memorie se abbassi la frequenza puoi impostare timing più aggressivi, probabilmente in BD non era possibile rimanendo nei tempi di produzione/commercializzazione.

In secondo luogo... problemi con il silicio. Se prendete PSchech, viene LIMPIDAMENTE mostrato che la tensione NB (che interessa la L3 e l'MC), per 2,2GHz è 1,165V, per 800MHz, in idle, PASSA A 1,45V.
Per chi ha dimestichezza con il il Thuban, sa che passando in idle si possono diminuire sia il Vcore core che il Vcore NB. Per quale motivo invece in BD lo si deve aumentare? :eek:

Bug?

.338 lapua magnum
02-04-2012, 10:25
Speriamo allora che qualcuno pubblichi qualche risultato su un sistema senza le patch per i BD così si potrà vedere l'effettivo effetto del tuo tweak. Personalmente non proverò a disinstallare le patch perchè non voglio rischiare di incasinare win, già l'ho reinstallato 2 volte fra ieri e l'altro ieri, non voglio rischiare una terza:D

Intanto ho iniziato l'ottimizzazione dei P-State: il P6 l'ho abbassato da 1.4GHz@0.9125V a 0.8GHz@0.85V, il Turbo_all ho ridotto la tensione da 1.4125V a 1.3875V mentre il Turbo_max l'ho ridotto da 1.4125V a 1.4V. Col tempo vedrò di ottimizzarli meglio.

il turbo imposta valori molto alti, penso che puoi ridurre ancora molto. (io sono a 4 ghz con 1.33v in OC (6Th)).

P.S. hai fatto un buon acquisto, cpu discreta ad un costo contenuto.
grazie per la tabella comparativa.

dav1deser
02-04-2012, 12:51
il turbo imposta valori molto alti, penso che puoi ridurre ancora molto. (io sono a 4 ghz con 1.33v in OC (6Th)).

P.S. hai fatto un buon acquisto, cpu discreta ad un costo contenuto.
grazie per la tabella comparativa.

Si lo so è che non avendo idee su come testare il turbo mi sono limitato a quelle riduzioni, ma poi le miglioro, ad esempio per i 3.3GHz sono passato da poco più di 1.3V a poco meno di 1.19. Con calma lavorerò bene a tutti i P-State per ottimizzarli a dovere.

paolo.oliva2
02-04-2012, 13:17
Si lo so è che non avendo idee su come testare il turbo mi sono limitato a quelle riduzioni, ma poi le miglioro, ad esempio per i 3.3GHz sono passato da poco più di 1.3V a poco meno di 1.19. Con calma lavorerò bene a tutti i P-State per ottimizzarli a dovere.

Occhio ad una cosa... non guardare solamente l'RS di per sé, ma anche confrontare risultati di qualche bench fatti alla stessa frequenza e poi abbassando il Vcore.
Buldozer ha una grande tolleranza di rimanere comunque RS a Vcore bassi, ma calano le prestazioni, probabile per ritrasmissioni interne.

Per il discorso turbo... praticamente io ho fatto così, con le frequenze 8150 che sono 3,6GHz, 3,9GHz e 4,2GHz, disabilitando il turbo.

3,6GHz RS massime prestazioni, Vcore X
3,9GHz RS massime prestazioni, Vcore Y
4,2GHz RS massime prestazioni, Vcore Z.

Una volta che hai trovato le tensioni idonee a quelle frequenze, semplicementi basta attivare il turbo ed impostare il valore Vcore ai vari Pstate.
Un'altra cosa, il turbo massimo che per default è applicabile al 50% dei core, con AOD lo si può settare per 6 core o anche per tutti i core. Quindi potrebbe essere utile, testando se la dissipazione del procio tiene, per aumentare il numero dei core alla frequenza massima.

dav1deser
02-04-2012, 13:23
Occhio ad una cosa... non guardare solamente l'RS di per sé, ma anche confrontare risultati di qualche bench fatti alla stessa frequenza e poi abbassando il Vcore.
Buldozer ha una grande tolleranza di rimanere comunque RS a Vcore bassi, ma calano le prestazioni, probabile per ritrasmissioni interne.

Lo so avevo già letto di questa tua scoperta...difatti ho usato IBT che al termine di ogni ciclo da anche un valore in GFlops e mi sono assicurato che non variasse rispetto alla tensione default.

Comunque ecco un nuovo piccolo test: gli FPS con l'emulatore della PS2 (PCSX2) usando Gran Turismo 4, lasciando tutto in automatico, impostando affinità su 2 core di 2 moduli, impostando l'affinità su 2 core di 1 modulo:
http://img42.imageshack.us/img42/2710/gt4moduli.jpg (http://imageshack.us/photo/my-images/42/gt4moduli.jpg/)
Chiaramente è vantaggioso usare i 2 moduli, ma (penso per via della patch di windows) più o meno lo faceva già in automatico quindi la differenza è minima.

gianni1879
02-04-2012, 17:49
Cioè, ti sei comprato un'architettura AM3+ in questi giorni?
Anche la scheda madre?
A neanche un mese dagli Ivy?

Abbiamo il primo pesce d'aprile!!! :sofico:

5gg di sospensione, anche in virtù degli altri post successivi.

Randa71
02-04-2012, 22:57
http://www.xbitlabs.com/news/multimedia/display/20120328153153_Sony_PlayStation_4_to_Drop_Compatibility_with_PlayStation_3_Used_Games_Report.html

se la notizia fosse vera, penso che sarebbe una bella boccata d'ossigeno per le finanze di AMD.

"....Based on what is currently known about the PlayStation 4 is that it is based on a microprocessor and a graphics processing unit (GPU) designed by Advanced Micro Devices...."
immagino che l'architettura della CPU sia basata su BD
qualcuno ne sa qualcosa in +??

Cocco83
02-04-2012, 23:09
http://www.marketwire.com/press-release/amd-appoints-darrell-ford-as-senior-vice-president-and-chief-human-resources-officer-nyse-amd-1639401.htm

capitan_crasy
03-04-2012, 00:07
http://www.xbitlabs.com/news/multimedia/display/20120328153153_Sony_PlayStation_4_to_Drop_Compatibility_with_PlayStation_3_Used_Games_Report.html

se la notizia fosse vera, penso che sarebbe una bella boccata d'ossigeno per le finanze di AMD.

"....Based on what is currently known about the PlayStation 4 is that it is based on a microprocessor and a graphics processing unit (GPU) designed by Advanced Micro Devices...."
immagino che l'architettura della CPU sia basata su BD
qualcuno ne sa qualcosa in +??

Si su due cose...
La prima è che ci sono troppe voci sulle eventuali teorie per le consone next generation, fra l'altro quasi tutte sono mezze ciofeche; la seconda è che siamo OT...
Comunque sia per pura accademia è plausibile che AMD studi una APU specifica per un eventuale utilizzo su console, comunque sia diversa dalle soluzioni previste per il mercato PC.
Inoltre è una falsa premessa che le console portino tanti soldi, AMD attualmente è presente su due scatolette e purtroppo non hanno mai mosso una quantità di guadagno degna di nota, ne tanto meno si è potuto utilizzare il nome per farsi una sorta di pubblicità...

shellx
03-04-2012, 00:17
cut....

http://www.tomshw.it/cont/news/ps4-senza-processore-cell-e-partita-a-due-tra-amd-e-ibm/36194/1.html

Gli sviluppatori hanno avuto diversi problemi a programmare per il Cell, specialmente nei primi anni di vita della console. E come se questo non bastasse, va ricordato che Sony pensava di poter rifarsi dell'investimento rendendo il Cell un prodotto di massa anche in ambito server e nei dispositivi multimediali. Cosa che non è avvenuta. Scegliendo una soluzione x86, Sony potrebbe consentire a tanti sviluppatori di lavorare in modo più facile, dato che parliamo di un'architettura stra-conosciuta.
Eeeeee ? Trovano? E come maaai ? :fagiano:
Difficilmente l'azienda s'imbarcherà nell'arduo compito di realizzare un nuovo microprocessore attorno a cui far ruotare l'intera console. Quale strada potrebbe aver preso? Stando alle indiscrezioni recenti, potrebbe aver optato per una CPU AMD.
Non è da escludere che le due aziende, parlando della parte grafica, abbiamo spostato il discorso anche sul processore. Impossibile dire ora se la PS4 potrebbe avere una APU di nuova concezione (CPU+GPU integrata) o un processore dedicato, basato su architettura Piledriver, con grafica separata.

Secondo me un APU Trinity basta e avanza per quei giocattoli per quanto riguarda la parte x86 di trinity. Ma la parte grafica di trinity mi sa tanto che non superera di molto quello che oggi gia offre ilprocessore grafico della PS3.
Per cui secondo me sara cpu x86 con una gpu per i fatti suoi piu potente di quella integrata su trinity. Ma è anche vero che....

In ogni caso, poiché sembra possibile un debutto nel 2013, le decisioni dovrebbero essere già state prese.
Ecco 2013 ? Piledriver ? E perchè ?
Ci sara steamroller...possono adottare l'apu Kaviar cheavra una gpu dentro piu potente di trinity.
O se proprio vogliono fare gli ingordi,ci mettono una cpu steamroller + una gpu peri fatti suoi basata su hd7000 o la prossima hd8000.
Non capisco perchè usare piledriver nel 2013.

Ma secondo me alla fine ci infilano CELL...IBM siinventa qualche chip magico per la ps4...che secondo me è pure meglio da certi punti di vista. Peggio per gli sviluppatori pero. Ma del resto come hanno fatto finora continueranno a fare...pero pensandoci una cpu x86 dentro PS4 è una cosa positiva anche per i gamer pc...cosi FINISCE finalmente l'inutile PORTING Console to PC.

PS: Randa finalmente sei fra noi è da 4 giorni che ti cerco...mi servi da cavia per un utility che ho gia finito ma che prima di linkare voglio essere sicuro di certe cose..ora ti spiego tutto in pm.

shellx
03-04-2012, 00:23
Si su due cose...
Comunque sia per pura accademia è plausibile che AMD studi una APU specifica per un eventuale utilizzo su console, comunque sia diversa dalle soluzioni previste per il mercato PC.

Secondo me è tutto un fake. Nel 2013 un Kaviar APU basta e avanza per sti giocattoli. E se fosse vero un architettura x86 dentro console gioverebbe anche a chi gioca con i pc, per il discorso porting.

Inoltre è una falsa premessa che le console portino tanti soldi, AMD attualmente è presente su due scatolette e purtroppo non hanno mai mosso una quantità di guadagno degna di nota, ne tanto meno si è potuto utilizzare il nome per farsi una sorta di pubblicità...

Perchè chi compra console se ne frega altamente di cosa ci sia dentro la scocca essendo soluzione per noob bella compatta e pronta all'uso...ergo dopo l'acquisto, tali utenti sono gia sbavanti dietro gamestop a comprare l'ultimo titolo da bava cremosa.

paolo.oliva2
03-04-2012, 08:21
Nuova release AOD, scaricabile dal sito AMD

Release Notes for Version: 4.1 (Build 575)
Release Date: March, 2012
The award-winning AMD OverDrive™ gives you complete control of your system. Personalize your experience
in real time with easy-to-use screens designed for novice to expert users. AMD OverDrive™ allows user to
tune parameters to help system stability, optimize performance, and control cooling/acoustic characteristics.
This version of AMD OverDrive™ Utility supports systems with the following AMD products:
・ AMD A8-3870K Black Edition APU
・ AMD A6-3670K Black Edition APU

Pat77
03-04-2012, 09:34
Io sono dell'idea che AMD possa aver impostato le latenze così alte alle cache principalmente per 2 distinti motivi.

Il primo è sulla previsione di clock ben più alti... stile DDR3, il problema è che con le memorie se abbassi la frequenza puoi impostare timing più aggressivi, probabilmente in BD non era possibile rimanendo nei tempi di produzione/commercializzazione.

In secondo luogo... problemi con il silicio. Se prendete PSchech, viene LIMPIDAMENTE mostrato che la tensione NB (che interessa la L3 e l'MC), per 2,2GHz è 1,165V, per 800MHz, in idle, PASSA A 1,45V.
Per chi ha dimestichezza con il il Thuban, sa che passando in idle si possono diminuire sia il Vcore core che il Vcore NB. Per quale motivo invece in BD lo si deve aumentare? :eek:

Sarà una sorta di vdrop stile cpu, anche se il divario mi embra assolutamente eccessivo.

paolo.oliva2
03-04-2012, 10:01
Sarà una sorta di vdrop stile cpu, anche se il divario mi embra assolutamente eccessivo.

Però, prima dell'uscita... girava la voce circa dei problemi sulla cache L3...
Credo che i prb siano stati parecchi ed in fin dei conti i tempi erano stretti... BD aveva già subito uno slittamento... nel male o nel bene comunque doveva commercializzarlo ed è probabile che di compromessi ne siano stati fatti parecchi.
Non possiamo dimenticarci che sviluppare un'architettura nel contempo su un silicio nuovo, porta ad un numero di prb esponenziale... perché supporrei che sia difficile stabilire se il problema che si trova dipenda dall'architettura o dal silicio...

Pat77
03-04-2012, 10:58
Però, prima dell'uscita... girava la voce circa dei problemi sulla cache L3...
Credo che i prb siano stati parecchi ed in fin dei conti i tempi erano stretti... BD aveva già subito uno slittamento... nel male o nel bene comunque doveva commercializzarlo ed è probabile che di compromessi ne siano stati fatti parecchi.
Non possiamo dimenticarci che sviluppare un'architettura nel contempo su un silicio nuovo, porta ad un numero di prb esponenziale... perché supporrei che sia difficile stabilire se il problema che si trova dipenda dall'architettura o dal silicio...

Per me da entrambi, silicio consumi, architettura ipc.

paolo.oliva2
03-04-2012, 11:25
Riporto questa tabella su Trinity, anche se OT, perché secondo me rispecchierebbe in pieno il prb del silicio B2g.

http://www.nordichardware.com/news/69-cpu-chipset/45627-amd-trinity-a8-4500m-benchmarked-in-folding.html

Trinity 35W confrontato con Llano 35W otterrebbe, un +5,47% in FP ed un +38,67% in INT.

(supponendo che il dato sia reale)

Porto in causa l'argomento perché secondo me rappresenta il centro di quanto abbiamo discusso sino ad ora, circa la validità dell'architettura BD basandosi unicamente sull'IPC.

Llano è un K10 con L2 da 1MB anziché 512KB, senza L3 e IGP incorporata, quindi comunque l'IPC rispecchia quello di un K10.
Trinity a parità di TDP (presumibilmente meno per la parte X86 perché la parte grafica è del 50% più potente rispetto a Llano), risulta esprimere un rapporto consumo/prestazioni nettamente migliore di Llano, ma A QUELLE FREQUENZE.
Il punto focale della diatriba è che l'architettura BD richieda un super-silicio per compensare l'IPC inferiore o che BD sia menomato per via di un under-silico :).

Ora... un Thuban 45nm low-k è 125W per 3,3GHz, immaginandolo sul 32nm HKMG ULK, l'aspettativa sarebbe 95W a parità di frequenza e 3,8GHz def almeno a parità di TDP.
Sempre sulla base Llano-Trinity, con lo stesso consumo/prestazioni e prestazioni a parità di TDP, un BD X6 dovrebbe avere una frequenza maggiore del 25% rispetto al Thuban 45nm, cioè circa 4GHz def.
Sarebbe possibile?
Sappiamo tutti che l'architettura BD ha introdotto features incentrate su un consumo complessivo inferiore rispetto al K10, circa il Vcore variabile a modulo, lo spegnimento dei moduli non attivi, il CMT con la condivisione di parti dei core... quindi se reputassimo fattibili i 3,8GHz per un Thuban a 32nm 125W, a maggior ragione sarebbero possibili i 4GHz def per un BD X6, perché 200MHz in più non presenterebbero alcuna impennata dei consumi, visto che già lo step B2g lo presenta oltre i 4,6GHz.
Quindi si arriverebbe al concetto che l'architettura BD eguaglierebbe core to core l'architettura K10 (se il turbo facesse la sua parte per l'ST), ma indubbiamente, arrivati a sto punto, il CMT, garantendo più core, renderebbe possibile un plus di potenza MT non indifferente.

Trinity da solo non può confermare un miglioramento dei consumi a frequenze alte del PP 32nm, ma comunque confermerebbe che l'efficienza dell'architettura BD c'è, se supportata da un silicio decente.

Se BD dovesse girare a 5GHz def per essere competitivo, allora si che ci sarebbe prb dell'architettura per una inefficienza IPC, ma se il silicio permettesse >4GHz def (e secondo me nettamente alla portata per un 32nm HKMG ULK + architettura BD), il problema IPC semplicemente non esisterebbe e incrementi già del 10% (piledriver/Vishera) non farebbe altro che migliorare la situazione.

capitan_crasy
03-04-2012, 13:41
ma tutto ciò a ke step produttivo?
nel senso:
Zambezi è b2g (e si mormora forse se uscirà 8170 b3, ma :boh: non credo a questo punto, il 4170 è b2g)
Piledriver? C?...E?... si sa già per trinity?... l'evoluzione del 45nm ha proposto thuban e zosma cn step E0 e ciò ha portato queste soluzioni a x6 125watt oppure x4 95watt da 3.4ghz BE...
ma se cn steamroller passeranno ai 28nm, si fermerebbe lo sviluppo dei 32nm e di piledriver molto prima ke non cn i 45nm(E0), ma cn quale step? a questo punto il migliore possibile si spera...
e poi, cn i 28nm cm step ed evoluzione saremmo punto a capo oppure il fatto ke ora producono la vga a 28nm aiuta in tal senso? :stordita:

Allora...
Al 95% non ci sarà lo step B3 per Zambezi.
Si sa che Trinity definitivo dovrebbe avere uno step A1, mentre i primi sample di Vishera corrispondevano allo step C0; entrambi gli step sono basati su silicio 32nm SOI di seconda generazione...
Per quanto riguarda gli step per steamroller essendo basati su un silicio diverso da quello del SOI non ci sono ancora informazioni sulla sua linea evolutiva...

paolo.oliva2
03-04-2012, 14:55
1 domanda OT...
ma come mai nelle VGA si da poca importanza a questo fattore, invece nei processori è più fondamentale?
...non per altro in giro non riesco neanche a trovare quale sia lo step produttivo, ke poi comprare la stessa VGA ad 1 anno di distanza dall'uscita non penso sia uguale, anche in termini di oc magari... mi scuso per l'ot...

Io penso che sono 2 mercati ben differenti... in primis perché i proci sono SOI e le VGA Bulk, poi penso che l'evoluzione VGA viaggia ad anni luce rispetto ai proci.
Facendo un esempio, secondo me nel campo CPU si ottiene più vantaggio miniaturizzando il silicio che evolvendo l'architettura... e comunque sarebbe possibile avere una architettura VGA fatta per il 40nm pure nel 65nm, magari ad un clock inferiore, cosa che un procio (considerando versioni con un numero di core massimo) realizzato per il 32nm non lo puoi portare sul 45nm.

Insomma... sui proci paga "perdere" 1 anno (e maggiori guadagni commerciali) per riproporre la stessa architettura con una miniaturizzazione inferiore... nelle VGA, l'aumento di prestazioni è maggiore con il rinnovo/ottimizzazione dell'architettura, più che sul silicio, perdere 1 anno significherebbe avere un prodotto inferiore.

Il motivo non lo... però credo che la potenza elaborativa delle VGA sia enorme rispetto a quello delle CPU... quindi non sono necessarie frequenze elevate... non viaggiano circa ad 1GHz? Infatti è anche per questo che sono realizzate su Bulk, leakage e quant'altro non sono un problema. Più che altro credo che la miniaturizzazione silicio venga vista come un'opportunità per aumentare il num dei transistor :)

shellx
03-04-2012, 15:51
[OT ON]

Chiedo perdono per l'ot, ma visto che se ne era parlato ieri: http://www.gamemag.it/news/sony-sicura-di-lanciare-playstation-4-prima-della-prossima-xbox_41521.html

Stando alle ultime indiscrezioni, il progetto segreto di Sony sulla prossima generazione di PlayStation si chiamerebbe Orbis e sarebbe basato su hardware AMD con CPU AMD x64 e di una GPU Southern Islands. L'abbandono del processore Cell, su cui è basata PlayStation 3, ha modificato i piani di alcuni sviluppatori di videogiochi, come Crytek, che hanno dovuto riadattare il proprio codice al nuovo hardware AMD, d'altra parte più simile a quello dei tradizionali PC e di Xbox 360.

Quindi si pensa adottera una cpu x86 e a parte INDIPENDENTEMENTE una gpu Southern Island (ergo no apu).
Inoltre come dicevo io ieri questa cosa sara positiva perchè la console avendo una struttura hardware piu simile ai nostri pc tradizionali, porta agli sviluppatori a programmare in un unico ambiente, ergo niente piu porting che per i giocatori pc sono fastidiosi.

Ma come diceva anche il capitano, è da vedere se sono notizie attendibili nonostante l'articolo di hwupgrade.

In tutti i modi essendo OT chiudo qui volevo solo farvelo notare.

[OT OFF]

sergio.p.
03-04-2012, 16:37
le frequenze non sono proibitive considerando un miglioamento di silicio...ma..sarebbe lecito qualche dubbio sul massacro sugli intel

capitan_crasy
03-04-2012, 16:54
1 domanda OT...
ma come mai nelle VGA si da poca importanza a questo fattore, invece nei processori è più fondamentale?
...non per altro in giro non riesco neanche a trovare quale sia lo step produttivo, ke poi comprare la stessa VGA ad 1 anno di distanza dall'uscita non penso sia uguale, anche in termini di oc magari... mi scuso per l'ot...

AMD è diventata famosa per i suoi step legati ai BUG dei 65nm
Dopo di che nel nostro piccolo abbiamo sempre analizzato gli eventuali benefici sia a livello pratico (paolo.oliva rulez :D ) sia a livello teorico (bjt2 docent :winner:) grazie anche ai documenti pubblici AMD...
Le VGA hanno un altro tipo di utilizzo e sono molto meno analizzate su quel lato...

[OT ON]

Chiedo perdono per l'ot, ma visto che se ne era parlato ieri: http://www.gamemag.it/news/sony-sicura-di-lanciare-playstation-4-prima-della-prossima-xbox_41521.html


Quindi si pensa adottera una cpu x86 e a parte INDIPENDENTEMENTE una gpu Southern Island (ergo no apu).
Inoltre come dicevo io ieri questa cosa sara positiva perchè la console avendo una struttura hardware piu simile ai nostri pc tradizionali, porta agli sviluppatori a programmare in un unico ambiente, ergo niente piu porting che per i giocatori pc sono fastidiosi.

Ma come diceva anche il capitano, è da vedere se sono notizie attendibili nonostante l'articolo di hwupgrade.

In tutti i modi essendo OT chiudo qui volevo solo farvelo notare.

[OT OFF]

Il problema è che iniziato il balletto dei rumors sulle scatolette di nuova generazione, quindi ogni rutto o peto che si sente e assomiglia vagamente ai nomi PS4/720/U viene riportato senza nessun ritegno...
Spero solo che i bimbi minkia non comincino una guerra di bandiera sulla marca del silicio anche sulle console...:doh:
Comunque basta OT sulle scatole da pad che questo non è proprio il thread adatto...

l'avevo letto... ottima notizia se fosse vera :sperem:

...ma, http://cdn.overclock.net/9/93/93d7e594_pile-driving.jpeg

hihi... questa immagine l'avevate vista? :D

restando sul vago le frequenze non sono così campate in aria, il numero di thread invece è assolutamente poco credibile...

sergio.p.
03-04-2012, 17:22
restando sul vago le frequenze non sono così campate in aria, il numero di thread invece è assolutamente poco credibile...

magari hanno fatto i core veri con parte logica e con estenzione cluster per l'altro thread xD

shellx
03-04-2012, 17:48
Spero solo che i bimbi minkia non comincino una guerra di bandiera sulla marca del silicio anche sulle console...:doh:


Eheheh sarebbe una figata :D Ci sarebbe davvero da ridere vedere gente che fino a ieri non sapeva nemmeno che dentro la scocca della console ci fosse dell'hardware, prendere i vizietti e le abitudini degli user hardware pc.

magari hanno fatto i core veri con parte logica e con estenzione cluster per l'altro thread xD

Ehehe bella questa, oggi è la giornata del buon umorismo ;)

paolo.oliva2
03-04-2012, 18:53
l'avevo letto... ottima notizia se fosse vera :sperem:

...ma, http://cdn.overclock.net/9/93/93d7e594_pile-driving.jpeg

hihi... questa immagine l'avevate vista? :D
16TH un BD X8:doh:
Comunque, io supporrei per Vishera i 3,9GHz def almeno all'uscita, con i 4,2GHz def a tempi stretti, invece per la frequenza massima penserei anche io a circa 5GHz (specie se il TurboCore3.0 prevedesse il Pstate dell'ultimo modulo).

rainbow69
03-04-2012, 19:02
Scusatemi in anticipo perchè sò di essere ot ma non sapevo a chi altro chiedere.
Dovrei aggiornare cpu (anche scheda madre..etc..etc) ed essendo sempre stato acquirente soddisfatto di AMD vorrei andare ad acquistare tutto per passare a Bulldozer. Posso fare ora l'upgrade o mi conviene aspettare? E su che prodotto rivolgermi (4/6/8 core) uso il pc a 360° ma soprattutto CAD 2D/3D e saltuariamente giochi. Se nessuno può rispondermi potreste darmi l'indirizzo di un thread dove porre la stessa domanda? Grazie in anticipo e scusate di nuovo.

capitan_crasy
03-04-2012, 19:04
Scusatemi in anticipo perchè sò di essere ot ma non sapevo a chi altro chiedere.
Dovrei aggiornare cpu (anche scheda madre..etc..etc) ed essendo sempre stato acquirente soddisfatto di AMD vorrei andare ad acquistare tutto per passare a Bulldozer. Posso fare ora l'upgrade o mi conviene aspettare? E su che prodotto rivolgermi (4/6/8 core) uso il pc a 360° ma soprattutto CAD 2D/3D e saltuariamente giochi. Se nessuno può rispondermi potreste darmi l'indirizzo di un thread dove porre la stessa domanda? Grazie in anticipo e scusate di nuovo.

Clicca qui... (http://www.hwupgrade.it/forum/showthread.php?t=1991810)

Vash_85
03-04-2012, 19:15
l'avevo letto... ottima notizia se fosse vera :sperem:

...ma, http://cdn.overclock.net/9/93/93d7e594_pile-driving.jpeg

hihi... questa immagine l'avevate vista? :D

Un po di tempo fa giravano le stesse immagini solo che al posto di pd c'era bd..... sappiamo tutti come è andata a finire :asd:

rainbow69
03-04-2012, 19:25
Clicca qui... (http://www.hwupgrade.it/forum/showthread.php?t=1991810)

Grazie

Grizlod®
03-04-2012, 19:41
Non credo che quel disegno, intendesse i threads, visibili dal task manager.

Si riferisce al fatto che , ad esempio, in BOINC, si possano aprire 16 crunch-iate contemporaneamente.

16 threads, li supporta pure ora, Bulldozer (come Thuban 12 o Deneb 8).

LS1987
03-04-2012, 20:15
Io sono dell'idea che AMD possa aver impostato le latenze così alte alle cache principalmente per 2 distinti motivi.

Il primo è sulla previsione di clock ben più alti... stile DDR3, il problema è che con le memorie se abbassi la frequenza puoi impostare timing più aggressivi, probabilmente in BD non era possibile rimanendo nei tempi di produzione/commercializzazione.

In secondo luogo... problemi con il silicio. Se prendete PSchech, viene LIMPIDAMENTE mostrato che la tensione NB (che interessa la L3 e l'MC), per 2,2GHz è 1,165V, per 800MHz, in idle, PASSA A 1,45V.
Per chi ha dimestichezza con il il Thuban, sa che passando in idle si possono diminuire sia il Vcore core che il Vcore NB. Per quale motivo invece in BD lo si deve aumentare? :eek:

Se le latenze fossero state non superiori a quelle della cache di Sandy Bridge, di quanto sarebbero migliorate le prestazioni?

capitan_crasy
03-04-2012, 20:58
Se le latenze fossero state non superiori a quelle della cache di Sandy Bridge, di quanto sarebbero migliorate le prestazioni?

Le latenze alte sono dovute anche all'architettura che prevede frequenze alte...
Chiaramente cè un problema sulle latenze perchè sono comunque fin troppo alte per le frequenze di presentazione dei primi FX...

paolo.oliva2
03-04-2012, 22:13
Se le latenze fossero state non superiori a quelle della cache di Sandy Bridge, di quanto sarebbero migliorate le prestazioni?
Che le latenze apportino un degrado di prestazioni, è sicuro, ma altrettanto sicuramente non dovrebbero incidere in modo particolare, senz'altro meno di quanto si pensi, io direi non più di un 2%.

Tieni in considerazione 2 cose...

- la prima è che la L3 di BD è di 8MB ed è esclusiva, quindi l'intero spazio è dedicato ai dati da elaborare o elaborati (una cache inclusiva riserva lo spazio necessario per copiare tutti i dati delle L2 e L1 del procio, quindi lo spazio nominale è superiore a quello realmente effettivo). Inoltre dobbiamo pure considerare che la L3 si avvale di una L2 di 2 MB per modulo, il che comunque è una bella riserva di dati.

- la seconda, ed è una conseguenza della prima, è che occando l'NB (che interessa sia la L3 che l'MC) da 2,2GHz def a 2,5/2,6GHz, si hanno prestazioni superiori di circa il 2%, mentre la stessa cosa con il Phenom II portava aumenti sino al 7%. Se le latenze rappresentassero un problema serio, overcloccando l'NB si dovrebbe avere un notevole aumento prestazionale, che invece non c'è, come pure non ci sono guadagni prestazionali usando DDR3 2133 al posto delle 1600 (a parte i classici bench di banda).

Altro punto... e porto l'esempio del Thuban.
Se occhi l'NB senza aumentare la frequenza dei core, il guadagno è nullo, se occhi solamente i core senza occare l'NB, non hai un aumento delle prestazioni regolare, appunto perché L3/MC provocano un tappo.
Morale, aumentando la frequenza core bisogna aumentare anche la frequenza NB (3,2GHz core / 2GHz NB --> 4,5GHz core 2,8GHz NB).
Occando invece l'8150, fino a 5GHz, lasciando pure l'NB a def, si ha comunque un incremento regolare delle prestazioni.... quindi la L3 non fa da tappo, e se non fa da tappo latenze e quant'altro non possono avere grande importanza. Però, può anche darsi che bench e quant'altro non portino alla situazione che la L3 sia interamente utilizzata... però visto che la L3 deve comunque leggere e scrivere sulle DDR3, di certo in questo caso penalizzerebbe di più montare delle 1600 al posto delle 2133 che le latenze della L3 in sé per sé.

Non posso escludere però nell'8150 ci sia qualche accrocchio che comunque limiti le prestazioni MC/L3/L2 e che forse un Vishera smentisca quanto dico... ma per come è un 8150 il problema latenze per me è il minor dei problemi.

Uncle Scrooge
03-04-2012, 23:08
In linea del tutto teorica, non sarebbe possibile unire entrambe le tecnologie CMT e SMT in un'unica soluzione?

LS1987
04-04-2012, 07:36
In linea del tutto teorica, non sarebbe possibile unire entrambe le tecnologie CMT e SMT in un'unica soluzione?

Hyperthreading?

Phenomenale
04-04-2012, 08:18
non sarebbe possibile unire entrambe le tecnologie CMT e SMT in un'unica soluzione?
Logicamente, la questione è un controsenso. CMT ed SMT fanno la stessa cosa in due modi diversi non sovrapponibili.

Ma la "colpa" di Bulldozer non è il modulo, quella è stata un' idea progettuale brillante, come ci si aspettava da AMD. :)

La colpa è che nel Bulldozer step B2, forse per la fretta di presentare il prodotto, è stato fatto un pastrocchio e i 32nm scarusi gli hanno dato il colpo di grazia: è rimasta una buona idea sfruttata male. :(

Per questo aspettiamo Piledriver... :cool:

paolo.oliva2
04-04-2012, 08:25
quando usi la parola "accrocchio" mi fai spaccare :rotfl:
l'hai già usata mille e mila posta fa...
ps: la uso anche io :D

ma... cn le ddr3 non si dice ke siano meglio latenze basse rispetto a frequenze alte? (almeno era ciò ke avevo letto nel oc del k10 se non erro) oppure meglio il compromesso ma le alte sn mal digerite...
questo può dipendere dall'architettura dunque... magari cn gli am3(k10) era cosi, ora invece cn gli am3+(BD) se ne strasbatte delle latenze e preferisce le frequenze più alte possibili delle ddr3...
in previsione futura dunque penso, quando ci saranno delle APU da grandi performance, ke poi è lo scopo del progetto "BD", queste ultime utilizzeranno delle ddr3/4 delle mobo per il lato igp o come si chiamerà, e se ora utilizzano le ddr5 per le vga discrete ci sara un motivo, :ops: corrono, mentre le ddr3, :ops2: camminano ... :what: :blah: straparlo magari...

A prescindere che dipende dal tipo di programma, se necessita di molti accessi con pochi dati (timing bassi) o pochi accessi per molti dati (quindi + frequenza = + banda).

Dipende dall'MC... all'epoca dei Phenom I e Penry, ad esempio, AMD trovava vantaggio nelle frequenze delle ram e con i timing poco e niente, al contrario, invece, i Penryn trovavano molto vantaggio nei timing e poco o nulla nelle frequenze.
BD guadagna, anche se poco, sia con timing aggressivi che con la frequenza.
Comunque secondo me, anche se influisce poco, sarebbe corretto quando si fanno dei bench utilizzare memorie specifiche all'MC del procio in questione, ancor più se poi si fanno confronti.

paolo.oliva2
04-04-2012, 08:40
Logicamente, la questione è un controsenso. CMT ed SMT fanno la stessa cosa in due modi diversi non sovrapponibili.

Ma la "colpa" di Bulldozer non è il modulo, quella è stata un' idea progettuale brillante, come ci si aspettava da AMD. :)

La colpa è che nel Bulldozer step B2, forse per la fretta di presentare il prodotto, è stato fatto un pastrocchio e i 32nm scarusi gli hanno dato il colpo di grazia: è rimasta una buona idea sfruttata male. :(

Per questo aspettiamo Piledriver... :cool:

Quoto.
L'SMT aumenta i transistor a core per poter processare più di 1 TH pur logicamente, il CMT diminuisce il numero di transistor a core con la condivisione con il fine di avere 2 core e poter processare 2 TH fisicamente.
Diciamo che massimizzando il tutto, almeno sulla carta, il CMT non può garantire la stessa potenza ST di un SMT, mentre l'SMT non dovrebbe arrivare alla potenza MT del CMT.
E' chiaro che tra la carta ed il prodotto finito ci sono tante cose... il silicio, lo stato embrionale dell'architettura BD...
Riflettendo, basta considerare che da un 8150 a Vishera ci dovrebbe essere un incremento di IPC simile a quello avuto nel passaggio dal Phenom I al Phenom II... con la differenza che Vishera non richiederebbe interventi sull'architettura (solamente ottimizzazioni su quello che c'è, sembra) mentre invece gli interventi sull'architettura ci sono stati e notevoli sul passaggio Phenom I-II. Questo già la direbbe lunga su quanto un 8150 stia sfruttando l'architettura BD/CMT... e questo silicio a parte :).

AceGranger
04-04-2012, 08:43
quella è stata un' idea progettuale brillante

parlando solo di architettura, non mi sembra sia poi cosi brillante...

immaginando pure di averlo con le frequenze preventivate, di averlo a 95 watt di TDP, e di avere gli stessi consumi, se la sarebbe giocata con il 2700K ma con una differenza in mm² abissale

BD sono 315 mm²
2700K sono 216 mm²

sinceramente avrei preferito un'architettura SMT;

Phenomenale
04-04-2012, 08:55
parlando solo di architettura, non mi sembra sia poi cosi brillante
Sob, mi hai quotato a metà :cry:
"è rimasta una buona idea sfruttata male"

Il 2700K ha meno area perchè è un quad-core... FX è un octa-core, concediamogli qualche transistor in più ;)

Poi io non sto mica difendendo il bulldozer, ha poca resa per i miei utilizzi... non l'ho nemmeno comprato. Però i concetti tecnici che stanno dietro il progetto li ritengo validi, l'inghippo sulle basse prestazioni IMHO è nel come sono stati implementati (male)... :fagiano:

Uncle Scrooge
04-04-2012, 09:54
L'SMT aumenta i transistor a core per poter processare più di 1 TH pur logicamente, il CMT diminuisce il numero di transistor a core con la condivisione con il fine di avere 2 core e poter processare 2 TH fisicamente.
Diciamo che massimizzando il tutto, almeno sulla carta, il CMT non può garantire la stessa potenza ST di un SMT, mentre l'SMT non dovrebbe arrivare alla potenza MT del CMT.


Mmmh non mi suona molto corretto.
Io la vedo così: rispetto ad un singolo core "standard" (INT+FP) in grado di eseguire un solo thread, l'SMT integra i transistor necessari a far eseguire al core un secondo thread quando il primo thread resta in attesa per qualche motivo, così vengono sfruttati i tempi morti.

Il CMT integra una seconda unità INT, e le due unità INT condividono la stessa unità FP. Anche questo approccio aumenta il numero di transistor rispetto al core "standard", lo aumenta anche più dell'SMT. Ci dovrebbe essere un vantaggio rispetto all'SMT in quanto due thread nelle unità INT possono essere eseguiti in contemporanea sempre, mentre l'unità FP viene sfruttata alternativamente dai due thread secondo la logica dei tempi morti, similmente all'approccio SMT.
Tale soluzione è giustificata dal fatto che i tempi morti in un core standard sono maggiori nella parte FP che in quella INT.

Sulla carta, in ST non dovrebbero esserci differenze tra SMT e CMT, perché in entrambi i casi i transistor "aggiuntivi" rispetto alla singola unità INT+FP non vengono usati. Se poi volevi dire che un singolo core di un processore basato su SMT è di solito più potente perché ha meno core (INT) e quindi può raggiungere frequenze più alte e latenze cache più basse, a pari TDP del procio, allora ok.

Tuttavia io mi chiedevo se non fosse possibile integrare in un modulo bulldozer, nelle unità INT, anche la logica SMT, facendo così eseguire 4 thread ad ogni modulo: ogni unità INT sarebbe in grado di eseguire 2 thread (eliminando i tempi morti) e ogni unità FP 4 thread.

dav1deser
04-04-2012, 13:08
Guardate una cosa curiosa:
http://img823.imageshack.us/img823/8435/7zipd.jpg (http://imageshack.us/photo/my-images/823/7zipd.jpg/)
Con il bench di 7-Zip il punteggio più alto lo si ottiene utilizzando 10Thread, tuttavia l'ottimo sarebbe sfruttare 10Thread in compressione e 6 in decompressione. Il punteggio medio ottenibile sfiorerebbe i 15000MIPs. (Non so perchè ma credo che 9Thread sia una situazione ancora migliore...tuttavia non è un valore selezionabile nel bench)

paolo.oliva2
04-04-2012, 13:47
Mmmh non mi suona molto corretto.
Io la vedo così: rispetto ad un singolo core "standard" (INT+FP) in grado di eseguire un solo thread, l'SMT integra i transistor necessari a far eseguire al core un secondo thread quando il primo thread resta in attesa per qualche motivo, così vengono sfruttati i tempi morti.

Il CMT integra una seconda unità INT, e le due unità INT condividono la stessa unità FP. Anche questo approccio aumenta il numero di transistor rispetto al core "standard", lo aumenta anche più dell'SMT. Ci dovrebbe essere un vantaggio rispetto all'SMT in quanto due thread nelle unità INT possono essere eseguiti in contemporanea sempre, mentre l'unità FP viene sfruttata alternativamente dai due thread secondo la logica dei tempi morti, similmente all'approccio SMT.
Tale soluzione è giustificata dal fatto che i tempi morti in un core standard sono maggiori nella parte FP che in quella INT.

Sulla carta, in ST non dovrebbero esserci differenze tra SMT e CMT, perché in entrambi i casi i transistor "aggiuntivi" rispetto alla singola unità INT+FP non vengono usati. Se poi volevi dire che un singolo core di un processore basato su SMT è di solito più potente perché ha meno core (INT) e quindi può raggiungere frequenze più alte e latenze cache più basse, a pari TDP del procio, allora ok.

Tuttavia io mi chiedevo se non fosse possibile integrare in un modulo bulldozer, nelle unità INT, anche la logica SMT, facendo così eseguire 4 thread ad ogni modulo: ogni unità INT sarebbe in grado di eseguire 2 thread (eliminando i tempi morti) e ogni unità FP 4 thread.

Aspetta... una cosa è parlare di SMT e CMT come principio di architettura, un'altra è quante FP e INT ha un BD attuale, perché se da una parte nulla vieterebbe ad AMD di aumentare FP o INT (un esempio, una FPU in grado di elaborare 2 istruzioni AVX contemporaneamente), dall'altra l'SMT già per logica sua escluderebbe l'elaborazione CONTEMPORANEA di 2 TH intesa come eseguita nello stesso istante, non c'è nulla da "espandere", perché la parte logica è già ottimizzata per 1TH, l'SMT è unicamente a monte, che prepara i 2TH per essere sfruttati assieme, quindi qualsiasi cosa cambieresti sarebbe verso 2TH contemporaneamente, ma non sarebbe più SMT, convieni?

Io ho solamente giudicato l'SMT e il CMT nella sua logica di funzionamento... quindi di per sè l'SMT pompando al massimo l'IPC , è chiaro che dovrebbe raggiungere un IPC ben più alto di un modulo AMD inteso a core che ha la condivisione.

Per contro, in MT, mi sembra altrettanto chiaro che l'SMT sfrutta al 100% il core, e sfrutta la parte "morta" che l'ottimizzazione del programma non sfrutta, e ciò può variare dallo 0% al 50% max... mentre il CMT partendo da 2 core distinti, non avrebbe di certo il prb di alternare l'esecuzione di 2 TH, e almeno concettualmente, 2 core permetterebbero più elaborazione di 1 core SMT.

Non pensare ad un procio Intel e un Procio AMD... perché da una parte abbiamo una Intel al massimo dello sviluppo sia nel silicio che nell'architettura SMT, dall'altra abbiamo un'architettura ancora in fasce (basta pensare al +10% da BD 1° a Piledriver, circa lo stesso guadagno dal passaggio i7 a SB) ed un silicio al di sotto delle aspettative.

Non puoi unire il concetto CMT partendo dalla differenza IPC a monte dei core. Detta semplice... la potenza elaborativa di un core K10 è 100, se porti un K10 in CMT otterrai comunque meno di 100.
Prendendo valori a caso, se un core Intel è 120 senza SMT, e 140 in SMT, non puoi dire che l'SMT guadagna 40 sul K10, perché in realtà lo devi fare su se stesso, cioè da 120 a 140.

P.S. edit.
Tu infatti scrivi giusto quando dici che in ST non ci dovrebbero essere differenze tra SMT e CMT, ma in questo consideravo che l'IPC Intel è superiore all'IPC di BD, quindi il confronto SMT e CMD parte da piani differenti...
AMD si è fermata troppo sul K10 e troppo sul 45nm... tra l'altro fermandosi al solo low-k, nemmeno HKMG. Intel, ha preseguito sullo sviluppo architetturale e pure sul silicio, di certo aiutata da disponibilità finanziarie pressoche illimitate. AMD ha proposto il Phenom II e variante Thuban con il 45nm al massimo low-k, Intel nello stesso periodo di tempo ha buttato fuori gli i7 9XX 45nm e 32nm X6, i7 8XX, SB, SBe e praticamente IVY, passando dal 45nm HKMG e 32nm HKMG riservato ai modelli EE al 32nm di massa con il 22nm alle porte, perfino permettendosi il lusso di commercializzarlo a piacere per massimizzare i guadagni... ed alla fine AMD ha DOVUTO realizzare nuova architettura su un silicio ancora da quantificarne i limiti... solo sulla base che un 32nm HKMG ULK deve permettere TDP molto inferiori rispetto ad un 45nm low-k... e con la solita fortuna AMD (vedi Phenom I e silicio 65nm). E' come partecipare ad una gara di F1 con una macchina ancora da mettere a punto contro un'altra che ha già fatto 1 anno di granpremi e perfettamente a puntino in ogni dettaglio...

°Phenom°
04-04-2012, 21:12
Quoto anche io quanto detto da Paolo, l'errore più grande tra questi è stato proprio quello dell'essersela presa comoda con i k10, ancora mi chiedo perchè AMD non si sia data da fare fin da prima, dato che Intel stava già sfornando una marea di nuove cpu :rolleyes:

Pat77
04-04-2012, 22:05
Quoto anche io quanto detto da Paolo, l'errore più grande tra questi è stato proprio quello dell'essersela presa comoda con i k10, ancora mi chiedo perchè AMD non si sia data da fare fin da prima, dato che Intel stava già sfornando una marea di nuove cpu :rolleyes:

Perchè Intel ha una capitalizzazione di oltre 100 miliardi di dollari e AMD non arriva a 5 ;), non è che se l'è presa comoda ha ragionato secondo le sue potenzialità economiche in ambito ricerche e ha puntato molto sulle APU più che suelle cpu performance desktop.

°Phenom°
04-04-2012, 22:26
Beh ovviamente il divario economico tra le 2 aziende non irrilevante conta molto, ma lo stesso AMD poteva iniziare poco prima lo sviluppo di bulldozer, in modo da metterlo in commercio in tempo e magari con le giuste ottimizzazioni, facendo anche accurati test ;)

Phenomenale
04-04-2012, 22:36
l'errore più grande tra questi è stato proprio quello dell'essersela presa comoda con i k10, ancora mi chiedo perchè AMD non si sia data da fare fin da prima
Eh, ma non è così facile progettare nuove cpu. Non è se la siano intenzionalmente presa comoda, hanno tirato avanti con quello che avevano disponibile.

E' facile dire "non capisco perchè non lo abbiano fatto prima"... provateci Voi a progettare un microprocessore x86 veloce e multicore e in poco tempo :Prrr:

AMD poteva iniziare poco prima lo sviluppo di bulldozer
Ma Bulldozer è un progetto nato nel 2006...

°Phenom°
04-04-2012, 22:55
Si ma poi i lavori su bulldozer non erano mai stati avviati anche se era in progetto, per questo ho detto che se la sono presa un pò troppo comoda, il progetto c'era già, bastava iniziare qualche mese prima per avere già dei ventaggi ora come ora.

capitan_crasy
04-04-2012, 23:36
Si ma poi i lavori su bulldozer non erano mai stati avviati anche se era in progetto, per questo ho detto che se la sono presa un pò troppo comoda, il progetto c'era già, bastava iniziare qualche mese prima per avere già dei ventaggi ora come ora.

Il progetto Bulldozer è stato annunciato prima ancora che il K10 fosse presentato ufficialmente ed era molto diverso da quello uscito qualche mese fa...
AMD ha cancellato il progetto a 45nm con SSE5 e core "tradizionale" per motivi ancora ignoti, puntando su un architettura "cluster" a frequenze alte con istruzioni AVX su silicio 32nm...
AMD ha lavorato bene in quanto l'architettura non presenta BUG critici (al contrario dei K10 a 65nm), il problema rimane il silicio ma questo discorso è ormai trito e ritrito...

papafoxtrot
04-04-2012, 23:57
Che le latenze apportino un degrado di prestazioni, è sicuro, ma altrettanto sicuramente non dovrebbero incidere in modo particolare, senz'altro meno di quanto si pensi, io direi non più di un 2%.

Tieni in considerazione 2 cose...

- la prima è che la L3 di BD è di 8MB ed è esclusiva, quindi l'intero spazio è dedicato ai dati da elaborare o elaborati (una cache inclusiva riserva lo spazio necessario per copiare tutti i dati delle L2 e L1 del procio, quindi lo spazio nominale è superiore a quello realmente effettivo). Inoltre dobbiamo pure considerare che la L3 si avvale di una L2 di 2 MB per modulo, il che comunque è una bella riserva di dati.

- la seconda, ed è una conseguenza della prima, è che occando l'NB (che interessa sia la L3 che l'MC) da 2,2GHz def a 2,5/2,6GHz, si hanno prestazioni superiori di circa il 2%, mentre la stessa cosa con il Phenom II portava aumenti sino al 7%. Se le latenze rappresentassero un problema serio, overcloccando l'NB si dovrebbe avere un notevole aumento prestazionale, che invece non c'è, come pure non ci sono guadagni prestazionali usando DDR3 2133 al posto delle 1600 (a parte i classici bench di banda).

Altro punto... e porto l'esempio del Thuban.
Se occhi l'NB senza aumentare la frequenza dei core, il guadagno è nullo, se occhi solamente i core senza occare l'NB, non hai un aumento delle prestazioni regolare, appunto perché L3/MC provocano un tappo.
Morale, aumentando la frequenza core bisogna aumentare anche la frequenza NB (3,2GHz core / 2GHz NB --> 4,5GHz core 2,8GHz NB).
Occando invece l'8150, fino a 5GHz, lasciando pure l'NB a def, si ha comunque un incremento regolare delle prestazioni.... quindi la L3 non fa da tappo, e se non fa da tappo latenze e quant'altro non possono avere grande importanza. Però, può anche darsi che bench e quant'altro non portino alla situazione che la L3 sia interamente utilizzata... però visto che la L3 deve comunque leggere e scrivere sulle DDR3, di certo in questo caso penalizzerebbe di più montare delle 1600 al posto delle 2133 che le latenze della L3 in sé per sé.

Non posso escludere però nell'8150 ci sia qualche accrocchio che comunque limiti le prestazioni MC/L3/L2 e che forse un Vishera smentisca quanto dico... ma per come è un 8150 il problema latenze per me è il minor dei problemi.

Sono in parte d'accordo con te... O meglio: Per quanto riguarda la L3 ciò che dici parrebbe indiscutibile... Ma in BD la cache di gran lunga più lenta e probabilmente limitante è la L1, che tra l'altro è anche stata rimpicciolita parecchio, avendo impostato la L2 come inclusiva... E per quella non è possibile fare un simile test. Neanche la L2 da buoni risultati, e forse sarebbe meglio una cache più rapida ma meno capiente, ogni tanto...

In linea del tutto teorica, non sarebbe possibile unire entrambe le tecnologie CMT e SMT in un'unica soluzione?

Logicamente, la questione è un controsenso. CMT ed SMT fanno la stessa cosa in due modi diversi non sovrapponibili.

Ma la "colpa" di Bulldozer non è il modulo, quella è stata un' idea progettuale brillante, come ci si aspettava da AMD. :)

La colpa è che nel Bulldozer step B2, forse per la fretta di presentare il prodotto, è stato fatto un pastrocchio e i 32nm scarusi gli hanno dato il colpo di grazia: è rimasta una buona idea sfruttata male. :(

Per questo aspettiamo Piledriver... :cool:

Non sono d'accordo, il CMT e l'SMT sono a mio avviso implementabili contemporaneamente, tant'è che se non sbaglio l'architettura di SUN che per prima avrebbe dovuto implementare il CMT, prevedeva anche l'SMT, come ormai in tutti i processori di fascia alta.

Dire che SMT e CMT hanno lo stesso scopo è fuorviante. Si ok, si può dire che hanno lo scopo di ottimizzare lo sfruttamento degli spazi e delle risorse condivise... Ma mentre lo scopo chiave dell'SMT è fare in modo che la pipeline di un core non resti mai ferma, CMT funziona in modo opposto... Ne mette due, ma con una logica di controllo sola, col risultato che queste due lavoreranno di meno rispetto al caso di una CPU tradizionale...

A mio avviso se AMD voleva puntare sul numero di core, tutto doveva fare, ma non puntare anche sulle frequenze alte e sulle pipeline lunghe, scelte che invece si adattano meglio ad un'architettura SMT, che permette di mascherare gli inevitabili aumenti degli stalli della pipeline che ne conseguono...

Certo probabilmente l'SMT lo stanno anche studiando... ma già da una CPU tradizionale, tirar fuori un bell'incremento di prestazioni non è facile, la stessa intel ci ha messo parecchio tempo... Ai tempi del P4 i risultati erano controversi, e quando sono passati all'architettura core, con le pipeline corte, l'SMT per come funzionava allora non era più così efficace. Solo con i nehalem è diventato un vero successo. AMD non solo non ne ha la stessa esperienza, ma dovrebbe anche implementarlo in un'architettura che già prevede una condivisione della logica di controllo e delle FPU... Col risultato che 2 core e quattro thread dovrebbero accedere alla stessa FPU, che però è sdoppiabile... Un guazzabuglio capace di far perdere la ragione alle menti più brillanti, probabilmente.

Secondo me integrare simili soluzioni è però un lavoro dove persone abituate a lavorare sulle GPU riuscirebbero bene. E' caratteristico delle GPU, infatti, l'avere un'elevato parallelismo ed una condivisione delle risorse estremamente spinta... Chissà se l'acquisizione di ATI le permetterà in futuro di fare il botto... Anche l'architettura delle CPU sta un po' alla volta diventando sempre più parallelizzata, con unità di esecuzione che non crescono quasi più in complessità, e aumentano di numero di generazione in generazione...

paolo.oliva2
05-04-2012, 00:31
PURTROPPO ancora non si può sapere il PP del 32nm a frequenze alte... comunque è di buon auspicio che Trinity guadagni un totale di frequenza su Llano oltretutto con 35W TDP in meno.

L'A10-5700 è un 65W TDP contro i 100W di Llano, 3,4GHz def contro i 2,9GHz di Llano, 4GHz di massima frequenza Turbo contro nessun Turbo di Llano.

Supponendo che la L3 di Vishera con l'I/O ulteriore dovrebbe avere un consumo simile ad un Trinity APU... si potrebbe ipotizzare che un Vishera X4 possa già arrivare sui 4GHz con solamente 65W TDP... e con 60W di margine (125W TDP) ?

Beh... dite quello che vi pare, ma 4GHz con un APU rimanendo sotto i 65W TDP, non è cosa da poco... soprattutto guardando i B2G X4 che necessitano 125W per arrivarci e superarli di 300MHz..

paolo.oliva2
05-04-2012, 00:43
Sono in parte d'accordo con te... O meglio: Per quanto riguarda la L3 ciò che dici parrebbe indiscutibile... Ma in BD la cache di gran lunga più lenta e probabilmente limitante è la L1, che tra l'altro è anche stata rimpicciolita parecchio, avendo impostato la L2 come inclusiva... E per quella non è possibile fare un simile test. Neanche la L2 da buoni risultati, e forse sarebbe meglio una cache più rapida ma meno capiente, ogni tanto...

Comunque si parte dal presupposto che se fosse più veloce certamente non gli farebbe mica male :D :)
Del resto... io ho postato le mie impressioni occandolo, però ci possono essere 1000 concause che renderebbero i miei test inutili.

Però... a discorso obiettivo... a manica larga a BD manca almeno un 20% di potenza verso il Phenom II e diciamo un 40% nell'ottica che un modulo BD dovrebbe dare una potenza maggiore rispetto ad un core SMT...
Secondo me... è giusta una affermazione fatta appena dopo l'uscita di BD... ad occhio e croce diceva così: "non c'è una causa principale della potenza inferiore alle aspettative di BD, ma tante piccole cause (e fra queste probabilmente anche le latenze delle cache) che sommate fanno la differenza".
Io non mi aspetto certamente miracoli, però sarei convinto che se Vishera confermasse almeno un 10% di incremento di IPC seguito da un 10-15% di aumento frequenze operative, per me le latenze delle cache potrebbero anche rimanere invariate (magari così favorendo l'OC).

°Phenom°
05-04-2012, 00:58
Beh, certamente se Vishera conferma le aspettative, in teoria dovrebbe raggiungere i Phenom II in single, poi sperando anche in un buon silicio, potrebbe essere una buona cpu ;)

shellx
05-04-2012, 01:41
Il progetto Bulldozer è stato annunciato prima ancora che il K10 fosse presentato ufficialmente ed era molto diverso da quello uscito qualche mese fa...
AMD ha cancellato il progetto a 45nm con SSE5 e core "tradizionale" per motivi ancora ignoti, puntando su un architettura "cluster" a frequenze alte con istruzioni AVX su silicio 32nm...
AMD ha lavorato bene in quanto l'architettura non presenta BUG critici (al contrario dei K10 a 65nm), il problema rimane il silicio ma questo discorso è ormai trito e ritrito...

Quoto.
Si dovrebbe aereografarlo nel titolo del thread per bacco.

Non sono d'accordo, il CMT e l'SMT sono a mio avviso implementabili contemporaneamente, tant'è che se non sbaglio l'architettura di SUN che per prima avrebbe dovuto implementare il CMT, prevedeva anche l'SMT, come ormai in tutti i processori di fascia alta.

Cut...


Sono d'accordo con quello che dici.
Ma io so anche che l'approccio CMT nasce piu che altro per rendere flessibile e semplice le progressive integrazioni di ulteriori cluster (di tipo x86 e/o gpu).
Trinity= architettura Piledriver + GPU per i fatti suoi dentro lo stesso package.
Nel 2015/16 l'APU ibrida dovrebbe prevedere un approccio diverso, che solo il CMT puo dare:
(clusterX.x86~clusterY.gpu * X cluster's.x86.gpu~)* Y moduli ed FPU. In metodo eterogeneo.
L'SMT in questo caso sarebbe utile come il due di mazze a briscola.

Cut...

Beh... dite quello che vi pare, ma 4GHz con un APU rimanendo sotto i 65W TDP, non è cosa da poco... soprattutto guardando i B2G X4 che necessitano 125W per arrivarci e superarli di 300MHz..

Infatti Trinity secondo me sara un bel procio. E se rispetta le aspettative, Vishera a Settembre/Ottobre (perchè non te lo aspettare prima) non ci farà i miracoli, ma stavolta ci farà fare un sospiro di sollievo, dopo il batticuore di zambesi.

bjt2
05-04-2012, 08:51
PURTROPPO ancora non si può sapere il PP del 32nm a frequenze alte... comunque è di buon auspicio che Trinity guadagni un totale di frequenza su Llano oltretutto con 35W TDP in meno.

L'A10-5700 è un 65W TDP contro i 100W di Llano, 3,4GHz def contro i 2,9GHz di Llano, 4GHz di massima frequenza Turbo contro nessun Turbo di Llano.

Supponendo che la L3 di Vishera con l'I/O ulteriore dovrebbe avere un consumo simile ad un Trinity APU... si potrebbe ipotizzare che un Vishera X4 possa già arrivare sui 4GHz con solamente 65W TDP... e con 60W di margine (125W TDP) ?

Beh... dite quello che vi pare, ma 4GHz con un APU rimanendo sotto i 65W TDP, non è cosa da poco... soprattutto guardando i B2G X4 che necessitano 125W per arrivarci e superarli di 300MHz..

C'è comunque il 10% di potenza in meno (e potenzialmente 7-8% in più di clock a parità di tutto) dato dalla nuova tecnologia resonant clock... Anche se non fosse stato migliorato il silicio e/o lo step, staremmo comunque parlando di almeno 300MHz rispetto al BD attuale a 125W ed almeno 200MHz in più per i wattaggi inferiori... Se poi consideri che il processo produttivo e auspicabilmente anche la maschera della CPU sono migliorati...

papafoxtrot
05-04-2012, 10:22
Quoto.
Si dovrebbe aereografarlo nel titolo del thread per bacco.



Sono d'accordo con quello che dici.
Ma io so anche che l'approccio CMT nasce piu che altro per rendere flessibile e semplice le progressive integrazioni di ulteriori cluster (di tipo x86 e/o gpu).
Trinity= architettura Piledriver + GPU per i fatti suoi dentro lo stesso package.
Nel 2015/16 l'APU ibrida dovrebbe prevedere un approccio diverso, che solo il CMT puo dare:
(clusterX.x86~clusterY.gpu * X cluster's.x86.gpu~)* Y moduli ed FPU. In metodo eterogeneo.
L'SMT in questo caso sarebbe utile come il due di mazze a briscola.

Infatti Trinity secondo me sara un bel procio. E se rispetta le aspettative, Vishera a Settembre/Ottobre (perchè non te lo aspettare prima) non ci farà i miracoli, ma stavolta ci farà fare un sospiro di sollievo, dopo il batticuore di zambesi.

Qui non sono d'accordo, perché come spesso si fa, tu tendi a confrontare le due tecnologie sullo stesso piano.
L'SMT ha il solo scopo di ottimizzare lo sfruttamento della pipeline. potrebbe essere implementato anche in un'architettura eterogenea come quella di cui parli, la quale costituisce certamente un'obiettivo per AMD.
Probabilmente in futuro i moduli se conservati) conterrano anche 4 core, più le FPU, e si interfacceranno con i core SIMD provenienti dal settore delle GPU. Nulla vieta che i core INT e le FPU implementino l'SMT per ottimizzarne lo sfruttamento.

Per quanto riguarda invece l'architettura eterogenea in se, ciò che getta le basi per un suo sviluppo non è tanto il modulo, quanto l'aver scollegato la FPU dalla pipeline INT, creando una logica di accesso alle FPU condivise tra i core int. Ciò permetterà, in futuro, di implementare coprocessori basati su GPU con logiche di accesso simili. Poi che il tutto venga raggruppato in moduli costituisce un modo per semplificare la condivisione e unificare in parte il front end... Dal punto di vista dello sfruttamento dei core int, invece, il CMT ha il più comunemente citato vantaggio di consentire di affiancare alla pipeline tradizionale una seconda, che possa essere alimentata dalla stessa logica di controllo senza che questa venga raddoppiata.

Però proprio per come è fatto il CMT comporta uan diminuzione dell'operatività delle pipeline, perché la logica di controllo deve star dietro ad entrambi e probabilmente si impallerà più volte (e infatti è così, perché due core sullo stesso modulo sono più lenti di due core in due moduli diversi). Essendo queste le condizioni, un SMT ben implementato permetterebbe di recuperare moltissimo!

Quindi per concludere nuovamente ripeto che CMT ed SMT nascono da esigenze diverse e realizzano obiettivi diversi. Confrontarli solo perché c'è qualcosa di condiviso e prima si aveva un thread dove adesso se ne hanno due è sbagliato. Chiedersi se sia meglio l'uno o l'altro è completamente sbagliato, è come chiedere se siano meglio i fuoristrada o gli idrovolanti..

papafoxtrot
05-04-2012, 10:36
Comunque si parte dal presupposto che se fosse più veloce certamente non gli farebbe mica male :D :)
Del resto... io ho postato le mie impressioni occandolo, però ci possono essere 1000 concause che renderebbero i miei test inutili.

Però... a discorso obiettivo... a manica larga a BD manca almeno un 20% di potenza verso il Phenom II e diciamo un 40% nell'ottica che un modulo BD dovrebbe dare una potenza maggiore rispetto ad un core SMT...
Secondo me... è giusta una affermazione fatta appena dopo l'uscita di BD... ad occhio e croce diceva così: "non c'è una causa principale della potenza inferiore alle aspettative di BD, ma tante piccole cause (e fra queste probabilmente anche le latenze delle cache) che sommate fanno la differenza".
Io non mi aspetto certamente miracoli, però sarei convinto che se Vishera confermasse almeno un 10% di incremento di IPC seguito da un 10-15% di aumento frequenze operative, per me le latenze delle cache potrebbero anche rimanere invariate (magari così favorendo l'OC).

Si questo è certamente vero... D'altro canto a BD manca certamente una percentuale, che sarà irrecuperabile a livello di IPC, dovuta alla pipeline più lunga.
Qualcosa ancora gli manca a causa dell'ottimizzazione della logica di controllo dei core... In quanto non c'è niente da fare, due core su due moduli diversi guadagnano parecchio in IPC...
Qualcosa manca perché le FPU, per quanto possano amministrare due thread, in caso di operazioni a 128bit, sono comunque riunite per due core.
Qualcosa manca perché la cache L2 è decisamente lenta... Secondo me è grande in questa versione, ma la terranno così per un bel po'... Anche perché occupa spazio...
La L1 secondo me pesa parecchio, perché è stata ridotta da 64KB a 16KB sia per le istruzioni, sia per i dati, considerando il singolo core... E poi perché quella diamine di logica write through è terribile, l'ha resa davvero lentissima. Io credo che questo sia un aspetto importante...

Rimossi questi problemi (Branch prediction, scheduler, lentezza della L2, lentezza della L1, eventualmente dimensione) secondo me BD potrebbe raggiungere un IPC superiore a phenom II, grazie agli altri miglioramenti implementati. Però a quel punto serve comunque di più, perché comunque l'IPC di phenom II non era buono nel 2009, figurarsi a fine 2012... La frequenza alta ci può stare, ma intel se vuole la spinge quanto vuole... Considerato che Ivy bridge socket 1155 si fermerà a 79W di TDP per 3,7GHz (vedi xeon E12xx v2 in uscita tra un mese)... Arrivare a 95W di TDP permetterebbe sicuri i 4GHz... Già con sandy bridge il consumo ad alte frequenze non è mai un problema, in overclock ci si ferma perché si arriva a 1,3 volt e non si vuole dargli di più per farlo durare a lungo (io allestivo renderfarm), ma con quelli si arriva sui 4,7 GHz... Se Vishera riacquistasse l'IPC che aveva phenom, per competere con un ivy a 3,8GHz, che intel potrebbe sparare quando vorrebbe, ci vorrebbero oltre 4GHz con un TDP di 95W o possibilmente inferiore, un obiettivo difficilmente raggiungibile...

Frequenze elevate sono certamente credibili... Siamo a 3,6... Possiamo anche pensare di arrivare a 4,2... ma arrivarci con un tdp basso è tutto un'altro paio di maniche. E se si decide che l'avversario di Bulldozer/vishera è il socket 1155... Allora si deve stare entro i 95W.

Non so, la scelta di inseguire frequenze elevate con pipeline lunghe, sapendo che intel ha branch predictors migliori dei tuoi (e non di poco, si è fatta il mazzo ai tempi del P4 e da allora ha continuato a migliorare), ha l'SMT che maschera gli stalli delle pipeline, ed ha un nodo di vantaggio nel processo produttivo, mi sembra una scelta folle.

capitan_crasy
05-04-2012, 10:45
Che il lancio di Zambesi sia andato meglio di Agena/Barcelona non ci sono dubbi, ma siamo ben lontani dal poter dire che "AMD ha lavorato bene e ci sono problemi col silicio". I problemi sono tanto architetturali quanto di silicio.

Il problema più grande di BD è la strategia usata, puntare sulla forza bruta ivece che sull'efficienza architetturale. In caso la memoria generale sia troppo corta ricordo che l'unico caso in cui AMD ha tecnologicamente schiacciato Intel è stato quando con l'A64 fece dell'efficienza la sua arma. E la longevità di quell'architettura di base lo sta a dimostrare senza ombra di dubbio...

Il cambio di strategia è evidente...
CPU come il K8 e il K10 praticamente non subivano mai aggiornamenti architetturali se non ogni 3/4 anni.
Con Bulldozer le cose sono decisamente cambiate con un aggiornamento alla architettura ogni anno, mantenendo per due il processo produttivo.
Questa scelta era dettata soprattutto per lo sviluppo delle APU in modo che le nuove proposte avessero, oltre una nuova GPU, un comparto X86 sempre aggiornato...


C'è comunque il 10% di potenza in meno (e potenzialmente 7-8% in più di clock a parità di tutto) dato dalla nuova tecnologia resonant clock... Anche se non fosse stato migliorato il silicio e/o lo step, staremmo comunque parlando di almeno 300MHz rispetto al BD attuale a 125W ed almeno 200MHz in più per i wattaggi inferiori... Se poi consideri che il processo produttivo e auspicabilmente anche la maschera della CPU sono migliorati...

Permettimi ma il miglioramento è molto più netto di così...;)
Parliamo di Quad core nativi, con architettura aggiornata e nuove tecnologie per i 32nm come quella di Cyclos (anche se in questo caso il vero guadagno è sui TDP bassi), di una GPU che dovrebbe essere nettamente più veloce di quella per le soluzioni Llano, di Turbo core per le frequenze della CPU/GPU (manca la conferma ufficiale ma il TB dovrebbe essere su tutti i core più naturalmente sulla GPU)...

E aggiungiamo pure che manca la L3 che consuma uno sfacelo

Non ci sono ne elementi per dire una cosa del genere, inoltre una semplice cache non può certo consumare come un elemento complesso come una GPU...

capitan_crasy
05-04-2012, 11:12
Dipende quanta, in ogni caso entra un elemento complesso come una gpu al posto di uno molto più complesso, cioè i due moduli eliminati per far spazio alla gpu, appunto:

http://images.anandtech.com/reviews/cpu/amd/Bulldozer/Review/die.jpg

Si ma non è solo un elemento che prende posto di un altro e comunque la funzione è totalmente differente da una GPU...
In ogni caso una cache L3 come quella utilizzata da AMD non è così determinante da giustificarne l'utilizzo che aumenti così tanto i consumi....

Phenomenale
05-04-2012, 13:14
Dire che SMT e CMT hanno lo stesso scopo è fuorviante. Si ok, si può dire che hanno lo scopo di ottimizzare lo sfruttamento degli spazi e delle risorse condivise... Ma mentre lo scopo chiave dell'SMT è fare in modo che la pipeline di un core non resti mai ferma, CMT funziona in modo opposto... Ne mette due, ma con una logica di controllo sola, col risultato che queste due lavoreranno di meno rispetto al caso di una CPU tradizionale
Lo scopo di SMT e CMT è, per dirla scherzosa, il "ti sdoppio in due" :D , ovvero trasformare una cpu reale in 2 o più virtuali in grado di eseguire ciascuna un thread indipendente.

Il funzionamento poi è quello che hai descritto tu: l' SMT ricicla sezioni in stallo delle pipeline su un thread per farle lavorare nell' altro, il CMT ha duplicati i core integer per avere risorse sempre disponibili.

Vuoi applicare l'SMT sui core integer duplicati del CMT?
Premetto che non sono un progettista di CPU e la mia opinione non ha valore tecnico: è un' idea suicida, porta a realizzare una CPU con tanti core virtuali ed IPC bassissimo su ognuno per strozzamento di risorse (inutile avere tanti thread virtuali se il decoder e lo scheduler che ci stanno sopra non hanno abbastanza banda da sfamare tutta la famiglia...) :(

paolo.oliva2
05-04-2012, 13:44
Si questo è certamente vero... D'altro canto a BD manca certamente una percentuale, che sarà irrecuperabile a livello di IPC, dovuta alla pipeline più lunga.
Qualcosa ancora gli manca a causa dell'ottimizzazione della logica di controllo dei core... In quanto non c'è niente da fare, due core su due moduli diversi guadagnano parecchio in IPC...
Qualcosa manca perché le FPU, per quanto possano amministrare due thread, in caso di operazioni a 128bit, sono comunque riunite per due core.
Qualcosa manca perché la cache L2 è decisamente lenta... Secondo me è grande in questa versione, ma la terranno così per un bel po'... Anche perché occupa spazio...
La L1 secondo me pesa parecchio, perché è stata ridotta da 64KB a 16KB sia per le istruzioni, sia per i dati, considerando il singolo core... E poi perché quella diamine di logica write through è terribile, l'ha resa davvero lentissima. Io credo che questo sia un aspetto importante...

A grandi linee il tuo discorso è condivisibile, però ricordati che Buldozer è nato come procio server, e nei server la quantità delle cache ha molta importanza (vedi pure Intel, nei prodotti di punta destinati alla fascia server, non lesina nella L3, contrariamente all'offerta desktop). AMD non si può concedere il lusso come Intel di più catene dedicate a modelli diversi di procio per massimizzare i guadagni... basta vedere che addirittura vende come X4 e X6 scarti di X8.

Rimossi questi problemi (Branch prediction, scheduler, lentezza della L2, lentezza della L1, eventualmente dimensione) secondo me BD potrebbe raggiungere un IPC superiore a phenom II, grazie agli altri miglioramenti implementati. Però a quel punto serve comunque di più, perché comunque l'IPC di phenom II non era buono nel 2009, figurarsi a fine 2012...
Il discorso IPC di confronto al Phenom II è complicato... perché BD è realizzato per un IPC futuro (sfruttando nuove istruzioni) dove il Phenom II, emulandole, sarà distante anni luce, e poi tutto va visto in chiave APU II generazione, ed in questo l'IPC come l'intendiamo ora non avrà alcun senso.
La frequenza alta ci può stare, ma intel se vuole la spinge quanto vuole...
Su questo non mi trovi d'accordo.
A parità silicio, a frequenza superiore deve corrispondere un IPC inferiore, come ad un IPC superiore corrisponderà una frequenza inferiore. Questo lo puoi tranquillamente constatare che se prendi un procio Intel, disabilitando l'SMT, potrà raggiungere frequenze superiori.

Considerato che Ivy bridge socket 1155 si fermerà a 79W di TDP per 3,7GHz (vedi xeon E12xx v2 in uscita tra un mese)... Arrivare a 95W di TDP permetterebbe sicuri i 4GHz... Già con sandy bridge il consumo ad alte frequenze non è mai un problema, in overclock ci si ferma perché si arriva a 1,3 volt e non si vuole dargli di più per farlo durare a lungo (io allestivo renderfarm), ma con quelli si arriva sui 4,7 GHz... Se Vishera riacquistasse l'IPC che aveva phenom, per competere con un ivy a 3,8GHz, che intel potrebbe sparare quando vorrebbe, ci vorrebbero oltre 4GHz con un TDP di 95W o possibilmente inferiore, un obiettivo difficilmente raggiungibile...

Guarda... secondo me non è proprio così.
Il discorso frequenza è differente tra AMD ed Intel, AMD non può salire in frequenza per motivi di silicio, Intel non può salire in frequenza per motivi di architettura. Ti sei mai chiesto il perché un SBe X6 può arrivare a 5GHz ad aria/liquido e sotto azoto guadagna solamente 100MHz?
Secondo me, la differenza che troviamo ora non sta nell'architettura, nelle pipeline, nelle cache e quant'altro, ma solamente nella combinazione architettura/silicio. Ti faccio questo esempio:

Architettura Intel IPC 100, frequenza massima architettura Intel 5,2GHz (azoto), frequenza massima commerciale, circa 4GHz, frequenza permessa silicio, 3,2GHz per un SBe X6.

Architettura AMD IPC 80, frequenza massima architettura AMD 8,5GHz (azoto), frequenza massima commerciale, circa 5GHz, frequenza massima permessa dal silicio, 3,6GHz per un 8150.

Intel ha un prodotto complessivo in cui silicio e architettura ottengono un 90% del massimo ottenibile. AMD, invece, secondo me non arriva al 65%, ed è qui tutta la differenza.

Intel non ha problemi (per me) a fornire potenze superiori, ma, sempre secondo me, se AMD risolvesse il problema silicio ottenendo frequenze superiori, la via per Intel non è l'aumento di frequenza, perché se da una parte sarebbe possibile un BD X8 a 4,5GHz def, dall'altra manco un 14mm porterebbe un SBe X6 alla stessa frequenza, ma, al contrario, il 22nm, se guardo il TDP, permetterebbe di aumentare il numero dei core (X8 già possibile, ma penso pure X10).

Frequenze elevate sono certamente credibili... Siamo a 3,6... Possiamo anche pensare di arrivare a 4,2... ma arrivarci con un tdp basso è tutto un'altro paio di maniche. E se si decide che l'avversario di Bulldozer/vishera è il socket 1155... Allora si deve stare entro i 95W.

Bisogna dividere le 2 cose.
Io non credo che nelle aspettative di AMD la creazione di BD sia stata fatta per fronteggiare il socket 1155 e punto. Anche perché se oggi un 8150 dovrebbe avere meno di 95W per un rapporto prestazioni/consumo paragonato al 2600K, domani ci saranno gli IVY con un consumo ancora inferiore... se AMD non offre un procio in grado di superare per prestazioni massime il socket 1155, la battaglia sarebbe ugualmente persa, ma non per i consumi, ma per il fatto di vendere un procio > di 300mm2 ad un prezzo inferiore di Intel che con lo stesso wafer produrrebbe il triplo di proci.
Piazzarsi in mezzo tra socket 1155 e 2011 è di importanza fondamentale, perché gli IVY SBe 22nm ci saranno dopo la metà del 2013, ed almeno fino a quella data il confronto si baserà a parità di miniaturizzazione silicio.
Gli IVY 1155 fanno il bingo per la fascia che si vende di più, ma bisogna vedere il confronto con Trinity desktop, perché come consumo siamo lì, certamente meno come prestazioni, ma per chi vuole un sistema economico con un APU parte grafica dignitosa, Trinity se la gioca, ed aspetterei a vedere sul campo, perché Llano a priori era stato giudicato un fallimento, poi si è rivelato la punta di diamante per AMD in vendite.
Un BD con performances oltre il socket 1155 è concettualmente differente. Se compri un mobile e la fascia bassa desktop, guardi il prezzo, il consumo e le prestazioni, se compri un desktop fascia medio-alta, guardi il costo/prestazioni e prestazioni massime... il consumo non lo guardi semplicemente perché sai già che consumerà di più della fascia bassa.

Non so, la scelta di inseguire frequenze elevate con pipeline lunghe, sapendo che intel ha branch predictors migliori dei tuoi (e non di poco, si è fatta il mazzo ai tempi del P4 e da allora ha continuato a migliorare), ha l'SMT che maschera gli stalli delle pipeline, ed ha un nodo di vantaggio nel processo produttivo, mi sembra una scelta folle.
Ma è l'unica. Ragiona in questo senso... a parità di IPC, il limite della frequenza è nel TDP offerto dal silicio. La miniaturizzazione del silicio incide sul TDP. Intel ha il vantaggio della miniaturizzazione superiore, quindi è come combattere con un fucile e dall'altra parte una mitragliatrice (32nm vs 22nm), non hai scampo. Viceversa, il vantaggio lo si deve ricercare alternativamente. L'FO4 di BD è secondo studi dell'IBM il miglior compromesso consumi/prestazioni, quindi, almeno in teoria, dovrebbe diminuire lo svantaggio della inferiore miniaturizzazione silicio AMD. CMD e quant'altro sono la logica conseguenza e bd è l'architettura.

paolo.oliva2
05-04-2012, 14:00
Visto che è lenta e tantissima oltre ad essere inutile (anzi, probabilmente controproducente) consuma anche tanto. E' chiaro che 4 core K10 consumano più di 2 moduli BD, quindi del TDP lo si recupererà anche in questo (oltre agli auspicabili miglioramenti del layout dell'architettura nel passaggio BD->PD).

"Togliere" qualcosa è un guadagno secco di TDP che "ottimizzando" qualcosa non potrai mai ottenere. Infatti toglieranno la L3 per Trinity, che consuma, occupa spazio e non serve.
BD è nato come procio server... e penso che per AMD sarebbe più dispendioso infornare più modelli che una unica (tra l'altro vende pure X4 e X6 riciclati dagli scarti X8...).
Non sono un tecnico, però sapevo che il consumo è generato dal cambiamento di stato dei transistor. Le cache, specialmente la L3, è quella soggetta ad un cambio di stato bassissimo, contrariamente ai transistor della parte logica (compreso discorso IGP per APU).

Il tuo concetto è giusto... diminuiamo il TDP per aumentare la frequenza, visto che serve a BD. Però bisogna vedere il ritorno...
Se il risparmio fosse di 10W TDP e con il PP del silicio step B2g ciò permettesse i 3,9GHz def... avrebbe senso questo ambaradan? Catena desktop e catena server, doppio lavoro con le maschere, doppio lavoro di sviluppo, 2 catene distinte con richiesta di maggio tempo per portarle a puntino, oltre al fatto che presumibilmente calerebbe l'IPC...
Se il silicio fosse a puntino, non ci sarebbero problemi. Avresti mai valutato un Thuban con 4MB di L3 anziché 6MB per guadagnare 100MHz?

Uncle Scrooge
05-04-2012, 14:59
Vuoi applicare l'SMT sui core integer duplicati del CMT?
Premetto che non sono un progettista di CPU e la mia opinione non ha valore tecnico: è un' idea suicida, porta a realizzare una CPU con tanti core virtuali ed IPC bassissimo su ognuno per strozzamento di risorse (inutile avere tanti thread virtuali se il decoder e lo scheduler che ci stanno sopra non hanno abbastanza banda da sfamare tutta la famiglia...) :(

Non credo.
L'i7 funziona come un quad-core "reale" (ovvero come un i5), senza SMT, finché i thread sono 4 o meno. L'SMT si attiva solo quando i thread da elaborare sono maggiori del numero di core fisici, perciò lo strozzamento di IPC su ogni core virtuale non sarebbe una costante.

papafoxtrot
05-04-2012, 16:36
Non credo.
L'i7 funziona come un quad-core "reale" (ovvero come un i5), senza SMT, finché i thread sono 4 o meno. L'SMT si attiva solo quando i thread da elaborare sono maggiori del numero di core fisici, perciò lo strozzamento di IPC su ogni core virtuale non sarebbe una costante.

Concordo... in single thread, a meno di deficit nell'implementazione, non si avrebbero perdite.
Certo è vero che per una logica di controllo, gestire tutti quei thread non sarebbe facile, per cui ci vuole parecchia esperienza, e amd in ambito SMT non ne ha.
E poi certo, ci si ritroverebbe con un mare di thread, ma pochi core reali, per cui sarebbe una soluzione che darebbe i suoi frutti solo in multithreading... Per cui certo, è una cosa valida più per i prossimi anni.

Comunque a mio modo di vedere la condivisione di risorse nell'architettura a oduli di AMD andrà aumentando nel tempo... Sarebbe interessante vedere moduli con 4 core int e due FPU, con la possibilità dunque di accedere a risorse condivise e spegnere quelle inutili... dove invece in un'architettura tradizionale ogni core ha la sua FP e può usare solo quella, e se è acceso lui, è accesa anche la FPU...

Come dicevo, è una soluzione che si ispira molto al mondo delle GPU, ma se di architettura eterogenea vogliamo parlare...

calabar
05-04-2012, 16:44
Lo scopo di SMT e CMT è, per dirla scherzosa, il "ti sdoppio in due" :D , ovvero trasformare una cpu reale in 2 o più virtuali in grado di eseguire ciascuna un thread indipendente.

Il funzionamento poi è quello che hai descritto tu: l' SMT ricicla sezioni in stallo delle pipeline su un thread per farle lavorare nell' altro, il CMT ha duplicati i core integer per avere risorse sempre disponibili.

Vuoi applicare l'SMT sui core integer duplicati del CMT?
Premetto che non sono un progettista di CPU e la mia opinione non ha valore tecnico: è un' idea suicida, porta a realizzare una CPU con tanti core virtuali ed IPC bassissimo su ognuno per strozzamento di risorse (inutile avere tanti thread virtuali se il decoder e lo scheduler che ci stanno sopra non hanno abbastanza banda da sfamare tutta la famiglia...) :(
Concordo, era ciò che volevo scrivere, mi hai preceduto.

AMD ha dichiarato da subito che CMT sarebbe stato un modo diverso e migliore di ottenere ciò che Intel già faceva con SMT. Sono tecnologie diverse, che lavorano in modo opposto, ma entrambe servono per introdurre parallelizzazione all'interno di un'unità di calcolo in modo da renderla più efficiente.

Ovviamente si possono implementare assieme, ma se già CMT porta ad un aumento del numero thread, con SMT raddoppierebbero ulteriormente. E una miriade di core sono sfruttabili sono il poche occasioni.

Non credo.
L'i7 funziona come un quad-core "reale" (ovvero come un i5), senza SMT, finché i thread sono 4 o meno. L'SMT si attiva solo quando i thread da elaborare sono maggiori del numero di core fisici, perciò lo strozzamento di IPC su ogni core virtuale non sarebbe una costante.
Dimentichi che anche SMT non è gratuito, richiede ulteriore logica per la sua implementazione e per il potenziamento di quella che serve i core.

Inoltre non è detto che l'implementazione sia così banale: Intel ha anni di esperienza e il suo SMT è costantemente migliorato. AMD saprebbe implementarne da subito uno che non dia problemi e sia efficace?

Ora la si critica perchè ha implementato pipeline lunghe mentre intel ha algoritmi di predizione migliori, se implementasse anche SMT si finirebbe forse col dire che ha inutilmente inseguito Intel che avava un SMT migliore.
AMD a mio parere deve sfruttare le tecnologie su cui è in grado di far bene, altrimenti inseguirà sempre.

Inoltre non dimentichiamoci che l'evoluzione di questi anni di CPU e GPU AMD è legata ad un processo di integrazione che dovrebbe concretizzarsi con un'unità di calcolo integrata. Molte delle scelte fatte, che magari a noi possono parere incomprensibili, potrebbero essere completamente rivalutate in quest'ottica.

papafoxtrot
05-04-2012, 17:22
Concordo, era ciò che volevo scrivere, mi hai preceduto.

AMD ha dichiarato da subito che CMT sarebbe stato un modo diverso e migliore di ottenere ciò che Intel già faceva con SMT. Sono tecnologie diverse, che lavorano in modo opposto, ma entrambe servono per introdurre parallelizzazione all'interno di un'unità di calcolo in modo da renderla più efficiente.

Ovviamente si possono implementare assieme, ma se già CMT porta ad un aumento del numero thread, con SMT raddoppierebbero ulteriormente. E una miriade di core sono sfruttabili sono il poche occasioni.


Dimentichi che anche SMT non è gratuito, richiede ulteriore logica per la sua implementazione e per il potenziamento di quella che serve i core.

Inoltre non è detto che l'implementazione sia così banale: Intel ha anni di esperienza e il suo SMT è costantemente migliorato. AMD saprebbe implementarne da subito uno che non dia problemi e sia efficace?

Ora la si critica perchè ha implementato pipeline lunghe mentre intel ha algoritmi di predizione migliori, se implementasse anche SMT si finirebbe forse col dire che ha inutilmente inseguito Intel che avava un SMT migliore.
AMD a mio parere deve sfruttare le tecnologie su cui è in grado di far bene, altrimenti inseguirà sempre.

Inoltre non dimentichiamoci che l'evoluzione di questi anni di CPU e GPU AMD è legata ad un processo di integrazione che dovrebbe concretizzarsi con un'unità di calcolo integrata. Molte delle scelte fatte, che magari a noi possono parere incomprensibili, potrebbero essere completamente rivalutate in quest'ottica.

Sbagli il presupposto! Lo scopo di CMT è quello di aumentare i core a disposizione! Lo scopo di SMT è diametralmente opposto... Serve per migliorare lo sfruttamento di quelli disponibili! I core infattir estano 4, si cerca solo di non farli rimanere mai con le mani in mano! Che questo lo si faccia raddoppiando i thread elaborabili è un'altro paio di maniche...

bjt2
05-04-2012, 17:41
Il cambio di strategia è evidente...
CPU come il K8 e il K10 praticamente non subivano mai aggiornamenti architetturali se non ogni 3/4 anni.
Con Bulldozer le cose sono decisamente cambiate con un aggiornamento alla architettura ogni anno, mantenendo per due il processo produttivo.
Questa scelta era dettata soprattutto per lo sviluppo delle APU in modo che le nuove proposte avessero, oltre una nuova GPU, un comparto X86 sempre aggiornato...




Permettimi ma il miglioramento è molto più netto di così...;)
Parliamo di Quad core nativi, con architettura aggiornata e nuove tecnologie per i 32nm come quella di Cyclos (anche se in questo caso il vero guadagno è sui TDP bassi), di una GPU che dovrebbe essere nettamente più veloce di quella per le soluzioni Llano, di Turbo core per le frequenze della CPU/GPU (manca la conferma ufficiale ma il TB dovrebbe essere su tutti i core più naturalmente sulla GPU)...



Non ci sono ne elementi per dire una cosa del genere, inoltre una semplice cache non può certo consumare come un elemento complesso come una GPU...

Lo so... Io stimavo per difetto... Il clock dovrebbe essere ALMENO l'8% maggiore... ;)
Non vorei che poi mi si dica che sono troppo ottimista... ;)

paolo.oliva2
05-04-2012, 21:54
Io direi che quando usciranno i primi Trinity desktop, si potrà capire meglio la potenza complessiva di Vishera.

Dai bench avremmo una approssimazione dell'incremento IPC (per difetto perché Vishera dovrebbe avere un IPC migliore).

Dagli OC di Trinity scopriremmo il comportamento di questo PP silicio all'aumentare della frequenza.

La somma delle 2 cose dovrebbe fornire un quadro più preciso su Vishera.

Certo che guardando Trinity... i 4,2GHz def per Vishera, non dico probabili ma comunque più possibili... e sarebbe una gran cosa... cacchio, praticamente un Vishera andrebbe a def quanto un 8150 in turbo con frequenza massima... e con il burro dell'IPC superiore.

rafpigna
06-04-2012, 09:50
scusate thread errato...