PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

calabar
06-11-2011, 21:54
dubito,BD (step b3) cammina parallelo a Trinity,stessa architettura ma 2 proci diversi
Da quel che si sa finora, no.
I primi B3 si pensa debbano uscire con architettura BD di prima generazione (8170 dovrebbe essere un B3, da quel che si sa), mentre trinity implementerà sicuramente l'architettura piledriver (ossia BD di seconda generazione).

Sevenday
06-11-2011, 22:08
Io sto ancora attendendo notizie dell'8120 da 95w...
spero sia almeno un B3, visti i tempi.

capitan_crasy
06-11-2011, 22:31
1° trimestre 2012???

Con ogni probabilità in quel periodo uscirà Trinity, Piledriver per socket AM3+ dovrebbe uscire per meta 2012 o meglio nel terzo trimestre 2012...

liberato87
06-11-2011, 22:40
P.S.
Io confronto sempre risultati con ottimizzazione/OC semplicemente perché sarebbe la situazione più reale. Nessuno comprerebbe un 1100T per farlo lavorare con NB a def e senza nessun OC, come nessuno si prenderà un 8150 per lasciarlo a def.

Non capisco con che logica si possa fare un confronto tra 2 CPU a parità di frequenza... non vince chi ha un IPC maggiore come non vince chi ha una frequenza maggiore, ma vince chi ha un rapporto IPC x frequenza maggiore. Il confronto va fatto a parità di frequenza def...

paolo ancora non ho capito come vuo che venganoi fatti sti confronti :Prrr: :Prrr:

paolo.oliva2
06-11-2011, 22:52
Posto questo, un test su Linx

http://www.pctunerup.com/up/results/_201111/th_20111106234930_linxtest8150.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111106234930_linxtest8150.jpg)

Il risultato è basso, ma guardate come vengono utilizzati i core...

liberato87
06-11-2011, 22:54
Posto questo, un test su Linx

http://www.pctunerup.com/up/results/_201111/th_20111106234930_linxtest8150.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111106234930_linxtest8150.jpg)

Il risultato è basso, ma guardate come vengono utilizzati i core...

a che frequenza è fatto paolo?
comunque il risultato è basso perchè è basso il problem size. comunque tra un ciclo è l altro di linx è normale un calo però qui mi sembra molto pronunciato..

OT
ma quanti hard disk hai?
:D :D

paolo.oliva2
06-11-2011, 22:56
paolo ancora non ho capito come vuo che venganoi fatti sti confronti :Prrr: :Prrr:

Hai preso 2 miei post su 2 questioni differenti con risposte differenti.

Il primo, frequenza def, era riferito a comparazioni tra proci di diverse marche, in cui praticamente si voleva confrontare un 2600K ed un 8150 a frequenze di lavoro uguali, ed io ho risposto che vanno confrontati a def.

Nel secondo, io parlo di proci della stessa marca (AMD), quindi è giusto confrontarli sia a def che ottimizzati e/o occati, perché chi li compra per usarli a def, ha già le rece come risultati... chi li compra per occarli ed ottimizzarli, giustamente deve sapere di quanto può aumentare l'IPC ed il clock sia con un Thuban che con un Buldozer per valutarne l'upgrade (visto che la spesa, per chi avesse una mobo AM3+, sarebbe solamente del procio)
Il Thuban si può ottimizzare meglio di un 8150 (fermo restando forse prb di bios per buldozer). Il Thuban si poteva arrivare ad un +5/7% di IPC, al momento Buldozer forse arriva ad un +2-3%, e forse sono di manica larga.
Buldozer si può occare meglio di un Thuban (Thuban +1GHz ad aria 3,2GHz 1090T def, 4,2GHz occato), 4,7-4,8GHz un Buldozer +1,1-1,2GHz.

paolo.oliva2
06-11-2011, 23:36
Ho fatto un altro test, a def, con 4 task di bench di winrar.

http://www.pctunerup.com/up/results/_201111/th_20111107003230_winrar4taskadef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107003230_winrar4taskadef.jpg)

Io posto, voi valutate :D .
comunque 4 task danno 5,6MB/s totali... 1 task da' 4,4MB/s (da prendere non la media in neretto sopra ma l'istantaneo leggermente sotto).

Nel Thuban ricordavo che 2 task riuscivano ad arrivare al 100% dello sfruttamento procio ed 1 task dava un po' meno.
Ho fatto prove con 1 task, 2, 3 e 4. Non so se possa dipendere da imperfezioni del bench di winrar, però dopo 4 task non ci sono miglioramenti... poi se interessa ne faccio altri.

ippo.g
06-11-2011, 23:51
http://git.videolan.org/gitweb.cgi?p=x264.git;a=shortlog
http://git.videolan.org/gitweb.cgi?p=x264.git;a=commit;h=afd9bc24823b0f9f0727c0332a0db24db66876d2

carlottoIIx6
07-11-2011, 00:07
cut

Questo è proprio sbagliato. E' da qui che partono tanti dei fraintendimenti sull'approccio di intel e sull'architettura di bulldozer (com'è e come dovrebbe essere).
Anzitutto non è vero che intel usa core più grandi e potenti di AMD. Ma soprattutto non è vero che l'HT funziona bene con core grandi, perché questi fanno fatica a riempirsi.

cut



la mia era una "figura allegorica" non una descrizione tecnica
grandi per me vuol dire che processano istruzuini complesse
piccoli che processano istruzioni semplici e quindi necessitano di spezzettarle e quindi, per quel che ci capisco, una pipeline più lunga

cì'e' una proporzionalità tra la compelssità e in numero di transistor ovviamentequesto non fa si che il core automaticamente sia più grande a parità di processo produttivo perchè dipende da scelte sull'architettura

comuinque per cercare di capire che cosa amd aveva intensione di fare, se uno la garda dall'esterno, senza saper il numero dei transitor dei core, deve sapere la loro area
sul numero di transistor non su nulla, sull'aria 30 mm2 per BD modulo, 20 mm2 per il core dell'i7.
per qualche calcolo ad occhio e croce che ho fatto le cpu all'interno del modulo non dovrebbero essere al massimo il 40%, e la fp il 60% (correggetemi se sbaglio)

da questo intuisco più che altro, non avendo dati certi, che nel modulo per me AMd ha scelto pipelane più lunghe, frequenze più alte e di dividere il "pacco da processare in due", invece di metterlu su una sola cpu che sarebbe stata più complessa, secondo il mio linguaggio grande.
è solo su una complessità maggiore infatti secondo me l'ht ha senso.

ritengo che questa sceltà possa compensare con software paralleli le carenze di amd che tu giustamente elencavi, e questo secondo me si vedrà sulle cpu sever

almeno penso

shellx
07-11-2011, 04:22
ma quanti hard disk hai?
:D :D

non sono più hdd fisici, sono due di cui il secondo ha n.mila partizioni ;)

comunque 4 task danno 5,6MB/s totali... 1 task da' 4,4MB/s (da prendere non la media in neretto sopra ma l'istantaneo leggermente sotto).

Nel Thuban ricordavo che 2 task riuscivano ad arrivare al 100% dello sfruttamento procio ed 1 task dava un po' meno.
Ho fatto prove con 1 task, 2, 3 e 4. Non so se possa dipendere da imperfezioni del bench di winrar, però dopo 4 task non ci sono miglioramenti... poi se interessa ne faccio altri.

Con due task di winrar a che percentuale viene sfruttato zambesi ?
Me lo faresti un favore ? Potresti rieseguire 2 task winrar e dopo 4 task con il taskmanager aperto sulla scheda delle prestazioni cpu ?

paolo.oliva2
07-11-2011, 07:42
http://git.videolan.org/gitweb.cgi?p=x264.git;a=shortlog
http://git.videolan.org/gitweb.cgi?p=x264.git;a=commit;h=afd9bc24823b0f9f0727c0332a0db24db66876d2

Initial XOP and FMA4 support on AMD Bulldozer
~10% faster Hadamard functions (SATD/SA8D/hadamard_ac) plus other improvements.

Ma è su windows o su Linx o ambedue?
Il 10% in più non è poco... e poi non hanno finito, quindi l'incremento potrebbe ancora aumentare.

paolo.oliva2
07-11-2011, 07:47
non sono più hdd fisici, sono due di cui il secondo ha n.mila partizioni ;)
Sono fisici, guarda meglio, comunque di HD ne ho 12 da 2TB, è la mia piccola videoteca.

Con due task di winrar a che percentuale viene sfruttato zambesi ?
Me lo faresti un favore ? Potresti rieseguire 2 task winrar e dopo 4 task con il taskmanager aperto sulla scheda delle prestazioni cpu ?
Ora sono incasinato... nel pomeriggio, quando ritorno, faccio più screen partendo da 1 task fino a 8 task e li posto, completi di task-manager.

gianni1879
07-11-2011, 07:56
Posto questo, un test su Linx

http://www.pctunerup.com/up/results/_201111/th_20111106234930_linxtest8150.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111106234930_linxtest8150.jpg)

Il risultato è basso, ma guardate come vengono utilizzati i core...

Paolo ma come hai settato la memoria?

devi selezionare il tasto ALL, il test fatto in questo modo ha poco senso...
Cmq se è un test in oc devi postare nell'apposito thread.

Gigamez
07-11-2011, 08:03
Sono fisici, guarda meglio, comunque di HD ne ho 12 da 2TB, è la mia piccola videoteca.


... :sofico: esagerato!!! :fagiano:

Paolo, probabilmente lo hai gia' postato, ma a quanto riesci a tenere la frequenza dell'NB? ..dai test che hai fatto e dalla tua "percezione personale", pensi siano stati fatti passi avanti sull'NB rispetto a quello di thuban (oltre ovviamente al supporto ufficiale delle ram con frequenze più spinte)?

Grazie come sempre per la tua disponibilità nel fare i test: personalmente per quanto riguarda proci AMD ormai per me sei diventato da tempo la mia "testata" di riferimento! ;)

ilratman
07-11-2011, 08:09
Paolo ma come hai settato la memoria?

devi selezionare il tasto ALL, il test fatto in questo modo ha poco senso...
Cmq se è un test in oc devi postare nell'apposito thread.

Quoto

interessa molto un linx a def ma con memory all, altrimenti avendo poca ram è normale che ci sia questo andamento, ma sopratutto sarebbe interessante anche un test con 1 e 2 soli moduli attivati sempre a def.

con w7 sp1 e linx con supporto alle avx.

Gio_87
07-11-2011, 09:08
ragazzi Scusate il piccolo ot, volevo farlo anche io il test linx ma ho un problema che mi porto dal thuban. ma se avvio linx in pratica gira a vuoto senza generare nulla... Ho provato diverse versioni ma nulla... Avete qualche soluzione?
Grazie!

liberato87
07-11-2011, 10:13
ragazzi Scusate il piccolo ot, volevo farlo anche io il test linx ma ho un problema che mi porto dal thuban. ma se avvio linx in pratica gira a vuoto senza generare nulla... Ho provato diverse versioni ma nulla... Avete qualche soluzione?
Grazie!

prova

ma possibile che dopo avere installato OCCT linx và a vuoto?? cioè scorre il tempo ma non parte i gigaflop e il processore rimane a zero.. cosa posso fare?

ho risolto da solo: invece di scaricare la versione zip ho scaricato l'exe e ho installato.. tutto perfetto,molto probabilmente era una chiave del registro.

capitan_crasy
07-11-2011, 10:56
Il sito donanimhaber.com mostra una nuova roadmap AMD sull'arrivo di nuovi chipset per il socket AM3+:

http://www.xtremeshack.com/immagine/i118536_amd1090fxchipset-dh-fx57.jpg

Nella prima parte del 2012 AMD dovrebbe presentare i chipset 1090FX e 1070, accompagnati da un nuovo southbridge SB1060...
Il modello 1090FX dovrebbe sostituire l'attuale 990FX mantenendo la gestione del crossfire in configurazione 2X16 linee PCI-Express 2.1, mentre il modello 1070 dovrebbe sostituire l'attuale 970; lo standard PCI-Express utilizzato dai due chipset sarà in versione 2.1 e non 3.0.
Il nuovo SB1060 dovrebbe essere in grado di gestire più porte USB 3.0 nativamente e 8 porte SATA 3.0

Clicca qui... (http://translate.google.com/translate?hl=it&sl=auto&tl=en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fanakart%2Fhaberleri%2FOzel-Haber-AMD-FX-islemciler-icin-1090FX-yonga-setini-hazirliyor.htm)

liberato87
07-11-2011, 11:03
cut
Clicca qui... (http://translate.google.com/translate?hl=it&sl=auto&tl=en&u=http%3A%2F%2Fwww.donanimhaber.com%2Fanakart%2Fhaberleri%2FOzel-Haber-AMD-FX-islemciler-icin-1090FX-yonga-setini-hazirliyor.htm)

grazie capitano.

aggiungo sempre dall'articolo

"In the meantime, for those interested in the FX-8170 processor at the beginning of 2012 would also düşelim note."

apparte quella parola turca che non traduce penso voglia dire che l fx 8170 uscirà agli inizi del 2012.

Gio_87
07-11-2011, 11:09
ma... ma come cambiano gia chipset... la serie 9xx e uscita solo pochi mesi fa :eek:

@liberato grazie appena posso provo ;)

capitan_crasy
07-11-2011, 11:17
ma... ma come cambiano gia chipset... la serie 9xx e uscita solo pochi mesi fa :eek:

@liberato grazie appena posso provo ;)

Ce un cambio di rotta voluta in gran parte dal nuovo CEO...
Tra pochi giorni (9 novembre) ci sarà una dichiarazione ufficiale sulle nuove strategie AMD...

liberato87
07-11-2011, 11:18
Ce un cambio di rotta voluta in gran parte dal nuovo CEO...
Tra pochi giorni (9 novembre) ci sarà una dichiarazione ufficiale sulle nuove strategie AMD...

bella storia!
sarà sicuramente molto molto interessante speriamo bene!

paolo.oliva2
07-11-2011, 11:19
Paolo ma come hai settato la memoria?

devi selezionare il tasto ALL, il test fatto in questo modo ha poco senso...
Cmq se è un test in oc devi postare nell'apposito thread.
OK.
Era a def, 3,6/3,9/4,2GHz

paolo.oliva2
07-11-2011, 11:20
ragazzi Scusate il piccolo ot, volevo farlo anche io il test linx ma ho un problema che mi porto dal thuban. ma se avvio linx in pratica gira a vuoto senza generare nulla... Ho provato diverse versioni ma nulla... Avete qualche soluzione?
Grazie!

Lo fa anche a me :D , una versione, l'altra gira tranquillamente.

Quella che va a vuoto, passa il tempo ed i core restano sempre in idle :)

paolo.oliva2
07-11-2011, 11:29
... :sofico: esagerato!!! :fagiano:

Paolo, probabilmente lo hai gia' postato, ma a quanto riesci a tenere la frequenza dell'NB? ..dai test che hai fatto e dalla tua "percezione personale", pensi siano stati fatti passi avanti sull'NB rispetto a quello di thuban (oltre ovviamente al supporto ufficiale delle ram con frequenze più spinte)?

Grazie come sempre per la tua disponibilità nel fare i test: personalmente per quanto riguarda proci AMD ormai per me sei diventato da tempo la mia "testata" di riferimento! ;)

L'NB è più ottimizzato, nel senso che occarlo o meno incrementa poco.... dovremmo essere sull'1% occhio e croce.
Usare delle DDR3 a 1333 o 2133 porta differenze solamente dove la banda porta vantaggio.
Nel Phenom II X4, l'OC NB rendeva parecchio a patto di occare il clock procio e rendeva sino a che il clock NB era doppio rispetto al clock delle RAM e si arrivava al 7%.
Nel Thuban già questo era più ridotto... (credo intorno al +5%) probabilmente perché erano state fatte ottimizzazioni per gestire 6 core al posto di 4.

Tieni presente che comunque posto quello che rilevo al momento, non posso escludere che sia per bios non allo stadio finale... come non posso escludere che ora come ora a me BD mi da' tanto una impressione di compromesso tra architettura e PP attuale silicio.
Se ti ricordi, si parlava di NB e HT a 3,2GHz def... ora ci troviamo un NB a 2,2GHz con prb ad occarlo oltre i 2,650GHz ed un HT che oltre i 2,6GHz NON E' NEMMENO PREVISTO DA BIOS.... tieni presente che la versione NB e HT è superiore a quello del Thuban ed è la versione che dovrebbe supportare sino a 3,2GHz DEF, quindi è più che una mia impressione, direi...

Gio_87
07-11-2011, 11:50
Ce un cambio di rotta voluta in gran parte dal nuovo CEO...
Tra pochi giorni (9 novembre) ci sarà una dichiarazione ufficiale sulle nuove strategie AMD...

ben venga, ma sta di fatto che secondo me non farà piacere a tutti quelli che come me, hanno acquistato mobo con 9xx solo 1/2 mesi fa e già vengono presentati i nuovi

Lo fa anche a me :D , una versione, l'altra gira tranquillamente.

Quella che va a vuoto, passa il tempo ed i core restano sempre in idle :)

hihihih :D con quale versione hai risolto?

paolo.oliva2
07-11-2011, 11:58
Allora, caso winrar (con DDR3 1,6GHz)

Le performances di winrar sono proporzionate alla percentuale occupazione CPU in task manager, e precisamente:
4,159MB/s per 44%
5,121MB/s per 85%
5,703MB/s per 92%
5,934MB/s per 97%
5,940MB/s per 99%

4,159MB/s per 44% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124408_winrar1adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124408_winrar1adef.jpg)

5,121MB/s per 85% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124648_winrar2adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124648_winrar2adef.jpg)

5,703MB/s per 92% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124953_winrar3adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124953_winrar3adef.jpg)

5,934MB/s per 97% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107125310_winrar4adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107125310_winrar4adef.jpg)

5,940MB/s per 99% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107125520_winrar5adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107125520_winrar5adef.jpg)

gianni1879
07-11-2011, 11:58
OK.
Era a def, 3,6/3,9/4,2GHz

ok, allora rifai lo screen correttamente e vedrai che la situazione è ben diversa da quella precedentemente postata. Inoltre con l'ultima versione devi avere installato il SP1 di W7.

paolo.oliva2
07-11-2011, 11:59
ben venga, ma sta di fatto che secondo me non farà piacere a tutti quelli che come me, hanno acquistato mobo con 9xx solo 1/2 mesi fa e già vengono presentati i nuovi
hihihih :D con quale versione hai risolto?
0.6.4

aaadddfffgggccc
07-11-2011, 12:03
ok, allora rifai lo screen correttamente e vedrai che la situazione è ben diversa da quella precedentemente postata. Inoltre con l'ultima versione devi avere installato il SP1 di W7.

Aggiungiamo anche questo: Crosshair-V-Formula-ASUS-0903 (http://www.hwupgrade.it/forum/showpost.php?p=36300424&postcount=109)

Bios ottimizzato per BD, ora non avete più scuse ;)

capitan_crasy
07-11-2011, 12:06
bella storia!
sarà sicuramente molto molto interessante speriamo bene!

D'accordo per i nuovi Southbridge con supporto alle USB 3.0 ma secondo me è inutile proporre nuovi chipset che poi al 90% sarà un 990FX alias 890FX alias 790FX rimarchiato; avrebbe avuto senso per il supporto all'inutile PCI-Express 3.0, peccato che non ci sia neanche quello...:rolleyes:
Ho paura che Komodo abbia fatto una brutta fine in favore di un socket preistorico...:muro:

aaadddfffgggccc
07-11-2011, 12:12
D'accordo per i nuovi Southbridge con supporto alle USB 3.0 ma secondo me è inutile proporre nuovi chipset che poi al 90% sarà un 990FX alias 890FX alias 790FX rimarchiato; avrebbe avuto senso per il supporto all'inutile PCI-Express 3.0, peccato che non ci sia neanche quello...:rolleyes:
Ho paura che Komodo abbia fatto una brutta fine in favore di un socket preistorico...:muro:

vabbè, x l'inutile PCI-E 3.0 basta inserire questo nella MB:

http://www.asrock.com/mb/sticker/Fatal1ty-PCIeGen3-Desc1.jpg

Gio_87
07-11-2011, 12:12
0.6.4

non va :fagiano:

@grazie lab!!! :)

liberato87
07-11-2011, 12:13
D'accordo per i nuovi Southbridge con supporto alle USB 3.0 ma secondo me è inutile proporre nuovi chipset che poi al 90% sarà un 990FX alias 890FX alias 790FX rimarchiato; avrebbe avuto senso per il supporto all'inutile PCI-Express 3.0, peccato che non ci sia neanche quello...:rolleyes:
Ho paura che Komodo abbia fatto una brutta fine in favore di un socket preistorico...:muro:

la mia "enfasi" era perchè hai detto che il 9 novembre sapremo qualcosa sul cambio di roadmap e sui progetti futuri..
i nuovi chipset non li ho neanche commentati perchè imho non ci sta praticamente nulla da commentare..

Gio_87
07-11-2011, 12:14
vabbè, x l'inutile PCI-E 3.0 basta inserire questo nella MB:

http://www.asrock.com/mb/sticker/Fatal1ty-PCIeGen3-Desc1.jpg

cioè lab? bisogna trovare quel chip è sostituirlo con quello che è presente attualmente?

System Shock
07-11-2011, 12:15
Ecco l'ultima versione di linx , momory all , o almeno 6 gb ,e mi raccomando questa volta niente torrent :D

linx(0.64)_10.3.6.010.zip (http://www.mediafire.com/?df3moud0kwjxveu)

Edit, ad essere aggiornati sonno gli eseguibili linpack_xeon64.exe e linpack_xeon32.exe , Linx.exe e sempre la versione 0.6.4.

Anzi questa è ancora più recente.

linx(0.64)_10.3.7.012.zip (http://www.mediafire.com/?q3gguifuq5t7ida)

paolo.oliva2
07-11-2011, 12:15
ok, allora rifai lo screen correttamente e vedrai che la situazione è ben diversa da quella precedentemente postata. Inoltre con l'ultima versione devi avere installato il SP1 di W7.

Questa è con gli stessi parametri dello screen precedente e stessi valori, con in più CPU-Z che rileva la frequenza operativa mentre è in esecuzione.
Ho installato l'SP1 di windows 7.

http://www.pctunerup.com/up/results/_201111/th_20111107130455_linxtest8150.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107130455_linxtest8150.jpg)

Questa è con il parametro ALL, cioè ho bloccato dopo 5 minuti... la rifaccio quando tolgo 4GB di RAM... :D

http://www.pctunerup.com/up/results/_201111/th_20111107131403_linxall.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107131403_linxall.jpg)

paolo.oliva2
07-11-2011, 12:17
Aggiungiamo anche questo: Crosshair-V-Formula-ASUS-0903 (http://www.hwupgrade.it/forum/showpost.php?p=36300424&postcount=109)

Bios ottimizzato per BD, ora non avete più scuse ;)

VOLO.

gianni1879
07-11-2011, 12:26
Allora, caso winrar (con DDR3 1,6GHz)

Le performances di winrar sono proporzionate alla percentuale occupazione CPU in task manager, e precisamente:
4,159MB/s per 44%
5,121MB/s per 85%
5,703MB/s per 92%
5,934MB/s per 97%
5,940MB/s per 99%

4,159MB/s per 44% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124408_winrar1adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124408_winrar1adef.jpg)

5,121MB/s per 85% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124648_winrar2adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124648_winrar2adef.jpg)

5,703MB/s per 92% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107124953_winrar3adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107124953_winrar3adef.jpg)

5,934MB/s per 97% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107125310_winrar4adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107125310_winrar4adef.jpg)

5,940MB/s per 99% occupazione CPU a task-manager

http://www.pctunerup.com/up/results/_201111/th_20111107125520_winrar5adef.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111107125520_winrar5adef.jpg)

non vorrei dirtelo, ma i test di winrar sono fortemente limitati dal tipo di hdd/SSD usato. Discorso diverso del bench integrato.

Gio_87
07-11-2011, 12:32
Ecco l'ultima versione di linx , momory all , o almeno 6 gb ,e mi raccomando questa volta niente torrent :D

linx(0.64)_10.3.6.010.zip (http://www.mediafire.com/?df3moud0kwjxveu)

Edit, ad essere aggiornati sonno gli eseguibili linpack_xeon64.exe e linpack_xeon32.exe , Linx.exe e sempre la versione 0.6.4.

Anzi questa è ancora più recente.

linx(0.64)_10.3.7.012.zip (http://www.mediafire.com/?q3gguifuq5t7ida)

nada non funzionano :(

System Shock
07-11-2011, 12:45
nada non funzionano :(

Qui ci sono tutte le versioni :

http://forum.lowyat.net/topic/892376

Ma quelle precedenti al 2011 non usano le avx .

Wolfhang
07-11-2011, 13:04
nada non funzionano :(

dopo averlo installato prova ad eseguirlo come amministratore...

papafoxtrot
07-11-2011, 13:21
la mia era una "figura allegorica" non una descrizione tecnica
grandi per me vuol dire che processano istruzuini complesse
piccoli che processano istruzioni semplici e quindi necessitano di spezzettarle e quindi, per quel che ci capisco, una pipeline più lunga

cì'e' una proporzionalità tra la compelssità e in numero di transistor ovviamentequesto non fa si che il core automaticamente sia più grande a parità di processo produttivo perchè dipende da scelte sull'architettura

comuinque per cercare di capire che cosa amd aveva intensione di fare, se uno la garda dall'esterno, senza saper il numero dei transitor dei core, deve sapere la loro area
sul numero di transistor non su nulla, sull'aria 30 mm2 per BD modulo, 20 mm2 per il core dell'i7.
per qualche calcolo ad occhio e croce che ho fatto le cpu all'interno del modulo non dovrebbero essere al massimo il 40%, e la fp il 60% (correggetemi se sbaglio)

da questo intuisco più che altro, non avendo dati certi, che nel modulo per me AMd ha scelto pipelane più lunghe, frequenze più alte e di dividere il "pacco da processare in due", invece di metterlu su una sola cpu che sarebbe stata più complessa, secondo il mio linguaggio grande.
è solo su una complessità maggiore infatti secondo me l'ht ha senso.

ritengo che questa sceltà possa compensare con software paralleli le carenze di amd che tu giustamente elencavi, e questo secondo me si vedrà sulle cpu sever

almeno penso

Si ho capito, puoi chiamarli grandi e piccoli come vuoi; in ogni caso è scorretto affermare (e questo era certamente nel tuo discorso) che l'HT è efficace in core (che tu chiami grandi) come quelli intel. Ed è del tutto sbagliato affermare che un core più semplice si riempia con più facilità, soprattutto perché probabilmente la maggior sofisticazione nei core intel sta proprio in una migliore ottimizzazione, al fine di riempirli meglio.
Questo rimanendo in un linguaggio molto semplice e a volte fuorviante.

Quindi anche ammettendo che i core BD siano "piccoli" e quelli SB "grandi" (il che non è del tutto vero), è comunque vero il contrario, e cioè che un core AMD guadagnerebbe di più di uno intel dall'HT. Questo anche trascurando il fatto di avere una pipeline lunga.

@Paolo: non trovo più il tuo post in cui dicevi che l'aumento di frequenza compensa la minore efficienza della pipeline dovuta al suo allungamento.
Assumi una pipeline di lunghezza 16, come quella di sandy bridge; poniamo, in prima approssimazione, che in media avvenga uno stallo a causa di un input mancante, che si trova in elaborazione a metà della pipeline, dunque all'8° stadio.
In attesa di questo dato la pipeline rimarrà ferma per i successivi 8 cicli di clock.
Ora passiamo ad una pipeline a 22 stadi. Qui si dovrà star fermi 11 cicli di clock, cioè il 30% di più, quasi. Che poi è ancora la proporzione tra 16 e 22, cosicché possiamo assumere che se il dato mancante si trova in posizioni proporzionali lungo la pipeline, non ha importanza quanto in la si trova.

Quindi se confronti BD e SB devi tener conto che ogni votla che c'è uno stallo, BD dovrebbe fare un 30% din frequenza in più (aka 4,5GHz per confrontarsi con 2600k). A cui devi aggiungere l'effetto della BP peggiore. Se poi consideri che SB può essere portato a frequenze più alte, senza mai raggiungere il TDP di bulldozer (se intel ne avesse bisogno, vendere un 2900k a ... boh, 3,8GHz... non sarebbe un problema) vedi ceh difficilmente l'efficienza di SB sarà raggiunta giocando con pipeline più lunghe...

Tra l'altro considera che l'impatto della BP, all'aumentare della lunghezza della pipeline, è duplice:
1) La BP diventa molto più importante, perché se per caso sbaglia e la pipeline stalla, si perde molto di più
2) La pipeline è più lunga, quindi è necessario prevedere con maggiore anticipo (con più cicli di clock di anticipo) quali dati saranno necessari. A questo dobbiamo, ovviamente, le code di riordino più lunghe in bulldozer.

A questo punto prendiamo phenom II, che aveva 12 stadi; passando a 22 stadi, serve un clock maggiore del 40-45% per far fronte ad uno stallo, il che porterebbe BD a necessitare di oltre 6GHz perché uno stallo abbia lo stesso effetto di un Phenom II...
Ovviamente non è vero che la pipeline non si riempie mai... voglio sperare che più cicli si completino senza che si susseguano stalli, e questo porta ad un pareggio per frequenze ben più basse.

In ogni caso spero che questo ragionamento faccia vedere come sia inutile aspettarsi che il ridicolo IPC di bulldozer possa essere controbilanciato da un aumento di frequenze.
Ovviamente ritengo ridicolo attendersi un bulldozer a 4,5GHz, soprattutto finché l'architettura non cambia. Portare a quella frequenza tutti i transistor di cui si compone un modulo bulldozer è impensabile.
Dichiarare che BD sarebbe stato ben diverso se GF avesse fornito un processo migliore, al lancio, è assurdo.
3,6GHz al lancio per una CPU così grossa è un buon risultato e ritengo impensabile che un processo produttivo migliore possa correggere questo risultato.

Certamente un'ottimizzazione dell'architettura potrà aiutare a contenere il numero di transistor, eliminando eventuali hot spot e consentendo migliori frequenze; questo assieme ad un processo produttivo che può sicuramente migliorare, può consentire a BD di raggiungere le elevate frequenze che vi aspettate. Ritengo però che si prenda prima la via dell'aumento del numero di core, che permette di guadagnare in prestazioni in modo energeticamente più vantaggioso, rispetto a crescere di frequenza.

Ma soprattutto Bulldozer richiede un aumento di IPC. 4,5GHz non consentiranno certo di raggiungere la concorrenza (già oggi a fatica permetterebbero di competere con un core i7 3820 a 3,6GHz).
Soprattutto BD ha prestazioni altalenanti; tralasciando il discorso ottimizzazioen software, che è vero solo in parte, BD va male e basta, un 10% di IPC potrebbe essere lòa media tra un miglioramento nullo dove i risultati di BD sono già accettabili, e di un buon miglioramento (+20%) dove BD deficia di più. In questo caso non sarebbe niente male...

paolo.oliva2
07-11-2011, 13:58
non vorrei dirtelo, ma i test di winrar sono fortemente limitati dal tipo di hdd/SSD usato. Discorso diverso del bench integrato.
Io ho degli HD WD 5400rpm Sata II... di certo non brillano

Il bench integrato... io non sto facendo quello?
utilità/valutazione e verifica hardware.

paolo.oliva2
07-11-2011, 14:01
@Labview.

Con il nuovo bios, l'OC massimo è sempre lì, ma si riesce ad ottimizzare il procio abbastanza bene.

Ora l'NB rende anche oltre i 2,2GHz fino a 2,550GHz, oltre è retrogrado :(

Ora la differenza in Cinebench tra un Thuban ottimizzato ed un 8150 da 380MHz si è ridotto a 300MHz :) (sto per postare tutto nel th OC BD)

Edit:
@Liberato87
Ora capisco perché dicevi 500MHz... me so ingarbugliato coi conti :)
Ora la differenza in Cinebench tra un Thuban ottimizzato ed un 8150 da 480MHz si è ridotto a 400MHz :)

Non mi ero accorto...:doh:

pandyno
07-11-2011, 14:09
Sono ancora frastornato... mi spiace, non ce l'ho fatta a prendere BD, ci vediamo ai prossimi due giri sperando che le cose cambino radicalmente... :fagiano:

B|4KWH|T3
07-11-2011, 14:10
D'accordo per i nuovi Southbridge con supporto alle USB 3.0 ma secondo me è inutile proporre nuovi chipset che poi al 90% sarà un 990FX alias 890FX alias 790FX rimarchiato; avrebbe avuto senso per il supporto all'inutile PCI-Express 3.0, peccato che non ci sia neanche quello...:rolleyes:
Ho paura che Komodo abbia fatto una brutta fine in favore di un socket preistorico...:muro:

Queste voci dovrebbero significare che Corona non e` piu` cancellato e vedremo Piledriver anche su AMD3+

...


Oppure che non ci sto capendo piu` niente, che casino

Gio_87
07-11-2011, 14:32
0.6.4

Qui ci sono tutte le versioni :

http://forum.lowyat.net/topic/892376

Ma quelle precedenti al 2011 non usano le avx .

dopo averlo installato prova ad eseguirlo come amministratore...

Allora ho trovato una versione installabile, la 0.6.4.0 con le librerie 10.2(l'ho letto sul programma)
Qualsiasi altra versione non istallabile non parte e gira a vuoto.
Io ho fatto con la versione descritta su 44,2619 gflops. Abbastanza poco.
Volevo sapere se qualcuno di voi ha qualche eseguibile dell'ultima versione vorrei vedere con il supporto alle avx quanto produce in gflops
Grazie! :)

shellx
07-11-2011, 14:36
Queste voci dovrebbero significare che Corona non e` piu` cancellato e vedremo Piledriver anche su AMD3+

...


Oppure che non ci sto capendo piu` niente, che casino

Significa semplicemente che l'hudson D4 che era previsto su piattaforma Korona con Komodo andrà invece sulla piattaforma di trinity.
E al posto dei tanto nominati A85X FCH per FM2 nella paittaforma enthusiast ci saranno (secondo quelle roadmap) i 1090FX che a parte l'SB, altro non sono che 990FX/890/790 rimarchiati.
Morale della favola: Komodo ed FM2 sembra non prendere vita nel Q3 2012 come si diceva sempre, questo non significa che sarà cancellato, ma attualmente non è previsto al posto invece dell'ennesima falsa evoluzione del chipset 990FX su am3+.

A questo punto non saprei cosa pensare, ma mi viene da pensare che difficilemnte un Komodo possa uscire su FM2, a questo punto mi viene da pensare un ipotetico FM3 con un ipotetica famiglia HUDSON D5. Non avrebbe senso fare uscire Komodo (es 2013) su un socket fm2 gia vecchio e un chipset vecchio hudson d4.

Catan
07-11-2011, 14:42
L'NB è più ottimizzato, nel senso che occarlo o meno incrementa poco.... dovremmo essere sull'1% occhio e croce.
Usare delle DDR3 a 1333 o 2133 porta differenze solamente dove la banda porta vantaggio.
Nel Phenom II X4, l'OC NB rendeva parecchio a patto di occare il clock procio e rendeva sino a che il clock NB era doppio rispetto al clock delle RAM e si arrivava al 7%.
Nel Thuban già questo era più ridotto... (credo intorno al +5%) probabilmente perché erano state fatte ottimizzazioni per gestire 6 core al posto di 4.

Tieni presente che comunque posto quello che rilevo al momento, non posso escludere che sia per bios non allo stadio finale... come non posso escludere che ora come ora a me BD mi da' tanto una impressione di compromesso tra architettura e PP attuale silicio.
Se ti ricordi, si parlava di NB e HT a 3,2GHz def... ora ci troviamo un NB a 2,2GHz con prb ad occarlo oltre i 2,650GHz ed un HT che oltre i 2,6GHz NON E' NEMMENO PREVISTO DA BIOS.... tieni presente che la versione NB e HT è superiore a quello del Thuban ed è la versione che dovrebbe supportare sino a 3,2GHz DEF, quindi è più che una mia impressione, direi...

tecnicamente paolo non è cosi.
le mobo attuali e procio attuali sono tutti certificati hypertransport 3.1
che ha come frequenza certificata i 3.2ghz.
quindi non è detto che se sei ht 3.1 compliant, ci arrivi veramente ai 3.2ghz.
i 2.6ghz invece sono la vecchia specifica dell'ht 3.0, anche se oggettivamente tutti i chipset amd dalla versione 7, sono ht 3.1 compliant.
quindi mi pare strano che al massimo si arrivi alle specifiche del 3.0, èerò potrebbe esserci qualche limitazione da bios.
questo non toglie il fatto che da bd mi aspettavo non dico di arrivare ai 3.2ghz di nb/ht, ma sui 2.8 si, senza problemi e con incrementi tangibili, visto il dover gestire 8 core e 8mb.

paolo.oliva2
07-11-2011, 14:51
Significa semplicemente che l'hudson D4 che era previsto su piattaforma Korona con Komodo andrà invece sulla piattaforma di trinity.
E al posto dei tanto nominati A85X FCH per FM2 nella paittaforma enthusiast ci saranno (secondo quelle roadmap) i 1090FX che a parte l'SB, altro non sono che 990FX/890/790 rimarchiati.
Morale della favola: Komodo ed FM2 sembra non prendere vita nel Q3 2012 come si diceva sempre, questo non significa che sarà cancellato, ma attualmente non è previsto al posto invece dell'ennesima falsa evoluzione del chipset 990FX su am3+.

A questo punto non saprei cosa pensare, ma mi viene da pensare che difficilemnte un Komodo possa uscire su FM2, a questo punto mi viene da pensare un ipotetico FM3 con un ipotetica famiglia HUDSON D5. Non avrebbe senso fare uscire Komodo (es 2013) su un socket fm2 gia vecchio e un chipset vecchio hudson d4.

Vuoi che ti dica come la penso?

Finché AMD non risolve (e se lo risolve) il problema del silicio, non c'è socket che possa farlo andare meglio... ragion per cui, pensa un attimo alla posizione AMD...
- produttori di mobo con montagne di mobo da vendere (ancora) perché il procio è sotto le aspettative.
- clienti (me compreso :D ) che aspettano un B3 o Piledriver socket AM3+ su cui fare un aggiornamento spendendo 50-100€ tra vendere l'8150 e comprare il nuovo.

Se AMD sfornasse un Piledriver, mettiamo anche a 600MHz in più di clock rispetto all'8150 e con un 5-10% di IPC... quanti clienti vedrebbe possessori di 8150 a comprare la mobo nuova e nuovo procio?

P.S.
Bollitura... :D
Forse avrò preso un procio sfigato... perché non accetta un Vcore oltre 1,485V se sotto un carico vero, nonostante con liquido e WC non supero i 40°. Anche se sto a 4,5GHz, se assegno 1,530V si inchioda.
Io pensavo e speravo fossero finiti i tempi in cui l'OC era impedito da tanti fattori tranne il TDP.
Mi urta, e non poco, vedere un procio sotto i 50° tranquillamente CHE NON SALE!!! Io penso che potrei dargli anche 1,55V/1,6V e rientrare sotto i 60°...

paolo.oliva2
07-11-2011, 14:52
tecnicamente paolo non è cosi.
le mobo attuali e procio attuali sono tutti certificati hypertransport 3.1
che ha come frequenza certificata i 3.2ghz.
quindi non è detto che se sei ht 3.1 compliant, ci arrivi veramente ai 3.2ghz.
i 2.6ghz invece sono la vecchia specifica dell'ht 3.0, anche se oggettivamente tutti i chipset amd dalla versione 7, sono ht 3.1 compliant.
quindi mi pare strano che al massimo si arrivi alle specifiche del 3.0, èerò potrebbe esserci qualche limitazione da bios.
questo non toglie il fatto che da bd mi aspettavo non dico di arrivare ai 3.2ghz di nb/ht, ma sui 2.8 si, senza problemi e con incrementi tangibili, visto il dover gestire 8 core e 8mb.

Se vai nel TH dell'OC, spiego tranquillamente tutto... è per questo che da quando l'ho ho postato più volte che per me l'8150 è un compromesso incredibile tra procio e silicio...
Oltre 2,5/2,55GHz l'NB non solo non ti da' nulla, ma ti fa perdere... senza contare che vuole da 1,3V in su... anche 1,45V oltre i 2,6GHz per una minima stabilità. Cioè... 1,45V (+0,15V) necessitano i core per essere RS roccia a 4,6GHz con un OC di 1GHz... qui parliamo di +400MHz e da 1,165V +0,3V... Non può essere normale... Indovina perché non hanno messo l'NB a 3,2GHz... che gli davano? 2V?
Battuta... forse i test di OC con quei consumi da paura... può essere che hanno overcloccato/overvoltato l'NB :)

Catan
07-11-2011, 15:00
aggiungo i miei due centesimi sulla diatriba pipeline lunghe e corte.
il discorso delle pp corte o lunghe, secondo me era valido quando il processo produttivo era "secondario" rispetto all'archidettura, cioè quando si sapeva che non si sarebbe mai arrivati alla frequenza massima che il processo permetteva.
ad oggi dove siamo quasi al limite del processo produttivo litrografico, ed i miglioramenti tra processo produttivo si sono assottigliati (è una curva logaritmica, 90-65-45-32-28-22 basta vedere la diminuzione) è piu probabile che si arrivi presto alla frequenza massima raggiungibile da quel processo produttivo.
il trend si era già visto con i 45nm sia di amd che di intel, al massimo con i 45nm intel si arrivava ai 4.2-4.4 ghz, lo stesso con i 45nm amd maturi, ci si fermata sui 4-4.2 (insomma a meno di 200mhz l'intorno era quello).
anche con i 32, per ora un intel rodato fa arrivare i suoi proci sui 5-5.2ghz, un 32nm amd un pò immaturo si ferma sui 4.8-5, ma non è detto che un b3 rodato non arrivi anche lui ai 5-5.2

diciamo quello che secondo me nella diatriba pipeline lunghe e corte, si sta tenendo in poca considerazione il fatto, che mentre prima l'archidettura contava in percentuale molto di più sul processo produttivo, ad ora via via che si scende, il processo produttivo sta diventando predominante sulla frequenza massima raggiungibile, indipendentemente dall'archiedettura.

ovviamente che non si travisino le mie parole, dove sembra quasi che esca fuori il concetto, "facciamo le pp corte tanto alla frequenza ci pensa il processo produttivo"., le mie parole vanno oltre questo concetto, e devono esser slegate dal concetto di overclock.
diciamo ad adesso è che un archidettura è pensata per un determinato processo produttivo, che ad un dato tdp deciso, permette queste frequenze.
cosi esce fuori intel con un 32nm, una frequenza contenuta per restare nel tdp scelto. Credo che nulla le avrebbe evitato di fare un serie k, a 125W di tdp, con frequenza di 4ghz e turbo di 4.4ghz.

amd invece che la sua archidettura a pipeline lunghe, ha scelto di sfruttare al massimo, subito in commercializzazione, le frequenze abbondanti che permettono i 32nm restando dentro il tdp scelto.
A riprova cmq che i processori non vengono pensanti per chi fa oc, ma diciamo, pensati prima per chi gli serve, e poi l'oc è un fattore "secondario" di una ristretta fascia di utenti.

La conclusione è che nella diatriba pp corte, lunghe , intermedie, bisogna anche tener presente che il contributo del processo produttivo alla frequenza massima, pesa in maniera maggiore, rispetto a quando avevamo i 90nm, quindi all'era A64 e P4

paolo.oliva2
07-11-2011, 15:02
@Gianni.

Mi scuso se ho postato anche qui i problemi di OC, ma l'ho fatto perché mi sembrano delle tracce valide per far comprendere perché dico che il BD attuale è MOLTO condizionato dal silicio, arrivando a dire che mi sembra MOLTO un compromesso.
Chiaramente sono mie valutazioni personali, quindi soggettive... però razionalmente non trovo altre spiegazioni...

paolo.oliva2
07-11-2011, 15:09
aggiungo i miei due centesimi sulla diatriba pipeline lunghe e corte.
il discorso delle pp corte o lunghe, secondo me era valido quando il processo produttivo era "secondario" rispetto all'archidettura, cioè quando si sapeva che non si sarebbe mai arrivati alla frequenza massima che il processo permetteva.
ad oggi dove siamo quasi al limite del processo produttivo litrografico, ed i miglioramenti tra processo produttivo si sono assottigliati (è una curva logaritmica, 90-65-45-32-28-22 basta vedere la diminuzione) è piu probabile che si arrivi presto alla frequenza massima raggiungibile da quel processo produttivo.
il trend si era già visto con i 45nm sia di amd che di intel, al massimo con i 45nm intel si arrivava ai 4.2-4.4 ghz, lo stesso con i 45nm amd maturi, ci si fermata sui 4-4.2 (insomma a meno di 200mhz l'intorno era quello).
anche con i 32, per ora un intel rodato fa arrivare i suoi proci sui 5-5.2ghz, un 32nm amd un pò immaturo si ferma sui 4.8-5, ma non è detto che un b3 rodato non arrivi anche lui ai 5-5.2

diciamo quello che secondo me nella diatriba pipeline lunghe e corte, si sta tenendo in poca considerazione il fatto, che mentre prima l'archidettura contava in percentuale molto di più sul processo produttivo, ad ora via via che si scende, il processo produttivo sta diventando predominante sulla frequenza massima raggiungibile, indipendentemente dall'archiedettura.

ovviamente che non si travisino le mie parole, dove sembra quasi che esca fuori il concetto, "facciamo le pp corte tanto alla frequenza ci pensa il processo produttivo"., le mie parole vanno oltre questo concetto, e devono esser slegate dal concetto di overclock.
diciamo ad adesso è che un archidettura è pensata per un determinato processo produttivo, che ad un dato tdp deciso, permette queste frequenze.
cosi esce fuori intel con un 32nm, una frequenza contenuta per restare nel tdp scelto. Credo che nulla le avrebbe evitato di fare un serie k, a 125W di tdp, con frequenza di 4ghz e turbo di 4.4ghz.

amd invece che la sua archidettura a pipeline lunghe, ha scelto di sfruttare al massimo, subito in commercializzazione, le frequenze abbondanti che permettono i 32nm restando dentro il tdp scelto.
A riprova cmq che i processori non vengono pensanti per chi fa oc, ma diciamo, pensati prima per chi gli serve, e poi l'oc è un fattore "secondario" di una ristretta fascia di utenti.

La conclusione è che nella diatriba pp corte, lunghe , intermedie, bisogna anche tener presente che il contributo del processo produttivo alla frequenza massima, pesa in maniera maggiore, rispetto a quando avevamo i 90nm, quindi all'era A64 e P4

Ti quoto.
Infatti il problema AMD non è tanto nelle pipeline lunghe e nelle latenze della L3/L2 se l'architettura lavorasse alle frequenze prestabilite.
Il problema è che l'architettura sta lavorando praticamente agli stessi clock di un'altra architettura con pipeline più corte, latenze esatte per la frequenza di lavoro, ecc.

Poi se in mezzo ci mettiamo che Intel comunque ha latenze migliori di quelle AMD nelle cache, una predizione migliore, un'architettura bella rodata e potente., un silicio anch'esso bello rodato... abbiamo fatto la frittata 8150's

Catan
07-11-2011, 15:14
Se vai nel TH dell'OC, spiego tranquillamente tutto... è per questo che da quando l'ho ho postato più volte che per me l'8150 è un compromesso incredibile tra procio e silicio...
Oltre 2,5/2,55GHz l'NB non solo non ti da' nulla, ma ti fa perdere... senza contare che vuole da 1,3V in su... anche 1,45V oltre i 2,6GHz per una minima stabilità. Cioè... 1,45V (+0,15V) necessitano i core per essere RS roccia a 4,6GHz con un OC di 1GHz... qui parliamo di +400MHz e da 1,165V +0,3V... Non può essere normale... Indovina perché non hanno messo l'NB a 3,2GHz... che gli davano? 2V?
Battuta... forse i test di OC con quei consumi da paura... può essere che hanno overcloccato/overvoltato l'NB :)

Paolo, parti dal presupposto che se una cosa è certificata per andare al massimo a 3.2ghz, e sai benissimo che quandi si parla di pII di di bd, ma in generale dei proci amd parlare di nb e ht sono quasi un binomio non scindibile, nessun produttore te lo mette subito a 3.2ghz, visto che sei troppo vicino alla soglia di stabilità/instabilità, basta una mobo un pò sfigata, che il tutto risulta instabile anche a default.
Per questo si sceglie di mettere dei valori conservativi, abbondantemente sotto la soglia per esser tranquilli, sia con le mobo da 50€, sia con quelle da 300€.
Quindi già per questo l'nb di default a 3.2 ghz, togliamocelo subito dalla testa, non è solo una questione di silicio, ma anche di standard sia dell'ht sia costruttivo della mobo.

di default hanno rispettato quello che mi aspettavo un 2.2 , 2.4 ghz.

sotto oc, mi sarei aspettato, dove un daneb/tuban con 1.35 fa i 2.6 o 2.8 se uno è fortunato, , visto i 32nm, visto però l'aumento a 8mb della l3, mi sarei aspettato che allo stesso voltaggio quindi attorno agli 1.35 si sarebbe arrivati ai 3ghz-3.2ghz, cioè attorno alla soglia di instabilità/stabilità del bus ht.

Sicuramente il fatto che non riesca ad arrivare ad un intorno prossimo alla soglia massima dell'ht certificata è indice che qualcosa a livello di silicio non vada, sopratutto per stare a 2.6ghz, vuole 0.01v in + , dei daneb/thuban

che guarda caso si fermi, ai 2.6 e su un bios l'ht massimo è 2.6 come le vecchie specifiche dell'ht 3.0 è un altro sintomo, che dice che forze questo bd, per qualche motivo è ancora con il freno a mano tirato.

Ma sicuramente i 3.2ghz di ht e di nb, cosi a default, realisticamente non sono presentabili, indipendentemente dal voltaggio, per il semplice motivo che sei troppo vicino alla specifica "ideale", visto che tra ideale e reale di differenza ce ne sta, sopratutto tra mobo da 70€ e mobo da 250€, per far funzionare tutto su tutte le schede madri, probabilmente ti metti molto sotto soglia standard appunto quei 2.2-2.4 ghz, che sei che sono fattibili da tutte le mobo, e ti garantiscono di stare tranquillo con frequenze turbo a default fino a 4.8ghz

paolo.oliva2
07-11-2011, 15:15
nada non funzionano :(

Neppure a me

Catan
07-11-2011, 15:16
Ti quoto.
Infatti il problema AMD non è tanto nelle pipeline lunghe e nelle latenze della L3/L2 se l'architettura lavorasse alle frequenze prestabilite.
Il problema è che l'architettura sta lavorando praticamente agli stessi clock di un'altra architettura con pipeline più corte, latenze esatte per la frequenza di lavoro, ecc.

Poi se in mezzo ci mettiamo che Intel comunque ha latenze migliori di quelle AMD nelle cache, una predizione migliore, un'architettura bella rodata e potente., un silicio anch'esso bello rodato... abbiamo fatto la frittata 8150's

guarda anche io se fossi in amd, piu che spingere sul processo produttivo, spingerei sulla risoluzione dei problemi di latenza e brach prediction.
certo però capisco che questi devono vendere, quindi è molto più facile e semplice sistemare prima il processo produttivo, e poi mettere mano all'archidettura del procio.

Pat77
07-11-2011, 15:28
http://www.xtremehardware.it/news/hardware/i-processori-qinterlagosq-di-amd-sono-alla-base-dei-supercomputer-dei-piu-importanti-centri-di-ricerca-e-delle-universita-201111035977/


QUESTE sono le cose su cui commentare.....

http://quinetiam.com/?p=119

http://hexus.net/tech/news/cpu/32394...ct-definitive/

Non sempre le solite questioni.... mi sono letto da quando è stato aperto tutte le 128 pagine e ogni tanto ciclicamente si parla sempre delle solite cose con post enormi, fanfaronate, previsioni e cavolate varie....

Ma si possono avere 128 pagine di NULLA???

Ci saranno in tutto 15 pagine di roba da salvare, poco + del 10% di tutte le cose scritte.... eppoi le notizie importanti passano in sordina.....

Passa in sordina circa 50.000 proci server BD che saranno venduti... cavolo.... alla faccia dello schifo, del fornetto, delle basse prestazioni.... io non comprerei 15000 processori.... 15000!!!!!! 25000!!!! Evidentemente CHI ne capisce VERAMENTE reputa questa architettura molto valida e utile...

Nell'ambito desktop per ora fà pena rispetto ai proci attuali? Pazienza... abbiamo detto 1000000 di volte che il silicio è quello che è il SOFTWARE pure, e ne è la riprova i due link sopra, sono quello che sono, e il progetto mira al futuro, a fusion e a chissà cosa avranno in mente loro..... Invece qua dalla mattina alla sera piuttosto che post tecnici e ragionati si parla solo per dare fiato alla bocca e rompere le balle alla gente che ci deve impiegare 1 ora per leggersi 10-12 pagine di nulla...... MA SI PUO?
SE BD lo vuoi lo compri, se non lo vuoi compri altro, ma si potrà venire qua sempre a spalare il letame per rendere la lettura noiosa e prolissa?

P.S. per Gianni.... ma non ti pare di aver avvisato già fin troppe volte di rimanere nel topic e quant'altro? si farebbe prima a passare alla mano dura e alla pulizia di tutte le cose che non servono a nulla......

Non ci fai nulla con questa notizia sinceramente, non vedo come possa poi centrare con il valore di BD se delle università ne comprano 50.000, ci sono mille motivi indipendenti dalle performance che entrano in gioco, semmai è utile vedere test con programmi e giochi nuovi per vedere come si comporta, se poi, come può essere, va male o bene, lo si commenta e lo si dice, è un 3d di analisi non un plebiscito sulla beltà di BD.
Non vedo sinceramente il problema, ed è logico che si ragioni con i se e ma, visto che il software attuale, è evidente a tutti che sia inadeguato, e qui si aprirebbe l'annoso problema se è il sw che deve seguire l'hw o il contrario, Amd ha intrapreso una strada coraggiosa e rischiosa, ora paga dazio, magari in futuro sarà vincente, sinceramente dai nuovi test con linux potrebbe anche dire la sua pesantemente, ma non ci sono ancora test incoraggianti e concreti che possono creare un precedente.
Come ho già detto è già ottimo che non ci siano muri oltre i 4,5-4,6 ghz, che spacchi gli 8 punti in cinebench 11,5, io sono convinto che in un cinebench 12 ipotetico possa brillare ancora di più, staremo a vedere, certo oggi è una scommessa, e una scommessa è giusto criticarla quando è indegna con alcune applicazioni (tanto da risultare più lenta dei proci che va a sostituire).
Ora non starò a riportare la pipeline lunga, l'ipc, ecc potrebbe anche darsi che con BD, che ha moduli 2 int 1 fpu, siano concetti quasi superati in vista di sw ed evoluzioni future fortemente multi.

paolo.oliva2
07-11-2011, 15:30
Paolo, parti dal presupposto che se una cosa è certificata per andare al massimo a 3.2ghz, e sai benissimo che quandi si parla di pII di di bd, ma in generale dei proci amd parlare di nb e ht sono quasi un binomio non scindibile, nessun produttore te lo mette subito a 3.2ghz, visto che sei troppo vicino alla soglia di stabilità/instabilità, basta una mobo un pò sfigata, che il tutto risulta instabile anche a default.
Per questo si sceglie di mettere dei valori conservativi, abbondantemente sotto la soglia per esser tranquilli, sia con le mobo da 50€, sia con quelle da 300€.
Quindi già per questo l'nb di default a 3.2 ghz, togliamocelo subito dalla testa, non è solo una questione di silicio, ma anche di standard sia dell'ht sia costruttivo della mobo.

di default hanno rispettato quello che mi aspettavo un 2.2 , 2.4 ghz.

sotto oc, mi sarei aspettato, dove un daneb/tuban con 1.35 fa i 2.6 o 2.8 se uno è fortunato, , visto i 32nm, visto però l'aumento a 8mb della l3, mi sarei aspettato che allo stesso voltaggio quindi attorno agli 1.35 si sarebbe arrivati ai 3ghz-3.2ghz, cioè attorno alla soglia di instabilità/stabilità del bus ht.

Sicuramente il fatto che non riesca ad arrivare ad un intorno prossimo alla soglia massima dell'ht certificata è indice che qualcosa a livello di silicio non vada, sopratutto per stare a 2.6ghz, vuole 0.01v in + , dei daneb/thuban

che guarda caso si fermi, ai 2.6 e su un bios l'ht massimo è 2.6 come le vecchie specifiche dell'ht 3.0 è un altro sintomo, che dice che forze questo bd, per qualche motivo è ancora con il freno a mano tirato.

Ma sicuramente i 3.2ghz di ht e di nb, cosi a default, realisticamente non sono presentabili, indipendentemente dal voltaggio, per il semplice motivo che sei troppo vicino alla specifica "ideale", visto che tra ideale e reale di differenza ce ne sta, sopratutto tra mobo da 70€ e mobo da 250€, per far funzionare tutto su tutte le schede madri, probabilmente ti metti molto sotto soglia standard appunto quei 2.2-2.4 ghz, che sei che sono fattibili da tutte le mobo, e ti garantiscono di stare tranquillo con frequenze turbo a default fino a 4.8ghz

Però tieni in considerazione che un Thuban arriva a 3,050GHz di NB favorendo comunque l'IPC anche se di pochissimo oltre i 2,8GHz, e comunque ci sono Thuban che ancora a liquido sono arrivati a sfiorare i 3,2GHz...
Qui un 8150 non puà superare i 2,5GHz/2,55GHz altrimenti rende di meno...
E questo problema comunque si attacca al problema vociferato in rete che un 8130 step B2f o anteriore aveva dei bug alle cache (non specificato se L2 o L3). Ma io a sto punto sono propenso a credere che per risolvere AMD ha fatto un compromesso tra NB e silicio, cioè NB a 2,2GHz e Vcore 1,165V e via con la commercializzazione.

Ho fatto dei test a 4,7GHz in 2 condizioni: NB 1,6GHz/DDR3 800MHz e NB 2,6GHz e DDR3 2133. La differenza tra la prima condizione e l'ultima è solamente 0,16 punti. Ora... o l'NB/L3 di BD è super-ottimizzato (ma andrebbe oltre le leggi della fisica perché gli ho segato quasi 2/3 di banda RAM e la L3 probabile che sia più lenta con quelle latenze e quel clock delle DDR3), oppure semplicemente l'NB/L3 non sta rendendo assolutamente una mazza (e qui trova un senso che lavorando da 1/3 a 3/3 il guadagno è ridicolo).

Tieni presente che non è mia abitudine nascondere nulla sia nel bene che nel male... ed a pelle, la sensazione che avevo avuto quando l'ho preso, ogni giorno che passa da ronzio è diventata sempre più assordante. Onestamente, con tutti i casini che ha l'8150... penso che sia quasi un miracolo che riesca a dare quello che sta dando...

Ren
07-11-2011, 15:36
La cosa strana sono i consumi, dato che ha appena 19mm2 di logica per core.
Anche in fase di design del chip devono aver toppato alla grande...

The3DProgrammer
07-11-2011, 15:55
aggiungo una cosa al discorso pipeline/frequenza: AMD quando ha introdotto il CMT e' partita dal concetto secondo il quale con un'area del die occupata leggermente maggiore rispetto a SMT sarebbe stata in grado di introdurre prestazioni molto + elevate in proporzione, fino a quasi sfiorare il raddoppio (cosa per altra rivelatasi falsa almeno con BD) contro un 30% massimo di SMT. Tutto questo discorso cozza pero' clamorosamente con l'allungamento delle pipeline e l'aumento di latenza delle cache che inevitabilmente aumentano gli stalli e di conseguenza riducono l'efficienza della CPU. Quello che voglio dire e' che apparentemente sembrano due filosofie che cozzano clamorosamente: da una parte aumenti il numero di unita' di esecuzione introducendo dei cluster int per aumentare l'efficienza, dall'altra invece allunghi le pipeline senza adeguare di conseguenza BP e cache, col risultato di vanificare parzialmente quanto di buono fatto con la prima scelta. Io personalmente vedrei + logica una scelta CMT+pipeline corte e frontend evoluto, per massimizzare il throughput delle unita' di esecuzione, oppure se vuoi le pipeline lunghe metti SMT+pipeline lunghe + frequenza (come fece intel col P4) risparmiando silicio e migliorando l'efficienza complessiva. Non sono un designer, ma sinceramente cosi' com'e' BD mi sembra un po un controsenso.

Catan
07-11-2011, 16:16
Però tieni in considerazione che un Thuban arriva a 3,050GHz di NB favorendo comunque l'IPC anche se di pochissimo oltre i 2,8GHz, e comunque ci sono Thuban che ancora a liquido sono arrivati a sfiorare i 3,2GHz...
Qui un 8150 non puà superare i 2,5GHz/2,55GHz altrimenti rende di meno...
E questo problema comunque si attacca al problema vociferato in rete che un 8130 step B2f o anteriore aveva dei bug alle cache (non specificato se L2 o L3). Ma io a sto punto sono propenso a credere che per risolvere AMD ha fatto un compromesso tra NB e silicio, cioè NB a 2,2GHz e Vcore 1,165V e via con la commercializzazione.

Ho fatto dei test a 4,7GHz in 2 condizioni: NB 1,6GHz/DDR3 800MHz e NB 2,6GHz e DDR3 2133. La differenza tra la prima condizione e l'ultima è solamente 0,16 punti. Ora... o l'NB/L3 di BD è super-ottimizzato (ma andrebbe oltre le leggi della fisica perché gli ho segato quasi 2/3 di banda RAM e la L3 probabile che sia più lenta con quelle latenze e quel clock delle DDR3), oppure semplicemente l'NB/L3 non sta rendendo assolutamente una mazza (e qui trova un senso che lavorando da 1/3 a 3/3 il guadagno è ridicolo).

Tieni presente che non è mia abitudine nascondere nulla sia nel bene che nel male... ed a pelle, la sensazione che avevo avuto quando l'ho preso, ogni giorno che passa da ronzio è diventata sempre più assordante. Onestamente, con tutti i casini che ha l'8150... penso che sia quasi un miracolo che riesca a dare quello che sta dando...


Paolo sul thuban a 3ghz è possibile, non so a quanto vcore, ma oggettivamente come ti ho detto più ti avvicini alla soglia di instabilità quindi i 3.2ghz meno "pezzi" ti ci arrivano se non rs, ma per solo benchmark
che bd non riesca ad arrivarci più agevolmente rispetto ad uno stars è indice che il silicio non vada, invece i problemi sulla banda, potrebbero indicare che effettivamente o è molto ottimizzato, o ha delle latenze che fanno da tappo, oppure c'è una soluzione intermedia che mi sembra la più probabile.
probabilmente 8mb di cache l3, per come il processore è sfruttato adesso dai programmi, sono più che sufficienti a stipare tutti i dati necessari, quindi fino a che non è sfruttato seriamente, la l3 che sarà sempre + veloce della ram è perfettamente ingrado di far andare il tutto, senza richiedere troppo alla ram

liberato87
07-11-2011, 16:34
Edit:
@Liberato87
Ora capisco perché dicevi 500MHz... me so ingarbugliato coi conti :)
Ora la differenza in Cinebench tra un Thuban ottimizzato ed un 8150 da 480MHz si è ridotto a 400MHz :)

Non mi ero accorto...:doh:

ma si tranquillo paolo!
io a dire la verità grossolanamente avevo detto 600 e avevo sbagliato e poi calcolando bene avevo detto 480mhz ;)

Randa71
07-11-2011, 17:16
beh dai, spezzo un lancione a favore di BD:

http://www.guru3d.com/article/battlefield-3-vga-and-cpu-performance-benchmark-test/3

anche a basse risoluzioni dove la CPU conta....
se gli dai thread da macinare, macina :D tecnicamente parlando :D
interessante performance

Cocco83
07-11-2011, 18:13
....extreme cut....

C'entra perché un conto è dire che l'architettura di BD fà schifo a priori solo perché con i software di ora paga dazio non solo con la controparte ma anche spesso con la gen precedente, mentre un conto è vedere che c'è gente con i contromaroni che ne compra 50.000 perché capisce che mettendoci il contorno risparmia e ha maggiori prestazioni.... il che vuol dire che come ho ripetuto nel mio intervento e come già dissi nel post di aspettando BD dopo il 12 ottobre, AMD da tempo a sta parte adatta i proci server al mercato "enthusiast", ora ha creato un procio che và parecchio bene con software ad hoc ed ottimizzato nell'ambito server, e da qui le parole di JF di AMD (pr lato server, spezzo una lancia a suo favore) dove cmq sia prometteva che BD avrebbe spaccato... e di certo uno non compra 50.000 proci a quanto 600€ l'uno? facciamo un po' i conti..... senza sconti sono 30 milioni di €.... scusa....
Aggiungici che le ultime analisi finanziarie riportano un attivo in crescita ecc ecc, aria fresca per lo sviluppo di tutto il reparto CPU e GPU.... Ma al di là di questo, ad AMD interessa ora riprendersi il campo SERVER dove fà cassa, visto che l'ambito computer basso costo ha già fatto parecchia cassa con il successo di Llano.... Ora siamo da un certo punto di vista "trascurati" perché il best procio di ora sacrifica ad oggi il mercato enthusiast con prestazioni paragonali al 1100Te solo saltuariamente superiori.... Ha grosse pecche a livello di supporto sia da parte di windows che da tutto il parco programmi non aggiornato..... embè? pazienza, non andrà bene al 5% di popolazione che usa il pc per lavoro duro, ma cmq sia vende per marketing e vende per reale vantaggio rispetto alla generazione precedente nell'ambito server.... ti pare poco?
Oltremodo vedila così..... se avesse spaccato anche nel desktop use di sicuro non costerebbe 200€ il top di gamma.... Come detto sopra AMD deve fare cassa, non fare carità.....
La notizia di un possibile TRICK per windows? Cavolo se fosse vera e veramente darebbe quell'aumento di prestazioni (così come è nell'ambito server) ti pare una cosa da poco e su cui non ragionarci cercando di capire se è fattibile o meno? Mi sembra un discorso su cui veramente si può tirare fuori un argomento serio e di interesse per capire anche gli sviluppi futuri, piuttosto che continuare con la solita tiritera....

Io grido al FLOP se avesse fatto un procio che nell'ambito in cui puntava (server) avrebbe toppato alla grandissima..... invece a quanto pare già fà dei grossi incassi.

@Randa... in BF3 và diciamo bene perché se non sbaglio il gioco è stato creato in collaborazione con AMD... quindi presumo o ipotizzo che ci siano realmente delle cose fatte ad hoc per BD

Phenomenale
07-11-2011, 19:18
Io personalmente vedrei + logica una scelta CMT+pipeline corte e frontend evoluto, per massimizzare il throughput delle unita' di esecuzione, oppure se vuoi le pipeline lunghe metti SMT+pipeline lunghe + frequenza (come fece intel col P4) risparmiando silicio e migliorando l'efficienza complessiva. Non sono un designer, ma sinceramente cosi' com'e' BD mi sembra un po un controsenso.
Quoto, ed aggiungo: qui il limite delle pipeline non è solo nella lunghezza come numero degli stadi... ce ne sono anche di meno!!!
Il core K10 aveve 3 pipeline universali in grado di elaborare i calcoli integer, nel core BD le ALU sono state ridotte a 2, affiancate ad altre 2 solo LD/ST (quindi aritmeticamente inutili). Questo mi sembra un ulteriore limite nel throughput del core BD. :(

carlottoIIx6
07-11-2011, 19:21
Si ho capito, puoi chiamarli grandi e piccoli come vuoi; in ogni caso è scorretto affermare (e questo era certamente nel tuo discorso) che l'HT è efficace in core (che tu chiami grandi) come quelli intel. Ed è del tutto sbagliato affermare che un core più semplice si riempia con più facilità, soprattutto perché probabilmente la maggior sofisticazione nei core intel sta proprio in una migliore ottimizzazione, al fine di riempirli meglio.
Questo rimanendo in un linguaggio molto semplice e a volte fuorviante.



ti sfugge il punto secondo me
è evidente che amd guadagnerebbe con l'HT
ma la domand essenziale è
guadagnarebbe di più di quanto farebbe affiancando due core nello stesso modulo?

secondo me la risposta è no, ma aspetto i test sever per averne la certezza

Ren
07-11-2011, 20:27
ti sfugge il punto secondo me
è evidente che amd guadagnerebbe con l'HT
ma la domand essenziale è
guadagnarebbe di più di quanto farebbe affiancando due core nello stesso modulo?

secondo me la risposta è no, ma aspetto i test sever per averne la certezza

Per farlo AMD dovrebbe ridisegnare completamente il frontend, quindi ne nascerebbe una cpu totalmente diversa. (i decoder ed il bp farebbero da ulteriore collo di bottiglia)

Aggiungere SMT nei cluster integer è molto più semplice...

Continuano ad esserci altri arcani nel architettura BD. Come postato precedentemente non mi spiego i consumi esagerati con tutta quella logica condivisa tra core. Il consumo dovrebbe essere allineato ad un 4 core (poco più), soprattutto perchè con più stadi della pipeline si ha più margine sul voltaggio alla stessa frequenza.

Speriamo ci siano problemi nel design del core ancora acerbo (pare utilizzino blocchi di logica prefabbricata invece di un tuning a mano), altrimenti questo CMT è un fallimento anche sul lato consumi.

Pat77
07-11-2011, 22:05
C'entra perché un conto è dire che l'architettura di BD fà schifo a priori solo perché con i software di ora paga dazio non solo con la controparte ma anche spesso con la gen precedente, mentre un conto è vedere che c'è gente con i contromaroni che ne compra 50.000 perché capisce che mettendoci il contorno risparmia e ha maggiori prestazioni.... il che vuol dire che come ho ripetuto nel mio intervento e come già dissi nel post di aspettando BD dopo il 12 ottobre, AMD da tempo a sta parte adatta i proci server al mercato "enthusiast", ora ha creato un procio che và parecchio bene con software ad hoc ed ottimizzato nell'ambito server, e da qui le parole di JF di AMD (pr lato server, spezzo una lancia a suo favore) dove cmq sia prometteva che BD avrebbe spaccato... e di certo uno non compra 50.000 proci a quanto 600€ l'uno? facciamo un po' i conti..... senza sconti sono 30 milioni di €.... scusa....
Aggiungici che le ultime analisi finanziarie riportano un attivo in crescita ecc ecc, aria fresca per lo sviluppo di tutto il reparto CPU e GPU.... Ma al di là di questo, ad AMD interessa ora riprendersi il campo SERVER dove fà cassa, visto che l'ambito computer basso costo ha già fatto parecchia cassa con il successo di Llano.... Ora siamo da un certo punto di vista "trascurati" perché il best procio di ora sacrifica ad oggi il mercato enthusiast con prestazioni paragonali al 1100Te solo saltuariamente superiori.... Ha grosse pecche a livello di supporto sia da parte di windows che da tutto il parco programmi non aggiornato..... embè? pazienza, non andrà bene al 5% di popolazione che usa il pc per lavoro duro, ma cmq sia vende per marketing e vende per reale vantaggio rispetto alla generazione precedente nell'ambito server.... ti pare poco?
Oltremodo vedila così..... se avesse spaccato anche nel desktop use di sicuro non costerebbe 200€ il top di gamma.... Come detto sopra AMD deve fare cassa, non fare carità.....
La notizia di un possibile TRICK per windows? Cavolo se fosse vera e veramente darebbe quell'aumento di prestazioni (così come è nell'ambito server) ti pare una cosa da poco e su cui non ragionarci cercando di capire se è fattibile o meno? Mi sembra un discorso su cui veramente si può tirare fuori un argomento serio e di interesse per capire anche gli sviluppi futuri, piuttosto che continuare con la solita tiritera....

Io grido al FLOP se avesse fatto un procio che nell'ambito in cui puntava (server) avrebbe toppato alla grandissima..... invece a quanto pare già fà dei grossi incassi.

@Randa... in BF3 và diciamo bene perché se non sbaglio il gioco è stato creato in collaborazione con AMD... quindi presumo o ipotizzo che ci siano realmente delle cose fatte ad hoc per BD

Ma tu fai un discorso prettamente economico, riguardo all'ambito server, che, imho non valorizza per nulla Bd, bisogna vedere i numeri estesi, quanti ordini Intel, quanti Amd, in che ambito (low-medium-high), e magari si fa un'analisi più generale, ma che comunque non ci dice assolutamente nulla sulle performance, perchè sul lato server si guardano mille parametri, tra cui non ultimo i consumi, avere degli armadi che consumano la metà e che vanno magari un po' meno per cpu conviene di più che avere più performance ma più calore.

Per il lato Desktop, che poi è l'ecosistema di FX, vedremo se migliorando il supportoaumenteranno anche le performance e in che modo queste ottimizzazioni influenzeranno le altre CPU.

paolo.oliva2
07-11-2011, 22:29
Per farlo AMD dovrebbe ridisegnare completamente il frontend, quindi ne nascerebbe una cpu totalmente diversa. (i decoder ed il bp farebbero da ulteriore collo di bottiglia)
Aggiungere SMT nei cluster integer è molto più semplice...
Continuano ad esserci altri arcani nel architettura BD. Come postato precedentemente non mi spiego i consumi esagerati con tutta quella logica condivisa tra core. Il consumo dovrebbe essere allineato ad un 4 core (poco più), soprattutto perchè con più stadi della pipeline si ha più margine sul voltaggio alla stessa frequenza.
Speriamo ci siano problemi nel design del core ancora acerbo (pare utilizzino blocchi di logica prefabbricata invece di un tuning a mano), altrimenti questo CMT è un fallimento anche sul lato consumi.

Un Llano 32nm (100W con l'IGP, togliendo 15W per l'IGP, quanto TDP avrebbe? 85W?) perde centinaia di MHz rispetto ad un equivalente Phenom II 95W sul 45nm, anche se non ha la L3, anche se può variare la tensione dei core, anche se può spegnere i core non utilizzati...
Quindi cosa vediamo in maniera lampante?
Che un K10 con un'architettura migliorata ed ottimizzata nei consumi, nel 32nm perde centinaia di MHz rispetto ad una simile versione ma sul 45nm. Possiamo dire che sia colpa dell'architettura? Mi sembra di no... ed allora se non è colpa dell'architettura, di cosa può essere la colpa se non del silicio?

Ora vediamo invece a BD.

BD è CMT, ha 2 core in più eppure rispetto ad un Thuban, ha +300MHz di frequenza def, ha +600MHz di frequenza turbo su tutti i core, ha +500MHz di frequenza massima Turbo.
Se Llano lo possiamo confrontare al K10 e perde almeno 500MHz a parità di TDP contro questo, cosa possiamo dire invece che BD guadagna più frequenza sullo stesso silicio? Certamente che l'architettura BD è più parca nei consumi rispetto al K10, quindi il CMT risparmia TDP rispetto al tradizionale K10 = CMT non certo fallimentare sul lato consumo.
Interessante invece è il discorso (se intendi questo) consumi a prestazioni.
Ti ricordi il Phenom I sul 65nm? Che cambiamento ha portato il Phenom II architetturalmente? Poco e niente, eppure aumentò l'IPC fino al 17,5%.
Ora... se architetturalmente non ci sono stati cambiamenti sostanziali... questo +17,5% da dove arriverebbe? Da una cosa sola... dal passaggio silicio 65nm (ciofeca) al 45nm.
Allora perché Llano sul 32nm non ha guadagnato una virgola in IPC rispetto al K10 sul 45nm?
Allora il silicio 32nm a maggior ragione potrebbe influire anche sull'IPC di BD.

Tra parentesi, il confronto è allucinante del 32nm, se consideriamo che in Llano avrebbe aumentato addirittura i consumi se andiamo a cercare la potenza massima (fortuna che in gran parte è mobile). Un Llano per arrivare alla potenza di un Phenom II 970/980 X4 che TDP avrebbe anche togliendo l'IGP? 170W? Ed anche da qui possiamo vedere che comunque un 8150 riesce a dare più potenza con gli stessi consumi di un Thuban. Quindi a maggior ragione, se usiamo il 32nm come collegamento tra le 2 architetture, BD/architettura/CMT riescono a sopperire al deficit del 32nm. Se BD fosse stato un X8 stile Thuban, in questo momento sarebbe un miracolo se fosse 2GHz def per 125W TDP.

Veramente... più ci penso e più vedo che sto cacchio di 32nm va benissimo a frequenze medio/basse, dove strappa consumi inferiori e non di poco al 45nm... ma quando deve salire in frequenza, è proprio un cesso...
Guarda un MC X12 ed un Thuban desktop. L'MC X12 è un doppio X6 nello stesso package, per 140W TDP, massimo 2,5GHz. Il Thuban per 125W guadagna 800MHz di frequenza def e 1,2GHz di frequenza Turbo massima.
Nella stessa condizione, abbiamo BD X16 e un 8150. BD X16 è 2,5GHz def 3,1GHz su tutti i core e 3,5GHz su 8 core, per 140W. Un 8150 guadagna 1,1GHz sulla frequenza def, che cala a 800MHz su quella Turbo su tutti i core e che cala a 700MHz sul turbo su 4 core. 700MHz contro 800MHz/1,2GHz del Thuban.

Ora si tratta di capire se AMD/GF risolveranno il problema PP del 32nm, perché non è scontato che ci riescano.
Però sarei pronto a scommettere che se risolvessero il problema TDP/frequenza, come per incanto l'IPC aumenterebbe perché per me oggi nel conteggio IPC c'è una parte dell'architettura che è stata obbligata a compromessi, come tale e uguale successe con il Phenom I sul 65nm, quindi al momento fare paragoni architetturali con altri proci per me ha poco senso... come l'avrebbe avuto giudicare l'architettura Phenom sulla base di un Phenom I.

zip87
07-11-2011, 22:43
beh dai, spezzo un lancione a favore di BD:

http://www.guru3d.com/article/battlefield-3-vga-and-cpu-performance-benchmark-test/3

anche a basse risoluzioni dove la CPU conta....
se gli dai thread da macinare, macina :D tecnicamente parlando :D
interessante performance

Non capisco che ci sia di interessante nelle performance a questo link. Si nota chiaramente come la cpu in questo gioco conti molto poco dato che le prestazioni tra le cpu sono livellate.

Basta guardare anche quest'altro link:
http://www.techspot.com/review/458-battlefield-3-performance/page7.html

Come si può notare con questo gioco un Athlon II x4 garantisce gli stessi fps di un core i7 2600k. Che significa questo:mbe: ?

carlottoIIx6
07-11-2011, 23:19
Per farlo AMD dovrebbe ridisegnare completamente il frontend, quindi ne nascerebbe una cpu totalmente diversa. (i decoder ed il bp farebbero da ulteriore collo di bottiglia)

Aggiungere SMT nei cluster integer è molto più semplice...

Continuano ad esserci altri arcani nel architettura BD. Come postato precedentemente non mi spiego i consumi esagerati con tutta quella logica condivisa tra core. Il consumo dovrebbe essere allineato ad un 4 core (poco più), soprattutto perchè con più stadi della pipeline si ha più margine sul voltaggio alla stessa frequenza.

Speriamo ci siano problemi nel design del core ancora acerbo (pare utilizzino blocchi di logica prefabbricata invece di un tuning a mano), altrimenti questo CMT è un fallimento anche sul lato consumi.

si
in effette era quello che volevo dire

che il proggetto amd è diverso, secondo me ha vantaggi
e non si capisce ancora bene coem funziona e perchè non va al massimo

per valutare servono i test sever e magari non basteranno

liberato87
07-11-2011, 23:24
http://www.phoronix.com/scan.php?page=article&item=amd_bulldozer_aliasing&num=1

mi scuso se è già stato postato

ilratman
08-11-2011, 00:23
Sapete se per caso i 4100 sno sbloccabili a 8150?

ArteTetra
08-11-2011, 00:52
Sapete se per caso i 4100 sno sbloccabili a 8150?

AMD ha dichiarato che non sarà possibile sbloccare eventuali core dormienti.

Cocco83
08-11-2011, 01:17
CUT

A volte mi chiedo se ci fate o ci siete..... senza offesa ovviamente....


http://www.xtremehardware.it/news/hardware/i-processori-qinterlagosq-di-amd-sono-alla-base-dei-supercomputer-dei-piu-importanti-centri-di-ricerca-e-delle-universita-201111035977/

Riporto così magari vi tolgo la fatica di fare un click con il mouse....

L’ORNL sta effettuando l’aggiornamento del suo sistema “Jaguar” verso il supercomputer XK6 di Cray, nome in codice “Titan”. Grazie ai processori “Interlagos” di AMD, Titan avrà prestazioni di picco tra i 10 e i 20 petaflop (un quadrillion di calcoli matematici al secondo, vale a dire un ordine di grandezza di 10^15) di potenza HPC.

“L’ORNL installerà più di 25.000 processori “Interlagos” di AMD nei prossimi mesi durante l’upgrade da Jaguar a Titan,” dichiara Buddy Bland, project director del Leadership Computing Facility dell’ORNL. “I nostri utenti sono emozionati dall’attuale aumento prestazionale rispetto ai processori della generazione precedente, mentre gli sponsor sono entusiasti del risparmio energetico che renderà Titan uno degli strumenti di ricerca più potenti ed efficienti.”

Poi continua la notizia con gli altri centri... ora evito di riportare tutto perchè sarebbe un post troppo lungo.... però si evince chiaramente che non si parla solo di risparmio energetico a favore della generazione precedente ma si parla anche di incremento di boost prestazionale..... Confronto con le vendite Intel ancora non se ne possono fare, sono usciti da manco un mese.....

General Blue
08-11-2011, 01:27
http://www.phoronix.com/scan.php?page=article&item=amd_bulldozer_aliasing&num=1

mi scuso se è già stato postato

Suonerebbe meglio detto con un francesismo ma evito :D

Sembra che non cambi un bel nulla, in questi bench però non usa la versione definitava di cui parla nell'articolo che magari produce qualche miglioramento "almeno" tangibile....

Ren
08-11-2011, 01:31
Un Llano 32nm (100W con l'IGP, togliendo 15W per l'IGP, quanto TDP avrebbe? 85W?) perde centinaia di MHz rispetto ad un equivalente Phenom II 95W sul 45nm, anche se non ha la L3, anche se può variare la tensione dei core, anche se può spegnere i core non utilizzati...
Quindi cosa vediamo in maniera lampante?
Che un K10 con un'architettura migliorata ed ottimizzata nei consumi, nel 32nm perde centinaia di MHz rispetto ad una simile versione ma sul 45nm. Possiamo dire che sia colpa dell'architettura? Mi sembra di no... ed allora se non è colpa dell'architettura, di cosa può essere la colpa se non del silicio?

Llano è un caso a parte. Le ottimizzazioni nei consumi hanno azzoppato la capacità di salire in frequenza. Probabilmente hanno usato dei transistor low-power per ridurre il più possibile i consumi ed infatti hanno partorito un mezzo miracolo, dato che consuma quanto un dual-core intel di ultima generazione sebbene sia dotato di 4 core ed una maggiore area in mm2.

E' inutile confrontare una CPU sviluppata quasi esclusivamente per il settore mobile per fare analisi sulla bontà di un processo produttivo in relazione ad un'altra CPU costruita con differenti criteri.

Ti ricordi il Phenom I sul 65nm? Che cambiamento ha portato il Phenom II architetturalmente? Poco e niente, eppure aumentò l'IPC fino al 17,5%.
Ora... se architetturalmente non ci sono stati cambiamenti sostanziali... questo +17,5% da dove arriverebbe? Da una cosa sola... dal passaggio silicio 65nm (ciofeca) al 45nm.
Allora perché Llano sul 32nm non ha guadagnato una virgola in IPC rispetto al K10 sul 45nm?
Allora il silicio 32nm a maggior ragione potrebbe influire anche sull'IPC di BD.

Questa Boiata è da incorniciare.:muro: (senza offesa)

paolo.oliva2
08-11-2011, 02:14
Volevo fare una precisazione... e la posto anche qui perché ha a che vedere su quanto io avevo detto (in buona fede) circa i consumi di Buldozer a def ed in OC.

Spero che Gianni comprenda... è mezzo OT. :D

A def confermo quanto detto, in OC avevo affermato che non vedevo picchi di consumo almeno fino a 5GHz.
Questo lo avevo detto perché a priori avevo testato il procio a scalini di Vcore (es. 1,4V, 1,45V, 1,5V) e le mie temp pure a 1,5V stavano a liquido sotto i 50°.

Poi quando mi sono messo a tirare ed ho attivato il +130% sui PWR, mi basavo sul valore del Vcore da bios e non capivo il perché non mi finiva il bench (Cinebench).

Alla fine ho voluto vedere le temp in maniera effettiva... il problema è che settando 1,525V da bios, arrivavo pure a 1,585V effettivi, e praticamente sforavo i 61°. :doh: e qui torna il discorso dei consumi, che io, in buona fede, smentivo.

Ora cercherò di capire a che tensione reale ho fatto 8,25 con Cinebench e soprattutto a che temp procio sono arrivato, giusto per rapportarmi al Thuban.

Però posso confermare che oltre 1,550V scordatevi qualsiasi raffreddamento "umano"... perché per aumentare le temp di 20 litri della mia tanica con 2 radiatori e 4 ventole, ci vuole veramente poco se si stecca l'8150 sotto carico su 8 core a quel Vcore.

paolo.oliva2
08-11-2011, 02:32
Llano è un caso a parte. Le ottimizzazioni nei consumi hanno azzoppato la capacità di salire in frequenza. Probabilmente hanno usato dei transistor low-power per ridurre il più possibile i consumi ed infatti hanno partorito un mezzo miracolo, dato che consuma quanto un dual-core intel di ultima generazione sebbene sia dotato di 4 core ed una maggiore area in mm2.
E' inutile confrontare una CPU sviluppata quasi esclusivamente per il settore mobile per fare analisi sulla bontà di un processo produttivo in relazione ad un'altra CPU costruita con differenti criteri.
Guarda che Llano 45W e 65W è per il mobile, Llano 100W era per il desktop, quindi non puoi dire che Llano è esclusivamente per il mobile... io di proci 100W per il mobile non ne ho mai visti.
Il problema è che Llano 100W doveva arrivare a 4GHz, invece si è fermato a 2,9GHz.
Llano non utilizza transistor low-power, ma utilizza il gate-first per poter spegnere le parti del procio non utilizzate, cosa che il K10 non aveva, come un Vcore selettivo per ogni core, altra cosa che il k10 non aveva in quanto usava il Vcore più alto utilizzato al momento, per tutti i core.
Sulla carta un Llano avrebbe dovuto avere una frequenza almeno del 30% superiore rispetto al K10 a parità di TDP IGP inclusa. Per quale motivo non è stato possibile se non per il silicio 32nm? Di certo non per l'architettura...

Io ti chiedo solo di riflettere che se un'architettura ampiamente rodata con il cambio di silicio non è riuscita neppure a eguagliare in frequenza quello che la stessa architettura concede sul 45nm, a maggior ragione non puoi giudicare un BD imputando all'architettura consumi e altro quando si vede distante 1km che con il PP attuale del silicio 32nm, i 3,6/3,9/4,2GHz sono unicamente da attribuire all'architettura/CMT e che solo questa ha fatto il miracolo di portare un X8 ad una frequenza maggiore di 1,3GHz rispetto a Llano che è un X4.

Questa Boiata è da incorniciare.:muro: (senza offesa)
Bah... come fai ad essere così sicuro che un 8150 non abbia gli stessi compromessi stile Phenom I dovuti al silicio? Oltre a tutto il resto.
Io non capisco perché ostinarsi a voler giudicare l'architettura di BD, basandosi continuamente per quello che è ora (e nessuno può dire che è potente o che ha rispettato le aspettative) senza considerare anche tanti altri motivi per i quali la potenza è inferiore.
La soluzione non è copiare Intel con l'SMT (anche perché, concedimelo, il 90% delle volte è Intel che ha copiato da AMD), semplicemente perché ci vorrebbero almeno 1-2 anni per arrivare in produzione, e probabilmente tra 2-4 anni l'SMT verrà abbandonato dalla stessa Intel semplicemente perché non avrà più senso con le APU in grado di aiutare ad elaborare i dati.

Korn
08-11-2011, 07:15
Oltre a tutto il resto.
Io non capisco perché ostinarsi a voler giudicare l'architettura di BD, basandosi continuamente per quello che è ora (e nessuno può dire che è potente o che ha rispettato le aspettative) senza considerare anche tanti altri motivi per i quali la potenza è inferiore.


perchè è quello che è in commercio ora...

ilratman
08-11-2011, 07:24
AMD ha dichiarato che non sarà possibile sbloccare eventuali core dormienti.

peccato lo avrei preso per fare un pc da calcolo.

un'abile mossa di marketing.

xage
08-11-2011, 07:52
perchè è quello che è in commercio ora...

è quello che dico io da un pezzo, su quello che c'è ora ci si basa e punto.

capitan_crasy
08-11-2011, 10:01
Sapete se per caso i 4100 sno sbloccabili a 8150?

Con i K10 i core dormienti erano bloccati via BIOS, con BD ci dovrebbe essere qualcosa di hardware in modo da rendere qualsiasi altra procedura inutile; per la serie la pacchia (quando era possibile:)) è finita...

Pat77
08-11-2011, 10:08
A volte mi chiedo se ci fate o ci siete..... senza offesa ovviamente....


http://www.xtremehardware.it/news/hardware/i-processori-qinterlagosq-di-amd-sono-alla-base-dei-supercomputer-dei-piu-importanti-centri-di-ricerca-e-delle-universita-201111035977/

Riporto così magari vi tolgo la fatica di fare un click con il mouse....

L’ORNL sta effettuando l’aggiornamento del suo sistema “Jaguar” verso il supercomputer XK6 di Cray, nome in codice “Titan”. Grazie ai processori “Interlagos” di AMD, Titan avrà prestazioni di picco tra i 10 e i 20 petaflop (un quadrillion di calcoli matematici al secondo, vale a dire un ordine di grandezza di 10^15) di potenza HPC.

“L’ORNL installerà più di 25.000 processori “Interlagos” di AMD nei prossimi mesi durante l’upgrade da Jaguar a Titan,” dichiara Buddy Bland, project director del Leadership Computing Facility dell’ORNL. “I nostri utenti sono emozionati dall’attuale aumento prestazionale rispetto ai processori della generazione precedente, mentre gli sponsor sono entusiasti del risparmio energetico che renderà Titan uno degli strumenti di ricerca più potenti ed efficienti.”

Poi continua la notizia con gli altri centri... ora evito di riportare tutto perchè sarebbe un post troppo lungo.... però si evince chiaramente che non si parla solo di risparmio energetico a favore della generazione precedente ma si parla anche di incremento di boost prestazionale..... Confronto con le vendite Intel ancora non se ne possono fare, sono usciti da manco un mese.....

Prima di tutto togliti quell'aria di supponenza.
Il mercato server, più che quello Desktop e Mobile vede Amd in difficoltà, parlano i numeri, dove ha mediamente un 20% di share (desktop) nei server ne ha la metà (10%), ora prendere una notizia, decontestualizzata, senza confronti, come quella che hai preso e dire "quelli che ne sanno lo ordinano ci sarà un motivo" è leggermente una forzatura.
Ora, detto questo, non dubito che per certi ambienti, con programmazione specifica, BD sia in ambito AMD un ottimo prodotto molto concorrenziale con Intel lo penso anche io, ma penso pure che debba dimostrare nel tempo di essere una soluzione apprezzata.
Se da quel 10% guadagnerà quote avrà avuto successo, ma prendere numeri a caso su una notizia che parla in generale serve solo a fare sensazionalismo, senza contare che deve ancora dimostrare sul lato pratico, con i numeri, i bench, i consumi quel che vale.

Pat77
08-11-2011, 10:16
perchè è quello che è in commercio ora...

Questo è il punto, e chi si :mc: dicendo che non si può giudicare ora è solo perchè, in fondo, è deluso anch'esso pur avendolo acquistato.

TonyVe
08-11-2011, 10:40
Dei chipset AMD 1090FX e 1070 ne avete parlato? Se si scusate, sono previsti per l'entrata in commercio degli FX "revisionati" nel 2012. :)

Ci sarà il Southbridge SB1060 di cui non si hanno info., il chipset 1070 avrà il supporto per otto porte SATA 6 Gbps, mentre il 1090FX offrirà otto porte SATA III ma con il supporto nativo USB 3.0 e linee per fare un 16X/16X.

Dicono che non ci sia il PCIE 3.0.

Se ne avete parlato mi scuso, anche se il topic è per le CPU penso sia troppo legato il discorso. :)

Amrod
08-11-2011, 11:01
Suonerebbe meglio detto con un francesismo ma evito :D

Sembra che non cambi un bel nulla, in questi bench però non usa la versione definitava di cui parla nell'articolo che magari produce qualche miglioramento "almeno" tangibile....

Stando al commento di un utente sul forum la patch dovrebbe, sottolineo il dovrebbe, dare risultati solo durante l'uso normale del pc e non nei bench.

Riporto il commento originale
The news didn't link the related post(s):

https://lkml.org/lkml/2011/11/4/98
https://lkml.org/lkml/2011/11/4/100

From what I understand from the mailing list, the "specific workloads" that are supposed to be improved are situations where a core runs two *different* processes that are using the same shared library. Due to address space randomization, the same library code might end up at different virtual addresses, which will confuse the CPUs instruction cache.

Benchmarking one process at a time shouldn't show any difference, then. Even multi-threaded benchmarks within a single process wouldn't (since the library will be at the same address in both threads). But using a desktop where most of your processes heavily utilize Qt or GTK+, or a server where several different programs encrypt their traffic inside libssl would.


If you want to measure an actual difference, try compressing files using two different binaries that utilize zlib at the same time, i.e. compile this twice with slightly different compiler settings and/or source code changes and run both binaries at the same time. I'm not sure if they're required to run on the same core for improvements to show.

gianni1879
08-11-2011, 11:24
Prima di tutto togliti quell'aria di supponenza.
Il mercato server, più che quello Desktop e Mobile vede Amd in difficoltà, parlano i numeri, dove ha mediamente un 20% di share (desktop) nei server ne ha la metà (10%), ora prendere una notizia, decontestualizzata, senza confronti, come quella che hai preso e dire "quelli che ne sanno lo ordinano ci sarà un motivo" è leggermente una forzatura.
Ora, detto questo, non dubito che per certi ambienti, con programmazione specifica, BD sia in ambito AMD un ottimo prodotto molto concorrenziale con Intel lo penso anche io, ma penso pure che debba dimostrare nel tempo di essere una soluzione apprezzata.
Se da quel 10% guadagnerà quote avrà avuto successo, ma prendere numeri a caso su una notizia che parla in generale serve solo a fare sensazionalismo, senza contare che deve ancora dimostrare sul lato pratico, con i numeri, i bench, i consumi quel che vale.
nel mercato server/cloud nei prossimi giorni ci sarà un aggiornamento

pandyno
08-11-2011, 11:46
Sarà io mi aspettavo il salto generazionale K6-2 -> Athlon e visto che non c'è stato è inutile arrabattarsi. BD deve andare bene ora, del resto le 3DNow! non esistono più e aspettare ottimizzazioni su misura è solo una perdita di tempo. Ora va bene essere appassionati di tale marchio, ma dire che in BF3 si comporta bene mi sembra azzardato, come dire che se qualcuno li compera non sono così male. E parlo da appassionato AMD, se fossimo in un bar davanti ad una birra vi chiederei uno ad uno: "Lo compreresti?" E a tu per tu mi rispondereste di no inutile girarci intorno. Molto deluso.

Cocco83
08-11-2011, 11:58
Prima di tutto togliti quell'aria di supponenza.
Il mercato server, più che quello Desktop e Mobile vede Amd in difficoltà, parlano i numeri, dove ha mediamente un 20% di share (desktop) nei server ne ha la metà (10%), ora prendere una notizia, decontestualizzata, senza confronti, come quella che hai preso e dire "quelli che ne sanno lo ordinano ci sarà un motivo" è leggermente una forzatura.
Ora, detto questo, non dubito che per certi ambienti, con programmazione specifica, BD sia in ambito AMD un ottimo prodotto molto concorrenziale con Intel lo penso anche io, ma penso pure che debba dimostrare nel tempo di essere una soluzione apprezzata.
Se da quel 10% guadagnerà quote avrà avuto successo, ma prendere numeri a caso su una notizia che parla in generale serve solo a fare sensazionalismo, senza contare che deve ancora dimostrare sul lato pratico, con i numeri, i bench, i consumi quel che vale.

Non è supponenza.... ho riportato una notizia CHIARA, tu hai risposto con un tuo pensiero, che rispetto, ma dove dicevi che non si sà se darà beneficio il processore, che non si sapevano i miglioramenti ecc ecc.... Allora ti ho risposto dicendo in parole povere che "ma le leggete per intero le notizie?"... questo perché è scritto + volte che i suddetti centri stanno facendo l'upgrade proprio in virtù di una maggior potenza dei processori e risparmio nei consumi.... quindi non penso che ditte o università o chichessia spendano in un botto circa 30/40 milioni di dollari per fare un passo indietro... capisci che qualcosa non torna.... Poi ripeto!!!! e anche qui scusa ma non penso ci voglia un genio a capirlo, "Interlagos/BD è uscito da un mese" non si possono fare raffronti sulle quote di mercato ora, però se tanto mi da tanto queste iniziali vendite fanno ben presagire, d'altronde se il prodotto non è valido QUESTA gente non lo comprerebbe visto che non sono nababbi da spennare.....

Pensiero numero 2.... la scarsa disponibilità di BD nell'ambito desktop può essere attribuito anche a questi ingenti ordini iniziali di interlagos se le linee di produzione sono le stesse.... Sappiamo bene che la capacità di produzione di AMD è molto ristretta.... Ma mi rende + tranquillo che per lo meno continuino a produrre... + produzione, + affinamento del processo produttivo

Phenomenale
08-11-2011, 12:12
però se tanto mi da tanto queste iniziali vendite fanno ben presagire, d'altronde se il prodotto non è valido QUESTA gente non lo comprerebbe visto che non sono nababbi da spennare
Non vorrei raffreddare entusiasmi, ma 25.000 CPU da AMD sono una quantità non eclatante. Bisogna considerare che AMD ed Intel non sono negozi, le CPU le vendono a lotti da 1.000 pezzi, questo si traduce in una media di 25 lotti di Interlagos venduti al primo mese. Meno male che li vendono, comunque! :D

ra-mta
08-11-2011, 12:16
Non è supponenza.... ho riportato una notizia CHIARA, tu hai risposto con un tuo pensiero, che rispetto, ma dove dicevi che non si sà se darà beneficio il processore, che non si sapevano i miglioramenti ecc ecc.... Allora ti ho risposto dicendo in parole povere che "ma le leggete per intero le notizie?"... questo perché è scritto + volte che i suddetti centri stanno facendo l'upgrade proprio in virtù di una maggior potenza dei processori e risparmio nei consumi.... quindi non penso che ditte o università o chichessia spendano in un botto circa 30/40 milioni di dollari per fare un passo indietro... capisci che qualcosa non torna.... Poi ripeto!!!! e anche qui scusa ma non penso ci voglia un genio a capirlo, "Interlagos/BD è uscito da un mese" non si possono fare raffronti sulle quote di mercato ora, però se tanto mi da tanto queste iniziali vendite fanno ben presagire, d'altronde se il prodotto non è valido QUESTA gente non lo comprerebbe visto che non sono nababbi da spennare.....

Pensiero numero 2.... la scarsa disponibilità di BD nell'ambito desktop può essere attribuito anche a questi ingenti ordini iniziali di interlagos se le linee di produzione sono le stesse.... Sappiamo bene che la capacità di produzione di AMD è molto ristretta.... Ma mi rende + tranquillo che per lo meno continuino a produrre... + produzione, + affinamento del processo produttivo

ehm non per dire, ma sicuro che l'aggiornamento non sia stato dei soli processori? In quel caso non vorrebbe dire che le nuove cpu sono dei "mostri" di performance in senso assoluto, ma vanno meglio dei vecchi pII con programmi appositamente scritti e costano meno della concorrenza visto che in quel caso si dovrebbe includere il costo delle main :)
Ovviamente ammesso che non mi trovi in errore

Ren
08-11-2011, 12:30
Guarda che Llano 45W e 65W è per il mobile, Llano 100W era per il desktop, quindi non puoi dire che Llano è esclusivamente per il mobile... io di proci 100W per il mobile non ne ho mai visti.
Il problema è che Llano 100W doveva arrivare a 4GHz, invece si è fermato a 2,9GHz.
Llano non utilizza transistor low-power, ma utilizza il gate-first per poter spegnere le parti del procio non utilizzate, cosa che il K10 non aveva, come un Vcore selettivo per ogni core, altra cosa che il k10 non aveva in quanto usava il Vcore più alto utilizzato al momento, per tutti i core.
Sulla carta un Llano avrebbe dovuto avere una frequenza almeno del 30% superiore rispetto al K10 a parità di TDP IGP inclusa. Per quale motivo non è stato possibile se non per il silicio 32nm? Di certo non per l'architettura...

Ti è sfuggito un quasi esclusivamente per il mercato mobile. (con il mercato mobile in testa ti piace di più...)
L'architettura funziona anche meglio dato che hanno aumentato la grandezza del ROB ed inserito una ALU per la divisione (not pipelined).

Il gate-first non centra nulla con la capacità di per poter spegnere i transistor, ti confondi con le tecniche di voltage/power/clock gating.

Pat77
08-11-2011, 12:40
Non è supponenza.... ho riportato una notizia CHIARA, tu hai risposto con un tuo pensiero, che rispetto, ma dove dicevi che non si sà se darà beneficio il processore, che non si sapevano i miglioramenti ecc ecc.... Allora ti ho risposto dicendo in parole povere che "ma le leggete per intero le notizie?"... questo perché è scritto + volte che i suddetti centri stanno facendo l'upgrade proprio in virtù di una maggior potenza dei processori e risparmio nei consumi.... quindi non penso che ditte o università o chichessia spendano in un botto circa 30/40 milioni di dollari per fare un passo indietro... capisci che qualcosa non torna.... Poi ripeto!!!! e anche qui scusa ma non penso ci voglia un genio a capirlo, "Interlagos/BD è uscito da un mese" non si possono fare raffronti sulle quote di mercato ora, però se tanto mi da tanto queste iniziali vendite fanno ben presagire, d'altronde se il prodotto non è valido QUESTA gente non lo comprerebbe visto che non sono nababbi da spennare.....

Pensiero numero 2.... la scarsa disponibilità di BD nell'ambito desktop può essere attribuito anche a questi ingenti ordini iniziali di interlagos se le linee di produzione sono le stesse.... Sappiamo bene che la capacità di produzione di AMD è molto ristretta.... Ma mi rende + tranquillo che per lo meno continuino a produrre... + produzione, + affinamento del processo produttivo

Penso di averti risposto chiaramente, quella notizia non dice molto per tanti motivi, secondo me, soprattutto in termini di performance, perchè si ragiona in volumi, se le cpu server global vendute dal debutto di Interlagos sono 500.000 è un dato irrisorio, fossero 100.000 sarebbe un buon debutto, per questo dico che sono numeri poco argomentati, e sinceramente dicono poco in ambito market share e ancor meno riguardo alle performance, perchè non specificano rispetto a cosa vanno meglio.
Ci fosse un dato, un rendering eseguito più velocemente con tdp migliore, tanto di cappello, ma queste sono pure illazioni tue nel vedere in una notizia del genere qualcosa di valorizzante.
E' sì positivo che vendano, un po' di concorrenza non farebbe certo male, inoltre sono notizie che anche al debutto di Barcellona uscirono, con relativo sensazionalismo, abbiamo visto come è andato a finire.

C'è poi un altro fatto che è poco chiaro, questo scostamento presunto tra versione Server e Desktop soprattutto riguardo ai consumi, sarebbe assai scandaloso che un Interlagos battesse in tdp uno Xeon garantendo migliori performance, per poi vederlo molto meno risparmioso sui Desktop, ha pur sempre lo stesso processo produttivo e numero di transistor, qualcosa non tornerebbe.

bambi23
08-11-2011, 13:12
Non vorrei raffreddare entusiasmi, ma 25.000 CPU da AMD sono una quantità non eclatante. Bisogna considerare che AMD ed Intel non sono negozi, le CPU le vendono a lotti da 1.000 pezzi, questo si traduce in una media di 25 lotti di Interlagos venduti al primo mese. Meno male che li vendono, comunque! :D
a me sembrano veramente pochi

Sire_Angelus
08-11-2011, 13:31
io spero in un miracolo stile thoro-A e thoro-B...

Polpi_91
08-11-2011, 13:52
oggi mi è arrivato l'8120, il problema è che sono in uni fino alle 19.00 :incazzato:

Cocco83
08-11-2011, 14:08
ehm non per dire, ma sicuro che l'aggiornamento non sia stato dei soli processori? In quel caso non vorrebbe dire che le nuove cpu sono dei "mostri" di performance in senso assoluto, ma vanno meglio dei vecchi pII con programmi appositamente scritti e costano meno della concorrenza visto che in quel caso si dovrebbe includere il costo delle main :)
Ovviamente ammesso che non mi trovi in errore

Bingo..... per me è questa una delle cose di cui tenere maggiormente conto, oltre al fatto che vendono e portano un guadagno, il fatto che l'architettura c'è e consente maggior potenza, altrimenti non avrebbero fatto l'upgrade rispetto ai PII.... Ed è una delle questioni a cui stiamo girando intorno da quando sono usciti... il software attuale non rende giustizia dell'architettura... e per carità, per quanto sia stato un azzardo di AMD proporre un modo diverso di multicore, penso sia cmq un'architettura che può dare grandi risultati e reali vantaggi rispetto a quanto vediamo sino ad ora.....

@pat.... Bè nella notizia c'è scritto "rispetto alal genarazione precedente" quindi nn rispetto a P1 o ancora + obsoleti opteron.... Per il consumo dico la mia.... BD da quanto vediamo rispetto ai PII mi sembra di aver capito che consuma meno in idle e molto + sotto carico a frequenze elevate.... quindi il problema è il TDP a frequenze alte, sopratutto sopra i 4ghz... ora i nuovi interlagos se non sbaglio hanno un turbo limite a 3.1Ghz... può darsi che i 16 core contro i 12 a quella freq max in turbo non arrivino a consumare di più della vecchia generazione, essendoci un leakage + basso rispetto che a raggiungere 4.2ghz... ed essendo a 32nm

tecno789
08-11-2011, 14:58
Con i K10 i core dormienti erano bloccati via BIOS, con BD ci dovrebbe essere qualcosa di hardware in modo da rendere qualsiasi altra procedura inutile; per la serie la pacchia (quando era possibile:)) è finita...

beh basta scoprire a livello hardware cosa li rende con 4 core in più!!
però davvero è un peccato...:(

carpo93
08-11-2011, 18:00
http://www.hwexpert.it/index.php/8-recensioni/hardware/29-amd-bulldozer-comportamento-in-overclock
ecco un breve riassunto sulla scalabilità in overclock di Bulldozer:)

FroZen
08-11-2011, 18:04
http://www.hwexpert.it/index.php/8-recensioni/hardware/29-amd-bulldozer-comportamento-in-overclock
ecco un breve riassunto sulla scalabilità in overclock di Bulldozer:)

bravo paolo ma..................fortuna che non è stato lui a scrivere l'articolo :doh: :doh: :doh: :doh:

ra-mta
08-11-2011, 18:18
c'è qualche volenteroso che prova il suo bd con parallels workstation extreme e verifica se il software usando ioummu può fare a meno delle vt-d, basterebbe guardare nel menù di configurazione della macchina virtuale :D

Gio_87
08-11-2011, 18:43
dove lo trovo dato che sul sito non mi mandano la trial? :)

Pat77
08-11-2011, 18:48
bravo paolo ma..................fortuna che non è stato lui a scrivere l'articolo :doh: :doh: :doh: :doh:

Veramente "Scritto da carpo93 & paolo.oliva2" :sofico:

JDM70
08-11-2011, 18:56
http://www.hwexpert.it/index.php/8-recensioni/hardware/29-amd-bulldozer-comportamento-in-overclock
ecco un breve riassunto sulla scalabilità in overclock di Bulldozer:)

scusate l'OT ma un Bravi!!! ci stà tutto :)

carpo93
08-11-2011, 19:12
scusate l'OT ma un Bravi!!! ci stà tutto :)

grazie mille, se avete altre richieste di test, potete scriverle in pvt qua o sull'apposito forum

comunque analizzando i dati per l'articolo mi ha sorpreso che un bulldozer a 4.5 sarebbe stato un must buy al prezzo attuale e questo mi convince che nei piani di amd le frequenze fossero quelle provate da paolo nella rece e non quelle commercializzate ora

paolo.oliva2
08-11-2011, 19:20
Sarà io mi aspettavo il salto generazionale K6-2 -> Athlon e visto che non c'è stato è inutile arrabattarsi. BD deve andare bene ora, del resto le 3DNow! non esistono più e aspettare ottimizzazioni su misura è solo una perdita di tempo. Ora va bene essere appassionati di tale marchio, ma dire che in BF3 si comporta bene mi sembra azzardato, come dire che se qualcuno li compera non sono così male. E parlo da appassionato AMD, se fossimo in un bar davanti ad una birra vi chiederei uno ad uno: "Lo compreresti?" E a tu per tu mi rispondereste di no inutile girarci intorno. Molto deluso.

Ma penso che nessuno stia dicendo che BD desktop è il procio del momento, e che brilla per potenza e per consumi contenuti...

Però il discroso desktop ha delle prerogative totalmente diverse dal mondo server.

Il 32nm AMD/GF ha un PP attuale che non può permettere frequenze maggiori, ma comunque rimane sempre molto migliore del 45nm a frequenze più basse delle esigenze desktop.
Già avete dimenticato i test sui consumi di Llano a 32nm rispetto alla produzione a 45nm precedente?
Un BD X16 ha 600MHz in più di un MC X12 allo stesso consumo.
I compilatori/software mondo server non sono gli stessi del mondo desktop e sicuramente non valutano la bontà di una architettura nei giochi o in altri bench "particolari".

Cocco83 ha evidenziato semplicemente che questa idea è sbagliata su dei dati incontestabili... chi spenderebbe dei soldi per aggiornare un computer se il risultato fosse più consumo e meno prestazioni? Nessuno.

E' inutile poi tirare fuori Intel che vende e vende e lo share di mercato e quant'altro. Se qualcuno ha comprato 25.000 Buldozer, vuol dire che li ha preferiti a 25.000 Xeon, per 1 motivo, per 2 motivi, non importa, o vogliamo considerarli dementi perché non hanno comprato Intel?

Allora torniamo ad un punto... ed è quello che dico da tempo. L'8150 è il prodotto AMD Buldozer per il desktop. Il PP non è all'altezza per far misurare un 8150 con altri prodotti.
Ma se AMD sta vendendo parecchi BD server, allora già bisogna riflettere che l'architettura BD nei server soddisfa, e siccome il PP del 32nm, che non permette frequenze alte non influisce più di tanto nel mondo server in quanto le frequenze sono inferiori e in questo caso il 32nm è nettamente migliore del 45nm, allora questo già basta per riflettere che dove il silicio non impone limiti, l'architettura BD c'è.

paolo.oliva2
08-11-2011, 19:29
grazie mille, se avete altre richieste di test, potete scriverle in pvt qua o sull'apposito forum

comunque analizzando i dati per l'articolo mi ha sorpreso che un bulldozer a 4.5 sarebbe stato un must buy al prezzo attuale e questo mi convince che nei piani di amd le frequenze fossero quelle provate da paolo nella rece e non quelle commercializzate ora

E' dai primi di ottobre che lo posto... (giudizio architettura, giudizio prodotto commerciale 8150 è a parte)...
Il problema AMD con Buldozer desktop è il PP del 32nm, è inutile tirare fuori i "perché non ha l'SMT di Intel..." :doh:

Comunque quello che ancora non mi suona... è che BD dovrebbe comunque aumentare l'IPC e non di poco, perché il numero di transistor per X potenza al momento il CMT è perdente rispetto all'SMT... ma comunque importa fino ad un certo punto... fortuna che i proci non si vendono a numero di transistor :)

Ottimo Carpo93...

Pat77
08-11-2011, 19:46
Ma penso che nessuno stia dicendo che BD desktop è il procio del momento, e che brilla per potenza e per consumi contenuti...

Però il discroso desktop ha delle prerogative totalmente diverse dal mondo server.

Il 32nm AMD/GF ha un PP attuale che non può permettere frequenze maggiori, ma comunque rimane sempre molto migliore del 45nm a frequenze più basse delle esigenze desktop.
Già avete dimenticato i test sui consumi di Llano a 32nm rispetto alla produzione a 45nm precedente?
Un BD X16 ha 600MHz in più di un MC X12 allo stesso consumo.
I compilatori/software mondo server non sono gli stessi del mondo desktop e sicuramente non valutano la bontà di una architettura nei giochi o in altri bench "particolari".

Cocco83 ha evidenziato semplicemente che questa idea è sbagliata su dei dati incontestabili... chi spenderebbe dei soldi per aggiornare un computer se il risultato fosse più consumo e meno prestazioni? Nessuno.

E' inutile poi tirare fuori Intel che vende e vende e lo share di mercato e quant'altro. Se qualcuno ha comprato 25.000 Buldozer, vuol dire che li ha preferiti a 25.000 Xeon, per 1 motivo, per 2 motivi, non importa, o vogliamo considerarli dementi perché non hanno comprato Intel?

Allora torniamo ad un punto... ed è quello che dico da tempo. L'8150 è il prodotto AMD Buldozer per il desktop. Il PP non è all'altezza per far misurare un 8150 con altri prodotti.
Ma se AMD sta vendendo parecchi BD server, allora già bisogna riflettere che l'architettura BD nei server soddisfa, e siccome il PP del 32nm, che non permette frequenze alte non influisce più di tanto nel mondo server in quanto le frequenze sono inferiori e in questo caso il 32nm è nettamente migliore del 45nm, allora questo già basta per riflettere che dove il silicio non impone limiti, l'architettura BD c'è.

E quali sarebbero i dati incontestabili e queste certezze adamantine? Ma perchè al posto di arrampicarsi sugli specchi non si aspetta semplicemente qualche test veramente convincente? Bd è il procio delle scuse, ne ho sentite diverse, che non si può valutare ora, che ci vuole windows 8, che è pensato per i server, embè? Noi parliamo di cpu desktop, non server, e se AMD ha spinto solo in una direzione è comunque un errore, perchè questo la dovrebbe scagionare dall' ipc basso e consumi elevati?
Io intanto ho ancora li i miei 350 euro, fosse veramente convincente gli avrei spesi, e seguo il 3d per vedere fatti concreti non scuse.

gianni1879
08-11-2011, 19:49
E' dai primi di ottobre che lo posto... (giudizio architettura, giudizio prodotto commerciale 8150 è a parte)...
Il problema AMD con Buldozer desktop è il PP del 32nm, è inutile tirare fuori i "perché non ha l'SMT di Intel..." :doh:

Comunque quello che ancora non mi suona... è che BD dovrebbe comunque aumentare l'IPC e non di poco, perché il numero di transistor per X potenza al momento il CMT è perdente rispetto all'SMT... ma comunque importa fino ad un certo punto... fortuna che i proci non si vendono a numero di transistor :)

Ottimo Carpo93...

Si ma non puoi fare affidamento con una nuova architettura e sopratutto con un processo produttivo nuovissimo, solo sulla frequenza alta. Tra l'altro la cosa era abbastanza prevedibile, mi chiedo davvero come hanno fatto a non prevedere una cosa così ovvia. Comunque le cose da sistemare sono parecchie indipendentemente dalla frequenza operativa, per cui eviterei di dare tutta la colpa al solo processo produttivo non all'altezza delle aspettative.

Comunque sono discorsi triti e ritriti

Gioman
08-11-2011, 20:20
Gianni mi hai tolto le parole di bocca

ra-mta
08-11-2011, 20:34
dove lo trovo dato che sul sito non mi mandano la trial? :)

Gio, grazie per l'interessamento, ti invio più tardi il link diretto per la versione trial, è scaricabile dal sito previa registrazione :)

carpo93
08-11-2011, 20:40
Si ma non puoi fare affidamento con una nuova architettura e sopratutto con un processo produttivo nuovissimo, solo sulla frequenza alta. Tra l'altro la cosa era abbastanza prevedibile, mi chiedo davvero come hanno fatto a non prevedere una cosa così ovvia. Comunque le cose da sistemare sono parecchie indipendentemente dalla frequenza operativa, per cui eviterei di dare tutta la colpa al solo processo produttivo non all'altezza delle aspettative.

Comunque sono discorsi triti e ritriti
infatti quello che mi sorprende è perchè amd non si sia accorta prima del basso rendimento :eek:

papafoxtrot
08-11-2011, 20:45
Per farlo AMD dovrebbe ridisegnare completamente il frontend, quindi ne nascerebbe una cpu totalmente diversa. (i decoder ed il bp farebbero da ulteriore collo di bottiglia)

Aggiungere SMT nei cluster integer è molto più semplice...

Continuano ad esserci altri arcani nel architettura BD. Come postato precedentemente non mi spiego i consumi esagerati con tutta quella logica condivisa tra core. Il consumo dovrebbe essere allineato ad un 4 core (poco più), soprattutto perchè con più stadi della pipeline si ha più margine sul voltaggio alla stessa frequenza.

Speriamo ci siano problemi nel design del core ancora acerbo (pare utilizzino blocchi di logica prefabbricata invece di un tuning a mano), altrimenti questo CMT è un fallimento anche sul lato consumi.

Hai mica fatto caso al fatto che il numero di transistor di bulldozer è doppio di quello delle altre CPU contemporanee?
Altro che quasi un quad core... Phenom II X6 aveva 1 miliardo di transistor, core i7 SB ne ha meno di un miliardo, di cui un terzo è dedicato alla GPU... Bulldozer ha 2 miliardi di transistor...

ti sfugge il punto secondo me
è evidente che amd guadagnerebbe con l'HT
ma la domand essenziale è
guadagnarebbe di più di quanto farebbe affiancando due core nello stesso modulo?

secondo me la risposta è no, ma aspetto i test sever per averne la certezza
La domanda è sbagliata. Ed è un errore che fanno in molti.
Tu chiedi, AMD ha messo il CMT; ha fatto bene o era meglio se al posto di CMT implementava un HT?
Ma l'errore è madornale! HT doveva essere implementato comunque, assieme al CMT!
Bulldozer può anche esser giusto che abbia il CMT, ma potrebbe, e forse dovrebbe avere anche HT.

Quindi la domanda è: ha fatto bene o asseme al CMT doveva mettere anche HT?

Grizlod®
08-11-2011, 21:28
La domanda è sbagliata. Ed è un errore che fanno in molti.
Tu chiedi, AMD ha messo il CMT; ha fatto bene o era meglio se al posto di CMT implementava un HT?
Ma l'errore è madornale! HT doveva essere implementato comunque, assieme al CMT!
Bulldozer può anche esser giusto che abbia il CMT, ma potrebbe, e forse dovrebbe avere anche HT.

Quindi la domanda è: ha fatto bene o asseme al CMT doveva mettere anche HT?Veramente AMD ha implementato una sua logica di smistamento d'elaborazione (dato che il secondo core di ogni modulo è il 12% in area rispetto al core principale), che non ha potuto pubblicizzare come HT, in quanto marchio registrato (credo). Che poi Zambezi lo indichi come 8 core (invece di 4 + HT...cioè logici) è dato dal fatto che appunto siano 100% in hardware e la resa (sulla carta), per l'appunto secondo AMD doveva essere migliore di un "4+4" Intel. E' la logica che "fa" l'Hyper Threading...

Almeno così ho inteso io...

P.S. la percentuale del II° core del modulo, l'ho letta su questo thread...mi pare...

plainsong
08-11-2011, 21:44
Hai mica fatto caso al fatto che il numero di transistor di bulldozer è doppio di quello delle altre CPU contemporanee?
Altro che quasi un quad core... Phenom II X6 aveva 1 miliardo di transistor, core i7 SB ne ha meno di un miliardo, di cui un terzo è dedicato alla GPU... Bulldozer ha 2 miliardi di transistor...


papafoxtrot a tuo parere come si spiega l'elevato numero di transistors di bulldozer visto che secondo AMD la seconda unità integer per modulo dovrebbe occupare solo un 12% in più di spazio e considerando l'ipc inferiore al phenom ii?
Io non sono assolutamente un esperto ma il mio sospetto è che al reparto R&D abbiano pasticciato parecchio, al di là dei problemi di GF.

paolo.oliva2
08-11-2011, 22:12
Si ma non puoi fare affidamento con una nuova architettura e sopratutto con un processo produttivo nuovissimo, solo sulla frequenza alta. Tra l'altro la cosa era abbastanza prevedibile, mi chiedo davvero come hanno fatto a non prevedere una cosa così ovvia. Comunque le cose da sistemare sono parecchie indipendentemente dalla frequenza operativa, per cui eviterei di dare tutta la colpa al solo processo produttivo non all'altezza delle aspettative.
Comunque sono discorsi triti e ritriti

Ma... AMD ufficialmente con GF aveva riportato che il 32nm avrebbe avuto un 40% di prestazioni in più a parità di consumo con il 45nm. Quindi è una scelta... per avere potenza o si punta sul massimo IPC con una frequenza inferiore o si punta su una frequenza maggiore con un IPC inferiore. Lo sbaglio sta solamente nel non arrivare ai punti prefissati, e l'8150 ha lo sbaglio di non avere le frequenze previste.

Le maggiori critiche verso BD sono una potenza massima inferiore al rivale ed un consumo superiore al rivale.
Il silicio in questo giudizio incide per un 25%... (4,5GHz vs 3,6GHz).
Non credo che un BD con un 25% di potenza in più a parità di consumi o un 25% in meno di consumi a parità di potenza potrebbe avere le stesse critiche, se non altro nel confronto verso il Thuban.
Con i se e con i ma non cambia nulla guardando un 8150, ma cambia molto nel giudicare l'architettura.
Comuque sarebbe già auspicabile che questo 25% in meno di frequenza si riduca con lo step B3, almeno di un 8,4%.

Tra parentesi... Piledriver viene riportato da un +10% ad un +15% rispetto al precedente. Ma il precedente qual'è? L'8150 o magari un 8170 B3? Nel qual caso bisognerebbe aggiungere l'8,4% di un 8170. al 10-15% di Piledriver, inteso come guadagno sull'8150.

gianni1879
08-11-2011, 22:22
infatti quello che mi sorprende è perchè amd non si sia accorta prima del basso rendimento :eek:

beh con il basso rendimento ci si è dovuta per forza di cose scontrare, questi continui ritardi/slittamenti erano dovuti proprio a cercare di ottenere una cpu dalle più alte frequenze anche con con questo processo produttivo ed allo stesso tempo una quantità produttiva soddisfacente.

La cosa che invece mi è sembrata più assurda come non hanno considerato affatto questa ipotesi (bassa resa) del tutto assente ed hanno puntato su un'architettura come questa che privilegia le frequenze operative spinte, tralasciando le varie cose sull'architettura)

Ren
08-11-2011, 22:23
Hai mica fatto caso al fatto che il numero di transistor di bulldozer è doppio di quello delle altre CPU contemporanee?
Altro che quasi un quad core... Phenom II X6 aveva 1 miliardo di transistor, core i7 SB ne ha meno di un miliardo, di cui un terzo è dedicato alla GPU... Bulldozer ha 2 miliardi di transistor...

Ovviamente, ma avevo trascurato il transistor count perchè quasi un miliardo di questi è rappresentato da cache SRAM (per esattezza circa 800-900 milioni) che ha un basso consumo rispetto alla logica.

papafoxtrot
08-11-2011, 22:25
Veramente AMD ha implementato una sua logica di smistamento d'elaborazione (dato che il secondo core di ogni modulo è il 12% in area del core principale), che non ha potuto pubblicizzare come HT, in quanto marchio registrato (credo). Che poi Zambezi lo indichi come 8 core (invece di 4 + HT...cioè logici) è dato dal fatto che appunto siano 100% in hardware e la resa (sulla carta), perlappunto secondo AMD doveva essere migliore di un "4+4" Intel. E' la logica che "fa" l'Hyper Threading...

Almeno così ho inteso io...

P.S. la percentuale del II° core del modulo, l'ho letta su questo thread...mi pare...

Purtroppo hai inteso male... E in questo thread è difficile trovare informazioni.
Per favore, guarda il mio post di alcune pagine fa in cui spiego come funziona CMT e come funziona HT.
Sono due soluzioni opposte a due problemi opposti, e nulla vieta di implementarle assieme.
CMT serve ad aumentare il numero di pipeline senza raddoppiare il processore intero, e ciò è ovviamente ammirevole (se funziona).
HT serve all'opposto, cioè a fare in modo da ottenere un ottimo sfruttamento dei core.
In pratica se hai 1 core e lo usi al 60%:
- il risultato di CMT è quello di raddoppiare la pipeline, e avere due core con parte della logica condivisa. Lo sfruttamento di ogni core scende, metti, al 40% (purtroppo in BD la perdita è molto più grande, dato che due pipe int vanno solo il 50% in più della singola pipe). Ma se prima avevi una prestazione di 0,6, ora hai 0.8 senza aver raddoppiato tutto. Ovviamente la soluzione è efficace se l'aumento di prestazioni del 33% di cui parliamo (da 0.6 a 0.8) è maggiore dell'aumento di di area e complessità della CPU (forse... è veramente del 12%.
- il risultato di HT è invece quello di far lavorare il singolo core in modo più efficiente. Se prima lo usavi al 60%, ora puoi arrivare ad usarlo al 70% - 75%.

il risultato di CMT + HT assieme potrebbe essere quello di passare da un core usato al 60%, a due core usati al 50%.
CMT raddoppia la pipeline, ma questa cala di efficienza e si arriva a due pipe da 0,4. HT tampona in parte questo problema, e magari fa fronte anche a parte dei deficit di CMT), così l'efficienza della pipe risale al 50% - 55%. E così da 0.6 che avevi arrivi a 1, sicuramente senza aver raddoppiato i core.

Ripeto, per favore, ho scritto qualche post a riguardo. HT è un ottimo espediente per migliorare l'efficienza della pipeline, e non ha nulla a che vedere con CMT.

papafoxtrot a tuo parere come si spiega l'elevato numero di transistors di bulldozer visto che secondo AMD la seconda unità integer per modulo dovrebbe occupare solo un 12% in più di spazio e considerando l'ipc inferiore al phenom ii?

Bella domanda...
Il dato ufficiale è che il modulo di bulldozer occupa 180 milioni di transistor e 31 mm^2.
Qui sorge subito spontanea una domanda: la L2 è inclusa in questo conto o no? Xbitlabs riportava di si, ma su questo thread mi hanno detto di no, e tendo a crederci; questi i motivi:
1) 180 milioni di transistor a modulo, L2 inclusa, lascerebbe scoperto un numero di transistor enorme; oltre un miliardo di transistor, che non si capisce dove potrebbero essere finiti... Una cifra che corrisponde ad una moderna CPU di fascia alta...
2) La L2 usa celle di memoria 8T, quindi 8 transistor a bit di memoria, quindi 135 milioni di transistor per i 2MB di L2 di ogni modulo. Vorrebbe dire che di 180 milioni, 135 sono finiti in cache. Tra l'altro anche le immagini di BD, guardando le aree di L2 e core fanno pensare che grosso modo la prima è uguale o un po' inferiore ai secondi.

Per cui la mia idea è 180 milioni di transistor e 31mm^2 L2 esclusa. Facendo una proporzione vengono circa 310 milioni di transistor e 50 mm^2 a modulo.

Sotto questa luce il dato non è per nulla confortante. Fanno 1,25 miliardi di transistor e 200mm^2 per una CPU a 8 core.
Per confronto SB fa 80mm^2, credo circa 500 milioni di transistor, e le prestazioni sono superiori.

Poi c'è l'uncore:
La L3 di BD credo sia 6T, quindi fanno 500 milioni di transistor circa. Qui è impossibile calare, in pratica. E gli ultimi 300 milioni di transistor finiscono in memory controller e link HT.

In pratica l'uncore è standard... sono proprio i moduli ad essere grassi, e la cosa è preoccupante perché far calare l'area di un core non è poi così semplice.

Prestazioni
Trovo che il problema non sia troppo legato all'area immensa, quanto al fatto che le prestazioni sono basse.
Da una parte l'IPC è ridicolo; dall'altra il guadagno associato al CMT è troppo inferiore alle aspettative.
Se si risolvessero questi problemi (e non mi si parli di frequenze da capogiro, le CPU hanno sempre girato a 3GHz e non sarà Bulldozer ad andare a 5) un bulldozer a sei core potrà confrontarsi con sandy bridge, e già avremo una die size di 1,3-1,5 miliardi di transistor contro i 2 miliardi attuali, a parità di prestazioni.
In pratica i moduli sono grossi, ma il problema più grave, per ora, è che hanno prestazioni bassissime, e trovo più probabile trovare la strada per migliorarne le prestazioni, che ridisegnare il core intero per farli calare di area e numero di trasistor.

PS: come diamine si fa a parlare di processo produttivo deludente, quando abbiamo 1,25 miliardi di transistor che girano a 3,6GHz e 800 milioni a 2,2GHz? Nella precedente architettura, per confronto, avevamo circa 600 milioni a 3,3GHz e circa 500 milioni a 2GHz. Intel ha 500 milioni di transistor a 3,5GHz (2700k), 200 milioni a 2,6GHz (l'uncore) e 200 milioni (a naso) a neanche 1GHz (la GPU).

E' davvero difficile vedere che intel consuma meno perché ha metà dei transistor e questi sono a frequenza più bassa, e non perché il 32nm di GF è cattivo?

zip87
08-11-2011, 22:25
Ma... AMD ufficialmente con GF aveva riportato che il 32nm avrebbe avuto un 40% di prestazioni in più a parità di consumo con il 45nm. Quindi è una scelta... per avere potenza o si punta sul massimo IPC con una frequenza inferiore o si punta su una frequenza maggiore con un IPC inferiore. Lo sbaglio sta solamente nel non arrivare ai punti prefissati, e l'8150 ha lo sbaglio di non avere le frequenze previste.


Io non credo che sia una scelta ma piuttosto un ripiego. Se non riesci ad avere un buon IPC cerchi di rimediare alzando le frequenze.
Questo perchè partendo da un buon IPC sarà possibile partire da frequenze basse e raggiungerne di più alte con più facilità, facendo uscire modelli via via più potenti.

Grizlod®
08-11-2011, 22:52
Purtroppo hai inteso male... E in questo thread è difficile trovare informazioni.
Per favore, guarda il mio post di alcune pagine fa in cui spiego come funziona CMT e come funziona HT.
Sono due soluzioni opposte a due problemi opposti, e nulla vieta di implementarle assieme.
.................................
Credo di aver capito...quindi AMD potrebbe implementare un sistema analogo senza far apparire sul task manager 16 core, magari chiamandolo, per esempio, 'FullCore' e sfruttare ugualmente gli "stalli" del processore, come fa HT.

Ma tanto per comprendere la questione HW...quanti transistor dovrebbe aggiungerebbe all'incirca a modulo?

Aggiungo un'altra domanda...questa tecnica verrebbe sfruttata dai soli core completi, giusto?! Indi per cui, teoricamente, AMD potrebbe (se volesse) anche far apparire a TM 12 core; non ti sembra troppo complessa la logica per demandare tutto ciò ad 8+4 cores??

papafoxtrot
08-11-2011, 23:07
Credo di aver capito...quindi AMD potrebbe implementare un sistema analogo senza far apparire sul task manager 16 core, magari chiamandolo, per esempio, 'FullCore' e sfruttare ugualmente gli "stalli" del processore, come fa HT.

Ma tanto per comprendere la questione HW...quanti transistor dovrebbe aggiungerebbe all'incirca a modulo?

No no, non c'è dubbio che un BD a 8 core se implementasse anche HT farebbe vedere al sistema 16 thread. Questo per come lavora HT.
Ogni core gestisce in concorrenza due thread. Quando uno si ferma perché mancano dati, in attesa di poter ripartire il core lavora sul secondo. Quando si ferma perché anche qui mancano dati si torna al primo che intanto si è sbloccato.
Per cui 8 core, 2 thread a ciascuno fanno 16 thread.
Ma non vedo dove sarebbe il problema; al più si potrebbe opinare che 16 thread in ambito desktop sono troppi, ma allora si può semplicemente vendere un 6 core (3 moduli ma 12 thread) che probabilmente andrebbe quanto un 8 core attuale, ma costando di meno.
Insomma le soluzioni sono tante..
E' vero che risulterebbe un'architettura che richiederebbe una logica di gestione molto raffinata, e dove di 16 thread visti dal sistema non c'è neanche un core vero... Insomma verrebbe da domandarsi se l'aumento di complessità (in termini di differenziamento da soluzioni comuni e conosciute) non sia tale, in un momento in cui ancora la programmazione parallela non è universalmente diffusa, da invalidare i vantaggi...

La mia idea in effetti è che AMD implementi l'HT nelle prossime versioni di bulldozer, ed abbia semplicemente preferito fare un passo alla volta. Ricordo bene quando un rappresentante di AMD disse "AMD avrà il suo multi threading a più di due thread per core"... Secondo me qualcosa bolle in pentola... Se tutto il panorama delle CPU ad alte prestazioni implementa HT un motivo c'è e AMD lo sta sicuramente quanto meno studiando.

EDIT: HT richiede la duplicazione dei registri delle pipeline. La pipeline è una, ma ogni suo stadio deve poter salvare i dati elaborati per due processi. In pratica è come avere utensili a doppia tavola in officina. Il tornio è uno, ma ha due tavole, su ognuna delle quali è disposto un pezzo in lavorazione, e può lavorare alternativamente su entrambe. Quando non può procedere su una, si mette da parte, e si passa all'altro pezzo.
A livello di silicio quindi non serve raddoppiare la pipeline, ma sono necessarie modifiche al front end ed il raddoppio dei registri della pipeline. Se non ricordo male ogni core aumenta la sua area del 5%. Considerato che i core rappresentano metà abbondante dell'area di una CPU, l'intera CPU, con HT, cresce del 3% circa, se il mio dato è corretto, ma non ci metto la mano sul fuoco.

capitan_crasy
08-11-2011, 23:11
Io non credo che sia una scelta ma piuttosto un ripiego. Se non riesci ad avere un buon IPC cerchi di rimediare alzando le frequenze.
Questo perchè partendo da un buon IPC sarà possibile partire da frequenze basse e raggiungerne di più alte con più facilità, facendo uscire modelli via via più potenti.

L'architettura BD è studiata per avere alte frequenze, altro che ripiego...
Il problema attualmente è lo scarso rapporto tra frequenza/Vcore e consumo del silicio, ma siamo appena all'inizio dei 32nm.
Se poi nel prossimo futuro AMD punterà su stadi più corti e IPC con frequenze basse allora assisteremo alla fine dell'architettura Bulldozer e al ritorno di architetture più simile al K10...

Grizlod®
08-11-2011, 23:23
No no, non c'è dubbio che un BD a 8 core se implementasse anche HT farebbe vedere al sistema 16 thread. Questo per come lavora HT.
Ogni core gestisce in concorrenza due thread. Quando uno si ferma perché mancano dati, in attesa di poter ripartire il core lavora sul secondo. Quando si ferma perché anche qui mancano dati si torna al primo che intanto si è sbloccato.
Ti ringrazio per le spiegazioni. Quindi a tutt'oggi, non esisterebbe una tecnica per occultare il secondo thread e non farlo visualizzare al task manager?

Voglio dire...un processore, non puo farlo per i cavoli suoi, senza per forza "farlo sapere/vedere"?

papafoxtrot
08-11-2011, 23:44
Ti ringrazio per le spiegazioni. Quindi a tutt'oggi, non esisterebbe una tecnica per occultare il secondo thread e non farlo visualizzare al task manager?

Voglio dire...un processore, non puo farlo per i cavoli suoi, senza per forza "farlo sapere/vedere"?

Più che altro non vedo a cosa servirebbe occultare il secondo thread. In ogni caso, io non sono un ingegnere informatico, ma è il sistema operativo a schedulare i thread da eseguire ad ogni pipeline del processore, per cui la vedo dura.

Credo che questa dell'utensile a doppia tavola sia una metafora perfetta. Fa conto che raddoppiare i core corrisponda a costruire una nuova fabbrica; il CMT corrisponda a raddoppiare gli utensili, ma nella stessa fabbrica, mentre HT corrisponda a comprare utensili a doppia tavola.
Lo scopo delle prime due soluzioni e aumentare il througput, mentre lo scopo della terza e far si che gli utensili non restino inutilizzati.
Perché dovresti nascondere il fatto che ogni tuo utensile stia lavorando a due pezzi?

Se cerchi un modo di aumentare l'efficienza della pipeline senza raddoppiare i thread, puoi fare diversamente.
Il primo vero modo implementato è stata l'esecuzione out of order. Parti prima con i lavori per cui hai tutti gli input che ti servono, indipendentemente da quale lavoro ti è stato assegnato per primo... e nel frattempo magari ti arrivano i dati per gli altri lavori.
Allungare le code di riordino è un modo per esaltare l'esecuzione OoO.
HT è un'altro modo...
Il modo più tradizionale è la branch prediction... cercare di prevedere in anticipo quali input ti serviranno...

Insomma l'HT è uno dei modi per migliorare l'efficienza delle pipeline, ma siccome è efficcace e a dirla tutta anche poco costoso, perché migliorare una cosa che già c'è è più difficile che implementarne una nota che manca, risulta molto vantaggioso. Mascherarlo da qualcos'altro non avrebbe senso.

Far vedere al sistema operativo che la CPU può processare meno thread di quanti ne faccia in realtà è una cosa su cui in passato AMD aveva indagato, e si chiamava reverse Hyper threading... Non se n'è più fatto nulla per due motivi:
1) Era molto impegnativa, e a dirla tutta hanno già abbastanza problemi a far funzionare una CPU nel modo normale... figurarsi una simile complicazione. Farla andare in modo efficiente è una sfida ad altissimi livelli.
2) Il bisogno per una simile tecnologia è andato scemando mano a mano che le applicazioni si sono evolute, acquisendo la capacità di distribuire il calcolo su più core.
Insomma è stato molto più semplice (oltre che razionale) adattare il software all'hardware, piuttosto che il contrario.
Oggi non credo esistano applicazioni che richiedono prestazioni elevate dalla CPU e che non sfruttano quanti core vuoi.... i videogiochi sono tutto fuorché applicazioni ad alte prestazioni, e comunque ci stanno arrivando anche loro.

paolo.oliva2
09-11-2011, 00:16
Io non credo che sia una scelta ma piuttosto un ripiego. Se non riesci ad avere un buon IPC cerchi di rimediare alzando le frequenze.
Questo perchè partendo da un buon IPC sarà possibile partire da frequenze basse e raggiungerne di più alte con più facilità, facendo uscire modelli via via più potenti.

Io credo che devi rileggere le particolarità dell'architettura BD, prima di dare per scontato cose che non lo sono.
L'FO4 di BD è il miglior rapporto sulla carta tra prestazioni e consumo.
La base del lavoro AMD non è sbagliata, anzi, tutt'altro.

Che poi le CPU Intel abbiano un miglior rapporto di consumo/potenza, non vuole dire che sia la scelta migliore, ma la migliore soluzione sul mercato, il che praticamente fissa i meriti anche in base ai demeriti degli altri, e sicuramente AMD meriti non ne ha continuando a produrre un'architettura vecchia di 10 anni.

AMD non sta cercando di alzare la frequenza operativa per sopperire ad una carenza di IPC.
La scelta di un'architettura non è a sé stante, ma si basa anche alle caratteristiche del silicio, ed il silicio a sua volta viene sviluppato in funzione dell'architettura.
Il 45nm SOI senza alcun trattamento HKMG e low-k, è arrivato a frequenze di 3,7GHz def.
Il 32nm SOI doveva guadagnare sul 45nm SOI una bella fetta considerando solamente la miniaturizzazione dei transistor.
Se poi a questo ci aggiungi il trattamento HKMG ed il trattamento ULK, avrebbe dovuto fare faville (e ci ricolleghiamo al discorso 40-50% di miglioramento previsto da AMD/GF sul 45nm).
Aggiungici pure le prerogative di BD che anche se fosse stato fatto sul 45nm avrebbe comunque avuto frequenze superiori....

E' su queste premesse che è stata creata l'architettura BD, con il suo FO4, con le sue pipeline lunghe, con il CMT e quant'altro.

Tu continui a ripetere sempre che AMD sta cercando di alzare le frequenze per sopperire ad una mancanza di IPC, il che è sbagliato.

Puoi discutere con chiunque, ma già parlare di pipeline lunghe è UNA FIRMA di un'architettura che DEVE avere frequenze più alte di un'altra architettura con pipeline più corte.

Ora... rifletti su questo e ti accorgi che i 3,6GHz di BD non possono rispettare queste caratteristiche... non bastano 200MHz/300MHz di clock in più.

E' inutile dire che AMD deve affidarsi ad un aumento di frequenza per sopperire ad un IPC inferiore, perché è proprio nell'architettura BD la scelta di un IPC inferiore a fronte di una frequenza superiore (ma percentualmente superiore alla perdita di un 'IPC inferiore).
E' chiaro che se in questo momento BD perde il 10% di IPC sul Thuban, l'avere l'8% di frequenza in più è nettamente differente dall'avere il 25% di frequenza in più. E' questo il problema dell'8150 sul Thuban, non è l'architettura in sé per sé.
Poi se uno riporta che comunque se BD fosse stato 4,5GHz def sarebbe risultato comunque inferiore agli SB-e, questo è un altro discorso... però valutiamo anche che una cosa è parlare di prima incarnazione commerciale sul silicio dell'architettura BD, un'altra lo sviluppo finale. Da un Phenom I X4 a 2,5GHz ad un Thuban X6 a 3,3/3,7GHz c'è un oceano, ma comunque è pur sempre la stessa architettura.

Cocco83
09-11-2011, 00:22
......... e se AMD ha spinto solo in una direzione è comunque un errore, perchè questo la dovrebbe scagionare dall' ipc basso e consumi elevati?...........

NI'..... AMD spinge dove gli conviene di + e l'ho già detto... pc fascia medio bassa... Llano (venduti a fiumi) e server Interlagos (da questi inizi sembra vendere bene).... qui fà i soldi, e senza i soldi non vai avanti..... Aggiungici linee di produzione contate, quindi con poca possibilità di diversificare o creare un processore adatto all'ambito server che faccia fuoco e allo stesso tempo un'architettura diversa che faccia fuoco nell'ambito desktop.... AMD non ha le risorse per fare ciò e azzarda e sceglie il campo di interesse dove può far meglio.....

Pensala così.... faccio un procio che batte intel nel mercato desktop fascia enthusiast, medio alta dove su ogni cpu ci guadagno un 100% (lasciando da parte proci da 1000€ che non penso riempino le tasche di un'azienda sopratutto in sti periodi di crisi) o faccio processori ad hoc per server dove il guadagno sale tra un 300-400% del costo di produzione o anche di +..... tanto per rendere l'idea.... spingo dove posso fare + cassa e dove le software house mi compilano software ad hoc senza avere compilatori Intel in mezzo ai piedi o cerco di scervellarmi per fare meglio in un ambito quasi monopolista dove non ti si caga minimamente....?
Io per carità, sarei stato + contento di un nuovo vero FX come lo erano i predecessori, e che fosse stato realmente un BULLDOZER, ma giudico l'architettura nel suo insieme, e per i campi per cui è stata creata, se ora è na mezza ciofeca nel desktop pazienza.... quando ci saranno tempi + maturi si potrà magari essere + sorridenti guardando al passato....

Anche il discorso degli aumenti di Piledriver non so da che parte prenderli... quelle slide penso siano un po' datate o per lo meno fatte sulla base di come doveva essere BD inizialmente.... quindi 4.5ghz standard con turbo sino ai 5....? oppure alla situazione attuale?... perché se vogliono recuperare terreno altro che 10-15%..... almeno 30-40%..... anche se sinceramente... a mio avviso tra modifiche alla struttura della CPU e ai vari settaggi da correggere nell'ambito software il guadagno del 30-40% non è utopia... serve solo tanto lavoro e collaborazione di tutti..... il brutto è che se dipendi dalle spalle degli altri, finisci quasi sempre ammazzato.....

Eppoi ragazzi.... diciamocelo seriamente.... i problemi sono tra noi, sono e saranno di un milione di persone nel mondo che ne capiscono un po' e non si fanno abbindolare e spendono i loro soldi al meglio..... il resto delle persone e siamo 7 miliardi se ne frega e và con le fette di salame sugli occhi quando devono comprare un pc..... so che è un ragionamento che lascia il tempo che prova.... ma è così che và il mondo.... sia che amd spacchi o che faccia pena.... se sei utonto vai di marketing.....

carlottoIIx6
09-11-2011, 00:34
No no, non c'è dubbio che un BD a 8 core se implementasse anche HT farebbe vedere al sistema 16 thread. Questo per come lavora HT.

non sono un ingegnere informatico, quindi non ho competenze tecnica per risponderti, ma nel tuo raggionamento, pur appassionato, c'è un errore logico almeno
perchè amd svilupperebbe un alternativa all'HT, come ha più volte sottolineato nelle slide di presentazine, se poi può implementarlo?
amd ha la disponibilità dei brevetti intel quindi teoricamente potrebbe farlo (la logica mi sembra "or" e non "and")


inoltre nelle tue deduzioni c'è un problema, che tu dai per assodato che BD vada male: cosa che io NON do' per niente per scontato e secondo me i test sui proci sever ti smentiranno

gianni1879
09-11-2011, 07:43
Ma... AMD ufficialmente con GF aveva riportato che il 32nm avrebbe avuto un 40% di prestazioni in più a parità di consumo con il 45nm. Quindi è una scelta... per avere potenza o si punta sul massimo IPC con una frequenza inferiore o si punta su una frequenza maggiore con un IPC inferiore. Lo sbaglio sta solamente nel non arrivare ai punti prefissati, e l'8150 ha lo sbaglio di non avere le frequenze previste.

Le maggiori critiche verso BD sono una potenza massima inferiore al rivale ed un consumo superiore al rivale.
Il silicio in questo giudizio incide per un 25%... (4,5GHz vs 3,6GHz).
Non credo che un BD con un 25% di potenza in più a parità di consumi o un 25% in meno di consumi a parità di potenza potrebbe avere le stesse critiche, se non altro nel confronto verso il Thuban.
Con i se e con i ma non cambia nulla guardando un 8150, ma cambia molto nel giudicare l'architettura.
Comuque sarebbe già auspicabile che questo 25% in meno di frequenza si riduca con lo step B3, almeno di un 8,4%.

Tra parentesi... Piledriver viene riportato da un +10% ad un +15% rispetto al precedente. Ma il precedente qual'è? L'8150 o magari un 8170 B3? Nel qual caso bisognerebbe aggiungere l'8,4% di un 8170. al 10-15% di Piledriver, inteso come guadagno sull'8150.

Forse secondo me non ci rendiamo conto che la cpu ha circa 2 miliardi di transistor; ora mi chiedo come è possibile pensare che ancora un GHz in più possa far rientrare sempre nei 125W di tdp anche a processo maturo? Per me pensare ed affermare una cosa del genere è pura utopia. (scusate la franchezza) Ma rigirare ancora il discorso ed addossando la colpa al processo produttivo di GF, davvero mi sembra nascondere la verità ed aggrapparsi al surreale.

Per me il processo produttivo di GF non è affatto male come si vuol far credere, anzi se pensiamo che a questa frequenza e con tutti questi transistor la cpu rientra comunque in un tdp di "soli" 125W. Pensare che per avere BD "vero" bisogna aspettare finchè non guadagnino 1 GHz ancora, passeranno almeno una generazione di cpu.

L'architettura, sinceramente nessuno ha la sfera di cristallo e potrà prevedere se AMD intrapenderà la direzione corretta o meno. Su questa attualmente in produzione ci sono numerosi punti vincenti, ma ci sono altrettanti punti deboli. Ci sono molti articoli che ne parlano.

Piledriver viene dato a 10/15% rispetto alla precedente generazione, ossia a pari clock, non vedo cosa centri lo step delle cpu ed il modello della cpu. E sarebbe ridicolo pensare che l'aumento si basi solo sull'incremento della frequenza.

papafoxtrot
09-11-2011, 08:20
non sono un ingegnere informatico, quindi non ho competenze tecnica per risponderti, ma nel tuo raggionamento, pur appassionato, c'è un errore logico almeno
perchè amd svilupperebbe un alternativa all'HT, come ha più volte sottolineato nelle slide di presentazine, se poi può implementarlo?
amd ha la disponibilità dei brevetti intel quindi teoricamente potrebbe farlo (la logica mi sembra "or" e non "and")


inoltre nelle tue deduzioni c'è un problema, che tu dai per assodato che BD vada male: cosa che io NON do' per niente per scontato e secondo me i test sui proci sever ti smentiranno

BD 8x ha il doppio dei core e frequenze più alte rispetto a core i7 2600k; ciò nonostante in sostanza va peggio.
Come credi si comporterà un BD 16x nei confronti di uno xeon a 8 core? Considera che in questo caso il numero di core sarà sempre doppio, ma di contrasto la frequenza di BD sarà più bassa di quella di Intel...

Andiamo, la storiella che tanti core vanno bene in ambito server è anche vera, ma se non riesci a vincere nelle applicazioni più multi threaded del settore desktop, hai poche speranze anche in quello server.
Bulldozer non sarà nessuna sosrpresa neanche nel settore server. Sarà apprezzato da chi si compilerà il software, usando quindi le XOP... Ma quello è il solo settore HPC, e il fatto di essere l'unico ad averle non significa che sia una buona CPU.

Tutto si può dire, ma non che BD vada bene. E se anche andasse bene, non vedo perché si dovrebbe sedersi sugli allori e rinunciare ad una tecnologia vantaggiosa.
Per quanto riguarda HT, AMD ha accesso ai brevetti intel, e comunque HT non è un semplice brevetto intel.... Mica IBM paga le royalities a intel per usarlo... e che io sappia nemmeno Oracle, nemmeno Fusjitsu...

Randa71
09-11-2011, 08:25
Scusate ma onestamente faccio fatica a seguirvi perchè:
1) non capisco tutta questa fiducia in ambito server dove BD dovrebbe brillare.... da quello che ho letto dai bench in giro in ambito desktop, le prestazione multithread in tutti i test che sono stati fatti al massimo quando proprio tutto va bene e con il vento a favore si avvicinano o uguagliano la concorrenza.......considerato che le CPU server solitamente hanno un clock più basso...vedete voi..SPERO DI SBAGLIARMI
2) affermare che BD è un architettura valida ('La base del lavoro AMD non è sbagliata, anzi, tutt'altro.') è AL MOMENTO (e sottolineo AL MOMENTO) un'affermazione che NON trova riscontro nella realtà....perchè ad oggi le performance sono al di sotto delle aspettative e lontane dalla concorrenza .......e se anche fosse uscito a 4,5 GHZ per voi un'architettura che ha bisogno del doppio dei transistors per andare come gli altri, è un 'architettura valida???? per me è solo uno spreco....
3) Sul futuro di BD sono scettico, ma non per partito preso ma per le precedenti esperienze che insegnano...quando usci l'archiettura netburst, NON è mai andata come ci si aspettava, nonostante tutti i tweak e modifiche che Intel ha fatto (il K10 prima e Core dopo sono state architetture che fin da subito hanno dimostrato la loro validità)..
4) discorso PP se AMD in origine ha pensato di far andare 2MLRD di transistor a 5 ghz, penso che abbia fatto un grossolano errore di valutazione (lo dico per un'analisi della realtà..trovatemi CPU con 2 MLRD a quel clock, i Pwer7 ne hanno 1.2 a 45).....voi che dite che intel ha un PP bello collaudato, pensate che sia in grado di far muovere a 5 GHZ, 2 MLRD di transistor??? io dico di no....e vi dico di +: probabilmente i 32 di GF, rese produttive a parte, sono anche meglio di Intel, perchè riesce a far muovere il doppio dei transistor allo stesso clock e con un TDP accettabile.....
5) sul discorso che istituzioni hanno ordinato 25000 CPU o quasi, magari è vero quello che è stato affermato, magari sono accordi commerciali, magari sono sconti che AMD ha fattodi + rispetto a Intel...etc etc etc

paolo.oliva2
09-11-2011, 08:35
Forse secondo me non ci rendiamo conto che la cpu ha circa 2 miliardi di transistor; ora mi chiedo come è possibile pensare che ancora un GHz in più possa far rientrare sempre nei 125W di tdp anche a processo maturo? Per me pensare ed affermare una cosa del genere è pura utopia. (scusate la franchezza) Ma rigirare ancora il discorso ed addossando la colpa al processo produttivo di GF, davvero mi sembra nascondere la verità ed aggrapparsi al surreale.

Per me il processo produttivo di GF non è affatto male come si vuol far credere, anzi se pensiamo che a questa frequenza e con tutti questi transistor la cpu rientra comunque in un tdp di "soli" 125W. Pensare che per avere BD "vero" bisogna aspettare finchè non guadagnino 1 GHz ancora, passeranno almeno una generazione di cpu.

L'architettura, sinceramente nessuno ha la sfera di cristallo e potrà prevedere se AMD intrapenderà la direzione corretta o meno. Su questa attualmente in produzione ci sono numerosi punti vincenti, ma ci sono altrettanti punti deboli. Ci sono molti articoli che ne parlano.

Piledriver viene dato a 10/15% rispetto alla precedente generazione, ossia a pari clock, non vedo cosa centri lo step delle cpu ed il modello della cpu. E sarebbe ridicolo pensare che l'aumento si basi solo sull'incremento della frequenza.

Ma infatti sottolineo che Piledriver viene dato al 10-15% della generazione precedente, ma un B3 ed un teorico 8170 non farebbero parte della generazione precedente? Mi sembra comunque scontato che una ditta non realizzi uno step ulteriore solamente per correggere lo yeld, perché a quel punto la spesa progettazione non varrebbe la candela rispetto a più proci a wafer, contando poi che resterà in commercio per 6 mesi al massimo, visto che Piledriver difficilmente arriverà dopo il 2Q 2012.

E' diverso pensare a Piledriver come ad un 10-15% maggiore rispetto ad un 8150 e pensare invece ad un Piledriver maggiore sempre del 10-15% rispetto ad un 8170 che di per sé sarebbe già superiore dell'8,4% rispetto all'8150, perché a quel punto il +10% minimo di piledriver corrisponderebbe al +20% minimo, ed il +15% massimo diventerebbe ad un 24,7%.

Non è che voglio assegnare a BD potenze chissà quali... però mi sembra altrettanto chiaro che guadagni sul 20-25% tra 2 release della stessa architettura sulla stessa miniaturizzazione del silicio dimostrano più che chiaramente che al momento l'8150 e 32nm non rappresentano di fatto le vere potenzialità dell'architettura, confermate poi anche dal fatto che B3 e non B3 in ogni caso il +10-15% di aumento in 3 versioni di Buldozer a seguire, porterebbero comunque un +33,1% minimo ed un 52% come massimo.

Sarebbe possibile questo incremento se l'architettura BD non fosse valida? Rimanendo sull'architettura Phenom II... si sarebbero potute raggiungere queste prestazioni? Allora se BD le può raggiungere, mi sembra più che scontato il motivo per il quale AMD dismette il K10 a favore di BD.

Poi chiaramente io concordo sul fatto che se B D necessita del doppio dei transistor di altri per arrivare a determinate potenze, è chiaro che l'architettura di per sé "è meno riuscita", ma questo è un discorso a parte... perché i proci, almeno per noi utilizzatori finali, non costano in base al numero dei transistor.
Se un procio AMD avesse 4 miliardi di transistor e 20 core con un consumo 100 e potenza 100 ed un altro prodotto avesse 1 core e 100 transistor ma fornirebbe la stessa potenza con lo stesso consumo allo stesso prezzo... a noi che cambia?

tuttodigitale
09-11-2011, 08:36
Io non credo che sia una scelta ma piuttosto un ripiego. Se non riesci ad avere un buon IPC cerchi di rimediare alzando le frequenze.
Questo perchè partendo da un buon IPC sarà possibile partire da frequenze basse e [/b]raggiungerne di più alte con più facilità [/b], facendo uscire modelli via via più potenti.
Frequenze elevate rispetto a cosa. Il p4 tanto per fare un esempio aveva frequenze impressionanti sui 130nm, 3,4 GHz, dove le altre architetture si accontentavano di 2,2 e 2,6 GHz. E un pc basato su P4 a 130nm, se la memoria non mi tradisce, non scaldava più di un athlon xp 3200+ (2,2 GHz). Questo per dirti che una cpu può avere un migliore efficienza anche lavorando a frequenze ben più elevate della concorrenza
Le latenze, misurate in cicli, sono studiate a tavoli (mi fa quasi sorridere quando le persone dicono che l'errore base di BD sta nelle latenze elevate, senza considerare, parole di AMD, che la frequenza operativa doveva essere del 30% superiore a quella di k10)

Forse secondo me non ci rendiamo conto che la cpu ha circa 2 miliardi di transistor; ora mi chiedo come è possibile pensare che ancora un GHz in più possa far rientrare sempre nei 125W di tdp anche a processo maturo? Per me pensare ed affermare una cosa del genere è pura utopia. (scusate la franchezza) Ma rigirare ancora il discorso ed addossando la colpa al processo produttivo di GF, davvero mi sembra nascondere la verità ed aggrapparsi al surreale.

Per me il processo produttivo di GF non è affatto male come si vuol far credere, anzi se pensiamo che a questa frequenza e con tutti questi transistor la cpu rientra comunque in un tdp di "soli" 125W. Pensare che per avere BD "vero" bisogna aspettare finchè non guadagnino 1 GHz ancora, passeranno almeno una generazione di cpu.
.
Gianni tutto giusto quello che dici...ma allora perchè non vendere un più prestante Phenom X8 3,3 GHz su 32nm? (anzi visti la riduzione di consumi a parità di PP di llano 16% in full load un Phenom x10 3,3 GHz, 4 GHz su 4 core Questo soprattutto mi fa pensare che non sia il progetto ad avere delle falle (a qual punto conveniva metterlo da parte) ma il PP (e le recensioni su llano desktop, e ancora la mancata presentazione del modello BE rafforzano il ragionamento) ad avere qualche magagna.
Ammesso che questo sia BD come farà mai AMD a vendere un deca-core?
Ritornando ai transistor...beh dipendono come questo lavorano, un p4 aveva più transistor di un athlon xp eppure aveva una frequenza di lavoro del 50% più elevata

Randa71
09-11-2011, 08:49
1) Invece voglio proprio vederlo in ambito server come va. I benchmark visti fin'ora, anche MT, sono tutti su applicativi desktop e workstation, mentre invece quello che serve per capire come va in ambito server sono benchmark... server... tipo specweb, vmmark etc.

2), 3) e 4) sono daccordo

Sicuramente lo vedremo e mi auguro di sbagliarmi, però le app server non è che generano in maniera molto differente i thread da come li genera un app desktop (se un app genera 32 thread ad esempio non è che li genera diversamente da un'altra che ne genera 32...forse bisognerebbe distinguere tra app e app)......nella precedente generazione se si confrontano a livello performance gli opteron e gli xeon, guarda che non è che ti discosti molto dai risultati visto in ambito desktop....diciamo che io sono scettico e tu sei + ottimista :D

Randa71
09-11-2011, 08:55
Frequenze elevate rispetto a cosa. Il p4 tanto per fare un esempio aveva frequenze impressionanti sui 130nm, 3,4 GHz, dove le altre architetture si accontentavano di 2,2 e 2,6 GHz. E un pc basato su P4 a 130nm, se la memoria non mi tradisce, non scaldava più di un athlon xp 3200+ (2,2 GHz). Questo per dirti che una cpu può avere un migliore efficienza anche lavorando a frequenze ben più elevate della concorrenza
Le latenze, misurate in cicli, sono studiate a tavoli (mi fa quasi sorridere quando le persone dicono che l'errore base di BD sta nelle latenze elevate, senza considerare, parole di AMD, che la frequenza operativa doveva essere del 30% superiore a quella di k10)


Gianni tutto giusto quello che dici...ma allora perchè non vendere un più prestante Phenom X8 3,3 GHz su 32nm? (anzi visti la riduzione di consumi a parità di PP di llano 16% in full load un Phenom x10 3,3 GHz, 4 GHz su 4 core Questo soprattutto mi fa pensare che non sia il progetto ad avere delle falle (a qual punto conveniva metterlo da parte) ma il PP (e le recensioni su llano desktop, e ancora la mancata presentazione del modello BE rafforzano il ragionamento) ad avere qualche magagna.
Ammesso che questo sia BD come farà mai AMD a vendere un deca-core?
Ritornando ai transistor...beh dipendono come questo lavorano, un p4 aveva più transistor di un athlon xp eppure aveva una frequenza di lavoro del 50% più elevata

il p4 aveva anche un diverso processo produttivo.....
http://en.wikipedia.org/wiki/Transistor_count
k7 con pentium4

AceGranger
09-11-2011, 08:57
inoltre nelle tue deduzioni c'è un problema, che tu dai per assodato che BD vada male: cosa che io NON do' per niente per scontato e secondo me i test sui proci sever ti smentiranno

sinceramente non vedo cosa i test possano smentire....

TOP GAMMA DESKTOP

8 core fx8150 3,6 GHz +200 MHz
4 core 2600K 3,4 GHz -200 MHz

TOP GAMMA SERVER

16 core Opteron 6482 SE 2,6 GHz 140 Watt -500 MHz
8 core Xeon E5-2687W 3.1GHz 150W +500 MHz

il turbo è presente sia nelle versioni Desktop che Server, quindi è ininfluente;

l'fx8150 con 200 MHz in piu sappiamo come si comporta, ora come credi sia possibile che l'Opteron possa anche solo minimamente confrontarsi con gli Xeon con la bellezza di 500 MHz in meno :rolleyes: :confused:

ipotizzando anche la situazione irreale che lo Xeon non abbia il turbo, l'opteron pareggerebbe la frequenza con il turbo, quindi rimarrebbe comunque in una situazione peggiore rispetto alla controparte desktop

basta anche guardare i prezzi...

futuro TOP 16 core Opteron 6482 SE $1135,26 :eek:
attuale TOP 12 core Opteron™ 6180 SE costa $1,514....

e si parla di Server/Workstation, dove chi ha il prodotto che va lo fa pagare a peso d'oro...

tuttodigitale
09-11-2011, 08:59
perché i proci, almeno per noi utilizzatori finali, non costano in base al numero dei transistor.
a dire il vero il costo neppure per i produttori è legato al numero di transistor.

paolo.oliva2
09-11-2011, 09:02
Scusate ma onestamente faccio fatica a seguirvi perchè:
1) non capisco tutta questa fiducia in ambito server dove BD dovrebbe brillare.... da quello che ho letto dai bench in giro in ambito desktop, le prestazione multithread in tutti i test che sono stati fatti al massimo quando proprio tutto va bene e con il vento a favore si avvicinano o uguagliano la concorrenza.......considerato che le CPU server solitamente hanno un clock più basso...vedete voi..SPERO DI SBAGLIARMI
2) affermare che BD è un architettura valida ('La base del lavoro AMD non è sbagliata, anzi, tutt'altro.') è AL MOMENTO (e sottolineo AL MOMENTO) un'affermazione che NON trova riscontro nella realtà....perchè ad oggi le performance sono al di sotto delle aspettative e lontane dalla concorrenza .......e se anche fosse uscito a 4,5 GHZ per voi un'architettura che ha bisogno del doppio dei transistors per andare come gli altri, è un 'architettura valida???? per me è solo uno spreco....
3) Sul futuro di BD sono scettico, ma non per partito preso ma per le precedenti esperienze che insegnano...quando usci l'archiettura netburst, NON è mai andata come ci si aspettava, nonostante tutti i tweak e modifiche che Intel ha fatto (il K10 prima e Core dopo sono state architetture che fin da subito hanno dimostrato la loro validità)..
4) discorso PP se AMD in origine ha pensato di far andare 2MLRD di transistor a 5 ghz, penso che abbia fatto un grossolano errore di valutazione (lo dico per un'analisi della realtà..trovatemi CPU con 2 MLRD a quel clock, i Pwer7 ne hanno 1.2 a 45).....voi che dite che intel ha un PP bello collaudato, pensate che sia in grado di far muovere a 5 GHZ, 2 MLRD di transistor??? io dico di no....e vi dico di +: probabilmente i 32 di GF, rese produttive a parte, sono anche meglio di Intel, perchè riesce a far muovere il doppio dei transistor allo stesso clock e con un TDP accettabile.....
5) sul discorso che istituzioni hanno ordinato 25000 CPU o quasi, magari è vero quello che è stato affermato, magari sono accordi commerciali, magari sono sconti che AMD ha fattodi + rispetto a Intel...etc etc etc

1) Per i test che ho fatto (ma sempre con S.O. Windows e con programmi da desktop) un 8150, seppur con poca potenza, non ha alcun problema a gestire molti programmi contemporaneamente in esecuzione. Un simile carico con un Thuban l'avrebbe inginocchiato a tal punto da non poter aprire più nulla e lasciare il sistema praticamente in stallo.
I MC sono 2 die Thuban nello stesso package, come i BD X16, quindi le differenze Thuban-8150 saranno le stesse in rapporto MC X12 e BD X16, + il vantaggio software server

2) Se un'architettura non fosse valida, non si avrebbero incrementi prestazionali ad ottimizzarla, o comunque incrementi marginali. Un +50% di prestazioni esclude che l'8150 rappresenti la massima evoluzione dell'architettura... l'8150 è l'8150 e si confronta commercialmente per quello che è. L'architettura BD rappresenta ciò che arriverò dopo l'8150.
Per il discorso ottimizzazione, nessuno può smentire che se per arrivare ad una potenza X un'architettura impiega meno transistor di un'altra sia migliore.
Ma l'8150 è un processore server, con 4 link HT che non servono nel desktop e con 16MB di cache L2/L3, Piledriver potrebbe averne considerevolmente di meno.
Poi, sinceramente, per me i proci si considerano in prestazioni, consumi, costo d'acquisto, non li paghi a transistor, fortunatamente.

3) Dipende dal divario che c'è tra IPC inferiore e richiesta superiore di frequenza. Al momento AMD è al 75% del percorso, architetture precedenti si sono fermate molto prima ed abbandonate perché il divario era incolmabile... sono confronti troppo differenti.

4) Non puoi parlare di numero di trasistor generalizzando, i transistor consumano quando cambiano fase. I transistor della cache hanno un consumo ridicolo rispetto a quelli della logica. Su quei 2 miliardi, 16MB di cache penso rappresentino + del 50%.

5) Non andiamo a cercare motivi alternativi aleatori... la notizia è quella e quella rimane... non penso che Cry e quant'altri investano soldi e tempo per vendere sistemi inferiori ai precedenti perché AMD gli regala i proci e produce in perdita..., o magari arriviamo pure a supporre che AMD gli paga la bolletta della luce perché BD consuma un botto?

paolo.oliva2
09-11-2011, 09:05
a dire il vero il costo neppure per i produttori è legato al numero di transistor.
Appunto, il costo produzione, non quanto tu lo paghi.
E qui torniamo al discorso di prezzo mm2 silicio.
Se la ditta A ti vende 3 mm2 a 1€ e la ditta B ti vende 1mm2 sempre ad 1€, a te che cambia? Che la ditta B guadagna 3 volte rispetto alla ditta A, la cosa ha valore solamente ad essere proprietari dell'azienda. Non è il mio caso.

gianni1879
09-11-2011, 09:14
Gianni tutto giusto quello che dici...ma allora perchè non vendere un più prestante Phenom X8 3,3 GHz su 32nm? (anzi visti la riduzione di consumi a parità di PP di llano 16% in full load un Phenom x10 3,3 GHz, 4 GHz su 4 core Questo soprattutto mi fa pensare che non sia il progetto ad avere delle falle (a qual punto conveniva metterlo da parte) ma il PP (e le recensioni su llano desktop, e ancora la mancata presentazione del modello BE rafforzano il ragionamento) ad avere qualche magagna.
Ammesso che questo sia BD come farà mai AMD a vendere un deca-core?
Ritornando ai transistor...beh dipendono come questo lavorano, un p4 aveva più transistor di un athlon xp eppure aveva una frequenza di lavoro del 50% più elevata

portare un'architettura phenom su 32nm modificandola per 8 core avrebbe portato parecchi problemi nella realizzazioni, ed in ogni caso anche se realizzabile era un'architettura morta. Poteva dare risultati nell'immediato, ma a lungo andare il progetto sarebbe morto lì. Si doveva cambiare architettura con una più modulare e scalabile, BD in questo è perfetta tralasciando pregi e difetti.

BD e Llano sono due progetti completamente diversi, non ti dimenticare che llano si porta una apu sulle spalle.

Il numero di transistor e la loro frequenza di lavoro sono strettamente correlati al consumo. Per questo continuo a dire che il pp non è da buttare, visti tutto sommato i consumi pari a livello di un thuban. Chiaramente c'è bisogno di ulteriore affinamenti, ma non ci si può aspettare che questo guadagno porti un incremento di ben 1 GHz. Per me siamo ben lontani da questo.

paolo.oliva2
09-11-2011, 09:21
sinceramente non vedo cosa i test possano smentire....

TOP GAMMA DESKTOP

8 core fx8150 3,6 GHz +200 MHz
4 core 2600K 3,4 GHz -200 MHz

TOP GAMMA SERVER

16 core Opteron 6482 SE 2,6 GHz 140 Watt -500 MHz
8 core Xeon E5-2687W 3.1GHz 150W +500 MHz

il turbo è presente sia nelle versioni Desktop che Server, quindi è ininfluente;

l'fx8150 con 200 MHz in piu sappiamo come si comporta, ora come credi sia possibile che l'Opteron possa anche solo minimamente confrontarsi con gli Xeon con la bellezza di 500 MHz in meno :rolleyes: :confused:

ipotizzando anche la situazione irreale che lo Xeon non abbia il turbo, l'opteron pareggerebbe la frequenza con il turbo, quindi rimarrebbe comunque in una situazione peggiore rispetto alla controparte desktop

basta anche guardare i prezzi...

futuro TOP 16 core Opteron 6482 SE $1135,26 :eek:
attuale TOP 12 core Opteron™ 6180 SE costa $1,514....

e si parla di Server/Workstation, dove chi ha il prodotto che va lo fa pagare a peso d'oro...

Cambiano gli SO, cambiano i compilatori, cambiano le tipologie di programmi.
Nei proci server conta la quantità di cache.
Quanta cache ha un 2600K? Un BD X8 ne ha 16MB... un BD X16 ne ha 32MB...

Io con un 8150 sono arrivato a 15 applicazioni contemporaneamente attive ed il sistema risultava come fosse libero, potevo caricare Internet, potevo rispondere ai post, potevo lavorare.

Un Thuban questo non lo faceva...

ecco perché il confronto con il desktop non ha senso per misurare il metro come server.

Tu consideri sempre il discorso prezzo...
Non capisco il perché allora un 8150 nel desktop non è preferibile al Thuban perché costerebbe molto di più e sarebbe preferibile solamente se costasse poco di più.
Un BD X16 costa di meno di MC X12 ma ugualmente non sarebbe acquistabile perché costando molto di meno, dovrebbe essere molto meno potente...

Cioè... modifichiamo i giudizi in base a come fa comodo?

allora con lo stesso metro, un 8150 non è comprabile

tuttodigitale
09-11-2011, 09:27
il p4 aveva anche un diverso processo produttivo.....
http://en.wikipedia.org/wiki/Transistor_count
k7 con pentium4
cosa c'entra l'athlon classic (quello privo di cache l2 integrato nel die)...
Athlon xp 3200+ Barton 130nm..
il k7 a 25nm si era fermato a 700 MHz se non sbaglio....


Il numero di transistor e la loro frequenza di lavoro sono strettamente correlati al consumo.


Te l'ha già detto Paolo, i transistor dissipano la tragrande maggioranza del calore nella commutazione tra uno stato l'altro. Deve essere ben chiaro questo concetto: Se la frequenza di base è di 3,6 GHz stai sicuro che mai e poi mai tutti i transistor commuteranno con quella frequenza.
E' vero che c'è una correlazione tra le frequenze di funzionamento del transistor e il consumo, ma la frequenza di funzionamento dei singoli transistor (che non ha un valore predefinito, ma medio) varia da architettura ad architettura

il numero di transistor di per sé non conta un tubo sui consumi e frequenze:
Fai il confronto tra Barton e k8, il primo ha circa 50 milioni di transistor il secondo 100, indovina chi lavorava a frequenze più elevate e allo stesso aveva un TDP inferiore (il PP è lo stesso).
* PS è chiaro che mediamente i transistor di k8 lavoravano ad una frequenza di clock inferiore a quella di k7, a dispetto della frequenza di sincronizzazione più elevata

Randa71
09-11-2011, 09:33
1) Per i test che ho fatto (ma sempre con S.O. Windows e con programmi da desktop) un 8150, seppur con poca potenza, non ha alcun problema a gestire molti programmi contemporaneamente in esecuzione. Un simile carico con un Thuban l'avrebbe inginocchiato a tal punto da non poter aprire più nulla e lasciare il sistema praticamente in stallo.
I MC sono 2 die Thuban nello stesso package, come i BD X16, quindi le differenze Thuban-8150 saranno le stesse in rapporto MC X12 e BD X16, + il vantaggio software server

2) Se un'architettura non fosse valida, non si avrebbero incrementi prestazionali ad ottimizzarla, o comunque incrementi marginali. Un +50% di prestazioni esclude che l'8150 rappresenti la massima evoluzione dell'architettura... l'8150 è l'8150 e si confronta commercialmente per quello che è. L'architettura BD rappresenta ciò che arriverò dopo l'8150.
Per il discorso ottimizzazione, nessuno può smentire che se per arrivare ad una potenza X un'architettura impiega meno transistor di un'altra sia migliore.
Ma l'8150 è un processore server, con 4 link HT che non servono nel desktop e con 16MB di cache L2/L3, Piledriver potrebbe averne considerevolmente di meno.
Poi, sinceramente, per me i proci si considerano in prestazioni, consumi, costo d'acquisto, non li paghi a transistor, fortunatamente.

3) Dipende dal divario che c'è tra IPC inferiore e richiesta superiore di frequenza. Al momento AMD è al 75% del percorso, architetture precedenti si sono fermate molto prima ed abbandonate perché il divario era incolmabile... sono confronti troppo differenti.

4) Non puoi parlare di numero di trasistor generalizzando, i transistor consumano quando cambiano fase. I transistor della cache hanno un consumo ridicolo rispetto a quelli della logica. Su quei 2 miliardi, 16MB di cache penso rappresentino + del 50%.

5) Non andiamo a cercare motivi alternativi aleatori... la notizia è quella e quella rimane... non penso che Cry e quant'altri investano soldi e tempo per vendere sistemi inferiori ai precedenti perché AMD gli regala i proci e produce in perdita..., o magari arriviamo pure a supporre che AMD gli paga la bolletta della luce perché BD consuma un botto?

1) leggende metropolitane: ieri ero con il phenom 1100T con boinc aperto (utilizzo a 100%) scansione antivirus attiva, lasciato aperto opera e posta elettronica e giocavo a battlefield 2...la macchina era tutto tranne che inginocchiata - Idem con 2600k;
2) se per te ottimizzarla vuol dire overclokkarla, trovami una cpu che salendo di clock non sale di performance :mc:
3) come fai a dire che AMD è al 75% di BD? Hai davanti a te i piani di sviluppo di Rory Read?? :mc:
4) non sto generalizzando: ti sto dicendo che è un'architetura che ha bisogno del doppio dei transistor per andare forse come gli altri per me è uno spreco di transistor...;
5) non cerco motivi alternativi aleatori...sto solo dicendo che, per mia esperienza personale, la scelta dei server non sempre è fatta sulla CPU + performante....parla con qualche commerciale di SUN o di HP e poi mi dirai.

Prima che uscisse si continuava a dire che sarebbe stata una CPU molto performante, adesso dopo che è uscito si continua a dire che sarà una CPU molto performante.....

Randa71
09-11-2011, 09:37
cosa c'entra l'athlon classic (quello privo di cache l2 integrato nel die)...
Athlon xp 3200+ Barton 130nm..
il k7 a 25nm si era fermato a 700 MHz se non sbaglio....
Vuoi un altro esempio di come il numero di transistor di per sé non conta un tubo sui consumi e frequenze:
Fai il confronto tra Barton e k8, il primo ha circa 50 milioni di transistor il secondo 100, indovina chi lavorava a frequenze più elevate e allo stesso aveva un TDP inferiore (il PP è lo stesso)

La tua affermzione: 'Ritornando ai transistor...beh dipendono come questo lavorano, un p4 aveva più transistor di un athlon xp eppure aveva una frequenza di lavoro del 50% più elevata' non è vera: era il barton che aveva + transistor del p4....Barton 54ml P4 43Ml.............

paolo.oliva2
09-11-2011, 09:38
portare un'architettura phenom su 32nm modificandola per 8 core avrebbe portato parecchi problemi nella realizzazioni, ed in ogni caso anche se realizzabile era un'architettura morta. Poteva dare risultati nell'immediato, ma a lungo andare il progetto sarebbe morto lì. Si doveva cambiare architettura con una più modulare e scalabile, BD in questo è perfetta tralasciando pregi e difetti.

BD e Llano sono due progetti completamente diversi, non ti dimenticare che llano si porta una apu sulle spalle.

Il numero di transistor e la loro frequenza di lavoro sono strettamente correlati al consumo. Per questo continuo a dire che il pp non è da buttare, visti tutto sommato i consumi pari a livello di un thuban. Chiaramente c'è bisogno di ulteriore affinamenti, ma non ci si può aspettare che questo guadagno porti un incremento di ben 1 GHz. Per me siamo ben lontani da questo.

Si, ma infatti il PP del 32nm è ottimo sino a frequenze attorno ai 3,1GHz (un BD X16 ha 4 miliardi di transistor per 137W TDP).
Il problema è che salendo di frequenza il 32nm AMD aumenta esponenzialmente i consumi.

Nel TH OC ho postato alcune impressioni e Bjt2 a fatto le valutazioni.


"Ho fatto i gradini di step di frequenza sempre con lo stesso Vcore, ed ero arrivato a 32° massimi, poi mi sono accorto di un 49° appena uscito da Cinebench che CPU-Z e Turbo-Evo non mi avevano segnalato sotto carico, al che ho settato Cinebench come X6 con affinità al core 1-2-3-4-5-6 e Turbo-evo/CPU-z con affinità 7-8.

Come mai il 32nm e un 8150 a 1,5V a 3,6GHz mi sta sotto i 30° sotto carico, a 4,6GHz sta a 40° e tra 4,7-5GHz mi aumenta di 20°?


Risposta di Bt2

Perchè con BD sei al limite del silicio

E' questo il punto...
La quantità di transistor è di secondaria importanza, in primis perché oltre la metà sono rappresentati dalla cache, in secondo luogo perché BD spegne e accende parti del procio a seconda se sono utilizzate o meno (esempio Turbo su tutti i core)... Quindi un conto sono i transistor totali dell'architettura, un altro i transistor effettivi usati sotto carico.
Il Leakage è basso, perché comunque mi sembra sia di 10 volte più basso del 45nm che a sua volta era di 10-20 volte inferiore rispetto ad altri (e i 4 miliardi di transistor di un BD X16 a 2,5/3,1/3,5GHz dentro i 137W ne sono la prova).
Ma questo PP di 32nm non è in grado di salire in frequenza senza consumi esorbitanti, nonostante la miniaturizzazione, l'HKMG e l'ULK e tutte le migliorie di risparmio.
Un MC X12 ha forse anche più transistor di un 8150, con un 45nm liscio (step D1, senza low-k) eppure perde solamente 700MHz rispetto ad un 32nm, HKMG, ULK.

Ma poi è scontato anche per il fatto che AMD realizzerebbe un procio con 2 miliardi di transistor e pipeline lunghe se avesse giudicato a priori impossibile da portare a 4,5GHz almeno sul 32nm? Che sono, dementi? Il problema è se ci riusciranno in base alle loro aspettative, non che sia impossibile a priori, perché altrimenti non l'avrebbero fatto così.

FroZen
09-11-2011, 09:42
Riporto articolo interessante de "il punto informatico" su BD e Windows 8 beta e la diatriba scheduler.....

http://punto-informatico.it/3329436/PI/News/amd-bulldozer-un-test-windows-8-linux-scheduling.aspx

gianni1879
09-11-2011, 09:44
Ma infatti sottolineo che Piledriver viene dato al 10-15% della generazione precedente, ma un B3 ed un teorico 8170 non farebbero parte della generazione precedente? Mi sembra comunque scontato che una ditta non realizzi uno step ulteriore solamente per correggere lo yeld, perché a quel punto la spesa progettazione non varrebbe la candela rispetto a più proci a wafer, contando poi che resterà in commercio per 6 mesi al massimo, visto che Piledriver difficilmente arriverà dopo il 2Q 2012.

E' diverso pensare a Piledriver come ad un 10-15% maggiore rispetto ad un 8150 e pensare invece ad un Piledriver maggiore sempre del 10-15% rispetto ad un 8170 che di per sé sarebbe già superiore dell'8,4% rispetto all'8150, perché a quel punto il +10% minimo di piledriver corrisponderebbe al +20% minimo, ed il +15% massimo diventerebbe ad un 24,7%.

Non è che voglio assegnare a BD potenze chissà quali... però mi sembra altrettanto chiaro che guadagni sul 20-25% tra 2 release della stessa architettura sulla stessa miniaturizzazione del silicio dimostrano più che chiaramente che al momento l'8150 e 32nm non rappresentano di fatto le vere potenzialità dell'architettura, confermate poi anche dal fatto che B3 e non B3 in ogni caso il +10-15% di aumento in 3 versioni di Buldozer a seguire, porterebbero comunque un +33,1% minimo ed un 52% come massimo.

Sarebbe possibile questo incremento se l'architettura BD non fosse valida? Rimanendo sull'architettura Phenom II... si sarebbero potute raggiungere queste prestazioni? Allora se BD le può raggiungere, mi sembra più che scontato il motivo per il quale AMD dismette il K10 a favore di BD.

Poi chiaramente io concordo sul fatto che se B D necessita del doppio dei transistor di altri per arrivare a determinate potenze, è chiaro che l'architettura di per sé "è meno riuscita", ma questo è un discorso a parte... perché i proci, almeno per noi utilizzatori finali, non costano in base al numero dei transistor.
Se un procio AMD avesse 4 miliardi di transistor e 20 core con un consumo 100 e potenza 100 ed un altro prodotto avesse 1 core e 100 transistor ma fornirebbe la stessa potenza con lo stesso consumo allo stesso prezzo... a noi che cambia?
Paolo ma cosa vuoi che cambi a livello performance (IPC) tra uno step e l'altro? per cui dire che va +10% significa proprio quello, non riferito ad un modello specifico di cpu o di step.

Su un phenom su 32nm e 8core, probabilmente anche se a frequenza pari o leggermente inferiore ad un thuban di punta (1100t), correggendo ed ottimizzando un pòl'architettura, sicuramente si avrebbe avuto un boost di almeno un 30%. Ma poi si finiva lì e ci si ritrovava con un'architettura ferma e non più evolvibile. BD è pensato per il futuro, ma nessuno può dire ora come andrà e se sarà un progetto vincente o meno.

Per il resto eviterei di scrivere numeroni.

gianni1879
09-11-2011, 09:50
Te l'ha già detto Paolo, i transistor dissipano la tragrande maggioranza del calore nella commutazione tra uno stato l'altro. Deve essere ben chiaro questo concetto: Se la frequenza di base è di 3,6 GHz stai sicuro che mai e poi mai tutti i transistor commuteranno con quella frequenza.
E' vero che c'è una correlazione tra le frequenze di funzionamento del transistor e il consumo, ma la frequenza di funzionamento dei singoli transistor (che non ha un valore predefinito, ma medio) varia da architettura ad architettura

il numero di transistor di per sé non conta un tubo sui consumi e frequenze:
Fai il confronto tra Barton e k8, il primo ha circa 50 milioni di transistor il secondo 100, indovina chi lavorava a frequenze più elevate e allo stesso aveva un TDP inferiore (il PP è lo stesso).
* PS è chiaro che mediamente i transistor di k8 lavoravano ad una frequenza di clock inferiore a quella di k7, a dispetto della frequenza di sincronizzazione più elevata

d'accordo che il numero di transistor non è la base per i consumi in senso assoluto, ma conta come operano all'interno di un chip (tu stesso citi la frequenza media operativa). Ma dire che il numero di transistor non conta nulla a livello di consumi, non è affatto vero.

tuttodigitale
09-11-2011, 09:50
La tua affermzione: 'Ritornando ai transistor...beh dipendono come questo lavorano, un p4 aveva più transistor di un athlon xp eppure aveva una frequenza di lavoro del 50% più elevata' non è vera: era il barton che aveva + transistor del p4....Barton 54ml P4 43Ml.............
costa tanto googlare prima di postare?
Il P4 ha sempre avuto più transistor di athlon xp a parità di generazione
Certo se tu paragoni il P4 su 180nm con un athlon xp su 130....

d'accordo che il numero di transistor non è la base per i consumi in senso assoluto, ma conta come operano all'interno di un chip (tu stesso citi la frequenza media operativa). Ma dire che il numero di transistor non conta nulla a livello di consumi, non è affatto vero.
Infatti non ho scritto niente di tutto ciò.

il numero di transistor di per sé non conta un tubo sui consumi e frequenze
ovvero non si può pensare che tra una cpu senza cache l3 grande la metà di una che ne è provvista, consumi la metà...certo che si riducono i consumi, ma di un 10% non di più.
Perchè se così non fosse per ridare smalto a BD basterebbe eliminare la cache L3 (tralaltro non velocissima).

paolo.oliva2
09-11-2011, 09:51
1) leggende metropolitane: ieri ero con il phenom 1100T con boinc aperto (utilizzo a 100%) scansione antivirus attiva, lasciato aperto opera e posta elettronica e giocavo a battlefield 2...la macchina era tutto tranne che inginocchiata - Idem con 2600k;
2) se per te ottimizzarla vuol dire overclokkarla, trovami una cpu che salendo di clock non sale di performance :mc:
3) come fai a dire che AMD è al 75% di BD? Hai davanti a te i piani di sviluppo di Rory Read?? :mc:
4) non sto generalizzando: ti sto dicendo che è un'architetura che ha bisogno del doppio dei transistor per andare forse come gli altri per me è uno spreco di transistor...;
5) non cerco motivi alternativi aleatori...sto solo dicendo che, per mia esperienza personale, la scelta dei server non sempre è fatta sulla CPU + performante....parla con qualche commerciale di SUN o di HP e poi mi dirai.
Prima che uscisse si continuava a dire che sarebbe stata una CPU molto performante, adesso dopo che è uscito si continua a dire che sarà una CPU molto performante.....

1) Di, io ho un Thuban come il tuo, se lo carico come te, il mio è fermo. Come penso sia fermo quello di tutti tranne il tuo. Evitiamo di postare cose senza senso, dai.

2) Io non ho overcloccato un procio per far vedere che va di più, io ho overcloccato il procio alla frequenza con cui doveva essere commercializzato se il PP del 32nm avrebbe rispettato le aspettative. Forse non hai ancora compreso la logica in questo...

3) Guardati le slide AMD ufficiali. +10-15% ad ogni modello per 3 modelli.

4) Chi ha detto il contrario? Ho detto che se però consumi/prestazioni/costi d'acquisto fossero gli stessi, non vedo dov'è il problema.

5) Probabilmente lo dico perché non ci si baserà su SPI e giochi in CF di 3 schede video per valutare se è un procio da server valido, soprattutto senza S.O. Windows che al momento non lo gestisce al 100% e magari con compilatori che non lo penalizzano ulteriormente.

Non ha alcun senso giudicare un procio SERVER con proiezione desktop come non ha senso giudicare un procio desktop come si comporterà nei server.
Questo era stato abbondantemente detto quando dagli Opteron Phenom II si voleva intuire la potenzialità per gli stessi in desktop ed idem con gli Opteron X6 in visione Thuban desktop.

Io ti posso dire comunque che un Thuban X6 ha 9MB di L2/L3 e un 8150 ne ha 16MB. Nel desktop contano quasi nulla, nel server è una vita, non a caso TUTTE le versioni di punta server hanno normalmente più cache delle corrispondenti desktop.

gianni1879
09-11-2011, 10:00
Paolo se permetti, dire che la cache maggiore influenza le prestazioni è un pò riduttivo, bisogna vedere in che modo opera (+ o - efficiente). Perchè posso dirti che la cache di BD è estremamente lenta...

Gio_87
09-11-2011, 10:05
poi posto un bench di aida delle velocità della cache, diciamo che e lentina anche rispetto al thuban....

AceGranger
09-11-2011, 10:05
Cambiano gli SO, cambiano i compilatori, cambiano le tipologie di programmi.
Nei proci server conta la quantità di cache.
Quanta cache ha un 2600K? Un BD X8 ne ha 16MB... un BD X16 ne ha 32MB...


bè uno XEON ha 20 Mb di L3...

come SO e compilatori non mi farei troppe illusioni, il grosso del mercato XEON e Opteron sono piccoli Server e Workstation e si finisce quasi sempre su Win ;) e come nel caso dell'FX8150 non è che si puo guardare il bench specifico, va guardato nel suo insieme, poi ovvio che se in un determinato programma con linux andra sara spettacolare, bene, ma sara un risultato fine a se stesso, sara un caso su 100


Un Thuban questo non lo faceva...


si ma infatti il confronto è con gli Xeon non i vecchi Opteron;

l'8150, a parte bench isolati, si comporta mediamente, leggermente peggio del 2600K, e anche in multitasking non mi pare che l'8150 si comporti meglio; Con le CPU server le architetture sono le medesime e si duplicano nello stesso modo, il problema è che il gap di frequenza aumenta;


Tu consideri sempre il discorso prezzo...
Non capisco il perché allora un 8150 nel desktop non è preferibile al Thuban perché costerebbe molto di più e sarebbe preferibile solamente se costasse poco di più.
Un BD X16 costa di meno di MC X12 ma ugualmente non sarebbe acquistabile perché costando molto di meno, dovrebbe essere molto meno potente...

Cioè... modifichiamo i giudizi in base a come fa comodo?

allora con lo stesso metro, un 8150 non è comprabile

mmm qui non ti seguo;

rispetto a thuban per me BD è sempre preferibile; thuban nemmeno lo prendo in considerazione per i confronti, ok è la vecchia architettura e la si prende per fare i confronti sui miglioramenti "in casa", ma non è lui il concorrente; cosa fa in piu di thuban è una informazzione che lascia il tempo che trova, conta quello che fa in piu o in meno rispetto al concorrente !

il discorso del prezzo era semplicemente per dire che se l'Opteron avesse avuto assi nella manica e fosse andato di piu lo avrebbero prezzato in modo differente; per esempio lo avrebbero messo con un prezzo allineato al vecchio TOP gamma, visto che bene o male hanno sempre avuto quel range; che dia miglioramenti rilevanti a thuban lo do per scontato, quello che mi lascia perplesso è il prezzo del top gamma che secondo me non è di buon auspicio, rispetto agli Xeon.

gianni1879
09-11-2011, 10:09
cut


paolo ripeto e dico, non si può dire che AMD puntava nelle sue aspettative una cpu con un clock decisamente superiore per poi rendersi conto che non è possibile realizzarla, perchè a questo punto significa che qualcuno competente non ha tenuto conto di molti fattori.

E' una cpu con questo elevatissimo numero di transistor, non riesce ad eguagliare nella maggior parte dei test la concorrenza che ha una cpu decisamente più "piccola", significa qualcosa è andato storto a livello progettuale/realizzazione.

Chiudo quà, perchè davvero rigiriamo sempre sulle stesse cose.
Ci sono svariati articoli dove non danno le cause soltanto al pp.

jolly74
09-11-2011, 10:11
Ma infatti sottolineo che Piledriver viene dato al 10-15% della generazione precedente, ma un B3 ed un teorico 8170 non farebbero parte della generazione precedente? Mi sembra comunque scontato che una ditta non realizzi uno step ulteriore solamente per correggere lo yeld, perché a quel punto la spesa progettazione non varrebbe la candela rispetto a più proci a wafer, contando poi che resterà in commercio per 6 mesi al massimo, visto che Piledriver difficilmente arriverà dopo il 2Q 2012.

E' diverso pensare a Piledriver come ad un 10-15% maggiore rispetto ad un 8150 e pensare invece ad un Piledriver maggiore sempre del 10-15% rispetto ad un 8170 che di per sé sarebbe già superiore dell'8,4% rispetto all'8150, perché a quel punto il +10% minimo di piledriver corrisponderebbe al +20% minimo, ed il +15% massimo diventerebbe ad un 24,7%.

Non è che voglio assegnare a BD potenze chissà quali... però mi sembra altrettanto chiaro che guadagni sul 20-25% tra 2 release della stessa architettura sulla stessa miniaturizzazione del silicio dimostrano più che chiaramente che al momento l'8150 e 32nm non rappresentano di fatto le vere potenzialità dell'architettura, confermate poi anche dal fatto che B3 e non B3 in ogni caso il +10-15% di aumento in 3 versioni di Buldozer a seguire, porterebbero comunque un +33,1% minimo ed un 52% come massimo.

Sarebbe possibile questo incremento se l'architettura BD non fosse valida? Rimanendo sull'architettura Phenom II... si sarebbero potute raggiungere queste prestazioni? Allora se BD le può raggiungere, mi sembra più che scontato il motivo per il quale AMD dismette il K10 a favore di BD.

Poi chiaramente io concordo sul fatto che se B D necessita del doppio dei transistor di altri per arrivare a determinate potenze, è chiaro che l'architettura di per sé "è meno riuscita", ma questo è un discorso a parte... perché i proci, almeno per noi utilizzatori finali, non costano in base al numero dei transistor.
Se un procio AMD avesse 4 miliardi di transistor e 20 core con un consumo 100 e potenza 100 ed un altro prodotto avesse 1 core e 100 transistor ma fornirebbe la stessa potenza con lo stesso consumo allo stesso prezzo... a noi che cambia?

10% di prestazioni in più a parità di clock , perciò non conta na cippa l'8170 , perchè se andrà di più grazie alle sue frequenze , il piledriver di pari frequenza andrà di più del 10% come sul resto della lineup uscita , cosa aggiungi gli 8% in più da fare ?

gianni1879
09-11-2011, 10:14
poi posto un bench di aida delle velocità della cache, diciamo che e lentina anche rispetto al thuban....

più volte postato:

http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/6

Quindi il fatto di dire ha tanta cache, ma poi questa lavora "male".

paolo.oliva2
09-11-2011, 10:15
Riporto articolo interessante de "il punto informatico" su BD e Windows 8 beta e la diatriba scheduler.....

http://punto-informatico.it/3329436/PI/News/amd-bulldozer-un-test-windows-8-linux-scheduling.aspx

La review è fatta bene, comunque resta sempre il fatto che l'S.O. windows 8 è beta, e se è beta non possiamo considerarla finale (anche perchè altrimenti sarebbe già in commercio), e di qui considerarli definitivi come test/bench.
Peccato che non hanno incluso il Thuban nel test.

Pat77
09-11-2011, 10:25
Riporto articolo interessante de "il punto informatico" su BD e Windows 8 beta e la diatriba scheduler.....

http://punto-informatico.it/3329436/PI/News/amd-bulldozer-un-test-windows-8-linux-scheduling.aspx

Interessantissimo, finalmente qualcosa di concreto.
Come pensavo i vantaggi di windows 8 sono generalizzati, anzi mi sembra che a beneficiarne di più, in molti casi siano i phenom 2, dove intel è circa = a se stessa, comunque BD migliora un po' anch'esso.
Resta il problema delle performance single veramente fuori scala, dove è sempre ultimo, a volte di un abisso, e in quest'ambito windows 8 non fa differenza.

liberato87
09-11-2011, 10:44
Forse secondo me non ci rendiamo conto che la cpu ha circa 2 miliardi di transistor; ora mi chiedo come è possibile pensare che ancora un GHz in più possa far rientrare sempre nei 125W di tdp anche a processo maturo? Per me pensare ed affermare una cosa del genere è pura utopia. (scusate la franchezza) Ma rigirare ancora il discorso ed addossando la colpa al processo produttivo di GF, davvero mi sembra nascondere la verità ed aggrapparsi al surreale.

Per me il processo produttivo di GF non è affatto male come si vuol far credere, anzi se pensiamo che a questa frequenza e con tutti questi transistor la cpu rientra comunque in un tdp di "soli" 125W. Pensare che per avere BD "vero" bisogna aspettare finchè non guadagnino 1 GHz ancora, passeranno almeno una generazione di cpu.

L'architettura, sinceramente nessuno ha la sfera di cristallo e potrà prevedere se AMD intrapenderà la direzione corretta o meno. Su questa attualmente in produzione ci sono numerosi punti vincenti, ma ci sono altrettanti punti deboli. Ci sono molti articoli che ne parlano.

Piledriver viene dato a 10/15% rispetto alla precedente generazione, ossia a pari clock, non vedo cosa centri lo step delle cpu ed il modello della cpu. E sarebbe ridicolo pensare che l'aumento si basi solo sull'incremento della frequenza.

penso che questo post sia da mettere in prima pagina.

mi sembra un'analisi oggettiva e realistica.
anche io penso che il processo produttivo di gf non sia l'unica colpa (e sopratutto che non è semplice dire "basta che ci mettono 1ghz in più di frequenza nello stesso tdp, 1 ghz!" e ricordo, come ho fatto decine di volte, che anche charlie su semiaccurate (non esattamente l ultimo arrivato) in un articolo su bulldozer diceva appunto che

"The easy thing to do is blame Global Foundries for underdelivering on their 32nm process, but we don’t think that is accurate this time.
Interestingly, AMD insiders are also quick to point the finger at GloFo over Llano yields and problems, but none seem to be doing the same for Bulldozer.
Yields are said to be decent, and idle power is better than 45nm Phenoms, so the process looks to be OK. Power at load seems to be the more limiting factor, and that is likely a design issue, not a process one."


http://semiaccurate.com/2011/10/17/bulldozer-doesnt-have-just-a-single-problem/

e poi credo che appunto se migliorano le frequenze di un gigahertz per essere competitivi, è molto difficile che al contempo possano ridurre addirittura i consumi attuali (con 1ghz in meno appunto).

non sto dicendo che sia impossibile o impensabile ma secondo me è molto difficile altrimenti da giugno ad oggi qualcosa sarebbe cambiato, oppure a giugno davvvero la situazione era drammatica (tipo frequenze ancora più basse e peggiori o uguali consumi rispetto alle cpu presentate il 12), però se a giugno ci doveva essere il lancio allora se ne sarebbero dovuti accorgere per lo meno uno-due mesi prima no?

per questo mi permetto di essere un pò scettico su previsioni troppo ottimistiche tipo "basta 1ghz in più nello stesso tdp e ridurre i consumi".

Spitfire84
09-11-2011, 10:49
Riporto articolo interessante de "il punto informatico" su BD e Windows 8 beta e la diatriba scheduler.....

http://punto-informatico.it/3329436/PI/News/amd-bulldozer-un-test-windows-8-linux-scheduling.aspx

ottimo, i phenom II guadagnano parecchio in diverse situazione col nuovo scheduler di Win8...mi sa che rimarro col mio X3 720 @ X4 per un bel po'! :D

Cocco83
09-11-2011, 11:00
si ma infatti il confronto è con gli Xeon non i vecchi Opteron;



NON sono per niente d'accordo... chi ha server farm con proci OPTERON di certo non cambia schede madri e tutto il resto per passare al concorrente.... farebbe una spesa gigantesca.... quindi se esce l'architettura nuova compatibile con schede madri della precedente architettura e se quest'ultima dà vantaggi aggiorna.... Se poi parliamo di un'azienda con un server allora ti dò ragione.....


[CENTER]"The easy thing to do is blame Global Foundries for underdelivering on their 32nm process, but we don’t think that is accurate this time.
Interestingly, AMD insiders are also quick to point the finger at GloFo over Llano yields and problems, but none seem to be doing the same for Bulldozer.
Yields are said to be decent, and idle power is better than 45nm Phenoms, so the process looks to be OK. Power at load seems to be the more limiting factor, and that is likely a design issue, not a process one."


Che oltretutto è una notizia oramai datata da quasi un mese.... quindi siamo sempre lì a discutere di cose già dette da un pezzo.....

Per windows 8 non saprei ancora bene come inquadrarlo.... presumo e ipotizzo che lo sviluppo di questo sistema è nato cmq sia pensando ai processori K10 e intel attuali, non a BD... insomma BD è venuto fuori ora, ragion per cui ok win8 migliora la situazione generale e per alcune cose migliora anche BD, per altre non migliora.... quindi non lo ritengo un S.O. creato per far meglio con BD.... o che gli possa dare un reale vantaggio rispetto alla concorrenza.... oltretutto bisognerà vedere lo stesso comportamento di SB-E con win8 che sicuramente darà altra paga a BD....

AceGranger
09-11-2011, 11:14
NON sono per niente d'accordo... chi ha server farm con proci OPTERON di certo non cambia schede madri e tutto il resto per passare al concorrente.... farebbe una spesa gigantesca.... quindi se esce l'architettura nuova compatibile con schede madri della precedente architettura e se quest'ultima dà vantaggi aggiorna.... Se poi parliamo di un'azienda con un server allora ti dò ragione.....


si si, era un confronto fra architetture molto generale;

per la questione aggiornamento non lo darei poi cosi per scontato; in configurazioni dual socket la scheda madre incide per un valore di circa 400 euro contro un valore che va da 1000 a 2500 euro per una coppia di CPU... oltretutto la piattaforma attualme AMD lato server è a fine vita, mentre quella Intel è in uscita;

poi c'è da tenere in considerazione quale sara l'efficienza delle nuove piattaforme Xeon, perchè se manterranno il vantaggio che hanno nelle piattaforme desktop sara un fattore determiante che rendera sempre meno favorevole e persino deleterio l'upgrade da thuban a BD; es. mi immagiono una server farm per render che mantiene il gap di prestazioni/consumi delle versioni desktop...

poi ovviamente ogni caso è a se e dipende sempre dall'applicazione, ma come discorsi generali non darei cosi per scontato che sara sempre conveniente aggiornare a BD invece che saltare la sponda; cioè quindi se io dovessi scegliere fra spendere una media 1200-1500 euro per sole CPU o 1600-1900 per tutta la piattaforma guarderei bene le prestazioni, consumi e longevita della nuova piattaforma e mi fare 2 conti

papafoxtrot
09-11-2011, 11:14
Io non capisco neahe come fate...
Vi aspettavate un aumento di IPC del 10-15% rispetto a thuban, e l'IPC è sceso
Vi aspettavate un aumento di frequenza del 30%, che non c'è stato e ovviamente mai ci sarà
Vi aspettavate un aumento delle performance single thread, e sono calate disastrosamente
Vi aspettavate un calo di consumi e sono scresciuti
Vi aspettavate un 8170 a breve, e AMD l'ha cancellato dalle roadmap (notizia di lunedì).
Vi aspettavate aumenti di prestazioni associati a nuovi bios o a step produttivi migliori (B2F vs B2G docet...) e non successe nulla di tutto ciò...

Eppure di gente che vi metteva in guardia da queste illusioni ce n'era...
E ora?
Vi aspettate che piledriver migliori l'ipc del 10-15% (spero sia così, ma pipedriver arriverà al Q1 solo APU, le cpu di fascia alta arriveranno nel Q3, e fino allora ci sarà solo questo cesso di bulldozer
Vi aspettate che nei server bulldozer sia migliore, eppure ve lo dico, mi dispiace per voi e per AMD, ma rimarrete delusi. il confronto nehalem - k10 sui desktop e sui server era praticamente identico. Sarà una doccia fredda. Bulldozer X16, della nuova architettura avrà solo le inefficienti pipeline lunghe, e a causa dei tanti core non potrà sfruttarle per salire in frequenza oltre i limiti di altre architetture.
E il confronto server vede intel in vantaggio sia sulle frequenze, sia sulla cache, laddove AMD era superiore in entrambi, in ambito desktop (a pari rapporto tra numero di core, cioè il doppio per AMD).
Vi aspettate che il processo produttivo migliori e non vi rendete conto di quanto bulldozer sia una CPU complicata.
2 miliardi di transistor non vogliono dire solo consumi più alti (è innegabile; non è, ovviamente, l'unico dato influente, e magari neanche il più influente, ma conta; non entro nella discussione, il buon Gianni ha già parlato); vogliono dire anche chip più difficile, e dunque dalle rese più difficoltose...Die size elevata vuol dire più costi (o ci dimentichiamo di quando HD4870 ha vinto su GTX260 perché nvidia non poteva scendere di prezzo a causa dei suoi 530 mm^2 contro 250?)

Vi aspettate che il nuovo scheduler di Win 8 migliori le prestazioni, e non capite che forse Intel guadagnerà ancor di più. Oggi windows assegna i thread a caso, e succede che in bd se sono usati due thread ptorebbero finire nello stesso modulo, mentre sarebbero più veloci in due moduli diversi. Ma non vi rendete conto del fatto che in una CPU intel due thread possono finire nello stesso core, che li elabora uno alla volta? Se Win 8 aggiusterà questa cosa, un thread a core in Core i7 saran dolori! Il motivo per cui in single thread conviene disattivare HT è proprio questo! Solo che ormai non esistono più applicazioni single thread ad alte prestazioni, e così nemmeno i videogiocatori cercano CPU prive di esso o lo disattivano...

E quando una review vi mostra i risultati con windows 8....
....
che cosa dite??
La review è fatta bene, comunque resta sempre il fatto che l'S.O. windows 8 è beta, e se è beta non possiamo considerarla finale (anche perchè altrimenti sarebbe già in commercio), e di qui considerarli definitivi come test/bench....

Scusa paolo, ma questa è assurda davvero! Ma ammesso e non concesso che ci sia uteriore margine per migliorarlo, e che questo miglioramento avvantaggi Bulldozer, credi che lo scheduler di un sistema operativo venga riscritto a pochi mesi dalla release candidate e a neanche un anno dalla commercializzazione?
Davvero Paolo, hai una fiducia senza fine, un ottimismo disarmante.


Si, ma infatti il PP del 32nm è ottimo sino a frequenze attorno ai 3,1GHz (un BD X16 ha 4 miliardi di transistor per 137W TDP).
Il problema è che salendo di frequenza il 32nm AMD aumenta esponenzialmente i consumi.

E allora come li spieghi i 5GHz ad aria?
Andiamo Paolo, il 32nm guadagna frequenza e consumi come tutti gli altri processi! Il 45nm di thuban era un po' meglio per via del low-k, ma è inutile aspettarsi miracoli! Tutti i processori sono sempre stati efficientissimi a 3GHz e appena salivi cominciavano a consumare!
Che cosa vuoi che si aspettassero alla AMD? 3,6GHz a default e 5GHz in OC ad aria sono gran risultati per questo processo!
Non ha niente a che vedere con il 65nm di phenom I, li si che c'era un problema di PP! Ma li l'ipc c'era, solo che le CPU si sono fermate a 2,6GHz e con consumi esorbitanti! E ad aria a 3GHz era una sfida arrivarci!
Che confronto puoi fare tra quella situazione e quella attuale?


La quantità di transistor è di secondaria importanza, in primis perché oltre la metà sono rappresentati dalla cache, in secondo luogo perché BD spegne e accende parti del procio a seconda se sono utilizzate o meno (esempio Turbo su tutti i core)... Quindi un conto sono i transistor totali dell'architettura, un altro i transistor effettivi usati sotto carico.

Se togli la metà rappresentati dalla cache, rimane che BD ha il doppio di transistor dedicati ai core sia rispetto a thuban, sia rispetto a sandy bridge.
Il power gate non conta niente, perché stiamo analizzando i consumi in full load, dove ovviamente tutti i core sono attivi e a 3,6GHz. Anche il turbo è uno specchio per allodole, dato che interviene quando i core attivi sono pochi, e noi stiamo considerando il full load.


Il Leakage è basso, perché comunque mi sembra sia di 10 volte più basso del 45nm che a sua volta era di 10-20 volte inferiore rispetto ad altri (e i 4 miliardi di transistor di un BD X16 a 2,5/3,1/3,5GHz dentro i 137W ne sono la prova).
Ma questo PP di 32nm non è in grado di salire in frequenza senza consumi esorbitanti, nonostante la miniaturizzazione, l'HKMG e l'ULK e tutte le migliorie di risparmio.
Un MC X12 ha forse anche più transistor di un 8150, con un 45nm liscio (step D1, senza low-k) eppure perde solamente 700MHz rispetto ad un 32nm, HKMG, ULK.

Che discorso stupido...
Intanto il 32nm NON ha ULK, per cui non contarlo nel confronto con Magny cours.
In secondo luogo 700MHz sono un enormità. Fa conto che in 700MHz c'è la differenza tra un phenom II X4 e a 2,5GHz e un Phenom II X4 a 3,2GHz, che venivano commercializzati contemporaneamente uno a 45W e l'altro a 125W di tdp. Il 955 95W è uscito successivamente.

Inoltre come al solito confronti due processi produttivi con due architetture diverse... Il che è un'assurdità.


Cambiano gli SO, cambiano i compilatori, cambiano le tipologie di programmi.
Nei proci server conta la quantità di cache.
Quanta cache ha un 2600K? Un BD X8 ne ha 16MB... un BD X16 ne ha 32MB...

Abbiamo già discusso di questa cosa, possibile che tu non abbia ancora capito?
Da BD X8 a BD X16 la cache aumenta del 100%.
Da 2600k a Xeon E5 la cache aumenta del 150%.
Neanche l'avevo citata, credevo bastasse il divario di frequenza... Sei riuscito a citarla tu senza neanche vedere che questa considerazione avvalla la mia tesi anziché la tua.

PS: i SO cambiano solo in una nicchia.. La maggioranza degli xeon si vendono nel settore workstation... E dato che assemblo workstation ti dico:
Si usa Win 7 pro x64, e si usano software che entrano nelle recensioni che abbiamo visto... Dai motori di render, ai video editing e compositing, ai CFD ai FEM... I risultati, peraltro, sono sempre gli stessi.,.



Io con un 8150 sono arrivato a 15 applicazioni contemporaneamente attive ed il sistema risultava come fosse libero, potevo caricare Internet, potevo rispondere ai post, potevo lavorare.

Un Thuban questo non lo faceva...

Io ci sono arrivato col mio Core 2 duo P8400... E tra le 15 applicazioni c'erano 4 cad e un FEM...Evviva l'SSD, quando mi succede alzo a tre piani la barra delle applicazioni...
Non venire a dirmi che questa è una novità di bulldozer...

liberato87
09-11-2011, 11:14
Che oltretutto è una notizia oramai datata da quasi un mese.... quindi siamo sempre lì a discutere di cose già dette da un pezzo.....


infatti ho specificato che personalmente l ho fatto notare più e più volte.
sono cose già dette da un pezzo ma si continua a dire che la colpa è esclusivamente del pp che fa schifo perchè bd semplicemente già nel q2 doveva uscire a 4,5ghz def sempre nei 125w di tdp e 4,2ghz in 95w di tdp.
io non penso che si siano svegliati una mattina del q2 e si siano accorti che era colpa del processo produttivo.
quando è semplice pensare che il nuovo processo produttivo porta sempre problemi, così come una "nuova" architettura. se poi questa ha bisogno di altissime frequenze per rendere bene, è normale che si rischia ancora di più. e il rischio a volte paga e a volte no.

siamo sempre a discutere delle stesse cose perchè ormai il leitmotiv di questo thread è diventato

"non giudichiamo bd per come è ora. a breve verrà realizzato con un gigahertz in più di frequenza def sempre nei 125w di tdp e ridurranno pure i consumi."

sopratutto perchè amd di promesse ne ha fatte parecchie e dopo quasi un anno siamo ancora qui a vedere il futuro roseo "ma si , basta solo un gigahertz in più e ridurre i consumi".

Randa71
09-11-2011, 11:17
1) Di, io ho un Thuban come il tuo, se lo carico come te, il mio è fermo. Come penso sia fermo quello di tutti tranne il tuo. Evitiamo di postare cose senza senso, dai.

2) Io non ho overcloccato un procio per far vedere che va di più, io ho overcloccato il procio alla frequenza con cui doveva essere commercializzato se il PP del 32nm avrebbe rispettato le aspettative. Forse non hai ancora compreso la logica in questo...

3) Guardati le slide AMD ufficiali. +10-15% ad ogni modello per 3 modelli.

4) Chi ha detto il contrario? Ho detto che se però consumi/prestazioni/costi d'acquisto fossero gli stessi, non vedo dov'è il problema.

5) Probabilmente lo dico perché non ci si baserà su SPI e giochi in CF di 3 schede video per valutare se è un procio da server valido, soprattutto senza S.O. Windows che al momento non lo gestisce al 100% e magari con compilatori che non lo penalizzano ulteriormente.

Non ha alcun senso giudicare un procio SERVER con proiezione desktop come non ha senso giudicare un procio desktop come si comporterà nei server.
Questo era stato abbondantemente detto quando dagli Opteron Phenom II si voleva intuire la potenzialità per gli stessi in desktop ed idem con gli Opteron X6 in visione Thuban desktop.

Io ti posso dire comunque che un Thuban X6 ha 9MB di L2/L3 e un 8150 ne ha 16MB. Nel desktop contano quasi nulla, nel server è una vita, non a caso TUTTE le versioni di punta server hanno normalmente più cache delle corrispondenti desktop.

Guarda forse cose senza senso le posti tu....premesso che forse abbiamo un concetto di fermo diverso, ovvio che rallenta (ma per me fermo è quando la macchina non risponde più, ma non quando rallenta), ma di certo la macchina non era ferma....mai sentito parlare di priorità dei processi?
Mi parli di slide AMD???? Sto ancora ridendo per quello che avevano messo nelle slide in merito a BD....un conto sono le slide un conto gli action plan all'interno dell'azienda...
Sugli altri punti non ti rispondo, solo perchè non ho voglia di riempire il thread di contestazioni su contestazioni delle affermazioni...potrei andare avanti fino a domani.

Siamo ancora a quando si sosteneva che tutte le recensioni non erano giuste perchè dicevano che BD andava poco.....
Non c'è peggior sordo di chi non vuole sentire.
Fine polemica.

ciao

papafoxtrot
09-11-2011, 11:23
[QUOTE=Cocco83;36315383]NON sono per niente d'accordo... chi ha server farm con proci OPTERON di certo non cambia schede madri e tutto il resto per passare al concorrente.... farebbe una spesa gigantesca.... quindi se esce l'architettura nuova compatibile con schede madri della precedente architettura e se quest'ultima dà vantaggi aggiorna.... Se poi parliamo di un'azienda con un server allora ti dò ragione.....
QUOTE]

Si avanti... gli opteron magny cours hanno circa il 3% del mercato (assieme coi 4100 non arrivano al 5%).
Adesso cosa facciamo? pretendiamo di alimentare le vendite di Interlagos con gli utenti che hanno un Magny cours?
Se consideri l'installato attuale poi....
Il 3% sono state le vendite di magny cours quest'anno e l'anno scorso. 90% sono state, a naso, vendite di xeon 5000. Il restante sono opteron 6100 e xeon 3000 e 7000.
Se consideri l'installato attuale, molti avranno ancora opteron istambul (che non sono aggiornabili a bulldozer) o xeon precedenti al 5600...
E non tutti gli utenti dotati di un sistema opteron vorranno aggiornarlo...
Per cui gli utenti che hanno una scheda madre G34 e potrebberoa cquistare BD quanti sono?
Se va bene sno l'1% del mercato processori server dei mesi futuri.

Allora cosa facciamo? Compariamo BDal magny cours, perché tanto lo venderemo a chi ha un G34?
Il restante 99% degli acquirenti che non ha un G34 vorrà vederlo di fronte a xeon E5, ed è li che dobbiamo guardare cosa succede...

Randa71
09-11-2011, 11:35
[quote=Cocco83;36315383]NON sono per niente d'accordo... chi ha server farm con proci OPTERON di certo non cambia schede madri e tutto il resto per passare al concorrente.... farebbe una spesa gigantesca.... quindi se esce l'architettura nuova compatibile con schede madri della precedente architettura e se quest'ultima dà vantaggi aggiorna.... Se poi parliamo di un'azienda con un server allora ti dò ragione.....
QUOTE]

Cocco se posso permettermi, non troverai mai nessuno sistemista che ti cambia da un server una CPU con un'altra, su un server funzionante con applicazioni MISSION CRTICAL...nessuno si va a prendere questa responsabilità....
perchè un qualunque fermo macchina su certi server sono milioni che si fumano.....
Che poi AMD nei suoi filmati ti faccia vedere che stacca un vecchio opteron e mette il nuovo...è un'altra storia
Il cambio della sola CPU, come accade in ambito desktop, non è una pratica diffusa nel mondo server...a meno che ti si rompa nel qual caso ti montano la stessa.....
Ti posso assicurare che nella banca in cui ho lavorato per 8 anni, I SERVER se non c'erano problemi HW o di performance non venivano toccati...
e se hai l'esigenza di PERF > chiami il fornitore del SERVER....e non ho mai sentito HP o SUN che ti dicono ti cambio CPU e stop.....Anche perchè PERF > non significa solo CPU+veloce, ma tutto l'ecosistema
Ciao

Cocco83
09-11-2011, 11:36
oK sono d'accordo.... io ripeto che per me BD non è così fallimentare, l'unica cosa è che come ho già detto + volte per andare bene deve purtroppo campare sulle spalle degli altri, vedi ottimizzazioni software e quant'altro.... questa è la nota dolente del tutto.

paolo.oliva2
09-11-2011, 11:50
paolo ripeto e dico, non si può dire che AMD puntava nelle sue aspettative una cpu con un clock decisamente superiore per poi rendersi conto che non è possibile realizzarla, perchè a questo punto significa che qualcuno competente non ha tenuto conto di molti fattori.

E' una cpu con questo elevatissimo numero di transistor, non riesce ad eguagliare nella maggior parte dei test la concorrenza che ha una cpu decisamente più "piccola", significa qualcosa è andato storto a livello progettuale/realizzazione.

Chiudo quà, perchè davvero rigiriamo sempre sulle stesse cose.
Ci sono svariati articoli dove non danno le cause soltanto al pp.

Permettimi che comunque c'è differenza tra non poterla attuare su un 8150 e dare per scontato che non la potrà mai realizzare (aumento di frequenza).

Mi permetto di postare questo, aggiungendo il perché in passato riportavo temp basse.

Vedere 4,9GHz a 1,464V/1,512V con temperature rilevate di 27° (impianto a liquido), non mi davano certamente l'impressione di essere al limite con le temp.

http://www.pctunerup.com/up/results/_201111/th_20111109121736_Untitled49GHz1512Vquandofuoridaltest49.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111109121736_Untitled49GHz1512Vquandofuoridaltest49.jpg)

Però, alla fine di un test (quello sopra specificatamente), mi sono accorto che una volta terminato il carico mi comparve 49° di temp.
Questo mi ha fatto pensare che sotto carico le temp rilevate fossero differenti da quelle effettive per prb di refresh.
Allora che ho fatto per tagliare la testa al toro? Cinebench con affinità sul core 1-2-3-4-5-6 e CPU-Z/software a corredo della mobo su core 7 e 8.

Ecco quello che è saltato fuori (N.B. 6 core sotto carico, non 8)

4,6GHz 1,476V 39°
http://www.pctunerup.com/up/results/_201111/th_20111109122547_46GHz39.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111109122547_46GHz39.jpg)

4,7GHz 1,476V 39°
http://www.pctunerup.com/up/results/_201111/th_20111109122630_3947GHz.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111109122630_3947GHz.jpg)

4,8GHz 1,476V 40°
http://www.pctunerup.com/up/results/_201111/th_20111109122721_48GHz40.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111109122721_48GHz40.jpg)

4,9GHz 1,476V 40°
http://www.pctunerup.com/up/results/_201111/th_20111109122808_49GHz40.jpg (http://www.pctunerup.com/up/image.php?src=_201111/20111109122808_49GHz40.jpg)

A 5GHz ero sui 51° ed ha crashato quindi niente screen :D

Fino a 4,9GHz non ci sono variazioni di rilievo allo stesso Vcore, solamente 1°. A 5GHz con oltre 50° il sistema ha crashato (e con solamente 6 core sotto carico in più con Cinebench che non stressa pià di tanto il procio).
Questo dimostra il picco dei consumi che un procio operante a 4,5GHz def con frequenze turbo su tutti i core non avrebbe mai potuto e dovuto avere, in quanto sarebbe comunque dovuto rimanere dentro i 125W TDP e raffreddato ampiamente dal dissi stock.

E' più probabile che AMD abbia lavorato 5 anni sull'architettura BD sperando nei miracoli di un 32nm oppure è più probabile che il PP di un 32nm attuale sia inferiore al previsto? Perché vogliamo impostare allora il discorso che un BD a 4,5GHz def sarebbe impossibile? Se AMD ha sbagliato ne pagherà le conseguenze... però a nemmeno 1 mese dalla commercializzazione di BD e soprattutto senza neppure vagliare che vantaggio porterà lo step B3 e C0, mi sembra una considerazione un po' affrettata, dai.

Io non sto dicendo che domani ci sarà un 8250 a 5GHz def... però se domani AMD riuscirà a produrre un BD X8 a 4,5GHz def, mi sembra chiaro che discorsi tipo quantità di transistor, consumi e quant'altro, cadrebbero perché non avrebbero nessun valore. Quindi certamente il numero di transistor è un problema per arrivare a frequenze più alte, come anche se avesse avuto un IPC superiore il problema sarebbe stato inferiore.
Avere il 25% in meno di frequenza non è una paglia... BD può avere 1000 altri problemi, ma quello che al momento incide di più è l'avere un clock inferiore del 25% rispetto alle aspettative.
Non è un caso che un 8150@4,5GHz coincide quasi alla perfezione con le proiezioni del sito turco fatte a gennaio 2011 sulle performances di Buldozer.
Io penso che se AMD si trovasse nella condizione di non poter far nulla di più... probabilmente cambierebbe qualche cosa... ma non sembra che AMD abbia intenzione di fare quello che qui si dice che dovrebbe fare... quindi... vedremo.

affiu
09-11-2011, 12:04
una mia idea

che bulldozer non abbia rispecchiato quello che si attendeva(almeno facendo leva sulla carta) lo sappiamo già rifletterci sopra è anche opportuno,ma trovo strano che ancora oggi non si possa tentare di inquadrarlo in uno sceneraio ,puzzle piu grande,includendolo o facendolo relazionare al progetto APU futuro.

amd ha già iniziato dal basso (bobcat) e medio(llano) a risalire la china ,resta in cantiere il server e il desktop fascia alta che per TDP/POTENZA(intesa come potenza ibrida)ancora non puo essere proposta,ma verrà,e se tarda non mancherà

per il momento un componente mancava,e nonostante la potenza lo ha tirato fuori(comu jè jè adesso) ,ma la sua INCOMPLETEZZA piu grande,secondo me, è la componente gpu;

amd deve correre,nonostante deve ancora arrancare con il socket am3+ per un altro pò,ma deve aggiungere (in qualche modo) altri componenti per arrivare puntuale ai 20 nm : controller memory(tripel o quad), directx 12 ,poi forse verranno le ddr4 e altro, non sarà facile metterle assieme; intanto con trinity desktop siamo a frequenza ddr3 2133,e questo dimostra che amd ha in mente di INFILARE(negli anni) la componente gpu in maniera sempre BILANCIATA e CRESCENTE.ora bulldozer deve essere trasformato in modo da convergere verso un migliore APPROCCIO verso la gpu ,quindi soffermarsi a vedere il quadro di oggi(che condivido) per quello che è oramai penso che sia stato snocciolato nei suoi punti piu nascosti e la musica non cambia,ma spero che ARRIVINO puntuali ad APU ai 20 nm E forse dopo TUTTO CI POTRA'SEMBRARE PIU CHIARO

i numeri per fare palanchi:D con apu negli anni a venire e investirli sulla grande STELLA ci sono,gia da adesso penso che si possa dire.... :Prrr:

gianni1879
09-11-2011, 12:12
Paolo leggi bene però quello che si scrive, non ho detto che AMD non potrà mai aumentare le frequenze delle prossime cpu basate sulla medesima architettura bd, questo ovviamente avverrà, ma non aspettarti 1 GHz. E non ti aspettare che gli altri stiano a guardare... sia per frequenze sia per architettura (2700k, sb-e (mancano 5gg) e naturalmente i22nm che sono in arrivo)

E' più probabile che AMD abbia lavorato 5 anni sull'architettura BD sperando nei miracoli di un 32nm oppure è più probabile che il PP di un 32nm attuale sia inferiore al previsto?
sicuramente non penso ha lavorato sperando nei miracoli, ma sicuro non ha considerato tutte le ovvie variabili che un nuovo processo produttivo, nuova architettura avrebbe incontrato. E poi se vogliamo essere onesti un ipc per core inferiore alle aspettative non centra proprio nulla con il pp e con le frequenze.

Oggi puntare su architetture assetate di MHz secondo me è molto probabilmente una via errata, i tempi dei P4 sono finiti da un pezzo, ora si cerca maggiore efficienza per mm2.

Ma non capisco sul campo vga hanno fatto bene, quà pare che stiano facendo l'opposto...

Altra cosa visto che richiamate sempre l'overclock:
se a default la differenza tra un 2600k ed un 8150 è minima, anche con frequenze ben distanti tra loro, in overclock la situazione peggiora, dato che bene o male le due architetture raggiungono frequenze molto simili.

Phenomenale
09-11-2011, 12:47
Io non capisco neahe come fate...
Vi aspettavate un aumento di IPC del 10-15% rispetto a thuban, e l'IPC è sceso
Vi aspettavate un aumento di frequenza del 30%, che non c'è stato e ovviamente mai ci sarà
Vi aspettavate un aumento delle performance single thread, e sono calate disastrosamente
Vi aspettavate un calo di consumi e sono scresciuti
Vi aspettavate un 8170 a breve, e AMD l'ha cancellato dalle roadmap (notizia di lunedì).
Vi aspettavate aumenti di prestazioni associati a nuovi bios o a step produttivi migliori (B2F vs B2G docet...) e non successe nulla di tutto ciò...
Eppure di gente che vi metteva in guardia da queste illusioni ce n'era...
Eh, grazie, che che col "senno di poi" sono capaci tutti...
C'erano allora le slide di AMD e GF che mostravano mete ambiziose, le promesse di JF sul "+50% di prestazioni col 33% di core in più", il marchio FX, un clan-clan pubblicitario mai visto prima per una CPU (animazioni e fumetti con i ninja-FX, confezioni in metallo). Tutto faceva pensare alla "CPU della svolta", molto attesa dopo un architettura buona come il K10 ma ormai sfruttata all'ultima goccia e con un IPC non più competitivo. Chi lo pensava che al nuovo giro l' IPC sarebbe stato ancora peggio???

Non ci meritiamo questo panegirico, la domenica sera anch'io so dirti come si doveva giocare la schedina del totocalcio... :read:

Cocco83
09-11-2011, 12:49
una mia idea

che bulldozer non abbia rispecchiato quello che si attendeva(almeno facendo leva sulla carta) lo sappiamo già rifletterci sopra è anche opportuno,ma trovo strano che ancora oggi non si possa tentare di inquadrarlo in uno sceneraio ,puzzle piu grande,includendolo o facendolo relazionare al progetto APU futuro.

amd ha già iniziato dal basso (bobcat) e medio(llano) a risalire la china ,resta in cantiere il server e il desktop fascia alta che per TDP/POTENZA(intesa come potenza ibrida)ancora non puo essere proposta,ma verrà,e se tarda non mancherà

per il momento un componente mancava,e nonostante la potenza lo ha tirato fuori(comu jè jè adesso) ,ma la sua INCOMPLETEZZA piu grande,secondo me, è la componente gpu;

amd deve correre,nonostante deve ancora arrancare con il socket am3+ per un altro pò,ma deve aggiungere (in qualche modo) altri componenti per arrivare puntuale ai 20 nm : controller memory(tripel o quad), directx 12 ,poi forse verranno le ddr4 e altro, non sarà facile metterle assieme; intanto con trinity desktop siamo a frequenza ddr3 2133,e questo dimostra che amd ha in mente di INFILARE(negli anni) la componente gpu in maniera sempre BILANCIATA e CRESCENTE.ora bulldozer deve essere trasformato in modo da convergere verso un migliore APPROCCIO verso la gpu ,quindi soffermarsi a vedere il quadro di oggi(che condivido) per quello che è oramai penso che sia stato snocciolato nei suoi punti piu nascosti e la musica non cambia,ma spero che ARRIVINO puntuali ad APU ai 20 nm E forse dopo TUTTO CI POTRA'SEMBRARE PIU CHIARO

i numeri per fare palanchi:D con apu negli anni a venire e investirli sulla grande STELLA ci sono,gia da adesso penso che si possa dire.... :Prrr:

condivido in pieno e aggiungo che una simile constatazione l'avevo espressa anche io nel vecchio thread.... noi guardiamo all'oggi... loro guardano da qui ai 5 anni futuri.... e anche se qua si parla di BD come un progetto che fa cagare, a me pare che cmq sia AMD riesca e faccia introiti sempre maggiori e sempre + in positivo e questo è quello che conta per vedere come lavora un'azienda antipatie e fanboysmi a parte

liberato87
09-11-2011, 12:58
Eh, grazie, che che col "senno di poi" sono capaci tutti...


io penso che il suo post sia stato più nel senso che tante cose che sembravano plausibili non sono state realizzate, quindi dire con facilità "basta un gigahertz in più nello stesso tdp" non è una cosa così scontata .

appunto neanche io mi aspettavo ipc inferiore al k10 ma è stato così.
almeno io personalmente vedo più difficile alzare di un gigahertz la frequenza di un architettura così complessa da realizzare, piuttosto che aumentare l ipc dal k10 (che non è stato fatto).

ora ovviamente seugirà il commento di chi dice che l ipc non conta nulla, nel senso che è relativo perchè va moltiplicato per la frequenza (giustamente). e quindi si torna a dire che basta solo un gigahertz in più in 125w di tdp e che miglioreranno pure i consumi.

neanche la slide su piledriver è così ottimistica (non è che amd dice piledriver avrà 1ghz in più di frequenza e ridurremo pure i consumi, dice +10-15% di performance per watt)

paolo.oliva2
09-11-2011, 12:58
Io non capisco neahe come fate...
Vi aspettavate un aumento di IPC del 10-15% rispetto a thuban, e l'IPC è sceso
Vi aspettavate un aumento di frequenza del 30%, che non c'è stato e ovviamente mai ci sarà
Vi aspettavate un aumento delle performance single thread, e sono calate disastrosamente
Vi aspettavate un calo di consumi e sono scresciuti
Vi aspettavate un 8170 a breve, e AMD l'ha cancellato dalle roadmap (notizia di lunedì).
Vi aspettavate aumenti di prestazioni associati a nuovi bios o a step produttivi migliori (B2F vs B2G docet...) e non successe nulla di tutto ciò...

Eppure di gente che vi metteva in guardia da queste illusioni ce n'era...
E ora? ...cut...

Papafoxtrot, è il discorso di sempre.

Cerca di capirmi... quello che si è detto di BD è nato da dichiarazioni ufficiali di AMD o chi per lei le ha riferite, nessuno ha enfatizzato nulla.
AMD ufficialmente ha riferito che il clock di un 8150 è inferiore del 30% rispetto alle previsioni, come riportato da Anand.
Ed io ho postato l'8150 con un clock del 30% superiore.
AMD ha postato ufficialmente slide di incremento 10-15% di IPC/frequenza TDP a modello procio.
Ed io ho postato gli incrementi sulla base di un 8150.
Dove trovi qualcosa di sbagliato o non di pertinente?
Se poi in mezzo a questo ci trovi i soliti post che AMD non può guadagnare in frequenza perché è impossibile, che AMD non guadagnerà mai in IPC se non introduce l'SMT (AMD non introdurrà mai l'SMT dopo aver sempre detto che non lo ritiene una soluzione valida), poi mi pare chiaro che la gente si stufa a seguirlo e si lamenta che su 50 post 48 sono i soliti post sul più lungo e più corto.

Leggiti gli ultimi 50 post.

AMD non potrà mai aumentare il clock def con 2 miliardi di transistor.
AMD sta vendendo i proci server ma probabilmente perché ha fatto sconti sensazionali.
AMD non aumenterà mai l'IPC in maniera considerevole con l'architettura BD.

Ha senso tenere aperto un TH con questi soliti discorsi e sempre sulla base che chi crede che BD migliorerà è semplicemente un illuso?

paolo.oliva2
09-11-2011, 13:13
Paolo leggi bene però quello che si scrive, non ho detto che AMD non potrà mai aumentare le frequenze delle prossime cpu basate sulla medesima architettura bd, questo ovviamente avverrà, ma non aspettarti 1 GHz. E non ti aspettare che gli altri stiano a guardare... sia per frequenze sia per architettura (2700k, sb-e (mancano 5gg) e naturalmente i22nm che sono in arrivo)


Io non ho mai riferito (dopo che l'8150 l'ho testato :D ) che BD sarebbe in grado di competere con il 22nm, ma un discorso è il paragone a livello potenza massima, un altro è l'appetibilità sul mercato, che si fa sul prezzo/prestazioni.

sicuramente non penso ha lavorato sperando nei miracoli, ma sicuro non ha considerato tutte le ovvie variabili che un nuovo processo produttivo, nuova architettura avrebbe incontrato. E poi se vogliamo essere onesti un ipc per core inferiore alle aspettative non centra proprio nulla con il pp e con le frequenze.

Su questo non sono d'accordo.
Un Phenom I sul 65nm è stato portato sul 45nm con un incremento fino al 17,5% di IPC, eppure risulta praticamente un die-screen.
Possiamo sapere che il PP del 32nm non abbia obbligato a determinati compromessi?
Perché io ho postato che occando l'NB non ci sono aumenti considerevoli come con il Phenom II? Eppure, con il supporto a DDR3 ben più veloci dovrebbe essere il contrario. Perché l'OC NB ha problemi già con solamente +350MHz? Eppure in un Phenom II l'OC di 800MHz è prassi normale. A me questo mi suona come un campanello... stile compromesso architettura/silicio, tale ed uguale come successo con il Phenom I sul 65nm.

Oggi puntare su architetture assetate di MHz secondo me è molto probabilmente una via errata, i tempi dei P4 sono finiti da un pezzo, ora si cerca maggiore efficienza per mm2.
Si, ma per un giudizio finale bisogna per me comunque aspettare almeno Piledriver. Giudicare il tutto su un 8150 per me è prematuro.

Ma non capisco sul campo vga hanno fatto bene, quà pare che stiano facendo l'opposto...
Altra cosa visto che richiamate sempre l'overclock:
se a default la differenza tra un 2600k ed un 8150 è minima, anche con frequenze ben distanti tra loro, in overclock la situazione peggiora, dato che bene o male le due architetture raggiungono frequenze molto simili.
Ma l'overclock è molto più legato al PP del silicio più di qualsiasi altra cosa.
Considerare il risultato senza valutare che il 32nm Intel è prodotto a volumi da 3 anni ed AMD con BD da nemmeno 1 mese, non mi sembra equo.
Valutando che architetturalmente BD (pipeline lunghe, FO4, ecc. ecc.) dovrebbe avere un OC ben superiore ad un 2600K, cos'è che lo limita? L'esempio lo troviamo con l'OC estremo. Non so a quanto si porta un 2600K sotto azoto, ma BD credo che entro Natale i 9GHz saranno realizzati.

capitan_crasy
09-11-2011, 13:14
Forse secondo me non ci rendiamo conto che la cpu ha circa 2 miliardi di transistor; ora mi chiedo come è possibile pensare che ancora un GHz in più possa far rientrare sempre nei 125W di tdp anche a processo maturo? Per me pensare ed affermare una cosa del genere è pura utopia. (scusate la franchezza) Ma rigirare ancora il discorso ed addossando la colpa al processo produttivo di GF, davvero mi sembra nascondere la verità ed aggrapparsi al surreale.



Come disse Luigi Garzya sono "completamente d'accordo a metà con il mister":D
Quando uscirono i Phenom2 940 nessuno avrebbe scommesso su un modello con 3800Mhz di frequenza venduto a 125W per non parlare del progetto Thuban dove tutti guardavano al core Istanbul come massima espressione di un 6 core 45nm K10...
Non so dirti se entro la fine dei 32nm ci saranno BD con frequenza a 5.00Ghz con TDP 125W, ma non so perchè tale frequenza potrebbe essere possibile grazie anche al Utra low K...
Per quanto riguarda le latenze alte sulla cache L2/L3 di BD è una conseguenza di un progetto studiato per lavorare ad alte frequenze; sono sicuramente troppo alte (e lente) per il clock del 8150, speriamo che almeno il B3 ci porti al 8190 (si avete letto bene:cool: ) lasciando invariato il TDP 125W...

gianni1879
09-11-2011, 13:16
Papafoxtrot, è il discorso di sempre.

Cerca di capirmi... quello che si è detto di BD è nato da dichiarazioni ufficiali di AMD o chi per lei le ha riferite, nessuno ha enfatizzato nulla.
AMD ufficialmente ha riferito che il clock di un 8150 è inferiore del 30% rispetto alle previsioni, come riportato da Anand.
Ed io ho postato l'8150 con un clock del 30% superiore.
AMD ha postato ufficialmente slide di incremento 10-15% di IPC/frequenza TDP a modello procio.
Ed io ho postato gli incrementi sulla base di un 8150.
Dove trovi qualcosa di sbagliato o non di pertinente?
Se poi in mezzo a questo ci trovi i soliti post che AMD non può guadagnare in frequenza perché è impossibile, che AMD non guadagnerà mai in IPC se non introduce l'SMT (AMD non introdurrà mai l'SMT dopo aver sempre detto che non lo ritiene una soluzione valida), poi mi pare chiaro che la gente si stufa a seguirlo e si lamenta che su 50 post 48 sono i soliti post sul più lungo e più corto.

Leggiti gli ultimi 50 post.

AMD non potrà mai aumentare il clock def con 2 miliardi di transistor.
AMD sta vendendo i proci server ma probabilmente perché ha fatto sconti sensazionali.
AMD non aumenterà mai l'IPC in maniera considerevole con l'architettura BD.

Ha senso tenere aperto un TH con questi soliti discorsi e sempre sulla base che chi crede che BD migliorerà è semplicemente un illuso?

se mi indichi dove, perchè detta in questo modo sembra quasi un tentativo di flame...

Cerchiamo di essere realisti ed evitiamo di esagerare con la fantasia.
Sennò andiamo a pescare tutti i post relativi al vecchio thread dove appunto questa si sprecava.

paolo.oliva2
09-11-2011, 13:30
se mi indichi dove, perchè detta in questo modo sembra quasi un tentativo di flame...

Cerchiamo di essere realisti ed evitiamo di esagerare con la fantasia.
Sennò andiamo a pescare tutti i post relativi al vecchio thread dove appunto questa si sprecava.


5) sul discorso che istituzioni hanno ordinato 25000 CPU o quasi, magari è vero quello che è stato affermato, magari sono accordi commerciali, magari sono sconti che AMD ha fattodi + rispetto a Intel...etc etc etc


4) discorso PP se AMD in origine ha pensato di far andare 2MLRD di transistor a 5 ghz, penso che abbia fatto un grossolano errore di valutazione (lo dico per un'analisi della realtà..trovatemi CPU con 2 MLRD a quel clock, i Pwer7 ne hanno 1.2 a 45).....voi che dite che intel ha un PP bello collaudato, pensate che sia in grado di far muovere a 5 GHZ, 2 MLRD di transistor??? io dico di no....e vi dico di +: probabilmente i 32 di GF, rese produttive a parte, sono anche meglio di Intel, perchè riesce a far muovere il doppio dei transistor allo stesso clock e con un TDP accettabile.....


Per l'IPC, ti dovrei postare mezzo TH... visto che si è arrivati pure a postare che l'unica soluzione sarebbe l'SMT...

Tra parentesi... ti aggiungo pure questa frase, riferita al mio commento che un 8150 regge carichi più gravosi rispetto ad un Thuban

1) leggende metropolitane: ieri ero con il phenom 1100T con boinc aperto (utilizzo a 100%) scansione antivirus attiva, lasciato aperto opera e posta elettronica e giocavo a battlefield 2...la macchina era tutto tranne che inginocchiata - Idem con 2600k;

Se faccio tutta questa roba con un Thuban, se lancio un'applicazione faccio in tempo ad andare a prendere un caffé al bar e ritornare.

gianni1879
09-11-2011, 13:33
Io non ho mai riferito (dopo che l'8150 l'ho testato :D ) che BD sarebbe in grado di competere con il 22nm, ma un discorso è il paragone a livello potenza massima, un altro è l'appetibilità sul mercato, che si fa sul prezzo/prestazioni.
e quindi? veramente faccio fatica a capire che vuoi dire! anche noi stiamo provando un 8150, mica parlo per sentito dire...


Su questo non sono d'accordo.
Un Phenom I sul 65nm è stato portato sul 45nm con un incremento fino al 17,5% di IPC, eppure risulta praticamente un die-screen.
Possiamo sapere che il PP del 32nm non abbia obbligato a determinati compromessi?
Perché io ho postato che occando l'NB non ci sono aumenti considerevoli come con il Phenom II? Eppure, con il supporto a DDR3 ben più veloci dovrebbe essere il contrario. Perché l'OC NB ha problemi già con solamente +350MHz? Eppure in un Phenom II l'OC di 800MHz è prassi normale. A me questo mi suona come un campanello... stile compromesso architettura/silicio, tale ed uguale come successo con il Phenom I sul 65nm.
Phenom I vs Phenom II, i miglioramenti di ipc si sarebbero stati anche a parità di silicio, ripeto che centra il pp in questo? non credere che i miglioramenti ci sono stati perchè c'è stato il nuovo processo produttivo a portarlo, ma i miglioramenti ci sono stati perchè sono stati corretti e rivisti alcuni problemi nel Phenom I. Il fatto che occando NB e DRAM la cpu guadagni poco, ti dovrebbe invece far riflettere che c'è qualche collo di bottiglia nell'architettura oppure nel caso opposto che ram e nb sono ininfluenti in questa architettura. Come in altri casi stai paragonando due architetture diverse e non è detto che si comportano allo stesso modo.


Si, ma per un giudizio finale bisogna per me comunque aspettare almeno Piledriver. Giudicare il tutto su un 8150 per me è prematuro.
Se permetti il giudizio lo si da adesso, perchè primo non sai con quale cpu (o meglio come sarà l'architettura avversaria) si scontrerà piledriver.
Prematuro? un progetto che ha richiesto anni e anni di progettazione me lo chiami prematuro? e quanto bisogna aspettare ancora 10 anni per dare un giudizio?
Con piledriver ci saranno le nuove architetture intel (IB) che anche loro avranno guadagnato 10/15% di performance. Per cui non vedo cosa dovrebbe tantissimo cambiare dall'attuale situazione :(


Ma l'overclock è molto più legato al PP del silicio più di qualsiasi altra cosa.
Considerare il risultato senza valutare che il 32nm Intel è prodotto a volumi da 3 anni ed AMD con BD da nemmeno 1 mese, non mi sembra equo.
La concorrenza offre questo, non vedo perchè io non posso confrontare le altre cpu anche da questo punto di vista. Mi pare che alla fine non si possa più fare confronti togliendo questo e quell'altro...
Sarebbe stato meglio da parte di AMD provare un processo nuovo con alcune cpu piuttosto che fare il grande passo, come ha fatto intel, ma come ha fatto anche nel settore grafico con i 40nm di TSMC.

gianni1879
09-11-2011, 13:38
Per l'IPC, ti dovrei postare mezzo TH... visto che si è arrivati pure a postare che l'unica soluzione sarebbe l'SMT...

hai preso la singola parola e non l'intera frase. Il significato era altro.

per il discorso clock c'è scritto per i 5 GHz, non che non potrà mai aumentare la frequenza.


non si è mai detto che l'unica soluzione sarebbe l'SMT, ma era una soluzione che si poteva affiancare a quella attuale... che tra l'altro anche AMD stessa ha fatto una mezza dichiarazione in questo senso.
Se vuoi un aumento di ipc, devi mettere mano in maniera pesante all'architettura non certo che lo puoi fare con uno step nuovo...

pandyno
09-11-2011, 13:40
Ha senso tenere aperto un TH con questi soliti discorsi e sempre sulla base che chi crede che BD migliorerà è semplicemente un illuso?

Sempre stato simpatizzante AMD... la vuoi sapere tutta senza tecnicismi vari? sono passato dal K6-2 al PII per l'ultraHLE, il K6-2 era cloccato a 500mhz, il P2 era un 400 e mario64 e Zelda Ocarina of Time giravano malissimo su AMD e in full speed su Intel. Una settimana fa mi sono comprato metroid prime3, non avendo la console lo faccio girare su Dolphin... beh la sensazione è la stessa, Phenom II 3,8GHz, gira maluccio, se vai a vedere sul forum ufficiale i PII restituiscono le stesse prestazioni dei Q6600 @3,6Ghz e l'i5 2500 va "solo" il doppio. Ora possiamo parlare di ottimizzazioni, di AVX, di SSSE3 di compilatori e di altre cose simili. Io mi ricordo dei primi Athlon che macinavano da far paura, i primi duron altrettanto senza bisogno di ottimizzazioni. A tanti clienti con i quali c'era un rapporto di chiacchiera abbastanza "soft" ho consigliato di attendere l'uscita di BD; lascia da parte i sentimentalismi che come vedi io mi sono andato a beccare le ultime schede grafiche S3 con prestazioni ridicole per il gusto di provare, ma tu cosa consiglieresti ad una persona che vuole spendere 1500€ su di un pc gaming? A me le prestazioni di BD non bastano neanche a 5GHz.

Pat77
09-11-2011, 13:42
Paolo leggi bene però quello che si scrive, non ho detto che AMD non potrà mai aumentare le frequenze delle prossime cpu basate sulla medesima architettura bd, questo ovviamente avverrà, ma non aspettarti 1 GHz. E non ti aspettare che gli altri stiano a guardare... sia per frequenze sia per architettura (2700k, sb-e (mancano 5gg) e naturalmente i22nm che sono in arrivo)


sicuramente non penso ha lavorato sperando nei miracoli, ma sicuro non ha considerato tutte le ovvie variabili che un nuovo processo produttivo, nuova architettura avrebbe incontrato. E poi se vogliamo essere onesti un ipc per core inferiore alle aspettative non centra proprio nulla con il pp e con le frequenze.

Oggi puntare su architetture assetate di MHz secondo me è molto probabilmente una via errata, i tempi dei P4 sono finiti da un pezzo, ora si cerca maggiore efficienza per mm2.

Ma non capisco sul campo vga hanno fatto bene, quà pare che stiano facendo l'opposto...

Altra cosa visto che richiamate sempre l'overclock:
se a default la differenza tra un 2600k ed un 8150 è minima, anche con frequenze ben distanti tra loro, in overclock la situazione peggiora, dato che bene o male le due architetture raggiungono frequenze molto simili.

Non so se hai letto l'articolo di punto informatico, ma penso sia molto interessante anche per le prospettive, penso che ci sia veramente, in generale, sulle cpu amd, e mi sembra che i fatti lo provino, margine di ottimizzazione.
Non parlo solo dell'annosa vicenda del compilatore Intel, ma anche dello sfruttamento del multicore di windows 8, come si evince Debem mi sembra guadagni abbastanza, Bd un po' meno ma il guadagno c'è, mentre Intel mi sembra = a se stessa (già ottima peraltro).
Hai detto bene, bene o male arrivano tutti a 4,8 ghz, ed essendoci di base 300 Mhz di differenza in overclock BD paradossalmente perde appetibilità, ma è anche vero che prima AMD arrivava a 4 ghz e in ambito puramente multi non era competitiva come ora. Comunque staremo a vedere, l'unico modo di capire meglio la nuova architettura AMD sarà il tempo, ricordo che e8400 vs q8200 al tempo della review era un 30-35% in favore del primo il computo prestazionale, nel tempo si è ribaltato.

gianni1879
09-11-2011, 14:10
Non so se hai letto l'articolo di punto informatico, ma penso sia molto interessante anche per le prospettive, penso che ci sia veramente, in generale, sulle cpu amd, e mi sembra che i fatti lo provino, margine di ottimizzazione.
Non parlo solo dell'annosa vicenda del compilatore Intel, ma anche dello sfruttamento del multicore di windows 8, come si evince Debem mi sembra guadagni abbastanza, Bd un po' meno ma il guadagno c'è, mentre Intel mi sembra = a se stessa (già ottima peraltro).
Hai detto bene, bene o male arrivano tutti a 4,8 ghz, ed essendoci di base 300 Mhz di differenza in overclock BD paradossalmente perde appetibilità, ma è anche vero che prima AMD arrivava a 4 ghz e in ambito puramente multi non era competitiva come ora. Comunque staremo a vedere, l'unico modo di capire meglio la nuova architettura AMD sarà il tempo, ricordo che e8400 vs q8200 al tempo della review era un 30-35% in favore del primo il computo prestazionale, nel tempo si è ribaltato.
Guarda che dei miglioramenti di W8 già lo sapevo alla conferenza indetta da AMD nel briefing per la presentazione di BD, per cui nullla di nuovo. Poi ci sono diversi articoli in giro sullo scheduling di w8 vs w7.

Si ma dimenticate che anche la concorrenza si muove, non sta certo a guardare.

AceGranger
09-11-2011, 14:13
I server dual soket che ho in farm sono costati ~10.000€ l'uno. Dici mi conviene ricomprarli con due Xeon o cambiarci solo gli Opteron da 61xx a 62xx? ;)

1) bisogna vedere di preciso l'ambito e bisognera spettare i test
2) dipende cosa intendi con "ricomprarli"; cioè se fossi nella tua situazione e dai test vedessi che sarebbero piu convenienti gli xeon rispetto agli opteron, io, mi ricomprerei solo MB e CPU, mantenendo il resto invariato; pero io mi faccio assistenza da solo :D

Pat77
09-11-2011, 14:16
Guarda che dei miglioramenti di W8 già lo sapevo alla conferenza indetta da AMD nel briefing per la presentazione di BD, per cui nullla di nuovo. Poi ci sono diversi articoli in giro sullo scheduling di w8 vs w7.

Si ma dimenticate che anche la concorrenza si muove, non sta certo a guardare.

Quindi sapevi che Debem guadagna più di BD dal passaggio da windows 7 a windows 8? A me sembrava la prima volta che veniva fuori.

ivano444
09-11-2011, 14:21
phenom 2 rulez insomma:D

gianni1879
09-11-2011, 14:33
Quindi sapevi che Debem guadagna più di BD dal passaggio da windows 7 a windows 8? A me sembrava la prima volta che veniva fuori.

Deneb? :D

Io parlavo di BD, il confronto nel briefing era fatto verso se stesso.


Io ho sempre sostenuto che i miglioramenti ci sarebbero stati per tutte le cpu +- e non soltanto ristretto ad AMD.
Certo non mi aspettavo che un phenom guadagnasse così tanto, chissà se un 1100t si comportava allo stesso modo.

ivano444
09-11-2011, 15:07
Deneb? :D

Io parlavo di BD, il confronto nel briefing era fatto verso se stesso.


Io ho sempre sostenuto che i miglioramenti ci sarebbero stati per tutte le cpu +- e non soltanto ristretto ad AMD.
Certo non mi aspettavo che un phenom guadagnasse così tanto, chissà se un 1100t si comportava allo stesso modo.

pura curiosita....dato che deneb guadagna di più degli i7 su windows 8 riesce ad andare alla pari con i vecchi i7?

Pat77
09-11-2011, 15:15
Deneb? :D

Io parlavo di BD, il confronto nel briefing era fatto verso se stesso.


Io ho sempre sostenuto che i miglioramenti ci sarebbero stati per tutte le cpu +- e non soltanto ristretto ad AMD.
Certo non mi aspettavo che un phenom guadagnasse così tanto, chissà se un 1100t si comportava allo stesso modo.

Ulteriore conferma che è imho meglio aspettare 1070/90-pile e vedere come si sviluppa l'architettura, oltre che notare con piacere che in generale AMD è meglio supportata in Windows 8.

solidsnake87
09-11-2011, 15:53
Chiedo scusa perchè magari me lo sono perso... ma oggi non doveva esserci un importante dichiarazione del nuovo CEO AMD?

gianni1879
09-11-2011, 16:22
pura curiosita....dato che deneb guadagna di più degli i7 su windows 8 riesce ad andare alla pari con i vecchi i7?
non saprei, ma i miglioramenti evidenti sono in alcune applicazioni, bisognerebbe comunque verificare anche con la versione di w8 beta/retail

Ulteriore conferma che è imho meglio aspettare 1070/90-pile e vedere come si sviluppa l'architettura, oltre che notare con piacere che in generale AMD è meglio supportata in Windows 8.

come detto ora i confronti si fanno con quello che offre il mercato, domani quando ci sarà il nuovo step/architettura faremo i confronti con quello che ci sarà in quel periodo

papafoxtrot
09-11-2011, 16:24
Come disse Luigi Garzya sono "completamente d'accordo a metà con il mister":D
Quando uscirono i Phenom2 940 nessuno avrebbe scommesso su un modello con 3800Mhz di frequenza venduto a 125W per non parlare del progetto Thuban dove tutti guardavano al core Istanbul come massima espressione di un 6 core 45nm K10...
Non so dirti se entro la fine dei 32nm ci saranno BD con frequenza a 5.00Ghz con TDP 125W, ma non so perchè tale frequenza potrebbe essere possibile grazie anche al Utra low K...
Per quanto riguarda le latenze alte sulla cache L2/L3 di BD è una conseguenza di un progetto studiato per lavorare ad alte frequenze; sono sicuramente troppo alte (e lente) per il clock del 8150, speriamo che almeno il B3 ci porti al 8190 (si avete letto bene:cool: ) lasciando invariato il TDP 125W...
Si capitano. Però devi considerare che il 940 partiva da 3GHz, e il 980 è arrivato a 3,8. Allo stesso modo si partiva da 3GHz 4 core e si è arrivati a 6 core 3,3GHz. Sono tutte frequenze normali.
Personalmente trovo molto più credibile salire da 3 a 3,8GHz che salire da 3,6 a 4,5GHz, per di più con una CPU così grossa.
Tra l'altro anche aumentando la frequenza fino ai 4,5GHz, potremmo pareggiare i conti con un 2700k, eventualmente anche essere lievemente superiore in multi threading.
Ma rimarrebbero sempre prestazioni infime in single thread (giacché è impossibile aspettarsi un turbo a 6GHz), e un TDP molto alto.
Per cui anche qualora un improbabile 8190 ci arrivasse, non sarebbe ancora riuscito a colmare il gap con un core i7 2700k, e contemporaneamente avrebbe raggiunto a malapena (e neanche del tutto, secondo me) un 980x che è stato presentato a marzo 2010.

Ora però ho deviato da ciò che volevo dire, e cioè che come al solito l'aumento di frequenza richiede un aumento molto più che lineare del consumo.
Per cui quell'eventuale budget di consumo dato da un'ottimizzazione del silicio e/o dell'architettura, può essere usato in modo più proficuo aumentando il numero di core, il che, provoca un aumento meno che lineare del consumo.
Insomma se hai 6 core a 3GHz e vuoi crescere le prestazioni del 33%, andare da 3 a 4GHz comporta un consumo molto maggiore che muoversi da 6 a 8 core. Certo la seconda mossa costa di più perché devi riprogettare il chip e questo sarebbe più grande...

Insomma è evidente come non basti un aumento di frequenza a rendere bd un processore decente (al di la del prezzo basso). E d'altro canto questo aumento di frequenza richiede tempo, non è disponibile ora, per cui il ritardo continua ad aumentare.

Eh, grazie, che che col "senno di poi" sono capaci tutti...
C'erano allora le slide di AMD e GF che mostravano mete ambiziose, le promesse di JF sul "+50% di prestazioni col 33% di core in più", il marchio FX, un clan-clan pubblicitario mai visto prima per una CPU (animazioni e fumetti con i ninja-FX, confezioni in metallo). Tutto faceva pensare alla "CPU della svolta", molto attesa dopo un architettura buona come il K10 ma ormai sfruttata all'ultima goccia e con un IPC non più competitivo. Chi lo pensava che al nuovo giro l' IPC sarebbe stato ancora peggio???

Non ci meritiamo questo panegirico, la domenica sera anch'io so dirti come si doveva giocare la schedina del totocalcio... :read:

Ciò che intendevo dire è che l'anno scorso questo thread (il suo predecessore) era pieno di aspettative, e a volte queste erano evidentemente mirabolanti.
Ricordo di aver lasciato il thread dopo che mi era stato dato del pessimista e fanboy di intel per aver ritenuto che la frequenza di BD X8 sarebbe stata tra i 3,5 e i 3,8GHz, assieme ad un aumento dell'IPC che andava dal +0% al +10%.
Ma questo è niente, è ancora perdonabile, perché appunto c'era molta carne al fuoco.
Ricordo ancora Paolo che vedeva intel in grossa difficoltà perché non in grado di rispondere efficacemente a bulldozer, e con un processo produttivo costantemente inferiore e sempre più costoso... Eppure oggi dice che il 32nm di intel è rodato (l'anno scorso diceva che non poteva più migliorare) mentre quello AMD è acerbo....

Tutto questo dovrebbe avere insegnato qualcosa agli utenti... Se non altro a prendere con le dovute cautele le dichiarazioni, spesso neanche del tutto ufficiali...
Invece ancora oggi qualcuno si aspetta frequenze mirabolanti e perfino patch miracolose. Questa primavera c'era chi diceva che il miglioramento del BIOS non avrebbe salvato bulldozer, chi diceva che lo step produttivo ormai era quello... Eppure non gli si è creduto... Eccolo qua BD.
Ma perché ora non si è imparato? Io stesso mi aspettavo un IPC almeno uguale a quello di thuban e sono rimasto deluso, delusissimo. Perché qui non si vuole ammettere la totale disfatta e ci si nasconde dietro processi produttivi sotto tono, scheduler innovativi e test sui server in grado di capovolgere la situazione?

Peraltro dico un'ultima cosa... Bulldozer va un po' meglio di thuban. Magny cours aveva il doppio dei core e un 30% di frequenza in meno rispetto a thuban. Interlagos avrà il doppio dei core e una frequenza inferiore del 30% (di più in realtà) rispetto a Magny cours...
Come volete che vada bulldozer in server? Andrà un po' più di magny cours! E dato che quest'ultimo era intrigato a stare dietro a uno Xeon a 6 core, bulldozer sarà, se tutto va bene, intrigato a competere con uno xeon E5 a 6 core.

blackshard
09-11-2011, 17:07
Un Phenom I sul 65nm è stato portato sul 45nm con un incremento fino al 17,5% di IPC, eppure risulta praticamente un die-screen.


Questo non è assolutamente corretto. I core dei phenom I sono quasi identici ai core dei Phenom II. Ci sono state delle piccolissime correzioni, praticamente ininfluenti per quanto riguarda le prestazioni, e il passaggio da 2 a 6 Mb di cache L3.

L'IPC base delle unità esecutive non è cambiato di una virgola.

liberato87
09-11-2011, 17:51
http://sites.amd.com/us/business/promo/server/Pages/ready-solutions.aspx

paolo.oliva2
09-11-2011, 17:57
Come disse Luigi Garzya sono "completamente d'accordo a metà con il mister":D
Quando uscirono i Phenom2 940 nessuno avrebbe scommesso su un modello con 3800Mhz di frequenza venduto a 125W per non parlare del progetto Thuban dove tutti guardavano al core Istanbul come massima espressione di un 6 core 45nm K10...
Non so dirti se entro la fine dei 32nm ci saranno BD con frequenza a 5.00Ghz con TDP 125W, ma non so perchè tale frequenza potrebbe essere possibile grazie anche al Utra low K...
Per quanto riguarda le latenze alte sulla cache L2/L3 di BD è una conseguenza di un progetto studiato per lavorare ad alte frequenze; sono sicuramente troppo alte (e lente) per il clock del 8150, speriamo che almeno il B3 ci porti al 8190 (si avete letto bene:cool: ) lasciando invariato il TDP 125W...

Azzo, 8190? :eek:

Se l'8170 doveva essere un 3,9/4,2/4,5GHz rispetto all'8150 3,6/3,9/4,2GHz, l'8190 dovrebbe essere 4,2/4,5/4,8GHz? :eek:

Ne sai qualche cosa di più a riguardo? Mi interesse non poco upgradare a questo B3.

capitan_crasy
09-11-2011, 18:06
Si capitano. Però devi considerare che il 940 partiva da 3GHz, e il 980 è arrivato a 3,8. Allo stesso modo si partiva da 3GHz 4 core e si è arrivati a 6 core 3,3GHz. Sono tutte frequenze normali.
Personalmente trovo molto più credibile salire da 3 a 3,8GHz che salire da 3,6 a 4,5GHz, per di più con una CPU così grossa.

Scusa ma che significa normale???
Il K10 non aveva mai raggiunto una frequenza di 3.00Ghz prima dei 45nm e ti ricordo che il 9950 aveva una frequenza di clock pari a 2.60Ghz con un TDP a 140W.
Le frequenze sono date dal silicio e dall'architettura della CPU e non dalla normalità dei 3.0Ghz che per altro per i 65nm erano una frequenza decisamente sopra alle righe...

Tra l'altro anche aumentando la frequenza fino ai 4,5GHz, potremmo pareggiare i conti con un 2700k, eventualmente anche essere lievemente superiore in multi threading.
Ma rimarrebbero sempre prestazioni infime in single thread (giacché è impossibile aspettarsi un turbo a 6GHz), e un TDP molto alto.
Per cui anche qualora un improbabile 8190 ci arrivasse, non sarebbe ancora riuscito a colmare il gap con un core i7 2700k, e contemporaneamente avrebbe raggiunto a malapena (e neanche del tutto, secondo me) un 980x che è stato presentato a marzo 2010.

Mettiamo pure una pietra tombale sul single core BD, se vogliamo parlare di qualcosa di concreto dobbiamo analizzare le prestazioni sul modulo ma paragonare un single core BD come se fosse un K10 allora abbiamo sbagliato architettura (mi sono perso qualcosa oppure la miriade di post dove BD era un mezzo 8 core sono stati cancellati???)...


Insomma è evidente come non basti un aumento di frequenza a rendere bd un processore decente (al di la del prezzo basso). E d'altro canto questo aumento di frequenza richiede tempo, non è disponibile ora, per cui il ritardo continua ad aumentare.

Ma anche no dannazione...
Continui a considerare un BD come se fosse un evoluzione del K10...
Latenze alte sulle cache L2/L3 (al di la della lentezza) e pipeline più alte diminuiscono IPC ma aumentano considerevolmente le possibilità del clock alto; chiaramente bisogna avere a rimorchio un silicio che possa stare al passo...
Oggi è questa la chiave di volta e il B2 è appena sufficiente per queste CPU vediamo cosa farà il B3 e le future evoluzioni del 32nm...

paolo.oliva2
09-11-2011, 19:56
Questo non è assolutamente corretto. I core dei phenom I sono quasi identici ai core dei Phenom II. Ci sono state delle piccolissime correzioni, praticamente ininfluenti per quanto riguarda le prestazioni, e il passaggio da 2 a 6 Mb di cache L3.

L'IPC base delle unità esecutive non è cambiato di una virgola.
Guarda, io ho avuto sia il 9950 che il 9850, li ho occati e ottimizzati entrambi.
Il Phenom I era come dire compresso in un range limitato, tipo OC frequenza (max 3,415GHz), tipo OC NB... sinceramente non me lo ricordo... ma il fatto che occare l'NB sul Phenom II incrementava le prestazioni, è scappato fuori appunto sul Phenom II e non mi sembra una eredità del Phenom I.

Io riporto le mie impressioni a pelle... e dico che con l'8150 mi sembra di essere in una gabbia tale e quale quella che aveva il Phenom I.

L'8150 ha come delle fascie di frequenza dove se occhi l'NB questa rende, e delle fascie dove non rende e hai il procio instabile.
Io con il Thuban posso occare l'NB a 2,8GHz dai 2GHz iniziali e assegnarci 1,2V al posto di 1,165V def. Perché in BD occare l'NB a più di 350MHz perdi in prestazioni? In un Phenom II anche se sei a def e l'occhi a 3GHz, al massimo non guadagno ma perdere mai. Perché in un 8150 per 400MHz in più di NB bisogna dare addirittura 1,450V rispetto a 1,165V def?

Capiscimi, a me non importa nulla dire che mi sembra ingabbiato il procio o meno...
Lo sai cosa potrebbe risolvere i miei dubbi? Un 8170/8190 B3. Io sono convinto che l'aumento di frequenza def equivale a dire che parte dei problemi sul silicio sarebbero stati risolti e ci scommeterei che un B3 accetterà l'OC all'NB molto meglio di un B2 e apporterà più vantaggi rispetto ad un B2.

Magari faccio fatica a spiegarmi... ma quando un procio è in perfetta salute, puoi sforare a destra e a sinistra i parametri/frequenze che ha a def. Quando invece ti ritrovi un procio che come incrementi di poco alcune parti diventa instabile, vuol dire che qualche cosa dentro il procio è tirata ed al limite. E' questo il punto... se tirata ed al limite, anche se sulla carta non può esserci nessuna differenza, in realtà non è così. Questa è l'impressione che ho con un 8150. Poi vedremo se la mia sensazione era sbagliata o meno.

Mister D
09-11-2011, 20:17
Ciao,
volevo dire la mia avvalorando la tesi sia di bjt2 sia del buon capitano sia di una testata giornalistica come anadatech.
Il phenomII 940 step c2 aveva 125 watt di tdp a 3,0 GHz con FO4 di circa 22.
http://products.amd.com/en-us/DesktopCPUDetail.aspx?id=509&f1=AMD+Phenom%E2%84%A2+II+X4&f2=940&f3=3000&f4=512&f5=AM2%2b&f6=C2&f7=45nm+SOI&f8=125+W&f9=3600&f10=False&f11=True&f12=True
AMD ha deciso di diminuire il FO4 a 17 per buldozer. 17/22-1=-22% circa a cui, se non ho capito male io, dovrebbe corrispondere un aumento della frequenza del 22%.
Il fx4100 è 3600 per 95 watt.
3000*1,22=3660 un ipotetico processore con FO4 a 17 sul 45 nm avrebbe dovuto avere grosso modo 3,6 GHz consumando 125 watt. Ovviamente l'ipc, senza toccare niente nell'architettura per cercare di recuperare il calo intrinseco di una pipeline più lunga, sarebbe stato minore. Ma ora lo lascio perdere perché non è quello che voglio dimostrare.
Bene ora arriviamo alle famose dichiarazioni di GF: 40% in più di frequenza a parità di tdp o -50% di tdp a parità di frequenza passando da 45nm a 32nm.
Ecco mi sembra palese che da 125 a 95 non c'è il -50% sperato ma molto meno, solo il -24%.
E questo senza considerare che in BD c'è il front-end condiviso, la metà delle unità FP a parità di unità int che aiuta a contenere i consumi. Da questo mi pare palese che il silicio sia sotto le aspettative.

EDIT : Per chi non si aspetta che da 3,6 del fx8150 si possa arrivare a 4,5, bisogna considerare che sono "solo" +900 Mega rispetto ai +800 guadagnati sul 45 con un archiettura con FO4 più alto. Io mi aspetterei 800*1,22= 976 Mega considerando il guadagno di frequenza ottenibile solo con il FO4 più basso e considerando che il CTI sia uguale nel tempo tra il 32 e il 45. Ovviamente così non sarà (in riferimento allo stesso tempo di incremento per ottenere gli 800 mega sul 45 nm) ma il problema sta che cmq quelle frequenze saranno raggiunte in ritardo. E non basteranno. Per quello ho già detto tempo fa che mi aspetto che amd con piledriver faccia un po' di pulizia nel design (es i 4 link HTT che non servono nel desktop) e che metta a posto l'unità BP che con un architettura a pipe più lunga serve eccome.
Però di base io sono convinto che l'architettura ci sia, il problema è che semplicemente è che amd non si aspettava un silicio così deludente, visto che GF aveva fatto delle dichiarazioni precise che non ha mantenuto.

troppotardi
09-11-2011, 22:18
come si posiziona l'fx8150 rispetto a i7-2600k???

:cool:

xage
09-11-2011, 22:48
come si posiziona l'fx8150 rispetto a i7-2600k???

:cool:

puoi trovare diverse recensioni che vedono a confronto il 2600k e l'8150, l'i7 ne esce decisamente meglio per via del ST più ottimizzato

ozlacs
09-11-2011, 22:56
AMD’s “Project Win” Strategy

http://www.xbitlabs.com/news/cpu/display/20111109134220_AMD_s_Project_Win_Strategy_to_Remain_Mystery_for_Three_Months.html

ma non si portano sfiga da soli a scegliere sempre paroloni per i nomi delle loro robe? :stordita:

zip87
09-11-2011, 23:18
Alla luce di tutte le considerazioni fatte fin'ora, secondo voi è possibile rispondere a questa semplice domanda:
-Ad oggi chi avrebbe vantaggio ad acquistare, o comunque, chi potrebbe preferire una piattaforma AMD con FX 8150 invece che una piattaforma Intel con core i7 2600, considerando che il costo è molto simile?

carlottoIIx6
09-11-2011, 23:23
AMD’s “Project Win” Strategy

http://www.xbitlabs.com/news/cpu/display/20111109134220_AMD_s_Project_Win_Strategy_to_Remain_Mystery_for_Three_Months.html

ma non si portano sfiga da soli a scegliere sempre paroloni per i nomi delle loro robe? :stordita:

speriamo che amd non diventi esclusivamente bobcat :cry:

Randa71
09-11-2011, 23:24
Alla luce di tutte le considerazioni fatte fin'ora, secondo voi è possibile rispondere a questa semplice domanda:
-Ad oggi chi avrebbe vantaggio ad acquistare, o comunque, chi potrebbe preferire una piattaforma AMD con FX 8150 invece che una piattaforma Intel con core i7 2600, considerando che il costo è molto simile?


per me ad oggi nessun vantaggio ad acquistare BD al posto di SB.

paolo.oliva2
09-11-2011, 23:29
Ciao,
volevo dire la mia avvalorando la tesi sia di bjt2 sia del buon capitano sia di una testata giornalistica come anadatech.
Il phenomII 940 step c2 aveva 125 watt di tdp a 3,0 GHz con FO4 di circa 22.
http://products.amd.com/en-us/DesktopCPUDetail.aspx?id=509&f1=AMD+Phenom%E2%84%A2+II+X4&f2=940&f3=3000&f4=512&f5=AM2%2b&f6=C2&f7=45nm+SOI&f8=125+W&f9=3600&f10=False&f11=True&f12=True
AMD ha deciso di diminuire il FO4 a 17 per buldozer. 17/22-1=-22% circa a cui, se non ho capito male io, dovrebbe corrispondere un aumento della frequenza del 22%.
Il fx4100 è 3600 per 95 watt.
3000*1,22=3660 un ipotetico processore con FO4 a 17 sul 45 nm avrebbe dovuto avere grosso modo 3,6 GHz consumando 125 watt. Ovviamente l'ipc, senza toccare niente nell'architettura per cercare di recuperare il calo intrinseco di una pipeline più lunga, sarebbe stato minore. Ma ora lo lascio perdere perché non è quello che voglio dimostrare.
Bene ora arriviamo alle famose dichiarazioni di GF: 40% in più di frequenza a parità di tdp o -50% di tdp a parità di frequenza passando da 45nm a 32nm.
Ecco mi sembra palese che da 125 a 95 non c'è il -50% sperato ma molto meno, solo il -24%.
E questo senza considerare che in BD c'è il front-end condiviso, la metà delle unità FP a parità di unità int che aiuta a contenere i consumi. Da questo mi pare palese che il silicio sia sotto le aspettative.

Poi qualcuno non si aspetta che da 3,6 del fx8150 non si possa arrivare a 4,5. Cioè +900 Mega rispetto ai +800 guadagnati sul 45 con un archiettura con FO4 più alto. Io mi aspetterei 800*1,22= 976 Mega considerando il guadagno di frequenza ottenibile solo con il FO4 più basso e considerando che il CTI sia uguale nel tempo tra il 32 e il 45. Ovviamente così non sarà, ma quelle frequenze saranno raggiunte, il problema che saranno raggiunte in ritardo. E non basteranno. Per quello ho già detto tempo fa che mi aspetto che amd con piledriver faccia un po' di pulizia nel design (es i 4 link HTT che non servono nel desktop) e che metta a posto l'unità BP che con un architettura a pipe più lunga serve eccome.
Però di base io sono convinto che l'architettura ci sia, il problema è che semplicemente è che amd non si aspettava un silicio così deludente, visto che GF aveva fatto delle dichiarazioni precise che non ha mantenuto.

Forse hai perso la notizia che il B3 non solo permetterà l'8170, ma pure l'8190.

Se i vari tagli di frequenza fossero gli stessi dell'8150 3,6GHz def, 3,9GHz turbo su tutti i core e 4,2GHz massima frequenza Turbo su 4 core, dovremmo avere:

8170 3,9GHz def, 4,2GHz turbo su tutti i core e 4,5GHz massima frequenza Turbo su 4 core.

8190 4,2GHz def, 4,5GHz turbo su tutti i core e 4,8GHz massima frequenza Turbo su 4 core.

Su 900MHz di disavanzo, AMD avrebbe recuperato ben 600MHz sempre sullo step BXX.
Questo fa ben sperare sullo step C.

blackshard
09-11-2011, 23:37
Guarda, io ho avuto sia il 9950 che il 9850, li ho occati e ottimizzati entrambi.
Il Phenom I era come dire compresso in un range limitato, tipo OC frequenza (max 3,415GHz), tipo OC NB... sinceramente non me lo ricordo... ma il fatto che occare l'NB sul Phenom II incrementava le prestazioni, è scappato fuori appunto sul Phenom II e non mi sembra una eredità del Phenom I.

Si, ma per definizione l'IPC non dipende dal clock. L'IPC dei Phenom II è marginalmente superiore a quello dei Phenom I principalmente per via della cache L3 3 volte più grande. Al netto della cache L3, I phenom I hanno lo stesso IPC dei Phenom II.
Non capisco cosa c'entri l'overclock.


Io riporto le mie impressioni a pelle... e dico che con l'8150 mi sembra di essere in una gabbia tale e quale quella che aveva il Phenom I.

L'8150 ha come delle fascie di frequenza dove se occhi l'NB questa rende, e delle fascie dove non rende e hai il procio instabile.

Ma penso che ciò valga per tutti, solo che quando hai un processo produttivo malandato (come i 65nm e questi 32nm) è solo più evidente.
Poi è anche una questione di bilanciamento della gerarchia delle memorie dipendente dal workload.

Un bulldozer può anche andare a default a 4 Ghz, solo che consuma una barca di corrente, e non puoi proporre una CPU da 200W di TDP sul mercato consumer per tanti motivi, in primis il fatto che ti ci vorrebbe un sistema di dispersione di calore fuori scala. Aggiungi anche il fatto che i consumi non sono pareggiati da performance opportune e la frittata è fatta.


Capiscimi, a me non importa nulla dire che mi sembra ingabbiato il procio o meno...
Lo sai cosa potrebbe risolvere i miei dubbi? Un 8170/8190 B3. Io sono convinto che l'aumento di frequenza def equivale a dire che parte dei problemi sul silicio sarebbero stati risolti e ci scommeterei che un B3 accetterà l'OC all'NB molto meglio di un B2 e apporterà più vantaggi rispetto ad un B2.

Per ora non esiste nessun 8170/8190 ne alcuno step B3.
Quello che c'è c'è, e quello che c'è non è granché. Vuoi perché il processo produttivo a 32nm non sta dando i frutti sperati, vuoi perché l'architettura stessa è largamente poco efficiente.
Ed è inutile sperare in grandi novità nel breve periodo (lo step B3), non ci sono conigli nel cilindro che verranno fuori all'improvviso. Si magari si overcloccherà un po' di più, ma la sostanza rimane quella di un'architettura non al passo con gravi problemi.

edit: aggiungo che quando si hanno problemi con il processo produttivo, si mantengono basse le frequenze per contenere i consumi. Qui c'è la doppia incornatura perché BD a basse frequenze è davvero *lento*, quindi l'8150 è stato tirato oltre limite dell'accettabile per proporre qualcosa che sembrasse più veloce della vecchia architettura. Qui c'è poco da fare, o trovano il modo di dimezzare i transistor e i consumi, oppure ne venderanno un paio di dozzine in tutto (<- eufemismo da non prendere alla lettera)

Cocco83
09-11-2011, 23:54
Forse hai perso la notizia che il B3 non solo permetterà l'8170, ma pure l'8190.

Se i vari tagli di frequenza fossero gli stessi dell'8150 3,6GHz def, 3,9GHz turbo su tutti i core e 4,2GHz massima frequenza Turbo su 4 core, dovremmo avere:

8170 3,9GHz def, 4,2GHz turbo su tutti i core e 4,5GHz massima frequenza Turbo su 4 core.

8190 4,2GHz def, 4,5GHz turbo su tutti i core e 4,8GHz massima frequenza Turbo su 4 core.

Su 900MHz di disavanzo, AMD avrebbe recuperato ben 600MHz sempre sullo step BXX.
Questo fa ben sperare sullo step C.

pè pè.... nu cor..... non è detto che le frequenze dell'8170 e dell'8190 siano o saranno così regolari tra gi vari stadi di turbo..... speriamo sia così... ma può darsi che si fermino anche prima..... purtroppo non abbiamo uno stralcio di notizia a riguardo :(

Mister D
10-11-2011, 00:13
Forse hai perso la notizia che il B3 non solo permetterà l'8170, ma pure l'8190.

Se i vari tagli di frequenza fossero gli stessi dell'8150 3,6GHz def, 3,9GHz turbo su tutti i core e 4,2GHz massima frequenza Turbo su 4 core, dovremmo avere:

8170 3,9GHz def, 4,2GHz turbo su tutti i core e 4,5GHz massima frequenza Turbo su 4 core.

8190 4,2GHz def, 4,5GHz turbo su tutti i core e 4,8GHz massima frequenza Turbo su 4 core.

Su 900MHz di disavanzo, AMD avrebbe recuperato ben 600MHz sempre sullo step BXX.
Questo fa ben sperare sullo step C.

Ciao,
non mi sono perso la notizia del capitano sul 8190 e sono speranzoso che sia così perché questo iniziale aumento sarà derivato, a mio modo di vedere, dalla risoluzione di qualche problema sul pp (con lo step B3) più che il naturale CTI del SOI. Per questo molto probabilmente prima si aspettavano solo il 8170 e ora forse c'è qualche speranza che il recupero con il B3 sia più elevato.
Per cui siamo d'accordo, solo che mi sono espresso male nel precedente messaggio. Ho anche editato e spero che ora si capisca meglio il mio discorso.;)

Per quanto riguarda lo step C, che da quanto avevo capito io si riferisce al core piledriver, se vai a vedere nell'altro thread, ci sono documenti di amd in cui i primi ES di trinity, quindi core piledriver, sono basati su step A0 e A1 e sono arrivati a 3800 con turbo a 4100 e gpu a 700 mega. Per cui molto probabilmente o hanno cancellato lo step C o vogliono dividere le strade del core piledriver: uno step Ax per trinity (con ridisegno per inserimento controller pci-ex e rimozione link HTT) e uno step C per i prossimi FX su AM3+. Però mi sembra alquanto strano. Poi non si sa che fine ha fatto komodo su FM2. Mah mi sà che il nuovo CEO ha portato nuove idee. Speriamo che siano buone.
Comunque se alle frequenze di questi primi ES ci uniamo il probabile aumento di IPC, piledriver avrà le carte giuste per far intravedere le vere potenzialità di questo progetto. Peccato che AMD per buldozer non abbia usato lo stesso sistema, simile al tick e tock, che usa nelle gpu (hd5000 grossa rivisitazione dell'architettura e hd 6000 miglioramenti architetturali e soprattutto di silicio). Forse non ha fatto così perché GF era in ritardo con i 32nm e fare un ipotetico phenom a 32 nm per saggiare il pp avrebbe causato ancora uno slittamento della messa su strada della nuova architettura. Ma non lo sapremo mai:D

capitan_crasy
10-11-2011, 00:30
Forse hai perso la notizia che il B3 non solo permetterà l'8170, ma pure l'8190.

Se i vari tagli di frequenza fossero gli stessi dell'8150 3,6GHz def, 3,9GHz turbo su tutti i core e 4,2GHz massima frequenza Turbo su 4 core, dovremmo avere:

8170 3,9GHz def, 4,2GHz turbo su tutti i core e 4,5GHz massima frequenza Turbo su 4 core.

8190 4,2GHz def, 4,5GHz turbo su tutti i core e 4,8GHz massima frequenza Turbo su 4 core.

Su 900MHz di disavanzo, AMD avrebbe recuperato ben 600MHz sempre sullo step BXX.
Questo fa ben sperare sullo step C.

Lo sapevo che andavi in overboost...:sofico:
L'unico previsto con una certa sicurezza è 8170 o comunque un modello superiore al 8150.
Per quanto riguarda altri modelli superiori niente di confermato, quindi giù con le scarpette di piombo e aspettiamo gli eventi...:)

Cocco83
10-11-2011, 01:06
Certo che però se riuscissero a fare un 10x con tipo frequenze base di 3,9ghz e turbo a 4,5 e riuscissero a rimanere nei 125w non sarebbe malaccio, almeno riuscirebbero, credo, a coprire un po' di buchi nel multi core rispetto alla controparte anche se sarebbe un po' massacrante dover avere un quasi 10 core a pareggiare un 4 core + HT.....

shellx
10-11-2011, 01:16
Poi non si sa che fine ha fatto komodo su FM2. Mah mi sà che il nuovo CEO ha portato nuove idee. Speriamo che siano buone.


FM2 uscirà sicuro per Trinity nell'1T 2012.
Per l'enthusiast è stato momentaneamente messo da parte per fare posto all'ennesima e frustrante revisione di RDxx con il 1090FX e il southbridge 1060 che supporta usb3 nativamente., tutto questo sempre su socket AM3+.
Secondo una mia ipotesi, e ripeto una mia ipotesi, a questo punto credo che FM2 non lo vedremo mai nell'enthusiast, dopo questa notizie della revisione RD dei chipset credo proprio che Komodo andrà in sella ad un ipotetico successore di FM2 (es ipotetico: FM3) con una ipotetica famiglia di chipset Hudson FCH revisionata (es ipotetico: Hudson D5 FCH). Ma questo sicuramente avverrà non prima di fine 2012, se non pure inizi 2013.
Ripeto le mie sono supposizioni. Ma non vedo come non possa essere cosi.
Una cosa è certa: AMx al piu preso deve fare spazio ad FMx, perchè sta benedetta infrastruttura non è al nocciolo e proprio ormai esausta. E comunque una FMx gli darebbe modo di implementare l'nb(pci-e) nella cpu e fare spazio a quello che dicono e ci martellano le cervella da due anni con sto fusion, ossia APU su tutte le fasce.
POi booo ... staremo a vedere...

edit: inoltre voglio ricordare che l'implementazione dei pci-e nella cpu porta a dei vantaggi di X% nelle performance. Tale implementazione fa si alla rimozione del bus ht (causa di colli di bottiglia) nel link cpu -> slot pci-e(vga e altri componenti connessi al pci-e). L'ht crea molte latenze alte, l'indtroduzione nella cpu del northbridge comporterebbe ad un link diretto nel passaggio dati delle acpu verso gli slot pci-e). Perchè a questo punto sarebbe la cpu stessa a dialogare direttamente senza dipendere dal bus ht.

Lo sapevo che andavi in overboost...
L'unico previsto con una certa sicurezza è 8170 o comunque un modello superiore al 8150.
Per quanto riguarda altri modelli superiori niente di confermato, quindi giù con le scarpette di piombo e aspettiamo gli eventi...

Ahahahaha ma lool.... lasciate in pace paolooo :sofico:
Quando va in overboost partono le n.mila pagine.

@Paolo: non è detto da nessuna parte che uscira l'8170 e poi l'8190. E poi chi ti dice che usciranno entrambi ? Puo darsi che uscira solo l'8190. Te lo dico perchè non voglio che ti illudi e poi inizi a scriverlo in ogni post che usciranno sicuro e con tanto di valori affermati di aumenti in mhz in turbo ecc ecc. Andiamoci piano valutiamo quello che abbiamo tenendo in considerazione che sicuramente un modello B3 uscirà (ma non sappiamo quale e i suoi dettagli tecnici). Non voglio che poi ci resti male ;) Cacchio pero quando parti in overboost sei un GRANDE ! :cincin: :mano: :ubriachi: :kiss:

shellx
10-11-2011, 01:21
Certo che però se riuscissero a fare un 10x con tipo frequenze base di 3,9ghz e turbo a 4,5 e riuscissero a rimanere nei 125w non sarebbe malaccio, almeno riuscirebbero, credo, a coprire un po' di buchi nel multi core rispetto alla controparte anche se sarebbe un po' massacrante dover avere un quasi 10 core a pareggiare un 4 core + HT.....

oh dio mio, e magari con il rischio di uscirne anche sconfitto 10 vs 4.
Sai cosa succederebbe dentro questo thread ? Non mi ci fare pensare ;)

Non sono i core che devono aumentare in questa architettura.
Va affinato il silicio del pp prima di tutto e sistemata qualcosa nell'architettura a livello di p.prediction e latenze cache. Ma dubito che l'architettura verra toccata. Il massimo che faranno sara affinare il piu possibile il pp.

gianni1879
10-11-2011, 07:26
Forse hai perso la notizia che il B3 non solo permetterà l'8170, ma pure l'8190.

Se i vari tagli di frequenza fossero gli stessi dell'8150 3,6GHz def, 3,9GHz turbo su tutti i core e 4,2GHz massima frequenza Turbo su 4 core, dovremmo avere:

8170 3,9GHz def, 4,2GHz turbo su tutti i core e 4,5GHz massima frequenza Turbo su 4 core.

8190 4,2GHz def, 4,5GHz turbo su tutti i core e 4,8GHz massima frequenza Turbo su 4 core.

Su 900MHz di disavanzo, AMD avrebbe recuperato ben 600MHz sempre sullo step BXX.
Questo fa ben sperare sullo step C.

come sempre ti dico semplicemente non correre come tuo solito.

Ares17
10-11-2011, 07:53
come sempre ti dico semplicemente non correre come tuo solito.
Quando vi decidete ad inserire i Tutor (stile Autostrade) in questo TH (ed in tutti quelli dove posta Paolone)?
Scherzo eh :D

zip87
10-11-2011, 08:25
per me ad oggi nessun vantaggio ad acquistare BD al posto di SB.

Mi sono posto questa domanda anche perchè secondo me con questo prezzo oggi tale cpu ha come unico mercato gli attuali possessori di schede am3+ che vogliono cambiare cpu...e solo coloro che non lo utilizzano per multi gpu.
Per il resto a questo prezzo è difficile da piazzare. Dovrebbero arrivare al prezzo di un core i5 per vendere secondo me.

aldooo
10-11-2011, 08:30
Mah mi sà che il nuovo CEO ha portato nuove idee. Speriamo che siano buone.


Il nuovo CEO ha detto qualcosa riguardo al mercato notebook/desktop?
Io sono convinto che il nuovo CEO abbia gia' dato l'ordine di partire con la progettazione della nuova architettura post-bulldozer-era,
che avrà come caratteristica principale alte prestazioni per Watt.

Secondo me, in tre anni sarà sul mercato.

Phenomenale
10-11-2011, 09:00
Ad oggi chi avrebbe vantaggio ad acquistare, o comunque, chi potrebbe preferire una piattaforma AMD con FX 8150 invece che una piattaforma Intel con core i7 2600, considerando che il costo è molto simile?
Gli overclocker's indubbiamente.

Pat77
10-11-2011, 09:03
Deneb? :D

Io parlavo di BD, il confronto nel briefing era fatto verso se stesso.


Io ho sempre sostenuto che i miglioramenti ci sarebbero stati per tutte le cpu +- e non soltanto ristretto ad AMD.
Certo non mi aspettavo che un phenom guadagnasse così tanto, chissà se un 1100t si comportava allo stesso modo.

Comunque ho detto Debem per una curiosa coincidenza, lavoro con una ditta, debem, che fa pompe antiabrasione, LOL, e scrivendolo sempre è partito il lapsus freudiano.

Riguardo a 1100t sarei curioso anche io.

Polpi_91
10-11-2011, 09:11
Gli overclocker's indubbiamente.

gli overclockers (quelli che competono su hwbot e utilizzano metodi di raffreddamento estremi) comprano tutti Intel perchè l'unico bench che puoi fare è lo shot di frequenza di cpu-z e basta

Cocco83
10-11-2011, 09:23
oh dio mio, e magari con il rischio di uscirne anche sconfitto 10 vs 4.
Sai cosa succederebbe dentro questo thread ? Non mi ci fare pensare ;)

Non sono i core che devono aumentare in questa architettura.
Va affinato il silicio del pp prima di tutto e sistemata qualcosa nell'architettura a livello di p.prediction e latenze cache. Ma dubito che l'architettura verra toccata. Il massimo che faranno sara affinare il piu possibile il pp.

Appunto, visto che sull'architettura non riusciranno a mettere mano a breve... lo so è un'idea messa lì, però penso sia una delle poche soluzioni... in fondo l'hanno voluta loro l'architettura modulare e facilmente espandibile.... il + è anche trovare il posto sulla CPU xD

bjt2
10-11-2011, 09:27
Paolo (o chiunque voglia... :D)... Se hai un wattmetro possiamo fare una prova per determinare la bontà del processo produttivo a 32nm e vedere se il +1GHz è fattibile. Il problema è che per la massima verosimigliana bisognerebbe essere con il dissipatore stock. Ma con un dissipatore più performante semplicemente sottostimiamo l'incremento di clock per i motivi che vedremo...

Io ho una teoria... Seguitemi nel discorso...
La teoria è che siamo al limite del processo produttivo. Quindi incrementi o decrementi di Vcore fanno consumare molto di più o di meno. Già con il solo 10% di Vcore in meno recuperiamo ALMENO un 20% di potenza e quindi possiamo salire del 20% in più di clock (posto che ci arriviamo, ovviamente). In realtà il recupero è maggiore, perchè il leackage è esponenziale e diminuisce anche quello.

Le prove sono le seguenti: frequenza default, VCore default e carico pesante (Linx o simili). Si misura la potenza assorbita dal sistema. Siamo SICURI che in quel momento la CPU sta assorbendo al più 125W. Si ripetono gli stessi esperimenti con un +0.1V e un -0.1V di VCore e si misurano le potenze assorbite alla presa. Suppominamo che siano 200 a Vcoredef-0.1, 250 a Vcoredef e 320 a Vcoredef+0.1. Abbiamo che tra default e -0.1V ci sono 50W in meno. Considerando il rendimento dell'alimentatore all'80% e quello dei VRM anche 80%, otteniamo che il REALE calo di potenza assorbita dalla CPU è di 50*0.8*0.8=32W. Quindi con Vcore-0.1V la CPU assorbe AL PIU' 125-32=93W a 3.6GHz. Analogamente a +0.1V la CPU assorbe 70*0.8*0.8=45W in più, ossia al massimo 170W.
Questi sono numeri inventati, poi mi servono i reali e posso fare il calcolo preciso.
Questo cosa mi dice? Il VCore def mi pare che sia circa 1.25V, giusto? Quindi 0.1V sono l'8%. Quindi con un 8% in meno di Vcore, la CPU consuma 93/125=0.74 , quindi il 26% in meno (SONO NUMERI INVENTATI, ma probabilmente vicini alla realtà, per questo mi servono le misure)...

Supponiamo quindi che il processo migliori a tal punto da poter usare un Vcore di 1.15 per 3.6+26%=4.55GHz (toh, 950MHz!). In tal caso saremmo esattamente ancora nei 125W.

Qualcuno (uno a caso... :D) si può anche divertire a trovare la frequenza massima di Linx a cui regge la sua CPU con -0.1V e misurare l'assorbimento... Poi facciamo i conti del TDP reale... Sempre ovviamente per eccesso, perchè dubito che un 8150 in full load consumi veramente 125W...

EDIT: -0.1V è poi anche una sottostima di quanto pensavano andasse il processo a 32nm GF... Le slide di febbraio davano un Vcore per BD di 0.8-1.3V. Come ben sappiamo, invece, questo va da 0.9 a oltre 1.4...

Pat77
10-11-2011, 09:44
Il nuovo CEO ha detto qualcosa riguardo al mercato notebook/desktop?
Io sono convinto che il nuovo CEO abbia gia' dato l'ordine di partire con la progettazione della nuova architettura post-bulldozer-era,
che avrà come caratteristica principale alte prestazioni per Watt.

Secondo me, in tre anni sarà sul mercato.

Ma BD è la base, se guardi come è uscito si capisce che è 2900xt style, il prossimo step, Pile, imho sarà un 15% meglio ma un po' più piccolo e con consumi inferiori, oltre ad avere un chipset specifico, non un 870-890 con soket AM3+.

aldooo
10-11-2011, 09:47
Ma BD è la base, se guardi come è uscito si capisce che è 2900xt style, il prossimo step, Pile, imho sarà un 15% meglio ma un po' più piccolo e con consumi inferiori, oltre ad avere un chipset specifico, non un 870-890 con soket AM3+.

Sto parlando di post-BD (post-Pile post-tutto)...
Secondo me i limiti di BD e degli sviluppi futuri sono gia' chiari all'interno di AMD.
E' tempo di concentrarsi sulle performance/Watt.

Vedrai che uscira' qualcosa di molto diverso rispetto a BD in tre anni.

paolo.oliva2
10-11-2011, 09:50
Quando vi decidete ad inserire i Tutor (stile Autostrade) in questo TH (ed in tutti quelli dove posta Paolone)?
Scherzo eh :D
:D
Ma guarda che la notizia ha la sua impostanza, e non poca.
Tutto gira attorno alle slide di AMD circa il +10-15% di potnza in più di Piledriver sulla generazione precedente, perché quel 10-15% è comprensivo di IPC e aumento di frequenza.
Diciamocela tonda, dai, un +10-15% di Piledriver su un 8150 è un incremento ridicolo e segherebbe le gambe sia sul fatto che GF risolva i problemi sul silicio e sia sul fatto di quanto l'architettura BD possa incrementare sull'IPC.

Diverso sarebbe se AMD riuscisse a commercializzare un B3 a 4,2GHz def, perché a quel punto cambierebbe il tutto, cioè che GF dovrebbe aver risolto al 90% i problemi di silicio e un Piledriver con quel 10-15% in più almeno l'8% dovrebbe essere per l'IPC (e qui che l'architettura BD può incrementare l'IPC) se non addirittura avere lo stesso clock di un 8190 ma l'incremento essere tutto in IPC.

Ma questo discorso io non lo faccio per un confronto AMD-Intel. Io posso anche postare ad ogni mia affermazione "ma Intel sarà sempre del 50% superiore in potenza ad AMD", se vi fa piacere.
Però, io ho una mobo AM3+ ed un 8150. Nella mia condizione sarà sempre più economico upgradare ad un B3 o a Piledriver rispetto che cambiare mobo e procio ex-novo.

Non capisco il problema, quindi, se io spero o meno su un 8190 anzichè solamente su un 8170... anche perché dal punto di vista OC, se l'8190 avesse gli stessi scalini del turbo come l'8150, praticamente arriverebbe a def (turbo massimo) solamente a -200MHz del mio massimo OC attuale... ed ancora a dissi stock. Alla faccia che il 32nm attuale non ha prb di PP.

Non ho risposto a te, ti conosco da anni... :D

paolo.oliva2
10-11-2011, 09:59
Paolo (o chiunque voglia... :D)... Se hai un wattmetro possiamo fare una prova per determinare la bontà del processo produttivo a 32nm e vedere se il +1GHz è fattibile. Il problema è che per la massima verosimigliana bisognerebbe essere con il dissipatore stock. Ma con un dissipatore più performante semplicemente sottostimiamo l'incremento di clock per i motivi che vedremo...

Io ho una teoria... Seguitemi nel discorso...
La teoria è che siamo al limite del processo produttivo. Quindi incrementi o decrementi di Vcore fanno consumare molto di più o di meno. Già con il solo 10% di Vcore in meno recuperiamo ALMENO un 20% di potenza e quindi possiamo salire del 20% in più di clock (posto che ci arriviamo, ovviamente). In realtà il recupero è maggiore, perchè il leackage è esponenziale e diminuisce anche quello.

Le prove sono le seguenti: frequenza default, VCore default e carico pesante (Linx o simili). Si misura la potenza assorbita dal sistema. Siamo SICURI che in quel momento la CPU sta assorbendo al più 125W. Si ripetono gli stessi esperimenti con un +0.1V e un -0.1V di VCore e si misurano le potenze assorbite alla presa. Suppominamo che siano 200 a Vcoredef-0.1, 250 a Vcoredef e 320 a Vcoredef+0.1. Abbiamo che tra default e -0.1V ci sono 50W in meno. Considerando il rendimento dell'alimentatore all'80% e quello dei VRM anche 80%, otteniamo che il REALE calo di potenza assorbita dalla CPU è di 50*0.8*0.8=32W. Quindi con Vcore-0.1V la CPU assorbe AL PIU' 125-32=93W a 3.6GHz. Analogamente a +0.1V la CPU assorbe 70*0.8*0.8=45W in più, ossia al massimo 170W.
Questi sono numeri inventati, poi mi servono i reali e posso fare il calcolo preciso.
Questo cosa mi dice? Il VCore def mi pare che sia circa 1.25V, giusto? Quindi 0.1V sono l'8%. Quindi con un 8% in meno di Vcore, la CPU consuma 93/125=0.74 , quindi il 26% in meno (SONO NUMERI INVENTATI, ma probabilmente vicini alla realtà, per questo mi servono le misure)...

Supponiamo quindi che il processo migliori a tal punto da poter usare un Vcore di 1.15 per 3.6+26%=4.55GHz (toh, 950MHz!). In tal caso saremmo esattamente ancora nei 125W.

Qualcuno (uno a caso... :D) si può anche divertire a trovare la frequenza massima di Linx a cui regge la sua CPU con -0.1V e misurare l'assorbimento... Poi facciamo i conti del TDP reale... Sempre ovviamente per eccesso, perchè dubito che un 8150 in full load consumi veramente 125W...

EDIT: -0.1V è poi anche una sottostima di quanto pensavano andasse il processo a 32nm GF... Le slide di febbraio davano un Vcore per BD di 0.8-1.3V. Come ben sappiamo, invece, questo va da 0.9 a oltre 1.4...

Io lo posso fare con il Vcore, però devo disabilitare tutte le features della mobo (line calibration e +130% di corrente in automatico, altrimenti sballa tutto).

Il Vcore attuale def di un 8150 varia da 1,285V a 1,315V a def, per i 3,6GHz e 1,415V per i 4,2GHz, però sono valori per eccesso impostati dal bios.

Entro questa notte ti posto tutto.

paolo.oliva2
10-11-2011, 10:02
Sto parlando di post-BD (post-Pile post-tutto)...
Secondo me i limiti di BD e degli sviluppi futuri sono gia' chiari all'interno di AMD.
E' tempo di concentrarsi sulle performance/Watt.

Vedrai che uscira' qualcosa di molto diverso rispetto a BD in tre anni.

Infatti tra 3 anni (magari 4, stiamo larghi) ci saranno APU in cui la parte grafica aiuterà a elaborare i dati (BD next-generations).
Il potere elaborativo di una IGP è 10 volte superiore (ma è di più) di qualsiasi core oggi esistente.
Non avrà alcun senso aumentare la potenza del core perché sarà unicamente uno spreco di transistor.

bjt2
10-11-2011, 10:04
Io lo posso fare con il Vcore, però devo disabilitare tutte le features della mobo (line calibration e +130% di corrente in automatico, altrimenti sballa tutto).

Il Vcore attuale def di un 8150 varia da 1,285V a 1,315V a def, per i 3,6GHz e 1,415V per i 4,2GHz, però sono valori per eccesso impostati dal bios.

Entro questa notte ti posto tutto.

Ce l'hai il Wattmetro? Con i meccanismi di risparmio energetico e il LLC disattivati dovremmo avere un Vcore stabile. Posta anche i Vcore effettivi (non è necessario che siano esattamente -0.1V e +0.1V).
Speriamo che ti regga Lynx a 3.6GHz e a VcoreDef-0.1V... :stordita:

aldooo
10-11-2011, 10:22
Infatti tra 3 anni (magari 4, stiamo larghi) ci saranno APU in cui la parte grafica aiuterà a elaborare i dati (BD next-generations)


Non ho detto un BD-Next Generation, ma qualcosa di nuovo...
Magari ricestinano i moduli... chissa'.
Comunque, secondo me sono gia' al lavoro, da ZERO.

Pat77
10-11-2011, 10:36
Sto parlando di post-BD (post-Pile post-tutto)...
Secondo me i limiti di BD e degli sviluppi futuri sono gia' chiari all'interno di AMD.
E' tempo di concentrarsi sulle performance/Watt.

Vedrai che uscira' qualcosa di molto diverso rispetto a BD in tre anni.

Io non ho la sfera di cristallo, ma sarebbe una mossa sbagliata imho. BD è la prima applicazione di una nuova concezione di CPU, così come lo era 2900xt che da dove è partita ha portato a 6950-6970.

Ares17
10-11-2011, 10:41
Non ho detto un BD-Next Generation, ma qualcosa di nuovo...
Magari ricestinano i moduli... chissa'.
Comunque, secondo me sono gia' al lavoro, da ZERO.

Guarda che la concezione stessa di bd è il futuro.
Tornare indietro e riprogettare da zero (cioè buttare tutto il progetto bd) equivale a tornare al medioevo delle cpu x86.
Questa tecnologia è il futuro e ci porterà con il tempo ad avere in un unico chip sia calcolo int che fpu che grafica a livelli impossibili con l'attuale struttura (ed intel dovrà adeguarsi come ha gia fatto con em64).
In un futuro non troppo lontano (credo intorno ai 3-4 anni) le vga dedicate (e le schede per gpu-computing) saranno considerate come coprocessori vettoriali. ;)

dark.halo
10-11-2011, 10:47
Ce l'hai il Wattmetro? Con i meccanismi di risparmio energetico e il LLC disattivati dovremmo avere un Vcore stabile. Posta anche i Vcore effettivi (non è necessario che siano esattamente -0.1V e +0.1V).
Speriamo che ti regga Lynx a 3.6GHz e a VcoreDef-0.1V... :stordita:

Ho fatto un test con un 8120 di un mio amico occato a 4.0 ghz, turbo disattivato e voltaggio di 1.4V, e a monte della ciabatta sotto il test OpenGL di cinebench segnava 350W di media da cui sono da togliere 50W tra monitor e decoder digitale terrestre.
La configurazione è la seguente FX-8120@4.0 Ghz turbo off,MOBO Asus M5a88-v evo, AMD hd 6950 1Gb, 8 giga di ram, ssd crucial m4 64gb, e due hdd sata di cui non ricordo il brand, come ali un Cooler Master silent pro 700W...
Spero possano esservi utili, se riesco per stasera posto anche delle foto.

aldooo
10-11-2011, 10:55
Io non ho la sfera di cristallo, ma sarebbe una mossa sbagliata imho. BD è la prima applicazione di una nuova concezione di CPU, così come lo era 2900xt che da dove è partita ha portato a 6950-6970.

Internamente, concorderai, AMD ha capito fin dove puo' spingersi con l'architettura BD/BD+/BDNEXTGEN etc...
(prestazioni, consumi, etc...)

Che BD sia nuova concezione o no, poco importa.

Se il nuovo CEO avesse deciso che non basta...
beh... ammettere (almeno internamente) un problema è il primo passo verso la soluzione del problema.

AceGranger
10-11-2011, 10:56
Ho fatto un test con un 8120 di un mio amico occato a 4.0 ghz, turbo disattivato e voltaggio di 1.4V, e a monte della ciabatta sotto il test OpenGL di cinebench segnava 350W di media da cui sono da togliere 50W tra monitor e decoder digitale terrestre.
La configurazione è la seguente FX-8120@4.0 Ghz turbo off,MOBO Asus M5a88-v evo, AMD hd 6950 1Gb, 8 giga di ram, ssd crucial m4 64gb, e due hdd sata di cui non ricordo il brand, come ali un Cooler Master silent pro 700W...
Spero possano esservi utili, se riesco per stasera posto anche delle foto.

Praticamente hai testato i consumi della HD 6950 :fagiano:

Pat77
10-11-2011, 11:00
Internamente, concorderai, AMD ha capito fin dove puo' spingersi con l'architettura BD/BD+/BDNEXTGEN etc...
(prestazioni, consumi, etc...)

Che BD sia nuova concezione o no, poco importa.

Se il nuovo CEO avesse deciso che non basta...
beh... ammettere (almeno internamente) un problema è il primo passo verso la soluzione del problema.

Se avesse appunto, BD è stato pensato anche in funzione fusion, è parte di un programma più ampio, e tendenzialmente proiettato al futuro, la strada Thuban 8 core a 32 nm era evidentemente impercorribile.

capitan_crasy
10-11-2011, 11:09
Non ho detto un BD-Next Generation, ma qualcosa di nuovo...
Magari ricestinano i moduli... chissa'.
Comunque, secondo me sono gia' al lavoro, da ZERO.

Di sicuro continuerà con BD fino ai 28nm, prima o poi AMD dovrà mettere sul silicio Fusion2 ovvero l'ibrido tra core X86 e classica GPU; tempo previsto 2015...

dark.halo
10-11-2011, 11:11
Praticamente hai testato i consumi della HD 6950 :fagiano:
Oggi sempre che non mi caccino di casa a piedate eseguirò dei test se possibile sia su chipset 870g che 990fx, @def, occato a 4.0 Ghz, e con massimo downvolt a frequenza def.
Comunque la cpu si fa sentire.... a 4.3Ghz e dopo una sessione di due ore di BF3 bisogna abbassare il riscaldamento della casa o aprire la finestra :sofico:
@Gianni1879, i risultati li posto qui, oppure sul thread dedicato all'OC, perchè ho paura di essere sul filo dell'OT.

AceGranger
10-11-2011, 11:14
Oggi sempre che non mi caccino di casa a piedate eseguirò dei test se possibile sia su chipset 870g che 990fx, @def, occato a 4.0 Ghz, e con massimo downvolt a frequenza def.
Comunque la cpu si fa sentire.... a 4.3Ghz e dopo una sessione di due ore di BF3 bisogna abbassare il riscaldamento della casa o aprire la finestra :sofico:
@Gianni1879, i risultati li posto qui, oppure sul thread dedicato all'OC, perchè ho paura di essere sul filo dell'OT.

per testare la CPU dovresti fare il Cinebench CPU, cosi si avrebbe anceh un valore confrontabile con alcune recensioni, e possibilmente mettere il Wattmetro solo al PC.

dark.halo
10-11-2011, 11:26
L'inconveniente e che la presa dell'ali è una schuko mentre il mio misuratore usa la classica italiana. Effettuerò le misurazioni staccando il monitor dall'alimentazione e lasciando solo il pc, anche se a monte della ciabatta stessa...

Ares17
10-11-2011, 11:36
L'inconveniente e che la presa dell'ali è una schuko mentre il mio misuratore usa la classica italiana. Effettuerò le misurazioni staccando il monitor dall'alimentazione e lasciando solo il pc, anche se a monte della ciabatta stessa...

Puoi pure lasciare tutto com'è: serve la differenza di consumo nelle diverse condizioni chieste da bjt.
Credo che un wattometro (scusandomi dell'imprecisazione) casalingo non possa competere come misurazione con le attrezzature usate dalle redazioni.

bjt2
10-11-2011, 11:38
Ho fatto un test con un 8120 di un mio amico occato a 4.0 ghz, turbo disattivato e voltaggio di 1.4V, e a monte della ciabatta sotto il test OpenGL di cinebench segnava 350W di media da cui sono da togliere 50W tra monitor e decoder digitale terrestre.
La configurazione è la seguente FX-8120@4.0 Ghz turbo off,MOBO Asus M5a88-v evo, AMD hd 6950 1Gb, 8 giga di ram, ssd crucial m4 64gb, e due hdd sata di cui non ricordo il brand, come ali un Cooler Master silent pro 700W...
Spero possano esservi utili, se riesco per stasera posto anche delle foto.

Mi servirebbe un carico CPU only, possibilmente massimo (Lynx o almeno cinebench 11.5 in multi). Possibilmente a default sia di frequenza che tensione (va bene anche il default dell'8150) ed ad almeno 2 punti con stessa frequenza ma diverso vcore.

bjt2
10-11-2011, 11:40
Puoi pure lasciare tutto com'è: serve la differenza di consumo nelle diverse condizioni chieste da bjt.
Credo che un wattometro (scusandomi dell'imprecisazione) casalingo non possa competere come misurazione con le attrezzature usate dalle redazioni.

Esatto... :) Mi serve solo il delta, possibilmente senza altri componenti sotto che possono variare (quindi GPU in idle) e CPU il più possibile in full load.

Cocco83
10-11-2011, 11:56
Sto parlando di post-BD (post-Pile post-tutto)...
Secondo me i limiti di BD e degli sviluppi futuri sono gia' chiari all'interno di AMD.
E' tempo di concentrarsi sulle performance/Watt.

Vedrai che uscira' qualcosa di molto diverso rispetto a BD in tre anni.

io spero che il molto diverso esca nell'ambito software.... magari

vegitto4
10-11-2011, 12:00
comq è incredibile che già circolino le slides di Haswell e noi ancora non sappiamo quasi niente di Piledriver e di quanto potrà andare... Certo che alla Intel poi possono fare ciò che vogliono in totale libertà...

Korn
10-11-2011, 12:08
ma veramente l'hanno già detto con le loro mitiche slides, se vuoi fidarti...

shellx
10-11-2011, 17:44
Di sicuro continuerà con BD fino ai 28nm, prima o poi AMD dovrà mettere sul silicio Fusion2 ovvero l'ibrido tra core X86 e classica GPU; tempo previsto 2015...

Quoto, ma aggiungo:
quando avverrà questo questa implementazione porterà la scomparsa delle schede video di fascia medio bassa. Ma a dispetto di quanto alcuni dicono in giro non è vero che le schede video di fascia alta spariranno. Ho letto tempo fa un articolo (dovrei ricercarlo) che le vga di fascia alta continueranno sempre ad essere prodotte per gli utenti esigenti (vedi extreme gamer), magari da affiancare come CF alla gpu integrata nella cpu.
In soldoni quando fusion2 avrà vita avra le capacità tali da eguagliare la potenza grafica anche nei giochi pari a delle schede video di fascia media e bassa. E anche se nel passare degli anni successivi (over 2015) tale potenza gpu aumenterà, comunque le schede video discrete o dedicate non so come le chiamate (insomma di fascia alta da mettere su uno o piu pci-e) non spariranno. Perchè ci sono alcune situazioni in cui servono dei calcoli (parlo di worskstaion) con piu schede video in parallelo, oppure gamer che vorranno roba come 2 vga + gpu integrata di quel tempo (cf x3). O peggio ancora non vorranno usare proprio quella potenza e si vorranno affidare al solo CF di vga alte sui pci-e.