PDA

View Full Version : [Thread Ufficiale] Aspettando Bulldozer *leggere prima pagina con attenzione*


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 [97] 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112

scrat1702
26-09-2011, 16:52
io spero che non lo sia e che bd vada meglio

Sara difficile. Personalmente e da Aprile che sostengo che BD X8 andrà a scontrarsi con il 2600K o al max con il Sb-E quad. Purtroppo si sperava che uscisse nel Q2 e allora avremmo avuto un ritardo di 5 mesi invece di 10. Con Sb-E lontano 6 mesi.

HacNet
26-09-2011, 16:53
io spero che non lo sia e che bd vada megliocome non essere d'accordo!:sperem:

papafoxtrot
26-09-2011, 16:53
Possibile che tu non riesca a capire che 305$ era un prezzo perfettamente adeguato al mercato, finché non c'era concorrenza?
Che diamine c'è da ammettere? Abbiamo uyna CPu a 300$, ne esce una che va uguale a 250$... Solo allora la nostra diventa fuori mercato, e abbassiamo a 240. Se AMD faceva uscire a 300 il SB era ancora perfettamente adeguato e nessuno abbassava il prezzo.

Il mercato è deciso dalla concorrenza che hai, non dalle scelte che fai tu! Non è mica amd o intel a decidere qual'è il prezzo gusto di una CPU... E' la situazione di mercato! Se questa cambia, cambia il prezzo corretto e amen!


Ripeto un concetto che mi sembra sia chiaro a pochi, poi torno a tacere, perché tanto a parlare per scontrarsi contro l'ottusaggine dei più non c'è gusto:

Un 8150 dalle prestazioni di un 2600k sarebbe un fallimento.
Il prezzo on c'entra nulla, perché il prezzo dipende dalle prestazioni, non le prestazioni dal prezzo. Se l'8150 si trova a 200 euro è perché è na CPU mediocre, non perché AMD è magnanima...

AMD le CPU le paga a mm^2 di silicio, non a numero di core, ne a thread, ne a megahertz.
Per cui un 8150 da oltre 300mm^2, quando intel riesce a fare le stesse prestazioni 8 mesi prima, con una CPU da 150 (tolgiendo l'area della GPU che non conta) è un assoluto fallimento.
Ah considerate che il processo produttivo di intel è senza soi, e quindi costa meno.

Se per caso intel decide di competere sui prezzi, non c'è speranza ha già vinto.
- Paga costi di sviluppo inferiori, perché commercializza più CPU
- paga costi di sviluppo del processo inferiori, perché non ha il SOI
- paga costi di produzione inferiori, perché in un wafer ci entrano quasi il doppio dei chip, con la scusa della minore area e dei minori scarti ai bordi. E poi perché i wafer SOI costano di più...

Insomma se ad AMD produrre un bulldozer ed ammortizzare gli investimenti gli costa 100 dollari, ad intel un sandy bridge come il 2600k ne costa 50... Secondo voi chi vince nella gara al prezzo più basso? Intel fa una valanga di soldi con Sandy bridge... ed è pronta a fare il bis con Ivy....
Anche che non vada neanche l'1% in più ivy bridge ad intel costerà ancora meno, il che è tutto grasso che cola quando a fine trimestre si fanno i bilanci...

Il discorso che fanno in tanti "sono 8 core, ma in realtà sono 4 con SMT", oltre che sbagliato, sarebbe comunque accettabile (nel senso che si potrebbe considerare un'alternativa valida, come lo sono state le HD4870 da 800 ALU contro le GTX260 da 216 ALU) solo se gli 8 core di AMD occupassero lo spazio dei 4 core di intel... Dato che così non è (anche per via degli 8MB di cache L2 quando intel fa le stesse prestazioni con 1MB di L2 in tutto....) e BD è più grande di SB, e non di poco, il discorso non funziona.
Le HD4870 non hanno mica vinto perché a noi meno delle GTX260. Se fosse stato così ad NVIDIA sarebbe bastato abbassare il prezzo.
Il discorso era ben diverso! rv770 era grande metà di GT200, e pertanto costava, a confronto, una pipa di tabacco! Per cui quando AMD se n'è uscita con una scheda da 300 euro, NVIDIA il prezzo non l'ha potuto abbassare troppo.

Qui invece intel ha l'rv770 piccolo, economico ed efficiente, mentre AMD ha il gt200, ugualmente potente, ma grosso e costoso...

Io credo che 1MB di cache per core per BD sia anche troppo, anche se probabilmente serve in parte a compensarne la latenza elevatissima. Molto probabilmente diventerà una dimensione adeguata quando da BD si passerà a bulldozer 2 e l'IPC andrà crescendo, e soprattutto quando il processo produttivo passerà ai 22nm. Allora tutta quella L2 sarà meno pesante... Ora in BD c'è più cache che processore... Se ne tolgono metà il processore costa il 30% in meno, e le prestazioni calano del 10%... Con una bella cloccatina si recupererebbe tutto...

Voi dite che Intel ha problemi con la cache, perché deve aumentarne le dimensioni con l'aumento del numero di core... Ciò è dovuto al fatto che la L3 di intel è inclusiva... Però alla fine cosa deve includere? Su un 8 core deve includere 2MB di L2... VUol dire che se passa da 8 a 16 core, deve aumentare di almeno 2MB la cache... non mi sembra un gran costo, quando si raddoppia tutta una CPU... Se poi decide di crescere la L3 in proporzione amen, passerà da 15 a 30MB di L3... E' sempre lineare con il numero di core, con in più quei 256Kb a core...
AMD se si tiene i suoi 1MB di L2 a core, più 1MB di L3 a core... Quando passa a 16 core fa 32MB ci cache pure lei.,.. A 32 core AMD ha 64MB di cache, mentre intel può avere 16MB di L2, Più 16MB di L3 destinata a contenerla, più 1MB di L3 a core... Fanno sempre 64MB... E prima di arrivare a 32 core ne passa di acqua sotto il ponte... Ci sarà Haswell, poi il suo tick-tock.... E sarà il 2015... Da qui al 2015 passa la stessa distanza che c'è tra il Pentium D del 2004 al Core i7 del 2008... Secondo voi ci saranno architetture neanche comparabili?

papafoxtrot
26-09-2011, 16:56
Sara difficile. Personalmente e da Aprile che sostengo che BD X8 andrà a scontrarsi con il 2600K o al max con il Sb-E quad. Purtroppo si sperava che uscisse nel Q2 e allora avremmo avuto un ritardo di 5 mesi invece di 10. Con Sb-E lontano 6 mesi.


Non è un ritardo di 5-6-10 mesiiiiiiii!!!!!!
Non è vero un tubo! Il ritardo è di anni, non lo vedi! Se BD 8x va come core i7 2600k, allora va da come a un po' di meno di Gulftown!! Il tutto con una die area immensa a confronto!!!!!!!!

Il ritardo sarebbe di mesi se BD e SB fossero grandi uguali e almeno in produzione costassero uguali!!!

scrat1702
26-09-2011, 17:04
Non è un ritardo di 5-6-10 mesiiiiiiii!!!!!!
Non è vero un tubo! Il ritardo è di anni, non lo vedi! Se BD 8x va come core i7 2600k, allora va da come a un po' di meno di Gulftown!! Il tutto con una die area immensa a confronto!!!!!!!!

Il ritardo sarebbe di mesi se BD e SB fossero grandi uguali e almeno in produzione costassero uguali!!!

A chi compra una CPU tutto questo (verissimo al 100%) importa più o meno un valore prossimo allo zero assoluto.
Quando compri guardi il prezzo,le prestazioni e una parte dell'utenza anche i consumi. Quanto ci guadagnano sopra AMD o intel penso importi poco.
Poi riferito al Gulftown il die BD non e immenso visto che sono 248mmq contro cca 300mmq ma anche 4mb di cache in meno. Adesso non so il die size di SB-E ma non credo si discosterà molto da quello dei Gulftown.

Trokji
26-09-2011, 17:08
Abbiamo uyna CPu a 300$, ne esce una che va uguale a 250$... Solo allora la nostra diventa fuori mercato, e abbassiamo a 240. Se AMD faceva uscire a 300 il SB era ancora perfettamente adeguato e nessuno abbassava il prezzo.

Il mercato è deciso dalla concorrenza che hai, non dalle scelte che fai tu! Non è mica amd o intel a decidere qual'è il prezzo gusto di una CPU... E' la situazione di mercato! Se questa cambia, cambia il prezzo corretto e amen!

Qui quoto.. spesso si pensa troppo che il prezzo sia deciso in maniera unilaterale dal produttore. In realtà il mercato incide molto.. molte aziende sarebbero perfino disposte a vendere i propri prodotti con margini minimi o addirittura sottocosto se non avessero sufficiente domanda o se la concorrenza fosse agguerrita. Ovviamente dipende però anche dalla salute finanziaria di un'azienda poter proporre prezzi molto aggressivi.
Nella situazione attuale però non penso sia proprio così, :D , penso sia AMD che intel ottengano margini notevoli attualmente dai loro prodotti.
Sul resto non sono molto d'accordo, ma le analisi possono sicuramente essere diverse e ciò è legittimo.
Quello che è certo è che gli amd fx avranno un rapporto performance/watt e performance/prezzo concorrenziale non saranno affatto un flop, e quasi certamente il mercato non potrà che premiare questo investimento dell'azienda

Walrus74
26-09-2011, 17:08
AMD le CPU le paga a mm^2 di silicio, non a numero di core, ne a thread, ne a megahertz.


Ma non c'era stata una modifica degli accordi tra AMD e GF sul fatto che venivano pagati solo i chip funzionanti e non il wafer intero (almeno per il 2011 mi pare)?
Credo che i prezzi bassi di partenza siano dovuti anche a questo.

xk180j
26-09-2011, 17:09
Intel avvertirà prima i maggiori distributori, e solo dopo 1-2 settimane effettuerà il taglio di prezzo.
Potrebbe anche farlo da un giorno all'altro, ma dovrebbe scontare la differenza di prezzo con le scorte di magazzino, altrimenti i prezzi finali tarderebbero troppo a scendere.

va bene accetto di buon grado anche questa tempistica, ma non credo che se l'8150 eguaglierà il 2600k ci sarà troppo da gioire, il rapporto prezzo prestazioni di una cpu è facilmente modificabile in un lasso di tempo breve e 50 dollari non sono un abbisso

Heimdallr
26-09-2011, 17:12
Io credo che 1MB di cache per core per BD sia anche troppo, anche se probabilmente serve in parte a compensarne la latenza elevatissima. Molto probabilmente diventerà una dimensione adeguata quando da BD si passerà a bulldozer 2 e l'IPC andrà crescendo, e soprattutto quando il processo produttivo passerà ai 22nm. Allora tutta quella L2 sarà meno pesante... Ora in BD c'è più cache che processore... Se ne tolgono metà il processore costa il 30% in meno, e le prestazioni calano del 10%... Con una bella cloccatina si recupererebbe tutto...

Quoto tutto ma correggo solo una cosa, a quanto pare GF i 22nm li salterà proprio, alcune fonti:
Cadence (http://www.cadence.com/Community/blogs/ii/archive/2011/08/31/gtc-globalfoundries-charts-course-for-28nm-20nm-and-beyond.aspx)
TechReport (http://techreport.com/discussions.x/21568)

A me questo preoccupa più delle performance che avrà BD in questa sua prima incarnazione.

scrat1702
26-09-2011, 17:14
Ma non c'era stata una modifica degli accordi tra AMD e GF sul fatto che venivano pagati solo i chip funzionanti e non il wafer intero (almeno per il 2011 mi pare)?
Credo che i prezzi bassi di partenza siano dovuti anche a questo.

Si. Ma cmq AMD paga i die funzionanti a mmq a prescindere dal numero di core che c'e sopra. E questo che voleva dire.
Quell'accordo credo sia stato fatto a causa delle rese penose di GF che se avesse fatto pagare i wafer interi con rese basse sarebbe stato altamente svantaggioso, se non catastrofico, per AMD.

BodyKnight
26-09-2011, 17:15
e da consumatore perchè dovrei prendere un prodotto che si limitasse a ridurre il ritardo a 6-10 mesi? personalmente mi aspetto che una nuova architettura migliori quello che in commercio c'è già non che la eguagli

Infatti aspetto di vedere i prezzi in negozio.

HacNet
26-09-2011, 17:18
... ma non credo che se l'8150 eguaglierà il 2600k ci sarà troppo da gioire...avendolo posso dirti che in operazioni multitread se lo "spingi" troppo è anche lui in dificolta, e non sa dove andare a parare! secondo me un 8 core si sarebbe comportato meglio, comq. oggi facendo una codifica video mi sono trovato il systema mezzo blocatto e visualizavo solo un video sul tubo mentre codificavo! non lo mitizate troppo che è si potente con i suoi 8 thread ma anche lui trova i suoi limiti:O mi ha un po deluso, mai na scherma nera bluscren ect e si incepa in una caxxatina
costringendoti al reboot si perchè nemeno il task manager rispondeva ed il sistema è fresco di installzione ...

Heimdallr
26-09-2011, 17:22
avendolo posso dirti che in operazioni multitread se lo "spingi" troppo è anche lui in dificolta, e non sa dove andare a parare! secondo me un 8 core si sarebbe comportato meglio, comq. oggi facendo una codifica video mi sono trovato il systema mezzo blocatto e visualizavo solo un video sul tubo mentre codificavo! non lo mitizate troppo che è si potente con i suoi 8 thread ma anche lui trova i suoi limiti:O mi ha un po deluso, mai na scherma nera bluscren ect e si incepa in una caxxatina
costringendoti al reboot si perchè nemeno il task manager rispondeva ed il sistema è fresco di installzione ...

Vabè io faccio fatica a navigare su Opera quando gira l'antivirus :asd:
(Devo proprio cambiare PC)

HacNet
26-09-2011, 17:26
Vabè io faccio fatica a navigare su Opera quando gira l'antivirus :asd:
(Devo proprio cambiare PC)il fatto è che per me conta come si comporta nel daily usage + che nei bench che si lege a destra e a manca:asd: è li che si vede quanto rende in prestazione perfomnce!:p le " baseline" ed i tools che molte review realizano seguono troppo la tendenza che a me non piace! non la dicono tutta ...

digieffe
26-09-2011, 17:45
fudzilla.com (http://www.fudzilla.com/motherboard/item/24213-amd-a85fx-chipset-aims-for-q1-2012)



qui si ripresenta Komodo. direi che c'è un pò di confusione :rolleyes:

una cosa chiara e che il chipset A85 sarà per FM2, che poi sopra ci vada solo trinity o anche piledriver non l'ho capito

digieffe
26-09-2011, 17:53
...cut...
Io credo che 1MB di cache per core per BD sia anche troppo, anche se probabilmente serve in parte a compensarne la latenza elevatissima. Molto probabilmente diventerà una dimensione adeguata quando da BD si passerà a bulldozer 2 e l'IPC andrà crescendo, e soprattutto quando il processo produttivo passerà ai 22nm. Allora tutta quella L2 sarà meno pesante... Ora in BD c'è più cache che processore... Se ne tolgono metà il processore costa il 30% in meno, e le prestazioni calano del 10%... Con una bella cloccatina si recupererebbe tutto...

Voi dite che Intel ha problemi con la cache, perché deve aumentarne le dimensioni con l'aumento del numero di core... Ciò è dovuto al fatto che la L3 di intel è inclusiva... Però alla fine cosa deve includere? Su un 8 core deve includere 2MB di L2... VUol dire che se passa da 8 a 16 core, deve aumentare di almeno 2MB la cache... non mi sembra un gran costo, quando si raddoppia tutta una CPU... Se poi decide di crescere la L3 in proporzione amen, passerà da 15 a 30MB di L3... E' sempre lineare con il numero di core, con in più quei 256Kb a core...
AMD se si tiene i suoi 1MB di L2 a core, più 1MB di L3 a core... Quando passa a 16 core fa 32MB ci cache pure lei.,.. A 32 core AMD ha 64MB di cache, mentre intel può avere 16MB di L2, Più 16MB di L3 destinata a contenerla, più 1MB di L3 a core... Fanno sempre 64MB... E prima di arrivare a 32 core ne passa di acqua sotto il ponte... Ci sarà Haswell, poi il suo tick-tock.... E sarà il 2015... Da qui al 2015 passa la stessa distanza che c'è tra il Pentium D del 2004 al Core i7 del 2008... Secondo voi ci saranno architetture neanche comparabili?

il processo a 22 nm è stato annullato a favore di un mezzo nodo ottico da 28 nm, credo disponibile per fine 2012 quindi piledriver... il nodo successivo sarà a 20 nm con data incerta

per il discorso cache non credo proprio funzioni come da te descritto:
alla fine la cache L2+L3 di AMD sarà più o meno equivalente alla L3 di Intel



edit: mi hai anticipato
Quoto tutto ma correggo solo una cosa, a quanto pare GF i 22nm li salterà proprio, alcune fonti:
Cadence (http://www.cadence.com/Community/blogs/ii/archive/2011/08/31/gtc-globalfoundries-charts-course-for-28nm-20nm-and-beyond.aspx)
TechReport (http://techreport.com/discussions.x/21568)

A me questo preoccupa più delle performance che avrà BD in questa sua prima incarnazione.

EDIT2: io credo stanno cercando di anticipare i tempi con lo shrink a 28nm visto che per quello a 22 ci sarebbe voluto più tempo... per poi passare diretamente a 20

suneatshours86
26-09-2011, 17:56
Se per caso intel decide di competere sui prezzi, non c'è speranza ha già vinto.
- Paga costi di sviluppo inferiori, perché commercializza più CPU
- paga costi di sviluppo del processo inferiori, perché non ha il SOI
- paga costi di produzione inferiori, perché in un wafer ci entrano quasi il doppio dei chip, con la scusa della minore area e dei minori scarti ai bordi. E poi perché i wafer SOI costano di più...

Insomma se ad AMD produrre un bulldozer ed ammortizzare gli investimenti gli costa 100 dollari, ad intel un sandy bridge come il 2600k ne costa 50... Secondo voi chi vince nella gara al prezzo più basso? Intel fa una valanga di soldi con Sandy bridge... ed è pronta a fare il bis con Ivy....
Anche che non vada neanche l'1% in più ivy bridge ad intel costerà ancora meno, il che è tutto grasso che cola quando a fine trimestre si fanno i bilanci..

concordo sul resto che hai detto, ma non su quello ciò che ho quotato qui in alto.
Non sono un esperto ma a mio avviso non hai considerato la parte più importante:
la duttilità con la quale l'architettura di bd prenderà forma (server, notebook, netbook, apu e desktop). Ecco che quindi un progetto apparentemente più costoso diverebbe di gran lunga meno costoso rispetto alla controparte intel.
Se dico cazzate corregetemi e insultatemi :fagiano:

digieffe
26-09-2011, 18:05
per il 2012 (trimestre imprecisato) ci attenderà ivy bridge 22 nm contro piledriver 28 nm

sempre che qualcosa non vada storto

leoneazzurro
26-09-2011, 18:11
Dai post che hai scritto mi sembra di capire che c'è la possibilità in determinati tipi di benchmark che l'FX-4100(4 core/2 Moduli) se andrà a 3,6 ghz possa andare meno del Phenom II 975 sempre a 3,6 ghz.

In alcuni tipi di benchmark penso di si, in altri, anche single-thread, forse no.

CUT...

Da alcuni punti di vista sarà anche vero, è possibile però che dal punto di vista server ed HPC (dove la dimensione del die conta sempre meno rispetto alle prestazioni) AMD conti di rifarsi dei margini perduti. Inoltre, ad Intel non conviene abbassare troppo i prezzi di SB per diverse ragioni: per tenere alti i margini (dopotutto non è detto che ti convenga abbassare del 30% il prezzo di una CPU per avere anche il 10% in più di quota mercato) e per evitare azioni antitrust. D'altra parte se AMD vuole guadagnare poco con BD, visto che l'utente ha più concorrenza rispetto al passato (die Thuban ancora più grosso e prestazioni inferiori) non vedo il problema dal punto di vista del consumatore.
Sono però convinto anche che l'attuale versione di BD abbia diversi problemi, che non sono nè il clock nè il TDP nè il concetto. Ad esempio leggendo su quasi tutti i siti "che ne capiscono" pare che ci sia un problema abbastanza "tosto" con la cache L1 che dà risultati abbastanza scarsi*, per quel poco che se ne parla. Inoltre le cache L2/L3 enormi, che possono aiutare dal punto di vista del carico di lavoro server (e BD è mirato soprattutto a quel mercato) dal punto di vista dell'efficienza in termini di potenza computazionale/area del die di certo non aiutano.
E' possibile che Piledriver (che a questo punto credo non sia a caso previsto per il 2012) sia una versione maggiormente ottimizzata per il desktop anche da quel punto di vista. Un BD con meno problemi di cache L1, meno cache L2/L3 ma più veloce e qualche ottimizzazione in più sarebbe un concorrente migliore per l'ambito desktop.

* a detta di alcuni questo potrebbe dipendere dalla particolare gerarchia della cache adottata.

General Blue
26-09-2011, 18:40
EDIT2: io credo stanno cercando di anticipare i tempi con lo shrink a 28nm visto che per quello a 22 ci sarebbe voluto più tempo... per poi passare diretamente a 20

Secondo me il motivo principale è che il nodo produttivo a 28 nm è in sviluppo già da tempo per poter essere utilizzato per le GPU, probabilmente costa molto di meno adattare il silicio alle CPU che sviluppare un nodo distinto a parte.... sicuramente comporta una riduzione dei costi e permette la concentrazione degli sforzi su un unico PP.

calabar
26-09-2011, 19:08
Che diamine, uno si distrae un attimo e qui scrivete romanzi... :p
Ho scritto man mano che leggevo, quindi scusate se qualche commento arriva in ritardo rispetto a risposte successive.

Sai cos'è, nel mercato tu identifichi un processore con 8 core con uno con una potenza maggiore di uno con 4 core. Percui alla fine hai frequenza uguale/maggiore, 8 core invece di 4, più cache L2 e L3..... e che diamine, pensi, deve essere per forza più potente e più yeah. [...]
Non è più così da tempo, così come da ancora più tempo non si valuta più la velocità di una cpu dalla frequenza.
Semplicemente più si allontanano le architetture, meno saranno confrontabili da questo tipo di specifiche.
Con le schede video questo è avvenuto già da tempo, nessuno con un minimo di cognizione più guarda la frequenza o il numero di alu, con i processori sta solo avvenendo più in ritardo.

Il discorso sul prezzo poi.... se l' 8150 costerà 245$ e il 2600 sta a oltre 300$ e l' 8150 andrà uguale come sembra dai bench trapelati avremo che il 2600 e fuori mercato. Mi sembrava un ragionamento piuttosto semplice da capire.
Secondo me è il discorso del "fuori mercato" che non ha senso. Il mercato non è un'entità statica, ma in continua evoluzione. Oggi il 2600k ha quel piazzamento nel mercato, domani con l'introduzione degli FX il mercato potrebbe essere differente, e avrà un altro piazzamento. Tutto qui, senza dover ammettere chissà quale truffa.

A chi compra una CPU tutto questo (verissimo al 100%) importa più o meno un valore prossimo allo zero assoluto.
Quando compri guardi il prezzo,le prestazioni e una parte dell'utenza anche i consumi. Quanto ci guadagnano sopra AMD o intel penso importi poco.
Poi riferito al Gulftown il die BD non e immenso visto che sono 248mmq contro cca 300mmq ma anche 4mb di cache in meno. Adesso non so il die size di SB-E ma non credo si discosterà molto da quello dei Gulftown.
Ma è assolutamente rilevante nel misurare la bontà dell'architettura, che è ciò che stiamo facendo qui. Ed è rilevante per AMD, che si spera non faccia bancarotta o si ritiri in una nicchia di mercato come altre aziende prima di lei.

Questo in ambito desktop consumer, comunque, in effetti come qualcuno faceva notare, in altro ambiti AMD potrebbe essere messa meglio.

Inoltre non è con la piattaforma enthusiast che Intel vince sul mercato, vince con quella mainstream.
L'unica arma di BD da questo punto di vista è che la piattaforma è un po' meno striminzita di quella 1155, grazie a HT e il maggior numero di pciE, che in qualche situazione potrebbero renderla preferibile.

Secondo me molti di voi non si rendono conto della difficoltà in cui si trova amd. E non vi rendete conto che questa è la PRIMA incarnazione di un progetto più ampio. [...]
Questo è l'unico punto che mi farebbe rimanere un po' ottimista.
Se il progetto BD è buono, allora magari dopo anni di sviluppo e ritardi, la modularità del progetto potrebbe consentire un ritmo di evoluzione estremamente veloce, tanto da recuperare in fretta il gap con intel.
Certe scelte fatte cioè potrebbero magari portare ad una minore competitività nell'immediato in favore di uno sviluppo più rapido ed efficiente nel prossimo futuro.

A questo aggiungiamo che a differenza di intel AMD non beneficerà di un miglioramento significativo del processo produttivo per molto tempo.
Questo è sicuramente uno svantaggio, ma può apportare benefici dal punto di vista della maturità del processo produttivo, evitando altri eventuali ritardi (come quelli che stiamo sperimentando ora) e quindi favorendo la velocità dello sviluppo nel breve periodo.

capitan_crasy
26-09-2011, 19:14
fudzilla.com (http://www.fudzilla.com/motherboard/item/24213-amd-a85fx-chipset-aims-for-q1-2012)
qui si ripresenta Komodo. direi che c'è un pò di confusione :rolleyes:

Mi permetto di darti un consiglio, lascia stare l'immondizia pubblicata da FUDZILLA!

una cosa chiara e che il chipset A85 sarà per FM2, che poi sopra ci vada solo trinity o anche piledriver non l'ho capito

AMD presenterà il socket FM2 per le soluzioni delle APU Trinity e per le soluzioni Komodo; poi dal nulla è uscita una roadmap artigianale fatta senza uno straccio di prova dove dicevano che Komodo sarebbe stato cancellato in favore del solo socket AM3+.
Qui siamo vittima delle voci incontrollate basate sul niente!
Comunque sia A85FX (nome in codice Hudson D4 FCH) come dice il nome è un SB studiato per le future CPU FX, anche se essendo su piattaforma FMx si potrà montare anche Trinity...
Questa è una roadmap ufficiale AMD di giugno sotto NDA:
http://www.xtremeshack.com/immagine/t102665_cehumj7s3bqy.jpg (http://www.xtremeshack.com/scheda/102665_cehumj7s3bqy.jpg.html)
Restiamo sulle cose ufficiali e lasciamo perdere o almeno trattiamo le voci come tali e non come oro colato...

didedubo
26-09-2011, 19:16
Un 8150 dalle prestazioni di un 2600k sarebbe un fallimento.
Il prezzo on c'entra nulla, perché il prezzo dipende dalle prestazioni, non le prestazioni dal prezzo. Se l'8150 si trova a 200 euro è perché è na CPU mediocre, non perché AMD è magnanima...


quoto

Mastergiò
26-09-2011, 19:31
quoto
io non quoto, sono un paio di architetture che amd rivaleggia sempre con la precedente di intel a pari PP dall'uscita dell'architettura core.
un salto cosi grosso è paragonabile alla prima serie di fermi...le gf100 , tanta potenza e poca raffinatezza, ma poi si è visto che la serie con gf110 la bontà dell'architettura.
stessa storia qui, si sta cambiando totalmente architettura, e già il fatto di essere al pari con le attuali soluzioni top @32nm con un socket che ha già fatto la storia AMx è lodevole a parer mio.

ognuno comprerà per esigenza ma noto con piacere che amd nonostante sia una mosca in confronto ad intel vuole sbarcare con nuove idee e nuovi approcci nel MT. tra l'altro sappiamo benissimo che un 2600k in game và gia meglio di un 3960x a parità di clock, quindi a meno che non si lavori in ambienti professionali e con programmi specifici, nell'uso domestico del pc eguagliare il 2600K vuol dire eguagliare il caposaldo di intel.
per me non è da poco, se poi si poteva fare di meglio...lo dirò il 12 ottoble...buona continuazione nel thread, vi seguo ;)

leoneazzurro
26-09-2011, 19:32
Un estratto da un bell'articolo sulla microachitettura Bulldozer

"Philosophically, Bulldozer seems to learn from the lessons of the past decade. AMD is stepping back from the pursuit of single threaded performance, to emphasize throughput. The cores are not lightweight, as with a GPU or with Niagara; the single threaded performance should actually be higher than the previous generation Magny-Cours and comparable to current Intel designs.** However, in determining project goals for Bulldozer single threaded performance was consciously sacrificed to meet what the team determined was a more optimal overall design point. This stands in contrast to Intel, where single threaded performance is still the first and foremost design target for designs like Sandy Bridge. This is acknowledgement that AMD cannot beat Intel on single threaded performance, and it would be a repetition of the last 3 years to attempt such an endeavor. Instead, they are trying to change the rules of the game, by focusing on the core count and highly parallel server workloads. "

** Nehalem

http://www.realworldtech.com/page.cfm?ArticleID=RWT082610181333&p=2

JDM70
26-09-2011, 19:34
avendolo posso dirti che in operazioni multitread se lo "spingi" troppo è anche lui in dificolta, e non sa dove andare a parare! secondo me un 8 core si sarebbe comportato meglio, comq. oggi facendo una codifica video mi sono trovato il systema mezzo blocatto e visualizavo solo un video sul tubo mentre codificavo! non lo mitizate troppo che è si potente con i suoi 8 thread ma anche lui trova i suoi limiti:O mi ha un po deluso, mai na scherma nera bluscren ect e si incepa in una caxxatina
costringendoti al reboot si perchè nemeno il task manager rispondeva ed il sistema è fresco di installzione ...

come non quotare, purtroppo tanti non ci arrivano, li sta la differenza tra il virtuale e...
alla fine i bench sono marketing, con tutto il rispetto per chi li fa, in OC questa si chiama passione ma nell'uso reale e tutta un'altra cosa.

Heimdallr
26-09-2011, 19:38
EDIT2: io credo stanno cercando di anticipare i tempi con lo shrink a 28nm visto che per quello a 22 ci sarebbe voluto più tempo... per poi passare diretamente a 20

io spero ci riescano, spero che GF non abbia problemi con il processo produttivo perchè francamente non mi sorprenderebbe un rinvio proprio per scarsa resa o altro.
Comunque 28nm contro Intel a 22nm FD-SOI non promette bene onestamente.

lishi
26-09-2011, 19:44
Sarebbe comunque più veloce di un 2500k con un buon margine eh(se il prezzo è messo bene)

Alla fine mi sa che ci si aspettava forse troppo da questi processori.

Amd a parte un breve periodo con gli athlon 64 non è mai stato un campione di potenza in confronto a intel. Ha sempre puntato essere competitivo con i prezzi.

digieffe
26-09-2011, 19:45
io spero ci riescano, spero che GF non abbia problemi con il processo produttivo perchè francamente non mi sorprenderebbe un rinvio proprio per scarsa resa o altro.
Comunque 28nm contro Intel a 22nm FD-SOI non promette bene onestamente.

non conosco i processi produttivi ma si dovrebbe trattare di uno shrink ottico del 32 nm (con tutte le sue caratteristiche soi+....)... immagino non ci dovrebbero essere troppi problemi...

digieffe
26-09-2011, 19:50
Un estratto da un bell'articolo sulla microachitettura Bulldozer

"Philosophically, Bulldozer seems to learn from the lessons of the past decade. AMD is stepping back from the pursuit of single threaded performance, to emphasize throughput. The cores are not lightweight, as with a GPU or with Niagara; the single threaded performance should actually be higher than the previous generation Magny-Cours and comparable to current Intel designs.** However, in determining project goals for Bulldozer single threaded performance was consciously sacrificed to meet what the team determined was a more optimal overall design point. This stands in contrast to Intel, where single threaded performance is still the first and foremost design target for designs like Sandy Bridge. This is acknowledgement that AMD cannot beat Intel on single threaded performance, and it would be a repetition of the last 3 years to attempt such an endeavor. Instead, they are trying to change the rules of the game, by focusing on the core count and highly parallel server workloads. "

** Nehalem

http://www.realworldtech.com/page.cfm?ArticleID=RWT082610181333&p=2

avevo già letto l'inverno scorso quell'articolo, non ne ricordavo la filosofia...

se è un ottima filosofia per i server, personalmente non sono soddisfatto,
mi capita non di rado di dover utilizzare processi (non creati da me) non altrimenti parallelizzabili (o non ancora parallelizzati) e francamente la potenza in ST fa comodo...


EDIT: processi anche parzialmente parallelizzati, così vedi che l'utilizzo passa da un core a più core e viceversa...

nella mia esperienza c'è sempre una costante: quando sono attivi più core il tempo è sostanzialmente trascurabile quando arriva il codice non parallelizzato/parallelizzabile... c'è sempre da attendere...
ps: non sono processi batch (quindi non mi posso allontanare), sono interattivi pesanti.

capitan_crasy
26-09-2011, 19:50
Cadence (http://www.cadence.com/Community/blogs/ii/archive/2011/08/31/gtc-globalfoundries-charts-course-for-28nm-20nm-and-beyond.aspx)
TechReport (http://techreport.com/discussions.x/21568)


Non ho postato la notizia per via del mio momento di pausa, rimedio subito:


Nuova roadmap rilasciata da GlobalFoundries per quanto riguarda la futura programmazione per i suoi processi produttivi:

http://www.xtremeshack.com/immagine/i108096_globalfoundries-28nm-20nm.jpg

Disponibili da subito i 32nm SOI e 28nm Bulk, nel 2012 sarà pronto il 28nm denominato SHP (la stessa dicitura dei 32nm SOI), il quale verrà utilizzato per la produzione delle future piattaforme Server Dublin/Macao basato sull'architettura Bulldozer previste per il 2013.
Per ora non si sono conferme se questi 28nm destinati alla priduzioni delle CPU sia con tecnologia SOI oppure Bulk, anche se ci sono più possibilità che sia silicio by IBM.
Totalmente assenti i 22nm SOI previsti per il 2013, mentre per il 2014 dovrebbero presentati i 20nm forse con tecnologia SOI per poi passare nel prossimo futuro ai 14nm ETSOI.

http://www.xtremeshack.com/immagine/i108112_globalfoundries-14nm.jpg

Clicca qui... (http://www.brightsideofnews.com/news/2011/9/6/amd-not-leaving-soi-for-28nm-10-core-macau-and-20-core-dublin-cpus.aspx)

DottorLeo
26-09-2011, 20:07
Piccola notizia di contorno, Jason Garrett-Glaser conosciuto anche come Dark_Shikari e principale sviluppatore dell'encoder x264 ha ammesso di aver accesso a un processore Bulldozer via SSH per poter ottimizzare il programma in vista del rilascio di quest'ultimo. LINK (http://forum.doom9.org/showthread.php?p=1528746#post1528746) LINK2 (http://forum.doom9.org/showthread.php?p=1528813#post1528813)

Claudio-x64
26-09-2011, 20:09
Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

http://3.bp.blogspot.com/-fMWw9ZuJ8h4/ToCYWZEbIJI/AAAAAAAABJY/thCzPljQNH8/s1600/spotreba.png

tecno789
26-09-2011, 20:10
caspita ho visto i bench postati nel sito di hwupgrade, sembrano favolose queste cpu, in pratica si attestano tra gli i5-2500k e gli i7-2600k!

confermate?

Korn
26-09-2011, 20:11
no

Korn
26-09-2011, 20:12
Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

non è meglio che dia i numeri del lotto?

tecno789
26-09-2011, 20:14
no

come no?? :D

Claudio-x64
26-09-2011, 20:15
non è meglio che dia i numeri del lotto?
Mmmm quelli no ... però se cerchi qualche pagina dietro io ho dato quelli di CB ... :)

Korn
26-09-2011, 20:21
come no?? :D

puzzano di fake...

dav1deser
26-09-2011, 20:22
[QUOTE=Claudio-x64;36011654]Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

Fosse vero sarebbe davvero notevole! 30W in meno di un X4 850 nonostante quest'ultimo abbia TDP inferiore.

marchigiano
26-09-2011, 20:25
Non è un ritardo di 5-6-10 mesiiiiiiii!!!!!!
Non è vero un tubo! Il ritardo è di anni, non lo vedi! Se BD 8x va come core i7 2600k, allora va da come a un po' di meno di Gulftown!! Il tutto con una die area immensa a confronto!!!!!!!!

in effetti sembra proprio simile all'evoluzione tecnica di gulftown, poi si è passati a lynnfield con le pcie integrate e lo stesso farà BD co socket FM1...

oggi facendo una codifica video mi sono trovato il systema mezzo blocatto e visualizavo solo un video sul tubo mentre codificavo!

dovevi impostare priorità bassa per la codifica

Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

http://3.bp.blogspot.com/-fMWw9ZuJ8h4/ToCYWZEbIJI/AAAAAAAABJY/thCzPljQNH8/s1600/spotreba.png

visto che se c'è qualcosa di positivo lo scrive anche lui :D

una cosa però... il turbo amd serve per avvicinarsi al tdp e non lasciare il buco sprecato dal acp, quindi per sfruttare in pieno i 125w il BD dovrebbe consumare più del 1100t, se non lo fa vuol dire che il turbo funziona male

tecno789
26-09-2011, 20:27
puzzano di fake...

:muro: mi sembravano ottimi valori!!!

XatiX
26-09-2011, 20:31
Piccola notizia di contorno, Jason Garrett-Glaser conosciuto anche come Dark_Shikari e principale sviluppatore dell'encoder x264 ha ammesso di aver accesso a un processore Bulldozer via SSH per poter ottimizzare il programma in vista del rilascio di quest'ultimo. LINK (http://forum.doom9.org/showthread.php?p=1528746#post1528746) LINK2 (http://forum.doom9.org/showthread.php?p=1528813#post1528813)

Azz mi hai anticipato!! :D
Grande dark!

Claudio-x64
26-09-2011, 20:35
una cosa però... il turbo amd serve per avvicinarsi al tdp e non lasciare il buco sprecato dal acp, quindi per sfruttare in pieno i 125w il BD dovrebbe consumare più del 1100t, se non lo fa vuol dire che il turbo funziona male
Giusta osservazione. Però non dovrebbe consumare lo stesso del Thuban, invece che di più ? Sono entrambi da 125W.

:ot:
Se è vero che il 2600K può superare per qualche secondo (25s ?) il TDP di 95W, allora le misurazioni del consumo che vengono effettuate non sono un po "falsate" ? E con esse parte dei test ? Ho notato che di questa cosa non si parla mai nelle rencensioni.

BodyKnight
26-09-2011, 20:37
come no?? :D


Vatti a cercare i valori per i 2500k e i 2600k e vedrai che non tornano.

digieffe
26-09-2011, 20:38
Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

http://3.bp.blogspot.com/-fMWw9ZuJ8h4/ToCYWZEbIJI/AAAAAAAABJY/thCzPljQNH8/s1600/spotreba.png

come è possibile che ci siano una 60ina di watt di differenza in full load con il 990x???

facendo due conti a spanne
se la piattaforma in idle consuma di più: 135 vs 103 quindi +32w
la differenza in full load è 302 vs 211 quindi +91w

sottraiamo al full load la differenza della piattaforma 91w - 32w = 59W

allora è un FX8150 è un 125-59= 65w....

ecco la super mossa strategica inaspettata :D



certo che se qualcuno trovasse una spiegazione sarebbe meglio

capitan_crasy
26-09-2011, 20:47
Non fucilatemi (è un post dell'innominabile :D), però sembra una buona notizia:

[IMG]hì


Abbiamo già centinaia di pagine inutili, per cortesia non aumentiamo, con il "materiale" di questo ignobile individuo, i post inutili...
Ti prego di editare l'immagine...

calabar
26-09-2011, 21:01
Abbiamo già centinaia di pagine inutili, per cortesia non aumentiamo, con il "materiale" di questo ignobile individuo, i post inutili...
Ti prego di editare l'immagine...
Non è certo censurando le voci che si fa buona informazione.
Si riporta, e si specifica da dove viene e il valore di affidabilità della fonte.

In ogni caso, meglio riportare qui l'immagine che istigare gli utenti ad andarsela a vedere direttamente sul blog dell'innominabile. ;) Poi fa troppi accessi! :p

Capozz
26-09-2011, 21:07
E basta con OBR...

tmx
26-09-2011, 21:09
ma le slide di oggi su hwup sono ufficiali? (/o fake? :confused: )
il primo grafico mi sembra molto buono...:eek:

scusate se ve lo chiedo ma non ho visto commenti a riguardo nelle ultime 3-4 pagg..:fagiano: .

tecno789
26-09-2011, 21:11
ma le slide di oggi su hwup sono ufficiali? (/o fake? :confused: )
il primo grafico mi sembra molto buono...:eek:

scusate se ve lo chiedo ma non ho visto commenti a riguardo nelle ultime 3-4 pagg..:fagiano: .

strano, avevo chiesto io e mi hanno linciato :D, dicono che siano dei fake....:muro:

tmx
26-09-2011, 21:12
strano, avevo chiesto io e mi hanno linciato :D, dicono che sono dei fake....:muro:

grazie :D
accidenti peccato... :oink:

tecno789
26-09-2011, 21:13
grazie :D
accidenti peccato... :oink:

già, stavo reputando ottimi quei valori!! uff snervante questa attesa e non avere neanche un bench "vero" :muro:

Trokji
26-09-2011, 21:13
Ma al di là del fatto che siano dati veri o inventati..
Come si è detto precedentemente il tdp che danno amd e intel è misurato con metodi diversi. In generale se non erro amd si riferisce al tdp massimo raggiungibile nelle peggiori condizioni, quindi si tratta di temperature elevate e carichi difficilmente riproducibili in un utilizzo normale.
Oltre a questo c'è il fatto "semplificazione", cioè classicamente le classi di tdp per amd sono sempre state 65W, 95W, 125W (140 W raramente). Se una cpu nell'uso quotidiano assorbisse 60 watts, ma poi nei loro test raggiungesse un picco pari a 96 watts, ricadrebbe comunque nell'ultima categoria, che a conti fatti altro non serve che per dimensionare la dissipazione.
Ovviamente non so di preciso come siano questi test ma suppongo un discorso simile sia plausibile.
Detto questo i watts dissipati sono sempre una cosa da considerare, ma prima delle recensioni prenderei con le molle i dati che vengono diffusi anche dalle slide ufficiali di un'azienda o dell'altra

marchigiano
26-09-2011, 21:14
Giusta osservazione. Però non dovrebbe consumare lo stesso del Thuban, invece che di più ? Sono entrambi da 125W.

do per scontato che il thuban non arrivi al tdp con 6 core attivi

Se è vero che il 2600K può superare per qualche secondo (25s ?) il TDP di 95W, allora le misurazioni del consumo che vengono effettuate non sono un po "falsate" ? E con esse parte dei test ? Ho notato che di questa cosa non si parla mai nelle rencensioni.

obr l'ha testato col cinebench che dura ben più di 25sec, comunuque lo sforamento penso che avvenga con la igp attiva, se spenta penso che sia sempre sotto il tdp (altrimenti il turbo dovrebbe aumentere almeno di un bin no?)

come è possibile che ci siano una 60ina di watt di differenza in full load con il 990x???

facendo due conti a spanne
se la piattaforma in idle consuma di più: 135 vs 103 quindi +32w
la differenza in full load è 302 vs 211 quindi +91w

sottraiamo al full load la differenza della piattaforma 91w - 32w = 59W

allora è un FX8150 è un 125-59= 65w....

ecco la super mossa strategica inaspettata :D



certo che se qualcuno trovasse una spiegazione sarebbe meglio

la piattaforma 1366 consuma molto di più della am3, quelli sono i consumi dell'intero sistema

i confronti vanno fatti all'interno dello stesso socket

scrat1702
26-09-2011, 21:19
Abbiamo già centinaia di pagine inutili, per cortesia non aumentiamo, con il "materiale" di questo ignobile individuo, i post inutili...
Ti prego di editare l'immagine...

Quoto. Lasciate stare quell'individuo, poi già che fa dei fake almeno non facesse casini!!! :muro: Ma nessuno ha guardato attentamente la slide? Sotto mette che le bande rosse sono quelle del consumo in idle e quelle azzurre in Cb 11.5 :mc:

scrat1702
26-09-2011, 21:31
visto che se c'è qualcosa di positivo lo scrive anche lui :D

una cosa però... il turbo amd serve per avvicinarsi al tdp e non lasciare il buco sprecato dal acp, quindi per sfruttare in pieno i 125w il BD dovrebbe consumare più del 1100t, se non lo fa vuol dire che il turbo funziona male

O forse a 3.9Ghz su 8 core non raggiunge i 125W. Perché dovrebbe essere il turbo a funzionar male? Poi quella slide sembra un fake fatto anche male.

Jackaos
26-09-2011, 21:44
Questa è una roadmap ufficiale AMD di giugno sotto NDA:
http://www.xtremeshack.com/immagine/t102665_cehumj7s3bqy.jpg (http://www.xtremeshack.com/scheda/102665_cehumj7s3bqy.jpg.html)
Restiamo sulle cose ufficiali e lasciamo perdere o almeno trattiamo le voci come tali e non come oro colato...

Ciao... sulla tabella di sinistra si vede come il 990fx/x + il SB 950 supportino il PCIe 2.0, mentre non viene specificato nulla per i chipset di Piledriver, a parte quel CLK ( clock?) int. ecc che non so cosa sia; quello che mi chiedevo, era se verrà introdotto con il possibile Komodo il PCIe 3.0, ne sapete nulla?

The3DProgrammer
26-09-2011, 22:06
do per scontato che il thuban non arrivi al tdp con 6 core attivi



obr l'ha testato col cinebench che dura ben più di 25sec, comunuque lo sforamento penso che avvenga con la igp attiva, se spenta penso che sia sempre sotto il tdp (altrimenti il turbo dovrebbe aumentere almeno di un bin no?)



la piattaforma 1366 consuma molto di più della am3, quelli sono i consumi dell'intero sistema

i confronti vanno fatti all'interno dello stesso socket


TDP = THERMAL design power

capitan_crasy
26-09-2011, 22:18
MSI ha rilasciato i primi BIOS per le CPU FX sul modello 990FXA-GD80:

http://www.xtremeshack.com/immagine/i111529_screenhunter-79.jpg

Clicca qui... (http://www.msi.com/product/mb/990FXA-GD80.html#?div=CPUSupport)

capitan_crasy
26-09-2011, 22:28
Ciao... sulla tabella di sinistra si vede come il 990fx/x + il SB 950 supportino il PCIe 2.0, mentre non viene specificato nulla per i chipset di Piledriver, a parte quel CLK ( clock?) int. ecc che non so cosa sia; quello che mi chiedevo, era se verrà introdotto con il possibile Komodo il PCIe 3.0, ne sapete nulla?

Secondo alcuni documenti AMD il core Piledriver, utilizzato per Trinity/Komodo/Sepang, avrà integrato nel DIE il controller PCI-Express 3.0; per tanto servirà un nuovo socket basato su infrastruttura FMx e non sarà più necessario un chipset stile 990FX...

marchigiano
26-09-2011, 22:49
Proponi quindi di togliere ogni confronto di consumi dalle recensioni?

no però con i giusti distinguo perchè ci sarebbe anche da dire che a pari socket ogni mobo consuma in maniera diversa, se vedi il pc che ho in firma consuma 49W in idle (a def ovviamente) considerando che con questo carico l'ali renderà al 75% circa... e dimmi se hai mai visto una rece di un socket am3 consumare 50W in idle... prendi una top di gamma consuma anche 20W di più per via delle fasi sovradimensionate

O forse a 3.9Ghz su 8 core non raggiunge i 125W. Perché dovrebbe essere il turbo a funzionar male? Poi quella slide sembra un fake fatto anche male.

se non raggiunge i 125w a 3.9 non viene rispettato quanto dichiarato da JF, cioè il turbo che pompa tanto quanto basta per sfiorare il tdp, se a 3.9 sei a 100w per dire, dei spingere a 4 o più

TDP = THERMAL design power

se una cpu consuma 100w significa che emette 100w di calore

calabar
26-09-2011, 23:02
se non raggiunge i 125w a 3.9 non viene rispettato quanto dichiarato da JF, cioè il turbo che pompa tanto quanto basta per sfiorare il tdp, se a 3.9 sei a 100w per dire, dei spingere a 4 o più
Non necessariamente: le frequenze non salgono in maniera indefinita fino a raggiungere il TDP, ma si fermano comunque entro certi limiti.

The3DProgrammer
26-09-2011, 23:04
no però con i giusti distinguo perchè ci sarebbe anche da dire che a pari socket ogni mobo consuma in maniera diversa, se vedi il pc che ho in firma consuma 49W in idle (a def ovviamente) considerando che con questo carico l'ali renderà al 75% circa... e dimmi se hai mai visto una rece di un socket am3 consumare 50W in idle... prendi una top di gamma consuma anche 20W di più per via delle fasi sovradimensionate



se non raggiunge i 125w a 3.9 non viene rispettato quanto dichiarato da JF, cioè il turbo che pompa tanto quanto basta per sfiorare il tdp, se a 3.9 sei a 100w per dire, dei spingere a 4 o più



se una cpu consuma 100w significa che emette 100w di calore

ma non vuol dire che consuma 100w di potenza

dav1deser
26-09-2011, 23:06
Non necessariamente: le frequenze non salgono in maniera indefinita fino a raggiungere il TDP, ma si fermano comunque entro certi limiti.

Più che altro essendo il turbo deterministico si devono mettere nella peggiore situazione possibile, cioè l'8150 più sfigato col turbo attivo raggiungerà i 125W, modelli più fortunati invece possono fermarsi prima.

dav1deser
26-09-2011, 23:08
ma non vuol dire che consuma 100w di potenza

Non puoi emettere 100W di calore se non ne hai assorbiti almeno altrettanti (l'energia non si crea...) e quindi i 100W dissipati sono prima stati assorbiti.

The3DProgrammer
26-09-2011, 23:10
Non puoi emettere 100W di calore se non ne hai assorbiti almeno altrettanti (l'energia non si crea...) e quindi i 100W dissipati sono prima stati assorbiti.


appunto. quindi non sappiamo esattamente quanti ne assorbe thuban per poi emettere 125w e quanti bd

marchigiano
26-09-2011, 23:20
un momento un momento... il processore è un po come una resistenza variabile, per dire in idle sta a 0.8V e 5A quindi 160 mohm, in full 1.4V e 50A quindi 28 mohm

la resistenza che oppone all'elettricità viene convertita in calore c'è poco da fare... come una lampadina

Gigamez
26-09-2011, 23:23
Possibile che tu non riesca a capire che 305$ era un prezzo perfettamente adeguato al mercato, finché non c'era concorrenza?
Che diamine c'è da ammettere? Abbiamo uyna CPu a 300$, ne esce una che va uguale a 250$... Solo allora la nostra diventa fuori mercato, e abbassiamo a 240. Se AMD faceva uscire a 300 il SB era ancora perfettamente adeguato e nessuno abbassava il prezzo.

Il mercato è deciso dalla concorrenza che hai, non dalle scelte che fai tu! Non è mica amd o intel a decidere qual'è il prezzo gusto di una CPU... E' la situazione di mercato! Se questa cambia, cambia il prezzo corretto e amen!


Ripeto un concetto che mi sembra sia chiaro a pochi, poi torno a tacere, perché tanto a parlare per scontrarsi contro l'ottusaggine dei più non c'è gusto:

Un 8150 dalle prestazioni di un 2600k sarebbe un fallimento.
Il prezzo on c'entra nulla, perché il prezzo dipende dalle prestazioni, non le prestazioni dal prezzo. Se l'8150 si trova a 200 euro è perché è na CPU mediocre, non perché AMD è magnanima...

AMD le CPU le paga a mm^2 di silicio, non a numero di core, ne a thread, ne a megahertz.
Per cui un 8150 da oltre 300mm^2, quando intel riesce a fare le stesse prestazioni 8 mesi prima, con una CPU da 150 (tolgiendo l'area della GPU che non conta) è un assoluto fallimento.
Ah considerate che il processo produttivo di intel è senza soi, e quindi costa meno.

Se per caso intel decide di competere sui prezzi, non c'è speranza ha già vinto.
- Paga costi di sviluppo inferiori, perché commercializza più CPU
- paga costi di sviluppo del processo inferiori, perché non ha il SOI
- paga costi di produzione inferiori, perché in un wafer ci entrano quasi il doppio dei chip, con la scusa della minore area e dei minori scarti ai bordi. E poi perché i wafer SOI costano di più...

Insomma se ad AMD produrre un bulldozer ed ammortizzare gli investimenti gli costa 100 dollari, ad intel un sandy bridge come il 2600k ne costa 50... Secondo voi chi vince nella gara al prezzo più basso? Intel fa una valanga di soldi con Sandy bridge... ed è pronta a fare il bis con Ivy....
Anche che non vada neanche l'1% in più ivy bridge ad intel costerà ancora meno, il che è tutto grasso che cola quando a fine trimestre si fanno i bilanci...

Il discorso che fanno in tanti "sono 8 core, ma in realtà sono 4 con SMT", oltre che sbagliato, sarebbe comunque accettabile (nel senso che si potrebbe considerare un'alternativa valida, come lo sono state le HD4870 da 800 ALU contro le GTX260 da 216 ALU) solo se gli 8 core di AMD occupassero lo spazio dei 4 core di intel... Dato che così non è (anche per via degli 8MB di cache L2 quando intel fa le stesse prestazioni con 1MB di L2 in tutto....) e BD è più grande di SB, e non di poco, il discorso non funziona.
Le HD4870 non hanno mica vinto perché a noi meno delle GTX260. Se fosse stato così ad NVIDIA sarebbe bastato abbassare il prezzo.
Il discorso era ben diverso! rv770 era grande metà di GT200, e pertanto costava, a confronto, una pipa di tabacco! Per cui quando AMD se n'è uscita con una scheda da 300 euro, NVIDIA il prezzo non l'ha potuto abbassare troppo.

Qui invece intel ha l'rv770 piccolo, economico ed efficiente, mentre AMD ha il gt200, ugualmente potente, ma grosso e costoso...

Io credo che 1MB di cache per core per BD sia anche troppo, anche se probabilmente serve in parte a compensarne la latenza elevatissima. Molto probabilmente diventerà una dimensione adeguata quando da BD si passerà a bulldozer 2 e l'IPC andrà crescendo, e soprattutto quando il processo produttivo passerà ai 22nm. Allora tutta quella L2 sarà meno pesante... Ora in BD c'è più cache che processore... Se ne tolgono metà il processore costa il 30% in meno, e le prestazioni calano del 10%... Con una bella cloccatina si recupererebbe tutto...

Voi dite che Intel ha problemi con la cache, perché deve aumentarne le dimensioni con l'aumento del numero di core... Ciò è dovuto al fatto che la L3 di intel è inclusiva... Però alla fine cosa deve includere? Su un 8 core deve includere 2MB di L2... VUol dire che se passa da 8 a 16 core, deve aumentare di almeno 2MB la cache... non mi sembra un gran costo, quando si raddoppia tutta una CPU... Se poi decide di crescere la L3 in proporzione amen, passerà da 15 a 30MB di L3... E' sempre lineare con il numero di core, con in più quei 256Kb a core...
AMD se si tiene i suoi 1MB di L2 a core, più 1MB di L3 a core... Quando passa a 16 core fa 32MB ci cache pure lei.,.. A 32 core AMD ha 64MB di cache, mentre intel può avere 16MB di L2, Più 16MB di L3 destinata a contenerla, più 1MB di L3 a core... Fanno sempre 64MB... E prima di arrivare a 32 core ne passa di acqua sotto il ponte... Ci sarà Haswell, poi il suo tick-tock.... E sarà il 2015... Da qui al 2015 passa la stessa distanza che c'è tra il Pentium D del 2004 al Core i7 del 2008... Secondo voi ci saranno architetture neanche comparabili?

purtroppo devo quotare totalmente.

The3DProgrammer
26-09-2011, 23:31
un momento un momento... il processore è un po come una resistenza variabile, per dire in idle sta a 0.8V e 5A quindi 160 mohm, in full 1.4V e 50A quindi 28 mohm

la resistenza che oppone all'elettricità viene convertita in calore c'è poco da fare... come una lampadina


considera l'efficienza della lampadina - se vuoi approssimarlo ad una lampadina - e vedi che ti ritrovi nei calcoli

una lampadina da 100w con efficienza del 100% emette 0 calore
una lampadina da 100w con efficienza dell'80 emette 20w di calore
una lampadina da 100w con un'efficienza del 40 emette 60w di calore


quindi + e' alta l'efficienza, + la potenza dissipata diminuisce a parita' di consumo


possiamo quindi pensare che bd sia + efficiente - grazie al nuovo pp e ai miglioramenti del pw management - e richieda meno corrente di thuban, pur dissipando lo stesso calore

- sto morendo di sonno, se sto delirando nn bannatemi :stordita:

The_SaN
26-09-2011, 23:36
un momento un momento... il processore è un po come una resistenza variabile, per dire in idle sta a 0.8V e 5A quindi 160 mohm, in full 1.4V e 50A quindi 28 mohm

la resistenza che oppone all'elettricità viene convertita in calore c'è poco da fare... come una lampadinaSi ma appunto per questo non puoi dire che 100W assorbiti sono 100W dissipati in calore.
Il TDP si riferisce unicamente al calore emesso che deve essere smaltito dal dissipatore. Il consumo é un'altra cosa.

Oltre al fatto che il TDP 125W é un limite massimo che si usa per dimensionare il dissipatore, non vuol dire che la cpu emetterá 125W di calore. Si lascia sempre un po' di spazio.

dav1deser
26-09-2011, 23:43
considera l'efficienza della lampadina - se vuoi approssimarlo ad una lampadina - e vedi che ti ritrovi nei calcoli

una lampadina da 100w con efficienza del 100% emette 0 calore
una lampadina da 100w con efficienza dell'80 emette 20w di calore
una lampadina da 100w con un'efficienza del 40 emette 60w di calore


quindi + e' alta l'efficienza, + la potenza dissipata diminuisce a parita' di consumo


possiamo quindi pensare che bd sia + efficiente - grazie al nuovo pp e ai miglioramenti del pw management - e richieda meno corrente di thuban, pur dissipando lo stesso calore

- sto morendo di sonno, se sto delirando nn bannatemi :stordita:

Se si va avanti nel discorso si ritorna ad uno già trattato (e che non era piaciuto troppo al capitano). Comunque chiudo l'OT dicendo che bisognerebbe vedere se effettivamente il nuovo pp migliora l'efficienza dei transistor (se di efficienza si può parlare) o se è solo una pura questione geomtrica (del tipo 100mm^2 hanno un'efficienza del 70% [numero a caso] sia che ci siano 2 transistor sia che ce ne siano 1 miliardo). Boh è un discorso complesso e non credo di avere le conoscenze per portarlo avanti, e non siamo nemmeno nel thread giusto, comunque personalmente ritengo che due CPU da 125W di TDP consumino pressapoco uguale (considerando i modelli di punta nella fascia 95-125W e pure con Vcore sfigato).

Uncle Scrooge
27-09-2011, 00:10
possiamo quindi pensare che bd sia + efficiente e richieda meno corrente di thuban, pur dissipando lo stesso calore



Questa è una sciocchezza, perdonami :D
Se dissipa lo stesso calore richiedendo meno corrente, vuol dire che in proporzione viene dissipata ANCOR PIU' energia.

Cioé se, per esempio, Thuban consuma 200 W e ne dissipa 125, mentre BD consuma 180 W e ne dissipa sempre 125, in percentuale il BD è meno efficiente, quindi il tuo ragionamento è corretto ma alla fine hai scritto una castroneria :Prrr:

Diciamo che a parità di TDP devono aumentare le prestazioni del processore, senza tirare in ballo l'energia elettrica richiesta dal processore che resta più o meno legata in maniera praticamente costante al TDP.

leoneazzurro
27-09-2011, 00:17
A meno della radiazione elettromagnetica emessa, tutta la potenza elettrica assorbita si trasforma in calore. Ora, assodato questo punto, possiamo capire che carichi di lavoro diversi portano ad assorbimenti elettrici diversi e che quindi non è detto che si raggiunga il TDP tranne che in casi sporadici?
Oltretutto, anche con il turbo attivato, non è detto che si raggiunga il TDP, perchè l'assunto è che se rimane margine tra potenza assorbita ed il TDP la CPU viene portata a frequenza maggiorata, ma non è detto che ciò faccia raggiungere alla CPU il TDP perchè la potenza assorbita dipende sempre dal carico di lavoro. Quindi potrebbe essere che nelle condizioni peggiori con determinati carichi di lavoro la CPU si avvicini ai 125W o li raggiunga, ma nella maggior parte dei casi ciò non è detto che succeda.

Wolfhang
27-09-2011, 00:54
Possibile che tu non riesca a capire che 305$ era un prezzo perfettamente adeguato al mercato, finché non c'era concorrenza?
Che diamine c'è da ammettere? Abbiamo uyna CPu a 300$, ne esce una che va uguale a 250$... Solo allora la nostra diventa fuori mercato, e abbassiamo a 240. Se AMD faceva uscire a 300 il SB era ancora perfettamente adeguato e nessuno abbassava il prezzo.

Il mercato è deciso dalla concorrenza che hai, non dalle scelte che fai tu! Non è mica amd o intel a decidere qual'è il prezzo gusto di una CPU... E' la situazione di mercato! Se questa cambia, cambia il prezzo corretto e amen!


Ripeto un concetto che mi sembra sia chiaro a pochi, poi torno a tacere, perché tanto a parlare per scontrarsi contro l'ottusaggine dei più non c'è gusto:

Un 8150 dalle prestazioni di un 2600k sarebbe un fallimento.
Il prezzo on c'entra nulla, perché il prezzo dipende dalle prestazioni, non le prestazioni dal prezzo. Se l'8150 si trova a 200 euro è perché è na CPU mediocre, non perché AMD è magnanima...

AMD le CPU le paga a mm^2 di silicio, non a numero di core, ne a thread, ne a megahertz.
Per cui un 8150 da oltre 300mm^2, quando intel riesce a fare le stesse prestazioni 8 mesi prima, con una CPU da 150 (tolgiendo l'area della GPU che non conta) è un assoluto fallimento.
Ah considerate che il processo produttivo di intel è senza soi, e quindi costa meno.

Se per caso intel decide di competere sui prezzi, non c'è speranza ha già vinto.
- Paga costi di sviluppo inferiori, perché commercializza più CPU
- paga costi di sviluppo del processo inferiori, perché non ha il SOI
- paga costi di produzione inferiori, perché in un wafer ci entrano quasi il doppio dei chip, con la scusa della minore area e dei minori scarti ai bordi. E poi perché i wafer SOI costano di più...

Insomma se ad AMD produrre un bulldozer ed ammortizzare gli investimenti gli costa 100 dollari, ad intel un sandy bridge come il 2600k ne costa 50... Secondo voi chi vince nella gara al prezzo più basso? Intel fa una valanga di soldi con Sandy bridge... ed è pronta a fare il bis con Ivy....
Anche che non vada neanche l'1% in più ivy bridge ad intel costerà ancora meno, il che è tutto grasso che cola quando a fine trimestre si fanno i bilanci...

Il discorso che fanno in tanti "sono 8 core, ma in realtà sono 4 con SMT", oltre che sbagliato, sarebbe comunque accettabile (nel senso che si potrebbe considerare un'alternativa valida, come lo sono state le HD4870 da 800 ALU contro le GTX260 da 216 ALU) solo se gli 8 core di AMD occupassero lo spazio dei 4 core di intel... Dato che così non è (anche per via degli 8MB di cache L2 quando intel fa le stesse prestazioni con 1MB di L2 in tutto....) e BD è più grande di SB, e non di poco, il discorso non funziona.
Le HD4870 non hanno mica vinto perché a noi meno delle GTX260. Se fosse stato così ad NVIDIA sarebbe bastato abbassare il prezzo.
Il discorso era ben diverso! rv770 era grande metà di GT200, e pertanto costava, a confronto, una pipa di tabacco! Per cui quando AMD se n'è uscita con una scheda da 300 euro, NVIDIA il prezzo non l'ha potuto abbassare troppo.

Qui invece intel ha l'rv770 piccolo, economico ed efficiente, mentre AMD ha il gt200, ugualmente potente, ma grosso e costoso...

Io credo che 1MB di cache per core per BD sia anche troppo, anche se probabilmente serve in parte a compensarne la latenza elevatissima. Molto probabilmente diventerà una dimensione adeguata quando da BD si passerà a bulldozer 2 e l'IPC andrà crescendo, e soprattutto quando il processo produttivo passerà ai 22nm. Allora tutta quella L2 sarà meno pesante... Ora in BD c'è più cache che processore... Se ne tolgono metà il processore costa il 30% in meno, e le prestazioni calano del 10%... Con una bella cloccatina si recupererebbe tutto...

Voi dite che Intel ha problemi con la cache, perché deve aumentarne le dimensioni con l'aumento del numero di core... Ciò è dovuto al fatto che la L3 di intel è inclusiva... Però alla fine cosa deve includere? Su un 8 core deve includere 2MB di L2... VUol dire che se passa da 8 a 16 core, deve aumentare di almeno 2MB la cache... non mi sembra un gran costo, quando si raddoppia tutta una CPU... Se poi decide di crescere la L3 in proporzione amen, passerà da 15 a 30MB di L3... E' sempre lineare con il numero di core, con in più quei 256Kb a core...
AMD se si tiene i suoi 1MB di L2 a core, più 1MB di L3 a core... Quando passa a 16 core fa 32MB ci cache pure lei.,.. A 32 core AMD ha 64MB di cache, mentre intel può avere 16MB di L2, Più 16MB di L3 destinata a contenerla, più 1MB di L3 a core... Fanno sempre 64MB... E prima di arrivare a 32 core ne passa di acqua sotto il ponte... Ci sarà Haswell, poi il suo tick-tock.... E sarà il 2015... Da qui al 2015 passa la stessa distanza che c'è tra il Pentium D del 2004 al Core i7 del 2008... Secondo voi ci saranno architetture neanche comparabili?

questo è un post che dovrebbe essere portato ad esempio quando si parla del rapporto prezzo/prestazioni dei processori AMD da qualche anno a questa parte (in particolare per i top di gamma), tutto sommato va bene per noi consumatori ma assolutamente male per AMD, per quanto tempo potrà continuare a svendere i suoi processori??

|ron
27-09-2011, 01:16
Dico solo una cosa, a "correzione" del post di foxtrot: intel non ha nessun interesse a spazzare amd via dal mercato, cosa che potrebbe fare praticamente da un gg all'altro da 5 anni a questa parte.
Sappiamo benissimo negli usa cosa succeda quando una compagnia diventa monopolista assoluta... smembrata in compagnie diverse dall'antitrust.
Per loro è molto più conveniente tenere amd dietro del giusto margine, tenere i prezzi più alti per lasciare aria alla concorrenza.
Quindi non preoccupatevi, intel è la prima che ha interesse a che amd non chiuda i battenti, e non farà mai manovre bastardissime di vendite sotto costo per annientare un avversario, perchè si distruggerebbe da sola ;)

Jackaos
27-09-2011, 01:38
Purtroppo è così, o almeno credo anche io così, c'è da sperare che sia solo una situazione del cavolo e che non ci siano accordi di nessun tipo.

psychok9
27-09-2011, 01:55
Dico solo una cosa, a "correzione" del post di foxtrot: intel non ha nessun interesse a spazzare amd via dal mercato, cosa che potrebbe fare praticamente da un gg all'altro da 5 anni a questa parte.
Sappiamo benissimo negli usa cosa succeda quando una compagnia diventa monopolista assoluta... smembrata in compagnie diverse dall'antitrust.
Per loro è molto più conveniente tenere amd dietro del giusto margine, tenere i prezzi più alti per lasciare aria alla concorrenza.
Quindi non preoccupatevi, intel è la prima che ha interesse a che amd non chiuda i battenti, e non farà mai manovre bastardissime di vendite sotto costo per annientare un avversario, perchè si distruggerebbe da sola ;)

Penso la stessa, cosa, e aggiungo però che secondo me Intel, non verrà mai superata commercialmente e soprattutto in R&D... Ci sono degli interessi enormi dietro questo business, e chissà quanti accordi sotterranei, governativi, etc. Spero soltanto che almeno a "qualche giro" gli dia un po' di pista per prendere fiato noi e le tasche di AMD :)

papafoxtrot
27-09-2011, 02:09
Ho quotato un sacco di post... :D

Quoto tutto ma correggo solo una cosa, a quanto pare GF i 22nm li salterà proprio, alcune fonti:
Cadence (http://www.cadence.com/Community/blogs/ii/archive/2011/08/31/gtc-globalfoundries-charts-course-for-28nm-20nm-and-beyond.aspx)
TechReport (http://techreport.com/discussions.x/21568)

A me questo preoccupa più delle performance che avrà BD in questa sua prima incarnazione.

il processo a 22 nm è stato annullato a favore di un mezzo nodo ottico da 28 nm, credo disponibile per fine 2012 quindi piledriver... il nodo successivo sarà a 20 nm con data incerta

EDIT2: io credo stanno cercando di anticipare i tempi con lo shrink a 28nm visto che per quello a 22 ci sarebbe voluto più tempo... per poi passare diretamente a 20

Secondo me il motivo principale è che il nodo produttivo a 28 nm è in sviluppo già da tempo per poter essere utilizzato per le GPU, probabilmente costa molto di meno adattare il silicio alle CPU che sviluppare un nodo distinto a parte.... sicuramente comporta una riduzione dei costi e permette la concentrazione degli sforzi su un unico PP.

Non ho postato la notizia per via del mio momento di pausa, rimedio subito:


Nuova roadmap rilasciata da GlobalFoundries per quanto riguarda la futura programmazione per i suoi processi produttivi:

http://www.xtremeshack.com/immagine/i108096_globalfoundries-28nm-20nm.jpg

Disponibili da subito i 32nm SOI e 28nm Bulk, nel 2012 sarà pronto il 28nm denominato SHP (la stessa dicitura dei 32nm SOI), il quale verrà utilizzato per la produzione delle future piattaforme Server Dublin/Macao basato sull'architettura Bulldozer previste per il 2013.
Per ora non si sono conferme se questi 28nm destinati alla priduzioni delle CPU sia con tecnologia SOI oppure Bulk, anche se ci sono più possibilità che sia silicio by IBM.
Totalmente assenti i 22nm SOI previsti per il 2013, mentre per il 2014 dovrebbero presentati i 20nm forse con tecnologia SOI per poi passare nel prossimo futuro ai 14nm ETSOI.

http://www.xtremeshack.com/immagine/i108112_globalfoundries-14nm.jpg

Clicca qui... (http://www.brightsideofnews.com/news/2011/9/6/amd-not-leaving-soi-for-28nm-10-core-macau-and-20-core-dublin-cpus.aspx)



Non sapevo del cambio di processo produttivo; anche se in effetti era uscita una slide che dava le nuove CPU server, dopo interlagos, a 28nm e mi ero insospettito.
Che dire:
1) A Global foundries conviene, e di riflesso ad AMD. Inutile sviluppare due processi completamente diversi. Conviene, se si sviluppa un 28nm per GPU e chip ARM, adoperarlo anche per le CPU di AMD, facendo le dovute ottimizzazioni.
Ora non so quanto un processo per CPU possa essere differente da un processo nato per le schede video... Probabilmente c'è la differenza che il primo deve salire a 3-4GHz mentre le GPU vanno a 1GHz... D'altro canto ora AMD produce chip grafici (in Llano) sui 32nm SOI...
2) Voglio sperare che il 28nm SHP (stessa sigla del 32nm, fa notare il capitano) abbia anche il SOI... Altrimenti sinceramente temo che il 32nm SOI + HKMG non sia per nulla inferiore, quanto a prestazioni, al 28nm HKMG bulk... Certo il 28nm bulk è estremamente più economico, perché più piccolo e senza SOI, ma AMD ha bisogno di PP efficienti per fronteggiare il 22nm intel che grazie ai trigate transistor promette di essere ottimo e a basso prezzo.
Io credo che il SOI ci sarà... mi sembra strano che lo usino fino ai 32nm, per poi abbandonarlo per i 28 ed i 20, e ripescarlo per il 14nm, che peraltro mi auguro sia eccellente... dai nomi pare così.
Probabilmente, tra l'altro, la nuova fabbrica a new york gli darà anche modo di sviluppare con più anticipo e meno limitazioni i nuovi processi produttivi.

Il 28nm bulk delle GPU non l'SHP con cui e' "etichettato" il 28nm di cui si parla per le CPU

Per le GPU si usa appunto l'SHP... E volevo proprio far notare che ad oggi ad esempio TSMC adotta questa denominazione per il processo destinato alle schede video... A parte le HD7800 e inferiori per le quali pare che AMD abbia scommesso su un processo meno ottimizzato ma pronto prima, e forse più economico... Il HPP...
Non c'è che dire, nell'ambito GPU sono flessibili, veloci, brillanti... Con le CPU sono lenti! Ne annunciano una e poi tardano di mesi e mesi, ed esce vecchia e inferiore alle aspettative.. Ho capito che devono fare strada... Ma con le schede video han camminato come scheggie da HD2900 ad oggi... Mentre da Phenom I, si, hanno messo a posto... Ma siamo arrivati qui e aspettiamo la prima vera innovazione, sperando che non sia alla fine allineata come IPC per core ad un thuban...




AMD presenterà il socket FM2 per le soluzioni delle APU Trinity e per le soluzioni Komodo; poi dal nulla è uscita una roadmap artigianale fatta senza uno straccio di prova dove dicevano che Komodo sarebbe stato cancellato in favore del solo socket AM3+.
Qui siamo vittima delle voci incontrollate basate sul niente!
Comunque sia A85FX (nome in codice Hudson D4 FCH) come dice il nome è un SB studiato per le future CPU FX, anche se essendo su piattaforma FMx si potrà montare anche Trinity...
Questa è una roadmap ufficiale AMD di giugno sotto NDA:
http://www.xtremeshack.com/immagine/t102665_cehumj7s3bqy.jpg (http://www.xtremeshack.com/scheda/102665_cehumj7s3bqy.jpg.html)
Restiamo sulle cose ufficiali e lasciamo perdere o almeno trattiamo le voci come tali e non come oro colato...

Secondo alcuni documenti AMD il core Piledriver, utilizzato per Trinity/Komodo/Sepang, avrà integrato nel DIE il controller PCI-Express 3.0; per tanto servirà un nuovo socket basato su infrastruttura FMx e non sarà più necessario un chipset stile 990FX...

Ache io credo che prima o poi Komdo ci sarà. Per una serie di motivi:
1) Nel settore server ci si aspetta una CPU da 10 a 20 core
2) C'è necessità di unificare le due piattaforme, APU e bulldozer, che ora sono scomodamente su due socket diversi.
3) Si deve iniziare la strada di integrazione del controller pci-e, che consente una riduzione di costi oltre ad essere funzionale allo sviluppo del concetto di Fusion
4) Ormai di AM2, 2+, 3, 3+ non se ne può più :D Sa di vecchio :sofico:

Credo che Konodo, più che cancellato sia stato... hem... rinviato :D
Probabilmente BD ha dei bug da correggere velocemente, ed è valsa la pena di far uscire al volo un nuovo processore che aggiusti il tiro, implementando in parte o del tutto le innovazioni di piledriver, per poi passare a Komodo (su FM2) quando si sarà pronti, il prossimo autunno. Mi sembra che anche le informazioni che ci ha allungato quel disgraziato attanagliato dagli incubi ogni volta che va in pausa pranzo in ufficio tendessero a questa direzione... :D :D :D

concordo sul resto che hai detto, ma non su quello ciò che ho quotato qui in alto.
Non sono un esperto ma a mio avviso non hai considerato la parte più importante:
la duttilità con la quale l'architettura di bd prenderà forma (server, notebook, netbook, apu e desktop). Ecco che quindi un progetto apparentemente più costoso diverebbe di gran lunga meno costoso rispetto alla controparte intel.
Se dico cazzate corregetemi e insultatemi :fagiano:

Perché, secondo te il core di sandy bridge non è duttile? Questo era un discorso una volta, quando AMD progettava un'architettura come deneb, e poi la copiava tirando fuori da athlon Neo a Thuban tutte le bestie del creato. Ora ci sono bobcat, Llano e Bulldozer, e poi ci saranno Krishina, piledriver, wishera, e non si capisce cos'altro.
Per intel non è diverso: c'è Atom, poi sandy bridge (nelle due incarnazioni, ma passa la stessa differenza che c'è tra Trinity e Vishera/Komodo...

In alcuni tipi di benchmark penso di si, in altri, anche single-thread, forse no.

Da alcuni punti di vista sarà anche vero, è possibile però che dal punto di vista server ed HPC (dove la dimensione del die conta sempre meno rispetto alle prestazioni) AMD conti di rifarsi dei margini perduti. Inoltre, ad Intel non conviene abbassare troppo i prezzi di SB per diverse ragioni: per tenere alti i margini (dopotutto non è detto che ti convenga abbassare del 30% il prezzo di una CPU per avere anche il 10% in più di quota mercato) e per evitare azioni antitrust. D'altra parte se AMD vuole guadagnare poco con BD, visto che l'utente ha più concorrenza rispetto al passato (die Thuban ancora più grosso e prestazioni inferiori) non vedo il problema dal punto di vista del consumatore.


Ah su questo non ci piove; la mia non era una supposizione sulle intenzioni di intel di abbassare i prezzi, ma bensì un voler far notare che i prezzi bassi decisi da AMD non fanno onore ai costi che ha dovuto sostenere; se volesse intel potrebbe abbassare molto di più! Invece spesso si considera AMD come quella che pensa al consumatore e sviluppa volutamente prodotti a costo accessibile... BD è accessibile per noi, perché ha le prestazioni di un SB... Ma AMD ci guadagna meno di intel! Spesso pare che intel abbia una CPU costosa per scelta, e che non possa scendere,.. Volevo far notare che come ciò non sia vero. E se non lo fa, come fai notare tu, è certamente perché avrà fatto le sue valutazioni per massimizzare il profitto e nel contempo evitare rogne con l'antitrust. D'altra parte anche questo ha poco da dire... Se un concorrente si prende troppo indietro, mica tutto il mercato può fermarsi ad aspettarlo, sennò diventa peggio del monopolio...
E ovviamente concordo anche sul fatto che per i server il costo di produzione è irrisorio rispetto, magari, al costo di sviluppo e di commercializzazione... Il che richiede collaborazione con i partner e molto impegno...
La cache sugli opteron non sarà mai un problema; sui desktop invece, potevano toglierne metà e fare una cosa più "cost effective". Magari con Vishera vogliono fare proprio questo: slegare i core bulldozer da quelli dei server, in modo da avere un prodotto più economico...



Sono però convinto anche che l'attuale versione di BD abbia diversi problemi, che non sono nè il clock nè il TDP nè il concetto. Ad esempio leggendo su quasi tutti i siti "che ne capiscono" pare che ci sia un problema abbastanza "tosto" con la cache L1 che dà risultati abbastanza scarsi*, per quel poco che se ne parla. Inoltre le cache L2/L3 enormi, che possono aiutare dal punto di vista del carico di lavoro server (e BD è mirato soprattutto a quel mercato) dal punto di vista dell'efficienza in termini di potenza computazionale/area del die di certo non aiutano.
E' possibile che Piledriver (che a questo punto credo non sia a caso previsto per il 2012) sia una versione maggiormente ottimizzata per il desktop anche da quel punto di vista. Un BD con meno problemi di cache L1, meno cache L2/L3 ma più veloce e qualche ottimizzazione in più sarebbe un concorrente migliore per l'ambito desktop.

* a detta di alcuni questo potrebbe dipendere dalla particolare gerarchia della cache adottata.

Sono d'accordo, ma vorrei chiedere: Piledriver, che pare avrà anche un aumento di IPC, non sarà usato anche per i server? Altra cosa: ma la dimensione della L2 è così difficile cambiarla? Non è possibile che piledriver per desktop passi a 512kb di L2, mentre per server rimanga a 1MB? In ogni caso credo che ormai l'architettura sia quella, a 28nm il mb per core si farà sentire meno, e forse i core cresceranno ancora in proporzione...
Anche io, viste tutte le innovazioni che dovrebbe portare BD su k10, e ammesso che i risultati siano quelli che vediamo (abbastanza mediocri direi... degni di un phenom II a 32nm con 8 core e a 3,6GHz...) credo che ci sia forse più di un bug da risolvere, anche se forse anche le elevate latenze della cache giocano un ruolo.
Da una parte sarei contento che ci fossero dei bug noti... vorrebbe dire che con piledriver ci sarà margine per guadagnare molto. Dall'altra mi darebbe fastidio e mi dispiacerebbe... vorrebbe dire che dopo anni di sviluppo ancora hanno sfornato un chip immaturo, com'era Phenom I...

Il prezzo e' definito minoritariamente dai costi di produzione e maggioritariamente dalle condizioni del mercato in cui si intende andare ad operare.

La seconda, quella piu' importante, non significa solo le prestazioni dei prodotti concorrenti, ma una frana di altre cose, fra cui il market share attuale ed atteso nonche' la forza del proprio brand nell'imporsi sul mercato.

Ovviamente è così.... E nessuna delle cose che hai aggiunto avvantaggia AMD... Quindi a maggior ragione il prezzo è basso perché le tocca tenerlo basso, non perché ha voluto fare una CPU economica (che infatti di economico ha solo il listino prezzi).

Dico solo una cosa, a "correzione" del post di foxtrot: intel non ha nessun interesse a spazzare amd via dal mercato, cosa che potrebbe fare praticamente da un gg all'altro da 5 anni a questa parte.
Sappiamo benissimo negli usa cosa succeda quando una compagnia diventa monopolista assoluta... smembrata in compagnie diverse dall'antitrust.
Per loro è molto più conveniente tenere amd dietro del giusto margine, tenere i prezzi più alti per lasciare aria alla concorrenza.
Quindi non preoccupatevi, intel è la prima che ha interesse a che amd non chiuda i battenti, e non farà mai manovre bastardissime di vendite sotto costo per annientare un avversario, perchè si distruggerebbe da sola ;)

Ciò che volevo dire, in effetti, forse non sono stato chiarissimo, non è che intel attuerà delle scelte per mettere fuorigioco AMD, ma solo che non è corretto ritenere bd una CPU ottima perché va come un SB e costa uguale o meno. VOlevo solo sottolineare il fatto che, avendo intel più margine, è in una migliore situazione, e il chip piccolo economico ed efficiente ce l'ha lei.
Sempre che BD non sia migliore di quanto annunciato, o non migliori in un prossimo futuro...

considera l'efficienza della lampadina - se vuoi approssimarlo ad una lampadina - e vedi che ti ritrovi nei calcoli

una lampadina da 100w con efficienza del 100% emette 0 calore
una lampadina da 100w con efficienza dell'80 emette 20w di calore
una lampadina da 100w con un'efficienza del 40 emette 60w di calore


quindi + e' alta l'efficienza, + la potenza dissipata diminuisce a parita' di consumo


possiamo quindi pensare che bd sia + efficiente - grazie al nuovo pp e ai miglioramenti del pw management - e richieda meno corrente di thuban, pur dissipando lo stesso calore

- sto morendo di sonno, se sto delirando nn bannatemi :stordita:

Te è meglio che torni sul libro di fisica delle superiori, o a fisica 2 se vuoi, o a elettrotecnica... Dove vuoi.
Ma se provi a dire una cosa del genere ad un qualunque esame del genere vecchio mio conviene che ti metti in attesa e speri che il prof avesse mooolti anni e fosse vicino alla pensione :D :D :D
Scusa, ma una lampadina se consuma 100W vuol dire che li dissipa, cioè semplicemente ci passa attraverso una corrente I ad una tensione V, tali che V*I = 100W.
Se la lampadina è "più efficiente"... cosa che poi non vuol dire nulla, semplicemente fa passare meno corrente, cioè ha una resistenza R più grande. A quel punto la corrente I2 che la attraversa è minore della I1 di prima. E la lampadina non dissipa più 100W, ma bensì I2*V < 100W.
Ma una lampadina attraversata da una corrente I ad una tensione V che assorbe ed allo stesso tempo dissipa meno di 100W credi a me, oltre a non essersi mai sentita, imbroglierebbe tutti i principi della termodinamica :D

A meno della radiazione elettromagnetica emessa, tutta la potenza elettrica assorbita si trasforma in calore.
Ecco, questa precisazione è la più corretta.
Io invece mi tengo fuori dal discorso TDP/consumo. Semplicemente il TDP è la potenza massima che la CPU può arrivare a dissipare (ed assorbire). Intel lo calcola in una situazione di utilizzo immonda ma umanamente concepibile. AMD in una situazione che non è in realtà raggiungibile nella pratica. Per cui alla fine le CPU consumano sempre meno del loro TDP, qualcuna molto meno, qualcuna poco meno. Ma poi c'è anche il consumo della scheda madre, come qualcuno ha già detto.
Il turbo core di SB e la possibilità di sfondare il tdp invece non c'entra perché quella c'è con la grafica integrata che lavora, e invece in questo caso non solo non sta lavorando, ma è generalmente del tutto spenta.

Invece per quanto riguarda l'obiezione di marchigiano sul turbo di bulldozer:
1) Spero che funzioni bene :D
2) Il turbo su tutti i core si attiva solo in certe condizioni di carico, se non ricordo male solo in caso di calcoli FP, o solo con calcoli int... Non ricordo, per cui probabnilmente in quel caso non è intervenuto perché, per quanto bassi erano presenti carichi di lavoro non compatibili con i criteri per l'applicazione del turbo.
3) Felice di vedere che i consumi di BD sono ridotti.

questo è un post che dovrebbe essere portato ad esempio quando si parla del rapporto prezzo/prestazioni dei processori AMD da qualche anno a questa parte (in particolare per i top di gamma), tutto sommato va bene per noi consumatori ma assolutamente male per AMD, per quanto tempo potrà continuare a svendere i suoi processori??

Esatto: la bontà di una CPU si valuta con una serie di criteri, e a noi consumatori manca un criterio importantissimo e cioè il costo.
Il fatto grosso è che sviluppare nuove architetture costa un sacco di soldi, e intel ne ha e ne prende a valanga... Mentre se i guadagni sono modesti AMD rischia di prendersi sempre più indietro. Come scrivevano credo su Xbitlabs qualche giorno fa, se hai tanti soldi puoi permetterti di pagare qualche specialista che ti dia una mano a mettere a punto il processo produttivo in fretta... Ma AMD tanti soldi non li ha... Per cui lo sviluppo dei 32nm è andato coi suoi tempi.

leoneazzurro
27-09-2011, 02:28
Ho quotato un sacco di post... :D


Sono d'accordo, ma vorrei chiedere: Piledriver, che pare avrà anche un aumento di IPC, non sarà usato anche per i server? Altra cosa: ma la dimensione della L2 è così difficile cambiarla? Non è possibile che piledriver per desktop passi a 512kb di L2, mentre per server rimanga a 1MB? In ogni caso credo che ormai l'architettura sia quella, a 28nm il mb per core si farà sentire meno, e forse i core cresceranno ancora in proporzione...
Anche io, viste tutte le innovazioni che dovrebbe portare BD su k10, e ammesso che i risultati siano quelli che vediamo (abbastanza mediocri direi... degni di un phenom II a 32nm con 8 core e a 3,6GHz...) credo che ci sia forse più di un bug da risolvere, anche se forse anche le elevate latenze della cache giocano un ruolo.
Da una parte sarei contento che ci fossero dei bug noti... vorrebbe dire che con piledriver ci sarà margine per guadagnare molto. Dall'altra mi darebbe fastidio e mi dispiacerebbe... vorrebbe dire che dopo anni di sviluppo ancora hanno sfornato un chip immaturo, com'era Phenom I...



Rispondo a questa: penso che AMD farebbe bene a seguire l'esempio di Intel e avere cache L2 più piccole e veloci e a demandare alla L3 il compito di condividere le informazioni comuni. Si potrebbe avere una versione desktop con meno cache L3 e una server con cache maggiorata. Il che è possibile. Il problema è che molte cose influenzano velocità e dimensione delle caches, ad esempio le frequenze operative obiettivo, i carichi di lavoro per cui la CPU è ottimizzata, il tipo di cache scelta e la gerarchia, ecc.
Non è facile capire cosa farà AMD con Piledriver. Di certo l'approccio conservativo non credo produrrebbe buoni frutti.

digieffe
27-09-2011, 07:50
Non sapevo del cambio di processo produttivo; anche se in effetti era uscita una slide che dava le nuove CPU server, dopo interlagos, a 28nm e mi ero insospettito.
Che dire:
1) A Global foundries conviene, e di riflesso ad AMD. Inutile sviluppare due processi completamente diversi. Conviene, se si sviluppa un 28nm per GPU e chip ARM, adoperarlo anche per le CPU di AMD, facendo le dovute ottimizzazioni.
Ora non so quanto un processo per CPU possa essere differente da un processo nato per le schede video... Probabilmente c'è la differenza che il primo deve salire a 3-4GHz mentre le GPU vanno a 1GHz... D'altro canto ora AMD produce chip grafici (in Llano) sui 32nm SOI...
2) Voglio sperare che il 28nm SHP (stessa sigla del 32nm, fa notare il capitano) abbia anche il SOI... Altrimenti sinceramente temo che il 32nm SOI + HKMG non sia per nulla inferiore, quanto a prestazioni, al 28nm HKMG bulk... Certo il 28nm bulk è estremamente più economico, perché più piccolo e senza SOI, ma AMD ha bisogno di PP efficienti per fronteggiare il 22nm intel che grazie ai trigate transistor promette di essere ottimo e a basso prezzo.
Io credo che il SOI ci sarà... mi sembra strano che lo usino fino ai 32nm, per poi abbandonarlo per i 28 ed i 20, e ripescarlo per il 14nm, che peraltro mi auguro sia eccellente... dai nomi pare così.
Probabilmente, tra l'altro, la nuova fabbrica a new york gli darà anche modo di sviluppare con più anticipo e meno limitazioni i nuovi processi produttivi.


il processo produtivo a 28nm sarà lo stesso dei 32nm, si parla di shrink ottico, ossia di cambio del processo d'impressione sul wafer (banalizzando ma non è così: come se cambiassero le lenti agli ultravioletti) e credo null'altro... NON deriva affatto dal 28nm bulk...

il 20mn sarà completo di tutti i trattamenti come il 32 ed il 28...

il 14 aggiuneranno qualcosa al SOI...

digieffe
27-09-2011, 08:02
Credo che Konodo, più che cancellato sia stato... hem... rinviato :D
Probabilmente BD ha dei bug da correggere velocemente, ed è valsa la pena di far uscire al volo un nuovo processore che aggiusti il tiro, implementando in parte o del tutto le innovazioni di piledriver, per poi passare a Komodo (su FM2) quando si sarà pronti, il prossimo autunno...
quoto

The3DProgrammer
27-09-2011, 08:33
Te è meglio che torni sul libro di fisica delle superiori, o a fisica 2 se vuoi, o a elettrotecnica... Dove vuoi.
Ma se provi a dire una cosa del genere ad un qualunque esame del genere vecchio mio conviene che ti metti in attesa e speri che il prof avesse mooolti anni e fosse vicino alla pensione :D :D :D
Scusa, ma una lampadina se consuma 100W vuol dire che li dissipa, cioè semplicemente ci passa attraverso una corrente I ad una tensione V, tali che V*I = 100W.
Se la lampadina è "più efficiente"... cosa che poi non vuol dire nulla, semplicemente fa passare meno corrente, cioè ha una resistenza R più grande. A quel punto la corrente I2 che la attraversa è minore della I1 di prima. E la lampadina non dissipa più 100W, ma bensì I2*V < 100W.
Ma una lampadina attraversata da una corrente I ad una tensione V che assorbe ed allo stesso tempo dissipa meno di 100W credi a me, oltre a non essersi mai sentita, imbroglierebbe tutti i principi della termodinamica :D



hai ragione ho detto una ca*ta :stordita: non so perche' mi era entrato in testa il fatto che una parte dell'energia venisse persa nella generazione di luce, quando in realta' una lampada ad incandescenza e' un semplice resistore e la luce viene prodotta proprio in relazione all'aumento di temperatura dell'elemento resistivo. Ammetto candidamente che l'elettrotecnica non era esattamente il mio punto forte nei lontani anni universitari :fagiano: chiuso ot

bjt2
27-09-2011, 08:35
come è possibile che ci siano una 60ina di watt di differenza in full load con il 990x???

facendo due conti a spanne
se la piattaforma in idle consuma di più: 135 vs 103 quindi +32w
la differenza in full load è 302 vs 211 quindi +91w

sottraiamo al full load la differenza della piattaforma 91w - 32w = 59W

allora è un FX8150 è un 125-59= 65w....

ecco la super mossa strategica inaspettata :D



certo che se qualcuno trovasse una spiegazione sarebbe meglio

I motivi potrebbero essere almeno 3: l'IPC di cinebench è 0.65 e per quanto il turbo possa salire, è limitato. Quindi se va bene solo il 50% o meno dei transistors sono attivi... 0.65 istruzioni per clock x 8 thread sono 5.2 istruzioni per clock, mentre i 4 moduli possono processare 12x4=48 istruzioni per clock... Circa il 10% del potenziale... Un altro motivo è che quei risultati sono i consumi dell'ES, che ha clock bassi rispetto ai sample produzione pechè serve solo a verificare il funzionamento... Un altro motivo potrebbe essere che è un esemplare a 95W... O tutti e tre i motivi contemporaneamente...

bjt2
27-09-2011, 08:40
no però con i giusti distinguo perchè ci sarebbe anche da dire che a pari socket ogni mobo consuma in maniera diversa, se vedi il pc che ho in firma consuma 49W in idle (a def ovviamente) considerando che con questo carico l'ali renderà al 75% circa... e dimmi se hai mai visto una rece di un socket am3 consumare 50W in idle... prendi una top di gamma consuma anche 20W di più per via delle fasi sovradimensionate



se non raggiunge i 125w a 3.9 non viene rispettato quanto dichiarato da JF, cioè il turbo che pompa tanto quanto basta per sfiorare il tdp, se a 3.9 sei a 100w per dire, dei spingere a 4 o più



se una cpu consuma 100w significa che emette 100w di calore

Esistono anche le tolleranze... Più è alta la frequenza (e di conseguenza la tensione) più è alto lo spread dei possibili consumi. Questo perchè i consumi salgono esponenzialmente con tensione e temperatura e linearmente con la frequenza. Se a x volt e y gradi la variabilità della potenza è del, diciamo, 20% (99.9% dei chip entro il +-20%), a 1.1*x volt e y+20 gradi, tale variabilità sarà, ad esempio, del 50%. Loro devono garantirsi che anche il più sfigato dei chip rimanga nel TDP... ;)

bjt2
27-09-2011, 08:44
un momento un momento... il processore è un po come una resistenza variabile, per dire in idle sta a 0.8V e 5A quindi 160 mohm, in full 1.4V e 50A quindi 28 mohm

la resistenza che oppone all'elettricità viene convertita in calore c'è poco da fare... come una lampadina

A meno che non venga fatto lavoro meccanico o emesse onde elettromagnetiche... Il processore non si muove ( :D ), quindi non vale la prima, ma emette un po' di RF. Una parte è schermata e si trasforma in calore (lo schermo la assorbe) e un'altra parte è emessa... Però le RF emesse sono trascurabili, perciò se una CPU assorbe 100W, almeno 99W sono trasformati in calore...

Ares17
27-09-2011, 08:49
Rispondo a questa: penso che AMD farebbe bene a seguire l'esempio di Intel e avere cache L2 più piccole e veloci e a demandare alla L3 il compito di condividere le informazioni comuni. Si potrebbe avere una versione desktop con meno cache L3 e una server con cache maggiorata. Il che è possibile. Il problema è che molte cose influenzano velocità e dimensione delle caches, ad esempio le frequenze operative obiettivo, i carichi di lavoro per cui la CPU è ottimizzata, il tipo di cache scelta e la gerarchia, ecc.
Non è facile capire cosa farà AMD con Piledriver. Di certo l'approccio conservativo non credo produrrebbe buoni frutti.

Credo che quest'approccio avrebbe dato i suoi frutti 5 anni fa.
Dopo la corsa ai megahertz ha sempre meno senso usare una cache inclusive per poche semplici questioni:
La capacità di scrivere in L2 ottimizza l'accesso medio alla ram di sistema.
I software vanno sempre verso il multiTH spinto e una cache L3 che funzioni effettivamente da memoria tampone in caso di miss diminuisce di molto le letenze e nel caso dei software ottimizzati per il multith risiedere interamente in L2 porta benefici per intel (il maggior parco cpu disponibile sul mercato) e conseguentemente ancora più per amd.
Certamente ad oggi la filosofia Intel paga di più, ma fra due tre anni anche intel sarà costretta ad usare una cache di tipo exclusive altrimenti l'elevato ipc dei core sarebbe frenato dalla quantità esorbitante di cache necessaria ad alimentarli costringendo ad avere meno unità elaborative rispetto ad una cache exclusive.

Mparlav
27-09-2011, 09:02
Leggevo su xtremesystems che il 12 ottobre prossimo su MicroCENTRO, catena USA di vendita online, gli FX dovrebbero essere direttamente in vendita.

The3DProgrammer
27-09-2011, 09:08
Rispondo a questa: penso che AMD farebbe bene a seguire l'esempio di Intel e avere cache L2 più piccole e veloci e a demandare alla L3 il compito di condividere le informazioni comuni. Si potrebbe avere una versione desktop con meno cache L3 e una server con cache maggiorata. Il che è possibile. Il problema è che molte cose influenzano velocità e dimensione delle caches, ad esempio le frequenze operative obiettivo, i carichi di lavoro per cui la CPU è ottimizzata, il tipo di cache scelta e la gerarchia, ecc.
Non è facile capire cosa farà AMD con Piledriver. Di certo l'approccio conservativo non credo produrrebbe buoni frutti.

Secondo me un grosso problema sono le L1 write through che ammazzano le prestazioni in scrittura, in + come dicevo prima c'e' da considerare che quasi tutte le istruzioni hanno una latenza di esecuzione + alta rispetto a k10, la situazione e' quasi drammatica con le istruzioni x87 che sono anche dalle 2 alle 3 volte + lente rispetto a k10

digieffe
27-09-2011, 09:34
Non so se uno shrink ottico è possibile per qualcosa di complesso come una CPU e a questi livelli di miniaturizzazione.

In ogni caso per fare il 5 moduli c'è comunque bisogno di rifare il layout di tutta la CPU, perché lo shrink ottico non permetterebbe di aggiungere il quinto.

Il 22nm sarà un 20nm.

Il 14nm è FinFET e quindi è a tutti gli effetti un processo completamente nuovo, aggiungeranno solo una sigla, ma sotto l'etichetta cambia tutto.

In tutto ciò è MIA il FD-SOI di cui si è tanto parlato come alternativa planare ai FinFET, non si sa se abbandonato del tutto o parte della strategia GF non rivelata.

Errore di distrazione :( ... ero stato io a "rinfrescare" che erano stati cabiati i piani.. correggo

XatiX
27-09-2011, 09:55
Leggevo su xtremesystems che il 12 ottobre prossimo su MicroCENTRO, catena USA di vendita online, gli FX dovrebbero essere direttamente in vendita.

Cosa confermata da un altro utente ;)

Korn
27-09-2011, 10:36
Secondo me un grosso problema sono le L1 write through che ammazzano le prestazioni in scrittura, in + come dicevo prima c'e' da considerare che quasi tutte le istruzioni hanno una latenza di esecuzione + alta rispetto a k10, la situazione e' quasi drammatica con le istruzioni x87 che sono anche dalle 2 alle 3 volte + lente rispetto a k10

ma le x87 non si era detto che non le usava più nessuno?

The3DProgrammer
27-09-2011, 10:43
ma le x87 non si era detto che non le usava più nessuno?

sicuramente sono deprecate in long mode, pero' penso ci siano ancora diversi software a 32bit che le usano (il spi e' uno di questi, lo so che nn conta niente, ma questo potrebbe spiegare perche' i BD sembrerebbero andare male con quel bench). d'altronde molti compilatori usano ancora x87 per default, quando compili a 32 bit (ho fatto adesso una prova con vs2010 come esempio, per default a 32bit tiene ancora x87 a 80bit, devi dirgli esplicitamente di compilare usando SSE/SSE2 per utilizzarle)

capitan_crasy
27-09-2011, 11:25
Premessa:
Queste sono solo voci e non cè niente di confermato

Vorrei chiarire una cosa:
Sono apparse alcune voci su un nuovo Core di nome Vishera o qualcosa del genere destinati al socket AM3+.
Molti hanno capito che così AMD avrebbe cancellato Komodo o comunque il socket FM2 in favore del solo socket AM3+.
In realtà questo nuovo core su socket AM3+ dovrebbe essere il tanto chiacchierato step C e non c'entra niente con il core Piledriver, in quanto evoluzione del silicio del core Zambezi.
Tra circa un anno AMD dovrebbe presentare il 10 core Piledriver desktop basato sul nuovo socket FM2, quindi su una nuova piattaforma erede naturale della piattaforma Scorpius...

Ricapitolando:
Ottobre:
Core Zambezi 8/6/4 core step Bx su socket AM3+
Inizio 2012?:
Core Vischera 8/6/4 core spep Cx su socket AM3+
Terzo/quarto trimestre 2012?:
Core Komodo 10/8/6 core step?? su socket FM2

E tanto per essere precisi lo step C non dovrebbe portare miglioramenti nel IPC ma frequenze più alte a parità di TDP (qualcuno ha azzardato un paragone tra lo step C2 del core Deneb con lo step E0 del core Thuban)...

The3DProgrammer
27-09-2011, 11:27
Premessa:
Queste sono solo voci e non cè niente di confermato

Vorrei chiarire una cosa:
Sono apparse alcune voci su un nuovo Core di nome Vishera o qualcosa del genere destinati al socket AM3+.
Molti hanno capito che così AMD avrebbe cancellato Komodo o comunque il socket FM2 in favore del solo socket AM3+.
In realtà questo nuovo core su socket AM3+ dovrebbe essere il tanto chiacchierato step C e non c'entra niente con il core Piledriver, in quanto evoluzione del silicio del core Zambezi.
Tra circa un anno AMD dovrebbe presentare il 10 core Piledriver desktop basato sul nuovo socket FM2, quindi su una nuova piattaforma erede naturale della piattaforma Scorpius...

Ricapitolando:
Ottobre:
Core Zambezi 8/6/4 core step Bx su socket AM3+
Inizio 2012?:
Core Vischera 8/6/4 core spep Cx su socket AM3+
Terzo/quarto trimestre 2012?:
Core Komodo 10/8/6 core step?? su socket FM2

E tanto per essere precisi lo step C non dovrebbe portare miglioramenti nel IPC ma frequenze più alte a parità di TDP (qualcuno ha azzardato un paragone tra lo step C2 del core Deneb con lo step E0 del core Thuban)...

questo avrebbe + senso. Quindi l'8170 potrebbe essere basato su step c?

scrat1702
27-09-2011, 11:29
se non raggiunge i 125w a 3.9 non viene rispettato quanto dichiarato da JF, cioè il turbo che pompa tanto quanto basta per sfiorare il tdp, se a 3.9 sei a 100w per dire, dei spingere a 4 o più



O potrebbe benissimo essere che il PP ancora acerbo ha delle impennate nei consumi oltre certe frequenze magari con i die più ai bordi del wafer. E un'ipotesi ma potrebbe essere così. Poi i 125W per come li concepisce AMD non dovrebbero mai essere raggiunti in condizioni di utilizzo normali.
Percio dire che il turbo funziona male al momento lo vedo un po azzardato.

scrat1702
27-09-2011, 11:31
questo avrebbe + senso. Quindi l'8170 potrebbe essere basato su step c?

Molto probabile visto che lo presenteranno in futuro quando e palese che ne avrebbero bisogno come il pane al lancio.

capitan_crasy
27-09-2011, 11:36
questo avrebbe + senso. Quindi l'8170 potrebbe essere basato su step c?

Questo non lo so (ancora;) ), ma può darsi che AMD sostituisca silenziosamente con il nuovo step C i modelli usciti con lo step B2 (un po come è successo con i Phenom2/Athlon2 C2/C3) in modo da non fare troppo rumore...

papafoxtrot
27-09-2011, 11:56
Premessa:
Queste sono solo voci e non cè niente di confermato

Vorrei chiarire una cosa:
Sono apparse alcune voci su un nuovo Core di nome Vishera o qualcosa del genere destinati al socket AM3+.
Molti hanno capito che così AMD avrebbe cancellato Komodo o comunque il socket FM2 in favore del solo socket AM3+.
In realtà questo nuovo core su socket AM3+ dovrebbe essere il tanto chiacchierato step C e non c'entra niente con il core Piledriver, in quanto evoluzione del silicio del core Zambezi.
Tra circa un anno AMD dovrebbe presentare il 10 core Piledriver desktop basato sul nuovo socket FM2, quindi su una nuova piattaforma erede naturale della piattaforma Scorpius...

Ricapitolando:
Ottobre:
Core Zambezi 8/6/4 core step Bx su socket AM3+
Inizio 2012?:
Core Vischera 8/6/4 core spep Cx su socket AM3+
Terzo/quarto trimestre 2012?:
Core Komodo 10/8/6 core step?? su socket FM2

E tanto per essere precisi lo step C non dovrebbe portare miglioramenti nel IPC ma frequenze più alte a parità di TDP (qualcuno ha azzardato un paragone tra lo step C2 del core Deneb con lo step E0 del core Thuban)...

Grazie Capitano, immaginavo una cosa simile, anceh se pensavo fosse possibile qualche correzione da qualche parte, visto il cambio di nome.
In ogni caso immagino che un nuovo step produttivo possa garantire CPU ancor più performanti dell'8170... Voglio dire... Solo per il maturare del PP attuale, l'8170 quest'inverno a 125W credo sarebbe possibile... O sbaglio?

Avrei un paio di domande per te:
- E' possibile che lo step C integri il low-k?
- Komodo lo aspettiamo a 32 nani, giusto? Io ritengo molto probabile che almeno lui abbia il low-k. Che ne pensi?
- Anche gli opteron seguirenno una politica di aggiornamento simile? Voglio dire, avranno sia il nuovo step, sia il passaggio a komodo? useranno core piledriver e integreranno il pci-e? Come faranno a integrare il pci-e su un sistema server, che può avere diverse CPU, e non tutte installate sulla mobo? Ci sarebbero slot pci-e non utilizzabili se non monti tutte le mobo!
- Dopo komodo, nel 2013, è atteso BD next gen. Sarà lui il primo a 28 nani?


AH dimenticavo: grazie a leoneazzurro e chi sta commentando i possibili bug/problemini di BD! Interessante anche il discorso delle caches.

capitan_crasy
27-09-2011, 12:13
Grazie Capitano, immaginavo una cosa simile, anceh se pensavo fosse possibile qualche correzione da qualche parte, visto il cambio di nome.
In ogni caso immagino che un nuovo step produttivo possa garantire CPU ancor più performanti dell'8170... Voglio dire... Solo per il maturare del PP attuale, l'8170 quest'inverno a 125W credo sarebbe possibile... O sbaglio?

Occhio che per il momento sono solo voci...;)
Per quanto riguarda i nuovi modelli aspettiamo e vediamo...


Avrei un paio di domande per te:
- E' possibile che lo step C integri il low-k?

E' possibile anche se sono orientato più sul no...
Lo step C è stata un "esigienza" e quando saranno disponibili i documenti tecnici ufficiali sullo step B2 potrebbe essere tutto più chiaro...


- Komodo lo aspettiamo a 32 nani, giusto? Io ritengo molto probabile che almeno lui abbia il low-k. Che ne pensi?

Sono d'accordo...

- Anche gli opteron seguirenno una politica di aggiornamento simile? Voglio dire, avranno sia il nuovo step, sia il passaggio a komodo? useranno core piledriver e integreranno il pci-e? Come faranno a integrare il pci-e su un sistema server, che può avere diverse CPU, e non tutte installate sulla mobo? Ci sarebbero slot pci-e non utilizzabili se non monti tutte le mobo!

Quello sicuro è che nel 2012 ci sarà il core Sepang (Max 10 core) e il core Terramar (max 20 core) basati su BD di seconda generazione con PCI-Express 3.0 integrato nel DIE e triple channel DDR3 per quanto riguarda le soluzioni Sepang.
Naturalmente ci saranno anche nuovi socket chiamati C/G2012....

- Dopo komodo, nel 2013, è atteso BD next gen. Sarà lui il primo a 28 nani?
Purtroppo non ho ancora informazioni sulle CPU del 2013...

digieffe
27-09-2011, 12:51
al limite dell'off topic

http://www.hwupgrade.it/news/cpu/presto-lo-stop-alle-cpu-athlon-e-phenom_38684.html

fudzillata o verità?

paolo.oliva2
27-09-2011, 12:55
Innanzitutto vi dico che l'8150p dovrebbe essere disponibile per il 24/10 (il mio fornitore me lo avrebbe assicurato), forse un po' prima ma certamente non per il 12/10.

Poi vorrei fare alcune considerazioni, seguite il ragionamento in linea di massima lasciando a parte differenze del +/- 10%

Un i7 X4 45nm con 8TH ed un Thuban X6 6TH diciamo che abbiano differenze ridotte in MT ma con l'ST tutto a vantaggio di Intel (chiaramente l'i7 X6 è un altro pianeta :)).
SB rispetto ad un i7 aumenta l'IPC, aumenta le frequenze tramite il turbo che è ottimizzato rispetto al TDP ma nella potenza massima con carico su tutti i core il guadagno ci sarà sempre ma sarà leggermente inferiore per via di frequenze inferiori all'i7.
BD cosa porta di più rispetto ad un Thuban? 2 core in più, frequenze su tutti i core più alte e il turbo che aumenterebbe di molto la potenza ST rispetto al Phenom II.
Quindi come aspettativa comunque l'aumento di potenza di un BD rispetto ad un Phenom II è superiore che rispetto ad un SB rispetto ad un i7.

Questo è a livello di concetto, però dobbiamo analizzare un altro punto, cioè la grandezza del die.
Ora... BD X8 è 320mm2, SB-e X4 mettiamo 200mm2 e SB X6 mettiamo 300mm2 (a spannella, giusto per fare capire il senso).

Se BD X8 con 320mm2 equivarrebbe in potenza un SB-e X4 che è 200mm2, mi sembra chiaro che qualche cosa non va, d'accordo il prezzo basso applicato da AMD, ma è un tampone al momento, perché il futuro (2012) vedrebbe il 28nm per AMD ma il 22nm per Intel, quindi ancor più in crisi.

Però consideriamo questo:

Sappiamo più o meno che GF con il suo 32nm ha qualche problema, non tanto nel TDP, quanto invece nelle frequenze massime, e questo non è un mistero, e con lo step B2 abbiamo questo:

8130p, X8, 125W, 3,2GHz def e 3,6GHz in Turbo (suppongo) che non è stato mai commercializzato.
8150p, X8, 125W, 3,6GHz def e 4,2GHz in Turbo che verrà presentato il 12 ottobre.
8170p, X8, 125W, 3,9GHz def e 4,5GHz in Turbo che verrà distribuito successivamente.

Addirittura a tutt'oggi non sappiamo nemmeno se lo step B2 integri l'ULK ed abbiamo visto tutti che incremento ha portato il low-k sul 45nm.

Ora noi stiamo valutando l'architettura BD su delle prestazioni che comunque sia non corrispondono certamente alla massima potenzialità.
Se oggi confrontassimo gli i7 920 con un Thuban, cosa diremmo? Che l'i7 920 e l'architettura i7 è una ciofeca?

Certamente non è che passando dai 3,6GHz/4,2GHz di un 8150p ai 3,9GHz/4,5GHz di un 8170p stravolgerebbe la situazione, ma di certo comunque porterebbe ad una situazione differente come ulteriormente differente sarebbe nel caso di frequenze def/turbo superiori e IPC di base superiori in un BD2.

Non sto tirando l'acqua al mulino AMD, perché comunque la differenza transistor di un BD X8 verso SB-e per la stessa potenza è alta e non sarebbe di certo con 300MHz in più che la situazione cambierebbe, ma certamente non possiamo considerare come limiti architetturali la potenza di BD fino a quando non sapremo la frequenza limite e l'IPC a processo maturo del silicio e ottimizzazione completa dell'architettura.
Ad esempio, parlare di latenze, di pipeline e di quant'altro secondo me è semplicemente dottrinale, nulla di più, perché il ragionamento è valido solamente a parità di frequenza.
Prendere delle DDR2 4-4-4 e dire che vanno meglio perché le DDR3 sono 9-9-9 che mazza vuole dire? Se le DDR2 vanno a 800MHz e le DDR3 vanno a 2GHz, le DDR3 sono più performanti, qualsiasi latenza ci sia.
Sullo stesso pensiero, non si può reputare che una L2 con latenze maggiori sia peggiore sino a quando, come le DDR2/DDR3 non sapremo le frequenze massime operative.
Per capire se il progetto BD sia valido, non bisogna considerare nemmeno il prezzo finale, perché questo è influenzato da altri fattori, ma solamente se a parità numero transistor la soluzione AMD/CMT sia competitiva sull'SMT Intel, nel termine potenza espressa.

Per chiarire meglio... se AMD/GF annunciasse un X8 8200p a 4,3GHz def e 4,9GHz turbo a 125W, si avrebbero potenze superiori del 20% ma con lo stesso numero di transistor, TDP di un 8150p.

Comunque, tengo a precisare, che ho fatto una considerazione.

-------------

@Papafoxtrot.

@il discorso SMT per me va visto in un'ottica globale.
Innanzitutto bisogna considerare che Intel parte con un IPC di base a core superiore e che quindi l'aumento di transistor per poter avere 2 TH a core e' comunque inferiore rispetto a 2 core Phenom II con circa comunque la stessa potenza.
Pero' se Intel dovesse fare concorrenza a se' stessa, spero concorderai con me che un i7 X6 senza SMT e quindi con 6TH non credo abbia da invidiare un i7 X4 con SMT con 8TH logici.
Quindi il discorso SMT di Intel è valido quando consideriamo che applicato ad un X4 permette di contrastare un X6 Phenom II e di surclassarlo in ST ed il tutto senza ricorrere ad un X6 nativo che certamente non avrebbe solamente un 50% in più di transistor.

Il tuo discorso in parte lo ritrovi anche nel mio (grandezza die), e se BD ha il 50% in più di transistor, dovrebbe fornire una potenza del 50% superiore per giudicare la bontà dell'architettura, ma questo non lo possiamo certamente sapere sino a quando non conosceremmo l'IPC effettivo ST/MT, la massima frequenza def a cui arriverà BD, quanto scalerà in OC BD e incrementi di IPC ulteriori su BD2.
Al momento confrontare un 8150p con SB-e sarebbe come confrontare un i7 920 con un Thuban, addirittura con dati sull'8160p ancora incompleti.

Per il discorso di grasso che gli cola passando al 22nm dal 32nm, certamente, però ricordati che a livello di bilancio il grasso che cola lo si ha dopo aver ripreso i miliardi di $ spesi sia nella progettazione del 22nm che nell'ammodernamento delle FAB.

Come ti hanno fatto notare altri, il discorso prezzi è nettamente differente tra AMD ed Intel.
Intel può anche scegliere pure di perdere il 5% di mercato non variando i prezzi conservando lo stesso utile a vantaggio di una produzione inferiore disimpegnando delle fab per la conversione al 22nm.
AMD può considerare vitale più aumentare del 5% le quote di mercato a favore di un utile più basso. Tieni presente che GF ha una intera FAB dedicata ad AMD e, scusa il termine, se ne fotte di quanto guadagna AMD a procio, mentre invece avrebbe tutti gli interessi che AMD ricarichi il meno possibile su un procio così da avere una FAB che lavora al massimo potenziale producibile.

Escludendo il 2600K, converrai con me che il rapporto prezzo/prestazioni è stato sempre favorevole ad AMD ed il fatto che dici che Intel possa abbassare il prezzo di un 2600K del 30%, non è ammettere che fino ad ora ha chiesto un 30% in più?
Poi credo che sei troppo ottimista prevedendo che Intel possa immettere dei proci 22nm al prezzo dei 32nm, perché Intel storicamente quando ha immesso proci con una miniaturizzazione superiore in anticipo rispetto ad AMD, ostia se li ha fatti pagare di più.
Se arrivasse a fare questo, vorrebbe dire che BD gli avrebbe rotto le ballotas di brutto.

Siamo qui per discutere e confrontare i diversi punti di vista... non facciamo muro contro muro :)

The3DProgrammer
27-09-2011, 13:08
Innanzitutto vi dico che l'8150p dovrebbe essere disponibile per il 24/10 (il mio fornitore me lo avrebbe assicurato), forse un po' prima ma certamente non per il 12/10.

Per chiarire meglio... se AMD/GF annunciasse un X8 8200p a 4,3GHz def e 4,9GHz turbo a 125W, si avrebbero potenze superiori del 20% ma con lo stesso numero di transistor, TDP di un 8150p.


:)

di certo se sono veri quei consumi in full load amd ha un bel po di margine per tirare in frequenza almeno dal punto di vista dei consumi, secondo me quel 125w di tdp dell'8150 e' abbondantemente sovradimensionato

paolo.oliva2
27-09-2011, 13:16
di certo se sono veri quei consumi in full load amd ha un bel po di margine per tirare in frequenza almeno dal punto di vista dei consumi, secondo me quel 125w di tdp dell'8150 e' abbondantemente sovradimensionato

Mah... non lo so.
Secondo me il licenziamento del vice-presidente può anche essere visto in chiave capro-espiatorio delle relazioni AMD-GF.

Se un BD X8 avesse il tallone di achille nella potenza verso un SB-e X4, trovo alquanto discutibile commercializzarlo ad una frequenza inferiore def se il TDP effettivo concedesse di più.

Poi comunque l'effettiva differenza la si avrebbe di più nell'MT piuttosto che nell'ST, perché comunque in ST il TDP conta relativamente ed è molto più facile arrivare ai limiti architetturali. Tutt'altro in MT. :)

bjt2
27-09-2011, 13:32
Mah... non lo so.
Secondo me il licenziamento del vice-presidente può anche essere visto in chiave capro-espiatorio delle relazioni AMD-GF.

Se un BD X8 avesse il tallone di achille nella potenza verso un SB-e X4, trovo alquanto discutibile commercializzarlo ad una frequenza inferiore def se il TDP effettivo concedesse di più.

Poi comunque l'effettiva differenza la si avrebbe di più nell'MT piuttosto che nell'ST, perché comunque in ST il TDP conta relativamente ed è molto più facile arrivare ai limiti architetturali. Tutt'altro in MT. :)

Ho già scritto prima della variabilità... Essa è più alta, ovviamente, anche per un processo produttivo giovane... ;) Si tengono degli ampi margini... ;)

papafoxtrot
27-09-2011, 13:39
E' possibile anche se sono orientato più sul no...
Lo step C è stata un "esigienza" e quando saranno disponibili i documenti tecnici ufficiali sullo step B2 potrebbe essere tutto più chiaro...

Quello sicuro è che nel 2012 ci sarà il core Sepang (Max 10 core) e il core Terramar (max 20 core) basati su BD di seconda generazione con PCI-Express 3.0 integrato nel DIE e triple channel DDR3 per quanto riguarda le soluzioni Sepang.
Naturalmente ci saranno anche nuovi socket chiamati C/G2012....

Purtroppo non ho ancora informazioni sulle CPU del 2013...

Grazie!
Dunque lo step C è stato aggiunto abbastanza velocemente, e quindi non dovrebbe avere il low-k. Ok, però quando si dice che tale step serve a salire in frequenza un po' mi perdo. Mi sembra che BD possa raggiungere ottime frequenze, no? Almeno lo abbiamo visto dagli overclockers... anche se poi per il daily user le cose possono essere diverse. Si tratta di aspettare e vedere insomma.

Per quanto riguarda sepang. Dunque l'architettura può essere diversa da quella di komodo. In tal caso immagino che questo mantenga la ram dual channel (per i desktop il triple channel non serve ad un tubo, ma ha il vantaggio di poter mettere 6 banchi), onde evitare di aumentare i consumi ed i costi di produzione.
Insomma sul desktop il triple ch sarebbe poco cost effective, come credo lo siano cache così ampie. E' dunque possibile che sepang mantenga le ampie cache attuali mentre komodo sia più snello...!? sarebbe buono!
Sul processo produttivo vedremo, è molto interessante. Se il 28nm sarà uno shrink ottico del 32, dunque con SOI, secondo me è una bella trovata. Ma non si era deto che il soi impedisce di effettuare shrink ottici? Useranno il SOI anche per le GPU? Sarebbe bello anche quello, anche se bisogna dire che TSMC è in anticipo e probabilmente verrà scelta per tutta la generazione di GPU di fascia alta AMD a 28nm.

Tenebra
27-09-2011, 13:40
Innanzitutto vi dico che l'8150p dovrebbe essere disponibile per il 24/10 (il mio fornitore me lo avrebbe assicurato), forse un po' prima ma certamente non per il 12/10.


Ammesso e non concesso che sia così, vien da chiedersi come mai, nell'era delle distribuzione globale via aerea e non via risciò e canoe, come mai le indiscrezioni diano come riforniti i negozi americani al 12 e da noi al 24.
E nel caso, il motivo dell'ennesimo (dove -n- ha ormai due cifre) ritardo.
A questo punto sono proprio curioso di vedere i prezzi praticati da noi...

Sevenday
27-09-2011, 13:41
Un appunto; ma come mai si paragona sempre un BD x8 con un Thurban x6?

Per avere un reale confronto non si potrebbe confrontare l'FX-6100?
Vero che un Thurban ha 6 core "veri" ed un FX-6100 una sorta di 3x2; ma sempre 6 sono...almeno credo.

Cmq altra cosa strana, per le schede madri ci sono già gli aggiornamenti anche per l'8120 da 95w ed il 4100; ma di questi neppure l'ombra ad ottobre...

SUPERALEX
27-09-2011, 13:43
Escludendo il 2600K, converrai con me che il rapporto prezzo/prestazioni è stato sempre favorevole ad AMD ed il fatto che dici che Intel possa abbassare il prezzo di un 2600K del 30%, non è ammettere che fino ad ora ha chiesto un 30% in più?
Poi credo che sei troppo ottimista prevedendo che Intel possa immettere dei proci 22nm al prezzo dei 32nm, perché Intel storicamente quando ha immesso proci con una miniaturizzazione superiore in anticipo rispetto ad AMD, ostia se li ha fatti pagare di più.
Se arrivasse a fare questo, vorrebbe dire che BD gli avrebbe rotto le ballotas di brutto.

Siamo qui per discutere e confrontare i diversi punti di vista... non facciamo muro contro muro :)

questo discorso nn ha molto senso x me...il prezzo lo fa il mercato...prima nn c'erano concorrenti diretti quindi il prezzo era giusto...se ora ci dovessero essere nn lo sarà + e verrà abbassato...cos'è intel doveva fare prezzi + bassi perchè "doveva immaginare che amd tirasse fuori una cpu in grado di combatterli"??allora estremizzando il discorso si potrebbe dire che anni fa il p4 doveva essere venduto a 10€ dato che oggi sarebbe stato realizzato sb:stordita: :sofico: :sofico:
:D

maurilio968
27-09-2011, 13:53
Escludendo il 2600K, converrai con me che il rapporto prezzo/prestazioni è stato sempre favorevole ad AMD ed il fatto che dici che Intel possa abbassare il prezzo di un 2600K del 30%, non è ammettere che fino ad ora ha chiesto un 30% in più?

scusa paolo ma "in più" rispetto a cosa? rispetto ad un processore amd che ad oggi deve ancora uscire?

Che fa intel, sa prima di amd come andrà e come prezzerà bulldozer? :doh:

Heimdallr
27-09-2011, 13:53
Escludendo il 2600K, converrai con me che il rapporto prezzo/prestazioni è stato sempre favorevole ad AMD ed il fatto che dici che Intel possa abbassare il prezzo di un 2600K del 30%, non è ammettere che fino ad ora ha chiesto un 30% in più?

No, anche i Thuban ora costano una becca rispetto a quando sono stati lanciati, significa che all'inizio AMD ha voluto fregare i suoi clienti chiedendo un prezzo più alto? Semplicemente in quel momento il prezzo era giusto, poi sono usciti processori più potenti e AMD ha dovuto tagliare i prezzi per continuare a venderli.

DottorLeo
27-09-2011, 14:10
http://www.youtube.com/watch?v=PlwIFFHrNW4&feature=player_embedded

Questo è stato postato (Intervista ad AMD in data 26/09). JF-AMD (http://www.overclock.net/amd-cpus/791495-bulldozer-blog-live-642.html#post15082764) conferma indirettamente che non è fake:

I won't comment on the video, but that is Raymond, he is in the cube on the other side of the wall from me, we have to deal with each others' annoying voices all day long

Korn
27-09-2011, 14:17
bene che dice? :D

DottorLeo
27-09-2011, 14:21
bene che dice? :D

Tagliando molto parlano soprattutto delle APU ma CONFERMANO che Bulldozer ci sarà in Ottobre.

|ron
27-09-2011, 14:33
massì dai, ormai direi che è abbastanza certo che uscirà il 12 ;)

marchigiano
27-09-2011, 14:35
Rispondo a questa: penso che AMD farebbe bene a seguire l'esempio di Intel e avere cache L2 più piccole e veloci e a demandare alla L3 il compito di condividere le informazioni comuni. Si potrebbe avere una versione desktop con meno cache L3 e una server con cache maggiorata. Il che è possibile. Il problema è che molte cose influenzano velocità e dimensione delle caches, ad esempio le frequenze operative obiettivo, i carichi di lavoro per cui la CPU è ottimizzata, il tipo di cache scelta e la gerarchia, ecc.
Non è facile capire cosa farà AMD con Piledriver. Di certo l'approccio conservativo non credo produrrebbe buoni frutti.

quoto questo concetto: amd è troppo piccola per potersi permettere soluzioni troppo avanzate, non avrebbe tempo e soldi per svilupparle, gli conviene copiare intel per avvicinarsi e solo nel caso un giorno arrivasse a circa il 50% del mercato allora si che avrà i mezzi per tentare il sorpasso. intel è dal conroe che non aumenta gli stadi di pipeline e dovrebbero rimanere tali anche con haswell, perchè amd li ha voluti aumentare? mica saranno scemi alla intel... poi hai i prefetcher scarsi, vedi di migliorarli e ridurre le latenze caches, se non ci riesci sviluppa il smt che porterebbe beneficio alle pipeline che non riesci a riempire. ora sono curioso per il futuro se tornassero ad adottare alcune soluzioni del K8

I motivi potrebbero essere almeno 3: l'IPC di cinebench è 0.65 e per quanto il turbo possa salire, è limitato. Quindi se va bene solo il 50% o meno dei transistors sono attivi... 0.65 istruzioni per clock x 8 thread sono 5.2 istruzioni per clock, mentre i 4 moduli possono processare 12x4=48 istruzioni per clock... Circa il 10% del potenziale... Un altro motivo è che quei risultati sono i consumi dell'ES, che ha clock bassi rispetto ai sample produzione pechè serve solo a verificare il funzionamento... Un altro motivo potrebbe essere che è un esemplare a 95W... O tutti e tre i motivi contemporaneamente...

Esistono anche le tolleranze... Più è alta la frequenza (e di conseguenza la tensione) più è alto lo spread dei possibili consumi. Questo perchè i consumi salgono esponenzialmente con tensione e temperatura e linearmente con la frequenza. Se a x volt e y gradi la variabilità della potenza è del, diciamo, 20% (99.9% dei chip entro il +-20%), a 1.1*x volt e y+20 gradi, tale variabilità sarà, ad esempio, del 50%. Loro devono garantirsi che anche il più sfigato dei chip rimanga nel TDP... ;)

si diceva però che il turbo leggeva migliaia di volte al secondo la potenza assorbita e quindi potesse regolare con precisione la frequenza, a questo punto significa che questa funzione non c'è altrimenti si dovrebbe auto-adattare a cpu per cpu (tipo le centraline dei motori che adattano la combustione leggendo i dati dalle varie sonde)

scrat1702
27-09-2011, 14:48
si diceva però che il turbo leggeva migliaia di volte al secondo la potenza assorbita e quindi potesse regolare con precisione la frequenza, a questo punto significa che questa funzione non c'è altrimenti si dovrebbe auto-adattare a cpu per cpu (tipo le centraline dei motori che adattano la combustione leggendo i dati dalle varie sonde)

No! Nei motori le centraline regolano la combustione in base ai giri e all'acceleratore, ma la potenza e i giri max rimangono inalterati. Qui abbiamo la stessa cosa, in base al carico imposta il voltaggio ottimale e la freq massima consentita dalle spec di fabbrica..... che sono 3.6-3.9-4.1 a seconda di quanti core sono sfruttati. Non si e mai parlato di freq "libere" in base al carico e c'erano anche conferme che il turbo max poteva essere attivato sono su 4 core quando gli altri 4 stavano in C6.

marchigiano
27-09-2011, 15:09
No! Nei motori le centraline regolano la combustione in base ai giri e all'acceleratore, ma la potenza e i giri max rimangono inalterati

e allo stesso modo il turbo di cui si parlava avrebbe dovuto regolare la frequenza (iniezione anticipo alzata ecc) per mantenere il consumo (potenza) il più vicino possibile al tdp

bjt2
27-09-2011, 15:09
quoto questo concetto: amd è troppo piccola per potersi permettere soluzioni troppo avanzate, non avrebbe tempo e soldi per svilupparle, gli conviene copiare intel per avvicinarsi e solo nel caso un giorno arrivasse a circa il 50% del mercato allora si che avrà i mezzi per tentare il sorpasso. intel è dal conroe che non aumenta gli stadi di pipeline e dovrebbero rimanere tali anche con haswell, perchè amd li ha voluti aumentare? mica saranno scemi alla intel... poi hai i prefetcher scarsi, vedi di migliorarli e ridurre le latenze caches, se non ci riesci sviluppa il smt che porterebbe beneficio alle pipeline che non riesci a riempire. ora sono curioso per il futuro se tornassero ad adottare alcune soluzioni del K8





si diceva però che il turbo leggeva migliaia di volte al secondo la potenza assorbita e quindi potesse regolare con precisione la frequenza, a questo punto significa che questa funzione non c'è altrimenti si dovrebbe auto-adattare a cpu per cpu (tipo le centraline dei motori che adattano la combustione leggendo i dati dalle varie sonde)

Il sistema legge la percentuale di tempo che i transistors sono attivi, non il consumo effettivo. Loro sanno che tot transistors consumano x+-y% e quindi fanno in modo che x+y% sia minore di 125 o 95 W ... ;)

paolo.oliva2
27-09-2011, 15:11
Bah...
I prezzi dei proci hanno continuamente un ribasso semplicemente perché all'inizio si stima una n produzione e si applicano i costi subiti su quella produzione, dopodiché praticamente venduti quegli n proci si può scendere perché rimarrebbe solo il costo di produzione.
Però vediamo un attimo di non fare come il cane che si morde la coda.
Il prezzo del procio è sicuramente in base alle potenze in campo degli "avversari".
Intel offre i proci con la potenza più alta ed è giusto che chieda di più.
AMD ha un prodotto con potenza inferiore e certamente non può chiedere di più.
Se esiste la concorrenza c'è competizione di prezzi, altrimenti uno chiede quello che vuole e non è vincolato a nessuna potenza.
Detto questo... per me è AMD che condiziona Intel a non chiedere prezzi più alti come Intel alla fine obbliga AMD a non chiedere di più.

Ora, per non fare l'indovinello se nasce prima la gallina o l'uovo, sarà BD ad abbassare il costo/prestazioni di un X4 Intel oppure dobbiamo aspettare un SB-e X4 o X6 K per vedere BD X8 abbassare il prezzo?

paolo.oliva2
27-09-2011, 15:18
Ho già scritto prima della variabilità... Essa è più alta, ovviamente, anche per un processo produttivo giovane... ;) Si tengono degli ampi margini... ;)

Questo tornerebbe con quanto affermato da chi ha saggiato i BD, con l'affermazione che l'intero lotto provato prima di azotarlo avrebbe raggiunto i 5GHz sempre ad aria e confermerebbe i 5GHz+ ad aria.

Concordo che essendo architettura/silicio giovane le tolleranze per forza dovrebbero essere maggiori.

Ma allora che senso avrebbe discutere di BD basandosi su 3,6/4,2GHz se poi si potrebbe arrivare ben più in alto?

Cioè... sarebbe come valutare le prestazioni di un Thuban 1100T a 3,3GHz e poi postare i risultati con un OC a 4,5GHz ancora a dissi stock... :D

scrat1702
27-09-2011, 15:20
e allo stesso modo il turbo di cui si parlava avrebbe dovuto regolare la frequenza (iniezione anticipo alzata ecc) per mantenere il consumo (potenza) il più vicino possibile al tdp

Nei motori la potenza Max la si ha ai regimi max (o quasi) così anche qui, il valore max e di 4.1 e oltre non può andare. E l'IPC, nei motori la bontà delle tecnologie, che rende il valore di potenza max elevato o meno. ;) Poi ci sono ovviamente architetture differenti che permettono di girare più in alto (BMW vs Mercedes ad esempio) ma che non necessariamente rendono meglio.
Da quel che ho capito, correggimi se mi sto sbagliando, tu supponi che il turbo avrebbe portato la freq oltre al livello max dichiarato fino a raggiungere i 125W?
E ti ricordo che il TDP non e il consumo della CPU, soprattutto per come concepito da AMD.

paolo.oliva2
27-09-2011, 15:29
Ammesso e non concesso che sia così, vien da chiedersi come mai, nell'era delle distribuzione globale via aerea e non via risciò e canoe, come mai le indiscrezioni diano come riforniti i negozi americani al 12 e da noi al 24.
E nel caso, il motivo dell'ennesimo (dove -n- ha ormai due cifre) ritardo.
A questo punto sono proprio curioso di vedere i prezzi praticati da noi...

Io ho postato quella data perché mi è stata riferita.

Io devo ordinare una CF V, ho guardato su trovaprezzi chi la offre al prezzo più basso, al che ho inviato una e-mail a quel distributore chiedendo la disponibilità di un 8150p per fare un ordine unico e gli ho chiesto pure la disponibilità di DDR3 >2GHz con Timing bassi.

Mi ha risposto con la previsione che i BD 8150p sono attesi per il 24 ottobre, la mobo è disponibile e le DDR3 non le hanno disponibili neppure a 2GHz.

Al che l'ho postato... tra l'altro io riferisco quello che mi ha risposto, potrebbe anche darsi che lui li avrebbe il 1° novembre (non ci metto di certo la mano sul fuoco), ma ha scritto probabile prima del 24.

Tra l'altro, è pro@o, basta fargli la stessa domanda via e-mail e vediamo se rispondono uguale.

paolo.oliva2
27-09-2011, 15:34
Nei motori la potenza Max la si ha ai regimi max (o quasi) così anche qui, il valore max e di 4.1 e oltre non può andare. E l'IPC, nei motori la bontà delle tecnologie, che rende il valore di potenza max elevato o meno. ;) Poi ci sono ovviamente architetture differenti che permettono di girare più in alto (BMW vs Mercedes ad esempio) ma che non necessariamente rendono meglio.
Da quel che ho capito, correggimi se mi sto sbagliando, tu supponi che il turbo avrebbe portato la freq oltre al livello max dichiarato fino a raggiungere i 125W?
E ti ricordo che il TDP non e il consumo della CPU, soprattutto per come concepito da AMD.

Infatti per trovare similitudine tra TDP concepito da AMD e TDP di altri, bisognerebbe considerare l'ACP.

http://en.wikipedia.org/wiki/Average_CPU_power

The average CPU power (ACP), is a scheme to characterize power consumption of new central processing units under "average" daily usage, especially server processors, the rating scheme is defined by Advanced Micro Devices (AMD) for use in its line of processors based on the K10 microarchitecture (Opteron 8300 and 2300 series processors). This rating is similar to Intel's thermal design power (TDP) used with Pentium and Core 2 processors, measuring the energy consumption of high workloads, which in numbers are slightly lower than the TDP value of the same processor.

AMD claims the ACP rating includes the power consumption when running several benchmarks, like TPC-C, SPECcpu2006, SPECjbb2005 and STREAM Benchmark (memory bandwidth) [1][2][3] which AMD said is a better method as a power consumption measurement for data centers and server intensive workload environments. AMD has said that the ACP and TDP values of the processors will co-exist, and do not replace one another. All server products will see two power figures starting from the codenamed Barcelona server processor onwards.

scrat1702
27-09-2011, 15:35
Io ho postato quella data perché mi è stata riferita.

Io devo ordinare una CF V, ho guardato su trovaprezzi chi la offre al prezzo più basso, al che ho inviato una e-mail a quel distributore chiedendo la disponibilità di un 8150p per fare un ordine unico e gli ho chiesto pure la disponibilità di DDR3 >2GHz con Timing bassi.

Mi ha risposto con la previsione che i BD 8150p sono attesi per il 24 ottobre, la mobo è disponibile e le DDR3 non le hanno disponibili neppure a 2GHz.

Al che l'ho postato... tra l'altro io riferisco quello che mi ha risposto, potrebbe anche darsi che lui li avrebbe il 1° novembre (non ci metto di certo la mano sul fuoco), ma ha scritto probabile prima del 24.

Tra l'altro, è pro@o, basta fargli la stessa domanda via e-mail e vediamo se rispondono uguale.

Forse AMD non vuole che vengano messi in vendita prima del 12 e perciò li distribuirà a partire dal 12. 10-15 giorni per arrivare negli shop nostrani e il periodo medio che ci vuole. Only my two cents.

marchigiano
27-09-2011, 15:38
Nei motori la potenza Max la si ha ai regimi max (o quasi) così anche qui, il valore max e di 4.1 e oltre non può andare. E l'IPC, nei motori la bontà delle tecnologie, che rende il valore di potenza max elevato o meno. ;) Poi ci sono ovviamente architetture differenti che permettono di girare più in alto (BMW vs Mercedes ad esempio) ma che non necessariamente rendono meglio.
Da quel che ho capito, correggimi se mi sto sbagliando, tu supponi che il turbo avrebbe portato la freq oltre al livello max dichiarato fino a raggiungere i 125W?
E ti ricordo che il TDP non e il consumo della CPU, soprattutto per come concepito da AMD.

ok lasciamo perdere le auto che l'esempio non calza bene :D

volevo dire che pensavo ci fossero stati dei sensori che riuscivano a calcolare istantaneamente l'energia assorbita dalla cpu (tipo un wattmetro) e quindi regolare la frequenza per tenere i W consumati il più vicino possibile al tdp

esempio frequenze più alte in x264 rispetto a lynx perchè lynx stressa di più la cpu a pari frequenza

oppure frequenze più alte a freddo perchè i transistor hanno meno leakage

invece se ho ben capito è un turbo banale come nel thuban solo con 2 step invece di uno...

bjt2
27-09-2011, 15:45
ok lasciamo perdere le auto che l'esempio non calza bene :D

volevo dire che pensavo ci fossero stati dei sensori che riuscivano a calcolare istantaneamente l'energia assorbita dalla cpu (tipo un wattmetro) e quindi regolare la frequenza per tenere i W consumati il più vicino possibile al tdp

esempio frequenze più alte in x264 rispetto a lynx perchè lynx stressa di più la cpu a pari frequenza

oppure frequenze più alte a freddo perchè i transistor hanno meno leakage

invece se ho ben capito è un turbo banale come nel thuban solo con 2 step invece di uno...

No... ;)
Leggi qui: http://www.xtremehardware.it/recensioni/processori/architettura-di-llano-201107015402/12/

Questo è il turbo di Llano. Per BD immagina di estendere il discorso a due step di turbo...

scrat1702
27-09-2011, 15:46
ok lasciamo perdere le auto che l'esempio non calza bene :D

volevo dire che pensavo ci fossero stati dei sensori che riuscivano a calcolare istantaneamente l'energia assorbita dalla cpu (tipo un wattmetro) e quindi regolare la frequenza per tenere i W consumati il più vicino possibile al tdp

esempio frequenze più alte in x264 rispetto a lynx perchè lynx stressa di più la cpu a pari frequenza

oppure frequenze più alte a freddo perchè i transistor hanno meno leakage

invece se ho ben capito è un turbo banale come nel thuban solo con 2 step invece di uno...

Il turbo e lo stesso che c'e in Thuban, Bloomfield, Lynnfield, Gulftown e SB.Aumente le freq in base ai core sotto carico. Cmq non riesco a seguire il tuo ragionamento.... se 8 core sotto stress a 3.9 al CB consumano 104W come faceva ad aumentare la freq se quello e il valore massimo impostato da AMD? Forse in Lynx consumerà di più, magari si avvicinerà a 125W (possibile visti i 104 di CB)non conosciamo ancora nel dettaglio il funzionamento esatto del turbo, potrebbe essere un approccio simile a Thuban con 2 step a seconda che i core sotto stress siano più o meno di 4 oppure un approccio più vicino a intel magari con step differenti in base ai moduli sotto carico, oppure ancora in base ai cluster.

mtk
27-09-2011, 15:55
Nei motori la potenza Max la si ha ai regimi max (o quasi) così anche qui, il valore max e di 4.1 e oltre non può andare. E l'IPC, nei motori la bontà delle tecnologie, che rende il valore di potenza max elevato o meno. ;) Poi ci sono ovviamente architetture differenti che permettono di girare più in alto (BMW vs Mercedes ad esempio) ma che non necessariamente rendono meglio.
Da quel che ho capito, correggimi se mi sto sbagliando, tu supponi che il turbo avrebbe portato la freq oltre al livello max dichiarato fino a raggiungere i 125W?
E ti ricordo che il TDP non e il consumo della CPU, soprattutto per come concepito da AMD.

fossi in te lascerei stare gli esempi automobilistici...non hai le idee molto chiare...

paolo.oliva2
27-09-2011, 16:00
No... ;)
Leggi qui: http://www.xtremehardware.it/recensioni/processori/architettura-di-llano-201107015402/12/

Questo è il turbo di Llano. Per BD immagina di estendere il discorso a due step di turbo...

Però c'è un punto che non mi è chiaro...

Nessun dubbio sul fatto che il turbocore2 è un ottimo passo avanti rispetto al Phenom II.

Però... se il margine del turbo viene calcolato in base al numero di transistor in funzione, mancherebbe comunque il parametro ulteriore condizionato dalla temp ambiente.
Cioè, con una temp ambiente sui 0° comunque si avrebbe sia un consumo inferiore (tipo effetto joule) che un procio più "freddo".
In poche parole... il Turbocore2 di AMD lavorerebbe portando le stesse frequenze massime sia a 40° il 15 agosto che a 0° il 31 dicembre...
o sbaglio?

scrat1702
27-09-2011, 16:05
fossi in te lascerei stare gli esempi automobilistici...non hai le idee molto chiare...

Argomentare e sempre un buon punto di partenza.....

scrat1702
27-09-2011, 16:07
Però c'è un punto che non mi è chiaro...

Nessun dubbio sul fatto che il turbocore2 è un ottimo passo avanti rispetto al Phenom II.

Però... se il margine del turbo viene calcolato in base al numero di transistor in funzione, mancherebbe comunque il parametro ulteriore condizionato dalla temp ambiente.
Cioè, con una temp ambiente sui 0° comunque si avrebbe sia un consumo inferiore (tipo effetto joule) che un procio più "freddo".
In poche parole... il Turbocore2 di AMD lavorerebbe portando le stesse frequenze massime sia a 40° il 15 agosto che a 0° il 31 dicembre...
o sbaglio?

Beh difficilmente AMD ti può vendere una CPU dicendoti che il 15 di agosto va a 4.0Ghz e il 31 dicembre a 4.4Ghz :D :D :D
certo che sarebbe una trovata di marketing geniale, quasi al livello dei core sbloccabili di intel :sofico:

bjt2
27-09-2011, 16:12
Però c'è un punto che non mi è chiaro...

Nessun dubbio sul fatto che il turbocore2 è un ottimo passo avanti rispetto al Phenom II.

Però... se il margine del turbo viene calcolato in base al numero di transistor in funzione, mancherebbe comunque il parametro ulteriore condizionato dalla temp ambiente.
Cioè, con una temp ambiente sui 0° comunque si avrebbe sia un consumo inferiore (tipo effetto joule) che un procio più "freddo".
In poche parole... il Turbocore2 di AMD lavorerebbe portando le stesse frequenze massime sia a 40° il 15 agosto che a 0° il 31 dicembre...
o sbaglio?

Esatto. Questo però è un vantaggio perchè hai predicibilità delle prestazioni.

mtk
27-09-2011, 16:15
Argomentare e sempre un buon punto di partenza.....

e' ot e sarebbe lungo da spiegare,per farla breve i motori si dividono per frazionamento,corsa(lunga/corta),distribuzione(aste/camme/cilindri pneumatici/desmodromico/elettroattuato) e alimentazione.
la potenza si ottiene al numero di giri necessario al compito del mezzo sul quale il motore e' dedicato.
in base ai parametri che ho elencato si possono ottenere potenze e coppie motrici che possono anche non rispettare i valori "classici" dati dal frazionamento.
i tuoi paragoni sulla potenza/giri e la tua spiegazione su come le centraline regolano la carburazione non erano corretti.
scusate l ot

paolo.oliva2
27-09-2011, 16:15
ok lasciamo perdere le auto che l'esempio non calza bene :D

volevo dire che pensavo ci fossero stati dei sensori che riuscivano a calcolare istantaneamente l'energia assorbita dalla cpu (tipo un wattmetro) e quindi regolare la frequenza per tenere i W consumati il più vicino possibile al tdp

esempio frequenze più alte in x264 rispetto a lynx perchè lynx stressa di più la cpu a pari frequenza

oppure frequenze più alte a freddo perchè i transistor hanno meno leakage

invece se ho ben capito è un turbo banale come nel thuban solo con 2 step invece di uno...

Probabilmente quel 2% di tolleranza, calcolata al 98% anziché al 100%, potrebbe essere volutamente lasciata per considerare eventuali differenze di temp tra un numero uguale di transistor utilizzati ma con programmi diversi che riescono a produrre temperature differenti.
Ad esempio mi ricordo che c'era un programma test-OC oltre a lynx che incrementava di 2-3° le temp rispetto a Lynx.

Però... sarebbe molto più grave se la procedure fosse calcolata considerando 40° la temp ambiente (visto che il TDP NON si può sforare) perdendo tutto il vantaggio dato da temperature ambiente inferiori.

Cacchio... guarda che non è poco...
A naso penso che si possa ottenere un OC simile tra la condizione raffreddamento liquido ma con 40° ambiente e poco più del dissi stock ma sul terrazzo di casa in inverno a 0°.
Per me che occo... è una vita :sofico:

scrat1702
27-09-2011, 16:20
e' ot e sarebbe lungo da spiegare,per farla breve i motori si dividono per frazionamento,corsa(lunga/corta),distribuzione(aste/camme/cilindri pneumatici/desmodromico/elettroattuato) e alimentazione.
la potenza si ottiene al numero di giri necessario al compito del mezzo sul quale il motore e' dedicato.
in base ai parametri che ho elencato si possono ottenere potenze e coppie motrici che possono anche non rispettare i valori "classici" dati dal frazionamento.
i tuoi paragoni sulla potenza/giri e la tua spiegazione su come le centraline regolano la carburazione non erano corretti.
scusate l ot

Infatti come dici tu e un discorso lungo ed estremamente OT, ciò che ho scritto era solo per fare un paragone terra terra. Sotto tecnologie intendevo quello che hai spiegato in poche parole tu...... e sulle centraline ho semplificato ma grosso modo e così. regolano la miscelazione in base a molti parametri tra cui quelli che ho elencato. Fine OT.

paolo.oliva2
27-09-2011, 16:23
Esatto. Questo però è un vantaggio perchè hai predicibilità delle prestazioni.

OK.

Però sarebbe molto più semplice se da bios AMD prevedesse un valore variabile da applicare al turbo.

Facendo un esempio... un valore da -10 a +10. AMD applica il Turbocore2 che aumenta/diminuisce le frequenze rispetto al TDP "previsto", il cui valore può aumentare in base al valore applicato nel bios in una bella finestrella :D

Turbocore2 = X + Y% (dove Y% può variare da un valore negativo ad uno positivo) variabile a piacere nelle 4 stagioni dell'anno ed in base al tipo di dissipazione usato.

Edit.
Mi sa che ho scritto una fregnaccia.... :)
Variare la frequenza def avrebbe sempre un Turbo fisso di +600MHz e sarebbe meno paranoico che applicare invece un Turbo che non sia +600MHz ma che possa arrivare anche sopra 1GHz.

Ok, diamo colpa alla scimmia.

digieffe
27-09-2011, 16:57
quoto questo concetto: amd è troppo piccola per potersi permettere soluzioni troppo avanzate, non avrebbe tempo e soldi per svilupparle, gli conviene copiare intel per avvicinarsi e solo nel caso un giorno arrivasse a circa il 50% del mercato allora si che avrà i mezzi per tentare il sorpasso. intel è dal conroe che non aumenta gli stadi di pipeline e dovrebbero rimanere tali anche con haswell, perchè amd li ha voluti aumentare? mica saranno scemi alla intel... poi hai i prefetcher scarsi, vedi di migliorarli e ridurre le latenze caches, se non ci riesci sviluppa il smt che porterebbe beneficio alle pipeline che non riesci a riempire. ora sono curioso per il futuro se tornassero ad adottare alcune soluzioni del K8


forse ti sfugge una cosa: questo è il vero inizio di fusion (tralasciando ciò che è ora apu llano)

io credo che prima o poi scomparirà la FPU e sarà sostutiuta da una CU (compute unit)

e credo che per fare ciò il tutto andava rivisto... (non so quanto sarebbe stato semplice integrare il tutto in thuban)

è solo un progetto in stato primordiale che ha bisogno di essere affinato...

secondo me potenzierano le unità estenti, inoltre ricordando i discorsi di molto tempo fa, di bjt2 e anche il power 6 (FO4=13) e 7 (FO4=17) di IBM, probabilmente si attendevano velocità di base ben oltre i 4 ghz (4.3-4.5)... cosa che non è avvenuta per il silicio o la difficoltà di impementazione...

Ps: viste come sono messe le cose difficilmente amd supererà intel nel market share... io spererei che arrivi al 25-30% che è già quanto basta per fare una seria concorrenza

AceGranger
27-09-2011, 17:26
Esatto. Questo però è un vantaggio perchè hai predicibilità delle prestazioni.

sinceramente non vedo dove sia il vantavggio...

se avesse un turbo aggiuntivo basato sulla temperatura non sarebbe meglio?Avresti comunque la parte fissa prevedibile e in piu una parte bonus che sarebbe tutto grasso che cola

scrat1702
27-09-2011, 17:30
sinceramente non vedo dove sia il vantavggio...

se avesse un turbo aggiuntivo basato sulla temperatura non sarebbe meglio?Avresti comunque la parte fissa prevedibile e in piu una parte bonus che sarebbe tutto grasso che cola

Ok. Ma poi come farebbero a dichiarare la freq della CPU? In base ai paralleli e meridiani? Certo e un ottima idea ma la vedo dura da attuare.

leoneazzurro
27-09-2011, 17:36
quoto questo concetto: amd è troppo piccola per potersi permettere soluzioni troppo avanzate, non avrebbe tempo e soldi per svilupparle, gli conviene copiare intel per avvicinarsi e solo nel caso un giorno arrivasse a circa il 50% del mercato allora si che avrà i mezzi per tentare il sorpasso. intel è dal conroe che non aumenta gli stadi di pipeline e dovrebbero rimanere tali anche con haswell, perchè amd li ha voluti aumentare? mica saranno scemi alla intel... poi hai i prefetcher scarsi, vedi di migliorarli e ridurre le latenze caches, se non ci riesci sviluppa il smt che porterebbe beneficio alle pipeline che non riesci a riempire. ora sono curioso per il futuro se tornassero ad adottare alcune soluzioni del K8



Ehm, no, io intendevo il contrario: è inutile essere innovativi su unità di esecuzione, branch prediction e così via ma poi mettere su un sistema di caching esclusivo con latenze altissime che con i carichi di lavoro attuali potrebbe penalizzare fortemente le prestazioni su un'architettura a pipeline lunghe (e che quindi ha parecchi problemi in caso di stallo e cache miss, e che una cache a latenze elevate di certo non aiuta a risolvere). Un sistema di caching che prende parecchio spunto dal K10, che notoriamente non era efficientissimo da questo punto di vista.

digieffe
27-09-2011, 17:41
Ora, spero che siano abbastanza accorti da darsi da fare e sistemare le cose al meglio senza puntare unicamente sul miglioramento del silicio/aumento delle frequenze...

Aggiungo che non ho idea di quanto possa essere complesso aggiungere/ cambiare il tipo di cache L1... o cambiare qualcosa nelle pipeline riducendo/mascherando le latenze o modificare i punti che limitano una eventuale scalata in frequenza...

spero che qualcuno più esperto mi possa aiutare a capire l'entità delle difficoltà dell'utilmo paragrafo

calabar
27-09-2011, 18:50
volevo dire che pensavo ci fossero stati dei sensori che riuscivano a calcolare istantaneamente l'energia assorbita dalla cpu (tipo un wattmetro) e quindi regolare la frequenza per tenere i W consumati il più vicino possibile al tdp [...]
Mi sa che con la risposta che ti avevo dato in precedenza non ero stato molto chiaro. Proviamo con un esempio semplificato:

Hai un processore con frequenza base 3ghz e turbo a 3,5ghz, con tdp di 125W.
Avvii un'applicazione, a 3ghz i sensori misurano un consumo di 90W, quindi entra in funzione il turbo.
La frequenza sale a 3,5ghz, e il consumo ora è di 110W.
Il processore ha raggiunto la frequenza massima a cui è previsto che vada, quindi il consumo ottenuto con il turbo sarà ben inferiore ai 125W di TDP.
Con un'altra applicazione più esosa magari li avrebbe raggiunti.

Superare la soglia massima stabilita, anche se si è sotto al TDP massimo, aggiunge una serie di problematiche per cui non ha senso andare oltre quel limite. Non è solo questione di consumi/TDP, ma anche di stabilità a certe frequenze operative.

digieffe
27-09-2011, 19:33
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959393&viewfull=1#post4959393


EDIT: fonte del video http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959408&viewfull=1#post4959408

nonostante la fonte secondo me conviene vedere il video

Megakirops
27-09-2011, 19:38
No... ;)
Leggi qui: http://www.xtremehardware.it/recensioni/processori/architettura-di-llano-201107015402/12/

Questo è il turbo di Llano. Per BD immagina di estendere il discorso a due step di turbo...

Mi spieghi meglio questo passaggio?

''L’APM misura una stima del TDP non tenendo conto della temperatura e in modalità completamente digitale: in sostanza misura la percentuale di attività delle varie unità, ricavando il consumo totale, conoscendo quello massimo di ogni unità.''

In particolare il consumo massimo di ogni unità è stato anch'esso stimato o è stato misurato e in quali condizioni ambientali?
Sono un pò perplesso perchè si parla di consumo massimo, che cambia poco con la temperatua ambiente, e non di calore sviluppato e quindi da dissipare col dissi stock (TDP), la cui prestazione dipende fortemente dalla Tamb. Per quanto io ne sappia l'efficacia del dissipatore (io calore assorbito) è maggiore quanto più è grande il deltaT ( deltaQ = m *c*dT ) tra procio e dissi, che a sua volta dipende molto dalla Tamb, quindi è da verificare a che Tamb sono stati stimati (o msiurati non so) i tdp di ogni singola unità al loro consumo massimo.

Ares17
27-09-2011, 20:12
Mi spieghi meglio questo passaggio?

''L’APM misura una stima del TDP non tenendo conto della temperatura e in modalità completamente digitale: in sostanza misura la percentuale di attività delle varie unità, ricavando il consumo totale, conoscendo quello massimo di ogni unità.''

In particolare il consumo massimo di ogni unità è stato anch'esso stimato o è stato misurato e in quali condizioni ambientali?
Sono un pò perplesso perchè si parla di consumo massimo, che cambia poco con la temperatua ambiente, e non di calore sviluppato e quindi da dissipare col dissi stock (TDP), la cui prestazione dipende fortemente dalla Tamb. Per quanto io ne sappia l'efficacia del dissipatore (io calore assorbito) è maggiore quanto più è grande il deltaT ( deltaQ = m *c*dT ) tra procio e dissi, che a sua volta dipende molto dalla Tamb, quindi è da verificare a che Tamb sono stati stimati (o msiurati non so) i tdp di ogni singola unità al loro consumo massimo.

Sarà presente sul datashet della cpu la temp dell'aria.
Su una famiglia di xeon intel considerava il tpd indicato con temp dell'aria all'interno del case di 60 gradi centigradi (non ricordo però la famiglia di cpu)

paolo.oliva2
27-09-2011, 20:17
Ho letto addietro alcune considerazioni sulle DDR3 da montare su BD.

Bisognerebbe sentire chi ha un Llano, perché comunque l'MC dovrebbe essere lo stesso di BD.

Sul Phenom II c'era una certa differenza sul tipo di memorie usate e dal Phenom II X4 al Thuban ci sono differenze.
Ora, il Phenom II X4 non mi ricordo bene... ma ad esempio il Thuban rende meglio con delle 1600 con timing tirati anziché con delle 2GHz con timing rilassati. Poi è chiaro che nei bench che valutano la banda, daranno risultati migliori con delle DDR3 a frequenze alte a scapito dei Timing, ma di dubbio valore effettivo.

In Llano montare memorie anche a 2,4GHz incrementava le prestazioni della VGA più che quelle dei core, però dobbiamo tenere conto che Llano è un X4 e BD un X8... mi sembra scontato che la quantità di dati necessaria ad un Llano anche occato a 4GHz sia di gran lunga inferiore a quella che richiederebbe un BD X8 anche a def, quindi pensare di montare delle DDR3 addirittura inferiori al massimo def... poi per una differenza di 10-20€ sia da scartare.

Io sarò all'antica... :), però penso ancora che ove non ci siano limiti hardware specifici, sia da rispettare la regola che ad X% di OC della frequenza core, NB e DDR3 debbano incrementare in egual misura (salvo arrivare a cifre superiori rispetto ai guadagni reali).

Per me, pensare di occare un BD X8 del 40% e poi pensare di montarci delle DDR3 a clock addirittura inferiore del def, sto male solo a pensarci.

bjt2
27-09-2011, 20:24
Mi spieghi meglio questo passaggio?

''L’APM misura una stima del TDP non tenendo conto della temperatura e in modalità completamente digitale: in sostanza misura la percentuale di attività delle varie unità, ricavando il consumo totale, conoscendo quello massimo di ogni unità.''

In particolare il consumo massimo di ogni unità è stato anch'esso stimato o è stato misurato e in quali condizioni ambientali?
Sono un pò perplesso perchè si parla di consumo massimo, che cambia poco con la temperatua ambiente, e non di calore sviluppato e quindi da dissipare col dissi stock (TDP), la cui prestazione dipende fortemente dalla Tamb. Per quanto io ne sappia l'efficacia del dissipatore (io calore assorbito) è maggiore quanto più è grande il deltaT ( deltaQ = m *c*dT ) tra procio e dissi, che a sua volta dipende molto dalla Tamb, quindi è da verificare a che Tamb sono stati stimati (o msiurati non so) i tdp di ogni singola unità al loro consumo massimo.
Le CPU AMD sono stressate con una procedura interna per determinarne il TDP, in condizioni peggiori, probabilmente con vcore al limite superiore della tolleranza e temperatura del die al limite superiore accettato (esempio 62 gradi per il thuban, mi pare). Penso che tengano conto anche dell'invecchiamento e delle tolleranze di fabbricazione. In sostanza sanno il limite superiore di consumo alle varie frequenze. La APM calcola la percentuale di transistors attivi e da li il limite della potenza. Conoscendo gli assorbimenti massimi delle tre frequenze di BD, la APM puó determinare la percentuale di tempo in cui BD puó stare nel clock di turbo senza sforare il tdp...

paolo.oliva2
27-09-2011, 20:33
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959393&viewfull=1#post4959393


EDIT: fonte del video http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959408&viewfull=1#post4959408

nonostante la fonte secondo me conviene vedere il video

Comunque 4,2GHz necessitano di 1,415V Vcore (e poi sarebbe da valutare se il bios imposti un Vcore a manica larga).

Lì che usano? Il dissi stock o superiore? Perché praticamente partono da 18° a def per arrivare sui 38° sotto carico (ma ho visto parzialmente perché a 380 si vede da schifo e a risoluzione massima Torrent mi blocca la banda).

Bisogna vedere come reagisce sto step B2g.... perché mi ricordo che assegnavano ben 1,6V per OC su step precedenti...
Se già non fossero necessari 1,415V per i 4,2GHz ma bastassero anche solamente 1,4V o inferiori (cacchio, nel Thuban AMD aveva applicato un Vcore di 1,475V per i 3,6GHz su 3 core quando 1,4V bastavano per superare i 4GHz su tutti i core) ci sarebbe un margine di 0,2V per salire ulteriormente...
Comunque mi sembra MOLTO freddo il procio.

marchigiano
27-09-2011, 20:36
No... ;)
Leggi qui: http://www.xtremehardware.it/recensioni/processori/architettura-di-llano-201107015402/12/

Questo è il turbo di Llano. Per BD immagina di estendere il discorso a due step di turbo...

ok ma di fatto, dalle rece, sembra non funzionare, il turbo entra solo con gpu in idle e 1 core attivo per la freq massima e con 2 core attivi per la frequenza intermedia

Il turbo e lo stesso che c'e in Thuban, Bloomfield, Lynnfield, Gulftown e SB.Aumente le freq in base ai core sotto carico. Cmq non riesco a seguire il tuo ragionamento.... se 8 core sotto stress a 3.9 al CB consumano 104W come faceva ad aumentare la freq se quello e il valore massimo impostato da AMD? Forse in Lynx consumerà di più, magari si avvicinerà a 125W (possibile visti i 104 di CB)non conosciamo ancora nel dettaglio il funzionamento esatto del turbo, potrebbe essere un approccio simile a Thuban con 2 step a seconda che i core sotto stress siano più o meno di 4 oppure un approccio più vicino a intel magari con step differenti in base ai moduli sotto carico, oppure ancora in base ai cluster.

a parte che il turbo di SB è molto più sofisticato di quello di nehalem

comunque per dire x264 a 3ghz consuma 60w, quindi posso applicare 500mhz di turbo. lynx a 3ghz consuma 80w quindi posso applicare 200mhz di turbo. intendevo così

il Turbocore2 di AMD lavorerebbe portando le stesse frequenze massime sia a 40° il 15 agosto che a 0° il 31 dicembre...
o sbaglio?

purtroppo si essendo deterministico...

Beh difficilmente AMD ti può vendere una CPU dicendoti che il 15 di agosto va a 4.0Ghz e il 31 dicembre a 4.4Ghz :D :D :D
certo che sarebbe una trovata di marketing geniale, quasi al livello dei core sbloccabili di intel :sofico:

si ma così il limite è che le prestazioni sono sempre da 15 agosto anche a dicembre, mentre potevano dire "con temperature inferiori le prestazioni aumentano ulteriormente"

Esatto. Questo però è un vantaggio perchè hai predicibilità delle prestazioni.

si ok ma è facile plafonare il tutto alla condizione peggiore...

intanto su obr i filmati del funzionamento del turbo, non mi venite a dire che sono fake :rolleyes:

le frequenze oscillano parecchio segno che effettivamente si adatta in tempo reale al consumo effettivo

astroimager
27-09-2011, 20:36
Così proprio non va, ragazzi miei... permettetemi un piccolo sfogo.

Io seguo questo thread dalla seconda incarnazione, ovvero maggio 2007... e da parte di AMD ne ho viste di tutti i colori.

Mesi fa, pensando a Bulldozer (già il nome...), octa-core, architettura nuova di pacca e concepita per le alte frequenze, disegno compatto ed efficiente grazie ai 32 nani, riesumazione addirittura del brand FX e lancio anticipato rispetto alla controparte server... :eek: mi ero fatto ben altra idea sul target di queste CPU! :sofico:
Poi sono cominciate a spuntar fuori le analisi tecniche sull'architettura... e già non appariva più un mostro per uso desktop/workstation, senza contare la celebre slide AMD, che ridimensionava la potenza massima al 980X. Evvabbè!

Ora, dopo un trimestre abbondante di ritardo - ma daglielo, si tratta del più grande salto dal 2003! - il quadro finale è che il BD di punta se la vede bene nei giochi con una CPU workstation lanciata 1 anno e mezzo fa, e in MT rivaleggia con una CPU desktop che è già ora di rimpiazzare/deprezzare?!? :mbe:

Io ne deduco che: o speravano veramente nel botto, ma non sanno più fare CPU (vedi BP poco efficiente, caching problematico, ...) oppure, nonostante gli slogan altisonanti, sostanzialmente se ne fregavano di cosa sarebbe venuto fuori per il desktop, l'importante è poter competere bene sotto i 200-250 euro.

Certo, l'architettura si può aggiustare nelle future evoluzioni, nel frattempo si può tener testa con la frequenza... ma al di là dei soliti ridondanti discorsi tecnici o possibilisti... di fondo non rimane un (bel) po' di amarezza? :stordita:

Mparlav
27-09-2011, 20:46
La scelta delle DDR3 "giuste" è l'ultimo dei problemi in termini economici rispetto alla spesa per una MB 990FX "adeguata" o al raffreddamento aria/liquido.

2x4GB DDR3 1600 cl9 vengono 45 euro, ma se qualcuno vuole per forza qualcosa di più, 2x4GB di Geil Evo Corsa o le Gskill RipjawsX 1866 cl9 vengono 65 euro e sono già più che adeguate per un oc daily.
Poi se uno vuole andare sui 100 euro, ci sono le 2133 cl9 (sempre Geil Evo Corsa, Gskill RipjawsX o Mushkin Rediline), ma saranno superflue se non per fare i bench.

Personalmente andrò di G.skill che non mi hanno mai tradito.

Korn
27-09-2011, 20:47
anche tu hai una bella sfera di cristallo vedo :asd:

Robermix
27-09-2011, 21:07
Per me Bulldozer si pone e seguirà il destino della serie 3000/4000 di ATI, o almeno spero :D

paolo.oliva2
27-09-2011, 21:16
Così proprio non va, ragazzi miei... permettetemi un piccolo sfogo.

Io seguo questo thread dalla seconda incarnazione, ovvero maggio 2007... e da parte di AMD ne ho viste di tutti i colori.

Mesi fa, pensando a Bulldozer (già il nome...), octa-core, architettura nuova di pacca e concepita per le alte frequenze, disegno compatto ed efficiente grazie ai 32 nani, riesumazione addirittura del brand FX e lancio anticipato rispetto alla controparte server... :eek: mi ero fatto ben altra idea sul target di queste CPU! :sofico:
Poi sono cominciate a spuntar fuori le analisi tecniche sull'architettura... e già non appariva più un mostro per uso desktop/workstation, senza contare la celebre slide AMD, che ridimensionava la potenza massima al 980X. Evvabbè!

Ora, dopo un trimestre abbondante di ritardo - ma daglielo, si tratta del più grande salto dal 2003! - il quadro finale è che il BD di punta se la vede bene nei giochi con una CPU workstation lanciata 1 anno e mezzo fa, e in MT rivaleggia con una CPU desktop che è già ora di rimpiazzare/deprezzare?!? :mbe:

Io ne deduco che: o speravano veramente nel botto, ma non sanno più fare CPU (vedi BP poco efficiente, caching problematico, ...) oppure, nonostante gli slogan altisonanti, sostanzialmente se ne fregavano di cosa sarebbe venuto fuori per il desktop, l'importante poter competere bene sotto i 200-250 euro.

Certo, l'architettura si può aggiustare nelle future evoluzioni, nel frattempo si può tener testa con la frequenza... ma al di là dei soliti ridondanti discorsi tecnici o possibilisti, di fondo non rimane un (bel) po' di amarezza? :stordita:

Io l'ho pensata come te quando ho visto quelle slide.

Cioè, occhio e croce abbiamo inquadrato l'IPC di BD (per modo di dire, io ancora sull'MT non ci ho capito una mazza).

Però al momento non sappiamo neppure se lo step B2g abbia l'ULK o meno... e non sappiamo neppure se l'8170p che aumenta di 300MHz la freq def e quella turbo di un 8150 sarà ancora step B2g o CX, se con l'ULK o meno...

Se BD con la sua architettura, anche secondo i calcoli di Bjt2, potrebbe arrivare a 4,5GHz def, mi sembra chiaro che un BD a 3,6GHz def sarebbe un attimo sotto-tono e certamente non rispecchia appieno i limiti della potenzialità BD (ci sarebbe la stessa differenza tipo Thuban a def e Thuban occato come il mio in firma... cioè, non sarebbe mica una virgola). Non voglio essere né pessimista né ottimista, semplicemente aspetto per capire effettivamente cosa offre BD.

Poi magari non sarà così, però certamente credo non si possa dare un giudizio completo nel confronto tra un BD X8 ed un i980X, dove l'architettura BD è appena nata su un silicio che ha visto Llano solamente 4 mesi fa e tutti sappiamo che NON è a puntino e confrontarlo con un i980X su un silicio rodato da 2 anni e giunto all'ultimo sviluppo visto che vedrà il pensionamento a breve.

Aspettiamo a vedere come si comporta sto BD on-road.

Io non capisco perché AMD debba vendere i proci a frequenze inferiori al limite, quando già AMD deve recuperare in potenza nei confronti di Intel :mad: .
Anche in passato, come cacchio ha fatto AMD a vendere un 1090T a 3,2GHz def (1,35V) e turbo 3,6GHz (1,475V) per 125W quando con 1,35V io arrivo a 3,7GHz su tutti i core e con 1,45V sto a 4,3GHz...
Poi ci credo che quando si sono visti test che davano 140W per un Thuban a 4GHz non ci credeva nessuno...
Chiaramente sarebbe sempre stato sotto ad Intel, però visto che i confronti li fanno a def, una certa importanza almeno di immagine l'avrebbe :)

Io non vedo l'ora di metterci mano ad un 8150p... per vedere se è vero che si occa a 5GHz+ ancora ad aria. Se la maggior parte della gente non occa, se "loro" si accontentano, buon per loro. Di certo se sarà possibile io terrò i 5GHz RS DU e dei bench di un BD a 3,6GHz che posteranno in rete me ne fregherò altamente. :)

capitan_crasy
27-09-2011, 21:30
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959393&viewfull=1#post4959393


EDIT: fonte del video http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959408&viewfull=1#post4959408

nonostante la fonte secondo me conviene vedere il video

http://www.xtremeshack.com/immagine/i111639_obr-no-01.jpg

paolo.oliva2
27-09-2011, 21:37
Tra parentesi... una volta GF dava il 32nm per il 2011 e il 22nm per il 2013.

Perché GF avrebbe cambiato tutto e immetterebbe il 28nm per l'anno prossimo?

Se il problema fosse nell'architettura BD, a GF non fregherebbe una mazza e continuerebbe la sua road-map.

Se invece è GF che cambia, a me viene da pensare che il problema non sia l'architettura BD ma il silicio di GF.

Però come giudicare il silicio 32nm GF "scarso" quando un X8 a def raschierebbe i 4GHz (8170p 3,9GHz) per 125W? A quanto si aspettavano di arrivare? A 5GHz def?

paolo.oliva2
27-09-2011, 21:39
http://www.xtremeshack.com/immagine/i111639_obr-no-01.jpg

E io che l'avevo pure commentato :)

Se posso dire una battuta... cacchio, comunque si è evoluto.
Prima ha fatto di tutto di più in photoshop, ora chi ha assoldato? Pure spielberg per gli effetti speciali video? :sofico:
Tra poco mi aspetterei pure una anteprima di Trinity, BD2, BD3 next generations...

tmx
27-09-2011, 21:39
abbiate pazienza ma davvero mi sfugge una cosa :)

l'ultimo set di slides AMD uscite su Donanimhaber (e ripreso poi da hwupgrade) è stato postato quasi subito da Dresdenboy sul suo blog (e il suo twitter) e definito materiale ufficiale; e dopo l'ha postato lui stesso anche sul forum di Semiaccurate.
(Su Xtremesystems invece credo l'abbia postato per primo liberato87 :) )

http://img99.imageshack.us/img99/815/dresdenboy24sett.jpg (http://imageshack.us/photo/my-images/99/dresdenboy24sett.jpg/)

quindi dresdenboy sembra sicuro del fatto suo, se no perchè indicarle come ufficiali?? lui non lavora mica per AMD??... :confused: :confused: :confused:

EDIT: mmm lavora per Wolkswagen/AUDI... forse deve essere considerato anche lui FUD come tutto quello che circola?

EDIT2:
fonti
-Slides su Donanimhaberr:
http://www.donanimhaber.com/islemci/haberleri/AMD-Bulldozer-hakkinda-her-sey-islemciler-teknik-ozellikler-test-sonuclari.htm
-Dresdenboy:
http://twitter.com/#!/Dresdenboy
http://citavia.blog.de/
-Dresdenboy su Semiaccurate:
http://semiaccurate.com/forums/showthread.php?t=5217&page=164
- Nel frattempo Liberato 87 su Xtremesystems:
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!/page125

Tenebra
27-09-2011, 22:10
La scelta delle DDR3 "giuste" è l'ultimo dei problemi in termini economici rispetto alla spesa per una MB 990FX "adeguata" o al raffreddamento aria/liquido.

2x4GB DDR3 1600 cl9 vengono 45 euro, ma se qualcuno vuole per forza qualcosa di più, 2x4GB di Geil Evo Corsa o le Gskill RipjawsX 1866 cl9 vengono 65 euro e sono già più che adeguate per un oc daily.
Poi se uno vuole andare sui 100 euro, ci sono le 2133 cl9 (sempre Geil Evo Corsa, Gskill RipjawsX o Mushkin Rediline), ma saranno superflue se non per fare i bench.

Personalmente andrò di G.skill che non mi hanno mai tradito.

Ormai ho trovato dove e cosa prendere a 1866, comunque i tuoi prezzi mi paiono un po' bassi... senza contare che le Gskill 1866 in Italia io proprio non le ho trovate.

vegitto4
27-09-2011, 22:24
cmq quelle slides secondo me sono vere, non è che ci si mette a realizzare 22 slides fake solo per il gusto di farlo. Che motivo ci sarebbe? E poi Donanimhaber è un sito serio e come abbiamo letto anche altri utenti importanti nei forum stranieri le danno come ufficiali (infatti si dice leaked nel senso che sono state scoperte prima del lancio).

Per quanto riguarda le prestazioni di BD, l'8150 prezzato a 245$ retail che prestazioni pensavamo che avesse? Mica in AMD fanno regali, è logico che andra circa come un 2600k costando un po' meno. Cmq sta per uscire il 2700k e in ogni caso stiamo confrontando un 95w con gpu con un 125w senza gpu. Quando il confronto sarà fatto con il 3820 130w 3.6 ghz/3.9 10mb L3, il suddetto probabilmente andrà di più, o forse basterà anche il 2700k 3.5/3.9.

In ogni caso saranno sicuramente ottimi processori economici con cui gli overclockers si divertiranno e anche ottimi per la maggior parte degli utenti.

tmx
27-09-2011, 22:27
a me anche non dispiacevano le slides :D alla fine anche così, visto l'oc e il prezzo, imo era da prendere :)

Anachronox
27-09-2011, 22:28
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959393&viewfull=1#post4959393


EDIT: fonte del video http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959408&viewfull=1#post4959408

nonostante la fonte secondo me conviene vedere il video

Boh, sarà inaffidabile e tutto quello che avete detto qui dentro, ma quel video sembra autentico. Per di più mostra un turbo veramente molto preciso.

cmq quelle slides secondo me sono vere, non è che ci si mette a realizzare 22 slides fake solo per il gusto di farlo. Che motivo ci sarebbe? E poi Donanimhaber è un sito serio e come abbiamo letto anche altri utenti importanti nei forum stranieri le danno come ufficiali (infatti si dice leaked nel senso che sono state scoperte prima del lancio).

Per quanto riguarda le prestazioni di BD, l'8150 prezzato a 245$ retail che prestazioni pensavamo che avesse? Mica in AMD fanno regali, è logico che andra circa come un 2600k costando un po' meno. Cmq sta per uscire il 2700k e in ogni caso stiamo confrontando un 95w con gpu con un 125w senza gpu. Quando il confronto sarà fatto con il 3820 130w 3.6 ghz/3.9 10mb L3, il suddetto probabilmente andrà di più, o forse basterà anche il 2700k 3.5/3.9.

In ogni caso saranno sicuramente ottimi processori economici con cui gli overclockers si divertiranno e anche ottimi per la maggior parte degli utenti.

a me anche non dispiacevano le slides e il prezzo :D alla fine anche così, visto l'oc e il prezzo, imo era da prendere :)

Io speravo non fossero vere quelle slide. Il confronto contro il 980x nei giochi, con tanto di 6870 (anziché 6950/6970/6970 in cross come negli altri test) per creare un ambiente gpu limited, proprio non mi va giù.

tmx
27-09-2011, 22:34
Boh, sarà inaffidabile e tutto quello che avete detto qui dentro, ma quel video sembra autentico. Per di più mostra un turbo veramente molto preciso.

se però i test sono fatti su un ES o su uno step superato? magari il turbo non è quello di produzione e venendo da OBR è sospetto

Anachronox
27-09-2011, 22:39
Lui dice di avere uno step B2 (quindi un modello quasi finale, quello che andrà in commercio dovrebbe essere il B2G).

Il turbo comunque sembra funzionare come previsto, indipendentemente dal fatto che si tratti di un ES o meno. Poi chiaramente aspetteremo i chip retail per confermare.

AceGranger
27-09-2011, 22:42
Ok. Ma poi come farebbero a dichiarare la freq della CPU? In base ai paralleli e meridiani? Certo e un ottima idea ma la vedo dura da attuare.

mmm non capisco il problema di dichiarare le frequenze; AMD dichiarerebbe le frequenze fisse; Intel non dichiara le frequenze della parte dinamica che fa sforare il TDP per il tempo limitato

tmx
27-09-2011, 22:43
Lui dice di avere uno step B2 (quindi un modello quasi finale, quello che andrà in commercio dovrebbe essere il B2G).

Il turbo comunque sembra funzionare come previsto, indipendentemente dal fatto che si tratti di un ES o meno. Poi chiaramente aspetteremo i chip retail per confermare.

non lo sapevo tnx :)

XatiX
27-09-2011, 22:57
Lui dice di avere uno step B2 (quindi un modello quasi finale, quello che andrà in commercio dovrebbe essere il B2G).

Il turbo comunque sembra funzionare come previsto, indipendentemente dal fatto che si tratti di un ES o meno. Poi chiaramente aspetteremo i chip retail per confermare.

In un angolo della mia mente ricordo che su XS si parlava di:
B2 - B2F -B2G

Laddove il B2 è quello che ha l'innominabile, il B2F è di luglio/agosto e il B2G sarà quello finale. Ricordo male?

Sevenday
27-09-2011, 23:20
Mah, non so quanto possa variare da B2 a B2G...
Cmq ho letto che il 2600 non è un femoneno in editor ed MT.
A me serve una base per questo utilizzo.

BD è più adatto?

Mparlav
27-09-2011, 23:24
In un angolo della mia mente ricordo che su XS si parlava di:
B2 - B2F -B2G

Laddove il B2 è quello che ha l'innominabile, il B2F è di luglio/agosto e il B2G sarà quello finale. Ricordo male?

L'hai letto a proposito di un nuovo bios della Biostar :)
http://www.biostar.cn/app/en-us/t-series/bios.php?S_ID=554

"B2G was confirmed by anandshimpi few weeks ago, it is newer than B2F which was spinned in July or August. Looks like newer cpuid would be added in later."

paolo.oliva2
27-09-2011, 23:49
abbiate pazienza ma davvero mi sfugge una cosa :)

l'ultimo set di slides AMD uscite su Donanimhaber (e ripreso poi da hwupgrade) è stato postato quasi subito da Dresdenboy sul suo blog (e il suo twitter) e definito materiale ufficiale; e dopo l'ha postato lui stesso anche sul forum di Semiaccurate.
(Su Xtremesystems invece credo l'abbia postato per primo liberato87 :) )

http://img99.imageshack.us/img99/815/dresdenboy24sett.jpg (http://imageshack.us/photo/my-images/99/dresdenboy24sett.jpg/)

quindi dresdenboy sembra sicuro del fatto suo, se no perchè indicarle come ufficiali?? lui non lavora mica per AMD??... :confused: :confused: :confused:

EDIT: mmm lavora per Wolkswagen/AUDI... forse deve essere considerato anche lui FUD come tutto quello che circola?

EDIT2:
fonti
-Slides su Donanimhaberr:
http://www.donanimhaber.com/islemci/haberleri/AMD-Bulldozer-hakkinda-her-sey-islemciler-teknik-ozellikler-test-sonuclari.htm
-Dresdenboy:
http://twitter.com/#!/Dresdenboy
http://citavia.blog.de/
-Dresdenboy su Semiaccurate:
http://semiaccurate.com/forums/showthread.php?t=5217&page=164
- Nel frattempo Liberato 87 su Xtremesystems:
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!/page125

Scusa non capisco bene...

Cioè... qui sembra effettivamente che si torna a parlare di 3 frequenze (JF a suo tempo):

1) la def.
2) la frequenza turbo sempre su tutti i core
3) la frequenza turbo su metà dei core di ogni die.

e torna quanto detto da JF, cioè tra frequenza def e quella turbo massima +1GHz con quella intermedia che sarebbe una via di mezzo.

2,5GHz def +600MHz sempre su tutti i core e +1GHz su metà dei core.

Ora... mi sorge un dubbio, visto che i proci desktop hanno solo 1 turbo che è di 600MHz...

Io avevo pensato che fosse quello con la metà dei core e che i 3,6GHz di un 8150p fosse la def compreso il primo turbo... :confused:

Ma i BD desktop sono di derivazione server e quindi se quelli server hanno 3 frequenze distinte, quelli desktop le devono avere per forza.

E visto che quelli server hanno il 1° turbo su tutti i core di +600MHz e sia l'8150p che l'8170p hanno il turbo di +600MHz, a questo punto quel turbo non è su 4 core bensì su 8 core. :confused:

Ma allora hanno segato il turbo di +1GHz rispetto alla frequenza def... oppure... un 8150p arriverebbe su metà core a 4,6GHz? Azzo, 4,9GHz per un 8170p.

E' impossibile starci dietro... chi si passa dall'ottimismo al pessimismo con troppa facilità. Aspetto altre info.

tmx
27-09-2011, 23:58
@paolo

non saprei risponderti :D l'unica cosa che mi chiedo è quale grado di affidabilità abbia Dresdenboy. A memoria ve l'ho sentito nominare spesso :D

paolo.oliva2
28-09-2011, 00:11
@paolo

non saprei risponderti :D l'unica cosa che mi chiedo è quale grado di affidabilità abbia Dresdenboy. A memoria ve l'ho sentito nominare spesso :D

A me sembra di ricordare che sia affidabile...
Comunque MOLTO tempo fa c'era chi aveva detto che i BD X16 avrebbero girato sopra i 3GHz e mi sembra che era la stessa persona che aveva riportato che un BD X8 alla frequenza def arrivava al 65% del TDP nominale. Me lo ricordo bene perché a quei tempi si discuteva se il Turbo entrava in funzione sempre o raramente.
Cioè... la storia del TDP effettivo molto inferiore rispetto al nominale ormai è più che certo... quel foglio sembra far combaciare le frequenze a quanto aveva detto la stessa persona circa il TDP... JF aveva detto di una frequenza def, del turbo su tutti i core che portava la frequenza massima sfruttando la differenza tra TDP nominale ed effettivo, combacia pure la storia di +1GHz su metà dei core, come sempre JF aveva detto... cioè, qui sembra una barzelletta... sembra quasi che AMD stia ridendo sotto i baffi e stia giocando 2 settimane prima del lancio a voler abbassare le aspettative di BD per poi fare il botto alla presentazione. L'unica cosa che stona è il vice-presidente che si è o è stato licenziato.
(vi garantisco che non assumo sostanze allucinogene :))
Praticamente ora come ora... che si fa? :sofico:

Cioè... a me sembra come se AMD abbia taciuto sulla frequenza del turbo massimo su metà core... e forse pippo pluto e paperino avrebbero fatto dei bench con magari degli 8130p portati alle frequenze teoriche degli 8150p?

Oppure non c'entra una mazza?

Però c'è una cosa che non mi quadra...

Scusa... se quelle slide fossero vere, ed AMD chiaramente dovrebbe/vorrebbe fare bella figura... non vi sembra una storia del menga prendere un 8150p per fare i confronti?
Cioè... AMD deve fare apparire BD e la sua architettura al meglio delle possibilità.
Quindi come minimo io monterei delle DDR3 1866 (e non certamente delle 1600 e delle 1333 come in un caso) ed inoltre userei un 8170p al posto di un 8150p.
Se proprio si mettesse in dubbio che AMD non usi un 8170p perché al lancio non sarebbe disponibile, posso capirlo, ma in fondo ci metterei una scritta cubitale ABBIAMO USATO L'8150p, QUINDI I RISULTATI NON SONO DA CONSIDERARSI MASSIMI. O quello che ha realizzato le slide di AMD era masochista... perché effettivamente gioire che un procio di 320mm2 raggiunga le performances di un procio di 170mm2 della concorrenza, non mi sembra cosa da essere felici.

tmx
28-09-2011, 00:22
@paolo
se dresdenboy fosse affidabile e le slide vere vorrebbe dire che AMD è allineata alla concorrenza, a un prezzo inferiore - qualche volta perde qualche volta guadagna.
anche se intel a quel livello c'era arrivata da un pò e adesso arriva IB, ci saranno a breve nuove incarnazioni di un'architettura AMD appena nata e che ha tutto da dire ancora :) poi imo... :fagiano: per quanto vale un mio parere :D

astroimager
28-09-2011, 00:26
Cioè, occhio e croce abbiamo inquadrato l'IPC di BD (per modo di dire, io ancora sull'MT non ci ho capito una mazza).

Non so che opinione ti sei fatto tu, ma a naso sembra più basso delle aspettative.

Però al momento non sappiamo neppure se lo step B2g abbia l'ULK o meno... e non sappiamo neppure se l'8170p che aumenta di 300MHz la freq def e quella turbo di un 8150 sarà ancora step B2g o CX, se con l'ULK o meno...

300 MHz non credo stravolga molto la situazione.
Sarà un altro ottimo processore a meno di $250, ma non il "mostro" che si paventava.

Se BD con la sua architettura, anche secondo i calcoli di Bjt2, potrebbe arrivare a 4,5GHz def, mi sembra chiaro che un BD a 3,6GHz def sarebbe un attimo sotto-tono e certamente non rispecchia appieno i limiti della potenzialità BD (ci sarebbe la stessa differenza tipo Thuban a def e Thuban occato come il mio in firma... cioè, non sarebbe mica una virgola). Non voglio essere né pessimista né ottimista, semplicemente aspetto per capire effettivamente cosa offre BD.

4.5 GHz già si comincerebbe a ragionare!... ma quando pensi di vederlo un BD da 4.5 GHz def, seriamente?

Poi magari non sarà così, però certamente credo non si possa dare un giudizio completo nel confronto tra un BD X8 ed un i980X, dove l'architettura BD è appena nata su un silicio che ha visto Llano solamente 4 mesi fa e tutti sappiamo che NON è a puntino e confrontarlo con un i980X su un silicio rodato da 2 anni e giunto all'ultimo sviluppo visto che vedrà il pensionamento a breve.

Il problema è che quando il silicio di BD sarà "a puntino" ci sarà ben altro che il 980X...

Io non capisco perché AMD debba vendere i proci a frequenze inferiori al limite, quando già AMD deve recuperare in potenza nei confronti di Intel :mad: .
Anche in passato, come cacchio ha fatto AMD a vendere un 1090T a 3,2GHz def (1,35V) e turbo 3,6GHz (1,475V) per 125W quando con 1,35V io arrivo a 3,7GHz su tutti i core e con 1,45V sto a 4,3GHz...
Poi ci credo che quando si sono visti test che davano 140W per un Thuban a 4GHz non ci credeva nessuno...
Chiaramente sarebbe sempre stato sotto ad Intel, però visto che i confronti li fanno a def, una certa importanza almeno di immagine l'avrebbe :)

Questo argomento porta proprio fuori strada.

Tu ne fai una questione unicamente di frequenza, e senz'altro ha un ruolo importante nell'incrementare la potenza di BD, ma il problema fondamentale è che l'architettura sembra macinare troppo poco rispetto a quanti ci si aspettava.

Sevenday
28-09-2011, 00:29
... perché effettivamente gioire che un procio di 320mm2 raggiunga le performances di un procio di 170mm2 della concorrenza, non mi sembra cosa da essere felici.

Non ti entra nel case? :cool:

Semmai ad ora uno è a 95w e l'altro a 125. Vero anche il diverso valore che Intel ed AMD danno al TDP; ma tant'è che a pari prestazioni BD dovrebbe "ciucciare" di più...

capitan_crasy
28-09-2011, 00:35
Mah, non so quanto possa variare da B2 a B2G...
Cmq ho letto che il 2600 non è un femoneno in editor ed MT.
A me serve una base per questo utilizzo.

BD è più adatto?

Ci sono quasi 4 mesi di posticipo e per un motivo che salterà fuori (almeno lo spero) quando ci saranno i documenti tecnici AMD su BD (per la serie "bjt2 prepara le tue doti tecniche":D )...

Sevenday
28-09-2011, 00:44
Ci sono quasi 4 mesi di posticipo e per un motivo che salterà fuori (almeno lo spero) quando ci saranno i documenti tecnici AMD su BD (per la serie "bjt2 prepara le tue doti tecniche":D )...

Giusto; ma mettiamo caso che B2 sia la CPU grezza e B2G la CPU stabile...non so quanto la differenza in termini di prestazioni sia.:rolleyes:

digieffe
28-09-2011, 01:08
Scusa non capisco bene...

Cioè... qui sembra effettivamente che si torna a parlare di 3 frequenze (JF a suo tempo):

1) la def.
2) la frequenza turbo sempre su tutti i core
3) la frequenza turbo su metà dei core di ogni die.

e torna quanto detto da JF, cioè tra frequenza def e quella turbo massima +1GHz con quella intermedia che sarebbe una via di mezzo.

2,5GHz def +600MHz sempre su tutti i core e +1GHz su metà dei core.

Ora... mi sorge un dubbio, visto che i proci desktop hanno solo 1 turbo che è di 600MHz...

Io avevo pensato che fosse quello con la metà dei core e che i 3,6GHz di un 8150p fosse la def compreso il primo turbo... :confused:

Ma i BD desktop sono di derivazione server e quindi se quelli server hanno 3 frequenze distinte, quelli desktop le devono avere per forza.

E visto che quelli server hanno il 1° turbo su tutti i core di +600MHz e sia l'8150p che l'8170p hanno il turbo di +600MHz, a questo punto quel turbo non è su 4 core bensì su 8 core. :confused:

Ma allora hanno segato il turbo di +1GHz rispetto alla frequenza def... oppure... un 8150p arriverebbe su metà core a 4,6GHz? Azzo, 4,9GHz per un 8170p.

E' impossibile starci dietro... chi si passa dall'ottimismo al pessimismo con troppa facilità. Aspetto altre info.

dal video dell'innominabile e anche da altre fonti oramai si nota bene che le frquenze dell'8150 sono 3.6 def, 3.9tAll, 4.2TMax...

poi sempre dallo stesso video notavo che con 1 o 2 thread va spesso se non sempre a Tmax (4.2); con 4 thread non ci va mai o al più un paio di volte e resta a TAll (3.9); con 8 thead invece si posiziona su def (3.6) e poi va diverse volte a TAll anche con 1 o 3 core;


quindi:
1 o 2 thread ok;
4 thread non raggiunge mai o quasi TMax: colpa dello scheduler di windows che sposta i thread a vanvera da un core ad un altro, c'è un quinto thread che impedisce?
8 thread ok ma si vede diverse volte che anche un numero di core dispari NON appartenenti allo stesso modulo vanno in TAll


cosa ne pensate?



EDIT: anche con 1 o 2 thread il turbo entra sul singolo core di un modulo...

tmx
28-09-2011, 01:15
appena postata su xtremesystems:
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959563&viewfull=1#post4959563

http://tof.canardpc.com/view/6b58b028-7876-45ce-bd99-a766dec1b7c3.jpg

edit:
la fonte è qui:
http://www.cpu-world.com/news_2011/2011092701_New_AMD_Opteron_6200_models_sighted.html

paolo.oliva2
28-09-2011, 01:31
Non so che opinione ti sei fatto tu, ma a naso sembra più basso delle aspettative.

300 MHz non credo stravolga molto la situazione.
Sarà un altro ottimo processore a meno di $250, ma non il "mostro" che si paventava.

4.5 GHz già si comincerebbe a ragionare!... ma quando pensi di vederlo un BD da 4.5 GHz def, seriamente?

Il problema è che quando il silicio di BD sarà "a puntino" ci sarà ben altro che il 980X...

Questo argomento porta proprio fuori strada.

Tu ne fai una questione unicamente di frequenza, e senz'altro ha un ruolo importante nell'incrementare la potenza di BD, ma il problema fondamentale è che l'architettura sembra macinare troppo poco rispetto a quanti ci si aspettava.

A me sinceramente quello che fa più paura di tutto sono le dimensioni del die.
AMD può realizzare un procio meno potente, ma comunque tenersi la carta del prezzo/prestazioni.
Per un ragionamento assurdo, BD potrebbe andare anche il 20% in meno di un SB-e X6, ma AMD dovrebbe avere un margine SICURO che possa chiedere almeno il 50% in meno di Intel.
Se BD fosse 150mm2 e SB-e X6 fosse 300mm2 (teorizzando costi uguali a wafer) AMD camperebbe ugualmente e nessuno certo si ammazzerebbe per un 20% in meno rispetto al procio di punta Intel se il procio costasse la metà (ho messo dei prezzi proporzionati alle dimensioni del die).

Il problema è che questo non è attualizzabile se AMD parte con un die di dimensioni doppie rispetto alla concorrenza con la stessa potenza, quindi AMD non potrebbe ricorrere nemmeno alla carta prezzo/prestazioni migliore.

Il discorso potenza per me è diverso, perché se confronti un BD 8150p con un i980X (se dico baggianate correggimi) la cosa potrebbe essere diversa.
Innanzitutto un 2600K non ha nulla da invidiare all'i980X nei giochi e applicazioni tipiche almeno fino a 8TH, quindi se un BD X8 si posiziona vicino ad un 2600K, non credo che verso un i980X ci sia più differenza, ce ne sarà meno.
Quello che non riesco a capire, invece, è come faccia a perdere BD con un 2600K in MT, quando dovrebbe essere tutto il contrario.
Non trovo alcuna spiegazione logica, perché io ho sempre supposto che la differenza tra un BD X4 ed un SB-e X4 era più favorevole ad Intel mentre tra un BD X8 ed un SB X6 doveva essere più favorevole ad AMD.
Siccome non riesco a comprenderlo, voglio aspettare per capirci meglio.

Il discorso architettura, a parte le dimensioni e valutando solamente la potenza, è diverso.
Il PIV aveva una architettura concepita per rendere bene se fatta funzionare sui 10GHz. Intel arrivò sui 4GHz o poco più, quindi il 60% in meno e le potenze furono del 60% in meno rispetto alle previsioni.

BD non credo che possa essere stato concepito per frequenze sui 10GHz, perché se a 3,6GHz è vicino ad un 2600K, con una frequenza 3 volte maggiore andrebbe più del doppio.
Diciamo già che se andasse a 5GHz andrebbe il 50% in più di un 2600k, il che sarebbe più che ottimo.

Se quel foglio riferito ad un BD X16 fosse vero, cioè che dentro i 105W ACP o 140W TDP ci starebbero 2 proci X8 con una frequenza def di 2,5GHz, una turbo su tutti e 16 i core di 3,1GHz e una per 8 core di 3,5GHz cioè + 1GHz superiore alla def, io non vedo certamente un 8150p a 3,6GHz def e 4,2GHz in turbo.

Cioè... X16 2,5GHz, 8150p X8 3,6GHz = +1,1GHz.
Turbo su tutti i core, X16 3,1GHz, 8150p X8 4,2GHz, = +1,1GHz.
Turbo su metà dei core, quindi X16 con 8 core spenti quindi un X8 3,5GHz, 8150p non esiste :confused:

Non ti suona strano?

Cioè, +1,1GHz di guadagno sia sulla frequenza def che sulla frequenza turbo di un 8150p su un BD X16 e poi scompare del tutto il turbo massimo.

Ora... secondo me, sempre se il foglio è reale, i casi sono 2:
1) il silicio non è in grado di arrivare alle frequenze massime previste e per questo è stato disabilitato nel desktop lasciando spazio all'OC soggettivo.
2) ancora l'NDA lo sta tenendo nascosto.

In tutti i casi, almeno come logica, un 8150p dovrebbe essere 3,6-4,2 e 4,6GHz ed un 8170p 3,9-4,5 e 4,9GHz.

In questo caso un BD X8 sarebbe tutt'altro sotto le aspettative, no? Perché se a 3,6-4,2GHz l'8150p si avvicina al 2600K, di certo con quei 400MHz in più parliamo di 10% in più che diventerebbero più del 20% con un 8170p.

Siccome non c'è nulla di confermato e ufficiale, e probabilmente non escludo che le mie possono essere fantasie, io semplicemente dico di aspettare il lancio il 12 ottobre per saperne di più... tutto qua.

Finché non abbiamo la certezza di quali possono essere le frequenze operative massime, l'occabilità, i limiti ad aria, acqua & C e capire dove possa essere il wall dell'architettura, dire che l'architettura sia sotto le aspettative per me è prematuro. Che il procio salga bene, diciamo che il WR dei 8,437GHz se non altro sarebbe di ottimo auspicio.

Per me ti posso dire che con 320mm2 di die, mi aspetterei almeno una potenza MT simile ad un SB-e X6. Per quanto riguarda l'ST o fino a 4 core, tutto sommato non è che BD faccia proprio schifo, perché comunque un Phenom II X4 è distante parecchio dal 2600K e BD non lo supera ma ci è vicino (sempre che non scappino fuori 400MHz in più di turbo)

astroimager
28-09-2011, 01:43
...
Scusa... se quelle slide fossero vere, ed AMD chiaramente dovrebbe/vorrebbe fare bella figura... non vi sembra una storia del menga prendere un 8150p per fare i confronti?
...


E' la cosa più sensata di quelle slide, dato che l'8150 sarà il processore di punta fino a Q1 2012.

A far pensare che siano vere, ossia elaborate dal reparto marketing, c'è quel confronto furbamente invertito fra 980X e 2600K, l'uso di un sistema GPU limited, ed altre amenità.

A far pensare che siano fake (potrebbero esserlo anche solo in parte), il fatto che in due casi la distanza prestazionale fra 2600K e 2500K è maggiore di quanto dovrebbe essere (BD risulta penalizzato) e in altri due è minore (quindi gioca a suo favore). Anche il risultato di x264 ha fatto storcere il naso...

Poi quel Cinebench... boh... come si fa ad andarne fieri... :stordita:

paolo.oliva2
28-09-2011, 01:53
appena postata su xtremesystems:
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4959563&viewfull=1#post4959563

http://tof.canardpc.com/view/6b58b028-7876-45ce-bd99-a766dec1b7c3.jpg

edit:
la fonte è qui:
http://www.cpu-world.com/news_2011/2011092701_New_AMD_Opteron_6200_models_sighted.html

Un 16 core a 3,1GHz di frequenza massima su tutti i core e 3,5GHz di frequenza di picco.

Un X8 server con una frequenza di 3,7GHz su tutti i core ma senza frequenza massima su metà core.

Questo escluderebbe (forse) che se BD non esprimesse potenze massime possa essere dovuto a frequenze inferiori al previsto.

A questo punto il turbo nei proci desktop non è su 4 core come ipotizzavo bensì su tutti i core. Quello che mancherebbe sarebbe il plus di frequenza su 4 core.

Infatti l'X8 Opteron 6212 a 2,8GHz def vedrebbe il turbo su tutti i core e turbo su 4 core sempre a max 3,7GHz.

Quando invece le frequenze massime non superano i 3,5GHz, non ha importanza se i core sono 12 o 16, quindi mi sembra non sia un problema di TDP quanto invece un problema di frequenza.

Tra l'altro... un MC X12 era 2,5GHz ed un Thuban X6 3,3GHz, quindi +800MHz di vantaggio per il desktop.
Un 6282 SE X16 avrebbe solamente 500MHz in meno su tutti i core rispetto ad un 8150p X8 desktop.

Questo rafforza il fatto che non sia un problema di TDP quanto un problema di frequenza. Ma perché? Se hanno detto ad aria 5GHz+.... dove cacchio sarebbe il problema? :confused:

astroimager
28-09-2011, 01:56
Occhio che stai facendo confusione...

Fatti una tabellina e leggi il post di digieffe... ;)

paolo.oliva2
28-09-2011, 01:59
E' la cosa più sensata di quelle slide, dato che l'8150 sarà il processore di punta fino a Q1 2012.

A far pensare che siano vere, ossia elaborate dal reparto marketing, c'è quel confronto furbamente invertito fra 980X e 2600K, l'uso di un sistema GPU limited, ed altre amenità.

A far pensare che siano fake (potrebbero esserlo anche solo in parte), il fatto che in due casi la distanza prestazionale fra 2600K e 2500K è maggiore di quanto dovrebbe essere (BD risulta penalizzato) e in altri due è minore (quindi gioca a suo favore). Anche il risultato di x264 ha fatto storcere il naso...

Poi quel Cinebench... boh... come si fa ad andarne fieri... :stordita:

Beh, infatti è proprio sul risultato di Cinebench che i forum di mezzo mondo hanno subito ipotizzato fake.

Guarda... ti dico questo. BD perderebbe addirittura contro un Thuban.
A questo punto come farebbe AMD a dire che un BD X16 sarebbe del 50% superiore ad un MC X12? Come farebbe a dire che BD a parità di core offrirebbe il 35% in più di potenza di un MC?
Un BD X16 a 3,1GHz starebbe sotto di un 10% ad un MC X12 a 2,5GHz... e si sarebbero accorti di questo a fine agosto... Cioè... che li produci a fare? Chi upgraderebbe da un MC ad un BD?
Cioè... è più assurdo pensare che siano fake o dare gratuitamente del bugiardo all'intera AMD a partire da JF fino ad arrivare a chiunque e decretare fallimentare l'architettura BD?

Dai... aspettiamo sti 14 giorni che poi con dati precisi possiamo trarre tutte le conclusioni.

paolo.oliva2
28-09-2011, 02:05
Occhio che stai facendo confusione...

Fatti una tabellina e leggi il post di digieffe... ;)

Guarda che lui parla del video di OBR, io parlo dei 2 documenti di frequenze operative dei BD Opteron, sono 2 cose differenti.
Forse ti sei perso i gif del Capitano su OBR.... :)

digieffe
28-09-2011, 02:45
Guarda che lui parla del video di OBR, io parlo dei 2 documenti di frequenze operative dei BD Opteron, sono 2 cose differenti.
Forse ti sei perso i gif del Capitano su OBR.... :)

non è solo il video di obr... ho letto da più parti che le frequenze del FX8150 sono 3.6 def, 3.9 TurboAll, 4.2 TurboMax

non è questa l'ora alla quale posso rintracciare le fonti, comunque dato che i forum che leggo sono di solito XS e overclocker.? sarà li...

e comunque anche se il video è di obr, un soggetto di accertata inaffidabilità, ti/vi invito a guardare con attenzione il video.
A parte il processore che potrebbe non essere uno degli ultimi NON ci dovrebbe essere nulla da poter falsificare

se vuoi vediti anche le riflessioni che ho fatto sul video...

astroimager
28-09-2011, 02:59
A questo punto come farebbe AMD a dire che un BD X16 sarebbe del 50% superiore ad un MC X12? Come farebbe a dire che BD a parità di core offrirebbe il 35% in più di potenza di un MC?

Attento a non mischiare le carte con il mondo server!

Cioè... è più assurdo pensare che siano fake o dare gratuitamente del bugiardo all'intera AMD a partire da JF fino ad arrivare a chiunque e decretare fallimentare l'architettura BD?

Fallimentare no, ma messa così non fa certo la bella figura che molti si aspettavano...

L'unica, ma veramente l'unica spiegazione ancora sensata e possibile che mi viene in mente è che quelle siano slide pasticciate alla meglio per una presentazione ai partner o per un lancio che non è mai avvenuto, e magari sono riferite a test "vecchiotti" su un ES B2, che forse si portava dietro qualche bug serio sulla cache, sul BP o sul Turbo.

Certo mi piacerebbe tanto sapere i motivi reali del ritardo, e se la realizzazione di questa CPU, al di là dei bug, rispecchia le aspettative di chi l'ha disegnata e studiata al simulatore.

digieffe
28-09-2011, 03:01
@Paolo


per quanto riguarda le performance di BD io mi sono fatto queste idee:

- non hanno raggiunto le frequenze previste (def da circa 4,2 a circa 4,5 + i 2 turbo)
questo può essere sia per il silicio sia per qualche blocco funzionale che "non tiene bene"

- sono stati penalizzati da qualcosa di inaspettato... latenze, cache L1,...

in conclusione mi sono fatto l'idea che l'alta instabilita silicio, ecc + tolleranze necessarie in questo momento impediscono di garantire processori DESKTOP con clock più alto...
dai rumors si può dedurrre che potrebbero già produrre gli 8170... cosa accadrebbe poi quando parte degli esemplari non rispetterà il tdp?
o avranno altri potenziali problemi?
che figura farebbe AMD?

Ps: non puoi fare il confronto tra un processore server ed uno desktop...
1- Quello server è sempre più selezionato quindi dovrebbe garantire migliori performance
2- Il TDP, tensione, ecc, ecc non salgono mai linearmente, quindi non puoi dire che prima partendo da una frequenza bassa (x) avevi +1ghz ed ora parti da una più alta e pretendi di aggungerci ancora 1ghz... se parti da una più alta probabilmente potrai aggiungere solo 6-700mhz... (i numeri sono puramente indicativi)



EDiT:
Attento a non mischiare le carte con il mondo server!



Fallimentare no, ma messa così non fa certo la bella figura che molti si aspettavano...

L'unica, ma veramente l'unica spiegazione ancora sensata e possibile che mi viene in mente è che quelle siano slide pasticciate alla meglio per una presentazione ai partner o per un lancio che non è mai avvenuto, e magari sono riferite a test "vecchiotti" su un ES B2, che forse si portava dietro qualche bug serio sulla cache, sul BP o sul Turbo.

Certo mi piacerebbe tanto sapere i motivi reali del ritardo, e se la realizzazione di questa CPU, al di là dei bug, rispecchia le aspettative di chi l'ha disegnata e studiata al simulatore.

mi hai anticipato di un soffio....

per il resto quoto tutto

tmx
28-09-2011, 03:05
a me le slide non sembrano più dei fake - forse qualcuna, come dite - però non vedo secche smentite come al solito, e mancano 2 settimane :coffee:

bjt2
28-09-2011, 07:31
Scusa non capisco bene...

Cioè... qui sembra effettivamente che si torna a parlare di 3 frequenze (JF a suo tempo):

1) la def.
2) la frequenza turbo sempre su tutti i core
3) la frequenza turbo su metà dei core di ogni die.

e torna quanto detto da JF, cioè tra frequenza def e quella turbo massima +1GHz con quella intermedia che sarebbe una via di mezzo.

2,5GHz def +600MHz sempre su tutti i core e +1GHz su metà dei core.

Ora... mi sorge un dubbio, visto che i proci desktop hanno solo 1 turbo che è di 600MHz...

Io avevo pensato che fosse quello con la metà dei core e che i 3,6GHz di un 8150p fosse la def compreso il primo turbo... :confused:

Ma i BD desktop sono di derivazione server e quindi se quelli server hanno 3 frequenze distinte, quelli desktop le devono avere per forza.

E visto che quelli server hanno il 1° turbo su tutti i core di +600MHz e sia l'8150p che l'8170p hanno il turbo di +600MHz, a questo punto quel turbo non è su 4 core bensì su 8 core. :confused:

Ma allora hanno segato il turbo di +1GHz rispetto alla frequenza def... oppure... un 8150p arriverebbe su metà core a 4,6GHz? Azzo, 4,9GHz per un 8170p.

E' impossibile starci dietro... chi si passa dall'ottimismo al pessimismo con troppa facilità. Aspetto altre info.

JF-AMD ha detto che sarebbe stata pubblicizzata la frequenza turbo max... Se guardi quelle slide leaked vedi che l'8150, ad esempio, è dato per 3.6/3.9/4.2, ossia +300 e +600. Essendo la frequenza di partenza più alta ci si poteva aspettare un turbo meno pronunciato, vista la non linearità del TDP, ma probabilmente questi bassi valori sono dovuti alla gioventù del processo: vedi Llano, per cui addirittura alcuni modelli non ce l'hanno... Questo è confortato dal fatto che l'FX 4xxx 125W (che mesi fa non era neanche previsto) ha solo 100MHz di turbo... Probabilmente, come ho accennato qualche pagina fa, più si sale di frequenza, tensione e temperatura, più è alta la variabilità del TDP...

bjt2
28-09-2011, 07:36
dal video dell'innominabile e anche da altre fonti oramai si nota bene che le frquenze dell'8150 sono 3.6 def, 3.9tAll, 4.2TMax...

poi sempre dallo stesso video notavo che con 1 o 2 thread va spesso se non sempre a Tmax (4.2); con 4 thread non ci va mai o al più un paio di volte e resta a TAll (3.9); con 8 thead invece si posiziona su def (3.6) e poi va diverse volte a TAll anche con 1 o 3 core;


quindi:
1 o 2 thread ok;
4 thread non raggiunge mai o quasi TMax: colpa dello scheduler di windows che sposta i thread a vanvera da un core ad un altro, c'è un quinto thread che impedisce?
8 thread ok ma si vede diverse volte che anche un numero di core dispari NON appartenenti allo stesso modulo vanno in TAll


cosa ne pensate?



EDIT: anche con 1 o 2 thread il turbo entra sul singolo core di un modulo...

Io penso che il turbo entri in funzione allo stesso momento su tutti i core, perchè sarebbe un casino avere core a frequenze diverse (anche se è possibile, ma non nello stesso modulo). Il motivo per cui i core non hanno la frequenza uguale è probabilmente che la misura su ogni core è fatta in momenti diversi, ossia prima si misura un core, poi un altro ecc...

BodyKnight
28-09-2011, 07:43
@paolo
se dresdenboy fosse affidabile e le slide vere vorrebbe dire che AMD è allineata alla concorrenza, a un prezzo inferiore - qualche volta perde qualche volta guadagna.
anche se intel a quel livello c'era arrivata da un pò e adesso arriva IB, ci saranno a breve nuove incarnazioni di un'architettura AMD appena nata e che ha tutto da dire ancora :) poi imo... :fagiano: per quanto vale un mio parere :D


In multithread.

bjt2
28-09-2011, 07:47
Attento a non mischiare le carte con il mondo server!



Fallimentare no, ma messa così non fa certo la bella figura che molti si aspettavano...

L'unica, ma veramente l'unica spiegazione ancora sensata e possibile che mi viene in mente è che quelle siano slide pasticciate alla meglio per una presentazione ai partner o per un lancio che non è mai avvenuto, e magari sono riferite a test "vecchiotti" su un ES B2, che forse si portava dietro qualche bug serio sulla cache, sul BP o sul Turbo.

Certo mi piacerebbe tanto sapere i motivi reali del ritardo, e se la realizzazione di questa CPU, al di là dei bug, rispecchia le aspettative di chi l'ha disegnata e studiata al simulatore.

Ci sono dei test on-line di BD server 16C vs MC 12C... La potenza in floating point AUMENTA. Sempre. E anche quella multimediale. Ora Cinebench ha un IPC di 0.65, di cui 0.55 istruzioni floating point. Possiamo quindi affermare che è un carico FORTEMENTE floating point. Se la potenza floating point da 12 core K10 a 16 core BD aumenta FORTEMENTE (a parità di frequenza, anche se sui BD c'è il turbo, ma supponiamo che con carichi fortemente FP non entri in funzione), non mi spiego come mai questo misero aumento di potenza in cinebench da un Thuban (quindi X6) a 3.3 a un BD (quindi X8) ad ALMENO 3.6GHz (se non entra in funzione almeno parzialmente il turbo a 3.9GHz, visto lo scarso IPC del Cinebench)...

tmx
28-09-2011, 08:34
In multithread.

ok amd ha un pò deluso la fascia enthusiast.
ma quanto fa sul totale? quanto incidono in percentuale gli X8 sulla lineup completa?
anche senza il processore consumer più veloce del mondo amd deve aggredire le fasce dove si fanno volumi se vuole sperare di guadagnare quote di mercato.

i prezzi e le slide anche indicherebbero questa strategia.

per gli enthusiat c'è lo sblocco totale della piattaforma e un buon OC. non è male :)

Athlon 64 3000+
28-09-2011, 08:47
JF-AMD ha detto che sarebbe stata pubblicizzata la frequenza turbo max... Se guardi quelle slide leaked vedi che l'8150, ad esempio, è dato per 3.6/3.9/4.2, ossia +300 e +600. Essendo la frequenza di partenza più alta ci si poteva aspettare un turbo meno pronunciato, vista la non linearità del TDP, ma probabilmente questi bassi valori sono dovuti alla gioventù del processo: vedi Llano, per cui addirittura alcuni modelli non ce l'hanno... Questo è confortato dal fatto che l'FX 4xxx 125W (che mesi fa non era neanche previsto) ha solo 100MHz di turbo... Probabilmente, come ho accennato qualche pagina fa, più si sale di frequenza, tensione e temperatura, più è alta la variabilità del TDP...

Dalle voci di corridoio si dice che il 12 di ottobre verranno lanciati 2 modelli e che saranno l'FX-8150,8120 e 6100 con costi bassi.
L'8120 dovrebbe costare max sui 200 euro e per vari motivi prenderei codesto modello.
Il mio 955 insieme alla MSI 870A-G54 con i 4 gb DDR3-1333 li ho gia praticamente venduti e ho gia preso l'MSI 990FXA-GD65 e 8 GB DDR3-1600 CL9 Corsair Vengeance LP e mi sono fatto prestare un 1090T in attesa di Zambezi per non rimanere a piedi con il PC.
Io ho sempre detto che avrei voluto prendere l'FX-4100,ma se lo dovessero lanciare dopo gli altri 3 modelli non mi conviene aspettare e quindi dovrei agire di conseguenza.

Rejde
28-09-2011, 09:42
Ciao a tutti.
Purtroppo non ho tempo di seguire l'evolversi di questo thread, è da un pò di tempo che sto temporeggiando per aggiornare il mio PC che utilizzo per analisi agli elementi finiti.
Ormai pare manchi poco all'uscita di questi nuovi processori AMD ma vorrei chiedervi se c'è l'impressione che per l'impiego che ne dovrei fare ci sarà un bel salto in avanti rispetto alla mia attuale CPU, cioè X6 1090T o tanto vale buttarsi già sull'altra sponda (Intel). Premetto, per farvi capire, che le applicazioni che utilizzo sono fortemente multithread, i 6 core dell'X6 vengono utilizzati tutti al 100%.
Dimenticavo, nel caso di utilizzo di tutti i core la modalità turbo che dovrebbe caratterizzare le nuove CPU non verrebbe utilizzata, giusto?

nardustyle
28-09-2011, 09:47
io sono ottimista sulle prestazioni anche per il comportamento di intel, ha annunciato un 2700k e anticipato al 14novembre il nuovo socket... probabilmente farà anche un bel taglio di prezzo, questo per me dimostra che nonostante tutto sarà competitivo...

Heimdallr
28-09-2011, 09:56
io sono ottimista sulle prestazioni anche per il comportamento di intel, ha annunciato un 2700k e anticipato al 14novembre il nuovo socket... probabilmente farà anche un bel taglio di prezzo, questo per me dimostra che nonostante tutto sarà competitivo...

il 2700k era previsto da un bel po', basta vedersi le roadmap Intel che mostravano nella seconda metà dell'anno un >2600K come processore di riferimento nella fascia performance, il nuovo socket è sempre stato previsto per quel periodo che io sappia, di sicuro non lo hanno anticipato.
Per i tagli di prezzo: speriamo.

gianni1879
28-09-2011, 10:32
Ciao a tutti.
Purtroppo non ho tempo di seguire l'evolversi di questo thread, è da un pò di tempo che sto temporeggiando per aggiornare il mio PC che utilizzo per analisi agli elementi finiti.
Ormai pare manchi poco all'uscita di questi nuovi processori AMD ma vorrei chiedervi se c'è l'impressione che per l'impiego che ne dovrei fare ci sarà un bel salto in avanti rispetto alla mia attuale CPU, cioè X6 1090T o tanto vale buttarsi già sull'altra sponda (Intel). Premetto, per farvi capire, che le applicazioni che utilizzo sono fortemente multithread, i 6 core dell'X6 vengono utilizzati tutti al 100%.
Dimenticavo, nel caso di utilizzo di tutti i core la modalità turbo che dovrebbe caratterizzare le nuove CPU non verrebbe utilizzata, giusto?
non è il thread per i consigli acquisti, è scritto bene in prima pagina. Usa l'altro thread apposito.

Grazie

paolo.oliva2
28-09-2011, 10:40
JF-AMD ha detto che sarebbe stata pubblicizzata la frequenza turbo max... Se guardi quelle slide leaked vedi che l'8150, ad esempio, è dato per 3.6/3.9/4.2, ossia +300 e +600. Essendo la frequenza di partenza più alta ci si poteva aspettare un turbo meno pronunciato, vista la non linearità del TDP, ma probabilmente questi bassi valori sono dovuti alla gioventù del processo: vedi Llano, per cui addirittura alcuni modelli non ce l'hanno... Questo è confortato dal fatto che l'FX 4xxx 125W (che mesi fa non era neanche previsto) ha solo 100MHz di turbo... Probabilmente, come ho accennato qualche pagina fa, più si sale di frequenza, tensione e temperatura, più è alta la variabilità del TDP...

Allora potrebbe essere anche per questo che GF ha rimescolato le carte di tutto lo sviluppo sul silicio. Dal 32nm per passare al 22nm nel 2013, ora si parla del 28mm nel 2012.

Se vogliamo, in questa ottica si potrebbe anche interpretare il perché dell'accordo GF/AMD sul prezzo basso che a suo tempo si era pensato per un prezzo variabile in base ai die fallati in alcune parti, potrebbe anche essere il perché GF aveva promesso dei proci a 4,5GHz def ed invece non ci sono.
Questo poi combacia con le 1000 voci che lo step B2 aveva problemi a salire in frequenza (vedi pure Llano) e che un BD X4 arriva alle stesse frequenze (almeno def) a quelle di un X8.

Ma in questo caso, parlando di potenze di BD sotto le aspettative, non si può giudicare l'architettura come unico problema, perché qualsiasi architettura è concepita per lavorare ad una precisa frequenza. Se la frequenza è inferiore, l'architettura produrrà una potenza inferiore anche senza avere nessuna colpa.

C'è analogia con Llano... anche se sono architetture differenti.
Llano 65W ha consumi molto bassi e ottimi. Llano 100W non sale di frequenza in proporzione al margine di TDP.
Un BD X16 che viaggia a 3,1GHz su tutti i core per 140W concede solo 500MHz in più per un BD X8 125W?
Sembrerebbe che il silicio abbia un picco di TDP all'aumentare della frequenza... ma questo scarterebbe a priori che lo stesso X8 possa lavorare a 4,2GHz come X4.

Secondo me non è il TDP il problema, purtroppo... perché altrimenti basterebbe raffreddare il procio più che bene e vai.
Il problema secondo me è che c'è qualche cosa che pregiudica l'RS e di qui l'impossibilità di certificare frequenze maggiori.
E poi come farebbero a dire che BD può arrivare a 5GHz+ ad aria?

Quindi la soluzione in un certo senso sarebbe quella di vendere il procio a frequenze più basse e riportarlo come overcloccabile e come tale l'overclock non è garantito né come quantità e tantomeno come RS.

xk180j
28-09-2011, 10:49
Allora potrebbe essere anche per questo che GF ha rimescolato le carte di tutto lo sviluppo sul silicio. Dal 32nm per passare al 22nm nel 2013, ora si parla del 28mm nel 2012.

Se vogliamo, in questa ottica si potrebbe anche interpretare il perché dell'accordo GF/AMD sul prezzo basso che a suo tempo si era pensato per un prezzo variabile in base ai die fallati in alcune parti, potrebbe anche essere il perché GF aveva promesso dei proci a 4,5GHz def ed invece non ci sono.
Questo poi combacia con le 1000 voci che lo step B2 aveva problemi a salire in frequenza (vedi pure Llano) e che un BD X4 arriva alle stesse frequenze (almeno def) a quelle di un X8.

Ma in questo caso, parlando di potenze di BD sotto le aspettative, non si può giudicare l'architettura come unico problema, perché qualsiasi architettura è concepita per lavorare ad una precisa frequenza. Se la frequenza è inferiore, l'architettura produrrà una potenza inferiore anche senza avere nessuna colpa.

C'è analogia con Llano... anche se sono architetture differenti.
Llano 65W ha consumi molto bassi e ottimi. Llano 100W non sale di frequenza in proporzione al margine di TDP.
Un BD X16 che viaggia a 3,1GHz su tutti i core per 140W concede solo 500MHz in più per un BD X8 125W?
Sembrerebbe che il silicio abbia un picco di TDP all'aumentare della frequenza... ma questo scarterebbe a priori che lo stesso X8 possa lavorare a 4,2GHz come X4.

Secondo me non è il TDP il problema, purtroppo... perché altrimenti basterebbe raffreddare il procio più che bene e vai.
Il problema secondo me è che c'è qualche cosa che pregiudica l'RS e di qui l'impossibilità di certificare frequenze maggiori.
E poi come farebbero a dire che BD può arrivare a 5GHz+ ad aria?

Quindi la soluzione in un certo senso sarebbe quella di vendere il procio a frequenze più basse e riportarlo come overcloccabile e come tale l'overclock non è garantito né come quantità e tantomeno come RS.

ma abbassare la frequenza implica una riduzione delle prestazioni e conseguentemente del prezzo,l'oc è un'eventualità e in ogni caso anche chi lo pratica in linea di massima cerca maggior potenza rs non uno screen per fare test

digieffe
28-09-2011, 10:51
Allora potrebbe essere anche per questo che GF ha rimescolato le carte di tutto lo sviluppo sul silicio. Dal 32nm per passare al 22nm nel 2013, ora si parla del 28mm nel 2012.

Se vogliamo, in questa ottica si potrebbe anche interpretare il perché dell'accordo GF/AMD sul prezzo basso che a suo tempo si era pensato per un prezzo variabile in base ai die fallati in alcune parti, potrebbe anche essere il perché GF aveva promesso dei proci a 4,5GHz def ed invece non ci sono.
Questo poi combacia con le 1000 voci che lo step B2 aveva problemi a salire in frequenza (vedi pure Llano) e che un BD X4 arriva alle stesse frequenze (almeno def) a quelle di un X8.

Ma in questo caso, parlando di potenze di BD sotto le aspettative, non si può giudicare l'architettura come unico problema, perché qualsiasi architettura è concepita per lavorare ad una precisa frequenza. Se la frequenza è inferiore, l'architettura produrrà una potenza inferiore anche senza avere nessuna colpa.

C'è analogia con Llano... anche se sono architetture differenti.
Llano 65W ha consumi molto bassi e ottimi. Llano 100W non sale di frequenza in proporzione al margine di TDP.
Un BD X16 che viaggia a 3,1GHz su tutti i core per 140W concede solo 500MHz in più per un BD X8 125W?
Sembrerebbe che il silicio abbia un picco di TDP all'aumentare della frequenza... ma questo scarterebbe a priori che lo stesso X8 possa lavorare a 4,2GHz come X4.

Secondo me non è il TDP il problema, purtroppo... perché altrimenti basterebbe raffreddare il procio più che bene e vai.
Il problema secondo me è che c'è qualche cosa che pregiudica l'RS e di qui l'impossibilità di certificare frequenze maggiori.
E poi come farebbero a dire che BD può arrivare a 5GHz+ ad aria?

Quindi la soluzione in un certo senso sarebbe quella di vendere il procio a frequenze più basse e riportarlo come overcloccabile e come tale l'overclock non è garantito né come quantità e tantomeno come RS.

http://www.hwupgrade.it/forum/showpost.php?p=36022598&postcount=24538

http://www.hwupgrade.it/forum/showpost.php?p=36022606&postcount=24540

quando le cose le scrivo io in modo semplice (ed anche un pò confuso) non ci fai caso, poi te le scrive bjt2 (che è sicuramente un esperto) in modo formale e concordi :Prrr:


battute a parte, vedo che non in pochi concorvergiamo su questa possibilità... :stordita:

papafoxtrot
28-09-2011, 12:00
Io penso che il turbo entri in funzione allo stesso momento su tutti i core, perchè sarebbe un casino avere core a frequenze diverse (anche se è possibile, ma non nello stesso modulo). Il motivo per cui i core non hanno la frequenza uguale è probabilmente che la misura su ogni core è fatta in momenti diversi, ossia prima si misura un core, poi un altro ecc...

Scusa, ma il turbo dovrebbe assegnare frequenze diverse per moduli diversi, no? Voglio dire, la granularità di BD non era tale da consentire ad ogni modulo di avere diverse frequenze e diverse tensioni?
D'altro canto anche thuban può avere frequenze diverse su ogni core, ma se non vado errando non può dare vcore indipendenti... E di li il problema di limitare i consumi in turbo core... quando tutti i core rimangono alla tensione di normale funzionamento...
Sbaglio?
Poi che a due a due i core abbiano stesse frequenze e tensioni ci sta...

Comunque mi pare di capire che ancora questo turbo non funziona come promesso... Come nel caso di thuban, la frequenza sale, ma menoi spesso di quanto ci si aspetterebbe... Il turbo su tutti i core in realtà interviene per metà core, e quello per metà core con 1-2 core attivi... Spiacevole... Speriamo che sistemino, magari con l'ormai famoso Vishera...

Una domanda: si è certi che effettivamente in presenza di 4 thread, Winzoz li assegni uno per modulo, e non, magari, due per modulo a solo due moduli?
In effetti però la prima soluzione garantirebbe maggiori prestazioni, ma la seconda darebbe minori consumi...
In ogni caso la cosa dovrebbe funzionare, perché funziona già oggi con l'HT di intel... Windows deve dare prima ogni thread ad un core, e solo poi iniziare a riempire il secondo thread per core, giusto? Non si chiama core parking questo approccio?

affiu
28-09-2011, 12:21
[QUOTE=papafoxtrot;36024543]

Una domanda: si è certi che effettivamente in presenza di 4 thread, Winzoz li assegni uno per modulo, e non, magari, due per modulo a solo due moduli?
In effetti però la prima soluzione garantirebbe maggiori prestazioni, ma la seconda darebbe minori consumi...

cosi dicono loro,poi tutto si vedra:
''....it combines dedicated and shared resources in a compact design to deliver exceptional performance in a given power in the lab the dedicated resources include to integer execution course tha delivered troop core functionality by presenting to true course to the operating sistem applications two simultaneous threads can be executed more efficiently into threads running on a single integer course.....''

cioè secondo come ho capito io ,2 threads su un modulo sono piu effiecienti d 2 threads u 2 core normali per via delle risorse condivise.

paolo.oliva2
28-09-2011, 12:23
http://www.hwupgrade.it/forum/showpost.php?p=36022598&postcount=24538

http://www.hwupgrade.it/forum/showpost.php?p=36022606&postcount=24540

quando le cose le scrivo io in modo semplice (ed anche un pò confuso) non ci fai caso, poi te le scrive bjt2 (che è sicuramente un esperto) in modo formale e concordi :Prrr:

battute a parte, vedo che non in pochi concorvergiamo su questa possibilità... :stordita:

Scusa :), è che qualche cosa mi deve essere sfuggito... il TH galoppa a 100 km/h e certe volte salto le pagine.

Se hai notato... anche Bjt2 mi aveva scritto "l'ho scritto prima...", ma io non l'avevo visto. :mano:

Comunque, ricapitolando, Llano è stato anticipato al posto di BD semplicemente perché un 8130p aveva una frequenza troppo bassa e un Llano a max 3GHz era comunque vendibile perché la tipologia era diversa.
Ora si tratta di capire perché a marzo GF/AMD non hanno optato direttamente per lo step C su BD (visto che hanno continuato con lo step B2 (a-b-c-d-e-f-g) e forse il siluramento del vice-presidente potrebbe essere per questo motivo, anche se la cosa mi lascia dei dubbi perché il vice è un vice e di solito le decisioni le prende il presidente.
La cosa che mi rende dubbioso sullo step C è che GF ha inserito il 28nm in road-map che prima non esisteva... e io penserei che se lo step C risolvesse i problemi non ci sarebbe stato motivo di cambiare road-map, quindi lo step C aumenterà le frequenze ma non in modo radicale.
L'annullamento di Komodo e del K10 per desktop lo vedrei nel fatto che senza frequenze alte non aumenta la potenza ST e quindi con quelle caratteristiche un K10 è un procio server ma non idoneo al desktop.
In ogni caso l'allungamento del socket AM3+ aumenta la durata dell'investimento... ed è probabile che in 1 anno compariranno altri proci oltre all'8170p.

Certo... se AMD pensava ad un BD X8 a 4,5GHz def, certamente questo spiega le latenze superiori, l'FO4 e quant'altro, e poi 1GHz in meno di frequenza def assolverebbero il giudizio sull'architettura in sé per sé.

Io non la vedo male la cosa... perché comunque bisogna vedere se in OC si possa portare almeno a 4,5GHz RSDU (secondo me anche a 5,5GHz a liquido nei bench) che sia venduto come 3,6GHz conterebbe poco, però lo si paga per 3,6GHz (250€ circa) e questo fa bene al portafoglio.
Il divertimento non cambierebbe...

The3DProgrammer
28-09-2011, 12:28
[QUOTE=papafoxtrot;36024543]

Una domanda: si è certi che effettivamente in presenza di 4 thread, Winzoz li assegni uno per modulo, e non, magari, due per modulo a solo due moduli?
In effetti però la prima soluzione garantirebbe maggiori prestazioni, ma la seconda darebbe minori consumi...

cosi dicono loro,poi tutto si vedra:
''....it combines dedicated and shared resources in a compact design to deliver exceptional performance in a given power in the lab the dedicated resources include to integer execution course tha delivered troop core functionality by presenting to true course to the operating sistem applications two simultaneous threads can be executed more efficiently into threads running on a single integer course.....''

cioè secondo come ho capito io ,2 threads su un modulo sono piu effiecienti d 2 threads u 2 core normali per via delle risorse condivise.

Dipende dai thread, mediamente hanno calcolato sul singolo thread una penalita' di prestazioni del 10%, ma potrebbe anche succedere che 2 thread vadano + veloce su un singolo modulo rispetto agli stessi thread su 2 moduli separati, grazie alle risorse condivise.
In generale cmq a detta di amd conviene eseguire i thread per core non per modulo, perche' comunque a prescindere dal livello di indipendenza dei 2 thread eseguirli per core significa poter spegnere i moduli inattivi e aumentare la frequenza col turbo.

paolo.oliva2
28-09-2011, 12:37
Scusa, ma il turbo dovrebbe assegnare frequenze diverse per moduli diversi, no? Voglio dire, la granularità di BD non era tale da consentire ad ogni modulo di avere diverse frequenze e diverse tensioni?
D'altro canto anche thuban può avere frequenze diverse su ogni core, ma se non vado errando non può dare vcore indipendenti... E di li il problema di limitare i consumi in turbo core... quando tutti i core rimangono alla tensione di normale funzionamento...
Sbaglio?
Non sbagli, anche se comunque il 45nm SOI non ha un leakage alto i consumi sono ridotti, ma pur sempre superiori che avere i core spenti.

Poi che a due a due i core abbiano stesse frequenze e tensioni ci sta...

Comunque mi pare di capire che ancora questo turbo non funziona come promesso... Come nel caso di thuban, la frequenza sale, ma menoi spesso di quanto ci si aspetterebbe... Il turbo su tutti i core in realtà interviene per metà core, e quello per metà core con 1-2 core attivi... Spiacevole... Speriamo che sistemino, magari con l'ormai famoso Vishera...

Una domanda: si è certi che effettivamente in presenza di 4 thread, Winzoz li assegni uno per modulo, e non, magari, due per modulo a solo due moduli?
In effetti però la prima soluzione garantirebbe maggiori prestazioni, ma la seconda darebbe minori consumi...
In ogni caso la cosa dovrebbe funzionare, perché funziona già oggi con l'HT di intel... Windows deve dare prima ogni thread ad un core, e solo poi iniziare a riempire il secondo thread per core, giusto? Non si chiama core parking questo approccio?

Bisogna fare dei test on-road per capirne il funzionamento, i pro e i contro, sia per il turbo che la gestione dei TH a modulo.
Ad esempio con il Thuban il Turbo per chi lo porta almeno sui 4GHz è sistematicamente disabilitato perché produce solamente problemi.
Bisogna vedere se in BD il turbo è disabilitabile o è parte integrante dell'architettura.
Può anche darsi che un turbo non a puntino porti problemi e magari disabilitandolo si avrebbe una condizione più stabile (specialmente in OC) a scapito chiaramente dei consumi, che comunque chi occa i consumi li guarda proprio "di lato", basta che ci sia un prg tipo K10stat che in situazioni di idle o carichi bassi assegna il Vcore minimo e quindi nessuna differenza tra procio occato e no.

digieffe
28-09-2011, 13:01
Scusa :), è che qualche cosa mi deve essere sfuggito... il TH galoppa a 100 km/h e certe volte salto le pagine.

Se hai notato... anche Bjt2 mi aveva scritto "l'ho scritto prima...", ma io non l'avevo visto. :mano:

Comunque, ricapitolando, Llano è stato anticipato al posto di BD semplicemente perché un 8130p aveva una frequenza troppo bassa e un Llano a max 3GHz era comunque vendibile perché la tipologia era diversa.
Ora si tratta di capire perché a marzo GF/AMD non hanno optato direttamente per lo step C su BD (visto che hanno continuato con lo step B2 (a-b-c-d-e-f-g) e forse il siluramento del vice-presidente potrebbe essere per questo motivo, anche se la cosa mi lascia dei dubbi perché il vice è un vice e di solito le decisioni le prende il presidente.
La cosa che mi rende dubbioso sullo step C è che GF ha inserito il 28nm in road-map che prima non esisteva... e io penserei che se lo step C risolvesse i problemi non ci sarebbe stato motivo di cambiare road-map, quindi lo step C aumenterà le frequenze ma non in modo radicale.
L'annullamento di Komodo e del K10 per desktop lo vedrei nel fatto che senza frequenze alte non aumenta la potenza ST e quindi con quelle caratteristiche un K10 è un procio server ma non idoneo al desktop.
In ogni caso l'allungamento del socket AM3+ aumenta la durata dell'investimento... ed è probabile che in 1 anno compariranno altri proci oltre all'8170p.

Certo... se AMD pensava ad un BD X8 a 4,5GHz def, certamente questo spiega le latenze superiori, l'FO4 e quant'altro, e poi 1GHz in meno di frequenza def assolverebbero il giudizio sull'architettura in sé per sé.

Io non la vedo male la cosa... perché comunque bisogna vedere se in OC si possa portare almeno a 4,5GHz RSDU (secondo me anche a 5,5GHz a liquido nei bench) che sia venduto come 3,6GHz conterebbe poco, però lo si paga per 3,6GHz (250€ circa) e questo fa bene al portafoglio.
Il divertimento non cambierebbe...

tranquillo la mia era solo una battuta per sorridere (vedi :Prrr:)... non c'è bisogno di scuse, non sono il tipo che si offende :)

Immagino che, per qualche motivo tecnico, non potessero passare direttamente allo step C (evidentemente non prima di qualche mese)

secondo me perchè il 32nm era, e forse è in forte ritardo, e volendoci ulteriore tempo per sviluppare il 22nm, prenderanno la scorciatoia ottica (che dovrebbe essere più semplice da sviluppare) del 28nm... almeno limitano la distanza...

scrat1702
28-09-2011, 13:10
io sono ottimista sulle prestazioni anche per il comportamento di intel, ha annunciato un 2700k e anticipato al 14novembre il nuovo socket... probabilmente farà anche un bel taglio di prezzo, questo per me dimostra che nonostante tutto sarà competitivo...

Infatti gia il prezzo del Sb-E quad che sarà 294$ ci dice molte cose..... A questo giro ci troveremo con un sostanziale pareggio tra AMD e intel fino ai 300$, oltre per le applicazioni MT ci sarà solo intel per il momento. Cmq non dimentichiamoci che un SB-E porta con se un costo nettamente superiore (4 banchi DDR e X79 nettamente più costoso del 990FX) con prestazioni che oramai possiamo definire simili. Secondo me questo e un grosso passo in avanti di AMD, anche se si sperava in qualcosa di ancora migliore (io speravo che gli X8 andassero a tallonare il modello K dei Sb-E 6C), pero sicuramente non siamo di fronte ad un FAIL.
L'unico EPIC FAIL e il marketing di AMD che andrebbe licenziato in tronco con tanti calci in:ciapet: e magari si facessero dare qualche consulenza da Apple.

heddie
28-09-2011, 13:18
Infatti gia il prezzo del Sb-E quad che sarà 294$ ci dice molte cose..... A questo giro ci troveremo con un sostanziale pareggio tra AMD e intel fino ai 300$, oltre per le applicazioni MT ci sarà solo intel per il momento. Cmq non dimentichiamoci che un SB-E porta con se un costo nettamente superiore (4 banchi DDR e X79 nettamente più costoso del 990FX) con prestazioni che oramai possiamo definire simili. Secondo me questo e un grosso passo in avanti di AMD, anche se si sperava in qualcosa di ancora migliore (io speravo che gli X8 andassero a tallonare il modello K dei Sb-E 6C), pero sicuramente non siamo di fronte ad un FAIL.
L'unico EPIC FAIL e il marketing di AMD che andrebbe licenziato in tronco con tanti calci in:ciapet: e magari si facessero dare qualche consulenza da Apple.

Ti quoto in tutto.
Se le prestazioni fossero simili a un 2600k quindi praticamente uguali a un 990x direi che amd ha fatto un passo avanti spaventoso (tenendo conto che questo processore è la forma embrionale di un progetto che dovra evolversi).
Un sbaglio di amd è stato quello di mettere il marchio fx.

papafoxtrot
28-09-2011, 13:51
Si, e da quando il 2600k va quasi come un 990x?
:rolleyes:

Lasciando stare i software che non usano tutti i core ovviamente... Queste CPU (SB-E, gulftown, BD 8 core) sono da usare in workstation di fascia bassa, prima che in pc enthusiast... Se dopo uno li vuole usare per giocare o per archiviare documenti a fine anno col win rar faccia pure...

Prova a fare un render con un 2600k e poi prova con un 9870/980/990x... Non guardare i bench delle testate giornalistiche... Non ce n'è uno che faccia tornare i conti.. Sono render troppo corti, dove pesa troppo la prestazione del singolo core...
Se prendi Vray ancora oggi un 1100T renderizza come un 2600k, anche se c'è da dire che questo è migliore del vecchio 960/975x... Ma i gulftown sono ad un'altro livello.
Se usi Mental ray Da nehalem a sandy bridge l'IPC è cresciuto di un 10%... Ma ci vuol altro per arrivare al +50% netto che fa un gulftown grazie ai due core in più (e non si creda che scali poco...).
E già con questi due motori di render hai fatto il 90% del settore.

tmx
28-09-2011, 14:04
...
Un sbaglio di amd è stato quello di mettere il marchio fx.

perchè? BD è sbloccatissimo e incoraggia l'OC anche via software. Ha fatto anche il record del mondo prima di debuttare...

EDIT: Non sarebbe stato peggio se AMD avesse messo il suffisso FX a dei processori sbloccati vendendo anche cpu gemelle ma bloccate a qualche euro meno?

digieffe
28-09-2011, 14:05
cut
Una domanda: si è certi che effettivamente in presenza di 4 thread, Winzoz li assegni uno per modulo, e non, magari, due per modulo a solo due moduli?
In effetti però la prima soluzione garantirebbe maggiori prestazioni, ma la seconda darebbe minori consumi...
In ogni caso la cosa dovrebbe funzionare, perché funziona già oggi con l'HT di intel... Windows deve dare prima ogni thread ad un core, e solo poi iniziare a riempire il secondo thread per core, giusto? Non si chiama core parking questo approccio?

dipende da come windows vede i core di BD:
1- se vede come core fisici 0,2,4,6 e core logici 1,3,5,7 (in pratica come se fosse un intel) allora avendo molti moduli attivi il turbo entrerà con difficoltà

2- se vede tutti come core fisici il turbo entrerà un pò più spesso in base all'assegnazione dei thread (quando capitano 2 nello stesso modulo è più probabile) e qui va di mezzo lo scheduler che sposta frequentemente i thread da un core ad un altro.

3- se lo vede come un BD e quindi riempie prima ogni modulo prima di passare al prossimo allora il turbo entrerà più spesso (ma questo è l'esatto contrario dell'assegnazione per l'intel)

a meno che amd abbia comunicato a microsoft le specifiche della cpu e quest'ultima abbia apportato delle patch allo scheduler di windows, attualmente ci troviamo nella situazione 2 nel migliore dei casi e nella 1 nel peggiore...


@papafoxtrot: ciò che hai descritto è giusto ma è l'esatto opposto che serve a BD per rendere vedi punto 1 vs 3

heddie
28-09-2011, 14:07
Si, e da quando il 2600k va quasi come un 990x?
:rolleyes:

Lasciando stare i software che non usano tutti i core ovviamente... Queste CPU (SB-E, gulftown, BD 8 core) sono da usare in workstation di fascia bassa, prima che in pc enthusiast... Se dopo uno li vuole usare per giocare o per archiviare documenti a fine anno col win rar faccia pure...

Prova a fare un render con un 2600k e poi prova con un 9870/980/990x... Non guardare i bench delle testate giornalistiche... Non ce n'è uno che faccia tornare i conti.. Sono render troppo corti, dove pesa troppo la prestazione del singolo core...
Se prendi Vray ancora oggi un 1100T renderizza come un 2600k, anche se c'è da dire che questo è migliore del vecchio 960/975x... Ma i gulftown sono ad un'altro livello.
Se usi Mental ray Da nehalem a sandy bridge l'IPC è cresciuto di un 10%... Ma ci vuol altro per arrivare al +50% netto che fa un gulftown grazie ai due core in più (e non si creda che scali poco...).
E già con questi due motori di render hai fatto il 90% del settore.

IO mi baso suoi bench in giro... mi sembra chiaro che un 2600k va praticamente come un 990x nella maggior parte dell eapplicazioni che gli utenti di questo forum utilizzano , poi sinceramente se ho necessita di render violenti o applicazioni professionali direi che per il prezzo a cui viene proposto mi orientoun xeno o un opteron.
Poi sinceramente guardando i sistemi delle persone che hanno i 990x o il fratello minore li utilizzano in overclock per benchare e non essere cpu limited con i 4 sli o cross :D

scrat1702
28-09-2011, 14:08
Si, e da quando il 2600k va quasi come un 990x?
:rolleyes:

Lasciando stare i software che non usano tutti i core ovviamente... Queste CPU (SB-E, gulftown, BD 8 core) sono da usare in workstation di fascia bassa, prima che in pc enthusiast... Se dopo uno li vuole usare per giocare o per archiviare documenti a fine anno col win rar faccia pure...

Prova a fare un render con un 2600k e poi prova con un 9870/980/990x... Non guardare i bench delle testate giornalistiche... Non ce n'è uno che faccia tornare i conti.. Sono render troppo corti, dove pesa troppo la prestazione del singolo core...
Se prendi Vray ancora oggi un 1100T renderizza come un 2600k, anche se c'è da dire che questo è migliore del vecchio 960/975x... Ma i gulftown sono ad un'altro livello.
Se usi Mental ray Da nehalem a sandy bridge l'IPC è cresciuto di un 10%... Ma ci vuol altro per arrivare al +50% netto che fa un gulftown grazie ai due core in più (e non si creda che scali poco...).
E già con questi due motori di render hai fatto il 90% del settore.

Quoto. Infatti il 980X/990X costa 3 volte tanto un 2600. Un motivo ci sarà! Il 2600K e una CPU consumer per sistemi Home. BD 8X idem.
A inizio 2011 ho rilevato una società che fa progetti e grafica di un conoscente che stava andando male. Nell'analizzare l'andamento ho notato subito che avevano acquistato (dopo l'uscita delle soluzioni Xeon 6 core) 4 WS con dual Xeon della generazione C2D:muro: e non avevano rese di produzione..... bene mi e bastato rivenderli e sostituirli con 4 MacPro con 12C e la produzione, a parità di personale e ore lavorative, e raddoppiata così come gli introiti a parità di spese! bene in 4 mesi ho ammortizzato l'investimento e adesso sono in attivo. Aggiungo che sono totalmente ignorante in materia di render e progettazione, e che non ho praticamente tempo per seguire quell'azienda, ma basta una calcolatrice e un po di buon senso per capire a chi e destinata una determinata CPU. Ecco dove le CPU da 1000Eur vengono sfruttate. Per l'utilizzo home (anche game enthusiast) un 2600K o un 8150 e anche sovrabbondante.

heddie
28-09-2011, 14:09
perchè? BD è sbloccatissimo e incoraggia l'OC anche via software. Ha fatto anche il record del mondo prima di debuttare...

EDIT: Non sarebbe stato peggio se AMD avesse messo il suffisso FX a dei processori sbloccati venendo anche cpu gemelle ma bloccate a qualche euro meno?

E' un mio parere, io avrei avuto maggiore pazienza e lo avrei messo su processori in grado di contrastare i top intel, però anche il tuo ragionamento non fà una piega

tmx
28-09-2011, 14:15
E' un mio parere, io avrei avuto maggiore pazienza e lo avrei messo su processori in grado di contrastare i top intel, però anche il tuo ragionamento non fà una piega

anche il tuo non fa una piega :) FX era sinonimo di prestazioni al top e adesso un pò meno rispetto agli anni d'oro... dispiace, però ci si consola con i punti di forza

scrat1702
28-09-2011, 14:17
IO mi baso suoi bench in giro... mi sembra chiaro che un 2600k va praticamente come un 990x nella maggior parte dell eapplicazioni che gli utenti di questo forum utilizzano , poi sinceramente se ho necessita di render violenti o applicazioni professionali direi che per il prezzo a cui viene proposto mi orientoun xeno o un opteron.
Poi sinceramente guardando i sistemi delle persone che hanno i 990x o il fratello minore li utilizzano in overclock per benchare e non essere cpu limited con i 4 sli o cross :D

Qui stiamo già parlando dello 0.0x degli utenti. Siamo di fronte ad enthusiast che le aziende produttrici si prendono la briga di spremere per benino. Fino a un paio d'anni fa ero anch'io tra questi, ma poi mi sono reso conto che il 10% di prestazioni (FPS max quando gioco con vsync :muro: ) costava il 100-150% in più! Adesso sto con un i5 760OC e un 2600K (che ho avuto praticamente gratis visto che il mio 930 ha avuto problemi e in garanzia non ne avevano uno disponibile e mi hanno accreditato il prezzo di un 930 nuovo :D ) con XFire di 6970 e gioco benissimo. Ma già così sono fuori dalla media. BD avrà sicuramente un discreto successo e qualcosa riusciranno ad erodere ad intel, ma il fatto più positivo sarà lo spostamento verso il basso dei prezzi. Poi IB e lontano 6 mesi nei quali AMD affinerà il PP e usciranno CPU più prestanti perciò non credo che IB supererà BD di più del 5-10%.

Phenomenale
28-09-2011, 14:18
Un sbaglio di amd è stato quello di mettere il marchio fx.
Ti chiedo scusa, ma questo no, è GENIO.
Quel marchio "FX" potevano lasciarlo nel cassetto (sprecandolo) oppure giocarselo "adesso o mai più". Hanno scelto adesso, commercialmente è stata un intuizione geniale. :read:

Consideriamo che il commerciale, quando ha deciso di giocarsi la carta FX, aveva davanti le vecchie roadmap 2010 dove Llano usciva a gennaio 2011 per rispondere subito a Sandy almeno sul fronte mobile, poi nel Q2 arrivava un FX con frequenze da capogiro a prendere il controllo anche del segmento desktop, anche giocando sul fatto che a febbraio la concorrenza ha dovuto ritirare dal mercato tutte le mainboard Sandy per un bug sul Sata e così lasciando il fianco scoperto per un buon trimestre. Quello era il momento "FX". :cool:

Il commerciale AMD ci aveva visto bene... ma la anche sfiga ci vede bene purtroppo... e non è andata come le roadmap commerciali del 2010 volevano. :(

scrat1702
28-09-2011, 14:22
La "sfiga" ha anche un nome preciso GF!!! :D

tmx
28-09-2011, 14:26
La "sfiga" ha anche un nome preciso GF!!! :D

già :D mi chiedo quando usciranno prodotti maturi da questo processo 32nm e come andranno, sia def che OC... :oink:

papafoxtrot
28-09-2011, 14:29
IO mi baso suoi bench in giro...
Male!
O almeno... Libero di farlo, ma conviene che cedi il passo quando qualcuno ne ha un'esperienza più diretta.


mi sembra chiaro che un 2600k va praticamente come un 990x nella maggior parte dell eapplicazioni che gli utenti di questo forum utilizzano ,

Il fatto che vadano simili nella maggior parte delle applicazioni che gli utenti di questo forum usano, non vuol dire che sono CPU analoghe... Probabilmente se qualcuno di questi utenti adoperasse un IBM power 7 troverebbe che va ancora più piano, ma ciò non significa che il core i5 2500k vada grosso modo come un power 7...
Se consideri come campione i cittadini del centro di Milano fai fatica a dare un voto ad un Cayenne nei confronti di una Panda... Magari ti viene fuori che vanno uguale, o anzi, la Panda si parcheggia meglio, ma prova a chiedere a chi fa 1000km di autostrada a settimana...



poi sinceramente se ho necessita di render violenti o applicazioni professionali direi che per il prezzo a cui viene proposto mi orientoun xeno o un opteron.
Quindi secondo te il fatto che uno faccia il grafico significa che deve correre a comprare workstations dual xeon.,..
1) Considera che per essere realmente più potenti di un 970, eventualmente anche occato (non si creda che l'overclock è roba da gamer, ho overcloccato intere renderfarm, anche a liquido) i due xeon devono essere due CPU a 6 core... Si parte dai 2,4GHz a circa 1000 euro l'uno se non sbaglio. Poi ci va il costo della scheda madre. Puoi anche prendere due quad core a frequenze elevate, ma credimi, il gioco non vale la candela.
2) Considera ora che prestazioni ben maggiori le puoi avere con una renderfarm.,.. Con 500 euro ti fai un nodo con thuban 1100T... Secondo te vanno di più 6 nodi del genere, o il dual xeon :D :D :D Sempre 3000 euro ci metti...
3) Rimangono tutti quegli utenti che non hanno bisogno di così tanta potenza, e magari con 1500 euro possono avere un'ottima workstation.. Questi non hanno diritto di vedere la differenza tra un 2600k, un thuban, un bulldozer, un 970 e un SB-E?

dipende da come windows vede i core di BD:
1- se vede come core fisici 0,2,4,6 e core logici 1,3,5,7 (in pratica come se fosse un intel) allora avendo molti moduli attivi il turbo entrerà con difficoltà

2- se vede tutti come core fisici il turbo entrerà un pò più spesso in base all'assegnazione dei thread (quando capitano 2 nello stesso modulo è più probabile) e qui va di mezzo lo scheduler che sposta frequentemente i thread da un core ad un altro.

3- se lo vede come un BD e quindi riempie prima ogni modulo prima di passare al prossimo allora il turbo entrerà più spesso (ma questo è l'esatto contrario dell'assegnazione per l'intel)

a meno che amd abbia comunicato a microsoft le specifiche della cpu e quest'ultima abbia apportato delle patch allo scheduler di windows, attualmente ci troviamo nella situazione 2 nel migliore dei casi e nella 1 nel peggiore...


@papafoxtrot: ciò che hai descritto è giusto ma è l'esatto opposto che serve a BD per rendere vedi punto 1 vs 3

In effetti non avevo considerato che se si raggruppano tutti i thread su meno moduli parte prima il turbo. Ma così tutto il discorso sui vantaggi dell'avere mezzo modulo condiviso, così un thread può avere doppia L2, prefetcher enorme e quant'altro si perdono!
Allora o ho un solo thread (quasi impossibile su una CPU a 8 core, il sistema cercherà pur sempre di parcheggiare le app in background da una parte, l'antivirus dall'altra, il programma aperto in un terzo... e ormai di software a un singolo thread ce n'è proprio pochi..) oppure il vantaggio della logica condivisa è perso, ai fini delle prestazioni!

capitan_crasy
28-09-2011, 14:30
La situazione sarebbe molto peggiore se AMD avesse ancora in mano le sue EX FAB; GF alla fine ammortizza finanziariamente tutti i problemi sullo sviluppo del silicio, cosa che la stessa AMD non può più permettersi di fare...

scrat1702
28-09-2011, 14:36
La situazione sarebbe molto peggiore se AMD avesse ancora in mano le sue EX FAB; GF alla fine ammortizza finanziariamente tutti i problemi sullo sviluppo del silicio, cosa che la stessa AMD non può più permettersi di fare...

Si. Forse non mi sono espresso bene, non volevo assolutamente dire che AMD doveva tenersi le FAB, era ovvio che non poteva più tenerle, ma che l'artefice del ritardo e stata GF con i problemi riscontrati nel PP a 32nm applicato a BD, con l'attenuante che hanno dovuto far fronte a PP nuovo unito ad architettura nuova, cosa che intel si guarda bene dal fare. Infatti con llano i problemi sono stati molto minori.

tmx
28-09-2011, 14:38
La situazione sarebbe molto peggiore se AMD avesse ancora in mano le sue EX FAB; GF alla fine ammortizza finanziariamente tutti i problemi sullo sviluppo del silicio, cosa che la stessa AMD non può più permettersi di fare...

quoto
forse siamo al medio-peggio, GF ammortizza i problemi per AMD ma l'ha danneggiata mancando l'appuntamento della produzione, o magari non permettendo col primo pp certe frequenze/consumi sperati

Korn
28-09-2011, 14:40
mezzo ot ma i chipset mainstream quando escono? (970?)

capitan_crasy
28-09-2011, 14:48
Si. Forse non mi sono espresso bene, non volevo assolutamente dire che AMD doveva tenersi le FAB, era ovvio che non poteva più tenerle, ma che l'artefice del ritardo e stata GF con i problemi riscontrati nel PP a 32nm applicato a BD, con l'attenuante che hanno dovuto far fronte a PP nuovo unito ad architettura nuova, cosa che intel si guarda bene dal fare. Infatti con llano i problemi sono stati molto minori.

Il post non era riferito a nessuno in particolare ma in forma generale... ;)

mezzo ot ma i chipset mainstream quando escono? (970?)

sono già in commercio da un bel po...

paolo.oliva2
28-09-2011, 14:49
Quoto. Infatti il 980X/990X costa 3 volte tanto un 2600. Un motivo ci sarà! Il 2600K e una CPU consumer per sistemi Home. BD 8X idem.
A inizio 2011 ho rilevato una società che fa progetti e grafica di un conoscente che stava andando male. Nell'analizzare l'andamento ho notato subito che avevano acquistato (dopo l'uscita delle soluzioni Xeon 6 core) 4 WS con dual Xeon della generazione C2D:muro: e non avevano rese di produzione..... bene mi e bastato rivenderli e sostituirli con 4 MacPro con 12C e la produzione, a parità di personale e ore lavorative, e raddoppiata così come gli introiti a parità di spese! bene in 4 mesi ho ammortizzato l'investimento e adesso sono in attivo. Aggiungo che sono totalmente ignorante in materia di render e progettazione, e che non ho praticamente tempo per seguire quell'azienda, ma basta una calcolatrice e un po di buon senso per capire a chi e destinata una determinata CPU. Ecco dove le CPU da 1000Eur vengono sfruttate. Per l'utilizzo home (anche game enthusiast) un 2600K o un 8150 e anche sovrabbondante.

Quoto anche io.

E' chiaro che all'hobbista tira il :ciapet: a spendere di più, ma in un'attività dove il procio se più potente fa guadagnare di più, 500-600€ fanno ridere e sinceramente a questa condizione non è nemmeno corretto parlare di costi superiori ma bensì un investimento maggiore, che poi nel costo totale del sistema potrebbe incidere marginalmente.
E poi anche l'hobbista, se ha soldi da spendere e vuole il meglio, li spende.
Chiaro, se poi utilizza solamente giochi o similari, allora un i7 X6 è sprecato ed è meglio un 2600K o il prox 2700x/SBe X4, che se ci ripensa lo può upgradare ad un SB-e X6 (che vede il K al 40% in meno di costo).

mtk
28-09-2011, 14:53
Si. Forse non mi sono espresso bene, non volevo assolutamente dire che AMD doveva tenersi le FAB, era ovvio che non poteva più tenerle, ma che l'artefice del ritardo e stata GF con i problemi riscontrati nel PP a 32nm applicato a BD, con l'attenuante che hanno dovuto far fronte a PP nuovo unito ad architettura nuova, cosa che intel si guarda bene dal fare. Infatti con llano i problemi sono stati molto minori.

quoto e aggiungo che nonostante i problemi "minori" di llano,amd sta facendo cassa con queste apu e dal momento che il pp puo' solo migliorare d ora in poi,fossi in loro continuerei a battere il ferro finche e' caldo,certo amd sta' facendo perdere la pazienza agli appassionati con i rinvii di bd,ma meglio perdere qualche appassionato o meglio guadagnare quote e consensi tra gli oem con llano?

paolo.oliva2
28-09-2011, 15:02
quoto
forse siamo al medio-peggio, GF ammortizza i problemi per AMD ma l'ha danneggiata mancando l'appuntamento della produzione, o magari non permettendo col primo pp certe frequenze/consumi sperati

Che indirettamente AMD ci perda la faccia... è indiscusso.

Però c'è anche il lato positivo... Come ha detto il Capitano, le spese sviluppo silicio sono a carico di GF. Immagigniamoci se le FAB fossero ancora di AMD e il 32nm non permettesse prestazioni tali a BD di essere venduto a prezzi più alti...
Cioè... un Thuban per 340mm2 e con spese minime di progettazione visto che è un Phenom II con in più il Turbo ed il low-k e forse qualche ottimizzazione nell'MC e NB, aveva un prezzo iniziale di 300€ circa, al debutto.
Con BD X8 saremmo a 250€ per un die-size di 20mm2 inferiore... con in più un costo progettazione nettamente superiore (il Thuban è partito come E0 ed è rimasto E0, BD solo nello step B2 ha avuto ben 7 varianti...:doh: ), costo sviluppo silicio e quant'altro... senza contare che i BD X6 e X4 hanno prezzi di listino inferiori ma costi uguali ad un X8 in produzione... penso che sarebbe stata la volta buona che saltava...

calabar
28-09-2011, 15:06
dipende da come windows vede i core di BD:
1- se vede come core fisici 0,2,4,6 e core logici 1,3,5,7 (in pratica come se fosse un intel) allora avendo molti moduli attivi il turbo entrerà con difficoltà
Dove hai letto una cosa del genere?
I core sono "virtuali" proprio perché il sistema li vede come core, ma in realtà sono entità virtuali, due delle quali condividono un core reale (o fisico) al di sotto. Stiamo cioè parlando di un livello di astrazione.
Non c'è cioè a livello di sistema una distinzione tra un core vero e uno finto, per il sistema sono entrambi core veri, e qui sta la virtualizzazione.
Credo sia lo scheduler della cpu ad occuparsi delle assegnazioni, insieme al driver per il sistema operativo.

papafoxtrot
28-09-2011, 15:19
Hem... c'è da dire che per ora GF i soldi li prende dal suo unico cliente (AMD)... Mica li tira su gratis da sotto la sabbia degli arabi...
AMD paga GF perché le produca i processori, come paga TSMC per farsi fare le schede video...

Per ora è cambiato poco. TSMC fa una grande economia di scala, perché sviluppa un processo e poi lo vende a AMD, NVIDIA, Qualcomm, apple e quant'altri...
GF sta cercando di fare la stessa cosa; AMD l'ha venduta perché così gli arabi ci hanno investito su, ma il gioco non dura se questi non catturano nuovi clienti.
E infatti il nodo a 22nm è saltato, in favore di un nodo che vada bene sia per le CPU AMD, sia per le sue GPU, sia per altri...

Essendo l'unico cliente, lo sviluppo della produzione a 32nm se l'è pagato tutto lei, con in più gi overhead che derivano dalla nuova azienda tutta separata.
Non sto dicendo che abbiano fatto male, è chiaro che GF ha lo scopo di vendere servizi a tanti altri clienti, e per entrare nel settore serviva un finanziamento che AMD non poteva avere.

paolo.oliva2
28-09-2011, 15:21
quoto e aggiungo che nonostante i problemi "minori" di llano,amd sta facendo cassa con queste apu e dal momento che il pp puo' solo migliorare d ora in poi,fossi in loro continuerei a battere il ferro finche e' caldo,certo amd sta' facendo perdere la pazienza agli appassionati con i rinvii di bd,ma meglio perdere qualche appassionato o meglio guadagnare quote e consensi tra gli oem con llano?

Sinceramente AMD è stata aiutata anche da circostanze favorevoli...

2600K o aspettare il 2700K con una piattaforma fino a max X4.
i7 X6 su una piattaforma a fine carriera.
SB-e X4 e X6 all'orizzonte

BD che doveva uscire.... il problema sarebbe stato se usciva dopo SB-e, ma da gennaio a oggi, che BD fosse uscito ad aprile o agosto non sarebbe cambiato nulla.

Poi dipende dalle sue effettive prestazioni, perché comunque i margini di crescita di BD mi sembra sia facile supporre che siano superiori alle proposte Intel quindi un 8150p si posizionerà in un determinato modo verso Intel, un 8170p non cambierà la sua posizione ma comunque la migliorerà.
Speriamo possa esserci un 8200P :).

papafoxtrot
28-09-2011, 15:22
PS: ma come mai i 40nm di GF non se li è filati nessuno? Sono arrivati tardi, vero? I 28 nm a che punto sono? Questo articolo di quest'estate non mi fa sperare benissimo...
http://semiaccurate.com/2011/07/05/globalfoundries-testing-28nm/

Dicono che:
1) GF sta testando adesso il 28nm con chip di SRAM... Quando TSMC all'epoca aveva già fatto il tape out di diverse GPU e ora è probabilmente in produzione.
2) Il 28nm di GF sarà pronto per il prossimo autunno; credo parlino dell'SHP, con il quale probabilmente saranno prodotti i vari Komodo e opteron terramar..
Ma allora gli altri 28nm, tipo HP, a che punto sono? Che clienti hanno?
3) Dicono che il 28nm SHP non è SOI. Dite che sia una supposizione? Se fosse vero la mia idea è che sarebbe probabilmente prestazionalmente inferiore ad un 32nm SOI...

scrat1702
28-09-2011, 15:26
Hem... c'è da dire che per ora GF i soldi li prende dal suo unico cliente (AMD)... Mica li tira su gratis da sotto la sabbia degli arabi...
AMD paga GF perché le produca i processori, come paga TSMC per farsi fare le schede video...

Per ora è cambiato poco. TSMC fa una grande economia di scala, perché sviluppa un processo e poi lo vende a AMD, NVIDIA, Qualcomm, apple e quant'altri...
GF sta cercando di fare la stessa cosa; AMD l'ha venduta perché così gli arabi ci hanno investito su, ma il gioco non dura se questi non catturano nuovi clienti.
E infatti il nodo a 22nm è saltato, in favore di un nodo che vada bene sia per le CPU AMD, sia per le sue GPU, sia per altri...

Essendo l'unico cliente, lo sviluppo della produzione a 32nm se l'è pagato tutto lei, con in più gi overhead che derivano dalla nuova azienda tutta separata.
Non sto dicendo che abbiano fatto male, è chiaro che GF ha lo scopo di vendere servizi a tanti altri clienti, e per entrare nel settore serviva un finanziamento che AMD non poteva avere.

Condivido quasi tutto tranne la parte evidenziata, al momento (ovviamente questo e destinato a cambiare) GF gran parte dei soldi in entrata li tira su da quello che c'e sotto la sabbia degli arabi ;) Solo da 3 mesi ha cominciato ad incassare qualcosa da AMD con Llano e do pochissimo per BD, ma queste entrate non sono assolutamente sufficienti a coprire le spese, soprattutto viste le basse rese, per fortuna che gli arabi di $ ne hanno a vagonate e possono permettersi di foraggiare un progetto così costoso per 1-2 anni finche non si entra a regime e GF diventerà un'entità indipendente, o almeno così si spera.
Il tutto riferito ai costi di R&D del nodo a 32nm.

paolo.oliva2
28-09-2011, 15:27
Hem... c'è da dire che per ora GF i soldi li prende dal suo unico cliente (AMD)... Mica li tira su gratis da sotto la sabbia degli arabi...
AMD paga GF perché le produca i processori, come paga TSMC per farsi fare le schede video...

Per ora è cambiato poco. TSMC fa una grande economia di scala, perché sviluppa un processo e poi lo vende a AMD, NVIDIA, Qualcomm, apple e quant'altri...
GF sta cercando di fare la stessa cosa; AMD l'ha venduta perché così gli arabi ci hanno investito su, ma il gioco non dura se questi non catturano nuovi clienti.
E infatti il nodo a 22nm è saltato, in favore di un nodo che vada bene sia per le CPU AMD, sia per le sue GPU, sia per altri...

Essendo l'unico cliente, lo sviluppo della produzione a 32nm se l'è pagato tutto lei, con in più gi overhead che derivano dalla nuova azienda tutta separata.
Non sto dicendo che abbiano fatto male, è chiaro che GF ha lo scopo di vendere servizi a tanti altri clienti, e per entrare nel settore serviva un finanziamento che AMD non poteva avere.

E' chiaro che GF non è una società di beneficenza, ma AMD gli ha venduto 7 FAB di cui solo la FAB di Dresda è dedicata interamente ad AMD, quindi comunque le altre FAB lavorano ed incassano, e Dresda produce Llano che AMD sta vendendo a vagonate.

MA se il problema è nel silicio, GF non si può incacchiare certamente con AMD, ed infatti AMD-GF avevano fatto un contratto che sarebbe durato fino a tutto il 2011 in cui si prezzavano i die in base se X8, X6 e X4 e non che AMD pagava i wafer ad un prezzo X e poi erano fatti suoi.

Comunque, arrivati a sto punto... credo che la cosa non era riferita ai core funzionanti a die, o perlomeno non solo... forse c'era di mezzo pure la frequenza.

papafoxtrot
28-09-2011, 15:28
Condivido quasi tutto tranne la parte evidenziata, al momento (ovviamente questo e destinato a cambiare) GF gran parte dei soldi in entrata li tira su da quello che c'e sotto la sabbia degli arabi ;) Solo da 3 mesi ha cominciato ad incassare qualcosa da AMD con Llano e do pochissimo per BD, ma queste entrate non sono assolutamente sufficienti a coprire le spese, soprattutto viste le basse rese, per fortuna che gli arabi di $ ne hanno a vagonate e possono permettersi di foraggiare un progetto così costoso per 1-2 anni finche non si entra a regime e GF diventerà un'entità indipendente, o almeno così si spera.
Il tutto riferito ai costi di R&D del nodo a 32nm.

Si, come scrivevo c'è certamente stato un forte investimento iniziale da parte di ATIC. Ma questo non dura, è solo un botto di soldi ceh ci mettono li. Ovviamente siamo d'accordo.
In ogni caso GF piglia soldi da AMD per la produzione a 45nm... Ogni Athlon II e Phenom II che produce AMD glielo paga!

affiu
28-09-2011, 15:28
Dove hai letto una cosa del genere?
I core sono "virtuali" proprio perché il sistema li vede come core, ma in realtà sono entità virtuali, due delle quali condividono un core reale (o fisico) al di sotto. Stiamo cioè parlando di un livello di astrazione.
Non c'è cioè a livello di sistema una distinzione tra un core vero e uno finto, per il sistema sono entrambi core veri, e qui sta la virtualizzazione.
Credo sia lo scheduler della cpu ad occuparsi delle assegnazioni, insieme al driver per il sistema operativo.

più o meno: ''is easy to see how the modules can be combined to form complete processor that share resources like al three cash the modules are logical divisions transparent to the hardware''....

sono visti tutti come core fisici,la storia della condivisione dei core integer racchiusi in un modulo ''serve'' solo per svolgere 2 threads contemporaneamene(1 x core integer di un modulo) meglio (nel senso di piu efficiente) rispetto a due core normali per via della condivisione e delle risorse dedicate

cioe due threads per 2 core phenom2 o per un modulo,con il solo 13% in piu di circuiteria del secondo core integer avremo che (potendo eseguire un modulo due threads)alla fine in consumo per eseguire i due threads e minore rispetto a due core normali:in altre parole 2 threads anzicche eseguirli da 2 core normali li fai eseguire da un modulo(1 core integer + secondo core al 13% ''di costo energetico'' in piu rispetto al primo),una specie di MEZZO hipertreading fisico e il tutto avvallato dalla frequenza

scrat1702
28-09-2011, 15:30
E' chiaro che GF non è una società di beneficenza, ma AMD gli ha venduto 7 FAB di cui solo la FAB di Dresda è dedicata interamente ad AMD, quindi comunque le altre FAB lavorano ed incassano, e Dresda produce Llano che AMD sta vendendo a vagonate.

MA se il problema è nel silicio, GF non si può incacchiare certamente con AMD, ed infatti AMD-GF avevano fatto un contratto che sarebbe durato fino a tutto il 2011 in cui si prezzavano i die in base se X8, X6 e X4 e non che AMD pagava i wafer ad un prezzo X e poi erano fatti suoi.

Comunque, arrivati a sto punto... credo che la cosa non era riferita ai core funzionanti a die, o perlomeno non solo... forse c'era di mezzo pure la frequenza.

Beh puoi mettere la mano sul fuoco che nell'accordo AMD ha inserito le Freq che dovevano raggiungere per l'introduzione sul mercato, oltre al prezzo per mmq di silicio funzionante a quelle specifiche. Non fosse stato così, potrebbe spiegarsi il licenziamento di alcune figure.....

vegitto4
28-09-2011, 15:32
Sinceramente AMD è stata aiutata anche da circostanze favorevoli...

2600K o aspettare il 2700K con una piattaforma fino a max X4.
i7 X6 su una piattaforma a fine carriera.
SB-e X4 e X6 all'orizzonte

BD che doveva uscire.... il problema sarebbe stato se usciva dopo SB-e, ma da gennaio a oggi, che BD fosse uscito ad aprile o agosto non sarebbe cambiato nulla.

Poi dipende dalle sue effettive prestazioni, perché comunque i margini di crescita di BD mi sembra sia facile supporre che siano superiori alle proposte Intel quindi un 8150p si posizionerà in un determinato modo verso Intel, un 8170p non cambierà la sua posizione ma comunque la migliorerà.
Speriamo possa esserci un 8200P :).

ma come si fa a dire che i margini di BD siano superiori a Intel scusa? Tu dici che al massimo su una piattaforma Intel si possono montare X4, ma che importanza ha se sono migliori degli X8 AMD? E poi sulla stessa piattaforma che secondo te è limitata, si potranno montare gli Ivy Bridge e a te che piacciono tanto i processi produttivi nuovi, non sarà sfuggito che saranno a 22nm con transistor 3d che aumenteranno molto la frequenza abbassando consumi e TDP e si potranno overcloccare molto. Quindi come piattaforma, quella Intel non è per niente limitata secondo me.

scrat1702
28-09-2011, 15:33
Si, come scrivevo c'è certamente stato un forte investimento iniziale da parte di ATIC. Ma questo non dura, è solo un botto di soldi ceh ci mettono li. Ovviamente siamo d'accordo.
In ogni caso GF piglia soldi da AMD per la produzione a 45nm... Ogni Athlon II e Phenom II che produce AMD glielo paga!

:mano: :cincin: :ubriachi: :yeah:

paolo.oliva2
28-09-2011, 15:33
Condivido quasi tutto tranne la parte evidenziata, al momento (ovviamente questo e destinato a cambiare) GF gran parte dei soldi in entrata li tira su da quello che c'e sotto la sabbia degli arabi ;) Solo da 3 mesi ha cominciato ad incassare qualcosa da AMD con Llano e do pochissimo per BD, ma queste entrate non sono assolutamente sufficienti a coprire le spese, soprattutto viste le basse rese, per fortuna che gli arabi di $ ne hanno a vagonate e possono permettersi di foraggiare un progetto così costoso per 1-2 anni finche non si entra a regime e GF diventerà un'entità indipendente, o almeno così si spera.
Il tutto riferito ai costi di R&D del nodo a 32nm.

:D .

Io penso che per 50 anni gli arabi l'unico problema che avevano era di come spendere i soldi :sofico: .
Penso che ora cominciano a capire che il petrolio prima o poi finirà e quindi anche la loro UNICA fonte di soldi.
Quindi, sia come immagine che come fonte futura, cercano alternative. Sicuramente non si farebbero problemi anche se non incassassero per 3 anni... :)

papafoxtrot
28-09-2011, 15:35
E' chiaro che GF non è una società di beneficenza, ma AMD gli ha venduto 7 FAB di cui solo la FAB di Dresda è dedicata interamente ad AMD, quindi comunque le altre FAB lavorano ed incassano, e Dresda produce Llano che AMD sta vendendo a vagonate.

AMD ci ha messo solo le fabbriche di Dresda, le altre erano di chartered e se le è comprate ATIC da sola. AMD non ha neanche messo soldi. In ogni caso mi sembra che siano finite nel pentolone di GF, che è per un 30% di AMD, sempre che il mio dato non sia vecchio.
Comunque hai ragione che assieme a chartered, GF si è portata a casa tutto il portfolio clienti... Ma prima dell'acquisizione si sapeva che GF stava preparando un processo a 40nm, credo a dresda. Ma qualcuno lo sta usando? In una news tempo fa trovai che era disponibile ma non aveva clienti!
Non è che le fabbriche di chartered non siano contate nei bilanci di GF, essendo state acquisite da ATIC?


Comunque, arrivati a sto punto... credo che la cosa non era riferita ai core funzionanti a die, o perlomeno non solo... forse c'era di mezzo pure la frequenza.

Si, penso anche io che sia così. Paga di più per le CPU migliori.

scrat1702
28-09-2011, 15:37
ma come si fa a dire che i margini di BD siano superiori a Intel scusa? Tu dici che al massimo su una piattaforma Intel si possono montare X4, ma che importanza ha se sono migliori degli X8 AMD? E poi sulla stessa piattaforma che secondo te è limitata, si potranno montare gli Ivy Bridge e a te che piacciono tanto i processi produttivi nuovi, non sarà sfuggito che saranno a 22nm con transistor 3d che aumenteranno molto la frequenza abbassando consumi e TDP e si potranno overcloccare molto. Quindi come piattaforma, quella Intel non è per niente limitata secondo me.

Anche tu con la sfera di cristallo?:D :D :D Si IB sara a 22nm 3D e quello che dici e vero sulla carta. Pero anche BD sulla carta aveva dei vantaggi che sembra non si concretizzeranno. Aspettiamo visto che dei 22nm si sa ancora pochissimo o niente soprattutto riguardo a freq e OC. Non vi aspetterete che IB vada il 50% in più di SB spero?

papafoxtrot
28-09-2011, 15:43
PS: ma come mai i 40nm di GF non se li è filati nessuno? Sono arrivati tardi, vero? I 28 nm a che punto sono? Questo articolo di quest'estate non mi fa sperare benissimo...
http://semiaccurate.com/2011/07/05/globalfoundries-testing-28nm/

Dicono che:
1) GF sta testando adesso il 28nm con chip di SRAM... Quando TSMC all'epoca aveva già fatto il tape out di diverse GPU e ora è probabilmente in produzione.
2) Il 28nm di GF sarà pronto per il prossimo autunno; credo parlino dell'SHP, con il quale probabilmente saranno prodotti i vari Komodo e opteron terramar..
Ma allora gli altri 28nm, tipo HP, a che punto sono? Che clienti hanno?
3) Dicono che il 28nm SHP non è SOI. Dite che sia una supposizione? Se fosse vero la mia idea è che sarebbe probabilmente prestazionalmente inferiore ad un 32nm SOI...

up? ho riletto meglio, dicono che i primi wafer prodotti a 28nm si avranno tra un anno... Ma allora quando saranno pronti tutti i processi produttivi? Rischiano di arrivare tardissimo rispetto a tsmc!

scrat1702
28-09-2011, 15:43
:D .

Io penso che per 50 anni gli arabi l'unico problema che avevano era di come spendere i soldi :sofico: .
Penso che ora cominciano a capire che il petrolio prima o poi finirà e quindi anche la loro UNICA fonte di soldi.
Quindi, sia come immagine che come fonte futura, cercano alternative. Sicuramente non si farebbero problemi anche se non incassassero per 3 anni... :)

OT
Gli Arabi sono almeno 30 anni che non guadagnano solo dal petrolio. ;) Tanto per farti un'idea prendi il centro di Parigi, Londra, NY e vedrai che quasi tutti gli immobili e i palazzi più rinomati sono di proprietà araba. Il loro impero immobiliare supera quello petrolifero. Cmq nessun imprenditore continua a rattoppare una nave che continua ad affondare a prescindere dalla disponibilità economica che ha, tanto meno un imprenditore arabo. Tralasciando il discorso squadre di calcio che sono un hobby.
FINE OT

paolo.oliva2
28-09-2011, 15:44
ma come si fa a dire che i margini di BD siano superiori a Intel scusa? Tu dici che al massimo su una piattaforma Intel si possono montare X4, ma che importanza ha se sono migliori degli X8 AMD? E poi sulla stessa piattaforma che secondo te è limitata, si potranno montare gli Ivy Bridge e a te che piacciono tanto i processi produttivi nuovi, non sarà sfuggito che saranno a 22nm con transistor 3d che aumenteranno molto la frequenza abbassando consumi e TDP e si potranno overcloccare molto. Quindi come piattaforma, quella Intel non è per niente limitata secondo me.

Guarda quello che ho scritto:

Poi dipende dalle sue effettive prestazioni, perché comunque i margini di crescita di BD mi sembra sia facile supporre che siano superiori alle proposte Intel quindi un 8150p si posizionerà in un determinato modo verso Intel, un 8170p non cambierà la sua posizione ma comunque la migliorerà.
Speriamo possa esserci un 8200P :).

Io non ho detto che BD arriverà chissà dove, come non ho parlato di BD2 per AMD e di IB per Intel (visto che mancano 7 mesi), né del 28nm AMD e né del 22nm Intel.
Ho solo detto che siccome il 32nm Intel è a fine carriera e quindi non c'è spazio per uno step aggiuntivo (visto che ci vogliono 6 mesi).
Teorizzando un aumento di 133MHz per gli SB-e di Intel e valutando i 300MHz previsti su un 8170p, valutando un IPC superiore per Intel, quei 133MHz corrisponderebbero a 200MHz (buttato lì), quindi se un 8150p si posiziona a 100 contro i proci Intel, un 8170p si posizionerà meglio.

Non mi sembrava di aver offeso Intel...

Edit
Scusa... adesso ho capito... il mio discorso non era chiaro perché poteva essere interpretato in tempi lunghi.
No, io intendevo nei 5 mesi a venire...

Heimdallr
28-09-2011, 15:47
Sinceramente AMD è stata aiutata anche da circostanze favorevoli...

2600K o aspettare il 2700K con una piattaforma fino a max X4.
i7 X6 su una piattaforma a fine carriera.
SB-e X4 e X6 all'orizzonte

SB-E esce a metà novembre, appena un mese dopo la presunta data di uscita di BD. Ma poi se BD a 8 core va come un 2600K a te cosa cambia se formalmente i7 ha solo 4 core?



BD che doveva uscire.... il problema sarebbe stato se usciva dopo SB-e, ma da gennaio a oggi, che BD fosse uscito ad aprile o agosto non sarebbe cambiato nulla.

Sarebbe cambiato molto invece, soprattuto considerando il problema al chipset avuto da Intel, davvero non riesco a capire come tu possa sostenere una cosa simile, il ritardo che hanno avuto è grave ed hanno lasciato campo libero ad Intel per quasi un anno intero.

mtk
28-09-2011, 15:49
Sinceramente AMD è stata aiutata anche da circostanze favorevoli...

2600K o aspettare il 2700K con una piattaforma fino a max X4.
i7 X6 su una piattaforma a fine carriera.
SB-e X4 e X6 all'orizzonte

BD che doveva uscire.... il problema sarebbe stato se usciva dopo SB-e, ma da gennaio a oggi, che BD fosse uscito ad aprile o agosto non sarebbe cambiato nulla.

Poi dipende dalle sue effettive prestazioni, perché comunque i margini di crescita di BD mi sembra sia facile supporre che siano superiori alle proposte Intel quindi un 8150p si posizionerà in un determinato modo verso Intel, un 8170p non cambierà la sua posizione ma comunque la migliorerà.
Speriamo possa esserci un 8200P :).

paolo,lascia stare per un momento cosa fa' o non fa' intel....amd dopo aver ceduto le proprie fab e' ad un altra svolta importantissima,un nuovo concetto di processore,ha iniziato con ontario e zacate,sta proseguendo con llano e a breve (si spera :asd:) uscira' trinity.
bd e' nato per il settore server e aveva lo scopo di realizzare un processore in grado di competere degnamente con i migliori della classe ma soprattutto per costituire un nuovo punto di partenza per sviluppare i processori del futuro di amd.l idea e' quella di usare le capacita di una cpu e quelle di una gpu in un unico pezzo di silicio.
oggi la situazione dell azienda e' che i suoi prodotti con grafica integrata vendono bene,quindi le priorita' dell azienda cambiano mettendo il resto un po' da parte.gf ha iniziato male con llano e malissimo con bd,se i primi bd che troveremo in commercio andranno meno del previsto amen,nessuno ci obbliga a comprarli,di sicuro pero' amd non fallira' per carenza di acquirenti perche' si sta coprendo le spalle con le apu.
immagina che disastro sarebbe stato se avesse dato precedenza a bd (magari pieno di bug) e questo non avesse venduto a causa delle prestazioni scarse....

Hem... c'è da dire che per ora GF i soldi li prende dal suo unico cliente (AMD)... Mica li tira su gratis da sotto la sabbia degli arabi...
AMD paga GF perché le produca i processori, come paga TSMC per farsi fare le schede video...

Per ora è cambiato poco. TSMC fa una grande economia di scala, perché sviluppa un processo e poi lo vende a AMD, NVIDIA, Qualcomm, apple e quant'altri...
GF sta cercando di fare la stessa cosa; AMD l'ha venduta perché così gli arabi ci hanno investito su, ma il gioco non dura se questi non catturano nuovi clienti.
E infatti il nodo a 22nm è saltato, in favore di un nodo che vada bene sia per le CPU AMD, sia per le sue GPU, sia per altri...

Essendo l'unico cliente, lo sviluppo della produzione a 32nm se l'è pagato tutto lei, con in più gi overhead che derivano dalla nuova azienda tutta separata.
Non sto dicendo che abbiano fatto male, è chiaro che GF ha lo scopo di vendere servizi a tanti altri clienti, e per entrare nel settore serviva un finanziamento che AMD non poteva avere.

atic (gf) in questi anni ha messo i piedi in parecchie scarpe e ha trovato parecchi clienti con acquisizioni e con accordi di sviluppo,anche se gli arabi son pieni di soldi,non sono stupidi e sanno (o lo sanno i loro esperti) come far rendere i loro investimenti.