PDA

View Full Version : [Thread Ufficiale] Aspettando Bulldozer *leggere prima pagina con attenzione*


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112

checo
30-11-2010, 16:00
si perchè la gpu in bobcat non consuma nulla allora?

e.greg.io
30-11-2010, 16:27
appunto, inutile cercare il pelo nell' uovo, quindi inutile star a fare calcoli e dimostrazioni più o meno fantasiose.

fa na roba del genere

per me avremo

x8 3,5ghz 95W 500mhz turbo su tutti core
x4 3,5ghz 65W 500mhz turbo su tutti core
e via dicendo

te la metti in firma e eviti di riemipre il thread di calcoli, senza cattiveria ma i calcoli non hanno proprio senso a differenza delle supposizioni che sono legittime.

scusa e, ma nessuno deve rendere conto a te o a cionci dei post che fa.
se lui ritiene di accompagnare le sue supposizioni con calcoli più o meno verosimili, libero di farlo. e se a te o a qualcun altro danno fastidio sono problemi tuoi/vostri.

c'è chi segue il thread per leggere le news del capitano, chi per leggere i post tecnici degli utenti che studiano/si occupano di queste cose, chi per fare ipotesi, etc etc
finchè si resta in tema e si continua a postare civilmente, non vedo perchè qualcuno debba rendere conto ad altri dei post che fa.

e.greg.io
30-11-2010, 16:28
è molto moltoooooooo perversa questa cosa :stordita:

ma anche no :oink:

AleLinuxBSD
30-11-2010, 16:30
Leggendo gli ultimi topic, in modo veloce, ho notato che c'è una gara nel fare previsioni sul consumo massimo delle nuove soluzioni.
Domandona, i nuovi Liano con 4 core e da 3 ghz, avranno un consumo sui 65 watt o inferiori?

checo
30-11-2010, 16:33
scusa e, ma nessuno deve rendere conto a te o a cionci dei post che fa.
se lui ritiene di accompagnare le sue supposizioni con calcoli più o meno verosimili, libero di farlo. e se a te o a qualcun altro danno fastidio sono problemi tuoi/vostri.

c'è chi segue il thread per leggere le news del capitano, chi per leggere i post tecnici degli utenti che studiano/si occupano di queste cose, chi per fare ipotesi, etc etc
finchè si resta in tema e si continua a postare civilmente, non vedo perchè qualcuno debba rendere conto ad altri dei post che fa.

si, ma poi non puo prendersela se dopo aver calcolato i mhz a watt con 3 numeri decimali gli diciamo che son calcoli senza senso...

checo
30-11-2010, 16:33
Leggendo gli ultimi topic, in modo veloce, ho notato che c'è una gara nel fare previsioni sul consumo massimo delle nuove soluzioni.
Domandona, i nuovi Liano con 4 core e da 3 ghz, avranno un consumo sui 65 watt o inferiori?

mi pare che la fascia alta desktop arrivi a 95W tieni conto che c'è anche òa gpu dentro

cionci
30-11-2010, 16:53
scusa e, ma nessuno deve rendere conto a te o a cionci dei post che fa.
se lui ritiene di accompagnare le sue supposizioni con calcoli più o meno verosimili, libero di farlo. e se a te o a qualcun altro danno fastidio sono problemi tuoi/vostri.

c'è chi segue il thread per leggere le news del capitano, chi per leggere i post tecnici degli utenti che studiano/si occupano di queste cose, chi per fare ipotesi, etc etc
finchè si resta in tema e si continua a postare civilmente, non vedo perchè qualcuno debba rendere conto ad altri dei post che fa.
Essendo un thread tecnico ci deve essere una discussione che scaturisce da certe affermazioni per spiegare quali sono i motivi per cui si ritengono non fondate. Altrimenti come è possibile discernere fra informazioni plausibili, informazioni reali e fantasie/speranze ?

ivano444
30-11-2010, 17:24
quoto e.greg.io,paolo ha azzeccato molto cose su thuban e cmq è molto interessante leggere i suoi post quindi non vedo il problema

cionci
30-11-2010, 17:31
quoto e.greg.io,paolo ha azzeccato molto cose su thuban e cmq è molto interessante leggere i suoi post quindi non vedo il problema
Ok, quindi è interessante leggere post senza un qualsiasi fondamento tecnico (non sempre, per carità, ma lo era quello in particolare) spacciato per post tecnico ? Non dico che lo abbia fatto volontariamente, sia chiaro.
Se è così allora non capisco a cosa serva scrivere post tecnici, tanto quelli tecnici non interessano mentre le speculazioni basate su calcoli infondati sì.
Davvero senza parole...

bjt2
30-11-2010, 18:24
bjt2: non mi cadere anche tu nello stesso errore. Non potrà mai essere una cosa così lineare. Questo perché ogni circuito è diverso e reagisce in modo diverso al cambiamento di miniaturizzazione. Senza contare che i circuito vengono praticamente ridisegnati (non manualmente fortunatamente) e riadattati per il cambio di miniaturizzazione. Quindi è chiaro che non potrà mai essere il 50% preciso. Potrà essere 55% o 45% o ancora qualcos'altro che dipenderà esclusivamente dal tipo di circuito.
Prendi ad esempio la deriva termica data dalla temperatura: un circuito totalmente ridisegnato avrà hot spot diversi. La potenza utilizzata da un circuito è data da potenza statica + potenza dinamica. La potenza statica sarà poco dipendente dalla temperatura (sempre comunque dipendente), mentre la potenza dinamica sarà molto dipendente dalla temperatura (aumenta il leakage).
Ora prendiamo l'esempio di un circuito semplice che non ha particolari hot spot. A parità dissipazione quello a 45nm e quello a 32nm gireranno a temperature identiche. Ecco che quel circuito avrà un calo di potenza dissipata probabilmente inferiore del 50%.
Passiamo ad un circuito che è tutto un hotspot. A parità di dissipazione quello a 45nm e quello a 32nm gireranno a temperature diverse con il primo più caldo del secondo. E' chiaro che in questo caso la componente statica della potenza sarà in percentuale maggiore rispetto al circuito precedente, quindi beneficerà maggiormente del calo di temperatura (di questo beneficerà anche la componente dinamica). Quindi probabilmente qui la potenza dissipata scenderà di oltre il 50%.

Una CPU ha una termografia complessa, con hotspot e coldspot. Ovviamente la distribuzione cambia da CPU a CPU. Come è possibile secondo te dare una stima del 50% veritiera per qualsiasi CPU ?
Senza contare che questo valore ha dipendenze sia dalla frequenza che dalla switching activity di ogni zona.

Il discorso che fai tu è ovviamente sensato e sono daccordo con te, ma io mi baso sul dichiarazioni ufficiali di GF. E queste sono che a parità di architettura, a parità di Vcore e a parità di frequenza, si ha un TDP del 50% inferiore. Oppure a parità di architettura e a parità di TDP, si ha un 40% in più di clock ovviamente ritoccando il Vcore di conseguenza. Oppure a parità di architettura e a parità di Vcore, si ha un 30% in più di clock e un 30% in meno di TDP. Sono dichiarazioni ufficiali di GF, contenute in una brochure illustrante il nuovo processo a 32nm gate first e ne illustrava anche i vantaggi in termini di spazio e dimensioni in micrometri quadrati di una cella SRAM, sopratutto in confronto al processo gate last INTEL. Ora non ricordo dove l'ho vista... Ho provato a cercarla, ma ho solo trovato una brochure del processo a 28nm HKMG BULK che dice di avere il 50% di clock in più e il 50% di tdp in meno rispetto al 40nm BULK e non HKMG, e poi una press release di GF sul 32nm SOI HKMG che dice solo di aver ottenuto un 50% di clock in più rispetto al 45nm SOI della FAB 1 a livelli comparabili di leackage (ovviamente il TDP è superiore, perchè il leackage sarà pure lo stesso, ma la potenza dinamica aumenta del 50%...)

e.greg.io
30-11-2010, 18:43
si, ma poi non puo prendersela se dopo aver calcolato i mhz a watt con 3 numeri decimali gli diciamo che son calcoli senza senso...

certamente.

Ok, quindi è interessante leggere post senza un qualsiasi fondamento tecnico (non sempre, per carità, ma lo era quello in particolare) spacciato per post tecnico ? Non dico che lo abbia fatto volontariamente, sia chiaro.
Se è così allora non capisco a cosa serva scrivere post tecnici, tanto quelli tecnici non interessano mentre le speculazioni basate su calcoli infondati sì.
Davvero senza parole...

non spetta a te giudicare se un post è interessante o meno :) .
capisco le tue critiche, che solo in parte condivido, ma non ritengo assolutamente giusto il tuo modo di porti.
a maggior ragione, non lo ritengo giusto, considerando il tipo di thread (aspettando bd...).


ps:non è solo un thread di informazione, altrimenti lo si potrebbe tenere chiuso e il capitano potrebbe limitarsi a passare ai mod gli aggiornamenti delle prime pagine, nè solo un thread tecnico, che altrimenti dovrebbe essere aperto solo a quei 4-5 che studiano/lavorano in quel settore.
credo che lo scopo del thread sia anche quello di condividere attese, opinioni, dubbi, etc

cionci
30-11-2010, 18:44
ma ho solo trovato una brochure del processo a 28nm HKMG BULK che dice di avere il 50% di clock in più e il 50% di tdp in meno rispetto al 40nm BULK e non HKMG, e poi una press release di GF sul 32nm SOI HKMG che dice solo di aver ottenuto un 50% di clock in più rispetto al 45nm SOI della FAB 1 a livelli comparabili di leackage (ovviamente il TDP è superiore, perchè il leackage sarà pure lo stesso, ma la potenza dinamica aumenta del 50%...)
Linkami un secondo questa ;)

cionci
30-11-2010, 18:46
non spetta a te giudicare se un post è interessante o meno :) .
E' chiaro che sia più semplice rendere interessante un post in cui si fanno dichiarazioni sensazionalistiche...
ps:non è solo un thread di informazione, altrimenti lo si potrebbe tenere chiuso e il capitano potrebbe limitarsi a passare ai mod gli aggiornamenti delle prime pagine, nè solo un thread tecnico, che altrimenti dovrebbe essere aperto solo a quei 4-5 che studiano/lavorano in quel settore.
credo che lo scopo del thread sia anche quello di condividere attese, opinioni, dubbi, etc
Certo, infatti trovo corretto fare elaborazioni delle informazioni, ma solo con basi tecniche fondate e con metodo.

cionci
30-11-2010, 19:34
Il discorso che fai tu è ovviamente sensato e sono daccordo con te, ma io mi baso sul dichiarazioni ufficiali di GF. E queste sono che a parità di architettura, a parità di Vcore e a parità di frequenza, si ha un TDP del 50% inferiore. Oppure a parità di architettura e a parità di TDP, si ha un 40% in più di clock ovviamente ritoccando il Vcore di conseguenza. Oppure a parità di architettura e a parità di Vcore, si ha un 30% in più di clock e un 30% in meno di TDP. Sono dichiarazioni ufficiali di GF, contenute in una brochure illustrante il nuovo processo a 32nm gate first e ne illustrava anche i vantaggi in termini di spazio e dimensioni in micrometri quadrati di una cella SRAM, sopratutto in confronto al processo gate last INTEL. Ora non ricordo dove l'ho vista... Ho provato a cercarla, ma ho solo trovato una brochure del processo a 28nm HKMG BULK che dice di avere il 50% di clock in più e il 50% di tdp in meno rispetto al 40nm BULK e non HKMG, e poi una press release di GF sul 32nm SOI HKMG che dice solo di aver ottenuto un 50% di clock in più rispetto al 45nm SOI della FAB 1 a livelli comparabili di leackage (ovviamente il TDP è superiore, perchè il leackage sarà pure lo stesso, ma la potenza dinamica aumenta del 50%...)
http://www.globalfoundries.com/technology/28nm.aspx

Qui si legge:

GLOBALFOUNDRIES' HKMG enables full scaling from 40nm in area and performance; i.e., 28nm delivers twice the gate density of industry standard 40nm processes and an SRAM cell size shrink of more than 50 percent (cell size of 0.120 square micrometers for dense single port).

Si parla quindi di un circuito in particolare, cioè una cella di ram statica.

28nm transistors offer up to 40% higher performance than 40nm at comparable leakage with up to 50% lower energy per switch and 50% lower static power.

Offre fino al 40% di performance in più. Fino al 50% meno di energia necessaria (migliora, ma non dimezza il dynamic power) per lo switch e fino al (credo che "up to" sia da intendesi anche per questo) 50% meno di static power.

Quel 50% come fattore di diminuzione della potenza indicato per la potenza, così come il 40% per la maggiore frequenza è secondo me quindi da intendersi come un "up to". Dopo tutto le slide vengono preparate dai PR. JF è appunto un PR.

bjt2
30-11-2010, 19:37
Linkami un secondo questa ;)

La press release è qui (http://www.businesswire.com/news/home/20090930005430/en/GLOBALFOUNDRIES-Highlight-32nm28nm-Technology-Leadership-GSA-Expo), quarto paragrafo che inizia citanto "When compared...

Per la brochure ho trovato un pdf direttamente dal sito di GF:www.globalfoundries.com/pdf/GF_HKMG_TrifoldBrochure.pdf

bjt2
30-11-2010, 19:41
http://www.globalfoundries.com/technology/28nm.aspx

Qui si legge:

GLOBALFOUNDRIES' HKMG enables full scaling from 40nm in area and performance; i.e., 28nm delivers twice the gate density of industry standard 40nm processes and an SRAM cell size shrink of more than 50 percent (cell size of 0.120 square micrometers for dense single port).

Si parla quindi di un circuito in particolare, cioè una cella di ram statica.

28nm transistors offer up to 40% higher performance than 40nm at comparable leakage with up to 50% lower energy per switch and 50% lower static power.

Offre fino al 40% di performance in più. Fino al 50% meno di energia necessaria (migliora, ma non dimezza il dynamic power) per lo switch e fino al (credo che "up to" sia da intendesi anche per questo) 50% meno di static power.

Quel 50% come fattore di diminuzione della potenza indicato per la potenza, così come il 40% per la maggiore frequenza è secondo me quindi da intendersi come un "up to". Dopo tutto le slide vengono preparate dai PR. JF è appunto un PR.

Si infatti abbiamo fino a 40% in più di clock e CONTEMPORANEAMENTE fino al 50% in meno di TDP. Ma stiamo comparando un 40nm bulk con un 28nm HKMG bulk... Si ha questa enorme miglioria perchè l'HKMG fa diminuire il Vcore e quindi il leackage crolla. Nel SOI il leackage è più basso e infatti lessi un 50% in meno di TDP però a parità di frequenza... Qui invece il 28nm promette MIRACOLI. Ossia se AMD si facesse produrre le schede grafiche con il 28nm BULK GF otterrebbe 40% di clock in più e CONTEMPORANEAMENTE 50% di TDP in meno...

cionci
30-11-2010, 19:51
Si infatti abbiamo fino a 40% in più di clock e CONTEMPORANEAMENTE fino al 50% in meno di TDP. Ma stiamo comparando un 40nm bulk con un 28nm HKMG bulk... Si ha questa enorme miglioria perchè l'HKMG fa diminuire il Vcore e quindi il leackage crolla. Nel SOI il leackage è più basso e infatti lessi un 50% in meno di TDP però a parità di frequenza... Qui invece il 28nm promette MIRACOLI. Ossia se AMD si facesse produrre le schede grafiche con il 28nm BULK GF otterrebbe 40% di clock in più e CONTEMPORANEAMENTE 50% di TDP in meno...
Ok, ma secondo te allora i dati rilasciati sul 32nm rispetto al 45nm non si devono intendere come fino al 50% di potenza in meno a parità di frequenza e fino al 40% di frequenza in più a parità di potenza ?

paolo.oliva2
30-11-2010, 20:42
E' chiaro che sia più semplice rendere interessante un post in cui si fanno dichiarazioni sensazionalistiche...

Certo, infatti trovo corretto fare elaborazioni delle informazioni, ma solo con basi tecniche fondate e con metodo.

Però Cionci, da quello che scrivi, uno si fa un'idea tutt'altro che obiettiva di quello che scrivo.

Ti faccio un esempio:

Io ho riportato che un BD X4 a 3,6GHz potrebbe essere 50W TDP, tu hai ribattuto di no, almeno 65W.

Bjt2, che di basi tecniche fondate ne ha da vendere, come pure di metodo, riporta che un BD X6 potrebbe essere 63,5W a 3,2GHz.

Ora... secondo te, da un BD X6 a 3,2GHz 63,5W cosa avrebbe di incredibile un BD X4, con 2 core in meno, a +400MHz con 13,5W di TDP in meno?

Ma il punto non è tanto questo, il punto è che alla fine con i miei risultati che giudichi "senza senso", "con formule sbagliate", io penso di essere ben più vicino a quanto posta Bjt2 di quanto lo sia tu. I risultati delle mie considerazioni, che fino a qui ho postato, possono essere considerati al più forse ottimistici, ma rientrano ampiamente nel margine diciamo dal probabile al possibile.

Tu invece mi descrivi come se non capisco una tozza, mi alzo la mattina e sparo la prima cosa che mi viene in mente, tipo BD X4 a 10GHz, il che a me sembra che non riflette una mazza di quello che invece scrivo. Come del resto il discorso di BD X8 a 3,5GHz 95W, tu l'hai postato come se fosse una MIA fantasia, mentre, come hai visto, di mia fantasia non c'è nulla. Addirittura, sulla tua scia, c'è chi "mi consiglierebbe" addirittura di non postare (ed è la 2a volta che scrive ciò, ed è la seconda volta che altri utenti intervengono a difendermi). A me sembra che arriviamo sul ridicolo...

Quello che realmente mi sembra ridicolo, è che ogni volta, ma proprio ogni volta, che si guarda con ottimismo AMD, si debba passare sempre per visionari, ciarlatani e fanboisti. Sono 3 discussioni a cui partecipo, in cui le mie previsioni si sono rivelate esatte e addirittura sottostimate (sempre con le mie solite formule e la mia mancanza di basi), ma ogni volta è stata sempre una 3a guerra mondiale. Questo è inconcepibile. Siamo in un TH BD, è assurdo che uno non possa postare impressioni e speranze in BD se queste sono più positive rispetto a quelle Intel.... c'è come una sorta di frontiera. Io direi, invece, che sarebbero proprio le riflessioni al limite giudicate "ottimistiche" che farebbero vivere questo TH, ma questo non ha nulla a che vedere a quello che tu reputi "dichiarazioni sensazionalistiche".

cionci
30-11-2010, 21:05
Tu invece mi descrivi come se non capisco una tozza, mi alzo la mattina e sparo la prima cosa che mi viene in mente, tipo BD X4 a 10GHz, il che a me sembra che non riflette una mazza di quello che invece scrivo.
Se leggi gli ultimi post io ho detto che non sempre scrivi cose senza senso, ma in alcuni casi ti intestardisci su calcoli che sono senza senso. Arrivando a conclusioni sensazionalistiche che fai passare come vere (mica lo fai di proposito, ci credi). Avrai ripetuto gli stessi calcoli sul TDP almeno 20 volte. Quando però ti si mette davanti ai fatti, ignori completamente quello che ti viene detto e continui a ripetere le stesse cose.
Sei arrivato a confrontare Mhz/W con i decimali...capisci ? Senza sapere ancora la potenza dissipata, le frequenze e basandoti solo su valori qualitativi rilasciati sull'incremento di performance permesso dal processo a 32 nm. Io capisco che ci possano essere delle imprecisioni, ne commetto tante anche io, però qui non c'è una imprecisione, tutto il discorso si basa su imprecisioni e valori qualitativi. Di fatto basi il tuo discorso su un ragionamento fallace e quindi anche il risultato ha pochissimo valore.
Però ripetendolo 20 volte, cambiando lievemente il risultato ogni volta, è chiaro che prima o poi ci si prenda.

Tu stesso hai preso come rifermento un X16 a 140 Watt a 3.5 Ghz, poi un X8 a 95W a 3.5 Ghz. Come può un X4 a 3.5 Ghz dissipare 50W ?

Inoltre questo vittimismo contro i cattivoni che sostengono Intel. Come te lo devo ripetere che non mi interessa niente Intel ? Ottimismo ne puoi mettere quanto ti pare, ma supportato da ragionamenti tecnici, altrimenti non è ottimismo, ma è fantasia. E' chiaro che se uno ha la presunzione di mettersi a fare calcoli, quello che dice passa da ottimismo a ragionamento tecnico, altrimenti che ce li metti a fare i calcoli ?

PS: mi date il link all'immagine di De Vries sul core Bulldozer ? Si possono fare calcoli interessanti sull'area che potrebbero avere gli X4.

Alekz
30-11-2010, 21:08
...maaaa è così difficile aspettare? :asd:

paolo.oliva2
30-11-2010, 21:28
Se leggi gli ultimi post io ho detto che non sempre scrivi cose senza senso, ma in alcuni casi ti intestardisci su calcoli che sono senza senso. Arrivando a conclusioni sensazionalistiche che fai passare come vere (mica lo fai di proposito, ci credi). Avrai ripetuto gli stessi calcoli sul TDP almeno 20 volte. Quando però ti si mette davanti ai fatti, ignori completamente quello che ti viene detto e continui a ripetere le stesse cose.
Sei arrivato a confrontare Mhz/W con i decimali...capisci ? Senza sapere ancora la potenza dissipata, le frequenze e basandoti solo su valori qualitativi rilasciati sull'incremento di performance permesso dal processo a 32 nm. Io capisco che ci possano essere delle imprecisioni, ne commetto tante anche io, però qui non c'è una imprecisione, tutto il discorso si basa su imprecisioni e valori qualitativi. Di fatto basi il tuo discorso su un ragionamento fallace e quindi anche il risultato ha pochissimo valore.
Però ripetendolo 20 volte, cambiando lievemente il risultato ogni volta, è chiaro che prima o poi ci si prenda.

Tu stesso hai preso come rifermento un X16 a 140 Watt a 3.5 Ghz, poi un X8 a 95W a 3.5 Ghz. Come può un X4 a 3.5 Ghz dissipare 50W ?

L'X16 a 140W sono i 105W ACP dei server, fonte AMD (non sono mie parole)
I 95W X8 3,5GHz sono fonte AMD (non sono mie parole).

Su queste basi, che ti posto con questa formula senza basi:

50% del TDP a parità di ardchitettura e frequenza. Quindi un ipotetico Thuban 3.2GHz a 32nm dobrebbe dissipare 62.5W. Poi sappiamo che Llano lima un altro 25% di TDP a parità di tutto e BD non dovrebbe essere da meno. Quindi un ipotetico BD X6 a 3.2GHz dovrebbe dissipare al massimo 47W circa....

Calcolando, per difetto che un X6 sia 47W/6 core = 7,8W a core x 4 core = 31,2W.

A questo si deve notare che nel calcolo approssimato sopra, il TDP dell'MC è spalmata su 6 core, mentre nell'X4 sarebbe su 4, ma questo penso sia ampiamente annullato dal fatto che BD X6 avrebbe 6MB di L3 contro i 4MB di L3 dell'X4, quindi il TDP in più dell'MC sarebbe annullato dal TDP in meno della L3.

31,2W a 3,2GHz... basterebbero 19.8W per poter "girare" a 400MHz in più (visto che per te SB con 20W TDP in meno potrebbe guadagnare 800MHz?)

Tu reputi il ragionamento/formule sbagliato, perché magari ci aggiungi di valutare il numero dei transistor con la capacità di dissipare il TDP, la superficie e quant'altro, per cosa? Per 2-3W TDP di differenza?

Io faccio un ragionamento ben più veloce: un Phenom X4 a 125W TDP a 3,2GHz C2 ha permesso un X6 a 2,8GHz a 140W TDP come D1. AMD ha dovuto aspettare l'E0 per proporre un X6 sopra i 3GHz a 125W.
A maggior ragione, senza applicare formule particolari, basta unicamente l'intuito per capire che da un BD X6 a 47W a 3,2GHz, un BD X4 a 3,6GHz a 50W è più che proponibile.

cionci
30-11-2010, 21:54
L'X16 a 140W sono i 105W ACP dei server, fonte AMD (non sono mie parole)
I 95W X8 3,5GHz sono fonte AMD (non sono mie parole).
E ridaije... X8 95W 3.5 Ghz non sono parole di AMD. Continui a ignorare quello che ti viene detto. Vedi quando dico che non stai a sentire quando le persone ti correggono.
Comunque supponendo che sia una stima corretta (partiamo da una stima è bene metterselo in mente)...

Calcoli il consumo per core: è una stima ESTREMAMENTE errata, perché il TDP non scala linearmente con i core.
Basta fare un semplice calcolo per dimostrarti che tutto quello che dici è errato:
- BD X8 95W 3.5 Ghz avrebbe 11.75 W/core
- BD X16 140W 3.5 Ghz avrebbe 8.75 W/core

E BD X4 50W 3.5 Ghz (per fare conto pari, essendo quindi conservativi) ? 12.5 W/core
E' chiaro che questo non è possibile. Minimo l'aumento dei W/core DEVE essere proporzionale al passaggio da X16 a X8. Cioè circa 15.75W/core, corrispondente ad una potenza di circa 65W.

Ora decidi: se l'X4 a 3.5 Ghz dissipa 50W...o è errata la stima del BD X16 o è errata la stima del BD X8 ;)

Ribadisco quindi che sono calcoli senza fondamento.

Edit: nota che BD X16, X8 e X4 hanno tutti il doppio delle caratteristiche dell'altro. Anzi, l'X4 mantiene il controller dual channel, quindi ha più aree in comune con l'X8.

cionci
30-11-2010, 22:01
31,2W a 3,2GHz... basterebbero 19.8W per poter "girare" a 400MHz in più (visto che per te SB con 20W TDP in meno potrebbe guadagnare 800MHz?)
Ho detto che potrebbe raggiungere i 4-4.2 Ghz, ma 20W in meno per la GPU e con un TDP ovviamente non di 95W, ma intorno 130W (il max di Intel su piattaforma enthusiast).

GT82
30-11-2010, 22:19
Visto che si parla molto di leakage vi linko un paio di pagine interessanti:

- http://codingrelic.geekhold.com/2010/08/x86-vs-arm-mobile-cpus.html

- http://asic-soc.blogspot.com/2008/03/leakage-power-trends.html


impressionanti queste due slide

http://3.bp.blogspot.com/_Se0VANaI9uM/R9zN-QzfETI/AAAAAAAAAQc/V1r5pgUAHZk/s400/leakage+vs+power.jpeg

http://2.bp.blogspot.com/_Se0VANaI9uM/R9zNLAzfEQI/AAAAAAAAAQE/i_92pbMbIXE/s400/technology+shrinking+vs+leakage+components.jpeg


se posso approfittare anche per chiedere una cosa, indietro ho letto che sui K10 l'overclock sull'NB aumenta del 7% l'IPC

vale anche sugli Athlon II senza L3?
perchè ho in mente di montarne uno su una AM2, sulla quale l'NB scenderebbe addirittura a 1600Mhz, per recuperare il default value dovrei quindi alzare la freq base a 250Mhz che mi porterebbe anche l'HT a 1250mhz contro i 2000 dei K10 su AM2+/AM3

mi interessa che non ci siamo bottleneck sui giochi e/o comunque sulla comunicazione con il chipset e di conseguenza verso e da la scheda video sul PCIExpress X16

in teoria il fatto che sui K8 i 1000Mhz dell'HT 2.0 fossero già ampiamente sovradimensionati mi fa pensare che anche sui K10 perlomeno 2/3 core non ci siano rallentamenti, sui 4/6 core avrei già dubbi

confermate?

grazie :)

capitan_crasy
30-11-2010, 22:33
http://www.pctunerup.com/up/results/_201011/20101130223316_DAILY00.jpg

cionci
30-11-2010, 22:49
http://www.pctunerup.com/up/results/_201011/20101130223316_DAILY00.jpg
:rotfl:

Mercuri0
30-11-2010, 23:00
...maaaa è così difficile aspettare? :asd:

Sì!!!!!!!!!!!!! Dopo settimane di ricerche per farmi un fisso, ho deciso che voglio un "Mac Mini" (o un dell Zino) con dentro un Llano. Anche perché così lo potrei aggiornare! (CPU+GPU in un colpo, vuoi mettere? =)

Quindi su, su, AMD muovi le chiappe!!!! :bimbo:

Visto che si parla molto di leakage vi linko un paio di pagine interessanti:
...

impressionanti queste due slide


La situazione è molto più tragica di quello che sembra, perché il consumo statico varia con la temperatura, e come hai visto è diventato preponderante.

Cioé, più un chip si scalda, più consuma, più consuma, più si scalda, più con.. bum!

Inoltre la cosa varia drammaticamente da chip a chip.

Sai che casino progettare sistemi con grossi vincoli di tdp :cry: . Anche per i piccì non si scherza: in fondo i "turbo boost" e power gating vari vengono fuori da lì: non si riesce più a garantire che le prestazioni stiano nel TDP, e quindi si vendono simil-overclock automatici - seppur controllati.

Mercuri0
30-11-2010, 23:22
il 2600 è a 95W a 3.4ghz e turbo a 3.8ghz
il 2600s è a 65w a 2.8ghz e 3.8ghz turbo

per me il tdp si riferisce alla frequenza non-turbo, e quindi il tdp può essere sforato per alcuni momenti secondo la logica della cpu


Penso sia più corretto vederlo come riferito "4 core a pieno carico senza turbo" o "2 core col turbo". Non è così che funziona il turbo, del resto?

Insumma, cambiando gli addendi, dovrebbe venire sempre più o meno il tdp, che pure è ormai un indicazione di riferimento.

Ares17
30-11-2010, 23:32
Se leggi gli ultimi post io ho detto che non sempre scrivi cose senza senso, ma in alcuni casi ti intestardisci su calcoli che sono senza senso. Arrivando a conclusioni sensazionalistiche che fai passare come vere (mica lo fai di proposito, ci credi). Avrai ripetuto gli stessi calcoli sul TDP almeno 20 volte. Quando però ti si mette davanti ai fatti, ignori completamente quello che ti viene detto e continui a ripetere le stesse cose.
Sei arrivato a confrontare Mhz/W con i decimali...capisci ? Senza sapere ancora la potenza dissipata, le frequenze e basandoti solo su valori qualitativi rilasciati sull'incremento di performance permesso dal processo a 32 nm. Io capisco che ci possano essere delle imprecisioni, ne commetto tante anche io, però qui non c'è una imprecisione, tutto il discorso si basa su imprecisioni e valori qualitativi. Di fatto basi il tuo discorso su un ragionamento fallace e quindi anche il risultato ha pochissimo valore.
Però ripetendolo 20 volte, cambiando lievemente il risultato ogni volta, è chiaro che prima o poi ci si prenda.

Tu stesso hai preso come rifermento un X16 a 140 Watt a 3.5 Ghz, poi un X8 a 95W a 3.5 Ghz. Come può un X4 a 3.5 Ghz dissipare 50W ?

Inoltre questo vittimismo contro i cattivoni che sostengono Intel. Come te lo devo ripetere che non mi interessa niente Intel ? Ottimismo ne puoi mettere quanto ti pare, ma supportato da ragionamenti tecnici, altrimenti non è ottimismo, ma è fantasia. E' chiaro che se uno ha la presunzione di mettersi a fare calcoli, quello che dice passa da ottimismo a ragionamento tecnico, altrimenti che ce li metti a fare i calcoli ?

PS: mi date il link all'immagine di De Vries sul core Bulldozer ? Si possono fare calcoli interessanti sull'area che potrebbero avere gli X4.
Hai ragione e torto contemporaneamente:
Hai ragione perchè Paolo (che comunque porta molti spunti di riflessione su BD), preso dall'entusiasmo fa proiezioni con tolleranze sempre favorevoli.
Invece hai torto perchè non sappiamo se l'x16 amd (che dovrebbe avere un'altro disegno) ha dalla sua una maggiore distanza tra i transistor rispetto ad x8 (dovrebbero essere 2 x10 con trichanel se non ricordo male) e gia questo permette di abbassare il tpd con densità su superfice leggermente minore.

cionci
30-11-2010, 23:46
Invece hai torto perchè non sappiamo se l'x16 amd (che dovrebbe avere un'altro disegno) ha dalla sua una maggiore distanza tra i transistor rispetto ad x8 (dovrebbero essere 2 x10 con trichanel se non ricordo male) e gia questo permette di abbassare il tpd con densità su superfice leggermente minore.
Che mi ricordi Interlagos si basa su un disegno MCM con due die da 8 core ciascuno. Quindi sono due Valencia X8 affiancati.

Ares17
01-12-2010, 00:17
Che mi ricordi Interlagos si basa su un disegno MCM con due die da 8 core ciascuno. Quindi sono due Valencia X8 affiancati.
Onestamente pensavo vi riferiste a bd x16 (due x10 in mcm con due core a testa disattivati).
Se il riferimento era ad Intelagos, be quel tpd non dovrebbe essere in nessun caso considerato dato che è un'architettura atipica per AMD e che probabilmente il tpd è anche sovrastimato.

cionci
01-12-2010, 02:08
Onestamente pensavo vi riferiste a bd x16 (due x10 in mcm con due core a testa disattivati).
Se il riferimento era ad Intelagos, be quel tpd non dovrebbe essere in nessun caso considerato dato che è un'architettura atipica per AMD e che probabilmente il tpd è anche sovrastimato.
Perché atipica ? E perché sovradimensionato ?
Anche per Magny Course è così, 140W di TDP e due die X6 affiancati.
In ogni caso, se fosse sovradimensionato non fai che confermare ancora di più ciò che ho scritto.

paolo.oliva2
01-12-2010, 05:48
Perché atipica ? E perché sovradimensionato ?
Anche per Magny Course è così, 140W di TDP e due die X6 affiancati.
In ogni caso, se fosse sovradimensionato non fai che confermare ancora di più ciò che ho scritto.

Perché? Se i 140W sarebbero molti, a maggior ragione i 2 proci X8 avrebbero un TDP inferiore.

Poi non tieni conto di 2 cose molto importanti:

- AMD farà un X20 nei 140W TDP, quindi questo porta comunque nella direzione di un TDP inferiore per BD e sempre sul 32nm.
- il TDP dei server è basato su un carico comunque maggiore del procio rispetto alla variante desktop. Un Opteron X4 AMD lo dava a 2,6GHz come frequenza massimo ad un TDP simile dello stesso procio dato a 3GHz nel desktop, ed è arrivata a 2,8GHz quando nel desktop si è arrivati a 3,2GHz. Un BD X16 dato a 140W TDP a 3,5GHz nel server, non escluderebbe l'ipotesi che lo stesso, se fosse venduto nel desktop, possa essere 125W alla stessa frequenza, oppure 3,6-3,7GHz allo stesso TDP, visto che le mobo AM3+ conserverebbero il supporto ai 140W.

La mia idea è che in ogni caso AMD non sia certamente al pelo di quanto può ottenere con BD e 32nm.
Se vi fossero problemi di frequenza/TDP, dovremmo assistere a proci con un numero di core superiore nel server ed inferiore nel desktop, per favorire la frequenza (chiaramente lasciando a parte il discorso di 2 die nello stesso package).
L'esacore nel desktop con il 45nm AMD l'ha proposto solamente quando è riuscita, con il 45nm low-k, ad aumentare le frequenze.
Invece, BD X10 è già annunciato anche nel desktop. Ciò vuole dire che non vi sarebbero problemi di frequenze nonostante è un X10, tanto da poter portare un X10 a frequenze comparabili con l'X8 di aprile.

Se uno unisse le varie informazioni, cosa scapperebbe fuori?

AMD progetta BD, nelle varianti X4 - X6 - X8, con MCM X12 e X16, con un silicio 32nm dato da GF per determinate caratteristiche (-50% TDP a parità di frequenza, che tu non vuoi accettare :)).

Poi si viene a sapere dal corridoio che il silicio è migliore di quanto ci si aspettasse... Solo voci? NO! Perché a seguire AMD posta slide con BD X10 e BD X20 nello stesso TDP di un BD X8-X16.

A questo punto, a me viene da pensare che tutti i nostri conteggi basati sul 50% in meno di TDP a parità di frequenza + un 15-20% in meno di TDP per l'architettura di BD, sarebbero "sballati", perché erano basati sul 50% in meno di TDP che permetteva un BD X8, annunciato da AMD/GF quando il 32nm era alle prime luci. Ma se permette ora un BD X10, come annunciato, mi sembra più che chiaro chiaro che la prospettiva iniziale di un -50% per il TDP passerebbe ad un -60% o superiore, perché non può essere altrimenti il fatto di poter aggiungere altri core. E' chiaro che se tu non accetti già ora il -50% di TDP (giudicandolo come massimo) ancor meno accetteresti un ipotetico -60%, e sarebbe una discussione infinita. Se ti ricordi, quando AMD postò la prima slide dove per BD-2 figurava un TDP inferiore, mi hai contestato perché non c'erano valori sulle assi, anche se per me era perfettamente visibile l'intenzione di far capire un TDP inferiore a parità di frequenze. Infatti poi cosa è arrivato? L'annuncio di BD X10, che altro non è la conferma alla slide precedente (che non volevi recepire).
AMD dalle slide annuncia che i BD X10 avranno la STESSA frequenza degli X8 allo STESSO TDP, ciò porta a pensare ad un BD X10 a 3,5GHz a 95W TDP.
Non è discorso di essere negativi o positivi o fantascienza, ma solo di accettare le informazioni che ci arrivano, supportate dal fatto che già di per sé un BD X10 rappresenterebbe un salto in meglio del 20% nel TDP.

Edit:
Nel discorso X4-X10, io rifletto su una cosa:
attualmente, nel 45nm, AMD ha X2, X4 e X6. Quindi vede un rapporto per un X2 di 1:2 verso un X4 e 1:3 verso un X6.
Con BD, lo stesso rapporto di un X2 sul 45nm, lo avremmo quasi con un X4, che avrebbe 1:2 verso un X8 e 1:2,5 verso un X10.
Se vediamo il TDP di un X2 45nm rapportato ad un X4 e X6 sempre sul 45nm, possiamo immaginare e bene che un BD X4 sul 32nm, rapportato a BD X6-X8-X10, dovrebbe avere circa lo stesso scarto, cioè viaggiare su differenze di TDP rispetto a proci superiori, quasi come un X2 odierno, ma stiamo parlando di un X4.
Facendo un confronto di numero core massimi, vediamo che AMD produrrebbe un numero di core a die sul 32nm uguale a quello che Intel riuscirà a realizzare, ma sul 22nm. Con questo non è possibile sapere se 8 core di un SB equivalgano in potenza un BD X10, però mi pare più che chiaro che comunque a parità di core un BD per forza di cose deve avere un TDP inferiore a SB, e nel confronto SB X4 --> BD X4, è una logica conseguenza che BD abbia un TDP inferiore, rinforzato comunque dal fatto che AMD assegnerebbe una frequenza iniziale di 3,5GHz a BD. Tra l'altro, visto che gli X8 partirebbero dai 95W, non è addirittura escluso che un BD X4 arrivi a TDP stock da 65W (visto che il 65W è il gradino inferiore del 95W in AMD).
La cosa affascinante è supporre a che frequenza un BD X4 potrebbe arrivare, con quel margine di TDP.

checo
01-12-2010, 08:22
secondo me un BD 8x avrà

TDP compreso tra 65 e 125W
frequeenza tra i 3 e 4,5ghz

scommettiamo che ci indovino?
i calcoli ve li risparmio perchè li ho fatti elaborare al mio Cray.

paolo.oliva2
01-12-2010, 08:37
secondo me un BD 8x avrà

TDP compreso tra 65 e 125W
frequeenza tra i 3 e 4,5ghz

scommettiamo che ci indovino?
i calcoli ve li risparmio perchè li ho fatti elaborare al mio Cray.

E' una tua ipotesi, che io non condivido (AMD avrebbe annunciato frequenze a partire da 3,5GHz, quindi 3GHz è troppo bassa... idem 65W per un X8 da desktop non avrebbe senso, perché avrebbe un rapporto migliore un X6 a frequenza maggiore, al limite) ma la rispetto.

checo
01-12-2010, 08:49
E' una tua ipotesi, che io non condivido (AMD avrebbe annunciato frequenze a partire da 3,5GHz, quindi 3GHz è troppo bassa... idem 65W per un X8 da desktop non avrebbe senso, perché avrebbe un rapporto migliore un X6 a frequenza maggiore, al limite) ma la rispetto.

una versione low power a frequenza ridotta non la consideri?
vedremo, quello che volevo dire che che man mano che passa il tempo la forbice di ipotesi aumenta, ergo una per forza sarà quella giusta.

cionci
01-12-2010, 09:07
Perché? Se i 140W sarebbero molti, a maggior ragione i 2 proci X8 avrebbero un TDP inferiore.
- AMD farà un X20 nei 140W TDP, quindi questo porta comunque nella direzione di un TDP inferiore per BD e sempre sul 32nm.
- il TDP dei server è basato su un carico comunque maggiore del procio rispetto alla variante desktop. Un Opteron X4 AMD lo dava a 2,6GHz come frequenza massimo ad un TDP simile dello stesso procio dato a 3GHz nel desktop, ed è arrivata a 2,8GHz quando nel desktop si è arrivati a 3,2GHz. Un BD X16 dato a 140W TDP a 3,5GHz nel server, non escluderebbe l'ipotesi che lo stesso, se fosse venduto nel desktop, possa essere 125W alla stessa frequenza, oppure 3,6-3,7GHz allo stesso TDP, visto che le mobo AM3+ conserverebbero il supporto ai 140W.
Appunto. Potenza inferiore, il che implica rapporto W/core minore di 8.75, il che implica un divario maggiore dall'X8 a 95W, il che implica che l'X4 consumerà più di 15.75 W/core. Rileggi il mio ragionamento. Dimmi cosa non ti torna perché non mi sembra che tu abbia replicato ad un punto di quello che ho detto.

Non penso comunque che sarà così: ricordiamoci che c'è anche il Low-k che probabilmente verrà aggiunto alla seconda generazione di BD a 32 nm.
La mia idea è che in ogni caso AMD non sia certamente al pelo di quanto può ottenere con BD e 32nm.
Se vi fossero problemi di frequenza/TDP, dovremmo assistere a proci con un numero di core superiore nel server ed inferiore nel desktop, per favorire la frequenza (chiaramente lasciando a parte il discorso di 2 die nello stesso package).
Cosa vuol dire "problemi di frequenza/TDP" ?
Per il resto: assolutamente no, nei core server storicamente si preferisce un numero di core maggiore con cache maggiori alla frequenza. Vedere le soluzioni Intel.
L'esacore nel desktop con il 45nm AMD l'ha proposto solamente quando è riuscita, con il 45nm low-k, ad aumentare le frequenze.
L'X10 BD infatti uscirà probabilmente solo con il low-k :p
AMD progetta BD, nelle varianti X4 - X6 - X8, con MCM X12 e X16, con un silicio 32nm dato da GF per determinate caratteristiche (-50% TDP a parità di frequenza, che tu non vuoi accettare :)).
Rileggi tutto quello che ho scritto qui e dimmi dove sbaglio: http://www.hwupgrade.it/forum/showthread.php?p=33797255#post33797255
Rileggi tutto quello che ho scritto qui e dimmi dove sbaglio: http://www.hwupgrade.it/forum/showpost.php?p=33801855&postcount=5868
Perché non puoi dire che io non voglio accettare la cosa. Io ho spiegato perché generalmente la cosa non funziona così. Ricordati che non c'era alcun riferimento ad una CPU o ad un circuito quando AMD ha tirato fuori quella percentuale. Quindi è da intendersi come "fino al".
Come vedi questo modo di riferirsi è stato usato anche per i 22nm bulk. Chiaramente se un PR facesse una slide per parlare ad un pubblico, si scorderebbe tranquillamente quel "up to", visto che fa più effetto.
Giusto per capire come PER TUTTI i produttori ci si riferisca ad un "fino al" con queste percentuali:
- http://www.tomshardware.co.uk/IBM-32nm-Chips,news-27969.html
- http://alienbabeltech.com/main/?p=11603
Poi si viene a sapere dal corridoio che il silicio è migliore di quanto ci si aspettasse... Solo voci? NO! Perché a seguire AMD posta slide con BD X10 e BD X20 nello stesso TDP di un BD X8-X16.
Non consideri il probabile uso del low-k di seconda generazione e un possibile retape out della CPU per correggerla e migliorarla.
Chi ti ha detto che non fossero già previsti X10 e X20 ? Come con Thuban sono passati da X4 a X6, possono tranquillamente passa da X8 a X10 con la seconda generazione di Bulldozer.
rinforzato comunque dal fatto che AMD assegnerebbe una frequenza iniziale di 3,5GHz a BD.
Il solito errore: non sai quale sarà la frequenza iniziale che AMD assegnerà a BD. Sono solo supposizioni. Mai AMD ha detto che la frequenza iniziale di BD sarà 3.5 Ghz. Probabilmente lo sarà, ma non dare per certe cose che non conosci. Mi spieghi perché non lo vuoi accettare ? :Prrr:

Insomma sei riuscito a ributtare dentro tutto un minestrone senza rispondere alla precisa questione che ti avevo proposto qui: http://www.hwupgrade.it/forum/showpost.php?p=33803208&postcount=5876

bjt2
01-12-2010, 09:32
Ok, ma secondo te allora i dati rilasciati sul 32nm rispetto al 45nm non si devono intendere come fino al 50% di potenza in meno a parità di frequenza e fino al 40% di frequenza in più a parità di potenza ?

Certo, non ho mai affermato il contrario... :) Infatti il caso BULK è particolare. In quel caso i miglioramenti sono maggiori perchè senza SOI il leackage è maggiore e con HKMG si può ridurre la tensione e quindi ridurre esponenzialmente il leackage. Con il SOI il leackage è già basso. Ridurre la tensione lo riduce ulteriormente ma il contributo non è così preponderante come il bulk. Infatti vediamo che per tenere sotto controllo il leackage, il BULK deve lavorare con tensioni bassissime: 0.9-1.1V, mentre con il SOI ci si può spingere anche a 1.3V...

(scusa se ti ho risposto solo ora, ma a casa ho l'ADSL k.o.)

mtk
01-12-2010, 09:36
comunque a forza di "scornarvi",che vi piaccia o meno,state fornendo buone informazioni generali sui proci e su BD.......molte ipotesi,certo,ma comunque interessanti.
spero che il sior capitano resista fino alla presentazione senza incorrere in un ulcera :asd:

bjt2
01-12-2010, 09:39
[imghttp://www.pctunerup.com/up/results/_201011/20101130223316_DAILY00.jpg[/img]

AGGINGO che ti sei scordato il 25% in meno per l'architettura BD... :O

cionci
01-12-2010, 09:41
Bjt2: tu sicuramente ce l'avrai: mi riposteresti il link all'immagine di De Vries che rielabora il die shot di Bulldozer X8 ? Da quello si può calcolare con buona precisione il numero di transistor di BD X4 e X6.

bjt2
01-12-2010, 09:49
Perché? Se i 140W sarebbero molti, a maggior ragione i 2 proci X8 avrebbero un TDP inferiore.

Poi non tieni conto di 2 cose molto importanti:

CUT

Le CPU server devono essere più affidabili. Hanno die selezionati e/o VCore maggiori, quindi per essere entro il TDP devono avere frequenze inferiori. L'X16 3.5GHz 140W e l'X8 3.5GHz 95W non sono compatibili tra loro. Uno dei due deve avere frequenze diverse. Non sappiamo se i 500MHz di turbo si riferiscono all'X16, perchè furbescamente JF-AMD non ha risposto. Se fosse così, una frequenza base di 3GHz sarebbe troppo bassa per 500MHz di turbo (il +16%!), mentre se fosse riferito all'X8, sarebbe simile all'affermazione ipotetica che fece nel forum di AMD Zone di un X8 a 3.5GHz con 500MHz di turbo (senza specificare il TDP)...

bjt2
01-12-2010, 09:51
Bjt2: tu sicuramente ce l'avrai: mi riposteresti il link all'immagine di De Vries che rielabora il die shot di Bulldozer X8 ? Da quello si può calcolare con buona precisione il numero di transistor di BD X4 e X6.

Mi ricordavo di averlo cercato ieri per vedere il numero di transistors stimati dell'X8 (1.6 miliardi)... Eccolo: http://www.hwupgrade.it/forum/showpost.php?p=33754793&postcount=5675

bjt2
01-12-2010, 09:58
Il solito errore: non sai quale sarà la frequenza iniziale che AMD assegnerà a BD. Sono solo supposizioni. Mai AMD ha detto che la frequenza iniziale di BD sarà 3.5 Ghz. Probabilmente lo sarà, ma non dare per certe cose che non conosci. Mi spieghi perché non lo vuoi accettare ? :Prrr:

Insomma sei riuscito a ributtare dentro tutto un minestrone senza rispondere alla precisa questione che ti avevo proposto qui: http://www.hwupgrade.it/forum/showpost.php?p=33803208&postcount=5876

Beh, all'ISSC 2010 AMD ha presentato un paper su Llano dove specifica frequenze di 3GHz+. Ora sapendo i TDP e i modelli, è presumibile che i 3GHz siano per il modello base, visto che si vociferano anche 4GHz.
All'ISSC 2011 AMD ha presentato un paper su BD dove specifica 3.5GHz+. Se il margine che indicano è lo stesso dell'anno precedente, si può dedurre che 3.5GHz sia la frequenza base... Se consideri che stiamo confrontando quattro core Llano con in più 480SP di scheda grafica, che partono da 3GHz, non vedo perchè una CPU BD senza i 480SP e possibilmente migliorata non possa partire da 3.5GHz... :)

cionci
01-12-2010, 10:05
Mi ricordavo di averlo cercato ieri per vedere il numero di transistors stimati dell'X8 (1.6 miliardi)... Eccolo: http://www.hwupgrade.it/forum/showpost.php?p=33754793&postcount=5675
Ottimo, da questo si potrebbe capire la superficie di un X4: 320 mm2 - 2*30,9 mm2 - 4 * 3.85 mm2 = circa 240 mm2
Il numero di transistor è quindi molto più vicino a 3/4 dell'X8 che a 1/2. Quindi diventa chiaro che passando da un X8 a 95W a un X4, la potenza dissipata sarà impossibile che sia 50W. 3/4 di 95W corrisponderebbe a 71W, quindi tenendo in considerazione che i core rappresentano degli hot spot e come tali consumano di più, quindi in media il consumo per area sarà minore, bisogna abbassare di un bel po' questi 71W.
Giudicare quindi una potenza di circa 60W e un TDP di 65W, a pari frequenza con un X8 da 95W (indipendentemente da quel sia questa frequenza), mi sembra assolutamente plausibile. E' invece inverosimile la stima di 50W.

cionci
01-12-2010, 10:11
Beh, all'ISSC 2010 AMD ha presentato un paper su Llano dove specifica frequenze di 3GHz+. Ora sapendo i TDP e i modelli, è presumibile che i 3GHz siano per il modello base, visto che si vociferano anche 4GHz.
All'ISSC 2011 AMD ha presentato un paper su BD dove specifica 3.5GHz+. Se il margine che indicano è lo stesso dell'anno precedente, si può dedurre che 3.5GHz sia la frequenza base... Se consideri che stiamo confrontando quattro core Llano con in più 480SP di scheda grafica, che partono da 3GHz, non vedo perchè una CPU BD senza i 480SP e possibilmente migliorata non possa partire da 3.5GHz... :)
Llano parte da 3 Ghz ? Non mi risulta. E le versioni notebook partano da 3 Ghz ?
Senza considerare che se anche indicasse la frequenza di partenza, da nessuna parte è specificato il numero di core e il TDP.
Siamo d'accordo che sia verosimile, ma non che sia ufficiale ed un valore da dare come annunciato da AMD (come scrive Paolo).

bjt2
01-12-2010, 10:24
Ottimo, da questo si potrebbe capire la superficie di un X4: 320 mm2 - 2*30,9 mm2 - 4 * 3.85 mm2 = circa 240 mm2
Il numero di transistor è quindi molto più vicino a 3/4 dell'X8 che a 1/2. Quindi diventa chiaro che passando da un X8 a 95W a un X4, la potenza dissipata sarà impossibile che sia 50W. 3/4 di 95W corrisponderebbe a 71W, quindi tenendo in considerazione che i core rappresentano degli hot spot e come tali consumano di più, quindi in media il consumo per area sarà minore, bisogna abbassare di un bel po' questi 71W.
Giudicare quindi una potenza di circa 60W e un TDP di 65W, a pari frequenza con un X8 da 95W (indipendentemente da quel sia questa frequenza), mi sembra assolutamente plausibile. E' invece inverosimile la stima di 50W.

Concordo.

Llano parte da 3 Ghz ? Non mi risulta. E le versioni notebook partano da 3 Ghz ?
Senza considerare che se anche indicasse la frequenza di partenza, da nessuna parte è specificato il numero di core e il TDP.
Siamo d'accordo che sia verosimile, ma non che sia ufficiale ed un valore da dare come annunciato da AMD (come scrive Paolo).

La versione notebook ha tdp di 20W ma, mi pare, 2 cores e 240SP a frequenza ridotta. Concordo comunque che sia improbabile che abbia 3GHz di frequenza base. 3Ghz penso sia la versione desktop con 89 o 95W di TDP. Li c'è ampio margine per avere 3GHz o più su 4 cores... Un athlon II X4 in 45W va a 2.4GHz... 3GHz sono solo il 25% in più...

checo
01-12-2010, 11:18
Un athlon II X4 in 45W va a 2.4GHz... 3GHz sono solo il 25% in più...

cghe potrebbero voler dire 50% in più di consumi senza contare la gpu

bjt2
01-12-2010, 12:46
cghe potrebbero voler dire 50% in più di consumi senza contare la gpu

Considerando il miglioramento del 50% del TDP del solo processo più un 25% dovuto alle modifiche architetturali a Llano, credo che supereremo abbondantemente i 3GHz... :)

E per la questione GPU ho supposto 45W per le CPU e 45W per le GPU...

dark.halo
01-12-2010, 13:54
Io non penso che la gpu consumi così tanto...
Per me non avrà più di 25W di tdp considerando che una gpu completa come la Mobility Radeon hd5770 ha 30w di tdp a 40nm bulk.

627 milioni di transistor da 40 nm
400 unità di elaborazione dei flussi
20 unità texture
32 unità Z/Stencil ROP
8 unità Color ROP
Velocità clock motore: 650 MHz
Potenza di calcolo (precisione singola): 520 gigaflop
Throughput poligonale: 650M poligoni/sec
Velocità di fetch dati (32 bit) 52 miliardi di fetch/sec
Velocità di riempimento texel (bilineare filtrato): 13 gigatexel/sec
Velocità di riempimento pixel: 5,2 gigapixel/sec
Velocità di riempimento pixel con anti-aliasing: 20,8 gigasample/sec
Velocità di clock memoria: GDDR5 a 800 MHz
Velocità dati memoria: GDDR5 a 3,2 Gbps
Larghezza di banda della memoria: 51,2 GB/sec
TDP: 30 watt

paolo.oliva2
01-12-2010, 14:02
Le CPU server devono essere più affidabili. Hanno die selezionati e/o VCore maggiori, quindi per essere entro il TDP devono avere frequenze inferiori. L'X16 3.5GHz 140W e l'X8 3.5GHz 95W non sono compatibili tra loro. Uno dei due deve avere frequenze diverse. Non sappiamo se i 500MHz di turbo si riferiscono all'X16, perchè furbescamente JF-AMD non ha risposto. Se fosse così, una frequenza base di 3GHz sarebbe troppo bassa per 500MHz di turbo (il +16%!), mentre se fosse riferito all'X8, sarebbe simile all'affermazione ipotetica che fece nel forum di AMD Zone di un X8 a 3.5GHz con 500MHz di turbo (senza specificare il TDP)...

Si, si.

Però quello che intendevo io, a prescindere dalla specifica di progetto:
metto frequenze e TDP a caso.
Partiamo che un BD X8 sia identico come server che come desktop.
Supponiamo che AMD si sbottoni e che dica "abbiamo un BD X8 a 4GHz a 105W ACP". Questo corrisponderebbe a 140W TDP nel desktop.

Però, non possiamo dire che un BD X8 sarà 140W a 4GHz nel desktop, appunto perché la "selezione", il Vcore e quant'altro, elevano il TDP a scapito della frequenza. In poche parole, un X8 a 4GHz 140W in server, potrebbe essere alle stesse frequenze ma a 125W nel desktop. In pratica, il desktop lascia spazio a TDP inferiori per le stesse frequenze oppure a frequenze maggiori allo stesso TDP.

capitan_crasy
01-12-2010, 14:17
L'X10 BD infatti uscirà probabilmente solo con il low-k :p


mmmh...
Direi di no, nel senso che Ultra Low-K non è indispensabile per i 10 core AMD; non ci dimentichiamo che GF aveva già annunciato da largo tempo l'utilizzo del Ultra Low-K con i 32nm SOI...


Non consideri il probabile uso del low-k di seconda generazione e un possibile retape out della CPU per correggerla e migliorarla.
Chi ti ha detto che non fossero già previsti X10 e X20 ? Come con Thuban sono passati da X4 a X6, possono tranquillamente passa da X8 a X10 con la seconda generazione di Bulldozer.


Dei 10 core ero (quasi) sicuro già da più di 6 mesi; non è detto che i 12 core BD nativi siano solo a 22nm...:)

checo
01-12-2010, 14:34
Considerando il miglioramento del 50% del TDP del solo processo più un 25% dovuto alle modifiche architetturali a Llano, credo che supereremo abbondantemente i 3GHz... :)

E per la questione GPU ho supposto 45W per le CPU e 45W per le GPU...


a adesso sommiamo 50% e 25% togliamo magari la gpu e va a finire che ste cpu producono energia elettrica al posto di conumarne

marchigiano
01-12-2010, 14:34
Penso sia più corretto vederlo come riferito "4 core a pieno carico senza turbo" o "2 core col turbo". Non è così che funziona il turbo, del resto?

Insumma, cambiando gli addendi, dovrebbe venire sempre più o meno il tdp, che pure è ormai un indicazione di riferimento.

il turbo 2 di intel (e probabilmente di amd) permette di sforare il tdp

http://www.anandtech.com/show/3922/intels-sandy-bridge-architecture-exposed/7

Sandy Bridge takes advantage of this by allowing the PCU to turbo up active cores above TDP for short periods of time (up to 25 seconds)

paolo.oliva2
01-12-2010, 14:37
ricordiamoci che c'è anche il Low-k che probabilmente verrà aggiunto alla seconda generazione di BD a 32 nm.
Comunque sono stato uno dei primi a supporre il low-k in un 2° tempo :)
Onestamente... c'è troppo salto tra BD1 e 2... contando che non penso cambino qualcosa nell'architettura, uno step di silicio a trattamenti pari mi sembra conceda troppo.

Cosa vuol dire "problemi di frequenza/TDP" ?
Con "problemi di frequenza/TDP", io intendo che un procio desktop, dovrebbe avere una frequenza di almeno 3GHz (diciamo a IPC "normale", un i7/SB, avendo un IPC superiore, non rientra in questo ragionamento).
Cosa succede? AMD non ha potuto portare un X6 nel desktop prima dell'E0, appunto perché era 140W a 2,8GHz.
Per lo stesso ragionamento, un BD X10 se avesse frequenze basse, non sarebbe un procio da desktop, dove la frequenza conta molto di più del numero di core/TH, mentre nel server è il contrario.

Per il resto: assolutamente no, nei core server storicamente si preferisce un numero di core maggiore con cache maggiori alla frequenza. Vedere le soluzioni Intel.
Lascia perdere Intel, stiamo parlando di AMD, Intel ha sempre cache industriali, ma non lo fa per stile, visto che aumenta la grandezza del die e conseguentemente i costi di produzione, evidentemente è costretta per altri motivi.
Un D1 X6 Opteron, ha la stessa chache del Thuban desktop, come del resto un BD X4-X6 e X8, hanno cache uguali sia per versioni server che desktop. Sono solo gli MCM che raddoppiano la L3, ma solo perché raddoppiano i die.

Perché non puoi dire che io non voglio accettare la cosa. Io ho spiegato perché generalmente la cosa non funziona così. Ricordati che non c'era alcun riferimento ad una CPU o ad un circuito quando AMD ha tirato fuori quella percentuale. Quindi è da intendersi come "fino al".

Stiamo parlando di architettura BD e possibilità di BD?
Ora... non capisco perchè impuntarsi sul 50%, se si dovrebbe interpretare fino al 50% o dal 50%, quando sappiamo benissimo che questo dato cambierà del 20% (a caso) come AMD implementerà il low-k?

Stiamo valutando SB senza APU? Valutiamo pure BD senza ULK e con ULK.

Quando AMD avrà il low-k? AMD lo fissa per il 2012, ma non ha senso un 32nm con ultra low k a metà 2012, in quanto sappiamo che nel 2013 si sarà il 22nm, quindi per forza e per logica, dovrebbe essere agli inizi del 2012, coerente con un periodo di 6 mesi da step a step.
Se ciò si verificasse, Intel ancora non avrebbe il 22nm, o perlomeno non in quantità tali da avere una produzione con modelli tali da riempire l'intera gamma.
SB X6 e X8 non andrebbero a scontrarsi con BD-2?

Allora perché considerare solamente BD1 vs SB?

Tra parentesi... io penso che per il 32nm HKMG ULK ad AMD per proporlo direttamente all'uscita, sarebbero occorsi altri 3-4 mesi. Però, AMD, vedendo che il 32nm HKMG superava i requisiti da "lei" imposti per partire con la produzione, ha giudicato più conveniente partire con 32nm HKMG senza ULK anziché aspettare. Da qui il mio pensiero che il tempo tra 32nm HKMG e 32nm HKMG ULK sarebbe minimo, poco più di 6 mesi (ce ne sarebbero 8 da aprile al 1° gennaio 2012)

cionci
01-12-2010, 15:00
Vedo che hai continuato ad ignorare la parte saliente del messaggio :rolleyes: Stai facendo i salti mortali pur di ammettere che avevo ragione. Ci rinuncio...
E comunque BD2 non è quello che uscirà nel 2012, ma nel 2013.

cionci
01-12-2010, 15:05
Io non penso che la gpu consumi così tanto...
Per me non avrà più di 25W di tdp considerando che una gpu completa come la Mobility Radeon hd5770 ha 30w di tdp a 40nm bulk
Anche secondo me siamo sui 25W, forse addirittura meno. Bisogna considerare che nel TDP della scheda discreta è considerata sia la Ram che tutta la board. Componenti di cui in Llano non ci dovremo preoccupare.

capitan_crasy
01-12-2010, 15:46
Vedo che hai continuato ad ignorare la parte saliente del messaggio :rolleyes: Stai facendo i salti mortali pur di ammettere che avevo ragione. Ci rinuncio...
E comunque BD2 non è quello che uscirà nel 2012, ma nel 2013.

In roadmap AMD ha specificato che nel 2012 Komodo/Sepang/Terraman e i core X86 di Trinity saranno basati su Bulldozer di seconda generazione...
Quello che bisognerà appurare è se nel 2013 ci sarà il die shrink BD a 22nm oppure un altro aggiornamento all'architettura o forse una nuova...

cionci
01-12-2010, 16:02
In roadmap AMD ha specificato che nel 2012 Komodo/Sepang/Terraman e i core X86 di Trinity saranno basati su Bulldozer di seconda generazione...
http://www.xbitlabs.com/images/news/2010-11/amd_bulldozer_multiyear_roadmap_nov2010.jpg

checo
01-12-2010, 16:06
http://www.xbitlabs.com/images/news/2010-11/amd_bulldozer_multiyear_roadmap_nov2010.jpg
da questo grafico si capisce che il prossimo step avrà tdp minore del 50% o potenza doppia a parità di tdp :asd:

sarà mica questo il grafico che usate per fare i conti sul tdp vero?

capitan_crasy
01-12-2010, 16:13
http://www.xbitlabs.com/images/news/2010-11/amd_bulldozer_multiyear_roadmap_nov2010.jpg

http://www.pctunerup.com/up/results/_201012/20101201161119_desktop_rmap_BD2.jpg

La Seconda generazione di BD sarà nel 2012, mentre Bobcat dovrebbe essere un "semplice" die shrink a 28nm...

cionci
01-12-2010, 16:16
http://www.worldhostingdays.com/downloads/2010/hS2a1.pdf

Pagina 13

Da cui si capisce che le altre slide a cui si fa riferimento a "Next generation Bulldozer" per Sepang, Trinity, Terramar & C. sono errate ;) Le slide sono firmate da JF in persona (prima pagina).
In sostanza in ambito server sembra che AMD voglia adottare una strategia di questo tipo:
- la nuova architettura che esce va sulla piattaforma vecchia
- poi una versione rivista dell'architettura va su una piattaforma nuova
e così via.

matt92tau
01-12-2010, 16:17
[img http://www.pctunerup.com/up/results/_201011/20101130223316_DAILY00.jpg[/img]

:rotfl: :rotfl: :rotfl: The Best

cionci
01-12-2010, 16:23
http://www.worldhostingdays.com/downloads/2010/hS2a1.pdf

Pagina 13

Da cui si capisce che le altre slide a cui si fa riferimento a "Next generation Bulldozer" per Sepang, Trinity, Terramar & C. sono errate ;) Le slide sono firmate da JF in persona (prima pagina).
In sostanza in ambito server sembra che AMD voglia adottare una strategia di questo tipo:
- la nuova architettura che esce va sulla piattaforma vecchia
- poi una versione rivista dell'architettura va su una piattaforma nuova
e così via.
Rileggendo questa cosa potrebbe riguardare solo i server, mentre Trnity e Komodo potrebbero effettivamente essere Bulldozer NG. Infatti hanno la GPU integrata.

capitan_crasy
01-12-2010, 16:25
http://www.worldhostingdays.com/downloads/2010/hS2a1.pdf

Pagina 13

Da cui si capisce che le altre slide a cui si fa riferimento a "Next generation Bulldozer" per Sepang, Trinity, Terramar & C. sono errate ;) Le slide sono firmate da JF in persona (prima pagina).
In sostanza in ambito server sembra che AMD voglia adottare una strategia di questo tipo:
- la nuova architettura che esce va sulla piattaforma vecchia
- poi una versione rivista dell'architettura va su una piattaforma nuova
e così via.

Mi spiace cionci ma AMD non ha sbagliato a scrivere... :asd:

http://www.pctunerup.com/up/results/_201011/20101128145928_ScreenHunter_100.jpg

Clicca qui... (http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9Njk3NDJ8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1)

Inoltre il tuo documento linkato è :old: in quanto è datato 12.10.09...:read:

cionci
01-12-2010, 16:33
Mi spiace cionci ma AMD non ha sbagliato a scrivere... :asd:
Da qualche parte ha sbagliato a scrivere...o qui (http://www.pctunerup.com/up/results/_201012/20101201161119_desktop_rmap_BD2.jpg) o qui (http://www.xbitlabs.com/images/news/2010-11/amd_bulldozer_multiyear_roadmap_nov2010.jpg). Visto che da una parta mette Bulldozer NG per il 2013, mentre dall'altra parte lo mette nel 2012 ;)

paolo.oliva2
01-12-2010, 16:47
Scusa Cionci, ma se BD NG è previsto con il 22nm, ed il 22nm è previsto nel 2013, come cacchio ci può essere BD-2 nel 2013 ancora con il 32nm?
La road map AMD è su 3 anni, 2011, 2012 e 2013

2011 BD X4-X6-X8 con 32nm HKMG (forse ULK)
2012 BD-2 X4-X6-X8-X10 con 32nm HKMG ULK
2013 BD NG sul 22nm.

Non facciamo un altro 50%...

cionci
01-12-2010, 16:58
Scusa Cionci, ma se BD NG è previsto con il 22nm, ed il 22nm è previsto nel 2013, come cacchio ci può essere BD-2 nel 2013?
Appunto, visto che BD NG = BD 2 quello che mi domandavo io era proprio quello: come può essere previsto per il 2012 ?
Io credevo (avendo visto quella slide e quella presentazione) che Terramar, Sepang, Komodo etc, visto che sono previsti per il 2012, fossero un nuovo step di BD con qualche miglioramento (questo Enanched BD previsto dalla slide). Invece a quanto sembra sono BD NG.
Ora quello che mi viene in mente è che abbiano semplicemente cambiato le sigle: Enanched BD è diventato BD NG. BD NG sarà diventato BD 2 ?
Dico questo perché in BD 2 sembra che siano incluse anche nuove istruzioni: http://www.xbitlabs.com/news/cpu/display/20101105230927_AMD_s_Bulldozer_2_Set_to_Support_New_Extensions.html
2011 BD X4-X6-X8 con 32nm HKMG (forse ULK)
2012 BD-2 X4-X6-X8-X10 con 32nm HKMG ULK
2013 BD NG sul 22nm.

Ma l'hai letta almeno una slide ? :asd: BD 2 per i prodotti del 2012 lo usi solo te. E' stato usato Enanched BD in una slide, ma nelle altre è stato chiamato BD NG.

capitan_crasy
01-12-2010, 17:04
Appunto, visto che BD NG = BD 2 quello che mi domandavo io era proprio quello: come può essere previsto per il 2012 ?
Io credevo (avendo visto quella slide e quella presentazione) che Terramar, Sepang, Komodo etc, visto che sono previsti per il 2012, fossero un nuovo step di BD con qualche miglioramento (questo Enanched BD previsto dalla slide). Invece a quanto sembra sono BD NG.
Ora quello che mi viene in mente è che abbiano semplicemente cambiato le sigle: Enanched BD è diventato BD NG. BD NG sarà diventato BD 2 ?
Dico questo perché in BD 2 sembra che siano incluse anche nuove istruzioni: http://www.xbitlabs.com/news/cpu/display/20101105230927_AMD_s_Bulldozer_2_Set_to_Support_New_Extensions.html

Non ho ancora informazioni su BD next generation, si parla di nuove istruzioni, aumento dei moduli o dei core, ma nulla di più...
Quello sicuro è il controller PCI-Express 3.0 integrato nel DIE, forse per AMD questo basta per classificarlo come BD2...

bjt2
01-12-2010, 18:10
a adesso sommiamo 50% e 25% togliamo magari la gpu e va a finire che ste cpu producono energia elettrica al posto di conumarne

Scusa, ma da dichiarazioni ufficiali si ha un miglioramento del 50+25%. Partendo da un Athlon II X4 2.4GHz 45W, anche volendo fare i pessimisti e dire che architettura e nuovo processo danno un 40%, 3GHz sono solo il 25% in più... Se poi consideri il post di sopra dove la GPU potrebbe essere meno di 30W...

paolo.oliva2
01-12-2010, 19:32
Ma l'hai letta almeno una slide ? :asd: BD 2 per i prodotti del 2012 lo usi solo te. E' stato usato Enanched BD in una slide, ma nelle altre è stato chiamato BD NG.
:confused:

Mi sembra più che evidente comunque che quello che tu consideri per il 2013 è per il 2012, quindi io nel post precedente non ho sbagliato nulla nella scaletta, no? A parte i nomi nuovi, in cui io fatico non poco ad incamerare.
Tra BD sul 22nm previsto per il 2013 e BD che esce nel 2011, il nuovo BD X10 lo vorrai mettere nel 2012, o vogliamo arrivare al 2016?

Mercuri0
01-12-2010, 19:36
il turbo 2 di intel (e probabilmente di amd) permette di sforare il tdp

http://www.anandtech.com/show/3922/intels-sandy-bridge-architecture-exposed/7

Così è un pò una sola: magari non fa male, ma non pagherei per averla.

Spero che la cosa non comprometta la vecchia modalità: per le applicazioni per cui vorrei avere capacità di calcolo, la voglio sostenuta e affidabile (processing audio, video, videogiochi).

Ci manca che la CPU si metta a fare il throtthling tra un frame e l'altro.

Anche secondo me siamo sui 25W, forse addirittura meno. Bisogna considerare che nel TDP della scheda discreta è considerata sia la Ram che tutta la board. Componenti di cui in Llano non ci dovremo preoccupare.

Meno! direi 20 al max. Non c'è la GDDR5 (quindi è dalle parti della 5570 o 5670M.) e c'è la RAM e il controller RAM condiviso: Con tutti i contro del caso.

Certo poi bisogna vedere come esce la GPU su SOI ad AMD, che sarà la prima volta :D

paolo.oliva2
01-12-2010, 19:42
Non ho ancora informazioni su BD next generation, si parla di nuove istruzioni, aumento dei moduli o dei core, ma nulla di più...
Quello sicuro è il controller PCI-Express 3.0 integrato nel DIE, forse per AMD questo basta per classificarlo come BD2...

Io penso che AMD di carne al fuoco ne abbia parecchia.
A me sembra che abbia più soluzioni, poi tutto dipenderà dal mercato.

Ad esempio, quella delle nuove istruzioni, da qualche parte avevo letto che comunque ci sarebbe bisogno di supporto del software... quindi è sempre una carta da giocare secondo come rispondono le software-house.

Altro esempio è l'APU intesa come Fusion... penso come sopra.

Poi dipende cosa metterà in campo Intel, nel senso che se IB + 22nm saranno competitivi, e il mercato software non sia in grado di sfruttare un'APU, allora ogni minimo W TDP sarà meglio sfruttarlo per i core, inteso come frequenza.

2-3 anni sono un lasso di tempo troppo grande per avere una road-map precisa, almeno nelle scelte da mettere in campo.

cionci
01-12-2010, 19:46
:confused:

Mi sembra più che evidente comunque che quello che tu consideri per il 2013 è per il 2012, quindi io nel post precedente non ho sbagliato nulla nella scaletta, no? A parte i nomi nuovi, in cui io fatico non poco ad incamerare.
Tra BD sul 22nm previsto per il 2013 e BD che esce nel 2011, il nuovo BD X10 lo vorrai mettere nel 2012, o vogliamo arrivare al 2016?
Certo che lo metto nel 2012. Il fatto è che quello che tu chiami BD 2 nelle slide viene chiamato una volta Enanched BD e nell'altra Next Generation BD.
Quello che non è chiaro è appunto questa variazione di nomi, sia all'interno delle stesse slide, sia rispetto al passato.

paolo.oliva2
01-12-2010, 19:50
Così è un pò una sola: magari non fa male, ma non pagherei per averla.
Spero che la cosa non comprometta la vecchia modalità: per le applicazioni per cui vorrei avere capacità di calcolo, la voglio sostenuta e affidabile (processing audio, video, videogiochi).

A parte questo... io vedrei anche un'altra cosa ben più negativa.

Supponiamo che il TDP max venga preimpostato dentro il procio a seconda del modello, a cui il bios faccia da puntatore e quindi non modificabile... a quel punto, non interferirebbe pure nell'OC?

Basterebbe poco che la stessa routine applicata per il turbo venga usata anche nell'OC.

paolo.oliva2
01-12-2010, 19:51
Certo che lo metto nel 2012. Il fatto è che quello che tu chiami BD 2 nelle slide viene chiamato una volta Enanched BD e nell'altra Next Generation BD.
Quello che non è chiaro è appunto questa variazione di nomi, sia all'interno delle stesse slide, sia rispetto al passato.

Va beh, dai, l'importante non è il nome alla fine...

calabar
01-12-2010, 20:14
Immagine (http://www.pctunerup.com/up/results/_201012/20101201161119_desktop_rmap_BD2.jpg)

La Seconda generazione di BD sarà nel 2012, mentre Bobcat dovrebbe essere un "semplice" die shrink a 28nm...
Non vorrei dire castronerie, ma quanto riportato sopra non potrebbe essere inteso come: "le nuove apu conterranno una parte cpu di prossima generazione, ossia bulldozer", ossia il next generation è inteso come nuova generazione di CPU rispetto alle prime apu Llano, la cui parte CPU ha architettura stars.

capitan_crasy
01-12-2010, 20:59
Non vorrei dire castronerie, ma quanto riportato sopra non potrebbe essere inteso come: "le nuove apu conterranno una parte cpu di prossima generazione, ossia bulldozer", ossia il next generation è inteso come nuova generazione di CPU rispetto alle prime apu Llano, la cui parte CPU ha architettura stars.

direi di no...

http://www.pctunerup.com/up/results/_201011/20101128145928_ScreenHunter_100.jpg


AMD indica il next generation anche per le classiche CPU...

paolo.oliva2
01-12-2010, 21:04
direi di no...

http://www.pctunerup.com/up/results/_201011/20101128145928_ScreenHunter_100.jpg


AMD indica il next generation anche per le classiche CPU...

Comunque io avevo letto del BD X10 anche per desktop... lì riporta solo server.
Ma sono sicuro di averlo visto... a sto punto mi viene un dubbio... riporto un errore di un post, o è un gran casino con sta NDA?

capitan_crasy
01-12-2010, 21:31
Comunque io avevo letto del BD X10 anche per desktop... lì riporta solo server.
Ma sono sicuro di averlo visto... a sto punto mi viene un dubbio... riporto un errore di un post, o è un gran casino con sta NDA?

Komodo sarà il BD2 da 10/8/6/4 core per il mercato Desktop...
http://www.pctunerup.com/up/results/_201012/20101201212953_ScreenHunter_101.jpg

paolo.oliva2
01-12-2010, 22:46
Komodo sarà il BD2 da 10/8/6/4 core per il mercato Desktop...
http://www.pctunerup.com/up/results/_201012/20101201212953_ScreenHunter_101.jpg

ok :), avevo visto giusto.
Ora la fatica è ricordarsi i nomi. :)

Mercuri0
01-12-2010, 22:47
A parte questo... io vedrei anche un'altra cosa ben più negativa.

Supponiamo che il TDP max venga preimpostato dentro il procio a seconda del modello, a cui il bios faccia da puntatore e quindi non modificabile... a quel punto, non interferirebbe pure nell'OC?

Basterebbe poco che la stessa routine applicata per il turbo venga usata anche nell'OC.

Il "TDP max prempoistato dentro il procio" non vuol dire granché, quello che possono impostare per lo più è la temperatura massima.

Che se è massima, ci sarà un motivo ;)

Onde pèrcui, potrebbe pure essere vantaggioso: nascerà un nuovo sport: tenere i proci freddi in modo che il turbo sia stabile più a lungo possibile :asd:

Mercuri0
01-12-2010, 22:49
Cmq è chiaro che 'ste robe influenzano l'overclock in un modo o nell'altro. ... perché sono delle specie di "overclock di fabbrica" con sistema di autocontrollo.

Quando vedo l'evolversi di queste pur necessarie "tecnologie", mi chiedo quanto ancora manca alla fine... (dei nanometri)

paolo.oliva2
01-12-2010, 23:05
http://www.pctunerup.com/up/results/_201012/20101201225437_zambesi.jpg

@Capitano... ho un attimo di smarrimento :oink:

Stavo guardando le slide e questa è di ottobre, quindi è un po' vecchiotta.

In un primo tempo AMD aveva dato disponibilità per il desktop di BD X4 e X8, non X6, poi anche di X6. Mi ricordo che si era discusso in un primo tempo che i BD X6 avevano 8MB di L3, infatti si era ipotizzato che derivassero dagli X8, poi io sono sicuro di aver letto da qualche parte che gli X6 avessero una L3 di 6MB...

Quanto è affidabile questa slide?
Il TDP riportato... è l'offerta di TDP per ogni soluzione X core, oppure il TDP massimo per ogni X core?

Un BD X4 a 95W dovrebbe avere un clock superiore certamente ad un BD X8 a 125W. Se la slide è corretta, questa sarebbe la prima volta che AMD assegna un clock superiore a soluzioni con un numero di core inferiore rispetto al top.

paolo.oliva2
01-12-2010, 23:10
Il "TDP max prempoistato dentro il procio" non vuol dire granché, quello che possono impostare per lo più è la temperatura massima.

Che se è massima, ci sarà un motivo ;)

Onde pèrcui, potrebbe pure essere vantaggioso: nascerà un nuovo sport: tenere i proci freddi in modo che il turbo sia stabile più a lungo possibile :asd:

Mi sono spiegato male io... scusa.
Se il "controllo" agisce sul TDP come temp del procio, non ci sono problemi, anzi, tutt'altro. In fin dei conti il controllo della temp c'è tutt'ora, in quanto se si supera, il procio forzatamente va in idle o addirittura si spegne oltre una certa temp.

Quello che invece mi fa pensare, è il controllo sulla corrente assorbita (avevo associato il TDP a questo) o comunque temp + corrente assorbita.

E' molto facile bloccare l'OC agendo su questo controllo, in quanto è palese che più si occa e più corrente richiede il procio. Se il modello è un procio a 95W, avrà una corrente max di un certo valore. Se blocco la corrente ad un certo valore, "loro" possono fare in modo che un procio a 95W TDP non arrivi a 125W TDP, indipendentemente dalle temp. Poi magari possono fare i B.E., i K, FX e EE che scavalcano questo controllo, a patto che accetti di pagare il procio un tot di più.

paolo.oliva2
01-12-2010, 23:27
Aggiungo:

Secondo il mio punto di vista, è improbabile che il procio con il Turbo possa sforare il TDP, almeno in AMD.

Mi ricordo che c'era stato un post di AMD ai produttori di PC completi, in cui assicurava che i BE X8 95W potevano essere montati sulle nuove mobo socket AM3+, lasciando invariato sia il sistema di dissipazione che relativa parte di alimentazione. Ciò sarebbe impossibile se il procio sforasse il TDP, perché se le temp potrebbero comunque non aumentare perché dipendenti dalle temp esterne, comunque la parte di alimentazione sarebbe molto più sollecitata... e i produttori di sistemi completi, riducono i costi alla virgola, cioè si fanno viaggi mentali anche per solo ridurre una vite... figuriamoci per l'alimentatore... al più è dimensionato per l'assorbimento ulteriore di 1 HD (7-15W) e forse dell'espansione di RAM... con 30-40W in più, farebbe il funghetto atomico :)

cionci
01-12-2010, 23:37
Secondo il mio punto di vista, è improbabile che il procio con il Turbo possa sforare il TDP, almeno in AMD.
Anche secondo me.

paolo.oliva2
01-12-2010, 23:41
Xbox 720 basata su AMD Fusion II
Comunque il sito io non lo ritengo attendibile.

QUI (http://www.tomshw.it/cont/news/xbox-720-con-amd-fusion-ii-pronti-a-scommettere/28379/1.html)

ivano444
01-12-2010, 23:49
xbox720 con fusion non lo vedo possibile..le nuove console devono gestire anche il 3d e la apu di fusion non credo sia abbastanza potente

cionci
01-12-2010, 23:51
xbox720 con fusion non lo vedo possibile..le nuove console devono gestire anche il 3d e la apu di fusion non credo sia abbastanza potente
Credo anche io che non lo siano per reggere 1920x1080 a 120 Hz

paolo.oliva2
01-12-2010, 23:58
Anche secondo me.

Un Turbo con TDP sforabile... per chi fa OC sarebbe un incubo... perché se non fosse disattivabile, alla fine obbligherebbe a tenere un OC comprensivo del turbo.

Discorso diverso, proprio il contrario, se agisse in base al carico del procio, cioé se i core fossero carichi dal 100% a scendere. Nel qual caso, la cosa sarebbe interessante... basterebbe rendere il procio RS con il 100% del carico, lasciando al Turbo la facoltà di alzare la frequenza se il carico diminuisce...

paolo.oliva2
01-12-2010, 23:58
Io l'ho scritto che per me il sito non è attendibile... l'ho postato per dovere di cronaca :)

ivano444
02-12-2010, 00:09
Io l'ho scritto che per me il sito non è attendibile... l'ho postato per dovere di cronaca :)

ma guarda nell'ultima revision della 360 hanno unito tutto (cpu-gpu) quindi non è cosi impossibile...staremo a vedere perche se cosi fosse sarebbe un bel colpaccio per amd :)

cionci
02-12-2010, 00:10
ma guarda nell'ultima revision della 360 hanno unito tutto (cpu-gpu) quindi non è cosi impossibile...staremo a vedere perche se cosi fosse sarebbe un bel colpaccio per amd :)
E' impossibile per la potenza della GPU.

ivano444
02-12-2010, 00:16
E' impossibile per la potenza della GPU.

si su quello sono d'accordo(e lo anche scritto),intendevo che magari amd sulla base di fusion potesse creare qualcosa in grado di gestire il tutto :)

Mercuri0
02-12-2010, 00:19
Quello che invece mi fa pensare, è il controllo sulla corrente assorbita (avevo associato il TDP a questo) o comunque temp + corrente assorbita.

La variazione sulla corrente è istantanea e accade anche durante il funzionamento del turbo stesso. Così come i consumi del procio sfondano il TDP istantaneamente quando in turbo "2". Un controllo principalmente sulla corrente non farebbe funzionare il turbo.

E' la temperatura che ci mette un pò a salire, e questo consente di far funzionare il procio un pò più velocemente di quel che potrebbe se si volessero quelle prestazioni in maniera sostenuta.

(ad essere cavillosi invero le due grandezze oggi in qualche modo sono legate)

Aggiungo:
... Ciò sarebbe impossibile se il procio sforasse il TDP, perché se le temp potrebbero comunque non aumentare perché dipendenti dalle temp esterne, comunque la parte di alimentazione sarebbe molto più sollecitata...

Yup, questo è un problema che invero si pone. Però il TDP (thermal design power) è un indicatore che serve per dimensionare il sistema di dissipazione, non l'alimentatore.

Se oggi, visti recenti sviluppi, serve un'altra grandezza per dimensionare l'ali, evidentemente lntel (o AMD) la forniranno in un'altra voce della tabella del datasheet. Ma penso già lo facciano da tempo.

Senza contare che anche l'alimentatore immagino possa reggere burst di erogazione di pochi secondi prima di scoppiare anch'esso.


xbox720 con fusion non lo vedo possibile..le nuove console devono gestire anche il 3d e la apu di fusion non credo sia abbastanza potente
Llano all'uscita sarà più potente delle consoli attuali, che per altro già usano un approccio CPU+GPU su un unico die, nelle ultime revisioni.

E non è improbabile che le next-gen saranno fatte con un system on chip già all'uscita. Chiamarlo "Fusion 2" è invece folklore, certamente useranno soluzioni dedicate.

affiu
02-12-2010, 00:24
a quanto pare il calcolo omogeneo(parlo solo del desktop) sembra che si stia arrivando al limite(almeno per altri pochi anni);con sb e zacate (e poi ovvio llano e apu family development) inizierà nel 2011 il calcolo ETEROGENEO:D

in ogni caso,sempre parlando di amd, tutto confluirà in fusion;è chiaro che ci sarebbero dei problemi(sia hardware che software) ,ma questo non deve assolutamente essere un fattore precludente il futuro del progetto.

dopotutto non ci sarebbe neanche bisogno di immaginare a cosa serva accelerare un modulo bulldozer(compreso già di turbo )da parte di una apu?''una specie di crossfire gpu-cpu?''...questo mi darebbe da intendere sempre piu ,che il progetto cammini !

per quanto riguarda il progetto FUSION2(inteso come tendente verso la fusione finale ed ultimata),penso che l'approccio nell'intendere ciò ,non puo dipendere da ottimismo o pessimismo o fanboismo ,ma dall'avere fede o meno....e quindi non ''siamo di poca fede''.....tanto in ogni caso lo vedremo con i nostri occhi....:Prrr:

ivano444
02-12-2010, 00:24
Llano all'uscita sarà più potente delle consoli attuali, che per altro già usano un approccio CPU+GPU su un unico die, nelle ultime revisioni.

E non è improbabile che le next-gen saranno fatte con un system on chip già all'uscita. Chiamarlo "Fusion 2" è invece folklore, certamente useranno soluzioni dedicate.


calcola che liano so console dovrebbe gestire sia il full-hd che il 3d(ormai immancabile) per questo penso che amd per la 720 faccia qualcosa in più :)

Mercuri0
02-12-2010, 00:35
E' impossibile per la potenza della GPU.
Forse perché ancora si ragiona pensando che è una GPU integrata nella CPU quando invece è il viceversa: è la CPU ad essere integrata nella GPU!

Così sembra già più possibile, nevvero? :D

Penso che per farsi un'idea se sia possibile o meno, basta pensare al budget di potenza (elettrica) totale che ha a disposizione una console, e se questo si possa dissipare su un chip solo.

p.s. Le GPU sui Fusion saranno limitate dalla DDR3. Mica per una console non si può fare un "Fusion" con una memoria più "appropriata" alla GPU

cionci
02-12-2010, 00:42
Penso che per farsi un'idea se sia possibile o meno, basta pensare al budget di potenza (elettrica) totale che ha a disposizione una console, e se questo si possa dissipare su un chip solo.
L'ultima revision del Xbox 360 è appunto una APU ;)

Mercuri0
02-12-2010, 00:42
a quanto pare il calcolo omogeneo(parlo solo del desktop) sembra che si stia arrivando al limite(almeno per altri pochi anni);con sb e zacate (e poi ovvio llano e apu family development) inizierà nel 2011 il calcolo ETEROGENEO:D

Raga, la questione è molto più terra-terra: da un lato si scende coi nanometri, dall'altro sono richieste interfacce tra i chip sempre più veloci, complesse e costose (DDR3, GDDR5, PciExpress... non avete idea che tragedia è progettare con queste tecnologie), infine siamo sempre limitati dai consumi.

Quindi cosè che viene "gratis"? il numero di transistor sul chip man mano che scendo coi nanometri.

Come faccio a ridurre le interfacce sfruttando il botto di transistor che mi avanza? Integro tutto quello che posso su un solo chip.

calcola che liano so console dovrebbe gestire sia il full-hd che il 3d(ormai immancabile) per questo penso che amd per la 720 faccia qualcosa in più :)

Alura: "Fusion 2" su console per me è una balla, è più probabile che useranno una soluzione dedicata. Però per me questa soluzione può essere system-on-chip. (edit: magari powerpc + radeon. ;) )

Deh, se aggiungi 35watt di CPU sul die di una GTX580 questa manco se ne accorge...

Mercuri0
02-12-2010, 00:49
L'ultima revision del Xbox 360 è appunto una APU ;)

Yep l'avevo accennato anch'io, solo che l'evoluzione delle console tra le revisioni è stata fatta "a parità di prestazioni" e quindi riducendo i consumi.

Diverso è il discorso di una console al lancio, in cui i consumi si "scelgono" prima delle prestazioni.

Quindi la domanda è quanti sono i consumi accettabili per una console al lancio, e se questi siano dissipabili da un chip solo.

checo
02-12-2010, 08:23
Scusa, ma da dichiarazioni ufficiali si ha un miglioramento del 50+25%. Partendo da un Athlon II X4 2.4GHz 45W, anche volendo fare i pessimisti e dire che architettura e nuovo processo danno un 40%, 3GHz sono solo il 25% in più... Se poi consideri il post di sopra dove la GPU potrebbe essere meno di 30W...

mi son perso ste dichiarazioni uifficiali evidentemente

paolo.oliva2
02-12-2010, 10:47
Scusa, ma da dichiarazioni ufficiali si ha un miglioramento del 50+25%. Partendo da un Athlon II X4 2.4GHz 45W, anche volendo fare i pessimisti e dire che architettura e nuovo processo danno un 40%, 3GHz sono solo il 25% in più... Se poi consideri il post di sopra dove la GPU potrebbe essere meno di 30W...

Comunque gli Athlon X2 e i PhenomII X2 salgono come delle bestie.
QUI (http://www.hwupgrade.it/forum/showpost.php?p=33812693&postcount=170), sbloccati e diventati X4, nel nostro forum, ad aria arrivano a superare di un 100MHz ciò che io faccio con un 965C3 a liquido e pure con il WC. Questo guadagno deriverebbe unicamente da un'architettura più snella e più parca nei consumi, che comunque sarebbe ben distante da quella dei nuovi proci, xhe sfrutterebberi pure il passaggio da 45nm al 32nm.

capitan_crasy
02-12-2010, 10:55
http://www.pctunerup.com/up/results/_201012/20101201225437_zambesi.jpg

@Capitano... ho un attimo di smarrimento :oink:

Stavo guardando le slide e questa è di ottobre, quindi è un po' vecchiotta.

In un primo tempo AMD aveva dato disponibilità per il desktop di BD X4 e X8, non X6, poi anche di X6. Mi ricordo che si era discusso in un primo tempo che i BD X6 avevano 8MB di L3, infatti si era ipotizzato che derivassero dagli X8, poi io sono sicuro di aver letto da qualche parte che gli X6 avessero una L3 di 6MB...

Quanto è affidabile questa slide?
Il TDP riportato... è l'offerta di TDP per ogni soluzione X core, oppure il TDP massimo per ogni X core?

Un BD X4 a 95W dovrebbe avere un clock superiore certamente ad un BD X8 a 125W. Se la slide è corretta, questa sarebbe la prima volta che AMD assegna un clock superiore a soluzioni con un numero di core inferiore rispetto al top.

Sono slide ufficiali, anche se il sito di origine non è dei migliori in quanto a affidabilità...


Xbox 720 basata su AMD Fusion II
Comunque il sito io non lo ritengo attendibile.

QUI (http://www.tomshw.it/cont/news/xbox-720-con-amd-fusion-ii-pronti-a-scommettere/28379/1.html)


E' assurdo proporre una console di nuova generazione con le APU Krishna destinate al mercato netbook.:rolleyes:
Se MS utilizzerà le APU AMD per la sua prossima console sarà senza dubbio un elemento basato su "Trinity"...

Credo anche io che non lo siano per reggere 1920x1080 a 120 Hz

io aspetterei di vedere le prestazioni di Trinity prima di dare qualsiasi giudizio...;)

paolo.oliva2
02-12-2010, 11:10
Sono slide ufficiali, anche se il sito di origine non è dei migliori in quanto a affidabilità...

Io avrò fantasia, non lo metto in dubbio, sarò ottimista, d'accordo...
Però come fare a non riflettere che AMD ha creato BD per offrire un procio con più potenza?

Castrare addirittura un X6 con un massimo di 95W e proporre solamente un X8 a 125W, io ci vedo solamente 2 risposte:

- Che dentro i 95W un BD riesce comunque a raggiungere potenze elevate, potendosi misurare con tutti gli altri proci.

- Che la versione BD X8 125W, potrebbe essere FX.

Tra l'altro, riflette perfettamente il marcketing del Thuban, che è uscito come 1055T non B.E. e 1090T B.E. Siccome AMD ha annunciato che usciranno per primi gli X8 desktop, ciò potrebbe prefigurare un BD X8 a 95W e 125W, cioé possibilissimo BD X8 a 95W liscio, e 125W B.E. o FX. E questo porterebbe comunque un BD X8 in un range di prezzo accessibile, perché da un BD X8 liscio a 95W ed un B.E./FX a 125W, potrebbe tranquillamente intercorrere una cifra tale da rendere l'X8 base proporzionato ad un equivalente Thuban X6.
Per il discorso del "margine" ulteriore, beh... AMD si terrebbe sempre un 30W TDP come margine, alla faccia del margine, senza poi contare l'ULK se non lo applicasse da subito.

Edit:
Facendo un esempio che non richiede formule o quant'altro... Il Thuban è stato "creato" per fronteggiare gli i7 X4. Che senso avrebbe avuto un Thuban limitato a 95W se poi non avrebbe raggiunto gli i7? Papale papale, BD per cosa è stato "creato"? Avrebbe senso "castrarlo" a 95W se non assolvesse il suo compito? Ancor più: Un BD X8 a 95W permetterebbe già un BD X10 a 125W? AMD ha lasciato BD X10 per l'anno successivo... in caso di "carenza" di potenza, non lo avrebbe anticipato? Un produttore, quando lascia margine di aumento potenza? Quando non ne ha bisogno.

marchigiano
02-12-2010, 14:59
Un Turbo con TDP sforabile... per chi fa OC sarebbe un incubo... perché se non fosse disattivabile, alla fine obbligherebbe a tenere un OC comprensivo del turbo.

Discorso diverso, proprio il contrario, se agisse in base al carico del procio, cioé se i core fossero carichi dal 100% a scendere. Nel qual caso, la cosa sarebbe interessante... basterebbe rendere il procio RS con il 100% del carico, lasciando al Turbo la facoltà di alzare la frequenza se il carico diminuisce...

qualsiasi turbo non disattivabile sarebbe un incubo in OC... per fortuna finora sono stati tutti disattivabili :D

come è già stato detto, il tdp si riferisce al raffreddamento, amd o intel possono benissimo mettere tra le specifiche per i produttori di mobo di avere un tdp max 125w ma sezioni di alimentazione che riescano a reggere per qualche sec. picchi di 150w

paolo.oliva2
02-12-2010, 16:32
qualsiasi turbo non disattivabile sarebbe un incubo in OC... per fortuna finora sono stati tutti disattivabili :D

come è già stato detto, il tdp si riferisce al raffreddamento, amd o intel possono benissimo mettere tra le specifiche per i produttori di mobo di avere un tdp max 125w ma sezioni di alimentazione che riescano a reggere per qualche sec. picchi di 150w

Ma come è stato detto, quello che tu riporti possibile, sarebbe totalmente in disaccordo con quanto comunicato da AMD ai produttori, cioé che per sistemi a TDP 95W, montando un X8 95W, non è necessario cambiare né dissipatori né parti di alimentazione.

Per la dissipazione posso anche capire, qualche grado in più per poco tempo, ma è per la parte di alimentazione che sarebbe un grosso problema. 150W al posto di 125W, rappresentano un 20% in più. Immagina il produttore che deve garantire quel componente così sollecitato per 24 mesi... quanti resi ci sarebbero in quel lasso di tempo? E' proprio per questo, che se AMD ha informato i partner che non è necessario sostituire la parte di alimentazione, che è totalmente da escludere lo sforamento del TDP, e che quindi il Turbo, come nei Thuban, rimarrebbe sempre e comunque dentro al TDP massimo dichiarato anche nei BD.
Il Thuban non applicava il Turbo su 3 core anziché 1 rispetto ad Intel? Ma comunque non sforava il TDP. BD probabilmente riuscirà ad applicarlo a più core rispetto al Thuban... ma se vogliamo, sempre con il classico 50% in meno di TDP del 32nm rispetto al 45nm, e chiaro che un BD potrà permettere il Turbo su un numero di core doppio rispetto al Thuban. Del resto, renditi conto che nelle slide ufficiali AMD, i 125W sono applicati solo per il top degli X8, i 95W, bastano ed avanzano per tutti gli X4 e X6 e anche per parte degli X8. Non c'è motivo per pensare che il Turbo abbia un consumo così esagerato.
Inoltre... perché mettere in commercio proci a 95W che in turbo lo sforerebbero creando quindi problemi con i partner... per cosa? Vendi i proci a 125W, a quel punto puoi alzare sia il clock def che il Turbo, senza incontrare alcun problema. La logica di sforare il TDP max per me è valida unicamente per un procio già al limite del TDP (140W per AMD e 130W per Intel). Nessuno avrebbe interesse a far andare un procio a 95W come un procio a 125W, incassando meno e trovando possibili problemi con i partner e con le garanzie...

paolo.oliva2
03-12-2010, 00:04
Interessante quello che dice su BD... (QUI (http://www.overclock.net/amd-cpus/879833-amd-bulldozer-expectations-dissertations.html))

Mercuri0
03-12-2010, 00:59
Interessante quello che dice su BD... (QUI (http://www.overclock.net/amd-cpus/879833-amd-bulldozer-expectations-dissertations.html))

A me paiono una marea di cazzate :mbe:

paolo.oliva2
03-12-2010, 01:15
A me paiono una marea di cazzate :mbe:

Però... rispetto ai tanti post in passato su altri proci AMD, fa piacere vedere quest'ottimismo... che non è comunque isolato :)

marchigiano
03-12-2010, 14:42
Inoltre... perché mettere in commercio proci a 95W che in turbo lo sforerebbero creando quindi problemi con i partner... per cosa? Vendi i proci a 125W, a quel punto puoi alzare sia il clock def che il Turbo, senza incontrare alcun problema. La logica di sforare il TDP max per me è valida unicamente per un procio già al limite del TDP (140W per AMD e 130W per Intel). Nessuno avrebbe interesse a far andare un procio a 95W come un procio a 125W, incassando meno e trovando possibili problemi con i partner e con le garanzie...

potrebbe essere come dici te ma potrebbe anche essere che se una mobo ha un limite di alimentazione il turbo non entra o lo fa in modo meno agressivo rispetto a mobo con alimentazioni più potenti... ci vorrebbe qualche scheda tecnica che amd rilascia ai produttori di mobo per vedere quanti ampere deve garantire come minimo

paolo.oliva2
03-12-2010, 16:46
potrebbe essere come dici te ma potrebbe anche essere che se una mobo ha un limite di alimentazione il turbo non entra o lo fa in modo meno agressivo rispetto a mobo con alimentazioni più potenti... ci vorrebbe qualche scheda tecnica che amd rilascia ai produttori di mobo per vedere quanti ampere deve garantire come minimo

Comunque... io di certo non ho la lanterna magica... però a me viene da pensare questo:

Ora... sappiamo tutti che una catena ha bisogno di entrare in produzione in volumi per alcuni mesi perché si arrivi a standard qualitativi senza grossi svarioni tra il die più scadente ed il migliore prodotti dallo stesso wafer.

Ora... ipotizziamo che sto Turbo2 dei BD agisse proprio in base al calore + consumi... che vantaggio avrebbe AMD?

Vendere 2 massimo 3 modelli di BD per numero di core, demandando al Turbo2 la frequenza max propria del procio.

Cosa comporterebbe?

Il risparmio di una selezione più precisa (e costosa) dei proci, lo stoccaggio di quantità di proci per coprire più modelli a diverse frequenze, tenersi in casa dei proci che non supererebbero eventuali selezioni fino a che non si arriverebbe a volumi commerciali (vi ricordate gli X3-X2 di derivazione Phenom II X4? Che poi portò comunque AMD a vendere degli X4 non fallati per coprire le richieste), ecc. ecc.

A questo punto... considerando quanto sopra... AMD potrebbe vendere l'intera produzione, immediatamente, garantita come 95W ad una frequenza X, con un Turbo ALMENO di XMHz su tutti i core, con la minore spesa possibile per test e la minore per lo stoccaggio, unito con l'incasso immediato di tutto quanto prodotto. Uniamoci il fatto di un die parco nelle dimensioni, et-voilà, = prezzo più basso per l'utente finale = prezzo/prestazioni competitivo = forti numeri di vendita.

Inoltre AMD non avrebbe problemi di offrire troppo da subito e di non vendere in futuro proci più potenti, perché i 30W/45W TDP in più (95W --> 125W e 140W) permetterebbero comunque un notevole margine di offerta, in quanto un procio 95W in turbo raggiungerà comunque una frequenza più bassa (e non di poco) di quanto un procio a 125W potrà avere a def (turbo escluso). Come dire... (esempio) un BD X8 95W TDP a 3,5GHz che arrivasse a 4GHz in Turbo su tutti i core, e BD X8 125W TDP a 4,2GHz def + Turbo. Senza contare inoltre il margine del successivo BD, considerando +2 core (BD X10) allo stesso TDP/frequenze di quelli che usciranno.

Secondo me ci stiamo fossilizzando troppo sul discorso "Turbo su tutti i core? Impossibile rimanendo sullo stesso TDP", perché partiamo con il preconcetto già che 95W sarebbero pochi per 6 core e fatichiamo ad unirli a determinate frequenze. Se invece considerassimo che questi 95W fossero di manica larga (visto che sti 95W TDP rappresentano anche il TDP iniziale per un X8 ed ancor più per un successivo X10, a frequenze da desktop, con turbo su tutti i core, possiamo immaginare che margine avrebbe un X6 con -2 core allo stesso TDP ed ancor più un X4 con -4 core), allora vedremmo l'insieme da un punto di vista ben differente.

Se vogliamo fare un paragone pratico, confrontando un Thuban a BD, nell'insieme BD rappresenterebbe una diminuzione del TDP del 15% (solamente) confrontando un Thuban X6 125W contro un BD X6 95W massimi.
Ma se facciamo lo stesso confronto tra TDP e numero dei core, vedremmo che questo aumento partirebbe da un 35% (BD X8 125W vs Thuban X6 125W) ed addirittura a sopra il 65% per un BD X10.
Certo, si controbatterà "dipende a che frequenza", non lo metto in dubbio, ma AMD ha sempre proposto il clock massimo con la soluzione a numero dei core più alta, quindi è più che prospettabile che farà lo stesso per BD. BD X8 è l'unico procio proposto a 125W TDP, quindi con un margine di TDP proporzionato a proporre un X8 almeno alle stesse frequenze degli X6.
Ma cosa salta all'occhio? Che il 15% del TDP è realmente molto ma molto conservativo rispetto al guadagno del numero dei core allo stesso TDP, il che giustificherebbe ampiamente un Turbo su tutti i core anche piuttosto spinto senza sforare il TDP.

marchigiano
04-12-2010, 13:58
è il 4 dicembre avoglia aspettare... :cool:

quando scadono gli nda su llano? così almeno vediamo come fronteggeranno 1155

paolo.oliva2
04-12-2010, 14:10
è il 4 dicembre avoglia aspettare... :cool:

quando scadono gli nda su llano? così almeno vediamo come fronteggeranno 1155

Llano è quello che uscirà per ultimo :) si parla dell'estate prox

marchigiano
04-12-2010, 14:19
pensavo sarebbe uscito poco dopo zacate :cry:

cionci
04-12-2010, 14:30
Ottimo, da questo si potrebbe capire la superficie di un X4: 320 mm2 - 2*30,9 mm2 - 4 * 3.85 mm2 = circa 240 mm2
Il numero di transistor è quindi molto più vicino a 3/4 dell'X8 che a 1/2. Quindi diventa chiaro che passando da un X8 a 95W a un X4, la potenza dissipata sarà impossibile che sia 50W. 3/4 di 95W corrisponderebbe a 71W, quindi tenendo in considerazione che i core rappresentano degli hot spot e come tali consumano di più, quindi in media il consumo per area sarà minore, bisogna abbassare di un bel po' questi 71W.
Giudicare quindi una potenza di circa 60W e un TDP di 65W, a pari frequenza con un X8 da 95W (indipendentemente da quel sia questa frequenza), mi sembra assolutamente plausibile. E' invece inverosimile la stima di 50W.
Ritornando a questi calcoli. Rimettiamo l'elaborazione di De Vries del X8: http://www.hwupgrade.it/forum/showpost.php?p=33754793&postcount=5675

Un X6 avrebbe un'area utilizzata (ricordiamo che deriverà con un core fallato X8 fallati e manterrà 8 MB di L3) pari a circa 320 mm2 . 30,9 mm2 (un modulo) = 290 mm2 circa.
Corrispondente a circa il 90% del die di un X8. Contando che le aree eliminate sono molto attive è plausibile un 90% del TDP di un X8 di pari frequenza: 95W * 0.9 = circa 85W.
E' plausibile quindi, considerando l'X8 con frequenza massima con TDP a 95W, una distribuzione di questo tipo a parità di frequenza:
- BD X8 95W
- BD X6 85W
- BD X4 65W
La frequenza sono quasi convinto che sarà fra 3.4 e 3.6 Ghz.
Per l'X4 si preannuncia quindi una frequenza veramente importante a 95W di TDP. Io credo fra 4.2 e 4.4 Ghz. Non oso pensare a quanto potrebbero arrivare a 125W di TDP.
L'X6 credo che, vista la piccola differenza dall'X8, si manterrà sui 2-300Mhz in più a parità di TDP rispetto all'X8.
Per l'X8 imho potremmo stare fra 4 e 4.2 Ghz a 125W.
Quindi l'X6 potrebbe arrivare fra 4.2 e 4.5 Ghz a 125W.
Facciamo l'ipotesi anche per X4: secondo me a 125W potrebbero davvero arrivare fra 4.8 e 5.2 Ghz :eek:

Queste frequenze sono oltre alle previsioni che avevo fatto qualche mese fa, che mi sembra fossero 3.8-4.0 Ghz per l'X8, 4.0-4.2 per l'X6, 4.6 per l'X4.

Ricapitolando (lo scrivo una volta e poi non lo scrivo più):
CPU/TDP 65W 95W 125W
X8 X 3.4-3.6 Ghz 4.0-4.2 Ghz
X6 X 3.6-3.9 Ghz 4.2-4.5 Ghz
X4 3.4-3.6 Ghz 4.2-4.4 Ghz 4.8-5.2 Ghz

gi0v3
04-12-2010, 15:15
io comincerei a considerare anche a che frequenza poteemmo arrivare con un quad a 45w, visto che mi sembra più che plausibile... in ottica mini-itx lo vedrei benissimo, per ambiti dove la scheda video è ininfluente (leggi: server casalingo :D ) e andando a spanne sui tuoi calcoli potremmo realisticamente vedere un quad 45w a 2.8-3.0 ghz :eek:

cionci
04-12-2010, 15:43
io comincerei a considerare anche a che frequenza poteemmo arrivare con un quad a 45w, visto che mi sembra più che plausibile... in ottica mini-itx lo vedrei benissimo, per ambiti dove la scheda video è ininfluente (leggi: server casalingo :D ) e andando a spanne sui tuoi calcoli potremmo realisticamente vedere un quad 45w a 2.8-3.0 ghz :eek:
Non credo che usciranno CPU con quel TDP fino alla APU basata su BD.

gi0v3
04-12-2010, 18:01
Non credo che usciranno CPU con quel TDP fino alla APU basata su BD.

beh, che spreco scusa... quindi fino al q3 2011 ci terremo i k10 a 45w? Dopo arriverà Llano e ci saranno di sicuro, ma intanto un assaggio della nuova architettura su piattaforme a basso consumo non sarebbe male... anche perchè Llano sarà a 40 nm e avrà la parte di GPU... sarà difficile che arrivi ai clock di un 32 nm a parità di tdp...

cionci
04-12-2010, 18:04
anche perchè Llano sarà a 40 nm e avrà la parte di GPU... sarà difficile che arrivi ai clock di un 32 nm a parità di tdp...
Llano sarà a 32 nm ;)

gi0v3
04-12-2010, 18:43
a cacchio, è vero... è ontario a 40 nm no? che pirla XD ma in ogni caso si tratterà di qualcosa più simile al k10 che a BD, quindi un BD a 45w avrebbe dalla sua un IPC più alto, e un clock più alto per via dell'assenza di GPU... continuo a pensare che ci sarebbe mercato :)

Acc 88
04-12-2010, 18:52
raga da quello che ho capito le soluzioni zambezi dovrebbero essere più prestanti rispetto quelle Llano??

capitan_crasy
04-12-2010, 19:45
raga da quello che ho capito le soluzioni zambezi dovrebbero essere più prestanti rispetto quelle Llano??

decisamente...

paolo.oliva2
04-12-2010, 19:53
Ritornando a questi calcoli. Rimettiamo l'elaborazione di De Vries del X8: http://www.hwupgrade.it/forum/showpost.php?p=33754793&postcount=5675

Un X6 avrebbe un'area utilizzata (ricordiamo che deriverà con un core fallato X8 fallati e manterrà 8 MB di L3) pari a circa 320 mm2 . 30,9 mm2 (un modulo) = 290 mm2 circa.
Corrispondente a circa il 90% del die di un X8. Contando che le aree eliminate sono molto attive è plausibile un 90% del TDP di un X8 di pari frequenza: 95W * 0.9 = circa 85W.
E' plausibile quindi, considerando l'X8 con frequenza massima con TDP a 95W, una distribuzione di questo tipo a parità di frequenza:
- BD X8 95W
- BD X6 85W
- BD X4 65W
La frequenza sono quasi convinto che sarà fra 3.4 e 3.6 Ghz.
Per l'X4 si preannuncia quindi una frequenza veramente importante a 95W di TDP. Io credo fra 4.2 e 4.4 Ghz. Non oso pensare a quanto potrebbero arrivare a 125W di TDP.
L'X6 credo che, vista la piccola differenza dall'X8, si manterrà sui 2-300Mhz in più a parità di TDP rispetto all'X8.
Per l'X8 imho potremmo stare fra 4 e 4.2 Ghz a 125W.
Quindi l'X6 potrebbe arrivare fra 4.2 e 4.5 Ghz a 125W.
Facciamo l'ipotesi anche per X4: secondo me a 125W potrebbero davvero arrivare fra 4.8 e 5.2 Ghz :eek:

Queste frequenze sono oltre alle previsioni che avevo fatto qualche mese fa, che mi sembra fossero 3.8-4.0 Ghz per l'X8, 4.0-4.2 per l'X6, 4.6 per l'X4.

Ricapitolando (lo scrivo una volta e poi non lo scrivo più):
CPU/TDP 65W 95W 125W
X8 X 3.4-3.6 Ghz 4.0-4.2 Ghz
X6 X 3.6-3.9 Ghz 4.2-4.5 Ghz
X4 3.4-3.6 Ghz 4.2-4.4 Ghz 4.8-5.2 Ghz

Io sinceramente credo che AMD spingerà l'X8 a 125W per poter arrivare a frequenze simili tra X8, X6 e X4 (contando X6 e X4 limitati a 95W).
Anche perché, da quello che sembra, i BD X4 e X6 sarebbero proposti come 95W TDP al max, e 125W solo per i BD X8 TOP.

http://www.pctunerup.com/up/results/_201012/20101201225437_zambesi.jpg

E' un po' quello che vediamo con il Thuban, che ha frequenze + alte anche essendo X6 di tutti gli X4. Se avesse voluto... AMD poteva distribuire Zosma, e ancor più realizzare uno Zosma X4 nativo, ed ancor più dirottare i C3 X4 sull'E0, ma non l'ha fatto.

Poi è chiaro che tutto può cambiare, anche in base a che clock Intel riuscirà a proporre gli SB, al rapporto tra BD/SB nell'IPC, ai prezzi applicati.

Io, sinceramente, non mi esprimo sul clock che potrebbe avere un BD X8... per me già sarebbe più che ottimo un 4GHz stock con Turbo di 500MHz su tutti i core (se i 4,5GHz si farebbero con il dissi stock, figuriamoci se non fossero possibili i 5GHz in OC ancora ad aria con dissi più performanti, ed ancora di più a liquido... io sarei più che soddisfatto di un X8 a 5GHz RS DU con il mio raffreddamento :sperem: ).
Probabilmente, i BD X6 e X4 potrebbero accontentarsi di quei 4GHz stock permessi anche con TDP 95W, però contando su un Turbo più incisivo... magari sui 700MHz per un X6 e 1GHz per un X4... Comunque è tutto da vedere... perché se non fosse politica pre-commerciale, AMD sarebbe convinta che 95W per gli X4 e X6 gli basterebbero per confrontarsi con l'equivalente SB anche a 130W.
Inoltre... bisogna sapere altre informazioni su sto turbo2. Ad esempio, se un X6 potesse avere un Turbo di 700MHz su tutti i core rimanendo dentro i 95W, porterebbe un X6 sui 4,7GHz a 95W TDP in determinate condizioni, ma pur sempre a 4,7GHz. Il margine se così fosse, sarebbe così ampio da permettere molto di più di un BD X8 4GHz dentro i 125W.

Un'ultima nota MOLTO positiva... il listino AMD ufficiale non ha variazioni al momento, Qui (http://www.xbitlabs.com/articles/cpu/display/cpu-benchmark-highend_2.html#sect), Xbit, riporta un prezzo di 200$ per il 1075T e 229$ per un 1090T, che posizionerebbe un 1090T sui 200€ (e questo confermerebbe il perché il 1090T lo si trova addirittura a 184€ nei nostri shop).

Comunque, in proiezione Buldozer, questo è più che positivo, perché credo che difficilmente AMD chiederà un prezzo per BD X4 maggiore di un Thuban X6, se non altro, proprio per incentivarne l'acquisto.... quindi con un 1090T a 229$, presumibilmente un BD X4 dovrebbe avere un prezzo inferiore, confermato anche dal fatto che gli shop stanno vendendo Thuban ad un prezzo inferiore del listino... tipo "puliamo il melo, prima che arrivi BD".

paolo.oliva2
04-12-2010, 20:33
a cacchio, è vero... è ontario a 40 nm no? che pirla XD ma in ogni caso si tratterà di qualcosa più simile al k10 che a BD, quindi un BD a 45w avrebbe dalla sua un IPC più alto, e un clock più alto per via dell'assenza di GPU... continuo a pensare che ci sarebbe mercato :)

Condivido... però AMD penso si trovi nella condizione di avere più catene 45nm ancora in funzione (più catene perchè vi sono Phenom II, Athlon ancora in produzione, di cui anche C3 e E0) e con una catena 32nm che dovrebbe produrre già a spron-battuto per soddisfare le richieste... In questa condizione, nell'immediato non penso che AMD "svaluti" un BD X4 a 45W TDP, soprattutto perché andrebbe a dare fastidio a Llano e all'offerta 45nm che ha in "casa".

gi0v3
04-12-2010, 21:11
Condivido... però AMD penso si trovi nella condizione di avere più catene 45nm ancora in funzione (più catene perchè vi sono Phenom II, Athlon ancora in produzione, di cui anche C3 e E0) e con una catena 32nm che dovrebbe produrre già a spron-battuto per soddisfare le richieste... In questa condizione, nell'immediato non penso che AMD "svaluti" un BD X4 a 45W TDP, soprattutto perché andrebbe a dare fastidio a Llano e all'offerta 45nm che ha in "casa".

non con un eventuale opteron per sistemi 1P, e se amd mantiene la sua stessa tradizione le cpu da server/ws non multisocket avranno lo stesso socket delle cpu desktop... alla fine il settore dove le performance per watt contano di più è quello server...

ultima considerazione: SB uscirà a gennaio con cpu a 45w di tdp, se amd a maggio non farà altrettanto si autoeliminerà da una fascia dove SB spopolerà per via dell'architettura nuova e del video integrato, ma anche se la gpu all'interno di SB è più potente di quella degli attuali ( e futuri) chipset amd, non è comunque neanche lontanamente sufficiente per un uso professionale, e men che meno per un uso gaming...

morale della favola: imho nella fascia a basso consumo un BD+integrata andrebbe a far concorrenza senza problemi a SB, perchè gli scenari di utilizzo restano simili, ovvero, praticamente, niente di più complesso della riproduzione fluida di una 1080p. Restando in ambito desktop, per un computer a basso consumo più general purpose ci sarà Llano, per una ws a basso consumo sempre Llano, per tutto quello che sta sotto amd continuerà ad avere solo gli athlon II serie e, ed è un peccato se andrà a finire così.

paolo.oliva2
04-12-2010, 22:30
non con un eventuale opteron per sistemi 1P, e se amd mantiene la sua stessa tradizione le cpu da server/ws non multisocket avranno lo stesso socket delle cpu desktop... alla fine il settore dove le performance per watt contano di più è quello server...

ultima considerazione: SB uscirà a gennaio con cpu a 45w di tdp, se amd a maggio non farà altrettanto si autoeliminerà da una fascia dove SB spopolerà per via dell'architettura nuova e del video integrato, ma anche se la gpu all'interno di SB è più potente di quella degli attuali ( e futuri) chipset amd, non è comunque neanche lontanamente sufficiente per un uso professionale, e men che meno per un uso gaming...

morale della favola: imho nella fascia a basso consumo un BD+integrata andrebbe a far concorrenza senza problemi a SB, perchè gli scenari di utilizzo restano simili, ovvero, praticamente, niente di più complesso della riproduzione fluida di una 1080p. Restando in ambito desktop, per un computer a basso consumo più general purpose ci sarà Llano, per una ws a basso consumo sempre Llano, per tutto quello che sta sotto amd continuerà ad avere solo gli athlon II serie e, ed è un peccato se andrà a finire così.

Io sinceramente non è che avevo detto che non lo farà mai... ma che non lo farà da subito. :sofico: .

Comunque io non credo che Llano sarà così scarso rispetto ad SB. Mi spiego meglio... come IPC max senza contare il TDP, non ho alcun dubbio che SB, come del resto già un i7 gli starebbe davanti... però a parità di TDP Llano potrebbe permettere forse contare su un clock più alto di SB per pareggiare le performances. D'accordo che Llano non ha l'architettura di BD, ma comunque è fatto sullo stesso silicio di BD, ha il Turbo2 di BD, spegne i core non sotto carico come BD, ha un IPC dichiarato superiore al K10 mi sembra del 15%... poi, io sulla grafica di Llano ancora non ci ho capito bene, perché è offerto con TDP bassi per arrivare sino a 100W, che non sono pochi, se pensiamo che un BD X6 è 95W TDP come massimo, anche affibiando 30W all'APU, di spazio di TDP per i core ce n'è e non poco, 70W. Prova a pensare un BD X4 dove arriverebbe con 70W TDP.
Poi... con ancora 6-8 mesi di sviluppo, siamo certi che la soluzione APU sia la stessa di quanto visto sino ad ora? Dietro Llano c'è ATI, la quale ha solo da sciegliere cosa vuole mettere dentro Llano, ed il TDP della VGA discrete è sul 40nm TSMC, non sul 32nm SOI. Magari dico una bestialità, ma una volta che AMD/GF converte una VGA sul SOI, è probabile che tutti i problemi riscontrati sul 1° "trasbordo" siano comunque identificati e nel caso di conversione di una VGA più performante in APU, il tutto si risolve più velocemente, è come se ci fosse la pappa già pronta.
Magari ho fatto tutto molto semplice... però, magari altri per potenziare una APU dovrebbero prima creare la VGA e poi convertirla, per AMD/ATI la cosa dovrebbe essere molto più semplice, in quanto forse ci si limiterebbe a decidere cosa voler montare. :). Non dimentichiamoci, infine, che il TDP anche con valori uguali, non è detto che abbia potenze uguali. Senza creare polemica, nutro seri dubbi che Intel sappia fare una VGA meglio di ATI e che inoltre il silicio 32nm di Intel permetta un'APU a TDP più bassi a parità di potenza rispetto ad una APU ATI sul 32nm GF.

gi0v3
04-12-2010, 23:39
Io sinceramente non è che avevo detto che non lo farà mai... ma che non lo farà da subito. :sofico: .

Comunque io non credo che Llano sarà così scarso rispetto ad SB. Mi spiego meglio... come IPC max senza contare il TDP, non ho alcun dubbio che SB, come del resto già un i7 gli starebbe davanti... però a parità di TDP Llano potrebbe permettere forse contare su un clock più alto di SB per pareggiare le performances. D'accordo che Llano non ha l'architettura di BD, ma comunque è fatto sullo stesso silicio di BD, ha il Turbo2 di BD, spegne i core non sotto carico come BD, ha un IPC dichiarato superiore al K10 mi sembra del 15%... poi, io sulla grafica di Llano ancora non ci ho capito bene, perché è offerto con TDP bassi per arrivare sino a 100W, che non sono pochi, se pensiamo che un BD X6 è 95W TDP come massimo, anche affibiando 30W all'APU, di spazio di TDP per i core ce n'è e non poco, 70W. Prova a pensare un BD X4 dove arriverebbe con 70W TDP.
Poi... con ancora 6-8 mesi di sviluppo, siamo certi che la soluzione APU sia la stessa di quanto visto sino ad ora? Dietro Llano c'è ATI, la quale ha solo da sciegliere cosa vuole mettere dentro Llano, ed il TDP della VGA discrete è sul 40nm TSMC, non sul 32nm SOI. Magari dico una bestialità, ma una volta che AMD/GF converte una VGA sul SOI, è probabile che tutti i problemi riscontrati sul 1° "trasbordo" siano comunque identificati e nel caso di conversione di una VGA più performante in APU, il tutto si risolve più velocemente, è come se ci fosse la pappa già pronta.
Magari ho fatto tutto molto semplice... però, magari altri per potenziare una APU dovrebbero prima creare la VGA e poi convertirla, per AMD/ATI la cosa dovrebbe essere molto più semplice, in quanto forse ci si limiterebbe a decidere cosa voler montare. :). Non dimentichiamoci, infine, che il TDP anche con valori uguali, non è detto che abbia potenze uguali. Senza creare polemica, nutro seri dubbi che Intel sappia fare una VGA meglio di ATI e che inoltre il silicio 32nm di Intel permetta un'APU a TDP più bassi a parità di potenza rispetto ad una APU ATI sul 32nm GF.

mi sa che non mi ero spiegato bene... imho Llano andra' talmente meglio di SB che nella fascia a più ridotto consumo ad amd basteranno le integrate per contrastare SB dal lato GPU (non dimentichiamoci che abbiamo visto SB all'opera con una delle cpu migliori della gamma, e che la GPU di SB varia in potenza di calcolo a seconda del clock delle cpu, quindi per i sb a 45w mi aspetto una gpu confrontabile con le attuali integrate amd), mentre dal lato cpu ci vorrebbe un BD a basso consumo per tenere il passo, perchè l'attuale athlon II non sarebbe all'altezza... sui 65w e sui 95w con Llano non ci sarà storia per sb, ma sulla fascia dei 45w la gpu di llano sarà anche sovrabbondante, per le destinazioni d'uso che se ne fanno... da cui il mio ragionamento :)

paolo.oliva2
05-12-2010, 00:13
mi sa che non mi ero spiegato bene... imho Llano andra' talmente meglio di SB che nella fascia a più ridotto consumo ad amd basteranno le integrate per contrastare SB dal lato GPU (non dimentichiamoci che abbiamo visto SB all'opera con una delle cpu migliori della gamma, e che la GPU di SB varia in potenza di calcolo a seconda del clock delle cpu, quindi per i sb a 45w mi aspetto una gpu confrontabile con le attuali integrate amd), mentre dal lato cpu ci vorrebbe un BD a basso consumo per tenere il passo, perchè l'attuale athlon II non sarebbe all'altezza... sui 65w e sui 95w con Llano non ci sarà storia per sb, ma sulla fascia dei 45w la gpu di llano sarà anche sovrabbondante, per le destinazioni d'uso che se ne fanno... da cui il mio ragionamento :)

:)
La cosa più dura al momento... è arrivare ad aprile :)

Lunar Wolf
05-12-2010, 10:38
Domanda, visto che devo prendere un portatile, a quando la presentazione delle apu amd per 2011?

cionci
05-12-2010, 10:41
Domanda, visto che devo prendere un portatile, a quando la presentazione delle apu amd per 2011?
Per i netbook e ultraportatili Zacate è già stato presentato e sarà in commercio fra un paio di mesi.
Per i notebook ufficialmente estate 2011. Ufficiosamente pare che ci possa essere addirittura un anticipo ad aprile.

Lunar Wolf
05-12-2010, 11:02
Per i netbook e ultraportatili Zacate è già stato presentato e sarà in commercio fra un paio di mesi.
Per i notebook ufficialmente estate 2011. Ufficiosamente pare che ci possa essere addirittura un anticipo ad aprile.

:muro:

io pensavo verso marzo-aprile di comprarlo! se no me tocca scegliere un i3/i5 con nvidia o amd ma con costi alle stelle o un bel athlon 2 o phenom con gpu integrata nella mobo!

cionci
05-12-2010, 11:09
:)
La cosa più dura al momento... è arrivare ad aprile :)
Davvero. L'unica cosa negativa di tutto questo è stato proprio lo slittamento di 3-4 mesi Llano, lasciando il mercato mainstream e entry level in mano a SB.
Diciamo che Llano, frequenza per frequenza si posizionerà verso SB come Zacate si posiziona verso i Pentium/Celeron CULV: andrà meno a parità di frequenza dal lato CPU, mentre probabilmente sarà superiore dal lato GPU.
Sul lato consumi ci sarà da valutare, ma non sono per niente pessimista.

gi0v3
05-12-2010, 11:20
Davvero. L'unica cosa negativa di tutto questo è stato proprio lo slittamento di 3-4 mesi Llano, lasciando il mercato mainstream e entry level in mano a SB.
Diciamo che Llano, frequenza per frequenza si posizionerà verso SB come Zacate si posiziona verso i Pentium/Celeron CULV: andrà meno a parità di frequenza dal lato CPU, mentre probabilmente sarà superiore dal lato GPU.
Sul lato consumi ci sarà da valutare, ma non sono per niente pessimista.

esatto, tutto quello che lascia sul campo come IPC potrebbe riprenderselo sul clock-per-watt, e la GPU sarà sicuramente meglio... io volevo cambiare portatile, ma a sto punto aspetto zacate per l'11,6 come dico io che sto aspettando da quasi 2 anni :D e spero che con Llano finalmente vedremo amd sui desktop replacement, con un comparto video come si deve... voglio un degno erede del mio hdx 18, e lo voglio con Llano :D

bicchiere
05-12-2010, 12:35
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.

affiu
05-12-2010, 12:38
da gennaio la situazione si farà sempre piu ravvicinata,e il 2011 sarà l'anno piu pieno di novita di quanto non si è visti negli ultimi anni

a gennaio uscira sb ed sara inevitabile il confronto con il comparto grafico di zacate, pensate che ci sarà pure bisogno di essere approssimativi nel considerare che con opencl, di fatto non ci sarà proprio nulla da fare ?!

si puo veramente supporre che facendo girare un gioco (anche se in directx 10.1,per poter fare il confronto) e considerando solo il rapporto (frames x watt/ secondi),ci possa essere confronto?non sto volendo dire che le prestazioni siano dello stesso livello,ma l'INTEGRAZIONE cpu&gpu sara l'elemento che ''splitterà'' lo scenario nel futuro.l'accelazione di apu non deve essere ,secondo me, vista solo nel senso etimologico del termine ,ma far fare a chi di dovere sia ''geneticamente piu portata'' a sfruttare quel tipo di lavoro;ma dopotutto zacate è solo l'inizio e non ci sarà nulla davanti ad APU negli anni a venire

voglio dire in altre parole, se consideriamo un ''3'' ore di gioco ,pensate che il consumo totale associato sia paragonabile, o veramente mi chiedo se nel 2010 sia piu ''giusto'' far vedere una cpu gridare per qualche cosa in piu, anzicche fare un po di meno, ma come bere un bicchiere d'acqua?

felice di essere smentito......ma 29 watt per zacate con un gioco in ''monta'' secondo me nasconde un mistero....lo stesso con un athlon neo ,per gli stessi frame e risoluzioni,consumerebbe il triplo se non di piu

cionci
05-12-2010, 12:46
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.
Dipende quanto "seri", le prestazioni di Llano si pensa che siano molto vicine a quelle di una Mobility 5730, scheda che occupa livelli veramente alti nel mercato attuale dei notebook.
E' probabile che ci siano Llano con 240 SP per i notebook votati alla mobilità o con 480 SP per i desktop replacement.

paolo.oliva2
05-12-2010, 12:46
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.

Però il senso era un portatile, non un trasportabile.
Comunque, nell'esempio che fai, nulla toglierebbe come linea di massima un teorico BD al posto di Llano.

paolo.oliva2
05-12-2010, 13:27
Davvero. L'unica cosa negativa di tutto questo è stato proprio lo slittamento di 3-4 mesi Llano, lasciando il mercato mainstream e entry level in mano a SB.
Diciamo che Llano, frequenza per frequenza si posizionerà verso SB come Zacate si posiziona verso i Pentium/Celeron CULV: andrà meno a parità di frequenza dal lato CPU, mentre probabilmente sarà superiore dal lato GPU.
Sul lato consumi ci sarà da valutare, ma non sono per niente pessimista.

Davvero... un Llano ormai in estate 2011 non è un ottimo risultato per AMD.

gi0v3
05-12-2010, 13:32
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.

Estiqaatsi... pensa che... quello che dici non c'entra niente, si parlava del confronto tra la GPU integrata in Llano e quella integrata in SB, e da più parti ci sono conferme che la gpu di Llano andrà meglio... cosa c'entra la scheda video discreta?

affiu
05-12-2010, 13:36
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.

sono d'accordo con voi sul domandarsi se veramente sia migliore il lato gpu?; ma APU (come bulldozer che è un componente di fusion project) verra presentata ogni anno sempre piu diversificata ed piu potente.....

APU stessa (come lo sarà bulldozer) verrà assorbita da fusion ,e quando le condizioni( secondo me maturita del software eterogeneo e rimpicciolimento permettendo) saranno opportune ,neanche APU esisterà(sono solo mie opinioni) PIU' , e il ricordo di considerare la cpu e la gpu come due elementi separati finirà:Prrr:

se tutti i conti che mi sono fatti nella mia fantasia saranno cio che ho sempre supposto ,vorrò proprio vedere se 20 0 30 0 40 core ,possano battere un processore veramente IBRIDO .....

una specie di ''NEURONE'' elettrico mi aspetto(una alta specializzazione nel calcolo ), con cui ''magari poter parlare e interagire'':read: una nuova forma di intelligenza:read:

dany700
05-12-2010, 14:25
sono d'accordo con voi sul domandarsi se veramente sia migliore il lato gpu?; ma APU (come bulldozer che è un componente di fusion project) verra presentata ogni anno sempre piu diversificata ed piu potente.....

APU stessa (come lo sarà bulldozer) verrà assorbita da fusion ,e quando le condizioni( secondo me maturita del software eterogeneo e rimpicciolimento permettendo) saranno opportune ,neanche APU esisterà(sono solo mie opinioni) PIU' , e il ricordo di considerare la cpu e la gpu come due elementi separati finirà:Prrr:

se tutti i conti che mi sono fatti nella mia fantasia saranno cio che ho sempre supposto ,vorrò proprio vedere se 20 0 30 0 40 core ,possano battere un processore veramente IBRIDO .....

una specie di ''NEURONE'' elettrico mi aspetto(una alta specializzazione nel calcolo ), con cui ''magari poter parlare e interagire'':read: una nuova forma di intelligenza:read:

guarda :D ipotesi per ipotesi...ne sparo una grossa io

fra pochi anni non avremo ne pc, ne consolle, ne gpu discrete e neppure APU...per come conosciamo il tutto adesso.

perchè il futuro...è fusion :Prrr:

capitan_crasy
05-12-2010, 14:38
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.

http://www.pctunerup.com/up/results/_201012/20101205143827_Stopposting03.jpg

Mercuri0
05-12-2010, 21:12
Dal lato GPU sarà meglio... MAH BAH

Sui note a basso costo (dove le prestazioni della scheda video interessano poco) forse sara' meglio, sui notebook seri ci sarà una gpu dedicata sia nel caso intel che nel caso amd quindi BAH.
Dici eh?

Cercami un notebook serio hp-sony-dell-apple che abbia un GPU dello stesso livello di llano. (5670M)

C'è solo l'HP envy da 17'' e forse qualcosa di Alienware

floydbarber
05-12-2010, 21:40
Qui ci sono un paio di modelli Acer da 15.6" con APU E-350:

http://www.pcsuperstore.com/products/11245114-ACER-LXRD502005.html
http://www.futurepowerpc.com/scripts/product.asp?PRDCODE=1945-LX_RD502_015

bicchiere
06-12-2010, 10:00
Cercami un notebook serio hp-sony-dell-apple che abbia un GPU dello stesso livello di llano. (5670M)

C'è solo l'HP envy da 17'' e forse qualcosa di Alienware

Tu vuoi sapere quanti notebook avranno una GPU paragonabile alla APU di llano (5670M) QUANDO USCIRA' LLANO? (ovviamente la situazione attuale non è di alcun interesse)
Boh, a settembre 2011 suppongo saranno parecchi i notebook con una GPU superiore alla 5670M, gli stessi LLANO con una GPU dedicata ad esempio.

AleLinuxBSD
06-12-2010, 10:02
C'è una cosa che ancora non mi torna.
Secondo la roadmap, le Apu Liano saranno soluzioni a 4 core, mentre tutte le altre (a parte le nuove soluzioni per il mobile), non avranno la gpu integrata.
Mi domando perché non prevedere pure un 6 core Liano.
Altra domanda, per la riproduzione di file multimediali, l'utilizzo della gpu permette un drastico abbattimento dell'uso della cpu.
Nel caso di queste nuove soluzioni Liano è ipotizzabile pensare che tutta la potenzialità della parte gpu delle apu sarà utilizzabile pure nei sistemi linux senza andare su soluzioni proprietarie?
Altra domanda, correlata, che livello di maturità è stato raggiunto nell'uso delle gpu pure per fare l'encoding, anziché solo il decoding, dei file multimediali?
Fino a poco tempo fà, il supporto al livello di encoding era molto parziale, limitato, e specifico solo di alcuni software non free, che supportavano questo tipo di interfacciamento.

Per dire che, se tutto andasse bene, a quel punto perfino un 4 core apu potrebbe andare meglio di un 6 core od anche 8 core tradizionale, se fosse possibile usare la gpu pure per fare l'encoding.

cionci
06-12-2010, 10:35
Boh, a settembre 2011 suppongo saranno parecchi i notebook con una GPU superiore alla 5670M, gli stessi LLANO con una GPU dedicata ad esempio.
A parte che Llano uscirà prima di settembre 2011, hanno sempre parlato di prodotti sul mercato in estate 2011 (2nd half 2011), quindi secondo me verso Luglio saranno già sul mercato (altrimenti parlavano di Q3 2011).
La grafica integrata in Llano dovrebbe rappresentare un discreto passo avanti rispetto a tutte le soluzioni con 5650 integrata che si vedono adesso.
Vedendo il recente rebranding sulle soluzioni HD 6xxxM, è plausibile che l'identificazione della scheda in Llano sia 6540M o 6560M per la versione 480 SP e 64x0 per la versione con 240 SP.
La GPU di Llano sarebbe superiori a qualsiasi SB con grafica integrata e di pochissimo inferiore a tutte le soluzioni HD 6xxxM attualmente presenti sul mercato come rebranding della serie 5.
Rispetto ad Nvidia: tutta la serie GT 3xxM sarebbe inferiore come potenza.
Mentre sulla serie GT 4xxM, si andrebbe a posizionare subito sotto alla GT 460M, ma con prestazioni paragonabili a tutte le schede Nvidia superiori.
L'unica scheda Nvidia nettamente superiore sarà la GeForce GTX 580M che verrà presentata nel 2011.
Quindi per il 2011 le schede grafiche nettamente superiori alla GPU di Llano saranno solo la GeForce GTX 580M, le Radeon 5830M, 5850M, 5870M e le GPU AMD di alto livello basate sulla nuova architettura della serie 6. Queste ultime ovviamente saranno giustamente differenziate in base al mercato rispetto a Llano, ma è chiaro che non potranno avere un rapporto performance/Watt favorevole rispetto alla GPU integrata in Llano, visto che almeno per la prima parte del 2011 saranno sul processo produttivo a 40 nm bulk, contro i 32 nm SOI di quella integrata in Llano.
Inoltre c'è da considerare che la grafica integrata in Llano potrà garantire prestazioni senza precedenti soprattutto in mobilità, proprio in virtù del rapporto favorevole performance/Watt.

gokuss41980
06-12-2010, 10:58
Ciao a tutti,ma quindi Bullzoder quando dovrebbe uscire ? e le prime schede Am3 + ?:)

bicchiere
06-12-2010, 11:00
La grafica integrata in Llano dovrebbe rappresentare un discreto passo avanti rispetto a tutte le soluzioni con 5650 integrata che si vedono adesso.


Vediamo un po'.

Le 5650 sono caratterizzate da un TDP: 15W-19W
http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5700/Pages/hd-5650-specs.aspx

Quella immediatamente superiore sul sito AMD, la 5730, sono caratterizzate da un TDP: 26W

Ora, è vero che si passa da 40 a 32 nm,
ma io non mi aspetto miracoli.

Infilare queste cose in un solo chip (diciamo che il llano piu' performante dovrebbe stare sui 45W) mi sembra complicato

La mia stima è che le performance APU del TOP llano siano quelle di una 5650/5670 (non la trovo sul sito amd), SE VA MOOOOOLTO BENE.


PS: Non ho mai visto un prodotto uscire a LUGLIO. Se esce a luglio, i notebook llano li trovi nei listini di settembre.

cionci
06-12-2010, 11:15
Vediamo un po'.

Le 5650 sono caratterizzate da un TDP: 15W-19W
http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5700/Pages/hd-5650-specs.aspx

Quella immediatamente superiore sul sito AMD, la 5730, sono caratterizzate da un TDP: 26W

Ora, è vero che si passa da 40 a 32 nm,
ma io non mi aspetto miracoli.

Infilare queste cose in un solo chip (diciamo che il llano piu' performante dovrebbe stare sui 45W) mi sembra complicato

La mia stima è che le performance APU del TOP llano siano quelle di una 5650/5670 (non la trovo sul sito amd), SE VA MOOOOOLTO BENE.


PS: Non ho mai visto un prodotto uscire a LUGLIO. Se esce a luglio, i notebook llano li trovi nei listini di settembre.
Ti dimentichi che non c'è alcun consumo per quanto riguarda la circuiteria della scheda e per la memoria aggiuntiva (parte certo si trasferisce alla Ram di sistema, ma sicuramente l'alimentazione viene risparmiata). Sembra che il 32 nm SOI rispetto al 45 nm SOI permetta di dimezzare quasi la potenza dissipata. Il 40 nm bulk ha caratteristiche paragonabili al 45 nm SOI. Io credo che si stia intorno ai 15W.
La 5650M la supera di sicuro. 480 SP contro 400 e una potenza stimata (da un PR AMD) di 500 GFlops contro 440.
Hanno sempre parlato di prodotti basati su Llano in commercio in estate.

Athlon 64 3000+
06-12-2010, 11:43
Messo da parte questa volta in definitiva l'interessa per Llano Desktop diciamo che sarà interessante per Llano in ambito portatile.
Dico questo perchè mi piacerebbe in molto vedere portatile con Llano e gpu mobili a 28 nm cosi poi da tenerlo in considerazione in prospettiva futura.
Naturalmente prima del 2012 non lo prenderei in considerazione visto che è appena 5 mesi che ho preso un Toshiba L650D-10H.

bjt2
06-12-2010, 13:34
A parte che Llano uscirà prima di settembre 2011, hanno sempre parlato di prodotti sul mercato in estate 2011 (2nd half 2011), quindi secondo me verso Luglio saranno già sul mercato (altrimenti parlavano di Q3 2011).
La grafica integrata in Llano dovrebbe rappresentare un discreto passo avanti rispetto a tutte le soluzioni con 5650 integrata che si vedono adesso.
Vedendo il recente rebranding sulle soluzioni HD 6xxxM, è plausibile che l'identificazione della scheda in Llano sia 6540M o 6560M per la versione 480 SP e 64x0 per la versione con 240 SP.
La GPU di Llano sarebbe superiori a qualsiasi SB con grafica integrata e di pochissimo inferiore a tutte le soluzioni HD 6xxxM attualmente presenti sul mercato come rebranding della serie 5.
Rispetto ad Nvidia: tutta la serie GT 3xxM sarebbe inferiore come potenza.
Mentre sulla serie GT 4xxM, si andrebbe a posizionare subito sotto alla GT 460M, ma con prestazioni paragonabili a tutte le schede Nvidia superiori.
L'unica scheda Nvidia nettamente superiore sarà la GeForce GTX 580M che verrà presentata nel 2011.
Quindi per il 2011 le schede grafiche nettamente superiori alla GPU di Llano saranno solo la GeForce GTX 580M, le Radeon 5830M, 5850M, 5870M e le GPU AMD di alto livello basate sulla nuova architettura della serie 6. Queste ultime ovviamente saranno giustamente differenziate in base al mercato rispetto a Llano, ma è chiaro che non potranno avere un rapporto performance/Watt favorevole rispetto alla GPU integrata in Llano, visto che almeno per la prima parte del 2011 saranno sul processo produttivo a 40 nm bulk, contro i 32 nm SOI di quella integrata in Llano.
Inoltre c'è da considerare che la grafica integrata in Llano potrà garantire prestazioni senza precedenti soprattutto in mobilità, proprio in virtù del rapporto favorevole performance/Watt.

Proprio sul mese di Dicembre di PC professionale c'è una piccola comparativa di schede video notebook. Una GT 3xx andava il doppio di una serie 5 AMD nel caso avesse memoria GDDR5 contro memoria DDR3 e 25,6GB di banda. Poi c'era un altro portatile con scheda GT 3xx ma memoria DDR3 ed effettivamente andava la metà. In sostanza hanno detto di guardare la memoria del chip grafico su un NB. DEVE essere GDDR5. Siamo sicuri che Llano, con memoria DDR3 e per giunta condivisa, sia superiore a una GT 3xx con memoria GDDR5?

capitan_crasy
06-12-2010, 13:37
C'è una cosa che ancora non mi torna.
Secondo la roadmap, le Apu Liano saranno soluzioni a 4 core, mentre tutte le altre (a parte le nuove soluzioni per il mobile), non avranno la gpu integrata.
Mi domando perché non prevedere pure un 6 core Liano.

Per le soluzioni Llano (con la L e non con la I) saranno basati sul core propus a 32nm e non sul core Deneb/Thuban la quale prevede la cache L3...

Altra domanda, per la riproduzione di file multimediali, l'utilizzo della gpu permette un drastico abbattimento dell'uso della cpu.
Nel caso di queste nuove soluzioni Liano è ipotizzabile pensare che tutta la potenzialità della parte gpu delle apu sarà utilizzabile pure nei sistemi linux senza andare su soluzioni proprietarie?

Non sono esperto nel mondo Linux ma se non sbaglio AMD ha in progetto di rendere aperti i driver catalyst...


Altra domanda, correlata, che livello di maturità è stato raggiunto nell'uso delle gpu pure per fare l'encoding, anziché solo il decoding, dei file multimediali?
Fino a poco tempo fà, il supporto al livello di encoding era molto parziale, limitato, e specifico solo di alcuni software non free, che supportavano questo tipo di interfacciamento.
Per dire che, se tutto andasse bene, a quel punto perfino un 4 core apu potrebbe andare meglio di un 6 core od anche 8 core tradizionale, se fosse possibile usare la gpu pure per fare l'encoding.

Non è tanto un problema di maturità delle APU ma dello "scrivere" programmi adatti in grado di sfruttare le capacità di calcolo della GPU in operazioni di GPGPU.
Le OpenCL servano a questo scopo, quindi dobbiamo sperare che lo standard aperto prenda piede...
Ciao a tutti,ma quindi Bullzoder quando dovrebbe uscire ? e le prime schede Am3 + ?:)

Bulldozer dovrebbe uscire tra Aprile e Maggio, mentre le prime soluzioni AM3+ dovrebbero uscire nello stesso periodo.
Cè anche una voce dove le prime schede mamme con 980G potrebbero uscire nel primo trimestre 2011...

capitan_crasy
06-12-2010, 14:56
Proprio sul mese di Dicembre di PC professionale c'è una piccola comparativa di schede video notebook. Una GT 3xx andava il doppio di una serie 5 AMD nel caso avesse memoria GDDR5 contro memoria DDR3 e 25,6GB di banda. Poi c'era un altro portatile con scheda GT 3xx ma memoria DDR3 ed effettivamente andava la metà. In sostanza hanno detto di guardare la memoria del chip grafico su un NB. DEVE essere GDDR5. Siamo sicuri che Llano, con memoria DDR3 e per giunta condivisa, sia superiore a una GT 3xx con memoria GDDR5?

Una 5570 con memorie GDDR5 fa di più di una stessa GPU a DDR3, ma il suo vantaggio non arriva al 50%...
Le APU Llano avranno il vantaggio di costare come una CPU attuale ma come tutti sappiamo si avrà la GPU integrata.
Consumo e possibilità di ampliare le capacità della GPU integrata con soluzioni esterne (stile Hybrid crossfire) sono tutto a favore di queste soluzioni AMD, non contando che realizzare schede mamme per le soluzioni APU sono senz'altro più semplici e economiche di quelle attualmente in commercio con CPU e IGP AMD...

cionci
06-12-2010, 15:03
Proprio sul mese di Dicembre di PC professionale c'è una piccola comparativa di schede video notebook. Una GT 3xx andava il doppio di una serie 5 AMD nel caso avesse memoria GDDR5 contro memoria DDR3 e 25,6GB di banda. Poi c'era un altro portatile con scheda GT 3xx ma memoria DDR3 ed effettivamente andava la metà. In sostanza hanno detto di guardare la memoria del chip grafico su un NB. DEVE essere GDDR5. Siamo sicuri che Llano, con memoria DDR3 e per giunta condivisa, sia superiore a una GT 3xx con memoria GDDR5?
Trovo che la bandwidth offerta da Llano possa essere castrante solo in determinati ambiti (chiaramente rispetto alle soluzioni Mobile). Resta comunque che i 500 GFlops promessi dalla APU di Llano sono nettamente superiori a qualsiasi scheda Nvidia della serie GT 3xxM, tranne la 360M e la 350M (420 e 360 GFlops), che pur restano inferiori.

Pihippo
06-12-2010, 16:05
Proprio sul mese di Dicembre di PC professionale c'è una piccola comparativa di schede video notebook. Una GT 3xx andava il doppio di una serie 5 AMD nel caso avesse memoria GDDR5 contro memoria DDR3 e 25,6GB di banda. Poi c'era un altro portatile con scheda GT 3xx ma memoria DDR3 ed effettivamente andava la metà. In sostanza hanno detto di guardare la memoria del chip grafico su un NB. DEVE essere GDDR5. Siamo sicuri che Llano, con memoria DDR3 e per giunta condivisa, sia superiore a una GT 3xx con memoria GDDR5?

Ciao Bjt2 :)
Dipende. Il mem controller di Llano sarà lo stesso del k10? Che non abbiano modificato un pò il mem controller lo ritengo dubbio.Certo non offrirà banda da GDDR5 ma a risoluzioni basse ciò non è eccessivamente penalizzante. Dubito che Llano faccia girare i giochini a 1680xecceteravari.
Poi nel mem controller del k10 è presente pure una circuteria di prefetch, chissa magari hanno fatto qualche modifichina qui e li.

AleLinuxBSD
06-12-2010, 16:36
se non sbaglio AMD ha in progetto di rendere aperti i driver catalyst...

Spero che lo faccia, dato che la parte che attualmente rimane chiusa, quindi utilizzabile solo usando i loro driver proprietari, permetterebbe di fare diverse cose.
Che poi le performance dei driver liberi, ancora non sia al livello di quelli proprietari, mi importa poco, l'importante sarebbe che riescano ad avere prestazioni sufficienti per lo scopo, però se questa parte rimane chiusa, tutto resterà affidato al processore, quindi non cambierebbe niente.:mc:

bjt2
06-12-2010, 18:42
Trovo che la bandwidth offerta da Llano possa essere castrante solo in determinati ambiti (chiaramente rispetto alle soluzioni Mobile). Resta comunque che i 500 GFlops promessi dalla APU di Llano sono nettamente superiori a qualsiasi scheda Nvidia della serie GT 3xxM, tranne la 360M e la 350M (420 e 360 GFlops), che pur restano inferiori.

E pensa che io avevo sentito che fosse classe teraflop. Se ci pensi 480 SP, ognuno dei quali può fare 2 flops/ciclo (una FMAD è 2 flops), a 1000 MHz sono 1 Teraflop... Questa frequenza, almeno nella versione TOP desktop, non è impossibile... Comunque mi pare che fosse la 340 con GDDR5 che aveva il doppio delle prestazioni di un modello leggermente inferiore, ma con DDR3. Poi l'unico portatile della comparativa con scheda ATI classe 5xxx aveva delle DDR3, quindi risultato scarso... :(

Ciao Bjt2 :)
Dipende. Il mem controller di Llano sarà lo stesso del k10? Che non abbiano modificato un pò il mem controller lo ritengo dubbio.Certo non offrirà banda da GDDR5 ma a risoluzioni basse ciò non è eccessivamente penalizzante. Dubito che Llano faccia girare i giochini a 1680xecceteravari.
Poi nel mem controller del k10 è presente pure una circuteria di prefetch, chissa magari hanno fatto qualche modifichina qui e li.

Beh, nella famosa comparativa, giocano a quelle risoluzioni, o leggermente inferiori, con delle GT320-340, anche con DDR3... Quindi Llano dovrà essere in grado di farlo, se vuole rubare il mercato ai vari notebook con risoluzione HD ready che si trovano in giro... Spero a questo punto che il turbo funzioni anche per la GPU...

cionci
06-12-2010, 18:48
E pensa che io avevo sentito che fosse classe teraflop. Se ci pensi 480 SP, ognuno dei quali può fare 2 flops/ciclo (una FMAD è 2 flops), a 1000 MHz sono 1 Teraflop... Questa frequenza, almeno nella versione TOP desktop, non è impossibile...
Concordo che non sia impossibile, ma per contenere la potenza dissipata credo che rimangano intorno ai 700 Mhz.
Comunque è stato un PR AMD a riferire 400-500 GFlops: http://www.youtube.com/watch?v=uwhuNcx4BTY

capitan_crasy
06-12-2010, 18:53
Concordo che non sia impossibile, ma per contenere la potenza dissipata credo che rimangano intorno ai 700 Mhz.
Comunque è stato un PR AMD a riferire 400-500 GFlops: http://www.youtube.com/watch?v=uwhuNcx4BTY

occhio al Turbo core 2.0 di AMD; dovrebbe intervenire anche sulle frequenza della GPU...

cionci
06-12-2010, 18:59
occhio al Turbo core 2.0 di AMD; dovrebbe intervenire anche sulle frequenza della GPU...
Non lo sappiamo in teoria. Potrebbe, ma non è assicurato. Comunque se lo dicono loro che sono 400-500 GFlops non credo che si possano sbagliare. Magari sono 400 senza turbo e 500 con il turbo :boh:

bicchiere
06-12-2010, 19:01
Comunque è stato un PR AMD a riferire 400-500 GFlops: http://www.youtube.com/watch?v=uwhuNcx4BTY

Cioè le vostre stime di velocità si basano sulla considerazione orale di un PR? :mbe: Spero ci siano altre fonti. E spero che i GIGAFLOPS valgano piu' dei GHZ

Vabbè, comunque, quando esce llano? Cosa hanno detto finora?
Questa riga non l'ho ben capita
hanno sempre parlato di prodotti sul mercato in estate 2011 (2nd half 2011), quindi secondo me verso Luglio saranno già sul mercato (altrimenti parlavano di Q3 2011)

2nd half 2011 mi sembra ben diverso da estate 2011. Insomma, quando esce? ;)

dark.halo
06-12-2010, 19:10
Cioè le vostre stime di velocità si basano sulla considerazione orale di un PR? :mbe: Spero ci siano altre fonti. E spero che i GIGAFLOPS valgano piu' dei GHZ

Vabbè, comunque, quando esce llano? Cosa hanno detto finora?
Questa riga non l'ho ben capita


2nd half 2011 mi sembra ben diverso da estate 2011. Insomma, quando esce? ;)

C'è anche una slide ufficiale in cui si legge chiaramente di classe gigaflops.

capitan_crasy
06-12-2010, 19:18
Cioè le vostre stime di velocità si basano sulla considerazione orale di un PR? :mbe: Spero ci siano altre fonti. E spero che i GIGAFLOPS valgano piu' dei GHZ

Vabbè, comunque, quando esce llano? Cosa hanno detto finora?
Questa riga non l'ho ben capita


2nd half 2011 mi sembra ben diverso da estate 2011. Insomma, quando esce? ;)

Vogliamo leggere la prima pagina e smetterla di cercare inutili flame???:muro:

Alekz
06-12-2010, 19:21
..E spero che i GIGAFLOPS valgano piu' dei GHZ..

eh?

cionci
06-12-2010, 19:25
Cioè le vostre stime di velocità si basano sulla considerazione orale di un PR? :mbe: Spero ci siano altre fonti. E spero che i GIGAFLOPS valgano piu' dei GHZ
E ti sembra poco ? E' una dichiarazione UFFICIALE in una preview di Llano.
Senza contare i 480 SP, vai a vedere quanti GFlops fanno le schede basate sulla GPU Redwood con 400 SP ;)
Vabbè, comunque, quando esce llano? Cosa hanno detto finora?
Questa riga non l'ho ben capita

2nd half 2011 mi sembra ben diverso da estate 2011. Insomma, quando esce? ;)
No, hanno detto anche summer 2011: http://www.insidehw.com/Editorials/Interviews/InsideHW-Interview-Leslie-Sobon-AMD.html

bicchiere
06-12-2010, 19:37
eh?

Ad esempio, su notebookcheck
la RADEON 5650M
http://www.notebookcheck.net/ATI-Mobility-Radeon-HD-5650.23697.0.html
le prende sonoramente dalla GEFORCE GTS 360M
http://www.notebookcheck.net/NVIDIA-GeForce-GTS-360M.24058.0.html

La RADEON 5650 HA
Processing power (single precision): 360-520 GigaFLOPS secono
http://www.amd.com/US/PRODUCTS/NOTEBOOK/GRAPHICS/ATI-MOBILITY-HD-5700/Pages/hd-5650-specs.aspx

La GEFORCE GTS 360M HA 360 GFlops secondo notebookcheck.

Che ne pensate? RAM? La Geforce è solo 10.1, cmq... contano sti gigaflops?

PS: Non vedo flame in atto, stiamo semplicemente ragionando.

capitan_crasy
06-12-2010, 19:38
E ti sembra poco ? E' una dichiarazione UFFICIALE in una preview di Llano.
Senza contare i 480 SP, vai a vedere quanti GFlops fanno le schede basate sulla GPU Redwood con 400 SP ;)

No, hanno detto anche summer 2011: http://www.insidehw.com/Editorials/Interviews/InsideHW-Interview-Leslie-Sobon-AMD.html

sei un po :old: ...
Personalmente non ne sono sicuro (infatti ho preferito non riportare la notizia) ma secondo alcuni AMD ha smentito il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20077&tt=AMD+avvia+le+consegne+di+Brazos.+Niente+ritardi+per+Llano)
In realtà Llano è in ritardo per via di un nuovo step produttivo ma forse è il 32nm SOI che sta bruciando qualche tappa....

cionci
06-12-2010, 19:49
sei un po :old: ...
Personalmente non ne sono sicuro (infatti ho preferito non riportare la notizia) ma secondo alcuni AMD ha smentito il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20077&tt=AMD+avvia+le+consegne+di+Brazos.+Niente+ritardi+per+Llano)
In realtà Llano è in ritardo per via di un nuovo step produttivo ma forse è il 32nm SOI che sta bruciando qualche tappa....
Poi alla fine non dicono cose molto diverse, parla di produzione nel Q2 e disponibilità nell'estate 2011 (che inizia prima della fine di giugno, cioè prima della fine del 1H).

cionci
06-12-2010, 19:56
Ad esempio, su notebookcheck
la RADEON 5650M
http://www.notebookcheck.net/ATI-Mobility-Radeon-HD-5650.23697.0.html
le prende sonoramente dalla GEFORCE GTS 360M
http://www.notebookcheck.net/NVIDIA-GeForce-GTS-360M.24058.0.html

La RADEON 5650 HA
Processing power (single precision): 360-520 GigaFLOPS secono
http://www.amd.com/US/PRODUCTS/NOTEBOOK/GRAPHICS/ATI-MOBILITY-HD-5700/Pages/hd-5650-specs.aspx

La GEFORCE GTS 360M HA 360 GFlops secondo notebookcheck.

Che ne pensate? RAM? Contano sti gigaflops?

PS: Non vedo flame in atto, stiamo semplicemente ragionando.
La 5650 in questione ne ha 360 o 520 GFlops a seconda della frequenza. Quindi è chiaro che i valori più alti (vedi su notebook review) siano ottenuti con il chip a 450 Mhz, mentre quelli più alti con i chip a 650 Mhz. Prendendo i più alti vedrai che non le suona affatto, ma sono molto vicine. Tra l'altro la banda verso la memoria della 5650M è molto vicina a quella offerta dalla memoria di sistema.
La GTS 360M è capace di sfornare 413 GFlops con GDDR5: http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units#GeForce_300M_.283xxM.29_series

von Clausewitz
06-12-2010, 19:57
sei un po :old: ...
Personalmente non ne sono sicuro (infatti ho preferito non riportare la notizia) ma secondo alcuni AMD ha smentito il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20077&tt=AMD+avvia+le+consegne+di+Brazos.+Niente+ritardi+per+Llano)
In realtà Llano è in ritardo per via di un nuovo step produttivo ma forse è il 32nm SOI che sta bruciando qualche tappa....

la tua news è del 10 novembre
ma c'è dallo stesso sito un altra news datata 19 novembre che così recita:
"I primi processori Zambesi arriveranno a metà 2011; Llano sarà disponibile qualche mese più tardi"
cioè si conferma il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20123&tt=Nuova+roadmap+delle+CPU+AMD+Bulldozer+%26acute%3BZambesi%26acute%3B+e+Llano)

cionci
06-12-2010, 20:07
la tua news è del 10 novembre
ma c'è dallo stesso sito un altra news datata 19 novembre che così recita:
"I primi processori Zambesi arriveranno a metà 2011; Llano sarà disponibile qualche mese più tardi"
cioè si conferma il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20123&tt=Nuova+roadmap+delle+CPU+AMD+Bulldozer+%26acute%3BZambesi%26acute%3B+e+Llano)
Non cambia niente. Come vedi si parla dell'inizio del Q3 2011. Che corrisponde a Luglio ;)

capitan_crasy
06-12-2010, 20:09
Ad esempio, su notebookcheck
la RADEON 5650M
http://www.notebookcheck.net/ATI-Mobility-Radeon-HD-5650.23697.0.html
le prende sonoramente dalla GEFORCE GTS 360M
http://www.notebookcheck.net/NVIDIA-GeForce-GTS-360M.24058.0.html

La RADEON 5650 HA
Processing power (single precision): 360-520 GigaFLOPS secono
http://www.amd.com/US/PRODUCTS/NOTEBOOK/GRAPHICS/ATI-MOBILITY-HD-5700/Pages/hd-5650-specs.aspx

La GEFORCE GTS 360M HA 360 GFlops secondo notebookcheck.

Che ne pensate? RAM? La Geforce è solo 10.1, cmq... contano sti gigaflops?

PS: Non vedo flame in atto, stiamo semplicemente ragionando.

spiegami "dottor non vedo flame" come fai a paragonare una GPU come 360M con una 5670M quando la sua antagonista tra prezzo/prestazioni è la 250M?:rolleyes:
Vedi di smetterla con il tuo atteggiamento da flammatore, ormai sei patetico...

capitan_crasy
06-12-2010, 20:13
la tua news è del 10 novembre
ma c'è dallo stesso sito un altra news datata 19 novembre che così recita:
"I primi processori Zambesi arriveranno a metà 2011; Llano sarà disponibile qualche mese più tardi"
cioè si conferma il ritardo su Llano...
Clicca qui... (http://www.dinoxpc.com/News/news.asp?ID_News=20123&tt=Nuova+roadmap+delle+CPU+AMD+Bulldozer+%26acute%3BZambesi%26acute%3B+e+Llano)

E quindi?
Non ho mai messo in dubbio il ritardo di Llano, anzi sono stato il primo a riportare il suo posticipo; inoltre stavo rispondendo ad una news di cionci targata settembre... :O

von Clausewitz
06-12-2010, 20:25
Non cambia niente. Come vedi si parla dell'inizio del Q3 2011. Che corrisponde a Luglio ;)

beh per un utente di questo forum un paio di mesi prima o dopo non dovrebbe cambiare gran che (ma anche no, a pronosticare ritardi di AMD a qualcuno gli viene un coccolone come può stare senza la compagnia di zambesi o llano un giorno di più? :sofico: )
per AMD invece, anche un solo giorno di ritardo, si traduce in milioni di $ di mancati introiti e questo si che è un danno, convieni?
comunque verosimile almeno un paper launch per luglio e volumi per settembre come ipotesi più ragionevole su cui si era discusso e convenuto qualche decina (o centinaia :eek: ) di pagine addietro
in ogni caso a voler essere pignoli Q3 può indicare luglio così come settembre e io sono intervenuto più che altro perchè state mettendo in croce bicchiere solo perchè stava esternando qualche dubbio sulle prestazioni o le date di lancio cercando di argomentarli ;)

cionci
06-12-2010, 20:28
Ma non cambia nulla, la disponibilità è sempre all'inizio dell'estate 2011. Se fossero due mesi di ritardo lo avrebbero messo alla fine del Q3.
Resta come prima: spedizione ai produttori nel Q2 2011 e disponibilità dei prodotti all'inizio dell'estate del 2011.

von Clausewitz
06-12-2010, 20:28
E quindi?
Non ho mai messo in dubbio il ritardo di Llano, anzi sono stato il primo a riportare il suo posticipo; inoltre stavo rispondendo ad una news di cionci targata settembre... :O

e quindi niente di particolare, vedi sopra ;)

bicchiere
06-12-2010, 20:35
Ma non cambia nulla, la disponibilità è sempre all'inizio dell'estate 2011. Se fossero due mesi di ritardo lo avrebbero messo alla fine del Q3.
Resta come prima: spedizione ai produttori nel Q2 2011 e disponibilità dei prodotti all'inizio dell'estate del 2011.

Penso si riferisse a questa
http://www.dinoxpc.com/News/news.asp?ID_News=20123&tt=Nuova+roadmap+delle+CPU+AMD+Bulldozer+%26acute%3BZambesi%26acute%3B+e+Llano

Terzo trimestre, se il ritardo sarà confermato.

von Clausewitz
06-12-2010, 20:36
Ma non cambia nulla, la disponibilità è sempre all'inizio dell'estate 2011. Se fossero due mesi di ritardo lo avrebbero messo alla fine del Q3.
Resta come prima: spedizione ai produttori nel Q2 2011 e disponibilità dei prodotti all'inizio dell'estate del 2011.

stavo dicendo appunto la stessa cosa con l'incipit che i dubbi di bicchiere circa l'effettiva disponibilità per luglio in volumi di Llano sugli scaffali hanno qualche fondamento
poi si spera per AMD medesima che prima riesce a mettere a frutto il salto che si appestra a fare per metà 2011, prima Dirk Meyer potrà andare all'assemblea degli azionisti con concrete possibilità di presentare utili trimestrali ai suddetti azionisti come si aspettano dopo anni di magra
francamente non mi sembrava così difficile interpretare quello che ho scritto, boh :rolleyes:

dany700
06-12-2010, 21:32
stavo dicendo appunto la stessa cosa con l'incipit che i dubbi di bicchiere circa l'effettiva disponibilità per luglio in volumi di Llano sugli scaffali hanno qualche fondamento
poi si spera per AMD medesima che prima riesce a mettere a frutto il salto che si appestra a fare per metà 2011, prima Dirk Meyer potrà andare all'assemblea degli azionisti con concrete possibilità di presentare utili trimestrali ai suddetti azionisti come si aspettano dopo anni di magra
francamente non mi sembrava così difficile interpretare quello che ho scritto, boh :rolleyes:

dipende dai punti di vista.

ricordo a tutti che l'unico Fermi che Nvidia ha venduto durante tutto il 2010 è la 460 (tutte le altre non hanno fatto ne faranno volumi quest'anno).

guardacaso...la 460 è stata lanciata la prima settimana di luglio ;)

ergo...Nvidia può e AMD no? :rolleyes:

Non credo che in AMD siano scemi...lo sanno pure loro che ogni giorno di ritardo costa tanti soldini...per questo "certe" aziende...evitano di lanciare sul mercato progetti ancora acerbi (Nvidia con gf100 a parte).

Sono solo punti di vista...peraltro campati in aria...mancano più di 6 mesi al lancio, può succedere di tutto...anticipare, mantenere le date o posticipare ;)

dany700
06-12-2010, 21:39
Penso si riferisse a questa
http://www.dinoxpc.com/News/news.asp?ID_News=20123&tt=Nuova+roadmap+delle+CPU+AMD+Bulldozer+%26acute%3BZambesi%26acute%3B+e+Llano

Terzo trimestre, se il ritardo sarà confermato.

tanto per cominciare le slide che riporti sono di ottobre.

secondariamente...anche se fossero attuali...è segnalato bene, forte e chiaro:

fine Q2 o INIZIO Q3...ovvero ultima settimana di giugno.

Salvo ulteriori e future variazioni.

affiu
06-12-2010, 22:46
scusate ma a volte vorrei ricredermi ,prima che inizieranno le confusioni nella mia mente,cioè non ho capito bene una cosa:

il notebook llano non avrà dunque la scheda video ,ad esempio una 5500 0 5600 che sia?giusto?o al max una della serie(e perchè no) hd 7ooo a 28 nm in una specie di crossfire?

da quello che ho sempre ''capito'',e ditemi se sbaglio, in pratica tutto ciò che costa(come energia elettrica )per far funzionare la scheda video verrà risparmiata, e dopotutto il discorso addirittura verte verso questo guadagno non solo(a quanto si stia prospettando) a livello di ergonomia ma di un guadagno complessivo,maggiore che le stesse avrebbero separatamente

cioe secondo voi si ''potrebbe pensare''(o sarebbe esagerato) una piattaforma danube x4 con una scheda video pressocchè come potenza simile a quella di llano,che sia ''TUTTO''(phenom x4 + scheda video) racchiuso in quel processore che si chiama llano e che dopotutto nonostante consumi di meno che il phenom + la scheda video separatamente, HA DELLE POTENZIALITA che cmq la contraddistinguono in ogni caso:read:

questo è la cosa che non riesco a intendere bene, perche cosa si dovrebbe pensare in futuro....anche dopo komodo e trinity.....

bicchiere
06-12-2010, 22:55
è segnalato bene, forte e chiaro:
fine Q2 o INIZIO Q3...ovvero ultima settimana di giugno.


ll Q3 termina il 30 settembre.
Tra l'altro noto che anche Zambesi è dato Q2/Q3.

Quindi LLANO e Zambesi entro il 30 settembre.

cionci
06-12-2010, 23:12
ll Q3 termina il 30 settembre.
Tra l'altro noto che anche Zambesi è dato Q2/Q3.

Quindi LLANO e Zambesi entro il 30 settembre.
Bicchiere, leggi meglio ;) Il lancio è previsto quando inizia la striscia.

capitan_crasy
06-12-2010, 23:21
Sempre più patetico...

ll Q3 termina il 30 settembre.

http://www.pctunerup.com/up/results/_201012/20101206232331_apu_roadmap_r0.jpg
Credo che non si sia altro da aggiungere...

Tra l'altro noto che anche Zambesi è dato Q2/Q3.

http://www.pctunerup.com/up/results/_201012/20101206232300_zambezi_roadmap_R0.jpg
http://www.pctunerup.com/up/results/_201012/20101206232047_dolore.jpg

Quindi LLANO e Zambesi entro il 30 settembre.
http://www.capitancrasy.com/images/Lamer11.GIF

bicchiere
06-12-2010, 23:21
Uhm forse hai ragione, mi sono fatto trascinare da DinoPC
(anche loro hanno frainteso).
Non è che le strisce vanno prese con le molle? :D

Pihippo
06-12-2010, 23:29
Beh, nella famosa comparativa, giocano a quelle risoluzioni, o leggermente inferiori, con delle GT320-340, anche con DDR3... Quindi Llano dovrà essere in grado di farlo, se vuole rubare il mercato ai vari notebook con risoluzione HD ready che si trovano in giro... Spero a questo punto che il turbo funzioni anche per la GPU...


Ciao
Come avevo scritto prima, tutto dipende dalla bontà del MHC di questo k8++
Ovviamente dipende anche dal livello di integrazione della gpu nella cpu, dipende dalla bontà dei meccanismi di prefetch, dall'xbar , insomma ancora su Llano non si sa nulla, e dunque si può dire poco.
Oltretutto nota che se la gpu aumenta il clock con il turbo, aumenta la quantità di operandi che deve utilizzare, ergo in casi patologici, ciò potrebbe portare poche prestazioni in più se la banda fa da collo di bottiglia.

Pihippo
06-12-2010, 23:31
Sempre più patetico...



http://www.pctunerup.com/up/results/_201012/20101206232331_apu_roadmap_r0.jpg
Credo che non si sia altro da aggiungere...


http://www.pctunerup.com/up/results/_201012/20101206232300_zambezi_roadmap_R0.jpg
http://www.pctunerup.com/up/results/_201012/20101206232047_dolore.jpg

http://www.capitancrasy.com/images/Lamer11.GIF

Capo anche in questo momento poco piacevole ,per me, con le tue gif mi son pisciato addosso dalle risate, ma dove le trovi?

cionci
06-12-2010, 23:32
Non è che le strisce vanno prese con le molle? :D
Certo, ma ovviamente con le molle sia in avanti che indietro.
Nota però che c'è una certa precisione, visto che Zambezi 6 core esce dovrebbe uscire prima della fine del Q2, ma dopo gli X8.
Quindi imho è da intendersi:
- Zambezi X8 a maggio 2011
- Zambezi X6 e X4 a giugno 2011
- Llano desktop Luglio 2011
Ovviamente il tutto da prendere con le molle, nel senso che ci può essere sicuramente una tolleranza di 15 giorni. Poi ci sta anche che non siano queste le date e che varino ancora (ci sono voci che danno Llano annunciato insieme a Zambezi).
Da notare i due modelli di GPU, Winterpark e Beavercreek. Queste secondo me identificheranno le GPU con il 240 e con 480 SP.

capitan_crasy
07-12-2010, 00:03
Capo anche in questo momento poco piacevole ,per me, con le tue gif mi son pisciato addosso dalle risate, ma dove le trovi?

Le gif fanno parte del mio oscuro passato...:D
Molte si trovato cercando nei posti giusti altre riesco a crearle io grazie ad una mia vecchia passione con alcuni programmi di editing video...
Inoltre molte immagini valgono più di molte parole ed io ho un HD pieno di gif animate e non...:read:

Pihippo
07-12-2010, 00:17
Le gif fanno parte del mio oscuro passato...:D
Molte si trovato cercando nei posti giusti altre riesco a crearle io grazie ad una mia vecchia passione con alcuni programmi di editing video...
Inoltre molte immagini valgono più di molte parole ed io ho un HD pieno di gif animate e non...:read:

:D
Oddio stavo rivendo le vecchie gif di leonida, son caduto dalla sedia.
Il 3d v3.0 sarebbe da mettere come sticky. :cool:

paolo.oliva2
07-12-2010, 03:12
Uhm forse hai ragione, mi sono fatto trascinare da DinoPC
(anche loro hanno frainteso).
Non è che le strisce vanno prese con le molle? :D

Se vogliamo tutto quanto è in informatica va preso con le molle, quindi se ciò lo vogliamo far valere per AMD, per parcondizio direi che valga per tutti e non SOLO per AMD.

Comunque dalla prima notizia della diffusione di Buldozer, AMD ha sempre riportato quella data.
Tra parentesi, quello che è realmente cambiato, è che il socket AM3+ è compatibile pure con i chip-set 8XX già presenti nel mercato, quindi una eventuale mobo compatibile BD e proci AM3 precedenti, non deve necessariamente aspettare i chip-set 9XX.

In poche parole, la commercializzazione di BD dipende solo da BD e da AMD, perché mobo, socket e quant'altro, potrebbero anche comparire sul mercato... domani.

AleLinuxBSD
07-12-2010, 08:15
Il consumo previsto per le soluzioni dotate di più di 2 core, nonostante la presenza della gpu integrata che chiaramente alza un po' il valore rispetto ad una soluzione senza questo componente, mi pare piuttosto elevato. :(

gianni1879
07-12-2010, 09:09
Siete sospesi 5gg ognuno, ci siamo stancati della vostra continua provocazione che non porta certo a discussioni costruttive:

von Clausewitz
bicchiere

AleLinuxBSD
07-12-2010, 09:20
AMD Already Has Open-Source Fusion Drivers (http://www.phoronix.com/scan.php?page=news_item&px=ODc5Mw)
It would be amazing if there was also video acceleration support, but due to the same problems barring AMD from opening up their UVD engine on the Radeon GPUs, it's probably unlikely to see that support officially come from the company.
:(

bjt2
07-12-2010, 11:20
Recensione di HWUpgrade del 1100T. Sostanzialmente Vcore un po' più basso in IDLE e uguale in full load, ma 100MHz in più e nonostante questo minori consumi sia in IDLE che in full load. E' possibile che questo modello salga di più del 1090T. I 100MHz in più ovviamente si sentono in tutti i benchmark. Non sono soddisfatto delle prove in OC: 3.9GHz con Vcore quasi a default, bus, memorie e NB tutto a default e dissipatore ad aria... Nessun bench in OC. Chissà se ho fatto venire a qualcuno la voglia di provarlo... :fiufiu:

paolo.oliva2
07-12-2010, 11:42
Recensione di HWUpgrade del 1100T. Sostanzialmente Vcore un po' più basso in IDLE e uguale in full load, ma 100MHz in più e nonostante questo minori consumi sia in IDLE che in full load. E' possibile che questo modello salga di più del 1090T. I 100MHz in più ovviamente si sentono in tutti i benchmark. Non sono soddisfatto delle prove in OC: 3.9GHz con Vcore quasi a default, bus, memorie e NB tutto a default e dissipatore ad aria... Nessun bench in OC. Chissà se ho fatto venire a qualcuno la voglia di provarlo... :fiufiu:

BD è ancora troppo distante... 4 mesi almeno sono lunghi e il 1090T ormai l'ho tirato al max :D. Bussi ad una porta aperta :). Se il 1100T offrisse di più dei 4,5GHz...

bjt2
07-12-2010, 12:38
BD è ancora troppo distante... 4 mesi almeno sono lunghi e il 1090T ormai l'ho tirato al max :D. Bussi ad una porta aperta :). Se il 1100T offrisse di più dei 4,5GHz...

100 MHz in più allo stesso Vcore, con consumo per di più inferiore. Anche se il limite dell'architettura rimanesse ai 4.7GHz (come misurato da te in single core, mi pare), comunque queste caratteristiche consentirebbero di salire qualcosina in più in multicore. Può darsi anche solo 50MHz data la non linearità del tutto. Bisogna vedere se ne vale la pena... :)

paolo.oliva2
07-12-2010, 13:05
100 MHz in più allo stesso Vcore, con consumo per di più inferiore. Anche se il limite dell'architettura rimanesse ai 4.7GHz (come misurato da te in single core, mi pare), comunque queste caratteristiche consentirebbero di salire qualcosina in più in multicore. Può darsi anche solo 50MHz data la non linearità del tutto. Bisogna vedere se ne vale la pena... :)

Le possibilità che salga di più ci sarebbero tutte, anche perché i core andrebbero anche più di 4,7GHz, non è che sono arrivato proprio al max nel monocore. Il problema nel multicore per me è nell'NB/L3/MC che diventerebbe ipersollecitata. Però i 1055T a 95W avevano un NB/L3/MC migliore (Vcore più basso)... e può darsi che questo sia "spostato" pure nel 1100T, il che concederebbe anche di più di 50MHz. Comunque, anche Carpo93 ha postato un 4,5GHz a screen a 1,44V (qui (http://valid.canardpc.com/show_oc.php?id=1522008)), il che farebbe ben sperare. La spesa non è che sarebbe certamente "impegnativa"... quello che mi "tira" di più è che se fossero in commercio le AM3+, farei un sistema ex-novo senza dover smontare tutto. Però guardo con attenzione... mi piacerebbero gli 8,10 con Cinebench.
Comunque nel rapporto Thuban-BD, per me AMD il 1100T lo poteva commercializzare anche da subito... un 1090T a 100MHz in più non avrebbe sicuramente sforato il TDP.
Questo a me porta a riflettere che per quanto possa "salire" il Thuban come X6 nei 125W, BD X4 comunque sarà superiore certamente in potenza rimanendo nei 95W (per questioni di mercato... AMD DEVE vendere da subito BD e lo deve comunque rendere più allettante in prestazioni/prezzo rispetto al Thuban. Un 1100T X6 a 3,3GHz a 200€, il cui prezzo calerà sicuramente prima di BD, porterebbe a potenze e/o prezzo per BD veramente allettanti).

Caterpillar86
07-12-2010, 14:13
Per caso sapete quale sarà l'ultimissima CPU 6 core che uscirà per socket AM3?

capitan_crasy
07-12-2010, 14:24
Per caso sapete quale sarà l'ultimissima CPU 6 core che uscirà per socket AM3?


difficile a dirsi...
Devono ancora uscire i modelli 1045T e 1065T; ma non si sa esattamente se AMD abbia ancora intenzione di presentare un nuovo top level tipo il 1200T @ 3.40Ghz...

bjt2
07-12-2010, 16:10
difficile a dirsi...
Devono ancora uscire i modelli 1045T e 1065T; ma non si sa esattamente se AMD abbia ancora intenzione di presentare un nuovo top level tipo il 1200T @ 3.40Ghz...


Semmai 1110T... :D

capitan_crasy
07-12-2010, 18:11
Semmai 1110T... :D

ok, ho un pelino esagerato...
:asd: :gluglu:

paolo.oliva2
07-12-2010, 19:20
ok, ho un pelino esagerato...
:asd: :gluglu:

^^

Piuttosto, a parte il nome che si sa, i BD che sigla numerica potrebbero avere?

Per non spanare a numeri altissimi, io sarei propenso che potrebbero usare i moduli come se fossero core, quindi un BD X4 tipo 2010-2090, BD X6 3010-3090 e BD X8 4010-4090, ecc. Poi, con il numero delle centinaia a zero, potrebbero usarla per versioni B.E. spinte... tipo 4110, ecc.

Comunque a parte fantasie e quant'altro, per me in OC BD + 32nm saliranno come delle bestie.
A parte qualsiasi considerazione ottimistica, rimane un dato di fatto: parlare di +500MHz (con un X8) con il Turbo per tutti i core, d'accordo nel caso di "sfruttamento" proci al 95%, ma, tanto, quanto TDP si può ipotizzare in un X8 a +500MHz per tutti i core per rimanere dentro i 95W, se sfruttato al 100%? 100W, 105W a sparare...
Su questa riga... ipotizzando che comunque non si dovrebbe avere un'impennata di TDP (mica siamo a proci 140W tirati per i capelli...), potrebbe anche non essere del tutto remota la possibilità di ristrovarsi un procio con +500MHz almeno sia in clock def che in Turbo senza superare ancora i 125W e quindi ancora compatibile con il dissi stock.
Speriamo che il silicio regga bene gli overvolt... perché se così fosse, tra basso TDP e overcloccabilità, si che si farebbero i numeri.

Acc 88
07-12-2010, 19:58
raga tutte le dd3 saranno compatibili con i BD??

capitan_crasy
07-12-2010, 20:08
^^

Piuttosto, a parte il nome che si sa, i BD che sigla numerica potrebbero avere?

[CUT]

Credo che sia ancora troppo presto: secondo me AMD non ha ancora i "nomi" definitivi...

raga tutte le dd3 saranno compatibili con i BD??

Bulldozer desktop dovrebbe supportare tutte le DDR3 fino alle 1833Mhz; quelle con frequenze più spinte saranno gestite in overclock...

dany700
07-12-2010, 21:12
^^

Piuttosto, a parte il nome che si sa, i BD che sigla numerica potrebbero avere?

Per non spanare a numeri altissimi, io sarei propenso che potrebbero usare i moduli come se fossero core, quindi un BD X4 tipo 2010-2090, BD X6 3010-3090 e BD X8 4010-4090, ecc. Poi, con il numero delle centinaia a zero, potrebbero usarla per versioni B.E. spinte... tipo 4110, ecc.

Comunque a parte fantasie e quant'altro, per me in OC BD + 32nm saliranno come delle bestie.
A parte qualsiasi considerazione ottimistica, rimane un dato di fatto: parlare di +500MHz (con un X8) con il Turbo per tutti i core, d'accordo nel caso di "sfruttamento" proci al 95%, ma, tanto, quanto TDP si può ipotizzare in un X8 a +500MHz per tutti i core per rimanere dentro i 95W, se sfruttato al 100%? 100W, 105W a sparare...
Su questa riga... ipotizzando che comunque non si dovrebbe avere un'impennata di TDP (mica siamo a proci 140W tirati per i capelli...), potrebbe anche non essere del tutto remota la possibilità di ristrovarsi un procio con +500MHz almeno sia in clock def che in Turbo senza superare ancora i 125W e quindi ancora compatibile con il dissi stock.
Speriamo che il silicio regga bene gli overvolt... perché se così fosse, tra basso TDP e overcloccabilità, si che si farebbero i numeri.

il vero intrigo di BD è che grazie alla sua architettura ad ampio respiro...si possono usare in MT fino ad 8 core con abbondante L2 e discrete velocità (4Ghz??)...viceversa...per un uso ludico, dove attualmente non ha senso superare i 3 core...è sufficiente spegnere due moduli...per arrivare a frequenze altissime (5Ghz??)...con ancora un core attivo ed inutilizzato che se la :ronf: oppure con uno dei due moduli che si divide equamente il lavoro senza stressarsi.

paolo.oliva2
07-12-2010, 21:30
il vero intrigo di BD è che grazie alla sua architettura ad ampio respiro...si possono usare in MT fino ad 8 core con abbondante L2 e discrete velocità (4Ghz??)...viceversa...per un uso ludico, dove attualmente non ha senso superare i 3 core...è sufficiente spegnere due moduli...per arrivare a frequenze altissime (5Ghz??)...con ancora un core attivo ed inutilizzato che se la :ronf: oppure con uno dei due moduli che si divide equamente il lavoro senza stressarsi.

:D . E' questa la manna.

Pensa ipoteticamente se si potessero spegnere dei core, a scelta, da bios, come per il Thuban.

Immagina un X8 facendolo diventare X4 lasciando 4 moduli per 4 core... oppure testare modulo per modulo per scoprire quali sarebbero i più performanti magari con un minor overvolt... Oppure un K10Stat per abbia tanti PState soggettivi magari a modulo, con una logica di utilizzo personalizzata.

Magari nel bios che si possa selezionare il Turbo come deve interagire, con che parametri di Vcore e frequenza, se se ne deve infischiare del superamento TDP o meno... se deve tenere conto unicamente delle temp.

Immagina un AOD che oltre a figurare gli 8 core magari li raggruppa a modulo con ogni modulo impostabile differentemente...

Roba da passare una notte intera solo per capire un po' come possa funzionare il tutto... poi piano piano capire i limiti, capire come ottimizzarlo, dove si può giostrare tra core/moduli... cacchio... si può dire che BD sarà totalmente diverso sia nella forma che nel comportamento... Concedetemi la battuta, sarebbe una ragazza "primo pelo".

paolo.oliva2
08-12-2010, 01:08
difficile a dirsi...
Devono ancora uscire i modelli 1045T e 1065T; ma non si sa esattamente se AMD abbia ancora intenzione di presentare un nuovo top level tipo il 1110T @ 3.40Ghz...


Comunque, Capitano, sono convinto che AMD non stia assolutamente buttando fuori il massimo possibile.

Faccio questo esempio:

uscita: 125W a partire da 2,8GHz, 95W < 2,8GHz (1055T e 1090T)
poi i 95W sono arrivati a 2,8GHz, in quantità limitate. (1055T)
ora i 95W sono arrivati a 2,9GHz (1065T) ma si vocifera del 1075T anche in versione 95W.

Ora... mi pare chiaro che la fascia 95W sia passata da mettiamo 2,6GHz-2,7GHz a 2,9-3GHz, mentre la fascia 125W ha guadagnato solo 100MHz.

Dagli innumerevoli test sappiamo benissimo che il Thuban scala in frequenza molto bene con un aumento di TDP irrisorio (140W per 4GHz misurati partendo da un 1055T 95W a 2,8GHz ne sono la prova). I 300-400MHz guadagnati restando dentro i 95W TDP farebbero presumere lo stesso aumento rimanendo dentro i 125W, che equiparrebbe ad un Thuban X6 sui 3,5-3,6GHz. E' veramente poco invece i +100MHz di un 1100T, a solamente 3,3GHz

Io sono sempre più convinto che AMD lo fa per BD.
Dirò di più, per me BD non avrà clock sovrumani, ma sacrificherà la frequenza massima per offrire X4-X6-X8 alla stessa frequenza che vedrebbe i 4GHz come X8 125W + Turbo. Tra l'altro, se il Turbo2/spegnimento core non funzionanti funzionasse davvero al top, secondo me il Turbo potrebbe proprio operare a scalare verso frequenze alte al diminuire dei core sotto carico, portando un X8 = x6 e ambedue come un X4, mano a mano che i moduli si spengono, con le medesime frequenze Turbo.

es BD X8 4GHz stock 125W:
+500MHz su 8 core.
+750MHz su 6 core.
+1GHz su 4 core.

es BD X6 4GHz stock 95W:
+750MHz su 6 core.
+1GHz su 4 core.

es BD X4 4GHz stock 95W:
+1GHz su 4 core.

AMD secondo me vuole vendere gli X8, magari ad un prezzo relativamente basso, ~300-400€, ma preferibile di gran lunga ad una politica di BD X4 a 140€ e BD X6 a 250€.
Chi c'è nei computer, ed AMD lo sa più che bene, vi sono 3 categorie: la 1a guarda alla minima spesa e propensione ai giochi, quindi clock alto. La 2a ai consumi e prezzo, la 3a, che comprerebbe alla grande un procio tuttofare se il prezzo sarebbe appetibile, se avesse clock alti e nell'insieme consumasse poco.
Se AMD opererà come presuppongo, proporrà un BD X8 dal prezzo di 300-400€, avrà gli stessi clock di un BD X4-X6 (quindi stessa propensione per il punto 1°), consumi in linea allo sfruttamento (quindi non di più o impercettibilmente di più di un X4, con le tecniche di spegnimento moduli non usati), e prezzo proporzionale alla potenza, da sfruttare quando serve.

Ora, AMD guadagnerebbe di più con 2 BD X4 venduti a 150€ (dove comunque si scontrerebbe con SB X4), oppure in un BD X8 a 300€, che si venderebbe benissimo e senza timori di concorrenza? (doppio die, ma 1 solo package, la metà di test, ecc. ecc.). E' la stessa logica dell'emissione Thuban, 1055T e 1090T, non avrebbe senso prima gli X8 se venissero presentati a sopra 500€. Invece avrebbe un gran senso per 300-400€, perché così la gente li prenderebbe, spenderebbe un pochino di più rispetto agli X6 e X4 a seguire dopo 1 mese... e chi proprio non può spendere, aspetterebbe questi.
Probabilmente al debutto AMD comunicherà solamente i prezzi degli X8.

ozlacs
08-12-2010, 09:59
http://www.xbitlabs.com/articles/cpu/display/amd-fusion-interview-2010.html

Alekz
08-12-2010, 10:07
Secondo voi un ipotetico FX avrà 140W di TDP? Noto poi che non escono più processori k10 a 140W.

capitan_crasy
08-12-2010, 11:09
http://www.xbitlabs.com/articles/cpu/display/amd-fusion-interview-2010.html

Grazie per la segnalazione.
Xbit lab pubblica un'intervista a Godfrey Cheng (director of client technology unit AMD) sulle future soluzioni APU Ontario/Zacate e Llano...
In una rapida sintesi Cheng non aggiunge niente di particolarmente nuovo; da segnalare i 90GFLOPS di Zacate, l'utilizzo di un controller DDR3 1333Mhz single channel per Ontario/Zacate, niente turbo core per Bobcat (almeno per il momento), l'utilizzo di una tecnologia simile al ATI PowerXpress (spegnimento della GPU discreta in caso di basso utilizzo della APU) quando le soluzioni Llano sono abbinate a GPU esterne, compresa un eventuale evoluzione della tecnologia Hybrid Crossfire.
Per finire AMD si sta impegnando al massimo a proporre nel 2011 nuovi software OPENCL per lo sfruttamento della GPU in calcoli GPGPU...

capitan_crasy
08-12-2010, 11:12
Secondo voi un ipotetico FX avrà 140W di TDP? Noto poi che non escono più processori k10 a 140W.

Secondo me non ha più senso proporre una nuova versione FX...
Più che altro spero che AMD non abbandoni le versioni Black edition quando uscirà Bulldozer; non ci sono più K10 a 140W in quanto il livello produttivo dei 45nm SOI ha raggiunto la piena maturità...

paolo.oliva2
08-12-2010, 11:25
Secondo voi un ipotetico FX avrà 140W di TDP? Noto poi che non escono più processori k10 a 140W.

Se ci fosse la possibilità di un FX, credo sia in quegli X8 a 125W.

Detto alla buona... AMD ha offerto fino ad ora (e non in passato) i B.E. al prezzo dei "normali" o poco di più, semplicemente perché era un escamotage commerciale per offrire un di più su un procio meno potente della concorrenza.

Ora sui BD non c'è una straccio di notizia di B.E. o FX.
Io penso che il messaggio intrinseco di AMD sia "maggior potenza a minor consumo", come lascerebbe trapelare praticamente tutta la produzione BD a 95W TDP massimi, eccetto... i BD X8 che sarebbero prodotti pure a 125W.

Ma i 95W hanno un risvolto alla medaglia... un moltiplicatore comunque basso perché rapportato ad una frequenza stock da rimanere dentro i 95W, e se non B.E. (e AMD non ha mai commercializzato B.E. sotto i 125W), sarebbe plausibile un limite nell'OC.
Un 1055T a 125W può arrivare a OC del 1090T 125W, ma comunque bisogna tirare il collo sul BUS. Immagigniamo un ipotetico Thuban X6 (vecchio) che fosse stato a 95W TDP con un clock def e molti inferiore al 1055T, come faceva ad arrivare agli OC del 1090T?

Per me i BD X4 e X6 saranno lisci, con un Turbo potente perché comunque possono contare su un TDP basso per la frequenza. Il limite sarà l'OC "super" perché interverranno limiti tipo OC sul BUS.

Ipoteticamente, un BD X4 a 4GHz 95W con Turbo sino a 5GHz non avrebbe alcun problema ad offrire il "meglio" sul mercato... ma comunque su limiti di 5,5GHz di OC perché i parametri modificabili non consentirebbero di più.
Idem un X6 con gli stessi parametri, acquistabile unicamente per i 2 core in più.
Il vero salto, lo si avrebbe con un BD X8 125W, sicuramente B.E. o FX, quindi aperto in tutto, che offrirebbe frequenze in OC superiori e "comode" rispetto ai BD X4 e X6.

Guardando la scaletta di TDP dei BD... io credo che i 140W non ci saranno mai, a parte forse per un X10. Mi viene quasi da pensare agli OC dei Phenom II 940. Fine dell'OC max con un sistema di dissipazione ancora ad aria.

gi0v3
08-12-2010, 11:38
Grazie per la segnalazione.
Xbit lab pubblica un'intervista a Godfrey Cheng (director of client technology unit AMD) sulle future soluzioni APU Ontario/Zacate e Llano...
In una rapida sintesi Cheng non aggiunge niente di particolarmente nuovo; da segnalare i 90GFLOPS di Zacate, l'utilizzo di un controller DDR3 1333Mhz single channel per Ontario/Zacate, niente turbo core per Bobcat (almeno per il momento), l'utilizzo di una tecnologia simile al ATI PowerXpress (spegnimento della GPU discreta in caso di basso utilizzo della APU) quando le soluzioni Llano sono abbinate a GPU esterne, impegno massimo a proporre nel 2011 nuovi software OPENCL per lo sfruttamento della GPU in calcoli GPGPU...

aggiungo, per completezza:

- si parla di 90 GFlops e oltre per Zacate, quindi la fascia da 18W
- l'intervistato ripete che il single channel ddr3-1333 non è limitante per bobcat per la fascia di utilizzo prevista
- la conferma ( e non ci voleva molto a ipotizzarlo) che Llano lavorerà a stretto contatto con la GPU discreta, sia dal punto di vista del risparmio energetico sia dal punto di vista delle prestazioni
- la dichiarazione che una discreta ati mobility lavorerà meglio con Llano che con SB, quindi è abbastanza probabile che ci sia qualcosa di molto simile all'Hybrid Crossfire tra APU e GPU discreta
- che non è previsto il turbo core, ma bobcat è già predisposto per un'implementazione futura ( quello che dice tra le righe è che visto che dovrebbe essere un atom-crusher, per quello che va atom non ce n'è neanche bisogno, ora come ora... sia come prestazioni sia come performance-per-watt)

conclusioni: minchia non si sbottonano su niente :D

capitan_crasy
08-12-2010, 12:45
Il sito Xbit lab pubblica le prime immagini della piattaforma Brazos basate sulle soluzioni APU Zacate:

http://www.xtremeshack.com/immagine/i73437_gbt-fusion-zacate-mobo.jpg

Il modello in questione è il GA-E350V-USB3 (formato mini-ITX) composto da una APU modello E350 dual core @ 1.60Ghz, GPU integrata HD6310 con DX11 e UVD 3.0; il TDP dichiarato e di 18W..
La scheda presenta due slot per memorie DDR3 1333Mhz in single channel la quale possono raggiungere i 1800mhz in overclock, 4 porte SATA 3.0, USB 3.0 gestite da un chip esterno e addirittura uno slot PCI-Express 16X (la quale dovrebbe avere 4 linee PCI-Express).
Per il momento non si conosce ne il prezzo, ne la data di presentazione...

Clicca qui... (http://www.xbitlabs.com/news/mainboards/display/20101207230841_Gigabyte_to_Offer_Overclocking_Functionality_for_Fusion_Zacate_Platform.html)

cionci
08-12-2010, 12:57
Sembra un prodotto finito e non un mockup, quindi sarà sicuramente vicina la presentazione.

bjt2
08-12-2010, 13:34
Grazie per la segnalazione.
Xbit lab pubblica un'intervista a Godfrey Cheng (director of client technology unit AMD) sulle future soluzioni APU Ontario/Zacate e Llano...
In una rapida sintesi Cheng non aggiunge niente di particolarmente nuovo; da segnalare i 90GFLOPS di Zacate, l'utilizzo di un controller DDR3 1333Mhz single channel per Ontario/Zacate, niente turbo core per Bobcat (almeno per il momento), l'utilizzo di una tecnologia simile al ATI PowerXpress (spegnimento della GPU discreta in caso di basso utilizzo della APU) quando le soluzioni Llano sono abbinate a GPU esterne, impegno massimo a proporre nel 2011 nuovi software OPENCL per lo sfruttamento della GPU in calcoli GPGPU...

Veramente se leggi bene, dice che una GPU discreta ATI accoppiata a una APU AMD avrà prestazioni grafiche superiori alla stessa GPU ma accoppiata a una CPU INTEL. Questo sottointende che ci sia una specie di crossfire tra GPU discreta e GPU on die. Un'altra cosa che ha detto è che future architetture potrebbero avere parti di CPU e GPU a differenti clock, un po' come proposi io qualche tempo fa... Non ho ben capito se dice che anche per le architetture attuali ci potrebbe essere tale tecnologia (e questo spiegherebbe perchè JF-AMD proclama che il turbocore 2.0 sia superiore a quello INTEL, che è il massimo che si può ottenere da una CPU e un dato TDP posto che tutte le parti della CPU vadano allo stesso clock)

capitan_crasy
08-12-2010, 13:55
Veramente se leggi bene, dice che una GPU discreta ATI accoppiata a una APU AMD avrà prestazioni grafiche superiori alla stessa GPU ma accoppiata a una CPU INTEL. Questo sottointende che ci sia una specie di crossfire tra GPU discreta e GPU on die. Un'altra cosa che ha detto è che future architetture potrebbero avere parti di CPU e GPU a differenti clock, un po' come proposi io qualche tempo fa... Non ho ben capito se dice che anche per le architetture attuali ci potrebbe essere tale tecnologia (e questo spiegherebbe perchè JF-AMD proclama che il turbocore 2.0 sia superiore a quello INTEL, che è il massimo che si può ottenere da una CPU e un dato TDP posto che tutte le parti della CPU vadano allo stesso clock)

Giusta osservazione...
In definitiva Hybrid crossfire non è mai stato abbandonato da AMD e con i chipset serie 880G/890GX è stata anche evoluta...
L'utilizzo di questa tecnologia è quasi scontata (manca una conferma ufficiale) e viaggia a braccetto con il PowerXpress...
Per quanto riguarda le frequenze differenziate o l'architettura K10 si è evoluta su Llano oppure la vedremo solamente con introduzione di Trinity...

dark.halo
08-12-2010, 14:47
http://www.xtremeshack.com/immagine/i73437_gbt-fusion-zacate-mobo.jpg


Io voglio una scheda fanless :muro:
Ho paura che quella ventola faccia troppo rumore per un utilizzo muletto :(

Ottimo invece la presenza delle usb 3.0 e dello slot di memoria "standard".Interessante il fatto che si parla di overclock delle memorie, fa pensare che bobcat in qualche modo si possa occare :).

marchigiano
08-12-2010, 14:52
il sito Xbit lab pubblica le prime immagini della piattaforma Brazos basate sulle soluzioni APU Zacate:

http://www.xtremeshack.com/immagine/i73437_gbt-fusion-zacate-mobo.jpg

Il modello in questione è il GA-E350V-USB3 (formato mini-ITX) composto da una APU modello E350 dual core @ 1.60Ghz, GPU integrata HD6310 con DX11 e UVD 3.0; il TDP dichiarato e di 18W..
La scheda presenta due slot per memorie DDR3 1333Mhz in single channel la quale possono raggiungere i 1800mhz in overclock, 4 porte SATA 3.0, USB 3.0 gestite da un chip esterno e addirittura uno slot PCI-Express 16X (la quale dovrebbe avere 4 linee PCI-Express).
Per il momento non si conosce ne il prezzo, ne la data di presentazione...

Clicca qui... (http://www.xbitlabs.com/news/mainboards/display/20101207230841_Gigabyte_to_Offer_Overclocking_Functionality_for_Fusion_Zacate_Platform.html)

bellissima :eek: riuscissero a venderla sui 150€ sarebbe una mazzata per atom+ion

(certo che su mobo da tavolo potevano mettere anche il dual-channel...)

Ares17
08-12-2010, 15:02
bellissima :eek: riuscissero a venderla sui 150€ sarebbe una mazzata per atom+ion

(certo che su mobo da tavolo potevano mettere anche il dual-channel...)

non credo che sia la mobo a implementare il dual channel:
Se il controller è single channel la mobo come farebbe ad essere dual channel?

Spitfire84
08-12-2010, 15:12
bellissima :eek: riuscissero a venderla sui 150€ sarebbe una mazzata per atom+ion

(certo che su mobo da tavolo potevano mettere anche il dual-channel...)

non credo che sia la mobo a implementare il dual channel:
Se il controller è single channel la mobo come farebbe ad essere dual channel?

il memory controller è integrato nella cpu, quindi l'implementazione del dual o del single channel non dipende dalla scheda madre.

marchigiano
08-12-2010, 15:16
mi sono sbagliato a scrivere, volevo dire sulla cpu (che poi dovrebbe essere saldata), essendo da tavolo anche se consumasse 2W in più non sarebbe un problema e capitan-crazy diceva che probabilmente il dual è presente ma disabilitato per qualche problema...

capitan_crasy
08-12-2010, 15:30
Io voglio una scheda fanless :muro:
Ho paura che quella ventola faccia troppo rumore per un utilizzo muletto :(

Ottimo invece la presenza delle usb 3.0 e dello slot di memoria "standard".Interessante il fatto che si parla di overclock delle memorie, fa pensare che bobcat in qualche modo si possa occare :).

Un attimo di pazienza...
Dopotutto è solo la prima piattaforma Brazos che vediamo...

mi sono sbagliato a scrivere, volevo dire sulla cpu (che poi dovrebbe essere saldata), essendo da tavolo anche se consumasse 2W in più non sarebbe un problema e capitan-crazy diceva che probabilmente il dual è presente ma disabilitato per qualche problema...

capitan crasy con la esse...;)
Se AMD ha davvero disabilitato il dual channel per un problema di "errata" dovrebbe essere descritto nei primi documenti tecnici AMD...

marchigiano
08-12-2010, 15:38
capitan crasy con la esse...;)

chiedo scusa :)

del rumore non me ne preoccuperei, basta togliere quel dissi ridicolo e metterne uno grosso che magari copre anche il SB con un ventolone da 12cm a 800rpm

per il prezzo avevo detto 150€ ma è anche troppo... perchè con quei soldi ci compro una mini-itx 1155 con westmere che ha tutt'altra potenza, il prezzo quindi dovrebbe essere sui 100-120€ per zacate e350

capitan_crasy
08-12-2010, 15:56
Ho appena ricevuto qualche conferma:
Qualcosa si muove sui sample di Bulldozer, sono ormai in consegna anche se non so se in versione server oppure desktop...
Vedremo qualcosa al CES?
Molto probabile...:p

paolo.oliva2
08-12-2010, 16:48
chiedo scusa :)

del rumore non me ne preoccuperei, basta togliere quel dissi ridicolo e metterne uno grosso che magari copre anche il SB con un ventolone da 12cm a 800rpm

per il prezzo avevo detto 150€ ma è anche troppo... perchè con quei soldi ci compro una mini-itx 1155 con westmere che ha tutt'altra potenza, il prezzo quindi dovrebbe essere sui 100-120€ per zacate e350

Mah... io non ne so nulla di prezzi quindi potrei dire anche una cavolata... però, 100-120€ mi sembrano anche esagerati. Il procio integra tutto, la mobo è molto economica sia nel progetto che nella componentistica...
I 120€ basterebbero già all'acquisto di una mobo AM3 economica con un Athlon X2 e una VGA ATI discreta di fascia bassa...
Se AMD vuole vendere il sistema, dovrebbe fare un rapporto prezzo-potenza e prezzo-costo, restando quindi abbastanza distante dall'offerta già disponibile con altri proci.
Secondo me, dovrebbe stare almeno sotto i 100€, e già sarebbe troppo, per essere interessante.

Inoltre... teniamo presente che una VGA discreta su scheda, dal prezzo di 30€, ad ATI andrebbero quasi le briciole, in quanto in quel prezzo c'è l'assemblaggio della scheda, tutta la componentistica, imballaggio, i vari ricarichi. Già solo questo implicherebbe che se per assurdo avessimo 2 proci con le stesse caratteristiche, di cui uno APU ed un altro con VGA discreta di pari potenza ma esterna, almeno almeno ci sarebbe una differenza di 20€ inferiore nel prezzo dell'APU. Sarebbe assurdo che AMD/ATI chiedessero uguale o addirittura di più nell'APU, limitandone le vendite, mentre a prezzi anche inferiori per assurdo ci guadagnerebbe di più.

marchigiano
08-12-2010, 16:59
be certo meno costano meglio è :sofico:

purtroppo però in generale le mobo mini-itx costano più delle micro-atx e atx quindi non aspettiamoci regali


(ps. paolo ma sei ancora qui? già ti immaginavo vestito da ninja a intercettare i pacchi di sample bulldozer in giro per il mondo... :D )

gi0v3
08-12-2010, 17:43
marchigiano, attenzione: intanto una scheda madre 1156 (ho preso la gigabyte più economica, per avere un confronto migliore a parità di brand ) costa 88 euro, un pentium g9650 costa sui 75 euro, quindi per 160 euro hai:
- una cpu più performante (bella scoperta)
- un comparto video che non sta dietro alla APU amd
- una cpu che consuma da sola 73w, quindi, a occhio, circa 3 volte quello che ti consumerebbe tutta la scheda madre amd con saldata l'APU
- come per la scheda madre che abbiamo visto, ti manca la ram nel conto

quindi confronti due cose che hanno una diversa fascia di prestazioni, una diversa fascia di consumo, e una diversa fascia di utilizzo... non ha molto senso.

la concorrente di questa scheda madre dovrebbe essere, per esempio, la asus AT5IONT-I, con atom d525 dual core e nvidia ion, e che costa non meno di 150 euro... se amd e i produttori di mobo vorranno farci un regalo costerà sui 100-120 euro come dici, ma 150 euro sarebbero ampiamente giustificati da quello che trovi attualmente in commercio, visto che sono abbastanza convinto che un e-350 faccia meglio di atom+ion, e consumi pure meno come totale.

gi0v3
08-12-2010, 17:45
a titolo di confronto la mobo mini itx che ho preso 2 settimane fa, la asus m4a88t-i, costa 100 euro, e ha integrato l'880g, il sata3 e un AP wireless, oltre ad avere uno slot pci-ex x16 elettrico... la peggiore cpu am3 che si trovi è l'athlon II 220, che costa sui 30 euro... e anche qua, cpu migliore e gpu peggiore, ma con l'aggravante di dover cercare un dissi amd low profile, quindi altri 20-25 euro minimo... come vedete, siamo sempre sui 150 euro, imho non costerà di meno quella mobo lì, e a buon diritto.

Athlon 64 3000+
08-12-2010, 17:54
Ho appena ricevuto qualche conferma:
Qualcosa si muove sui sample di Bulldozer, sono ormai in consegna anche se non so se in versione server oppure desktop...
Vedremo qualcosa al CES?
Molto probabile...:p

Questa è una buona notizia.
Almeno per una volta Buldozer dovrebbe rispettare la tabella di marcia.
Voglio sperare quindi che già ad aprile AMD possa presentare Buldozer in versione 8 core.

cionci
08-12-2010, 17:55
Io voglio una scheda fanless :muro:
Ho paura che quella ventola faccia troppo rumore per un utilizzo muletto :(

Nota che sui sample in test la ventola stava quasi sempre ferma, tranne quando si mettevano sotto stress sia la CPU che la GPU. Inoltre la ventola era praticamente inudibile.
Credo che con un dissipatore generoso ed una 12x12 termo regolata la cosa possa migliorare ancora.

bjt2
08-12-2010, 18:20
Giusta osservazione...
In definitiva Hybrid crossfire non è mai stato abbandonato da AMD e con i chipset serie 880G/890GX è stata anche evoluta...
L'utilizzo di questa tecnologia è quasi scontata (manca una conferma ufficiale) e viaggia a braccetto con il PowerXpress...
Per quanto riguarda le frequenze differenziate o l'architettura K10 si è evoluta su Llano oppure la vedremo solamente con introduzione di Trinity...

Le frequenze differenziate le avevo ipotizzate anche con questo bulldozer. Per esserci la possibilità teorica di implementarle c'è bisogno solo dei vari stadi disaccoppiati con code e questo è avvenuto in BD... Bisogna vedere se hanno avuto il tempo di testare il tutto...

marchigiano
08-12-2010, 19:03
marchigiano, attenzione: intanto una scheda madre 1156 (ho preso la gigabyte più economica, per avere un confronto migliore a parità di brand ) costa 88 euro, un pentium g9650 costa sui 75 euro, quindi per 160 euro hai:
- una cpu più performante (bella scoperta)
- un comparto video che non sta dietro alla APU amd
- una cpu che consuma da sola 73w, quindi, a occhio, circa 3 volte quello che ti consumerebbe tutta la scheda madre amd con saldata l'APU
- come per la scheda madre che abbiamo visto, ti manca la ram nel conto

quindi confronti due cose che hanno una diversa fascia di prestazioni, una diversa fascia di consumo, e una diversa fascia di utilizzo... non ha molto senso

certo certo, sono fasce diverse, tra l'altro maggiori consumi anche maggior calore e ventole... però la potenza di un westmere vuoi mettere?

rispetto a atom D525 + ion2 il zacate E350 va un filo di più, potrebbe posizionarsi anche a pari prezzo, la speranza è che atom sia sovrapprezzato per mancanza di concorrenza e con l'arrivo di zacate inizi la guerra dei prezzi

tra l'altro è solo questione di 6 mesi circa, poi arriveranno i sandy bridge di classe celeron e anche li si spera in una bella concorrenza (per allora ci sarà anche llano no?)

credo ci sarà il boom del formato mini-itx :)

capitan_crasy
08-12-2010, 19:23
Le frequenze differenziate le avevo ipotizzate anche con questo bulldozer. Per esserci la possibilità teorica di implementarle c'è bisogno solo dei vari stadi disaccoppiati con code e questo è avvenuto in BD... Bisogna vedere se hanno avuto il tempo di testare il tutto...

No hai ragione su bulldozer...
Zambezi dovrebbe gestire frequenze diverse per ogni modulo...
Io intendevo Trinity per la questione APU; a meno che i K10 a 32nm utilizzati per Llano non siano stati modificati...

bjt2
08-12-2010, 21:29
No hai ragione su bulldozer...
Zambezi dovrebbe gestire frequenze diverse per ogni modulo...
Io intendevo Trinity per la questione APU; a meno che i K10 a 32nm utilizzati per Llano non siano stati modificati...

No. Io avevo ipotizzato una cosa più fine, ed è questo quello che dice a Xbitlabs, ma solo per il futuro. Io avevo ipotizzato che decoder, unità INT, unità FP e magari back-end delle caches girassero a frequenze diverse, in ogni modulo e che queste frequenze fossero lo stretto necessario per svuotare le varie code poste tra i vari stadi della pipeline, con cambiamento dinamico in funzione dello stato di riempimento delle code. Daltronde anche NVIDIA ha varie parti del chip che vanno a frequenze diverse anche se nelle ultime architetture il clock è bloccato al doppio e non a valori diversi...

capitan_crasy
08-12-2010, 23:17
No. Io avevo ipotizzato una cosa più fine, ed è questo quello che dice a Xbitlabs, ma solo per il futuro. Io avevo ipotizzato che decoder, unità INT, unità FP e magari back-end delle caches girassero a frequenze diverse, in ogni modulo e che queste frequenze fossero lo stretto necessario per svuotare le varie code poste tra i vari stadi della pipeline, con cambiamento dinamico in funzione dello stato di riempimento delle code. Daltronde anche NVIDIA ha varie parti del chip che vanno a frequenze diverse anche se nelle ultime architetture il clock è bloccato al doppio e non a valori diversi...

si ora ho capito...;)

paolo.oliva2
08-12-2010, 23:23
OT
il 1100T l'ho ordinato... poi vi faccio sapere come va
OT

Pihippo
09-12-2010, 00:19
certo certo, sono fasce diverse, tra l'altro maggiori consumi anche maggior calore e ventole... però la potenza di un westmere vuoi mettere?

rispetto a atom D525 + ion2 il zacate E350 va un filo di più, potrebbe

Ciao
In single thread? No assolutamente stiamo comparando qualcosa del 40% in più,e a ben ragione direi, qualsiasi accesso alla ram e per atom le prestazioni son finite, ci sono tante preview in merito, in multi il smt di intel accorcia di parecchio.

marchigiano
09-12-2010, 00:39
va che in tutti i test che ho visto, il d525 se la gioca con e350, mediamente sta dietro ma non è che ci sia sta differenza abissale. poi ok magari al super-pi vince zacate ma nell'uso normale...

Pihippo
09-12-2010, 00:44
va che in tutti i test che ho visto, il d525 se la gioca con e350, mediamente sta dietro ma non è che ci sia sta differenza abissale. poi ok magari al super-pi vince zacate ma nell'uso normale...

Ciao
Dipende. L'uso normale sono programmi multithreaded? Se son son singlethreaded la differenza può farsi sentire, a meno che non consideri bench fp heavy, che dubito un possessore di netbook (come me) si sogni di far girare.
Ah il super pi, non ho mai capito la sua utilità, vabbè che ne capisco poco..

paolo.oliva2
09-12-2010, 01:51
va che in tutti i test che ho visto, il d525 se la gioca con e350, mediamente sta dietro ma non è che ci sia sta differenza abissale. poi ok magari al super-pi vince zacate ma nell'uso normale...

Ancora super-pi? Ma a che serve?
Che io sappia, è molto dipendente dalla grandezza della L2, per il resto non esprime di certo la potenza del procio...

Storm5
09-12-2010, 04:27
Ciao ragazzi ;)

ho un dubbio...le attuali schede madri AM3 (quindi con chipset 870xx/880xx/890xx) saranno compatibili con queste future cpu amd della famiglia bulldozer?
:confused:

grazie :)

Storm5
09-12-2010, 04:28
edit

gi0v3
09-12-2010, 07:10
Ciao ragazzi ;)

ho un dubbio...le attuali schede madri AM3 quindi con chipset 890xx saranno compatibili con queste future cpu amd della serie bulldozer?
oppure è certo che non lo saranno? :confused:

grazie :)

no, bulldozer non andrà sulle schede madri am3.

Invece le future schede madri am3+ saranno compatibili con gli attuali processori :) se pensavi di fare un upgrade della scheda madre aspetta che escano quelle nuove a sto punto ;)

bjt2
09-12-2010, 09:22
OT
il 1100T l'ho ordinato... poi vi faccio sapere come va
OT

Grande Paolo... :D Sei tutti noi! :D

calabar
09-12-2010, 09:49
La piattaforma miniitx proposta è molto interessante, se proposta ad un buon prezzo e soprattutto se i consumi in idle saranno molto bassi (non come le prime little falls, che arrivavano ai 40w) ci farò sicuramente più di un pensierino.
Sono un po' restio perchè in fine dei conti il "pc sempre acceso" lo uso per tutto, e vorrei prima rendermi conto se Zacate possa essere adatto per questo, contemplando comunque un uso non pesante.

@Storm5
L'elenco delle tue trattative nella firma fa allargare la dimensione della finestra del forum. Potresti inserire qualche spazio, così da farlo andare accapo?