PDA

View Full Version : [Thread Ufficiale] Aspettando Bulldozer *leggere prima pagina con attenzione*


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112

Gigamez
11-10-2010, 19:22
Ciao
Anche me fa piacere parlare di queste cose.
Ho finalmente capito il tuo punto di vista, ovvero un reverse SMT di intel! Invece di caricar un thread nuovo su uno stesso cores, tu ne carichi lo stesso su due cores ognuno con il proprio set di gprs buffer rob, rimane comunque la comunicazione tra L\s unit e data chache che deve avvenire per sincronizzazione e share di operandi. In pratica alterneresti in maniera interleaved l'esecuzione di uno stesso thread su due cores.
ora bisogna aspettare e vedere se amd ha risolto alcuni problemucci, che come dicevamo prima, anche se non si esegue in maniera parallela due pacchetti di istr sono comunque presenti.

hai capito ESATTAMENTE quello che intendevo! XD
infatti lo dissi anche:

..cut..
Magari proprio come se fosse il contrario di Intel che con 4 core gestisce 8 thread (anche se 4 sono praticamente "fasulli"), AMD potrebbe gestire magari 4 threads con 8 cores (magari solo all'occorrenza, chissà) ed occupare pure meno silicio nel confronto "core vs modulo" :) Se fosse cosi' sarebbe prestazionalmente parlando superiore in qualunque campo, non credi?
..cut..


Vedremo.. ;)

affiu
11-10-2010, 21:49
quindi tanto per restare in tema ,secondo voi tra il 32nm liscio ed il 32nm low-k :eek: un bulldozer x4 e x8 a quanto vi aspettiate che vadono come clock?

quale limite max di overclock vi aspettate sia per l'x4 che per l'x8?

il fatto che sembra che sia in programma il low-k,secondo voi cosa potrebbe apportare come benificio?cioè se è servito a thuban rispetto a deneb per avere due core in più ,allora forse anche un x10 per il Q4 2011 lo potremmo vedere sempre sui 5 ghz ,piu o meno o no?

paolo.oliva2
11-10-2010, 23:11
Il low-k sicuramente darà di più, però, secondo me, bisogna contare che il 32nm ha già di suo l'HKMG, quindi il low-k renderà percentualmente un guadagno inferiore rispetto a quello che abbiamo visto sul 45nm, che era "liscio".

Poi, obiettivamente, bisogna anche contare se AMD abbia riportato il 50% in meno di TDP valutando il 32nm HKMG già con il low-k, perché le previsioni fatte si basano su questi dati ufficiali... come del resto potrebbe pure essere che offra addirittura più del 50%, come riportato da GF che le aspettative sono state ampiamente superate.

In turbo i 5GHz possono essere raggiunti, i 4GHz come funzionamento per il totale dei core, pure.

Poi bisogna pure contare l'ICT ed il proseguo del silicio.
Ad esempio, il Thuban, a distanza di 6 mesi, concede 200MHz in più a parità di TDP... però attenzione: bisogna pensare in percentuali. Il 7% su una frequenza di 3,2GHz (come il 1090T), dà 224MHz... sempre il 7%, ma su 4GHz da' 280MHz :). Insomma... se l'incremento di frequenza successivo sul 45nm era di 200MHz, sul 32nm potrebbe essere di 300MHz.

Inoltre, c'è un'altra cosa da considerare: se il connubio IPC/frequenza basterà ad eguagliare l'IPC/frequenza di Intel, un BD X6 potrebbe essere già sufficiente a contrastare i top X6 Intel, quindi i BD X8 potrebbero avere pure 200-300MHz in meno del massimo possibile.
Quando Intel immetterà sul mercato, verso fine anno, SB X6/X8, e i 6 mesi di differenza già da soli basterebbero ad AMD per incrementare di un 300MHz i clock assegnati all'uscita, sommati magari ad un clock inferiore di 200MHz, ci potrebbero essere incrementi anche dell'ordine di 500MHz... mica una paglia :).

carlottoIIx6
12-10-2010, 06:19
hai capito ESATTAMENTE quello che intendevo! XD
infatti lo dissi anche:


Vedremo.. ;)

hmmm
come se facesse una sorta di parellizzazione hardware, se non ho capito male.
questo servirebbe, solo se il sofware non è ottimizzato per il multi
quindi penso solo in single, sempre che sia possibile...

Ares17
12-10-2010, 09:22
Il low-k sicuramente darà di più, però, secondo me, bisogna contare che il 32nm ha già di suo l'HKMG, quindi il low-k renderà percentualmente un guadagno inferiore rispetto a quello che abbiamo visto sul 45nm, che era "liscio".

Poi, obiettivamente, bisogna anche contare se AMD abbia riportato il 50% in meno di TDP valutando il 32nm HKMG già con il low-k, perché le previsioni fatte si basano su questi dati ufficiali... come del resto potrebbe pure essere che offra addirittura più del 50%, come riportato da GF che le aspettative sono state ampiamente superate.

In turbo i 5GHz possono essere raggiunti, i 4GHz come funzionamento per il totale dei core, pure.

Poi bisogna pure contare l'ICT ed il proseguo del silicio.
Ad esempio, il Thuban, a distanza di 6 mesi, concede 200MHz in più a parità di TDP... però attenzione: bisogna pensare in percentuali. Il 7% su una frequenza di 3,2GHz (come il 1090T), dà 224MHz... sempre il 7%, ma su 4GHz da' 280MHz :). Insomma... se l'incremento di frequenza successivo sul 45nm era di 200MHz, sul 32nm potrebbe essere di 300MHz.

Inoltre, c'è un'altra cosa da considerare: se il connubio IPC/frequenza basterà ad eguagliare l'IPC/frequenza di Intel, un BD X6 potrebbe essere già sufficiente a contrastare i top X6 Intel, quindi i BD X8 potrebbero avere pure 200-300MHz in meno del massimo possibile.
Quando Intel immetterà sul mercato, verso fine anno, SB X6/X8, e i 6 mesi di differenza già da soli basterebbero ad AMD per incrementare di un 300MHz i clock assegnati all'uscita, sommati magari ad un clock inferiore di 200MHz, ci potrebbero essere incrementi anche dell'ordine di 500MHz... mica una paglia :).
Paolo dimentichi che il tpd aumenta in relazione al cubo della frequenza:
la differenza di tdp nel passaggio da 3200 mhz a 3400mhz è inferiore al passaggio tra 4000mhz a 4200mhz. ;)

bjt2
12-10-2010, 12:11
Paolo dimentichi che il tpd aumenta in relazione al cubo della frequenza:
la differenza di tdp nel passaggio da 3200 mhz a 3400mhz è inferiore al passaggio tra 4000mhz a 4200mhz. ;)

Va con il cubo se si suppone che bisogna aumentare il Vcore proporzionalmente. Ma se per miglioramenti del processo si può rimanere a Vcore costante e magari si riduce il leackage, allora si può salire in frequenza a parità di TDP... :)

Ares17
12-10-2010, 13:35
Va con il cubo se si suppone che bisogna aumentare il Vcore proporzionalmente. Ma se per miglioramenti del processo si può rimanere a Vcore costante e magari si riduce il leackage, allora si può salire in frequenza a parità di TDP... :)

Sappiamo benissimo che se il tpd è 95W a 3200mhz, alzando la frequenza a 3400mhz allo stesso v-core c'è un aumento del consumo.
Fuorviante è il tpd rilasciato dai produttori (che va inteso come tpd massimo)
Quando amd ( o intel) ci propone una cpu funzionante a 3000mhz indica il tpd massimo, a riprova di cio abbiamo le stesse cpu con uguale frequenza ma v-core def differente.
Quindi se due cpu date come 95w di tpd hanno v-core chi di 1,2 e chi di 1.28 non significa che hanno consumo identico, ma semplicemente che entrambe sono entro i 95W.
L'unico lavoro utile che fanno è poi quello di cambiare stato ai transistor, ne consegue che a parità di vcore una cpu che fa cambiare stato ai propi transistor 3000000000 volte al secondo consumi meno di quella che lo fa cambiare 3200000000 volte.
Quello che volevo dire a Paolo è che non puo' applicare una proporzione lineare (quella in percentuale) quando invece si ha una proporzione esponenziale.

paolo.oliva2
12-10-2010, 15:01
Sappiamo benissimo che se il tpd è 95W a 3200mhz, alzando la frequenza a 3400mhz allo stesso v-core c'è un aumento del consumo.
Fuorviante è il tpd rilasciato dai produttori (che va inteso come tpd massimo)
Quando amd ( o intel) ci propone una cpu funzionante a 3000mhz indica il tpd massimo, a riprova di cio abbiamo le stesse cpu con uguale frequenza ma v-core def differente.
Quindi se due cpu date come 95w di tpd hanno v-core chi di 1,2 e chi di 1.28 non significa che hanno consumo identico, ma semplicemente che entrambe sono entro i 95W.
L'unico lavoro utile che fanno è poi quello di cambiare stato ai transistor, ne consegue che a parità di vcore una cpu che fa cambiare stato ai propi transistor 3000000000 volte al secondo consumi meno di quella che lo fa cambiare 3200000000 volte.
Quello che volevo dire a Paolo è che non puo' applicare una proporzione lineare (quella in percentuale) quando invece si ha una proporzione esponenziale.

Ho capito quello che mi vuoi dire... però, mi spiego meglio anche io:

Il Thuban 1090T è dato per 125W TDP... però io ancora non ho ben capito a che Vcore. Vi sono mobo/bios che lo settano a 1,25V e altre volte anche fino a 1,35V.
Io potrei supporre che AMD lo possa garantire a 125W TDP/3,2GHz con del margine ampio nel Vcore, che magari ipoteticamente potrebbe arrivare sino a 1,375V e questo spiegherebbe perché degli OC fatti con il 1090T e 1055T 95W con 1,4V possono arrivare a 4GHz aumentando i consumi non certo in modo esponenziale (come più volte ho postato).

Se concordiamo su questo, si aggiungerebbe anche la caratteristica del silicio.

Portando come esempio il 65nm, fino a 1,35V le cose erano lineari, mentre già a 1,4V c'era un picco incredibile di temperature e consumi.

L'E0, invece, comincia a presentare un incremento di temperature superiore rispetto ad una ipotetica linea, sopra 1,512V, e sopra 1,550-1,575 comincia un po' ad impennarsi, per poi rimarcare sempre di più sopra 1,620V.

Ti porto degli esempi:

Che un 9850, dato a 125W TDP a 2,4GHz mi sembra, a 3GHz sicuramente mettiamo fosse 150W TDP e a 3,4GHz 220W TDP.

Un Thuban 1090T dato a 125W TDP a 3,2GHz, per me sui 3,8GHz ancora non supera i 140W TDP e SICURAMENTE a 4,3-4,4GHz non arriva a 200W TDP.

Con questo cosa voglio dire?
Che un 65nm poteva garantire un 15% in OC sempre restando sotto i 140W TDP, un Thuban 1090T può garantire un 20%.

Ora... con questo ti vorrei far presente che l'E0 45nm garantisce un +5% rispetto ad un 65nm, ma se lo rapportiamo alla frequenza guadagnata, si passa da un +400MHz del 65nm ad un +600MHz di un 45nm (questo per dire che l'E0 assicura più frequenza di OC di un 65nm).

Come possiamo stabilire con certezza ora se il 32nm HKMG (low-k) possa avere l'impennata a 1,1V oppure a 1,3V oppure addirittura a 1,5V?
Come possiamo sapere ora se +0,05V possano essere sufficienti per + 500MHz oppure per +100MHz?

Concordo con te che aumentare la frequenza aumenta anche la condizione dei transistor, però non possiamo considerare i MHz in più fissi e assoluti... perché un 8088 a 4,77MHz non lo occavi manco di 2MHz, mentre possiamo anche ipotizzare che un procio odierno a 3GHz possa avere svarioni di 2-300MHz allo stesso TDP in base al Vcore necessario... come per esempio un ipotetico procio a 6GHz (doppia frequenza) a quel punto lo svarione passerebbe a 400-600MHz, cioé raddoppierebbe.

E' su questo che io baso il mio discorso... cioé che se 2 proci distinti avessero lo stesso TDP (125W) ma uno a 2GHz e l'altro a 4GHz, con lo stesso :ciapet: OC del 20%, il primo guadagnerebbe 400MHz, il secondo 800MHz, ed io reputo che le probabilità siano uguali e non per forza assegnare 400MHz al 1° che devono essere lo stesso pure per il 2°...

Ho fatto 200 edit... :D

somethingstrangeinyourmind
12-10-2010, 15:46
...
perché un 8088 a 4,77MHz non lo occavi manco di 2MHz, mentre ...
OT/ on
...4.77 mhz con turbo a 8 mhz!!!
... nostalgia...:)
OT/ off

paolo.oliva2
12-10-2010, 15:47
OT/ on
...4.77 mhz con turbo a 8 mhz!!!
... nostalgia...:)
OT/ off

Quello era già la 2a serie... ampiamente battuta dal NEC V20 (12MHz e 15MHz gli ultimi...)

ivano444
12-10-2010, 15:48
OT/ on
...4.77 mhz con turbo a 8 mhz!!!
... nostalgia...:)
OT/ off

hai nostalgia della potenza di una calcolatrice?:p

somethingstrangeinyourmind
12-10-2010, 16:26
Quello era già la 2a serie... ampiamente battuta dal NEC V20 (12MHz e 15MHz gli ultimi...)
Che poi c'era il tasto per attivare/disattivare il turbo per far girare i programmi che non lo supportavano!!!:eek:

hai nostalgia della potenza di una calcolatrice?:p
Non era male come macchina, io e mio fratello ci smanettavamo in GWBASIC!!!:D

paolo.oliva2
12-10-2010, 23:20
Era molto meglio il GFA basic sull'Atari, con il mitico 68000 Motorola :)

dark.halo
13-10-2010, 08:26
Solo adesso ho visto le dimensioni di bobcat e sono rimasto a bocca aperta:eek:

http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Nelle dimensioni di un singolo core Atom,AMD ci mette 2 core Bobcat :eek:.
Il tutto condito con una potenza elaborativa due volte superiore.
Cavolo non riesco più a contenere la scimmia.:D

Secondo me un core bobcat @28nm HKMG @600mhz con l2 ridotta a 128kb ,consumerebbe talmente poco da poter essere inserito in cellulari o al max tablet. con prestazioni simili ad un Atom Z530 @1.3ghz

cionci
13-10-2010, 09:14
Solo adesso ho visto le dimensioni di bobcat e sono rimasto a bocca aperta:eek:

http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg
Attenzione perché non sappiamo la frequenza. Non necessariamente con quelle prestazioni potrebbe andarsi a scontrare con Atom dal punto di vista del TDP.
E' probabile che il dual core che andrà a scontrarsi con Atom nei netbook avrà una frequenza di circa 1 Ghz. In ogni caso molto più potente di Atom ;)
Bobcat a 1.4-1.6 Ghz dovrebbe andare ad occupare la fascia di mercato dei Celeron ULV basati su Arrandale.

affiu
13-10-2010, 09:58
Solo adesso ho visto le dimensioni di bobcat e sono rimasto a bocca aperta:eek:

http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Nelle dimensioni di un singolo core Atom,AMD ci mette 2 core Bobcat :eek:.
Il tutto condito con una potenza elaborativa due volte superiore.
Cavolo non riesco più a contenere la scimmia.:D

Secondo me un core bobcat @28nm HKMG @600mhz con l2 ridotta a 128kb ,consumerebbe talmente poco da poter essere inserito in cellulari o al max tablet. con prestazioni simili ad un Atom Z530 @1.3ghz

a parte vedere i consumi come andranno,anche se mi frega poco rispetto a quello che offrirebbe rispetto ad atom,possiamo ''notare'' che le dimensione della gpu su bobcat sono non indifferenti;da questo si può fare una proezione dell'importanza delle ''gpu'' in quello che viene chiamato apu

sicuramente i core ''deneb'' a 32nm saranno molto piccoli lasciando spazio alla gpu.........una vera ''invasione'' barbarica delle gpu verso i core x86

piano piano si comincia a togliere il velo su questo cambio di progettazione hardware ,ed anche il ''single'' bulldozer verra invaso da un'altra bella gpu....:eek:

e questo è solo l'inizio!:Prrr:

somethingstrangeinyourmind
13-10-2010, 10:50
Solo adesso ho visto le dimensioni di bobcat e sono rimasto a bocca aperta:eek:
CUT

Quoto... impressionante... è la prima parola che mi viene in mente.
400 milioni di transistor in un quadratino 8x9 mm.

capitan_crasy
13-10-2010, 11:42
Solo adesso ho visto le dimensioni di bobcat e sono rimasto a bocca aperta:eek:

http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Nelle dimensioni di un singolo core Atom,AMD ci mette 2 core Bobcat :eek:.
Il tutto condito con una potenza elaborativa due volte superiore.
Cavolo non riesco più a contenere la scimmia.:D

Secondo me un core bobcat @28nm HKMG @600mhz con l2 ridotta a 128kb ,consumerebbe talmente poco da poter essere inserito in cellulari o al max tablet. con prestazioni simili ad un Atom Z530 @1.3ghz

AMD potrebbe aggiornare i core X86 per i 28nm; secondo alcune voci tutto può dipendere da GF, altrimenti se AMD si affiderà ancora a TSMC dovrebbe essere un "semplice" die shrink...

Pihippo
13-10-2010, 17:09
Attenzione perché non sappiamo la frequenza. Non necessariamente con quelle prestazioni potrebbe andarsi a scontrare con Atom dal punto di vista del TDP.
E' probabile che il dual core che andrà a scontrarsi con Atom nei netbook avrà una frequenza di circa 1 Ghz. In ogni caso molto più potente di Atom ;)
Bobcat a 1.4-1.6 Ghz dovrebbe andare ad occupare la fascia di mercato dei Celeron ULV basati su Arrandale.

Ciao
Io penso che bobcat ad 1.6ghz sia proprio quello che andrà nei netbook, mentre la versione a 18w (con clock più alti diciamo sui 2.1-2.3ghz) andrà nella fascia dei culv. Almeno spero, anche pechè se riescon a tirar su un k10 single core ad 1.7ghz...

cionci
13-10-2010, 17:14
Ciao
Io penso che bobcat ad 1.6ghz sia proprio quello che andrà nei netbook, mentre la versione a 18w (con clock più alti diciamo sui 2.1-2.3ghz) andrà nella fascia dei culv. Almeno spero, anche pechè se riescon a tirar su un k10 single core ad 1.7ghz...
Questa leaked slide mette un TDP di 9W per la CPU dual core ad 1 Ghz: http://prohardver.hu/dl/upc/2010-09/13063_softnology_eontario_1.png

Pihippo
13-10-2010, 17:18
Questa leaked slide mette un TDP di 9W per la CPU dual core ad 1 Ghz: http://prohardver.hu/dl/upc/2010-09/13063_softnology_eontario_1.png

Ciao
Non l'aveo proprio vista la slide :D
Beh, ora rimane da valutare se il tdp di 18w è comparabile ad i 20w della piattaforma pineview (ovvero solo cpu di 18w oppure tutto incluso, gpu sb ecc ecc)
Perchè se fosse 18w di tdp totali di piattaforma la vedo molto male per atom.

cionci
13-10-2010, 17:27
L'intera piattaforma Pineview se non sbaglio ha un TDP di 6.5W con Atom della serie N, mentre ha un TDP di 13W con Atom dual core.

I Celeron ULV dual core basati su Arrandale ad 1.07Ghz hanno un TDP di 18W. Quindi diciamo che si andrebbero a scontrare con questi, con un indubbio vantaggio dal punto di vista della frequenza e di conseguenza sia sul piano grafico che di potenza di calcolo (anche se la CPU del Celeron ULV dovrebbe avere un'efficienza maggiore, ma non certo del 50%).

Pihippo
13-10-2010, 17:36
L'intera piattaforma Pineview se non sbaglio ha un TDP di 6.5W con Atom della serie N, mentre ha un TDP di 13W con Atom dual core.

I Celeron ULV dual core basati su Arrandale ad 1.07Ghz hanno un TDP di 18W. Quindi diciamo che si andrebbero a scontrare con questi, con un indubbio vantaggio dal punto di vista della frequenza e di conseguenza sia sul piano grafico che di potenza di calcolo (anche se la CPU del Celeron ULV dovrebbe avere un'efficienza maggiore, ma non certo del 50%).

Ciao
Però quello che non mi convice è che da quanto detto su semiaccurate è che il silicio di bobcat sia a0. Potremmo dunque aspettarci un innalzamento anche lieve delle frequenze, poi ho visto che la slide parla di eontario ovvero embedded, atom lo è pure?

cionci
13-10-2010, 17:50
Non credo poi cambi molto. Il TDP è sempre il TDP...

F1R3BL4D3
13-10-2010, 17:54
Ciao
Però quello che non mi convice è che da quanto detto su semiaccurate è che il silicio di bobcat sia a0. Potremmo dunque aspettarci un innalzamento anche lieve delle frequenze, poi ho visto che la slide parla di ontario ovvero embedded, atom lo è pure?

Si certo che Atom può essere embedded.

Pihippo
13-10-2010, 18:00
Non credo poi cambi molto. Il TDP è sempre il TDP...

Certo.
Bisognerà solo vedere con quale step lo commerceranno. Io spererei con qualche centinaio di mhz in più, ovvero 1.2ghz per la versione 9w.
Tra un 5 mesi lo si dovrebbe vedere in giro. Speriamo.

Pihippo
13-10-2010, 18:01
Si certo che Atom può essere embedded.

Ciao
grazie, per embedded si intende saldato nella piastra madre? Ovvero il mio n270 è embedded?

F1R3BL4D3
13-10-2010, 18:15
Ciao
grazie, per embedded si intende saldato nella piastra madre? Ovvero il mio n270 è embedded?

C'è la possibilità che sia saldato. Ma dipende dal produttore. Comunque l'N270 può anche essere embedded (lo vedi scritto nella scheda http://ark.intel.com/Product.aspx?id=36331 , ci sono anche tutte le altre CPU che possono essere embedded cliccando sulla lente di ingrandimento).

Wing_Zero
13-10-2010, 19:24
Ditemi se sbaglio:
Amd ha intenzio di saltare i 32nm per passare direttamente ai 28 giusto?

capitan_crasy
13-10-2010, 20:53
Ditemi se sbaglio:
Amd ha intenzio di saltare i 32nm per passare direttamente ai 28 giusto?

Direi proprio di no...
Llano e Bulldozer sono previsti a 32nm SOI, mentre Bobcat è previsto a 40nm bulk...
Nel 2013 è previsto il passaggio ai 22nm SOI mente Ontario/Zacate passerà ai 28nm bulk forse nel 2012...

paolo.oliva2
13-10-2010, 21:59
Domanda da nubbio... :)

il 40nm BULK di TSMC vs 32nm HKMG low-k AMD...

Si potrebbe ipotizzare una sorta di differenza sul tipo D1 e E0 sul 45nm?

Mi spiego meglio. Probabilmente Magny-C non è stato fatto sul low-k perché il low-k ha un Vcore di molto maggiore all'E0 su frequenze tipiche di Magny-C, cioè 2,4-2,5GHz.
So che sto dicendo un'assurdità a prima vista... però mi era parso di vedere Vcore molto bassi sul Magny-C, mentre se paragoniamo un Thuban E0 al C3, d'accordo che a frequenze alte l'E0 abbisogna di un Vcore inferiore rispetto al C3, ma a frequenze medio-basse, rimane molto maggiore... Anche a 800MHz, in idle, l'E0 vuole 1,15V, mentre un C3 a 1,15V penso probabile che possa arrivare a frequenze dell'ordine di Magny-C.

A primo pensiero a me sembra strano che AMD si affidi a TSMC per una parte di produzione e a GF per un'altra... e troverei la risposta simile in quella che c'è tra D1 e E0.

Cioè... magari il 40nm TSMC rende bene per bassi voltaggi/basse frequenze con TDP minimi, mentre il 32nm HKMG low-k, all'opposto, assicura il rendimento migliore con proci che devono assicurare molta potenza con TDP minimi. Inoltre il 40 TSMC BULK dovrebbe avere bassi costi di produzione, contrariamente al 32nm AMD, di qui... la scelta mi pare sia d'obbligo.

Dico bene?

dark.halo
13-10-2010, 22:17
Domanda da nubbio... :)

il 40nm BULK di TSMC vs 32nm HKMG low-k AMD...

Si potrebbe ipotizzare una sorta di differenza sul tipo D1 e E0 sul 45nm?

Mi spiego meglio. Probabilmente Magny-C non è stato fatto sul low-k perché il low-k ha un Vcore di molto maggiore all'E0 su frequenze tipiche di Magny-C, cioè 2,4-2,5GHz.
So che sto dicendo un'assurdità a prima vista... però mi era parso di vedere Vcore molto bassi sul Magny-C, mentre se paragoniamo un Thuban E0 al C3, d'accordo che a frequenze alte l'E0 abbisogna di un Vcore inferiore rispetto al C3, ma a frequenze medio-basse, rimane molto maggiore... Anche a 800MHz, in idle, l'E0 vuole 1,15V, mentre un C3 a 1,15V penso probabile che possa arrivare a frequenze dell'ordine di Magny-C.

A primo pensiero a me sembra strano che AMD si affidi a TSMC per una parte di produzione e a GF per un'altra... e troverei la risposta simile in quella che c'è tra D1 e E0.

Cioè... magari il 40nm TSMC rende bene per bassi voltaggi/basse frequenze con TDP minimi, mentre il 32nm HKMG low-k, all'opposto, assicura il rendimento migliore con proci che devono assicurare molta potenza con TDP minimi. Inoltre il 40 TSMC BULK dovrebbe avere bassi costi di produzione, contrariamente al 32nm AMD, di qui... la scelta mi pare sia d'obbligo.

Dico bene?

Secondo me è più una questione di costi come dici tu,ma bisogna considerare che AMD punta tutto sul fatto che di ontario/zacate ne venderanno a palate e per non sovraccaricare le linee produttive di 32nm si affideranno a TSMC probabilmente anche per pararsi il di dietro se le rese nelle prime sfornate di GF non siano soddisfacenti.

Wing_Zero
14-10-2010, 00:07
Direi proprio di no...
Llano e Bulldozer sono previsti a 32nm SOI, mentre Bobcat è previsto a 40nm bulk...
Nel 2013 è previsto il passaggio ai 22nm SOI mente Ontario/Zacate passerà ai 28nm bulk forse nel 2012...

Vabbè, quindi sono i 28 nm il processo che amd salta...
Mi ricordavo che volutamente saltava un processo, non mi ricordavo quale.

capitan_crasy
14-10-2010, 00:15
Vabbè, quindi sono i 28 nm il processo che amd salta...
Mi ricordavo che volutamente saltava un processo, non mi ricordavo quale.

AMD non salterà nessun processo produttivo...
I 28nm sono quelli bulk e sono destinati alle GPU e alle APU con architettura Bobcat; in pratica non c'entrano niente con i 32/22nm con tecnologia SOI.
Esempio
Passaggio bulk
55nm/40nm/28nm
Passaggio SOI
65nm/45nm/32nm/22nm...

paolo.oliva2
14-10-2010, 01:55
Sarà vecchio, comunque data di uscita prevista, Q2 2011, in parallelo all'uscita prevista di BD. :)

Qui (http://lensfire.blogspot.com/2010/10/amd-bulldozer-9-series-chipsets-set-to.html)

To support the upcoming "Zambezi" processors featuring "Bulldozer" micro-architecture as well as input/output memory management unit (IOMMU), AMD has leaked its new Bulldozer 9-series chipsets. Interesting info about AMD Bulldozer 9-series chipsetsis that, IOMMU is a technology that will bring a number of new features to AMD's desktop platforms.

Like a traditional MMU, which translates microprocessor's virtual addresses to physical addresses, the IOMMU maps device-visible virtual addresses to physical addresses. The I/O memory management unit provides a secure, scalable, high-performance solution for I/O virtualization in client or server computers.

Like AMD's Athlon X2 7850 which supported AM2+, AMD Bulldozer 9-series chipsets will feature AM3+ sockets supporting Bulldozer Processors as well as AM3 chips. It will also have new clock-speed generators and another mind blowing thing is Bulldozer chips will support Turbo Core 2.0 technology.

North Bridge and South Bridge chips, of AMD 9 Series Chipsets are:-

* AMD 990FX - supports two PCIe 2.0 x16 slots (configurable as four PCIe 2.0 x16), six PCIe 2.0 x1 slots, one PCIe 2.0 x4 slot, to be paired with SB950 I/O controller;
* AMD 990X - supports one PCIe 2.0 x16 slots (configurable as two PCIe 2.0 x8), six PCIe 2.0 x1 slots;
* AMD 970 - supports one PCIe 2.0 x16 slot, to be paired with SB950 and SB920 I/O controllers;
* AMD SB950 - four PCIe 2.0 x1 slots, 14 USB 2.0 controllers, PCI bus, six Serial ATA-600 connectors with RAID 0, 1, 5, 10 support
* AMD SB920 - two PCIe 2.0 x1 slots, 14 USB 2.0 controllers, PCI bus, six Serial ATA-600 connectors with RAID 0, 1, 10 support.

Added chips: AMD plans to unreveal Bulldozer 9-series chipsets to the market in Q2 2011.

Altro

AMD: Fusion Is Going To Be Unlike Everything We Have Seen Before

QUI (http://www.cpu-wars.com/2010/10/amd-fusion-is-going-to-be-unlike.html)

22 ottobre lancio 6XXX VGA ATI QUI (http://www.fudzilla.com/graphics/item/20485-radeon-hd-6870-and-6850-launch-oct-22nd)

Snake156
14-10-2010, 08:01
le prime cpue bd quando verranno commercializzate?fine 2010?

Heimdallr
14-10-2010, 08:39
Q2 2011 probabilmente.

Alekz
14-10-2010, 10:40
Vabbè, quindi sono i 28 nm il processo che amd salta...
Mi ricordavo che volutamente saltava un processo, non mi ricordavo quale.

Si mi ricordo, si trattava dei 32nm bulk di GF.

capitan_crasy
14-10-2010, 11:09
Si mi ricordo, si trattava dei 32nm bulk di GF.

A parte che i 32nm bulk nessuno gli ha sviluppati (Intel a parte) ma quel processo produttivo non era destinato alle CPU...

TopLoad
14-10-2010, 11:21
domanda niubba, ma bulldozer si collocherà nella fascia di mercato (prezzo) del phenom o sopra?

capitan_crasy
14-10-2010, 11:21
Come da roadmap Global Foundries inizierà lo sviluppo sui 22nm "Super High Performance" (presumibilmente SOI) nel terzo trimestre 2012 per poi immettere i primi prodotti nella prima parte del 2013.

http://www.pctunerup.com/up/results/_201010/20101014112102_gtc_2.jpg

Per quel periodo sono previsti il passaggio ai 22nm SOI per le CPU Bulldozer e per la seconda generazione di APU Llano, la quale dovrebbero mandare in pensione i core x86 con architettura K10 per utilizzare i core x86 con architettura Bulldozer; probabile anche un aggiornamento alla GPU integrata DX11.
Per quanto riguarda Bobcat GF prevede il passaggio dei 28nm bulk "Super Low Power" entro la fine del 2011.

capitan_crasy
14-10-2010, 11:32
domanda niubba, ma bulldozer si collocherà nella fascia di mercato (prezzo) del phenom o sopra?

Bulldozer andrà a sostituire tutta la linea dei Phenom2...
Per ora non si sa ne il prezzo ne i modelli con frequenza specifica...

Alekz
14-10-2010, 12:16
A parte che i 32nm bulk nessuno gli ha sviluppati (Intel a parte) ma quel processo produttivo non era destinato alle CPU...
Certamente, mi riferivo soltanto alla notizia che era stata data tempo fa riguardo il processo produttivo che avrebbe avuto la serie 6k di ati(amd). ;)
Poi come sappiamo, si è preferito rimanere sui 40nm di TSMC.

dark.halo
14-10-2010, 12:55
Per quanto riguarda Bobcat GF prevede il passaggio dei 28nm bulk "Super Low Power" entro la fine del 2011.

HKMG ???

capitan_crasy
14-10-2010, 13:04
HKMG ???

Si...

paolo.oliva2
14-10-2010, 13:39
Beh... scusate, ma a me sembra TUTTO in perfetta linea con le roadmap AMD e GF (se vogliamo mettere i puntini sulle i, il 22nm era stato dato in un primo tempo nella seconda metà del 2013 (e chiaramente i più pessimisti avevano dato come data dicembre 2013), ora siamo nei primi mesi del 2013... ha recuperato praticamente 1 anno).

Comunque vorrei far notare che il lavoro svolto da AMD è lodevole.

L'obiettivo di AMD era enorme:
- realizzare un'architettura più potente in grado di competere con la rivale.
- realizzare un silicio che potesse garantire prestazioni almeno quanto il concorrente principale.
- recuperare il disavanzo di tempo nella miniaturizzazione del silicio.

Se ci riuscirà o meno, lo vedremo, però al momento comunque i presupposti di architetture equivalenti/superiori alle odierne Intel ci sarebbero, un silicio 32nm migliore dell'antagonista sembra sia assodato... i 2 anni di disavanzo nella miniaturizzazione del silicio si ridurrebbero ad 1 anno (ma bisogna valutare anche cosa potrà offrire il 32nm AMD, perché avrebbe pur sempre il low-k in più del rivale... con la risultante che... chissà, la differenza sul campo potrebbe essere anche irrisoria o addirittura nulla).

affiu
14-10-2010, 14:04
Come da roadmap Global Foundries inizierà lo sviluppo sui 22nm "Super High Performance" (presumibilmente SOI) nel terzo trimestre 2012 per poi immettere i primi prodotti nella prima parte del 2013.

http://www.pctunerup.com/up/results/_201010/20101014112102_gtc_2.jpg

Per quel periodo sono previsti il passaggio ai 22nm SOI per le CPU Bulldozer e per la seconda generazione di APU Llano, la quale dovrebbero mandare in pensione i core x86 con architettura K10 per utilizzare i core x86 con architettura Bulldozer; probabile anche un aggiornamento alla GPU integrata DX11.
Per quanto riguarda Bobcat GF prevede il passaggio dei 28nm bulk "Super Low Power" entro la fine del 2011.

questa volta mi sa che forse una linea di produzione di gpu la prendera pure GB oltre a tsmc,cioè

le future schede video discrete sappiamo che saranno a 28 nm tsmc

però restano pure le gpu sia per llano che forse bulldozer a 22 nm;per bulldozer 22 nm c'è capace(SE LO INTEGRERANNO A QUESTO COLPO nei desktop oppure in futuro ai 16 nm) che anche le gpu li potrebbero fare a 22 nm GB,che come processo dovrebbe essere adatto anche per le gpu.

bjt2
14-10-2010, 18:52
Due post interessanti su AMDZone:

Il primo:

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=9d3bcc2dac8e8e7042d7c6151648fad1&start=1275#p191770

In breve dice che il SB è meno potente del BD sulal memoria, parla del fatto che ha le porte condivise tra INT e FP e MEM e tra i thread, parla di elevate latenze per il ringbus e il PCIexpress. E sembra che ci siano test in cui SB vada meno del Nehalem in monothread per questi motivi (latenza)...

Il secondo:

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=9d3bcc2dac8e8e7042d7c6151648fad1&start=1275#p191738

In breve dice che il processo AMD è molto meglio, che ora il Fo4 è paragonabile a quello INTEL e che si aspetta clock stock per BD di 4,6-4,8 GHz senza contare il turbo...

paolo.oliva2
14-10-2010, 19:51
Due post interessanti su AMDZone:

Il primo:

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=9d3bcc2dac8e8e7042d7c6151648fad1&start=1275#p191770

In breve dice che il SB è meno potente del BD sulal memoria, parla del fatto che ha le porte condivise tra INT e FP e MEM e tra i thread, parla di elevate latenze per il ringbus e il PCIexpress. E sembra che ci siano test in cui SB vada meno del Nehalem in monothread per questi motivi (latenza)...

Il secondo:

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=9d3bcc2dac8e8e7042d7c6151648fad1&start=1275#p191738

In breve dice che il processo AMD è molto meglio, che ora il Fo4 è paragonabile a quello INTEL e che si aspetta clock stock per BD di 4,6-4,8 GHz senza contare il turbo...

http://www.pctunerup.com/up/results/_201010/20101014194911_gulp.jpg 5 GHz X8 def, 6 GHz TURBO

Sto giro mi sa che portare un X8 sui 5,5GHz sarà possibile ancora ad aria :)... forse i 6GHz probabili a liquido. Ad azoto... chissà... supereranno i 10GHz?
Comunque prevederei dei numeri pazzeschi... chi cerca risultati in OC, si fionderebbe a prendere un BD immediatamente.

P.S.
Immagine copiata... @Capitano :)

Per il discorso di SB... se il commento è esatto... se questo risultasse già in un SB X4, con l'aumento dei core, a X6 e X8, in teoria l'incremento sarebbe addirittura inferiore che dall'i7 X4 --> all'i7980X. Ma a parte tutto questo... Se un BD X8 avesse quasi 5GHz di clock def, BD avrebbe un vantaggio di clock del 60%. Con questo margine, SB potrebbe avere qualsiasi IPC fantascientifico che si vuole supporre, ma mai raggiungerà BD, a parità di core... figuriamoci quando sul mercato SB X4/i7 X6 sui 3,3GHz si troveranno di fronte un BD X8 a quasi 5GHz ...:)

capitan_crasy
14-10-2010, 22:37
http://www.pctunerup.com/up/results/_201010/20101014194911_gulp.jpg 5 GHz X8 def, 6 GHz TURBO



Bè leggendo gli ultimi post le previsioni di frequenza sono calate a 4.00/4.20Ghz che comunque sono delle signore frequenze...

Wing_Zero
14-10-2010, 23:26
AMD non salterà nessun processo produttivo...
I 28nm sono quelli bulk e sono destinati alle GPU e alle APU con architettura Bobcat; in pratica non c'entrano niente con i 32/22nm con tecnologia SOI.
Esempio
Passaggio bulk
55nm/40nm/28nm
Passaggio SOI
65nm/45nm/32nm/22nm...

Non era una critica nei confronti di amd, mi riferivo solo al fatto che rispetto alle cpu intel amd saltasse/non utilizzare un processo produttivo. quello a 28 nm. Tutto qua.

Non ero a conoscenza che con il SOI il 28nm non è proprio previsto come passaggio. Ora lo so. Grazie :)

paolo.oliva2
15-10-2010, 00:03
Bè leggendo gli ultimi post le previsioni di frequenza sono calate a 4.00/4.20Ghz che comunque sono delle signore frequenze...

Però... io avrei una mia idea... e non la scrivo per osannare BD, ma perché razionalmente dovrebbe essere reale.

Prendo ad esempio il 1090T.
3,2GHz è come X6, 3,6GHz è la frequenza Turbo, a def X4.
Prendendo questi dati, si può dire che con un dissi stock e mettiamo a 45-50° temp ambiente, il TDP assicura un funzionamento del procio che non eccede i 62° sia a 3,2GHz X6 che a 3,6GHz come X4.
Chiaramente, o sostituendo il dissipatore con uno più prestante o comunque con temp ambienti favorevoli, il 1090T a 3,6GHz (frequenza del Turbo) come X6 ci si arriva tranquillamente.
Trasferendo questo concetto a BD, in un modello X8 BE, la possibilità di far funzionare tutti i core alla medesima frequenza del turbo assegnato a un minor numero di core, sarebbe vincolato unicamente dal sistema di raffreddamento.
Ora... se un 1090T, con la frequenza massima def di 3,6GHz, lo si riesce a portare in completa sicurezza a 4,3GHz (con dissipazione a liquido), e quindi al 20% in più della frequenza del turbo, se in teoria un BD X8 avesse il clock Turbo a 5GHz, sulle stesse basi, si dovrebbe arrivare a 6GHz :eek: .
Pensando a "solo" 4,8GHz per il Turbo... superare i 5GHz per tutti i core dovrebbe essere un OC addirittura fattibile con il dissi stock.
Pensare diversamente, sarebbe come dire che un 1090T a 3,6GHz di Turbo X4, ci vorrebbe il raffreddamento a liquido per arrivare a 3,8GHz come X6... (vedi firma per confronto).

------------------------------------------

Io, sinceramente, in fondo, penso a clock superiori ai 4,5GHz già a def e a Turbo sopra i 5GHz. Lo penso in relazione all'abbozzo pensato sul 45nm di proci sui 4-4,5GHz. Se ciò era possibile sul 45nm, il 32nm prometterebbe frequenze ben superiori unicamente per il fatto che il TDP sarebbe di un totale inferiore al 45nm, anche contando sui 2 core in più di un BD X8.
Se poi un X8 BD dovesse avere clock sui 4GHz def, sarebbe unicamente per motivi di mercato. AMD addirittura all'inizio si potrebbe permettere il lusso di commercializzare la fascia "bassa" di X8 tenendo la crema in magazzino... ottenendo così 2 grossi vantaggi: un prezzo più competitivo all'uscita, una riserva di clock per commercializzare 1-2 modelli superiori a distanza di 2-3 mesi l'uno dall'altro, una volta acquisito un grande consenso. Anche pensando al successore dell'i980X, con un clock sui 3,5GHz, ad AMD per "batterlo" basterebbe solamente un X8 a pari frequenza (3,5GHz sul multicore) ed affidarsi al clock Turbo di 1GHz almeno superiore per l'ambito monocore (sempre che nel funzionamento monocore non vi siano degli incrementi di IPC peraltro già ipotizzati in questo TH).
Se mi tengo conservativo, non è perché ho paura di sbagliare... ma è per non sentire i soliti commenti che hanno come parvenza l'obiettività, ma di fondo il non voler accettare che AMD può superare Intel.

Wing_Zero
15-10-2010, 10:17
Quindi, in linea di massima, confrontando BD con SB, è lecito aspettarti frequenze molto piu' altre per BD rispetto ad SB giusto?

capitan_crasy
15-10-2010, 10:33
Dirk Meyer Ceo AMD ha dichiarato che le prime soluzioni APU Llano saranno prodotte in volumi nella prima parte del 2011.
In realtà questo non significa specificatamente che in quel periodo saranno immessi in commercio, ma è da considerarsi una "buona notizia" visto che le ultime voci su questa soluziona APU 32nm SOI la davano sul mercato solo nell' estate del 2011 (Clicca qui (http://www.hwupgrade.it/forum/showpost.php?p=33072603&postcount=3140)).

"Production shipments of Llano, our 32nm APU, are planned to occur in the first half of next year.
We expect the APUs to provide an opportunity for us to get more platform design wins and get a greater percentage of sell-outs based on the differentiated value proposition, which comes really in two forms. Number one, superior graphics performance at better price points and better power points than is available from the competition,""

Secondo il sito Xbit lab fonti vicine ad AMD prevedono che le varie soluzioni Llano, da quelle per il mercato mobile a quelle per il mercato mainstream, i valori TDP possano variare da un minimo di 20W ad un massimo di 59W.

Clicca qui... (http://www.xbitlabs.com/news/cpu/display/20101014211146_AMD_Vows_Llano_Chips_in_the_First_Half_of_2011.html)

paolo.oliva2
15-10-2010, 11:00
59W al massimo? :confused:
Questo sarebbe importante..., molto importante, perché escludendo il Thuban e l'X4, con la nuova produzione a 32nm, con solo 59W Llano non dovrebbe avere un clock molto elevato, quindi verrebbe da se che BD dovrebbe arrivare a coprire un segmento di mercato più "basso" di quello che si pensava, ma il segmento "basso" avrebbe anche prezzi bassi. :D e di conseguenza farebbe sperare che un BD X4 potrebbe partire anche da 100€.
Se BD X4 partisse da 200€, un X8 costerebbe almeno da 400€ in su. Un BD X4 a 100€, potrebbe garantire un BD X8 a partire da 300€.

cionci
15-10-2010, 11:12
Dirk Meyer Ceo AMD ha dichiarato che le prime soluzioni APU Llano saranno prodotte in volumi nella prima parte del 2011.
In realtà questo non significa specificatamente che in quel periodo saranno immessi in commercio, ma è da considerarsi una "buona notizia" visto che le ultime voci su questa soluziona APU 32nm SOI la davano sul mercato solo nell' estate del 2011 (Clicca qui (http://www.hwupgrade.it/forum/showpost.php?p=33072603&postcount=3140)).
Non che queste due cose siano discordanti. In produzione nella prima metà del 2011 significa sicuramente fine Q1-inizio Q2 2011 (altrimenti dichiaravano Q1 2011), quindi la dichiarazione che vedeva i prodotti basati su Llano (non Llano nel mercato retail) in commercio nell'estate è ancora più veritiera (giugno fa parte del Q2).

capitan_crasy
15-10-2010, 11:27
Non che queste due cose siano discordanti. In produzione nella prima metà del 2011 significa sicuramente fine Q1-inizio Q2 2011 (altrimenti dichiaravano Q1 2011), quindi la dichiarazione che vedeva i prodotti basati su Llano (non Llano nel mercato retail) in commercio nell'estate è ancora più veritiera (giugno fa parte del Q2).

Occhio che hanno sempre giocato sui numeri
Presentazione in estate significa tra giugno e settembre perchè non sappiamo quando inizieremo la produzioni in volumi...
Produzioni in volumi nella prima parte del 2011 significa che tra gennaio e giugno possiamo iniziare la produzione in volumi e mediamente 30/40 giorni dopo iniziare con la vendita...
Sono due cose diverse e la seconda è una previsione più ottimistica...;)

cionci
15-10-2010, 11:34
Le dichiarazioni non dicevano che la presentazione sarebbe stata in estate, ma che i prodotti basati su Llano, quindi quelli degli OEM, sarebbero arrivati sul mercato in estate.
E' chiaro che se i prodotti escono in estate, la presentazione possa avvenire anche nel Q2. Credo che al Cebit potremmo già vederlo in azione (anche Bulldozer), mentre la presentazione suppongo che sia fra aprile e maggio.

capitan_crasy
15-10-2010, 11:45
Però... io avrei una mia idea... e non la scrivo per osannare BD, ma perché razionalmente dovrebbe essere reale.

Prendo ad esempio il 1090T.
3,2GHz è come X6, 3,6GHz è la frequenza Turbo, a def X4.
Prendendo questi dati, si può dire che con un dissi stock e mettiamo a 45-50° temp ambiente, il TDP assicura un funzionamento del procio che non eccede i 62° sia a 3,2GHz X6 che a 3,6GHz come X4.
Chiaramente, o sostituendo il dissipatore con uno più prestante o comunque con temp ambienti favorevoli, il 1090T a 3,6GHz (frequenza del Turbo) come X6 ci si arriva tranquillamente.
Trasferendo questo concetto a BD, in un modello X8 BE, la possibilità di far funzionare tutti i core alla medesima frequenza del turbo assegnato a un minor numero di core, sarebbe vincolato unicamente dal sistema di raffreddamento.
Ora... se un 1090T, con la frequenza massima def di 3,6GHz, lo si riesce a portare in completa sicurezza a 4,3GHz (con dissipazione a liquido), e quindi al 20% in più della frequenza del turbo, se in teoria un BD X8 avesse il clock Turbo a 5GHz, sulle stesse basi, si dovrebbe arrivare a 6GHz :eek: .
Pensando a "solo" 4,8GHz per il Turbo... superare i 5GHz per tutti i core dovrebbe essere un OC addirittura fattibile con il dissi stock.
Pensare diversamente, sarebbe come dire che un 1090T a 3,6GHz di Turbo X4, ci vorrebbe il raffreddamento a liquido per arrivare a 3,8GHz come X6... (vedi firma per confronto).

------------------------------------------

Io, sinceramente, in fondo, penso a clock superiori ai 4,5GHz già a def e a Turbo sopra i 5GHz. Lo penso in relazione all'abbozzo pensato sul 45nm di proci sui 4-4,5GHz. Se ciò era possibile sul 45nm, il 32nm prometterebbe frequenze ben superiori unicamente per il fatto che il TDP sarebbe di un totale inferiore al 45nm, anche contando sui 2 core in più di un BD X8.
Se poi un X8 BD dovesse avere clock sui 4GHz def, sarebbe unicamente per motivi di mercato. AMD addirittura all'inizio si potrebbe permettere il lusso di commercializzare la fascia "bassa" di X8 tenendo la crema in magazzino... ottenendo così 2 grossi vantaggi: un prezzo più competitivo all'uscita, una riserva di clock per commercializzare 1-2 modelli superiori a distanza di 2-3 mesi l'uno dall'altro, una volta acquisito un grande consenso. Anche pensando al successore dell'i980X, con un clock sui 3,5GHz, ad AMD per "batterlo" basterebbe solamente un X8 a pari frequenza (3,5GHz sul multicore) ed affidarsi al clock Turbo di 1GHz almeno superiore per l'ambito monocore (sempre che nel funzionamento monocore non vi siano degli incrementi di IPC peraltro già ipotizzati in questo TH).
Se mi tengo conservativo, non è perché ho paura di sbagliare... ma è per non sentire i soliti commenti che hanno come parvenza l'obiettività, ma di fondo il non voler accettare che AMD può superare Intel.

Se ti ricordi un discorso simile lo abbiamo fatto prima che uscissero i K10 45nm; oggi però possiamo paragonare il rapporto frequenze Max/TDP Max fra differenti tecnologie produttive, cioè tra i 65nm e i 45nm.
Il Top di gamma K10 a 65nm Quad core era il 9950 @ 2.60Ghz TDP 125W, il Top di Gamma K10 a 45nm sarà il Quad core 975 @ 3.60Ghz.
Esattamente 1Ghz di differenza data solo dal cambio di nm.
I 32nm SOI avranno non solo la tecnologia HKMG ma con tutta probabilità anche la seconda generazione di Low-K.
Cè da essere ottimisti soprattutto sulle frequenze di Llano dove troviamo i core K10; anche se avremo una L3 da 6MB in meno e una GPU mainstream in più!
Per quanto riguarda Bulldozer sembra che le voci portino ad un aumento considerevole di frequenza sia grazie all'architettura sia grazie al processo produttivo; personalmente prevedo un botto di frequenza sui 4 e forse i 6 core; per gli 8 core sono più conservativo anche perchè va bene una buona frequenza di clock ma 8 core sono comunque un enormità...:)

capitan_crasy
15-10-2010, 12:06
Secondo il sito Xbit lab mezza dozzina di produttori starebbero preparando soluzioni con APU Zacate basate sulla piattaforma "Brazus" in formato mini-ITX, già alla presentazione prevista per inizio 2011.
Zacate è la soluzione APU a basso consumo destinata al mercato desktop low-end con GPU integrata DX11 in grado di supportare tutte le nuove tecnologie quali l'accelerazione in hardware su filmati in alta definizione e il supporto HTML5 via GPU.
Si prevede l'utilizzo di soluzioni APU Zacate Dual core modello e350 venduti con il marchio "AMD Vision" e soluzioni single core e240 con il marchio "AMD HD Internet"; il TDP dovrebbe variare tra i 18W e i 9W.
Per completare la piattaforma verrà utilizzato il southbridge Hudson D1 la quale avrà il supporto delle porte SATA3, mentre la gestione Lan e le eventuali porte USB3.0 saranno affidati a chip esterni...

Clicca qui... (http://www.xbitlabs.com/news/mainboards/display/20101014145155_AMD_to_Bet_onto_Mini_ITX_with_Nettop_Brazos_Platform.html)

^Robbie^
15-10-2010, 12:23
Secondo il sito Xbit lab mezza dozzina di produttori starebbero preparando soluzioni con APU Zacate basate sulla piattaforma "Brazus" in formato mini-ITX, già alla presentazione prevista per inizio 2011.
Zacate è la soluzione APU a basso consumo destinata al mercato desktop low-end con GPU integrata DX11 in grado di supportare tutte le nuove tecnologie quali l'accelerazione in hardware su filmati in alta definizione e il supporto HTML5 via GPU.
Si prevede l'utilizzo di soluzioni APU Zacate Dual core modello e350 venduti con il marchio "AMD Vision" e soluzioni single core e240 con il marchio "AMD HD Internet"; il TDP dovrebbe variare tra i 18W e i 9W.
Per completare la piattaforma verrà utilizzato il southbridge Hudson D1 la quale avrà il supporto delle porte SATA3, mentre la gestione Lan e le eventuali porte USB3.0 saranno affidati a chip esterni...

Clicca qui... (http://www.xbitlabs.com/news/mainboards/display/20101014145155_AMD_to_Bet_onto_Mini_ITX_with_Nettop_Brazos_Platform.html)

Molto, molto interessante. Solo che potevano inserire anche l'USB 3.0 invece di affidarlo a chip esterni

Athlon 64 3000+
15-10-2010, 12:29
http://www.xbitlabs.com/news/cpu/display/20101014211146_AMD_Vows_Llano_Chips_in_the_First_Half_of_2011.html

sempre su xbitlabs c'è questo anche su Llano.

capitan_crasy
15-10-2010, 12:29
Molto, molto interessante. Solo che potevano inserire anche l'USB 3.0 invece di affidarlo a chip esterni

Per la fascia destinata alle soluzioni Bobcat le USB 3.0 non sono previste; tuttavia Zacate rimane compatibile con i southbridge Hudson D/M3 la quale gestiscono 4 porte USB 3.0...

cionci
15-10-2010, 12:51
Bè leggendo gli ultimi post le previsioni di frequenza sono calate a 4.00/4.20Ghz che comunque sono delle signore frequenze...
Che poi sono quelle di cui abbiamo sempre parlato noi per l'x8 ;)

capitan_crasy
15-10-2010, 12:51
http://www.xbitlabs.com/news/cpu/display/20101014211146_AMD_Vows_Llano_Chips_in_the_First_Half_of_2011.html

sempre su xbitlabs c'è questo anche su Llano.

Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=33367457&postcount=4153):fiufiu:

paolo.oliva2
15-10-2010, 13:27
Se ti ricordi un discorso simile lo abbiamo fatto prima che uscissero i K10 45nm; oggi però possiamo paragonare il rapporto frequenze Max/TDP Max fra differenti tecnologie produttive, cioè tra i 65nm e i 45nm.
Il Top di gamma K10 a 65nm Quad core era il 9950 @ 2.60Ghz TDP 125W, il Top di Gamma K10 a 45nm sarà il Quad core 975 @ 3.60Ghz.
Esattamente 1Ghz di differenza data solo dal cambio di nm.
I 32nm SOI avranno non solo la tecnologia HKMG ma con tutta probabilità anche la seconda generazione di Low-K.
Cè da essere ottimisti soprattutto sulle frequenze di Llano dove troviamo i core K10; anche se avremo una L3 da 6MB in meno e una GPU mainstream in più!
Per quanto riguarda Bulldozer sembra che le voci portino ad un aumento considerevole di frequenza sia grazie all'architettura sia grazie al processo produttivo; personalmente prevedo un botto di frequenza sui 4 e forse i 6 core; per gli 8 core sono più conservativo anche perchè va bene una buona frequenza di clock ma 8 core sono comunque un enormità...:)

Condivido perfettamente.

Comunque, io non prevederei, almeno nell'OC "casalingo", differenze enormi tra un BD X4 ed un BD X6 e X8, o, perlomeno, comunque un X8 sarà in grado di prestazioni comunque nettamente superiori anche con una frequenza finale inferiore. Chiaro che sto parlando del multicore, perché comunque è un NON SENSO l'acquisto di proci > X4 per l'uso monocore.
Ove si potranno riscontrare differenze in monocore (per via della frequenza) di un 5% (ipotesi) a vantaggio di un BD X4, in multicore praticamente un X8 andrebbe il doppio di un X4.
Inoltre... sinceramente uno sfruttamento fino all'ultimo MHz del monocore non lo vedo assolutamente. L'unica situazione la potrei inquadrare tipo in Boink con esecuzioni monocore... ma proprio per la disponibilità di 8 TH, un BD X8 potrebbe comunque far "girare" 8 task contemporaneamente, contro i 4 di un BD X4.

Nell'esempio che hai riportato, dell'incremento dal 65nm al 45nm, di per sé è corretto, ma vorrei aggiungere: l'incremento di 1GHz è si reale, ma comunque si basa su un 65nm che di per sé non era certamente il massimo nel rapporto TDP/frequenze. D'altro canto, il 45nm ha raggiunto performances notevoli solamente usando il low-k senza ricorrere all'HKMG, a tutto vantaggio dell'economicità di produzione.

In pratica la differenza di 1GHz ci sarebbe stata ugualmente in caso di 65nm più performante e un 45nm con l'HKMG, con la differenza che magari si sarebbe dovuto considerare il 65nm a 3GHz ed il 45nm a 4GHz.

Il low-k di per sé ha migliorato marginalmente il rapporto TDP/frequenze (a parte l'OC :D ), ma ha concesso 2 core in più conservando lo stesso rapporto TDP/frequenza.

E' in visione di ciò che il 32nm dovrebbe permettere un aumento notevole, perché il salto di 1GHz dovrebbe essere permesso già dal passaggio al 32nm ipoteticamente LISCIO.
Il low-k dovrebbe permettere un X8 al TDP di un X6 Thuban.

Ma rimane ancora fuori l'HKMG, la cui funzione è una riduzione del Vcore a parità di frequenza. Mi pare chiaro che se un procio è 125W TDP a 4GHz con 1,3V di Vcore, se con l'HKMG il Vcore passerebbe a 1,1V, il TDP calerebbe enormemente, a tutto vantaggio dell'aumento di frequenza a parità di TDP.

Wing_Zero
15-10-2010, 14:42
Fatemi capire una cosa,
da quello che prevedete voi quindi, per come è fatta l'architettura, a parità di prestazioni (se così si puo 'dire), BD avrà frequenza maggiori di SB ? Od ho capito male io?

Pihippo
15-10-2010, 14:58
Fatemi capire una cosa,
da quello che prevedete voi quindi, per come è fatta l'architettura, a parità di prestazioni (se così si puo 'dire), BD avrà frequenza maggiori di SB ? Od ho capito male io?

Ciao
In pratica si ipotizza che BD avrà un ipc leggermente inferiore a sb (10-15% dipendente da applicazione e compilazione) ma con frequenze più alte di sb di almeno il 15%.

paolo.oliva2
15-10-2010, 15:30
Ciao
In pratica si ipotizza che BD avrà un ipc leggermente inferiore a sb (10-15% dipendente da applicazione e compilazione) ma con frequenze più alte di sb di almeno il 15%.

Nelle ultime considerazioni tra SB e Nehalem, le valutazioni di SB sono nettamente in calo.

http://www.pctunerup.com/up/results/_201010/20101015151949_SBvsi7.jpg

Praticamente l'IPC monocore di SB in media è nettamente inferiore al Nehalem, e l'incremento di clock def ipotizzabile non coprirebbe questo disavanzo.

In previsione di BD, questo sarebbe tutto a vantaggio di AMD, perché lo scoglio maggiore da recuperare era il disavanzo di IPC in monocore, visto che in multicore AMD scala meglio ed inoltre AMD riesce comunque a proporre più core a parità di silicio.

In uno scenario futuro, in cui per buona parte del 2011 Intel si ritroverebbe con SB X4 e i7 X6 a fronteggiare BD X8, non sarebbe certamente rosea la situazione per Intel...

ivano444
15-10-2010, 16:09
Nelle ultime considerazioni tra SB e Nehalem, le valutazioni di SB sono nettamente in calo.

http://www.pctunerup.com/up/results/_201010/20101015151949_SBvsi7.jpg

Praticamente l'IPC monocore di SB in media è nettamente inferiore al Nehalem, e l'incremento di clock def ipotizzabile non coprirebbe questo disavanzo.

In previsione di BD, questo sarebbe tutto a vantaggio di AMD, perché lo scoglio maggiore da recuperare era il disavanzo di IPC in monocore, visto che in multicore AMD scala meglio ed inoltre AMD riesce comunque a proporre più core a parità di silicio.

In uno scenario futuro, in cui per buona parte del 2011 Intel si ritroverebbe con SB X4 e i7 X6 a fronteggiare BD X8, non sarebbe certamente rosea la situazione per Intel...


ma scusa che escono a fare allora?per fare un favore ad amd?non mi sembra realistico questo scenario

cionci
15-10-2010, 16:18
ma scusa che escono a fare allora?per fare un favore ad amd?non mi sembra realistico questo scenario
Anche a me sinceramente. Poi bisognerebbe avere molti più dettagli sul test. Non è una gioco o una applicazione che una volta rilasciata il binario è immutabile, quindi se non ha prestazioni con quell'eseguibile non ce l'avrà mai...quello è un test compilato ad hoc. Bastano due o tre opzioni al compilatore per fare in modo che venga falsato.

vegitto4
15-10-2010, 17:56
infatti qua secondo me c'è qualcuno troppo esaltato per BD e troppo pessimista su SB. Ma l'abbiamo letta tutti la preview di Anandtech e SB è meglio di Nehalem già senza turbo quindi immaginiamo. BD è un "fantasma" ancora, di SB abbiamo già ES funzionanti e testati anche se non a frequenze che andranno sugli scaffali

dany700
15-10-2010, 18:56
infatti qua secondo me c'è qualcuno troppo esaltato per BD e troppo pessimista su SB. Ma l'abbiamo letta tutti la preview di Anandtech e SB è meglio di Nehalem già senza turbo quindi immaginiamo. BD è un "fantasma" ancora, di SB abbiamo già ES funzionanti e testati anche se non a frequenze che andranno sugli scaffali

non è questione di preview o di progetti in sè (anche se SB è un ottima miglioria di nehalem)..ma di storicità.

se escludiamo il periodo C2D...dovuto alle "pratiche" di Intel, è praticamente da 15 anni che a parità di processo...Amd ha sempre superato Intel. Ovviamente solo per la differenza tra le due aziende, dato che Intel non ha l'interesse economico a spremere fino all'ultimo la miniaturizzazione, ma preferisce per motivi di economie di scala, portarsi avanti con gli steps.

Tenuto conto del silicio di GF a 32nm...benchè non sia BD ancora definito al 100% il risultato è scontato e banale...nel rapporto qualità/prezzo generale
...così pure nel rapporto prestazioni/Ghz oltre i 4.

Non vedo come possa Intel nella seconda parte dell'anno...contrastare Amd.

Sicuramente Intel recupererà alla grande con Ivy (forse)...ma stabilire a priori che un progetto come SB possa competere (quantomeno sulla carta) con un progetto come BD e compagnia bella nel 2011...è solo pura demagogia.

Acquistare SB al posto di bobcat e zacate/ontario...è una stupidaggine.

Acquistare SB 4X perchè non esiste concorrenza fino all'arrivo di BD...può avere un senso, a trovarlo.

Il pessimismo o l'ottimismo non hanno un'importanza rilevante nel discorso...è solo una questione di buon senso. Perchè se anche mi trovassi nell'inpellente necessità di cambiare piattaforma a gennaio p.v. ci penserei su due volte a optare per SB considerato che il chipset relativo è già vecchio prima di nascere (lga2011)...propenderei sicuramente per AMD, con una CPU alla stregua di I7 920 o anche meno, accompagnata ad una MB da 35 euro...attendendo alla finestra la MB di BD...che di longevità ne ha da vendere, a differenza di SB.

vegitto4
15-10-2010, 19:30
mah tutte queste certezze senza neanche un bench...

cmq la lotta dovrebbe essere anche sulla fascia alta tra SB X8 con 20 mb di cache l3 e BD X8. Io non sono convintissimo che BD vincerà, ma vedremo

paolo.oliva2
15-10-2010, 20:21
ma scusa che escono a fare allora?per fare un favore ad amd?non mi sembra realistico questo scenario

mah tutte queste certezze senza neanche un bench...

Almeno qui abbiamo dei test. Con BD si era già sparato da subito un IPC inferiore al Phenom II basandosi praticamente sulle slide. :sofico: Non capisco il perché per un BD non si arrivi a riflettere che è impossibile che AMD abbia lavorato per 5 anni per un risultato uguale al Phenom II, mentre per SB invece si da' per scontato che debba avere un IPC migliore almeno del 20%... Usiamo un po' di coerenza... ;)

cmq la lotta dovrebbe essere anche sulla fascia alta tra SB X8 con 20 mb di cache l3 e BD X8. Io non sono convintissimo che BD vincerà, ma vedremo

Io non capisco perché non si voglia considerare l'insieme di cose.

Vediamo un attimo cosa fa di un processore l'essere vincente:

- prestazioni

Per le prestazioni, già considerando un BD con il 33% di clock in più, quanto potrà mai dare di IPC un SB? Il 40% in più? Quindi, ad essere stra-ottimisti, potremmo pensare un 5% a favore di SB. Ma questo a parità di core. Ma SB X6 e X8 non lo vedremo prima del finire del 2011...

- prestazioni/prezzo

SB X8 ha un costo produzione più alto di un i980X (superficie del die). Se un i970X, che NON è un EE, costa ora 800€, come puoi sperare che Intel chieda un prezzo inferiore? Quindi... ad essere ottimisti, almeno un prezzo uguale, e se vogliamo avere lo stesso ottimismo per entrambe le parti, a quel punto BD X8 sarebbe già molto un prezzo di 400€.

- costo del sistema e durata

Intel che sicurezza ti da' che il tuo investimento duri nel tempo? Spendere i soldi in un procio SB X4 + un 300€ per la mobo che poi non sarebbe riutilizzabile per un SB X8... non si parla di spesuccia.

Poi possiamo anche prevedere prezzi da capogiro per un BD, ma la storia insegna (dal C2D in poi) che AMD non ha fatto listini su Intel, ma è Intel che ha dovuto abbassarli per non essere fuori mercato.
Il 940 AMD si era ipotizzato a 400€ perché lo si rapportava al Q9650. Quando uscì a 250€, chi dovvette abbassare i listini?
Il Thuban lo si era ipotizzato almeno a 400€ perché lo si confrontava agli i7 di fascia alta. Quando uscì ed il top costava meno di 300€, chi abbassò i listini (o comunque immise modelli nuovi a prezzo più basso?
Perché ora dobbiamo pensare ad un BD a prezzi di i980X? Io lo penso sui 400€, 500€ al max per il top, ed una mobo top, tipo CF IV con socket AM3+, a 150€.
Se un BD X8 costerà il 50% in meno di un SB X8 che potrebbe garantire (con molti forse) un 5% in più... per me sarà BD il procio vincente sul mercato, lascio ad altri mettere il trofeo sul case di un SB X8. A tutt'oggi l'i980X è il procio più potente sul mercato... ma quanti lo hanno? Un conto è dire Intel ha il procio più potente, tutt'altro se il procio più potente è alla portata di tutte le tasche.

paolo.oliva2
15-10-2010, 20:30
non è questione di preview o di progetti in sè (anche se SB è un ottima miglioria di nehalem)..ma di storicità.

se escludiamo il periodo C2D...dovuto alle "pratiche" di Intel, è praticamente da 15 anni che a parità di processo...Amd ha sempre superato Intel. Ovviamente solo per la differenza tra le due aziende, dato che Intel non ha l'interesse economico a spremere fino all'ultimo la miniaturizzazione, ma preferisce per motivi di economie di scala, portarsi avanti con gli steps.

Tenuto conto del silicio di GF a 32nm...benchè non sia BD ancora definito al 100% il risultato è scontato e banale...nel rapporto qualità/prezzo generale
...così pure nel rapporto prestazioni/Ghz oltre i 4.

Non vedo come possa Intel nella seconda parte dell'anno...contrastare Amd.

Sicuramente Intel recupererà alla grande con Ivy (forse)...ma stabilire a priori che un progetto come SB possa competere (quantomeno sulla carta) con un progetto come BD e compagnia bella nel 2011...è solo pura demagogia.

Acquistare SB al posto di bobcat e zacate/ontario...è una stupidaggine.

Acquistare SB 4X perchè non esiste concorrenza fino all'arrivo di BD...può avere un senso, a trovarlo.

Il pessimismo o l'ottimismo non hanno un'importanza rilevante nel discorso...è solo una questione di buon senso. Perchè se anche mi trovassi nell'inpellente necessità di cambiare piattaforma a gennaio p.v. ci penserei su due volte a optare per SB considerato che il chipset relativo è già vecchio prima di nascere (lga2011)...propenderei sicuramente per AMD, con una CPU alla stregua di I7 920 o anche meno, accompagnata ad una MB da 35 euro...attendendo alla finestra la MB di BD...che di longevità ne ha da vendere, a differenza di SB.

Ti quoto in pieno.

capitan_crasy
15-10-2010, 21:50
infatti qua secondo me c'è qualcuno troppo esaltato per BD e troppo pessimista su SB.

Se passavi due mesi fa qui si ipotizzava che Bulldozer aveva un IPC inferiore al K10...:asd:
Inoltre che problema cè ad essere un po ottimisti?;)

BD è un "fantasma" ancora, di SB abbiamo già ES funzionanti e testati anche se non a frequenze che andranno sugli scaffali

Il fatto che Intel faccia vedere in anteprima CPU non ancora presentati è solo un "problema" suo...
AMD tiene ben nascoste le sue tecnologie non ancora presentate e questo non significa che non ci siano sample funzionanti da tempo...
Inoltre ci sono stati molte discussioni a livello tecnico su BD, leggi la prima pagina 5 post...

affiu
15-10-2010, 23:14
ad esempio io neanche me lo pongo il problema ,perchè penso che se una ''la scena '' nell'ambito hardware la segue ,eventualmente potrebbe immaginarsi uno scenario di come pensi che le cose debbano andare,cioè

gli accordi con GB, le schede video che galoppono,il progetto (da anni progettato) di apu family,ecc;tutte cose che fanno ,quasi quasi ,pensare che ,se con il thuban in multicore si sia avvicinato al ne@lem,stavolta un aspetto non mi torna , e cioè che se un sb ad aria arriva in overclock a 4,9 ghz (per quello che ho visto in internet),un bulldozer x4 sarei(a sto punto) tentato a pensare che cosa possa fare a parità di frequenza!gli è sufficiente per non farsi intimorire,oppure che so:eek: ,gia da ''4 a 5 ghz oggi guadagna poco figuriamoci a sempre a 5 giga anche domani''!

poi a questo si aggiunge anche il fatto di come mai(e non è che l'abbia capito bene il perchè) non si metta in evidenza la gpu integrata di sb.mi sfugge qualcosa.....

infine siccome concepisco ''l'intelligenza'' di un procio solo nei giochi ,su amd posso stare tranquillo(nel senso che nella peggiore dell'ipotesi va come un k10),ma con l'altro la storia che prima devo ''staccare'' ht altrimenti lo ''confondi'' ,dovrei essere tentato a pensare che devo staccare pure la gpu(che cmq è disattivabile )a sto colpo,....mi infurierei :mad:

spero solo che ,quello che dissi btj2, il controller di memoria(per quanto opportuno e degno )non emani troppo calore ,dopotutto se si parla di frequnze tra 5 e 6 ghz..............le frequenze non protranno andare a 2000 mghz ,perche cmq resta sembre un dual,...per forza deve essere all'altezza tenendo conto di 8 mb di cache l3 e dell'architettura bulldozer

paolo.oliva2
16-10-2010, 00:28
Anche a me sinceramente. Poi bisognerebbe avere molti più dettagli sul test. Non è una gioco o una applicazione che una volta rilasciata il binario è immutabile, quindi se non ha prestazioni con quell'eseguibile non ce l'avrà mai...quello è un test compilato ad hoc. Bastano due o tre opzioni al compilatore per fare in modo che venga falsato.

Tutto il discorso si basa su quanto già postato QUI (http://www.hwupgrade.it/forum/showpost.php?p=33363206&postcount=4147).
Qui si ritrovano i perché ed i percome.

Per mia esperienza, posso dire che in tutti questi anni, sin dal Phenom I, non ho mai visto un articolo pro-AMD.
Tutto quello che ho visto in rete, bench, OC, quando ho avuto il procio nelle mani, sono riuscito a fare sempre e comunque meglio, e non di poco... e ti posso garantire che postando i MIEI risultati addirittura si era arrivato al paradosso che i miei erano giudicati falsi e ciò che era in rete vero...
Quindi, in generale, io non credo agli articoli ad occhi chiusi, e aspetto che il confronto sia fatto all'interno del TH.
Però... sarei convinto che se in quel confronto al posto di SB e Nehalem ci fosse stato BD e Phenom II, non so quanti l'avrebbero giudicato inattendibile.

cionci
16-10-2010, 10:18
Tutto il discorso si basa su quanto già postato QUI (http://www.hwupgrade.it/forum/showpost.php?p=33363206&postcount=4147).
Qui si ritrovano i perché ed i percome.
L'ho visto, ma non ci credo. Tra l'altro le prove sul campo sono state fatte ed i risultati sono completamente diversi da quelli postati. E questo come lo spieghi ?

paolo.oliva2
16-10-2010, 10:53
L'ho visto, ma non ci credo. Tra l'altro le prove sul campo sono state fatte ed i risultati sono completamente diversi da quelli postati. E questo come lo spieghi ?

Per te è il 1° articolo contro in Intel? Vedremo.

Comunque quello che non capisco è che nelle spiegazioni e confronti architetturali, BD sulla carta risulti migliore di SB mentre i margini di SB su Nehalem sono esigui. Non capisco il perché come si faccia a dare per buono un innalzamento di IPC di SB su Nehalem consistevole e, al contrario, non vedere incrementi di BD su Phenom II.
In rete di articoli che darebbero per scontato un allineamento di IPC tra BD e SB ce ne sono parecchi... se proprio non uguali, almeno nell'arco di un +/- 5% a parità di clock.
Se diamo per scontato un +20% di SB su Nehalem, e diamo per scontato che Nehalem ha un margine del 30% sul Phenom II, SB dovrebbe avere un margine del +56% sul Phenom II.
Noi ci stiamo limitando tra uguale al Phenom II e + 15% al max....

Comunque, quello che vedo, e penso sia condivisibile da tutti, è che per la prima volta il WEB riporta aspettative così importanti su un procio AMD. Non si è visto sul Phenom I, né sul Phenom II né tantomeno su Magny-C e Thuban. Anzi... addirittura il pensiero comune è di aspettare BD prima di acquistare un sistema su base SB. Per me questo dovrebbe far riflettere.

cionci
16-10-2010, 11:07
Per te è il 1° articolo contro in Intel? Vedremo
Articolo ? Ma che c'entra questo ?

F1R3BL4D3
16-10-2010, 11:30
AMD è riuscita a rialzare leggermente le previsioni di perdita del Q3 2010.

“AMD’s third quarter performance was highlighted by solid gross margin and a continued focus on profitability, despite weaker than expected consumer demand. Our strategy to deliver platforms with superior visual experiences continues to resonate. We look forward to building on this momentum when we begin shipping our first AMD Fusion Accelerated Processor Units later this quarter.”

cionci
16-10-2010, 11:51
Quindi Q1 2011 sul mercato con Bobcat. Ottimo ;)

paolo.oliva2
16-10-2010, 13:31
Articolo ? Ma che c'entra questo ?

Come che c'entra?

Noi abbiamo questa condizione interpretando i vari articoli nel WB:

- Differenze minime di IPC tra BD e SB.
- Differenze minime di IPC tra SB e Nehalem.

Se la matematica non è un'opinione, BD per raggiungere SB dovrebbe innanzitutto recuperare l'IPC dal Phenom II al Nehalem, oltre a quello aggiuntivo di SB.
Invece ci troviamo che si vuole attribuire addirittura più guadagno di SB rispetto a Nehalem di quello che avrebbe un BD sul Phenom II.

A me pare assurdo che in questo contesto addirittura c'è chi posta che questo TH sia ottimista verso BD.

Ares17
16-10-2010, 14:25
Come che c'entra?

Noi abbiamo questa condizione interpretando i vari articoli nel WB:

- Differenze minime di IPC tra BD e SB.
- Differenze minime di IPC tra SB e Nehalem.

Se la matematica non è un'opinione, BD per raggiungere SB dovrebbe innanzitutto recuperare l'IPC dal Phenom II al Nehalem, oltre a quello aggiuntivo di SB.
Invece ci troviamo che si vuole attribuire addirittura più guadagno di SB rispetto a Nehalem di quello che avrebbe un BD sul Phenom II.

A me pare assurdo che in questo contesto addirittura c'è chi posta che questo TH sia ottimista verso BD.

Paolo se non sbaglio ci sono diversi test nei quali sb porta un aumento di ipc del 15%.
Un solo test addirittura prospesta un ipc inferiore.
adesso senza fare discorsi strani questo potrebbe essere dovuto a diverse cose:
Compilazione del test non ortodossa.
bios acerbo.
bug nel controller ram corregibili con le prossime release.
funzioni di caching e accesso ram disabilitate nella cpu in esame (da intel)
Latenze della cache l1,l2,l3 maggiori che in nehalem che implicano clock stock di certo maggiori per la cpu.
Ed ultimo Intel è invidiosa del flop di amd con il phenomI ed avendo dimenticato il suo del P4 ne voglia rifarsi non SB ;)
Come vedi tranne che l'ultima possibilità (peraltro la meno probabile) tutte le altre supposizioni possono essere vere e non ripresentarsi nelle cpu immesse sul mercato (e non dimentichiamoci che Athlon x2 vs Phenom 1 era inferiore in tutto, non vedo come intel possa riuscire a fare peggio)

paolo.oliva2
16-10-2010, 15:01
Paolo se non sbaglio ci sono diversi test nei quali sb porta un aumento di ipc del 15%.
Un solo test addirittura prospesta un ipc inferiore.
adesso senza fare discorsi strani questo potrebbe essere dovuto a diverse cose:
Compilazione del test non ortodossa.
bios acerbo.
bug nel controller ram corregibili con le prossime release.
funzioni di caching e accesso ram disabilitate nella cpu in esame (da intel)
Latenze della cache l1,l2,l3 maggiori che in nehalem che implicano clock stock di certo maggiori per la cpu.
Ed ultimo Intel è invidiosa del flop di amd con il phenomI ed avendo dimenticato il suo del P4 ne voglia rifarsi non SB ;)
Come vedi tranne che l'ultima possibilità (peraltro la meno probabile) tutte le altre supposizioni possono essere vere e non ripresentarsi nelle cpu immesse sul mercato (e non dimentichiamoci che Athlon x2 vs Phenom 1 era inferiore in tutto, non vedo come intel possa riuscire a fare peggio)

Ma infatti io non dubito assolutamente che SB vada meglio di Nehalem.

Ora... siccome BD deve recuperare già lo svantaggio del Phenom II verso Nehalem, mi pare chiaro che per giudicare una parità tra BD e SB, l'incremento di IPC di BD dev'essere molto più corposo di quello di SB verso Nehalem.
O si stanno drogando tutti in rete, perché dalle affermazioni che si leggono BD dovrebbe avere un incremento pari a Phenom II --> Nehalem sommato all'IPC maggiore che SB avrebbe su Nehalem (che sia il 5%, il 20% non è questo il problema).
Siccome gli articoli parlano espressamente di IPC e quindi non di clock, con SB che avrebbe un incremento di IPC maggiore di BD, non capisco come lo si può affermare.
Ora... se ad SB si vuole attribuire incrementi del 20%, il conto non torna assegnando a BD solo un +13%.

Per mia idea... o c'è uno svarione e BD ha un incremento di IPC dell'ordine del 30% + l'incremento di SB sul Nehalem, o i conti non possono tornare.
Se poi SB ha un incremento del 5%, BD dovrebbe averlo del 35%, se poi SB l'avesse del 20%, BD lo dovrebbe avere del 50%.
In ogni caso, l'incremento di SB del 20% a fronte di un BD di solo il 13% mi sembra che non riflette quanto si legge sul WEB.

Non so se mi sono spiegato.

calabar
16-10-2010, 15:56
Quando si parlava di aumento risicato di BD rispetto al K10 si intendeva comunque legato allo sfruttamento dell'intero modulo, col famoso calo del 20% di prestazioni relativo all'uso di risorse condivise.
Questo non avviene in singolo core, dove la potenza di BD può quindi aumentare considerevolmente.

paolo.oliva2
16-10-2010, 16:42
Quando si parlava di aumento risicato di BD rispetto al K10 si intendeva comunque legato allo sfruttamento dell'intero modulo, col famoso calo del 20% di prestazioni relativo all'uso di risorse condivise.
Questo non avviene in singolo core, dove la potenza di BD può quindi aumentare considerevolmente.

Però, se ci attenessimo al discorso di JF, BD dovrebbe avere +17% in ambito multicore (+50% -33% dei 2 core in più).
Che poi in monocore sfruttando il "super core" possa aumentare l'incremento di IPC, è possibile e ci sono molte teorie a riguardo.

Comunque sia, se il discorso lo guardiamo considerando unicamente l'IPC, ci saremme minimo un 20% che non torna.

Invece, prendendo in esame l'insieme, cioè unendo la differenza di clock operativo tra BD e SB, già solamente un 30% a favore di AMD potrebbe rendere più che sufficiente un aumento dell'IPC anche ridicolo... anche solamente del 5%.

Comunque... ci sono molte cose che non tornano.
Se AMD avesse "creato" l'architettura BD con un IPC a livello di Phenom II, BD non sarebbe solamente X8 nativo.
Tanto... è più difficile portare un X8 a 4-4,5GHz che realizzare un X10-X12 a 3,3GHz, mi sembra chiaro.
Per il discorso "universalità" desktop, con la tecnologia Turbo2 e senza impedimento di SMT, avere un X12 o X8 dipenderebbe unicamente dal portafoglio.
Se AMD non aumenta considerevolmente il numero dei core, mi sembra abbastanza chiaro che non abbia problemi di "inferiorità" sul lato IPC.

Precisando, non è che io voglio portare BD alla pari di SB in tutti i modi, ma è un discorso puramente logico. AMD ha un gran 32nm HKMG low-k, che gli permette di realizzare un procio in qualsiasi maniera. Se BD ha un IPC inferiore all'equivalente Intel, può arginare al fatto impostando un Turbo che in monocore gli dia quei MHz in più sufficienti a fornire la giusta potenza. In multicore, fornire quei core in più stile Thuban i7 X4.

Io posso capire Intel che fatica a buttare fuori un SB X6 e X8 perché ha problemi sia con il leakage che con il TDP, ma in AMD la scelta è legata solo se vuole o non vuole.

A me sembra ridicolo solo pensare che AMD dopo 5 anni di studio su BD e con un 32nm da paura, castrerebbe tutto l'investimento, se avesse prb di IPC, per realizzare al max un X8 . Cacchio... ha venduto un cippettone come il Thuban X6 a 130€/220€... Un BD X12 potrebbe venderlo a 300-400€ come ridere :)

Insomma... se AMD si ferma all'X8, vuol dire che sa e bene che può contrastare SB X4-X6-X8. Quindi... cosa si deduce? Che l'IPC non può essere assolutamente come il Phenom II perché allora BD avrebbe un clock stock del 50% in più di Intel, cioè circa sui 5GHz stock + turbo.
E' più facile pensare ad un BD 5GHz stock o ad un aumento del 20-25% di IPC e BD sui 4GHz stock?

cionci
16-10-2010, 17:26
Ora... siccome BD deve recuperare già lo svantaggio del Phenom II verso Nehalem, mi pare chiaro che per giudicare una parità tra BD e SB, l'incremento di IPC di BD dev'essere molto più corposo di quello di SB verso Nehalem.
O si stanno drogando tutti in rete, perché dalle affermazioni che si leggono BD dovrebbe avere un incremento pari a Phenom II --> Nehalem sommato all'IPC maggiore che SB avrebbe su Nehalem (che sia il 5%, il 20% non è questo il problema).
Siccome gli articoli parlano espressamente di IPC e quindi non di clock, con SB che avrebbe un incremento di IPC maggiore di BD, non capisco come lo si può affermare.
Ora... se ad SB si vuole attribuire incrementi del 20%, il conto non torna assegnando a BD solo un +13%.

Per mia idea... o c'è uno svarione e BD ha un incremento di IPC dell'ordine del 30% + l'incremento di SB sul Nehalem, o i conti non possono tornare.
Se poi SB ha un incremento del 5%, BD dovrebbe averlo del 35%, se poi SB l'avesse del 20%, BD lo dovrebbe avere del 50%.
In ogni caso, l'incremento di SB del 20% a fronte di un BD di solo il 13% mi sembra che non riflette quanto si legge sul WEB.

Non so se mi sono spiegato.
Sui SB i conti non possono non tornare, ci sono decine di test sul processore praticamente definitivo in rete.
Comunque molti hanno valutato SB e BD vicini a parità di frequenza, ma con SB leggermente in ventaggio. Questo leggermente può essere interpretato più o meno a piacere fra il 15 e il 5% in meno. Svantaggio che ovviamente verrebbe ampiamente colmato con il maggior clock a parità di TDP ;)

Pihippo
16-10-2010, 19:04
Sui SB i conti non possono non tornare, ci sono decine di test sul processore praticamente definitivo in rete.
Comunque molti hanno valutato SB e BD vicini a parità di frequenza, ma con SB leggermente in ventaggio. Questo leggermente può essere interpretato più o meno a piacere fra il 15 e il 5% in meno. Svantaggio che ovviamente verrebbe ampiamente colmato con il maggior clock a parità di TDP ;)

Ciao
Quoto tutto.
E sinceramente se la situazione fosse cosi sarebbe molto più che rosea per amd.
Io dal mio canto aspetto un ontario a 3ghz, quello si che farebbe la mia personale felicità (usate un qualsiasi tipo di database od un programma tipo una analyzer turbiscan su un atom) :cry:

paolo.oliva2
16-10-2010, 20:52
Sui SB i conti non possono non tornare, ci sono decine di test sul processore praticamente definitivo in rete.
Comunque molti hanno valutato SB e BD vicini a parità di frequenza, ma con SB leggermente in ventaggio. Questo leggermente può essere interpretato più o meno a piacere fra il 15 e il 5% in meno. Svantaggio che ovviamente verrebbe ampiamente colmato con il maggior clock a parità di TDP ;)

Si, però non riesco a comprendere lo svarione di IPC.

Quello che intendo, è che l'i7 sotto windows INDUBBIAMENTE ha un IPC superiore.
Mettiamo del 30%.
SB penso che possa tranquillamente aumentare l'IPC da un 10% ad un 20%, quindi, facendo una media, saremmo sul 15%.

(ho messo dei dati approssimativi... mi scuso se sono inferiori o superiori, ma è giusto per far capire la logica del discorso)

Ora... se l'i7 ha un IPC > del 30%, ed SB ha un IPC maggiore del 15% sull'i7, ne viene fuori che SB sul Phenom II avrebbe un IPC maggiore del 50%.

Ora, come anche hai scritto tu, BD sarebbe inferiore in IPC dal 5% al 15% rispetto a SB.

Se prendiamo il valore più negativo, cioé -15%, BD dovrebbe avere un IPC > del 35% rispetto al Phenom II.
Nel caso di -5%, addirittura del 45% maggiore al Phenom II.

Quindi, mi sembra chiaro che BD non possa avere un IPC da = o al max il 15% in più del Phenom II.

affiu
16-10-2010, 23:11
Ciao
Quoto tutto.
E sinceramente se la situazione fosse cosi sarebbe molto più che rosea per amd.
Io dal mio canto aspetto un ontario a 3ghz, quello si che farebbe la mia personale felicità (usate un qualsiasi tipo di database od un programma tipo una analyzer turbiscan su un atom) :cry:

cmq ontario è sempre su 40 nm sia cpu-gpu .....dopo verrà il 28 nm,che a quando sembra ,siano già in moto.,poi se ontario sarà una mera alternativa come prestazioni in piccola scala,cioè i neetbook e ultra-portatili,allora un salto da 40nm a bobcat2 a 28 nm ,non sarebbe indifferente .....ancora piu potenza ,sempre a parità di watt

di sicuro a 3 ghz ontario dual core farà giocare quasi come un phenom2 ,e sempre su 18w come max,non è mica poco

cioè a 28nm ,con ontario si avrà una piattaforma ''amd dragon'' in un netbook

e cmq apu non sarà mica ''intoccata'' ,se aumenti la frequenza di uno devi aumentare anche l'altro ed allora la cosa assume tutto un altro significato:read: ;anche perchè non c'e' piu la storia della comunicazione attraverso il chipset ,ora sono MOLTO vicine e si deve dare conto sia ad una componente ed all'altra,non piu solo la cpu ........almeno fino a quando non sarà un nucleo perfettamente eteronegeo

paolo.oliva2
17-10-2010, 08:42
Amd Ontario Bench (http://www.computermagz.com/read-amd-ontario-bench)

cionci
17-10-2010, 10:05
Amd Ontario Bench (http://www.computermagz.com/read-amd-ontario-bench)
Sicuro fosse quello il link che volevi postare ?

dark.halo
17-10-2010, 10:54
Si, però non riesco a comprendere lo svarione di IPC.

Quello che intendo, è che l'i7 sotto windows INDUBBIAMENTE ha un IPC superiore.
Mettiamo del 30%.
SB penso che possa tranquillamente aumentare l'IPC da un 10% ad un 20%, quindi, facendo una media, saremmo sul 15%.

(ho messo dei dati approssimativi... mi scuso se sono inferiori o superiori, ma è giusto per far capire la logica del discorso)

Ora... se l'i7 ha un IPC > del 30%, ed SB ha un IPC maggiore del 15% sull'i7, ne viene fuori che SB sul Phenom II avrebbe un IPC maggiore del 50%.

Ora, come anche hai scritto tu, BD sarebbe inferiore in IPC dal 5% al 15% rispetto a SB.

Se prendiamo il valore più negativo, cioé -15%, BD dovrebbe avere un IPC > del 35% rispetto al Phenom II.
Nel caso di -5%, addirittura del 45% maggiore al Phenom II.

Quindi, mi sembra chiaro che BD non possa avere un IPC da = o al max il 15% in più del Phenom II.

Tu Paolo continui a considerare in termini matematici cio che disse JF in quel suo maledetto post che gli ha rovinato la vita :D del 50% in più.
Ognuno da quella cifra vede ciò che vuole vedere, io per esempio considerando che lo scaling non è perfetto, è sbagliato considerare 33% di core = 33% di performance in più soprattutto in un'architettura con molti elementi condivisi come è quella di BD. Detto ciò io mi aspetto un incremento di ipc che va da un 20% (pessimista) a un 30% (ottimista) e anche senza immaginarci chissà quali frequenze.
A proposito di frequenze provo a dire la mia, partiamo dal presupposto che io di BD considero il quad (perchè con tutta probabilità è il candidato miglior a finire nel mio case :D ). Lo stato dell'arte di un quad attuale è rappresentato dal Phenom II X4 975 3.6ghz in 125w con stepping c3. Diciamo che AMD con il passaggio dai 65 ai 45 da subito ci ha tirato fuori almeno 600mhz, fino ad arrivare ai 1000mhz (a fine dell pp 45nm).
Ok ora immaginiamo questo procio a 45 nm 125w shrinkato a 32 guadagnerebbe un 300 mhz (voglio essere il più pessimista possibile :) ) e passerebbe a 95w di tdp.
A questo punto la nostra cpu si ritrova a 3.9 ghz a 95w di tdp. Ottimo ma c'è altro bd introduce una nuova pipeline con più stadi e minore Foa e anche qui si può guadagnare frequenza diciamo un 200 mhz (tanto per restare pessimisti).
Ora il nostro caro processore si ritrova a 4.1 ghz a 95w (ricordo che si tratta di un quad).
Oh ma c'è anche l'HKMG facciamo un 100 mhz così per simpatia :D (inoltre abbassa in maniera considerevole il voltaggio e di conseguenza il tdp).
Tralascio il low-k che secondo me verrà utilizzato dopo per contrastare ivy bridge.
Alla fine la nostra bella cpu si trova a 4.2 ghz che è più o meno un 20% di frequenza in più rispetto a SB (3.4ghz) sommato al 20% di ipc che ho previsto si arriva al 40% di prestazioni in più rispetto ad un phenom II alla stessa frequenza di SB (3.4 ghz). Questo si traduce che BD sia sotto a SB di un misero 5% (e mi son tenuto con le frequenze).
Sommiamo anche il fatto che in produzione BD facendo un opportuno bilancio tra il maggiore costo del Soi + HKMG alla resa in numero di cpu prodotte per wafer sia maggiore,(ricordiamoci che a parità di pp un modulo BD è del 12% più grande di un quad k10, e se si considera tutto il procio con controller di memoria e cache il valore si riduce in un misero 5%, quindi considerando il pp produttivo 2 moduli BD sono 35% più piccoli di un quad k10) di Intel, permettendo prezzi minori il tutto con anche consumando meno corrente.
Riassumendo la mia analisi posso dire che BD andrà un 5% in meno di SB nel peggiore dei casi, costerà un 15/20% in meno e probabilmente consumerà anche meno per via del minor silicio impiegato.
Certo non deterrà lo scettro delle prestazioni assolute, ma i presupposti che diventi il best buy del secolo ci sono tutti.
Come si può essere pessimisti,prevedo un 2011 dove i primi a guadagnarci saremo noi consumatori.
W la concorrenza :Prrr: .

paolo.oliva2
17-10-2010, 15:52
Aspetta... è qui il punto.

Se come si dice in giro l'IPC di BD sarebbe dal 5 al 15% in meno di SB (che se vogliamo puntualizzare, si parla di un -5% in monocore e di un +5% in multicore ed anche più), va da sé che se BD avesse anche solo il 20% in più di clock def e +30% in Turbo, le differenze non sarebbero a sfavore di AMD, tutt'altro, ma da un +25% in monocore ad un +35% in multicore, che è ben diverso dal -5%/-15%.

Infatti, come dici tu, se JF ha detto il 50% ma non è il 33% per i core ma diciamo un 20%, il rimanente andrebbe tutto a vantaggio dell'IPC, che in questo caso sarebbe del 30%.

Ma quello che volevo puntualizzare, ed era questa la mia intenzione, è che a tutt'oggi in questo TH si parla dell'IPC di BD ancora riportandolo uguale al Phenom II o, al più, massimo 15%, mentre se vediamo ciò che si dice in rete, siamo al +40%. Cioè... non è incredibile discutere su SB se ha il 12% o il 20% in più di IPC come se si fosse feriti nel cuore e "segare" BD del 40% di IPC in completa scioltezza?

Mi sembra chiaro che in quest'ottica, le critiche sull'ottimismo verso BD sono totalmente errate...

Che poi a questo +40% di IPC si aggiunga il +20% di clock, o il 30 o 40%, sarà da verificare, non metto in dubbio, ma i presupposti, se vogliamo essere coerenti, di chi potrebbe essere il procio più potente (chiaro che all'uscita BD X8 è chiarissimo che sarebbe il procio più potente, bisognerebbe aspettare SB X6 X8 verso la fine del 2011 o, al più, il passaggio al 22nm), non mi sembra giustificato che si possa avere tutta sta sicurezza che sia SB.

Io non voglio mettere il discorso, però, che BD farà il c... a Intel, perché non è mia intenzione... volevo solo chiarire che riportare "ottimista" chi prevede una superiorità di BD su SB... beh, a me sembra tutto il contrario... :), cioè avere così tanta sicurezza che SB superi BD....

ark80
17-10-2010, 23:45
io invece quello che non capisco bene, considerando che ne capisco POCHISSIMO e il mio approccio all'hardware e al pc in generale è dettato più che altro dal lavoro che faccio, se considerate così tanto performante il silicio in mano a global fundries, e ne spergiurate le lodi (sia ben chiaro pure a me l'x6 piece molto) perchè amd non è nemmeno lontanamente vicina ad intel in questo momento? insomma il 980x da le paste ad amd, e non poche, guardando i bench dove il procio è ben assecondato (3d studio, cinebench). Alla fine dei conti, in giro un 920 ovecloccato gira mediamente più veloce di un 1090t overcloccato, come si vede anche nel test di cinebench su questo forum.. E poi addirittura il vicepresidente che mette la mani avanti dicendo che per l'intrinseca architettura BD avrà qualche perdita, che però recupererà in altre cose.. insomma io sono Pro AMD perchè sono pro concorrenza, però sperare che in un sol colpo amd recuperi tutto il gap prestazionale che ha in senso assoluto (non in qualità prezzo) mi sembra un pò ottimistico anche a me sinceramente

capitan_crasy
18-10-2010, 00:31
io invece quello che non capisco bene, considerando che ne capisco POCHISSIMO e il mio approccio all'hardware e al pc in generale è dettato più che altro dal lavoro che faccio, se considerate così tanto performante il silicio in mano a global fundries, e ne spergiurate le lodi (sia ben chiaro pure a me l'x6 piece molto) perchè amd non è nemmeno lontanamente vicina ad intel in questo momento?

Una cosa è il silicio, un altra cosa è l'architettura della CPU...


insomma il 980x da le paste ad amd, e non poche, guardando i bench dove il procio è ben assecondato (3d studio, cinebench). Alla fine dei conti, in giro un 920 ovecloccato gira mediamente più veloce di un 1090t overcloccato, come si vede anche nel test di cinebench su questo forum..

Non capisco questo tuo post...
Lo sanno anche i sassi che l'architettura Nehalem è più efficiente di quella del K10...
Il successore sarà Bulldozer ma almeno dagli il tempo di uscire...


E poi addirittura il vicepresidente che mette la mani avanti dicendo che per l'intrinseca architettura BD avrà qualche perdita, che però recupererà in altre cose..

La perfezione non esiste, esiste un buon compromesso e questo vale anche per le architetture Intel...


insomma io sono Pro AMD perchè sono pro concorrenza, però sperare che in un sol colpo amd recuperi tutto il gap prestazionale che ha in senso assoluto (non in qualità prezzo) mi sembra un pò ottimistico anche a me sinceramente

Ormai è cosa nota che pensare ottimista su AMD contro Intel è quasi un tabù...
Nuova architettura, nuovo approccio multicore, nuovo processo produttivo; Io li darei almeno il beneficio del dubbio...:)

Ares17
18-10-2010, 01:07
Ormai è cosa nota che pensare ottimista su AMD contro Intel è quasi un tabù...
Nuova architettura, nuovo approccio multicore, nuovo processo produttivo; Io li darei almeno il beneficio del dubbio...:)

Storicamente ogni architettura nuova di amd sopravanza la corrispettiva Intel:
P2 vs K6III, P3 Vs Athlon, P4 vs Athlon xp, P4 ht vs A64 e se consideriamo il Phenom II come il vero Phenom anche con Core abbiamo avuto la stessa cosa.
Ivy vs buldozer II è un'incognita per via della nuova architettura Intel, ma anche per le nuove apu in BD II che potrebbero fare davvero la differenza di occupazione silicio potendo così aumentare le unità di elaborazioni utili a parità di superfice.
Se poi consideriamo anche la lentezza intrinseca di Intel nello spostare la produzione su una nuova architettura (ancora oggi la maggioranza di cpu vendute da intel sono Core e non I7) ci fa capire come il vantaggio temporale sull'architettura nuova viene di molto ridimensionata dalla lentezza nel fornire il mercato mantenendo il prezzo delle cpu alte per molto tempo.

paolo.oliva2
18-10-2010, 11:20
io invece quello che non capisco bene, considerando che ne capisco POCHISSIMO e il mio approccio all'hardware e al pc in generale è dettato più che altro dal lavoro che faccio, se considerate così tanto performante il silicio in mano a global fundries, e ne spergiurate le lodi (sia ben chiaro pure a me l'x6 piece molto) perchè amd non è nemmeno lontanamente vicina ad intel in questo momento? insomma il 980x da le paste ad amd, e non poche, guardando i bench dove il procio è ben assecondato (3d studio, cinebench). Alla fine dei conti, in giro un 920 ovecloccato gira mediamente più veloce di un 1090t overcloccato, come si vede anche nel test di cinebench su questo forum.. E poi addirittura il vicepresidente che mette la mani avanti dicendo che per l'intrinseca architettura BD avrà qualche perdita, che però recupererà in altre cose.. insomma io sono Pro AMD perchè sono pro concorrenza, però sperare che in un sol colpo amd recuperi tutto il gap prestazionale che ha in senso assoluto (non in qualità prezzo) mi sembra un pò ottimistico anche a me sinceramente

:confused:
Non capisco cosa scrivi... mediamente sopra i 4GHz qualsiasi Thuban X6 ha un IPC superiore agli i7 X4 Intel in Cinebench, e già un 1055T, procio da 160€, se occato a dovere (4,2-4,3GHz), è in grado di sorpassare tranquillamente un i7 920 (se non altro perché un i920 dovrebbe arrivare sui 4,350-4,450GHz che sicuramente non è poco).
Se non mi mettono in classifica perché manca il test in monocore (che poi non capisco che importanza abbia la valutazione in monocore, visto che Cinebench è un programma multicore e il cui utilizzo è votato un procio con più TH possibili che non lavorerà mai con 1 solo TH)... io non ci posso fare niente... (ma così è la regola del TH, ed io non discuto), ma il mio risultato (momentaneo) lo puoi vedere in firma. Quando diminuiranno le temp ambiente e riuscirò a fare un punteggio migliore, lo riposterò completo di monocore e multicore.

ark80
18-10-2010, 14:22
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..

ark80
18-10-2010, 14:28
ah e non fraintendetemi, sicuramente per me amd piazzerà dei proci che prezzo prestazioni rivaleggeranno con le controparti intel, è lo sperare che il modello di punta posso andar più forte del modello di punta intel che mi suona parecchio strano, ed è quello che mi sembrava di tradurre leggendo alcuni post, ma se mi son sbagliato mi scuso

ivano444
18-10-2010, 14:42
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..

tu doveri quando intel le prendeva dagli athlon64?:D phenom è stato un fallimento ma pensare che bd sarà altrettanto è pura utopia

Jean240
18-10-2010, 14:42
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..

Hai ragione nel dire che il 980x è molto performante ma dimentichi una cosa assolutamente fondamentale e cioè il prezzo!! Costa ora sulle 800-900 euro e mi pare che non sia alla portata di tutti!!! i confronti impariamo a farli anche in base al prezzo!!
E cmq non ce niente di male a essere ottimisti e dire che BD sarà molto buono!! Mica perchè si parla di AMD allora i nuovi proci devono essere per forza scadenti o cmq non migliori della controparte!!

Heimdallr
18-10-2010, 15:26
Hai ragione nel dire che il 980x è molto performante ma dimentichi una cosa assolutamente fondamentale e cioè il prezzo!! Costa ora sulle 800-900 euro e mi pare che non sia alla portata di tutti!!! i confronti impariamo a farli anche in base al prezzo!!

Hai perfettamente ragione, però aggiungerei che Intel ha 'qualcosa' da proporre a quel prezzo, AMD ora non lo fa semplicemente perchè non ha alcun prodotto in grado di rivaleggiare con il 980x altrimento avremmo il processore FX anche da AMD che ha fatto in passato.
Speriamo comunque che questo BD vada forte ma mi auguro che se così sarà il merito sia principalmente dell'architettura e non grazie ad un pp migliore ora, ma che potrebbe non esserlo più già a inizio 2012.

Se non altro sono sicuro che AMD sarà aggressiva sui prezzi e questo è bene (per noi :asd:).

Pihippo
18-10-2010, 15:31
Hai perfettamente ragione, però aggiungerei che Intel ha 'qualcosa' da proporre a quel prezzo, AMD ora non lo fa semplicemente perchè non ha alcun prodotto in grado di rivaleggiare con il 980x altrimento avremmo il processore FX anche da AMD che ha fatto in passato.
Speriamo comunque che questo BD vada forte ma mi auguro che se così sarà il merito sia principalmente dell'architettura e non grazie ad un pp migliore ora, ma che potrebbe non esserlo più già a inizio 2012.

Se non altro sono sicuro che AMD sarà aggressiva sui prezzi e questo è bene (per noi :asd:).

Ciao
Anche amd ha qualcosa per contrastare un 980x, peccato che non sia in ambiente client, mi riferisco a magny c.

paolo.oliva2
18-10-2010, 15:43
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..

Nessuno toglie che l'i980X ha un IPC superiore al Phenom II, questo mi pare chiaro. Però il punto è stiamo facendo un minestrone di tutto.

l'i980X è sul 32nm HKMG.
Il Phenom II è sul 45nm.

SB è un'evoluzione dell'architettura, NON una nuova architettura.
BD è un'architettura completamente nuova, quindi i paragoni tra Phenom II e i7 scusami ma non valgono assolutamente nulla.

SB verrà realizzato sempre sul 32nm HKMG, quindi, ove il 32nm HKMG ha dimostrato limiti di TDP abbastanza evidenti nell'impiego di 6 core, figuriamoci nell'ambito di 8 core. Che SB possa alleviare il problema per via di migliorie a livello di architettura, lo reputo probabile e fattibile, ma altrettanto probabile se non impossibile è che il silicio rimarrendo quello, i margini non saranno ampi, soprattutto perché Intel non credo che reputi conveniente avviare un ulteriore step di silicio con il 22nm praticamente tra poco più di 1 anno.

AMD invece passa al 32nm, HKMG e con il low-k in più di Intel, indubbiamente di una spanna sopra a quello Intel sia per il leakage, per la frequenza, per il TDP per First-gate con consumi inferiori per la possibilità di spegnere effettivamente le parti non funzionanti.

Secondo te, sarà mai possibile che da un i980X a 3,3GHz come X6 Intel riuscirà a realizzare un procio (SB) con 2 core in più, con più IPC e con frequenze del 20% superiori ad un i980X? Il tutto sullo stesso silicio? Perché per affrontare un BD X8 occhio e croce dovrebbe arrivare a questa condizione (valutando che in rete danno un IPC a BD di poco inferiore a SB). Non a caso è la stessa Intel che ha detto che avrebbe intenzione di accelerare il 22nm e di portare un SB a X10... chissà perché.

calabar
18-10-2010, 16:00
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..
Ci sono due cose che a mio parere ti sfuggono:

1) il "silicio" non è l'unica cosa che fa le prestazioni dei processori. In questo caso la differenza la fa l'architettura, e quella degli i7 è più efficiente.

2) Gli avversari dei processori phenom non sono quelli basati su architettura nehalem (ossia la generazione Intel attuale), bensì quelli basati du architettura core (dei quali sono per molti versi più evoluti, tanto che intel solo con i nehalem ha adottato alcune tecnologie che già erano presenti sui phenom).
AMD, visti i ritardi accumulati con il problematico progetto phenom a 65nm, ha semplicemente decisi di annullare l'originario progetto bulldozer in modo da non dover sempre rincorrere Intel, dando vita all'attuale progetto Bulldozer che vedrà la luce nel 2011.
Quindi non ci vedo nulla di strano nella situazione attuale, dato che AMD ha saltato una generazione di processori per poter arrivare adeguatamente preparata all'appuntamento con Sandy Bridge.

gi0v3
18-10-2010, 17:55
ok, hai ragione. A 4.4 il 920 fa 7.45, il 1090t fa 7.77. Ciò non toglie che mi sembra che siam ben lontani dall'affermare che il silicio di amd sia notevolmente superiore, perchè se mettiamo in campo il 6 core intel il distacco è stra netto. Forse non ho capito qualcosa io nel vostro ottimismo, e ripeto che spero vivamente in una concorrenza forte, e che con molte probabilità mi comprerò il 1090t, ma vedendo i risultati ora sul campo, pensare di pareggiare il distacco mi pare una chimera.. Il 980x è impressionante, e sandy bridge con tutta probabilità andarà meglio, sicuramente i modelli di punta. A me sembrerebbe già buono se amd riuscisse ad eguagliare il 980x.. ripeto, poi magari mi sbaglio..

mi sa che confondi qualità del silicio con architettura della cpu... la qualità del silicio di un determinato processo produttivo si vede principalmente sulla frequenza raggiungibile dalla cpu a un determinato TDP, la bontà dell'architettura si vede principalmente nel rapporto potenza elaborativa/frequenza...

quindi il 920 ha un'architettura migliore ma un silicio peggiore, sia perchè un quad core intel arriva alla stessa frequenza ( e ci teniamo larghi, perchè di media sta pure un po' sotto ) di un esa-core amd, sia perchè i consumi di un 920 a 4,4 ghz sono là e là con i consumi di un 1090t alla stessa frequenza... sempre 4 core contro 6, e stiamo parlando dello stesso processo produttivo, mentre il 980x ha un processo produttivo più affinato rispetto al 1090t, eppure non ho visto frequenze eclatanti per l'esa-core intel, che consuma comunque più di quello amd pur avendo un processo produttivo di uno step inferiore...

entrano in gioco molti fattori, ovviamente, l'architettura influenza il tdp e la frequenza massima raggiungibile... esempio scemo: la cache... se quello che ho letto finora mi è servito a qualcosa, possiamo riassumere molto semplicisticamente che più cache hai, più la tua cpu scalda... quindi se l'architettura x ha più cache di quella y, a parità di tutto il resto dovrebbe scaldare di più, e quindi dovrebbe avere più limitazioni a salire in frequenza...

però cercando di stringere penso sia valido quello che ho scritto all'inizio, silicio->frequenza e tdp, architettura->IPC(a parità di frequenza), quindi non è il silicio che fa andare meglio il nehalem, ma l'architettura.

E il vero, grosso vantaggio che ha intel rispetto ad amd, al momento attuale, è l'SMT, visto che l'architettura amd scala molto meglio all'aumentare del numero di core... quello che si sta dicendo da settimane in questo thread è che amd con BD dovrebbe recuperare in tutti i campi, arrivando a una sostanziale parità in quelli dove era più carente (IPC)e sorpassando la rivale in quelli in cui era già quasi alla pari (silicio)... poi staremo a vedere, ma sperare non costa nulla :)

ark80
18-10-2010, 18:33
mmm ok, continuo a percepire dell'ottimismo a cui non credo molto ma va bene così. Volevo solo rispondere che ho un x2 4200+, mi ricordo bene le controparti dell'epoca, non dico affatto che un sorpasso non sia possibile, solo mi sembra un pò troppo presto, prendendo ad esempio le schede video ad AMD gli c'è voluto diverse generazioni per eguagliare e superare nvidia. E sono stato io stesso a dire che prezzo prestazioni secondo me amd se la giocherà alla grande, solo che credo poco nelle prestazioni assolute. Non che la cosa m'interessi! L'EE intel costerà sempre 900-1000 dollari, il pari amd costerebbe uguale o poco meno, dopotutto non siamo in regime di monopolio ma è facile fare cartelli quando si è in 2, quindi la cosa in realtà non mi tange, ma a mio parere è presto per vedere AMD primeggiare sulle prestazioni assolute. IMHO. O meglio non ho tutte queste speranze, perchè in fondo di speranze e supposizioni si tratta.

paolo.oliva2
18-10-2010, 19:20
mmm ok, continuo a percepire dell'ottimismo a cui non credo molto ma va bene così. Volevo solo rispondere che ho un x2 4200+, mi ricordo bene le controparti dell'epoca, non dico affatto che un sorpasso non sia possibile, solo mi sembra un pò troppo presto, prendendo ad esempio le schede video ad AMD gli c'è voluto diverse generazioni per eguagliare e superare nvidia. E sono stato io stesso a dire che prezzo prestazioni secondo me amd se la giocherà alla grande, solo che credo poco nelle prestazioni assolute. Non che la cosa m'interessi! L'EE intel costerà sempre 900-1000 dollari, il pari amd costerebbe uguale o poco meno, dopotutto non siamo in regime di monopolio ma è facile fare cartelli quando si è in 2, quindi la cosa in realtà non mi tange, ma a mio parere è presto per vedere AMD primeggiare sulle prestazioni assolute. IMHO. O meglio non ho tutte queste speranze, perchè in fondo di speranze e supposizioni si tratta.

Ti dico solo questo che ti farà essere MOLTO più ottimista.

Nel Q1 Intel commercializzerà SB ma solamente X4.
Nel Q2 AMD commercializzerà BD nelle varianti desktop X4 e X8.

Ora... cosa si troverebbe di fronte AMD con un procio X8 con nuova architettura e nuovo silicio?

Un X4 SB e forse un i990X X6 che avrebbe 100MHz in più dell'attuale (gli SB X6 e X8 li vedremo nel Q4 2011).

Ora... se un X6 AMD attuale riesce a equivalere con un X4 SMT Intel, mi sembra probabile che un X8 (2 core in più) riuscirebbe già a contrastare un X6 Intel a parità di frequenza.
Ora.... aggiungici più IPC perché BD avrà un IPC di molto più alto rispetto al Phenom II, aggiungici più clock perchè il 32nm HKMG low-k AMD offrirà più clock del 45nm low-k...

Dove vedi l'ottimismo?

affiu
18-10-2010, 19:29
mmm ok, continuo a percepire dell'ottimismo a cui non credo molto ma va bene così. Volevo solo rispondere che ho un x2 4200+, mi ricordo bene le controparti dell'epoca, non dico affatto che un sorpasso non sia possibile, solo mi sembra un pò troppo presto, prendendo ad esempio le schede video ad AMD gli c'è voluto diverse generazioni per eguagliare e superare nvidia. E sono stato io stesso a dire che prezzo prestazioni secondo me amd se la giocherà alla grande, solo che credo poco nelle prestazioni assolute. Non che la cosa m'interessi! L'EE intel costerà sempre 900-1000 dollari, il pari amd costerebbe uguale o poco meno, dopotutto non siamo in regime di monopolio ma è facile fare cartelli quando si è in 2, quindi la cosa in realtà non mi tange, ma a mio parere è presto per vedere AMD primeggiare sulle prestazioni assolute. IMHO. O meglio non ho tutte queste speranze, perchè in fondo di speranze e supposizioni si tratta.

essere contenuti e frenati nelle fantasie/speranze che vengono dal nostro cervello è di buonsenso ,però senza allungare ulteriori discorsi la situazione cmq non è ISOLATA perchè cmq bulldozer è ''SOLO UN ALA''di fusion project

questo cosa significa?che in futuro (nella peggiorissima delle ipotesi) si potrebbe trovare a vendere una cpu + una gpu di potenza simile a quella di una scheda video max odierna e lì poi avere una cpu che vada ad un 10% positivo o negativo conterebbe poco

secondo come penso io ,amd si sta muovendo verso ''la scatola unica''(con processore eterogeneo multi-core-cpu&gpu) ,poi dopo parlare di prestazione assolute assume sfumature molto

......ed ancora non si è entrati nell'era APU e suoi sviluppi,ma ontario come antipasto già parla da solo,perchè cmq 9w/18w per un chip appena misto cpu&gpu ,mi fa immaginare che sono in grado fra un po di anni di dare un chip simile(o di piu) alla 587o dentro lo stesso processore

llano ha gpu con una potenza simile alla 5670.....a 32 nm....non è poco ,ma soprattutto è lodevole la PROGETTAZIONE hardware

calabar
18-10-2010, 19:31
mmm ok, continuo a percepire dell'ottimismo a cui non credo molto ma va bene così.
AMD ha semplicemente avuto grossi problemi con il progetto phenom, ed è proprio per questo che ha cancellato il primo bulldozer a 45nm: per evitare di rimanere indietro.

Ora nascono nuove generazioni, e tutto è di nuovo rimesso in gioco.
Del resto, chi poteva pensare che dopo il P4 Intel desse con l'architettura core mazzate così pesanti ad AMD? Qui la situazione si ripete, a parti inverse.

ark80
18-10-2010, 20:52
vabbè, vedremo, io spero che sia così come dite voi. Cmq, tanto per rimanere nel pessimismo :) vedo male anche fusion, nel senso che secondo me non spiccherà mai il volo come prodotto di fascia alta. Cioè lo vedo benissimo come prodotto, ma non come prodotto che soppianterà in toto la fascia alta. avere cpu e gpu in un unico pacage secondo me porta via guadagni ad una azienda come amd che produce processori e schede video discrete. Il ricambio architetturale di schede video è una volta all'anno circa, e moti ne usufruiscono. A mio modesto parere i processori si cambiano con meno frequenza, un connubio di solo processore e gpu per me porterebbe a perdite, mentre è ottimo dove questo è necessario, cioè nei netbook e nei pc di fascia bassa. Ma cmq son considerazioni spicciole mie.. tra l'altro, dato che mi occupo di render, tralasciando le tecnologie cuda e compagnia ancora acerbe, ho sempre sentito dire che la gpu è enormemente più potente di una cpu nei calcoli.. però potrei sbagliarmi nel ricordare..

paolo.oliva2
18-10-2010, 21:25
vabbè, vedremo, io spero che sia così come dite voi. Cmq, tanto per rimanere nel pessimismo :) vedo male anche fusion, nel senso che secondo me non spiccherà mai il volo come prodotto di fascia alta. Cioè lo vedo benissimo come prodotto, ma non come prodotto che soppianterà in toto la fascia alta. avere cpu e gpu in un unico pacage secondo me porta via guadagni ad una azienda come amd che produce processori e schede video discrete.
Se io potessi comprare oggi un Thuban 1090T con una 5770 APU ficcata dentro il procio e spendere 200€... mi sa che nessuno direbbe "AMD non ci guadagna nulla", ma andrebbero a comprarla di corsa.


Il ricambio architetturale di schede video è una volta all'anno circa, e moti ne usufruiscono. A mio modesto parere i processori si cambiano con meno frequenza, un connubio di solo processore e gpu per me porterebbe a perdite, mentre è ottimo dove questo è necessario, cioè nei netbook e nei pc di fascia bassa.
Dipende. A me della scheda video non importa una mazza. Se dovessi spendere 400€ l'anno nella VGA, preferisco alla grande aggiornare il procio 2 volte l'anno spendendo la stessa cifra.
Io avevo una 3870X2, ho preso una 5770 che mi terrò almeno per altri 2-3 anni. Ma in questi 2-3 anni, prevederei di cambiare il Thuban X6 ad un BD X8, come pure lascierei ampiamente la porta aperta al successore sul 22nm.
Cambierei la VGA quando si parlerà di BD APU :)

Ma cmq son considerazioni spicciole mie.. tra l'altro, dato che mi occupo di render, tralasciando le tecnologie cuda e compagnia ancora acerbe, ho sempre sentito dire che la gpu è enormemente più potente di una cpu nei calcoli.. però potrei sbagliarmi nel ricordare..

Non sbagli.
Nel calcolo con Boinc, lo stesso "lavoro" eseguito con 1 core a 4,3GHz ci impiega 7h circa... con una 5770 portata da 850MHz a 960MHz, 10', forse anche meno, siamo 40 volte abbondanti sopra.

Comunque nel discorso odierno, per rimanere dentro i 125W, non si potrebbe di certo creare una APU che da sola sarebbe giù 170W.
Va da sè che al momento le APU hanno una grafica da compromesso.
In futuro, le cose cambieranno, perché la APU svolgerà funzioni ora destinate solo ai core, e quindi il TDP non si dovrebbe sommare. Ma la risultante, con opportune modifiche/integrazione, sarebbe quella di avere proci di una potenza impressionante.

AceGranger
18-10-2010, 22:13
SB è un'evoluzione dell'architettura, NON una nuova architettura.


SB è una NUOVA architettura

siamo nella fase di TOCK, quindi NUOVA architettura e stesso pp della precedente Westmere, che è la fase di TICK, affinamento di nehalem fase di TOCK

l'affinamento di SB sara IVY Bridge fase

nehalem TOCK 45 nm
westmere TICK 32 nm
Sandy bridge TOCK 32 nm
Ivy bridge TOCK 22nm

http://www.intel.com/technology/pix/ticktock.jpg

paolo.oliva2
18-10-2010, 22:43
SB è una NUOVA architettura

siamo nella fase di TOCK, quindi NUOVA architettura e stesso pp della precedente Westmere, che è la fase di TICK, affinamento di nehalem fase di TOCK

l'affinamento di SB sara IVY Bridge fase

nehalem TOCK 45 nm
westmere TICK 32 nm
Sandy bridge TOCK 32 nm
Ivy bridge TOCK 22nm

http://www.intel.com/technology/pix/ticktock.jpg

OKI.
Ma il vero salto lo si avrà nel passaggio ai 22nm.
Infatti all'inizio si sperava in un incremento significativo di IPC.
Probabilmente, l'IPC è stato "castrato" per permettere TDP più bassi a favore di una frequenza almeno uguale al Nehalem.
Secondo me, per vedere SB sfruttato appieno e con clock superiori bisogna voltare pagina al 32nm HKMG odierno e attendere il 22nm.

Un po' come ha dovuto fare AMD. Il Phenom I è stato castrato dal 65nm, il prb non era di certo l'architettura di sé per sé. Probabilmente anche per questo AMD ha dovuto ingoiare il rospo ed attendere, per non fare un altro Phenom I con BD su base 45nm.

Trovo questa spiegazione anche dal fatto che SB X4 ci sarà nel Q1 2011, mentre per un X6-X8 bisognerà attendere circa 1 anno.
Concordo che AMD è molto più "modulare", e che un BD X4-X6-X8 è quasi una copia-incolla, ma aspettare 12 mesi da SB X4 a X6-X8 io lo figuro più come risolvere tanti prb sul TDP per ottenere la frequenza più alta possibile che prb legati all'architettura. Infatti Intel spinge sul 22nm per riuscire ad anticiparlo proprio per questo, perché a quel punto almeno potrebbe sfruttare il vantaggio del TDP inferiore proprio nella miniaturizzazione del silicio. Insomma... togliere un 10% di TDP con lo stesso silicio a parità di trattamenti è un gran lavoro ma non permetterebbe ugualmente di inserire 2 core (X8) allo stesso clock di un i980X. Al contrario, quel 10% sarebbe il minimo ottenibile nel passaggio dal 32nm al 22nm, sempre che Intel risolva il prb del leakage.

Edit:
Oppure, quello che ho sospettato sin dall'inizio, è che Intel produrrà SB X6-X8 (forse anche X10) direttamente sul 22nm. D'altronde il passaggio al 22nm risolverebbe il prb del TDP/frequenze che di certo non è che ci sia sull'X4. Non avrebbe senso produrre un SB X8 tra 12 mesi sul 32nm e dopo altri 3 mesi poterlo fare sul 22nm... anche perché sarebbe imbarazzante per Intel mettere in commercio un X8 a 32nm tirato per i capelli sui 2,8GHz e scontrarsi con un BD sempre X8 a 4GHz e oltre...

Fabiano 82
19-10-2010, 09:44
Su llano
http://www.tomshw.it/cont/news/llano-la-apu-desktop-di-amd-ha-potenza-da-vendere/27583/1.html

greeneye
19-10-2010, 10:09
Demo di Llano al TFE
http://www.youtube.com/watch?v=-oPwIpJ-QWI&feature=player_embedded#!

Demo della piattaforma Brazos
http://www.youtube.com/watch?v=RoayOS35Oes&feature=player_embedded

cionci
19-10-2010, 10:43
Edit:
Oppure, quello che ho sospettato sin dall'inizio, è che Intel produrrà SB X6-X8 (forse anche X10) direttamente sul 22nm.
Sandy Bridge a 22nm = Ivy Bridge

capitan_crasy
19-10-2010, 11:03
(ringrazio greeneye, Fabiano 82 e Labview per la segnalazione)
Durante l'evento "AMD Technical Forum and Exhibition" tenutosi a Taipei, Chris Cloran (general manager di AMD) ha mostrato una piattaforma Demo e i primi Wafer di Llano ovvero un APU Quad core con GPU DX11 per il mercato mainstream.

http://www.xtremeshack.com/immagine/i68658_wafer.jpg

La piattaforma era un sample di "Sabine" destinata al mercato notebook.
Durante la prova AMD ha eseguito contemporaneamente il programma DirectCompute con 4 sessione di HyperPi, il tutto coadiuvato da un filmato in alta definizione, la quale comunque risultava fluido nonostante tutti i core fossero occupati al 100%.
Non si conoscono ne le frequenze dei core X86/GPU ne gli stream processor del sample utilizzati.

http://www.xtremeshack.com/immagine/i68651_demo.jpg
http://www.xtremeshack.com/immagine/t68649_big-amd-llano-demo-2.jpg (http://www.xtremeshack.com/scheda/68649_big-amd-llano-demo-2.jpg.html)
http://www.xtremeshack.com/immagine/t68650_big-amd-llano-demo.jpg (http://www.xtremeshack.com/scheda/68650_big-amd-llano-demo.jpg.html)

Clicca qui per il video Demo di Llano (http://www.youtube.com/watch?v=-oPwIpJ-QWI&feature=player_embedded#!)

AMD ha mostrato anche un video su "Brazos", piattaforma con APU AMD destinata al mercato netbook, dove viene paragonata la potenza della GPU integrata con quella di una IGP del modello Intel i5 M520 utilizzando il programma DirectCompute.

Clicca qui... (http://www.youtube.com/watch?v=RoayOS35Oes&feature=player_embedded)

Fonte News (http://techreport.com/discussions.x/19830)

affiu
19-10-2010, 11:22
la sostanza di queste APU sembra che ci sia,e forse piu delle semplice aspettative:eek:

quindi se non ho visto male la scheda video ''tradizionale'' sembra che non ci sia sulla piastra madre,giusto?

si sta per intraprendere la strada del computing cpu%gpu ,o meglio verso ''APU ERA''....cosicchè non ci sarà piu bisogno di pensare di avere 40 core(inutilissimi) per far girare i futuri giochi che verranno negli anni a venire

sempre piu ''espansi'',sempre più pesanti, sembre più realistici e con le future revisioni delle direct x 11...12....13...ecc

Athlon 64 3000+
19-10-2010, 11:45
sicuramente Llano su notebook uscira anche con abbinate gpu magari di classe HD 6000 series perchè vuole più potenza rispetto alla parte grafica di Llano.

capitan_crasy
19-10-2010, 12:03
sicuramente Llano su notebook uscira anche con abbinate gpu magari di classe HD 6000 series perchè vuole più potenza rispetto alla parte grafica di Llano.

Può darsi (e lo ridico può darsi) che le GPU integrate di Llano e Ontario siano già basate sulla serie HD6000 (o comunque una sorta di ibrido tra vecchie e nuove GPU); HDMI 1.4 con il Blu-ray 3D e la tecnologia UVD alla versione 3.0 dovrebbero essere già comprese nelle prime APU...

cionci
19-10-2010, 12:31
la sostanza di queste APU sembra che ci sia,e forse piu delle semplice aspettative:eek:

quindi se non ho visto male la scheda video ''tradizionale'' sembra che non ci sia sulla piastra madre,giusto?
E perché ci dovrebbe essere se sono APU ?

Gigamez
19-10-2010, 12:32
sicuramente Llano su notebook uscira anche con abbinate gpu magari di classe HD 6000 series perchè vuole più potenza rispetto alla parte grafica di Llano.

perche' invece non proporre direttamente processori della stessa famiglia (ad esempio 4cores a tot Ghz) ma con gpu integrate differenti in base all'utilizzo che l'utente ne farebbe (ad esempio grafica entry-LV / Intermedia / Avanzata)?

Sarebbe un sistema piu' efficente da tutti i punti di vista, no?

paolo.oliva2
19-10-2010, 12:41
Sandy Bridge a 22nm = Ivy Bridge

K.
Intendiamoci... la mia convinzione è che Intel possa fare poco per contrastare AMD sul 32nm anche disponendo di SB, per problemi propri del 32nm.
Ma questo non è certamente perché Intel non sia in grado di realizzare un ottimo silicio, ma perché non ne aveva bisogno visto un i7 X4 bastava ed avanzava nei confronti di un Phenom II C2... chiunque avrebbe massimizzato i profitti, perché tanto un i980X che avesse avuto 3,3GHz o 3,8GHz, oltre i 900€ sarebbe stato ugualmente fuori mercato...
Ora, con AMD che dovrebbe avere un'ottima architettura ed un ottimo silicio, Intel volente o nolente è "costretta" ad investire quel di più... i soldi non le mancano certamente, quindi non penso che AMD possa dormire tranquilla.
Sarà una bella battaglia, soprattutto nei prezzi (speriamo).

Ares17
19-10-2010, 12:43
perche' invece non proporre direttamente processori della stessa famiglia (ad esempio 4cores a tot Ghz) ma con gpu integrate differenti in base all'utilizzo che l'utente ne farebbe (ad esempio grafica entry-LV / Intermedia / Avanzata)?

Sarebbe un sistema piu' efficente da tutti i punti di vista, no?

Per avere diverse linee produttive?
La vedo dispendiosa in termini economici.

cionci
19-10-2010, 12:45
perche' invece non proporre direttamente processori della stessa famiglia (ad esempio 4cores a tot Ghz) ma con gpu integrate differenti in base all'utilizzo che l'utente ne farebbe (ad esempio grafica entry-LV / Intermedia / Avanzata)?
Poi altro che dissipatore...
E' chiaro che le APU avranno sempre TDP paragonabile al massimo a quello delle attuali CPU top di gamma. Sulle GPU invece si parla di oltre 200 W per quelle top di gamma.
Inoltre bisognerebbe differenziare notevolmente le linee di produzione. Cosa che comporterebbe non pochi problemi, sia dal punto di vista della progettazione, che della gestione delle linee di produzione.

affiu
19-10-2010, 12:59
E perché ci dovrebbe essere se sono APU ?

bisogna vedere come si comportano le apu con giochi a risoluzioni maggiori (1920 e 2560) altrimenti se ci saranno ancora portatili con vga separate per dare supporto a quelle risoluzioni ,che senso avrebbe;è chiaro che cmq siamo(come gpu integrata) a 32nm che non è poco ,ma ancora si deve delineare meglio la situazione

io parto sempre dal presupposto che una volta amd disse che si poteva giocare in maniera sufficente(quindi non a risoluzioni spinte con llano) e che cmq si deve almeno eguagliare o superare la piattaforma odierna danube+chipset serie 8+ 587o versione mobile

però vedendo ontario che cmq lo fa girare (in maniera modesta) un gioco in direct x11...magari llano lo fa andare molto meglio

vegitto4
19-10-2010, 13:03
Sandy Bridge a 3GHz (senza turbo abilitato) contro i7 1366 a 3 GHz

http://www.coolaler.com/showthread.php?t=251408

capitan_crasy
19-10-2010, 13:13
Sandy Bridge a 3GHz (senza turbo abilitato) contro i7 1366 a 3 GHz

http://www.coolale.com/showthread.php?t=251408

OT...
Questo è il thread di Bulldozer, Llano e Ontario; non quello di SB...

Pihippo
19-10-2010, 13:38
Sandy Bridge a 3GHz (senza turbo abilitato) contro i7 1366 a 3 GHz

http://www.coolaler.com/showthread.php?t=251408

Ciao
La novità? Un 13% in più nella media dei test, l'aveva anche detto anandtech.
Edit:
se escludessimo super pi (che benchmark è?) sarebbe anche qualcosina in meno

paolo.oliva2
19-10-2010, 13:56
Un riporto dell'articolo postato in precedenza:

Llano, la APU desktop di AMD ha potenza da vendere (http://www.tomshw.it/cont/news/llano-la-apu-desktop-di-amd-ha-potenza-da-vendere/27583/1.html)

Athlon 64 3000+
19-10-2010, 14:00
Da povero ignoramente mi chiedo come possa eventualmente Llano uscire dopo Buldozer(di cui non si è visto ancora niente)quando dell'evoluzione del K10 abbiamo visto sia il Wafer che un demo test cosa che è successo anche a Zacate.

Athlon 64 3000+
19-10-2010, 14:03
Nella dimostrazione di Llano in versione mobile sapete se un Phenom II x4 C3 riesce anch'esso ad eseguire in quella maniera tutte quelle applicazioni naturalmente con una scheda video con potenza simile alla parte grafica della futura APU AMD.

Athlon 64 3000+
19-10-2010, 14:05
Se la parte grafica di Llano i famosi 480SP dovessere essere di tipo 4 WLIV invece che come Juniper potrebbe venire fuori qualcosa di molto più potente per esempio della HD 5670 anche in versione desktop.

paolo.oliva2
19-10-2010, 14:06
Qui c'è un bell'articolo, Why CPUs Aren't Getting Any Faster, mi scuso perché sarebbe OT perché riferito al pensiero di progetto di SB, ma lo posto perché è incredibilmente simile al concetto con cui è progettato BD.

Inglese (http://www.technologyreview.com/blog/mimssbits/25875/?p1=A3)

Tradotto. (http://translate.google.it/translate?hl=it&sl=en&tl=it&u=http%3A%2F%2Fwww.technologyreview.com%2Fblog%2Fmimssbits%2F25875%2F%3Fp1%3DA3)

capitan_crasy
19-10-2010, 14:11
Un riporto dell'articolo postato in precedenza:

Llano, la APU desktop di AMD ha potenza da vendere (http://www.tomshw.it/cont/news/llano-la-apu-desktop-di-amd-ha-potenza-da-vendere/27583/1.html)

La versione vista potrebbe avere la GPU più ridimensionata del previsto, visto i soli 38 GFLOPs di picco (troppo pochi per una GPU con 400/480SP); per fare un esempio Zacate ha fatto 23 GFLOPs e la sua GPU dovrebbe avere 80SP.
Cè però da chiarire che la versione vista è destinata al mercato mobile visto la forma della scheda mamma e il dissipatore a chiocciola tipico dei notebook; quindi anche se un Quad core potrebbe mettere al primo posto i consumi al dispetto delle prestazioni.
Piccola nota:
La scheda aveva una porta USB 3.0, ciò significa che oltre a Llano la scheda montava il southbridge Hudson M3 con gestione nativa delle USB 3.0...
Non saprei dirvi se quello visto sia già il nuovo step di Llano (step B?), tuttavia sembra che AMD non abbia ancora raggiunto la piena maturità sul silicio almeno per quanto riguarda Llano...

capitan_crasy
19-10-2010, 14:22
Da povero ignoramente mi chiedo come possa eventualmente Llano uscire dopo Buldozer(di cui non si è visto ancora niente)quando dell'evoluzione del K10 abbiamo visto sia il Wafer che un demo test cosa che è successo anche a Zacate.

Secondo alcune voci AMD ha intenzione di far uscire PRIMA Llano e poi Bulldozer...
Tuttavia queste voci c'erano prima del presunto problema con i 32nm SOI e quindi del posticipo dello stesso Llano...
Nella dimostrazione di Llano in versione mobile sapete se un Phenom II x4 C3 riesce anch'esso ad eseguire in quella maniera tutte quelle applicazioni naturalmente con una scheda video con potenza simile alla parte grafica della futura APU AMD.

Sarebbe interessante come prova...:)

Se la parte grafica di Llano i famosi 480SP dovessere essere di tipo 4 WLIV invece che come Juniper potrebbe venire fuori qualcosa di molto più potente per esempio della HD 5670 anche in versione desktop.

La GPU di Llano è stata portata a 32nm SOI quindi di per se è già una GPU modificata.
Le nuove caratteristiche presenti nella serie HD6000 e nelle GPU APU fanno ben sperare...

paolo.oliva2
19-10-2010, 14:25
Da povero ignoramente mi chiedo come possa eventualmente Llano uscire dopo Buldozer(di cui non si è visto ancora niente)quando dell'evoluzione del K10 abbiamo visto sia il Wafer che un demo test cosa che è successo anche a Zacate.

Secondo me AMD gioca con i tempi.
Ha tutta la convenienza per far credere che i tempi siano lontani all'entrata in commercio di proci basati sul 32nm.
In fin dei conti... per quello che si sa, sample di Llano sono pronti da un tot e comunque sample di BD si vociferava che anch'essi lo erano da tempo. Quello che più o meno ufficialmente è dato di capire... è che al momento non ci sarebbe una gran resa produttiva.
A me sembra incredibile che ci vogliano 6 mesi o più per aumentare la resa... soprattutto contando l'enorme interesse sia di GF che di AMD che tutto inizi il prima possibile... quindi non mi sembra ottimista giudicare che gli sforzi sarebbero concentratissimi.
Dai... al Thuban sono occorsi 12 mesi dall'Opteron X6 su D0 al Thuban, con in mezzo lo sviluppo dello step E0 con low-k, progettazione con interventi non da poco sull'architettura Phenom II quali l'aggiunta di 2 core, il Turbo, un P-State in più, e qui ci ritroveremmo che da un procio praticamente finito, quindi architettura fatta, silicio finito, ci vorrebbero più di 6 mesi per trovare la resa? Dai... ci vogliono 6 mesi in tutto per uno step... 24 mesi per un passaggio da un 45nm ad un 32nm... 6 mesi o più per trovare la resa è un lasso di tempo enorme...

bjt2
19-10-2010, 14:56
Poi altro che dissipatore...
E' chiaro che le APU avranno sempre TDP paragonabile al massimo a quello delle attuali CPU top di gamma. Sulle GPU invece si parla di oltre 200 W per quelle top di gamma.
Inoltre bisognerebbe differenziare notevolmente le linee di produzione. Cosa che comporterebbe non pochi problemi, sia dal punto di vista della progettazione, che della gestione delle linee di produzione.

Io sospetto che il 32nm SOI HKMG Low-K di GF consumi mooooolto meno del 40nm BULK TSMC... ;)

Il leackage è mooolto minore per il SOI
La tensione necessaria è minore per il gate first e l'HKMG (non sono sicuro che il 40nm TSMC sia HKMG)
Le capacità parassite sono minori per il SOI e quindi tensione ancora m inore e leackage esponenzialmente minore...

Per essere una GPU di classe 1TFlop (e nel video youtube si vedeva che i GFlops hanno toccato anche 860, che per 1TFlop di picco sono molti) a 480 SP deve avere poco più di 1GHz di clock... Contro i 750 delle architetture bulk attuali... Se per un attimo non considerassi l'area occupata, poichè la potenza dissipata va più che con il cubo della frequenza, passando a 750 MHz potresti mettere, nello stesso TDP, (1000/750)^3 = 2,37 volte il numero di SP, ossia 1137, 1200, va... Questo così da avere la stessa potenza di una 5770, se non mi sbaglio... E in più ti rimane spazio per le CPU e se il turbo va anche sulla GPU, per salire oltre i 750 con basso carico CPU...

Pihippo
19-10-2010, 15:01
Ragazzi stavo ragionando un pò sul salto che BD potrebbe avere in ipc rispetto al core k10.5. Ho trovato una tabella in cui si paragonavano un k8 windsor a 3.0ghz ed un athlon II a 3.0ghz (con Ht a 1000mhz per parità con il windsor anche se non hanno portato l'imc del regor a 3.0ghz per parità, cosa che avrebbè portato qualche punticino in più in winrar ed archiving oltre a qualcosina in più nel gaming)
Bene la differenze tra k8 windsor e k10.5 (regor) e del ben 20% (qualche punto in più a parità di velocità del mhc ma comunque..) quindi qualcosa in più nei PhII dovuta alla L3.
E se buldozzer portasse ad un salto di tale portata invece del 12,5% che circola in giro (ignorando che lo scaling superlineare e lineare non esiste, per questo a mio motivo hanno estrapolato il 13% da 33% di core in più portano 50% di performance in più) unito a clock più alti della concorrenza ?
Sarebbe un bello scenario a parere mio modestissimo. :)
Edit la tabella è questa:
http://img188.imageshack.us/i/k10vsk8.png/

dark.halo
19-10-2010, 17:02
Ragazzi stavo ragionando un pò sul salto che BD potrebbe avere in ipc rispetto al core k10.5. Ho trovato una tabella in cui si paragonavano un k8 windsor a 3.0ghz ed un athlon II a 3.0ghz (con Ht a 1000mhz per parità con il windsor anche se non hanno portato l'imc del regor a 3.0ghz per parità, cosa che avrebbè portato qualche punticino in più in winrar ed archiving oltre a qualcosina in più nel gaming)
Bene la differenze tra k8 windsor e k10.5 (regor) e del ben 20% (qualche punto in più a parità di velocità del mhc ma comunque..) quindi qualcosa in più nei PhII dovuta alla L3.
E se buldozzer portasse ad un salto di tale portata invece del 12,5% che circola in giro (ignorando che lo scaling superlineare e lineare non esiste, per questo a mio motivo hanno estrapolato il 13% da 33% di core in più portano 50% di performance in più) unito a clock più alti della concorrenza ?
Sarebbe un bello scenario a parere mio modestissimo. :)
Edit la tabella è questa:
http://img188.imageshack.us/i/k10vsk8.png/

e pensa che si tratta grosso modo di una evoluzione della stessa architettura più o meno come sarà BD con SB.
BD è qualcosa di completamente nuovo come lo fu il P IV nei confronti del core2

dark.halo
19-10-2010, 19:00
Qui un video di llano alle prese con AVP

http://www.youtube.com/watch?v=VxATxZbiD_A

carlottoIIx6
19-10-2010, 19:08
Qui c'è un bell'articolo, Why CPUs Aren't Getting Any Faster, mi scuso perché sarebbe OT perché riferito al pensiero di progetto di SB, ma lo posto perché è incredibilmente simile al concetto con cui è progettato BD.

Inglese (http://www.technologyreview.com/blog/mimssbits/25875/?p1=A3)

Tradotto. (http://translate.google.it/translate?hl=it&sl=en&tl=it&u=http%3A%2F%2Fwww.technologyreview.com%2Fblog%2Fmimssbits%2F25875%2F%3Fp1%3DA3)

che vuoi dire, perchè io questo concetto non l'ho ancora capito:)

carlottoIIx6
19-10-2010, 19:27
Può darsi (e lo ridico può darsi) che le GPU integrate di Llano e Ontario siano già basate sulla serie HD6000 (o comunque una sorta di ibrido tra vecchie e nuove GPU); HDMI 1.4 con il Blu-ray 3D e la tecnologia UVD alla versione 3.0 dovrebbero essere già comprese nelle prime APU...

potrebbe essere che siano state proggettate insieme, e non è da escludersi che le migliorie necessarie per mettere una gpu insieme ad una cpu non siano state messe anche sulla serie 6000 come ad esempio la necessità di consumare meno

capitan_crasy
19-10-2010, 19:50
Qui un video di llano alle prese con AVP

http://www.youtube.com/watch?v=VxATxZbiD_A

Troppo breve per giudicare, inoltre la risoluzione a 1024x768 è troppo bassa per APU come Llano...:stordita:

paolo.oliva2
19-10-2010, 19:59
che vuoi dire, perchè io questo concetto non l'ho ancora capito:)

Te lo riassumo:

...la prossima generazione di CPU, inclusi gli Intel prossimo Sandy Bridge processore, devono fare i conti con più di un muro
- un collo di bottiglia della memoria (la larghezza di banda del canale tra la CPU e la memoria del computer a);
- il parallelismo a livello istruzioni (ILP) parete (la disponibilità di sufficienti istruzioni parallele discreto per un chip multi-core)
- il muro di potenza (temperatura globale del chip e del consumo energetico).
Dei tre, il muro di alimentazione di oggi è forse il limite che definisce la potenza della CPU moderne.

I cambiamenti Intel ha fatto erano più spesso di potere che di prestazioni. La ragione è che i processori Intel (come molti altri) sono contro il muro di potenza. Ai vecchi tempi, l'obiettivo era quello di spremere megahertz più del gasdotto.

L'odierna CPU hanno megahertz a bruciare, ma sono strozzata dalla quantità di calore che il sistema può tirare fuori. Ridurre la potenza della CPU del 10% e si può spingere la velocità di clock fino a compensare, trasformando il potere in guadagni di prestazioni. La maggior parte dei team di progettazione della CPU sono più focalizzati sul bilancio potere che sul bilancio di temporizzazione.

In poche parole, il succo del discorso lo leggo in questo modo: il guadagno di IPC di SB è limitato al 12% perché se Intel avesse portato SB ad un ulteriore guadagno di IPC, sarebbe stata obbligata a diminuire considerevolmente il clock. "Loro", come chiunque costruisca i proci, in pratica, troverebbe più redditizio non esasperare l'IPC ai massimi livelli ma cercare un punto di compromesso tra l'IPC e il clock massimo.
Su questa riga, se trasferiamo il concetto su BD, troveremmo che l'IPC massimo, inteso come IPC del singolo core, dovrebbe essere inferiore a quello Intel, però aver strutturato il procio a modulo con condivisione di parti, avrebbe permesso un notevole contenimento di TDP e quindi con indiscusso vantaggio sul clock operativo, e da qui la potenza risultante superiore.
In poche parole, se ho un IPC 100 ed un clock di 3GHz, avere un IPC 110 obbligherebbe la diminuzione del clock magari a 2,5GHz, mentre, al contrario, avere un IPC 90 potrebbe consentire un clock a 3,5GHz. Nelle tre soluzioni, quella con l'IPC inferiore sarebbe comunque la più potente, e mi sembra che il discorso abbia anche un nesso nascosto sull'intenzione di togliere l'SMT, riducendo la superficie del die e di conseguenza il TDP. Tralasciando le differenze del silicio AMD ed Intel, potremmo dedurre che (forse), con un IPC alla pari, AMD avrebbe avuto forse il 15% in più di clock. Con un 5% in meno di IPC, l'aumento di clock magari è del 30%, tra le 2, la prima si fermerebbe ad un +15%, la seconda, seppur con minor IPC, porta comunque ad un +25%.

Io trovo questa similitudine tra BD e quel discorso.

affiu
19-10-2010, 20:35
Te lo riassumo:

...la prossima generazione di CPU, inclusi gli Intel prossimo Sandy Bridge processore, devono fare i conti con più di un muro
- un collo di bottiglia della memoria (la larghezza di banda del canale tra la CPU e la memoria del computer a);
- il parallelismo a livello istruzioni (ILP) parete (la disponibilità di sufficienti istruzioni parallele discreto per un chip multi-core)
- il muro di potenza (temperatura globale del chip e del consumo energetico).
Dei tre, il muro di alimentazione di oggi è forse il limite che definisce la potenza della CPU moderne.

I cambiamenti Intel ha fatto erano più spesso di potere che di prestazioni. La ragione è che i processori Intel (come molti altri) sono contro il muro di potenza. Ai vecchi tempi, l'obiettivo era quello di spremere megahertz più del gasdotto.

L'odierna CPU hanno megahertz a bruciare, ma sono strozzata dalla quantità di calore che il sistema può tirare fuori. Ridurre la potenza della CPU del 10% e si può spingere la velocità di clock fino a compensare, trasformando il potere in guadagni di prestazioni. La maggior parte dei team di progettazione della CPU sono più focalizzati sul bilancio potere che sul bilancio di temporizzazione.

In poche parole, il succo del discorso lo leggo in questo modo: il guadagno di IPC di SB è limitato al 12% perché se Intel avesse portato SB ad un ulteriore guadagno di IPC, sarebbe stata obbligata a diminuire considerevolmente il clock. "Loro", come chiunque costruisca i proci, in pratica, troverebbe più redditizio non esasperare l'IPC ai massimi livelli ma cercare un punto di compromesso tra l'IPC e il clock massimo.
Su questa riga, se trasferiamo il concetto su BD, troveremmo che l'IPC massimo, inteso come IPC del singolo core, dovrebbe essere inferiore a quello Intel, però aver strutturato il procio a modulo con condivisione di parti, avrebbe permesso un notevole contenimento di TDP e quindi con indiscusso vantaggio sul clock operativo, e da qui la potenza risultante superiore.
In poche parole, se ho un IPC 100 ed un clock di 3GHz, avere un IPC 110 obbligherebbe la diminuzione del clock magari a 2,5GHz, mentre, al contrario, avere un IPC 90 potrebbe consentire un clock a 3,5GHz. Nelle tre soluzioni, quella con l'IPC inferiore sarebbe comunque la più potente, e mi sembra che il discorso abbia anche un nesso nascosto sull'intenzione di togliere l'SMT, riducendo la superficie del die e di conseguenza il TDP. Tralasciando le differenze del silicio AMD ed Intel, potremmo dedurre che (forse), con un IPC alla pari, AMD avrebbe avuto forse il 15% in più di clock. Con un 5% in meno di IPC, l'aumento di clock magari è del 30%, tra le 2, la prima si fermerebbe ad un +15%, la seconda, seppur con minor IPC, porta comunque ad un +25%.

Io trovo questa similitudine tra BD e quel discorso.

io penserei a sto punto che ,nonostante lo slogan di un azienda in base a quello in cui crede(the future is fusion),ci sia forse un certo superamento della potenza con un nuovo assunto :computing cpu&gpu(quello vero)

secondo la legge di more(numero di transistori/potenza/calore) siamo molto vicini al limite
ma si dimenticano la strada di APU....

se potessi sognare la potenza di una scheda video odierna ,costruita però per istruzione di una cpu x86 ,si potrebbe stare tranquilli almeno per altri 20 anni!:eek:

la ''svolta'' a questo limite è credere ad solo una parola :fusion2....:read:

cionci
19-10-2010, 20:41
Guarda il problema non è raggiungere le potenze dissipate dalle GPU moderne. Il problema è raggiungere tale potenza pur mantenendo il sistema scomponibile in più parti. Cioè scheda madre, socket, CPU e Ram.
Proprio per questi requisiti di potenza, la CPU dovrebbe essere saldata e dissipata in maniera molto più consistente rispetto a quello che si fa adesso per le CPU.
Chiaro che le APU avanzeranno man mano come potenza elaborativa, ma resteranno obbligatoriamente al di sotto della potenza di una scheda video media contemporanea.

sonnet
20-10-2010, 00:04
Ma Acer non doveva lanciare il primo netbook con ontario (serie Ferrari se non ricordo male) per questo Ottobre-Novembre?
Strano non si sia sentito ancora niente, ad agosto davano la cosa per certa.

carlottoIIx6
20-10-2010, 00:12
...

In poche parole, il succo del discorso lo leggo in questo modo: il guadagno di IPC di SB è limitato al 12% perché se Intel avesse portato SB ad un ulteriore guadagno di IPC, sarebbe stata obbligata a diminuire considerevolmente il clock. "Loro", come chiunque costruisca i proci, in pratica, troverebbe più redditizio non esasperare l'IPC ai massimi livelli ma cercare un punto di compromesso tra l'IPC e il clock massimo.

...

questo lo sotenevo anch'io quando ho cominciato a
scrivere su questo forum
molti dicevano che siccome intel andava meglio di amd a parità di frequenza amd fosse del tutto battuta da intel
mentre io affermavo che intel non potesse andare di più perche la sua cpu privileggiava l'ipc e che questo andava contro le frequenze massime possibili.

non ho trovato molti sostenitori su queste mie tesi :)
diverso è andato sulla questione del compilatore
che ho sostenuto, ma che ha avuto poi seguito grazie all'intervento di bj2 :)

comunque sia, amd lo vedo bene con l'hypertransport!
per il punto 1) vedo meno bene intel su questo punto
credo che il futuro sia inevitqalbilmente hardware specifici su
stesso die, non si mantiene separato niente. ma solo si permette uan personalizzazione del chip! ed avere un flusso adeguato è bene
amd è avanti su questo, ciò non vuol dire che intel non abbia in sebo nulla

penso che su questo amd abbia attualmente la meglio,oltre che per l'hypertransport, per le competenza acquisite con ati!

riguardo bulldozer, amd ha ottimizzato! questo non è semplicemente il rapporto tra la lunghezze delle pipeline e la frequenza massima raggiungibile a parità di calore, ma sopratutto mettere in comune ciò che è possibile.

Per me la filosofia di crescita di una cpu è: aggiungere cose specifiche mettendo in comune ciò che è possibile!

capitan_crasy
20-10-2010, 00:35
Ma Acer non doveva lanciare il primo netbook con ontario (serie Ferrari se non ricordo male) per questo Ottobre-Novembre?
Strano non si sia sentito ancora niente, ad agosto davano la cosa per certa.

I primi prodotti Ontario/Zacate sono attese per i primi mesi 2011...

F1R3BL4D3
20-10-2010, 00:44
Ma Acer non doveva lanciare il primo netbook con ontario (serie Ferrari se non ricordo male) per questo Ottobre-Novembre?
Strano non si sia sentito ancora niente, ad agosto davano la cosa per certa.

Naaa, difficile. Che io sappia non hanno ancora presentato i nuovi prodotti (non c'è ancora stata la presentazione per il 2011). Penso sarà a Novembre.

paolo.oliva2
20-10-2010, 01:19
questo lo sotenevo anch'io quando ho cominciato a
scrivere su questo forum
molti dicevano che siccome intel andava meglio di amd a parità di frequenza amd fosse del tutto battuta da intel
mentre io affermavo che intel non potesse andare di più perche la sua cpu privileggiava l'ipc e che questo andava contro le frequenze massime possibili.

E' sempre stato così. Se parli bene di AMD, sei un sognatore e fanboy :)
Ti ricordi quando parlavo dei limiti architetturali dei Core2Q? Dei limiti di TDP degli i7? Ed anche che il 45nm Intel non fosse chissà che cosa e che AMD lo poteva superare? Era 2 anni fa...

non ho trovato molti sostenitori su queste mie tesi :)
Non sono d'accordo :). Se ti ricordi, io mi sono sempre battuto sin dalle slide degli FX a 4GHz-4,5GHz dicendo che potevano essere vere, ma i più dicevano impossibili unicamente perché i 4GHz Intel non li poteva raggiungere e quindi impossibile che li potesse fare AMD.

diverso è andato sulla questione del compilatore
che ho sostenuto, ma che ha avuto poi seguito grazie all'intervento di bj2 :)

comunque sia, amd lo vedo bene con l'hypertransport!
per il punto 1) vedo meno bene intel su questo punto
credo che il futuro sia inevitqalbilmente hardware specifici su
stesso die, non si mantiene separato niente. ma solo si permette uan personalizzazione del chip! ed avere un flusso adeguato è bene
amd è avanti su questo, ciò non vuol dire che intel non abbia in sebo nulla

penso che su questo amd abbia attualmente la meglio,oltre che per l'hypertransport, per le competenza acquisite con ati!

riguardo bulldozer, amd ha ottimizzato! questo non è semplicemente il rapporto tra la lunghezze delle pipeline e la frequenza massima raggiungibile a parità di calore, ma sopratutto mettere in comune ciò che è possibile.

Per me la filosofia di crescita di una cpu è: aggiungere cose specifiche mettendo in comune ciò che è possibile!
Guarda, per me AMD in futuro è molto avvantaggiata rispetto ad Intel.
Se AMD riesce a realizzare un procio veramente potente in connubio al suo 32nm HKMG low-k, per Intel sono problemi e grossi, perché tutto l'ingranaggio Intel si basa sul tik-tok, che a sua volta si basa con la necessità di realizzare uno step più piccolo di silicio ogni 2 anni. Per questo servono soldoni con la s maiuscola... che si fanno con prezzi alti sui proci e numeri ottenibili unicamente con la leadership sul mercato. Un BD X8 a 300-400€ interromperebbe seriamente l'ingranaggio... e pure nel futuro con l'APU, perché AMD-ATI ha un livello di esperienza e tecnologia già acquisita che Intel se lo sogna e comunque anche acquisendo Nvidia le servirebbero anni ulteriori per arrivare a dove AMD è già ora.
Inoltre AMD, criticata per aver venduto le FAB... forse non si è capito che AMD in questo setting di configurazione industria ora non può più saltare, perché realizza un'architettura, tipo BD, e ci resta sul mercato per 3 anni, semplicemente perché non dovendo destinare parte degli utili per le spese sviluppo silicio, può accontentarsi di margini molto inferiori, ed addirittura, esempio, vendere un BD X8 a 150€ tra 1 anno, realizzare un BD X12 tra 2 anni sul 22nm realizzato ad intere spese da GF, e portare avanti il progetto Fusion. Ma ci sarà sempre chi dirà che AMD vende in negativo.... In queste configurazioni di società, una cosa è certa: Intel non può abbassare i prezzi al livello di AMD perché ha bisogno degli utili enormemente più alti di AMD, perché il passaggio al 22nm e l'ammodernamento di tutte le fab li deve ricavare dai proci. Non gli basta vendere il 75% di proci se il lordo si basasse su una media di 100€ a procio.
Io non vado tanto avanti con i discorsi perché tanto alla fine si arriva sempre a litigare, ed io non ho voglia. Preferisco aspettare e sbottare qualche volta... :)
Poi è strana Intel... prima aveva detto che non avrebbe mai fatto proci a 64 bit, e quando AMD l'ha fatto, subito dopo Intel si è rimangiata tutto e l'ha seguita. Poi ha difeso strenuamente l'SMT fino all'impossibile, enfatizzando i pro e nascondendo i contro, giudicandolo come la via migliore... ora AMD fa tutt'altra cosa ed Intel sembra che di colpo cambia tutto, da quelle frasi fa capire di avere l'intenzione di abbassare l'IPC, ridurre il TDP e quindi mi sembra più che esplicito bye bye SMT... Comunque può essere anche fumo per giustificare l'imbarazzo quando AMD, sempre sul 32nm, raggiungerà frequenze ben maggiori di Intel, del tipo "noi abbiamo scelto la via dell'IPC alto, AMD quella del clock".
Comunque mi pare ormai più che esplicito che con la presente architettura e silicio, Intel non possa fare più di tanto oltre i 4 core con l'i7. Meglio andrà con SB forse nell'X6, ma per me è da escludere un X8 sopra i 3GHz, figuriamoci sui 4GHz a parità di clock con BD. Il 22nm permetterà di più, certamente, ma altrettanto certamente non tanto di più di un 32nm se prosegue sempre con il BULK, perché andrebbe già bene se pareggiasse con il 32nm AMD. Vediamo...

capitan_crasy
20-10-2010, 10:48
Naaa, difficile. Che io sappia non hanno ancora presentato i nuovi prodotti (non c'è ancora stata la presentazione per il 2011). Penso sarà a Novembre.

ehm...
Ma li leggete i miei post e soprattutto le prime pagine di questo thread?:wtf:
I primi prodotti Ontario/Zacate sono previsti per i primi mesi del 2011...

paolo.oliva2
20-10-2010, 10:53
Questo era stato riportato?

Bobcat

* Sub-one-watt capable operation
* Out-of-order instruction execution for higher performance
* Estimated 90 percent of today’s mainstream PC performance in half the area
* Core power gating and a microarchitecture optimized for low power
* Highly synthesizeable design that moves easily across manufacturing technologies

Qui (http://www.amd.com/us/press-releases/Pages/amd-x86-innovation-new-core-designs-2010aug24.aspx)

checo
20-10-2010, 12:01
Te lo riassumo:

...la prossima generazione di CPU, inclusi gli Intel prossimo Sandy Bridge processore, devono fare i conti con più di un muro
- un collo di bottiglia della memoria (la larghezza di banda del canale tra la CPU e la memoria del computer a);
- il parallelismo a livello istruzioni (ILP) parete (la disponibilità di sufficienti istruzioni parallele discreto per un chip multi-core)
- il muro di potenza (temperatura globale del chip e del consumo energetico).
Dei tre, il muro di alimentazione di oggi è forse il limite che definisce la potenza della CPU moderne.

I cambiamenti Intel ha fatto erano più spesso di potere che di prestazioni. La ragione è che i processori Intel (come molti altri) sono contro il muro di potenza. Ai vecchi tempi, l'obiettivo era quello di spremere megahertz più del gasdotto.

L'odierna CPU hanno megahertz a bruciare, ma sono strozzata dalla quantità di calore che il sistema può tirare fuori. Ridurre la potenza della CPU del 10% e si può spingere la velocità di clock fino a compensare, trasformando il potere in guadagni di prestazioni. La maggior parte dei team di progettazione della CPU sono più focalizzati sul bilancio potere che sul bilancio di temporizzazione.

In poche parole, il succo del discorso lo leggo in questo modo: il guadagno di IPC di SB è limitato al 12% perché se Intel avesse portato SB ad un ulteriore guadagno di IPC, sarebbe stata obbligata a diminuire considerevolmente il clock. "Loro", come chiunque costruisca i proci, in pratica, troverebbe più redditizio non esasperare l'IPC ai massimi livelli ma cercare un punto di compromesso tra l'IPC e il clock massimo.
Su questa riga, se trasferiamo il concetto su BD, troveremmo che l'IPC massimo, inteso come IPC del singolo core, dovrebbe essere inferiore a quello Intel, però aver strutturato il procio a modulo con condivisione di parti, avrebbe permesso un notevole contenimento di TDP e quindi con indiscusso vantaggio sul clock operativo, e da qui la potenza risultante superiore.
In poche parole, se ho un IPC 100 ed un clock di 3GHz, avere un IPC 110 obbligherebbe la diminuzione del clock magari a 2,5GHz, mentre, al contrario, avere un IPC 90 potrebbe consentire un clock a 3,5GHz. Nelle tre soluzioni, quella con l'IPC inferiore sarebbe comunque la più potente, e mi sembra che il discorso abbia anche un nesso nascosto sull'intenzione di togliere l'SMT, riducendo la superficie del die e di conseguenza il TDP. Tralasciando le differenze del silicio AMD ed Intel, potremmo dedurre che (forse), con un IPC alla pari, AMD avrebbe avuto forse il 15% in più di clock. Con un 5% in meno di IPC, l'aumento di clock magari è del 30%, tra le 2, la prima si fermerebbe ad un +15%, la seconda, seppur con minor IPC, porta comunque ad un +25%.

Io trovo questa similitudine tra BD e quel discorso.


vabbè capitan ovvio! :D
oggi quando si progetta una cpu il limite principale da tenere in considerazione è il TDP

devo rientrare in 120W per esempio
le strade sono due ipc basso e frequenza alta e viceversa.

è altresi ovvio che amd avendo effettuato lo spinoff delle fab puntando più sulla frequenza riesce a dirottare dei costi su gf, richiedendo un silicio che salga di più.

intel che ha le sue fab sia che punti su un silicio fenomenale che su un ipc fenomenale ha comunque da coprire il 100% dei costi di progettazione, cosa che amd non fa.

cionci
20-10-2010, 12:15
intel che ha le sue fab sia che punti su un silicio fenomenale che su un ipc fenomenale ha comunque da coprire il 100% dei costi di progettazione, cosa che amd non fa.
Esatto, parte dei costi sostenuti da GF vengono poi ammortizzati a medio e lungo termine attraverso altri clienti, fino a portare un guadagno consistente, per GF chiaramente. Cosa che prima AMD non poteva fare, viste le poche Fab e la velocità con cui si alternano le tecnologie produttive.

paolo.oliva2
20-10-2010, 12:46
vabbè capitan ovvio! :D
oggi quando si progetta una cpu il limite principale da tenere in considerazione è il TDP

devo rientrare in 120W per esempio
le strade sono due ipc basso e frequenza alta e viceversa.

è altresi ovvio che amd avendo effettuato lo spinoff delle fab puntando più sulla frequenza riesce a dirottare dei costi su gf, richiedendo un silicio che salga di più.

Si, ma è la logica di pensiero nel progettare il procio che cambierebbe radicalmente.
Cioè... le 2 correnti attuali di pensiero erano da una parte la ricerca del massimo IPC ivi compreso l'SMT (Intel) e dall'altra la ricerca del TDP basso che consentisse più core e frequenze competitive.

Però bisogna notare che le scelte di entrambi erano obbligate, perché comunque erano in dipendenza del silicio e, al limite, si ricercava di migliorare il silicio in base alle esigenze dell'architettura.
La scelta dell'HKMG da parte di Intel era obbligata perché il leakage è proporzionale al Vcore ed al TDP ed al numero dei transistor del die. L'HKMG diminuisce il Vcore che a sua volta diminuisce il TDP. L'SMT aumentava l'IPC con un numero di transistor esiguo.
AMD, avendo un'architettura vecchia con minor IPC, per compensare, almeno in multicore e settore server, si vedeva costretta ad aumentare i core, sfruttando il fatto che il SOI ha un leakage bassissimo e quindi, anche se il numero di transistor aumenta con un numero di core in più, non necessariamente si vedeva costretta all'HKMG per diminuire il Vcore ed il TDP comunque non svettava (vedi Thuban X6).
Finché la differenza tra i 2 era basata sul 45nm E0 (AMD) e 32nm HKMG (Intel), è chiaro che ambedue erano ai limiti ma le differenze sia di architettura che di silicio rimanevano comunque a favore di Intel, lasciandogli margini di prestazioni (desktop, i980X vs 1090T).
Ma con il passaggio da parte di AMD all'architettura nuova (BD) e al silicio 32nm HKMG low-k, il margine di Intel non c'è più ed SB non è in grado di offrire un IPC/frequenze maggiori tali da compensare.
Il mio dubbio è che se Intel proseguisse con l'SMT ed il silicio Bulk, come il 32nm HKMG ha permesso 2 core in più a parità di frequenza con il 45nm HKMG, il 22nm potrebbe garantire 2 core in più rispetto al 32nm HKMG, a parità di frequenza. Ora... basterebbe un SB X8 a 3,333GHz per contrastare BD? Ma non parlo di potenza uguale, deve offrire almeno un 10-20% in più perché, come detto prima, se AMD potrebbe vendere un BD X8 a 400€, Intel non lo può fare, perché deve assicurare gli introidi per rimodernare tutte le FAB al 22nm... e si aggancia alla tua frase seguente.

intel che ha le sue fab sia che punti su un silicio fenomenale che su un ipc fenomenale ha comunque da coprire il 100% dei costi di progettazione, cosa che amd non fa.
Inoltre c'è un'altra cosa da tenere in considerazione: lo sviluppo del silicio ha un tempo di 2 anni. Il 22nm Intel dovrebbe averlo progettato tenendo conto della sua superiorità sul 32nm HKMG, magari accontentandosi di quel 10-20% in più... quindi, con addirittura la voglia di anticiparlo, penso probabile che modifiche consistenti non si possano effettuare...
Immagigniamoci ora che Intel dovesse modificare radicalmente il 22nm e idem l'architettura di ivy-bridge... quanto tempo richiederebbe? Ma GF ha in scaletta già il 22nm... ed AMD una volta raggiunto un livello accettabile di produzione/scarti sul 32nm, BD lo potrebbe schiaffare in commercio a prezzi simili al Thuban... Un BD X8 a 200€ non permetterebbe mai in qualsiasi modo un Ivy-bridge ad un prezzo > di 400€. Quindi... come adesso un Thuban viene venduto ad un prezzo tale da contrastare gli i7 X4, un BD X8 AMD potrebbe fare la stessa cosa... però Intel potrebbe vendere un ivy-bridge X10 a 3GHz sul 22nm a 1000€ con un BD X8 a 4GHz a 200€?

checo
20-10-2010, 14:33
Si, ma è la logica di pensiero nel progettare il procio che cambierebbe radicalmente.
Cioè... le 2 correnti attuali di pensiero erano da una parte la ricerca del massimo IPC ivi compreso l'SMT (Intel) e dall'altra la ricerca del TDP basso che consentisse più core e frequenze competitive.

Però bisogna notare che le scelte di entrambi erano obbligate, perché comunque erano in dipendenza del silicio e, al limite, si ricercava di migliorare il silicio in base alle esigenze dell'architettura.
La scelta dell'HKMG da parte di Intel era obbligata perché il leakage è proporzionale al Vcore ed al TDP ed al numero dei transistor del die. L'HKMG diminuisce il Vcore che a sua volta diminuisce il TDP. L'SMT aumentava l'IPC con un numero di transistor esiguo.
AMD, avendo un'architettura vecchia con minor IPC, per compensare, almeno in multicore e settore server, si vedeva costretta ad aumentare i core, sfruttando il fatto che il SOI ha un leakage bassissimo e quindi, anche se il numero di transistor aumenta con un numero di core in più, non necessariamente si vedeva costretta all'HKMG per diminuire il Vcore ed il TDP comunque non svettava (vedi Thuban X6).
Finché la differenza tra i 2 era basata sul 45nm E0 (AMD) e 32nm HKMG (Intel), è chiaro che ambedue erano ai limiti ma le differenze sia di architettura che di silicio rimanevano comunque a favore di Intel, lasciandogli margini di prestazioni (desktop, i980X vs 1090T).
Ma con il passaggio da parte di AMD all'architettura nuova (BD) e al silicio 32nm HKMG low-k, il margine di Intel non c'è più ed SB non è in grado di offrire un IPC/frequenze maggiori tali da compensare.
Il mio dubbio è che se Intel proseguisse con l'SMT ed il silicio Bulk, come il 32nm HKMG ha permesso 2 core in più a parità di frequenza con il 45nm HKMG, il 22nm potrebbe garantire 2 core in più rispetto al 32nm HKMG, a parità di frequenza. Ora... basterebbe un SB X8 a 3,333GHz per contrastare BD? Ma non parlo di potenza uguale, deve offrire almeno un 10-20% in più perché, come detto prima, se AMD potrebbe vendere un BD X8 a 400€, Intel non lo può fare, perché deve assicurare gli introidi per rimodernare tutte le FAB al 22nm... e si aggancia alla tua frase seguente.

Inoltre c'è un'altra cosa da tenere in considerazione: lo sviluppo del silicio ha un tempo di 2 anni. Il 22nm Intel dovrebbe averlo progettato tenendo conto della sua superiorità sul 32nm HKMG, magari accontentandosi di quel 10-20% in più... quindi, con addirittura la voglia di anticiparlo, penso probabile che modifiche consistenti non si possano effettuare...
Immagigniamoci ora che Intel dovesse modificare radicalmente il 22nm e idem l'architettura di ivy-bridge... quanto tempo richiederebbe? Ma GF ha in scaletta già il 22nm... ed AMD una volta raggiunto un livello accettabile di produzione/scarti sul 32nm, BD lo potrebbe schiaffare in commercio a prezzi simili al Thuban... Un BD X8 a 200€ non permetterebbe mai in qualsiasi modo un Ivy-bridge ad un prezzo > di 400€. Quindi... come adesso un Thuban viene venduto ad un prezzo tale da contrastare gli i7 X4, un BD X8 AMD potrebbe fare la stessa cosa... però Intel potrebbe vendere un ivy-bridge X10 a 3GHz sul 22nm a 1000€ con un BD X8 a 4GHz a 200€?

la logica ormai è la stessa da anni, per cosa credi che siano nati i dual core?

discorso prezzi imho è campato in aria e non ha nessuna valenza, sono solo supposizioni, potrebbe essere vero il contrario.

paolo.oliva2
20-10-2010, 14:57
la logica ormai è la stessa da anni, per cosa credi che siano nati i dual core?
Ma per cosa credi che Intel non è riuscita a realizzare un X6 sul 45nm a frequenze/TDP accettabili? AMD nello stesso package ne ha messi 12!!! E senza bisogno di HKMG e low-k... Idem perché BD esce da subito come X8 sul 32nm a frequenze ben più alte ed Intel, sempre se realizzerà SB X8 sul 32nm, ci sono voluti 2 anni e con frequenze ben più basse?

discorso prezzi imho è campato in aria e non ha nessuna valenza, sono solo supposizioni, potrebbe essere vero il contrario.
Supposizioni? Ti do 4 motivi più che validi

1) Come hai detto anche tu prima, Intel avrebbe più costi.

2) Un die BD X8 è più piccolo di un die X8 Intel, quindi AMD sempre e comunque potrà permettersi un prezzo più basso già per costo wafer.

3) Storicamente, Intel ha sempre richiesto il prezzo più alto del mercato (sin dal 1982!!! con l'8088/8086), con alti e bassi di AMD e equivalenti.

4) Chi comprerà un sistema AMD, al 99,9% acquisterà anche una VGA ATI, ove ATI e di conseguenza AMD, hanno utili ben più ampi. Questo giochetto Intel non può farlo.

P.S.
Quando GF ha rilevato le FAB ad AMD, se ben ricordi, anche con solo il 40% iniziale, ha fatto un contratto di ferro riservandosi la parte decisionale come se avesse il 51%. Per cosa credi lo abbia fatto? Io penso per non ritrovarsi con il cappio al collo nel caso GF richiedesse una cifra a die ben superiore alle spese.

AMD, dal canto suo, con la vendita delle FAB ha ristabilito la sua situazione finanziaria in crisi anche per l'acquisto di ATI, con un occhio al futuro per diminuire le spese e quindi soddisfare la più elementare delle condizioni commerciali: spese minime = stesso margine di guadagno = prezzo più basso sul mercato. La gente non necessariamente è disposta a spendere molto di più per avere poco di più, ma, al contrario, è dispostissima a spendere molto meno per avere poco di meno, e le vendite AMD lo testimoniano.

cionci
20-10-2010, 15:43
Attualmente sul bilancio conta anche la partecipazione in GF. Se non sbaglio la quota in GF dovrebbe scendere negli anni, fino a restare praticamente solo una partecipazione nel consiglio di amministrazione. Le aziende si procurano soldi tramite investimenti e prestiti a medio/lungo termine. Di fatto ancora AMD sta pagando le spese per i precedenti processi produttivi.
Quindi, nonostante la prospettiva sia positiva, è ancora presto per godere dei benefici della scorporazione di GF. Si tratterà di aspettare ancora qualche anno.

checo
20-10-2010, 16:14
Ma per cosa credi che Intel non è riuscita a realizzare un X6 sul 45nm a frequenze/TDP accettabili? AMD nello stesso package ne ha messi 12!!! E senza bisogno di HKMG e low-k... Idem perché BD esce da subito come X8 sul 32nm a frequenze ben più alte ed Intel, sempre se realizzerà SB X8 sul 32nm, ci sono voluti 2 anni e con frequenze ben più basse?

Supposizioni? Ti do 4 motivi più che validi

1) Come hai detto anche tu prima, Intel avrebbe più costi.

2) Un die BD X8 è più piccolo di un die X8 Intel, quindi AMD sempre e comunque potrà permettersi un prezzo più basso già per costo wafer.

3) Storicamente, Intel ha sempre richiesto il prezzo più alto del mercato (sin dal 1982!!! con l'8088/8086), con alti e bassi di AMD e equivalenti.

4) Chi comprerà un sistema AMD, al 99,9% acquisterà anche una VGA ATI, ove ATI e di conseguenza AMD, hanno utili ben più ampi. Questo giochetto Intel non può farlo.

P.S.
Quando GF ha rilevato le FAB ad AMD, se ben ricordi, anche con solo il 40% iniziale, ha fatto un contratto di ferro riservandosi la parte decisionale come se avesse il 51%. Per cosa credi lo abbia fatto? Io penso per non ritrovarsi con il cappio al collo nel caso GF richiedesse una cifra a die ben superiore alle spese.

AMD, dal canto suo, con la vendita delle FAB ha ristabilito la sua situazione finanziaria in crisi anche per l'acquisto di ATI, con un occhio al futuro per diminuire le spese e quindi soddisfare la più elementare delle condizioni commerciali: spese minime = stesso margine di guadagno = prezzo più basso sul mercato. La gente non necessariamente è disposta a spendere molto di più per avere poco di più, ma, al contrario, è dispostissima a spendere molto meno per avere poco di meno, e le vendite AMD lo testimoniano.

si si ripeto coi se e coi ma

se bd va il 15% in più se ha frequenze cos' cosà, se sb ha frequenze li e qua

troppi se ci sono, basta che uno non si avero e sti discorsi non valgono nulla.

chi ti assicura che il silicio di amd sia buono che permetta rese e frequenze alte?

ripeto son supposizioni, e all' inizio era anche inetessante, ma sono pagine e pagine che sparate numeri a caso, ognuno con la sua teoria, ognuno con i dati di ipc frequenze rese e balle varie.

fantasticare sui prezzi di vendita è il passo successivo e ci siamo arrivati.

poi che rimane quanto si clocckerà?

p.s. amd non si è risanata con la cessione.
ha estinto un paio di "mutui" da 500 milioni coi soldi di intel
ne rimanevano ancora 3 o 4 se ben ricordo, non so quanto abbia guadagnato dalla cessione, ma sicuramente meno.

Ren
20-10-2010, 16:48
Checo devi essere ottimista!!!!!!!!!!!!!!:sofico:

http://www.youtube.com/watch?v=zU_SewQxGg4&feature=related



ps. come diamine si incorporano i video del tutubo:confused:

checo
20-10-2010, 16:56
mica sono pessimista!!

F1R3BL4D3
20-10-2010, 17:49
ehm...
Ma li leggete i miei post e soprattutto le prime pagine di questo thread?:wtf:
I primi prodotti Ontario/Zacate sono previsti per i primi mesi del 2011...

Io parlavo di conferenza stampa in cui verranno presentati i prodotti e le strategie future (e questa son sicuro ci sarà entro Novembre 2010). Non della commercializzazione.

calabar
20-10-2010, 17:51
Ma per cosa credi che Intel non è riuscita a realizzare un X6 sul 45nm a frequenze/TDP accettabili? AMD nello stesso package ne ha messi 12!!! E senza bisogno di HKMG e low-k...
Secondo me se continui a farti i conti su questo rischi di rimanere deluso dal confronto.

Intel non ha fatto un x6 con consumi minori perchè non ne aveva motivo: in quella fascia non ha concorrenza, così ha creato l'x6 solo su piattaforma 1366 (che sappiamo tutti ha consumi elevati e prestazioni praticamente allineate con la piattaforma 1156), così da proporla come top di gamma con prezzi intorno ai 1000 euro.
Intel cioè non era motivata a darsi da fare per spremere il possibile dalla sua architettura come ha invece dovuto fare AMD, perchè la sua architettura era superiore a questo giro.
Prova a rapportare i consumi di un i7 930 con quelli di un i7 860, e ti renderai conto che un esacore con consumi decenti avrebbe potuto tirarlo fuori.

Inoltre il "12 core AMD" di cui parli è su piattaforma server, dove intel ha tirato fuori i nehalem-ex (8 core - 16 thread) e tirerà fuori i Westmere-EX (10 core - 20 thread), cosa apparentemente un po' difficile da realizzare se il silicio fosse così pessimo.

Morale della favola:
Intel ad oggi ha un notevole vantaggio, e passerà ai 22 nm prima di Global Foundries.
La speranza è che con Bulldozer AMD sappia riprendersi alla grande, e magari grazie ad un progetto azzeccato ed ottimizzato, sia capace di superare la rivale per lo meno nel rapporto performance/area/watt.
Le premesse ci sono tutte, e personalmente mi auguro possa tirare fuori l'ottimo prodotto che sembra debba nascere.
Ma sinceramente non mi pare il caso di sottovalutare ciò che potrà fare Intel e le potenzialità del suo "silicio".

paolo.oliva2
20-10-2010, 19:25
Secondo me se continui a farti i conti su questo rischi di rimanere deluso dal confronto.
Per questo non ho problema... me l'hanno sempre detto prima dell'uscita di ogni procio AMD. Poi alla fine si è rivelato che sono stato pessimista.
Con il Thuban io speravo di arrivare a 4,3GHz, tutti a darmi dell'ottimista ed i più riportavano che non avrebbe superato i 4GHz... ho superato i 4,5GHz... Spero che sia la stessa cosa con BD, in quanto mi accontenterei di 5GHz come X8...

Intel non ha fatto un x6 con consumi minori perchè non ne aveva motivo: in quella fascia non ha concorrenza, così ha creato l'x6 solo su piattaforma 1366 (che sappiamo tutti ha consumi elevati e prestazioni praticamente allineate con la piattaforma 1156), così da proporla come top di gamma con prezzi intorno ai 1000 euro.
Veramente c'era un progetto di X6 sul 45nm, per MAC, con raffreddamento a liquido incluso, se vuoi ti cerco l'articolo.

Intel cioè non era motivata a darsi da fare per spremere il possibile dalla sua architettura come ha invece dovuto fare AMD, perchè la sua architettura era superiore a questo giro.
Prova a rapportare i consumi di un i7 930 con quelli di un i7 860, e ti renderai conto che un esacore con consumi decenti avrebbe potuto tirarlo fuori.
Ma un esacore sul socket inferiore non lo farà mai... per motivi di reddito. Inoltre... se per te un i980X non è tirato... dato per 130W TDP arriva a 157W TDP... per tirarlo cosa avrebbe dovuto fare? Il ritardo di 1 anno da un SB X4 agli X6 e X8, se Intel non avesse prb di TDP, per cosa sarebbe dovuto?

Inoltre il "12 core AMD" di cui parli è su piattaforma server, dove intel ha tirato fuori i nehalem-ex (8 core - 16 thread) e tirerà fuori i Westmere-EX (10 core - 20 thread), cosa apparentemente un po' difficile da realizzare se il silicio fosse così pessimo.
Beh, vedo che il tuo ottimismo supera il mio. A che frequenza li farà? 4GHz?

Morale della favola:
Intel ad oggi ha un notevole vantaggio,
Il notevole vantaggio si traduce in 20% in più di IPC per un i980X a 900€ contro un 1090T a 220€? Che vantaggio c'è in termini di portafoglio a noi comuni mortali? Se togli gli X6 ad Intel, perché praticamente sarebbero fuori mercato dato il prezzo applicato, il notevole vantaggio di Intel dove lo vedresti per chi dovesse acquistare un procio?

e passerà ai 22 nm prima di Global Foundries.
Certo... questo mi ricorda quando Intel era sul 45nm e si profetizzava un 32nm "DIVINO". Ora è il turno del 22nm?

La speranza è che con Bulldozer AMD sappia riprendersi alla grande, e magari grazie ad un progetto azzeccato ed ottimizzato, sia capace di superare la rivale per lo meno nel rapporto performance/area/watt.
Le premesse ci sono tutte, e personalmente mi auguro possa tirare fuori l'ottimo prodotto che sembra debba nascere.
Ma sinceramente non mi pare il caso di sottovalutare ciò che potrà fare Intel e le potenzialità del suo "silicio".
Guarda... aspetto di vedere un SB X8 a 4GHz... soprattutto sul 32nm HKMG... perché se un SB X4 non ci arriva manco con turbo su 1 core... ho seri dubbi.
Questo è quello che io penso... poi vedremo, manca sempre meno al debutto di BD, potrei sempre sbagliarmi, ma le mie previsioni sin d'ora sono state abbastanza vicine alla realtà restando ugualmente pessimista... altri sono stati ben più pessimisti. Comunque lo ripeto... io potrei sempre sbagliarmi... ma mi fido parecchio del mio intuito, che mi dice che riuscirò a portare un BD X8 a 5GHz almeno in OC. Vedremo se Intel riuscirà a fare altrettanto.

calabar
20-10-2010, 19:51
Per questo non ho problema... me l'hanno sempre detto prima dell'uscita di ogni procio AMD. Poi alla fine si è rivelato che sono stato pessimista.
Con il Thuban io speravo di arrivare a 4,3GHz, tutti a darmi dell'ottimista.... ho superato i 4,5GHz...
Oddio.. che io ricordi l'ottimismo di alcune affermazioni non si è mai realizzato, ma non è questo il punto.
Io non contesto l'ottimismo, del resto su BD sono molto ottimista anche io, ma contesto le affermazioni per cui il silicio di Intel non sia granchè, cosa che non mi pare affatto supportata dai fatti.

Veramente c'era un progetto di X6 sul 45nm, per MAC, con raffreddamento a liquido incluso, se vuoi ti cerco l'articolo.
Se non sbaglio, i nehalem-ex a 8 core server sono a 45nm, se è per questo.
Ma non riesco a capire cosa c'entri col discorso.

Ma un esacore sul socket inferiore non lo farà mai... per motivi di reddito.
Ovvio che non lo fa... non ne ha l'esigenza, dato che in quella fascia non ha concorrenza e può venderlo a 1000 euro.
Probabilmente se AMD avesse avuto prodotti concorrenziali in quella fascia, il discorso sarebbe stato differente.
Ma tra non avere la necessità di fare e non poter fare c'è una bella differenza.

Il notevole vantaggio si traduce in 20% in più di IPC per un i980X a 900€ contro un 1090T a 220€? Che vantaggio c'è in termini di portafoglio a noi comuni mortali?
Non portare il discorso sul portafoglio: i costi dei processori dipendono dalla fascia in cui l'azienda riesce a piazzare il proprio prodotto.
Come sai, basta poco per far cambiare i prezzi: guarda cosa è successo in poche settimane agli Athlon 64 x2 da 500 euro all'uscita dei processori basati su architettura core.
Intel vende il processore a quel prezzo perchè può dire: "se vuoi quelle prestazioni, le paghi quanto dico io", dato che non c'è un prodotto della concorrenza che possa rivaleggiare con esso.
E chi compra quel processore non lo fa di certo per il 20% medio di ipc in più, ma per le percentuali molto più corpose in ambiti specifici.

Certo... questo mi ricorda quando Intel era sul 45nm e si profetizzava un 32nm "DIVINO". Ora è il turno del 22nm?
Perchè, il 32nm di intel non ha portato miglioramenti? Io vedo gli i5 a 32nm che, al di la del prezzo sconveniente, hanno consumi bassissimi, soprattutto in idle.
E vedo un x6 che a 32nm aveva consumi quasi allineati ad un x4 su 1366 di pari frequenza, l'i7 975 (per lo meno da quanto risultava in questa (http://www.hwupgrade.it/articoli/cpu/2400/intel-core-i7-980x-per-la-prima-volta-a-6-core_5.html) recensione di HWupgrade).
A me pare un discreto risultato, che con i 22nm non può che migliorare.

Questo non significa naturalmente che il 32nm SOI di GF non possa essere migliore del 32nm attuale di intel, anzi, tutto fa pensare che lo sia e io sono il primo a pensarlo.

Guarda... aspetto di vedere un SB X8 a 4GHz... soprattutto sul 32nm HKMG.
Non mi pare sia in programma nulla del genere.
Del resto quando ci sarà la necessità di fare un x8 per i Desktop, Intel potrebbe già disporre dei 22nm.
Comunque quanto spremeranno SB dipenderà anche da quanto AMD saprà essere competitiva con BD.

Athlon 64 3000+
20-10-2010, 20:16
Faccio una domanda generale che riguarda Buldozer e Llano riguardo l'uso prevelatemente desktop e giochi.
Prendendo le 2 versioni quad core per uno che come usa il pc prevalentemente per giocare secondo voi quale delle 2 sarebbe la scelta migliore?

Pihippo
20-10-2010, 20:51
Faccio una domanda generale che riguarda Buldozer e Llano riguardo l'uso prevelatemente desktop e giochi.
Prendendo le 2 versioni quad core per uno che come usa il pc prevalentemente per giocare secondo voi quale delle 2 sarebbe la scelta migliore?

Ciao
Se ambedue avessero lo stesso ipc, si dovrebbe prendere quello con frequenza maggiore.

affiu
20-10-2010, 21:02
secondo me è opportuno che si faccia uso di una certa ''criticità'' su tutto,cercando di non dilagarsi in speranze gonfiate o attese scontate; però cmq non tutto può passare inosservato.

quello che si è visto(ontario per quello che si è visto)con llano in quell'ultimo video ,ci sono cose che seppur possano passare inosservate ,sono vere, semplicemente perchè lo si è visti

fare una decodifica da un bluray + eseguire un gioco come avp (anche se a risoluzioni di 1024) e 4 istanze di hiper pi non è anormale come cosa, però dobbiamo associarla al fatto che cmq la scheda video non c'è.questo cosa vuol dire? che il gioco(è vero che il gioco lo fa andare la scheda video con comandi dettati dalla cpu) chi lo farebbe andare allora?da dove verrebbe questa elaborazione?

si parla(che sia confermabile o no ) di una similarita di potenza di una 5650 e se non bastasse ha anche pure la tecnologia uvd 3,

poi dopo tutto per fare una decodifica si ha bisogno della cpu ,quindi da dove proviene tutto sto lavoro?

bisogna vedere ad esempio cosa potrebbe fare un thuban (ad esempio quello di mister Paolo,considerando che possiede una 5770 che la potremo considerare con molta approssimazione simile ad una 5650) facendo una decodifica da un blu ray + far girare un gioco nello stesso tempo e magari ci si prova a mettere pure una compressione ?sarei molto curioso di questo confronto(eventuale)!

se il sistema nonostante la frequenza di 4 ghz e rotti x 6 core tenesse a bada senza ''affogarsi'' allora non si puo considerare un certo salto di potenza....reputabile ad APU ,se non altrimenti a chi se non lo fosse?

queste cose non solo si sono viste ma ,secondo come ho inteso io dal capitano, c'è una seria probabilita che il sistema-abbozzo di llano che si è visto sia non ottimizzato(e anche non corrispondente alle caratteristiche della gpu),perchè cmq per far andare llano ci vogliono anche dei drive per APU per farlo andare bene con il sistema operativo

questa è certezza,non sono cose campate in aria o pescate nel laghetto

secondo me llano,VESTITO di tutto quello che ha di bisogno(divrer) e supportato da un sistema operativo che ''lo'' possa capire ,non passerà di certo inosservato,soprattutto per la parte grafica

Athlon 64 3000+
20-10-2010, 21:07
E' vero per me per uno che fa uso principalmente ludico del PC si potrebbe dire che sarebbe da tenere in considerazione Llano perchè non so quando Buldozer quad core possa essere più veloce di Llano nei giochi.
Poi chi magari compra Llano risparmiando non poco rispetto a chi prende Buldozer può magari investire più soldi in una VGA.

cionci
20-10-2010, 21:20
fare una decodifica da un bluray + eseguire un gioco come avp (anche se a risoluzioni di 1024) e 4 istanze di hiper pi non è anormale come cosa, però dobbiamo associarla al fatto che cmq la scheda video non c'è.questo cosa vuol dire? che il gioco(è vero che il gioco lo fa andare la scheda video con comandi dettati dalla cpu) chi lo farebbe andare allora?da dove verrebbe questa elaborazione?
Non ti capisco. Cosa intendi ? E' chiaro che venga dalla GPU che è integrata nello stesso package della CPU.

paolo.oliva2
20-10-2010, 21:55
Per questo non ho problema... me l'hanno sempre detto prima dell'uscita di ogni procio AMD. Poi alla fine si è rivelato che sono stato pessimista.
Con il Thuban io speravo di arrivare a 4,3GHz, tutti a darmi dell'ottimista.... ho superato i 4,5GHz...
Oddio.. che io ricordi l'ottimismo di alcune affermazioni non si è mai realizzato, ma non è questo il punto.
Io non contesto l'ottimismo, del resto su BD sono molto ottimista anche io, ma contesto le affermazioni per cui il silicio di Intel non sia granchè, cosa che non mi pare affatto supportata dai fatti.

Veramente c'era un progetto di X6 sul 45nm, per MAC, con raffreddamento a liquido incluso, se vuoi ti cerco l'articolo.
Se non sbaglio, i nehalem-ex a 8 core server sono a 45nm, se è per questo.
Ma non riesco a capire cosa c'entri col discorso.

Ma un esacore sul socket inferiore non lo farà mai... per motivi di reddito.
Ovvio che non lo fa... non ne ha l'esigenza, dato che in quella fascia non ha concorrenza e può venderlo a 1000 euro.
Probabilmente se AMD avesse avuto prodotti concorrenziali in quella fascia, il discorso sarebbe stato differente.
Ma tra non avere la necessità di fare e non poter fare c'è una bella differenza.

Il notevole vantaggio si traduce in 20% in più di IPC per un i980X a 900€ contro un 1090T a 220€? Che vantaggio c'è in termini di portafoglio a noi comuni mortali?
Non portare il discorso sul portafoglio: i costi dei processori dipendono dalla fascia in cui l'azienda riesce a piazzare il proprio prodotto.
Come sai, basta poco per far cambiare i prezzi: guarda cosa è successo in poche settimane agli Athlon 64 x2 da 500 euro all'uscita dei processori basati su architettura core.
Intel vende il processore a quel prezzo perchè può dire: "se vuoi quelle prestazioni, le paghi quanto dico io", dato che non c'è un prodotto della concorrenza che possa rivaleggiare con esso.
E chi compra quel processore non lo fa di certo per il 20% medio di ipc in più, ma per le percentuali molto più corpose in ambiti specifici.

Certo... questo mi ricorda quando Intel era sul 45nm e si profetizzava un 32nm "DIVINO". Ora è il turno del 22nm?
Perchè, il 32nm di intel non ha portato miglioramenti? Io vedo gli i5 a 32nm che, al di la del prezzo sconveniente, hanno consumi bassissimi, soprattutto in idle.
E vedo un x6 che a 32nm aveva consumi quasi allineati ad un x4 su 1366 di pari frequenza, l'i7 975 (per lo meno da quanto risultava in questa (http://www.hwupgrade.it/articoli/cpu/2400/intel-core-i7-980x-per-la-prima-volta-a-6-core_5.html) recensione di HWupgrade).
A me pare un discreto risultato, che con i 22nm non può che migliorare.

Questo non significa naturalmente che il 32nm SOI di GF non possa essere migliore del 32nm attuale di intel, anzi, tutto fa pensare che lo sia e io sono il primo a pensarlo.

Guarda... aspetto di vedere un SB X8 a 4GHz... soprattutto sul 32nm HKMG.
Non mi pare sia in programma nulla del genere.
Del resto quando ci sarà la necessità di fare un x8 per i Desktop, Intel potrebbe già disporre dei 22nm.
Comunque quanto spremeranno SB dipenderà anche da quanto AMD saprà essere competitiva con BD.

Io capisco il tuo punto di vista, ma non lo condivido, come pure tu non condividi il mio.
Comunque io non ho mai detto che il 32nm Intel fa schifo, ho detto che non va bene per realizzare proci X6 e superiori a frequenze alte.
Se mi porti come confronto degli X2 o X4 sul 32nm per far vedere che il 32nm va bene, esuliamo dal problema principale, che per me è il leakage alto.
E' chiaro che in idle il consumo di un 32nm HKMG sia migliore rispetto ad un 45nm, e vorrei vedere, ma, per me, non si possono fare confronti tra un 45nm liscio o low-k al max ed un 32nm HKMG.
Quanto sia buono o meno il 32nm Intel lo vedremo in confronto al 32nm AMD.

Qui stiamo confrontando proci con architettura vecchia e silicio che per trattamenti dovrebbe essere almeno sulla carta molto inferiore (AMD) con un'architettura nuova e con un silicio giudicato al top.
Io, onestamente e senza nessuna polemica, Intel con il suo 32nm HKMG dovrebbe avere un X8 a 4GHz, con IPC 100, TDP 95W, ed AMD sul 45nm al max un X4, TDP 140W, 3GHz, IPC 50.
Io invece vedo che le cose sono parecchio differenti, e questo mi fa ben sperare che il 32nm AMD (che speranza non è, visto le varie dichiarazioni ufficiali) sarà di una spanna sopra a quello Intel, e AMD avendo recuperato IPC con la nuova architettura, se la gioca e bene.

Di Buldozer in rete si parla talmente bene che lo si giudica a parità di clock simile a SB... qui ci ostiniamo a considerarlo POCO, POCHISSIMO meglio di un Phenom II e giudicare fantasiosi i clock che peraltro sarebbero perfettamente deducibili dalle pipeline.

Quello che trovo assurdo, è che quando si parla di AMD TUTTO deve essere inferiore alle aspettative, e quando lo si commenta, dobbiamo fare 1000 preghiere di speranza, mentre quando si parla di Intel, sembra sempre che abbia la bacchetta magica.
SB X4 non è stato una delusione pensando alle aspettative? (scusa se ironizzo), ma... forse Intel non ha tirato il silicio.

Tu non vuoi tirare in ballo il discorso prezzi... ma io te lo ripeto:

Chi entra in questo TH e similari, non lo fa per sapere chi l'ha più lungo tra Intel e AMD, ma quale procio potrebbe comprare l'anno prox, che rientri nel budget di ognuno, e per il 99% sono PC destinati all'uso obbistico, in cui i giochi hanno una buona fetta di spazio e per la quale un i980X addirittura è CONTROINDICATO. Per tutta questa gente, che l'i980X sia più potente in determinate applicazioni, NON IMPORTA UNA MAZZA e mai spenderebbe quella cifra.

Poi tra qualche mese lo vedremo... Mi piacerebbe vedere un BD X4 in idle quanto consumerà di meno di un X4 Intel... che clock avrà, quale IPC, e soprattutto vorrei vedere praticamente a distanza di 1 mese la controproposta Intel, sul 32nm, a clock superiori, con più core, con più IPC, ecc. ecc.

affiu
20-10-2010, 22:08
Non ti capisco. Cosa intendi ? E' chiaro che venga dalla GPU che è integrata nello stesso package della CPU.

intendo che come processore che si avvierà verso il ''all the same die'',cmq offre il necessario(per il momento) per l'uso quotidiano di un computer

cioe un buon compromesso tra ''potenza''(relativamente parlando) di una cpu e gpu ,su uno stesso processore

calabar
20-10-2010, 23:33
Io capisco il tuo punto di vista, ma non lo condivido, come pure tu non condividi il mio.
Comunque io non ho mai detto che il 32nm Intel fa schifo, ho detto che non va bene per realizzare proci X6 e superiori a frequenze alte. [...]
A me pare che l'unico punto in cui siamo in disaccordo è il tuo continuo accennare a fantomatici "problemi del silicio intel", ed è questo che non condivido, mentre su altro siamo abbastanza d'accordo.
Intel ha un ottimo silicio, da cui ha dimostrato di poter ottenere processori altamente overcloccabili e con consumi contenuti. Ma spesso tu sembra tiri in ballo solo i processori 1366 che hanno consumi elevati, quando più volte ti si è fatto notare che non sono certo la massima espressione prestazioni/consumi che può ottenere intel con l'architettura attuale.

Ora con i 32nm AMD promette ancora meglio, ma non dimentichiamo che Intel arriverà ai 22 nm prima di GF. E 22nm non significa solo consumi ridotti, significa anche costi di produzione potenzialmente minori.
Per cui mettiamo pure che i 32nm di GF siano competitivi con i 22nm Intel (e dalle premesse potrebbero anche esserlo), ad intel rimarrebbe comunque il vantaggio produttivo (salvo problemi di rese ovviamente).

Dimentichi inoltre che i primi Sandy Bridge che usciranno non solo sono simili come concezione ai processori 1156, ma sono dichiaratamente orientati ai bassi consumi (tanto che si parla se non sbaglio di 95W di TDP con la GPU integrata per gli x4 più potenti).

Quello che trovo assurdo, è che quando si parla di AMD TUTTO deve essere inferiore alle aspettative, e quando lo si commenta, dobbiamo fare 1000 preghiere di speranza, mentre quando si parla di Intel, sembra sempre che abbia la bacchetta magica.
SB X4 non è stato una delusione pensando alle aspettative? (scusa se ironizzo), ma... forse Intel non ha tirato il silicio.
Su ora non facciamo il solito vittimismo della povera AMD sottostimata.
Su questo topic mi pare che sia sia tutt'altro che pessimismo e sottovalutazione, ma ogni tanto emergono dei dubbi, a mio parere spesso legittimi, di fronte a certi entusiasmi non troppo giustificati.
Del resto non siamo qui per fare il tifo o dire che AMD (o Intel che sia) è bella e brava, ma per cercare di giudicare queste architetture sulla base dei dati emersi.

Per quanto mi riguarda, BD non è affatto una delusione e non è sotto le aspettative.
Se un modulo BD con 2 core risultasse più potente a parità di frequenza di un core con HT di SB, considerando un'area poco superiore per il modulo BD e frequenze superiori dato l'allungamento delle pipeline, BD sarebbe già un ottimo prodotto perfettamente competitivo.
Ultimamente qui si parla persino della capacità di competere core to core, un risultato che sarebbe a dir poco eccezionale, e tu mi parli di pessimismo? Mah...

Tu non vuoi tirare in ballo il discorso prezzi...
Ma qui non stiamo considerando quanto andremo a pagare i processori, ma quanto è valida l'architettura. Ed in questo contesto il prezzo finale non ha alcun valore.
Se l'x6 Nehalem costa 1000 euro non significa certo che è un processore costoso per Intel, ma che ha prestazioni tali consentire ad intel di venderlo a quel prezzo.
Il prezzo lo fa la differenza con la concorrenza, non le prestazioni in se.

PS: il 980x non è "controindicato" per il gioco, è semplicemente poco sensato (eufemismo) spendere quella cifra per un processore che nei giochi non da vantaggi concreti rispetto ad altri processori meno costosi.
Se per assurdo uno avesse soldi che gli straripano dalle tasche e decidesse di prenderlo per giocare, non farebbe certo male, ossia non giocherebbe peggio che con altri processori.
Del resto, come dicevo prima, chi acquista questo processore non lo fa certo per i giochi, e non capisco infatti la tua uscita a riguardo: è un processore di nicchia e lo acquisterà chi pensa di poterlo sfruttare (o chi ha soldi da buttare, ovviamente).
Rimane però il top di gamma intel, e dato che intel ha il dominio della fascia alta di mercato, se lo vuoi, lo paghi adeguatamente.

paolo.oliva2
21-10-2010, 01:19
A me pare che l'unico punto in cui siamo in disaccordo è il tuo continuo accennare a fantomatici "problemi del silicio intel", ed è questo che non condivido, mentre su altro siamo abbastanza d'accordo.
Intel ha un ottimo silicio, da cui ha dimostrato di poter ottenere processori altamente overcloccabili e con consumi contenuti. Ma spesso tu sembra tiri in ballo solo i processori 1366 che hanno consumi elevati, quando più volte ti si è fatto notare che non sono certo la massima espressione prestazioni/consumi che può ottenere intel con l'architettura attuale.
Ti rispondo sinceramente... perché forse a volte mi spiego male.
Io vedo 2 cose distinte:
- O si parla di consumi, ed in questo un X4 Intel sul socket "inferiore" è ok, e non discuto (ma dov'è l'eclatante differenza di prestazioni?)
- O si parla di prestazioni, ed in questo per forza di cose si parla di i980X e dobbiamo tirare fuori il 1366.
Mica è colpa mia se l'i980X Intel lo fa nel 1366... Ora... non possiamo fare fritta mista valutando il 32nm pensando ai bassi consumi del socket "minore" e pensare all'IPC superiore dell'i980X...

Ora con i 32nm AMD promette ancora meglio, ma non dimentichiamo che Intel arriverà ai 22 nm prima di GF. E 22nm non significa solo consumi ridotti, significa anche costi di produzione potenzialmente minori. Per cui mettiamo pure che i 32nm di GF siano competitivi con i 22nm Intel (e dalle premesse potrebbero anche esserlo), ad intel rimarrebbe comunque il vantaggio produttivo (salvo problemi di rese ovviamente).

Io non vedo particolari differenze.
Nel senso che con la condivisione di parti dei core, a parità di processo un BD X8 sarebbe grande suppergiù meno di un Thuban X6 (almeno mi era stato risposto così nel TH, se non ricordo male).
BD ha 8MB di cache L3, SB non si parla di 12MB o di 16MB addirittura?
I core di Intel sono più "grossi", ma verranno realizzati sul 22nm... insomma, alla fine io tutta questa differenza di grandezze superficie silicio non la vedrei, o per meglio dire... alla fine un BD X8 potrà essere equivalente ad un SB X10 al più... ma con SB X10 sicuramente con più prospettive di proci fallati, almeno considerando il numero di transistor totali come possibilità di errore.
Inoltre il costo ammodernamento FAB al 22nm? Non lo deve riprendere dai proci? Scusa... se da un wafer produrrebbe 10 proci in più di AMD, non è certo con quel margine che ritrova i miliardi di $ spesi...

Dimentichi inoltre che i primi Sandy Bridge che usciranno non solo sono simili come concezione ai processori 1156, ma sono dichiaratamente orientati ai bassi consumi (tanto che si parla se non sbaglio di 95W di TDP con la GPU integrata per gli x4 più potenti).
Si... ma sono sempre X4, non sono X6-X8.

Su ora non facciamo il solito vittimismo della povera AMD sottostimata.
Su questo topic mi pare che sia sia tutt'altro che pessimismo e sottovalutazione, ma ogni tanto emergono dei dubbi, a mio parere spesso legittimi, di fronte a certi entusiasmi non troppo giustificati.
Del resto non siamo qui per fare il tifo o dire che AMD (o Intel che sia) è bella e brava, ma per cercare di giudicare queste architetture sulla base dei dati emersi.
Per quanto mi riguarda, BD non è affatto una delusione e non è sotto le aspettative.
Se un modulo BD con 2 core risultasse più potente a parità di frequenza di un core con HT di SB, considerando un'area poco superiore per il modulo BD e frequenze superiori dato l'allungamento delle pipeline, BD sarebbe già un ottimo prodotto perfettamente competitivo.
Ultimamente qui si parla persino della capacità di competere core to core, un risultato che sarebbe a dir poco eccezionale, e tu mi parli di pessimismo? Mah...

Scusa... confrontare un modulo BD con 1 core Intel, stiamo confrontando 2 core AMD con 1 core Intel..., diverso core to core...

Ma qui non stiamo considerando quanto andremo a pagare i processori, ma quanto è valida l'architettura. Ed in questo contesto il prezzo finale non ha alcun valore.
Guarda, ci sono almeno 2-3 post a pagina con la richiesta di quando uscirebbe BD e compagnia bella. Chi lo chiede è per acquistarlo, ed il prezzo in questo contesto ha molta importanza. Se ci fossero 2-3 persone in tutto il TH a cui interesserebbe solamente sapere chi l'ha più lungo, senza alcun prospetto di acquisto, sarebbe molto.

Se l'x6 Nehalem costa 1000 euro non significa certo che è un processore costoso per Intel, ma che ha prestazioni tali consentire ad intel di venderlo a quel prezzo.
Il prezzo lo fa la differenza con la concorrenza, non le prestazioni in se.

Io i proci li compro in base a prestazioni/prezzo. Per questo certamente l'i980X è l'ultimo procio che comprerei...

PS: il 980x non è "controindicato" per il gioco, è semplicemente poco sensato (eufemismo) spendere quella cifra per un processore che nei giochi non da vantaggi concreti rispetto ad altri processori meno costosi.
Se per assurdo uno avesse soldi che gli straripano dalle tasche e decidesse di prenderlo per giocare, non farebbe certo male, ossia non giocherebbe peggio che con altri processori.
Del resto, come dicevo prima, chi acquista questo processore non lo fa certo per i giochi, e non capisco infatti la tua uscita a riguardo: è un processore di nicchia e lo acquisterà chi pensa di poterlo sfruttare (o chi ha soldi da buttare, ovviamente).
Rimane però il top di gamma intel, e dato che intel ha il dominio della fascia alta di mercato, se lo vuoi, lo paghi adeguatamente.
Io nei test che ho letto, 9 giochi su 10 andava meno del fratello minore X4.
Comunque come sopra... la mia risposta all'offerta Intel, si limita a 2 parole... NO GRAZIE.
L'i980X per me rimane un procio che nel desktop è valido solamente FORSE, ad essere abbondanti, in un 3% del software. Con il resto è solo un problema... E' chiaro che uno i soldi li spende dove vuole... ma per me, se non in uso specifico in determinati software, il desktop non è il suo posto, ed il prezzo è del 500% in più rispetto al 22% in più di potenza. Nel MIO caso, sarebbe l'acquisto più sbagliato che potrei fare.

dany700
21-10-2010, 02:40
qui c'è ancora troppa gente...che non si rende conto di cosa ci sia oltre l'ovvio...che ha sotto il naso :D

a prescindere che BD sia o non sia conosciuto nelle specifiche...

a prescindere dal silicio BEN superiore di Amd...

Gente...sono VENTI ANNI DI FILA che Intel BUSCA a parità di miniaturizzazione, e già solo per questo motivo...la piattaforma SB fallirà inesorabilmente nel rapporto prestazioni/prezzo, perlomeno nel 2011.

Come se non bastasse...sappiamo che SB arriva ad aria alla frequenza di 4,9 Ghz...sarei curioso di vedere le prestazioni...quanta differenze vi sarà rispetto ad un SB 4 Ghz...5%??...7%?? :rolleyes:

Mentre BD arriverà MINIMO a 5Ghz in OC con un efficienza che rasenterà il 100% rispetto ai 4Ghz.

BD potrà pure avere un IPC inferiore rispetto a SB...ma chi se ne frega?

BD costerà molto meno...e in OC renderà molto di più.

Che diamine...non è questione di ottimismo oppure no...è solo una questione di visuali più ampie...di buon senso. I punti di vista non centrano un bel niente...è solo questione di VEDERE, se pur con un po' di approssimazione...
ciò che ci riserverà l'immediato futuro.

le APU di AMD sbaraglieranno la concorrenza in lungo ed in largo, punto!

SB come CPU...avrà si e no un vantaggio di 6 mesi su BD...dopodichè...nella seconda metà del 2011...ci potremo scordare di Intel.

Questo è quanto dovrebbe accadere l'anno prossimo...poi...si sà...la sfera di cristallo non la possiede nessuno...tutto è possibile.

checo
21-10-2010, 09:09
Ciao
Se ambedue avessero lo stesso ipc, si dovrebbe prendere quello con frequenza maggiore.

forza juve!

Pihippo
21-10-2010, 09:19
forza juve!

Ciao
Ho fatto un discorso un pò troppo semplicistico, ma non conoscendo l'ipc ne di Llano ne di Buldozzer.....

cionci
21-10-2010, 09:51
Mi sembra chiaro che fra Llano e Bulldozer quello più orientato ai PC di fascia alta sarà Bulldozer. Llano dopo tutto è stato studiato per il mercato desktop entry-level e maintream. Mentre per i portatili sarà utilizzato nei desktop-replacement (in cui potrebbe essere affiancato da una scheda video discreta) e in quelli con display da 14-15".
Zacate invece sarà sicuramente utilizzato in tutti i portatili orientati alla mobilità.

calabar
21-10-2010, 10:57
[...]
- O si parla di prestazioni, ed in questo per forza di cose si parla di i980X e dobbiamo tirare fuori il 1366.
Mica è colpa mia se l'i980X Intel lo fa nel 1366... Ora... non possiamo fare fritta mista valutando il 32nm pensando ai bassi consumi del socket "minore" e pensare all'IPC superiore dell'i980X...
Ragionamento questo che a mio parere non ha alcun senso.
Se si fa una valutazione sul silicio, come stai facendo tu (perchè questo è appunto il nocciolo della contesa), non ti basi sul processore con il peggior rapporto consumi/prestazioni, ma sul migliore, ossia la migliore espressione che quel silicio è in grado di raggiungere.
E Sandy Bridge si sa porterà ulteriori miglioramenti per quanto riguarda il risparmio energetico, quindi c'è solo da migliorare.
É proprio questa ostinazione nel voler prendere un processore come l'i7 980x ad inquinare il discorso che stai portando avanti e a renderlo poco plausibile.
É un po' come se tu tentassi di sostenere che la gtx470 è complessivamente migliore della 5870 portando il solo test di ungine: ovvio che si tratta di un risultato falsato.
Sarebbe sufficiente valutare la differenza di consumo tra un processore 1366 e un processore 1156 per capire come Intel sarebbe stata perfettamente in grado di realizzare un 6 core altrettanto potente con consumi più contenuti, ma sembra che sia proprio questo ciò che non vuoi vedere.

I core di Intel sono più "grossi", ma verranno realizzati sul 22nm... insomma, alla fine io tutta questa differenza di grandezze superficie silicio non la vedrei, o per meglio dire...
Appunto. Se BD avrà un vantaggio architetturale sulla dimensione dei suoi moduli rispetto ad un dual core SB, con il passaggio a 22mn perderebbe questo vantaggio architetturale a causa del processo produttivo.
E questa non mi sembra una cosa positiva per AMD.
Questo naturalmente supponendo che AMD da subito possa portare sul campo un processore con un rapporto performance/area migliore di SB (e almeno su questo per fortuna c'è da essere ottimisti... ma bisogna vedere di quanto).

Scusa... confrontare un modulo BD con 1 core Intel, stiamo confrontando 2 core AMD con 1 core Intel..., diverso core to core...
In questo topic si è parlato sia di confronto "per thread" (quindi un mudulo BD contro un core con SMT di intel) sia di confronto "per core".
La prima versione è supportata dalle dichiarazioni di AMD sulla contrapposizione in BD di core fisici contro i core logici intel, la seconda emersa dalla valutazione delle potenzialità di BD che potrebbe quindi essere persino competitivo "core-to-core" con SB.
Quindi... non ho affatto capito cosa intendi con l'affermazione che ho citato qui sopra! :p

Io i proci li compro in base a prestazioni/prezzo. Per questo certamente l'i980X è l'ultimo procio che comprerei...
Questo è poco ma sicuro!
Ma non cogli il punto: non ha senso parlare di prezzo se si valuta un'architettura e soprattutto se si fa un discorso di bontà del silicio.
Il prezzo è una cosa successiva, e lo fa il mercato: più i processori saranno competitivi, più alto sarà il prezzo a cui potranno essere proposti.

Intel potrebbe benissimo venderti il 980x a, poniamo, 300 euro.
Ma chi glielo fa fare se per quella cifra può venderti un x4 che le costa meno produrre e può proporti un x6 a quasi 1000 euro con enormi margini, tanto qualcuno che lo compra si trova?
Ovvio che a 1000 euro non sia conveniente per la stragrande maggioranza delle persone, ma non è alla stragrande maggioranza delle persone che mira un processore del genere.

paolo.oliva2
21-10-2010, 13:03
Boh... io non capisco perché continui a reputare il 32nm HKMG Intel ottimo solo perché è leggermente meglio in confronto con un 45nm AMD liscio e/o al max low-k.
Io sarei già convintissimo che se AMD avesse realizzato il 45nm HKMG (come era del resto in forse), già sarebbe tranquillamente superiore al 32nm Intel.
Sono convinto che quando vedremo il 32nm AMD confrontato con il 32nm Intel, ti accorgerai di quanto il 32nm Intel non rappresenti di certo quello che si crede.
Basta solo pensare ad un BD X8 che già come MASSIMO non supererebbe i 125W TDP, per immaginare l'oceano di differenza tra i 2 32nm... dove Intel si vede con 130W dichiarati (157W reali), con SOLO X6 e SOLO 3,333GHz.
Che confronto sarà paragonare un SB X4 a 95W 3GHz stock, 3,9GHz turbo SU 1 CORE con un BD che con il doppio dei core e con il 30% in più di clock avrebbe solamente 30W in più?

checo
21-10-2010, 13:33
Ciao
Ho fatto un discorso un pò troppo semplicistico, ma non conoscendo l'ipc ne di Llano ne di Buldozzer.....

appunto :D
cmq essendo buladozzer di fascia alta sarà meglio quello a mio avviso.

capitan_crasy
21-10-2010, 13:44
Novità in arrivo al AMD Financial Analyst Day 2010 (metà novembre).
Verrà presentata la nuova roadmap AMD e altro ancora.
Niente dimostrazioni al pubblico su Bulldozer, forse qualcosa su Llano e probabilmente AMD mostrerà una piattaforma quasi definitiva di Brazos...
Appena so qualcosa di più vi informo...
Naturalmente sono solo voci non confermate...

Heimdallr
21-10-2010, 14:07
Beh avere una roadmap aggiornata non sarebbe niente male.

calabar
21-10-2010, 14:59
Boh... io non capisco perché continui a reputare il 32nm HKMG Intel ottimo solo perché è leggermente meglio in confronto con un 45nm AMD liscio e/o al max low-k. [...]
Oddio... ora è leggermente meglio!
Intel è già in vantaggio sul rapporto performance/consumi con il 45nm sul socket 1156 (complice anche l'architettura, certo), e con il 32nm ha messo 2 core in più praticamente a parità di consumi con l'i7 975.
A me pare un buon risultato, non certo un "leggermente meglio" dei 45nm AMD.

Inoltre non vedo perchè i 32nm intel non possano essere ottimi e i 32nm di AMD non possano essere comunque meglio, come del resto tutti qui ci aspettiamo, dato quanto emerso finora (motivo per cui non capisco certe tue affermazioni come "quando vedremo il 32nm AMD confrontato con il 32nm Intel, ti accorgerai...", dato che non vedo di cosa dovrei notare di diverso da quanto già affermo ora).
Del resto stiamo parlando di un processo produttivo con circa sei mesi alle spalle contro uno che probabilmente arriverà sul mercato tra altri sei mesi.

cionci
21-10-2010, 15:15
Senza contare che non è così facile e ovvio confrontare e giudicare un processo produttivo con un altro, soprattutto quando non servono per costruire CPU con la stessa architettura.

AceGranger
21-10-2010, 15:51
Boh... io non capisco perché continui a reputare il 32nm HKMG Intel ottimo solo perché è leggermente meglio in confronto con un 45nm AMD liscio e/o al max low-k.
Io sarei già convintissimo che se AMD avesse realizzato il 45nm HKMG (come era del resto in forse), già sarebbe tranquillamente superiore al 32nm Intel.
Sono convinto che quando vedremo il 32nm AMD confrontato con il 32nm Intel, ti accorgerai di quanto il 32nm Intel non rappresenti di certo quello che si crede.
Basta solo pensare ad un BD X8 che già come MASSIMO non supererebbe i 125W TDP, per immaginare l'oceano di differenza tra i 2 32nm... dove Intel si vede con 130W dichiarati (157W reali), con SOLO X6 e SOLO 3,333GHz.
Che confronto sarà paragonare un SB X4 a 95W 3GHz stock, 3,9GHz turbo SU 1 CORE con un BD che con il doppio dei core e con il 30% in più di clock avrebbe solamente 30W in più?

:confused: :mbe: perchè un SB X4 3 GHz a 95 Watt ???

cionci
21-10-2010, 16:02
:confused: :mbe: perchè un SB X4 3 GHz a 95 Watt ???
In effetti: http://www.nexthardware.com/image/sandy_bridge_roadmap.jpg

bjt2
21-10-2010, 18:47
Per dire una parola definitiva sul confronto tra i processi produttivi INTEL vs AMD, vorrei esplicitare e completare il discorso accennato da Cionci...

Noi abbiamo da una parte una architettura (SB) che ad aria arriva a 4.9 GHz, ma è una architettura a 17 FO4 (quindi relativamente "veloce" ) che consente, a parità di tutto, anche di usare un Vcore più basso (e questo aiuta ENORMENTE INTEL visto il leackage spaventoso: fare una architettura a FO4 23 come quella AMD sarebbe stato impossibile per INTEL, infatti si vede bene ITANIC/ITANIUM che fine ha fatto... E' un processore VLIW a pochissimi stadi pipeline che arrivava max a 1.6 GHz... probabilmente aveva un FO4 alto...). Consideriamo poi che il SB è costruito con processo 32nm, HKMG, ha elevato power gating... Invece il Thuban: 23 di FO4, nessuno o limitato power gating, 45nm senza HKMG e raggiunge, ad aria, oltre 4 GHz su 6 cores... Con 4 non oso pensare... Aggiungiamo i 32 nm, l'HKMG e il FO4 a 17 e pensiamo a quanto potrebbe salire bulldozer... Abbiamo già un anteprima data dal power 7 che raggiunge i 4.25 GHz stock a 45nm senza HKMG... E' ragionevole pensare che in OC ad aria possa arrivare anche ai 4.6-4.7 GHz. Aggiungiamo i 32nm, HKMG e, forse, l'ultra low k... E pensiamo a dove potremmo arrivare...

calabar
21-10-2010, 19:07
Anche SB ha quindi FO4 così basso?
Devo essermi perso qualche passaggio... puoi fare un raffronto frequenze/FO4 delle attuali architetture (Pheom II e Nehalem, e magari Core 2) e delle nuove (SB e BD)?

AceGranger
21-10-2010, 20:21
In effetti: http://www.nexthardware.com/image/sandy_bridge_roadmap.jpg

Anche perchè a 95 Watt gia attualmente c'è una CPU westmere 32 nm 6+6 a 2.93 GHz...

quindi a 95 Watt 3 GHz ci sara tranquillamente un SB X6

abbath0666
21-10-2010, 20:41
ragazzi,io ancora ho capito una cosa,il quad channel? sarà un doppio dual,o proprio quad?inoltre mettiamo caso che abbia quattro moduli di ram,funzioneranno o bisognerà comprare kit quad channel :mbe:

paolo.oliva2
21-10-2010, 20:45
Anche perchè a 95 Watt gia attualmente c'è una CPU westmere 32 nm 6+6 a 2.93 GHz...

quindi a 95 Watt 3 GHz ci sara tranquillamente un SB X6
Prova ad immaginarlo +2 core (X8), +1GHz stock su tutti i core (4GHz) e +2GHz in turbo (~5GHz)... perché BD sarà a 125W con quelle caratteristiche...

F1R3BL4D3
21-10-2010, 20:46
ragazzi,io ancora ho capito una cosa,il quad channel? sarà un doppio dual,o proprio quad?inoltre mettiamo caso che abbia quattro moduli di ram,funzioneranno o bisognerà comprare kit quad channel :mbe:

Tendenzialmente funzioneranno. Come adesso insomma. Non è necessario comprare i kit dual channel/triple channel, ma è solo consigliato per ovviare a problemi di compatibilità ed in più il produttore garantisce che quei banchi con quelle impostazioni, funzionino.

capitan_crasy
21-10-2010, 22:29
ragazzi,io ancora ho capito una cosa,il quad channel? sarà un doppio dual,o proprio quad?inoltre mettiamo caso che abbia quattro moduli di ram,funzioneranno o bisognerà comprare kit quad channel :mbe:

Bulldozer in versione Desktop non avrà il Quad channel ma un classico Dual channel...
Quindi il tuo problema non sussiste...

abbath0666
21-10-2010, 22:42
in ambito server? si ok ma perchè??io questo non lo capisco,da quello che ricordo si era parlato di quad channel per bulldozer,dopo tutto questo tempo perchè solo server? e non desktop come la contro parte intel?

capitan_crasy
21-10-2010, 23:10
in ambito server? si ok ma perchè??io questo non lo capisco,da quello che ricordo si era parlato di quad channel per bulldozer,dopo tutto questo tempo perchè solo server? e non desktop come la contro parte intel?

Perchè in ambito server serve molto di più soprattutto con grandi quantità di memoria e tecnicamente parlando essendo due CPU bulldozer montati sullo stesso package, il Quad channel è praticamente automatico.
In ambito desktop era previsto quando si parlava della versione a 45nm poi cancellata; il progetto bulldozer si è evoluto nei 32nm modificando non poco la sua architettura e ridisegnando i controller RAM per ottenere il massimo della banda disponibile mantenendo la "semplicità" del Dual channel...

abbath0666
21-10-2010, 23:17
e le frequenze standard delle ddr3 per bulldozer quali sono?

abbath0666
21-10-2010, 23:27
e le frequenze standard delle ddr3 per bulldozer quali sono?

forse mi sono spiegato male,quello che volevo dire,da che frequenze parte?

capitan_crasy
21-10-2010, 23:35
forse mi sono spiegato male,quello che volevo dire,da che frequenze parte?

Le ultime voci parlavano di un supporto certo (non confermato ufficialmente) alle 1600Mhz, buone possibilità sulle DDR3 1866Mhz, altri (pazzi) dicono addirittura ai 2133Mhz...
Per saperlo con certezza dobbiamo aspettare notizie ufficiali...

abbath0666
21-10-2010, 23:42
io sincermanente facendo un discorso logico,non penso che AMD faccia una cosa cosi' folle,io sono propenso a crede che il supporto parta da 1600,1866 è un numero che non mi piace tanto,2133 non credo proprio O_O

capitan_crasy
21-10-2010, 23:47
io sincermanente facendo un discorso logico,non penso che AMD faccia una cosa cosi' folle,io sono propenso a crede che il supporto parta da 1600,1866 è un numero che non mi piace tanto,2133 non credo proprio O_O

Calcola che JEDEC intende certificare le DDR3 2133Mhz prima dell'introduzione delle DDR4, la quale tale frequenza sarà quella di partenza per il nuovo standard.
Forse non sarà al primo giro ma prima o poi Bulldozer sarà in grado di gestirle nativamente...

abbath0666
21-10-2010, 23:47
capitan un ragazzo mi stava chiedendo della compatibilità di bulldozer su mobo am3 rimandandomi ad un tuo post : http://www.hwupgrade.it/forum/showpost.php?p=29649729&postcount=166 io da quello che vedo è abbastanza vecchio come post,percio' non è vero giusto?

paolo.oliva2
21-10-2010, 23:47
Le ultime voci parlavano di un supporto certo (non confermato ufficialmente) alle 1600Mhz, buone possibilità sulle DDR3 1866Mhz, altri (pazzi) dicono addirittura ai 2133Mhz...
Per saperlo con certezza dobbiamo aspettare notizie ufficiali...

Però, puntualizzo, il supporto alle DDR3 è in base al jdec. Ciò non vuole dire che memorie più veloci non vengano supportate.
Ad esempio, il Thuban ha il supporto nativo alle DDR3 1333, ma accetta pure le 1600, e tramite mobo, le 1850, 1866, 2000.
Essendo stato rifatto, almeno dalle ultime info, l'MC di BD, troverei strano che avesse gli stessi limiti del Thuban.

abbath0666
21-10-2010, 23:49
Calcola che JEDEC intende certificare le DDR3 2133Mhz prima dell'introduzione delle DDR4, la quale tale frequenza sarà quella di partenza per il nuovo standard.
Forse non sarà al primo giro ma prima o poi Bulldozer sarà in grado di gestirle nativamente...

ben venga lo sviluppo,ma spero vivamente a questo giro di non dover buttare i miei 8gb di ram :mad:

paolo.oliva2
21-10-2010, 23:57
ben venga lo sviluppo,ma spero vivamente a questo giro di non dover buttare i miei 8gb di ram :mad:

Perché buttare via?
Purché non siano DDR2, BD accetterà tutto... pure il nuovo standard DDR3 a basso voltaggio.

abbath0666
21-10-2010, 23:58
si ho capito,ma vuol dire che se uno ha le 1600 non potrà usare bulldozer,questo per me è un azzardo da parte di amd,e farà arrabbiare tanta gente.

capitan_crasy
22-10-2010, 00:03
capitan un ragazzo mi stava chiedendo della compatibilità di bulldozer su mobo am3 rimandandomi ad un tuo post : http://www.hwupgrade.it/forum/showpost.php?p=29649729&postcount=166 io da quello che vedo è abbastanza vecchio come post,percio' non è vero giusto?

AMD prevedeva da roadmap la compatibilità del socket AM3 su Bulldozer, la quale è basato sul socket AM3+.
Per evitare ritardi, penalizzazioni alle prestazioni finali e un rialzo del costo finale AMD ha preferito interrompere la ricerca della compatibilità sul socket AM3...
Una scelta sofferta ma sicuramente giusta visto che il gioco non vale la candela...
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=32927449&postcount=2281)

Però, puntualizzo, il supporto alle DDR3 è in base al jdec. Ciò non vuole dire che memorie più veloci non vengano supportate.
Ad esempio, il Thuban ha il supporto nativo alle DDR3 1333, ma accetta pure le 1600, e tramite mobo, le 1850, 1866, 2000.
Essendo stato rifatto, almeno dalle ultime info, l'MC di BD, troverei strano che avesse gli stessi limiti del Thuban.

Io parlo di supporto nativo, cioè senza l'intervento di BIOS o qualche altra diavoleria di origine proprietaria...;)

abbath0666
22-10-2010, 00:04
Perché buttare via?
Purché non siano DDR2, BD accetterà tutto... pure il nuovo standard DDR3 a basso voltaggio.

si mi ricordavo infatti che non supportava piu' le ddr2,ed era pure ora effettivamente..speriamo che le mie bambine vadano piu' che bene su BD(quando sarà)

capitan_crasy
22-10-2010, 00:09
si ho capito,ma vuol dire che se uno ha le 1600 non potrà usare bulldozer,questo per me è un azzardo da parte di amd,e farà arrabbiare tanta gente.

Non e vero...
Bulldozer supporterà tutte le DDR3 cioè le 1066Mhz, 1333Mhz, 1600Mhz; quest'ultima è quasi sicura manca solo una conferma ufficiale...
Bisogna solo stabilire quali saranno quelle massime tra le 1866Mhz e le 2133Mhz e anche in questo caso ci sarà qualche tecnologia da scheda mamma, la quale renderà gestibili anche frequenze fuori standard non gestite dalla CPU...

abbath0666
22-10-2010, 00:12
grazie,mi hai levato un dubbio.. e comunque per quanto riguarda la compatibilità dei thuban su am3+ è sicuro o sono solo dicerie?

paolo.oliva2
22-10-2010, 00:18
Io parlo di supporto nativo, cioè senza l'intervento di BIOS o qualche altra diavoleria di origine proprietaria...;)
Si, si.
Mica intendevo mettere becco... :D ... nel senso correggere...:ops:
Volevo solo dire che AMD, correttamente, non può garantire delle memorie a X frequenza quando per quella frequenza non esiste uno standard...

capitan_crasy
22-10-2010, 00:22
grazie,mi hai levato un dubbio.. e comunque per quanto riguarda la compatibilità dei thuban su am3+ è sicuro o sono solo dicerie?

Su questo non ho notizie certe...
Cè la speranza che le attuali CPU socket AM3 siano compatibili con le nuove schede mamme, ma bisogna aspettare notizie più concrete...

capitan_crasy
22-10-2010, 00:24
Si, si.
Mica intendevo mettere becco... :D ... nel senso correggere...:ops:
Volevo solo dire che AMD, correttamente, non può garantire delle memorie a X frequenza quando per quella frequenza non esiste uno standard...

bè ecco non proprio...:fiufiu:
Le DDR2 1066Mhz non sono mai state certificate da JEDEC, eppure i K10 li gestiscono...;)

abbath0666
22-10-2010, 00:26
quando ci sarà qualche comunicato ufficiale? io avevo sentito qualcosa per novembre..:mbe:

capitan_crasy
22-10-2010, 00:35
quando ci sarà qualche comunicato ufficiale? io avevo sentito qualcosa per novembre..:mbe:

A novembre ci sarà AMD Financial Analyst Day 2010; storicamente ha sempre rilasciato le sue nuove roadmap...

Alekz
22-10-2010, 00:53
A novembre ci sarà AMD Financial Analyst Day 2010; storicamente ha sempre rilasciato le sue nuove roadmap...

Al solito toccherà leggermi i commenti sarcastici su "amd che rilascia solo diapositive":zzz:

abbath0666
22-10-2010, 01:04
come sempre del resto,guarda io spero che questa volta la situazione si capovolga..poi li mi diverto ancora di piu' a leggere certi commenti :asd:

affiu
22-10-2010, 04:18
come sempre del resto,guarda io spero che questa volta la situazione si capovolga..poi li mi diverto ancora di piu' a leggere certi commenti :asd:


non è una questione di speranza ,cioè che le cose si capovolgono,ma la situazione con bulldozer da una parte , e soprattutto APU dall'altra ,tutto sembra che sia un ineluttabile cammino.....

dopotutto ,per quello che si è visto, non ho visto nessun commento al mondo negativo su apu,anche se viene difficile inquadrare cosa si nasconde dietro ad apu

un mistero?semplicemente apu in futuro delineerà un nuovo concetto di ARMONIA,naturalezza e natività senza che il tutto passera come ''fase drammatica''.

è vero che le schede video consumano fino a TDP abbastanza alti, ma questo non significa che non si possa avere trovato un metodo che permetta di fare stare una gpu in un processore;anche perchè altrimenti cosa ci starebbero a fare a promettere che nel 2015 ci sarà un altissimo livello di integrazione.e con che cosa ,con una 545o?

e sarà solo una integrazione max ,o anche di sviluppo(e dunque potenza ulteriore) di apu family?

LA MINIATURIZZAZIONE DI APU non presenta nessun limite fisico associato a potenza,quindi è piu che REALE pensare che piu si scenderà e piu non sarà solo una circa 56oo seris(come paragone di prestazioni) ma di piu:Prrr: (e solo amd lo sa)

INUTILE inventarsi dei limiti,non serviranno ad annebbiare cio che gli occhi vedranno,e se non fosse stata una cosa valevole,delle apu non si sarebbe neanche piu parlato !

affiu
22-10-2010, 04:19
edit

bjt2
22-10-2010, 09:39
Anche SB ha quindi FO4 così basso?
Devo essermi perso qualche passaggio... puoi fare un raffronto frequenze/FO4 delle attuali architetture (Pheom II e Nehalem, e magari Core 2) e delle nuove (SB e BD)?

Questo è il link al post:

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137915&sid=3c199b61834478e77622eee7a65dbb89&start=125#p191287

Però è interessante tutta la discussione.
Sembrerebbe che Nehalem abbia FO4 16-17, SB potrebbe averlo addirittura più basso e BD dovrebbe avere 18, contro 17 del Power PC...

EDIT: per rispondere completamente alla tua domanda, bisognerebbe vedere il max OC ad aria delle varie architetture...

bjt2
22-10-2010, 10:00
AMD prevedeva da roadmap la compatibilità del socket AM3 su Bulldozer, la quale è basato sul socket AM3+.
Per evitare ritardi, penalizzazioni alle prestazioni finali e un rialzo del costo finale AMD ha preferito interrompere la ricerca della compatibilità sul socket AM3...
Una scelta sofferta ma sicuramente giusta visto che il gioco non vale la candela...
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=32927449&postcount=2281)



Io parlo di supporto nativo, cioè senza l'intervento di BIOS o qualche altra diavoleria di origine proprietaria...;)

Non è proprio supporto BIOS. Se proprio vogliamo dirla tutta, i registri interni delle CPU anche più vecchie, come i primi Phenom II, danno la possibilità di inserire qualsiasi moltiplicatore nella forma x/y con x da 1 a 32 e y da 1 a 8. Questo vuol dire che è teoricamente possibile settare via software anche delle DDR2 a 6 GHz (!) ... Il limite lo da il produttore del BIOS anche in base al segmento di mercato e al costo della MB. Già adesso è possibile portare le DDR3 anche a 2133 e oltre. Solo i produttori della MB non espongono questa possibilità per vari motivi... Ma se si moddasse un BIOS... Sarebbe possibile farlo senza alcuna modifica hardware o tecnologia proprietaria... i registri si possono modificare anche a windows avviato... Solo che i valori probabilmente verrebbero presi solo a controller RAM non inizializzato, perchè si devono rifare tutte le calibrazioni. Ecco perchè la velocità RAM è una delle cose che non si può modificare a sistema avviato. Ed ecco anche perchè l'OC dinamico non si fa tramite BUS: le RAM sono state tarate al BOOT per quella frequenza e non tollerano grossi scostamenti...

paolo.oliva2
22-10-2010, 11:30
Sembrerebbe che Nehalem abbia FO4 16-17, SB potrebbe averlo addirittura più basso e BD dovrebbe avere 18, contro 17 del Power PC...
Con FO4 ma con il parametro seguente in un range da 15 a 18, si va ad incidere anche sul TDP del resto del core? Perché avevo letto che SB introduceva dei "rilassamenti" sui vari timing. Potrebbe essere anche per questo il TDP migliore in SB?

bjt2
22-10-2010, 11:36
Con FO4 ma con il parametro seguente in un range da 15 a 18, si va ad incidere anche sul TDP del resto del core? Perché avevo letto che SB introduceva dei "rilassamenti" sui vari timing. Potrebbe essere anche per questo il TDP migliore in SB?

Con un FO4 inferiore puoi usare un Vcore più basso per la stessa frequenza operativa... Vcore più basso significa anche minore leackage...

paolo.oliva2
22-10-2010, 11:54
Per dire una parola definitiva sul confronto tra i processi produttivi INTEL vs AMD, vorrei esplicitare e completare il discorso accennato da Cionci...

Noi abbiamo da una parte una architettura (SB) che ad aria arriva a 4.9 GHz, ma è una architettura a 17 FO4 (quindi relativamente "veloce" ) che consente, a parità di tutto, anche di usare un Vcore più basso (e questo aiuta ENORMENTE INTEL visto il leackage spaventoso: fare una architettura a FO4 23 come quella AMD sarebbe stato impossibile per INTEL, infatti si vede bene ITANIC/ITANIUM che fine ha fatto... E' un processore VLIW a pochissimi stadi pipeline che arrivava max a 1.6 GHz... probabilmente aveva un FO4 alto...). Consideriamo poi che il SB è costruito con processo 32nm, HKMG, ha elevato power gating... Invece il Thuban: 23 di FO4, nessuno o limitato power gating, 45nm senza HKMG e raggiunge, ad aria, oltre 4 GHz su 6 cores... Con 4 non oso pensare... Aggiungiamo i 32 nm, l'HKMG e il FO4 a 17 e pensiamo a quanto potrebbe salire bulldozer... Abbiamo già un anteprima data dal power 7 che raggiunge i 4.25 GHz stock a 45nm senza HKMG... E' ragionevole pensare che in OC ad aria possa arrivare anche ai 4.6-4.7 GHz. Aggiungiamo i 32nm, HKMG e, forse, l'ultra low k... E pensiamo a dove potremmo arrivare...

Potrebbe esserci una coincidenza tra lo step ulteriore di Llano e i tempi di BD all'inizio più "lunghi" magari perché low-k?

Credo che per una FAB, che già avrebbe complicazioni a prevedere Llano con diverse soluzioni di APU, aggiungerci anche uno sdoppiamento per catene solo HKMG e HKMG+low-k...
Se già BD fosse stato previsto con low-k, sarebbe coerente con step ulteriore Llano per adeguarlo al silicio BD...

Inoltre, con GF che ha anticipato i tempi del 22nm di quasi 1 anno (dal finire 2013 praticamente a fine 2012), non avrebbe senso uscire in marzo 2011 con un 32nm HKMG e, teoricamente, dopo 12 mesi, a marzo 2012 con un low-k quasi a ridosso del 22nm... Avrebbe un senso rifare la taratura di tutti i film dei proci per 6 mesi di tempo?

paolo.oliva2
22-10-2010, 11:56
Con un FO4 inferiore puoi usare un Vcore più basso per la stessa frequenza operativa... Vcore più basso significa anche minore leackage...

Quindi il miglioramento di SB nel TDP è più derivante da un'adattatura dell'architettura nella ricerca del minor TDP possibile che un miglioramento del silicio di sé per sé. Ecco perché la differenza di tempi da SB X4 a X6-X8... Devono cercare di abbassare l'FO4 ancora di più.

calabar
22-10-2010, 13:24
Quindi il miglioramento di SB nel TDP è più derivante da un'adattatura dell'architettura nella ricerca del minor TDP possibile che un miglioramento del silicio di sé per sé. Ecco perché la differenza di tempi da SB X4 a X6-X8... Devono cercare di abbassare l'FO4 ancora di più.
Abbassare il Fo4 significherebbe cambiare architettura, cosa che vedo impossibile per Sandy Bridge e piuttosto difficile per Ivy Bridge (che rappresenta una fase di Tick).

Ren
22-10-2010, 14:26
Quindi il miglioramento di SB nel TDP è più derivante da un'adattatura dell'architettura nella ricerca del minor TDP possibile che un miglioramento del silicio di sé per sé. Ecco perché la differenza di tempi da SB X4 a X6-X8... Devono cercare di abbassare l'FO4 ancora di più.

I miglioramenti penso siano per lo più riconducibili alla trace-cache che spegne i decoder per più tempo possibile ed alla maturazione fisiologica del 32nm intel.

Sinceramente non conosco dettagli che fanno supporre un aumento degli stadi della pipeline, ma tutto è possibile. La variazione del FO4 si può ottenere anche da un miglioramento di un singolo stadio della pipeline che fa da collo di bottiglia.

Comunque come ha ribadito calabar variare gli stadi della pipeline di un architettura richiede una pianificazione molto lunga, quindi modifiche repentine sono da escludere categoricamente.

paolo.oliva2
22-10-2010, 14:47
capito.
Se SB X4 uscirà agli inizi 2011 e SB X6-X8 a fine 2011... comunque c'è un tot di tempo e comunque non c'è uno straccio di sample (mi sembra) per un SB X6-X8, mentre, al contrario, di SB X4 li abbiamo visti da un tot.
Può anche darsi, visto che comunque la L3 di SB è variabile in base al numero dei core (in BD è costante), dovendo modificare determinate cose e visto che ci vorrebbe quasi 1 anno di più... non dico che l'FO4 sarà certamente modificato, ma comunque... come dire... potrebbe essere compatibile almeno con i tempi.

In teoria... (non mettiamola con chi l'ha più lungo, però...), SE BD pompa, comunque Intel deve per forza ottenere il max, che sia sul 32nm o sul 22nm, che sia per un di più marcato o minimo o uguale, DEVE comunque cercare di ottenere il massimo.

Se anche IVY rappresenterebbe il Tick, per Intel non è che sia un prb cercare un TDP inferiore per aumentare il clock e quindi prestazioni, anche in base al progetto X10. Premetto, per essere chiaro... se AMD con il Phenom II fosse stato competitivo con gli i7 X4, il Thuban non si sarebbe nemmeno visto, di conseguenza, sempre parlando di supposizione, se AMD riuscisse nel BD X8 a clock alti e magari in corso un BD X10 sempre a clock relativamente alti, la contromossa Intel, visto che dal punto di vista IPC è difficile aumentare considerevolmente già l'ECCEZIONALE (e non lo dico con ironia) IPC dell'i7, per via del TDP, a me sembra che la variazione dell'FO4 potrebbe essere la più ragionevole sul punto di vista investimento... Quindi un SB X6-X8 con FO4 variato, su base 32nm, sarebbe comunque compatibile con il tick dello stesso procio sul 22nm.

bjt2
22-10-2010, 14:48
Potrebbe esserci una coincidenza tra lo step ulteriore di Llano e i tempi di BD all'inizio più "lunghi" magari perché low-k?

Credo che per una FAB, che già avrebbe complicazioni a prevedere Llano con diverse soluzioni di APU, aggiungerci anche uno sdoppiamento per catene solo HKMG e HKMG+low-k...
Se già BD fosse stato previsto con low-k, sarebbe coerente con step ulteriore Llano per adeguarlo al silicio BD...

Inoltre, con GF che ha anticipato i tempi del 22nm di quasi 1 anno (dal finire 2013 praticamente a fine 2012), non avrebbe senso uscire in marzo 2011 con un 32nm HKMG e, teoricamente, dopo 12 mesi, a marzo 2012 con un low-k quasi a ridosso del 22nm... Avrebbe un senso rifare la taratura di tutti i film dei proci per 6 mesi di tempo?

Dalle vecchie roadmap ai tempi che ancora si usava il 65nm, risultava che il low k era dato per certo a 32nm (assieme al HKMG). Il low-k era dato per probabile a 45nm e l'HKMG improbabile per il 45nm, cosa che poi è avvenuta...

bjt2
22-10-2010, 14:48
Quindi il miglioramento di SB nel TDP è più derivante da un'adattatura dell'architettura nella ricerca del minor TDP possibile che un miglioramento del silicio di sé per sé. Ecco perché la differenza di tempi da SB X4 a X6-X8... Devono cercare di abbassare l'FO4 ancora di più.

Se il FO4 del SB è minore di quello del NH, allora questo giustifica il clock maggiore... Ma non dimentichiamoci che SB è a 32nm...

bjt2
22-10-2010, 14:51
Intanto sto leggendo post interessanti di dresdenboy su AMDZone...

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=27d8e7105df87a8b65b7141411af07cb&start=1325#p192095

In sostanza l'IPC del BD potrebbe essere anche del 14% superiore al K10 e il clock turbo più del 30% in più di quello base (i conti tornano quasi: se il clock base fosse 4GHz significherebbe anche 5.2GHz di clock turbo...)

Continuo a leggere...

bjt2
22-10-2010, 15:26
Intanto sto leggendo post interessanti di dresdenboy su AMDZone...

http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137432&sid=27d8e7105df87a8b65b7141411af07cb&start=1325#p192095

In sostanza l'IPC del BD potrebbe essere anche del 14% superiore al K10 e il clock turbo più del 30% in più di quello base (i conti tornano quasi: se il clock base fosse 4GHz significherebbe anche 5.2GHz di clock turbo...)

Continuo a leggere...

Llano potrebbe avere un IPC molto vicino al Nehalem. Secondo Dresdenboy e mmarq, si stima che si possa avere anche oltre il 10% di IPC contro il K10. Aggiungete un clock e un turbo notevolmente più alto e fate i conti... (a parte l'IPC erano più o meno le previsioni che feci io).
Cosa nuova sembra che la frase detta da JF che l'IPC di bulldozer sarà superiore alla precedente generazione INCLUDA Llano e quindi da questo scaturisce il 12-17% di IPC in più rispetto al K10...

Athlon 64 3000+
22-10-2010, 16:02
Proprio ieri mio cugino(non scherzo) ha deciso di vendermi il suo 1090T(dandogli il 955 C3 più soldi) e con questo processore rischio di trovarmi completamente saltati i piani per Llano o Buldozer in versione quad core visto che uso il pc prevalentemente per giocare.

dark.halo
23-10-2010, 07:50
Io sono convinto che l'incremento di ipc per BD sia intorno al 20% e vicino al 10% per llano

capitan_crasy
23-10-2010, 11:05
JF conferma che avremo nuove informazioni su Bulldozer al AMD Financial Analyst Day 2010, la quale si terrà martedì 9 novembre:

Analyst day is november 9th. There will be some new data. There will be more granularity on schedules and launch. I am finalizing the presentations this weekend before I skip the country again.

carlottoIIx6
23-10-2010, 14:11
ho una buona impressione è cioè che le 6770 e le 6750 saranno quelle su llano :)
se fosse così :)
qualcuno brinderà ad amd!

dark.halo
23-10-2010, 14:40
ho una buona impressione è cioè che le 6770 e le 6750 saranno quelle su llano :)
se fosse così :)
qualcuno brinderà ad amd!

Secondo me può essere infatti se ci pensi il cambio di nomenclatura per la fascia media è apparentemente immotivato.
Ufficialmente dicono che sia per lasciar vivere ancora per un po le hd57xx,
ma per me non regge basta pensare alla 5670 e 4670 che hanno condiviso il mercato per mesi nonostante quest'ultima sia andata in eol al momento del debutto dell successore. Insomma un llano con 480sp con la stessa efficienza di barts (35% di prestazioni in più rispetto alle hd 5000 a parità di sp) sarebbe un mostro a cui non vorrei nemmeno pensarci per non far salire la scimmia :D

affiu
23-10-2010, 15:03
basta pensare che cmq apu vs bulldozer ,li differenzia la frequenza maggiore di bulldozer

adesso(si ci deve accontentare ,anche se relativamente) del 32 apu fusion,ma in futuro si vedrà sempre piu cosa sia veramente apu

in multithreading APU vs bulldozer ,non ci sara neanche da parlarne

le potenzialità di APU ci sono è sono reali ,ma la NATIVITA' cpu&gpu consentirà un MULTITHREADING senza precedenti

la cosa più ''sfortunata'' che apu fusion a 32nm non è che solo l'inizio,ma nascerà l'unigenito figlio di apu family, e dovranno ridefinire il termine ''incredibile'' nei vocabolari

non si può piu tirare avanti (negli anni avvenire) con giochi sempre piu potenti(poi adesso c'è la pure la fissazione del 3D) e la potenza(del sistema in generale):Prrr: che cammina troppo lentamente

le schede video sono sempre piu potenti ,ma il muro di alcuni range di frame/s sono sempre li ,

figuriamoci un gioco 3d a 2560 x !.....APU

paolo.oliva2
23-10-2010, 16:05
Probabilmente penso sia come ha riportato Bjt2, cioé che dal 40nm di TSCM si passerebbe al 32nm HKMG e forse pure low-k, quindi già di per sé il TDP sarebbe inferiore... inoltre, si può sempre utilizzare il "trucco" dell'undervolt.

Insomma, non si può considerare il TDP di una VGA sul 40nm su scheda e pensare allo stesso TDP su Llano...

paolo.oliva2
23-10-2010, 16:16
Io sono convinto che l'incremento di ipc per BD sia intorno al 20% e vicino al 10% per llano
Bisogna aspettare qualche info in più.
Secondo me l'IPC di BD di poco sotto a SB mi sembra un po' esagerato... almeno mi sono fatto questa idea.
Condivido le tue previsioni... forse potrei anche vedere un +25% in BD, ma già anche il +20% sarebbe bello tosto, considerando l'incremento di clock.

capitan_crasy
23-10-2010, 19:35
Vorrei ricordare che AMD ha smentito a suo tempo la commercializzazione di GPU costruite a 32nm SOI...
Inoltre secondo me, almeno per il momento, Llano non sarà una alternativa alle classiche GPU; in pratica non credo che andrà a sostituire nessuna GPU attualmente in commercio.
Per quanto riguarda Zacate voci non confermate associano la sigla HD6300 per questa APU...

dark.halo
23-10-2010, 20:24
Vorrei ricordare che AMD ha smentito a suo tempo la commercializzazione di GPU costruite a 32nm SOI...
Inoltre secondo me, almeno per il momento, Llano non sarà una alternativa alle classiche GPU; in pratica non credo che andrà a sostituire nessuna GPU attualmente in commercio.
Per quanto riguarda Zacate voci non confermate associano la sigla HD6300 per questa APU...

Ci sono voci sulla struttura interna della gpu,ci dobbiamo aspettare la stessa "ristrutturazione" che abbiamo visto per hd6xxx, con annesso aumento prestazionale a parità di sp???

capitan_crasy
23-10-2010, 21:20
Ci sono voci sulla struttura interna della gpu,ci dobbiamo aspettare la stessa "ristrutturazione" che abbiamo visto per hd6xxx, con annesso aumento prestazionale a parità di sp???

Sappiamo che Llano/Ontario avranno UVD 3.0 e molto probabilmente anche la tecnologia blu-ray 3D con annesso HDMI 1.4 e Display port 1.2, tutte novità della serie HD6000.
Secondo me la GPU di Llano/Ontario assomiglia di più alle GPU appena presentate piuttosto che alle GPU Evergreen...