PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

Randa71
05-03-2012, 22:27
Un 8150 se fosse stato 4,5GHz def (e le voci circa questa frequenza nelle intenzioni di AMD sono circolate) sarebbe stato ampiamente competitivo sia per prestazioni massime che per consumo/prestazioni, il gap è 900MHz per un -25%.
....................
.

anche se fosse partito da 4.2 a def su tutti i core sarebbe stato cmq un gran bel processore...con poi i vari step del turbo...per colmare gap st

Mister D
05-03-2012, 23:20
Navigando un'altro po' ho trovato questo:
http://www.globalfoundries.com/pdf/GF_HKMG_TrifoldBrochure.pdf#search="32 nm SOI"
Nella seconda colonna GF scrive:
Super High Performance (SHP): This is the flagship technology of GLOBALFOUNDRIES, offering outstanding x86 CPU performance on an SOI substrate.
Questo è il fiore all'occhiello della tecnologia GLOBALFOUNDRIES, che offre eccezionali prestazioni della CPU x86 su un substrato SOI.
Per cui secondo GF la sigla SHP viene usata per identificare i processi SOI e guardando la slide della GTC 2011 il 28 nm SHP dovrebbe corrispondere al 28 nm SOI di 3° generazione con HKMG di seconda generazione.
http://www.brightsideofnews.com/news/2011/9/6/amd-not-leaving-soi-for-28nm-10-core-macau-and-20-core-dublin-cpus.aspx
Questa è la vecchi slide che mi riferivo prima capitano ma forse ne esiste una più nuova dove i 28 nm SHP sono scomparsi? O la mia memoria sta dando i numeri?

capitan_crasy
05-03-2012, 23:22
Ciao Capitano,
non riesco a trovare nei post dietro la conferma del passaggio dal 32 SOI al 28 nm bulk.
Poi guarda un po' qua:
http://www.globalfoundries.com/technology/leading_edge_tech.aspx
Traduco male io o nelle ultime righe dice:
A 28 Nm, GLOBALFOUNDRIES arriverà alla seconda generazione della tecnologia HKMG e alla terza generazione della litografia ad immersione. E poiché la tecnologia 28 Nm è un shrink diretto dei 32 nm, i clienti potranno trarre grandi vantaggi dagli alti volumi della nostra tecnologia a 32 nm-SHP.
Con "la terza generazione della litografia ad immersione" non si riferiscono al SOI? E dicendo che è un shrink diretto dei 32 nm come può non essere SOI? O mi perdo qualche passaggio io?
Poi però sullo stesso sito andando nella pagina dei 28 nm sembra che facciano solo riferimento al bulk e non più al SOI:
http://www.globalfoundries.com/technology/28nm.aspx
C'è qualcosa che non quadra o sono io duro di testa;)

Ciao::)
Chiariamo subito che IBM non ha mai messo in roadmap ne progettato un 28nm SOI; era previsto che dopo i 32nm si sarebbe passati ai 22nm SOI ma per motivi non ancora chiari sono stati definitivamente cancellati.
Quindi ricapitolando i 32nm e i 22nm erano con tecnologia SOI, mentre i 40nm e i 28nm erano destinati alla tecnologia bulk...
La novità in tutto questo è l'annuncio che il consorzio SOI ha sperimentato la tecnologia FD-SOI sul processo produttivo a 28nm, grazie ad un lavoro congiunto con GF, ARM, STMicroelectronics e IBM. (CLICCA QUI (http://www.soiconsortium.org/news-events/results-from-leading-semiconductor-companies-demonstrate-advantages-of-planar-fd-soi-technology-over-bulk-silicon-cmos-34.php))
Ora che i futuri Steamroller saranno basati sui 28nm FD-SOI è al di sopra di ogni più rosea e ottimistica aspettativa, tanto è vero che tale tecnologia è attesa per i 14nm su wafer da 450mm; inoltre non ci sono i tempi per poter ridisegnare anche come shrink i 28nm utilizzando il SOI tradizionale e senza la progettazione di IBM non ci sono neanche i presupposti.
Infine i 28nm di GF sono stati posticipati di mesi, tanto che AMD ha dovuto cancellare le piattaforme APU basate su Krishna/Wichita.
Finchè AMD non dirà apertamente quali solo le caratteristiche del silicio di Steamroller si raccolgono gli annunci vari tra qui anche i rumor e si tirano le eventuali somme...

Mister D
05-03-2012, 23:45
Ciao::)
Chiariamo subito che IBM non ha mai messo in roadmap ne progettato un 28nm SOI; era previsto che dopo i 32nm si sarebbe passati ai 22nm SOI ma per motivi non ancora chiari sono stati definitivamente cancellati.
Quindi ricapitolando i 32nm e i 22nm erano con tecnologia SOI, mentre i 40nm e i 28nm erano destinati alla tecnologia bulk...
La novità in tutto questo è l'annuncio che il consorzio SOI ha sperimentato la tecnologia FD-SOI sul processo produttivo a 28nm, grazie ad un lavoro congiunto con GF, ARM, STMicroelectronics e IBM. (CLICCA QUI (http://www.soiconsortium.org/news-events/results-from-leading-semiconductor-companies-demonstrate-advantages-of-planar-fd-soi-technology-over-bulk-silicon-cmos-34.php))
Ora che i futuri Steamroller saranno basati sui 28nm FD-SOI è al di sopra di ogni più rosea e ottimistica aspettativa, tanto è vero che tale tecnologia è attesa per i 14nm su wafer da 450mm; inoltre non ci sono i tempi per poter ridisegnare anche come shrink i 28nm utilizzando il SOI tradizionale e senza la progettazione di IBM non ci sono neanche i presupposti.
Infine i 28nm di GF sono stati posticipati di mesi, tanto che AMD ha dovuto cancellare le piattaforme APU basate su Krishna/Wichita.
Finchè AMD non dirà apertamente quali solo le caratteristiche del silicio di Steamroller si raccolgono gli annunci vari tra qui anche i rumor e si tirano le eventuali somme...

Grazie! Come sempre gentilissimo ed esauriente!
Cmq dalla rete cercando 28 nm SHP ho trovato questo altro forum:
http://www.overclock.net/t/1196096/seronx-globalfoundries-28nm-shp-is-fd-soi
e infatti anche io ho fatto lo stesso collegamento: se SHP per GF sta per tecnologia riguardante le CPU x86 con substrato SOI allora i 28 nm SHP di quella slide c'è caso che siano i 28 nm FD-SOI che hai citato te. Chissà che GF non faccia questo regalino ad AMD dopo tanti problemi. Lo so che è improbabile ma la speranza è l'ultima a morire;) in attesa di nuove info ovviamente:D

Foglia Morta
06-03-2012, 06:57
Di qualche giorno fa, non so se era già stato postato

Impact des compilateurs sur les architectures CPU x86/x64: http://www.hardware.fr/articles/847-1/impact-compilateurs-architectures-cpu-x86-x64.html

Pat77
06-03-2012, 08:22
Scusa, ma il confronto con il PIV è completamente fuori luogo.
Intel voleva arrivare a 10GHz e non è arrivata neppure a 4GHz, ad essere buoni manca il 250% dall'obiettivo iniziale con 6GHz in meno su 10GHz.
Un 8150 se fosse stato 4,5GHz def (e le voci circa questa frequenza nelle intenzioni di AMD sono circolate) sarebbe stato ampiamente competitivo sia per prestazioni massime che per consumo/prestazioni, il gap è 900MHz per un -25%.

Poi è chiaro che se vogliamo discutere sulla massima potenza ST neanche un miracolo sul silicio unito ad un corposo aumento di IPC potrebbero tenere testa ad Intel, ma trovo un po' dubbioso parlare di potenze ST su proci X8 e forse X10.
E' chiaro che ora come ora, un SBe X6 lo vedo come procio tuttofare, nel senso che anche se perde qualcosina in ST rispetto a SB 1155, ricompensa con un plus di potenza MT ben più grande.

E' chiaro che un Vishera non arriverà mai alle potenze ST di Intel, ma se la puo' giocare in MT, specialmente nel caso che possa superare quanto offre il socket 1155, e, se vogliamo, la cosa non sarebbe nemmeno impossibile se GF fornisse un silicio 32nm HKMG ULK degno di tale sigla.

Guarda, per il discorso IPC, AMD quando ha realizzato architetture nuove è stato sempre per un lasso di tempo piuttosto lungo, e Buldozer è stato progettato anche in visione di APU con GPU che elabora istruzioni in simbiosi con le CPU (vedi BD Next Generations). Se guardi la cosa da questo punto di vista, questo bisogno di IPC non lo vedrei, o comunque la potenza che mancherebbe a Buldozer sarebbe possibile già se le aspettative sulla frequenza operative fossero state rispettate. Prendi un 8150, overcloccalo a 4,5GHz, potrai storgere il naso con SPI, ma per il resto...

A prescindere da quanto potrà succedere con Vishera, io preferirei 1000 volte un aumento del 16,66% di frequenza (e sarebbe 4,2GHz al posto dei 3,6GHz di un 8150) che un aumento del 15% di IPC (impossibile ed improbabile), perchè aumentare la frequenza di lavoro di un procio (in assenza di colli di bottiglia e su BD non ne ho visti almeno sino a 5GHz di OC), aumenterebbe linearmente la quantità di istruzioni elaborate.
Un incremento di IPC è invece alquanto allusivo, perchè interessa solo specifiche parti del procio, con la risulante che potrebbe essere considerevole con alcuni programmi come nullo con altri, infatti il più delle volte si legge "fino a"...

Per spiegarmi meglio... se Vishera aumentasse l'IPC fino al +15%, probabile che la media effettiva sia anche sotto al +5%, mentre un aumento di frequenza a 4,2GHz (aumento di IPC escluso), lo vedrebbe del 16,66% più performante in tutti i settori rispetto ad un 8150.

Inoltre il CMT dal punto di vista architetturale è l'esatto contrario rispetto alla ricerca del massimo IPC a core. Il vantaggio del CMT DOVREBBE essere un numero maggiore di core a parità di transistor (vedi X8 con obiettivo X10) ed una frequenza maggiore per le peculiarità di BD. Queste cose al momento un 8150 le fa vedere solamente IN PARTE... speriamo in Vishera.

Il problema che forse non consideri è che di base BD non è un architettura brillante, io penso esattamente l'opposto, serve a nulla aumentare la frequenza all'inverosimile, serve di base migliorare consumi e ipc, la frequenza verrà da se di conseguenza.
Ed è quello che spero farà l'evoluzione di BD.

OPP
06-03-2012, 08:42
Il problema che forse non consideri è che di base BD non è un architettura brillante, io penso esattamente l'opposto, serve a nulla aumentare la frequenza all'inverosimile, serve di base migliorare consumi e ipc, la frequenza verrà da se di conseguenza.
Ed è quello che spero farà l'evoluzione di BD.

quoto, è esattamente quello che penso anch'io e che avevo detto
;)

The3DProgrammer
06-03-2012, 08:51
Il problema che forse non consideri è che di base BD non è un architettura brillante, io penso esattamente l'opposto, serve a nulla aumentare la frequenza all'inverosimile, serve di base migliorare consumi e ipc, la frequenza verrà da se di conseguenza.
Ed è quello che spero farà l'evoluzione di BD.

L'aspetto positivo e' che sicuramente ci sono grossi margini di miglioramento su tutti i fronti (frequenza, IPC, consumo). A differenza di K10 che ormai era un'architettura al limite.

Io penso che ormai possiamo concordare tutti sul fatto che BD non e' quello che ci aspettavamo, ma pensandoci bene un passo falso al primo tentativo, per di + sul lancio di un nuovo processo produttivo ci puo' anche stare. Vedremo cosa sara' in grado di fare AMD con vishera, le premesse sono buone.

Pat77
06-03-2012, 09:08
L'aspetto positivo e' che sicuramente ci sono grossi margini di miglioramento su tutti i fronti (frequenza, IPC, consumo). A differenza di K10 che ormai era un'architettura al limite.

Io penso che ormai possiamo concordare tutti sul fatto che BD non e' quello che ci aspettavamo, ma pensandoci bene un passo falso al primo tentativo, per di + sul lancio di un nuovo processo produttivo ci puo' anche stare. Vedremo cosa sara' in grado di fare AMD con vishera, le premesse sono buone.

Vedremo, è quello che serve insieme a una politica prezzi più aggressiva.

Athlon 64 3000+
06-03-2012, 09:34
Personalmente le CPU con basso IPC e alte frequenze tipo il Pentium 4 non mi sono mai piaciuti.
Per rendere sia Trinity che Kaveri comunque competitivi c'è bisogno sopratutto di un aumento di IPC e non di sole frequenze perché con solo quest'ultima non si va da nessuna parte.
Come abbiamo visto con Zambezi il progetto di avere frequenze alte è andato a sbattere contro il muro del pp a 32nm immaturo e del problema che oltre una certa frequenza il consumo schizza.
Con Vishera si riuscirà a incrementare un po' la frequenza,ma non di tanto perchè per quanto si possa affinare il pp attuale non si può andare oltre una certa soglia.
Spero che con Kaveri ci sia un bel aumento di IPC.

Sayan V
06-03-2012, 09:43
Testare il guadagno sulle ram dipende da molte condizioni.

Se fai un test di banda, più il clock è superiore delle RAM, più aumenta la banda.

Se fai un bench su programma che specificatamente fa un loop di calcoli, la RAM è ininfluente.

A tutto cio' aggiungi pure il fatto che incrementi prestazionali "seri" li ottieni se replichi la condizione def.
Mettendo dei numeri a caso, clock procio 2GHz, clock NB/MC 2GHz, clock RAM 1GHz = Clock procio 3GHz, clock NB/MC 3GHz, clock RAM 1,5GHz, se operi in maniera diversa, più conservativa in alcune parti, il sistema comunque risulterebbe "zoppo".

I test di banda lasciano il tempo che trovano, preferisco i risultati in campo.

Ieri sera, per il poco tempo che avevo, ho fatto delle prove con SuperPì e 3dmark ... ho testato le ram da 1133 mhz a 2050 mhz con timing uguali (9-11-9-27 1T) e poi in auto (a frequenze più basse timing più spinti)... procio sempre a 4700 mhz ... nessuna variazione degna di nota, sembra quasi che non ho cambiato le frequenza ... invece col 1100T le differenza si notano ...

blindwrite
06-03-2012, 09:56
Ciao::)
Chiariamo subito che IBM non ha mai messo in roadmap ne progettato un 28nm SOI; era previsto che dopo i 32nm si sarebbe passati ai 22nm SOI ma per motivi non ancora chiari sono stati definitivamente cancellati.
Quindi ricapitolando i 32nm e i 22nm erano con tecnologia SOI, mentre i 40nm e i 28nm erano destinati alla tecnologia bulk...
La novità in tutto questo è l'annuncio che il consorzio SOI ha sperimentato la tecnologia FD-SOI sul processo produttivo a 28nm, grazie ad un lavoro congiunto con GF, ARM, STMicroelectronics e IBM. (CLICCA QUI (http://www.soiconsortium.org/news-events/results-from-leading-semiconductor-companies-demonstrate-advantages-of-planar-fd-soi-technology-over-bulk-silicon-cmos-34.php))
Ora che i futuri Steamroller saranno basati sui 28nm FD-SOI è al di sopra di ogni più rosea e ottimistica aspettativa, tanto è vero che tale tecnologia è attesa per i 14nm su wafer da 450mm; inoltre non ci sono i tempi per poter ridisegnare anche come shrink i 28nm utilizzando il SOI tradizionale e senza la progettazione di IBM non ci sono neanche i presupposti.
Infine i 28nm di GF sono stati posticipati di mesi, tanto che AMD ha dovuto cancellare le piattaforme APU basate su Krishna/Wichita.
Finchè AMD non dirà apertamente quali solo le caratteristiche del silicio di Steamroller si raccolgono gli annunci vari tra qui anche i rumor e si tirano le eventuali somme...

Confermo tutti noi in R&D siamo praticamente solo su 28FDSOI e 20bulk (io attualmente sono su 20bulk)... e lo sviluppo non procede niente male...

Ci si attendono grandi cose dall'FDSOI.

capitan_crasy
06-03-2012, 10:10
Grazie! Come sempre gentilissimo ed esauriente!
Cmq dalla rete cercando 28 nm SHP ho trovato questo altro forum:
http://www.overclock.net/t/1196096/seronx-globalfoundries-28nm-shp-is-fd-soi
e infatti anche io ho fatto lo stesso collegamento: se SHP per GF sta per tecnologia riguardante le CPU x86 con substrato SOI allora i 28 nm SHP di quella slide c'è caso che siano i 28 nm FD-SOI che hai citato te. Chissà che GF non faccia questo regalino ad AMD dopo tanti problemi. Lo so che è improbabile ma la speranza è l'ultima a morire;) in attesa di nuove info ovviamente:D

Guarda su questo argomento ho dei dubbi anch'io, eppure ci sono molte voci tipo Charlie di semiaccurate che escludono a priori un processo SOI sui futuri 28nm; per quanto riguarda la tecnologia FD-SOI è ancora troppo presto per sperare di vederla sui 28nm...
Comunque sia ci dovrebbero essere APU prodotte a 28nm sia da GF sia da TSMC; quest'ultima dovrebbe produrre gli eredi delle piattaforme Brazos...

Sayan V
06-03-2012, 10:44
Beh li possono fare anche 10 nm, ma se poi non rendono niente :rolleyes:

Theodorakis
06-03-2012, 11:13
Ho letto questo: http://www.bitsandchips.it/9-hardware/616-un-possibile-nuovo-bug-per-le-cpu-amd

Secondo voi interessa BD? AMD e Dillon sono abbottonati. Se fossero i vecchi Athlon lo avrebebro detto, no? :muro:

Sayan V
06-03-2012, 13:56
Ho letto questo: http://www.bitsandchips.it/9-hardware/616-un-possibile-nuovo-bug-per-le-cpu-amd

Secondo voi interessa BD? AMD e Dillon sono abbottonati. Se fossero i vecchi Athlon lo avrebebro detto, no? :muro:


:eek:

digieffe
06-03-2012, 13:57
Personalmente le CPU con basso IPC e alte frequenze tipo il Pentium 4 non mi sono mai piaciuti.
Per rendere sia Trinity che Kaveri comunque competitivi c'è bisogno sopratutto di un aumento di IPC e non di sole frequenze perché con solo quest'ultima non si va da nessuna parte.
Come abbiamo visto con Zambezi il progetto di avere frequenze alte è andato a sbattere contro il muro del pp a 32nm immaturo e del problema che oltre una certa frequenza il consumo schizza.
Con Vishera si riuscirà a incrementare un po' la frequenza,ma non di tanto perchè per quanto si possa affinare il pp attuale non si può andare oltre una certa soglia.
Spero che con Kaveri ci sia un bel aumento di IPC.

quoto.

Kaveri? mi deve essere sfuggito chi mi rifresca la memoria? grz :)

bosstury
06-03-2012, 14:03
forse qui non è il posto giusto.....ma provo..
il dissipatore zalman 9900 max, va sui socket amd3+ per questa serie di cpu ?

Pat77
06-03-2012, 14:04
Ho letto questo: http://www.bitsandchips.it/9-hardware/616-un-possibile-nuovo-bug-per-le-cpu-amd

Secondo voi interessa BD? AMD e Dillon sono abbottonati. Se fossero i vecchi Athlon lo avrebebro detto, no? :muro:

Bhe bisogna vedere quanto incide sulle performance di BD.

ozlacs
06-03-2012, 14:07
Ho letto questo: http://www.bitsandchips.it/9-hardware/616-un-possibile-nuovo-bug-per-le-cpu-amd

Secondo voi interessa BD? AMD e Dillon sono abbottonati. Se fossero i vecchi Athlon lo avrebebro detto, no? :muro:

http://www.hwupgrade.it/forum/showpost.php?p=37046752&postcount=28831

parla di K10, non fà riferimento a BD

Theodorakis
06-03-2012, 14:29
http://www.hwupgrade.it/forum/showpost.php?p=37046752&postcount=28831

parla di K10, non fà riferimento a BD

Sì, ok, però è un post vecchio di 10 settimane quello linkato nell'articolo del sito inglese. Nel post di ieri di Dillon invece non si fa riferimento a nessuna CPU specifica, e neppure AMD ne cita una nella risposta. Perché non tranquilizzare gli utenti affermando fin da subito quale famiglia di CPU ha questo bug (se poi è veramente un bug)? Non dovrebbe essere negli interessi di AMD? E se il bug interessasse Llano (in quanto evoluzione di K10)?

OPP
06-03-2012, 14:33
forse qui non è il posto giusto.....ma provo..
il dissipatore zalman 9900 max, va sui socket amd3+ per questa serie di cpu ?

se hai la staffa per am2 e am3 lo puoi mettere anche su bd am3+, l'attacco è uguale :)

aldooo
06-03-2012, 14:34
parla di K10, non fà riferimento a BD

Per ora non si fa riferimento a BD.
Cmq è un bug difficile da riprodurre dicono.

capitan_crasy
06-03-2012, 14:46
quoto.

Kaveri? mi deve essere sfuggito chi mi rifresca la memoria? grz :)

Kaveri e la terza generazione delle APU a 28nm con core X86 Steamroller e GPU GCN...

http://www.xtremeshack.com/immagine/i133981_screen-shot-2012-02-01-at-2.14.03-pm-575px.png

nirvanastarr
06-03-2012, 14:53
Ciao a tutti,

vi devo chiedere aiuto perchè sto diventando pazzo per capire se il mio sistema sia ok o no:

Ho acquistato da circa 2 mesi il seguente sistema:
Processore FX-8150
Scheda madre Gigabyte GA-990FXA-UD7 Rev 1.1
8Gb Ram Geil Evo Corsa PC14900 1866Mhz (running @ 1600Mhz)
Scheda Video AMD HD6970


Uso Windows 7 x64 e premetto che il sistema è tutto con valori di default, mai overcloccato. Funziona tutto bene ma c'è una cosa che non mi convince: la temperatura del processore.

La temperatura infatti varia dai 12-15 gradi (nella stanza dove ho il pc sono sempre come minimo 20gradi) ai 50-54 al massimo del carico di lavoro. La cosa che non mi convince è che in idle (senza muovere neanche il mouse) ogni 10 secondi più o meno la temperatura ha degli scatti improvvisi fino ai 30-33 o 35 gradi per poi tornare, sempre nel giro di 1 secondo a 12-15. Se faccio un test con OCCT o simili, si può notare che non appena il test parte la temperatura schizza subito a 30-35 per poi salire prograssivamente (e correttamente) fino ai 50-54gradi.

Ora, io ho sempre avuto processori AMD (prima avevo il PhenomII x4 955 BE) ma non mi è mai capitato di vedere degli sbalzi simili. E non ho mai visto la temperatura a 12-15 gradi. Inoltre, quegli strani sbalzi che fa in idle sono abbastanza noiosi, perchè la ventola, girando in relazione alla temperautura, compie degli sbalzi di velocità assurdi.

In definitiva, vorrei capire se ciò è normale (dovuto magari alla nuova architettura del processore o altro) oppure è un problema del sensore della scheda madre.

Un'altra cosa strana è che se uso SIW (non so se qualcuno di voi lo usa), nella sezione "sensori", posso notare come non vengano letti correttamente i valori PWM delle ventole, cosa che mi fa pensare ad un problema del sensore.

Voi che ne dite??
Grazie;)

P.s.:In caso posso postare degli screenshots relativi a SIW o ai grafici di OCCT

FroZen
06-03-2012, 14:58
Parrebbe il tipico caso di "sensorus sballatus"..........15°C non si perdono/guadagnano in pochi secondi.....a meno che hai un phon da carrozziere al posto del dissipatore....

A me capita invece che usando k10stat mi dai un vcore più alto di 0,1V rispetto a quello messo nei pstate :stordita: :mbe: cpu-z mi dice 1,5V mentre k10stat 1,4V :muro: non sapendo a chi credere ho fatto qualche test ed appurato che è k10stat a prendermi in giro dato che sotto 1,35V (quindi 1,45V reali) il sistema a 3,8ghz è instabile.....(bf3 non perdona :asd: )

nirvanastarr
06-03-2012, 15:15
Grazie delle pronte e cortesi risposte!

Eh già mi sa che è proprio un tipico caso di "Sensorus Sballatus" :D :D

Proprio ora (non so perchè non ci ho pensato prima) ho consultato AMD OverDrive che mi da una lettura leggermente diversa: la minima è di 24 ma ogni tanto anche lui fluttua a 30-32.

Che nervoso!!! :muro: :muro:

Mi vien male a dover spedire in RMA la scheda :mad: :mad:

digieffe
06-03-2012, 15:18
Di qualche giorno fa, non so se era già stato postato

Impact des compilateurs sur les architectures CPU x86/x64: http://www.hardware.fr/articles/847-1/impact-compilateurs-architectures-cpu-x86-x64.html

No, non è stato postato...

Ho appena dato una occhiata ai grafici...
cosa dire BD non mi sembra messo bene... capita che le prende dal 975...



cmq in generale per il discorso frequenze non sono affato d'accordo con Paolo!

anche se BD fosse @4.5 + turbo incrementerebbe la sua potenza del 25% sempre a 125W!

oppure speriamo che @4.5 consumi 95W?

quindi la corsa ai ghz finirebbe intorno ai 4.5...

un +25% secco senza possibilità di significativi ulteriori miglioramenti!!!

ben venga ma finisce li !!!



per il resto anche se fosse @4.5 avremmo (125w/95w) > 30% di consumi rispetto a SB...

Vorrei ricordare che il 2600@4.3 consuma 125W!!! fatta questa premesa a quanto dovrebbe girare BD per colmare il gap???



BD è una architettura server, che se vera la storia del carico (non voglio mettere in dubbio randa e shellx ma il "se" è doveroso per evitare polemiche) va bene con carichi server, parliamo di diverse decine (forse meglio centinaia) di processi in coda in attesa di elaborazione, una situazione che normalmente si presenta solo in ambiente di produzione (= dove gli applicativi vengono utilizzati) ed in ambiente di sviluppo o test si possono ricreare artificialmente...

quindi di fatto non si verificheranno mai su un desktop (se poi mi è sfuggito qualche scenario cortesemente ricordatemelo)

è da quando è stata posta la questione del carico, che nel mio ambiente di sviluppo mantengo monitorati i processi in coda alla cpu, non arrivano mai a 2 cifre!!! mentre spesso vedo la situazione nella quale diversi processi anche 5-6 sono in attesa di quel processo ST che deve produrre i dati!!! (sto parlando di decine di secondi, qualche decina qui, quache altra li e vedi che nella giornata è volata una mezzoretta, il problema non si riduce alla perdita di tempo ma anche a quella di concentrazione, quando lavoro seriamente non interrompo per chattare o cose del genere)


oramai a 5 mesi dal lancio di BD, via la rabbia della delusione, posso dire che per me è bocciato, nonostante sia uno sviluppatore.

che poi nel mercato mainstream vada benino non m'importa, mi chiedo però nell'utilizzo quotidiano quanti possessori di BD ignaramente attendono quei colli di bottiglia creati dai processi ST.

aldooo
06-03-2012, 15:19
Mi vien male a dover spedire in RMA la scheda :mad: :mad:

Beh prima prova un centinaio di programmi sensori... assicurati che ci sia sul serio un problema hardware.

AceGranger
06-03-2012, 15:30
BD è una architettura server, che se vera la storia del carico (non voglio mettere in dubbio randa e shellx ma il "se" è doveroso per evitare polemiche) va bene con carichi server, parliamo di diverse decine (forse meglio centinaia) di processi in coda in attesa di elaborazione, una situazione che normalmente si presenta solo in ambiente di produzione (= dove gli applicativi vengono utilizzati) ed in ambiente di sviluppo o test si possono ricreare artificialmente...


BD è server tanto quanto lo è SB, visto che entrambe le architetture coprono ENTRAMBI gli ambiti consumer e server.

i Test di Opteron vs Xeon con applicativi server ci sono e parlano da soli; la situazione in ambito server non mi sembra diversa da quella desktop, anzi... si ok in ambito server viene usato meno l'ST e quindi non ci sono casi in cui ha punte di caduta rilevanti, ma se fosse "nato per i server", non dico brillato, ma almeno non avrebbe fatto cosi magra figura con i vecchi Xeon o i vecchi Opteron

digieffe
06-03-2012, 15:34
BD è server tanto quanto lo è SB, visto che ENTRAMBE le architetture coprono ENTRAMBI gli ambiti consumer e server.

i Test di Opteron vs Xeon con applicativi server ci sono e parlano da soli; la situazione in ambito serve non è diversa da quelal desktop.

più che altro intendevo che la situazione è mitigata dalla mancanza della "stretta" necessità di performance in ST... (quindi cambia la necessità non le performances)

AceGranger
06-03-2012, 15:55
più che altro intendevo che la situazione è mitigata dalla mancanza della "stretta" necessità di performance in ST... (quindi cambia la necessità non le performances)

ho editato mentre rispondevi.

si ma anche tralasciando l'ST, l'MT dei nuovi Opteron è deludente, visto che sia in prestazioni che in efficienza le prendono anche dai vecchi Opteron...

http://www.anandtech.com/show/5058/amds-opteron-interlagos-6200/5

digieffe
06-03-2012, 16:05
ho editato mentre rispondevi.

si ma anche tralasciando l'ST, l'MT dei nuovi Opteron è deludente, visto che sia in prestazioni che in efficienza le prendono anche dai vecchi Opteron...

http://www.anandtech.com/show/5058/amds-opteron-interlagos-6200/5
ok, è un dato di fatto,

però mentre nei server puoi aggiungere qualche cpu per compensare il divario prestazionale così che la cosa si restingerebbe a costi e consumi (e calore)

in ST non c'è modo di risolvere... overcloccki? anche se è una pratica poco ortodossa nel lavoro, così come
overcloccki l'uno puoi overcloccare l'altro e la situazione resta invariata :(



EDIT: Fermo restando un aumento delle frequenze, per il desktop è indispensabile alzare l'ipc!!! (non al livello di SB ma non come è ora, almeno una decina di punti percentuali sopra k10)

riquoto the 3DProgrammer.

bosstury
06-03-2012, 16:16
se hai la staffa per am2 e am3 lo puoi mettere anche su bd am3+, l'attacco è uguale :)

cosi almeno riportano sul sito produttore.....

Vinsss
06-03-2012, 17:29
cosi almeno riportano sul sito produttore.....

vai tranquillo che va..io sul mio fx-8120 gli ho adattato con la staffa am3 un thermaltake v1 e ci sta a pennello e lo tengo a 4.1Ghz!! e il mio dissi stock lo dato ad un mio amico che ha un athlon II x4 620 e sotto gioco ha guadagnato -30° questo per dire che e compatibile il dissi am3+ con socket am3 quindi entrambi i casi vanno

bosstury
06-03-2012, 18:02
grazie :)

Vinsss
06-03-2012, 18:06
grazie :)

se posso aiutare e consigliare lo faccio sempre volentieri! ;)

Sayan V
06-03-2012, 18:18
vai tranquillo che va..io sul mio fx-8120 gli ho adattato con la staffa am3 un thermaltake v1 e ci sta a pennello e lo tengo a 4.1Ghz!! e il mio dissi stock lo dato ad un mio amico che ha un athlon II x4 620 e sotto gioco ha guadagnato -30° questo per dire che e compatibile il dissi am3+ con socket am3 quindi entrambi i casi vanno


Utilizzo intelligente di dissi stock ... complimenti :cool:

Vinsss
06-03-2012, 19:18
grazie!!

affiu
06-03-2012, 19:25
[QUOTE=digieffe;37048241]
BD è una architettura server, che se vera la storia del carico (non voglio mettere in dubbio randa e shellx ma il "se" è doveroso per evitare polemiche) va bene con carichi server, parliamo di diverse decine (forse meglio centinaia) di processi in coda in attesa di elaborazione, una situazione che normalmente si presenta solo in ambiente di produzione (= dove gli applicativi vengono utilizzati) ed in ambiente di sviluppo o test si possono ricreare artificialmente...

quindi di fatto non si verificheranno mai su un desktop (se poi mi è sfuggito qualche scenario cortesemente ricordatemelo)

sono d'accordo ,ma LA LEGGENDA del carico di bulldozer mica finisce li(anzi inizia proprio da li visto che bulldozer completo,per me, è solo quello ''SPOSATO'' con la gpu AMD)....;prima un processore era solo ,ma il futuro sappiamo tutti che sarà centrato sull'integrazione(sempre piu crescente ,con tutte le difficolta) tra cpu e gpu,cosa vorrei dire con cio?
il processore non puo fare i ca..i sui ma dovra dare retta pure alla gpu ,è questa cosa NON è ne SCONTATA ne AUTOMATICA per nulla ,ma si vedra direttamente sul campo e con gli occhi.
AMD partendo da llano con 400 giga flops di potenza ,avrebbe in mente di raggiungere i 10 TERA FLOPS di potenza grafica nel 2020 ,e per fare questo la GPU NON puo fare tutto da sola ,ma ci vuole l'altra componente per raggiungere tale scopo,APPUNTO bulldozer.

che llano abbia definito cosa sia il multi-task ibrido ,con bulldozer le cose diventano ancora piu estreme.
Il video di las vegas di trinity 17w ,non è messo a caso ,ma appositamente per dimostrare non solo il bilanciamento tra cpu e gpu ,anche perchè se non fosse cosi la gpu (vedendosi costretta ad aspettare la cpu) comincerebbe a scaldarsi ,e nonostante tutto(dato che bulldozer di oggi non è UN CAMPIONE in termini di consumi) dal video trinity 17w sembra LISCIO come l'olio, e siamo sui 17w.:eek:

IL punto forte delle apu è proprio il MEGA-MULTI-TASK ,E anche llano si mettera da parte quando arrivera trinity e poi steam roller e poi exacavator ecc

il filmato di las vegas ,secondo me ,parla chiaro ed è impossibile per me che ci sara un processore(a parte la componente x86,in termini di velocità) che possa eguagliare IL MUlTI TASK di trintity ,come d'altronde quello di llano.

se poi non dovesse piacere la storia dell'integrazione ,FORSE(il capitano mi corregga se dico fesserie) con kabini 28nm (core jaguar e successore di bobcat2 ,quindi non trinity che è un altro livello) SEMPRE DENTRO I 17W SI dovrebbe iniziare ad avere anche il Southbridge integrato e poi da li piano piano a tutta la famiglia APU BULLDOZER :D

paolo.oliva2
06-03-2012, 21:34
Discorso IPC, BD e PIV.

Secondo me è riduttivo parlare di IPC inferiore, perchè il PIV puntava UNICAMENTE sulla frequenza alta (e fantascientifica), BD ha si' un IPC basso, ma è basso perchè impiegando il CMT comunque porta SICURAMENTE un aumento del numero totale di core a procio a parità di transistor.

Inoltre mi sembra un giudizio prematuro semplicemente perchè non sappiamo quanto possa migliorare Vishera in primis, e poi perchè un 8150 con il dissi stock si puo' anche overcloccare, Intel arrivo' a commercializzare proci che con il dissi stock, in estate, a def, semplicemente si resettavano per le temp.

Comunque ancora devo capire perchè fate sta gran differenza tra avere il 10% in più di IPC e il 10% in più di clock, se poi il risultato sarebbe lo stesso.

Anzi, se proprio vogliamo mettere i puntini sulle I... un procio che aumenta l'IPC non è detto che aumenti la frequenza, anzi, addirittura che la conservi, infatti SBe X6 ha si' aumentato l'IPC, ma comunque ha perso in frequenza def.

AMD ha più volte dichiarato che non produrrà più proci con TDP maggiore di 125W, quindi un aumento della frequenza è scontato che sia a parità di TDP e che porti aumenti di potenza, mentre un aumento di IPC potrebbe non portare vantaggi se il PP silicio non migliora, perchè comunque un IPC alto riduce comunque le frequenze operative.
Facendo un esempio... un Vishera a 3,9GHz def è praticamente certo, lo sarebbe un SBe X6?

Io sono stra-convinto, e mi sbilancio, che il guadagno X di Vishera sarà in minima parte per l'IPC, mentre almeno per 2/3 per l'aumento di frequenza.

shellx
06-03-2012, 22:29
se poi non dovesse piacere la storia dell'integrazione ,FORSE(il capitano mi corregga se dico fesserie) con kabini 28nm (core jaguar e successore di bobcat2 ,quindi non trinity che è un altro livello) SEMPRE DENTRO I 17W SI dovrebbe iniziare ad avere anche il Southbridge integrato e poi da li piano piano a tutta la famiglia APU BULLDOZER :D

Si hai ragione, dentro i 17w si.
Kabini e successori nel mobile (ma anche nel desktop) ma dentro i 17w (quindi nel segmento essential) avranno l'sb integrato. Ma non ti illudere che kaveri desktop (mainstream) sopra i 17w e che il successore di kaveri nelle apu excavator desktop sempre (mainstream) sopra i 17 watt avranno l'sb integrato, e ancorameno nella fascia enthusiast con i successori di vishera, dove l'integrazione del sb non è un fattore indispensabile viste le tipologie di dissipazioni e di sistemi.
Non per altro, te lo dico perchè rischieresti di rimanerci deluso visto che ti sta sulle palle quell'innocuo chipset I/O sulla mobo (che poi averlo dentro alle cpu nei desktop ad alte prestazioni, -dove non conta il surriscaldamento lo spazio e i layout perchè si hanno dissipatori adeguati dentro il case- porta a utilità pari a zero a differenza invece del controller PCI-E dove integrarlo nella cpu serve per rimuovere l'inutile e latente bus HT).
Integrarlo nei sistemi a 17w (ultrabook e dispositivi mobile a basso consumo) invece è utile per via degli ingombri e surriscaldamenti, viste le ridotte dimensioni di questi dispositivi.

Io sono stra-convinto, e mi sbilancio, che il guadagno X di Vishera sarà in minima parte per l'IPC, mentre almeno per 2/3 per l'aumento di frequenza.

Beh non è una tua convinzione, ne sono convinto anchio e tanti altri.
La vedo piu vicina ad una realtà che ad una ipotesi.

AceGranger
06-03-2012, 23:01
Anzi, se proprio vogliamo mettere i puntini sulle I... un procio che aumenta l'IPC non è detto che aumenti la frequenza, anzi, addirittura che la conservi, infatti SBe X6 ha si' aumentato l'IPC, ma comunque ha perso in frequenza def.


mettiamoli tutti sti puntini :D ; oltre all'IPC ha portato con se il controller PCI-EX 3.0 e un channel in piu della memoria che necessariamente portano via TDP; da slide Intel nel Q2 arriveranno i refresh delle 3 CPU SB-E....

quindi a parita di TDP manterra pari frequenza piu IPC piu il resto integrato.


Facendo un esempio... un Vishera a 3,9GHz def è praticamente certo, lo sarebbe un SBe X6?


a differenza di AMD, Intel non ha necessita di spremere il silicio o di impiegare circuiti di "recupero TDP", cambia direttamente il processo, quindi quando si fanno questi ragionamenti su chi quadagna e quanto credo che vadano tenute in considerazione; Vishera è il successore di BD e andra confrontato con il giusto concorrente che è IB-E, visto che nel Q3 quando uscira Vishera, SB-E avra compiouto 1 anno e sara li li per essere terminato...; con i 22nm credo che sia praticamente certo chi avra margini maggiori...

poi sinceramente spero in ben piu di 3,9 def, visto che ci siamo giocati il quinto modulo.


Comunque ancora devo capire perchè fate sta gran differenza tra avere il 10% in più di IPC e il 10% in più di clock, se poi il risultato sarebbe lo stesso.


anche per me non fa differenza, basta che aumentino; l'importante è che riescano almeno a recuperare in breve tempo le prestazioni, visto che contro IB l'efficienza sara un miraggio.

Phenomenale
07-03-2012, 08:08
Comunque ancora devo capire perchè fate sta gran differenza tra avere il 10% in più di IPC e il 10% in più di clock
Non lo comprendi perchè sei un overclocker... dove sono i GHz che comandano :sofico:
La questione è che l' IPC non costa nulla, mentre frequenze alte sono onerose in termini di TDP, consumi, ed anche di rese finali del prodotto.

Pat77
07-03-2012, 08:59
Anzi, se proprio vogliamo mettere i puntini sulle I... un procio che aumenta l'IPC non è detto che aumenti la frequenza, anzi, addirittura che la conservi, infatti SBe X6 ha si' aumentato l'IPC, ma comunque ha perso in frequenza def.

Sì ma aumentare la frequenza è operazione meno complessa dell'aumentare l'ipc, lo fai con una revision, l'ipc l'aumenti con una nuova versione della cpu.

Sayan V
07-03-2012, 09:33
Non lo comprendi perchè sei un overclocker... dove sono i GHz che comandano :sofico:
La questione è che l' IPC non costa nulla, mentre frequenze alte sono onerose in termini di TDP, consumi, ed anche di rese finali del prodotto.

Un pò hai ragione ... se il mio procio mi stava RS a 5 ghz, mi avrebbe appagato maggiormente :D

gianni1879
07-03-2012, 11:07
AMD annuncia il proprio investimento in Nuvixa, Inc. attraverso AMD Ventures (conosciuto precedentemente come “programma AMD Fusion Fund”).

http://www.xtremehardware.it/news/hardware/amd-e-nuvixa-donano-una-nuova-dimensione-alla-telepresenza-201203076622/

digieffe
07-03-2012, 13:55
Comunque ancora devo capire perchè fate sta gran differenza tra avere il 10% in più di IPC e il 10% in più di clock, se poi il risultato sarebbe lo stesso.
perchè se a default il risultato sarebbe lo stesso, ipotizzando che in overclock raggiunga le stesse frequenze andrebbe di più.

Pat77
07-03-2012, 14:22
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)

Interessante e prevedibile, ho postato la pagina relativa ai games perchè è l'ambito di mio interesse.

aldooo
07-03-2012, 14:36
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)


:eek:

digieffe
07-03-2012, 14:44
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)

Interessante e prevedibile, ho postato la pagina relativa ai games perchè è l'ambito di mio interesse.

oltre le prestazioni che erano bene o male prevedibili, avete visto i consumi?

a questo punto siamo oltre il 50% per la differenza di consumi (la sola cpu consumerà una 60na di w)...

a parità di prestazioni? non sembra...

avrei voluto vedere l'overclock... (perf e consumi)



non so Amd come farà a recuperare... lo spero vivamente altrimenti i prezzi dei six non scenderanno...

OPP
07-03-2012, 14:52
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)

Interessante e prevedibile, ho postato la pagina relativa ai games perchè è l'ambito di mio interesse.

:eek:
certo che se bd fosse uscito a 4.2 cambiava tutto :sofico:

AceGranger
07-03-2012, 15:26
oltre le prestazioni che erano bene o male prevedibili, avete visto i consumi?

a questo punto siamo oltre il 50% per la differenza di consumi (la sola cpu consumerà una 60na di w)...

a parità di prestazioni? non sembra...

avrei voluto vedere l'overclock... (perf e consumi)



non so Amd come farà a recuperare... lo spero vivamente altrimenti i prezzi dei six non scenderanno...

non scenderanno sicuramente, quando uscira Vishera saranno in dirittura di arrivo gli IB-E, anche se ho idea che verranno tranquillamente rinviati....


Opteron vs Xeon E5

http://www.anandtech.com/show/5553/the-xeon-e52600-dual-sandybridge-for-servers/14

alla fine le previsioni erano corrette

l'Opteron 6276 16x, ( secondo in ordine di potenza ) viene bastonato a sangue dallo Xeon 2660 8x ( settimo in potenza ). Nel test sono stati disattivati 2 core allo Xeon 2660 in modo tale da "farlo diventare" come lo Xeon 6 core 2640, e perde a 360° anche in questa situazione ( ottavo in potenza ) :rolleyes:

raffaele1978
07-03-2012, 16:15
Ciao a tutti!
Avrei pensato di passare ad una piattaforma AMD e sarei tentato di acquistare l'AMD FX-4100? Che ve ne pare, rispetto sopratutto alla mia attuale configurazione?
Grazie!

sergio.p.
07-03-2012, 16:16
guardare il thread su trinity

Vinsss
07-03-2012, 16:40
:eek:
certo che se bd fosse uscito a 4.2 cambiava tutto :sofico:

già!

aldooo
07-03-2012, 17:06
Bah... ma Anandtech è un sito affidabile?

Meglio aspettare altre recensioni prima di tirare conclusioni.

OPP
07-03-2012, 17:14
Bah... ma Anandtech è un sito affidabile?

Meglio aspettare altre recensioni prima di tirare conclusioni.

affidabilissimo anandtech;)

niubbo69
07-03-2012, 17:18
guardare il thread su trinity

Riguardo a cosa?

carlottoIIx6
07-03-2012, 17:19
Ciao a tutti!
Avrei pensato di passare ad una piattaforma AMD e sarei tentato di acquistare l'AMD FX-4100? Che ve ne pare, rispetto sopratutto alla mia attuale configurazione?
Grazie!

ottimo rapporto qualità prezzo.

sergio.p.
07-03-2012, 17:26
Riguardo a cosa?
il post di capitan_crasy con il confrotto tra trinity A10 4600M e llano A8 3500M

carlottoIIx6
07-03-2012, 17:30
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)

Interessante e prevedibile, ho postato la pagina relativa ai games perchè è l'ambito di mio interesse.

solita cosa, a risoluzione bassa intel spicca, a risoluzione normale eccetto qualche titolo le prestazioni si allineano anche tra processori intel

Vinsss
07-03-2012, 17:44
Test IVY in cui c'è anche BD (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/9)


li hanno fatto il test con una hd5870 e nei giochi l'fx-8150 e sempre all'ultimo posto ma con una hd6970 stando hai test di HW non e mai all'ultimo posto ma anzi e trai i primi a parte qualcuno e in alcuni giochi tipo metro 2033 e alien vs predator e al primo posto quindi per me fare un test su un procio nuovo con una 5870 che ormai siamo alla serie 7000 mmm non e che sia un gran bel test poi ovviamente e una mia opinione anche il rapporto in idle nei test di HW e il piu basso e li e il piu alto magari avranno usato modi diversi non so però e strano che ci sia tutta questa gran differenza in idle tra l'uno e l'altro test!

digieffe
07-03-2012, 17:53
Bah... ma Anandtech è un sito affidabile?

Meglio aspettare altre recensioni prima di tirare conclusioni.

Molto affidabile, a volte sembra pure pro Amd.

Pat77
07-03-2012, 20:54
li hanno fatto il test con una hd5870 e nei giochi l'fx-8150 e sempre all'ultimo posto ma con una hd6970 stando hai test di HW non e mai all'ultimo posto ma anzi e trai i primi a parte qualcuno e in alcuni giochi tipo metro 2033 e alien vs predator e al primo posto quindi per me fare un test su un procio nuovo con una 5870 che ormai siamo alla serie 7000 mmm non e che sia un gran bel test poi ovviamente e una mia opinione anche il rapporto in idle nei test di HW e il piu basso e li e il piu alto magari avranno usato modi diversi non so però e strano che ci sia tutta questa gran differenza in idle tra l'uno e l'altro test!

Credi veramente che differenze del genere possano giustificarsi con la modalità di test? Semplicemente in ambiti non gpu limited, le differenze dei vari proci vengono fuori, con hd6970 probabilmente sarebbero ancora superiori.

paolo.oliva2
07-03-2012, 21:11
mettiamoli tutti sti puntini :D ; oltre all'IPC ha portato con se il controller PCI-EX 3.0 e un channel in piu della memoria che necessariamente portano via TDP; da slide Intel nel Q2 arriveranno i refresh delle 3 CPU SB-E.... quindi a parita di TDP manterra pari frequenza piu IPC piu il resto integrato.

Allora se vuoi mettere altri puntini, riporta pure che è un 32nm con quasi 3 anni di sviluppo e a fine carriera.
Il mio discorso non era riferito contro SBe, era solamente per far capire che la potenza di un procio si ha con l'IPC e la frequenza, che assieme danno il TDP.
Aumentare l'IPC cme lo ottieni? AUMENTANDO il numero dei transistor della parte logica = + TDP
Aumentare la frequenza vuol dire aumentare il TDP ed è riferito alle caratteristiche del silicio e dalle specifiche dell'architettura (FO4)
Il procio con tutto l'insieme (IPC e Frequenza) da' un risultato di potenza.
Intel con il suo procio ha il risultato migliore perchè ha un determinato IPC che per le frequenze permesse dal suo silicio raggiunge un'ottima potenza.
Ma non puoi assolutamente credere e far credere che un procio con alto IPC possa avere anche una alta frequenza. SBe va forte per quanto detto sopra, ma scordatelo sia ora sul 32nm che sul 22nm di poter vedere frequenze simili anche alla ciofeca 32nm GF, ma non per denigrare Intel, ma perchè la moglie ubriaca e la botta piena non puo' esistere, e non infiliamo la solita frase "perchè Intel non ne ha bisogno", perchè altrimenti ribatto che è non lo fa per la concorrenza, ma al limite lo fa per massimizzare i guadagni. ¨Se un SBe a 3,3GHz lo vende come EE, spendere miliardi per un 3,4GHz oppure spariamo un 3,5GHz a che pro?

a differenza di AMD, Intel non ha necessita di spremere il silicio o di impiegare circuiti di "recupero TDP", cambia direttamente il processo, quindi quando si fanno questi ragionamenti su chi quadagna e quanto credo che vadano tenute in considerazione; Vishera è il successore di BD e andra confrontato con il giusto concorrente che è IB-E, visto che nel Q3 quando uscira Vishera, SB-E avra compiouto 1 anno e sara li li per essere terminato...; con i 22nm credo che sia praticamente certo chi avra margini maggiori...

Beh, infatti Intel vendeva i proci ad un X TDP per poi infilarci il limitatore, ti sei scordato?
Guarda, io sono convinto che il 22nm abbasserà certamente il TDP, ma grandi vantaggi di frequenze proprio non ne sento parlare, a parte Voi che dite 6GHz OC facili facili ad aria...
Ma con questo non voglio dire assolutamente che non andrà... facendo un esempio, sarebbe possibilissimo un X8 alle stesse frequenze di un SBe X6, se Intel non lo destinasse solamente al settore server.

poi sinceramente spero in ben piu di 3,9 def, visto che ci siamo giocati il quinto modulo.

Ne sei sicuro che non ci possa essere un 3,9GHz X10? Fonti?

anche per me non fa differenza, basta che aumentino; l'importante è che riescano almeno a recuperare in breve tempo le prestazioni, visto che contro IB l'efficienza sara un miraggio.
La tua frase è ambigua... per l'efficienza, non credo sia possibile almeno sino al 28nm, per le prestazioni, dipende... sinceramente a me le prestazioni in assoluto non interessano, e come me la pensano in parecchi, altrimenti avremmo avuto tutti dei i980X, e per prezzo/prestazioni è tutto ampiamente in gioco... perchè AMD già con un Vishera potrebbe uguagliare ma anche superare un X4 SMT, quindi la differenza prezzi sarebbe ben diversa.

digieffe
07-03-2012, 21:17
Molto affidabile, a volte sembra pure pro Amd.

credo che mi devo rimangiare quanto sopra: i confronti NON sono stati fatti a parità di "classe" di cpu...

cmq finisco di leggere... avranno messo qualche nota... forse...

AceGranger
07-03-2012, 21:24
credo che mi devo rimangiare quanto sopra: i confronti NON sono stati fatti a parità di "classe" di cpu...

cmq finisco di leggere... avranno messo qualche nota... forse...

per fare il confronto alla pari hanno disattivato 2 core su ogni Xeon 8x 2660 per farli diventare come gli Xeon 6x 2630-2640 di pari "classe".


lo scrivono nelle conclusioni quando spiegano la tabella

In the third column we compare CPUs with a similar pricepoint as we believe that a six-core E5-2660 will be very close to the performance of 2.3 GHz Xeon E5-2630.

shellx
07-03-2012, 21:31
cut...

problemi con i tag html ?

per fare il confronto alla pari hanno disattivato 2 core su ogni Xeon 8x 2660 per farli diventare come gli Xeon 6x 2630-2640 di pari "classe".


lo scrivono nelle conclusioni quando spiegano la tabella

In the third column we compare CPUs with a similar pricepoint as we believe that a six-core E5-2660 will be very close to the performance of 2.3 GHz Xeon E5-2630.

Molto interessanti questi Xeon.

gianni1879
07-03-2012, 21:35
solita cosa, a risoluzione bassa intel spicca, a risoluzione normale eccetto qualche titolo le prestazioni si allineano anche tra processori intel

ovviamente la situazione si ribalta ancora nel caso di multigpu, CF o SLi.

Ancora credo che a qualcuno è poco chiaro il concetto di CPU limited e GPU limited. Cmq quì ampiamente OT

carlottoIIx6
07-03-2012, 22:31
ovviamente la situazione si ribalta ancora nel caso di multigpu, CF o SLi.

Ancora credo che a qualcuno è poco chiaro il concetto di CPU limited e GPU limited. Cmq quì ampiamente OT

è vero che non mi è chiaro, ma non di certo a livello di come lo intendi tu.
non mi è chiaro come, quando la situazione diventa gpu limited, i processori si allineano così tanto, poichè una qualche informazione sulla potenza della cpu dovrebbe rimanere, e invece niente.
non so tu, ma quando mi è capitato più volte di misurarmi il QI supero ampiamente Eistein
te lo dico giusto perchè sembra che mi stai dando del cretino, quando le competenze tecniche e scientifiche che ho, ti superano ampiamente.
riguardo gli OT, non vedo perchè mi richiami, visto che non sono io ad aver parlato di ciò, e che si sta parlando ampiamente degli xenon, che mi sembra siano anche OT, rispetto un unico mio semplice commento.

digieffe
07-03-2012, 22:51
Aumentare l'IPC cme lo ottieni? AUMENTANDO il numero dei transistor della parte logica = + TDP
Aumentare la frequenza vuol dire aumentare il TDP ed è riferito alle caratteristiche del silicio e dalle specifiche dell'architettura (FO4)
Il procio con tutto l'insieme (IPC e Frequenza) da' un risultato di potenza.Non è detto che sia necessario aumentare i transistor, potrebbe bastare anche solo riorganizzarli e comunque un aumento di transistor non corrisponde necessariamente ad un aumento del tdp, mentre aumentare la frequenza sicuramente aumenta il tdp!

Intel con il suo procio ha il risultato migliore perchè ha un determinato IPC che per le frequenze permesse dal suo silicio raggiunge un'ottima potenza.
Ma non puoi assolutamente credere e far credere che un procio con alto IPC possa avere anche una alta frequenza. SBe va forte per quanto detto sopra, ma scordatelo sia ora sul 32nm che sul 22nm di poter vedere frequenze simili anche alla ciofeca 32nm GF
NON è vero!!!
1 - il 2600k a 125w gira @4.3/4.4 ghz (vedi recensioni in giro) 32mn vs 32 mn
2 - la verità è un'altra: anche se il pp a 32nm di GF fosse stato decente e BD fosse nato a 4.3 ghz+turbo se la sarebbe vista sempre con la fascia bassa di intel (1155 - vedi punto 1 tdp di "riserva")

Questo progetto non solo ha l'aggravante di un pessimo PP ma è anche nato male sotto il punto di vista IPC (secondo le prime rivelazioni è sotto dal 25% al 33%)


... ma perchè la moglie ubriaca e la botta piena non puo' esistere, e non infiliamo la solita frase "perchè Intel non ne ha bisogno", perchè altrimenti ribatto che è non lo fa per la concorrenza, ma al limite lo fa per massimizzare i guadagni.la moglie ubriaca e la botta piena è INTEL (costi esclusi), Punto. (quando insistete con certe affermazioni mi fate dare risposte radicali)

Beh, infatti Intel vendeva i proci ad un X TDP per poi infilarci il limitatore, ti sei scordato?
Guarda, io sono convinto che il 22nm abbasserà certamente il TDP, ma grandi vantaggi di frequenze proprio non ne sento parlare, a parte Voi che dite 6GHz OC facili facili ad aria...

(scusami per quanto scriverò)

PAOLO, ti vuoi ficcare in testa che il 3770 (solo cpu) consuma una 60na di watt e va a 3.5+turbo!!!

faccio a te la domanda: a che frequenza lo venderebbero con un tdp di targa di 130w??? (per favore rispondi!!!)


sinceramente a me le prestazioni in assoluto non interessano, e come me la pensano in parecchi, altrimenti avremmo avuto tutti dei i980X, e per prezzo/prestazioni è tutto ampiamente in gioco... perchè AMD già con un Vishera potrebbe uguagliare ma anche superare un X4 SMT, quindi la differenza prezzi sarebbe ben diversa.
Il problema è che mancano le prestazioni dove servono (ST o pochi thread)...

a quel punto intel ti alza il tdp di un "3880k" a soli 95w e sei di nuovo a zero!!!


Forse, sono io che me ne sono reso conto solo ora, ma, escludendo i pc mainstream, la situazione di Amd nella fascia medio alta è drammatica...

spero che non si accontentino di guadagnare quel 16.7% (@4.2) con la frequenza ma in un modo o nell'altro mettano mano all'architettura... :(

Trokji
07-03-2012, 23:01
La situazione di AMD non è buona nella fascia media e medio alta, diverso è se si parla di llano e trinity e della fascia che oggi come oggi in parte può essere ricoperta ancora da phenom e thuban.
A BD non manca la potenza pura ( in quanto potrebbe essere ottenuta con frequenze dell'ordine dei 6 o 7 GHz).. come dice Paolo il problema principale è l'efficienza, che ai livelli ai quali si trova è un problema gravissimo..praticamente a default ha un tdp superiore del 40% di una cpu sandy bridge di pari prestazioni e costo comparabile mentre in OC la situazione peggiora e di molto (e invece avrebbe dovuto essere proprio l'overclock l'arma vincente degli amd FX).
Con Ivy sarà anche peggio, anche se ad aria non arrivassero a 6 Ghz ma solo a 5,5 non cambierebbe la sostanza.
Paradossalmente AMD potrebbe fare una cpu da 500W di TDP e ristabilire uno scettro come prestazioni probabilmente (una cosa utilizzabile solo con raffreddamenti estremi) ma non riesce a proporre soluzioni convincenti in questa fascia proprio laddove si dovrebbe vedere maggiormente il progresso tecnologico cioè performance/watt. Speriamo che con la nuova generazione riesca ad invertire la tendenza

digieffe
07-03-2012, 23:05
Aggiungo pure, che io non ho mai visto di buon occhio l'HT ma, se devo scegliere tra due core "fiacchi" ed uno "robusto" che già mi garantisce > +60% a parità di clock ed in più l'HT a questo punto preferisco quest'ultimo, potendo considerare l'ht solo un accessorio...

AceGranger
07-03-2012, 23:06
Allora... cut... un 3,5GHz a che pro?


non voglio far credere niente a nessuno ne paventare mega frequenze con mega IPC; mi pare chiaro quello che ho scritto.


Beh, infatti Intel vendeva i proci ad un X TDP per poi infilarci il limitatore, ti sei scordato?
Guarda, io sono convinto che il 22nm abbasserà certamente il TDP, ma grandi vantaggi di frequenze proprio non ne sento parlare, a parte Voi che dite 6GHz OC facili facili ad aria...
Ma con questo non voglio dire assolutamente che non andrà... facendo un esempio, sarebbe possibilissimo un X8 alle stesse frequenze di un SBe X6, se Intel non lo destinasse solamente al settore server.


e chi dovrebbero essere i "voi" ? fra l'altro non ho mai parlato di OC di IB, visto che oltretutto a parte un singolo bench che puo voler dire tutto e nulla non c'è nulla in rete.


Ne sei sicuro che non ci possa essere un 3,9GHz X10? Fonti?


AMD

carlottoIIx6
07-03-2012, 23:14
Non è detto che sia necessario aumentare i transistor, potrebbe bastare anche solo riorganizzarli e comunque un aumento di transistor non corrisponde necessariamente ad un aumento del tdp, mentre aumentare la frequenza sicuramente aumenta il tdp!

vvero, ma qui conta anche la parte della cpu che si disattiva quando non serve e quindi la gestione della cpu dal punto di vista energetico.


NON è vero!!!
1 - il 2600k a 125w gira @4.3/4.4 ghz (vedi recensioni in giro) 32mn vs 32 mn
2 - la verità è un'altra: anche se il pp a 32nm di GF fosse stato decente e BD fosse nato a 4.3 ghz+turbo se la sarebbe vista sempre con la fascia bassa di intel (1155 - vedi punto 1 tdp di "riserva")

Questo progetto non solo ha l'aggravante di un pessimo PP ma è anche nato male sotto il punto di vista IPC (secondo le prime rivelazioni è sotto dal 25% al 33%)


penso che le cose devono essere viste semplicemente, ovvero sui 45nm BD non era conveniente ed è slittato, appena conveniente (non molto ma conveniente) AMD l'ha realizzato e cioè sui 32nm


la moglie ubriaca e la botta piena è INTEL (costi esclusi), Punto. (quando insistete con certe affermazioni mi fate dare risposte radicali)

(scusami per quanto scriverò)

PAOLO, ti vuoi ficcare in testa che il 3770 (solo cpu) consuma una 60na di watt e va a 3.5+turbo!!!

faccio a te la domanda: a che frequenza lo venderebbero con un tdp di targa di 130w??? (per favore rispondi!!!)

non penso che AMD si ponga i problemi in questi termini, sto aprlando dei problemi di proggettazioni.


Il problema è che mancano le prestazioni dove servono (ST o pochi thread)...

a quel punto intel ti alza il tdp di un "3880k" a soli 95w e sei di nuovo a zero!!!

Forse, sono io che me ne sono reso conto solo ora, ma, escludendo i pc mainstream, la situazione di Amd nella fascia medio alta è drammatica...

spero che non si accontentino di guadagnare quel 16.7% (@4.2) con la frequenza ma in un modo o nell'altro mettano mano all'architettura... :(

dico sono due parole: istruzioni silicio.
dal punto di vista energetico cosa conta secondo te, le istruzioni o il silicio?
ti dico istruzioni, poichè se la cpu simula le istruzione eprde cicli e quindi infine consuma molto di più.
ora, i watt non sono un consumo di energia, ma una potenza, per avere il consumo bisogna moltiplivare i watt medi epr il tempo.
ora il tempo è determintato dalle istruzioni e l'energia di conseguenza.
le cpu sono delle macchinette, che se gli fai fare quel che sanno fare lo fanno velocemente, se non perdono tempo.
intel ha il suo vantaggio nell'efficenza, non nei watt che da soli non dicono niente.
ma le nuove istruzioni possono cambiare tutto, così come l'ottimizzazione.
se il software è ottimizzato epr una cpu allora consuma meno, molto meno.
intel attualmente ha la migliore copu, perchè ha un ottimo silicio (probabilmente meglio di quelloa ttuale amd) e un architettura che si presta al software (dalla compialzione fino alla esecuzione), ma... è il punto

amd sta andando avanti verso l'ibrid, se non capite questo non capite nulla.
se vedete la 7870 ha una potenza FP superiore alla serie precedente, e perchè?
comepnsare BD?
detta meglio aMD lavora su due piani che tra un po' faranno si che alcune istruzionipiuttosto che altra saranno supportate e quindi potrebbe per un po' conquistarsi un vantaggio come ai tempo dei 64bit.

questo vantaggio potrebbe benissimo essere non nettamente visibile (il problema dei single??? vecchiume, così un 4170 va meglio di un 8150) ma lo sarà abbastanza (specialmente per i non becnh dipendenti).

pronostico, amd punta su nove istruzioni e con piledrive aumenterà sicuramente l'ipc e il clock.
all'uscita dei primi bench, non si vedrà il suo potenziale, poichè i bench sono vecchi.
per vederlo di vorrà la prossima generazione software, che come al solito esordirà prima nel mondo open source.

carlottoIIx6
07-03-2012, 23:35
Aggiungo pure, che io non ho mai visto di buon occhio l'HT ma, se devo scegliere tra due core "fiacchi" ed uno "robusto" che già mi garantisce > +60% a parità di clock ed in più l'HT a questo punto preferisco quest'ultimo, potendo considerare l'ht solo un accessorio...

preferire uno o l'altro dipende solo dal software e dall'ambito di utilizzo.
è chiaro che con il software odierno intel ha un vantaggio

digieffe
07-03-2012, 23:59
vvero...
scusa i miei limiti ma faccio fatica a comprendere quanto hai scritto.

carlottoIIx6
08-03-2012, 01:10
scusa i miei limiti ma faccio fatica a comprendere quanto hai scritto.

non vorrei complicare le cose

quando il processore girà, ogni cloc consuma un tot di energia.
se supporta le istruzioni fa meno cicli e consuma meno.
per esempio, la chace di BD, tanto utile nella virtualizzazione, nei nostri software non serve e serve poco, consuma senza dare vantaggi.

quindi se non c'è un legame intimo tra software e ahrdware si aumentano i consumi, anche con silici uguali.

ora intel ha un vantaggio di silicio 32 nm (penso momentaneo, anche se poi andra a 22) e un indubbio vantaggio con l'ht nei software attuali ne consegue efficenza superiore.
ora, indipendentemente dal silicio, se amd fa passare delle nuove istruzioni per piattaforme ibride, cpu e gpu insieme, avrà vantaggio anche in efficenza.
amd se lo notate sta andando in questa direzione, e forse ce ne accorgiano da come sono le 7870 (più forti in fp, che in virgola mobile della serie 6000). se intuite, questo è in virtu' di una "non interferenza" tra cpu e gpu.
non so se mi sono spiegato.
detto brutale, questo potrebbe dare un vantaggioa piledrive unito ad una 7870, che si manifestera una generazione software dopo.

Vinsss
08-03-2012, 01:23
@Pat77
premetto che non voglio creare un dibattito o andare OT però poichè e stato postato un link mi sono espresso nell'evidenziare qualche dettaglio e differenza di test tutto qui!

Credi veramente che differenze del genere possano giustificarsi con la modalità di test?

certo perche se no non ci sarebbero tali differenze anche a parita di gioco!

Semplicemente in ambiti non gpu limited, le differenze dei vari proci vengono fuori, con hd6970 probabilmente sarebbero ancora superiori.

potrebbero anche essere superiori con una 6970 nessuno lo mette in dubbio però magari non ci sarebbe una cosi netta differenza che c'è con un 5870 a parita di gioco.

ora io penso che BD,indipendentemente dai preggi e difetti,sia un'architettura un pò "futuristica" nel senso che tente piu a stare a passi con hardware e software piu avanti con i tempi e quindi mettere un hardware o software piu vecchio si rischierebbe di strozzare pesantemente le performance di esso.
Quindi giudicare al 100% BD adesso per me e una mossa un pò troppo affrettata poi magari mi sbaglierò alla grande e mi rimangerò tutto e pazienza!...una cosa che rimprovero ad amd e di aver buttato un procio sul mercato che è ancora prematuro per l'attuale momento(software,ottimizzazioni ecc..) e che quindi gli ha causato una cattiva pubblicità,poi ripeto magari mi sbaglio,ma sa anche il fatto suo visto che con questa nuova architettura ci deve campare ancora per un pò.

mtk
08-03-2012, 07:00
qui serve un traduttore.....ca--o non e' possibile comprendere il senso di alcuni post e non e' possibile vedere certi errori di ortografia...

rileggete i post prima di inviarli.

Wolfhang
08-03-2012, 07:30
magari qualcuno, piuttosto di vantare QI altisonanti, sarebbe meglio si studiasse un pò di grammatica...

mtk
08-03-2012, 07:51
magari qualcuno, piuttosto di vantare QI altisonanti, sarebbe meglio si studiasse un pò di grammatica...

:asd:

gianni1879
08-03-2012, 08:05
è vero che non mi è chiaro, ma non di certo a livello di come lo intendi tu.
non mi è chiaro come, quando la situazione diventa gpu limited, i processori si allineano così tanto, poichè una qualche informazione sulla potenza della cpu dovrebbe rimanere, e invece niente.
non so tu, ma quando mi è capitato più volte di misurarmi il QI supero ampiamente Eistein
te lo dico giusto perchè sembra che mi stai dando del cretino, quando le competenze tecniche e scientifiche che ho, ti superano ampiamente.
riguardo gli OT, non vedo perchè mi richiami, visto che non sono io ad aver parlato di ciò, e che si sta parlando ampiamente degli xenon, che mi sembra siano anche OT, rispetto un unico mio semplice commento.

Certo quà dentro abbiamo proprio utenti davvero modesti:

Prima dici che non ti è chiaro, poi continui esponendo il tuo QI che è a livelli del noto scienziato. Davvero le cose si contraddicono parecchio ed ogni tuo post traspare una pure parvenza di utente che gira attorno al concetto di fanboy puro, non accettando nella maniera più categorica i suggerimenti/correzioni da parte di altri utenti.

Hai parlato di risoluzione normale, poi mi spieghi cosa intendi visto che il concetto di normalità è relativo. Ci sono test in gaming ad ampio spettro in quella recensione, che partono dalla risoluzione basilare 1024x768 con dettagli low a risoluzione 1920x1080 con dettagli high, e le differenze si possono sempre evidenziare, più o meno in maniera accentuata.

Continuo a dire che non ti sono affatto chiari questi concetti, mi dispiace sinceramente che richiami una persona con ben altre attitudini alle tue, poichè nessuno ti aveva offeso, ma evidentemente pur di avvalorare le proprie tesi ci si aggrappa a tante cose.

Ad ogni modo visto il tuo continuo comportamento in questo forum, sei sospeso per 5gg dal forum. Al tuo ritorno se dovesse ripetersi una condizione "anormale" per questo forum sarai allontanato definitivamente.
A te la scelta.


p.s.
sicuramente le tue competenze tecniche e scientifiche vanno al di là dell'umana conoscenza.

WarSide
08-03-2012, 08:11
Forse non interesserà a nessuno qui, dato che il 99% di chi legge è utente SOHO, ma posso assicurarvi che in ambito virtualizzazione gli opteron nuovi fanno veramente piangere.

Ho avuto a che fare per una settimana con una vm (hypervisor KVM) con 2 vcpu e posso dirvi che le prestazioni sono veramente scandalose, la differenza si vede ed è notevole anche rispetto ai precedenti opteron. :doh:

Il tutto con ambiente fortemente MT (server LAMP), dove, per farsi un'idea, c'erano anche un centinaio di processi attivi.

Azzarderei a dire che 2 core opteron ultima generazione sono paragonabili ad un mezzo core xeon :doh: :doh:

Sto cercando informazioni sui ng., per capire se c'è qualche problema nell'hypervisor, ma direi che l'unico problema qui sono queste dannate cpu :( :(

digieffe
08-03-2012, 08:26
Forse non interesserà a nessuno qui, dato che il 99% di chi legge è utente SOHO, ma posso assicurarvi che in ambito virtualizzazione gli opteron nuovi fanno veramente piangere.

Ho avuto a che fare per una settimana con una vm (hypervisor KVM) con 2 vcpu e posso dirvi che le prestazioni sono veramente scandalose, la differenza si vede ed è notevole anche rispetto ai precedenti opteron. :doh:

Il tutto con ambiente fortemente MT (server LAMP), dove, per farsi un'idea, c'erano anche un centinaio di processi attivi.

Azzarderei a dire che 2 core opteron ultima generazione sono paragonabili ad un mezzo core xeon :doh: :doh:

Sto cercando informazioni sui ng., per capire se c'è qualche problema nell'hypervisor, ma direi che l'unico problema qui sono queste dannate cpu :( :(

A me interessa non so se hai visto l'articolo di anand sulla virtualizzazione...

anche 2 core paragonabili ad 1, in alcuni ambiti più o meno siamo li...

WarSide
08-03-2012, 08:28
A me interessa non so se hai visto l'articolo di anand sulla virtualizzazione...

mmm, adesso lo cerco, spe :stordita:

WarSide
08-03-2012, 08:34
Io ho un cluster vsphere 4.1 con Magny-Cours e va benissimo, ed in effetti la recensione di AT sull'argomento è molto chiara sul fatto che non avrebbe senso cambiare le CPU (cosa cui avevo pensato in prospettiva quando feci in origine l'acquisto, quando ancora bd era un mucchio di slides).

Non ti azzardare a cambiarli, non ne vale la pena; non sono riuscito a replicare neanche lontanamente i benchmark fatti in precedenza sulla serie precedente :muro:

EDIT: Ho visto la comparative di anand, confermo in tutto e per tutto i numeri usciti fuori, anzi, nel mio caso, direi che quei numeri sono anche troppo buoni. Non posso dirvi molto, ma tenete conto che un treno di blade sono stati rispediti al mittente...

AceGranger
08-03-2012, 08:41
questa storia del software che non sfrutta la CPU inizia a diventare stucchevole; oltre all'ST basso i test server dimostrano chiaramente che arranca a 360° con tutti i software MT, sia che si parli di Win, sia che si parli di Linux; la patch di win non ha mostrato miglioramenti tangibili e possiamo scommettere quello che volete che nemmeno win 8 portera vantaggi a senso unico.

segue a ruota l'altra storiella sulle istruzioni, visto che alternativamente o in contemporanea vengono adotatte sia da Intel che da AMD.

è inutile prendersi in giro e continaure a giustificare in tutti i modi la toppata hardware con la scusa del software o che si sta preparando per il futuro :rolleyes: ; i cambi dirigenziali e le balle dette prima del lancio parlano da soli; qui è l'architetutra che non va, si aspettavano una cosa e se la sono ritrovata sottotono, e i miglioramenti potranno arrivare solo lato hardware, che speriamo arrivino tangibili con Steamlroller, visto che hanno ancora un anno.

Uncle Scrooge
08-03-2012, 08:53
Ragazzi secondo me la situazione piano piano sta migliorando.

I prezzi dei BD stanno calando di brutto, e le nuove versioni "pompate" non sono niente male (4170 e 6200).
Se fino a poco fa conveniva di più prendere un PhenomII 1100T rispetto a un BD, oggi come oggi conviene di più un FX-6200 che va mediamente uguale e costa 30 euro meno.
L'8120 sta sui 150 euro e penso sia un best-buy (mentre l'8150 resta troppo caro, chissà perché).

Se i benchmark AMD su trinity VS llano (vedi post del capitano nel thread su trinity) sono veritieri, significa molto probabilmente che piledriver ha recuperato e superato l'IPC perso da BD sul K10, quindi io ho fiducia :)

Athlon 64 3000+
08-03-2012, 08:57
questa storia del software che non sfrutta la CPU inizia a diventare stucchevole; oltre all'ST basso i test server dimostrano chiaramente che arranca a 360° con tutti i software MT, sia che si parli di Win, sia che si parli di Linux; la patch di win non ha mostrato miglioramenti tangibili e possiamo scommettere quello che volete che nemmeno win 8 portera vantaggi a senso unico.

segue a ruota l'altra storiella sulle istruzioni, visto che alternativamente o in contemporanea vengono adotatte sia da Intel che da AMD.

è inutile prendersi in giro e continaure a giustificare in tutti i modi la toppata hardware con la scusa del software o che si sta preparando per il futuro :rolleyes: ; i cambi dirigenziali e le balle dette prima del lancio parlano da soli; qui è l'architetutra che non va, si aspettavano una cosa e se la sono ritrovata sottotono, e i miglioramenti potranno arrivare solo lato hardware, che speriamo arrivino tangibili con Steamlroller, visto che hanno ancora un anno.

Quoto.
Su Anandtech hanno detto che l'architettura Piledriver porterà rispetto a Orochi un aumento dell'IPC del 10% o più e che renderà più competitivi le nuove versioni di Opteron rispetto al disastro dei 42xx e 62xx.

digieffe
08-03-2012, 09:07
Mi chiedo se nel settore mainstream possa fare un po' di utili da reinvestire nei segmenti più alti...

The3DProgrammer
08-03-2012, 09:14
chiedo a gianni: si puo' parlare (solo per quanto riguarda il pcmark ovviamente) dei bench pubblicati da AMD riguardanti trinity in ottica piledriver? Perche' mi sembrano risultati molto interessanti...

capitan_crasy
08-03-2012, 09:30
chiedo a gianni: si puo' parlare (solo per quanto riguarda il pcmark ovviamente) dei bench pubblicati da AMD riguardanti trinity in ottica piledriver? Perche' mi sembrano risultati molto interessanti...

Un confronto si potrebbe fare ma in questo caso meglio di no.
Perchè si parla di APU contro APU con architetture diverse, i 4 core Vishera saranno con ogni probabilità degli 8 core con due moduli spenti e con in più una cache L3 che sballa tutto il resto, mentre i 4 core Trinity saranno 4 core nativi senza L3.
Si parla quasi sicuramente di confronti a parità di TDP, (a meno che AMD voglia paragonare APU con lo stesso prezzo) dato che il consumo delle due APU è estremamente contenuto mentre quelle delle attuali produzioni FX desktop il minimo che puoi trovare è 95W...
Infine mancano le frequenze, ovvero il 50% nel metro di paragone...

gianni1879
08-03-2012, 09:48
Un confronto si potrebbe fare ma in questo caso meglio di no.
Perchè si parla di APU contro APU con architetture diverse, i 4 core Vishera saranno con ogni probabilità degli 8 core con due moduli spenti e con in più una cache L3 che sballa tutto il resto, mentre i 4 core Trinity saranno 4 core nativi senza L3.
Si parla quasi sicuramente di confronti a parità di TDP, (a meno che AMD voglia paragonare APU con lo stesso prezzo) dato che il consumo delle due APU è estremamente contenuto mentre quelle delle attuali produzioni FX desktop il minimo che puoi trovare è 95W...
Infine mancano le frequenze, ovvero il 50% nel metro di paragone...

*

FroZen
08-03-2012, 10:19
Se Trinity (piledriver senza L3) va così bene come dicono, Vishera (piledriver + L3) non potrà che andare ancora meglio..........se a def poi hanno sistemato i consumi diciamo che si sono rimessi sul binario.....vedremo....

Pat77
08-03-2012, 10:29
@Pat77
premetto che non voglio creare un dibattito o andare OT però poichè e stato postato un link mi sono espresso nell'evidenziare qualche dettaglio e differenza di test tutto qui!



certo perche se no non ci sarebbero tali differenze anche a parita di gioco!



potrebbero anche essere superiori con una 6970 nessuno lo mette in dubbio però magari non ci sarebbe una cosi netta differenza che c'è con un 5870 a parita di gioco.

ora io penso che BD,indipendentemente dai preggi e difetti,sia un'architettura un pò "futuristica" nel senso che tente piu a stare a passi con hardware e software piu avanti con i tempi e quindi mettere un hardware o software piu vecchio si rischierebbe di strozzare pesantemente le performance di esso.
Quindi giudicare al 100% BD adesso per me e una mossa un pò troppo affrettata poi magari mi sbaglierò alla grande e mi rimangerò tutto e pazienza!...una cosa che rimprovero ad amd e di aver buttato un procio sul mercato che è ancora prematuro per l'attuale momento(software,ottimizzazioni ecc..) e che quindi gli ha causato una cattiva pubblicità,poi ripeto magari mi sbaglio,ma sa anche il fatto suo visto che con questa nuova architettura ci deve campare ancora per un pò.

Il problema non è la differente architettura "futuristica" il problema è che si fanno i conti con cosa concretamente si utilizza oggi, perchè domani quando potrebbe rendere meglio, ci sarà già qualcos'altro.
I test di hwupgrade tutti gpu limited sono un modo per nascondere le reali differenze, perchè è vero che in certi ambiti (sempre GPU limited) vanno tutti uguali, ma quando si prendono giochi cpu dependent (come i titoli Blizzard) la differenza diventa imbarazzante.

Pat77
08-03-2012, 10:31
Quoto.
Su Anandtech hanno detto che l'architettura Piledriver porterà rispetto a Orochi un aumento dell'IPC del 10% o più e che renderà più competitivi le nuove versioni di Opteron rispetto al disastro dei 42xx e 62xx.

Ottimo, questa è la strada giusta 10% o più.

°Phenom°
08-03-2012, 11:16
Beh, speriamo che almeno piledriver raggiunga l'ipc dei Phenom, ma con consumi minori e che riesca a raggiungere frequenze più alte, così non sarebbe malaccia come cpu..

Vinsss
08-03-2012, 13:18
Il problema non è la differente architettura "futuristica" il problema è che si fanno i conti con cosa concretamente si utilizza oggi, perchè domani quando potrebbe rendere meglio, ci sarà già qualcos'altro.
I test di hwupgrade tutti gpu limited sono un modo per nascondere le reali differenze, perchè è vero che in certi ambiti (sempre GPU limited) vanno tutti uguali, ma quando si prendono giochi cpu dependent (come i titoli Blizzard) la differenza diventa imbarazzante.

stando a questo test:
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/11

c'è una piccola dimostrazione della mia tesi e cioè che finchè si fa uso di DX10(che inizia ad essere un pò vecchiotta)si vede la differenza tra un intel e un amd in cui intel sovrasta e fx-8150 viene anche battuto dal suo predecessore(piu ottimizato per la DX10)..mentre in DX11 (tra poco ci sarà solo quella) che include anche il tassellamento le cose migliorano per FX,che ok non sarà il migliore ma gli tiene piu testa e piu aumenta la risoluzione piu sono alla pari se vai anche alla pagina precedente vedrai anche la differenza tra far cry 2 e crysis 2 in cui il primo fa solo uso della DX10 e c'è una netta sovranità da parte di intel mentre in crysis 2 che fa uso di DX11(non del tutto ottimale secondo me) sono più competitive.
Con questo concludo e magari ci risentiamo tra qualche mese quando faranno giochi o software piu ottimizzati per il nuovi proci sia da parte di amd che di intel

Sayan V
08-03-2012, 13:40
stando a questo test:
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/11

c'è una piccola dimostrazione della mia tesi e cioè che finchè si fa uso di DX10(che inizia ad essere un pò vecchiotta)si vede la differenza tra un intel e un amd in cui intel sovrasta e fx-8150 viene anche battuto dal suo predecessore(piu ottimizato per la DX10)..mentre in DX11 (tra poco ci sarà solo quella) che include anche il tassellamento le cose migliorano per FX,che ok non sarà il migliore ma gli tiene piu testa e piu aumenta la risoluzione piu sono alla pari se vai anche alla pagina precedente vedrai anche la differenza tra far cry 2 e crysis 2 in cui il primo fa solo uso della DX10 e c'è una netta sovranità da parte di intel mentre in crysis 2 che fa uso di DX11(non del tutto ottimale secondo me) sono più competitive.
Con questo concludo e magari ci risentiamo tra qualche mese quando faranno giochi o software piu ottimizzati per il nuovi proci sia da parte di amd che di intel

Molto bene ;)

AceGranger
08-03-2012, 13:54
stando a questo test:
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/11

c'è una piccola dimostrazione della mia tesi e cioè che finchè si fa uso di DX10(che inizia ad essere un pò vecchiotta)si vede la differenza tra un intel e un amd in cui intel sovrasta e fx-8150 viene anche battuto dal suo predecessore(piu ottimizato per la DX10)..mentre in DX11 (tra poco ci sarà solo quella) che include anche il tassellamento le cose migliorano per FX,che ok non sarà il migliore ma gli tiene piu testa e piu aumenta la risoluzione piu sono alla pari se vai anche alla pagina precedente vedrai anche la differenza tra far cry 2 e crysis 2 in cui il primo fa solo uso della DX10 e c'è una netta sovranità da parte di intel mentre in crysis 2 che fa uso di DX11(non del tutto ottimale secondo me) sono più competitive.
Con questo concludo e magari ci risentiamo tra qualche mese quando faranno giochi o software piu ottimizzati per il nuovi proci sia da parte di amd che di intel

bè ma non credo che centri il fatto che siano DX 10 o 11, ma che sia GPU limited o meno; le dx 11 tendono a stressare piu le VGA e quindi a mandarla al limite e farle diventare il collo, ma in quegli stessi test aumentando la potenza della VGA dovrebbe tornare il divario dx 10, motivo per cui in multi GPU il divario aumenta dove il collo torna la cpu.

Phenomenale
08-03-2012, 14:01
finchè si fa uso di DX10(che inizia ad essere un pò vecchiotta)si vede la differenza tra un intel e un amd in cui intel sovrasta e fx-8150 viene anche battuto dal suo predecessore(piu ottimizato per la DX10)..mentre in DX11 (tra poco ci sarà solo quella) che include anche il tassellamento le cose migliorano per FX
Purtroppo le tue osservazioni traggono in inganno.
Non è che con i nuovi giochi DX11 il bulldozer sia più veloce, invero è la scheda video che lavora più lentamente. :fagiano:
Quindi il sistema è GPU-limited, tutte le CPU sembrano avere le stesse prestazioni ma in realtà è la scheda video che impone un limite minimo di framerate, quindi "nascondendo" le differenze fra le diverse CPU.

Pat77
08-03-2012, 14:02
stando a questo test:
http://www.guru3d.com/article/amd-fx-8150--8120-6100-and-4100-performance-review/11

c'è una piccola dimostrazione della mia tesi e cioè che finchè si fa uso di DX10(che inizia ad essere un pò vecchiotta)si vede la differenza tra un intel e un amd in cui intel sovrasta e fx-8150 viene anche battuto dal suo predecessore(piu ottimizato per la DX10)..mentre in DX11 (tra poco ci sarà solo quella) che include anche il tassellamento le cose migliorano per FX,che ok non sarà il migliore ma gli tiene piu testa e piu aumenta la risoluzione piu sono alla pari se vai anche alla pagina precedente vedrai anche la differenza tra far cry 2 e crysis 2 in cui il primo fa solo uso della DX10 e c'è una netta sovranità da parte di intel mentre in crysis 2 che fa uso di DX11(non del tutto ottimale secondo me) sono più competitive.
Con questo concludo e magari ci risentiamo tra qualche mese quando faranno giochi o software piu ottimizzati per il nuovi proci sia da parte di amd che di intel

La questione è semplice, Crysis 2 è più oneroso sulla VGA e quindi limita il distacco.
Prendiamo un test sulle configurazioni dual/tri, che chiarifica bene il tutto:

http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/1

Arma 2 è molto cpu dependent, quando si passa da 2 a 3 schede non si guadagna nulla, segno che siamo in situazione CPU limited, e come vedi la differenza è abbastanza marcata.
In civilization 5, con 2 schede tutto al max 2560 4x si è leggermente gpu limited per il 2500k, cpu limited per l' 8150, passando a 3 schede si vede come il frame rate salga poco da una parte e molto dall'altra.
Ma è in Dirt 3, che è un titolo dx11 che si vede bene quello che dico, con 2 schede vanno =, con 3 iniziano a vedersi le differenze.

B|4KWH|T3
08-03-2012, 14:02
Un confronto si potrebbe fare ma in questo caso meglio di no.
Perchè si parla di APU contro APU con architetture diverse, i 4 core Vishera saranno con ogni probabilità degli 8 core con due moduli spenti e con in più una cache L3 che sballa tutto il resto, mentre i 4 core Trinity saranno 4 core nativi senza L3.
Si parla quasi sicuramente di confronti a parità di TDP, (a meno che AMD voglia paragonare APU con lo stesso prezzo) dato che il consumo delle due APU è estremamente contenuto mentre quelle delle attuali produzioni FX desktop il minimo che puoi trovare è 95W...
Infine mancano le frequenze, ovvero il 50% nel metro di paragone...

Finora per Trinity si era sempre parlato in termini di 1-2 moduli, quindi la differenza sarebbe solo la cache L3. Lo scrivi anche tu nel topic ufficiale di Trinity.

Quella dei "core nativi" sarebbe una novita` e sarebbe molto strano, dato che significherebbe rifare l'architettura.

Theodorakis
08-03-2012, 14:24
AMD smette completamente la produzione SOI a 28nm. :cool:

niubbo69
08-03-2012, 14:38
AMD smette completamente la produzione SOI a 28nm. :cool:

Fonte?

Theodorakis
08-03-2012, 14:47
Fonte?

In ita (http://www.bitsandchips.it/9-hardware/643-amd-abbandona-la-tecnologia-soi).

Originale (http://www.electronicsweekly.com/Articles/08/03/2012/53158/amddumps-soi.htm).

capitan_crasy
08-03-2012, 15:13
AMD smette completamente la produzione SOI a 28nm. :cool:

Ce un errore, AMD non ha ancora cominciato con i 28nm e non esiste tale processo con la tecnologia SOI...
Comunque sia era nell'aria, mancava solo la conferma ufficiale...

Korn
08-03-2012, 15:13
per la precisione riunciano al soi e non al 28nm :O

capitan_crasy
08-03-2012, 15:20
Per Theodorakis:
Grazie per la segnalazione...

Thomas Seifert (CFO AMD) conferma l'abbandono alla tecnologia SOI per le future CPU e APU costruite a 28nm:

“On 28nm, all of our products will be bulk.
There are always trade-off decisions. But the flexibility that we gain moving in that direction... the flexibility across foundry partners, across design tools out-weigh that by far, the benefits of SOI."

Si chiude così un epoca iniziata con i primi K8 costruiti a 130nm SOI!

Clicca qui... (http://www.electronicsweekly.com/Articles/08/03/2012/53158/amddumps-soi.htm)

The3DProgrammer
08-03-2012, 15:26
Per Theodorakis:
Grazie per la segnalazione...

Thomas Seifert (CFO AMD) conferma l'abbandono alla tecnologia SOI per le future CPU e APU costruite a 28nm:

“On 28nm, all of our products will be bulk.
There are always trade-off decisions. But the flexibility that we gain moving in that direction... the flexibility across foundry partners, across design tools out-weigh that by far, the benefits of SOI."

Si chiude così un epoca iniziata con i primi K8 costruiti a 130nm SOI!

Clicca qui... (http://www.electronicsweekly.com/Articles/08/03/2012/53158/amddumps-soi.htm)

quello che non mi e' chiaro e', varra' solo per le apu o anche per le cpu desktop/server?

capitan_crasy
08-03-2012, 15:34
quello che non mi e' chiaro e', varra' solo per le apu o anche per le cpu desktop/server?

Tutta la produzione futura a 28nm, che siano APU o CPU...

aldooo
08-03-2012, 16:02
Tutta la produzione futura a 28nm, che siano APU o CPU...

Io ancora vorrei capire bene vantaggi e svantaggi...
BJT2, quali sono i vantaggi di eliminare il SOI? E gli svantaggi?

Uncle Scrooge
08-03-2012, 16:32
I vantaggi sono prestazioni migliori perché essendoci un substrato di materiale isolante in mezzo al silicio si riducono le capacità parassite.

Il tutto ovviamente a costi più alti e rese più basse. Si vede che dal 32 nm in giù stava diventando antieconomico.

B|4KWH|T3
08-03-2012, 19:40
Io ancora vorrei capire bene vantaggi e svantaggi...
BJT2, quali sono i vantaggi di eliminare il SOI? E gli svantaggi?

Qui (http://www.anandtech.com/show/5503/understanding-amds-roadmap-new-direction)fa un'analisi del perché della transizione di AMD e dice anche che la produzione sarà tutta spostata sul bulk (per chi l'aveva chiesto).

tecno789
08-03-2012, 19:59
Tutta la produzione futura a 28nm, che siano APU o CPU...

non ho capito una cosa... saltano il 28 nm? oppure saltano dai 28 nm in poi..?

Mister D
08-03-2012, 20:52
Costo del wafer minore (ma soprattutto piu' fonderie cui rivolgersi) e maggiore leakage.

Cmq e' un passo che portera' poi di nuovo verso SOI, FD-SOI invece che PD

Brutta notizia perché allora devono assolutamente rivedere il FO4. Rischiano di trovarsi una cpu che architetturalmente può salire molto in frequenza, ma non ci và per l'aumentato leakage, che se non ricordo male, aumenta esponenzialmente con la frequenza.
Il vantaggio del SOI era proprio avere un leakage 20 volte inferiore rispetto al bulk (sempre che non ricordo male) e, a mio modo di vedere, BD con una FO4 più basso è nato proprio per sfruttare questa caratteristica intrinseca del SOI (che poi non ci sia riuscita è un altro discorso).
Ora dovrebbero tornare indietro come FO4 recuperando l'IPC in modo da non essere costretti ad aumentare la frequenza e poi, quando si passerà, se si passerà, al FD-SOI o al ETSOI sui 14 nm come annunciato, che faranno? Torneranno nuovamente indietro? Onestamente incomincio a pensare che navighino veramente a vista che GF stia facendo di tutto per metterle i bastoni nelle cpu. Scusate lo sfogo ma mi sembra che AMD sia l'azienda di Paperino. Una dietro l'altra gli capita:D Intel è quella di Gastone e zio Paperone! Un mix esplosivo:sofico:

capitan_crasy
08-03-2012, 21:20
non ho capito una cosa... saltano il 28 nm? oppure saltano dai 28 nm in poi..?

gli ultimi SOI saranno gli attuali 32nm...

tecno789
08-03-2012, 21:30
gli ultimi SOI saranno gli attuali 32nm...

quindi è un ritiro ufficiale? :cry:

paolo.oliva2
08-03-2012, 23:53
questa storia del software che non sfrutta la CPU inizia a diventare stucchevole; oltre all'ST basso i test server dimostrano chiaramente che arranca a 360° con tutti i software MT, sia che si parli di Win, sia che si parli di Linux; la patch di win non ha mostrato miglioramenti tangibili e possiamo scommettere quello che volete che nemmeno win 8 portera vantaggi a senso unico.
segue a ruota l'altra storiella sulle istruzioni, visto che alternativamente o in contemporanea vengono adotatte sia da Intel che da AMD.
Più o meno si puo' essere d'accordo, non magari a 360°

è inutile prendersi in giro e continaure a giustificare in tutti i modi la toppata hardware con la scusa del software o che si sta preparando per il futuro :rolleyes: ; i cambi dirigenziali e le balle dette prima del lancio parlano da soli;
E ridaie sempre con la solita menata... anzichè dire flop ora si usa toppata.
Praticamente tutti concordano che se un 8150 fosse uscito già a 4,2GHz def anzichè 3,6GHz, sarebbe stata un'altra storia, chiaramente questo non varrebbe per l'onnipresente SPI, ma penso che nessuno si sarebbe lamentato nè nei giochi nè per consumo/prestazioni (22nm Intel a parte, ma finchè non sappiamo il listino, non vorrei che sia meglio una bolletta più cara di 30€ l'anno).
Sei sempre a dire e ridire le stesse cose, ma con la conclusione che è l'architettura ad andare male... non sarebbe più "intelligente" aspettare di sapere IPC e clock di Vishera prima di sputare sentenze a 360°?

qui è l'architetutra che non va, si aspettavano una cosa e se la sono ritrovata sottotono
Gli emulatori esistono da decenni per simulare le prestazioni di un'architettura, e son parecchio precisi. Mi pare MOLTO più plausibile che se si aspettavano una cosa e l'hanno avuta sottotono, di certo non è l'architettura.

e i miglioramenti potranno arrivare solo lato hardware, che speriamo arrivino tangibili con Steamlroller, visto che hanno ancora un anno.
Hai saltato a piè pari Vishera? Nessun aumento di IPC? Nessun aumento di frequenze? Anche questo l'ha detto AMD?
Magari sono malizioso, ma darei per certo che se AMD riuscisse nell'impossibile dell'impossibile ad aumentare del 41% la potenza di BD scavalcando l'SBe X6 EE, sono convinto che la tua risposta sarebbe "ma Intel con il 22nm..., avrei voluto tanto comprare un AMD..."

capitan_crasy
09-03-2012, 00:31
quindi è un ritiro ufficiale? :cry:

SI...

paolo.oliva2
09-03-2012, 00:39
Costo del wafer minore (ma soprattutto piu' fonderie cui rivolgersi) e maggiore leakage.

Cmq e' un passo che portera' poi di nuovo verso SOI, FD-SOI invece che PD

Differenze tra SOI e FD-SOI? A grandi linee...

Comunque, nella sfiga, AMD ha avuto fortuna... vi immaginate se AMD non avesse venduto le sue fonderie a GF e quindi avesse sostenuto per intero le spese dello sviluppo 32nm e con le casse vuote, forse con risultati ancor più deludenti?

Dico una cavolata, ma quel sub-strato, non potrebbe essere la causa per intero del problema frequenza? Cioè, OK leakage inferiore che dovrebbe invece favorire le frequenze, ma non potrebbe essere di ostacolo oltre ad una certa frequenza? In fin dei conti... per indurre AMD/GF ad uno stop totale, e non so se IBM produce a 32nm SOI, vuol dire che sarebbero arrivati davanti ad un muro.

Del resto... basta fare 2 + 2. BD ha bisogno di frequenza, il Bulk per quanto sappiamo, come potenzialità sarebbe inferiore al SOI, allora o AMD fa karakiri, oppure ha più certezze nel bulk di quanto ne possa dare il SOI.

Ren
09-03-2012, 01:20
Differenze tra SOI e FD-SOI? A grandi linee...

Riduce ulteriormente il leakage, ma aumenta le difficoltà di produzione.

aldooo
09-03-2012, 06:15
Cmq e' un passo che portera' poi di nuovo verso SOI, FD-SOI invece che PD

Fonte?

paolo.oliva2
09-03-2012, 07:29
Riduce ulteriormente il leakage, ma aumenta le difficoltà di produzione.

Ma.... detta cosi', non dovrebbe migliorare...

Cioè, il 45nm SOI liscio aveva un leakage di 20 volte inferiore al 45nm bulk, quindi facendo un parallelismo di miniaturizzazione, il 32nm con l'aggiunta dell'HKMG, dovrebbe avere un margine ancora superiore.

Nel mio piccolo ho cercato di capire il comportamento di sto silicio 32nm GF, ma ci sono parecchie cose che seondo me sono contrarie alla logica e discordanti.
Concordo che sono confronti tra architetture simili/diverse, ma comunque partendo dal concetto che i cambi di architettura si fanno per ottenere più potenza a parità di consumi, una linea immaginaria migliore ci dovrebbe comunque essere.
Un Llano consuma meno a parità di potenza rispetto ad un K10 a 45nm pero' fino ad un range non superiore a 65W TDP.
In idle un 8150 consuma si meno rispetto ad un Thuban, ma non quanto dovrebbe sulla carta, contando che BD, contrariamente al Thuban, puo' spegnere i moduli non attivi e imposta Vcore differenti tra modulo e modulo.
In OC, siccome il mio sistema di dissipazione è sempre lo stesso, a parità di temp facendo il parallelismo temperature/consumi (tipo mele e pere), non vedo differenze tra un 1090T@4,5GHz e 8150@5GHz, mentre dovrebbe essere a favore del 32nm.
Cioè... un confronto in sto modo... se fosse prb di leakage, il 32nm dovrebbe consumare molto di meno del 45nm in idle, contando pure le migliore sul consumo delle architetture Llano e BD.
Boh... a me sembra che il 32nm abbia 2 distinti prb, quello di funzionamento in idle (io sparo, una tensione relativamente alta rispetto al dovuto per conservare la reattività all'eccitazione dei transistor, che ho sempre avuto valutando che un Thuban ha un range di -0,03V tra l'RS e il reset, mentre l'8150 puo' arrivare anche a -0,1V conservando la possibilità di funzionamento a scapito delle prestazioni.
Se volessimo fantasticare, certamente un comportamento di sto tipo giustificherebbe la scelta AMD/GF di addio al SOI, perchè qualsiasi soluzione avebbe lati negativi.

The3DProgrammer
09-03-2012, 08:13
Ma.... detta cosi', non dovrebbe migliorare...

Cioè, il 45nm SOI liscio aveva un leakage di 20 volte inferiore al 45nm bulk, quindi facendo un parallelismo di miniaturizzazione, il 32nm con l'aggiunta dell'HKMG, dovrebbe avere un margine ancora superiore.

Nel mio piccolo ho cercato di capire il comportamento di sto silicio 32nm GF, ma ci sono parecchie cose che seondo me sono contrarie alla logica e discordanti.
Concordo che sono confronti tra architetture simili/diverse, ma comunque partendo dal concetto che i cambi di architettura si fanno per ottenere più potenza a parità di consumi, una linea immaginaria migliore ci dovrebbe comunque essere.
Un Llano consuma meno a parità di potenza rispetto ad un K10 a 45nm pero' fino ad un range non superiore a 65W TDP.
In idle un 8150 consuma si meno rispetto ad un Thuban, ma non quanto dovrebbe sulla carta, contando che BD, contrariamente al Thuban, puo' spegnere i moduli non attivi e imposta Vcore differenti tra modulo e modulo.
In OC, siccome il mio sistema di dissipazione è sempre lo stesso, a parità di temp facendo il parallelismo temperature/consumi (tipo mele e pere), non vedo differenze tra un 1090T@4,5GHz e 8150@5GHz, mentre dovrebbe essere a favore del 32nm.
Cioè... un confronto in sto modo... se fosse prb di leakage, il 32nm dovrebbe consumare molto di meno del 45nm in idle, contando pure le migliore sul consumo delle architetture Llano e BD.
Boh... a me sembra che il 32nm abbia 2 distinti prb, quello di funzionamento in idle (io sparo, una tensione relativamente alta rispetto al dovuto per conservare la reattività all'eccitazione dei transistor, che ho sempre avuto valutando che un Thuban ha un range di -0,03V tra l'RS e il reset, mentre l'8150 puo' arrivare anche a -0,1V conservando la possibilità di funzionamento a scapito delle prestazioni.
Se volessimo fantasticare, certamente un comportamento di sto tipo giustificherebbe la scelta AMD/GF di addio al SOI, perchè qualsiasi soluzione avebbe lati negativi.

ma guarda paolo, a parte tutte le possibili speculazioni sul perche'/come, mi pare che il motivo principale del cambiamento emerga chiaramente dalla news: passare al 28nm bulk implica l'utilizzo di tool diciamo quasi "standard" per favorire la "portabilita'" da una fonderia all'altra, col vantaggio di non doversi legare indissolubilmente a GF. Mi pare chiaro che AMD non voglia +trovarsi nella situazione vissuta quest'anno, cioe' avere dei prodotti competitivi come llano impossibili da vendere perche' la produzione non regge. Tutto il resto evidentemente va in secondo piano.

aldooo
09-03-2012, 08:26
E' una cosa di cui si parla da un bel po', non mi ricordo una fonte così su due piedi, mi pare abbia postato qualcosa sull'argomento capitan_crasy qualche giorno fa riguardo a nodi futuri.

Capitan crasy, confermi che AMD abbia dichiarato che passerà a FD-SOI in futuro?
Se si', fonte?

Pat77
09-03-2012, 09:07
Praticamente tutti concordano che se un 8150 fosse uscito già a 4,2GHz def anzichè 3,6GHz, sarebbe stata un'altra storia

Ma dove sono questi "tutti"? Per me non sarebbe cambiato nulla, se fosse uscito con un ipc del 20-25% meglio, come era in previsione dai proclami (ipc superiore 15% Phenom 2) sarebbe stata un'altra storia, avrebbe solo i consumi come nota negativa.
Prima del lancio parlavano di 11 punti in cinebench, fa la metà, come fanno 600 Mhz a cambiare tutto?

AceGranger
09-03-2012, 09:33
Sei sempre a dire e ridire le stesse cose, ma con la conclusione che è l'architettura ad andare male...


gia, e sono sempre in risposta a post fantasiosi con "uscite" senza fondamento, senza basi, e contro ogni test sulla faccia della terra, pero non ti vedo mai intervenire su quei post....
è un thread tecnico che si basa su dati reali e previsioni quantomeno realistiche o la raccolta delle visioni del Divino Otelma ?

tu eri uno di quelli che dava 10-11 al cinebench senza avere nulla in mano, e cit. "gli 8X Intel verrano asfaltati"... almeno non venirmi a fare la paternale su quello che posto, che fino ad ora ho scritto solo e soltanto post basati su test reali....

non sarebbe più "intelligente" aspettare di sapere IPC e clock di Vishera prima di sputare sentenze a 360°?

le "sentenze" le baso sui test e le faccio sull'attuale architettura; il post ha come soggetto BD :rolleyes:

Gli emulatori esistono da decenni per simulare le prestazioni di un'architettura, e son parecchio precisi. Mi pare MOLTO più plausibile che se si aspettavano una cosa e l'hanno avuta sottotono, di certo non è l'architettura.


anche a 4.2 non sarebbe stato quel mirabolante mostro paventato per mesi; AMD e il JF che quotavi ogni 2 per 3, davano IPC superiore al K10; evidentemente non è solo il silicio il problema, anche perchè nelll'MT e nel famoso carico server non si è dimostrata cosi buona come continuavi a scrivere anche in questi mesi.


Hai saltato a piè pari Vishera? Nessun aumento di IPC? Nessun aumento di frequenze? Anche questo l'ha detto AMD?


ha anche epurato un modulo, e con guadagno tangibile intendevo un recupero su Intel;

IMHO

Vishera si scontrera con IB

Vishera
10% IPC
+ frequenze
recupero TDP con il nuovo circuito ( se non ho capito male )

IB ( come architettura in generale )
10% IPC
+ frequenze
22 nm = molto meno TDP
2 core in piu

come prestazioni recuperera qualcosa sulla piattaforma IB, giusto perchè intel ha puntato tutto sui consumi tagliando quasi 20 Watt di TDP e probabilmente perdera ancora qualcosa in campo server visto che Intel aggiungera 2 core. Guardando il bicchiere mezzo pieno mi sembra uno stallo, se poi in questi mesi migliorera ancora di piu, tutto di guadagnato, pagheremo di meno le CPU


Magari sono malizioso, ma darei per certo che se AMD riuscisse nell'impossibile dell'impossibile ad aumentare del 41% la potenza di BD scavalcando l'SBe X6 EE

quando AMD tornera ad offrirmi un prodotto valido tornero ad aquistarla;

sono convinto che la tua risposta sarebbe "ma Intel con il 22nm..., avrei voluto tanto comprare un AMD..."

e perchè mai ? in un anno con AMD avrei perso solo soldi e tempo; compro circa 3 PC all'anno, se Vishera fara il tuo miracolo comprero Vishera, seno IB ed IB-E;

°Phenom°
09-03-2012, 09:39
Quoto, le cose vanno ammesse oggettivamente, dopo vari test che ho fatto e bench che ho visto, a parità di core nel 90% circa delle applicazioni ad un bd serve minimo e dico minimo :doh: 1GHz in più per andare quanto un Phenom, poi inutile dire che il bd si occa di più ecc, basta che porti un Phenom ii a 4GHz, ed un bd con gli stessi core per avere le stesse prestazioni devi portarlo oltre i 5GHz, il che in daily non è che sia semplice, senza parlare dei consumi e del calore... Poi se lo paragoniamo ad un i5 2500k o superiori non c'è più storia..
Per non dire che ci sono stati molti utenti di svariati forum che dopo aver acquistato bd, hanno ripiegato di nuovo sui Phneom o sono passati ad intel.

Mister D
09-03-2012, 09:52
Capitan crasy, confermi che AMD abbia dichiarato che passerà a FD-SOI in futuro?
Se si', fonte?

Ciao,
basta che guardi un po' di pagine indietro e troverai dei post di risposta del capitano a miei quesiti. Per es:
http://www.hwupgrade.it/forum/showpost.php?p=37044151&postcount=6923
Come vedi è il consorzio SOI e i suoi attori a decidere i futuri sviluppi. GF per ora ha solo portato avanti solo sperimentazioni sul 28 nm FD-SOI ma, come si legge dalle ultime dichiarazioni del CFO di amd, queste non verranno utilizzate in produzione. Per il futuro già a suo tempo GF aveva indicato con più chiarezza rispetto ai 28 nm, che nei futuri nodi si sarebbe utilizzato il SOI, soprattutto nel nodo dei 14 nm dove si potrebbe avere multiGate FinFet e/o ETSOI. Però ora è troppo presto per sapere quale tecnologie utilizzeranno in futuro. Quello che è certo che il Consorzio SOI spinge molto sul FD-SOI e per es ST ha già dichiarato di voler utilizzare tale tecnologia sul nodo 28 nm e 20 nm:
http://www.soiconsortium.org/corners/fully-depleted-soi/february-2012/1%20-%20Giorgio%20Cesana%20-%2028%20&%2020nm%20FDSOI%20Technology%20Platforms.pdf
IBM invece sta studiando la possibilità di utilizzare il finFET (alias i gate 3D come quello di intel sul 22 che però è un FinFET su BULK) su FD-SOI:
http://www.soiconsortium.org/corners/fully-depleted-soi/february-2012/5%20-%20Terence%20Hook%20-%20FINFET%20on%20SOI.pdf
Come vedi ci sono un sacco di possibilità, tutto sta a vedere vantaggi e svantaggi tecnici in relazione ai costi produttivi, ma questo mi sembra abbastanza scontato:D
Qua la news sull'ultima conferenza sul FD-SOI da cui ho preso i pdf di sopra
http://www.soiconsortium.org/corners/fully-depleted-soi/february-2012/index.php
Buona lettura!;)

capitan_crasy
09-03-2012, 10:12
Un grazie a Mister D...

Mister D
09-03-2012, 10:18
Un grazie a Mister D...

Di niente Capitano! Quando posso essere utile lo faccio sempre con piacere;)

aldooo
09-03-2012, 10:48
Come vedi ci sono un sacco di possibilità

Ok, quindi niente di ufficiale e si parla di qualcosa a medio-lungo termine

affiu
09-03-2012, 11:14
secondo me non c'è di che allarmarsi ,se la si vede da un altro punto di vista.
io(non vorrei essere sicuro) ma di 28 nm sui processori bulldozer e bulldozer server non ho sentito niente ,piuttosto per il mondo delle APU;siccome le gpu amd della serie 7000 sono costruiti a 28 bulk ,magari non si vogliono fare tanti problemi(dato che le schede video stanno rispondendo bene e pure in overclock) e fare un altro paio di anni con il 28 nm bulk per le apu ,anzicchè il 28 nm SOI.

L'attenzione di amd è sempre su APU e magari volevano gia testare come si comporterebbe il 28 nm SOI (in vista del 20 nm SOI),ma sicuramente hanno incontrato problemi(+ i piccoli attriti ultimamente con gb),e giustamente perche non continuare con il 28 nm bulk che nelle schede video si sta rodando bene ...manca solo che si metta bulldozer(in qualche modo) e si vendano a bizzaffe pure le apu a 28 nm.

Non è mica facile portare avanti IL BILANCIAMENTO tra cpu e gpu ,considerando che voglio UNIFICARE LA MEMORIA(appunto sui 28 nm steam roller apu ;amd :''today CPUs and GPUs mostly store separate copies of data in separate memory spaces'') perchè 2 sarebbe i problemi:

1)la scheda video è pronta a dare il meglio ma non deve essere OSTACOLATA altrimenti scalda come una bestia.
2)la cpu deve fare in modo non solo di dare retta alla gpu(è bulldozer secondo me è lo sposo giusto) ,ma deve farlo in modo piu fluido possibile altrimenti scalda anche lui e il bilanciamento lo si puo solo sognare.

io spero che tutta questa ''timidezza'' finisca e che amd spinga a piu non posso su APU ,ma sui 20 nm(che sia bulk o molto probabilmente SOI) ''voglio'' UN VERO processore ibrido ,e magari windows 9 IBRIDO che riconosca anche(e finalmente) LA GPU come processore ,anche se allora sarà quasi SUPERFLUO ,IN quanto I TERMINI CPU E GPU avranno già fatto la loro storia...

per amd è fondamentale portare avanti la gpu :D e cercando assieme al ''linguaggio'' openCL di farla diventare sempre più un processore anch'essa ,e i processi produttivi ,secondo me,sono tesi a diminuire il calore della gpu(quello che va meglio,meglio è);per quanto riguarda bulldozer ,l'architettura è giusta ,altrimenti(sempre in ottica APU) non si puo spiegare come trinity dia piu potenza grafica RESTANDO sempre (per oggi) sul 32 nm e addirittura consumando meno rispetto a llano 32nm e paradossalmente assieme alla gpu.

Paramatta
09-03-2012, 16:34
(cut)
Per non dire che ci sono stati molti utenti di svariati forum che dopo aver acquistato bd, hanno ripiegato di nuovo sui Phneom o sono passati ad intel.

Contenti loro.... capirei per passare ad un Intel più performante, ma per tornare a un Phenom...
Il mondo è bello perchè è vario :)

°Phenom°
09-03-2012, 17:21
Sai com'è, se un utente con una mobo am3+ ha un phenom, ma dopo l'uscita di bd ne ha acquistato uno, facciamo esempio per ambito gaming, non credo che sia rimasto soddisfatto nel fare meno fps di quanti ne faceva con un Phenom, quindi in quel caso o vendi bd o passi ad intel, credo che non ci sia nulla di strano negli utenti che hanno fatto questo ragionamento, dato che andavano solo a perderci in prestazioni, poi certo se si è fanboysti di bd è un altra cosa ;) Come ho già detto, le cose vanno espresse oggettivamente, i bench ed i test degli utenti parlano chiaro, inutile arrampicarsi sugli specchi.

shellx
09-03-2012, 18:00
Tre peli ha il maiale, e il maiale ha tre peli.
Tre peli ha il maiale, e il maiale ha tre peli.
Tre peli ha il maiale, e il maiale ha tre peli.
Le puntine usurate del vecchio giradischi di mio nonno facevano inceppare i vinili molto meno di quanto alcuni utenti inceppano i loro post qui dentro.

E soprattutto parlando di prodotti qui dentro OT...(meno male che esitono i thread appositi e che soddisfano tutte le tipologie di utenti). Ma tanto è il flaming quello che conta e ormai va di moda nei forum.

Vinsss
09-03-2012, 19:25
Per non dire che ci sono stati molti utenti di svariati forum che dopo aver acquistato bd, hanno ripiegato di nuovo sui Phneom

scusa ma chi???secondo me e una cavolata per far cattiva pubblicità a BD (come al solito)ma quegli utenti di cui parli non l'hanno nemmeno comprato BD!!e se cosi fosse lasciamelo dire ma non hanno fatto una gran bella mossa!..io posso capire per chi ha un phenom ed indeciso se fare o meno upgrade e alla fine non lo fà ci può stare ma che,chi l'ha comprato poi torna ai phenom mmm sinceramente non ci credo molto..e cmq stando a TEST REALI fatti in casa quindi di HW 25/29 test fx 8150 e meglio! in piu come test gli aggiungerei il test di carico fatto da shellx sulla sua app (shellx correggimi se sbaglio)

ps: ho fatto il confronto con i top gamma di amd quindi l'attuale fx-8150 e il suo predecessore phenom x6 1100T

per quanto riguarda quello che dicevo l'altra volta cioè del confronto tra DX10 e DX11 intanto dovevo fare una premessa che non ho fatto e che dovevo fare e cioè che io parlavo solo di single GPU in multi purtroppo DB e dietro e quello sinceramente non so se e causa delle ottimizzazioni o meno credo piu per l'hardware(ARMA 2 e un gioco del 2009 con DX9 quindi quello non lo calcolo neache come test perche come dicevo nel post precedente a software piu vecchio strozzamento performance BD,sempre secondo me,)..cmq ok il confronto tra i giochi in dx11 si allineano a causa della gpu limited mettiamola cosi ma allora nel test di 3dmark perche ce quella differenza tra i fari test?cioè perche se in 3dmark DX10 BD sta sotto ad esempio al 2500k nel successivo test si ribalta la cosa?se fosse causato da una cpu limited doveva rivoltarsi in maniera proporzionale anche con 3dmark DX11 con un valori piu bassi causati dalla GPU limited...

°Phenom°
09-03-2012, 20:10
Ma hai letto bene che ho scritto? Se leggi nel mio post sopra avevo scritto delle differenze a parità di core, nel post prima di questo invece avevo preso proprio come esempio il gaming, dove di sicuro non vengono sfruttati 8 core, quindi inutile che tiri in ballo l'8150, ora dimmi come fai a negare che nella maggior parte dei giochi a parità di core e frequenza un bd non sta sotto ad un phenom ed un i5? (non che cambi di molto la situazione quando lo overclocki) Ormai credo lo sappiano anche i muri. Tu dici che io scrivo ste cose per fare brutta pubblicità a bulldozer, quando io in realtà sarei il primo a volere che bulldozer non fosse stato un fail, dato che sono sempre stato sostenitore di AMD, ma ogni tanto i fanboysmi, non per forza nel caso tuo, ma so a chi mi riferisco, o le preferenze vanno messe da parte per dei pareri OGGETTIVI. Per quanto riguarda l'8150, anche sei nei programmi che sfruttano bene il multicore a volte va meglio di un 1100T, non c'è da esultare così tanto, dato che il 1100T è un x6 e non un "x8" come l'8150, testa un 6100-200 con un 1100t e poi ne riparliamo.
Per quanto riguarda gli utenti che sono passati ad esempio da un phenom x4 ad un 4100-6100 per uso gaming, ma poi sono ritornati sul primo o sono passati ad intel, fidati che c'è ne sono e non sono stupidi ;)
Come dico sempre, se proprio si vuole acquistare bd, l'unico decente è l'8150 e l'8120 se il pc avrà un uso tipo rendering o editing, dove se la gioca con i phenom x6 e con gli Intel, come hai anche accennato su, con alcuni programmi, se pur di poco va meglio, per il resto meglio attendere Vishera e sperare in un futuro più roseo per le cpu AMD ;)
Spero di non essere frainteso anche questa volta.

Vinsss
09-03-2012, 20:58
Ma hai letto bene che ho scritto? Se leggi nel mio post sopra avevo scritto delle differenze a parità di core, nel post prima di questo invece avevo preso proprio come esempio il gaming, dove di sicuro non vengono sfruttati 8 core, quindi inutile che tiri in ballo l'8150, ora dimmi come fai a negare che nella maggior parte dei giochi a parità di core e frequenza un bd non sta sotto ad un phenom ed un i5? (non che cambi di molto la situazione quando lo overclocki) Ormai credo lo sappiano anche i muri. Tu dici che io scrivo ste cose per fare brutta pubblicità a bulldozer, quando io in realtà sarei il primo a volere che bulldozer non fosse stato un fail, dato che sono sempre stato sostenitore di AMD, ma ogni tanto i fanboysmi, non per forza nel caso tuo, ma so a chi mi riferisco, o le preferenze vanno messe da parte per dei pareri OGGETTIVI. Per quanto riguarda l'8150, anche sei nei programmi che sfruttano bene il multicore a volte va meglio di un 1100T, non c'è da esultare così tanto, dato che il 1100T è un x6 e non un "x8" come l'8150, testa un 6100-200 con un 1100t e poi ne riparliamo.
Per quanto riguarda gli utenti che sono passati ad esempio da un phenom x4 ad un 4100-6100 per uso gaming, ma poi sono ritornati sul primo o sono passati ad intel, fidati che c'è ne sono e non sono stupidi ;)
Come dico sempre, se proprio si vuole acquistare bd, l'unico decente è l'8150 e l'8120 se il pc avrà un uso tipo rendering o editing, dove se la gioca con i phenom x6 e con gli Intel, come hai anche accennato su, con alcuni programmi, se pur di poco va meglio, per il resto meglio attendere Vishera e sperare in un futuro più roseo per le cpu AMD ;)
Spero di non essere frainteso anche questa volta.

si scusa ho saltato il tuo ultimo post non so come ma capita!...si si a parita di core non ce paragone purtroppo..cmq io do sempre per scontato che chi passa da un phenom ad un fx si fionda sensa dubbi su un 8150 o 8120!!:D (piu conveniente l'8120 a mio parere) non per essere cattivi ma gli FX 4100 e 6100 non li calcolo neache anche se costano poco..cmq io non stavo paragonando il tutto con un 2500k l'avevo preso giusto come esempio in un test citato prima in un mio post tutto qui! :)

°Phenom°
09-03-2012, 21:08
Sisi, tranquillo, ho capito :D

Paramatta
09-03-2012, 21:35
Sai com'è, se un utente con una mobo am3+ ha un phenom, ma dopo l'uscita di bd ne ha acquistato uno, facciamo esempio per ambito gaming, non credo che sia rimasto soddisfatto nel fare meno fps di quanti ne faceva con un Phenom, quindi in quel caso o vendi bd o passi ad intel, credo che non ci sia nulla di strano negli utenti che hanno fatto questo ragionamento, dato che andavano solo a perderci in prestazioni, poi certo se si è fanboysti di bd è un altra cosa ;) Come ho già detto, le cose vanno espresse oggettivamente, i bench ed i test degli utenti parlano chiaro, inutile arrampicarsi sugli specchi.

In effetti, a maggior ragione dopo la spiegazione, ribadisco: contenti loro ... :)

isomen
10-03-2012, 06:55
Nn dico che chi ha un BD debba tornare ai phenom, ma sono contento di essermi procurato un 1090 prima che salissero vertiginosamente di prezzo... il confronto del 6100 con il mio 1090 è impietoso:

test 6100 (http://www.overclockzone.com/tor_za/year_2011/12/amd_fx_6100/index6.htm)

vantage (http://imageshack.us/photo/my-images/837/vantage1090claudio6870.jpg/)

3Dmark11 performance (http://imageshack.us/photo/my-images/838/10903dmark11p64bit.jpg/)

3Dmark11 extreme (http://imageshack.us/photo/my-images/848/10903dmark11x64bit.jpg/)

;) CIAUZ

.338 lapua magnum
10-03-2012, 09:28
il raffronto "core to core" è ormai bello che morto e non bisogna credere alle boiate del malato reparto marketing di amd ( 8 core :doh: )

in questa generazione amd ha introdotto il CMT, strada diversa da intel SMT, ma che porta allo stesso risultato, il raddoppio del numero dei thread, cioè HT.

il 6110 come il thuban è un esa-thread, (non esacore)

thuban
6 core - 6 int - 6 fpu - 6 thread

6100
3 moduli - 6 int - 3 fpu - 6 thread

a parità di thread, come un I3 (2fpu) non può competere con un I5 (4fpu), così un fx 6100 (3fpu) non compete con un thuban (6fpu).
l'hyperthreading non può sostituire le fpu mancanti.

dove si "piazza" il 6100? una via di mezzo tra deneb e thuban (più deneb che thuban).

con questo non voglio dir che zambezi sia un bidone, ma che le architetture sono diverse e questo tipo di raffronto è errato.

°Phenom°
10-03-2012, 09:47
Si, questo si sapeva, ma in ogni caso, anche un bulldozer 8150 è decente solo in multicore, dove supera di poco un Thuban x6 (e nemmeno sempre), cosa diversa in ambito gaming dove pochi giochi ne sfruttano 4 e tutti il resto 2 o addirittura 1, in questo caso, qualunque bulldozer rispetto alla concorrenza è spacciato, dato che ha un ipc molto basso. Quello che manca a bd è proprio la versatilità, dato che l'unico ambito dove può competere è il multicore, ma è poca le gente che acquista un pc solo ed esclusivamente per fare rendering 24 ore su 24, quindi in questo caso bd viene scartato con un phenom x6/x4 in casa amd o meglio ancora con un efficiente 2500K o superiore, stando in casa Intel, così da avere ottime performance in TUTTI gli utilizzi, questo non è per dire che bulldozer è inutile, ma la fascia a cui è destinato comprende veramente pochissimi utenti, mentre il 6100 o 4100 meglio lasciarli stare del tutto...

tengo famiglia
10-03-2012, 09:49
Lo ammetto sono "in paranoia" perchè ieri mi è arrivata la scheda madre + processore FX 6100, e da quanto sto leggendo ero fin troppo ottimista.
Vengo da un e5400 (vedere firma) e mi sembra di aver fatto una caxxata a prendere questo processore. L'intenzione è di "sostare" su questo proc e aspettare la generazione futura su am3+ e dunque upgradare solo la cpu.
Il fatto è che a me di giochi non importa nulla! lavoro sul photoshop e videoediting anche in full HD, e già con il E5400 @3400mhz non potevo lamentarmi, quello che mi serve è la potenza di calcolo e basta.

Non so... :mc: forse rimpiangerò questi soldi spesi.

Chiedo conforto

°Phenom°
10-03-2012, 09:57
In quell'ambito la scelta perfetta sarebbe stata un 8120, adesso lo trovi a solo 153 euro, e come ho già spiegato, per lavori tipo editing, rendering ecc, va ottimamente, giocandosela anche con i Thuban x6 e avvicinando le prestazioni del molto più costoso Intel 2600K, di sicuro l'fx che hai preso andrà meglio del tuo vecchio procio, ma con un 8120 saresti andato alla grande.
Ecco, qui trovi dei bench sul videoediting ecc: http://www.nexthardware.com/recensioni/processori-chipset/602/amd-fx-8150-il-primo-bulldozer-_8.htm

Catan
10-03-2012, 10:02
Lo ammetto sono "in paranoia" perchè ieri mi è arrivata la scheda madre + processore FX 6100, e da quanto sto leggendo ero fin troppo ottimista.
Vengo da un e5400 (vedere firma) e mi sembra di aver fatto una caxxata a prendere questo processore. L'intenzione è di "sostare" su questo proc e aspettare la generazione futura su am3+ e dunque upgradare solo la cpu.
Il fatto è che a me di giochi non importa nulla! lavoro sul photoshop e videoediting anche in full HD, e già con il E5400 @3400mhz non potevo lamentarmi, quello che mi serve è la potenza di calcolo e basta.

Non so... :mc: forse rimpiangerò questi soldi spesi.

Chiedo conforto

personalmente per quello che devi fare non mi sembrano soldi buttati sotto più chiavi di lettura: se hai preso una mobo am3+ probabilmente sarai compatibile anche con piledriver, visto il costo davvero basso di un 6100, puoi lavorarci adesso e passare a piledriver dopo senza aver buttato troppi soldi.

se invece non pensavi di cambiar piattaforma forse si ti conveniva orientarti su un vecchio thuban x6 o su un 8120 però alla fine non credo ne rimarrai deluso.

°Phenom°
10-03-2012, 10:04
se invece non pensavi di cambiar piattaforma forse si ti conveniva orientarti su un vecchio thuban x6 o su un 8120 però alla fine non credo ne rimarrai deluso.
Infatti, sarebbe stata la cosa migliore da fare :)

winebar
10-03-2012, 10:09
il raffronto "core to core" è ormai bello che morto e non bisogna credere alle boiate del malato reparto marketing di amd ( 8 core :doh: )

in questa generazione amd ha introdotto il CMT, strada diversa da intel SMT, ma che porta allo stesso risultato, il raddoppio del numero dei thread, cioè HT.

il 6110 come il thuban è un esa-thread, (non esacore)

thuban
6 core - 6 int - 6 fpu - 6 thread

6100
3 moduli - 6 int - 3 fpu - 6 thread

a parità di thread, come un I3 (2fpu) non può competere con un I5 (4fpu), così un fx 6100 (3fpu) non compete con un thuban (6fpu).
l'hyperthreading non può sostituire le fpu mancanti.

dove si "piazza" il 6100? una via di mezzo tra deneb e thuban (più deneb che thuban).

con questo non voglio dir che zambezi sia un bidone, ma che le architetture sono diverse e questo tipo di raffronto è errato.

Le FPU sono praticamente inutilizzate in ambito casalingo, le istruzioni SIMD (o peggio, le x87) vengono usate solo in ambiti lavorativi.
A casa ciò che conta di più è la ALU. Quindi le unità di calcolo che contano in ambito home sono in ugual numero SIA sui Phenom II X6 SIA sugli FX-6xxx.
C'è una leggera perdita per altre parti condivise all'interno dei moduli, ma se opportunamente calibrate, tra frequenza e transistor assegnati, permettono di non far notare la differenza. Il problema di Bulldozer è il processo produttivo scandaloso. Sono davvero contento che AMD si stia svincolando da GlobalFoundries, spero davvero che dopo i 28 nm vedremo i proci prodotti da TSMC dato che sta sfornando dei pp davvero superbi.

isomen
10-03-2012, 10:09
il raffronto "core to core" è ormai bello che morto e non bisogna credere alle boiate del malato reparto marketing di amd ( 8 core :doh: )

in questa generazione amd ha introdotto il CMT, strada diversa da intel SMT, ma che porta allo stesso risultato, il raddoppio del numero dei thread, cioè HT.

il 6110 come il thuban è un esa-thread, (non esacore)

thuban
6 core - 6 int - 6 fpu - 6 thread

6100
3 moduli - 6 int - 3 fpu - 6 thread

a parità di thread, come un I3 (2fpu) non può competere con un I5 (4fpu), così un fx 6100 (3fpu) non compete con un thuban (6fpu).
l'hyperthreading non può sostituire le fpu mancanti.

dove si "piazza" il 6100? una via di mezzo tra deneb e thuban (più deneb che thuban).

con questo non voglio dir che zambezi sia un bidone, ma che le architetture sono diverse e questo tipo di raffronto è errato.

Forse almeno in parte il tuo ragionamento è giusto, anche se il 6100 viene pubblicizzato e venduto come un 6 core, ma nn direi che si si piazza fra deneb e thuban... direi un po' sotto i deneb, visto che è +/- alla pari con il mio 620:

vantage 620 (http://imageshack.us/photo/my-images/140/vantage620dailyuse.jpg/)

3Dmark11 620 (http://imageshack.us/photo/my-images/406/3dmark11pwin32.jpg/)

PS
io sarei felicissimo che gli zambesi stracciassero i thuban, ma purtroppo nn è così... però spero in vishera

;) CIAUZ

tengo famiglia
10-03-2012, 10:10
(pentito di non aver preso fx 8120)però ho puntato all'fx 6100 perchè ha un TDP più basso.
Grazie per le risposte, non voglio cambiare sistema infatti ho scelto amd, e voglio dare una chance a piledriver sperando che amd non ci deluda. Secondo voi posso ottenere miglioramenti concreti con un overclock moderato senza cambiare voltaggio?

tengo famiglia
10-03-2012, 10:14
sbaglio o a all'fx 6100 l'oc serve solo per aumentare le frequenze e niente più? Turbo core on/off non cambia molto mi sembra.

AceGranger
10-03-2012, 10:17
Quello che manca a bd è proprio la versatilità, dato che l'unico ambito dove può competere è il multicore, ma è poca le gente che acquista un pc solo ed esclusivamente per fare rendering 24 ore su 24, quindi in questo caso bd viene scartato

:stordita: hai pescato proprio l'esempio sbagliato, visto che è uno degli ambiti peggiori per cui comprarlo...

lavoro sul photoshop e videoediting anche in full HD, e già con il E5400 @3400mhz non potevo lamentarmi, quello che mi serve è la potenza di calcolo e basta

se ora non potevi/volevi spendere di piu, non avevi alternative; se potevi spendere di piu, per i tuoi usi, non mi sembra sia stata la scelta migliore. Comunque dovrai vedere quando aggiornerai, con il totale della spesa e le prestaaioni future, se è stato buono o meno come investimento;

°Phenom°
10-03-2012, 10:19
Si, certo, gli fx hanno una buona dote di overclock, alza il moltiplicatore di pochi step alla volta testando con LinX 20 cicli e minimo metà memoria ram utilizzata, finchè non arrivi a fare errori o non hai un blocco, a quel punto scala di uno step il molti, così avrai un buon overclock con il vcore standard. Altra cosa che almeno nei Phenom II porta a vantaggi è l'aumento della frequenza del nb (ma credo anche in bd), però non so dirti che voltagio impostare per questo parametro, dato che nonposseggo un fx, magari fatti dare un aiuto da chi ne possiede uno ;)

°Phenom°
10-03-2012, 10:22
:stordita: hai pescato proprio l'esempio sbagliato, visto che è uno degli ambiti peggiori per cui comprarlo...


Dai test invece emerge che è l'unico ambito dove va decentemente :mbe:

tengo famiglia
10-03-2012, 10:27
se ora non potevi/volevi spendere di piu, non avevi alternative; se potevi spendere di piu, per i tuoi usi, non mi sembra sia stata la scelta migliore. Comunque dovrai vedere quando aggiornerai, con il totale della spesa e le prestaaioni future, se è stato buono o meno come investimento;

infatti :cry: forse dovevo aggiungere 50 euro e puntare all i5 2500

tengo famiglia
10-03-2012, 10:30
Si, certo, gli fx hanno una buona dote di overclock, alza il moltiplicatore di pochi step alla volta testando con LinX 20 cicli e minimo metà memoria ram utilizzata, finchè non arrivi a fare errori o non hai un blocco, a quel punto scala di uno step il molti, così avrai un buon overclock con il vcore standard. Altra cosa che almeno nei Phenom II porta a vantaggi è l'aumento della frequenza del nb (ma credo anche in bd), però non so dirti che voltagio impostare per questo parametro, dato che nonposseggo un fx, magari fatti dare un aiuto da chi ne possiede uno ;)

si questo lo so, però la domanda è: quanto realmente influisce in termini di prestazioni l'overclock, megahertz a parte?

AceGranger
10-03-2012, 10:36
Dai test invece emerge che è l'unico ambito dove va decentemente :mbe:

media fra 3D Max, Cinebench, Blender, Euler3D, Povray

http://www.hwupgrade.it/articoli/cpu/2997/moneybench_rendering.png

le prende dal 2500K; oltretutto in campo lavorativo contano anche moltissimo i consumi/tempo di render

http://techreport.com/r.x/amd-fx/cine-power-comparo.gif

un professionista con gli fx perde solo soldi

FroZen
10-03-2012, 10:39
il 5% di media non è "prenderle", l'unica cosa che non mi piace in quei grafici sono i consumi....gli FX salgono ma consumano poi linearmente e partendo già da un consumo def alto a voi le conseguenze.....stiamo infatti aspettando tutti piledriver o sbaglio?

AceGranger
10-03-2012, 10:58
il 5% di media non è "prenderle", l'unica cosa che non mi piace in quei grafici sono i consumi....gli FX salgono ma consumano poi linearmente e partendo già da un consumo def alto a voi le conseguenze.....stiamo infatti aspettando tutti piledriver o sbaglio?

trovaprezzi

8150 220 euro
2500K 175 euro

70 watt di differenza durante il calcolo

in senso assoluto no, ma con 45 euro in piu, 70 watt in piu e 5% in meno di media, è prenderle...


stiamo infatti aspettando tutti piledriver o sbaglio?

direi di si, anche se in questo particolare ambito credo che dovremo aspettare SteamRoller; in queste circostanze conta troppo l'efficienza.

capitan_crasy
10-03-2012, 11:11
Ragazzi questo non è il thead per i consigli sugli acquisti!
SONO stufo di ripeterlo...

.338 lapua magnum
10-03-2012, 11:34
Forse almeno in parte il tuo ragionamento è giusto, anche se il 6100 viene pubblicizzato e venduto come un 6 core, ma nn direi che si si piazza fra deneb e thuban... direi un po' sotto i deneb, visto che è +/- alla pari con il mio 620:

vantage 620 (http://imageshack.us/photo/my-images/140/vantage620dailyuse.jpg/)

3Dmark11 620 (http://imageshack.us/photo/my-images/406/3dmark11pwin32.jpg/)

PS
io sarei felicissimo che gli zambesi stracciassero i thuban, ma purtroppo nn è così... però spero in vishera

;) CIAUZ

io ho un fx 6100 e a pari frequenza (4Ghz) si comporta "circa" in quel modo come da recensione xtremehardware.

è una cpu discreta che non fa gridare al miracolo.

°Phenom°
10-03-2012, 14:01
Ecco qui gli score di Cinebench dopo una piccola ricerca che ho fatto, dato che mi è venuta un pò di curiosità:

Intel Core i5 2500K 4.50GHz: 7.14
AMD Phenom II x6 1090T 4.53GHz: 7.97
AMD FX 8150 4.81GHz: 7.81

Per bulldozer ho trovato gli score solo a 4.81 Ghz, se sapete quanto fa a 4.5 ditelo, comunque è confermato che per rendering se non fosse per i consumi troppo elevati sarebbe meglio un 8150 occato rispetto ad un 2500K.

ra-mta
10-03-2012, 14:08
Ecco qui gli score di Cinebench dopo una piccola ricerca che ho fatto, dato che mi è venuta un pò di curiosità:

Intel Core i5 2500K 4.50GHz: 7.14
AMD Phenom II x6 1090T 4.53GHz: 7.97
AMD FX 8150 4.81GHz: 7.81

Per bulldozer ho trovato gli score solo a 4.81 Ghz, se sapete quanto fa a 4.5 ditelo, comunque è confermato che per rendering se non fosse per i consumi troppo elevati sarebbe meglio un 8150 occato rispetto ad un 2500K.

sono discorsi triti e ritriti, ma come vedi meglio un phenom x6 che un bd...

°Phenom°
10-03-2012, 14:20
Si, ma infatti ho detto che se avrebbe consumato quanto sandy bridge, per questo tipo di lavori sarebbe stato una discreta cpu...

.338 lapua magnum
10-03-2012, 16:12
domanda per possessori di zambezi:

anche a voi il turbo ha vcore spinti ?
Fx-6100 - saberthoot

def con turbo
frequenza (mhz) - vcore (v)
3300 - 1.2
3600 - 1.3
3900 - 1.4

in oc @4000 è stabile con 1.33 (no turbo)

grazie per le eventuali risposte.

paolo.oliva2
10-03-2012, 16:19
domanda per possessori di zambezi:

anche a voi il turbo ha vcore spinti ?
Fx-6100 - saberthoot

def con turbo
frequenza (mhz) - vcore (v)
3300 - 1.2
3600 - 1.3
3900 - 1.4

in oc @4000 è stabile con 1.33 (no turbo)

grazie per le eventuali risposte.

A memoria, l'8150 richiede 1,415V per i 4,2GHz Turbo a def.
Penso che sia come più volte ha ripetuto Bjt2, gli FX X6 e X4 sono gli scarti degli X8, quindi Vcore e TDP/numero-moduli non riflette quello che potrebbe essere nel caso di chip perfetti.

paolo.oliva2
10-03-2012, 16:29
il 5% di media non è "prenderle", l'unica cosa che non mi piace in quei grafici sono i consumi....gli FX salgono ma consumano poi linearmente e partendo già da un consumo def alto a voi le conseguenze.....stiamo infatti aspettando tutti piledriver o sbaglio?
Infatti... dell'8150 ormai si sa qual'è la situazione... con Piledriver sappiamo per certo che cambierà in meglio, il problema ò sapere di quanto sarà il miglioramento, sia in termini di potenza che di consumo e a quale prezzo potrà essere proposto, perchè i BD FX soffrivano pure di prb di riuscita chip funzionanti, quindi non è detto che AMD non possa proporre Vishera ad un prezzo addirittura inferiore anche se più potente.

Mi sembra forzato non voler assolutamente prendere in considerazione tutto ciò con la sola scusa del "quello che c'è in commercio" quando poi ci sono pagine e pagine di test di proci Intel NON IN COMMERCIO (tra l'altro, senza sapere i prezzi, che confronto è senza poter verificare l'appetibilità? Un po di parcondicio?

.338 lapua magnum
10-03-2012, 16:30
capisco, a questo punto è preferibile disattivare il tanto osannato turbo (che doveva compensare l'ipc basso) e occare, si hanno vcore/temp migliori.

isomen
10-03-2012, 16:31
io ho un fx 6100 e a pari frequenza (4Ghz) si comporta "circa" in quel modo come da recensione xtremehardware.

è una cpu discreta che non fa gridare al miracolo.

Cioè come un 620 (che fra l'altro è a 3,6 ghz) o come un thuban a 4,1?
In quelli che ho trovato io (e postato) è molto distante dal thuban.

PS
nel secondo caso sarebbe una cpu mediocre... nel primo :cry:

;) CIAUZ

paolo.oliva2
10-03-2012, 16:34
Ecco qui gli score di Cinebench dopo una piccola ricerca che ho fatto, dato che mi è venuta un pò di curiosità:

Intel Core i5 2500K 4.50GHz: 7.14
AMD Phenom II x6 1090T 4.53GHz: 7.97
AMD FX 8150 4.81GHz: 7.81

Per bulldozer ho trovato gli score solo a 4.81 Ghz, se sapete quanto fa a 4.5 ditelo, comunque è confermato che per rendering se non fosse per i consumi troppo elevati sarebbe meglio un 8150 occato rispetto ad un 2500K.

Ne sei sicuro? Io a 5GHz faccio 8,25.

OPP
10-03-2012, 16:37
capisco, a questo punto è preferibile disattivare il tanto osannato turbo (che doveva compensare l'ipc basso) e occare, si hanno vcore/temp migliori.

si conviene disattivarlo il turbo e fissare la frequenza in overclock con il giusto vcore, almeno io ho fatto così con l'8150 di mia sorella e qualcosa in prestazioni ha recuperato :p

OPP
10-03-2012, 16:41
con Piledriver sappiamo per certo che cambierà in meglio, il problema ò sapere di quanto

parti dall'idea che di SICURO c'è solo la morte, tutto il resto può essere probabile, ma mai certo al cento per cento ;)

anche su bulldozer si diceva che era SICURO che andava meglio di thuban, che era IMPOSSIBILE che avesse IPC inferiore, invece si è poi visto com'è andata ;)

paolo.oliva2
10-03-2012, 16:43
Ecco qui gli score di Cinebench dopo una piccola ricerca che ho fatto, dato che mi è venuta un pò di curiosità:

Intel Core i5 2500K 4.50GHz: 7.14
AMD Phenom II x6 1090T 4.53GHz: 7.97
AMD FX 8150 4.81GHz: 7.81

Per bulldozer ho trovato gli score solo a 4.81 Ghz, se sapete quanto fa a 4.5 ditelo, comunque è confermato che per rendering se non fosse per i consumi troppo elevati sarebbe meglio un 8150 occato rispetto ad un 2500K.

Ne sei sicuro?

In primis un Thuban non arriva a fornire un risultato migliore dell'8150.
Io con un 1090T@4,5GHz faccio 8,02 (30MHz in meno, +0,05 di risultato)
Con lo stesso raffreddamento (anzi, solamente con il liquido), faccio 8,25 con l'8150 a 5GHz.
Trovami un Thuban che possa fare 8,25 con raffreddamenti a liquido...

Trovi tutto nella mia firma... per gli screen dell'8150 trovi tutto qui (http://www.hwexpert.it/forum/showthread.php?tid=15)

paolo.oliva2
10-03-2012, 16:55
parti dall'idea che di SICURO c'è solo la morte, tutto il resto può essere probabile, ma mai certo al cento per cento ;)

anche su bulldozer si diceva che era SICURO che andava meglio di thuban, che era IMPOSSIBILE che avesse IPC inferiore, invece si è poi visto com'è andata ;)

Guarda, sull'IPC superiorie si era teorizzato semplicemente perchè nel TH affrontare argomenti di clock superiori alla controparte diventa un discorso di bandiera e difficile da affrontare (non so se hai seguito, ma l'opinione era che un FX X8 non poteva avere clock superiori a quelli di un 1100T sulla base di un SBe X6), ma rimaneva il discorso di JF e AMD in generale in cui si faceva tranquillamente intendere che un modulo BD forniva comunque una potenza superiore a quella di " core Phenom II.

Ora è facile sparare a zero mettendo sempre e solamente in ballo l'IPC senza voler considerare il discorso PP silicio.

Vedi, se a parità di TDP, seppur con lo step B2g, un 8150 in MT riesce a fare meglio in media di un Thuban, SOLAMENTE 300MHz in più di frequenza def che differenza avrebbero portato (+8,33% di clock)?
Ed è tutto li' il discorso... un Thuban 1100T ha un determinato IPC, una determinata potenza ST per una frequenza massima di 3,7GHz ed una potenza MT data da 6 core a 3,3GHz, non esiste alcuna possibilità di un Thuban più potente. Potrai essere pessimista quanto vuoi, ma arrivare a ipotizzare che AMD non potrà MAI aumentare le potenze di un 8150, e quindi il rapporto FX 8 vs Thuban, mi sembra un attimo forzato.

OPP
10-03-2012, 17:12
Potrai essere pessimista quanto vuoi, ma arrivare a ipotizzare che AMD non potrà MAI aumentare le potenze di un 8150, e quindi il rapporto FX 8 vs Thuban, mi sembra un attimo forzato.

non ho MAI detto questo infatti e non so da cosa l'hai dedotto leggendo il mio post :p

ho detto solo che non bisogna dare tutto troppo per scontato, quando di scontato c'è solo una cosa e basta, e molto probabilmente non si tratta di Piledriver :stordita:

sergio.p.
10-03-2012, 17:15
secondo me il 1045t che è 95W a 2.7Ghz è più conveniente...di un 6x00

°Phenom°
10-03-2012, 17:59
Si ma ti ricordo che non tutti hanno raffreddamento a liquido ecc, io ho postato quei test per vedere le differenze a parità di clock, poi scusa un attimo, ma ti rendi conto di quanto consumerebbe per daily un bulldozer oltre i 4.5GHz? Già consuma un botto a default. Io penso che ormai i bulldozer siano acqua passata, e c'è da sperare in Vishera, ma non venirmi a dire che un 8150 è meglio di un Thuban x6, come mi hai fatto notare tu, fa un punteggio irrisorio più alto in rendering a 5GHz, ma se uno vuole usare il pc a 360 gradi è meglio un Thuban o un i5, dato che anche in gaming o in molte altre applicazioni offrono prestazioni superiori rispetto a bd e con cunsumi inferiori, poi per te che sei un overclocker magari preferisci bulldozer, ma devi contare le vere prestazioni che si ottengono ed i consumi, in daily non conta solo la frequenza..

shellx
10-03-2012, 18:12
@Capitano o altri utenti (possibilmente esperti):

Avevo letto tempo fa che c'erano dei modelli opteron compatibili con il socket am3+.... quali sono ?
E quali differenze hanno rispetto gli FX in termini tecnici ?

Grazie.

OPP
10-03-2012, 18:17
Si ma ti ricordo che non tutti hanno raffreddamento a liquido ecc, io ho postato quei test per vedere le differenze a parità di clock, poi scusa un attimo, ma ti rendi conto di quanto consumerebbe per daily un bulldozer oltre i 4.5GHz? Già consuma un botto a default. Io penso che ormai i bulldozer siano acqua passata, e c'è da sperare in Vishera, ma non venirmi a dire che un 8150 è meglio di un Thuban x6, come mi hai fatto notare tu, fa un punteggio irrisorio più alto in rendering a 5GHz, ma se uno vuole usare il pc a 360 gradi è meglio un Thuban o un i5, dato che anche in gaming o in molte altre applicazioni offrono prestazioni superiori rispetto a bd e con cunsumi inferiori, poi per te che sei un overclocker magari preferisci bulldozer, ma devi contare le vere prestazioni che si ottengono ed i consumi, in daily non conta solo la frequenza..

quoto, poi bhe 8.25 al cinebench a 5ghz con 8core contro poco più di 8 con 500mhz in meno con solo 6core, quale dei due sia meglio non mi sembra neanche il caso di domandarselo :p
escludendo poi tutto il discorso consumi :stordita:

°Phenom°
10-03-2012, 18:18
Se intendi per gli opteron con core bulldozer, ti posso dire di no, dato che se non erro hanno una forma rettangolare ;)

shellx
10-03-2012, 18:22
Se intendi per gli opteron con core bulldozer, ti posso dire di no, dato che se non erro hanno una forma rettangolare ;)

Si lo so sono rettangolari quelli per l'altro socket delle macchine per server, ma mi pare di avere letto mesi fa, che amd avrebbe fatto degli opteron compatibili per il socket am3+ (stile opteron 165 per socket 939). Ma non trovo piu il link.

shellx
10-03-2012, 18:32
La linea Opteron 3000 Zurich
http://www.amdzone.it/news/reader.php?objid=297
http://www.tomshw.it/cont/news/amd-opteron-6200-e-4200-bulldozer-sbarca-sui-server/34502/1.html
http://www.businessmagazine.it/news/opteron-3200-4200-e-6200-nuove-specifiche-sulle-cpu-bulldozer_38897.html
http://www.xtremehardware.it/news/hardware/da-amd-opteron-bulldozer-da-8-core-con-tdp-da-65w-201203076627/

Vinsss
10-03-2012, 19:41
io cmq non farei molto il confronto tra un thuban x6 e un fx-8150 o 8120 per il semplice fatto che oltre ad essere due architetture diverse hanno anche pro e contro diverse tipo si l'FX ti consuma di piu ma e anche proporzionale al carico(dalle testimonianze di gente qua nel forum che l'ha costatato) fx tiene molto meglio il carico di un thuban ma ora parliamo in soldoni!!

allora stando al grafico postato da acergrancer sotto carico tra un fx-8150 e un thuban 1100t la differenza e di 20w in piu per l'fx giusto?

calcolo:
20W=0.02kw

facendo una media giornaliera e a stare abbondandi 4 ore di full al giorno quindi 0.02kw*4=0.08kw al giorno in un anno 0.08kw*365=29.2kw annui in piu

in media un 1kw costa 0.16€->29.2kw*0.16=4.672€ in piu annui...ma stando sempre al grafico in idle fx consuma circa 20w in meno....BOH!!a voi la conclusione signori!!:cool:
spero di non aver trascurato qualcosa visto che sono di fretta e ho fame!

cmq io tra i due scelgo l'fx per il semplice fatto che:1) il motivo sopra citato 2)e una tecnologia piu nuova e tendera a migliorare 3) se mi trovo a usare un app o cmq un qualcosa che vuole piu carico (anche con SW futuri piu pesanti)con l'fx non sono spreparato cosa che invece lo sarei con un thuban.

sta storia dei consumi io la chiuderei!!

FINE!;)

paolo.oliva2
10-03-2012, 19:47
Si ma ti ricordo che non tutti hanno raffreddamento a liquido ecc,
Guarda, hai preso un Thuban occato a 4,530GHz... vuoi farmi credere che sia ad aria? Io solqmente a liquido non supero i 4,350GHz...

io ho postato quei test per vedere le differenze a parità di clock

Che senso ha un confronto a parità di clock se il clock def non è uguale? Per testarne l'IPC? E a che serve? La potenza è l'IPC x clock... avrebbe senso un confronto con un procio a 2GHz ed un altro a 3GHz?

poi scusa un attimo, ma ti rendi conto di quanto consumerebbe per daily un bulldozer oltre i 4.5GHz?

Ti posso garantire che un BD a 4,5GHz consuma certamente meno di un Thuban a 4,5GHz, visto che con il liquido non passo i 4,350GHz con il Thuban ed invece nella stessa condizione arrivo a 5GHz con l'8150.

Già consuma un botto a default.

Allora a def l'8150 consuma MENO di un Thuban in idle e poco di più sotto carico.
Scusami... tu hai un Thuban ed un 8150? Mi puoi spiegare come sarebbe possibile che 2 proci entrambi dati a 125W TDP uno debba consumare un botto più dell'altro SE entrambi sono venduti allo stesso TDP? Cacchio, non mi dire che AMD ha venduto il 1090T e 1100T per 125W quando li poteva vendere per 65W.

Io penso che ormai i bulldozer siano acqua passata, e c'è da sperare in Vishera, ma non venirmi a dire che un 8150 è meglio di un Thuban x6, come mi hai fatto notare tu, fa un punteggio irrisorio più alto in rendering a 5GHz, ma se uno vuole usare il pc a 360 gradi è meglio un Thuban o un i5, dato che anche in gaming o in molte altre applicazioni offrono prestazioni superiori rispetto a bd e con cunsumi inferiori, poi per te che sei un overclocker magari preferisci bulldozer, ma devi contare le vere prestazioni che si ottengono ed i consumi, in daily non conta solo la frequenza..
Guarda... trovami un post dove consiglio a chi ha un Thuban di cambiare mobo e procio per passare all'8150.
Ma tra questo e quello di dire che un Thuban va meglio di un 8150 (come hai postato tu in Cinebench), NON è corretto e l'ho postato, come ho postato che non conta solamente l'IPC ma anche la frequenza mentre si continua a postare che conta solo l'IPC e non si considera pure la frequenza.
Per il resto, riguardo ai consumi, non è altro che un trita e ritrita delle stesse cose. Ti faccio una domanda, e se mi rispondi vedrai che la risposta ti viene fuori da sola.
Ipotizzando che il passaggio dal 45nm al 32nm possa portare un miglioramento del 30% del consumo a parità di prestazioni... ipotizzando che un 8150 consumi gli stessi W di un Thuban, è più ipotizzabile che AMD abbia realizzato un'architettura con un 30% in più di consumo a parità di prestazioni, oppure che sia il silicio che abbia un consumo superiore alle aspettative?

paolo.oliva2
10-03-2012, 19:54
io cmq non farei molto il confronto tra un thuban x6 e un fx-8150 o 8120 per il semplice fatto che oltre ad essere due architetture diverse hanno anche pro e contro diverse tipo si l'FX ti consuma di piu ma e anche proporzionale al carico(dalle testimonianze di gente qua nel forum che l'ha costatato) fx tiene molto meglio il carico di un thuban ma ora parliamo in soldoni!!

allora stando al grafico postato da acergrancer sotto carico tra un fx-8150 e un thuban 1100t la differenza e di 20w in piu per l'fx giusto?

calcolo:
20W=0.02kw

facendo una media giornaliera e a stare abbondandi 4 ore di full al giorno quindi 0.02kw*4=0.08kw al giorno in un anno 0.08kw*365=29.2kw annui in piu

in media un 1kw costa 0.16€->29.2kw*0.16=4.672€ in piu annui...ma stando sempre al grafico in idle fx consuma circa 20w in meno....BOH!!a voi la conclusione signori!!:cool:
spero di non aver trascurato qualcosa visto che sono di fretta e ho fame!

cmq io tra i due scelgo l'fx per il semplice fatto che:1) il motivo sopra citato 2)e una tecnologia piu nuova e tendera a migliorare 3) se mi trovo a usare un app o cmq un qualcosa che vuole piu carico (anche con SW futuri piu pesanti)con l'fx non sono spreparato cosa che invece lo sarei con un thuban.

sta storia dei consumi io la chiuderei!!

FINE!;)

Guarda, la storia dei consumi superiori di BD non è falsa ma è vera, il falso è voler far passare i 16€ di consumo in più annuali per un utilizzo tipo come se fossero al giorno.
Tra l'altro non bisogna confrontare un Thuban sul socket AM3 con un 8150 su socket AM3+, in quanto di suo il socket AM3+ consuma un 3W in più del socket AM3, quindi il confronto va fatto su proci entrambi montati sul socket AM3+ se al risultato si vuole dare il confronto esclusivamente dei proci.

°Phenom°
10-03-2012, 19:57
Ovviamente è il silicio, io non ho detto che la scelta di questa architettura è stata sbagliata, ma AMD doveva già tenere le distanze da prima con GF, questi sono i risultati..

Vinsss
10-03-2012, 20:02
Ovviamente è il silicio, io non ho detto che la scelta di questa architettura è stata sbagliata, ma AMD doveva già tenere le distanze da prima con GF, questi sono i risultati..



si si ok basta che non parliamo di differenza di consumi tra entrambi i 2 proci!!: D

Vinsss
10-03-2012, 20:12
il falso è voler far passare i 16€ di consumo in più annuali per un utilizzo tipo come se fossero al giorno.

esatto!

Tra l'altro non bisogna confrontare un Thuban sul socket AM3 con un 8150 su socket AM3+, in quanto di suo il socket AM3+ consuma un 3W in più del socket AM3, quindi il confronto va fatto su proci entrambi montati sul socket AM3+ se al risultato si vuole dare il confronto esclusivamente dei proci.

si si infatti come dicevo sono due architetture diverse che non confronterei

cmq stando al grafico i e usando il pc in idle l'fx consuma meno del thuban sempre stando al grafico!!

ra-mta
10-03-2012, 20:52
non difendiamo l'indifendibile :rolleyes:
i consumi inferiori sono un pregio che bd non ha, questo comporta un aumento del costo della bolletta per quanto può essere irrisorio sono sempre soldi in più per non avere nessun plus. Inoltre bisogna dimensionare meglio anche il sistema di raffreddamento con aumento del rumore..Che non vi interessino queste cose ok, ma almeno non cercate di farlo passare come una cosa ininfluente :doh:

dav1deser
10-03-2012, 21:04
non difendiamo l'indifendibile :rolleyes:
i consumi inferiori sono un pregio che bd non ha, questo comporta un aumento del costo della bolletta per quanto può essere irrisorio sono sempre soldi in più per non avere nessun plus. Inoltre bisogna dimensionare meglio anche il sistema di raffreddamento con aumento del rumore..Che non vi interessino queste cose ok, ma almeno non cercate di farlo passare come una cosa ininfluente :doh:

Guarda le recensioni e vedrai che in idle i consumi sono inferiori al 1100T e similari (e spesso anche ai Phenom II X4), quindi in un PC casalingo con utilzzo standard, difficilmente la bolletta risulterà più cara (il tempo che una CPU passa in idle è molto maggiore di quello in full, figuriamoci che essendo 8 core in full non ci andrà praticamente mai...). Certo non è un mostro di efficienza (tutt'altro) ma almeno in idle ha il pregio di essere meglio del precedente top di gamma.

°Phenom°
10-03-2012, 21:09
Si ma di andare peggio in quanto è decente solo in rendering, quindi in questo caso starà in full consumando tanto, di sicuro non viene scelto per gaming ed altre applicazioni che sfruttano pochi core, dato che in single core non vale niente a causa del suo basso ipc, che è ciò che in gaming conta.

Trokji
10-03-2012, 21:12
sì ma in idle sandy consuma una frazione. Comunque dipende dagli utilizzi, ad esempio io la cpu per la maggior parte del tempo la tengo in full, così credo anche sia però in un pc da gaming se poi per navigare o altro si usa il netbook

ra-mta
10-03-2012, 21:14
phenom ha perfettamente ragione (come quando dice che l'unico x8 "conveniente" è il fratellino 8120)..chi acquista un procio top di gamma per farlo stare la maggior parte del tempo in idle non ha fatto un acquisto oculato, in particolare se usa prevalentemente applicazioni st dove bd: costa più, scalda di più e rende meno di un i3..anche nei giochi non è certo una scelta molto azzeccata se vogliamo dirla tutta...

Vinsss
10-03-2012, 21:15
non difendiamo l'indifendibile :rolleyes:
i consumi inferiori sono un pregio che bd non ha, questo comporta un aumento del costo della bolletta per quanto può essere irrisorio sono sempre soldi in più per non avere nessun plus. Inoltre bisogna dimensionare meglio anche il sistema di raffreddamento con aumento del rumore..Che non vi interessino queste cose ok, ma almeno non cercate di farlo passare come una cosa ininfluente :doh:

non e questione di difendere l'indifendibile ma semplicemente che i conti parlano e su quello non si scappa in piu quel conto e fatto per i due proci in questione non infiliamoci anche qui in maniera sottintesa altro....in piu ho preso un grafico che hanno postato di recente e non io quindi non c'è neache la scusante che lo preso in qualche sito sconosciuto a posta!...poi se si vuole fare indifferenza anche con i conti alla mano allora quello e un'altro discorso..Pace e Amen!..il plus c'è che sarebbe la gestione di carico maggiore e il discorso rumore causa sistema di raffreddamento varrebbe per entrambi quindi nessuna differenza

dav1deser
10-03-2012, 21:18
phenom ha perfettamente ragione (come quando dice che l'unico x8 "conveniente" è il fratellino 8120)..chi acquista un procio top di gamma per farlo stare la maggior parte del tempo in idle non ha fatto un acquisto oculato, in particolare se usa prevalentemente applicazioni st dove bd: costa più, scalda di più e rende meno di un i3..anche nei giochi non è certo una scelta molto azzeccata se vogliamo dirla tutta...

La maggior parte della gente non fa acquisti oculati...

°Phenom°
10-03-2012, 21:24
phenom ha perfettamente ragione (come quando dice che l'unico x8 "conveniente" è il fratellino 8120)..chi acquista un procio top di gamma per farlo stare la maggior parte del tempo in idle non ha fatto un acquisto oculato, in particolare se usa prevalentemente applicazioni st dove bd: costa più, scalda di più e rende meno di un i3..anche nei giochi non è certo una scelta molto azzeccata se vogliamo dirla tutta...

Ecco, quello che volevo far capire anche io, a sto punto per tenerlo in idle mi prendo un i3 che non consuma niente e lo stesso va molto meglio in gaming e nelle altre applicazioni che sfruttano max 2 core, che motivo avrei sennò di acquistare bulldozer ad 8 core per non farci nulla ;)

ra-mta
10-03-2012, 21:29
non e questione di difendere l'indifendibile ma semplicemente che i conti parlano e su quello non si scappa in piu quel conto e fatto per i due proci in questione non infiliamoci anche qui in maniera sottintesa altro....in piu ho preso un grafico che hanno postato di recente e non io quindi non c'è neache la scusante che lo preso in qualche sito sconosciuto a posta!...poi se si vuole fare indifferenza anche con i conti alla mano allora quello e un'altro discorso..Pace e Amen!..il plus c'è che sarebbe la gestione di carico maggiore e il discorso rumore causa sistema di raffreddamento varrebbe per entrambi quindi nessuna differenza

devo pensare quindi che il tuo uso principale sia nella gestione di carichi da server quindi niente ( o quasi):
*giochi
*editing video-foto-audio
*render
*modellazione
*programmazione
*office
*internet
*visione filmati e via dicendo..
no perchè solo nel primo caso il tuo discorso ha senso, ed è appunto una percentuale davvero ridotta rispetto alla somma di tutti gli altri ambiti:O

Vinsss
10-03-2012, 21:31
phenom ha perfettamente ragione (come quando dice che l'unico x8 "conveniente" è il fratellino 8120)..chi acquista un procio top di gamma per farlo stare la maggior parte del tempo in idle non ha fatto un acquisto oculato, in particolare se usa prevalentemente applicazioni st dove bd: costa più, scalda di più e rende meno di un i3..anche nei giochi non è certo una scelta molto azzeccata se vogliamo dirla tutta...

nessuno ha detto che uno compra un top gamma per tenerlo in idle!!!ho solo detto che durante l'arco della giornata ci sono i momenti in idle che compensano quelli in full anche io sono un giocatore ma non sto 24 su 24 a giocare e quindi in full poi dipende dalla persona per carità però credo che la maggior parte dell'utenza ha momenti in cui sta in idle e non tutti hanno il netbook!...cmq come immaginavo da un test tra due proci AMD ci infiliamo in maniera sottintesa INTEL che non era in argomento in piu fare un esempio con i3=8150 scusa ma questa proprio la potevi evitare se proprio dovevi fare un paragone,e ripeto non era in argomento,lo potevi fare con un 2500k o un 2600k!!

dav1deser
10-03-2012, 21:33
Ecco, quello che volevo far capire anche io, a sto punto per tenerlo in idle mi prendo un i3 che non consuma niente e lo stesso va molto meglio in gaming e nelle altre applicazioni che sfruttano max 2 core, che motivo avrei sennò di acquistare bulldozer ad 8 core per non farci nulla ;)

Ormai lo sanno anche i muri che i BD sono pieni di difetti, quello che voglio dire io è che paragonato alla precedente generazione AMD almeno un vantaggio c'è. Poi io ho guardato le recensioni paragonando FX-8150 e 1100T ma penso che il discorso sia estendibile a tutta la gamma FX e PII X4 e X6, quindi per lo meno in idle, gli FX si comportano meglio dei PII. E visto che negli FX ci sono anche modelli a 4 core, vi va bene dire che, almeno loro, passeranno gran parte del tempo in idle? E che quindi potrebbero essere persino un vantaggio per la bolletta rispetto ad un PII X4? Poi che con intel la situazione possa essere anche migliore, è un'altro discorso.

P.S pensandoci mi viene da chiedermi quanto possa migliorare l'efficienza degli FX disabilitando il turbo, ok le prestazioni saranno inferiori, ma anche i consumi medi (visto che il turbo serve proprio ad avvicinarsi il più possibile ai consumi massimi ammissibili), e forse il paragone con i vecchi Phenom II risulterebbe un po' più accettabile.

ra-mta
10-03-2012, 21:42
:rolleyes: ha senso nominare il demonio (intel) semplicemente perchè per le cpu casalinghe i competitor sono due non si scappa e se guardi nelle applicazioni ST l'i3 va meglio del phenom e di bd per via dell'ipc sensibilmente maggiore, che c'è di strano (consideriamo il costo)?
Sono cose risapute, come ormai penso sia scontato che a rotazione, si rimettono in dubbio i difetti di bd che sono ampiamente emersi precedentemente :muro:
Mentre chi ha interesse ad una macchina produttiva aspetta vishera (me compreso, così rottamo l'x3 sbloccato)

Te la riscrivo più facile, il consumo più alto non è un bene e solo in alcuni frangenti si può accantonare, come i carichi server appunto..
visto che tu sei un giocatore (IO NO) dovresti sapere che un x8 non ti da vantaggi commisurati al suo prezzo, se poi ci aggiungi un uso misto, bd x8 è stata davvero una scelta pessima...felice tu, felice tutti comunque..
Neanche io ho un netbook, ma mentre sul portatile stà facendo il backup di un disco da sistemare, il fisso è in full load da circa 32 ore per una chiave che non viene decriptata...ma non per questo dico che in idle bd poteva consumare 70w in più perchè a me "non serve" lesinare sul consumo in quello stato..è una piccola cosa, ma sempre e comunque buona (rispetto al phenom)

@dav1deser: credo che si possa spuntare qualche mhz in più in oc con vcore @default che con il turbo, però dovrebbero confermatelo paolo, shellx, randa etcetc

°Phenom°
10-03-2012, 21:46
è la stessa cosa che dico io da prima, è inutile bulldozer, meglio apsettare vishera...

Vinsss
10-03-2012, 21:48
Ormai lo sanno anche i muri che i BD sono pieni di difetti, quello che voglio dire io è che paragonato alla precedente generazione AMD almeno un vantaggio c'è. Poi io ho guardato le recensioni paragonando FX-8150 e 1100T ma penso che il discorso sia estendibile a tutta la gamma FX e PII X4 e X6, quindi per lo meno in idle, gli FX si comportano meglio dei PII. E visto che negli FX ci sono anche modelli a 4 core, vi va bene dire che, almeno loro, passeranno gran parte del tempo in idle? E che quindi potrebbero essere persino un vantaggio per la bolletta rispetto ad un PII X4? Poi che con intel la situazione possa essere anche migliore, è un'altro discorso.

GRAZIE!:)

pensandoci mi viene da chiedermi quanto possa migliorare l'efficienza degli FX disabilitando il turbo, ok le prestazioni saranno inferiori

se disabiliti il turbo le prestazioni aumentano non diminuiscono...di poco eh!ma aumentano..perche col turbo le frequenze saltellano e a volte calano piu del minimo mentre col turbo disabilitato sta piu costante a quella Fhz e rende leggermente di piu ma se leggi 1/2 pagine prima lo dice anche opp

paolo.oliva2
10-03-2012, 21:57
Ovviamente è il silicio, io non ho detto che la scelta di questa architettura è stata sbagliata, ma AMD doveva già tenere le distanze da prima con GF, questi sono i risultati..

Sono d'accordo che la riuscita di un procio sta nella simbiosi architettura-silicio, dove l'architettura deve sfruttare appieno il silicio e quindi progettata per il silicio come il silicio non deve creare limiti all'architettura.

Il problema è che la progettazione di BD è nata 5 anni fa, ben prima che GF rilevasse le FAB ad AMD e molto prima che si posassero le basi del 32nm.

Nessuno discute che se AMD avesse avuto la certezza che il 32nm non poteva garantire minor TDP per le stesse frequenze avrebbe cercato soluzioni alternative per la ricerca della potenza massima... ma, per me, l'errore, è che AMD ha voluto o dovuto dormire per troppo tempo sul 45nm liscio e sul K10, arrivando al punto che si è vista costretta a fare 2 passi, uno sulla miniaturizzazione silicio e l'altro sul rinnovo dell'architettura.
Che poi il risultato è l'8150, nessuno puo' dire di saltare dalla felicità, ma certamente è un insieme di cose.

Ora come ora è vedere se AMD/GF possono riparare allo sbaglio. AMD non può, a mio avviso, fare più di tanto nell'architettura se non ottimizzarla, in quanto stravolgerla con FPU in più o addirittura potenziarne gli INT, vorrebbe dire 1-2 anni di tempo, e non ne vedrei l'utilità visto che comunque AMD potrebbe sfruttare l'indubbio vantaggio che ATI le assicura per quanto riguarda l'APU di seconda generazione.
L'unica è sperare in un miglioramento del silicio, anche se, a mio avviso, il fatto che AMD/GF abbandonino il SOI non è certamente un segnale del tipo 4,5GHz def... però già i 3,9GHz, uniti all'aumento di IPC, sarebbero accettabili anche se non soddisfacenti. Se poi fossero raggiungibili i 3,9GHz per un X10 o i 4,2GHz per un X8, la cosa diventerebbe MOLTO soddisfacente... ma... nessuna aspettativa se non il fatto di una certezza di miglioramento.

°Phenom°
10-03-2012, 22:03
Ecco paolo, qui hai detto veramente come stanno le cose, ma il problema è uno, non tutti hanno bisogno di 10 core, AMD deve cercare di massimizzare la potenza in single core, la fascia di utenza che vuole 10 core discreti invece che 4 cazzuti è veramente bassa, dato che le persone che acquisteranno vishera solo per rendereing saranno poche, il resto delle persone lo acquisterà per un uso a 360 gradi, e vishera deve garantire un ottimo rendimento, almeno superiore a quello dei phenom anche in queste applicazioni, in tal caso, amd avrebbe risolto la maggior parte dei suoi problemi.
Spero di essere stato chiaro :D

paolo.oliva2
10-03-2012, 22:22
nessuno ha detto che uno compra un top gamma per tenerlo in idle!!!ho solo detto che durante l'arco della giornata ci sono i momenti in idle che compensano quelli in full anche io sono un giocatore ma non sto 24 su 24 a giocare e quindi in full poi dipende dalla persona per carità però credo che la maggior parte dell'utenza ha momenti in cui sta in idle e non tutti hanno il netbook!...cmq come immaginavo da un test tra due proci AMD ci infiliamo in maniera sottintesa INTEL che non era in argomento in piu fare un esempio con i3=8150 scusa ma questa proprio la potevi evitare se proprio dovevi fare un paragone,e ripeto non era in argomento,lo potevi fare con un 2500k o un 2600k!!

Io ho un 1090T che lo posso tenere RS DU TRANQUILLAMENTE a 4,3GHz, mentre la stessa cosa (sottolineando che io carico il procio oltre gli 8TH) NON la posso fare con l'8150 oltre i 4,5GHz.

Però io uso l'8150 e non il 1100T...

Quello che ho postato più volte e in pochi lo comprendono, è che in carico un Thuban ed un 8150 sono nettamente differenti.

Carico una conversione video tra Thuban e 8150, l'8150 va leggermente più veloce.
Raddoppio i TH caricando contemporaneamente 2 volte la stessa applicazione, con il Thuban non è utile semplicemente perchè il tempo aumenta più del doppio. Con l'8150 NO!!! A me non frega una tozza se nel bench conversione video l'8150 è del 5% solamente più veloce del Thuban, se poi mi risulta più veloce del 100% nel caso di 2 istanze oltretutto con comportamento procio perfettamente libero invece del Thuban inginocchiato alla grande ed inutilizzabile per altro.

Cioè... io non capisco questo muro a non voler comprendere quello che io ho postato da una vita CON TANTO DI SCREEN E TEMPI, e anche riportato da altri in diverse situazioni..., boh... non voglio fare polemica, ma secondo voi a 48 anni con tante altre cose per la mente, mi sbelino a fare il fanboy per difendere un procio AMD perdendoci un tot di tempo?

Un i3 superiore all'8150? Ho il mobile con l'i3... se devo fare compressioni e conversioni video, all'i3 non ci penso minimamente, l'8150 risulta più veloce almeno di 4 volte (e sto parlando a def, OC escluso...)

paolo.oliva2
10-03-2012, 22:36
Ecco paolo, qui hai detto veramente come stanno le cose, ma il problema è uno, non tutti hanno bisogno di 10 core, AMD deve cercare di massimizzare la potenza in single core, la fascia di utenza che vuole 10 core discreti invece che 4 cazzuti è veramente bassa, dato che le persone che acquisteranno vishera solo per rendereing saranno poche, il resto delle persone lo acquisterà per un uso a 360 gradi, e vishera deve garantire un ottimo rendimento, almeno superiore a quello dei phenom anche in queste applicazioni, in tal caso, amd avrebbe risolto la maggior parte dei suoi problemi.
Spero di essere stato chiaro :D

Guarda, ti porto un altro esempio.
Quando usci' Llano, qui nel TH era un continuo postare di flop, che non ne avrebbe venduto alcuno e tanti commenti sullo stesso tipo.
Invece le vendite di Llano sono svettate ed alla grande.

Cosa vuole dire? Che Llano è risultato un prodotto più soddisfacente per più clienti.

La clientela professionale vuole la potenza, a discapito del prezzo.
La clientela obbistica, la stragrande maggioranza, guarda prima che range di prodotti offre il mercato su un tetto massimo di prezzo, per poi acquistare quello che offre di più.
I 4 core cazzuti hanno un senso fino a quando offrirebbero di più di un X8 AMD. Ora il 2600K, X4 cazzuto offre di più di un 8150? Benissimo, è preferibile.
Ma se Vishera X8 garantisse prestazioni superiori ad un 2600K, ecco che le cose cambierebbero. Perchè? Perchè sicuramente un Vishera non arriverà MAI all'IPC ST di Intel, quindi nei giochi con SLI/CF AMD sarebbe esclusa... ma dimmi in che percentuale... cioè... su 100 che giocano, quanti lo fanno a risoluzioni inferiori di quelle concesse da un monitor LCD? E sul rimanente, in quanti hanno uno SLI/CF nel sistema?
Su quel risultato X ecco che avresti la percentuale per la quale se un Vishera andasse meglio in MT a "loro" non interesserebbe una mazza dei 4 core cazzuti.
E' lo stesso discorso del SPI... è facile postare il risultato e fa impressione..., ma chi compra il procio unicamente per il risultato di SPI? OK, quelle 4-5 persone che lo occano ad azoto per ricercare il WR. I rimanenti 6 miliardi?

ra-mta
10-03-2012, 22:38
paolo benedetto uomo non estrapolare frasi alla "penis lupus" (detto alla banfi maniera: alla chez*o de cane)..ho paragonato l'i3 (ed ho inserito la parola COSTO) nelle applicazioni ST :rolleyes:
hai presente winzip, encoder che usano lame e similari? e sopratutto, perchè tiri fuori il notebook? non ho parlato di processori per portatili :muro:
un pò di serietà su;)

per la cronaca, quando uscirà vishera, sb x4 non sarà più "prodotto" si dovrà scontrare con ivy che uscirà prima del prodotto amd ;)

paolo.oliva2
11-03-2012, 07:30
Ormai lo sanno anche i muri che i BD sono pieni di difetti, quello che voglio dire io è che paragonato alla precedente generazione AMD almeno un vantaggio c'è. Poi io ho guardato le recensioni paragonando FX-8150 e 1100T ma penso che il discorso sia estendibile a tutta la gamma FX e PII X4 e X6, quindi per lo meno in idle, gli FX si comportano meglio dei PII. E visto che negli FX ci sono anche modelli a 4 core, vi va bene dire che, almeno loro, passeranno gran parte del tempo in idle? E che quindi potrebbero essere persino un vantaggio per la bolletta rispetto ad un PII X4? Poi che con intel la situazione possa essere anche migliore, è un'altro discorso.

...P.S pensandoci mi viene da chiedermi quanto possa migliorare l'efficienza degli FX disabilitando il turbo, ok le prestazioni saranno inferiori, ma anche i consumi medi (visto che il turbo serve proprio ad avvicinarsi il più possibile ai consumi massimi ammissibili), e forse il paragone con i vecchi Phenom II risulterebbe un po' più accettabile...

Bisogna riallacciare questo al discorso al discorso di AMD "con un carico normale" e con quello che ho scritto prima...
Il tuo discorso è giusto, ma probabilmente consumerebbe di più a 3,6GHz con 16TH che frullano rispetto a 3,9ghz ma con 8TH.

Ti ricordi le prime prove con OCCT di RS che hanno fatto passando l'RS per determinate frequenze e poi all'atto pratico non ci si trovava il procio RS o con temp ben più alte?
E' semplice... perchè mentre con un Phenom II il test OCCT risulta anche più esoso rispetto al carico normale, arrivando a temp anche più alte di 3-4° rispetto all'utilizzo massimo pratico, con un BD invece non arriva alla condizione di stress massimo.

Credo che aumentando i TH a modulo si arrivi alla condizione di far lavorare 2 parti INT con pure la FPU, vista come doppia nel caso di istruzioni non AVX., o comunque il modulo si ritrova meno cicli a vuoto
rispetto a 2TH. La differenza è che in linea di massima con 2TH a modulo si potrebbe arrivare al 60% di utilizzo transistor, con più TH forse anche al 90% e la differenza in TDP si sente e parecchio.

Tralasciando il discorso di funzionamento di 2 moduli anzichè 4, comunque vi è una differenza di 300MHz tra 8TH e >8TH, ma alle frequenze def, quindi ipotizzando la condizione di consumo doppio in OC, il margine di frequenza lavorativa anch'esso dovrebbe raddoppiare, passando da 300MHz a 600MHz (anche se per la non linearità dell'aumento dei consumi in base alla frequenza dovrebbe essere inferiore).

E' questo che incide più dell'aumento dei consumi all'aumentare della frequenza che indubbiamente nessuno può smentire... ma altrettanto indubbiamente, un conto sarebbe il TDP generato da un 8150 a 4,5GHz in OC con 8TH, e alla stessa frequenza ma con 20TH.
Per le prove fatte in passato, io potevo arrivare anche a 4,7GHz rimanendo tranquillamente sotto i 40° con carichi normali, ma essere già a filo dei 50° a 4,5GHz con carichi sui 20TH.

paolo.oliva2
11-03-2012, 07:43
paolo benedetto uomo non estrapolare frasi alla "penis lupus" (detto alla banfi maniera: alla chez*o de cane)..ho paragonato l'i3 (ed ho inserito la parola COSTO) nelle applicazioni ST :rolleyes:
hai presente winzip, encoder che usano lame e similari? e sopratutto, perchè tiri fuori il notebook? non ho parlato di processori per portatili :muro:
un pò di serietà su;)

per la cronaca, quando uscirà vishera, sb x4 non sarà più "prodotto" si dovrà scontrare con ivy che uscirà prima del prodotto amd ;)

Se vuoi confrontare le potenze ST, semplicemente è ridicolo prendere un X2 Intel ed un X8 AMD come esempio, tra l'altro il top 8150, e poi fare il confronto prezzo. Prendi un BD X4, la cui differenza ST rimane invariata ma il cui costo diminuisce e di un totale.
Non capisco queste continue "frecciate" dove si vuole fare passare un procio superiore in tutto prendendo invece un singolo aspetto, partendo su un confronto alla cazzum di cane. Ti sembra costruttivo e soprattutto serio? (visto che riporti a me il fatto di serietà).

gianni1879
11-03-2012, 09:18
moderiamo i termini e dateci un taglio a questi discorsi, sono triti e ritriti. Non se ne può di leggere sempre le stesse cose in questo thread.

capitan_crasy
11-03-2012, 09:39
@Capitano o altri utenti (possibilmente esperti):

Avevo letto tempo fa che c'erano dei modelli opteron compatibili con il socket am3+.... quali sono ?
E quali differenze hanno rispetto gli FX in termini tecnici ?

Grazie.

Gli opteron destinati al socket AM3+ sono processori FX che hanno subito il severo testing per le CPU destinate al mercato server; a livello di caratteristiche non subiscono alcuna modifica se paragonate alla controparte desktop, compreso la gestione delle memorie di tipo NON-ECC.
Ci saranno versioni con un massimo di 8 core (quindi niente quad channel o versioni a 12/16 core) e a scanso di equivoci la forma della CPU è la stessa delle attuali CPU serie FX...

ra-mta
11-03-2012, 12:16
Se vuoi confrontare le potenze ST, semplicemente è ridicolo prendere un X2 Intel ed un X8 AMD come esempio, tra l'altro il top 8150, e poi fare il confronto prezzo. Prendi un BD X4, la cui differenza ST rimane invariata ma il cui costo diminuisce e di un totale.
Non capisco queste continue "frecciate" dove si vuole fare passare un procio superiore in tutto prendendo invece un singolo aspetto, partendo su un confronto alla cazzum di cane. Ti sembra costruttivo e soprattutto serio? (visto che riporti a me il fatto di serietà).

continui sempre a travisare:rolleyes:
era stato detto che il consumo di bd (8150) in full non era un problema perchè il processore passa in idle la maggior parte del tempo e che difficilmente si caricano gli 8 "core", il paragone con l'i3 era per far capire che se si lavora in st con programmi leggeri non ha senso prendere bd che consuma di più e rende di meno, è chiaro adesso? Ti sembra una scelta ponderata prendere il top di gamma per tenerlo la maggior parte in idle con programmi st? Che poi c'è la libertà di scelta è chiaro, ma se si ragiona in ottica utilità\costo\consumi\performance\ambito applicativo, come si dovrebbe fare in un forum specialistico, l'acquisto è errato
*vedi post 7119*

quindi come vedi non sono io che lancio frecciatine, poi frecciatine di cosa, ho sempre detto che bd è pietoso su quasi tutti i fronti e che spero venga bene vishera visto che ho una scheda am3+ presa appunto per bd (prima che uscivano i processori)

Athlon 64 3000+
11-03-2012, 12:57
Veramente Basta in tutti i sensi,sia per dimostrare che gli FX non sono dei flop che venire a dire che Intel è il meglio a prescindere.
Sono mesi che spendete fiumi di parole per dire le stesse cose e io ho già dato da tempo la mia opinione su Zambezi.
Sarebbe bello se si sapesse qualcosa di più su Vishera per avere di qualcosa di più costruttivo su cui discutere.

Cocco83
11-03-2012, 13:27
Gli opteron destinati al socket AM3+ sono processori FX che hanno subito il severo testing per le CPU destinate al mercato server; a livello di caratteristiche non subiscono alcuna modifica se paragonate alla controparte desktop, compreso la gestione delle memorie di tipo NON-ECC.
Ci saranno versioni con un massimo di 8 core (quindi niente quad channel o versioni a 12/16 core) e a scanso di equivoci la forma della CPU è la stessa delle attuali CPU serie FX...

Però magari sono selezioni migliori di silicio e salgono meglio :D

°Phenom°
11-03-2012, 13:32
A chi può servire, ecco una notizia "apparentemente" recente su Vishera: http://hardware.hdblog.it/2012/03/11/amd-fx-8350-con-core-vishera-debutto-in-autunno/

Per bulldozer basta parlare veramente, tanto anche se lo sanno pure i muri che è una cpu inutile comunqe la si continua a difendere.

Comunque ritornando a Vishera, ma che combina AMD, in teoria da queste fonti dovrebbe iniziare la produzione ad inizio 2013 addirittura....

tengo famiglia
11-03-2012, 18:45
FX 6100, qualcuno mi può aiutare con le frequenze? (ho usato l'apposito post) http://www.hwupgrade.it/forum/showthread.php?p=37081292#post37081292
Grazie

OPP
11-03-2012, 18:49
Comunque ritornando a Vishera, ma che combina AMD, in teoria da queste fonti dovrebbe iniziare la produzione ad inizio 2013 addirittura....

come inizio 2013?:eek:

Mister D
11-03-2012, 18:56
A chi può servire, ecco una notizia "apparentemente" recente su Vishera: http://hardware.hdblog.it/2012/03/11/amd-fx-8350-con-core-vishera-debutto-in-autunno/

Per bulldozer basta parlare veramente, tanto anche se lo sanno pure i muri che è una cpu inutile comunqe la si continua a difendere.

Comunque ritornando a Vishera, ma che combina AMD, in teoria da queste fonti dovrebbe iniziare la produzione ad inizio 2013 addirittura....

Scusami ma dalla news che hai postato te al massimo si può interpretare l'autunno 2012, da dove l'hai tirato fuori il 2013?
Q3 non corrisponde al terzo trimestre? Luglio-Agosto-Settembre? Q non sta per quarter cioè quarto di anno?
http://www.investopedia.com/terms/q/quarter.asp#axzz1opsqGZYU

shellx
11-03-2012, 19:03
Gli opteron destinati al socket AM3+ sono processori FX che hanno subito il severo testing per le CPU destinate al mercato server; a livello di caratteristiche non subiscono alcuna modifica se paragonate alla controparte desktop, compreso la gestione delle memorie di tipo NON-ECC.
Ci saranno versioni con un massimo di 8 core (quindi niente quad channel o versioni a 12/16 core) e a scanso di equivoci la forma della CPU è la stessa delle attuali CPU serie FX...

Grazie capitano.
Per il discorso della forma sapevo già che i modelli am3+ sono come gli FX è logico visto che il socket è sempre quello, sono quelli per server ad essere piu rettangolari visto che il socket per esse è rettangolare. ;)

Comunque ritornando a Vishera, ma che combina AMD, in teoria da queste fonti dovrebbe iniziare la produzione ad inizio 2013 addirittura....

Vishera debutta in autunno. No nel 2013. E quell'articolo dice la stessa cosa. Dove dice che la produzione avviene nel 2013 ?

°Phenom°
11-03-2012, 19:29
Avevo capito che i primi esemplari nascevano in autunno, e che poi la produzione vera e propria sarebbe iniziata inizio 2013, avrò capito male, menomale! :D

paolo.oliva2
11-03-2012, 19:31
Però magari sono selezioni migliori di silicio e salgono meglio :D

Potrebbe anche essere... del resto i proci server fanno parte della selezione migliore.
Ma sono step B2g o saranno sullo step C?

paolo.oliva2
11-03-2012, 20:10
continui sempre a travisare:rolleyes:
era stato detto che il consumo di bd (8150) in full non era un problema perchè il processore passa in idle la maggior parte del tempo e che difficilmente si caricano gli 8 "core", il paragone con l'i3 era per far capire che se si lavora in st con programmi leggeri non ha senso prendere bd che consuma di più e rende di meno, è chiaro adesso?
Allora ti replico e non è per polemica (riferito a Gianni) perchè sbagli questa considerazione, almeno in parte, perchè dipende dal numero di applicazioni ST.

Come saprai, il comportamento del silicio ha un consumo via via superiore all'aumentare della frequenza, con il limite di vendita di frequenza stabilito dal massimo TDP della casa produttrice.
Un procio ha un numero di transistor "fissi" in base all'architettura in cui il consumo della parte I/O e cache rimane costante perchè non dipendente dal clock della parte "logica", quindi quando si parla di proci a 65W, 95W, 125W, in realtà (a parità di numero di moduli), il consumo in più è riferito unicamente alla frequenza superiore con cui i moduli lavorerebbero.
Facendo un esempio a spannella, se prendessi un BD X4 e lo facessi lavorare a 4GHz, elaborerebbe 8 istanze ST in un tempo uguale ad un BD X8 fatto lavorare ad una frequenza di 2GHz, ma questa frequenza inferiore è a vantaggio del consumo perchè il silicio risulterebbe più ottimizzato e sarebbe anche meglio nel caso di un teorico BD X2.

Ti sembra una scelta ponderata prendere il top di gamma per tenerlo la maggior parte in idle con programmi st? Che poi c'è la libertà di scelta è chiaro, ma se si ragiona in ottica utilità\costo\consumi\performance\ambito applicativo, come si dovrebbe fare in un forum specialistico, l'acquisto è errato
*vedi post 7119*

Appunto, dipende da quanti programmi ST vuoi elaborare contemporaneamente... ad esempio nell'uso di Boinc, consumerà MOLTO meno un 8150 X8 rispetto ad un X2 i3 se fatti lavorare per ottenere la stessa quantità di elaborazione nello stesso arco di tempo.
Diverso invece il caso di 1 applicazione ST, ma ritorniamo sempre al discorso che la scelta di acquistare un X8 unicamente per i giochi, sarebbe sbagliata a priori perchè comunque spenderesti soldi per moduli in più non utilizzati.

quindi come vedi non sono io che lancio frecciatine, poi frecciatine di cosa, ho sempre detto che bd è pietoso su quasi tutti i fronti e che spero venga bene vishera visto che ho una scheda am3+ presa appunto per bd (prima che uscivano i processori)
E ridaie... se per te è più pietoso di un Thuban, puoi sempre montarci quel procio sulla tua mobo in attesa di Vishera.

winebar
11-03-2012, 20:10
Potrebbe anche essere... del resto i proci server fanno parte della selezione migliore.
Ma sono step B2g o saranno sullo step C?

Secondo me usciranno con lo step C. O almeno, penso che sia se lo step C è realmente pronto sia che non lo sarà lo chiameranno comunque step C, altrimenti (giustamente) molti si lamenterebbero del fatto che AMD & GF non hanno lavorato sulle migliorie al pp nonostante gli svariati problemi che conosciamo.

winebar
11-03-2012, 20:26
continui sempre a travisare:rolleyes:
era stato detto che il consumo di bd (8150) in full non era un problema perchè il processore passa in idle la maggior parte del tempo e che difficilmente si caricano gli 8 "core", il paragone con l'i3 era per far capire che se si lavora in st con programmi leggeri non ha senso prendere bd che consuma di più e rende di meno, è chiaro adesso?

Giusto per fartelo notare, il ragionamento di Paolo è corretto, nel senso che in ogni caso i core consumano, quando sono in idle l'unica differenza è che non fanno calcoli, abbassano la frequenza e, quindi, la tensione, consumando meno. E proprio questo consumo basso fa sì che un BD X8 che lavora con 2 core attivi sia molto meno efficente di un I3 proprio per via dell'aumento dei consumi (che limita, e parecchio, la frequenza massima raggiungibile in turbo). Al massimo il confronto potesti farlo con BD X8 con 3 moduli disattivi. Però in questo caso, se il confronto "s'ha da fare", è comunque più corretto farlo con un qualcosa che naviga a prezzi simili, in modo da avere un rapporto prezzo/prestazioni (su 2 core) più onesto.

BD in ogni caso NON fa schifo, certamente ha deluso e non lo nego (io ho ancora il 955 per questo), la sua delusione più grande è stato il prezzo, dato che va pari (a volte meno, a volte più) di un 2500k. Al prezzo attuale (185$ listino ufficiale AMD) un 8150 è un'ottima scelta, dove il 2500k ne costa 225 (sempre listino ufficiale, ovviamente Intel).
Ovvio che poi lo street price è minore, ma il confronto non si fa MAI su quello, così come non si fa su ipotetiche offerte (lo specifico giusto per precauzione).
Ovviamente non ho nessuna intenzione di iniziare un flame. ;D

°Phenom°
11-03-2012, 20:40
Io dico che AMD dovrebbe concentrarsi al massismo nell'aumentare l'ipc o almeno la frequenza ma ovviamente con consumi ridotti, perchè ripeto, le persone che che usano 6-8 core sono pochissime ripetto a chi il pc lo usa a 360 gradi o per gaming e programmi single core, quindi inutile che farà cpu con 10 core che avranno un aumento di ipc molto basso rispetto a bulldozer, dato che così non potrà mai essere competitiva, quindi il risultato sarà quello di avere incassi molto bassi, dato che la maggior parte dell'utenza cerca ben altro, e quindi punterà di sicuro su Ivy Bridge o per pc a basso costo che offrono anche buone prestazioni grafiche sulle APU, quindi se Vishera non fa un piccolo miracolo, io la vedo tagliata di nuovo fuori dal mercato. Spero che AMD ci abbia pensato a questo...

aldooo
11-03-2012, 20:44
BD in ogni caso NON fa schifo, certamente ha deluso e non lo nego (io ho ancora il 955 per questo), la sua delusione più grande è stato il prezzo, dato che va pari (a volte meno, a volte più) di un 2500k. Al prezzo attuale (185$ listino ufficiale AMD) un 8150 è un'ottima scelta, dove il 2500k ne costa 225 (sempre listino ufficiale, ovviamente Intel).


Purtroppo hai letto male :doh:

8150 $245, listino ufficiale AMD
http://www.amd.com/us/products/pricing/Pages/desktop-amdfx.aspx

2550K $225, listino ufficiale Intel
http://www.intc.com/pricelist.cfm

E questo non è il thread di consigli per gli acquisti...

°Phenom°
11-03-2012, 20:50
Si ma alla fine all'utente che deve comprare una cpu poco importa il prezzo di listino, dato che il prezzo che alla fine si va a spendere è quello reale, quindi in questo caso abbiamo: 178 euro per il 2500K e 219 per l'fx 8150.
Quindi come ho già detto, se proprio si deve acquistare un bulldozer 8 core sarebbe meglio l'8120 dato che si trova a soli 153 euro.

tengo famiglia
11-03-2012, 20:53
ragazzi parla il niubbone ora (io) :D perchè confrontandomi con voi, quando si tratta di questi argomenti, la cosa più saggia che posso fare è silenzio.
Però parlo in maniera oggettiva ora, lasciamo stare i cavalli e la coppia (usando termini del motore a scoppio)
Montata la scheda, ho finito di installare il tram tram, e finalmente stasera sto lavorando. Oggettivamente parlando, lavorando con Adobe ps lightroom 4 ho notato un incremento spetatcolare, venivo da un e5400 okkato a 3400 mhz col vcore in default, schifo non faceva ma ora vedo una differenza esagerata. Ho esportato 70 raw con la rid rumore, file da 12.7 mpx in qualche minuto.

Poi con delle prove rapide su Edius 6 riesco a editare il full hd in tempo reale senza problemi, usando il file originale della camera, (chissà quanti mi seguono ora) e dunque col codec originale e non quello propietario di edius, cioè in pratica così facendo il compito della cpu di decomprimere ogni singolo fotogramma è doppio se non triplo. Prima con l'e5400 questa era fantascienza, riuscivo solo col codec proprietario di edius.

Ora considerato che:
- non è logico fare un paragone tra un FX x6 e un core duo 45nm
-un fx 6100 va molto meno di un 2600k, e il paragone non esiste

Mi domando:

-avrei fatto bene a prendere un top consumer tipo il 2600k intel? l'avrei sfruttato?
- se questo fx6100 mi soddisfa in pieno, dunque io da professionista mi chiedo che capacità ha un 2600k? allora siamo arrivati a livelli mostruosi
- quanti sfruttano un 2600k o un 2500k per lavorare e per la sua capacità di calcolo e non per veder crescere i numeri in oc?

Considerando che ho speso 240 euro per cpu+mb e 8giga di ram, solo 240 euro allora credo di aver fatto benone a fermarmi a questo step e appunto, aspettando piledriver :D

°Phenom°
11-03-2012, 21:00
Come ti ho già detto, se vuoi attendere gli sviluppi e quindi piledriver non hai fatto malaccio però aimè, per il prezzo che ha l' fx 8120 cioè 153 euro, sarebbe stato un best buy per l'uso che ne fai del pc, oppure potevi cercare usato un Phenom II x6, dato che comunque andrebbe si e no come un 8150.
Parlando del i7 2600K, certo avresti avuto molti miglioramenti rispetto al 6100, un pò meno marcati invece rispetto ad un bulldozer ad 8 core, ma comunque ormai hai fatto l'acquisto, quindi non ti resta che attendere e sperare in Vishera, appunto, come penso tutti gli altri.

tengo famiglia
11-03-2012, 21:07
Ho escluso l'fx 8120/50 e i thuban perchè hanno un tdp da 125w anche se ammetto è solo una mia fissazione
quindi non ti resta che attendere e sperare in Vishera, appunto, come penso tutti gli altri.

:cincin: spero veramente che questa volta non ci deluda

winebar
11-03-2012, 21:20
Purtroppo hai letto male :doh:

8150 $245, listino ufficiale AMD
http://www.amd.com/us/products/pricing/Pages/desktop-amdfx.aspx

2550K $225, listino ufficiale Intel
http://www.intc.com/pricelist.cfm

E questo non è il thread di consigli per gli acquisti...

Avevo letto qui:
http://www.engadget.com/2012/02/27/amd-rolls-out-two-new-bulldozer-chips-cuts-price-of-the-fx-8120/

In ogni caso non ho mai detto (ne pensato) che questo fosse il thread sui consigli per gli acquisti.
Non ho idea di come tu faccia i confronti, ma un consumatore valuta il rapporto tra prezzo e prestazioni.

-avrei fatto bene a prendere un top consumer tipo il 2600k intel? l'avrei sfruttato?
- se questo fx6100 mi soddisfa in pieno, dunque io da professionista mi chiedo che capacità ha un 2600k? allora siamo arrivati a livelli mostruosi
- quanti sfruttano un 2600k o un 2500k per lavorare e per la sua capacità di calcolo e non per veder crescere i numeri in oc?

L'avresti sfruttato. Ma comunque a quanto mi pare di capire le prestazioni ti aggradano e ti sei preso tutta la piattaforma ad un prezzo minore del solo 2600k.
In genere se con il PC fai molto editing/compressione è consigliato andare sugli Intel, dato che spesso sono più prestanti (e molti programmi sono ottimizzati proprio per gli Intel).
Va bè basta con l'OT. come detto da aldo non è il thread sui consigli per gli acquisti (anche se tu l'acquisto l'hai già fatto).

tengo famiglia
11-03-2012, 22:07
L'avresti sfruttato. Ma comunque a quanto mi pare di capire le prestazioni ti aggradano e ti sei preso tutta la piattaforma ad un prezzo minore del solo 2600k.
In genere se con il PC fai molto editing/compressione è consigliato andare sugli Intel, dato che spesso sono più prestanti (e molti programmi sono ottimizzati proprio per gli Intel).
Va bè basta con l'OT. come detto da aldo non è il thread sui consigli per gli acquisti (anche se tu l'acquisto l'hai già fatto).
avevo un e5200, ho visto uscire l'i7 920, poi l'i5 750 e sinceramente su quest'ultimo volevo provare però ho continuato con un E5200, se non fosse stato sufficiente sarei subito passato a un i7 860 per esempio, però riuscivo. Ora non capisco perchè si parla di professionista=intel=sete di calcolo
Forse dei software professionali di nicchia sono ottimizzati bene anche per funzionare con i "trattori" e una supermega cpu e un extra di lusso? Questo forse nessuno lo mette in conto. Alla fin dei conti montavo e monterò i film in full HD. Era solo un e5400
(che poi mi si bruciò l'e5200 per eccesso di OC e comprai la prima cpu che mi capitò pur di consegnare e comprai un e5400 lavorando a un oc molto più moderato)

Per sostenere quello che ho detto http://media.bestofmicro.com/K/M/311782/original/res_app_photoshop.png

e questo
http://www.videosubitalia.com/snitz_forum/topic.asp?TOPIC_ID=1759

e a gennaio quando ho montato un filmato in multicamera di 3 camere full hd tagliandolo in tempo reale grazie al proxy, ho gridato al miracolo. Alla fine le prestazioni assolute sono solo da contorno per chi lavora.

ra-mta
12-03-2012, 00:02
Allora ti replico e non è per polemica (riferito a Gianni) perchè sbagli questa considerazione, almeno in parte, perchè dipende dal numero di applicazioni ST.

Come saprai, il comportamento del silicio ha un consumo via via superiore all'aumentare della frequenza, con il limite di vendita di frequenza stabilito dal massimo TDP della casa produttrice.
Un procio ha un numero di transistor "fissi" in base all'architettura in cui il consumo della parte I/O e cache rimane costante perchè non dipendente dal clock della parte "logica", quindi quando si parla di proci a 65W, 95W, 125W, in realtà (a parità di numero di moduli), il consumo in più è riferito unicamente alla frequenza superiore con cui i moduli lavorerebbero.
Facendo un esempio a spannella, se prendessi un BD X4 e lo facessi lavorare a 4GHz, elaborerebbe 8 istanze ST in un tempo uguale ad un BD X8 fatto lavorare ad una frequenza di 2GHz, ma questa frequenza inferiore è a vantaggio del consumo perchè il silicio risulterebbe più ottimizzato e sarebbe anche meglio nel caso di un teorico BD X2.

dipende paolo :) il maggior consumo dell'ipotetico x2 è per un lasso di tempo molto minore, quindi va valutato ;) ad esempio (con nr. totalmente a cacchio) 45w per 60 minuti è superiore come consumi a 55w per 15 minuti ;)
Appunto, dipende da quanti programmi ST vuoi elaborare contemporaneamente... ad esempio nell'uso di Boinc, consumerà MOLTO meno un 8150 X8 rispetto ad un X2 i3 se fatti lavorare per ottenere la stessa quantità di elaborazione nello stesso arco di tempo.
anche quà dipende, mi spiego meglio, consumerà di più CERTAMENTE il bulldozzer se carichiamo 1-2 thread per entrambi e per elaborare la stessa quantità di dati impiegherà anche più tempo...se invece facessimo lavorare bd x8 al massimo delle possibilità con vray (boinc non lo conosco, ma è sempre per dire che non puoi dirlo con certezza e per evidenziare il basso rapporto w\performance) nella stessa scena (non bench) bd ha impiegato poco più della metà del tempo di un i3, in full load i consumi di una piattaforma i3 sono inferiori di più della metà rispetto a bd, quindi anche in questo caso il consumo minore sarebbe del piccolo i3, fermo restando che con boinc magari le cose cambiano, non lo conosco, e comunque se usi tutti i thread decade il discorso st ;)
Diverso invece il caso di 1 applicazione ST, ma ritorniamo sempre al discorso che la scelta di acquistare un X8 unicamente per i giochi, sarebbe sbagliata a priori perchè comunque spenderesti soldi per moduli in più non utilizzati. su questo siamo d'accordo :)

E ridaie... se per te è più pietoso di un Thuban, puoi sempre montarci quel procio sulla tua mobo in attesa di Vishera.

anche no grazie :) ho due x4 che renderizzano assieme e non mi bastano, poi una predisposizione diversa della stanza mi ha costretto a considerare una sola macchina da lavoro, quindi ho bisogno di un processore che renda meglio di un ipotetico x8 thuban a 3.8 giga..l'x6 non riesce in ciò purtroppo :( PEr ora la scelta cade sul 3930k, ma finchè non esce vishera temporeggio ;)


@tengo famiglia: se il proxy è come il frame server non è proprio indicato se si cerca la massima qualità in fase di montaggio, per non parlare in caso di compositing spinto e praticamente inutilizzabile in authoring :) considera poi che un processore veloce ti permette di esportare in meno tempo, cosa da non sottovalutare ;)

bosstury
12-03-2012, 00:54
mi state facendo conforndere se prendere l'fx6100 x6 o l'fx8120 x8 :D

che differenza sostanziale ce tra i 2 ???

shellx
12-03-2012, 01:32
mi state facendo conforndere se prendere l'fx6100 x6 o l'fx8120 x8 :D


Ti senti confuso semplicemente perchè non sei nel thread corretto.
Prova a chiedere QUI (http://www.hwupgrade.it/forum/showthread.php?t=1991810#post27669252). E vedrai che la tua confusione sparirà ;)


che differenza sostanziale ce tra i 2 ???

Uno ha 6 cluster (core), 3 moduli e 3 fpu. L'altro ha 8 cluster (core), 4 moduli e 4 fpu.
Per il 70 % di utilizzo del 70% di utenza: uno è troppo e l'altro addirittura sprecato.

paolo.oliva2
12-03-2012, 07:56
dipende paolo :) il maggior consumo dell'ipotetico x2 è per un lasso di tempo molto minore, quindi va valutato ;) ad esempio (con nr. totalmente a cacchio) 45w per 60 minuti è superiore come consumi a 55w per 15 minuti ;)
Il calcolo del consumo è giusto, ma un X2 (generico, non parlo di i3) deve lavorare 4 volte di tempo in più di un X8, quindi anche se l'X8 è 125W, per bilanciare le cose l'X2 dovrebbe essere 125W/4=31W

anche quà dipende, mi spiego meglio, consumerà di più CERTAMENTE il bulldozzer se carichiamo 1-2 thread per entrambi e per elaborare la stessa quantità di dati impiegherà anche più tempo...se invece facessimo lavorare bd x8 al massimo delle possibilità con vray (boinc non lo conosco, ma è sempre per dire che non puoi dirlo con certezza e per evidenziare il basso rapporto w\performance) nella stessa scena (non bench) bd ha impiegato poco più della metà del tempo di un i3, in full load i consumi di una piattaforma i3 sono inferiori di più della metà rispetto a bd, quindi anche in questo caso il consumo minore sarebbe del piccolo i3, fermo restando che con boinc magari le cose cambiano, non lo conosco, e comunque se usi tutti i thread decade il discorso st ;)
su questo siamo d'accordo :)

Guarda... io ho un i3 sul portatile, un M430, e la piattaforma mobile da' priorità al minimo consumo, quindi di per sè dovrebbe essere l'esempio classico della maggior ottimizzazione tra consumo e prestazioni. I tempi sul mobile in MT tipo conversioni video (fremake video converter), compressione dati (winrar 4.01) sono talmente alti al confronto dell'8150, da risultare che l'i3 dovrebbe consumare sui 30W per bilanciare, e questo non lo credo perché con batterie simili, il sistema Llano la batteria mi durava 4h-4,5h, mentre con l'i3 non supero mai 1h 30', e di certo Llano non è un 10W TDP

anche no grazie :) ho due x4 che renderizzano assieme e non mi bastano, poi una predisposizione diversa della stanza mi ha costretto a considerare una sola macchina da lavoro, quindi ho bisogno di un processore che renda meglio di un ipotetico x8 thuban a 3.8 giga..l'x6 non riesce in ciò purtroppo :( PEr ora la scelta cade sul 3930k, ma finchè non esce vishera temporeggio ;)
Beh... non penso che un Thuban@3,8GHz possa competere con un 3930K. :)
Per il discorso Vishera, mi trovi completamente d'accordo.

Pat77
12-03-2012, 08:41
Veramente Basta in tutti i sensi,sia per dimostrare che gli FX non sono dei flop che venire a dire che Intel è il meglio a prescindere.
Sono mesi che spendete fiumi di parole per dire le stesse cose e io ho già dato da tempo la mia opinione su Zambezi.
Sarebbe bello se si sapesse qualcosa di più su Vishera per avere di qualcosa di più costruttivo su cui discutere.

Veramente sono mesi che si giustifica BD col silicio di scarsa qualità, e qualcuno continua a dire che a 4,2 sarebbe stata altra storia, che conta la frequenza e non l'ipc ecc.. ecc.. sinceramente io mi sono rotto più della poca obiettività, e infatti il futuro di BD si legge nell'aumento di ipc, oltre che in prezzi più competitivi e consumi minori.
Non ci si rende conto che l'intero Team a capo del progetto BD è stato segato? Di per se il progetto è ottimo, ora bisogna spingere nella giusta direzione, Vishera sarà ancora una via di mezzo imho, ma è comunque imho un passo nella direzione giusta.

Athlon 64 3000+
12-03-2012, 09:01
Veramente sono mesi che si giustifica BD col silicio di scarsa qualità, e qualcuno continua a dire che a 4,2 sarebbe stata altra storia, che conta la frequenza e non l'ipc ecc.. ecc.. sinceramente io mi sono rotto più della poca obiettività, e infatti il futuro di BD si legge nell'aumento di ipc, oltre che in prezzi più competitivi e consumi minori.
Non ci si rende conto che l'intero Team a capo del progetto BD è stato segato? Di per se il progetto è ottimo, ora bisogna spingere nella giusta direzione, Vishera sarà ancora una via di mezzo imho, ma è comunque imho un passo nella direzione giusta.

Quoto.
Il fiasco di Zambezi è stato tale che mi ha fatto cambiare idea sul prendere un FX-4100.
Già ho sbagliato a prendere una MSI 990FXA-GD65 per vari motivi(per fortuna che poi sono riuscito a venderla)e alla fine mi sono dirottato su un A8-3870 con Asrock A75 Extreme6 visto che volevo spendere poco e mi serviva una piattaforma con molte usb 3.0

OPP
12-03-2012, 09:06
Veramente sono mesi che si giustifica BD col silicio di scarsa qualità, e qualcuno continua a dire che a 4,2 sarebbe stata altra storia, che conta la frequenza e non l'ipc ecc.. ecc.. sinceramente io mi sono rotto più della poca obiettività, e infatti il futuro di BD si legge nell'aumento di ipc, oltre che in prezzi più competitivi e consumi minori.
Non ci si rende conto che l'intero Team a capo del progetto BD è stato segato? Di per se il progetto è ottimo, ora bisogna spingere nella giusta direzione, Vishera sarà ancora una via di mezzo imho, ma è comunque imho un passo nella direzione giusta.

quotone:)

capitan_crasy
12-03-2012, 09:37
Veramente sono mesi che si giustifica BD col silicio di scarsa qualità, e qualcuno continua a dire che a 4,2 sarebbe stata altra storia, che conta la frequenza e non l'ipc ecc.. ecc.. sinceramente io mi sono rotto più della poca obiettività, e infatti il futuro di BD si legge nell'aumento di ipc, oltre che in prezzi più competitivi e consumi minori.
Non ci si rende conto che l'intero Team a capo del progetto BD è stato segato? Di per se il progetto è ottimo, ora bisogna spingere nella giusta direzione, Vishera sarà ancora una via di mezzo imho, ma è comunque imho un passo nella direzione giusta.

Permettimi:
Ti dimentichi che la base di BD andrà avanti fino al 2014 e che AMD ha dato il bel servito al SOI e non all'architettura, anche perchè dopo il buco nero dei 65nm e le speranze infrante dei primi 32nm SOI, una svolta era quasi del tutto inevitabile; la stessa IBM dopo aver accantonato il progetto dei 22nm sembra aver tirato un pò i remi in barca.
Per quanto riguarda le frequenze se fosse uscito da subito 8170 forse le cose sarebbero state migliori ( 8150 doveva essere come il 1075T ai suoi tempi) ma di per se la mancata uscita di questo modello non è certo un problema di architettura, in cui ricordo che non ci sono errata critici al contrario del vecchio K10 a 65nm.
Stiamo a vedere se riusciranno a far uscire almeno un 8160, tanto per gli annali...

AceGranger
12-03-2012, 09:38
anche no grazie :) ho due x4 che renderizzano assieme e non mi bastano, poi una predisposizione diversa della stanza mi ha costretto a considerare una sola macchina da lavoro, quindi ho bisogno di un processore che renda meglio di un ipotetico x8 thuban a 3.8 giga..l'x6 non riesce in ciò purtroppo :( PEr ora la scelta cade sul 3930k, ma finchè non esce vishera temporeggio ;)


nel tuo/mio particolare ambito

il gap in prestazioni ed efficienza sono troppo elevati per essere colmati entrambi in questa evoluzione, il che, per un motivo o per l'altro non potra permette a Vishera di rappresentare una valida alternativa per questo tipo di applicazioni.

ra-mta
12-03-2012, 10:51
ace purtroppo alla fine il tempo ti darà ragione, ma visto che per adesso non circola moneta e il lavoro è fermo...lasciami sognare una potenza simile a basso costo :D
non sono d'accordo con il capitano, l'architettura è valida concettualmente ma bd a livello pratico consuma ed è poco performante...in amd son stati così fiurbii da puntare tutto sulla frequenza dovendo affrontare un cambio architettura+processo produttivo, beh complimenti a loro per il risultato :rolleyes:
Altro punto: avoja a dire "se fosse uscito con 4.2 ghz" sarebbe stato comunque uno scandalo nel rapporto p\w...e pensare alle performance paventate nelle vecchie diapositive :muro:

stima per pat77

Sayan V
12-03-2012, 11:04
nel tuo/mio particolare ambito

il gap in prestazioni ed efficienza sono troppo elevati per essere colmati entrambi in questa evoluzione, il che, per un motivo o per l'altro non potra permette a Vishera di rappresentare una valida alternativa per questo tipo di applicazioni.


Il mio BD x8 andrebbe bene ?

AceGranger
12-03-2012, 11:05
Il mio BD x8 andrebbe bene ?

no

Marck
12-03-2012, 11:06
http://www.tomshw.it/cont/articolo/amd-fx-bulldozer-prestazioni-dopo-gli-hotfix-di-windows-7-e-aggiornamenti-uefi/36368/1.html

Interessanti le conclusioni..

i risultati suggeriscono che non c'è una buona ragione per chi ama le soluzioni AMD di passare a Intel. L'azienda di Santa Clara mostra infatti il vantaggio maggiore proprio con i giochi a bassa risoluzione, che quasi certamente non interessano a un appassionato.

.........

.........

La sponda AMD offre alcuni vantaggi, come le schede madre 990FX che hanno quasi il doppio delle linee PCIe delle soluzioni Z68. Per avere quel tipo di connettività sul fronte Intel dovete puntare sulle piattaforma LGA 2011, con schede madre più care e processori che costano fino a 1000 euro.

paolo.oliva2
12-03-2012, 11:23
Veramente sono mesi che si giustifica BD col silicio di scarsa qualità, e qualcuno continua a dire che a 4,2 sarebbe stata altra storia, che conta la frequenza e non l'ipc ecc.. ecc.. sinceramente io mi sono rotto più della poca obiettività, e infatti il futuro di BD si legge nell'aumento di ipc, oltre che in prezzi più competitivi e consumi minori.
Non ci si rende conto che l'intero Team a capo del progetto BD è stato segato? Di per se il progetto è ottimo, ora bisogna spingere nella giusta direzione, Vishera sarà ancora una via di mezzo imho, ma è comunque imho un passo nella direzione giusta.

Ma non è il discorso di qualcuno, è la stessa Anand che aveva riportato che BD doveva uscire a 4,2GHz def.

Tutto il discorso di critiche su BD più che altro dov'è incentrato? Sul rapporto consumo/prestazioni e sul discorso IPC.

Te la faccio più semplice... lascia perdere il discorso INT/FPU ma considera unicamente il CMT perchè BD architetturalmente si basa su questo. Cosa fa il CMT? Condivide parti dei core con conseguente perdita di IPC ma guadagno di TDP, a fronte di un numero totale di core maggiore unito a frequenze superiori.
Le ultime news davano Vishera su un clock attorno ai 4GHz def e su un aumento di IPC almeno quanto Piledriver, che è al +10%.
Se sommi questi incrementi, Vishera dovrebbe già riuscire ad eguagliare l'IPC a core del Phenom II, quindi BD = Phenom II per IPC ST, ma superiore in IPC MT visto il +33% dei core rispetto ad un Thuban ed il +67% con un X10.
Aspettiamo dei riscontri, ma se queste news si rivelassero fondate, mi sembra chiaro che CMT/BD sarebbero promossi a pieni voti nei confronti del Phenom II.

Cosa trovi di sbilanciato in tutto questo?