PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 [53] 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

fuocoz
01-12-2012, 14:18
Ho lasciato tutto il resto perchè tanto siamo convergenti ma non divergenti :D.

Riguardo all'8150, dai... Carlotto l'ha sempre difeso per concetto progettuale, per l'architettura, per prestazioni in determinati ambiti... forse anche troppo vigorosamente, però non dimentichiamoci anche i commenti della parte opposta, un flop epocale di architettura, devono passare all'SMT, devono fare qui, devono fare lì... si vedeva a 100 chilometri di distanza che l'architettura era acerba ed il silicio di m...., quello che è scocciato è stato l'atteggiamento critico che di critico aveva poco e nulla perchè coerenza zero.

Se vogliamo fare una similitudine, dimmi cosa offriva un i920 rispetto ad un Penryn? Ma qualcuno ha forse detto che l'architettura era un flop?

Io sono stato fra quelli che ha difeso l'architettura, ma non mi sono tirato indietro nel dire che l'8150 era un ACCROCCHIO tra progetto e silicio... anzi, sono stato io il primo a dirlo.

Pure ora, lo step C0 per me offre migliorie minime di silicio, e l'incremento è dovuto al 60% per la gestione dei clock, un 30% per l'incremento di IPC, e forse un 10% per il silicio.
Con queste performances di silicio, se non si alza l'IPC non si va da nessuna parte.

L'8150 per me non doveva manco avere il via alla produzione... ma purtroppo sappiamo la posizione finanziaria di AMD e sappiamo pure che l'8150 aveva già subito un rinvio di 6 mesi...


Si ma per concetto progettuale non lo vai a consigliare a chi chiede aiuto su come spendere i propri soldi, tanto che molto volte è stato smentito anche da chi questo BZ lo possedeva :D

Che poi non voglio parlare male di lui, da un certo punto di vista è stato anche d'aiuto come contrasto dei funboy intel per portare ad un livello più oggettivo i vari 3d :p però 2 estremisti non fanno un parere equilibrato :)

Maury
01-12-2012, 14:26
no, gli ho solo detto che nell'arco di 10 anni non gli cambia nulla spendere 100€ in più ora e se prendi un 3770k oltretutto lo occhi bene fino a 4.5ghz... lo so che non serve un 3770k per giocare e che gli i5 da 4 core senza ht sono migliori sotto il punto di vista perf/costo, ma non è gente che cambia procio ogni 3/4 anni o meno...
ma che io preferisco un 8350 ad un 3570k, senza k non li conto nemmeno negli intel e a lui glieli offrivano senza k ovviamente...
poi ovvio il 3770k è il massimo possibile, la lga2011 non la consiglio a meno che non sei appassionato vero, parti dai 250€ di mobo e cpu da 550€, spiegatemi a cosa serve il 3820 sulla 2011 a 300€?... serve forse a per chi vuole prendersi ora la lga2011 e intanto aspettare gli ivy-e?... si ma a che prezzo?...



ps. va beh se prendete come metro far cry 3 o i precedenti lo sanno anche i pali della luce che sugli amd vanno male, ma se prendiamo BF3 si nota che giochi fatti bene per ora hanno colli di bottiglia solo sul lato gpu a 1080p
a 640x480 fa 30 fps in meno del 3570k e parliamo di 180/210 fps...

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/34/

a 1080p invece?
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/42/

purtroppo mi spiace che far cry sia cosi ottimizzato male e siamo nel 2013... fanno ridere! e sono uno che in far cry ci credevo per un rilancio del titolo, e graficamente dicono non sia paragonabile a BF3 o Crysis 2 con la patch hd e dx11... fate voi...

ma una cpu non si valuta mica solo dai giochi!... vuole un pc a 360° e se permetti un 8350 mi da più vantaggi rispetto un 3570 nel lungo termine di paragone...e poi non è un hardcore-gamer

pps. poi ormai ogni volta che sento la parola intel mi vengono i peli dritti e parto con la crociata, non ci posso fare niente, ma ora che conosco meglio cosa sia successo in questi anni ho un altra veduta delle cose riguardo questo argomento... prima ero cieco ora ci vedo...

è un po come l'esempio della gente che si lamenta delle console che frenano lo sviluppo e che i giochi costano, ma se li compri sei proprio tu che alimenti questo meccaniscmo con i tuoi soldi... altro esempio il calcio è paradossale! ci lamentiamo che guadagno milioni di euro e poi andiamo allo stadio e vediamo le partite su sky, ecc... è solo colpa nostra se guadagnano cosi...

sono andato già troppo ot scusate...

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/44/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/46/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/39/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/40/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/41/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/43/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/45/

Hai preso l'unico caso di tutta la reviews dove la GPU fa da muro, altrimenti tutti a prenderci un Phenom 2 965 che tanto va uguale no ? ;)

Guarda anche gli FPS minimi e dimmi te..

Riocorda che le cpu costano uguali.

paolo.oliva2
01-12-2012, 15:21
no, gli ho solo detto che nell'arco di 10 anni non gli cambia nulla spendere 100€ in più ora e se prendi un 3770k oltretutto lo occhi bene fino a 4.5ghz... lo so che non serve un 3770k per giocare e che gli i5 da 4 core senza ht sono migliori sotto il punto di vista perf/costo, ma non è gente che cambia procio ogni 3/4 anni o meno...
ma che io preferisco un 8350 ad un 3570k, senza k non li conto nemmeno negli intel e a lui glieli offrivano senza k ovviamente...
poi ovvio il 3770k è il massimo possibile, la lga2011 non la consiglio a meno che non sei appassionato vero, parti dai 250€ di mobo e cpu da 550€, spiegatemi a cosa serve il 3820 sulla 2011 a 300€?... serve forse a per chi vuole prendersi ora la lga2011 e intanto aspettare gli ivy-e?... si ma a che prezzo?...

ps. va beh se prendete come metro far cry 3 o i precedenti lo sanno anche i pali della luce che sugli amd vanno male, ma se prendiamo BF3 si nota che giochi fatti bene per ora hanno colli di bottiglia solo sul lato gpu a 1080p
a 640x480 fa 30 fps in meno del 3570k e parliamo di 180/210 fps...

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/34/

a 1080p invece?
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/42/

purtroppo mi spiace che far cry sia cosi ottimizzato male e siamo nel 2013... fanno ridere! e sono uno che in far cry ci credevo per un rilancio del titolo, e graficamente dicono non sia paragonabile a BF3 o Crysis 2 con la patch hd e dx11... fate voi...

ma una cpu non si valuta mica solo dai giochi!... vuole un pc a 360° e se permetti un 8350 mi da più vantaggi rispetto un 3570 nel lungo termine di paragone...e poi non è un hardcore-gamer

pps. poi ormai ogni volta che sento la parola intel mi vengono i peli dritti e parto con la crociata, non ci posso fare niente, ma ora che conosco meglio cosa sia successo in questi anni ho un altra veduta delle cose riguardo questo argomento... prima ero cieco ora ci vedo...

è un po come l'esempio della gente che si lamenta delle console che frenano lo sviluppo e che i giochi costano, ma se li compri sei proprio tu che alimenti questo meccaniscmo con i tuoi soldi... altro esempio il calcio è paradossale! ci lamentiamo che guadagno milioni di euro e poi andiamo allo stadio e vediamo le partite su sky, ecc... è solo colpa nostra se guadagnano cosi...

sono andato già troppo ot scusate...

Sinceramente... io non vedo perchè sia preferibile un 3570K... è più potente nei giochi, ma unicamente nelle conf dove è possibile sfruttarlo.. nell'MT, invece, quando il programma sfrutta =>8 TH, il procio che va di più lo sfrutterebbe sempre, l'8350 è superiore. In OC l'8350 arriva a 4,6GHz ancora con il Vcore def... poi è chiaro che i punti di vista possono essere differenti... chi ha acquistato Intel o AMD lo ha fatto in base a una sua scelta... mi sembra non ci sia nessuno che avendo acquistato un IVY o un FX PD si sia pentito dell'acquisto... c'è qualcuno che si è lamentato forse che con PD non riesce a giocare bene?
_____
Edit:
Il motivo penso sia il più semplice del mondo... se si compra AMD, in primis lo si fa per il prezzo, e dubito che in questa situazione uno spenda si più/molto di più nella/e VGA, quindi si è nella condizione di GPU-limited, e qui i 100€ in più nella VGA contribuiscono a realizzare prestazioni migliori. Viceversa, chi ha preso Intel, ha una situazione CPU-limited migliore, ma per sfruttare il vantaggio, deve fare in modo che non ci sia una situazione GPU-limited.
In poche parole, un sistema da 500€ non ha nessuna importanza se fatto con Intel o AMD a livello di procio, ma vede AMD una scelta migliore perchè a parità di spesa si acquista c'è un budget maggiore per la VGA. Il procio Intel per sfruttare la maggiore potenzialità bisogna che sia o a risoluzioni basse (ma dubito questo... con monitor che permettono 1600 o 1920, chi va a 1280 o 1024?) o che monti un CF... ma su spese di 1000€ di sistema, mi sembra chiaro che +/- 100€ di procio non direbbero nulla... Secondo me lo sbaglio è di voler far apparire la scelta migliore Intel indipendentemente dal costo totale del sistema, ed i motivo è quello sopra, come certamente per un indirizzo unicamente game e con un budget corposo per le VGA, AMD non sarebbe la scelta migliore. Ma questa pappardella è stata trita e ritrita 1000 volte, ma ci si ritorna sempre... Quanta gente fa un CF sul sistema per il game? Quanta gente compra il top delle VGA per il game? Il 5%? Allora vuol dire che per il 95% degli acquirenti, nei giochi, AMD o Intel non porta ad alcuna differenza prestazionale, ma con il vantaggio che costando meno il procio si può spendere di più nella VGA. Inoltre un 3570K non può diventare un 3770K anche occandolo, mentre un 8320 può equivalere un 8350... magari non raggiungerà le frequenze massime in OC di un 8350, ma rimanendo nel raffreddamento ad aria non credo cambi tra 4,8GHz e 4,6GHz.
_____

Posso forse capire con Zambesi... PD è migliorato, però a me sembra che se per giocare ci vogliono almeno 30 fps, ed Intel ne fa 100, anche se AMD arrivasse a 99 non sarebbe da acquistare perchè va di meno...
Io non riesco a capire il perchè alcuni articoli riportano che assolutamente è preferibile acquistare un Intel, altri che dicono che con i soldi risparmiati prendendo AMD rispetto ad Intel, i giochi andrebbero meglio perchè con lo stesso budget si acquisterebbe una VGA più potente... poi devo capire perchè si deve prendere il top degli FX, l'8350, ed il suo prezzo... forse perchè cosi la differenza di costo con Intel sarebbe inferiore? Un 8320 costa di meno e lo si porta alle frequenze def di un 8350 senza manco toccare il Vcore...

isomen
01-12-2012, 15:29
http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/44/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/46/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/39/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/40/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/41/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/43/

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/45/

Hai preso l'unico caso di tutta la reviews dove la GPU fa da muro, altrimenti tutti a prenderci un Phenom 2 965 che tanto va uguale no ? ;)

Guarda anche gli FPS minimi e dimmi te..

Riocorda che le cpu costano uguali.

Guardando questi invece tutti a prendere un 2120... nel test F1 2011 ad un 8350 serve il turbo per stargli alla pari... com'é che nella realta l'i3 in questione sta sempre dietro ad un PII X4 occato a 4ghz :confused:

;) CIAUZ

filo mc-ati crossfire
01-12-2012, 15:30
Per essere sincero,ormai avevo abbandonato amd,da 7 anni,avevo preferito intel per prestazioni superiori in ambito game,ho cambiato il mio vecchio E AMATO 775,per un fx-6100,e da amante di intel,e non + di amd,mi sono ricreduto,mi sto trovando da dio in qualsiasi ambito,se poi uno per 10-15 fps in +,deve spendere mediamente 100 euro in + ( cpu+mobo) meglio stare con amd,e lo dico da persona,che preferisce intel,ora il mio intento,non è + prendere un i7,ma provare il nuovo 8350!
poi qui' nessuno viene obbligato a prendere amd,o intel,ogni persona ha un cervello proprio,se reputa migliore intel che prenda intel,viceversa per amd.
prendere un quad ora a mio parere,è un ottima soluzione ma tra 2-3 anni,4 core in +,saranno + graditi es: 8350..
E ripeto da 7 anni ad oggi avevo ormai preferito intel e scartato amd,ma mi sono ricreduto!
imho

Ares17
01-12-2012, 15:36
Riocorda che le cpu costano uguali.

Sono OT, ma non è guardando il prezzo di un prodotto che puoi comparare il prezzo.
Dovresti prendere il prezzo dei prodotti sullo stesso store, ed il media il prezzo varia tra il 12 ed il 18 per cento.
Altrimenti potrei venirti a dire che ci sono "negozi" che vendono 8350 a 168€, ma sappiamo tutti da dove arrivano certi prezzi, vero?
Chiuso OT e senza polemizzare se sia meglio una o l'altra cpu in game o in GP, ma solo per chiarire che tutti i test (compresi quello sui prezzi) andrebbero fatti sempre a pari condizione.

mik83lavezzi
01-12-2012, 15:40
salve a tutti,volevo chiedervi una cosa riguardo al fx 8150,
allora,tempo fa ho comprato una scheda madre asus sabertooth+fx8150,(mi trovo abbastanza bene)ho notato che quando rimango il pc acceso per alcuni giorni di fila noto che quando vedo un video da youtube la voce del filmato gracchia,ed in più monitorando il procio con core temp mi da il primo core in alto(quello evidenziato in giallo)operativo tra 70/80% di carico mentre gli altri vanno normalmente o a riposo.
mi sapreste dare una spiegazione o un aiutino a risolvere la situazione?
grazie

Korn
01-12-2012, 15:45
bah non credo che flash sia multicore quindi credo sia normale

paolo.oliva2
01-12-2012, 15:57
salve a tutti,volevo chiedervi una cosa riguardo al fx 8150,
allora,tempo fa ho comprato una scheda madre asus sabertooth+fx8150,(mi trovo abbastanza bene)ho notato che quando rimango il pc acceso per alcuni giorni di fila noto che quando vedo un video da youtube la voce del filmato gracchia,ed in più monitorando il procio con core temp mi da il primo core in alto(quello evidenziato in giallo)operativo tra 70/80% di carico mentre gli altri vanno normalmente o a riposo.
mi sapreste dare una spiegazione o un aiutino a risolvere la situazione?
grazie

bah non credo che flash sia multicore quindi credo sia normale

Evidenziando e comunque quotando Korn, potrebbe essere che qualche programma (nell'arco di alcuni giorni) interferisca con youtube.

Ares17
01-12-2012, 16:19
Evidenziando e comunque quotando Korn, potrebbe essere che qualche programma (nell'arco di alcuni giorni) interferisca con youtube.

Più facile che sia il driver audio, dovrebbe provare a disattivare sospensione ibernazione, generalmente alla ripresa da una sospensione i driver audio non mi si riattivano bene, dandomi il suono fuori sincronia e/o gracchianti (ed alcune volte mi fanno scattare anche il sistema).

shellx
01-12-2012, 18:16
Sono riuscito ad alzare la frequenza dell'nb a 2400mhz con v-nb di 1,3v. (meno voltaggio addirittura). Tutto questo togliendo due moduli e quindo lasciandone due. Io questa cosa non la capisco.
Tra le altre cose se rimetto lo Zambesi 8120 il problema non si presenta e riesco a gestire ram ed nb in maniera molto piu flessibile anche con 4 moduli.
Ergo sono arrivato alla conclusione che esiste una sorta di conflitto tra il bios della mia MSI-G80 e l'MC del Vishera o comunque dell'fx-8320 Vishera in generale. Dal sito ufficiale di MSI il bios è sempre lo stesso.
Ora siccome io sono un tipo "corto di cerimonie" perchè sono del parere che "chi fa per se fa per tre" ora mi mobilito per capire come moddare i bios UEFI, s non sbaglio non sono in assembly come i vecchi ma vengono scritti in C. Mi serve qualcuno che se ne inteda per unire le idee. Magari anche con sta scusa fare come fanno gli americani nei forum, dove si aiutano fra di loro, perchè ci sono esperti che sanno moddare i bios su tutti i tipi di mobo e produttori e si aiutano anzichè fare i gelosi delle proprie competenze come facciamo qui in italia.

Ares17
01-12-2012, 18:20
Sono riuscito ad alzare la frequenza dell'nb a 2400mhz con v-nb di 1,3v. (meno voltaggio addirittura). Tutto questo togliendo due moduli e quindo lasciandone due. Io questa cosa non la capisco.
Tra le altre cose se rimetto lo Zambesi 8120 il problema non si presenta e riesco a gestire ram ed nb in maniera molto piu flessibile anche con 4 moduli.
Ergo sono arrivato alla conclusione che esiste una sorta di conflitto tra il bios della mia MSI-G80 e l'MC del Vishera o comunque dell'fx-8320 Vishera in generale.
Ora siccome io sono un tipo "corto di cerimonie" perchè sono del parere che "chi fa per se fa per tre" ora mi mobilito per capire come moddare i bios UEFI, s non sbaglio non sono in assembly come i vecchi ma vengono scritti in C. Mi serve qualcuno che se ne inteda per unire le idee. Dal sito ufficiale di MSI il bios è sempre lo stesso.
Facile che sia l'MC a non riuscire a salire di frequenza con 4 banchi (è l'incognita che si presenta con tutte le cpu con controller della memoria integrato).

shellx
01-12-2012, 18:24
Facile che sia l'MC a non riuscire a salire di frequenza con 4 banchi (è l'incognita che si presenta con tutte le cpu con controller della memoria integrato).

Praticamente tutte visto che tutte le cpu oggi hanno l'mc integrato. Resta comunque il fatto che con l'8120 il problema non si presenta, eppure l'mc sta sempre li, e non è nemmeno molto diverso da quello di vishera.

Tuttavia quando il controller memory stava sul nortbridge della mobo, i problemi di compatiblità delle ram erano molti di più e più grossi, è inutile elencarli che c'è da impallidire. E l'overcloccabilità delle ram non era nemmeno diversa da adesso, anzi forse pure peggio visto le tante variabili di incompatibilità e stabilità fra tipo di mobo, controller su chipset, tipo ti ram (dual o single face, marca, freq) e tanto altro ancora che rendeva il sistema poco stabile, con crash e riavvii per colpa delle ram improvvisi.. Alla fine ti scocciavi e non overloccavi più.

Ora mi studio i bios Uefi e non. Dopo di che me li moddo io e se è del caso li faccio pure per altre mobo per gli altri. Se stai dietro sti mangia soldi dei produttori ne esci pazzo ed esaurito.

Ares17
01-12-2012, 19:00
Praticamente tutte visto che tutte le cpu oggi hanno l'mc integrato. Resta comunque il fatto che con l'8120 il problema non si presenta, eppure l'mc sta sempre li, e non è nemmeno molto diverso da quello di vishera.

Tuttavia quando il controller memory stava sul nortbridge della mobo, i problemi di compatiblità delle ram erano molti di più e più grossi, è inutile elencarli che c'è da impallidire. E l'overcloccabilità delle ram non era nemmeno diversa da adesso, anzi forse pure peggio visto le tante variabili di incompatibilità e stabilità fra tipo di mobo, controller su chipset, tipo ti ram (dual o single face, marca, freq) e tanto altro ancora che rendeva il sistema poco stabile, con crash e riavvii per colpa delle ram improvvisi.. Alla fine ti scocciavi e non overloccavi più.

Ora mi studio i bios Uefi e non. Dopo di che me li moddo io e se è del caso li faccio pure per altre mobo per gli altri. Se stai dietro sti mangia soldi dei produttori ne esci pazzo ed esaurito.
Ho iniziato ad occare per bene le ram dal socket a e 754 (il primo mc integrato e pure single channel), e ti posso garantire che ogni controller fa storia a se.
Memorie che con stessa mobo si comportavano in modo diverso (su 939 avevo delle tccd (gskill da 512 mb l'una) da 336mhz x2 su opteron 146 e soli 310 x2 su 165, mentre usuando delle adata da 256 mb su 4 banchi il 165 le portava tranquille fino a 260 mhz il 146 si fermava a 220 mhz, tutto sempre su DFI nf4s Lan Party.
Come pure l'oc sulla cpu, si partiva da cpu che salivano a stento di 200mhz ad altre che sfioravano i 1000 mhz di oc (+ 50%)

shellx
01-12-2012, 22:22
Ho iniziato ad occare per bene le ram dal socket a e 754 (il primo mc integrato e pure single channel), e ti posso garantire che ogni controller fa storia a se.
Memorie che con stessa mobo si comportavano in modo diverso (su 939 avevo delle tccd (gskill da 512 mb l'una) da 336mhz x2 su opteron 146 e soli 310 x2 su 165, mentre usuando delle adata da 256 mb su 4 banchi il 165 le portava tranquille fino a 260 mhz il 146 si fermava a 220 mhz, tutto sempre su DFI nf4s Lan Party.
Come pure l'oc sulla cpu, si partiva da cpu che salivano a stento di 200mhz ad altre che sfioravano i 1000 mhz di oc (+ 50%)

Ma si..si... ..ci smadonnai anchio al tempo... socket 462 (A) con abit NF7-s, del socket 939 ho avuto tutti i modelli DFI Nf4 perfino il modello Expert VENUS (only taiwan tiratura limitata) la prima mobo al mondo ad avere tutti i condensatori solidi.

Lo so che ogni controller fa storia a se, ma il mio discorso era diverso. Quando il controller era sulla mobo i problemi di oc erano maggiori. Oggi si occa meglio e si è piu stabili. Tuttavia però c'è un "contro" a tutto questo: la perdita dello sfizio dello smadonammento per tirare mhz. Oggi è tutto piu facile, è tutto easy automatizzato quasi.

theProix87
02-12-2012, 01:07
Salve gente ;)

Hanno accettato il mio reclamo per via del malfunzionamento dell'FX8350, che oltre ai sensori sballati di circa 15°c dopo circa 3 giorni, non riusciva più ad alzarsi oltre i 4.2GHz di frequenza...
Mi hanno detto che questo è un bel problema e che mi cambiano subito la CPU... wow che :ciapet:

Almeno posso avere tra le mani una CPU nuova... e vedere, se i sensori siano leggermente migliori, e soprattutto se sia stabile in OC... Lunedi spedisco... cosi magari nel giro di una settimana riescono anche a rimandarlo... vi terrò aggiornati...

Non chiedo mica i miracoli... a me bastavano i 4.5GHz fissi e stabili :sofico:

paolo.oliva2
02-12-2012, 01:20
Salve gente ;)

Hanno accettato il mio reclamo per via del malfunzionamento dell'FX8350, che oltre ai sensori sballati di circa 15°c dopo circa 3 giorni, non riusciva più ad alzarsi oltre i 4.2GHz di frequenza...
Mi hanno detto che questo è un bel problema e che mi cambiano subito la CPU... wow che :ciapet:

Almeno posso avere tra le mani una CPU nuova... e vedere, se i sensori siano leggermente migliori, e soprattutto se sia stabile in OC... Lunedi spedisco... cosi magari nel giro di una settimana riescono anche a rimandarlo... vi terrò aggiornati...

Non chiedo mica i miracoli... a me bastavano i 4.5GHz fissi e stabili :sofico:

Vai tranquillo, con AMD è così... forse è l'unica cosa che funzia bene.
Ti hanno detto di spedirlo in Olanda? A me hanno fatto così... procio senza ventola, a spese tue all'andata e ritorno a carico loro...
Io l'avevo fatto saltare per un corto... ho telefonato al num verde, mi hanno dato il num di rientro e dopo 6 giorni (compreso i 2 spedito tramite poste italiane) e l'avevo a casa.

MaRtH
02-12-2012, 11:13
Magari spiegami perchè uno persona dovrebbe prendere, per un sistema game, una cpu ( 8350 ), che costa uguale e va meno (molto meno spesso e volentieri) ?

O commentiamo la reale potenza di una cpu o commentiamo il collo di bottiglia derivante dalle GPU ad altissime risuluzioni, consideriamo che sono in arrivo nuove schede nei prossimi mesi che metteranno in luce, ancora maggiormente, il divario.

L'8350 è una buona per cpu in tanti ambiti, ma non abbinabile ad una scheda video di ottima potenza, non ci sono storie, se devi giocare non ha senso, non è una scelta oculata.
I sistemi alla fine costano uguali (mobo+cpu+ram+vga).


Si ma... Evidentemente non hai letto bene ciò che ho scritto, il senso è, chi è che spende 600€ circa (qualsiasi marca) per cpu+mobo+ram+vga per giocare a 1280x720???
Una hd5850 o GTX460 bastano ed avanzano per quella risoluzione... Per quella cifra pretendo il fullhd, e in full hd intel è comunque superiore, ma non in modo così marcato...

Inoltre intel è superiore (parentesi, a me dei consumi, che sia 80W o 120W non frega 'na cispa), l'ho detto anch'io, principalmente nei giochi di un 15%-20% circa a parità di prezzo, mentre in tutti gli altri scenari un fx8350 e un 3570k se la giocano bene o male ad armi pari...

isomen
02-12-2012, 11:43
Oltre alla GA-990FXA-UD7 ci sono altre mobo che hanno mantenuto la funzione di disattivare un core a modulo anche con i vishera?

;) CIAUZ

TheBestFix
02-12-2012, 11:52
Oltre alla GA-990FXA-UD7 ci sono altre mobo che hanno mantenuto la funzione di disattivare un core a modulo anche con i vishera?

;) CIAUZ

ma soprattutto siamo sicuri che la ud7 lo faccia? screen? link? o e' per sentito dire ?.....cmq ho finito di reinstallare tutto (tranne i giochi) e sono pronto per spremere il 6300

theProix87
02-12-2012, 12:50
ma soprattutto siamo sicuri che la ud7 lo faccia? screen? link? o e' per sentito dire ?.....cmq ho finito di reinstallare tutto (tranne i giochi) e sono pronto per spremere il 6300

Si lo fa e confermo... ne sono possessore, e la mia è anche la rev 1.0....

Ci ho anche giocato a battlefield in questa configurazione, ed anche ad un altro game, ed ho avuto anche qualche miglioria.... ;)

C'è un modo di fare uno screen al bios? Lunedi devo spedire il Procio per la sostituzione quindi poi non potrei farlo per un pò...

Per quanto riguarda il rientro è a mio carico, e dopo mi sarà rimborsato anche il costo del rientro :eek:

TheBestFix
02-12-2012, 13:23
Si lo fa e confermo... ne sono possessore, e la mia è anche la rev 1.0....

Ci ho anche giocato a battlefield in questa configurazione, ed anche ad un altro game, ed ho avuto anche qualche miglioria.... ;)

C'è un modo di fare uno screen al bios? Lunedi devo spedire il Procio per la sostituzione quindi poi non potrei farlo per un pò...

Per quanto riguarda il rientro è a mio carico, e dopo mi sarà rimborsato anche il costo del rientro :eek:

ok allora per il momento mi sa e' l'unica, la mia fa disabilitare solo un modulo intero, cmq la ud3 senza LLC non permette un'overclock serio, per cui ripiegate tranquillamente su altri modelli semmai vi dovesse venire in mente di prenderla

theProix87
02-12-2012, 14:02
ok allora per il momento mi sa e' l'unica, la mia fa disabilitare solo un modulo intero, cmq la ud3 senza LLC non permette un'overclock serio, per cui ripiegate tranquillamente su altri modelli semmai vi dovesse venire in mente di prenderla

E se ripiegate sulla ud7 badate che non sia la rev 1.0, purtroppo anche a me manca la LLD che sfiga....:muro:

winebar
02-12-2012, 14:11
Dal sito ufficiale di MSI il bios è sempre lo stesso.
Ora siccome io sono un tipo "corto di cerimonie" perchè sono del parere che "chi fa per se fa per tre" ora mi mobilito per capire come moddare i bios UEFI, s non sbaglio non sono in assembly come i vecchi ma vengono scritti in C.

Conosco C ma non abbastanza da poter fare un lavoro stabile ed efficace..
Comunque sì, il grandissimo vantaggio di U/EFI è la completa scrittura in C invece che in Assembly. E, nonostante possa sembrare strano (l'asm è il linguaggio più efficente dopo quello macchina), è il motivo principale per cui una mobo con BIOS tradizionale è molto più lenta nell'avvio.
Ovviamente perchè ottimizzare algoritmi in C è molto più semplice che ottimizzare algoritmi in assembly, perchè al massimo in C cambi il nome della variabile, in assembly cambiare una variabile equivale a cambiare il registro.
Senza contare che è stato dimostrato che un programmatore assembly SPECIALIZZATO nel linguaggio asm genera quasi sempre codice più lento di un compilatore. :D:D

winebar
02-12-2012, 14:13
C'è un modo di fare uno screen al bios? Lunedi devo spedire il Procio per la sostituzione quindi poi non potrei farlo per un pò...

Mi sembra che tra le possibilità di UEFI ci doveva essere quella di fare screenshot, ma non so se sia stata implementata.
Al massimo vai di cellulare. :sac::sac::asd::asd:

isomen
02-12-2012, 14:30
ma soprattutto siamo sicuri che la ud7 lo faccia? screen? link? o e' per sentito dire ?.....cmq ho finito di reinstallare tutto (tranne i giochi) e sono pronto per spremere il 6300

come ha già confermato l'ha detto theProix87 che ne é possessore

Si lo fa e confermo... ne sono possessore, e la mia è anche la rev 1.0....

Ci ho anche giocato a battlefield in questa configurazione, ed anche ad un altro game, ed ho avuto anche qualche miglioria.... ;)

C'è un modo di fare uno screen al bios? Lunedi devo spedire il Procio per la sostituzione quindi poi non potrei farlo per un pò...

Per quanto riguarda il rientro è a mio carico, e dopo mi sarà rimborsato anche il costo del rientro :eek:

il fatto che la tua sia rev 1.0 nn é incoraggiante, visto cosa é successo con altre mobo, ordinandola adesso potrebbe arrivarmi una versione successiva che nn supporta più la funzione... e potrei :incazzed: per aver speso 180€ per niente (se nn fosse per questa funzione sarei soddisfattissimo della sabertooth).

;) CIAUZ

TheBestFix
02-12-2012, 14:30
scusate raga ho scritto una balla, anche sulla ud3 c'e' la possibilita' di spegnere un core a modulo, l'opzione mi ha tratto in inganno perche' precede quella per disattivare i moduli per intero ......anche se non fa scegliere quali tra i 2 di ogni modulo disattivare...lo fa in automatico credo per logica che lasci abilitati i primi di ogni modulo, penso 1-3-5 (nel caso del 6300) ....sapete se esiste un modo per capire quali core sono? in ogni caso adesso anche cpu-z vede la cpu come 3 core :D

isomen
02-12-2012, 14:50
scusate raga ho scritto una balla, anche sulla ud3 c'e' la possibilita' di spegnere un core a modulo, l'opzione mi ha tratto in inganno perche' precede quella per disattivare i moduli per intero ......anche se non fa scegliere quali tra i 2 di ogni modulo disattivare...lo fa in automatico credo per logica che lasci abilitati i primi di ogni modulo, penso 1-3-5 (nel caso del 6300) ....sapete se esiste un modo per capire quali core sono? in ogni caso adesso anche cpu-z vede la cpu come 3 core :D

Nn credo che sia importante quale dei 2 core rimane attivo (anche se come te penso che sia il primo di ogni modulo), l'importante é che abbia a disposizione tutte le risorse del modulo.

Vado di UD3 e risparmio 70€ :asd:

;) CIAUZ

TheBestFix
02-12-2012, 14:58
Nn credo che sia importante quale dei 2 core rimane attivo (anche se come te penso che sia il primo di ogni modulo), l'importante é che abbia a disposizione tutte le risorse del modulo.

Vado di UD3 e risparmio 70€ :asd:

;) CIAUZ

simo occhio al vdrop e vdroop io ti ho avvisato ;) ....anche se come da messaggio pvt ho ridotto enormemente l'effetto :rolleyes:

digieffe
02-12-2012, 15:06
Conosco C ma non abbastanza da poter fare un lavoro stabile ed efficace..
Comunque sì, il grandissimo vantaggio di U/EFI è la completa scrittura in C invece che in Assembly. E, nonostante possa sembrare strano (l'asm è il linguaggio più efficente dopo quello macchina), è il motivo principale per cui una mobo con BIOS tradizionale è molto più lenta nell'avvio.
Ovviamente perchè ottimizzare algoritmi in C è molto più semplice che ottimizzare algoritmi in assembly, perchè al massimo in C cambi il nome della variabile, in assembly cambiare una variabile equivale a cambiare il registro.
Senza contare che è stato dimostrato che un programmatore assembly SPECIALIZZATO nel linguaggio asm genera quasi sempre codice più lento di un compilatore. :D:D

- sarebbe comunque necessario avere a disposizione i sorgenti del''UEFI (tempo a parte, si potrebbe modificare ma dove sono i sorgenti?).

- io sapevo che il motivo per il quale i vecchi BIOS sono lenti all'avvio è perchè sfruttano la cpu in modalità reale (real mode) e non in modalità protetta (protected mode) o più avanzata, cosa che farebbe l'UEFI, inoltre è diverso il modo di inizializzare le periferiche ed è questo che fa risparmiare molto tempo.

- scusa, ma dov'è dimostrato che è il codice scritto in asm è quasi sempre più lento?

normalmente, quando scrivo codice C e mi serve più velocità inserisco dei blocchi in assembler, la mia esperienza mi riporta che, su un k10, passo dall'utilizzare di media 2/2.5 pipeline con il C (con opzione -O3) a quasi 3 in asm, (allineo ed impilo le istruzioni perchè possano sfruttare tutte e tre le pipeline contemporaneamente). Ci sono dei vantaggi che può portare un buon compilatore come l'analisi del codice (soprattutto a livello di IR [intermediate representation]) su un codice molto contorto, ma su un codice ridotto e semplice non c'è nulla che non si possa migliorare in asm a mano (ammesso che l'assemblatore non abbia lo stesso tipo di analisi ed ottimizzazione) IMHO.
Un tool (compilatore/assemblatore) può ottimizzare solo per le tecniche previste al proprio interno, l'essere umano può ottimizzare fino al limite della architettura, "testa" e tempo permettendo :)

MaRtH
02-12-2012, 15:19
simo occhio al vdrop e vdroop io ti ho avvisato ;) ....anche se come da messaggio pvt ho ridotto enormemente l'effetto :rolleyes:

Di quanto vdroppa la 990fxa-ud3?

TheBestFix
02-12-2012, 15:50
Di quanto vdroppa la 990fxa-ud3?

1,25v da bios a default sotto windows sta a 1,20v e sotto stress arriva a 1,16v fai te :rolleyes:
per correggere il vdroop ho dato +0,075v da bios e adesso si inizia a ragionare :)

isomen
02-12-2012, 15:54
simo occhio al vdrop e vdroop io ti ho avvisato ;) ....anche se come da messaggio pvt ho ridotto enormemente l'effetto :rolleyes:

Grazie per l'avvertimento, cmq tranqui... se voglio occare pesante ho sempre la sabertooth, che si stà dimostrando sempre più una roccia.

;) CIAUZ

MaRtH
02-12-2012, 15:54
1,25v da bios a default sotto windows sta a 1,20v e sotto stress arriva a 1,16v fai te :rolleyes:
per correggere il vdroop ho dato +0,075v da bios e adesso si inizia a ragionare :)

Problema di sempre delle gigabyte... La mia in sign è un'ottima mobo, a parte per il vdrop che è scandaloso a dir poco, 1.45V da bios sotto ibt diventano 1.348V... Peccato perchè gigabyte secondo me è tra le migliori in assoluto...

TheBestFix
02-12-2012, 16:03
Problema di sempre delle gigabyte... La mia in sign è un'ottima mobo, a parte per il vdrop che è scandaloso a dir poco, 1.45V da bios sotto ibt diventano 1.348V... Peccato perchè gigabyte secondo me è tra le migliori in assoluto...

eppure ti diro', questa e' la mia seconda gigabyte di fila (prima una 790xt-ud4p) e non ho mai avuto vdrop, anche su questa prima del fx 6300 avevo montato un phenom II 965 da 125W e non droppava per nulla :confused:

dav1deser
02-12-2012, 16:15
Ma non state a scervellarvi troppo per la differenza di tensione fra quella impostata nel bios e quella effettiva, non è una cosa molto importante. Cioè una volta che sai che se imposti 1.45V in realtà ne da 1.4 non c'è molto altro sapere o da fare. Quello che conta davvero è la stabilità alla tensione effettiva che riceve la CPU, e al limite qui ci si può preoccupare delle oscillazioni della tensione. Per il resto io me ne frego.

isomen
02-12-2012, 16:20
Ma non state a scervellarvi troppo per la differenza di tensione fra quella impostata nel bios e quella effettiva, non è una cosa molto importante. Cioè una volta che sai che se imposti 1.45V in realtà ne da 1.4 non c'è molto altro sapere o da fare. Quello che conta davvero è la stabilità alla tensione effettiva che riceve la CPU, e al limite qui ci si può preoccupare delle oscillazioni della tensione. Per il resto io me ne frego.

Quoto
nn é tanto il vdrop a preoccupare... ma il vdroop

;) CIAUZ

TheBestFix
02-12-2012, 16:23
Quoto
nn é tanto il vdrop a preoccupare... ma il vdroop

;) CIAUZ

infatti era quello che mi preoccupava...:rolleyes:

winebar
02-12-2012, 17:44
- sarebbe comunque necessario avere a disposizione i sorgenti del''UEFI (tempo a parte, si potrebbe modificare ma dove sono i sorgenti?).

- io sapevo che il motivo per il quale i vecchi BIOS sono lenti all'avvio è perchè sfruttano la cpu in modalità reale (real mode) e non in modalità protetta (protected mode) o più avanzata, cosa che farebbe l'UEFI, inoltre è diverso il modo di inizializzare le periferiche ed è questo che fa risparmiare molto tempo.

Queste differenze non le sapevo...
Allora ritiro quello che avevo detto...

- scusa, ma dov'è dimostrato che è il codice scritto in asm è quasi sempre più lento?

Ce lo diceva sempre il nostro prof di architettura degli elaboratori...
Ma non ci ha mai dato dati concreti.

normalmente, quando scrivo codice C e mi serve più velocità inserisco dei blocchi in assembler, la mia esperienza mi riporta che, su un k10, passo dall'utilizzare di media 2/2.5 pipeline con il C (con opzione -O3) a quasi 3 in asm, (allineo ed impilo le istruzioni perchè possano sfruttare tutte e tre le pipeline contemporaneamente).

Si be ma dei blocchi di assembler relativamente piccoli sono facili da gestire...
Cioè, avendo a disposizione l'ISA se devo creare 100k di codice è abbastanza semplice da gestire, se devo crearne 20/30 MB diventa difficilotto.
Inizia ad ottimizzare qualche MB di codice assembler ed esci pazzo tra i vari $sx $tx ecc ecc.
Correggimi se sbaglio.

Nforce Ultra
02-12-2012, 17:46
eppure ti diro', questa e' la mia seconda gigabyte di fila (prima una 790xt-ud4p) e non ho mai avuto vdrop, anche su questa prima del fx 6300 avevo montato un phenom II 965 da 125W e non droppava per nulla :confused:

Ti confermo che anche la mia UD3 con il Phenom II 955 a 3.9 con vcore 1.425 non ha problemi di vdrop, probabilmente gli FX hanno un assorbimento di corrente maggiore dei Phenom II affaticano di più i VRM e si ha vdrop.

TheBestFix
02-12-2012, 18:46
Ti confermo che anche la mia UD3 con il Phenom II 955 a 3.9 con vcore 1.425 non ha problemi di vdrop, probabilmente gli FX hanno un assorbimento di corrente maggiore dei Phenom II affaticano di più i VRM e si ha vdrop.

si lo penso anche io :doh:

digieffe
02-12-2012, 19:18
Ce lo diceva sempre il nostro prof di architettura degli elaboratori...
Ma non ci ha mai dato dati concreti.

Si be ma dei blocchi di assembler relativamente piccoli sono facili da gestire...
Cioè, avendo a disposizione l'ISA se devo creare 100k di codice è abbastanza semplice da gestire, se devo crearne 20/30 MB diventa difficilotto.
Inizia ad ottimizzare qualche MB di codice assembler ed esci pazzo tra i vari $sx $tx ecc ecc.
Correggimi se sbaglio.forse il tuo prof. si riferiva ad un intero ed enorme codice scritto in asm da programmatori di media esperienza.
In questo caso chiaramente un compilatore può senza troppa fatica ottimizzare meglio (in media il tutto).

Però solitamente la parte che va ottimizzata in asm è molto piccola, tramite il profiling si misura li dove il codice è critico come prestazioni e si agisce "a mano" ottimizzandolo.

aggiungo magari i compilatori fossero in grado di fare tutte le ottimizzazioni che si possono fare a mano, d'altro canto non si possono ottimizzare milioni di righe di codice asm a mano altrimenti i costi di sviluppo esplodono oltre che avere parti di codice inutilmente ottimizzate.

shellx
02-12-2012, 19:39
forse il tuo prof. si riferiva ad un intero ed enorme codice scritto in asm da programmatori di media esperienza.
In questo caso chiaramente un compilatore può senza troppa fatica ottimizzare meglio (in media il tutto).

Però solitamente la parte che va ottimizzata in asm è molto piccola, tramite il profiling si misura li dove il codice è critico come prestazioni e si agisce "a mano" ottimizzandolo.

aggiungo magari i compilatori fossero in grado di fare tutte le ottimizzazioni che si possono fare a mano, d'altro canto non si possono ottimizzare milioni di righe di codice asm a mano altrimenti i costi di sviluppo esplodono oltre che avere parti di codice inutilmente ottimizzate.

quoto, aggiungendo anche che l'assembly se è scritto con la giusta esperienza è assolutamente piu veloce di tutti gli altri linguaggi, in qualità del fatto che è diretto al dialogo con il linguaggio "codice" macchina.
Inoltre solitamente sono piu utilizzati approcci dove blocchi assembly di piccole dimensioni ottimizzate manualmente per determinate funzioni di superiore importanza, vengono implementate in strutture C, dove in queste il resto del programma (piu superfluo) viene ottimizzato e debugghizzato automaticamente dai compilatori.

Tornando in topic: ho rimesso 4 banchi e per adesso mi arrendo, fino a quando non trovo/mi faccio un bios adatto. Ora provo a scrivere un email a MSI. Ma tanto già so che mi invia a cagare.

winebar
02-12-2012, 21:36
forse il tuo prof. si riferiva ad un intero ed enorme codice scritto in asm da programmatori di media esperienza.
In questo caso chiaramente un compilatore può senza troppa fatica ottimizzare meglio (in media il tutto).

Infatti anche io ho detto che un conto è avere 100k di codice asm, un'altro avere diversi MB...
Se non addirittura un intero OS (che esiste) completamente in asm. :)

quoto, aggiungendo anche che l'assembly se è scritto con la giusta esperienza è assolutamente piu veloce di tutti gli altri linguaggi, in qualità del fatto che è diretto al dialogo con il linguaggio "codice" macchina.

Si lo so, però il punto è quello. Vai ad ottimizzare codice asm al massimo possibile. Ma non parlo di piccole parti, parlo di programmi interi.
Se non erro comunque anche il kernel linux ha diversi blocchi in asm che vengono caricate da codice in C. :D

Ma tanto già so che mi invia a cagare.

Sei così ottimista da credere che ti risponderanno? :asd::asd:

shellx
02-12-2012, 23:30
Si lo so, però il punto è quello. Vai ad ottimizzare codice asm al massimo possibile. Ma non parlo di piccole parti, parlo di programmi interi.
Se non erro comunque anche il kernel linux ha diversi blocchi in asm che vengono caricate da codice in C. :D

Ma infatti, nel 2012 l'assembly viene utilizzato per scrivere determinate funzioni di rilevante importanza ma di piccole dimensioni e poi impilate al C.
Oggi scrivere interi programmi in asm di mb e mb di stringhe è quasi raro.
Chi è quel folle che si distrugge i neuroni dietro l'assembly per scrivere stringhe e stringhe anche di irrilevante importanza per la soluzione software, contutti i linguaggi interpreti e compilati, e di generazioni superiori che abbiamo oggi. Siamo arrivati alla quinta generazione di linguaggio, con il wlanguage. Ormai apparte per funzioni veramente mirate e precise da fare manualmente, l'assembly è poco utilizzato.
Si nel kernel di linux, fortunamente e per ovvi motivi, l'assembly è indispensabile. ;)

Sei così ottimista da credere che ti risponderanno? :asd::asd:

Dici che scrivergli è come invocare Dio e sperare che mi appaia sul monitor sul terminale durante la sessione di risposta di update ppa ? :sofico:

theProix87
02-12-2012, 23:53
La tensione corretta la monitorate tramite CpuZ...? non vorrei superare in OC estremi 1,5 di Vcore, quindi da dove devo leggere...?

Per esempio da Bios ho 1.4.... da AMD OD ho 1,4125 mentre da CPUz levando i risparmi energetici, quindi CPU sempre alla massima frequenza, vario da 1,008 a 1,456 :mbe:

paolo.oliva2
03-12-2012, 06:07
La tensione corretta la monitorate tramite CpuZ...? non vorrei superare in OC estremi 1,5 di Vcore, quindi da dove devo leggere...?

Per esempio da Bios ho 1.4.... da AMD OD ho 1,4125 mentre da CPUz levando i risparmi energetici, quindi CPU sempre alla massima frequenza, vario da 1,008 a 1,456 :mbe:

Io guardo CPU-Z, anche se penso sballi di +0,02V con la cf-v.

se ilVcore ti varia di 0.5V hai i P-State attivi.

Secondo me sono più importanti le temp... il valore del Vcore èrelativo..

winebar
03-12-2012, 06:28
MChi è quel folle che si distrugge i neuroni dietro l'assembly

Loro: :asd::asd::asd:
http://www.menuetos.net/

E il bello è che supportano sia i 32 che i 64 bit :asd:
Solo su x86 ovviamente...





Dici che scrivergli è come invocare Dio e sperare che mi appaia sul monitor sul terminale durante la sessione di risposta di update ppa ? :sofico:

Preferisco dribblare la domanda con un: non voglio urtare i credenti. :D

Inviato dal mio GT-I9000 con Tapatalk 2

Athlon 64 3000+
03-12-2012, 10:46
http://forums.anandtech.com/showthread.php?p=34319628#post34319628

roadmap server.

shellx
03-12-2012, 10:54
Loro: :asd::asd::asd:
http://www.menuetos.net/

E il bello è che supportano sia i 32 che i 64 bit :asd:
Solo su x86 ovviamente...


Questo sito mi mancava, sono dei grandi...

Stamane mi sono giocato il lavoro, esco di casa e mi ritrovo una tegola impalata nel parabrezza, a primo acchitto temetti l'anticristo, poi mi accorsi che era solo una tegola caduta per il fortissimo vento di bufera di stanotte. Risultato di tutto questo: oggi ozio e dedico tutto il tempo a ottimizzare il sistema, non riesco a digerire il fatto che con 4 moduli non mi alza l'nb. Cioè sta cosa mifa rosicare e non poco. Intanto l'email a MSI lo mandata ieri, se non rispondono gli sparo un bombmail fino ad intasargli le caselledi posta. Esigo una risposta ! :sofico:

TheBestFix
03-12-2012, 10:58
La tensione corretta la monitorate tramite CpuZ...? non vorrei superare in OC estremi 1,5 di Vcore, quindi da dove devo leggere...?

Per esempio da Bios ho 1.4.... da AMD OD ho 1,4125 mentre da CPUz levando i risparmi energetici, quindi CPU sempre alla massima frequenza, vario da 1,008 a 1,456 :mbe:

cpu-z e hwmonitor i valori sono quelli che effettivamente arrivano alla cpu e coincidono, vai tranquillo con quelli, ovviamente se hai problemi di vdrop non corrisponderanno a quelli mpostati da bios...un'altro sistema per verificare il voltaggio e' usare l'utility di gigabyte TouchBios se clicchi sulla scheda stato del pc ti verra' fuori anche il voltaggio effettivo della cpu ;)

shellx
03-12-2012, 11:06
http://forums.anandtech.com/showthread.php?p=34319628#post34319628

roadmap server.

Come è affascinante questa roadmap...mi ricorda molto il minestrone nella casseruola rimasto dal pranzo che mia nonna mi riscaldava la sera. Ricordo anche però che la sera aveva un sapore diverso.

paolo.oliva2
03-12-2012, 11:06
http://forums.anandtech.com/showthread.php?p=34319628#post34319628

roadmap server.

Speriamo che alla prox "scorreggia" di un'altra testata non reiniziano le disperazioni/pianti (finti) per la probabile chiusura AMD.
Bah... Io non so (si fa per dire) chi abbia il tornaconto di divulgare comunque notizie negative su AMD, ma se ci fate caso, le notizie principali sono sempre 2... la prima è che i proci AMD non aumenteranno di potenza (vedi prima dell'uscita di Vishera) e quando questa strada fallisce, si ritorna sulla chiusura di AMD.

Tornando in tema, praticamente torna con l'info di PD2 sempre sul 32nm..., quindi novembre 2011 Zambesi, novembre 2012 PD e novembre 2013 PD2, per poi passare al 2014, presumibilmente novembre, al post PD2, con una bella X sul numero dei moduli.

shellx
03-12-2012, 11:19
Tornando in tema, praticamente torna con l'info di PD2 sempre sul 32nm..., quindi novembre 2011 Zambesi, novembre 2012 PD e novembre 2013 PD2, per poi passare al 2014, presumibilmente novembre, al post PD2, con una bella X sul numero dei moduli.

:confused: cioè ? Io mi accontento che abbia gli stessi moduli ma con steamroller e tutto le promesse che doveva contenere questo. Serve più questo cambiamento che avere core's in più.

plainsong
03-12-2012, 11:28
Tornando in tema, praticamente torna con l'info di PD2 sempre sul 32nm..., quindi novembre 2011 Zambesi, novembre 2012 PD e novembre 2013 PD2, per poi passare al 2014, presumibilmente novembre, al post PD2, con una bella X sul numero dei moduli.


Ma quindi con PD2 sul thread si intende la rev c del silicio?
In ogni caso è auspicabile che con gli FX x3xx e le apu Richland nel corso del 2013 Amd riesca a spingere le frequenze in modo analogo a quanto visto con i Phenom II.

TheBestFix
03-12-2012, 11:32
Speriamo che alla prox "scorreggia" di un'altra testata non reiniziano le disperazioni/pianti (finti) per la probabile chiusura AMD.
Bah... Io non so (si fa per dire) chi abbia il tornaconto di divulgare comunque notizie negative su AMD, ma se ci fate caso, le notizie principali sono sempre 2... la prima è che i proci AMD non aumenteranno di potenza (vedi prima dell'uscita di Vishera) e quando questa strada fallisce, si ritorna sulla chiusura di AMD.

Tornando in tema, praticamente torna con l'info di PD2 sempre sul 32nm..., quindi novembre 2011 Zambesi, novembre 2012 PD e novembre 2013 PD2, per poi passare al 2014, presumibilmente novembre, al post PD2, con una bella X sul numero dei moduli.

ti quoto per il tornando in tema.....paolo come stai messo con il NB? mi sta dando non pochi grattacapi e non ne comprendo il motivo....siamo messi peggio che coi deneb rev. c2......

winebar
03-12-2012, 12:49
Stamane mi sono giocato il lavoro, esco di casa e mi ritrovo una tegola impalata nel parabrezza, a primo acchitto temetti l'anticristo, poi mi accorsi che era solo una tegola caduta per il fortissimo vento di bufera di stanotte. Risultato di tutto questo: oggi ozio e dedico tutto il tempo a ottimizzare il sistema, non riesco a digerire il fatto che con 4 moduli non mi alza l'nb. Cioè sta cosa mifa rosicare e non poco. Intanto l'email a MSI lo mandata ieri, se non rispondono gli sparo un bombmail fino ad intasargli le caselledi posta. Esigo una risposta ! :sofico:

Spero per te che hai l'assicurazione contro le catastrofi ambientali...
Al massimo puoi sempre prendere la macchina, portarla sul monte bianco, causare una valanga (tipo gridando "è distrutta!" a sguarciagola) e farti pagare dall'assicurazione. :asd:

cioè ? Io mi accontento che abbia gli stessi moduli ma con steamroller e tutto le promesse che doveva contenere questo. Serve più questo cambiamento che avere core's in più.

Cioè, l'anno prossimo avremo Vishera 2.0 e da Novembre 2014 (rispettando sempre 1 un anno sul mercato per i processori) avremo Steamroller o magari direttamente Excavator, unendo i vantaggi degli scheduler esclusivi a quelli delle HDL... Sarebbe un ottimo passo avanti. :asd:
Speriamo solo che in PD2.0 aumentino comunque l'IPC. :D

Ma quindi con PD2 sul thread si intende la rev c del silicio?

Con PD2 si intende un miglioramento di PD (aumentando IPC, frequenze e quant'altro) unito al massimo miglioramento del silicio da qui a 11 mesi circa.
Spero almeno lo step D0.


In ogni caso è auspicabile che con gli FX x3xx e le apu Richland nel corso del 2013 Amd riesca a spingere le frequenze in modo analogo a quanto visto con i Phenom II.

Lo spero vivamente. Comunque penso proprio che saranno FX x4xx, dato che gli x3xx li abbiamo già adesso. ;)

winebar
03-12-2012, 12:57
siamo già alla rev C0 sul silicio che era B2g, per cui spererei almeno in un C3 o successivo step... già che si rimane purtroppo su sto 32nm almeno che lo spremano al massimo, tanto sarà l'ultimo giro di una ruota sdentata!...

L'idea di AMD non è così sbagliata... Perchè buttarsi su un 28nm bulk che non darebbe praticamente nessun vantaggio come frequenze (aumentare di +200Mhz la frequenza stock equivale a dover aumentare del 10% solo l'IPC, che è tanto, solo Intel osa tanto) e sprattutto non conosci se una volta che entra in produzione le rese saranno buone o se il silicio farà schifo. Meglio che GF lo testi per un anno e lo migliori. Anche se fossi stato io in Rory Read avrei fatto tutti i chip per portatili sui 28 nm (anche solo migliorando l'IPC del 5%, ma migliorando i consumi di un 2/3%, non fondamentale sui desktop ma essenziale in ambito mobile) e l'anno successivo sarei passato ai 20 direttamente sia sul desktop che sul mobile...

shellx
03-12-2012, 13:05
Spero per te che hai l'assicurazione contro le catastrofi ambientali...
Al massimo puoi sempre prendere la macchina, portarla sul monte bianco, causare una valanga (tipo gridando "è distrutta!" a sguarciagola) e farti pagare dall'assicurazione. :asd:

è tutto assicurato ;)


Cioè, l'anno prossimo avremo Vishera 2.0 e da Novembre 2014 (rispettando sempre 1 un anno sul mercato per i processori) avremo Steamroller o magari direttamente Excavator, unendo i vantaggi degli scheduler esclusivi a quelli delle HDL... Sarebbe un ottimo passo avanti. :asd:
Speriamo solo che in PD2.0 aumentino comunque l'IPC. :D

Speriamo...


Lo spero vivamente. Comunque penso proprio che saranno FX x4xx, dato che gli x3xx li abbiamo già adesso. ;)

vanno a numero dispari: è piu verosimile FX-X5XX

winebar
03-12-2012, 14:21
vanno a numero dispari: è piu verosimile FX-X5XX

Ma c'è da contare che l'anno scorso il x2xx se lo erano giocati con il 6200. :D

Comunque, dici che fanno come lo gnomo dal pedone profumato ma dall'ashella puzzolente? Versioni in sviluppo dispari, versioni stabili pari (in questo caso al contrario)??

Inviato dal mio GT-I9000 con Tapatalk 2

digieffe
03-12-2012, 14:24
http://forums.anandtech.com/showthread.php?p=34319628#post34319628

roadmap server.

metà o più del 2014 a 28 nm ?!?

misa che è arrivata l'ora che cambio parrocchia :(



EDIT: visto il ritardo per quella data pensavo a 22/20 nm...

Athlon 64 3000+
03-12-2012, 14:50
Sinceramente non è il massimo vedere che useranno per anche il 2013 il pp a 32 nm che per me fino ad ora è stato una emerita schifezza per quanto riguarda i consumi e la resa dei wafer.
Riguardo a PD2 come ho già accennato più volte si spera che aumentino l'IPC per la revisione di Vishera e Trinity perchè dovranno scontrare con Haswell.
Se sarà solo un eventuale C1 e quindi step più avanzato garantisco che saranno cavoli amari in tutti le fasce.

winebar
03-12-2012, 16:16
Sinceramente non è il massimo vedere che useranno per anche il 2013 il pp a 32 nm che per me fino ad ora è stato una emerita schifezza per quanto riguarda i consumi e la resa dei wafer.

Ma non è proprio vero... La qualità del silicio non è eccelsa, questo è appurato già da Bulldozer, però i problemi di resa li hanno risolti praticamente subito dopo che hanno iniziato a produrre le APU.
E qui mi chiedo, siamo proprio sicuri che i problemi di resa riguardassero tutto e non solo le APU? Le APU hanno anche una GPU integrata, e il 32nm di GF è SOI, che poco si sposa con le caratteristiche delle GPU, a quanto ho capito... :(

paolo.oliva2
03-12-2012, 23:21
ti quoto per il tornando in tema.....paolo come stai messo con il NB? mi sta dando non pochi grattacapi e non ne comprendo il motivo....siamo messi peggio che coi deneb rev. c2......

Io andando su di bus, fino a 300X, sono arrivato a NB 2,8GHz con DDR3 2,4 o 2,5GHz, non ricordo.

I problemi che avevo io era che l'NB l'ho sempre tenuta a 1,2V, ore sia su Zambesi che su Vishera... poi leggendo le specifiche sulle DDR3, è scappato fuori che se le DDR3 sono settate <2133, richiedono 1,5V, se settate >2133, il Vcore è 1,65V e richiedono che l'MC abbia almeno 1,25V (ed il Vcore MC è il medesimo del Vcore NB)

A sto punto mi viene da pensare che quando avevo le DDR3 2000 sull'8150, che avevano 1,5/1,55V di Vcore, avevo fatto tutte le prove sull'OC NB, ed avevo trovato giusto 1,2-1,225V per l'NB.
Poi quando avevo messo le 2133, non sono stato a rifare le stesse prove...ma le 2133 avevano 1,65V di Vcore, e mi ricordo che avevo prb se tiravo NB e DDR3...
Ora vuoi vedere che tutti i miei prb erano tra DDR3 1,65V e MC <1,25V? Perchè con l'8350 mi sembra sia così...

Ho il 1090T, l'8150 e l'8350 sul container, che ora dovrebbe essere sul molo di Genova :D, entro il 12 parte e me lo ritrovo a casa in CIV verso fine mese... fino ad allora non ci posso mettere le mani.

P.S. un attimo OT, per ridere.
Non sono stato a smontare tutto il PC, perchè devo far vedere/capire che non è roba nuova. Indi per cui... ho il banchetto tutto montato con il WB che gli partono i 2 tubi, il WC e i radiatori sempre con i tubi, poi ci sono i 2 accordi con le rotelle che girano + i sensori temp, poi gli scambiatori per dividere il circuito liquido nel 2 conf, cioè pompa-WB fisso e o verso la tanica + radiatori o verso WC.
Ora, il container è chiuso con i lucchetti e S.N., le chiavi le ho solo io, quando arriva nel porto mi devono chiamare per aprirlo in mia presenza.... mi immagino la faccia del tipo quando mi chiederà "questo cos'è?", ed io, un computer raffreddato a liquido... non sono sicuro se mi cre:D e:D à o penserà che lo sto prendendo per il...

paolo.oliva2
03-12-2012, 23:52
siamo già alla rev C0 sul silicio che era B2g, per cui spererei almeno in un C3 o successivo step... già che si rimane purtroppo su sto 32nm almeno che lo spremano al massimo, tanto sarà l'ultimo giro di una ruota sdentata!...
tipo da deneb a thuban passando dal C3 al E0 si sono ottenuti il 50% dei core in più con solo 4si00mhz in meno sui tutti i core (980be -> 1100t)

Lì era diverso... il C3 era 45nm SOI, l'E0 era 45nm SOI + low-k.
Il D0 era l'Opteron X6 sempre 45nm SOI liscio, l'E0 era il Thuban con Thurbo & C.

Il Phenom II X4 era sempre 45nm SOI liscio, e ha visto C1-C2-C3 appunto perchè era un PP di silicio differente ma sulla architettura, indi 1° lettera sempre la stessa e il numero successivo ad incremento.

Il B2g era Zambesi, il C0 è Vishera.

Il casino è... c'è qualcuno che ha dichiarato che il 32nm SOI HKMG ha compreso anche l'ULK? Perchè io non l'ho capito...

Senza sparare cavolate, io penso che se il B2g l'aveva, lo avrebbe anche il C0... ma se il B2g non l'aveva, il C0 non mi da' l'idea che lo abbia semplicemente perchè il Vcore in idle è lo steso dell'8150, e se anche inferiore dai 3,6GHz in su, a 1,4GHz in idle è sempre 0,925V sia l'8350 che l'8150.

Io ho Trinity mobile...e c'è una cosa che mi ha colpito... sempre che non sia CPU-Z e HWmonitor che sbagliano...

http://uptiki.altervista.org/_altervista_ht/75cg7p4vtev9t6n90f2h_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=75cg7p4vtev9t6n90f2h.jpg)

http://uptiki.altervista.org/_altervista_ht/ojlecp1ry8osdq0qfw2x_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=ojlecp1ry8osdq0qfw2x.jpg)

Non vi suonano strani 0,65V per 2,4GHz e 0,45V per 1,9GHz?

Ora... quello che penso, ma è un misto di ipotesi, è:

Il 32nm SOI HKMG era privo di ULK perchè dava problemi alle frequenze alte.
Vishera è sempre 32nm SOI HKMG privo di ULK.
Trinity è 32nm HKMG ULK, perchè a parte il discorso APU ed escludendo cattive misurazioni del Vcore, è un PD ed un 8350 manco a 800MHz può andare a 0,45V, figuriamoci 2,4GHz per 0,65V.

Se questo fosse vero... e se GF riesce a far convivere ULK con le frequenze alte... di... non mi sembrerebbe impossibile che un FX a 4GHz possa arrivarci con 1,1V, o perlomeno per i 5GHz ci si potrebbe arrivare con 1,4V, e se vogliamo non sarebbe neppure remota la possibilità di X10 e X12.

paolo.oliva2
03-12-2012, 23:58
:confused: cioè ? Io mi accontento che abbia gli stessi moduli ma con steamroller e tutto le promesse che doveva contenere questo. Serve più questo cambiamento che avere core's in più.

E' il posizionamento del mercato a fare la differenza... Se AMD scavalca in prestazioni MT il socket 1155, ha molti più margini di guadagno.

Facciamo fanta-informatica.

A spannella, con un incremento di performances IPC del 30% come annunciato, risulterebbe ancora inferiore in ST e superiore in MT... ma IVY in quel periodo lascierà spazio al successore, quindi, nonostante i soldi spesi nel potenziamento architetturale, si ritroverebbe sempre racchiuso nel socket 1155, e Opteron ingabbiati. Dov'è il guadagno?

Il successore di IVY, di quanto aumenterà l'IPC? Intel proporrà X6 nella fascia coperta dal 1155?

Ora... per superare la fascia 1155, se oggi un 8350 ripetto ad un 3770K è sotto di un 35% in ST e di un 10% in MT... un misero +10% di IPC ma seguito da un +25% di core se non da addirittura +50%, otterrebbe risultati. Di... ci sarebbero pure altri 2 anni per il software...

edit
Ricollegandomi al mio post precedente sui Vcore e onsiderando il prb del 32nm alle alte frequenze def, sarebbe più probabile un PD2 a 1,4V 4,6GHz def X8 oppure un 1,1V 4GHz X12?

digieffe
04-12-2012, 01:09
Lì era diverso... il C3 era 45nm SOI, l'E0 era 45nm SOI + low-k.
Il D0 era l'Opteron X6 sempre 45nm SOI liscio, l'E0 era il Thuban con Thurbo & C.

Il Phenom II X4 era sempre 45nm SOI liscio, e ha visto C1-C2-C3 appunto perchè era un PP di silicio differente ma sulla architettura, indi 1° lettera sempre la stessa e il numero successivo ad incremento.

Il B2g era Zambesi, il C0 è Vishera.

Il casino è... c'è qualcuno che ha dichiarato che il 32nm SOI HKMG ha compreso anche l'ULK? Perchè io non l'ho capito...

Senza sparare cavolate, io penso che se il B2g l'aveva, lo avrebbe anche il C0... ma se il B2g non l'aveva, il C0 non mi da' l'idea che lo abbia semplicemente perchè il Vcore in idle è lo steso dell'8150, e se anche inferiore dai 3,6GHz in su, a 1,4GHz in idle è sempre 0,925V sia l'8350 che l'8150.

Io ho Trinity mobile...e c'è una cosa che mi ha colpito... sempre che non sia CPU-Z e HWmonitor che sbagliano...

http://uptiki.altervista.org/_altervista_ht/75cg7p4vtev9t6n90f2h_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=75cg7p4vtev9t6n90f2h.jpg)

http://uptiki.altervista.org/_altervista_ht/ojlecp1ry8osdq0qfw2x_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=ojlecp1ry8osdq0qfw2x.jpg)

Non vi suonano strani 0,65V per 2,4GHz e 0,45V per 1,9GHz?

Ora... quello che penso, ma è un misto di ipotesi, è:

Il 32nm SOI HKMG era privo di ULK perchè dava problemi alle frequenze alte.
Vishera è sempre 32nm SOI HKMG privo di ULK.
Trinity è 32nm HKMG ULK, perchè a parte il discorso APU ed escludendo cattive misurazioni del Vcore, è un PD ed un 8350 manco a 800MHz può andare a 0,45V, figuriamoci 2,4GHz per 0,65V.

Se questo fosse vero... e se GF riesce a far convivere ULK con le frequenze alte... di... non mi sembrerebbe impossibile che un FX a 4GHz possa arrivarci con 1,1V, o perlomeno per i 5GHz ci si potrebbe arrivare con 1,4V, e se vogliamo non sarebbe neppure remota la possibilità di X10 e X12.

Guarda tiro ad indovinare: ti segna esattamente la metà dei volt effettivi

paolo.oliva2
04-12-2012, 07:33
Guarda tiro ad indovinare: ti segna esattamente la metà dei volt effettivi

0,9V per idle ci può stare.... ma 1,3V per 2,4GHz che senso avrebbe? Non è un procio sbloccato ed è 35W TDP... a batteria mi guardo film per 3h/4h...

Si sa qualcosa sui Vcore che io non so?

TheBestFix
04-12-2012, 08:35
Io andando su di bus, fino a 300X, sono arrivato a NB 2,8GHz con DDR3 2,4 o 2,5GHz, non ricordo.

I problemi che avevo io era che l'NB l'ho sempre tenuta a 1,2V, ore sia su Zambesi che su Vishera... poi leggendo le specifiche sulle DDR3, è scappato fuori che se le DDR3 sono settate <2133, richiedono 1,5V, se settate >2133, il Vcore è 1,65V e richiedono che l'MC abbia almeno 1,25V (ed il Vcore MC è il medesimo del Vcore NB)

A sto punto mi viene da pensare che quando avevo le DDR3 2000 sull'8150, che avevano 1,5/1,55V di Vcore, avevo fatto tutte le prove sull'OC NB, ed avevo trovato giusto 1,2-1,225V per l'NB.
Poi quando avevo messo le 2133, non sono stato a rifare le stesse prove...ma le 2133 avevano 1,65V di Vcore, e mi ricordo che avevo prb se tiravo NB e DDR3...
Ora vuoi vedere che tutti i miei prb erano tra DDR3 1,65V e MC <1,25V? Perchè con l'8350 mi sembra sia così...

Ho il 1090T, l'8150 e l'8350 sul container, che ora dovrebbe essere sul molo di Genova :D, entro il 12 parte e me lo ritrovo a casa in CIV verso fine mese... fino ad allora non ci posso mettere le mani.

P.S. un attimo OT, per ridere.
Non sono stato a smontare tutto il PC, perchè devo far vedere/capire che non è roba nuova. Indi per cui... ho il banchetto tutto montato con il WB che gli partono i 2 tubi, il WC e i radiatori sempre con i tubi, poi ci sono i 2 accordi con le rotelle che girano + i sensori temp, poi gli scambiatori per dividere il circuito liquido nel 2 conf, cioè pompa-WB fisso e o verso la tanica + radiatori o verso WC.
Ora, il container è chiuso con i lucchetti e S.N., le chiavi le ho solo io, quando arriva nel porto mi devono chiamare per aprirlo in mia presenza.... mi immagino la faccia del tipo quando mi chiederà "questo cos'è?", ed io, un computer raffreddato a liquido... non sono sicuro se mi cre:D e:D à o penserà che lo sto prendendo per il...

ecco sospettavo che ci fosse qualcosa del genere sotto...e questo paolo valeva anche per i deneb e ti spiego perche': con il 965 c3 inizialmente usavo ddr3 da 1,7v a 1600 Mhz che dovevo per forza di cose settare a 1,65v altrimenti davano errore e il nb non riusciva ad essere pienamente stabile a 2600 mhz anche con alti voltaggi....poi con lo stesso sistema cambiai le ram, provai quelle che ho attualmente in firma e che uso con piledriver, 2133 1,5v le settai a 1600mhz e il nb riusciva a stare stabile a 2600mhz con un overvolt infimo sotto gli 1,3v e cmq largamente piu' basso rispetto a prima....adesso in pratica stai dicendo che piu' e' basso il voltaggio impostato delle ram e meno voltaggio richiede il cpu-nb per essere stabile alle varie freq? un'altra cosa ma la freq. del nb puo' superare quella dell'ht link? mi pare di aver letto da qualche parte che non poteva o ricordo male io?

WarSide
04-12-2012, 09:10
http://www.hwupgrade.it/forum/showthread.php?threadid=2526983

si muove qualcosa in GF, 14nm FinFET in volumi per il 2014... forse :D

Si, bisogna vedere se per le cpu x86 e se per quelle top; io ormai se non vedo non credo :fagiano:

winebar
04-12-2012, 09:27
A spannella, con un incremento di performances IPC del 30% come annunciato, risulterebbe ancora inferiore in ST e superiore in MT... ma IVY in quel periodo lascierà spazio al successore, quindi, nonostante i soldi spesi nel potenziamento architetturale, si ritroverebbe sempre racchiuso nel socket 1155, e Opteron ingabbiati. Dov'è il guadagno?

Il successore di IVY, di quanto aumenterà l'IPC? Intel proporrà X6 nella fascia coperta dal 1155?

Intel ha già detto che l'1150 (il successore di 1155) sarà soli a 4 core massimi, in quanto secondo Intel in casa non si ha bisogno di tanto MT ma di tanta potenza in ST.
Intel dice di aspettarsi un aumento di IPC massimo del 15%. Anche perché Intel sta integrando di tutto in haswell, quindi spinge relativamente poco sull'IPC.

Ecco quindi che uno Steamroller con un 30% di IPC in più inizia a far paura, anche se con consumi generali alti rispetto a Intel. Perché? Semplice. Intel sa che l'uso delle HDL porta ad una diminuzione netta dei transistor usati da un processore (e IMHO Intel le usa da tempo), quindi abbassa i consumi. Pensandoci, se i transistor diminuiscono del 20% (ipotesi personale) Excavator sarebbe su 1 miliardo di transistor invece che su 1.2. Questo cosa vuol dire? Che i consumi dovrebbero effettivamente diminuire del 20%, quindi AMD può decidere se passare ai 95W (probabilmente avendo anche un margine per aumentare la frequenza di 100/200MHz) oppure se sfruttare il 10% dei miglioramenti delle HDL per aumentare l'efficienza e l'altro 10% per le frequenze (ovviamente unito all'aumento di IPC).
Non sto contando l'incognita del pp appositamente. Perché se le slide di ieri sono vere Steamroller sarà su 28 nm e probabilmente anche Excavator. Se sono false (e lo spero) saranno sui 20nm, e in questo caso AMD, contando un TDP massimo di 95W, può usare tutti i vantaggi delle HDL per aumentare le frequenze.
IMHO sarebbe azzardato passare ad un X10. È vero che possibilmente darebbe filo da torcere a Intel su 1150 nel ST, ma inserire un altro modulo toglierebbe margine dalle frequenze. Cosa che abbiamo già visto con PII X4 -> PII X6.
E ad AMD serve tantissimo aumentare la potenza in ST per non perdere ulteriore terreno in ST in generale (senza contare l'IPC quindi).
Cioè, paradossalmente se AMD vuole passare ad un X10, senza perdere in potenza in ST, una potenziale diminuzione di 400 MHz (basandomi su un 8350) dovrebbe significare in un aumento di IPC del 10%, e dovrebbe farlo sposare con una diminuzione dei consumi sulla carta (non come efficienza, intendo come picco minimo e massimo).

A meno che AMD non punti all'utenza professionale. Che però si butta su processori da 1000&euro; senza problemi.
Anche nel mercato AMD fatica in confronto ad Intel. Spero solo che nel prossimo FAD gli azionisti decidano di mandare a casa quel caprone di Read...

Inviato dal mio GT-I9000 con Tapatalk 2

winebar
04-12-2012, 10:52
http://www.hwupgrade.it/forum/showthread.php?threadid=2526983

si muove qualcosa in GF, 14nm FinFET in volumi per il 2014... forse :D

Si ma GF si sta impegnando prima sui pp per ambito mobile e poi per quelli in ambito desktop....
Anche perché sembra che Apple stia cercando di mollare le fonderie di Samsung, quindi si dovrebbe affidare a TSMC (che però ha tanti clienti su ARM e una bassa resa sarebbe difficoltosa per Apple), o Intel (che a quanto pare in cambio vorrebbe CPU x86 sugli iPad e garanzie che non mollerà gli x86 nei mac) oppure GF, che come produttore di spicco ha praticamente solo AMD, che in ambito mobile latita...

Inviato dal mio GT-I9000 con Tapatalk 2

Athlon 64 3000+
04-12-2012, 12:07
Il rinvio di Steamroller al 2014 mi ha spiazzato e come già detto mandato gampe all'aria l'idea di prendere Kaveri a fine 2013.
L'essere rimasto deluso dall'FX-4100 e aver pensionato il Phenom II 955 per prendere un'A8-3870K(che a livello teorico dovrebbe avere le stesse prestazioni del 955)) per poter avere le usb 3.0 native potrebbe essere stata una scelta forzata.
Dico questo perchè in alcuni giochi ho stranamento performance più basse rispetto a prima.
Già qualche mese fa parlai delle prestazioni in BF3 molto più alte del 955 rispetto al 3870k in accoppiata con la HD 7870.
Negli ultimi tempi ho anche reinstallato Bad Company 2 è gira molto peggio di prima e anche Dirt 3 ho 20 fps in meno.
Mi era già successo in passato di avere prestazioni nei giochi pessimi ai tempi dell'Athlon 64 3000+ socket 754 e li risolsi con il passaggio al 939.
Dissi anche che non volevo più tornare all'AM3+ avendo già avuto una mobo MSI(venduta),ma alla luce di questa situazione sto rivalutando l'ipotesi di tornare all'accoppiata classica CPU+GPU.
Per motivi di budget molto ristretto e alla luce dei benchmark visti in giro per la rete pensavo che l'FX-4300 potrebbe essere una buona scelta,naturalmente non sono interessato all'FX-6300 usando il PC solo per giocare e all'FX-8320 perchè costa molto di più rispetto all'FX-4300.

dav1deser
04-12-2012, 12:25
Tieni conto che nei giochi che sfruttano più di due core a pari frequenza il 6300 è migliore del 4300, e se pensi di fare OC è un fattore da considerare visto che le frequenza default perdono di significato. Personalmente mi aspetto che il 6300 scenderà sensibilmente di prezzo: 4100 e 4300 costano circa uguale, 8120 e 8320 anche, l'8350 costa più dell'8150 ma è pur sempre il top di gamma. Il 6300 è l'unico che costa sensibilmente più del modello che va a sostituire senza che ci sia una valida ragione.

Phenomenale
04-12-2012, 12:56
L'essere rimasto deluso dall'FX-4100 ... pensavo che l'FX-4300 potrebbe essere una buona scelta
Perdonami la franchezza: se il 4100 ti ha deluso prendere il 4300 significa voler farsi del male. Sono quasi la stessa CPU, cambia solo
uno step di silicio.
IMHO o sali di categoria (es. 8320) o ti tieni i soldi per tempi migliori. IMHO :O

filo mc-ati crossfire
04-12-2012, 13:21
Perdonami la franchezza: se il 4100 ti ha deluso prendere il 4300 significa voler farsi del male. Sono quasi la stessa CPU, cambia solo
uno step di silicio.
IMHO o sali di categoria (es. 8320) o ti tieni i soldi per tempi migliori. IMHO :O

quotone,vai almeno di fx-6300,minimo!

tuttodigitale
04-12-2012, 13:28
L'idea di AMD non è così sbagliata... Perchè buttarsi su un 28nm bulk che non darebbe praticamente nessun vantaggio come frequenze (aumentare di +200Mhz la frequenza stock equivale a dover aumentare del 10% solo l'IPC, che è tanto, solo Intel osa tanto)
La rigiro....perchè non buttarsi sui 28nm con un architettura collaudata come Piledriver. Imho, non darebbe alcun vantaggio usare un PP considerato defunto da IBM/GF come il 32nm SOI. e tantomeno migliorarlo (= spenderci altri soldi sopra)
Voglio farti notare che secondo AMD i vantaggi di clock di PD sono dovuti più alla tecnologia resonant clock mesh che ad improbabili miglioramenti del processo produttivo.

Secondo Anand gli ingegneri di AMD si attendevano un clock vicino ai 3 GHz per gli Opteron x16 invece degli attuali 2,3.
Con il senno di poi non avrebbe di certo passato per l'anti-camera di cervello pensare ad un 20 core.....
Imho, Piledriver trarrebbe vantaggio anche a passare dai 32nm SOI ai 45nm SOI lk...Questo è uno dei peggiori processi produttivi degli ultimi dieci anni.
Il 28nm non può essere peggiore...in caso contrario GF farebbe bene a dedicarsi ad altro.

PS ma le FAB che saranno portate a 28nm non sono quelle chevengono usate per i prodotti a 32 nm? In tal caso AMD sarà costretta ad uscire con una cpu a 28nm. Se steamroller non sarà pronto la scelta non può ricadere che su Piledriver
EDIT
proprio la differenza minima tra i due processi prodittivi sul piano della miniaturizzazione, mi porta a credere che i miglioramenti siano proprio su fattori come l'efficienza energetica. Imho non avrebbe senso fare un die shrink solo per ridurre e di poco le dimensioni del chip...tantovale aspettare i 20-22nm

dove è la notizia che steamroller possa migliorare l'ipc del 30%?
Mi sembra molto molto improbabile..secondo me sarà già tanto un +15%, ed è tanto, è la differenza di IPC che c'è tra Nehalem e Ivy Bridge.

enricoa
04-12-2012, 13:36
L'essere rimasto deluso dall'FX-4100 e aver pensionato il Phenom II 955 per prendere un'A8-3870K(che a livello teorico dovrebbe avere le stesse prestazioni del 955)) per poter avere le usb 3.0 native potrebbe essere stata una scelta forzata.
Dico questo perchè in alcuni giochi ho stranamento performance più basse rispetto a prima.

mica tanto
considerando che llano altro non è che la fascia athlon2 del socket am3
(in pratica il tuo 3870k sarebbe come un x4 640 + igp + moltiplicatore sbloccato)
i phenom andrebbero confrontati come performances con gli fx
quindi non mi sembra strana la perdita di prestazioni (manca anche la L3)

digieffe
04-12-2012, 13:37
http://www.hwupgrade.it/forum/showthread.php?threadid=2526983

si muove qualcosa in GF, 14nm FinFET in volumi per il 2014... forse :D

credo che si tratti del processo che sostituisce quello a basse performances, quindi buono per i tablet ecc, no cpu ad alte prestazioni

tuttodigitale
04-12-2012, 14:54
mica tanto
considerando che llano altro non è che la fascia athlon2 del socket am3
(in pratica il tuo 3870k sarebbe come un x4 640 + igp + moltiplicatore sbloccato)
i phenom andrebbero confrontati come performances con gli fx
quindi non mi sembra strana la perdita di prestazioni (manca anche la L3)
A livello di Ipc stars e deneb sono praticamente pari (è vero che con i 32nm ha perso la cache l3, ma ha raddoppiato le dimensioni della più veloce cache l2), vinve l'uno o l'altro in base all'applicazione

http://www.anandtech.com/bench/Product/399?vs=80
PS il confronto è tra a8-3850 (2,9 GHz) e Phenom x4 940 (3GHz)

notare di contro quanto sia elevata la differenza tra llano e un athlon con alcune applicazioni, inclusi i giochi
http://www.anandtech.com/bench/Product/399?vs=122

Detto questo un Phenom a 3,2 Ghz è indubbiamente più veloce (ma di poco)

Folgore 101
04-12-2012, 15:32
Scusate se chiedo qui ma ho un dubbio su un imminente acquisto.
Volevo comprare una scheda madre GIGABYTE GA-990FXA-UD3 ma ho scoperto che se la versione di BIOS non supporta le nuove CPU FX la scheda madre non si avvia e non permette neppure l'aggiornamento. Non riuscendo a sapere dal venditore che revisione è ho preso in considerazione queste due schede madri:
ASROCK 990FX Extreme3
MSI 990FXA-GD80

Entrambe utilizzano BIOS UEFI, sapete se questo BIOS presenta lo stesso problema della GIGABYTE che utilizza BIOS "classico"? Anche se non hanno installato l'ultima versione si riesce ad avviare il PC per aggiornarlo o bisogna comunque utilizzare una CPU compatibile con la versione installata?

Grazie per le eventuali risposte o suggerimenti.

dav1deser
04-12-2012, 16:04
Scusate se chiedo qui ma ho un dubbio su un imminente acquisto.
Volevo comprare una scheda madre GIGABYTE GA-990FXA-UD3 ma ho scoperto che se la versione di BIOS non supporta le nuove CPU FX la scheda madre non si avvia e non permette neppure l'aggiornamento. Non riuscendo a sapere dal venditore che revisione è ho preso in considerazione queste due schede madri:
ASROCK 990FX Extreme3
MSI 990FXA-GD80

Entrambe utilizzano BIOS UEFI, sapete se questo BIOS presenta lo stesso problema della GIGABYTE che utilizza BIOS "classico"? Anche se non hanno installato l'ultima versione si riesce ad avviare il PC per aggiornarlo o bisogna comunque utilizzare una CPU compatibile con la versione installata?

Grazie per le eventuali risposte o suggerimenti.

Generalmente il modello di bios della scheda madre è scritto sulla scatola della scheda madre. Se compri a mano in negozio ti basta controllare prima di pagare, se il bios è troppo vecchio non acquisti, se è nuovo la prendi. Comunque gli FX sono in giro da più di anno, è quasi impossibile trovare schede madri con bios tanto vecchi, e se anche prendi uno degli ultimi FX ma il bios supporta solo i primi si dovrebbe comunque avviare e darti la possibilità di aggiornare.

shellx
04-12-2012, 16:05
Scusate se chiedo qui ma ho un dubbio su un imminente acquisto.
Volevo comprare una scheda madre GIGABYTE GA-990FXA-UD3 ma ho scoperto che se la versione di BIOS non supporta le nuove CPU FX la scheda madre non si avvia e non permette neppure l'aggiornamento. Non riuscendo a sapere dal venditore che revisione è ho preso in considerazione queste due schede madri:
ASROCK 990FX Extreme3
MSI 990FXA-GD80

Entrambe utilizzano BIOS UEFI, sapete se questo BIOS presenta lo stesso problema della GIGABYTE che utilizza BIOS "classico"? Anche se non hanno installato l'ultima versione si riesce ad avviare il PC per aggiornarlo o bisogna comunque utilizzare una CPU compatibile con la versione installata?

Grazie per le eventuali risposte o suggerimenti.

Non dipende dal fatto se è uefi o classico, dipende dal bios in generale.
Tuttavia io ho la GD80 di MSI se vuoi downgrado il bios a due versioni e avvio con l'FX, ma calcola che se la stai prendendo adesso sicuramente avrà l'ultimo o il penultimo bios, ed io ho avuto il penultimo e l'ultimo e vanno entrambi con gli FX senza problemi (sia l'8120 che l'8320).

winebar
04-12-2012, 17:30
La rigiro....perchè non buttarsi sui 28nm con un architettura collaudata come Piledriver. Imho, non darebbe alcun vantaggio usare un PP considerato defunto da IBM/GF come il 32nm SOI. e tantomeno migliorarlo (= spenderci altri soldi sopra)
Voglio farti notare che secondo AMD i vantaggi di clock di PD sono dovuti più alla tecnologia resonant clock mesh che ad improbabili miglioramenti del processo produttivo.

Semplice. Perchè il 32 nm è SOI mentre il 28 nm è bulk, più economico ma più dispendioso come energia richiesta.

Secondo Anand gli ingegneri di AMD si attendevano un clock vicino ai 3 GHz per gli Opteron x16 invece degli attuali 2,3.
Con il senno di poi non avrebbe di certo passato per l'anti-camera di cervello pensare ad un 20 core.....

Assolutamente falso. AMD si sa che stava facendo Bulldozer dal 2006 e che avrebbe fatto un largo uso di core. Inoltre GF i test sulla CPU li fa parecchio tempo prima. Anzi, penso proprio che i primi test li avessero cominciati quando le fonderie erano ancora di AMD.

Imho, Piledriver trarrebbe vantaggio anche a passare dai 32nm SOI ai 45nm SOI lk...Questo è uno dei peggiori processi produttivi degli ultimi dieci anni.
Il 28nm non può essere peggiore...in caso contrario GF farebbe bene a dedicarsi ad altro.

Come detto sopra, è tutto da dimostrare. Potrebbe però andare bene per le APU, dato che il bulk per le schede grafiche sembrerebbe essere migliore.

PS ma le FAB che saranno portate a 28nm non sono quelle chevengono usate per i prodotti a 32 nm? In tal caso AMD sarà costretta ad uscire con una cpu a 28nm. Se steamroller non sarà pronto la scelta non può ricadere che su Piledriver

Anche se le fab sono quelle dubito che GF dismetta, dopo appena due anni, la produzione a 32nm. Intel produce ancora a 45. Fino ad un anno fa produceva anche qualche suo processore ancora a 45nm.

proprio la differenza minima tra i due processi prodittivi sul piano della miniaturizzazione, mi porta a credere che i miglioramenti siano proprio su fattori come l'efficienza energetica. Imho non avrebbe senso fare un die shrink solo per ridurre e di poco le dimensioni del chip...tantovale aspettare i 20-22nm

Appunto. AMD restando un ulteriore anno sui 32nm potrebbe avere innumerevoli vantaggi dal punto di vista economico. E inoltre i 32nm sono strarodati. Anche se è possibile che AMD cerchi di ottenere anche solo 1/2 watt dalle versioni mobili rispetto ad un eventuale 32nm C3/D0. :)

dove è la notizia che steamroller possa migliorare l'ipc del 30%?

Penso che tu sappia che il progetto Bulldozer prevedeva uno scheduler unico per le due ALU di un modulo no? Ecco, con Steamroller, visto che si sono accorti che era troppo azzardata una mossa del genere (si stima una perdita di IPC del 20%) hanno deciso di mantenere sempre il CMT ma di mettere uno scheduler esclusivo per ogni ALU. Di fatto in comune all'interno dei moduli rimangono quasi solo l'unità di decode e la L2.
Dei test su Bulldozer e PD hanno dimostrato come usano solo due moduli (quindi 4 ALU) le prestazioni sono 100 (ad esempio), mentre sulle mobo che supportano la funzionalità, disabilitando una sola ALU a modulo (quindi su 8150/8350) si guadagna circa il 20 percento in prestazioni clock to clock.
Aggiungi un minimo aumento in frequenza e un minimo miglioramento di IPC causato dall'ottimizzazione delle ALU e delle FPU e arrivi vicino al 30%. ;)
Comunque su semi accurate, se non erro dovrebbe essere quello il sito, era uscita una slide trapelata.
Per una traduzione vai nel blog di shellx. ;)

Beh spero che la siglia XM, significando extreme mobility, indichi anche una minima "elasticità" per utilizzi da alte prestazioni, tipo dice che a parità di tensione offre dal 55 al 20% in più di clock rispetto al 20nm... per ora dice che è pensato soprattutto per il mobile, però oh, AMD da qualche parte dovrà pur farsi produrre il chip, e ho letto una notizia su tom's che nell'ambito x86 si impegnerà per altri 5/10 anni minimo e che per i prossimi 30 anni sara ancora l'architettura regina per HPC...

Non so tu, ma rileggendo la notizia ho notato una cosa molto strana... Dicono che i 20 nm sono pronti per la produzione, e che li useranno solo per un anno. Questo vuol dire che da qui a (penso) 2/3 mesi inizieranno a produrre in volumi a 20nm.
Quindi, dove sono i 28 nm? è ovvio che qualcosa non torna. Hanno fatto i 28 nm per le performance e i 20 per la mobilità? Anche qui non mi torna. Perchè se non erro si inizia lo sviluppo unificato e poi si dividono le catene produttive e si implementano le caratteristiche uniche che ogni catena deve avere.
Non riesco a trovare il quadro della situazione...

dav1deser
04-12-2012, 18:18
Penso che tu sappia che il progetto Bulldozer prevedeva uno scheduler unico per le due ALU di un modulo no? Ecco, con Steamroller, visto che si sono accorti che era troppo azzardata una mossa del genere (si stima una perdita di IPC del 20%) hanno deciso di mantenere sempre il CMT ma di mettere uno scheduler esclusivo per ogni ALU. Di fatto in comune all'interno dei moduli rimangono quasi solo l'unità di decode e la L2.
Dei test su Bulldozer e PD hanno dimostrato come usano solo due moduli (quindi 4 ALU) le prestazioni sono 100 (ad esempio), mentre sulle mobo che supportano la funzionalità, disabilitando una sola ALU a modulo (quindi su 8150/8350) si guadagna circa il 20 percento in prestazioni clock to clock.
Aggiungi un minimo aumento in frequenza e un minimo miglioramento di IPC causato dall'ottimizzazione delle ALU e delle FPU e arrivi vicino al 30%. ;)
Comunque su semi accurate, se non erro dovrebbe essere quello il sito, era uscita una slide trapelata.
Per una traduzione vai nel blog di shellx. ;)

Il miglioramento di IPC disabilitando i core è una leggenda metropolitana, frutto di una sbagliata compresione di quello che succede. Giusto per chiarire subito, ho fatto personalmente un paio di prove ST sul mio 6100@4GHz.

Tutti i core attivi:
Cinebench 10: 0.97punti
7-Zip benchamrk: 3425MIPS

1 core per modulo:
Cinebench 10: 0.98punti
7-Zip benchamrk: 3425MIPS

Non c'è neanche bisogno di dire che 0.01punti in più in CB sono del tutto irrilevanti vero?

Quello che succede spegnendo i core è che si evita la condivisione delle risorse, quindi si evita una perdita di performance, ma non si ha un guadagno. La potenza ST è quella e quella resta, perchè anche se il secondo core del modulo è attivo, ma non sta macinando nulla, il primo core può già usare tutte le risorse disponibili, ugualmente a quanto può fare se il secondo core è del tutto spento.
Con la giusta gestione dei thread (patch win 7 o win 8) fintanto che metà dei core totali stanno lavorando hai già le massime prestazioni possibili.
Di conseguenza l'aggiunta del secondo scheduler a modulo più che aumentare la potenza ST aumenterà quella MT nel caso in cui N_thread>N_core/2 oppure N_thread>2 nel caso di pessima gestione dei thread.

paolo.oliva2
04-12-2012, 18:37
Intel ha già detto che l'1150 (il successore di 1155) sarà soli a 4 core massimi, in quanto secondo Intel in casa non si ha bisogno di tanto MT ma di tanta potenza in ST.
Intel dice di aspettarsi un aumento di IPC massimo del 15%. Anche perché Intel sta integrando di tutto in haswell, quindi spinge relativamente poco sull'IPC.

Ecco quindi che uno Steamroller con un 30% di IPC in più inizia a far paura, anche se con consumi generali alti rispetto a Intel. Perché? Semplice. Intel sa che l'uso delle HDL porta ad una diminuzione netta dei transistor usati da un processore (e IMHO Intel le usa da tempo), quindi abbassa i consumi. Pensandoci, se i transistor diminuiscono del 20% (ipotesi personale) Excavator sarebbe su 1 miliardo di transistor invece che su 1.2. Questo cosa vuol dire? Che i consumi dovrebbero effettivamente diminuire del 20%, quindi AMD può decidere se passare ai 95W (probabilmente avendo anche un margine per aumentare la frequenza di 100/200MHz) oppure se sfruttare il 10% dei miglioramenti delle HDL per aumentare l'efficienza e l'altro 10% per le frequenze (ovviamente unito all'aumento di IPC).
Non sto contando l'incognita del pp appositamente. Perché se le slide di ieri sono vere Steamroller sarà su 28 nm e probabilmente anche Excavator. Se sono false (e lo spero) saranno sui 20nm, e in questo caso AMD, contando un TDP massimo di 95W, può usare tutti i vantaggi delle HDL per aumentare le frequenze.
IMHO sarebbe azzardato passare ad un X10. È vero che possibilmente darebbe filo da torcere a Intel su 1150 nel ST, ma inserire un altro modulo toglierebbe margine dalle frequenze. Cosa che abbiamo già visto con PII X4 -> PII X6.
E ad AMD serve tantissimo aumentare la potenza in ST per non perdere ulteriore terreno in ST in generale (senza contare l'IPC quindi).
Cioè, paradossalmente se AMD vuole passare ad un X10, senza perdere in potenza in ST, una potenziale diminuzione di 400 MHz (basandomi su un 8350) dovrebbe significare in un aumento di IPC del 10%, e dovrebbe farlo sposare con una diminuzione dei consumi sulla carta (non come efficienza, intendo come picco minimo e massimo).

A meno che AMD non punti all'utenza professionale. Che però si butta su processori da 1000&euro; senza problemi.
Anche nel mercato AMD fatica in confronto ad Intel. Spero solo che nel prossimo FAD gli azionisti decidano di mandare a casa quel caprone di Read...

Inviato dal mio GT-I9000 con Tapatalk 2

Guarda... sempre valutando per come la vedo io BD... poi è chiaro che altri possono vederla del tutto differente.

Un FX X4 non consuma il -50% rispetto ad un X8, come non consuma il -33% rispetto ad un X6.
Viceversa, in OC, i consumi dovrebbero essere simili, cioè magari un X8 a 5,2GHz potrebbe consumare quanto un X4 a 5,4GHz...
Se poi pensiamo agli OC di un 8350, penso che tra un OC totale di +1,2GHz, ad aria si arrivi a +1GHz ed il liquido permetta +200MHz in più dell'aria.
In queste condizioni, un BD che abbia o più IPC o più core totali, avrebbe molte più possibilità di arrivare a potenze massime rispetto al mix IPC attuale/8 core.
In poche parole... un 8350 con un +50% di IPC o un +50% di core è molto più gestibile in OC di un 8350 che dovrebbe arrivare ad un +50% di frequenze OC rispetto ai 2.
Io concordo perfettamente che aumentare l'IPC del 30% sarebbe meglio, ma comunque un +30% di IPC sarebbe ottenibile solo ottimizzando quello che c'è o in ogni caso si dovrebbe potenziare la parte logica dei core? Perchè per potenziare, significa aggiungere parti logiche = transistor in più.
Facciamo finta, e faccio un caso paradossale molto più negativo che nella realtà, che aumentare l'IPC del 30% ad un 8350 porti a 1.400.000.000 transistor, e che invece un X12 porti 1.700.000.000 transistor... quale differenza?
350mm2 contro 400mm2... se facciamo il conto che AMD vende 315mm2 ad un prezzo max di 200€, 400mm2, contando un plus di scarti e qualsivoglia, già a 300€ ci sarebbe un margine ben più grande.
Guardando l'OC... un FX X8 4GHz potenza 100, a 6GHz potenza 150. Un X12 a 3GHz sarebbe già più potente (X8*4GHz=32 X12*3GHz=36) e considerando che per i 5GHz non ci sarebbero prb di limiti frequenza ma unicamente di dissipazione calore, un X12*5GHz arriveper otterebbe a 60 contro i 48 di un X8 @6GHz.
Poi è chiaro che il discorso ST rimarrebbe... ma cerchiamo anche di guardarla in altro modo.... cioè uno non compra un X8 se gli basta un X2 come viceversa, quindi semplicemente uno non comprerebbe un X12 AMD per utilizzare applicazioni ST, ma un bel chissenefrega? Invece per applicazioni MT, beh, un X12 a 4GHz farebbe i 10,5 a cinebench contro i 7 di un 8350 4GHz.
Cioè... una jeep va bene nel fuori strada come invece una Ferrari va bene in pista... se AMD fosse una jeep, non deve per forza cercare di essere una alternativa alla Ferrari in pista, ma l'alternativa di un altro prodotto più idoneo se uno deve girare nei campi...

digieffe
04-12-2012, 18:51
Il miglioramento di IPC disabilitando i core è una leggenda metropolitana, frutto di una sbagliata compresione di quello che succede. Giusto per chiarire subito, ho fatto personalmente un paio di prove ST sul mio 6100@4GHz.

Tutti i core attivi:
Cinebench 10: 0.97punti
7-Zip benchamrk: 3425MIPS

1 core per modulo:
Cinebench 10: 0.98punti
7-Zip benchamrk: 3425MIPS

Non c'è neanche bisogno di dire che 0.01punti in più in CB sono del tutto irrilevanti vero?

Quello che succede spegnendo i core è che si evita la condivisione delle risorse, quindi si evita una perdita di performance, ma non si ha un guadagno. La potenza ST è quella e quella resta, perchè anche se il secondo core del modulo è attivo, ma non sta macinando nulla, il primo core può già usare tutte le risorse disponibili, ugualmente a quanto può fare se il secondo core è del tutto spento.
Con la giusta gestione dei thread (patch win 7 o win 8) fintanto che metà dei core totali stanno lavorando hai già le massime prestazioni possibili.
Di conseguenza l'aggiunta del secondo scheduler a modulo più che aumentare la potenza ST aumenterà quella MT nel caso in cui N_thread>N_core/2 oppure N_thread>2 nel caso di pessima gestione dei thread.

Lungi da me mettere in dubbio la tua parola, mi chiedo solamente cosa differisca tra la tua prova e queste:

http://www.extremetech.com/computing/138394-amds-fx-8350-analyzed-does-piledriver-deliver-where-bulldozer-fell-short/2

http://www.hardware.fr/articles/842-9/efficacite-cmt.html

Anzi una cosa è differente tu hai provato su un solo modulo loro su tutti ma francamente non trovo la differenza :confused:


EDIT: forse, ho trovato l'arcano:
La potenza ST è quella e quella resta, perchè anche se il secondo core del modulo è attivo, ma non sta macinando nulla, il primo core può già usare tutte le risorse disponibili, ugualmente a quanto può fare se il secondo core è del tutto spento.
il decoder si dedica a cicli alterni ai 2 core e forse se 1 core non è disattivato "pompa" sempre poco al core che resta!!! mentre la cache ed il resto vengono dedicati all'unico core restante, per cui disattivando da BIOS penso che sia diverso.

Di conseguenza l'aggiunta del secondo scheduler a modulo più che aumentare la potenza ST aumenterà quella MT nel caso in cui N_thread>N_core/2 oppure N_thread>2 nel caso di pessima gestione dei thread.
avevo già scritto che il maggior vantaggio lo avrebbe avuto il 2° core, forse è sfuggito.


EDIT2: qui dicevo che probabilmente con Steamroller (e 2° decoder) cambiano i rapporti quando si attiva il 2° core del modulo:
http://www.hwupgrade.it/forum/showthread.php?p=38582622#post38582622



EDIT3: rileggendo con maggior attenzione ho capito cosa intendi per evitare una perdita.

winebar
04-12-2012, 19:16
Il miglioramento di IPC disabilitando i core è una leggenda metropolitana, frutto di una sbagliata compresione di quello che succede. Giusto per chiarire subito, ho fatto personalmente un paio di prove ST sul mio 6100@4GHz.

Tutti i core attivi:
Cinebench 10: 0.97punti
7-Zip benchamrk: 3425MIPS

1 core per modulo:
Cinebench 10: 0.98punti
7-Zip benchamrk: 3425MIPS

Non è una leggenda metropolitana...
La potenza ST, paraddossalmente, viene castrata nell'uso MT. Proprio perchè lo scheduler deve fare il doppio lavoro.
Cioè, se testi un'applicazione in ST hai gli stessi risultati sia tenendo attivati due core che uno solo per modulo, dato che lo scheduler è libero e viene sfruttato per un solo core.
Ma, se invece ti butti in applicazioni MT, vieni pesantemente castrato nelle prestazioni...
Un esempio? Prova a fare un test con Cinebench MT usando un modulo attivo e riprova a farlo usando 1 core per modulo e tenendo il terzo spento (se puoi).
La differenza dovrebbe essere abbastanza sensibile.
Io non parlavo di ST in senso stretto ma in senso lato. Lo scheduler unificato peggiora BD e PD proprio nel campo in cui è più forte: il MT.
So benissimo che all'aumentare della parallelizzazione l'efficenza degli algoritmi diminuisce (cioè, ci vuole meno tempo ma più energia complessiva) , però un test su un 4170 (questo (http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=14)) porta Cinebench da 2,95 con 4 core a 1,85 con 2 core (quindi 1 per modulo disabilitato).
Quindi, possibile che con Cinebench usando 1 ALU per modulo si abbia 1,85 mentre con 4 si abbia ADDIRITTURA meno di 3 se le prestazioni dei singoli core in MT rimangono ottimali? Ovviamente no. Tenendo conto di quanto detto sopra (riguardo all'efficenza dell'algoritmo) l'ottimale sarebbe 3,60. (1,85*2 - 0,10 [lo ipotizzo come coefficente di inefficenza] ). Anche contando un valore doppio rispetto alla mia ipotesi, arriviamo a 3,5.
Ma qui perdiamo addirittura più di 1/7 rispetto a quello che sarebbe l'ideale.

paolo.oliva2
04-12-2012, 19:29
La rigiro....perchè non buttarsi sui 28nm con un architettura collaudata come Piledriver. Imho, non darebbe alcun vantaggio usare un PP considerato defunto da IBM/GF come il 32nm SOI. e tantomeno migliorarlo (= spenderci altri soldi sopra)
Voglio farti notare che secondo AMD i vantaggi di clock di PD sono dovuti più alla tecnologia resonant clock mesh che ad improbabili miglioramenti del processo produttivo.
Bingo... questo lo avevo dedotto io sui miei OC :D

Secondo Anand gli ingegneri di AMD si attendevano un clock vicino ai 3 GHz per gli Opteron x16 invece degli attuali 2,3.
L'Opteron X16 era arrivato a 2,7GHz def su B2g dagli iniziali 2,5GHz, ed ora è a 2,8GHz def su C0, sempre con 140w TDP, a 3GHz presumibilmente ci arriverà.
Infatti è qui che faccio il mio discorso... un X16 che già è a 2,8GHz produce una potenza eguagliabile ad un X8 ma a 5,6GHz, soltanto che l'X8 a 5,6GHz def è pura utopia, un X16 a 2,8GHz è realtà.

Con il senno di poi non avrebbe di certo passato per l'anti-camera di cervello pensare ad un 20 core.....

Chiarissimo, infatti non aveva senso un Zambesi X10 su desktop

Imho, Piledriver trarrebbe vantaggio anche a passare dai 32nm SOI ai 45nm SOI lk...Questo è uno dei peggiori processi produttivi degli ultimi dieci anni.
Il 28nm non può essere peggiore...in caso contrario GF farebbe bene a dedicarsi ad altro.

Il SOI, a parte il 65nm, è riuscito sempre a produrre un consumo/potenza migliore del Bulk a parità di miniaturizzazione ed alcune volte ad arrivare perfino vicino alla miniaturizzazione successiva di Intel, almeno quella al primo tick.
Questo 32nm non arriva manco vicino ad Intel a parità di miniaturizzazione... figuriamoci vicino al 22nm...

PS ma le FAB che saranno portate a 28nm non sono quelle chevengono usate per i prodotti a 32 nm? In tal caso AMD sarà costretta ad uscire con una cpu a 28nm. Se steamroller non sarà pronto la scelta non può ricadere che su Piledriver
EDIT
proprio la differenza minima tra i due processi prodittivi sul piano della miniaturizzazione, mi porta a credere che i miglioramenti siano proprio su fattori come l'efficienza energetica. Imho non avrebbe senso fare un die shrink solo per ridurre e di poco le dimensioni del chip...tantovale aspettare i 20-22nm

dove è la notizia che steamroller possa migliorare l'ipc del 30%?
Mi sembra molto molto improbabile..secondo me sarà già tanto un +15%, ed è tanto, è la differenza di IPC che c'è tra Nehalem e Ivy Bridge.

Per il +30% di IPC di Steamroller, è una notizia ufficiale...
Io non farei paragoni con Intel, perchè più o meno Intel è sempre uscita con il massimo ottenibile dall'architettura, infatti ad ogni Tock, cioè il passaggio di ogni architettura alla miniaturizzazione successiva, in generale i miglioramente non hanno mai superato il 5%, e già Zambesi-->Piledriver ha ottenuto di più, tra l'altro senza alcun intervento profondo.
Steamroller li potrebbe anche realizzare quel +30% perchè AMD con Zambesi dovrebbe (:D ) aver inquadrato i punti critici dove si perde e relative contromisure, senza contare che il silicio, oltre ad aver negato frequenze superiori, ha negato anche un numero di core superiore come non è da escludere degli accrocchi tra possibilità silicio e potenziale architettura lesivi per l'IPC.

Il tuo ragionamento, secondo me, di confronto con Intel, sarebbe giusto se Zambesi rispecchiasse almeno il 95% del potenziale, ma Piledriver con il suo +7% dimostra che Zambesi era lontano dal 95%... e per ammissione della stessa AMD, mi sembra, Piledriver mette a posto alcune cose, ma il grosso non è stato possibile farlo.

cirano994
04-12-2012, 19:33
Ho praticamente deciso per l'upgrade di Natale: FX8320 + AsRock 970 Extreme 4.

Resta da decidere se prendere 2x8Gb Corsair Vengeance LP @1600 (~70&euro;) o 2x4Gb Corsair Vengeance LP @1866 (~50&euro;).

Rimanendo su queste due precise "offerte" voi cosa scegliereste?

Inviato dal mio GT-I9000 con Tapatalk 2

digieffe
04-12-2012, 19:37
...cut... però un test su un 4170 (questo (http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=14)) porta Cinebench da 2,95 con 4 core a 1,85 con 2 core (quindi 1 per modulo disabilitato).
Quindi, possibile che con Cinebench usando 1 ALU per modulo si abbia 1,85 mentre con 4 si abbia ADDIRITTURA meno di 3 se le prestazioni dei singoli core in MT rimangono ottimali? Ovviamente no. Tenendo conto di quanto detto sopra (riguardo all'efficenza dell'algoritmo) l'ottimale sarebbe 3,60. (1,85*2 - 0,10 [lo ipotizzo come coefficente di inefficenza] ). Anche contando un valore doppio rispetto alla mia ipotesi, arriviamo a 3,5.
Ma qui perdiamo addirittura più di 1/7 rispetto a quello che sarebbe l'ideale.

interessanti questi test, vedendo l'elenco ed escludendo quelli che non scalano bene, ad occhio c'è più del 30%, mi chiedo solo se il turbo è disattivato, non vorrei che con il core disabilitato salga di frequenza.

paolo.oliva2
04-12-2012, 19:38
Non è una leggenda metropolitana...
La potenza ST, paraddossalmente, viene castrata nell'uso MT. Proprio perchè lo scheduler deve fare il doppio lavoro.
Cioè, se testi un'applicazione in ST hai gli stessi risultati sia tenendo attivati due core che uno solo per modulo, dato che lo scheduler è libero e viene sfruttato per un solo core.
Ma, se invece ti butti in applicazioni MT, vieni pesantemente castrato nelle prestazioni...
Un esempio? Prova a fare un test con Cinebench MT usando un modulo attivo e riprova a farlo usando 1 core per modulo e tenendo il terzo spento (se puoi).
La differenza dovrebbe essere abbastanza sensibile.
Io non parlavo di ST in senso stretto ma in senso lato. Lo scheduler unificato peggiora BD e PD proprio nel campo in cui è più forte: il MT.
So benissimo che all'aumentare della parallelizzazione l'efficenza degli algoritmi diminuisce (cioè, ci vuole meno tempo ma più energia complessiva) , però un test su un 4170 (questo (http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=14)) porta Cinebench da 2,95 con 4 core a 1,85 con 2 core (quindi 1 per modulo disabilitato).
Quindi, possibile che con Cinebench usando 1 ALU per modulo si abbia 1,85 mentre con 4 si abbia ADDIRITTURA meno di 3 se le prestazioni dei singoli core in MT rimangono ottimali? Ovviamente no. Tenendo conto di quanto detto sopra (riguardo all'efficenza dell'algoritmo) l'ottimale sarebbe 3,60. (1,85*2 - 0,10 [lo ipotizzo come coefficente di inefficenza] ). Anche contando un valore doppio rispetto alla mia ipotesi, arriviamo a 3,5.
Ma qui perdiamo addirittura più di 1/7 rispetto a quello che sarebbe l'ideale.

io ho fatto 1,37 a Cinebench in ST @5,2GHz...

http://uptiki.altervista.org/_altervista_ht/72tqxsb35uosmxt41dvz_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=72tqxsb35uosmxt41dvz.jpg)

Con lo stesso clock, come X8, ho fatto 9

1,37*8=10,96... un -1,96

interessanti questi test, vedendo l'elenco ed escludendo quelli che non scalano bene, ad occhio c'è più del 30%, mi chiedo solo se il turbo è disattivato, non vorrei che con il core disabilitato salga di frequenza.

-17,89% a parità di clock sicura

Però, il problema è che non ho potuto (il bios) disattivare il 2° core nel modulo. C'è chi dice che se non lo si disattiva, comunque "sotto" il 2° core potrebbe lavorare con altro, quindi, comunque, impegnare le parti condivise.

TheBestFix
04-12-2012, 19:38
Ho praticamente deciso per l'upgrade di Natale: FX8320 + AsRock 970 Extreme 4.

Resta da decidere se prendere 2x8Gb Corsair Vengeance LP @1600 (~70&euro;) o 2x4Gb Corsair Vengeance LP @1866 (~50&euro;).

Rimanendo su queste due precise "offerte" voi cosa scegliereste?

Inviato dal mio GT-I9000 con Tapatalk 2

gli 8gb a 1866 ...poi tutto dipende da cosa ci fai e se gli 8gb ti bastano...

dav1deser
04-12-2012, 19:43
Non è una leggenda metropolitana...
La potenza ST, paraddossalmente, viene castrata nell'uso MT. Proprio perchè lo scheduler deve fare il doppio lavoro.
Cioè, se testi un'applicazione in ST hai gli stessi risultati sia tenendo attivati due core che uno solo per modulo, dato che lo scheduler è libero e viene sfruttato per un solo core.
Ma, se invece ti butti in applicazioni MT, vieni pesantemente castrato nelle prestazioni...
Un esempio? Prova a fare un test con Cinebench MT usando un modulo attivo e riprova a farlo usando 1 core per modulo e tenendo il terzo spento (se puoi).
La differenza dovrebbe essere abbastanza sensibile.
Io non parlavo di ST in senso stretto ma in senso lato. Lo scheduler unificato peggiora BD e PD proprio nel campo in cui è più forte: il MT.
So benissimo che all'aumentare della parallelizzazione l'efficenza degli algoritmi diminuisce (cioè, ci vuole meno tempo ma più energia complessiva) , però un test su un 4170 (questo (http://www.the-overclock-hole.it/recensioni/1975-amd-bulldozer.html?start=14)) porta Cinebench da 2,95 con 4 core a 1,85 con 2 core (quindi 1 per modulo disabilitato).
Quindi, possibile che con Cinebench usando 1 ALU per modulo si abbia 1,85 mentre con 4 si abbia ADDIRITTURA meno di 3 se le prestazioni dei singoli core in MT rimangono ottimali? Ovviamente no. Tenendo conto di quanto detto sopra (riguardo all'efficenza dell'algoritmo) l'ottimale sarebbe 3,60. (1,85*2 - 0,10 [lo ipotizzo come coefficente di inefficenza] ). Anche contando un valore doppio rispetto alla mia ipotesi, arriviamo a 3,5.
Ma qui perdiamo addirittura più di 1/7 rispetto a quello che sarebbe l'ideale.

E' quello che ho detto io, il problema è che tu parli di ST in situazioni MT, e per me ST è Single Thread, quindi in situazioni MT l'ST non esiste. E la potenza ST è sempre quella visto che non hai le perdite dovute alla condivisione delle risorse (che per forza di cose hai solo in MT). Quello che intendo io è che l'aggiunta dello scheduler non porta all'aumento della potenza massima esprimibile dal singolo core, ma riduce la perdita di performance quando usi entrambi i core dello stesso modulo.

Folgore 101
04-12-2012, 19:51
Generalmente il modello di bios della scheda madre è scritto sulla scatola della scheda madre. Se compri a mano in negozio ti basta controllare prima di pagare, se il bios è troppo vecchio non acquisti, se è nuovo la prendi. Comunque gli FX sono in giro da più di anno, è quasi impossibile trovare schede madri con bios tanto vecchi, e se anche prendi uno degli ultimi FX ma il bios supporta solo i primi si dovrebbe comunque avviare e darti la possibilità di aggiornare.

Non dipende dal fatto se è uefi o classico, dipende dal bios in generale.
Tuttavia io ho la GD80 di MSI se vuoi downgrado il bios a due versioni e avvio con l'FX, ma calcola che se la stai prendendo adesso sicuramente avrà l'ultimo o il penultimo bios, ed io ho avuto il penultimo e l'ultimo e vanno entrambi con gli FX senza problemi (sia l'8120 che l'8320).
Il negozio è online, eprezzo, e non riescono ha cumunicare la revisione delle schede madri.

Comunque per sicurezza ho preso la MSI 990FXA-GD80, dicono che spediscono per il 7, quindi per i primi giorni della settimana prossima dovrebbe arrivarmi il tutto, dopo di che farò parte del gruppo con il mio nuovo FX8320.

winebar
04-12-2012, 19:58
Un FX X4 non consuma il -50% rispetto ad un X8, come non consuma il -33% rispetto ad un X6.

Taglio tutto perchè alla fine dei conti il succo del discorso è questo.
Per il momento però, non so se sei d'accordo, non sono utilissimi 10/12 core in ambito desktop. Non lo sarebbero nemmeno gli 8, visto che la situazione del software in ambito consumer è stagnante e adesso a quanto pare pian piano stanno aumentando la parallelizzazione. Paradossalmente quindi, un FX nel tempo (a parità di core virtuali con Intel dal prezzo simile) ha più margini di miglioramento dal solo software. Intel da un prodotto che oggi offre le stesse prestazioni di domani, AMD da un prodotto che dipende fortemente dalle prestazioni del software...
Però, per il momento conviene davvero investire in un aumento di moduli? IMHO no. Cioè, puoi tranquillamente sfruttare la miglior situazione energetica (clock to clock e a parità di moduli) aumentando le prestazioni in ST? Ovviamente sì. Perchè puntare solo sulla parallelizzazione massima?
Non so se mi spiego. Aumentare del 30% la potenza in ST permette di avere una potenza complessiva vicina a quella di un ipotetico x10 ma, allo stesso tempo, non fa subire le prestazioni in ST.
La strada presa con Bulldozer è davvero ottima, ma bisogna capire qual è il momento giusto per passare ad un x10. Io ci passerei solo con i 14nm, perchè rispetto ai 20nm (che sono praticamente dei test prima dei 14, tutte le fonderie dicono che sono molto simili, quindi si può fare l'investimento sui 20 e passare presto sui 14) non saranno planari ma FinFET (a differenza del FinFET di Intel è bulk e non piace molto come caratteristiche, mentre il 14nm FinFET è SOI e studiato da IBM, Samsung e GF insieme (http://www.bitsandchips.it/9-hardware/1475-finfet-di-intel-non-cosi-buono-secondo-la-gss)). Quindi il vantaggio energetico unito al vantaggio dei transistor tridimensionali porterebbero sicuramente ad un miglioramento sia in ST (per l'aumento delle frequenze) sia in MT, per l'aumento dei core congiunto alle frequenze.

Cioè... una jeep va bene nel fuori strada come invece una Ferrari va bene in pista... se AMD fosse una jeep, non deve per forza cercare di essere una alternativa alla Ferrari in pista, ma l'alternativa di un altro prodotto più idoneo se uno deve girare nei campi...[/B]

Eh, ma è un discorso diverso quello delle macchine...
Ma non stiamo contando una cosa. Stiamo parlando solo dell'ambito desktop, ma in ambito mobile avere una linea più spinta in ST serve tantissimo per diminuire i consumi il più possibile.

Bingo... questo lo avevo dedotto io sui miei OC :D

E io, non avendo ancora toccato con mano nè un BD nè un PD, mi ero posto i dubbi giusti. :P asd::asd:

Resta da decidere se prendere 2x8Gb Corsair Vengeance LP @1600 (~70&euro;) o 2x4Gb Corsair Vengeance LP @1866 (~50&euro;).

Dipende dal tuo uso... Se usi tanto photoshop o GIMP mi butterei a capofitto sulle 16, se il tuo uso è generico vanno bene anche 8 GB... :)

winebar
04-12-2012, 20:01
quindi in situazioni MT l'ST non esiste.

Sai che la frase è molto azzardata vero? Castrare le prestazioni in ST quando serve tanta potenza da tutti i core significa castrare le prestazioni di TUTTI i core nello stesso momento...
Non mi vorrai mica dire che AMD è idiota a mettere scheduler esclusivi e che i bench su 4M/4C 8M/4C siano alterati appositamente vero?

dav1deser
04-12-2012, 20:08
Sai che la frase è molto azzardata vero? Castrare le prestazioni in ST quando serve tanta potenza da tutti i core significa castrare le prestazioni di TUTTI i core nello stesso momento...
Non mi vorrai mica dire che AMD è idiota a mettere scheduler esclusivi e che i bench su 4M/4C 8M/4C siano alterati appositamente vero?

La frase non è azzardata, è solo che tu la interpreti male: se usi un thread hai il Single Thread, quindi ST, se ne usi di più sei in Multi Thread, ma non puoi dire che l'MT è comunque ST solo ripetuto più volte...cioè una bicicletta non è un doppio monociclo nonostante abbia due volte una singola ruota...
AMD ha fatto il modulo per aumentare la potenza MT a parità di die size e non la ritengo una mossa idiota. Quei bench sono fatti su sistemi con gestione dei thread non ottimale. E giusto per confermare quello che ho detto:

Cinebench 3thread, 6 core attivi: 2.89punti
Cinebench 3thread, 3 core attivi: 2.86punti

7-zip 2 thread, 6 core attivi: 6721MIPS
7-zip 2 thread, 3 core attivi: 6729MIPS

La disattivazione dei moduli non porta a nessun vantaggio se la gestione dei thread è ottimale (con cinebench ho dovuto forzare l'affinita in quanto la patch di win non è stata sufficiente a forzare l'utilizzo del maggior numero possibile di moduli).

Ah e anche con l'emulatore della play 2 ho avuto la stessa situazione, non ho dati alla mano al momento ma la totale disattivazione dei secondi core dei moduli non ha portato ad alcun vantaggio.

tuttodigitale
04-12-2012, 20:36
Semplice. Perchè il 32 nm è SOI mentre il 28 nm è bulk, più economico ma più dispendioso come energia richiesta.
anche questo tutto da dimostrare visto che teoricamente il SOI dovrebbe andare meglio alle alte frequenze e Intel fa viaggiare un esacore puro praticamente alle stesse frequenze di un FX8150....


Assolutamente falso. AMD si sa che stava facendo Bulldozer dal 2006 e che avrebbe fatto un largo uso di core. Inoltre GF i test sulla CPU li fa parecchio tempo prima. Anzi, penso proprio che i primi test li avessero cominciati quando le fonderie erano ancora di AMD..
questo è quello che ha detto Anand, riporto solo le sue parole....I test poi li avrà fatti su silicio a 65 e 45nm, visto che i 32 nm non esistevano proprio...
Te la ricordi vero la slida di una cpu da 20core... una cpu del genere o la fai girare ad un clock decente oppure salta


Come detto sopra, è tutto da dimostrare. Potrebbe però andare bene per le APU, dato che il bulk per le schede grafiche sembrerebbe essere migliore.

Ma anche no...a10 si porta con se un quarto di Cayman. anche questo è tutto da dimostrare...Vedi la differenza di TDP che passa tra la versione con gpuintegrata e quella che ne è priva (e la gpu rulla a 800MHz)...

Penso che tu sappia che il progetto Bulldozer prevedeva uno scheduler unico per le due ALU di un modulo no? Ecco, con Steamroller, visto che si sono accorti che era troppo azzardata una mossa del genere (si stima una perdita di IPC del 20%) hanno deciso di mantenere sempre il CMT ma di mettere uno scheduler esclusivo per ogni ALU. Di fatto in comune all'interno dei moduli rimangono quasi solo l'unità di decode e la L2.
Dei test su Bulldozer e PD hanno dimostrato come usano solo due moduli (quindi 4 ALU) le prestazioni sono 100 (ad esempio), mentre sulle mobo che supportano la funzionalità, disabilitando una sola ALU a modulo (quindi su 8150/8350) si guadagna circa il 20 percento in prestazioni clock to clock.
Aspetta....ho letto quello che dice Anandtech e secondo loro non è né lo scheduling e nè i decoder condivisi (si parla del 10% al massimo)

Tu parli del 20% di IPC ma lo sai per avere un simile incremento MEDIO, devi avere anche il doppio delle FP unit?
Queste sono le prestazioni dell'architettura Bulldozer senza CMT (quando si disabilita proprio il CMT quando usi 1 core int a modulo)
E' evidente, che le modifiche devono riguardare anche i componenti non condivisi.

Sembra quasi che AMD sia incapace di fare CPU e chi poco o per sbaglio si occupa di queste cose possa dare lezione di ingegneria ai dipendenti di AMD.

Aggiungi un minimo aumento in frequenza e un minimo miglioramento di IPC causato dall'ottimizzazione delle ALU e delle FPU e arrivi vicino al 30%. ;)
vedo che anche tu dai per scontato che i 28nm bulk sia migliori dei 32nm SOI...perchè una doppia unità di scheduling e i decoder non condivisi sono comunque componenti in più che devono essere alimentati....A parità di processo produttivo è chiaro che Piledriver può viaggiare a frequenze più elevate, o meglio consuma meno a parità di clock di steamroller...Eppure tu come tanti altri come me, crede che vedremo un ulteriore aumento di clock nonostante si parli di bulk e non di SOI e nonostante un CMT meno estremo....

paolo.oliva2
04-12-2012, 22:52
Taglio tutto perchè alla fine dei conti il succo del discorso è questo.
Per il momento però, non so se sei d'accordo, non sono utilissimi 10/12 core in ambito desktop. Non lo sarebbero nemmeno gli 8, visto che la situazione del software in ambito consumer è stagnante e adesso a quanto pare pian piano stanno aumentando la parallelizzazione. Paradossalmente quindi, un FX nel tempo (a parità di core virtuali con Intel dal prezzo simile) ha più margini di miglioramento dal solo software. Intel da un prodotto che oggi offre le stesse prestazioni di domani, AMD da un prodotto che dipende fortemente dalle prestazioni del software...
Però, per il momento conviene davvero investire in un aumento di moduli? IMHO no. Cioè, puoi tranquillamente sfruttare la miglior situazione energetica (clock to clock e a parità di moduli) aumentando le prestazioni in ST? Ovviamente sì. Perchè puntare solo sulla parallelizzazione massima?
Non so se mi spiego. Aumentare del 30% la potenza in ST permette di avere una potenza complessiva vicina a quella di un ipotetico x10 ma, allo stesso tempo, non fa subire le prestazioni in ST.

Io non capisco perchè vogliamo fare una distinzione tra TH eseguibili e core fisici.
Vedi... io una volta avevo riportato che IVY X8 Intel non avrà intenzione di portarlo nel desktop, e mi hanno sommerso di post che invece no, come se tutti aspettassero l'IVY X8 con 16 TH.
Però se si parla di AMD, non si sfrutterebbero 8 TH... ma un IVY 3770K non ha sempre 8 TH?

Io sono d'accordo con quello che dici che AMD deve aumentare l'IPC, ma tutta la gente del mondo non si fa menate al SPI o gioca con 4 VGA 99999...

In poche parole... AMD con l'8350 sta sotto in St ed in MT ripetto ad un 3770K.
Fai un X10, non migliori nulla in ST, ma staresti sopra in MT al 3770K, fai un X12 idem con patate, ma ancor più su in MT.

Steamroller ci sarà nel 2014 sul 20nm?

Cosa ci vogliamo aspettare dal 32nm? Frequenze di 5GHz def non ce ne saranno... PD2 offrirà incrementi di IPC, ma non certamente cospicui e ben distanti dal 30% di Steamroller... cosa ci rimane? Dimmi tu... mettiamo +5% di IPC, mettiamo +5% di clock def (ridotti in OC ad un +2-3%)... (il jolly gestione dei clock l'ha già giocato) quindi credo sia inutile continuare a parlare di incrementi di potenza quando sappiamo benissimo che un PD2 potrà aumentare a 2 cifre unicamente nell'MT e solamnte aumentando il numero di core... come farà a rispettare il +10-15% annuale?

shellx
04-12-2012, 22:57
Il negozio è online, eprezzo, e non riescono ha cumunicare la revisione delle schede madri.

Comunque per sicurezza ho preso la MSI 990FXA-GD80, dicono che spediscono per il 7, quindi per i primi giorni della settimana prossima dovrebbe arrivarmi il tutto, dopo di che farò parte del gruppo con il mio nuovo FX8320.

Bene bene ;) Praticamente hai la mia stessa mobo e procio. Ottima scelta, ti posso garantire che non te ne pentirai, la GD80 è un ottima mobo e non ha nulla da invidiare alle ROG, Gigabyte, Extreme et simili. A me ha sempre datoottimi risultati (nel mio piccolo e nelle mie capacità) sicuramente messa nelle mani di un overclocker diverso darebbe addirittura di piu.

PS: finalmente non sono l'unico nel thread ad avere la GD80. Se ti servono consigli chiedi pure ;)

paolo.oliva2
04-12-2012, 23:15
anche questo tutto da dimostrare visto che teoricamente il SOI dovrebbe andare meglio alle alte frequenze e Intel fa viaggiare un esacore puro praticamente alle stesse frequenze di un FX8150....
Oddio 3,5GHz per 150W TDP non sono proprio i 3,6GHz a 125W, ma il problema delbulk è il leakage ed il SOI è da 10 a 20 volte inferiore, e la differenza la vedi tra un 2600K X4 95W APU per 3,5GHz che svettano a 150W per un X6 (teorizzando IGP e I/O che si annullano)
questo è quello che ha detto Anand, riporto solo le sue parole....I test poi li avrà fatti su silicio a 65 e 45nm, visto che i 32 nm non esistevano proprio...
Te la ricordi vero la slida di una cpu da 20core... una cpu del genere o la fai girare ad un clock decente oppure salta
Aspetta, qui il discorso è ben differente con AMD, perchè con il Turbo core, non ha importanza a che frequenza vai con tutti i core in MT (perchè comunque si guadagna più con il numero di core in MT che con la frequenza, es. X16 2,8GHz 140W TDP vs X8 4GHz 125W), perchè tanto nel funzionamento a 2 moduli la frequenza sarà sempre la stessa sia di un X100 che di un X4.
Un 8150 X10 non avrebbe detto nulla non come X10 in MT (perchè comunque avrebbe fatto meglio di un 8350, ma per l'inutilità di procio desktop nell'insieme, cioè prezzi alti per dimensione size per poi alla fine risultare sotto ad un 3770K.

P.S.
http://www.amd.com/it/products/server/processors/6000-series-platform/6300/Pages/6300-series-processors.aspx#5

6386SE, X16, 2,8GHz def, 3,5GHz Turbo, 140W TDP.
6366HE, X16, 1,8GHz def, 3,1GHz Turbo, 85W TDP.

Comunque, secondo me, è sbagliato paragonare AMD ed Intel sulle frequenze...

AMD ha un silicio pessimo, che comporta un TDP alto per frequenze più basse di quanto dovrebbero essere, e il tutto si traduce in consumo/prestazioni più alto.

Intel, invece, ha una frequenza che riesce a valorizzare al max l'architettura con il suo IPC, e questo si traduce nel massimo (migliore) consumo/prestazioni.

La differenza tra i 2 è che AMD ha bisogno di abbassare il TDP per aumentare le frequenze... Intel con il 22nm non aumenterà la frequenza operativa se non di 100-200MHz, quindi X4 simili in frequenza al 32nm ma ad un TDP inferiore, ed idem sarà per gli X6/X8... Cioè, Intel è al max (con tutti i margini di sicurezza) delle frequenze con la sua architettura... ma mica parlo male, ha un'architettura potente (la più potente), su un silicio che la sfrutta in tutto e per tutto.

Raffyone
05-12-2012, 08:02
ragazzi mi consigliate un negozio on line per comprare il FX 8350 naturalmente economico..

Phenomenale
05-12-2012, 09:04
Penso che tu sappia che il progetto Bulldozer prevedeva uno scheduler unico per le due ALU di un modulo no? Ecco, con Steamroller, visto che si sono accorti che era troppo azzardata una mossa del genere (si stima una perdita di IPC del 20%) hanno deciso di mantenere sempre il CMT ma di mettere uno scheduler esclusivo per ogni ALU.
Lo scheduler unificato peggiora BD e PD proprio nel campo in cui è più forte: il MT.
Non mi vorrai mica dire che AMD è idiota a mettere scheduler esclusivi e che i bench su 4M/4C 8M/4C siano alterati appositamente vero?
Stai facendo considerazioni su inesattezze.
Gli scheduler in Bulldozer sono da sempre stati separati per ogni ALU. Quello che AMD intende sdoppiare in Steamroller sono i decoder x86.

Il decoder è quella porzione di logica che prende gli opcode x86 e li interpreta trasformandoli in microcode per le pipeline; lo scheduler è la logica che cerca di distribuire i microcode contemporaneamente a tutte le pipeline disponibili.
Quello che AMD ha previsto per le prestazioni è un aumento del 30% del throughput nella decodifica delle istruzioni, che non è equivalente a dire il 30% di IPC.

Guarda i diagrammi a blocchi, tolgono ogni dubbio.
http://s15.postimage.org/40tw5dv4r/AMD_Bulldozer_Vs_Steamroller.jpg

winebar
05-12-2012, 09:28
Stai facendo considerazioni su inesattezze.
Gli scheduler in Bulldozer sono da sempre stati separati per ogni ALU. Quello che AMD intende sdoppiare in Steamroller sono i decoder x86.

Il decoder è quella porzione di logica che prende gli opcode x86 e li interpreta trasformandoli in microcode per le pipeline; lo scheduler è la logica che cerca di distribuire i microcode contemporaneamente a tutte le pipeline disponibili.
Quello che AMD ha previsto per le prestazioni è un aumento del 30% del throughput nella decodifica delle istruzioni, che non è equivalente a dire il 30% di IPC.

Guarda i diagrammi a blocchi, tolgono ogni dubbio.
http://s15.postimage.org/40tw5dv4r/AMD_Bulldozer_Vs_Steamroller.jpg

Hai ragione. :stordita::stordita:
Però a leggere su semi accurate dicono che il troughput maggiore dovrebbe portare incrementi prestazionali al singolo core quando sono usati tutti i core di un modulo.

Inviato dal mio GT-I9000 con Tapatalk 2

capitan_crasy
05-12-2012, 09:44
A livello di Ipc stars e deneb sono praticamente pari (è vero che con i 32nm ha perso la cache l3, ma ha raddoppiato le dimensioni della più veloce cache l2), vinve l'uno o l'altro in base all'applicazione

http://www.anandtech.com/bench/Product/399?vs=80
PS il confronto è tra a8-3850 (2,9 GHz) e Phenom x4 940 (3GHz)

notare di contro quanto sia elevata la differenza tra llano e un athlon con alcune applicazioni, inclusi i giochi
http://www.anandtech.com/bench/Product/399?vs=122

Detto questo un Phenom a 3,2 Ghz è indubbiamente più veloce (ma di poco)

I Deneb sono composti dall'architettura Stars come I K10 a 65nm e le APU Llano.
La differenza è che le APU hanno un IPC superiore di un K10 a 45nm senza cache L3...




questo è quello che ha detto Anand, riporto solo le sue parole....I test poi li avrà fatti su silicio a 65 e 45nm, visto che i 32 nm non esistevano proprio...
Te la ricordi vero la slida di una cpu da 20core... una cpu del genere o la fai girare ad un clock decente oppure salta


Komodo era una creatura di Meyer e dopo il suo licenziamento il progetto Bulldozer è stato per così dire semplificato; anche le APU Wrishna/Wichita sono state sacrificate per un disegno a moduli.
Inoltre aggiungere un modulo avrebbe portato ad un ridisegno e un riposizionamento più o meno profondo traghettando il progetto 10 core al di là delle spese previste per allora, compreso l'arrivo o la riunificazione del socket per il mercato desktop...


Ma anche no...a10 si porta con se un quarto di Cayman. anche questo è tutto da dimostrare...Vedi la differenza di TDP che passa tra la versione con gpuintegrata e quella che ne è priva (e la gpu rulla a 800MHz)...


Ne porta un quarto perchè una GPU più grande avrebbe ingrandito troppo il DIE; le penultime su Kaveri dicevano che avrebbe potuto integrate una GPU cape verde simile alla HD7750 e anche con due moduli Streamroller la dimensione in mm/2 a 28nm sarebbe stata simile a quella di Trinity a 32nm...



vedo che anche tu dai per scontato che i 28nm bulk sia migliori dei 32nm SOI...perchè una doppia unità di scheduling e i decoder non condivisi sono comunque componenti in più che devono essere alimentati....A parità di processo produttivo è chiaro che Piledriver può viaggiare a frequenze più elevate, o meglio consuma meno a parità di clock di steamroller...Eppure tu come tanti altri come me, crede che vedremo un ulteriore aumento di clock nonostante si parli di bulk e non di SOI e nonostante un CMT meno estremo....

Io non credo ad un aumento di clock scalabile come è successo tra i 45nm e i 32nm, credo che i 28nm bulk possano migliorare i consumi ma che non raggiungano le attuali frequenze massime; l'aumento di prestazioni potrebbe portarlo l'architettura Stamroller o almeno così sembrava qualche mese fa...

ragazzi mi consigliate un negozio on line per comprare il FX 8350 naturalmente economico..

www.trovaprezzi.it

winebar
05-12-2012, 10:04
Oddio 3,5GHz per 150W TDP non sono proprio i 3,6GHz a 125W, ma il problema delbulk è il leakage ed il SOI è da 10 a 20 volte inferiore

E le differenze si notano molto di più con il FinFET.

http://www.bitsandchips.it/9-hardware/1475-finfet-di-intel-non-cosi-buono-secondo-la-gss

Analizzando le caratteristiche del FinFET bulk di Intel si evince che si sviluppa in maniera triangolare, mentre il FinFET SOI di IBM si sviluppa in modo rettangolare, garantendo un leakage 2.5 volte inferiore e prestazioni del 20% superiori a parità di consumo.
E dice anche che la differenza tra Bulk e SOI aumenterà nel tempo...
Quindi, a me sembra solo che Intel cerchi di uscire con un pp ottimizzato fin da subito, o perlomeno con un pp discreto, su cui usare inizialmente un due shrink del due precedente. Poi provvede a migliorarlo e a proporvi una nuova architettura.
Quindi un eventuale pp Intel pessimo è difficile da beccare, perche lo stesso processore die shrinkato mostrerà comunque miglioramenti di efficienza.

Vedasi il fatto che IB sembra fatto su un pp ottimo, mentre secondo indiscrezioni, nonostante il grande aumento dell'efficienza a cui lavora Intel per Haswell (e contando anche il VRM integrato) i consumi dovrebbero tornare a 95w, ma se Intel non riesce a eliminare i problemi dei suoi 22 nm potrebbe anche portare il TDP massimo a 105 w.

Inviato dal mio GT-I9000 con Tapatalk 2

digieffe
05-12-2012, 10:43
La frase non è azzardata, è solo che tu la interpreti male: se usi un thread hai il Single Thread, quindi ST, se ne usi di più sei in Multi Thread, ma non puoi dire che l'MT è comunque ST solo ripetuto più volte...cioè una bicicletta non è un doppio monociclo nonostante abbia due volte una singola ruota...
AMD ha fatto il modulo per aumentare la potenza MT a parità di die size e non la ritengo una mossa idiota. Quei bench sono fatti su sistemi con gestione dei thread non ottimale. E giusto per confermare quello che ho detto:

Cinebench 3thread, 6 core attivi: 2.89punti
Cinebench 3thread, 3 core attivi: 2.86punti

7-zip 2 thread, 6 core attivi: 6721MIPS
7-zip 2 thread, 3 core attivi: 6729MIPS

La disattivazione dei moduli non porta a nessun vantaggio se la gestione dei thread è ottimale (con cinebench ho dovuto forzare l'affinita in quanto la patch di win non è stata sufficiente a forzare l'utilizzo del maggior numero possibile di moduli).

Ah e anche con l'emulatore della play 2 ho avuto la stessa situazione, non ho dati alla mano al momento ma la totale disattivazione dei secondi core dei moduli non ha portato ad alcun vantaggio.

anche se non te l'ho chiesto, ti ringrazio per aver forzato l'affinità verificando che probabilmente si hanno gli stessi risultati che con i core disabilitati.


Ps: il tuo avatar non era un skull/teschio?

dav1deser
05-12-2012, 13:52
anche se non te l'ho chiesto, ti ringrazio per aver forzato l'affinità verificando che probabilmente si hanno gli stessi risultati che con i core disabilitati.


Ps: il tuo avatar non era un skull/teschio?

L'ho forzato perchè monitorando da task manager si vedeva che nonostante la patch di win7 i thread andavano un po' a caso, altrimenti non sarebbe servito.

Tecnicamente era un ibrido alien/umano (vedasi "Alien 4: La clonazione"), però si, ricordava molto un teschio.

filo mc-ati crossfire
05-12-2012, 14:58
a dir la verità io sono un po' confuso...
non so' se cambiare il mio fx 6100,per l'8350,o aspettare la prossima serie di cpu!
da come ho capito saranno sempre su am3+ giusto?cioè per un 20-25% in + non credo ne valga proprio la pena,o si secondo voi?
alla fine si gioco,faccio qualche editing 3d,e uso reason,fruity loop e audition!
voi che dite?

cirano994
05-12-2012, 15:34
Stavo leggendo il forum Corsair quando mi sono imbattuto in questo:

http://support.amd.com/us/kbarticles/Pages/ddr3memoryfrequencyguide.aspx

http://support.amd.com/PublishingImages/Support/CPU-DDR3/memory-table.png

A questo punto che senso ha prendere Ram da 1866?
Secondo quella pagina le ram possono funzionare al massimo a 1866 solo e soltanto se:

1- Ci sono solo due slot
2- Sono entrambi "popolati"

Mi son perso qualche cosa?

Salvoxx
05-12-2012, 16:05
Ragazzi ho trovato questo interessante link dove un tizio ha effettuato personalmente dei test su alcuni giochi recenti con un FX8350 e un I5 3570k... entrambi a 4.8GHz... avendo a disposizione un crossfire di HD 7970GHz ha effettuato test sia con vga singola che con il cross abilitato...

che ne pensate?

http://www.overclock.net/t/1333027/amd-fx-8350-vs-i5-3570k-single-gpu-and-crossfire-gpu

paolo.oliva2
05-12-2012, 16:59
...che dandolo per vero, è un risultato inaspettato :eek: praticamente sono alla pari pure in multi-gpu in Full HD!...davvero ottimo una cpu completa finalmente, con la sola pecca dei consumi più o meno trascurabili soprattutto in game dove non utilizzerai mai il 100% della cpu...

in ST uguale al 3570 e in MT vicina al 3770 e al pari del 2600...

Allora, senza polemizzare... sempre dato per vero... tutta sta gran differenza... dove è?

Cioè..., ripeto, senza polemizzare... non essendo gamer incallito e non avendo dell'hardware con cui benchare, mi ero "immaginato" uno scenario molto più più negativo per AMD, dove qualsiasi multigpu a qualsiasi settaggio era sconsigliabile con AMD, e pure con le IGP di punta a risoluzioni prossime a 1280... mentre lì praticamente il mono-GPU con qualsiasi potenza top attuale non fa differenza se non a risoluzioni da cieco alla mutua e pure nel multi-GPU a risoluzioni native da monitor LCT...

Quale è allora il vero limite in cui una AMD risulta insufficiente? :confused:

Cioè... per me è abbastanza importante capire, perchè la situazione IPC (più o meno potente) è legata unicamente a programmi ST che la riescono a sfruttare. Ora... programmi che richiedono potenze elevate di elaborazione, hanno dirottato da tempo sull'MT... rimangono i giochi... ma minore è la differenza con Intel nei giochi, minore sarà lo svantaggio per un IPC inferiore. La situazione BD in MT se la cava, nei confronti 1155 e non 2011, quindi, sempre secondo me, non è di importanza fondamentale aumentare l'IPC quanto invece potenziare ulteriormente l'MT... cioè... un +20% di potenza MT si sfrutterebbe in tutti i programmi che supportano il massimo dei TH in un procio... avere un +20% di IPC, comunque porterebbe lo stesso risultato a parità di core, ma in ogni caso uguale se al posto dell'incremento IPC si avesse lo stesso valore di incremento core, ma in ogni caso si sommerebbe se ci fosse aumento IPC + Core.

A parte il riposizionamento dei transisotr di BD nel caso di B10 o superiore, per le caratteristiche di questo 32nm SOI, considerando il margine di frequenza a Vcore def di un 8350 attuale per i 125W TDP, non credo possa essere difficile addirittura un X10 a 4GHz, ma totalmente sicuri almeno i 3,6/3,8GHz per def X10 con sempre i 4,2GHz come frequenza massima.

Sono 2 cose nettamente differenti... perchè incrementare di un 25% l'IPC è una cosa, incrementare del 25% la potenza MT sarebbe già alla portata delle possibilità silicio step C0 + gestione dei clock.

Raffyone
05-12-2012, 17:24
salve ragazzi mi serve un consiglio urgente, devo fare un'ordine in un negozio on line con precisione FX8350:D ma hanno come disponibilità la seguente pasta Pasta termica IC Essential E2 Gold - 1,5 ml http://www.ingrodiscount.it/pasta-termica-essential-gold-p-33413.html
che dite e buona? oppure consigliate qualcuna di queste http://www.ingrodiscount.it/advanced_search_result.php?search_in_description=1&keywords=pasta&page=1&sort=4a

winebar
05-12-2012, 17:37
Stavo leggendo il forum Corsair quando mi sono imbattuto in questo:

http://support.amd.com/us/kbarticles/Pages/ddr3memoryfrequencyguide.aspx

http://support.amd.com/PublishingImages/Support/CPU-DDR3/memory-table.png

A questo punto che senso ha prendere Ram da 1866?
Secondo quella pagina le ram possono funzionare al massimo a 1866 solo e soltanto se:

1- Ci sono solo due slot
2- Sono entrambi "popolati"

Mi son perso qualche cosa?

Non ti sei perso niente... Solo che AMD non da per certo il funzionamento di 4 banchi a 1866. C'è a chi riesce (shellx se non erro) e a chi no.

salve ragazzi mi serve un consiglio urgente, devo fare un'ordine in un negozio on line con precisione FX8350:D ma hanno come disponibilità la seguente pasta Pasta termica IC Essential E2 Gold - 1,5 ml http://www.ingrodiscount.it/pasta-termica-essential-gold-p-33413.html
che dite e buona? oppure consigliate qualcuna di queste http://www.ingrodiscount.it/advanced_search_result.php?search_in_description=1&keywords=pasta&page=1&sort=4a

Io direi di andare sul sicuro e prendere una Arctic Silver 5. :D

tuttodigitale
05-12-2012, 17:48
I Deneb sono composti dall'architettura Stars come I K10 a 65nm e le APU Llano.
La differenza è che le APU hanno un IPC superiore di un K10 a 45nm senza cache L3...

l'aumento di prestazioni di llano rispetto a k10 privo di cache l3, è dovuto senz'ombra di dubbio al raddoppio della cache l2

Io non credo ad un aumento di clock scalabile come è successo tra i 45nm e i 32nm, credo che i 28nm bulk possano migliorare i consumi ma che non raggiungano le attuali frequenze massime; l'aumento di prestazioni potrebbe portarlo l'architettura Stamroller o almeno così sembrava qualche mese fa...

Questo è chiaro, perchè mai aumentare l'ipc, aumentando l'assorbimento clock to clock se è possibile salire di frequenza?
Volevo solo far notare se AMD ha deciso di adottare una soluzione con decoder condiviso è perchè pensava di riuscira a compensarlo con un clock maggiore, consentito dal margine di consumo creatisi proprio dalla privazione di alcuni elementi...
Imho, già se steamroller viaggierà con lo stesso clock di BD, io la vedo come una sconfitta clamorosa del SOI a 32nm

tuttodigitale
05-12-2012, 17:49
Hai ragione. :stordita::stordita:
Però a leggere su semi accurate dicono che il troughput maggiore dovrebbe portare incrementi prestazionali al singolo core quando sono usati tutti i core di un modulo.

Inviato dal mio GT-I9000 con Tapatalk 2
secondo Anand i decoder condivisi si mangiano solo il 6-7% delle prestazioni.



Non importa quanto sia ruvida l’attuale implementazione di Bulldozer, se si guarda un po 'più a fondo, questa non è l'architettura fatta per l'alto IPC, branch intensive, o applicazioni leggermente-threaded. Velocità di clock più elevate e Turbo Core avrebbero dovuto fare di Zambezi un chip decente per gli appassionati. La CPU doveva offrire velocità di clock superiori dal 20 al 30% a pari consumo, ma alla fine ha offerto solo un aumento del 10% a consumi leggermente superiore. .....

...Siamo fermamente convinti i concetti alla base Bulldozer sono musica per il professionista del mondo IT


Nell' articolo si dice che il problema di BD sono essenzialmente 3:
1) bassa frequenza di clock.
2) Un altro importante problema è che la cache istruzioni L1 non sembra gestire bene 2-thread. Abbiamo misurato tassi di miss prediction significativamente più elevati una volta eseguito due thread sulla cache L1 a 2 vie di 64KB. Sembra che l'associatività di tale cache sia semplicemente troppo basso. C'è un motivo per cui Intel ha una cache associativa a 8 vie per eseguire due thread.
3) eccessiva sofferenza per una predizione di rami sbagliata. Bulldozer è una CPU dalla pipeline profonda, proprio come Sandy Bridge, ma il secondo ha una cache μop che può tagliare il tempo di recupero e i cicli di decodifica dovuta ad una predizione dei rami sbagliata.

sergio.p.
05-12-2012, 17:50
per chi temeva che le cpu venissero saldate
http://techreport.com/news/24009/amd-were-not-abandoning-socketed-cpus

http://www.hwupgrade.it/news/cpu/sistemi-desktop-enthusiast-con-cpu-saldata-non-per-amd_44953.html

winebar
05-12-2012, 18:03
Imho, già se steamroller viaggierà con lo stesso clock di BD, io la vedo come una sconfitta clamorosa del SOI a 32nm

Steamroller dovrebbe essere sui 28nm... E IMHO l'aumento di frequenza possibile sarà minimo... Spero solo che a questo punto (sempre dando per veri i 28 nm nel 2014) AMD intenda passare dai 28 bulk ai 14 FinFET SOI e non ai 20... :stordita:

secondo Anand i decoder condivisi si mangiano solo il 6-7% delle prestazioni.

Così poco? :eek:
Non è poco in se, ma pensavo moooolto di più...

Nell' articolo si dice che il problema di BD sono essenzialmente 3:


1) bassa frequenza di clock.

Paolo lo diceva l'anno scorso con un 8150, a 4,5 Ghz diventava competitivo con un 2600k... :)

3) eccessiva sofferenza per una predizione di rami sbagliata. Bulldozer è una CPU dalla pipeline profonda, proprio come Sandy Bridge, ma il secondo ha una cache μop che può tagliare il tempo di recupero e i cicli di decodifica dovuta ad una predizione dei rami sbagliata.

Predizione dei rami = branch prediction (non avrebbe senso in italiano, visto che adottiamo il termine inglese)

capitan_crasy
05-12-2012, 19:11
l'aumento di prestazioni di llano rispetto a k10 privo di cache l3, è dovuto senz'ombra di dubbio al raddoppio della cache l2

Direi che è una delle cause ma assolutamente non la sola...
Si è visto che con i core Regor l'aumento da 512Kb a 1 MB di cache L2 ha portato 0 benefici sui core propus...


Questo è chiaro, perchè mai aumentare l'ipc, aumentando l'assorbimento clock to clock se è possibile salire di frequenza?
Volevo solo far notare se AMD ha deciso di adottare una soluzione con decoder condiviso è perchè pensava di riuscira a compensarlo con un clock maggiore, consentito dal margine di consumo creatisi proprio dalla privazione di alcuni elementi...
Imho, già se steamroller viaggierà con lo stesso clock di BD, io la vedo come una sconfitta clamorosa del SOI a 32nm

A meno di miracoli usciti da GF il leakage dei Bulk è un grosso freno alle frequenze alte...

paolo.oliva2
05-12-2012, 19:23
Paolo lo diceva l'anno scorso con un 8150, a 4,5 Ghz diventava competitivo con un 2600k... :)

:sofico:

Ma è problematico... perchè il 2600K a sua volta si poteva occare... e
comunque il tutto a consumi nettamente peggiori per la stessa potenza.

Io torno a pensare, che ho sempre ipotizzato, ma nella mia ignoranza sul silicio, che AMD/GF abbiano fatto semplicemente una previsione sulle caratteristiche del 45nm SOI liscio e con a variante low-k, di quanto avrebbe guadagnato dal passaggio 45nm--->32nm e con l'aggiunta dell'HKMG, e le affermazioni siano dettate più sull'entusiasmo a priori del passaggio e "pareggio" con Intel sulla stessa miniaturizzazione silicio, cioè prima che Intel avesse disponibile il 22nm, praticamente confidando tutto sul fatto che il SOI ha caratteristiche migliori del Bul per alte frequenze.

Dai, non ci vuole molto per capire che se uno step di miniaturizzazione silicio consente il -25% di TDP a parità di frequenza, l'aggiunta del trattamento HKMG doveva amplificare l'effetto e nemmeno di poco.

Il low-k, che come l'HKMG porta il vantaggio della riduzione del Vcore per eccitare il transistor alla stessa frequenza, ha permesso allo stesso TDP di avere 6 core al posto di 4

Ora, l'HKMG, mettiamo con un +40% di guadagno (simile al low-k sul 45nm), doveva annullare il plus del 33% dei core di un X8 vs X6, e lasciare anche del margine... ma anche annullando questo margine, il -25% garantito dalla miniaturizzazione maggiore,, avrebbe dovuto portare un 8150 ad avere un TDP del -25% migliore rispetto ad un 1100T... mentre invece abbiamo visto consumi al più uguali se non peggiori...

C'è poco da capire... un 32nm SOI HKMG ULK, prima dello step C0, non ha portato nulla di vantaggio in consumo/potenza rispetto al 45nm SOI low-k... è inutile girarci attorno...

La spiegazione è solo 1... o l'architettura BD è altamente inefficiente, e quindi un -25% di potenza a parità di consumi è nell'IPC, e quindi un +25% è possibile con l'ottimizzazione, oppure quel .25% dipende interamente dal silicio.

Fare previsioni su frequenze di un 28nm/20nm è facile se si continua il discorso precedente... perchè se il 32nm fosse del -25% rispetto alle aspettative, non possiamo ipotizzare un +5% di un 28nm sul 32nm come del +25% di un 20nm sul 32nm, perchè sarebbe riferito ad un 32nm in forma... quindi il 28nm potrebbe superare il +30% in consumi/prestazioni (e non +5%) come un 20nm potrebbe anche superare il +50%...

Il discorso è qui... infatti... 77W TDP del 22nm Intel non equivalgono a dire un 3770K a 5-6GHz per 125W TDP, ma sicuramente un raddoppio dei core nei 135W TDP.
Idem, il 28/20nm non è detto possano garantire 5GHz def, ma sicuramente un X10/X12 a parità di frequenza/TDP.

Con questo non voglio dire nulla... ma personalmente continuo a vedere che una miniaturizzazione superiore, visto che sto 32nm non vuole crescere, può concedere tranquillamente un aumento di core, e quindi un aumento proporzionale della potenza MT, del 25% in MT nel caso di X10 e del 50% nel caso di X12, sia che AMD potenzi o meno l'IPC... poi è chiaro che se lo farà, questo si sommerà, come è stato per l'8350... senza interventi sull'IPC, i 4GHz def avrebbero aumentato dell'11,11% in MT, aggiungendoci l'incremento IPC, si parla del 15/17% sempre nell'MT.

TheBestFix
05-12-2012, 19:55
:sofico:

Ma è problematico... perchè il 2600K a sua volta si poteva occare... e
comunque il tutto a consumi nettamente peggiori per la stessa potenza.

Io torno a pensare, che ho sempre ipotizzato, ma nella mia ignoranza sul silicio, che AMD/GF abbiano fatto semplicemente una previsione sulle caratteristiche del 45nm SOI liscio e con a variante low-k, di quanto avrebbe guadagnato dal passaggio 45nm--->32nm e con l'aggiunta dell'HKMG, e le affermazioni siano dettate più sull'entusiasmo a priori del passaggio e "pareggio" con Intel sulla stessa miniaturizzazione silicio, cioè prima che Intel avesse disponibile il 22nm, praticamente confidando tutto sul fatto che il SOI ha caratteristiche migliori del Bul per alte frequenze.

Dai, non ci vuole molto per capire che se uno step di miniaturizzazione silicio consente il -25% di TDP a parità di frequenza, l'aggiunta del trattamento HKMG doveva amplificare l'effetto e nemmeno di poco.

Il low-k, che come l'HKMG porta il vantaggio della riduzione del Vcore per eccitare il transistor alla stessa frequenza, ha permesso allo stesso TDP di avere 6 core al posto di 4

Ora, l'HKMG, mettiamo con un +40% di guadagno (simile al low-k sul 45nm), doveva annullare il plus del 33% dei core di un X8 vs X6, e lasciare anche del margine... ma anche annullando questo margine, il -25% garantito dalla miniaturizzazione maggiore,, avrebbe dovuto portare un 8150 ad avere un TDP del -25% migliore rispetto ad un 1100T... mentre invece abbiamo visto consumi al più uguali se non peggiori...

C'è poco da capire... un 32nm SOI HKMG ULK, prima dello step C0, non ha portato nulla di vantaggio in consumo/potenza rispetto al 45nm SOI low-k... è inutile girarci attorno...

La spiegazione è solo 1... o l'architettura BD è altamente inefficiente, e quindi un -25% di potenza a parità di consumi è nell'IPC, e quindi un +25% è possibile con l'ottimizzazione, oppure quel .25% dipende interamente dal silicio.

Fare previsioni su frequenze di un 28nm/20nm è facile se si continua il discorso precedente... perchè se il 32nm fosse del -25% rispetto alle aspettative, non possiamo ipotizzare un +5% di un 28nm sul 32nm come del +25% di un 20nm sul 32nm, perchè sarebbe riferito ad un 32nm in forma... quindi il 28nm potrebbe superare il +30% in consumi/prestazioni (e non +5%) come un 20nm potrebbe anche superare il +50%...

Il discorso è qui... infatti... 77W TDP del 22nm Intel non equivalgono a dire un 3770K a 5-6GHz per 125W TDP, ma sicuramente un raddoppio dei core nei 135W TDP.
Idem, il 28/20nm non è detto possano garantire 5GHz def, ma sicuramente un X10/X12 a parità di frequenza/TDP.

Con questo non voglio dire nulla... ma personalmente continuo a vedere che una miniaturizzazione superiore, visto che sto 32nm non vuole crescere, può concedere tranquillamente un aumento di core, e quindi un aumento proporzionale della potenza MT, del 25% in MT nel caso di X10 e del 50% nel caso di X12, sia che AMD potenzi o meno l'IPC... poi è chiaro che se lo farà, questo si sommerà, come è stato per l'8350... senza interventi sull'IPC, i 4GHz def avrebbero aumentato dell'11,11% in MT, aggiungendoci l'incremento IPC, si parla del 15/17% sempre nell'MT.

paolo se io fossi nei panni di amd non punterei di sicuro ad aumentare ulteriormente il numero di core delle cpu desktop, 8 sono gia' anche troppi oltre che poco sfruttati, adesso amd dovrebbe (e penso lo fara') concentrarsi nell'ottimizzare quello che gia' ha, e intervenendo sui punti deboli dell'architettura (che conosce per forza) tirare avanti fino al prossimo processo di miniaturizzazione .......se non ti bastano gli 8 core del 8350 vai di opteron perche' e' evidente che non usi il pc per giocare o cazzeggiare su internet, per cui aumentare il numero di core anche se fosse l'unica mossa disponibile per aumentare la potenza in MT sarebbe indubbiamente la mossa da non fare per come la vedo io e per come stanno al momento le cose nei confronti dei prodotti rivali che non vedono nel MT la loro superiorita'...

Salvoxx
05-12-2012, 20:51
...nel multiplayer :fagiano: no davvero, nel multiplayer arrancano un po', per il resto nel multi gpu solo a risoluzioni infime useless, in Full HD tallona l'i5 alla grande!... mi piacerebbe testarlo di persona ma quanto mi costerebbe :cry:

A me viene un certo "nervosismo" allorché sento dire da profani e da funboys intel " compra intel che è meglio" senza specificare nemmeno la controparte amd... Oppure ancora " gli amd nei giochi fanno schifo"... Io penso che a volte si scrive tanto per scrivere o non si ha nemmeno la voglia di informarsi meglio... E certo gettare fango su un'azienda in difficoltà non è nemmeno "eticamente" giusto... AMD IMHO con questo rapporto qualità/prezzo non ha rivali... Come 1 anno e mezzo fa x me non ebbe rivali ( e lo acquistai) un notebook con processore I5 480-m e scheda video dedicata a 399€!!!...
Bisognerebbe guardare piú obbiettivamente la realtà visto che il 99% di noi utenti non possiede né azioni intel né amd...io sono molto soddisfatto del mio assemblato con 8350 e @default è già sprecato nella maggior parte delle azioni quotidiane... Cmq...mi accingo a provare di persona far cry 3... Vi farò sapere.

carlottoIIx6
05-12-2012, 21:22
è risaputo, mi sembra che in questo thread la cosa è stata detta, che gli fx hanno un aumento di prestazione con la frequenza (anche se l'efficenza cala) dovuta alle peculiarità della cpu (la lunghezza delle sue line e il predittore) tanto che su alcune riviste dicevano di avere un andamento parabolico (a salire).

Catan
05-12-2012, 21:48
se ci continuerà ( e si continuerà) con la scelta dell'unità di calcolo di virgola mobile condivisa, la soluzione è proprio quella di aumentare il numero di blocchi, al diminuire del processo produttivo, anche se la salità in frequenza sarà contenuta.
Come ho evidenziato più volte, via via le cpu amd assomigliano sempre più a gpu se si continua sulla strada delle risorse condivise e l'alto parallelismo, un numero maggiore di moduli, che all'occorrenza equivale ad un numero maggiore di "unità di calcolo" è la scelta più ovvia per amd per pompare e guadagnare in prestazioni di "over all". Non mi stupirebbe se con streamroller o chi per lui, la line-up si spostasse su x12-x10-x8

digieffe
05-12-2012, 21:49
Stai facendo considerazioni su inesattezze.
Gli scheduler in Bulldozer sono da sempre stati separati per ogni ALU. Quello che AMD intende sdoppiare in Steamroller sono i decoder x86.

Il decoder è quella porzione di logica che prende gli opcode x86 e li interpreta trasformandoli in microcode per le pipeline; lo scheduler è la logica che cerca di distribuire i microcode contemporaneamente a tutte le pipeline disponibili.
Quello che AMD ha previsto per le prestazioni è un aumento del 30% del throughput nella decodifica delle istruzioni, che non è equivalente a dire il 30% di IPC.

Guarda i diagrammi a blocchi, tolgono ogni dubbio.
http://s15.postimage.org/40tw5dv4r/AMD_Bulldozer_Vs_Steamroller.jpg

quindi praticamente avremo il 1° core che va come (se fosse solo) ed il 2° core con un aumento indicativo del +30%:
potrebbe essere da 65%(+30%) = 85%

lasciando sostanzialmente intaccate le prestazioni del primo core (se non fosse per le altre migliorie (cache L1, ecc)

winebar
05-12-2012, 22:18
quindi praticamente avremo il 1° core che va come (se fosse solo) ed il 2° core con un aumento indicativo del +30%:
potrebbe essere da 65%(+30%) = 85%

lasciando sostanzialmente intaccate le prestazioni del primo core (se non fosse per le altre migliorie (cache L1, ecc)

Esatto. Ma c'è confusione...
AMD dice che le prestazioni aumenteranno del 30%, anandtech dice che con le decide unità divise il miglioramento sarà del 6/7%...
Quindi o AMD aumenta di quasi il 20/25% le prestazioni (tra frequenze s IPC) o anandtech è in errore e quel 7% è troppo conservativo...

Inviato dal mio GT-I9000 con Tapatalk 2

winebar
05-12-2012, 22:23
è risaputo, mi sembra che in questo thread la cosa è stata detta, che gli fx hanno un aumento di prestazione con la frequenza (anche se l'efficenza cala) dovuta alle peculiarità della cpu (la lunghezza delle sue line e il predittore) tanto che su alcune riviste dicevano di avere un andamento parabolico (a salire).

Veramente in OC i proci bulldozer hanno la tendenza di aumentare in rapporto 1:1 con l'aumento percentuale di clock, dove le architetture Intel arrivano a circa 1:0,95 (cioè l'1% in più di frequenza porta lo 0,95% in prestazioni).
Addirittura parabole a salire direi di no. È impossibile perché la CPU è quella e al massimo puoi avere un aumento lineare, ma non a parabola...

Inviato dal mio GT-I9000 con Tapatalk 2

:Ma è problematico... perchè il 2600K a sua volta si poteva occare... e
comunque il tutto a consumi nettamente peggiori per la stessa potenza.

Qui torniamo al discorso di 1 anno fa circa: a 4,5 GHz era competitivo con un 2600k, quindi evidentemente la frequenza a cui doveva andare BD era quella, se non maggiore...

Folgore 101
05-12-2012, 23:10
Bene bene ;) Praticamente hai la mia stessa mobo e procio. Ottima scelta, ti posso garantire che non te ne pentirai, la GD80 è un ottima mobo e non ha nulla da invidiare alle ROG, Gigabyte, Extreme et simili. A me ha sempre datoottimi risultati (nel mio piccolo e nelle mie capacità) sicuramente messa nelle mani di un overclocker diverso darebbe addirittura di piu.

PS: finalmente non sono l'unico nel thread ad avere la GD80. Se ti servono consigli chiedi pure ;)

Consigli ne avrò quasi sicuramente bisogno, arrivo da un Athlon XP 3000+, diciamo che sono uno che non aggiorna spesso. :stordita:

digieffe
05-12-2012, 23:45
Esatto. Ma c'è confusione...
AMD dice che le prestazioni aumenteranno del 30%, anandtech dice che con le decide unità divise il miglioramento sarà del 6/7%...
Quindi o AMD aumenta di quasi il 20/25% le prestazioni (tra frequenze s IPC) o anandtech è in errore e quel 7% è troppo conservativo...

Inviato dal mio GT-I9000 con Tapatalk 2

dovrei leggere in prima persona anandtech ma non ho tempo, faccio un calcolo banale:

(1° core + 2° core) 100 + 70 +(30% mops al 2° core) = 100 + 91

Piledriver 170 con decoder aggiuntivi 191 = +12% (sui 2 core) quindi anand secondo me è stato conservativo
(ribadisco che non ho letto quanto ha scritto)

poi ci sarebbero le migliorie dovute alla cache L1i aumentata (non so se anche nelle vie) e quindi minori cache miss + tutte le altre migliorie.

insomma forse non arriveranno al 30% ma ci sono buoni margini di miglioramento, l'unico problema è quando arriveranno!

paolo.oliva2
06-12-2012, 06:38
paolo se io fossi nei panni di amd non punterei di sicuro ad aumentare ulteriormente il numero di core delle cpu desktop, 8 sono gia' anche troppi oltre che poco sfruttati, adesso amd dovrebbe (e penso lo fara') concentrarsi nell'ottimizzare quello che gia' ha, e intervenendo sui punti deboli dell'architettura (che conosce per forza) tirare avanti fino al prossimo processo di miniaturizzazione .......se non ti bastano gli 8 core del 8350 vai di opteron perche' e' evidente che non usi il pc per giocare o cazzeggiare su internet, per cui aumentare il numero di core anche se fosse l'unica mossa disponibile per aumentare la potenza in MT sarebbe indubbiamente la mossa da non fare per come la vedo io e per come stanno al momento le cose nei confronti dei prodotti rivali che non vedono nel MT la loro superiorita'...

se ci continuerà ( e si continuerà) con la scelta dell'unità di calcolo di virgola mobile condivisa, la soluzione è proprio quella di aumentare il numero di blocchi, al diminuire del processo produttivo, anche se la salità in frequenza sarà contenuta.
Come ho evidenziato più volte, via via le cpu amd assomigliano sempre più a gpu se si continua sulla strada delle risorse condivise e l'alto parallelismo, un numero maggiore di moduli, che all'occorrenza equivale ad un numero maggiore di "unità di calcolo" è la scelta più ovvia per amd per pompare e guadagnare in prestazioni di "over all". Non mi stupirebbe se con streamroller o chi per lui, la line-up si spostasse su x12-x10-x8

Io dico solamente che per il silicio 32nm SOI step C0 un X10 potrebbe essere possibile anche a 4GHz solamente abbassando il Vcore di un 8350 all'effettivamente necessario, e dai 1,385V/1,4V attuali si potrebbe portare anche a 1,35V. Ad essere di manica strettissima, un X12 lo si potrebbe avere già a 3,6GHz avesse anche il Vcore def di un 8150, cioè 1,285/1,3V.

Anche prevedendo prezzi fuori di testa, cioè +50% per un X10 e +100% per un X12 rispetto ad un 8350, saremmo a 300€ per l'X10€ e 400€ per l'X12.

Quindi... sarebbe appetibile come prodotto?

L'architettura Buldozer permette un funzionamento, tramite il TurboCore, che raggiunge SEMPRE le stesse frequenze massime indipendentemente dal numero totale dei moduli...

Se il silicio lo permette, e per me lo permette, un Vishera con le caratteristiche di un 8350 fino ad X8 ma con il plus di un +25% in MT per un X10 o +50% per un X12, ad un prezzo di 300€ per X10 e 400€ per X12, io lo pre-ordinerei ora... Immaginatevi un OC a 5,2GHz :sofico:

Ed il ritorno ci sarebbe indubbiamente pure con gli Opteron, visto che un X16 a 1,9GHz/3,1GHz massimi lo riescono a commercializzare per 85W TDP, per i 140W TDP alla grande che potrebbe avere pure 24 core...

Poi è indubbio che la scelta "logica" sia quella di far funzionare al meglio quello che già c'è, ma per questo ci vuole tempo. Ha più senso un X10/X12 su base Vishera OGGI, con il suo +25%/+50% di potenza MT in più, o un +30% di IPC tra 2 anni a parità di core?

Non dimentichiamoci che a tutt'oggi il modulo AMD è ad una virgola dal core Intel +SMT nell'MT, con il vantaggio che più aumentano il numero di core, più AMD può comunque mantenere frequenze più elevate rispetto al TDP, e con i 150W TDP per un SBe X6 a 3,5GHz, AMD contrappone per 140W TDP un X16 a 2,8GHz C0 (ma nel B2g era partito con 2,5GHz X16 per poi arrivare a 2,7GHz, i 2,8GHz del C0 arriveranno a 3GHz). Le differenze di potenza ST farebbero parte delle caratteristiche del procio... come uno non acquista un X8 se gli basta un X2, uno acquisterebbe AMD se cercasse la potenza MT. A livello di sfruttamento, un X12 12TH AMD è perfettamente uguale ad un X6 +SMT =12TH Intel..., anzi, abbiamo visto che comunque all'aumentare dei TH sfruttabili, il modulo con core fisici AMD scala meglio dell'SMT Intel. Sono le 2 facce della medaglia...

Salvoxx
06-12-2012, 07:15
Ieri sera faceva troppo freddo!! Davvero troppo freddo x evitare che io toccassi i 5519.6MHz ad Aria :D... Stabili???? Forse ma non avendo un alimentatore da record i ben 1.7v necessari per quella frequenza li ho tenuti il meno possibile... Mi ha cmq terminato il test cache e memoria di Aida 64... Temperatura massima registrata... 38 gradi... Giusto uno sfizio... X andare oltre ci vuole ghiaccio/o azoto penso... :D

http://valid.canardpc.com/2605672

Salvoxx
06-12-2012, 12:02
uso uno scythe mugen III con doppia ventola in/out... artic silver... ma soprattutto un bel finestrone aperto di notte con temperatura esterna prossima allo 0...:sofico:

cmq ripeto era più uno sfizio... ho appurato che ai vishera piace molto il freddo!

Quello che voglio fare ora è testare (appena avrò tempo) personalmente far cry 3 e postarvi i relativi risultati... vediamo se è davvero "la bestia nera di AMD" come dicono...

varierò la frequenza da default a 5GHz e farò dei test in full hd e a risoluzioni inferiori...:)

filo mc-ati crossfire
06-12-2012, 13:04
ahahhh! :sofico: ...si i più esperti nell'oc suggeriscono che il segreto è tenere più basso possibile la temp, perchè in questo modo necessita pure di minor tensione per la stessa frequenza, tra inverno ed estate può variare anche di 0.05-0.10 v in meno per avere la stessa frequenza date le temperature più basse...
e che poi è un gioco tipo il "gatto col topo", se in estate la temp ambiente è più alta mi comporta maggior tensione per la stessa frequenza e a sua volta maggior tensione equivale a maggior temp del procio e cosi via :mc:
...si i test in OC max hai fatto bene a farlo anche solo per sfizio e per quello dico che paolo col suo raffreddamento potrebbe arrivare più in alto a patto di procio sfigato o meno, gli avevo preventivato uno screen a 5.8, un cinebench a 5.5 e tu ci sei riuscito ad aria con aida 64!... :sofico:
Per far cry 3 mi spiace, è uno dei giochi che attendevo di più, ma avrà la stessa tiritera del 2 :cry: frame ballerini e stuttering a manetta...
ma ti seguirò senz'altro ;)
Io l'ho già finito,e non ho notato tutto sto stuttering,e tra l'latro con la cpu a 4,70 ghz,i frame sono + che stabili,tra i 50-70, in media sto a 55-60,senza cali di frame eccessivi! a 1440x900,al momento ho questo monitor ed è la sua max res!

Salvoxx
06-12-2012, 13:49
buono a sapersi... le mie 2 6870 non vedono l'ora di strapazzarlo... ;)

carlottoIIx6
06-12-2012, 14:32
cut
Addirittura parabole a salire direi di no. È impossibile perché la CPU è quella e al massimo puoi avere un aumento lineare, ma non a parabola...
cut


la rivista, che ora non ricordo, lo attribuiva al "preditytore" che lavora meglio ad alte frequenze.

Ares17
06-12-2012, 14:47
Addirittura parabole a salire direi di no. È impossibile perché la CPU è quella e al massimo puoi avere un aumento lineare, ma non a parabola...

Non ne sarei tanto sicuro:
Dipende dalla sincronizzazione dei clock e dalla velocità di svuotamento delle pipeline:
Se il miss si presenta alla fine della pipeline e bastano 1-2 cicli per svuotarla l'elavata frequenza di elaborazione porta teoricamente ad una maggiora resa percentuale.
Generalmente nelle migliori condizione si ha un aumento lineare, ma con BD e tutta la sua logica atipica potrebbe essere che la resa ideale sia ad una frequenza alta non ancora raggiunta.

arcaik81
07-12-2012, 09:22
Ma questi AMD come se la cavano con i rendering? Con quali Intel se la giocano? Ovviamente per AMD mi riferisco a fx8320 e fx8350 :D

capitan_crasy
07-12-2012, 09:48
Asus aggiunge un bridge alla Sabertooth per renderla PCI-Express 3.0 ready:

http://i.imgur.com/JuWJ6.jpg

Il modello si chiama Sabertooth 990FX/GEN3 R2.0 e utilizza sempre il chipset 990FX che non supporta il PCI-Express 3.0.
Grazie ad un bridge non ancora identificato porta la scheda a supportare comunque il nuovo standard; naturalmente questa modifica è tutto a vantaggio del marketing e non certo delle prestazioni...

shellx
07-12-2012, 10:04
Grazie capitano per la notizia: effettivamente è marketing, gia due chipset non si possono piu vedere nel 2012, ma addirittura vedere un terzo bridge è un esagerazione. A causa sua hanno dovuto togliere uno slot pci-e per fargli spazio. E' inguardabile. Se hai una scheda video a doppio slot rischia di entrare in collisione con quel dissi di quel bridge.

ps: tra le altre cose, io non capisco come ad alcuni piace i modelli TUF Saber di Asus, parlo dal punto di vista di design di layout. Le saber le trovo ORRENDE, con quel colore fra ottone portafiori da lapide e marrone da bara mortuaria.

shellx
07-12-2012, 10:58
hei hei non discriminiamo :p ... a me piace e comunque sta nel case e non la vedo ;)

eheheheh :D lo sapevo che rispondevi tu ;) No vabbe ma la mobo è ottima pure meglio della mia sicuramente, ma sono io che sono critico nei layout, tanto è vero che in Linux odio Gnome per il suo stile tamarro e vado di KDE o xfce, e mi acchiappo sempre con gli amanti dell'ambiente gnome.

,
ps hanno tolto il pci-ex2.0 a 1x, che onestamente non so ancora che senso abbiano siccome anche col 16x puoi inserire schede da 1x... tra l'altro io la vga l'ho messa nel secondo slot beige partendo dall'alto cosi è più distante dal dissi della cpu e funziona sempre a 2.0, 16x...

ah ecco.... ma tu mi credi che il pci-e nero non lo avevo proprio notato si mimetizza con il pcb e il dissi di quel bridge. Ecco perchè dicevo hanno tolto un pci-e perchè ne vedevo uno mancante 16x. Invece essendo attaccato al quel dissi nero e con il pcb nero come sfondo sembrava na cosa tutta una con il pcb della mobo o la continuazione del dissi.


comunque anche lo slot nero è migliorato, la mia è cosi:
3 x PCIe 2.0 x16 (dual x16 or x16, x8, x8) *1
1 x PCIe 2.0 x16 (x4 mode, black)
1 x PCIe 2.0 x1
1 x PCI
When running dual graphics cards, be sure to insert the card in the first and third PCIex16 3.0 slot to get the best performance.

mentre questa è cosi
3 x PCI Express 3.0 x16 slots (Dual at x16/x16, triple at x16/x8/x8 mode)*
1 x PCI Express 2.0 x16 slot (Black at x16)
1 x PCI slot
When running dual graphics cards, be sure to insert the card in the first and third PCIex16 2.0 slot to get the best performance.

praticamente non ti stai perdendo niente, come chi ha la CFV non si perde niente rispetto la versione Z. Tanto non credo che userai tutti quei pci-e, uno ti basta e ti avanza e soprattutto il 3.0 come gen di pci-e è inutile ;)

digieffe
07-12-2012, 11:37
...strano non abbiamo fatto anche un modello su base crosshair :sofico: marketing per marketing almeno lo metto su quella più cara...
certo che il layout è modificabile proprio a 360°

sono curioso di sapere questo ulteriore bridge cosa sia e se comporta colli da qualche parte e quanto scalda...



hei hei non discriminiamo :p ... a me piace e comunque sta nel case e non la vedo ;)
ps hanno tolto il pci-ex2.0 a 1x, che onestamente non so ancora che senso abbiano siccome anche col 16x puoi inserire schede da 1x... tra l'altro io la vga l'ho messa nel secondo slot beige partendo dall'alto cosi è più distante dal dissi della cpu e funziona sempre a 2.0, 16x...

comunque anche lo slot nero è migliorato, la mia è cosi:
3 x PCIe 2.0 x16 (dual x16 or x16, x8, x8) *1
1 x PCIe 2.0 x16 (x4 mode, black)
1 x PCIe 2.0 x1
1 x PCI
When running dual graphics cards, be sure to insert the card in the first and third PCIex16 3.0 slot to get the best performance.

mentre questa è cosi
3 x PCI Express 3.0 x16 slots (Dual at x16/x16, triple at x16/x8/x8 mode)*
1 x PCI Express 2.0 x16 slot (Black at x16)
1 x PCI slot
When running dual graphics cards, be sure to insert the card in the first and third PCIex16 2.0 slot to get the best performance.

Vi pongo una domanda: possibile che il bridge-switch aggreghi 2 link 2.0 16x per sostenere la banda di un link 3.0 16x (oppure uno utilizzi uno 2.0 da 16X per sostenere uno 3.0 8X)?

filo mc-ati crossfire
07-12-2012, 12:01
raga domanda velocissima,ho un kit da 16 gb corsair vegeance,quelle per x79,il quad channel è incompatibile con gli fx o con la mia mobo?magari so' che è una domanda da niubbo,ma sia in dual che quad channel ste ram non vogliono salire nemmeno di un pelo! e con intel salgono! devo rivenderle mi sà vero?

Tony_Montana91
07-12-2012, 12:06
Mi conviene passare dalla cpu in firma all'FX 8350?
Utilizzo PC:Gaming

filo mc-ati crossfire
07-12-2012, 12:18
ps: ok ho guardato nella lista delle memorie,non è nemmeno presente il kit che ho preso io!
qualcuno saprebbe consigliarmi un buon kit da 8 gb che sia compatibile al 100%?un kit buono,vorrei almeno arrivare a 2000 con timing bassi!
ho trovato un kit cl10 a 2400 kingstone,ma nella lista delle memorie,non c'è nemmeno questo,scusatemi per il piccolo ot!

shellx
07-12-2012, 12:25
Vi pongo una domanda: possibile che il bridge-switch aggreghi 2 link 2.0 16x per sostenere la banda di un link 3.0 16x (oppure uno utilizzi uno 2.0 da 16X per sostenere uno 3.0 8X)?

No non credo, mi viene da credere che sottoquel dissi c'è un vero e proprio ip controller pci-e 3.0, la pecca ovviamente è che si aggiunge un bus linkato al bus principale per cui la latenza è ulteriormente superiore al bus diretto northbridge to slot.


raga domanda velocissima,ho un kit da 16 gb corsair vegeance,quelle per x79,il quad channel è incompatibile con gli fx o con la mia mobo?magari so' che è una domanda da niubbo,ma sia in dual che quad channel ste ram non vogliono salire nemmeno di un pelo! e con intel salgono! devo rivenderle mi sà vero?
ps: ok ho guardato nella lista delle memorie,non è nemmeno presente il kit che ho preso io!
qualcuno saprebbe consigliarmi un buon kit da 8 gb che sia compatibile al 100%?un kit buono,vorrei almeno arrivare a 2000 con timing bassi!
ho trovato un kit cl10 a 2400 kingstone,ma nella lista delle memorie,non c'è nemmeno questo,scusatemi per il piccolo ot!

quad channel scordatelo su piattaforme amd, oltrtutto quel kit è disegnato per piattaforme intel. Tuttavia i kit che salgono oltre i 1866 c'è ne sono ma non tutti, ma il problema è l'mc del procio particolare.
Io ho le Geil Evo Corsa in dual channel (io ho doppio kit da 8gb) mi stanno a 1866mhz gia di standard, ma con un kit solo da 4gb (2moduli) mi salgono oltre i 1866 e mi sale pure meglio l'nb.

Mi conviene passare dalla cpu in firma all'FX 8350?
Utilizzo PC:Gaming

se l'obiettivo è solo gaming: no

filo mc-ati crossfire
07-12-2012, 12:27
No non credo, mi viene da credere che sottoquel dissi c'è un ip controller 3.0, la pecca ovviamente è che si aggiunge un bus linkato al bus principale per cui la latenza è ulteriormente superiore al bus diretto northbridge to slot.




quad channel scordatelo su piattaforme amd, oltrtutto quel kit è disegnato per piattaforme intel. Tuttavia i kit che salgono oltre i 1866 c'è ne sono ma non tutti, ma il problema è l'mc del procio particolare.
Io ho le Geil Evo Corsa in dual channel (io ho doppio kit da 8gb) ti stanno a 1866mhz.



se l'obiettivo è solo gaming: no
quoto!
si lo so',ma le kingstone che ho,salgono anche oltre i 2000,le g.skill che avevo prima sempre per intel ,le ho bootate a 2200, queste proprio 0!ieri sono riuscito a farle partire a 1866,e poi non ci sono + riuscito :(

Phenomenale
07-12-2012, 12:45
possibile che il bridge-switch aggreghi 2 link 2.0 16x per sostenere la banda di un link 3.0 16x (oppure uno utilizzi uno 2.0 da 16X per sostenere uno 3.0 8X)?
Se il chip aggiuntivo è un "bridge-switch" funziona per forza così.

shellx
07-12-2012, 12:46
quoto!
si lo so',ma le kingstone che ho,salgono anche oltre i 2000,le g.skill che avevo prima sempre per intel ,le ho bootate a 2200, queste proprio 0!ieri sono riuscito a farle partire a 1866,e poi non ci sono + riuscito :(

ma prima avevi 8gb e ora 16gb ? Adesso hai un kit 8gbx2 ? o 4gbx4 ?

PS per il thread: http://www.businessmagazine.it/news/un-nuovo-accordo-tra-amd-e-globalfoundries_44998.html
Le due aziende stipulano un nuovo accordo per la produzione di chip, passando ad una dinamica commerciale a prezzo fisso per ogni wafer prodotto

Iniziano a venirmi in mente chiarimenti sul perchè steamroller sia slittato ... o sbaglio ? Leggete l'articolo e capirete cosa intendo...

filo mc-ati crossfire
07-12-2012, 12:52
ma prima avevi 8gb e ora 16gb ? Adesso hai un kit 8gbx2 ? o 4gbx4 ?

PS per il thread: http://www.businessmagazine.it/news/un-nuovo-accordo-tra-amd-e-globalfoundries_44998.html
Le due aziende stipulano un nuovo accordo per la produzione di chip, passando ad una dinamica commerciale a prezzo fisso per ogni wafer prodotto

allora prima avevo g.skill 2x4gb, adesso 1x4gb kingstone che sale,e ieri ho rpovato le corsair,prima in quad vedendo che non partiva ho provato solo 2 banchi 2x4 gb,il kit è composto da 4 x4 gb ...
ma anche mettendo solo 2 banchi,non riesco nemmeno a farlo bootare,tranne che le metto tutte su auto,e il bios me le legge come 400mhz 6-6-6-15,quando in realtà sono 1600mhz 9-9-9-24

shellx
07-12-2012, 13:00
allora prima avevo g.skill 2x4gb, adesso 1x4gb kingstone che sale,e ieri ho rpovato le corsair,prima in quad vedendo che non partiva ho provato solo 2 banchi 2x4 gb,il kit è composto da 4 x4 gb ...
ma anche mettendo solo 2 banchi,non riesco nemmeno a farlo bootare,tranne che le metto tutte su auto,e il bios me le legge come 400mhz 6-6-6-15,quando in realtà sono 1600mhz 9-9-9-24

Ti consiglio allora di libertarti subito di questo kit e opta per altro (io un consiglio due post prima te lo gia dato). ;)

Phenomenale
07-12-2012, 13:05
Iniziano a venirmi in mente chiarimenti sul perchè steamroller sia slittato ...
Ottimo spirito di osservazione ;)

filo mc-ati crossfire
07-12-2012, 13:43
Ti consiglio allora di libertarti subito di questo kit e opta per altro (io un consiglio due post prima te lo gia dato). ;)

si si,lo so',le avevo prese tanto per provarle,messe già in vendita sul forum! chi ha intel,le potrà sfruttare per benone,ma su amd.... nada

digieffe
07-12-2012, 14:00
quindi quali sarebbero le ipotesi sulla produzione/costi dei vafer, tecnologie ecc

insomma cosa si può dedurre dalla notizia?

Salvoxx
07-12-2012, 15:50
Come promesso ecco qualche test sul nuovo Titolo di Ubisoft FAR CRY 3:

Sistema così composto:

-AMD FX8350
-ASUS Sabertooth 990FX R2.0
-16GB Crucial BallisticX Smart Tracer 1866MHz 9-9-9-20
-Crossfire AMD Radeon HD 6870
-Dual SSD 128GB Crucial M4+C300 RAID 0
-Windows 8 PRO 64bit

Driver usati: Catalyst 12.11 Beta11

Ecco i risultati:

-1920X1080 ULTRA @ 5GHz (Primo screen) Vga Singola

http://img13.imagevenue.com/loc254/th_887664610_1920X1080ULTRA25GHz_thumb_122_254lo.jpg (http://img13.imagevenue.com/img.php?image=887664610_1920X1080ULTRA25GHz_thumb_122_254lo.jpg)

-1920X1080 ULTRA @ default (Primo screen) Vga Singola

http://img231.imagevenue.com/loc217/th_887722901_1920X1080ULTRA2_thumb_122_217lo.jpg (http://img231.imagevenue.com/img.php?image=887722901_1920X1080ULTRA2_thumb_122_217lo.jpg)

-1920X1080 ULTRA @ 5GHz (Secondo screen) Vga Singola

http://img218.imagevenue.com/loc1059/th_887774997_1920X1080ULTRA5GHz_thumb_122_1059lo.jpg (http://img218.imagevenue.com/img.php?image=887774997_1920X1080ULTRA5GHz_thumb_122_1059lo.jpg)

-1920X1080 ULTRA @ default (Secondo screen) Vga Singola

http://img25.imagevenue.com/loc379/th_887811850_1920X1080ULTRA_thumb_122_379lo.jpg (http://img25.imagevenue.com/img.php?image=887811850_1920X1080ULTRA_thumb_122_379lo.jpg)

-1920X1080 V.HIGH @ 5GHz (Primo screen) Vga Singola

http://img254.imagevenue.com/loc101/th_887845989_1920X1080VHIGH25GHz_thumb_122_101lo.jpg (http://img254.imagevenue.com/img.php?image=887845989_1920X1080VHIGH25GHz_thumb_122_101lo.jpg)

-1920X1080 V.HIGH @ default (Primo screen) Vga Singola

http://img188.imagevenue.com/loc243/th_887886775_1920X1080VHIGH2_thumb_122_243lo.jpg (http://img188.imagevenue.com/img.php?image=887886775_1920X1080VHIGH2_thumb_122_243lo.jpg)

-1920X1080 V.HIGH @ 5GHz (Secondo screen) Vga Singola

http://img25.imagevenue.com/loc404/th_887938783_1920X1080VHIGH5GHz_thumb_122_404lo.jpg (http://img25.imagevenue.com/img.php?image=887938783_1920X1080VHIGH5GHz_thumb_122_404lo.jpg)

-1920X1080 V.HIGH @ default (Secondo screen) Vga Singola

http://img188.imagevenue.com/loc37/th_888028278_1920X1080VHIGH_thumb_122_37lo.jpg (http://img188.imagevenue.com/img.php?image=888028278_1920X1080VHIGH_thumb_122_37lo.jpg)

...continua...

Salvoxx
07-12-2012, 15:51
- 1440X900 Medium @5GHz (Primo screen) Crossfire Enabled

http://img296.imagevenue.com/loc190/th_888049564_CF1440X900Medium25GHz_thumb_122_190lo.jpg (http://img296.imagevenue.com/img.php?image=888049564_CF1440X900Medium25GHz_thumb_122_190lo.jpg)

- 1440X900 Medium @default (Primo screen) Crossfire Enabled

http://img228.imagevenue.com/loc147/th_888082908_CF1440X900Medium2_thumb_122_147lo.jpg (http://img228.imagevenue.com/img.php?image=888082908_CF1440X900Medium2_thumb_122_147lo.jpg)

- 1440X900 Medium @5GHz (Secondo screen) Crossfire Enabled

http://img162.imagevenue.com/loc198/th_488812215_CF1440X900Medium5GHz_thumb_122_198lo.jpg (http://img162.imagevenue.com/img.php?image=488812215_CF1440X900Medium5GHz_thumb_122_198lo.jpg)

- 1440X900 Medium @default (Secondo screen) Crossfire Enabled

http://img208.imagevenue.com/loc234/th_888154719_CF1440X900Medium_thumb_122_234lo.jpg (http://img208.imagevenue.com/img.php?image=888154719_CF1440X900Medium_thumb_122_234lo.jpg)

- 1920X1080 ULTRA @ 5GHz (Primo screen) Crossfire Enabled

http://img227.imagevenue.com/loc550/th_888210885_CF1920X1080ULTRA25GHz_thumb_122_550lo.jpg (http://img227.imagevenue.com/img.php?image=888210885_CF1920X1080ULTRA25GHz_thumb_122_550lo.jpg)

- 1920X1080 ULTRA @ default (Primo screen) Crossfire Enabled

http://img222.imagevenue.com/loc1034/th_888260621_CF1920X1080ULTRA2_thumb_122_1034lo.jpg (http://img222.imagevenue.com/img.php?image=888260621_CF1920X1080ULTRA2_thumb_122_1034lo.jpg)

-1920X1080 ULTRA @ 5GHz (Secondo screen) Crossfire Enabled

http://img224.imagevenue.com/loc870/th_888319729_CF1920X1080ULTRA5GHz_thumb_122_870lo.jpg (http://img224.imagevenue.com/img.php?image=888319729_CF1920X1080ULTRA5GHz_thumb_122_870lo.jpg)

- 1920X1080 ULTRA @ default (Secondo screen) Crossfire Enabled

http://img192.imagevenue.com/loc236/th_888380890_CF1920X1080ULTRA_thumb_122_236lo.jpg (http://img192.imagevenue.com/img.php?image=888380890_CF1920X1080ULTRA_thumb_122_236lo.jpg)

-1920X1080 V.HIGH @ 5GHz (Primo screen) Crossfire Enabled

http://img249.imagevenue.com/loc152/th_488843346_CF1920X1080VHIGH25GHz_thumb_122_152lo.jpg (http://img249.imagevenue.com/img.php?image=488843346_CF1920X1080VHIGH25GHz_thumb_122_152lo.jpg)

-1920X1080 V.HIGH @ default (Primo screen) Crossfire Enabled

http://img267.imagevenue.com/loc512/th_888483846_CF1920X1080VHIGH2_thumb_122_512lo.jpg (http://img267.imagevenue.com/img.php?image=888483846_CF1920X1080VHIGH2_thumb_122_512lo.jpg)

-1920X1080 V.HIGH @ 5GHz (Secondo screen) Crossfire Enabled

http://img184.imagevenue.com/loc1167/th_888527511_CF1920X1080VHIGH5GHz_thumb_122_1167lo.jpg (http://img184.imagevenue.com/img.php?image=888527511_CF1920X1080VHIGH5GHz_thumb_122_1167lo.jpg)

-1920X1080 V.HIGH @ default (Secondo screen) Crossfire Enabled

http://img140.imagevenue.com/loc596/th_488858431_CF1920X1080VHIGH_thumb_122_596lo.jpg (http://img140.imagevenue.com/img.php?image=488858431_CF1920X1080VHIGH_thumb_122_596lo.jpg)

Se ne ricava che... c'è qualche minima differenza di frame solamente variando la frequenza della cpu alla risoluzione di 1400x900 a dettagli Medi con crossfire abilitato... segno che il gioco non è particolarmente influenzato dalle prestazioni della cpu.

Con la mia configurazione è giocabilissimo in tutte le condizioni... anche se con crossfire abilitato c'è ancora qualche sfarfallio di troppo e qualche microlag che probabilmente verrà risolto con i driver 12.11 ufficiali.
Mettiamoci che il gioco utilizzerà si e no 4 CORE un FX 4300 IMHO basta e avanza.

Felice di aver demolito con qualche screen tutta l'ansia da prestazione che c'è in giro per questo titolo. :D

filo mc-ati crossfire
07-12-2012, 17:57
raga domanda fast,per questa cpu,sono buone secondo voi queste ram?
KINGSTON Memoria PC HyperX Predator 2 x 4 GB DDR3-2400 PC3-19200 (KHX24C11T2K2/8X)

paolo.oliva2
07-12-2012, 18:24
Non ne sarei tanto sicuro:
Dipende dalla sincronizzazione dei clock e dalla velocità di svuotamento delle pipeline:
Se il miss si presenta alla fine della pipeline e bastano 1-2 cicli per svuotarla l'elavata frequenza di elaborazione porta teoricamente ad una maggiora resa percentuale.
Generalmente nelle migliori condizione si ha un aumento lineare, ma con BD e tutta la sua logica atipica potrebbe essere che la resa ideale sia ad una frequenza alta non ancora raggiunta.

Quoto.
CApitava cosi anche con il Tuban... anche se era meno atipico... dove tra nb e ram e oc incrementava un pochino pure l'inc.
Con Zambesi, che per me era un accrocchio castrato dal silicio, non incrementava semplicemente perche non era possibile ottimizzarlo bene. Vishera e diverso...

paolo.oliva2
07-12-2012, 18:36
Se ne ricava che... c'è qualche minima differenza di frame solamente variando la frequenza della cpu alla risoluzione di 1400x900 a dettagli Medi con crossfire abilitato... segno che il gioco non è particolarmente influenzato dalle prestazioni della cpu.

Con la mia configurazione è giocabilissimo in tutte le condizioni... anche se con crossfire abilitato c'è ancora qualche sfarfallio di troppo e qualche microlag che probabilmente verrà risolto con i driver 12.11 ufficiali.
Mettiamoci che il gioco utilizzerà si e no 4 CORE un FX 4300 IMHO basta e avanza.

Felice di aver demolito con qualche screen tutta l'ansia da prestazione che c'è in giro per questo titolo. :D

In poche parole... non concordo per il 4300, ma per un discorso a 360 gradi, ma un 6300 o al limite un 8320 renderebbero uguale all'8350 (previo piccolo oc) spendendo un tot di meno.

Sbaglio o del tuo sistema 8350 ti senti soddisfatto pur acquistando il top con il prezzo piu alto?

Salvoxx
08-12-2012, 01:08
esatto...ma quando ho scelto l' FX 8350 era per cimentarmi in sporadici overclock..."per passatempo"...non di certo per particolare esigenze di decodifica/conversione o altro... di certo un fx 8320 o un 6300 non hanno moduli così fortunati... se pensi che avevo puntato all'inizio l' I7 3770k... ripiegare sul top di gamma AMD risparmiando 150€ mi è sembrato già un buon compromesso...:D

Catan
08-12-2012, 02:40
bon boys, 8350 preso negli usa, carina la confezione di metallo...aspetto il mio ritorno (il 16 di dicembre) per giocarci un pò!

DanieleRC5
08-12-2012, 07:31
allora prima avevo g.skill 2x4gb, adesso 1x4gb kingstone che sale,e ieri ho rpovato le corsair,prima in quad vedendo che non partiva ho provato solo 2 banchi 2x4 gb,il kit è composto da 4 x4 gb ...
ma anche mettendo solo 2 banchi,non riesco nemmeno a farlo bootare,tranne che le metto tutte su auto,e il bios me le legge come 400mhz 6-6-6-15,quando in realtà sono 1600mhz 9-9-9-24

Ma hai provato impostando manualmente tutti i subtiming nell'apposita schermata del bios?

Inviato dal mio GT-I9300 con Tapatalk 2

paolo.oliva2
08-12-2012, 08:53
esatto...ma quando ho scelto l' FX 8350 era per cimentarmi in sporadici overclock..."per passatempo"...non di certo per particolare esigenze di decodifica/conversione o altro... di certo un fx 8320 o un 6300 non hanno moduli così fortunati... se pensi che avevo puntato all'inizio l' I7 3770k... ripiegare sul top di gamma AMD risparmiando 150€ mi è sembrato già un buon compromesso...:D

Si, chiaro. In pratica... se non per particolarissime esigenze ST, l'averne di piu o di meno, se non sfruttata,, non dice nulla, al contrario dell'MT.
Tra l'altro... guardando le differenze tra il 3770K ed il 2600K in MT, mi sembra che l'8350 def dovrebbe superare il 2600K, o comunque almeno pareggiare... e visto che non c'e' molta convinzione di upgrade da chi ha un 2600K verso un 3770K, visto vantaggi/costi, non vedo perche' la scelta 8350/8320/6300/4300 la si dovrebbe pensarla peggiore, anche verso un 3570K

paolo.oliva2
08-12-2012, 08:54
bon boys, 8350 preso negli usa, carina la confezione di metallo...aspetto il mio ritorno (il 16 di dicembre) per giocarci un pò!

Non te ne pentirai

LS1987
08-12-2012, 11:39
[...]

Se ne ricava che... c'è qualche minima differenza di frame solamente variando la frequenza della cpu alla risoluzione di 1400x900 a dettagli Medi con crossfire abilitato... segno che il gioco non è particolarmente influenzato dalle prestazioni della cpu.

Con la mia configurazione è giocabilissimo in tutte le condizioni... anche se con crossfire abilitato c'è ancora qualche sfarfallio di troppo e qualche microlag che probabilmente verrà risolto con i driver 12.11 ufficiali.
Mettiamoci che il gioco utilizzerà si e no 4 CORE un FX 4300 IMHO basta e avanza.

Felice di aver demolito con qualche screen tutta l'ansia da prestazione che c'è in giro per questo titolo. :D

Poco limitato dalla CPU come Battlefield 3, vero? Dovresti cercare di postare una lista di giochi che vanno bene sia su FX 6300/8320/8350 (puoi simulare le altre CPU disabilitando un modulo da BIOS e riducendo la frequenza) che su i 5/i 7 (per Sandy/Ivy non c'è bisogno di fare la prova, dato che mediamente vanno meglio degli FX nel gaming).

ADAM
08-12-2012, 11:53
con la mia config non riesco ad essere stabile oltre i 1600mhz, e siccome ho la mobo am3+ e le ram def 1866 imputo che il problema sia la cpu, non vedo l'ora di poter mettere su un PD, ma l'eventuale PD2.0 mi frena un po, non acquisto sempre per sfizio :p


questo il link dal forum GIGABYTe UK -> http://forum.giga-byte.co.uk/index.php/topic,2515.0.html

per arrivare a 1600 hai fatto OC oppure solo cambiato i parametri delle RAM ? di base te le metteva a 1333 ?

filo mc-ati crossfire
08-12-2012, 12:15
Ma hai provato impostando manualmente tutti i subtiming nell'apposita schermata del bios?

Inviato dal mio GT-I9300 con Tapatalk 2
SI si,poi sono riuscito ad andare oltre i 1900 con timing 12-13-12-30,meno non andavano! sto ripiegando sulle kingstone hyper x predator da 2400,visto il prezzo troppo buono!

Salvoxx
08-12-2012, 12:23
ammazza che mole di screen :D
comunque dal momento che i giochi iniziano ad utilizzare 4 core per fare un pc nuovo senza risparmiare troppo mi dirotterei o su un FX-6xxx oppure su un i5-3470, gli i3 e gli FX-4xxx per quello che costano non sono molto sensati a meno di pc a basso costo chiaro, ma con 10/20€ in più si prende la fascia dopo, per pc entry level molto meglio ancora i vecchi phenom II x4 a 80 euro...
comunque grazie, ho qualche speranza in più per questo gioco :)

ps ma come ti trovi con il cross di 6870? ci avevo pensato, ma poi ho lasciato perdere data la cpu poco potente... risp anche in pvt se ti va...

beh anchio con un budget ridotto cercherei di sborsare una 15na di euro in più per assicurarmi un altro modulo piledriver nel processore.... anche perchè i core AMD FX non sono completi a causa dell'unità Floating point condivisa...

il cross di 6870 va bene... e ho pensato che fosse una configurazione video ancora molto valida affiancata all'FX8350... l'unica pecca è che l'ottimizzazzione dei driver catalyst sui nuovi titoli per poterlo sfruttare a pieno è un pò lenta...ma le cose sembrano migliorare rispetto al passato...

Una 6870 consuma meno di una 7870, consuma meno di una 5870, ed è ancora una delle configurazioni CROSSFIRE/SLI che scala meglio le performances...quasi un X2 netto in tutte le situazioni... con una potenza di calcolo finale paragonabile ad una HD 7970... e consumi forse di poco superiori...

Poco limitato dalla CPU come Battlefield 3, vero? Dovresti cercare di postare una lista di giochi che vanno bene sia su FX 6300/8320/8350 (puoi simulare le altre CPU disabilitando un modulo da BIOS e riducendo la frequenza) che su i 5/i 7 (per Sandy/Ivy non c'è bisogno di fare la prova, dato che mediamente vanno meglio degli FX nel gaming).

ad avere tempo... ci passerei anche una giornata a fare questi smanettamenti! :D Cmq per il momento posso dirti che il thuban che avevo prima con due core disabilitati nel multiplayer di BF3 in full hd con dettagli quasi al massimo mi faceva perdere una decina di fps abbondanti rispetto alla configurazione originale a 6 core... ed avveniva...anche overcloccando i 4 core funzionanti...! Quindi... c'è da dire che i titoli recenti vanno sviluppandosi sempre più verso il MT come un pò tutte le applicazioni...

Amd non ci ha visto proprio male con l'archittettura FX...anche se momentaneamente i titoli ben ottimizzati in tal senso si contano sulla punta delle dita.

MaRtH
08-12-2012, 13:59
Poco limitato dalla CPU come Battlefield 3, vero? Dovresti cercare di postare una lista di giochi che vanno bene sia su FX 6300/8320/8350 (puoi simulare le altre CPU disabilitando un modulo da BIOS e riducendo la frequenza) che su i 5/i 7 (per Sandy/Ivy non c'è bisogno di fare la prova, dato che mediamente vanno meglio degli FX nel gaming).

Battlefield 3 singleplayer è gpu dipendende, ma bf3 multiplayer fidati che è molto esoso di cpu... ;)

L4ky
08-12-2012, 14:04
Mi unisco al club di possessori di AMD FX!

Più precisamente ho preso un FX 8320, montato su AsRock 990FX Extreme 3 e 8Gb corsair vengeance 1866.

Non ho ancora avuto tempo di fare OC come si deve, posso solo dirvi che ho messo il molti a 21.5 senza variare vcore e ingame non ho avuto problemi!!

Se avete consigli da darmi, sono ben accetti!

filo mc-ati crossfire
08-12-2012, 14:08
Mi unisco al club di possessori di AMD FX!

Più precisamente ho preso un FX 8320, montato su AsRock 990FX Extreme 3 e 8Gb corsair vengeance 1866.

Non ho ancora avuto tempo di fare OC come si deve, posso solo dirvi che ho messo il molti a 21.5 senza variare vcore e ingame non ho avuto problemi!!

Se avete consigli da darmi, sono ben accetti!
credo che ancora puoi un po' salire senza toccare nulla!

L4ky
08-12-2012, 14:25
credo che ancora puoi un po' salire senza toccare nulla!

Bene! Ci proverò!

Ah, per ora ho dovuto mettere il dissi stock della AMD, perchè purtroppo avevo finito la pasta termica per montare il freezer xtreme. Ora me la procuro, poi lo rimonto.

Che dite, tengo il Freezer Xtreme o c'è qualcosa di meglio senza spendere tanto?

Grizlod®
08-12-2012, 14:39
......
Con la mia configurazione è giocabilissimo in tutte le condizioni... anche se con crossfire abilitato c'è ancora qualche sfarfallio di troppo e qualche microlag che probabilmente verrà risolto con i driver 12.11 ufficiali. Non so se con i catalist 12.11 beta 11 hai risolto, ma potrebbe essere anche una non perfetta interazione fra cpu e controller pci-express, per cui, mi sentirei di consigliarti di integrare il registry-tweak, che ho in firma. Mi hanno già confemato (per MP) di aver risolto problemi di lags coi videogiochi.

Mettiamoci che il gioco utilizzerà si e no 4 CORE un FX 4300 IMHO basta e avanza.
Potresti verificarlo con il taskmanager in background ed i gioco finestrato, osservando la percentuale di utilizzo della cpu.

paolo.oliva2
08-12-2012, 16:25
beh anchio con un budget ridotto cercherei di sborsare una 15na di euro in più per assicurarmi un altro modulo piledriver nel processore.... anche perchè i core AMD FX non sono completi a causa dell'unità Floating point condivisa...

il cross di 6870 va bene... e ho pensato che fosse una configurazione video ancora molto valida affiancata all'FX8350... l'unica pecca è che l'ottimizzazzione dei driver catalyst sui nuovi titoli per poterlo sfruttare a pieno è un pò lenta...ma le cose sembrano migliorare rispetto al passato...

Una 6870 consuma meno di una 7870, consuma meno di una 5870, ed è ancora una delle configurazioni CROSSFIRE/SLI che scala meglio le performances...quasi un X2 netto in tutte le situazioni... con una potenza di calcolo finale paragonabile ad una HD 7970... e consumi forse di poco superiori...



ad avere tempo... ci passerei anche una giornata a fare questi smanettamenti! :D Cmq per il momento posso dirti che il thuban che avevo prima con due core disabilitati nel multiplayer di BF3 in full hd con dettagli quasi al massimo mi faceva perdere una decina di fps abbondanti rispetto alla configurazione originale a 6 core... ed avveniva...anche overcloccando i 4 core funzionanti...! Quindi... c'è da dire che i titoli recenti vanno sviluppandosi sempre più verso il MT come un pò tutte le applicazioni...

Amd non ci ha visto proprio male con l'archittettura FX...anche se momentaneamente i titoli ben ottimizzati in tal senso si contano sulla punta delle dita.

Guarda... il problema e', secondo me, che non si puo' prendere i bench delle varie testate e considerarle come oro colato. Cioe', non e'che siano falsi, ma semplicemente non rispecchiano lo stesso scenario di noi comuni mortali.
Una cosa e' l'avere l'S.O. lindo senza aver installato una mazza e fare un bench, tutt'altra cosa gia' avere un antivirus installato, e loro non l'hanno di sicuro... ne' tantomeno MSN che pingasotto, ne' adobe che cerca costantemente aggiornamenti, ne' pcsuite di Nokia... ma uno qualunque tutte queste cose le ha ed e' proprio questo il punto...
E' un controsenso associare la ricerca dell'IPC maggiore se poi gambizziamo il sistema con un procio che ha un numer massimo di TH risolvibili uguale al gioco...

Usarlo cosi', si dovrebbe avere 2 boot distinti, un S.O. con esclusivamnte i giochi e l'altro con tutto.

L4ky
08-12-2012, 16:38
Test veloce veloce:

3500 Mhz a vcore def

Cinebench 64bit 5.80

4500 Mhz a 1.40v (sparato un po a caso perchè con 1.36 crash)

Cinebench 64bit 7.52 :eek:

E' fantastico! Cambi il molti, aumenti un pelo vcore e ti ritrovi 29% in più di prestazione a fronte di un aumento del 28% di frequenza!

shellx
08-12-2012, 17:41
Test veloce veloce:

3500 Mhz a vcore def

Cinebench 64bit 5.80

4500 Mhz a 1.40v (sparato un po a caso perchè con 1.36 crash)

Cinebench 64bit 7.52 :eek:

E' fantastico! Cambi il molti, aumenti un pelo vcore e ti ritrovi 29% in più di prestazione a fronte di un aumento del 28% di frequenza!

Scendi il vcore a 1,39 e ti dovrebbe reggere la stessa freq. come ho fatto io. Ovviamente tutto questo senza ottimizzare nulla (nb,mc,ram e affini). MA non esagerare con il vcore se hai dissi stock. Anzi sei fortunato se io scendo a 1,38v, i 4,5ghz non me li regge Rock Solid.

Comunque le temperature d'ambiente adesso sono molto piu basse, dovrei provare a salire 4,6ghz vediamo con che vcore però.

L4ky
08-12-2012, 18:35
Scendi il vcore a 1,39 e ti dovrebbe reggere la stessa freq. come ho fatto io. Ovviamente tutto questo senza ottimizzare nulla (nb,mc,ram e affini). MA non esagerare con il vcore se hai dissi stock. Anzi sei fortunato se io scendo a 1,38v, i 4,5ghz non me li regge Rock Solid.

Comunque le temperature d'ambiente adesso sono molto piu basse, dovrei provare a salire 4,6ghz vediamo con che vcore però.

Ci proverò! Spero di avere fortuna perchè fin'ora sempre CPU sfigatissime mi son beccato :(

Devo fare un bel format però perchè win8 da i numeri ( prima vedeva 8gb di ram e ne dava 4 utilizzabili, ora 7.25 e altri problemi )

paolo.oliva2
08-12-2012, 19:27
Test veloce veloce:

3500 Mhz a vcore def

Cinebench 64bit 5.80

4500 Mhz a 1.40v (sparato un po a caso perchè con 1.36 crash)

Cinebench 64bit 7.52 :eek:

E' fantastico! Cambi il molti, aumenti un pelo vcore e ti ritrovi 29% in più di prestazione a fronte di un aumento del 28% di frequenza!

Pensare che per le aspettative AMD l'8*20 doveva essere 95W TDP e solamente il top degli X8 a 125W TDP... se il silicio avesse rispettato le aspettative...

Guardando un 8150, nessuno credeva possibili addirittura 4GHz def per 125W TDP, eppure sappiamo che gran parte se non tutto il vantaggio di Piledriver su Zambesi e' dovuto alla gestione dei clock.
Sarebbe stato interessante SE l'8150 fosse stato 4,2GHZ def... Piledriver + gestione dei clock, veramente avremmo potuto avere a def un 4,6GHz e 5,2GHz come frequenza massima...
Sembra assurdo, ma proviamo ad immaginare che tra IPC e frequenze superiori un 8350 riesce a superare a def quello che uno 8150 faceva i n OC... quindi se tutto fosse andato per il verso giusto, quello che si fa oggi con un 8350 in OC sarebbe stato vicino ad un BD X8 con un silicio normale :eek:

beee
09-12-2012, 07:42
Ho montato giovedì sera il 8350, ed ho avuto poco tempo per fare prove, ma i risultati mi sembrano gia buoni!
4.7ghz con 1.375 di vcore (cpuz rileva 1.420v con tutti i core in full), nb a 12x @1.225..... con cool'n'quiet attivo e AMDmsrTweaker, in idle se ne sta buono buono a 800mhz@0.8volts! Col NB a 2600mhz ho gia dei crash a 4.4ghz, anche aumentando il vcore e vNB non spariscono.... a 2400 tutto ok!
Ho il wattmetro montato sulla ciabatta, e vedo i consumi del pc (monitor escluso).... 95-98w in idle contro i 110 circa del 1075t, e 225 in ful contro circa lo stesso valore per il 1075t (4.1ghz). Cinebench mi da 7.98 contro 7.31 del 1075t.
Son contento, ho perso al massimo 3 ore a far prove e gia mi va piu che bene! Non male questo piledriver!

Dimenticavo: anche voi avete aumenti di temperatura repentini al passaggio tra idle e full? intendo 25° in idle e oltre 50° dopo qualche secondo di full (rilevato con coretemp).

filo mc-ati crossfire
09-12-2012, 10:32
Ho montato giovedì sera il 8350, ed ho avuto poco tempo per fare prove, ma i risultati mi sembrano gia buoni!
4.7ghz con 1.375 di vcore (cpuz rileva 1.420v con tutti i core in full), nb a 12x @1.225..... con cool'n'quiet attivo e AMDmsrTweaker, in idle se ne sta buono buono a 800mhz@0.8volts! Col NB a 2600mhz ho gia dei crash a 4.4ghz, anche aumentando il vcore e vNB non spariscono.... a 2400 tutto ok!
Ho il wattmetro montato sulla ciabatta, e vedo i consumi del pc (monitor escluso).... 95-98w in idle contro i 110 circa del 1075t, e 225 in ful contro circa lo stesso valore per il 1075t (4.1ghz). Cinebench mi da 7.98 contro 7.31 del 1075t.
Son contento, ho perso al massimo 3 ore a far prove e gia mi va piu che bene! Non male questo piledriver!

Dimenticavo: anche voi avete aumenti di temperatura repentini al passaggio tra idle e full? intendo 25° in idle e oltre 50° dopo qualche secondo di full (rilevato con coretemp).

per il fattore temp,si anche io col mio,( bulldzr) credo sia normale,cmq non fidarti delle temp in idle,io col mio sono arrivato a toccare 4° in idle,ma credo sia fisicamente impossibile per la cpu!

beee
09-12-2012, 10:55
per il fattore temp,si anche io col mio,( bulldzr) credo sia normale,cmq non fidarti delle temp in idle,io col mio sono arrivato a toccare 4° in idle,ma credo sia fisicamente impossibile per la cpu!

In verità il sensore della mobo sballa di brutto, a coretemp ho impostato un offset di 24°.....anche col precedente processore l'offset era attorno a 18°!
Il bios mi da temperature sui 26-28°, e con l'offset rilevo appunto circa 25-27° in idle....e sale a 50° in un attimo, per poi assestarsi (in full) sui 55-56°, temperature mi pare 'logiche' (sono ad acqua).
SEnza offset coretemp rileva 0°.....vabbè che in camera non ho caldo, ma ci sono comunque 16-17°.....

Wolfhang
09-12-2012, 12:16
Si, chiaro. In pratica... se non per particolarissime esigenze ST, l'averne di piu o di meno, se non sfruttata,, non dice nulla, al contrario dell'MT.
Tra l'altro... guardando le differenze tra il 3770K ed il 2600K in MT, mi sembra che l'8350 def dovrebbe superare il 2600K, o comunque almeno pareggiare... e visto che non c'e' molta convinzione di upgrade da chi ha un 2600K verso un 3770K, visto vantaggi/costi, non vedo perche' la scelta 8350/8320/6300/4300 la si dovrebbe pensarla peggiore, anche verso un 3570K

io non credo che l'8350 abbia raggiunto a default il 2600 (e parliamo di quasi 2 anni) ma appena si overclocca siamo su un altro livello (non solo come consumi), e visto che continui a dire che gli intel scalano male ti faccio vedere un bench di winrar con delle normalissime ram a 1866

http://img819.imageshack.us/img819/4029/winrar420.png

MaRtH
09-12-2012, 12:44
io non credo che l'8350 abbia raggiunto a default il 2600 (e parliamo di quasi 2 anni) ma appena si overclocca siamo su un altro livello (non solo come consumi), e visto che continui a dire che gli intel scalano male ti faccio vedere un bench di winrar con delle normalissime ram a 1866

http://img819.imageshack.us/img819/4029/winrar420.png


Un i7 2600 seppur relativamente di poco, è superiore a un fx qualsiasi...

L4ky
09-12-2012, 12:56
io non credo che l'8350 abbia raggiunto a default il 2600 (e parliamo di quasi 2 anni) ma appena si overclocca siamo su un altro livello (non solo come consumi), e visto che continui a dire che gli intel scalano male ti faccio vedere un bench di winrar con delle normalissime ram a 1866

http://img819.imageshack.us/img819/4029/winrar420.png

Si ok, sicuramente intel va meglio, ma andiamo a vedere il rapporto prezzo/prestazioni: è quello che conta.

Ho speso la metà di un 2600k per un FX 8320 ma le prestazioni NON sono la metà...

Wolfhang
09-12-2012, 13:34
Si ok, sicuramente intel va meglio, ma andiamo a vedere il rapporto prezzo/prestazioni: è quello che conta.

Ho speso la metà di un 2600k per un FX 8320 ma le prestazioni NON sono la metà...

ma è in questo thread che si continua a tirare in ballo il 2600k/3770k quando ci si deve confrontare con altri processori...

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/4/

isomen
09-12-2012, 15:07
Per quanto in qualcosa le cpu intel siano ancora superiori il rapporto prezzo/prestazioni é tornato a favore di amd:
http://www.hwupgrade.it/articoli/cpu/3409/amd-fx-8350-la-seconda-generazione-di-cpu-fx_6.html
la differenza di prezzo é superiore alla differenza di prestazioni.

;) CIAUZ

-Maxx-
09-12-2012, 16:26
Per quanto in qualcosa le cpu intel siano ancora superiori il rapporto prezzo/prestazioni é tornato a favore di amd:
http://www.hwupgrade.it/articoli/cpu/3409/amd-fx-8350-la-seconda-generazione-di-cpu-fx_6.html
la differenza di prezzo é superiore alla differenza di prestazioni.

;) CIAUZ

Con l'8350 hanno raddrizzato un po' il tiro, a quanto vedo :)

MaRtH
09-12-2012, 17:20
Ho appena provato BF3 sull'fx8320 dopo aver formattato per cambio cpu+mobo+ram, rispetto a prima sembra tutto un'altro gioco, di media ad occhio e croce a parità di settings ho guadagnato un 15-20fps, finalmente non sono più cpu limited, in fullhd per lo meno... Per ora soddisfattissimo davvero dei nuovi acquisti... :)

PS. Precedente Q9400 @ 3200Mhz + p45 + 2x2gb ddr2...

L4ky
09-12-2012, 17:43
Ho appena provato BF3 sull'fx8320 dopo aver formattato per cambio cpu+mobo+ram, rispetto a prima sembra tutto un'altro gioco, di media ad occhio e croce a parità di settings ho guadagnato un 15-20fps, finalmente non sono più cpu limited, in fullhd per lo meno... Per ora soddisfattissimo davvero dei nuovi acquisti... :)

PS. Precedente Q9400 @ 3200Mhz + p45 + 2x2gb ddr2...

Anche io oggi ho formattato dopo aver cambiato cpu mobo e ram. Nuovi componenti in firma

Prima avevo amd 9650 @ 2.3ghz e 2gb ram, il guadagno è sicuramente elevato ma non lo so quantificare ora.

Soddisfatissimo pure io!

Athlon 64 3000+
09-12-2012, 18:23
Ho appena provato BF3 sull'fx8320 dopo aver formattato per cambio cpu+mobo+ram, rispetto a prima sembra tutto un'altro gioco, di media ad occhio e croce a parità di settings ho guadagnato un 15-20fps, finalmente non sono più cpu limited, in fullhd per lo meno... Per ora soddisfattissimo davvero dei nuovi acquisti... :)

PS. Precedente Q9400 @ 3200Mhz + p45 + 2x2gb ddr2...

Per curiosità con il tuo nuovo FX-8320+ HD 7870 quanti fps fai e on che settaggio?
Mi sembra di capire che come risoluzione usi la 1920x1080.

shellx
10-12-2012, 17:04
Aggiornamento: con le nuove temperature ambiente riesco adesso a tenere i 4,5ghz a 1,38v, ma i 4,6ghz sembrano un taboo anche oltre gli 1,39v :confused:

paolo.oliva2
10-12-2012, 18:01
io non credo che l'8350 abbia raggiunto a default il 2600 (e parliamo di quasi 2 anni) ma appena si overclocca siamo su un altro livello (non solo come consumi), e visto che continui a dire che gli intel scalano male ti faccio vedere un bench di winrar con delle normalissime ram a 1866

http://img819.imageshack.us/img819/4029/winrar420.png

Io per scalabilità intendevo con l'aumentare dei core (mi hai quotato nel mio discorso X10 e X12, mi sembra palese che parlassi di core e non di OC) non l'OC, e con l'aumentare del numero dei core sia l'architettura vecchia di 10 anni del Phenom II che con quella Buldozer, la scalabilità è sempre meglio di Intel.

ma è in questo thread che si continua a tirare in ballo il 2600k/3770k quando ci si deve confrontare con altri processori...

http://www.computerbase.de/artikel/prozessoren/2012/test-amd-fx-8350-vishera/4/

Guarda... che Intel sia superiore ad AMD qui non lo rinnega nessuno, soltanto che mi sembra almeno passato di moda voler enfatizzare differenze di prestazioni uncamente per giustificare una differenza di prezzo che è palese.

Guardando i bench postati da chi ha un 8350, nei giochi la differenza è minima, ma per eguagliare un 8350 in MT, Intel NON OFFRE NULLA di più economico. Ed è su questo che si basa la mia considerazione... perchè se nel 95% ad essere di manica stretta, un FX va bene tanto quanto un Intel nei giochi, nel resto, considerando che rimane unicamente l'MT, un 8320 offre molto di più del listino equivalente Intel.

Vogliamo continuare all'infinito sta farsa? A leggere 1000 post, non capisco perchè chi ha un procio Intel si avvale sempre di test "selezionati" di varie testate, e SISTEMATICAMENTE ignora chi posta i suoi, "casalinghi" sul procio AMD appena comprato... Praticamente sembra quasi che chi ha comprato un AMD posti il falso per infangare il nome Intel... invece io vedo che nessuno si è pentito dell'acquisto ed, anzi, anche chi ha cambiato "sponda" è felicissimo...

P.S.
A prescindere da quanto scritto sopra, le medie dei bench delle varie testate sono fuorvianti già di principio... Uno non comprerà MAI un 12 TH o 8TH per fare ESCLUSIVAMENTE giochi. Non si possono più fare medie (come le varie testate) tra un 50% di programmi ST e 50% di programmi MT. Non siamo più nell'era di 1 core a procio o al limite di 2... un 8TH nativo non è del 50% più potente di un 4TH nativo, ma lo e' del 100%, semplicemente perchè se l'acquisto è ponderato, lo si sfrutterà per l'MT, quindi che valore ha l'IPC quando già di principio è un valore riferito ad 1 core? Se uno guardasse solo a questo, un i3 sarebbe più potente di un Sbe X6, tra l'altro poi, considerando che l'IPC riporta un valore che viene considerato a parità di frequenza, che senso ha quando tra un Intel ed un AMD la differenza di frequenza def è del 12,5%, mica una paglia.

-Maxx-
10-12-2012, 18:42
Aggiornamento: con le nuove temperature ambiente riesco adesso a tenere i 4,5ghz a 1,38v, ma i 4,6ghz sembrano un taboo anche oltre gli 1,39v :confused:

Non si può dire che va lento :p

nardustyle
10-12-2012, 19:09
Salve mi si è fuso il 1100t e sto valutando di passare al 8350, sapete se ci sono recensioni che testino photoshop o altri programmi adobe rispetto al pII ... qcn di voi usa la suite adobe ?? Avete notato miglioramenti ?? Il 1100 lo tenevo a 4.2/4.3 ghz da quando l' ho preso e mi ha detto addio :-( Avrò un qualche miglioramento ? Altrimenti ne cerco uno usato

Inviato dal mio GT-N7000 con Tapatalk 2

MaRtH
10-12-2012, 19:09
Per curiosità con il tuo nuovo FX-8320+ HD 7870 quanti fps fai e on che settaggio?
Mi sembra di capire che come risoluzione usi la 1920x1080.


1920x1080, preset "ULTRA", config esattamente da sign, mooolto ma mooolto raramente scendo sotto i 50 fps...

Grizlod®
10-12-2012, 19:33
Salve mi si è fuso il 1100t e sto valutando di passare al 8350, sapete se ci sono recensioni che testino photoshop o altri programmi adobe rispetto al pII ... qcn di voi usa la suite adobe ?? Avete notato miglioramenti ?? Il 1100 lo tenevo a 4.2/4.3 ghz da quando l' ho preso e mi ha detto addio :-( Avrò un qualche miglioramento ? Altrimenti ne cerco uno usato

Inviato dal mio GT-N7000 con Tapatalk 2Più che altro usa la GPU:
http://www.amd.com/us/press-releases/Pages/amd-and-adobe-creative-suite-6-2012apr23.aspx

Cmq ormai credo che un po tutte le suite fotografiche siano compatibili multicore (compreso Paint Shop Pro, che uso...), quindi 2 core in più si faranno sentire, sopratutto se overclocki.

beee
10-12-2012, 19:39
Salve mi si è fuso il 1100t e sto valutando di passare al 8350, sapete se ci sono recensioni che testino photoshop o altri programmi adobe rispetto al pII ... qcn di voi usa la suite adobe ?? Avete notato miglioramenti ?? Il 1100 lo tenevo a 4.2/4.3 ghz da quando l' ho preso e mi ha detto addio :-( Avrò un qualche miglioramento ? Altrimenti ne cerco uno usato

Inviato dal mio GT-N7000 con Tapatalk 2

Passando dal 1075t@4.1ghz, al 8350 attualmente a 4.8ghz, la differenza la vedo... l'impressione è che sia molto piu veloce il passaggio dei p-state....con paint shop pro x2 pare tutto piu veloce in modo per me evidente....

isomen
10-12-2012, 19:53
Salve mi si è fuso il 1100t e sto valutando di passare al 8350, sapete se ci sono recensioni che testino photoshop o altri programmi adobe rispetto al pII ... qcn di voi usa la suite adobe ?? Avete notato miglioramenti ?? Il 1100 lo tenevo a 4.2/4.3 ghz da quando l' ho preso e mi ha detto addio :-( Avrò un qualche miglioramento ? Altrimenti ne cerco uno usato

Inviato dal mio GT-N7000 con Tapatalk 2

Io nn uso photoshop ma ho ancora un 1090 che é RS fino a 4,3 e posso dirti che l'8350 a 4,8 é superiore in tutto al thuban, a perità di core a zambesi servono 4/500mhz in più per pareggiare ma a vishera no e se metti frequenza e core in più é superiore.

;) CIAUZ

nardustyle
10-12-2012, 21:04
credevo di aver fatto fuori la mobo e ho preso la sabertooth, ma ho visto che il prob alla fine è del procio.... domani ordino il 8350 se come dite per pareggiare le prestazioni del 1100 a 4.2 dovrei tenere l'FX a 200mhz in più, con il boost dato dalla miglior reattività...
al lavoro uso uno xeon e1650 3.2/3.8ghz che è un 30% più veloce del mio defunto quando era overckloccato:cry: quasi impossibile arrivarci nemmeno con il 8350 a 4.8/5 ghz certo che a meno di metà prezzo ho un 20% in meno di prestazioni .... non male per una workstation casalinga ... :D

Grizlod: il cs6 ha fatto un passo in avanti con l'open-cl ma molte cose (su indesign e illustrator soprattutto) sono ancora molto cpu dipendenti.

theProix87
10-12-2012, 21:37
Più che altro usa la GPU:
http://www.amd.com/us/press-releases/Pages/amd-and-adobe-creative-suite-6-2012apr23.aspx

Cmq ormai credo che un po tutte le suite fotografiche siano compatibili multicore (compreso Paint Shop Pro, che uso...), quindi 2 core in più si faranno sentire, sopratutto se overclocki.

Uso la suite adobe per lavoro quasi tutti i giorni, occupandomi di grafica e di video.
Adobe con l'8350 è migliorato, se cerchi in rete ci sono anche dei test, e molto spesso sta vicino al top intelin photoshop, lo sfrutta abbastanza bene...

La grafica o la GPU serve per accellerare delle funzioni, o ad attivarne altre, non è sempre attiva, e funziona solo in determinate occasioni, ad esempio zommando in modo fluido spostando il mouse a dx o a sx, su pittura ad olio ect ect...
Premiere invece, sfrutta quasi per niente la GPU AMD, se hai un geforce stai gia 5 passi avanti, dato che la grafica integrata che sfrutta i cuda in premiere conta moltissimo, per quanto riguarda i tempi d'esportazione, ho comunque notato miglioramenti rispetto al mio predecessore 1100t, dato che sfrutto tutti e 8 i core dell' 8350, credo che è uno dei pochi programmi che sfrutta molto i multi core, se facessero un x10 sfrutterebbe anche quelli, quindi si il miglioramento c'è... solo nei game, o nelle applicazioni che sfruttano 1-2-3 core, si nota o quasi non si nota la differenza. ;)

paolo.oliva2
10-12-2012, 22:04
credevo di aver fatto fuori la mobo e ho preso la sabertooth, ma ho visto che il prob alla fine è del procio.... domani ordino il 8350 se come dite per pareggiare le prestazioni del 1100 a 4.2 dovrei tenere l'FX a 200mhz in più, con il boost dato dalla miglior reattività...
al lavoro uso uno xeon e1650 3.2/3.8ghz che è un 30% più veloce del mio defunto quando era overckloccato:cry: quasi impossibile arrivarci nemmeno con il 8350 a 4.8/5 ghz certo che a meno di metà prezzo ho un 20% in meno di prestazioni .... non male per una workstation casalinga ... :D

Grizlod: il cs6 ha fatto un passo in avanti con l'open-cl ma molte cose (su indesign e illustrator soprattutto) sono ancora molto cpu dipendenti.

Per il software ti hanno già risposto più che approffonditamente, io ti potrei dare un consiglio per il procio.

Nella media, un 8350 si occa meglio di un 8320, però.... a me sembra che fino ai 4,6GHz occhio e croce sono quasi simili, poi la richiesta di Vcore nell'8320 comincia ad essere sostenuta, mentre l'8350 denota lo stesso comportamento ma con un 200MHz in più almeno... forse 400MHz tra un "sfigatello" 8320 ed un "fortunello" 8350.

Ma questa differenza è per frequenze sopra i 4,6GHz, e valutando che ora siamo in inverno, è probabile che con l'estate la frequenza RS DU la si dovrà abbassare per forza, al che, considerando un 4,6GHz RS/DU invernale con tutta probabilità cambierebbe in 4,5GHz almeno in estivo... penso che 100MHz di differenza tra un 8320 ed un 8350 sarebbero anche molti.

Io per i 4,6GHz con l'8350 ci devo dare 1,4V almeno, e sono a liquido con una CF-V ed un ali da 850W Arkangel... mentre leggevo che c'è chi con un 8320 alla stessa mia frequenza ci da' un Vcore inferiore... quello che cambia è che io posso benchare a 5,217GHz mentre al momento non ho visto 8320 arrivare a quella frequenza...

L4ky
10-12-2012, 22:09
Per il software ti hanno già risposto più che approffonditamente, io ti potrei dare un consiglio per il procio.

Nella media, un 8350 si occa meglio di un 8320, però.... a me sembra che fino ai 4,6GHz occhio e croce sono quasi simili, poi la richiesta di Vcore nell'8320 comincia ad essere sostenuta, mentre l'8350 denota lo stesso comportamento ma con un 200MHz in più almeno... forse 400MHz tra un "sfigatello" 8320 ed un "fortunello" 8350.

Ma questa differenza è per frequenze sopra i 4,6GHz, e valutando che ora siamo in inverno, è probabile che con l'estate la frequenza RS DU la si dovrà abbassare per forza, al che, considerando un 4,6GHz RS/DU invernale con tutta probabilità cambierebbe in 4,5GHz almeno in estivo... penso che 100MHz di differenza tra un 8320 ed un 8350 sarebbero anche molti.

Di sicuro gli 8320 sono i 8350 di "scarto", ma non penso siano così male.
Aspetta che monto il Freezer Xtreme e vedi quanto mi metto sotto a occare!

Ah, update:
Aggiornato il BIOS da 1.40 a 1.50. Ottimo lavoro AsRock! Finalmente l interfaccia UEFI è veloce e reattiva! Notevole ora la grafica!
Appena ho un attimino di tempo esploro tutto per bene e vi faccio sapere ;)

Salvoxx
11-12-2012, 08:32
Guarda... che Intel sia superiore ad AMD qui non lo rinnega nessuno, soltanto che mi sembra almeno passato di moda voler enfatizzare differenze di prestazioni uncamente per giustificare una differenza di prezzo che è palese.

Guardando i bench postati da chi ha un 8350, nei giochi la differenza è minima, ma per eguagliare un 8350 in MT, Intel NON OFFRE NULLA di più economico. Ed è su questo che si basa la mia considerazione... perchè se nel 95% ad essere di manica stretta, un FX va bene tanto quanto un Intel nei giochi, nel resto, considerando che rimane unicamente l'MT, un 8320 offre molto di più del listino equivalente Intel.

Vogliamo continuare all'infinito sta farsa? A leggere 1000 post, non capisco perchè chi ha un procio Intel si avvale sempre di test "selezionati" di varie testate, e SISTEMATICAMENTE ignora chi posta i suoi, "casalinghi" sul procio AMD appena comprato... Praticamente sembra quasi che chi ha comprato un AMD posti il falso per infangare il nome Intel... invece io vedo che nessuno si è pentito dell'acquisto ed, anzi, anche chi ha cambiato "sponda" è felicissimo...

P.S.
A prescindere da quanto scritto sopra, le medie dei bench delle varie testate sono fuorvianti già di principio... Uno non comprerà MAI un 12 TH o 8TH per fare ESCLUSIVAMENTE giochi. Non si possono più fare medie (come le varie testate) tra un 50% di programmi ST e 50% di programmi MT. Non siamo più nell'era di 1 core a procio o al limite di 2... un 8TH nativo non è del 50% più potente di un 4TH nativo, ma lo e' del 100%, semplicemente perchè se l'acquisto è ponderato, lo si sfrutterà per l'MT, quindi che valore ha l'IPC quando già di principio è un valore riferito ad 1 core? Se uno guardasse solo a questo, un i3 sarebbe più potente di un Sbe X6, tra l'altro poi, considerando che l'IPC riporta un valore che viene considerato a parità di frequenza, che senso ha quando tra un Intel ed un AMD la differenza di frequenza def è del 12,5%, mica una paglia.

quotone galattico.:D

Salvoxx
11-12-2012, 09:38
io non credo che l'8350 abbia raggiunto a default il 2600 (e parliamo di quasi 2 anni) ma appena si overclocca siamo su un altro livello (non solo come consumi), e visto che continui a dire che gli intel scalano male ti faccio vedere un bench di winrar con delle normalissime ram a 1866

http://img819.imageshack.us/img819/4029/winrar420.png

Aggiungo che a parità di frequenza è normale che intel stia sopra... ipc è superiore non è una novità... ecco uno shot a 4400MHz...

Il tuo i7 2600 processa 11400kb/s circa il mio FX 8350 9300kb/s circa...


http://img11.imagevenue.com/loc593/th_211759297_winrar_122_593lo.jpg (http://img11.imagevenue.com/img.php?image=211759297_winrar_122_593lo.jpg)


Ma se vogliamo cantare tutta la messa io sono a 4400MHz con 0,05V di undervolt... tu sei con 1000MHz di overclock...io quasi @ default !!!...

Che succede se noi possessori di fx8350 facciamo lo stesso test a 5200MHz??...

Il gap reale è sui consumi... prestazioni a parità di overclock...sono paragonabili fidati... magari Paolo ci fà un bello shot a 5200Mhz con il suo FX... così ci leviamo sto pensiero... :D

Per ora io non ho tempo...:mad:

LurenZ87
11-12-2012, 10:28
Per il software ti hanno già risposto più che approffonditamente, io ti potrei dare un consiglio per il procio.

Nella media, un 8350 si occa meglio di un 8320, però.... a me sembra che fino ai 4,6GHz occhio e croce sono quasi simili, poi la richiesta di Vcore nell'8320 comincia ad essere sostenuta, mentre l'8350 denota lo stesso comportamento ma con un 200MHz in più almeno... forse 400MHz tra un "sfigatello" 8320 ed un "fortunello" 8350.

Ma questa differenza è per frequenze sopra i 4,6GHz, e valutando che ora siamo in inverno, è probabile che con l'estate la frequenza RS DU la si dovrà abbassare per forza, al che, considerando un 4,6GHz RS/DU invernale con tutta probabilità cambierebbe in 4,5GHz almeno in estivo... penso che 100MHz di differenza tra un 8320 ed un 8350 sarebbero anche molti.

Io per i 4,6GHz con l'8350 ci devo dare 1,4V almeno, e sono a liquido con una CF-V ed un ali da 850W Arkangel... mentre leggevo che c'è chi con un 8320 alla stessa mia frequenza ci da' un Vcore inferiore... quello che cambia è che io posso benchare a 5,217GHz mentre al momento non ho visto 8320 arrivare a quella frequenza...

E baaaaaaaa sta Paolo sù, passa al lato "Oscuro" della Forza, che noi abbiamo i biscotti :asd:

http://www.pixtus.com/forum/attachments/computer-hardware/158731d1336061799-dual-boot-win-7-osx-10-7-3-2bdwls.jpg


scherzi a parte, tutto bene sì??? :)

vi lascio un piccolo regalino per gli smanettoni :D

http://www.overclockers.ru/lab/51003/Izuchenie_njuansov_razgona_processorov_AMD_Vishera.html

ciauz :)

paolo.oliva2
11-12-2012, 10:36
E' questione di riportare dei dati reali ed obiettivi...
Ad esempio... sulla questione RS/DU... chi potrebbe obiettare se dicessi che un 8350 lo tengo a 5GHz RS/SU? Invece sono uno dei pochi (forse l'unico) che sebbene a liquido, riporta 4,6/4,8GHz, perche' e' il miglior compromesso... non me ne fotte nulla di far credere che ogni 8350 lo si possa tenere a 5GHz def.

Dimonios
11-12-2012, 10:50
Già, concordo, è fatto davvero bene. :eek:

Wolfhang
11-12-2012, 12:28
Aggiungo che a parità di frequenza è normale che intel stia sopra... ipc è superiore non è una novità... ecco uno shot a 4400MHz...
Il tuo i7 2600 processa 11400kb/s circa il mio FX 8350 9300kb/s circa...
Ma se vogliamo cantare tutta la messa io sono a 4400MHz con 0,05V di undervolt... tu sei con 1000MHz di overclock...io quasi @ default !!!...

Che succede se noi possessori di fx8350 facciamo lo stesso test a 5200MHz??..

Il gap reale è sui consumi... prestazioni a parità di overclock...sono paragonabili fidati... magari Paolo ci fà un bello shot a 5200Mhz con il suo FX... così ci leviamo sto pensiero... :D
Per ora io non ho tempo...:mad:

ma che discorsi, guarda che bench a 5100Mhz li ho fatti anch'io e con un misero dissipatore ad aria, qui c'è chi guarda gli 80€ di differenza tra due processori e poi ne spende centinaia per il sistema di dissipazione per spremere 50Mhz in più, dire di essere RS a determinate frequenze quando mai, e dico mai ha fatto vedere un test di stabilità, tu sei bravo a rigirare la frittata, adesso è un pregio avere CPU con un TDP di 125W in modo da tirare al massimo le frequenze a default, mentre è un difetto avere CPU con un TDP di 95W che si possono overcloccare di oltre il 50% e comunque per il test di Paolo con Winrar ti accontento io:
http://www.hwupgrade.it/forum/showpost.php?p=38603441&postcount=400

Salvoxx
11-12-2012, 13:28
Mah...secondo me hai frainteso un pó il senso delle mie parole...Premesso che amd non mi paga facciamo così... Scommettiamo che il tuo 2600 @ default è paragonabile al mio 8350 @ default...sui consumi è impossibile non lodare l'efficienza di intel e l'ho cmq scritto...vediamo se così ti è più chiaro il discorso dei 1000MHz...;)

paolo.oliva2
11-12-2012, 13:47
E baaaaaaaa sta Paolo sù, passa al lato "Oscuro" della Forza, che noi abbiamo i biscotti :asd:

http://www.pixtus.com/forum/attachments/computer-hardware/158731d1336061799-dual-boot-win-7-osx-10-7-3-2bdwls.jpg


scherzi a parte, tutto bene sì??? :)

vi lascio un piccolo regalino per gli smanettoni :D

http://www.overclockers.ru/lab/51003/Izuchenie_njuansov_razgona_processorov_AMD_Vishera.html

ciauz :)
Io mica ci ho capito granche'.
La logica di test vcore nb/ddr3 la posso anche capire...ma a me non mi torna che con 1,25V (contro 1,385/1,4Vdef) l'8350 sia RS a 4GHz... come anche non mi torna l'equazione frequenze=Vcore=temperature, cioe', se a 1,5V Zambesi aveva 50 gradi, concordo che pure Vishera avrebbe 50 gradi... ma Zambesi con 1,5V era sui 4,5GHz circa, Vishera arriva a 5GHz... nei loro grafici, invece, ci sono differenze di 0,05V al massimo...:confused:

Comunque anche loro concordano che il silicio e' cambiato poco o nulla... strano pero' che non parlino mai della gestione dei clock...

paolo.oliva2
11-12-2012, 14:14
...per il test di Paolo con Winrar ti accontento io:
http://www.hwupgrade.it/forum/showpost.php?p=38603441&postcount=400

Piccola precisazione.

Le DDR3 2400 hanno un Vcore 1,65V... io ho sempre applicato 1,2V all'NB.

Spulciando, le DDR3 in questione RICHIEDONO ESPRESSAMENTE 1,25V di tensione MC,. Il calo di performances dovrebbe essere dovuto a degli errori di trasmissione/ricezione dati che, come ben sappiamo, comportano la ri-spedizione dei dati stessi.

Basta seguire la stessa discussione e si trova la stessa spiegazione... purtroppo non ho postato anche i risultati fatti con il nuovo Vcore MC, che avrebbero reso molto piu' semplice il tutto, ma credevo non fosse necessario, visto che a Cinebench ottengo un risultato migliore a 5,217GHz rispetto che a def. (con DDR3 a 1,5V e quindi senza quell'errore)
9/5.217GHz=1.7251294 a GHz
Quel dato moltiplicato per 4GHz da 6,9, che e' quanto fa un 8350 a def con turbo attivo (4,1GHz).

Catan
11-12-2012, 15:26
Oggi ho letto una review interessante su techarena riguardo i 6300 e i 4300.
Premesso che non capisco il motivo di castrare il 4300 in questa maniera con la cache ( o meglio lo capisco, ma a questo punto conveniva fare solo serie 6 e serie 8 e lasciare i 4 core alle apu e basta).
Confermo lo stesso l'impressione che si aveva tra il 6100 e gli 8100, cioè che come prezzo/prestazioni la serie 6 è quella meglio "attrezzata".
Tanto più che dai test sembra che un 6300 riesca a stare sui 4800mhz con lo stesso v-core con cui noi "parliamo" di 4.6 per gli 8350.

Insomma anche adesso se uno dovesse chiedermi il procio "prezzo-prestazioni" gli direi di prendersi un 6300, un dissi di fascia "media" e sparare il procio a 4.8 con nb a 2.4 senza troppi patemi e divertirsi cosi...che va bene per tutto dal multitasking al gaming

nardustyle
11-12-2012, 22:17
Ordinato l' Fx 8350 x raffreddarlo ho il silver arrow che teneva il 1100 a 4.3con max 53 gradi ... vedremo come se la cava con il nuovo fx ... spererei di arrivare a 4.8 .... che pasta termica usate?? ho preso una sabertooth prima edizione e non so che bios abbia.. secondo voi riesco a far partire il bios per aggiornarlo con l' 8350 anche con bios non compatibile ??

Inviato dal mio GT-N7000 con Tapatalk 2

Salvoxx
11-12-2012, 22:28
come pasta io ho la artic silver 5 ... penso che sia difficile trovare di meglio... la mobo che monto io sabertooth r2.0 ha riconosciuto subito la cpu... anche se il bios non è aggiornato non penso che non si avvii proprio.... al massimo riconoscera un processore per un altro con frequenze... sballate...:rolleyes:

paolo.oliva2
12-12-2012, 07:03
Vorrei aprire una discussione sul lato "buio" di Buldozer. :D

C'è una cosa che non mi torna... la predizione dei dati, le pipeline lunghe, i timing delle cache e quant'altro, sappiamo che sono le cose che devono migliorare... però ci deve essere dell'altro,, perchè saturando di lavoro un Buldozer, percentualmente ottengo un funzionamento più ottimizzato nel senso che si arriva a sfruttare di più il procio.

Facendo un esempio con il Thuban.
Cinebench con 6TH si ottiene un risultato... Cinebench con 12TH si ottiene un risultato peggiore, appunto perchè il core dovendo eseguire 2 TH e frazionando i tempi porta ad uno stallo delle pipeline simile ad un errore di predizione.
Se facciamo la stessa cosa con Buldozer, cioè 8TH e 16TH, dovremmo avere un risultato negativo peggiore, perchè al momento la lunghezza delle pipeline è sfavorevole rispetto al clock di lavoro che è inferiore rispetto alle previsioni.

Perchè? :confused:

Quello che non mi torna, è che, sparando dei dati a caso, in MT, con 1 programma un 8150 mettiamo che venga sfruttato al 90%, con 2 programmi al 95% e con 3 programmi supponiamo al 99,99%.
Tra l'altro questo l'avevo ampiamente evidenziato in passato, ma nessuno mi ha "caxato"...
Praticamente, riassumento alla buona, succedeva che 1 8TH ci metteva 1 minuto con temp di 50°, 16TH ci mettevano 1 minuto e 56" , con temp superiori (quindi chiaro esempio di aumento di cambiamento stato transistor) fino ad arrivare che a 24TH circa i tempi comunque aumentavano (simile alla stessa situazione di un Thuban con 16TH).

E' questo il punto che non mi torna... perchè se da 8TH un 8150 lo fai lavorare con 16TH, gli raddoppi il lavoro e quindi raddoppi tutta la parte I/O verso le RAM, le cache L3/L2/L1, obbligatoriamente comunque per eseguire il TH successivo si ricrea lo svuotamento delle pipeline, e secondo questo un BD con 16TH dovrebbe rendere molto meno che con 8TH, ed invece no.

Poi, magari è più semplice se lo vediamo a modulo..., 1TH a modulo mi da' il 100, 2TH a modulo mi danno 180, e fin qui ci siamo, ma allora perchè 3TH/4TH mi danno più di 180?

nardustyle
12-12-2012, 09:21
con l'fx8350 meglio installare win 8 ?? com'è la gestione thread ?? e quella elettrica? problemi con l'oc ?


ordinato le usb frontali e l'artic 5 come pasta termica.... ora mancano le ram intanto metterò le xms3 1333 cl8, mi consigliare delle 1866 cl7/8 però low profile....

TheBestFix
12-12-2012, 09:54
con l'fx8350 meglio installare win 8 ?? com'è la gestione thread ?? e quella elettrica? problemi con l'oc ?


ordinato le usb frontali e l'artic 5 come pasta termica.... ora mancano le ram intanto metterò le xms3 1333 cl8, mi consigliare delle 1866 cl7/8 però low profile....

ho testato l'overclock su w8 e poi su w7 entrambi 64bit, su w8 con cinebench 11.5 in multi si ottiene un punteggio superiore rispetto a seven.... e su questo non c'e' dubbio, pero' ho solo usato questo bench e con le altre applicazioni non so se c'e' differenza.....cmq da una comparativa tra bulldozer e i 2 sistemi operativi emergeva che di sicuro w8 non va peggio del 7 anche se la differenza e' veramente minima..

paolo.oliva2
12-12-2012, 13:38
ho testato l'overclock su w8 e poi su w7 entrambi 64bit, su w8 con cinebench 11.5 in multi si ottiene un punteggio superiore rispetto a seven.... e su questo non c'e' dubbio, pero' ho solo usato questo bench e con le altre applicazioni non so se c'e' differenza.....cmq da una comparativa tra bulldozer e i 2 sistemi operativi emergeva che di sicuro w8 non va peggio del 7 anche se la differenza e' veramente minima..

Per quello che ho potuto fare io, ho solamente testato come win 8 rispondeva in OC rispetto a win7 e per poco di quel che ho visto, non è né peggio né meglio...
Per i bench, non ne ho fatti, ma i miei 9 in Cinebench li ho fatti con win 7, quindi tra passaggio CF V --> CF V-z, S.O. lindo, miglior settaggio NB/DDR3 2400 e qualche aiutino con win 8, dovrei migliorare.

Tra parentesi... vi posso dire in anteprima come si comporterà l'8350 con le temp estive.. :sofico:

Ares17
12-12-2012, 14:25
Vorrei aprire una discussione sul lato "buio" di Buldozer. :D

C'è una cosa che non mi torna... la predizione dei dati, le pipeline lunghe, i timing delle cache e quant'altro, sappiamo che sono le cose che devono migliorare... però ci deve essere dell'altro,, perchè saturando di lavoro un Buldozer, percentualmente ottengo un funzionamento più ottimizzato nel senso che si arriva a sfruttare di più il procio.

Facendo un esempio con il Thuban.
Cinebench con 6TH si ottiene un risultato... Cinebench con 12TH si ottiene un risultato peggiore, appunto perchè il core dovendo eseguire 2 TH e frazionando i tempi porta ad uno stallo delle pipeline simile ad un errore di predizione.
Se facciamo la stessa cosa con Buldozer, cioè 8TH e 16TH, dovremmo avere un risultato negativo peggiore, perchè al momento la lunghezza delle pipeline è sfavorevole rispetto al clock di lavoro che è inferiore rispetto alle previsioni.

Perchè? :confused:

Quello che non mi torna, è che, sparando dei dati a caso, in MT, con 1 programma un 8150 mettiamo che venga sfruttato al 90%, con 2 programmi al 95% e con 3 programmi supponiamo al 99,99%.
Tra l'altro questo l'avevo ampiamente evidenziato in passato, ma nessuno mi ha "caxato"...
Praticamente, riassumento alla buona, succedeva che 1 8TH ci metteva 1 minuto con temp di 50°, 16TH ci mettevano 1 minuto e 56" , con temp superiori (quindi chiaro esempio di aumento di cambiamento stato transistor) fino ad arrivare che a 24TH circa i tempi comunque aumentavano (simile alla stessa situazione di un Thuban con 16TH).

E' questo il punto che non mi torna... perchè se da 8TH un 8150 lo fai lavorare con 16TH, gli raddoppi il lavoro e quindi raddoppi tutta la parte I/O verso le RAM, le cache L3/L2/L1, obbligatoriamente comunque per eseguire il TH successivo si ricrea lo svuotamento delle pipeline, e secondo questo un BD con 16TH dovrebbe rendere molto meno che con 8TH, ed invece no.

Poi, magari è più semplice se lo vediamo a modulo..., 1TH a modulo mi da' il 100, 2TH a modulo mi danno 180, e fin qui ci siamo, ma allora perchè 3TH/4TH mi danno più di 180?

Probabilmente questo è dovuto ai cache miss:
Il rendering opera con struttura di codice lineare, dove le ramificazioni sono abbastanza prevedibili, e se ci sono dei cache miss, quel dato mancante sarà probabilmente mancante in qualche altro th:
per ipotesi se abbiamo 8 th con un incidenza di cache miss del 10% (ipotesi) e totale dei cicli in 1000 avremo che i cache miss incideranno per 100 cicli di tempo cpu a vuoto (praticamente l'esecuzione del th si ferma aspettando i dati dalla ram dovuto al caricamento degli stessi in cache).
Con 16 th invece i cache miss resteranno sempre del 10% sui 1000 cicli (data la ridondanza di codice), ma il 5% su 2000 (perchè i il primo th che ha un fault in cache la ricarica, ed il 2 th invece trova un hit in cache), rendendo apparentemente più performante la cpu, invece che minormente penalizzata dal data prefetch non ottimale.
Prova a raddoppiare le istanze di super pi (8-16 th) e vedi se si ha una resa simile al cinebench (che io sappia il super pi è avvantaggiato da una cache grossa, ma nell'esecuzione non dovrebbero esserci troppi salti al buoi).
Tutto questo secondo il mio personalissimo parere).

TheBestFix
12-12-2012, 14:30
Per quello che ho potuto fare io, ho solamente testato come win 8 rispondeva in OC rispetto a win7 e per poco di quel che ho visto, non è né peggio né meglio...
Per i bench, non ne ho fatti, ma i miei 9 in Cinebench li ho fatti con win 7, quindi tra passaggio CF V --> CF V-z, S.O. lindo, miglior settaggio NB/DDR3 2400 e qualche aiutino con win 8, dovrei migliorare.

Tra parentesi... vi posso dire in anteprima come si comporterà l'8350 con le temp estive.. :sofico:

io sono interessato al tuo punteggio di cinebench sotto win8 a parita' di settaggi, per confermare la differenza di prestazioni che ho avuto io...cmq non appena torno a casa e posso ricominciare i test, voglio provare il tweak sviluppato da grizlod, e vedere se riesco a recuperare il gap...o magari le patch sviluppate per bulldozer sul seven.....anzi qualcuno di voi puo' descrivere la sua esperienza a riguardo e con quale configurazione di S.O. ha constatato le prestazioni migliori?
shellx tu non fai testo che sei sotto Linux :D

paolo.oliva2
12-12-2012, 16:53
Probabilmente questo è dovuto ai cache miss:
Il rendering opera con struttura di codice lineare, dove le ramificazioni sono abbastanza prevedibili, e se ci sono dei cache miss, quel dato mancante sarà probabilmente mancante in qualche altro th:
per ipotesi se abbiamo 8 th con un incidenza di cache miss del 10% (ipotesi) e totale dei cicli in 1000 avremo che i cache miss incideranno per 100 cicli di tempo cpu a vuoto (praticamente l'esecuzione del th si ferma aspettando i dati dalla ram dovuto al caricamento degli stessi in cache).
Con 16 th invece i cache miss resteranno sempre del 10% sui 1000 cicli (data la ridondanza di codice), ma il 5% su 2000 (perchè i il primo th che ha un fault in cache la ricarica, ed il 2 th invece trova un hit in cache), rendendo apparentemente più performante la cpu, invece che minormente penalizzata dal data prefetch non ottimale.
Prova a raddoppiare le istanze di super pi (8-16 th) e vedi se si ha una resa simile al cinebench (che io sappia il super pi è avvantaggiato da una cache grossa, ma nell'esecuzione non dovrebbero esserci troppi salti al buoi).
Tutto questo secondo il mio personalissimo parere).

Secondo me ci hai preso con la tua soluzione... perchè credo che sia l'unica che "regge" tra un'architettura che è ancora lontana dalla massima efficienza ed il numero di TH applicato.

Il mio 8350/8150 al mom è dentro un countainer partito via nave questa mattina da Genova... fino a fine mese, nisba :(... al mom ho un Trinity mobile, ma non credo risponda uguale all'FX.

Poi devo un attimo testare il tutto per benino perchè mi sono venuti dei dubbi sulla validità del mio test, perchè si basava sul fatto di evidenziare che la differenza tra un Thuban ed un 8150 non era minima, ma poteva essere notevole a seconda della tipologia di uso MT.
In poche parole, prendendo FremakeVideoConverter, che utilizza 4TH, era vero che l'8150 uguagliava il Thuban, ma era anche vero che il Thuban era sfruttato al per 4/6, mentre l'8150 per 4/8... e che l'8150 poteva risolvere 2 istanze di conversione contemporaneamente con gli stessi tempi di 1 conversione sola... mentre il Thuban chiaramente no. Poi facendo questo, ho "scoperto" che mentre il Thuban dopo 8TH perdeva in potenza, l'8150 teneva botta fino a 16TH senza nessuna perdita...

Però... la differenza è, ed è questo il mio dubbio, che su 4TH in realtà solamente 1 o 2 sfruttavano pienamente il core, ed è probabile che il modulo, già comunque progettato per supportare 2 TH, digerisca molto meglio un numero > di 2 più che il core Stars che poi è fatto per supportarne 1...

Aspetta che faccio fatica a spiegarmi..., ma il mio dubbio è questo:

Se avessi 4TH con sfruttamento 50% del core, in teoria 2 core Phenom II o 1 modulo BD sarebbero simili... (tralasciamo il discorso modulo = 100 1TH - 180 2TH altrimenti facciamo casino), perchè 1TH 50%, 2TH =100% di 1 core, indi 4TH 100% di 2 core.
Ora... pipeline e (suppongo) L1 devono essere svuotate entrambe sia sul core Stars che sul Modulo, la differenza dove l'abbiamo?
Che sul core Stars la L2 è di 512KB mentre nel modulo abbiamo la L2 che è di 2MB per 2 core, quindi il doppio a core.

Ora... chiaramente dipende dal tipo di programma, ma FremakerVideoConverter è palesemente sequenziale :D, i 2MB della L2 del modulo, anche con 4TH, garantirebbero una "riserva" da/verso L3/INT/FP uguale rispetto a quella del core Stars con 1 TH, ed è per questo che probabilmente salta subito all'occhio la scioltezza di utilizzo di BD rispetto al Phenom II.

Ecco il mio quesito... non vorrei aver tratto delle conclusioni senza considerare di aver creato un test in cui Buldozer trova una situazione nettamente favorevole rispetto al Phenom II.

Ares17
12-12-2012, 17:22
Secondo me ci hai preso con la tua soluzione... perchè credo che sia l'unica che "regge" tra un'architettura che è ancora lontana dalla massima efficienza ed il numero di TH applicato.

Il mio 8350/8150 al mom è dentro un countainer partito via nave questa mattina da Genova... fino a fine mese, nisba :(... al mom ho un Trinity mobile, ma non credo risponda uguale all'FX.

Poi devo un attimo testare il tutto per benino perchè mi sono venuti dei dubbi sulla validità del mio test, perchè si basava sul fatto di evidenziare che la differenza tra un Thuban ed un 8150 non era minima, ma poteva essere notevole a seconda della tipologia di uso MT.
In poche parole, prendendo FremakeVideoConverter, che utilizza 4TH, era vero che l'8150 uguagliava il Thuban, ma era anche vero che il Thuban era sfruttato al per 4/6, mentre l'8150 per 4/8... e che l'8150 poteva risolvere 2 istanze di conversione contemporaneamente con gli stessi tempi di 1 conversione sola... mentre il Thuban chiaramente no. Poi facendo questo, ho "scoperto" che mentre il Thuban dopo 8TH perdeva in potenza, l'8150 teneva botta fino a 16TH senza nessuna perdita...

Però... la differenza è, ed è questo il mio dubbio, che su 4TH in realtà solamente 1 o 2 sfruttavano pienamente il core, ed è probabile che il modulo, già comunque progettato per supportare 2 TH, digerisca molto meglio un numero > di 2 più che il core Stars che poi è fatto per supportarne 1...

Aspetta che faccio fatica a spiegarmi..., ma il mio dubbio è questo:

Se avessi 4TH con sfruttamento 50% del core, in teoria 2 core Phenom II o 1 modulo BD sarebbero simili... (tralasciamo il discorso modulo = 100 1TH - 180 2TH altrimenti facciamo casino), perchè 1TH 50%, 2TH =100% di 1 core, indi 4TH 100% di 2 core.
Ora... pipeline e (suppongo) L1 devono essere svuotate entrambe sia sul core Stars che sul Modulo, la differenza dove l'abbiamo?
Che sul core Stars la L2 è di 512KB mentre nel modulo abbiamo la L2 che è di 2MB per 2 core, quindi il doppio a core.

Ora... chiaramente dipende dal tipo di programma, ma FremakerVideoConverter è palesemente sequenziale :D, i 2MB della L2 del modulo, anche con 4TH, garantirebbero una "riserva" da/verso L3/INT/FP uguale rispetto a quella del core Stars con 1 TH, ed è per questo che probabilmente salta subito all'occhio la scioltezza di utilizzo di BD rispetto al Phenom II.

Ecco il mio quesito... non vorrei aver tratto delle conclusioni senza considerare di aver creato un test in cui Buldozer trova una situazione nettamente favorevole rispetto al Phenom II.
Confrontare due architetture diverse mette sempre dei nei guai:
immagina di operare su oparazioni miste che hanno un peso diverso sulle due architetture.
Abbiamo per esempio una moltiplicazione tra due variabili ed una costante che su un'architettura pesa 3 cicli, mentre su un'altra 9 cicli.
se la prima architettura ha un hit nella cache l2 del 90% e l'altra del 95% vedrai il vantaggio assottigliarsi, e magari scopri che una miss in cache della prima architettura pesa 10 cicli, e nell'altra 1 solo ciclo magari si arriva al risultato apparente che la seconda architettura è più rapida nell'eseguire quell'operazione.
magari tra 1 anno il codice per la seconda architettura portarà un vantaggio nell'ottimizzazione del prefetch, abbassa i miss in cache all'1% del totale...
Troppe variabili, quindi se vuoi capire un comportamento apparentemente anomalo di una cpu dovresti capire in che condizioni la cpu non lavora secondo le ottimali condizioni.

paolo.oliva2
12-12-2012, 21:55
http://www.techarena.it/2012/10/23/amd-fx-vishera-nuova-generazione-di-processori-con-rapporto-prezzoprestazioni-vincente/cpu-amd-fx-8350-test-12/

Qui c'è una rosa di bench e giochi.

digieffe
12-12-2012, 22:05
Probabilmente questo è dovuto ai cache miss:
Il rendering opera con struttura di codice lineare, dove le ramificazioni sono abbastanza prevedibili, e se ci sono dei cache miss, quel dato mancante sarà probabilmente mancante in qualche altro th:
per ipotesi se abbiamo 8 th con un incidenza di cache miss del 10% (ipotesi) e totale dei cicli in 1000 avremo che i cache miss incideranno per 100 cicli di tempo cpu a vuoto (praticamente l'esecuzione del th si ferma aspettando i dati dalla ram dovuto al caricamento degli stessi in cache).
Con 16 th invece i cache miss resteranno sempre del 10% sui 1000 cicli (data la ridondanza di codice), ma il 5% su 2000 (perchè i il primo th che ha un fault in cache la ricarica, ed il 2 th invece trova un hit in cache), rendendo apparentemente più performante la cpu, invece che minormente penalizzata dal data prefetch non ottimale.
Prova a raddoppiare le istanze di super pi (8-16 th) e vedi se si ha una resa simile al cinebench (che io sappia il super pi è avvantaggiato da una cache grossa, ma nell'esecuzione non dovrebbero esserci troppi salti al buoi).
Tutto questo secondo il mio personalissimo parere).

Subito ho pensato alla cache grande e quindi al riutilizzo dei dati presenti in essa.

Ovviamente la tua spiegazione è più scientifica e la condivido.

gnommo
13-12-2012, 07:12
Qui tutti ad overcloccare :D
Io al contrario invece nell'attesa che arrivi l'8350
vi chiedo se da qualche parte si trovano le informazioni
sui consumi con cool 'n' quiet attivato ,tenendo bloccato al minimo il processore.
Io ho da 5 anni l'athlon64 x2 6000+ a 3GHz 125W e l'ho tenuto per il 90% della sua vita tramite impostazioni di windows fisso a 1GHz , con consumi dichiarati in questa modalità di 38W :D
Ora con il 8350 vorrei rifare la stessa cosa, tanto la potenza mi serve solo quando glielo dico io.
Vorrei trovare qualche documento (come c'era per il 6000+) che dice quale è la frequenza minima e quanto consuma.
I consumi massimi sono ben noti, speriamo di non cioccare l'alimentatore da 500w con questo processore e la gtx260 :D

paolo.oliva2
13-12-2012, 07:57
Confrontare due architetture diverse mette sempre dei nei guai:
immagina di operare su oparazioni miste che hanno un peso diverso sulle due architetture.
Abbiamo per esempio una moltiplicazione tra due variabili ed una costante che su un'architettura pesa 3 cicli, mentre su un'altra 9 cicli.
se la prima architettura ha un hit nella cache l2 del 90% e l'altra del 95% vedrai il vantaggio assottigliarsi, e magari scopri che una miss in cache della prima architettura pesa 10 cicli, e nell'altra 1 solo ciclo magari si arriva al risultato apparente che la seconda architettura è più rapida nell'eseguire quell'operazione.
magari tra 1 anno il codice per la seconda architettura portarà un vantaggio nell'ottimizzazione del prefetch, abbassa i miss in cache all'1% del totale...
Troppe variabili, quindi se vuoi capire un comportamento apparentemente anomalo di una cpu dovresti capire in che condizioni la cpu non lavora secondo le ottimali condizioni.

Puoi capire per me....:sofico:

Comunque a primo acchito l'8350 mi era sembrato molto più semplice da occare dell'8150 e più disponibile ad essere ottimizzato... praticamente un 8150 con meno accrocchi... invece...

Ad esempio, l'8150 con un Vcore leggermente insufficiente, non si bloccava ma calavano le prestazioni, invece l'8350 o funzia con il 100% di prestazioni oppure semplicemente non funzia.
Con l'8150 con un Vcore 1,2V per l'NB potevo avere anche le DDR3 a 1,7V, nessun problema, mentre l'8350 per 1,65V di DDR3 vuole una tensione almeno di 1,25V per l'MC.

Penso che questo sia dovuto alla gestione del clock inserita con PD e penso che ci vogliano un tot di prove per trovare il bilanciamento ottimale... ed i bios sono ancora impostati, parlando in OC, sulle caratteristiche dell'8150.
Lo deduco, ma chiaramente non ho ancora fatto delle prove per mettere al muro il tutto, che lo step C0 offre più frequenza a parità di Vcore dovuto alla ggestione del clock, ma nello stesso tempo il risvolto della medaglia e che la gestione dei clock rende il procio più instabile all'aumento del Vcore... lo step B2g perdeva stabilità oltre 1,625V, ma tenendo sotto controllo le temp, a 1,55V si poteva trovare l'RS... invece lo step C0 offre frequenze anche di 5,2GHz a 1,525V, ma oltre 1,525V non si può più parlare di RS.

I bios ancora prevedono 1,4V/1,45V se metti in AUTO il VcoreNB, come imposti l'NB oltre i 2,2GHz, e mi suona male, visto la sensibilità del C0 all'overvolt...

---------------------

Siccome non ne ho la competenza... ma da quello che ho capito, la gestione dei clock diciamo ottimizza il funzionamento ad un determinato Vcore per una determinata frequenza... che nello step C0 dovrebbe essere 1,4V (+/-0,1V) su frequenze 3GHz/4,8GHz...
Probabile che sia per questo che Piledriver abbia visto un Trinity molto prima dell'FX, perchè AMD/GF hanno dovuto prima trovare la massima frequenza ottenibile da sto 32nm SOI, e poi, su quella, impostare la gestione del clock.

Io trovo una certa similitudine tra lo step C1-C2 del 45nm sul Phenom II e tra B2g e C0 del 32nm, nel senso che sono stati "stirati" entrambi per ottenere qualche centinaio di MHz di frequenza in più a parità di Vcore lasciando inalterate le frequenze massime in OC... soltanto che lo step C0 ha beneficiato della gestione del clock e qui l'aumento dell'OC.
Se poi parliamo di numeri... beh... se pensiamo che la gestione del clock ha portato guadagni dal 5 al 27% nel rapporto frequenze/consumi, questo si tradotto in un +11,11% di frequenza def e mettiamo +5% in massima frequenza OC... si avesse avuto anche la metà di questo guadagno ma partendo dai 4,2GHz def per un X8 125W TDP, oggi veramente si sarebbe potuto avere sia gli X10 che frequenze def attorno ai 4,5GHz sempre nei 125W TDP.

paolo.oliva2
13-12-2012, 08:05
Qui tutti ad overcloccare :D
Io al contrario invece nell'attesa che arrivi l'8350
vi chiedo se da qualche parte si trovano le informazioni
sui consumi con cool 'n' quiet attivato ,tenendo bloccato al minimo il processore.
Io ho da 5 anni l'athlon64 x2 6000+ a 3GHz 125W e l'ho tenuto per il 90% della sua vita tramite impostazioni di windows fisso a 1GHz , con consumi dichiarati in questa modalità di 38W :D
Ora con il 8350 vorrei rifare la stessa cosa, tanto la potenza mi serve solo quando glielo dico io.
Vorrei trovare qualche documento (come c'era per il 6000+) che dice quale è la frequenza minima e quanto consuma.
I consumi massimi sono ben noti, speriamo di non cioccare l'alimentatore da 500w con questo processore e la gtx260 :D

Si sanno anche i minimi... :D... ma forse era meglio che prendevi un 8320 al posto dell'8350.

Comunque... per quello che hai intenzione di ottenere non devi fare più di tanto, nel senso che basta che attivi il risparmio energetico nel bios della mobo (che credo sia attivo a def), ed hai fatto.

Per quanto riguarda il consumo... in idle sia il procio che il sistema consumano meno del Phenom II, anche se AM3+ vs AM3 (l'AM3+ consuma di più dell'AM3) ed idem sia come procio che come sistema rispetto ad un 3770K 22nm e 1155 Intel.

filo mc-ati crossfire
13-12-2012, 11:14
come pasta io ho la artic silver 5 ... penso che sia difficile trovare di meglio... la mobo che monto io sabertooth r2.0 ha riconosciuto subito la cpu... anche se il bios non è aggiornato non penso che non si avvii proprio.... al massimo riconoscera un processore per un altro con frequenze... sballate...:rolleyes:

c'è ne sono parecchie migliori,ormai ha avuto il suo momento la 5:
MX-2-3-4 , Diamond 7( con diamanti) queste sono le prime 2 che mi sono venute in mente,io ad esempio uso la mx-2 ,ed è già migliore della artic silver 5
http://www.indigo-xtreme.com/images/largetimcompare.jpg
http://www.madshrimps.be/vbulletin/attachments/f22/3063d1258967947-thermal-compound-roundup-11-pastes-compared-twice-air-water-cooled-clipboard03.png
Mentre questa,senza dubbio credo non abbia rivali!
http://www.dimastech.it/IT/c/pasta-termoconduttiva-ic-diamond-7/

filo mc-ati crossfire
13-12-2012, 11:16
Qui tutti ad overcloccare :D
Io al contrario invece nell'attesa che arrivi l'8350
vi chiedo se da qualche parte si trovano le informazioni
sui consumi con cool 'n' quiet attivato ,tenendo bloccato al minimo il processore.
Io ho da 5 anni l'athlon64 x2 6000+ a 3GHz 125W e l'ho tenuto per il 90% della sua vita tramite impostazioni di windows fisso a 1GHz , con consumi dichiarati in questa modalità di 38W :D
Ora con il 8350 vorrei rifare la stessa cosa, tanto la potenza mi serve solo quando glielo dico io.
Vorrei trovare qualche documento (come c'era per il 6000+) che dice quale è la frequenza minima e quanto consuma.
I consumi massimi sono ben noti, speriamo di non cioccare l'alimentatore da 500w con questo processore e la gtx260 :D

scusami ma se devi tenerlo al minimo predi una cpu con tdp da 95 w,ad esempio fx-6xxx fx-4xxx, sarebbe quasi inutile una cpu di questa, ( ma anche le altre citate) per tenerlo ad 1ghz o meno,imho solo un mio parere!

yallkok
13-12-2012, 11:43
c'è ne sono parecchie migliori,ormai ha avuto il suo momento la 5:
MX-2-3-4 , Diamond 7( con diamanti) queste sono le prime 2 che mi sono venute in mente,io ad esempio uso la mx-2 ,ed è già migliore della artic silver ...

Io ho questa http://www.dimastech.it/IT/c/pasta-termoconduttiva-dimastech-htx-ee-heat-transfer-extreme-enthusiast-edition/
e mi trovo benissimo.....

filo mc-ati crossfire
13-12-2012, 12:32
Io ho questa http://www.dimastech.it/IT/c/pasta-termoconduttiva-dimastech-htx-ee-heat-transfer-extreme-enthusiast-edition/
e mi trovo benissimo.....

Purtroppo,non posso esprimermi,in quanto non si trova nemmeno un benchmark in rete riguardo questa pasta termica... booo

Nforce Ultra
13-12-2012, 12:41
c'è ne sono parecchie migliori,ormai ha avuto il suo momento la 5:
MX-2-3-4 , Diamond 7( con diamanti) queste sono le prime 2 che mi sono venute in mente,io ad esempio uso la mx-2 ,ed è già migliore della artic silver 5
http://www.indigo-xtreme.com/images/largetimcompare.jpg
http://www.madshrimps.be/vbulletin/attachments/f22/3063d1258967947-thermal-compound-roundup-11-pastes-compared-twice-air-water-cooled-clipboard03.png
Mentre questa,senza dubbio credo non abbia rivali!
http://www.dimastech.it/IT/c/pasta-termoconduttiva-ic-diamond-7/

Leggi questa vecchia recensione fatta bene:
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=150&Itemid=62&limit=1&limitstart=12

l'MX-2 non è meglio della Artic Silver 5

filo mc-ati crossfire
13-12-2012, 12:51
http://www.tomshw.it/forum/overclock-generale/84545-artic-silver-5-o-artic-cooling-mx-2-a.htmlLeggi questa vecchia recensione fatta bene:
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=150&Itemid=62&limit=1&limitstart=12

l'MX-2 non è meglio della Artic Silver 5

sarà stato un caso su 10,fidati,le ho provate entrambe,ed essendo che faccio oc parecchio alti ho valutato bene entrambe le pate termiche ,+ altre 3 che non ricordo il modello esatto,e se cerchi in giro vedrai che,7su 10 vince la mx-2 :)
1: http://images.tweaktown.com/content/1/1/1148_3.jpg
2: http://aphnetworks.com/review/arctic_cooling_mx_2/001.png
3: http://aphnetworks.com/review/arctic_cooling_mx_2/002.png
4: http://www.xtremecomputing.co.uk/images/review/articCoolingPaste/image009.jpg
5: http://www.tuniq.com.tw/images/product/TX-2/TX-2-2.jpg
Altra cosa importantissima,se una pasta termica viene messa male,poca/troppa,puo' risultare di gran lunga peggiore della stock!

Nforce Ultra
13-12-2012, 13:28
Sicuramente ogni sito di prova dice la sua :)
anche io le ho provate tutte e due per tenere a bada il mio Phenom II a 4 GHz e la silver 5 mi ha dato migliori risultati. Ovviamente d'accordo con te che spalmarla bene fa la differenze.

Dai un occhio qui test nuovi:
La Artic Silver 5 migliore della MX-4
http://www.hardwaresecrets.com/article/Thermal-Compound-Roundup-February-2012/1490/5

Fine OT scusate :D

Ares17
13-12-2012, 14:23
Sicuramente ogni sito di prova dice la sua :)
anche io le ho provate tutte e due per tenere a bada il mio Phenom II a 4 GHz e la silver 5 mi ha dato migliori risultati. Ovviamente d'accordo con te che spalmarla bene fa la differenze.

Dai un occhio qui test nuovi:
La Artic Silver 5 migliore della MX-4
http://www.hardwaresecrets.com/article/Thermal-Compound-Roundup-February-2012/1490/5

Fine OT scusate :D

Sia la mx2 che la mx4 hanno una resa maggiore (migliorano la loro conducibilità termica) con almeno 40H di lavoro.

filo mc-ati crossfire
13-12-2012, 14:24
Sicuramente ogni sito di prova dice la sua :)
anche io le ho provate tutte e due per tenere a bada il mio Phenom II a 4 GHz e la silver 5 mi ha dato migliori risultati. Ovviamente d'accordo con te che spalmarla bene fa la differenze.

Dai un occhio qui test nuovi:
La Artic Silver 5 migliore della MX-4
http://www.hardwaresecrets.com/article/Thermal-Compound-Roundup-February-2012/1490/5

Fine OT scusate :D
57 artic silver 5
56 artic cooling mx-4, dove hai visto che è migliore?

Nforce Ultra
13-12-2012, 14:52
57 artic silver 5
56 artic cooling mx-4, dove hai visto che è migliore?

Leggi la temperatura ambiente prima:
Artic Silver 5 Rom Temp 24°C core temp 57°C delta t 33°C
Artic MX-4 Ron Temp 21°C core temp 56°C delta t 35°C

Guarda la differenza di temperatura la Artic 5 da 33 gradi perchè la stanza si trovava a 24° per quello ti 57°
L'MX-4 da 56° ma la stanza aveva una temperatura di 21°C per cui il delta è più alto 35°C ecco perchè ti dico che è migliore la Silver 5

Salvoxx
13-12-2012, 15:11
si ok ... regà non è il caso di tirarla per le lunghe sono entambe ottime!! Sia la mx che l'artic silver 5... non siamo qui ad attaccarci al 0,5° quando magari il tizio ha aperto la finesta per fumarsi una sigaretta in un test o in un altro...:sofico:

gnommo
13-12-2012, 15:19
scusami ma se devi tenerlo al minimo predi una cpu con tdp da 95 w,ad esempio fx-6xxx fx-4xxx, sarebbe quasi inutile una cpu di questa, ( ma anche le altre citate) per tenerlo ad 1ghz o meno,imho solo un mio parere!

E poi quando devo fare montaggio video, giocare, compilare etc etc ? :D
Cioè non vi rendete conto che solo flash nel browser tende a far salire i consumi di molto ed anche la temperatura.
L'ho sperimentato sul mio athlon 6000+ se non lo tengo bloccato a 1Ghz anche quando non ci sono la temperatura sale fra i 45° e 50°
mentre tenendolo bloccato a 1GHz ora come ora non supera i 25° a pieno carico :D

Si tratta solo di avere il controllo sul proprio computer e non far consumare corrente e tenerlo a temperature alte inutilmente, i sistemi automatici non funzionano altrettanto bene quando l'impostazione manuale.
A me in windows basta passare all'impostazione risparmio energetico per tenerlo fisso ad un 1GHz e a prestazioni elevate per farlo girare al massimo.
Ovvio che la potenza dell'8350 mi serve, ma non quando devo solo navigare o scrivere in word,scaricare, che ovviamente equivale ad un altissima percentuale della vita del processore.

dav1deser
13-12-2012, 16:01
è interessante il tuo punto di vista :) se ti serve potenza hai il massimo, se non ti serve risparmi e scaldi poco, ma non capisco come fai per tenerlo ad 1 ghz fisso senza tool o bios... come hai fatto col risparmio energetico di winzoz? cioè gli hai messo prestazioni minime e massime al 30/35%? ...cioè il 30/35% di 3ghz = 1ghz circa? ...e le tensioni ed il resto? :stordita:
ot
...io avevo il tuo 6000+ :D in realtà ce l'ho ancora sul pc di mio padre :fagiano: ,ma sarà che da quando avevo preso il dissi after, mi pare Freezer 7 Pro (ventola da 92mm), tolsi tutta la rumorosità e il calore non era più un problema, ti parlo di 3 anni fa tipo per il dissi... poi 2 anni fa circa passando al 955be ho notato che a default andava bene, ma per l'oc no superava i 65° e ho preso poi il noctua un anno fa :sofico:
ot

Si può fare con il risparmio energetico. Io faccio una roba simile per passare da OC a default senza turbo. Il P3 è impostato a frequenza default il P2 è in OC e se metto prestazioni massime al 90% in windows, la CPU non va oltre il P3. Se rimetto a 100 arriva al P2 e sfrutto l'OC.

paolo.oliva2
13-12-2012, 16:31
mmm

Bon, adesso vi faccio ridere.... una volta mi arriva il processore che aspettavo (non mi ricordo quale), ma... mi ero scordato di ordinare la pasta... e in zona non la vendono... al che... tubetto di pasta bianca da 1/2 KG per componenti elettronici, bianca, prezzo 1€, e vai con l'OC...
Se devo dire la verità, non è che andava del tutto male... riuscivo a stare sotto i 60° con il liquido... soltanto che dopo aver messo la pasta idonea, stavo a 40° e con più Vcore...:sofico:

filo mc-ati crossfire
13-12-2012, 16:36
mmm

Bon, adesso vi faccio ridere.... una volta mi arriva il processore che aspettavo (non mi ricordo quale), ma... mi ero scordato di ordinare la pasta... e in zona non la vendono... al che... tubetto di pasta bianca da 1/2 KG per componenti elettronici, bianca, prezzo 1€, e vai con l'OC...
Se devo dire la verità, non è che andava del tutto male... riuscivo a stare sotto i 60° con il liquido... soltanto che dopo aver messo la pasta idonea, stavo a 40° e con più Vcore...:sofico:
paolo,domani dovrebbero arrivarmi le Predator 2400,vediamo che riesco a fare,avendo nb e l'ht a 2450,non so' se mi conviene mettere le ram a 2400,e cercare di scendere un po' i timing e cercare i 2200 tipo clock 10,e il 3 gennaio arriva la seconda hd 6970 :)

TheBestFix
13-12-2012, 17:52
scusate ma io sono l'unico che ha ottenuto un bel guadagno tirando l'ht oltre i 2700 o qualcun altro ha sperimentato la stessa cosa?

paolo.oliva2
13-12-2012, 18:00
paolo,domani dovrebbero arrivarmi le Predator 2400,vediamo che riesco a fare,avendo nb e l'ht a 2450,non so' se mi conviene mettere le ram a 2400,e cercare di scendere un po' i timing e cercare i 2200 tipo clock 10,e il 3 gennaio arriva la seconda hd 6970 :)

OK, poi posti.

P.S.
Ti suggerisco, nel caso vuoi avere clock NB non fissi tipo 2,2/2,4GHz e DDR3 idem non fisse a 2000/2133, di aumentare i valori NB/DDR3 agendo sul clock bus...
Ad esempio a me all'inizio mi dava dei problemi settare NB 2,4GHz/DDR3 2,4GHz perchè i clock erano diversi... NB a 2,4GHz e le DDR3 2,408GHz... mentre se vai su di bus, incrementa di più l'NB che le DDR3

paolo.oliva2
13-12-2012, 18:05
scusate ma io sono l'unico che ha ottenuto un bel guadagno tirando l'ht oltre i 2700 o qualcun altro ha sperimentato la stessa cosa?

Io ho avuto quel problema dell'MC con un Vcore troppo basso per delle DDR3 2400 1,65V... però ero arrivato a 300MHz di BUS per un NB 2,8GHz e DDR3 2,5GHz )e ci ero arrivato perchè avevo portato il Vcore NB a 1,3V :mad:), ma nessun bench...

Mi do dell'idiota... perchè ci ho perso un tot di tempo per trovare una stabilità MC-DDR3 2,4GHz a timing più tirati...

TheBestFix
13-12-2012, 18:28
Io ho avuto quel problema dell'MC con un Vcore troppo basso per delle DDR3 2400 1,65V... però ero arrivato a 300MHz di BUS per un NB 2,8GHz e DDR3 2,5GHz )e ci ero arrivato perchè avevo portato il Vcore NB a 1,3V :mad:), ma nessun bench...

Mi do dell'idiota... perchè ci ho perso un tot di tempo per trovare una stabilità MC-DDR3 2,4GHz...

ognuno di noi segue un suo metodo, io per esempio preferisco trovare i massimi settaggi ma in rock solid a temperature non da fusione, e non nego che potrei tranquillamente benchare con cinebench per esempio anche con 200 mhz sopra il mio attuale clock massimo, ma poi e' possibile che perdi in prestazioni anche se termini il bench e gia' solo il fatto di avere il dubbio che magari perdi per strada qualcosa a me non piace...ecco perché prima voglio la sicurezza del R.S. e poi bencho a qualsiasi cosa....il discorso del nb io ho rilevato che non posso toccare il moltiplicatore causa instabilita' strane (orologio di sistema che perde colpi, strani rallentamenti a unigine heaven, browser Explorer che non carica le pagine) ma supera tutti i bench in R.S. e ho imputato la cosa al bios buggato....ho risolto salendo col bus ...adesso non so dire se il fenomeno e' legato anche ai moltiplicatori delle ram che mi han dato anche qualche grattacapo e non ne vogliono sapere di bootare a 2133mhz a qualsiasi voltaggio e latenza, quando i primi tentativi bootavano senza problemi, adesso li devo tirar su assieme al nb col bus...aspetto un nuovo bios sperando che risolva questi problemi, ma ripeto non sono nemmeno certo che sia tutta colpa del bios...

filo mc-ati crossfire
13-12-2012, 18:39
OK, poi posti.

P.S.
Ti suggerisco, nel caso vuoi avere clock NB non fissi tipo 2,2/2,4GHz e DDR3 idem non fisse a 2000/2133, di aumentare i valori NB/DDR3 agendo sul clock bus...
Ad esempio a me all'inizio mi dava dei problemi settare NB 2,4GHz/DDR3 2,4GHz perchè i clock erano diversi... NB a 2,4GHz e le DDR3 2,408GHz... mentre se vai su di bus, incrementa di più l'NB che le DDR3
si si,ora che ho le ram che lo permettono :) ci smanettero' su un bel po',cacchio domani dorme la mia raga da me,e se mi avvicino al pc mi mangia vivo hahahahah che sfigaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

Alekz
13-12-2012, 19:06
ho letto tra le paste testate "toothpaste"..ditemi che è uno scherzo :asd:

L4ky
13-12-2012, 19:40
ho letto tra le paste testate "toothpaste"..ditemi che è uno scherzo :asd:

Non sei stato attento!!
Guarda a Delta 38°C.. c'è la.. mostarda!! :D

L4ky
13-12-2012, 20:59
Piccolo OC fatto al volo :D
In full sto a 65°C al massimo
Devo cambiare pasta termica e ottimizzare i flussi d'aria!

Validate (http://valid.canardpc.com/2614556)