PDA

View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 [50] 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145

netcrusher
15-11-2012, 19:00
Cosi però mi obblighi a prendermi un Aulin per affogare il cerchio cane alla testa per poi montare il procio adesso (smontando il dissi, 8120, rimettere pasta, rimetter procio, dissi e bla bla bla)... :D

grazie Shellx sei un vero amico che fai questa cosa per noi ORA :D

shellx
15-11-2012, 19:06
grazie Shellx sei un vero amico che fai questa cosa per noi ORA :D

Sai qual'è il problema ? Che l'ultima volta che ho montato una cpu in una condizione di estrema stanchezza e mal di testa (un phenom II 955 poi sostituito con il 965) montai per la fretta il procio nel verso sbagliato, senza seguire il triangolino d'orato nell'angolo in linea con lo stesso angolo sul socket, e poi pretendevo forzandolo di farlo entrare abbassando pure la levetta del socket. Risultato 8 pin piegati, mi sono dovuto mettere a riaddrizzarli con un ago e la lente di ingrandimento. Non ti dico che giornata da sterco equino.

paolo.oliva2
15-11-2012, 21:01
Sai qual'è il problema ? Che l'ultima volta che ho montato una cpu in una condizione di estrema stanchezza e mal di testa (un phenom II 955 poi sostituito con il 965) montai per la fretta il procio nel verso sbagliato, senza seguire il triangolino d'orato nell'angolo in linea con lo stesso angolo sul socket, e poi pretendevo forzandolo di farlo entrare abbassando pure la levetta del socket. Risultato 8 pin piegati, mi sono dovuto mettere a riaddrizzarli con un ago e la lente di ingrandimento. Non ti dico che giornata da sterco equino.

Fidati, non sei l'unico. :sofico:
Quando mi è arrivato l'8350, ho scritto la solita frase "mi è arrivato, 10 minuti e posto".
Con l'8150 avevo piegato tutta una fila perchè nella fretta ero andato a sbattere contro le staffe del supporto WB.
Con l'8350, :Prrr:, ho pensato, col ca**o che mi frega sto giro... tolgo il WB, lo pulisco, metto il procio sul socket, l'ho fatto entrare, metto la pasta, monto il WB, fisso le 4 viti, accendo e NON PARTE. Reset C-MOS & C., nulla da fare. Rismonto tutto, il ferretto del socket non era abbassato bene :nera:... rifaccio la procedura, idem, non parte. Rismonto tutto, il procio non era dentro il socket e non ci entra... non ci vedo più una mazza, cerco gli occhiali da lettura, mi metto proprio sotto una lampada, raddrizzo tutto, rimonto per l'ennesima volta e... questa volta parte. Purtroppo che ci vuoi fare? Ormai sono abituato... sarà la vecchiaia, sarà il rincoglio...... sarà quello che vuoi, ma ormai è una prassi... lavoretto da 5 minuti ma c'è sempre qualche cosa che va storto e ci bestemmi per 4 ore...

paolo.oliva2
15-11-2012, 21:22
Se può interessarti un FX-8320 ce l'ho io ( da un paio di giorni !!) ho dovuto prendere un po di "confidenza" con questi FX perchè provengo da un 960T ed il comportamento effettivamente è differente ( non avendo avuto FX BD... :D)
Cmq per farla breve core temp mi riporta un VID di 1,337v ho testato la cpu solo velocemente con un 1h di AOD stability test ( peraltro concluso senza problemi volevo vedere cosa faceva con il voltaggio base...) impostando 4,2GHz (200x21) con 1,34v da bios ed LLC su High ( ho una m5a97 pro bios 1604) che mi riporta su cpu-z un voltaggio di 1,332 sotto stress ht e nb li ho messi a 2,4 Ghz con cpu/nb = 1,2v e nb = auto (lo mette ad 1,1) (Le temperature sotto test dei core oscillavano sui 48-49 ad aria, da hwmonitor con un hyper 616s + akasa viper 120mm pwm, sempre su Hwmonitor però le temp della cpu, non dei core, me le porta sui 63-64 è normale??? )
Devo dire che con 1,34 da bios in pratica boota anche a 4,4 e 4,5 Ghz senza problemi ma se messo sotto stress evidenze le prime crepe proponendo errori.
Quello che ho notato è la forte dipendenza (come del resto commentavi perfettamente tu poco prima in qualche post sopra...) della temperatura dal voltaggio ( impostando voltaggi superiori verso 1,4-1,45 per fargli reggere freq sopra i 4,5GHz in modo stabile la cpu mette a nudo i suoi bollenti spiriti...quello che mi frena un po è la temperatura cosidetta esterna letta sia su HWmonitor che su Ai suite che sale parecchio e raggiunge anche i 65-66-67° ma credo che tenderebbero ai 70 se mettessi a far girare un Linx su All per portarlo a compimento , i core invece si attestano sui 55-57° ...)

Tutto sommato se dovesse avere piena stabilità a 4,2GHz con quel voltaggio beh...credo che sia una cpu che promette bene non fosse altro perchè , riallacciandomi al tuo discorso, raggiunge le freq del fratello maggiore senza problemi!! Con l'ipotesi ( tutta da provare...ehehe) di trovare un compromesso per un uso quotidiano a 4,4-4,5 GHz
Cmq devo dedicargli ancora del tempo per comprendere più a fondo questa cpu...

Lo pensavo pure io... gli 8350 sono proci testati per arrivare a sui 4,5GHz/4,6GHz con 1,42V o lì vicino... il TDP 125W di partenza è calcolato sulla base di un Vcore ben più alto del necessario, praticamente di fatto sarebbe già un overvolt.
Gli 8320 sono i proci che richiedono un Vcore maggiore per arrivare a determinate frequenze.

Penso che i 125W TDP, specie per l'8320, non sia l'esatto valore del TDP effettivo, ma una sorta di garanzia da AMD e pro AMD, nel senso che AMD ti garantisce un margine di OC proprio perchè il TDP reale sarebbe inferiore, pro AMD perchè comunque una ditta di assemblaggio DEVE rispettare una componentistica da procio 125W TDP.

Cioè... sappiamo benissimo che AMD non puo' oltrepassare il TDP dichiarato... e 1,4V per 4GHz sono una esagerazione... potrebbe addirittura funzionare con 1,35V o anche meno... ed il TDP deve per forza diminuire... Certo è che da 125W TDP 3,6GHz per un 8150, passare foss'anche a 110W TDP per 4GHz di un 8350, ne ha fatta di strada GF... Beh, si spiega perchè AMD prevedeva 1 solo BD a 125W TDP e tutto il resto 95W TDP...

Comunque peccato per l'IPC... PD migliora ma l'IPC di partenza di Zambesi era pessimo... certo, con dei clock maggiori sarebbe certamente stato meglio, ma comunque insufficiente.

PeteRParkeR
15-11-2012, 21:43
Cosi però mi obblighi a prendermi un Aulin per affogare il cerchio cane alla testa per poi montare il procio adesso (smontando il dissi, 8120, rimettere pasta, rimetter procio, dissi e bla bla bla)... :D
Il tuo vcore def quindi è 1.337v ? Hai detto che se metti il vcore a 1.4v fai boot a 4,5ghz, ma che sotto stress ti da errori. Che tipo di test stress ? E che tipologia di errori ? Calcola che io smanetto solo su linux (non uso w..w...aAaaaaCciUù !..scusami dicevo... windows).

Ahaha!!!:D guarda il vid ho riportato le info prese da core temp ed è appunto 1,337v !! Si a dire il vero a 4,4-4,5 ghz boota anche con 1,34-1,35 impostato da bios (llc high mi da 1,332-1,344) ma non è stabile appena metto aod test stability oppure se faccio partire linx o ibt mi da messaggio di errore (ma non freeza quindi credo che con un tantino di voltaggio dovrebbe raggiungere una prima stabilità)
Cmq...appena ho un po di tempo più tardi magari o domani vedo se posto qualche screen con tutte le info qualche test fatto!!;)

la temperatura che leggi di 63 gradi dovrebbe essere quella del socket della cpu se non erro
Ah !! ok!! E quindi secondo te che limite potrei impormi per questa temp ?? perchè il delta fra core e cpu si attesta sui 10 gradi quindi se dovessi spingere la cpu fino a 60° sui core probabilmente otterrei un 70° sul socket....non so quanto possa essere ancora in tolleranza...

Sai qual'è il problema ? Che l'ultima volta che ho montato una cpu in una condizione di estrema stanchezza e mal di testa (un phenom II 955 poi sostituito con il 965) montai per la fretta il procio nel verso sbagliato, senza seguire il triangolino d'orato nell'angolo in linea con lo stesso angolo sul socket, e poi pretendevo forzandolo di farlo entrare abbassando pure la levetta del socket. Risultato 8 pin piegati, mi sono dovuto mettere a riaddrizzarli con un ago e la lente di ingrandimento. Non ti dico che giornata da sterco equino.
:D :D :D ahahah bella questa storia "equestre" !!!:muro:

paolo.oliva2
15-11-2012, 22:12
Guardate qua, SisoftSandra 2013

http://uptiki.altervista.org/_altervista_ht/c7a416kgunz1stjvfhsf_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=c7a416kgunz1stjvfhsf.jpg)

Non so che affidabilità abbia... più per curiosità:

3,42GHz (praticamente 80MHz in meno dell'8320), 98,4W

Resta da capire il perchè io a 4,6GHz mi applica un consumo sotto i 125W, mentre a 4,1GHz e 4,2GHz sono 144 e 148W rispettivamente.

In ogni caso... se un 8350 a 4GHz consuma 144W ed ha un TDP di 125W... mi pare chiaro che con 98W in teoria dovrebbe stare sui 95W TDP...

PeteRParkeR
15-11-2012, 22:16
Lo pensavo pure io... gli 8350 sono proci testati per arrivare a sui 4,5GHz/4,6GHz con 1,42V o lì vicino... il TDP 125W di partenza è calcolato sulla base di un Vcore ben più alto del necessario, praticamente di fatto sarebbe già un overvolt.
Gli 8320 sono i proci che richiedono un Vcore maggiore per arrivare a determinate frequenze.

Penso che i 125W TDP, specie per l'8320, non sia l'esatto valore del TDP effettivo, ma una sorta di garanzia da AMD e pro AMD, nel senso che AMD ti garantisce un margine di OC proprio perchè il TDP reale sarebbe inferiore, pro AMD perchè comunque una ditta di assemblaggio DEVE rispettare una componentistica da procio 125W TDP.

Cioè... sappiamo benissimo che AMD non puo' oltrepassare il TDP dichiarato... e 1,4V per 4GHz sono una esagerazione... potrebbe addirittura funzionare con 1,35V o anche meno... ed il TDP deve per forza diminuire... Certo è che da 125W TDP 3,6GHz per un 8150, passare foss'anche a 110W TDP per 4GHz di un 8350, ne ha fatta di strada GF... Beh, si spiega perchè AMD prevedeva 1 solo BD a 125W TDP e tutto il resto 95W TDP...

Comunque peccato per l'IPC... PD migliora ma l'IPC di partenza di Zambesi era pessimo... certo, con dei clock maggiori sarebbe certamente stato meglio, ma comunque insufficiente.

Quindi secondo te con un 8320 la stabilità massima a frequenze del genere si raggiunge solo oltrepassando 1,45volts ??
A meno di sc:ciapet: late varie ehehe
Per quanto riguarda l' IPC il Vishera si attesta al disotto dei Zosma/Thuban oppure ha coperto il gap di BD?? Tu mi pare che l'abbia avuto anche sotto mano qst'ultimi e quindi puoi fare confronti con i test che stai eseguendo...che mi sai dire??
Dai test che ho visto in giro in MT ( in particolare sul test Handbrake ) il Vishera in OC da del filo da torcere ad un intel i7.

smoicol
15-11-2012, 23:17
Guardate qua, SisoftSandra 2013

http://uptiki.altervista.org/_altervista_ht/c7a416kgunz1stjvfhsf_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=c7a416kgunz1stjvfhsf.jpg)

Non so che affidabilità abbia... più per curiosità:

3,42GHz (praticamente 80MHz in meno dell'8320), 98,4W

Resta da capire il perchè io a 4,6GHz mi applica un consumo sotto i 125W, mentre a 4,1GHz e 4,2GHz sono 144 e 148W rispettivamente.

In ogni caso... se un 8350 a 4GHz consuma 144W ed ha un TDP di 125W... mi pare chiaro che con 98W in teoria dovrebbe stare sui 95W TDP...

ciao paolo,
non voglio creare flame, ma ti consiglio di non dar molto affidamento a questi programmi per monitorare il consumo, ho già affrontato diverse volte lo stesso discorso con 2500k, 2600k e 3770k, perchè questi mi passano per le mani e posso assicurarti che sono ben diversi da quelli presi a monte dell'alimentatore, se vuoi ti elenco ciò che realmente è, ma non credo sia importante viste le 2 piattaforme diverse, comunque in linea di massima è il doppio di ciò che leggono questi software.

paolo.oliva2
15-11-2012, 23:47
Quindi secondo te con un 8320 la stabilità massima a frequenze del genere si raggiunge solo oltrepassando 1,45volts ??
A meno di sc:ciapet: late varie ehehe
Su che basi facciano la selezione, io non lo so di certo, ma in teoria è normale che il prodotto che lo fanno pagare di più, sia anche migliore... ed essendo la medesima architettura, il "peggiore" dovrebbe essere quello che richiede Vcore maggiori per la stessa frequenza... poi magari puo' accadere, come in passato con i Phenom II 955 e 950 (mi sembra) che i 955 si occavano di più...
Però, quello che intendevo, è di quanto possono essere "inferiori"... perchè magari il limite dei 4,5-4,6GHz ad aria potrebbe essere di 4,4-4,3GHz per un 8320... o magari simile per un "fortunello".
C'è chi lo tiene anche a 4,7-4,8GHz ad aria un 8350, ma non me ne voglia... io ho un'idea più "fredda" per il DU.
Però un 30% in meno di costo per 100MHz in meno per il DU...


Per quanto riguarda l' IPC il Vishera si attesta al disotto dei Zosma/Thuban oppure ha coperto il gap di BD?? Tu mi pare che l'abbia avuto anche sotto mano qst'ultimi e quindi puoi fare confronti con i test che stai eseguendo...che mi sai dire??
Dai test che ho visto in giro in MT ( in particolare sul test Handbrake ) il Vishera in OC da del filo da torcere ad un intel i7.

L'IPC è ancora inferiore, di media... a parità di numero di core, però bisogna fare dei distinguo... perchè di per sè l'IPC è valutato su 1 singolo core, ed il modulo offre un IPC differente tra il funzionamento con 1 solo core attivo, e con 2, in cui si diceva che 1 core a modulo offre un IPC del 21% superiore rispetto al funzionamento di entrambi i core. Praticamente... si diceva che Zambesi avesse un IPC inferiore del 20% rispetto al Phenom II... PD aumenta l'IPC del 5-7% rispetto a Zambesi, quindi quel -20% si ridurrebbe a (100 Phenom II -20% Zambesi = 80, 80 +7% facciamo 85, funzionamento 1 core a modulo, +21%) alla fine siamo lì.
Nell'MT, l'IPC di media dovrebbe essere inferiore perchè si ha una perdita per il CMT, ma dobbiamo considerare l'IPC di 2 core Phenom II con il modulo/2 core di Piledriver, e siamo inferiori.
Ma nell'MT conta pure il numero massimo di core, e qui il Phenom II era massimo 6, Buldozer è 8, e già un 8150, anche se di poco, comunque risultava più potente di un 1100T.
Ora... è chiaro che un 8150 risultava avere +300MHz di frequenza operativa, con Piledriver questi +300MHz sono diventati +700MHz, aggiungici l'incremento di IPC... infatti ad esempio in Cinebench, un 1100T era sui 5,8 circa, l'8350 è sui 6,9.

Infine, aggregando l'IPC alla frequenza operativa, come è giusto che sia per calcolare la potenza finale, credo che l'8350 la spunti... ma anche qui bisogna fare dei distinguo...
Il Phenom II 980 con 3,8GHz è il Phenom II con la massima potenza ST. Vishera offre massimo 4,2GHz... forse potrebbero non bastare all'8350 per stare davanti.
Ma un Phenom II 980 a quanto si puo' occare? Con la stessa facilità con cui si porta un 8350 sui 4,9GHz (non 8 core ma 2 o 4 core), il 980 a quanto? 4,2GHz? 4,3GHz, allora la differenza da 400MHz passerebbe a 500/600MHz, quindi l'8350 starebbe davanti.

Guarda... stringendo... l'8150 stava sotto al Phenom II nella potenza ST e nell'MT solo l'8150 era di pochissimo davanti al Thuban... tutti gli altri dietro... aggiungici che l'8150 costava più del Thuban 1100T, trai le conclusioni.
Ora Piledriver offre una potenza ST almeno simile con il più veloce Phenom II, con gli altri dsta davanti... in OC, arrivando a frequenze ben più, il divario aumenta a favore di PD. Quindi cambia tutto... anche a def un FX X4 puo' competere almeno con i modelli inferiori al 980, idem un FX X6 con un Thuban, e l'FX X8 che offre un MT di gramn lunga superiore.

paolo.oliva2
15-11-2012, 23:58
ciao paolo,
non voglio creare flame, ma ti consiglio di non dar molto affidamento a questi programmi per monitorare il consumo, ho già affrontato diverse volte lo stesso discorso con 2500k, 2600k e 3770k, perchè questi mi passano per le mani e posso assicurarti che sono ben diversi da quelli presi a monte dell'alimentatore, se vuoi ti elenco ciò che realmente è, ma non credo sia importante viste le 2 piattaforme diverse, comunque in linea di massima è il doppio di ciò che leggono questi software.

Dandoti ragione, comunque ha poca importanza quanto sia l'effettivo consumo, quanto invece la differenza tra un 4GHz e 3,5GHz, per il discorso 125W TDP e 95W TDP.
Cioè, per farti un esempio, se un procio X ha un TDP di 100W e consuma 200W, il consumo in W è doppio rispetto ai W TDP... quindi se si avesse un altro procio che consumasse 100W, allora avrebbe un TDP 50W, che per via degli scalini, verrebbe commercializzato a 65W TDP.
La manfrina era che un 8350, con Vcore 1,4V def, a 4GHz, dato per 125W TDP, rende impossibile che un 8320, con 1,32V def, a 3,5GHz, sia un 125W TDP, ma assegnato alla classe 125W magari anche solo perchè risulti 95,01W.

smoicol
16-11-2012, 00:01
Dandoti ragione, comunque ha poca importanza quanto sia l'effettivo consumo, quanto invece la differenza tra un 4GHz e 3,5GHz, per il discorso 125W TDP e 95W TDP.
Cioè, per farti un esempio, se un procio X ha un TDP di 100W e consuma 200W, il consumo in W è doppio rispetto ai W TDP... quindi se si avesse un altro procio che consumasse 100W, allora avrebbe un TDP 50W, che per via degli scalini, verrebbe commercializzato a 65W TDP.
La manfrina era che un 8350, con Vcore 1,4V def, a 4GHz, dato per 125W TDP, rende impossibile che un 8320, con 1,32V def, a 3,5GHz, sia un 125W TDP, ma assegnato alla classe 125W magari anche solo perchè risulti 95,01W.

si ci può stare il tuo ragionamento, ma a questo punto perchè non commercializzarlo a 3.4ghz? e rientrava alla grande?

winebar
16-11-2012, 08:39
Non so che affidabilità abbia... più per curiosità:


Non è per niente affidabile...
Prende la tensione, la moltiplica per un certo amperaggio e usando valori molto conservativi...
Ciò vale per tutti i software di questo tipo.
Ovviamente l'unico modo per avere un qualche riscontro di consumo reale è usare un aggeggio che misura il consumo a monte dell'alimentatore, ma che ovviamente non calcola solo il consumo della CPU, ma anche di chipset, RAM, VGA e tutto il resto, incluso ovviamente la corrente consumata dall'alimentatore per la sua inefficienza. :)

Piccola curiosità, con il chiller a quanto sei riuscito a portarlo? E a quanto riesci a tenerlo in DU?

Comunque va tenuto conto che il consumo di un 8350 è minore rispetto a quello di un 8150, nonostantw il clock più elevato...
Anche se mi piacerebbe sapere quanti dei miglioramenti di consumo sono realmente imputabili a GF. Ricordiamo che PD include la tecnologia Resonant Clock Mesh...

AMD dimostra sempre di usare tensioni troppo conservative nei suoi processori...
Solo downvoltando un 8350 (stock ovviamente) si sono migliorati i consumi di ben 17W.

paolo.oliva2
16-11-2012, 09:17
Non è per niente affidabile...
Prende la tensione, la moltiplica per un certo amperaggio e usando valori molto conservativi...
Ciò vale per tutti i software di questo tipo.
Ovviamente l'unico modo per avere un qualche riscontro di consumo reale è usare un aggeggio che misura il consumo a monte dell'alimentatore, ma che ovviamente non calcola solo il consumo della CPU, ma anche di chipset, RAM, VGA e tutto il resto, incluso ovviamente la corrente consumata dall'alimentatore per la sua inefficienza. :)

Piccola curiosità, con il chiller a quanto sei riuscito a portarlo? E a quanto riesci a tenerlo in DU?

Comunque va tenuto conto che il consumo di un 8350 è minore rispetto a quello di un 8150, nonostantw il clock più elevato...
Anche se mi piacerebbe sapere quanti dei miglioramenti di consumo sono realmente imputabili a GF. Ricordiamo che PD include la tecnologia Resonant Clock Mesh...

AMD dimostra sempre di usare tensioni troppo conservative nei suoi processori...
Solo downvoltando un 8350 (stock ovviamente) si sono migliorati i consumi di ben 17W.

Al momento con l'8350 faccio fatica a trovare stabilità sopra ai 5GHz, ma ho l'SO installato da più di 1 anno con tante porcherie e task aggiuntivi... e sono ancora sulla CF V e ho la CF V-Z imballata... Il wc ancora non l'ho usato perchè sono dietro a trovare un settaggio ottimizzato con cui poi salire di frequenza... I core vanno bene perchè ho provato a 5,2GHz con Cinebench testandolo su ognuno e quindi non ho prb a livello di core/L1/l2... ma usandoli tutti e 8 si, quindi potrebbe esserci un prb di NB e forse di temp non rilevate correttamente... ma mi tocca overvoltare un tot... 4,9GHz sotto 1,5V e 5GHz quasi ad 1,6V mi sembrano veramente tanti... invece 1,55V con 1 core per 5,2GHz...

Al momento con 1,48V riesco ad essere RS a 4,850GHz con NB 1,2V per 2,483GHz e DDR3 2,408GHz 1,65V

Le temp in idle sono di 25° a liquido, ma ho appena acceso... facciamo 27°... le performances ci sono.

http://uptiki.altervista.org/_altervista_ht/bolozpysu1ei5jqobwsh_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=bolozpysu1ei5jqobwsh.jpg)

http://uptiki.altervista.org/_altervista_ht/0lc5cd86x0cuid7f4g1_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=0lc5cd86x0cuid7f4g1.jpg)


Per la massima frequenza DU, io cerco il massimo dell'ottimizzazione alla massima frequenza possibile con il limite di non superare i 50° di procio, poi dove si arriva si arriva...
Con DDR3 2,4GHz ed un NB circa a 2,5GHz, dovrei avere il massimo prestazionalmente, forse ancora qualcosina perchè i timing ram sono a def... a 1,42V dovrei già stare a 4,6GHz con temp massime sui 35° (io sono arrivato a 33° al massimo, ma non ho fatto cose intensive per ore), quindi ancora ho un margine buono di 15°, probabile che 1,45V/1,48V ci dovrei stare e quindi frequenze sui 4,7GHz/4,8GHz le potrei prendere, poi c'è chi lo tiene a 1,5V/5GHz pure ad aria... Cioè... non posso dire che un RS DU a 5GHz non si possa tenere, ma io sono sicuro che non lo terrò... :)

Phenomenale
16-11-2012, 11:13
Ho trovato una maxi recensione dell' FX-8350... ben 16 pagine in lingua italiana!
Eccola: http://www.pctuner.net/articoli/processori/1755/AMD-FX-8350-8-core-Piledriver-a-4.0GHz.-Benchmark-e-Overclock-/1.html

LS1987
16-11-2012, 11:35
Ho visto che in idle l'FX 8350 non consuma tantissimo.

Catan
16-11-2012, 11:46
Ho visto che in idle l'FX 8350 non consuma tantissimo.

Si effettivamente rispetto a pd, hanno abbassato il consumo in idle di 20-25W mentre in full sono riusciti a strappare un 10-15W.
Ovviamente parlando a default e non in oc.
In oc sui 4.8-5ghz rispetto a bd, si riescono ad ottenere valori anche sui 50W di meno.

shellx
16-11-2012, 14:39
Il mio FX-8320: ha un vcore default di 1,32v con lo stesso vcore sono salito a 3,9ghz (dai 3,5ghz). Sto testando la stabilità da piu di 2 ore con i vari parchi applicativi di stress cpu per linux. Dopo aver appurato il RS, alzo il vcore di uno step e salgo con la frequenza, dovrebbe essere possibile secondo me 4.0/4.1 ghz (8350) con 1.33 di vcore o giu di li. E penso a naso che a questo giro prendo pure i 4,4ghz+ con meno di 1,37v. Sembra piu culuto dell'8120. Vediamo...

Raffyone
16-11-2012, 14:59
Al momento con l'8350 faccio fatica a trovare stabilità sopra ai 5GHz, ma ho l'SO installato da più di 1 anno con tante porcherie e task aggiuntivi... e sono ancora sulla CF V e ho la CF V-Z imballata... Il wc ancora non l'ho usato perchè sono dietro a trovare un settaggio ottimizzato con cui poi salire di frequenza... I core vanno bene perchè ho provato a 5,2GHz con Cinebench testandolo su ognuno e quindi non ho prb a livello di core/L1/l2... ma usandoli tutti e 8 si, quindi potrebbe esserci un prb di NB e forse di temp non rilevate correttamente... ma mi tocca overvoltare un tot... 4,9GHz sotto 1,5V e 5GHz quasi ad 1,6V mi sembrano veramente tanti... invece 1,55V con 1 core per 5,2GHz...

Al momento con 1,48V riesco ad essere RS a 4,850GHz con NB 1,2V per 2,483GHz e DDR3 2,408GHz 1,65V

Le temp in idle sono di 25° a liquido, ma ho appena acceso... facciamo 27°... le performances ci sono.

http://uptiki.altervista.org/_altervista_ht/bolozpysu1ei5jqobwsh_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=bolozpysu1ei5jqobwsh.jpg)

http://uptiki.altervista.org/_altervista_ht/0lc5cd86x0cuid7f4g1_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=0lc5cd86x0cuid7f4g1.jpg)


Per la massima frequenza DU, io cerco il massimo dell'ottimizzazione alla massima frequenza possibile con il limite di non superare i 50° di procio, poi dove si arriva si arriva...
Con DDR3 2,4GHz ed un NB circa a 2,5GHz, dovrei avere il massimo prestazionalmente, forse ancora qualcosina perchè i timing ram sono a def... a 1,42V dovrei già stare a 4,6GHz con temp massime sui 35° (io sono arrivato a 33° al massimo, ma non ho fatto cose intensive per ore), quindi ancora ho un margine buono di 15°, probabile che 1,45V/1,48V ci dovrei stare e quindi frequenze sui 4,7GHz/4,8GHz le potrei prendere, poi c'è chi lo tiene a 1,5V/5GHz pure ad aria... Cioè... non posso dire che un RS DU a 5GHz non si possa tenere, ma io sono sicuro che non lo terrò... :)

secondo mè se metti la crosshair v formula z farai un salto di qualità come successo a me;) fx8150 con la sabertooth non riuscivo a tenere i 5,0Ghz:mad: le temperature salivano di parecchio perche dovevo aumentare di molto i V.:mad: poi cambiando mobo con quella in firma riesco a mantenere i 5,0MHz senza problemi con solo 1,547V.;) con temperature max 55;) vorrei sottoliniare una cosa molto importante, ho avuto molti problemi con il wi 8, mi riusciva a mantenere il tutto come in firma ma avevo problemi con lo spegnere il pc:confused: cioè non si spegneva mai e andava in blocco:mad: poi facendomi un giro in rete ho letto che il wi 8 quando si spegne non si spegne definitivamente ma va in ibernazionesi avete capito bene ecco il segreto dell'avvio e spegnimento veloce:mad: cio significa che se ci sta un overclock abbastanza spinto wi 8 da grattacapi non solo per lo spegnimento:mad: sono passato subito a wi 7 ultimate e tutto va alla meraviglia;)

shellx
16-11-2012, 15:23
secondo mè se metti la crosshair v formula z farai un salto di qualità come successo a me;) fx8150 con la sabertooth non riuscivo a tenere i 5,0Ghz:mad: le temperature salivano di parecchio perche dovevo aumentare di molto i V.:mad: poi cambiando mobo con quella in firma riesco a mantenere i 5,0MHz senza problemi con solo 1,547V.;) con temperature max 55;)

Tu il salto di qualità lo hai fatto dalla saber alla cfv-z, che poi a livello di qualità sono ottime entrambi, mi viene piu da pensare che avevi l'8150 sfigatello. Ma apparte questo Paolo ha ua CFV e secondo me passare a CFV-Z dal punto di vista di OC cambia tipo l'1% per essere clemente.


vorrei sottoliniare una cosa molto importante, ho avuto molti problemi con il wi 8, mi riusciva a mantenere il tutto come in firma ma avevo problemi con lo spegnere il pc:confused: cioè non si spegneva mai e andava in blocco:mad: poi facendomi un giro in rete ho letto che il wi 8 quando si spegne non si spegne definitivamente ma va in ibernazionesi avete capito bene ecco il segreto dell'avvio e spegnimento veloce:mad: cio significa che se ci sta un overclock abbastanza spinto wi 8 da grattacapi non solo per lo spegnimento:mad: sono passato subito a wi 7 ultimate e tutto va alla meraviglia;)

Uhm...e se io ti dicessi che tramite un file compilato (script in batch) win8 lo spegni definitivamente ?

Raffyone
16-11-2012, 15:26
Tu il salto di qualità lo hai fatto dalla saber alla cfv-z, che poi a livello di qualità sono ottime entrambi, mi viene piu da pensare che avevi l'8150 sfigatello. Ma apparte questo Paolo ha ua CFV e secondo me passare a CFV-Z dal punto di vista di OC cambia tipo l'1% per essere clemente.



Uhm...e se io ti dicessi che tramite un file (script in batch) win8 lo spegni definitivamente ?
il procio e sempre lo stesso;) e poi paolo dice di avere CVF-Z, almeno da comme leggo sopra:p

bene bene, ma io preferisco il 7, secondo me piu' stabile;)

shellx
16-11-2012, 15:28
il procio e sempre lo stesso;)

bene bene, ma io preferisco il 7, secondo me piu' stabile;)

Si ce l'ha ma la tiene imballata perchè deve partire per l'africa, e se lo monta poi fa la frittata nel viaggio.
Io non preferisco nessuno dei due, win8 è orribile e inadeguato per via dell'area mattonelle da cesso, ma ti posso assicurare che il kernel di win8 è addirittura piu snello ed efficiente di quello di win7. E detto da me ... ;)

netcrusher
16-11-2012, 15:33
Si ce l'ha ma la tieneimballata perchè deve partire per l'africa, e se lo monta poi la frittata nel viaggio.
Io non preferisco nessuno dei due, win8 è orribile e inadeguato per via dell'area mattonelle da cesso, ma ti posso assicurare che il kernel di win8 è addirittura piu snello ed efficiente di quello di win7. E detto da me ... ;)

shellx io vorrei installare linux mint ma siccome sono ignorante sono andato sul sito e ce ne sono tantissime diverse tra quelle scaricabili, in cosa differiscono?????

Phenomenale
16-11-2012, 15:38
Il mio FX-8320 ... Sembra piu culuto dell'8120. Vediamo...
Ciao, approfitto al volo della tua perizia tecnica: a naso (di pinguino :p ) il passaggio da 8120 a 8320 si "sente" come prestazioni nell' utilizzo pratico che ne fai tu oppure solo nei benchmark a punti?

PS. Quoto il tuo soprannome di "mattonelle del cesso" per winzozz8, e detto da un old-win-user come me... :rolleyes:

shellx
16-11-2012, 15:42
shellx io vorrei installare linux mint ma siccome sono ignorante sono andato sul sito e ce ne sono tantissime diverse tra quelle scaricabili, in cosa differiscono?????

siamo vergognosamente ot:
tuttavia le tante che citi sono i tanti ambienti desktop: la Mint 13 "Maya" la puoi scaricare in ambienti Cinnamon, KDE, Mate e xfce. Dovrebbe uscire fra non molto una versione Gnome3. Io preferisco il KDE per via dell'ambiente serio. Se vuoi una cosa leggera la prendi xfce o Mate, se vuoi la tamarrata grafica prendi Cinnamon. Se vuoi la gnome subito devi scaricare la versione precedente: Linux Mint 12 "Lisa", la trovi in versioni Gnome, Gnome+Mate, KDE, LXDE.
In poche parole la differenza è nell'ambiente desktop, detto in maniera elementare cambia il layout e gli effetti grafici del desktop, menu, e ecosistema del sistema in generale.
Comunque se vuoi sapere di piu scrivimi in pm.

DanieleRC5
16-11-2012, 15:47
Io sarei curioso di vedere quanta differenza reale c'e' a parita' di cpu tra una Sabertooth r 2 ed una Crosshair V Z per un overclock da utilizzare 24/7.
In caso di clock estremi ci puo' stare la marcata differenza ma in DU credo dovrebbe cambiare pochino, altrimenti poi mi viene la scimmia e kitocca vendere la Saber nuova di pacca e mi girano :-D

Inviato dal mio GT-I9300 con Tapatalk 2

shellx
16-11-2012, 15:55
Ciao, approfitto al volo della tua perizia tecnica: a naso (di pinguino :p ) il passaggio da 8120 a 8320 si "sente" come prestazioni nell' utilizzo pratico che ne fai tu oppure solo nei benchmark a punti?

PS. Quoto il tuo soprannome di "mattonelle del cesso" per winzozz8, e detto da un old-win-user come me... :rolleyes:

Allora, io lo sto provando su Mint12 e su una Xubuntu che sono gli ambienti piu user-friendly e usati dalla massa. Rispetto l'8120, ti dico la verità linux di per se è un os reattivo nativamente, per cui andare a percepire i boost prestazionali fra un 8120 e un 8320 a default in linux è davvero difficile ad occhio umano (almeno il mio occhio), ma le performance in piu ci sono al 100% te lo garantisco, lo noto su carichi intensi, e Linux sui carichi intesivi non scherza mica. Tuttavia (a default) sembra leggermente piu prestante. Ma la cosa che ho potuto notare è che Vishera è piu malneabile di Zambesi dal punto di vista di oc.
Ritornando al discorso differenza: la prova del 9 vera e propria verrà appena lo do in pasto a Gentoo o la Archlinux ;) ossia domani, perchè stasera gli devo rompere la balls su Xubuntu, lo voglio vedere a 4,4ghz minimo (io ho un noctua ad aria).
Motivo ? Devo veder rosicare Paolo e i suoi 20 litri di acqua per vasca da bagno :rotfl: Ora mi uccide...:D :rotfl:

shellx
16-11-2012, 16:06
Io sarei curioso di vedere quanta differenza reale c'e' a parita' di cpu tra una Sabertooth r 2 ed una Crosshair V Z per un overclock da utilizzare 24/7.
In caso di clock estremi ci puo' stare la marcata differenza ma in DU credo dovrebbe cambiare pochino, altrimenti poi mi viene la scimmia e kitocca vendere la Saber nuova di pacca e mi girano :-D

Inviato dal mio GT-I9300 con Tapatalk 2

E se ti vendi la saber me la vendi a me oltretutto :p

winebar
16-11-2012, 16:17
Al momento con l'8350 faccio fatica a trovare stabilità sopra ai 5GHz, ma ho l'SO installato da più di 1 anno con tante porcherie e task aggiuntivi... e sono ancora sulla CF V e ho la CF V-Z imballata... Il wc ancora non l'ho usato perchè sono dietro a trovare un settaggio ottimizzato con cui poi salire di frequenza... I core vanno bene perchè ho provato a 5,2GHz con Cinebench testandolo su ognuno e quindi non ho prb a livello di core/L1/l2... ma usandoli tutti e 8 si, quindi potrebbe esserci un prb di NB e forse di temp non rilevate correttamente... ma mi tocca overvoltare un tot... 4,9GHz sotto 1,5V e 5GHz quasi ad 1,6V mi sembrano veramente tanti... invece 1,55V con 1 core per 5,2GHz...

Al momento con 1,48V riesco ad essere RS a 4,850GHz con NB 1,2V per 2,483GHz e DDR3 2,408GHz 1,65V

Le temp in idle sono di 25° a liquido, ma ho appena acceso... facciamo 27°... le performances ci sono.

http://uptiki.altervista.org/_altervista_ht/bolozpysu1ei5jqobwsh_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=bolozpysu1ei5jqobwsh.jpg)

http://uptiki.altervista.org/_altervista_ht/0lc5cd86x0cuid7f4g1_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=0lc5cd86x0cuid7f4g1.jpg)


Per la massima frequenza DU, io cerco il massimo dell'ottimizzazione alla massima frequenza possibile con il limite di non superare i 50° di procio, poi dove si arriva si arriva...
Con DDR3 2,4GHz ed un NB circa a 2,5GHz, dovrei avere il massimo prestazionalmente, forse ancora qualcosina perchè i timing ram sono a def... a 1,42V dovrei già stare a 4,6GHz con temp massime sui 35° (io sono arrivato a 33° al massimo, ma non ho fatto cose intensive per ore), quindi ancora ho un margine buono di 15°, probabile che 1,45V/1,48V ci dovrei stare e quindi frequenze sui 4,7GHz/4,8GHz le potrei prendere, poi c'è chi lo tiene a 1,5V/5GHz pure ad aria... Cioè... non posso dire che un RS DU a 5GHz non si possa tenere, ma io sono sicuro che non lo terrò... :)

Ti ringrazio della spiegazione. :)
Riguardo al DU, cerco anche io di ottimizzare il più possibile piuttosto che cercare la frequenza più alta possibile. Però mi interessava sapere quanto reggeva al massimo in DU un 8350 con tensioni umane. :D
Ovviamente non ti chiedo di farlo appositamente, appena entrerà nel mio case farò tutti i test del caso... :D

Ho visto che in idle l'FX 8350 non consuma tantissimo.

Sei anche di qua? :D :D :D
L'8350 paradossalmente, è il processore che in idle consuma meno di tutti. Anche di un 3770k (prodotoo a 22 nm).
Ad esempio, se guardi i consumi della recensione postata una pagina fa, noti che il processore di AMD consuma giusto qualche W in più rispetto ad un 3770k.
Ma, come dicevo a paolo prima, per avere un test sui consumi affidabile bisogna prendere i consumi a monte dell'alimentatore. Quindi non conta solo la CPU.
E come sappiamo la differenza tra gli Intel (fino alla fascia performance, quindi i 3770k) e gli AMD top è il fatto che AMD usa Northbridge + Southbridge classici (solo il memory controller è in gran parte nel processore), il che aumenta i consumi rispetto alla controparte Intel.
E sono entrambi prodotti a 65nm, quindi AMD teoricamente avrebbe dovuto fare lo shrink per poter quantomeno pareggiare i consumi con un chipset molto più moderno del suo.

Ritornando al discorso differenza: la prova del 9 vera e propria verrà appena lo do in pasto a Gentoo o la Archlinux ;) ossia domani, perchè stasera gli devo rompere la balls su Xubuntu, lo voglio vedere a 4,4ghz minimo (io ho un noctua ad aria).

Non sei l'unico linaro spinto del thread... ^^
Se vuoi spremere per bene le prestazioni di un 8320 ti consiglio di usare Gentoo (con almeno 8GB di ram in modo da compilare l'intero sistema in ram) oppure Arch usando solo ABS e staccandosi completamente dai precompilati ufficiali...
Altrimenti avresti tante istruzioni non utilizzate...
Giusto per capirci, con Gentoo in confronto ad Arch pago 2/3 secondi di differenza al boot (su Gentoo uso ovviamente l'init system di base NON parallelizzato e systemd su Arch) ma Gentoo è notevolmente più scattante a parità di DE...
Solo aprire Konsole mi fa vedere una differenza ABISSALE...
Vero è che però usando una Gentoo disabilito il debug, quindi le prestazioni notevolmente maggiori sono imputabili anche a quello (stimo il miglioramento rispetto ad Arch in un +10/15% mediamente :read: ).
Ovviamente io parlo mentre sono ancora su un 955 overclockato, su un 8320 le differenze dovrebbero essere ancora maggiori. :D

winebar
16-11-2012, 16:18
E se ti vendi la saber me la vendi a me oltretutto :p

Non ti piace la gd80? Pensa che a me non piace la saber, ma molto probabilmente non la cambio finchè non passerò a Steamroller (soprattutto se venisse cofermato il passaggio a FM2). :stordita:

poi facendomi un giro in rete ho letto che il wi 8 quando si spegne non si spegne definitivamente ma va in ibernazionesi avete capito bene ecco il segreto dell'avvio e spegnimento veloce:mad: cio significa che se ci sta un overclock abbastanza spinto wi 8 da grattacapi non solo per lo spegnimento:mad: [/B] sono passato subito a wi 7 ultimate e tutto va alla meraviglia;)

Siamo OT ma faccio una precisazione...
Non va in ibernazione TUTTO il sistema, viene ibernato il kernel.
Si può tranquillamente togliere l'opzione andando nella gestione energetica e disabilitando l'avvio ibrido. ;)

shellx
16-11-2012, 17:01
Non sei l'unico linaro spinto del thread... ^^
Se vuoi spremere per bene le prestazioni di un 8320 ti consiglio di usare Gentoo (con almeno 8GB di ram in modo da compilare l'intero sistema in ram) oppure Arch usando solo ABS e staccandosi completamente dai precompilati ufficiali...
Altrimenti avresti tante istruzioni non utilizzate...
Giusto per capirci, con Gentoo in confronto ad Arch pago 2/3 secondi di differenza al boot (su Gentoo uso ovviamente l'init system di base NON parallelizzato e systemd su Arch) ma Gentoo è notevolmente più scattante a parità di DE...
Solo aprire Konsole mi fa vedere una differenza ABISSALE...
Vero è che però usando una Gentoo disabilito il debug, quindi le prestazioni notevolmente maggiori sono imputabili anche a quello (stimo il miglioramento rispetto ad Arch in un +10/15% mediamente :read: ).
Ovviamente io parlo mentre sono ancora su un 955 overclockato, su un 8320 le differenze dovrebbero essere ancora maggiori. :D

;)

Non ti piace la gd80? Pensa che a me non piace la saber, ma molto probabilmente non la cambio finchè non passerò a Steamroller (soprattutto se venisse cofermato il passaggio a FM2).

Non è che non piace, anzi si comporta alla grande e nemmeno brutta è dal punto di vista estetico, però io sono un tipo che le cose se le stufa subito. Ho sempre l'istinto del upgrade (anche se c'è poco da aggiornare sull'am3+) o di provare altro anche se la tipologia è simile. Esempio tempo fa dissi che volevo prendermi un FM2+5800K giusto per provarlo, ci sto ancora pensando...come sto pure pensando di provare un'altra mobo am3+ magari una gigabyte o una Asus. Ma scusate, le Biostar come sono ? Ma si trovano in vendita in Italia ? E le ECS ?

paolo.oliva2
16-11-2012, 17:52
Ti ringrazio della spiegazione. :)
Riguardo al DU, cerco anche io di ottimizzare il più possibile piuttosto che cercare la frequenza più alta possibile. Però mi interessava sapere quanto reggeva al massimo in DU un 8350 con tensioni umane. :D
Ovviamente non ti chiedo di farlo appositamente, appena entrerà nel mio case farò tutti i test del caso... :D

Io penso che già a 1,42V sono possibilissimi i 4,6GHz, e 1,42V è una virgola in più rispetto a 1,4V def, Vcore con il quale AMD ti garantisce il pieno funzionamento con il dissi stock a temp ambiente sui 40°... :)

Un 8350 occato a 4,6GHz, che è il più scrauso degli OC permesso pure con il dissi stock, sarebbe già in grado di competere per prestazioni con il mio 8150@5GHz tirato per i capelli e tutt'altro che RS...

shellx
16-11-2012, 18:33
Io penso che già a 1,42V sono possibilissimi i 4,6GHz, e 1,42V è una virgola in più rispetto a 1,4V def, Vcore con il quale AMD ti garantisce il pieno funzionamento con il dissi stock a temp ambiente sui 40°... :)

Un 8350 occato a 4,6GHz, che è il più scrauso degli OC permesso pure con il dissi stock, sarebbe già in grado di competere per prestazioni con il mio 8150@5GHz tirato per i capelli e tutt'altro che RS...

Aggiornamento mio procio: 1.337v (4.4ghz) temperatura 44/46 gradi in full load :D da un ora a macinare anche applicazioni stress database sviluppate da me e contemporanemante gli sto aprendo altre applicazioni (pidgin, xchat, transmission (sarebbe quello che in windows è utorrent), sto giocando a openbve (un simulatore di treni), non fa una piega, se ne sbatte le palle e macina.
A quanto sei arrivato tu di frequenza RS ? Li hai superati 4,6ghz ?
Prossimo mio obbiettivo 4,6ghz, ora vedo se riesco a spiattellare 4 screen quanto finisce di macinare, sto scrivendo dall'altro pc. E poi devo finire il tragitto CATANIA - MESSINA a OPENBVE.
In una prossima vita voglio fare come mestiere il macchinista di treni della ferrovia, è una figata guidarli. :D

PeteRParkeR
16-11-2012, 18:34
Domandona da 1 milione di dollari: Mi sono accorto che la asus M5A97 pro (non mi fa selezionare il molty a 13x per l'HT ( il massimo è 12x quindi con FSB base di 200 si impostano i 2400MHz ).
La domandona è ma gli FX8320-8350 non hanno il bus HT a 2600 di base ??
Forse mi sbaglio ma non riesco a capire...eppure il bios è l'ultimo aggiornato 1604...:rolleyes: bah...???

Diablo III
16-11-2012, 18:38
La domandona è ma gli FX8320-8350 non hanno il bus HT a 2600 di base ??
Forse mi sbaglio ma non riesco a capire...

no, sempre 2200 di default;)

PeteRParkeR
16-11-2012, 18:42
no, sempre 2200 di default;)
ah ecco....grazie per la risposta!!:D

PeteRParkeR
16-11-2012, 18:47
Aggiornamento mio procio: 1.337v (4.4ghz) temperatura 44/46 gradi in full load :D da un ora a macinare anche applicazioni stress database sviluppate da me e contemporanemante gli sto aprendo altre applicazioni (pidgin, xchat, transmission (sarebbe quello che in windows è utorrent), sto giocando a openbve (un simulatore di treni), non fa una piega, se ne sbatte le palle e macina.
A quanto sei arrivato tu di frequenza RS ? Li hai superati 4,6ghz ?
Prossimo mio obbiettivo 4,6ghz, ora vedo se riesco a spiattellare 4 screen quanto finisce di macinare, sto scrivendo dall'altro pc. E poi devo finire il tragitto CATANIA - MESSINA a OPENBVE.
In una prossima vita voglio fare come mestiere il macchinista di treni della ferrovia, è una figata guidarli. :D

Ottimo Shellx ;) Ma 1,3375 da bios ? altri parametri LLC ? cpu/nb? cpu VDDA ? nb ? nb ht ? ;)
PS: su socket che temperatura rilevi quando su cores stai sui 44/46 ?

shellx
16-11-2012, 19:05
Ottimo Shellx ;) Ma 1,3375 da bios ? altri parametri LLC ? cpu/nb? cpu VDDA ? nb ? nb ht ? ;)
PS: su socket che temperatura rilevi quando su cores stai sui 44/46 ?

si da bios, il resto non l'ho ancora mai toccato tutto default... devo prima verificare il comportamento del vcore vs clock_core.

paolo.oliva2
16-11-2012, 19:30
Aggiornamento mio procio: 1.337v (4.4ghz) temperatura 44/46 gradi in full load :D da un ora a macinare anche applicazioni stress database sviluppate da me e contemporanemante gli sto aprendo altre applicazioni (pidgin, xchat, transmission (sarebbe quello che in windows è utorrent), sto giocando a openbve (un simulatore di treni), non fa una piega, se ne sbatte le palle e macina.
A quanto sei arrivato tu di frequenza RS ? Li hai superati 4,6ghz ?
Prossimo mio obbiettivo 4,6ghz, ora vedo se riesco a spiattellare 4 screen quanto finisce di macinare, sto scrivendo dall'altro pc. E poi devo finire il tragitto CATANIA - MESSINA a OPENBVE.
In una prossima vita voglio fare come mestiere il macchinista di treni della ferrovia, è una figata guidarli. :D

Come RS sono stabile anche a 4,9GHz, ma 2,5GHz di NB e 2,4GHz di DDR3 sono un po' tirati... ma c'è un qualche cosa sotto che da' fastidio... pare impossibile ma è come se SO e mobo ricordassero i limiti dell'8150 oltre i 5GHz... perchè quando faccio un OC "diverso", tipo 1 core, sembra un altro procio e vado pure a 5,2GHz. Per lo screen sono arrivato oltre i 5,5GHz.
Devo aver pazienza per 2 settimane circa... dopo parto e a destinazione rimonto tutto. Non ho 1 hd libero... perchè per precauzione, visto che mi porto via tutta la videoteca, ho doppiato i dati di ogni hd...

affiu
16-11-2012, 19:34
[QUOTE=shellx;38550187]Aggiornamento mio procio: 1.337v (4.4ghz) temperatura 44/46 gradi in full load :D da un ora a macinare anche applicazioni stress database sviluppate da me e contemporanemante gli sto aprendo altre applicazioni (pidgin, xchat, transmission (sarebbe quello che in windows è utorrent), sto giocando a openbve (un simulatore di treni), non fa una piega, se ne sbatte le palle e macina.

Bene Shellx cosi mi piace la cosa:D ...ma ettento che se ti scappa qualche cosa dentro il case quando è in funzione ti esce frullato;)

isomen
16-11-2012, 20:17
Leggo di 1.337v a 4.4ghz... ma sono io che nn sono capace (probabile che ancora nna abbia capito la cpu o la mobo) oppure ho beccato l'8350 più sfigato esistente sulla terra :confused:
vcore default 1,4 e a 1,42 tiene i 4,5... fin qui diciamo che va bene, ma oltre é una tragedia... già a 4,7 nn passo linx o occt neppure con 1,475 (anche se a 5ghz con 1,52 faccio senza problemi i vari 3dmarck e cinebench), potrebbe dipendere dall'ali? mi é morto il 750w e stò testando con un 400w (é un enermax... ma sempre 400w sono).

;) CIAUZ

PeteRParkeR
16-11-2012, 20:42
si da bios, il resto non l'ho ancora mai toccato tutto default... devo prima verificare il comportamento del vcore vs clock_core.
Cioè fammi capire tutti gli altri parametri sono impostati su auto ??? :eek:

shellx
16-11-2012, 22:08
cut...
potrebbe dipendere dall'ali? mi é morto il 750w e stò testando con un 400w (é un enermax... ma sempre 400w sono).

;) CIAUZ

:eek: FX-8350 + 400w di psu? Quei 400w per me sono insufficienti. Minimo minimo un 500w di marca.

Cioè fammi capire tutti gli altri parametri sono impostati su auto ???

per il momento si...

PeteRParkeR
16-11-2012, 22:17
:eek: FX-8350 + 400w di psu? Quei 400w per me sono insufficienti. Minimo minimo un 500w di marca.

per il momento si...

Anche io sono dello stesso parere di shellx troppo pochi i 400W...ci vuole almeno un 500W 80plus!!

Shellx attenzione al valore "auto" di cpu/nb ho notato che in "manual" per salire solo con molty cpu e (fissare il voltaggio a 1,337v) te lo spara a 1,45v mi sa che sono un po tanti....( poi non so come si comporta la tua mobo...)
byee

°Phenom°
16-11-2012, 22:23
Quoto, 400 watt sono davvero pochi, ed anche se è un enermax, lo stesso credo non riesca a darti la totale stabilità, io direi almeno un 650 w e per stare larghetto un 750, ovviamente entrambi di marca e certificati, ho avuto brutte esperienze già io :D

DanieleRC5
16-11-2012, 23:08
Io per i 4,5 ghz sono piazzato piu' o meno come te, per i 4,7 vado un pochino meglio ma un ali da 400w non e' proprio l'ideale soprattutto per le prove di overclock! :-)

Inviato dal mio GT-I9300 con Tapatalk 2

paolo.oliva2
16-11-2012, 23:55
Leggo di 1.337v a 4.4ghz... ma sono io che nn sono capace (probabile che ancora nna abbia capito la cpu o la mobo) oppure ho beccato l'8350 più sfigato esistente sulla terra :confused:
vcore default 1,4 e a 1,42 tiene i 4,5... fin qui diciamo che va bene, ma oltre é una tragedia... già a 4,7 nn passo linx o occt neppure con 1,475 (anche se a 5ghz con 1,52 faccio senza problemi i vari 3dmarck e cinebench), potrebbe dipendere dall'ali? mi é morto il 750w e stò testando con un 400w (é un enermax... ma sempre 400w sono).

;) CIAUZ

Per me sei in linea... 1,42V i 4,5GHz secondo me va bene.
Per vedere se è l'ali, puoi fare 2 prove:

La prima... sei RS, tipo 1,42V 4,5GHz, ci carichi 2-3 programmi intensivi contemporaneamente, da mandare i core al 101% di carico... e vedi se tiene.

La seconda... disabilita 2 moduli e testalo come FX X4 alle frequenze che come X8 ti si inchiappettava...

LS1987
17-11-2012, 02:10
Ti ringrazio della spiegazione. :)
Riguardo al DU, cerco anche io di ottimizzare il più possibile piuttosto che cercare la frequenza più alta possibile. Però mi interessava sapere quanto reggeva al massimo in DU un 8350 con tensioni umane. :D
Ovviamente non ti chiedo di farlo appositamente, appena entrerà nel mio case farò tutti i test del caso... :D



Sei anche di qua? :D :D :D
L'8350 paradossalmente, è il processore che in idle consuma meno di tutti. Anche di un 3770k (prodotoo a 22 nm).
Ad esempio, se guardi i consumi della recensione postata una pagina fa, noti che il processore di AMD consuma giusto qualche W in più rispetto ad un 3770k.
Ma, come dicevo a paolo prima, per avere un test sui consumi affidabile bisogna prendere i consumi a monte dell'alimentatore. Quindi non conta solo la CPU.
E come sappiamo la differenza tra gli Intel (fino alla fascia performance, quindi i 3770k) e gli AMD top è il fatto che AMD usa Northbridge + Southbridge classici (solo il memory controller è in gran parte nel processore), il che aumenta i consumi rispetto alla controparte Intel.
E sono entrambi prodotti a 65nm, quindi AMD teoricamente avrebbe dovuto fare lo shrink per poter quantomeno pareggiare i consumi con un chipset molto più moderno del suo.

[...]


Di certo il northbridge e il southbridge di AMD non consumano 20 W in più della controparte Intel. D'altronde nessuno si è mai occupato dei consumi del chipset, quindi non dovrebbe essere molta la differenza. Quando l'FX 8350 costerà 100 - 120 € (o 200 € in valore assoluto, il minimo delle due al momento) meno del 3770 k sarà un best buy.

paolo.oliva2
17-11-2012, 08:32
Di certo il northbridge e il southbridge di AMD non consumano 20 W in più della controparte Intel. D'altronde nessuno si è mai occupato dei consumi del chipset, quindi non dovrebbe essere molta la differenza. Quando l'FX 8350 costerà 100 - 120 € (o 200 € in valore assoluto, il minimo delle due al momento) meno del 3770 k sarà un best buy.

Io l'ho pagato 199€, come anche altri.. Comunque tutto dipende dall'utilizzo... per un uso puramente MT, io non vedo un valore aggiuntivo di 100-120€ in un 3770K, in ST potrà forse essere diverso. Poi l'utilizzo def è una cosa, per chi occa bisogna vedere... leggevo che i 4,7GHz sono in pochi ad arrivarci con il 3770K... mentre i 4,6-4,7GHz con l'8350 si raggiungono con il dissi stock e qualcuno senza dover manco overvoltare. Inoltre bisognerebbe tenere sott'occhio l'8320 perchè potrebbe comunque garantire OC sui 4,6-4,7GHz, ma con un costo inferiore... praticamente la metà di un 3770K. Secondo me, per chi cerca il massimo tra ST e giochi, il 3770K è l'unico procio che può fare il risultato (io faccio 1,39 a Cinebench @5,2GHz, il 3770K mi sembra faccia 1,55 a def, spero di non sbagliarmi)... ma per la differenza reale globale di prestazioni, già 50€ sarebbero troppi.

isomen
17-11-2012, 08:51
Per me sei in linea... 1,42V i 4,5GHz secondo me va bene.
Per vedere se è l'ali, puoi fare 2 prove:

La prima... sei RS, tipo 1,42V 4,5GHz, ci carichi 2-3 programmi intensivi contemporaneamente, da mandare i core al 101% di carico... e vedi se tiene.

La seconda... disabilita 2 moduli e testalo come FX X4 alle frequenze che come X8 ti si inchiappettava...

farò queste prove, mi sembra impossibile che sia morto il 750w così inspiegabilmentee e con poche ore d'utilizzo (enermax anch'esso), ma l'accaduto lascia pochi dubbi... ho sostituito la cpu (tolta 955, usata per aggiornare il bios e installare il so, messa 8350) e il pc nn ha dato più segni di vita, l'ho smontata e rimontata e nn é cambiato nulla, ho smontato la mobo e provato tutto fuori dal case con il 400w ed é partito, rimontata nel case ha continuato a nn dare segni di vita (si accendeva solo il led verde della mobo) fino a quando nn ho sostituito l'ali.

;) CIAUZ

Spitfire84
17-11-2012, 11:20
qualche possessore volenteroso di 8350 potrebbe prendersi l'impegno di scrive una guida all'overclock di queste cpu...

Diablo III
17-11-2012, 11:23
qualche possessore volenteroso di 8350 potrebbe prendersi l'impegno di scrive una guida all'overclock di queste cpu...

e dopo che fine farebbe tutto il divertimento? :stordita:

LS1987
17-11-2012, 13:13
Io l'ho pagato 199€, come anche altri.. Comunque tutto dipende dall'utilizzo... per un uso puramente MT, io non vedo un valore aggiuntivo di 100-120€ in un 3770K, in ST potrà forse essere diverso. Poi l'utilizzo def è una cosa, per chi occa bisogna vedere... leggevo che i 4,7GHz sono in pochi ad arrivarci con il 3770K... mentre i 4,6-4,7GHz con l'8350 si raggiungono con il dissi stock e qualcuno senza dover manco overvoltare. Inoltre bisognerebbe tenere sott'occhio l'8320 perchè potrebbe comunque garantire OC sui 4,6-4,7GHz, ma con un costo inferiore... praticamente la metà di un 3770K. Secondo me, per chi cerca il massimo tra ST e giochi, il 3770K è l'unico procio che può fare il risultato (io faccio 1,39 a Cinebench @5,2GHz, il 3770K mi sembra faccia 1,55 a def, spero di non sbagliarmi)... ma per la differenza reale globale di prestazioni, già 50€ sarebbero troppi.

Ma i due 8 core hanno un dissipatore stock identico? In caso di risposta affermativa si potrebbero toccare probabilmente i 4.45 GHz con l'FX 8320 utilizzando il dissipatore stock, non male. E' significativa la differenza di consumo del chipset?

paolo.oliva2
17-11-2012, 13:32
Ma i due 8 core hanno un dissipatore stock identico? In caso di risposta affermativa si potrebbero toccare probabilmente i 4.45 GHz con l'FX 8320 utilizzando il dissipatore stock, non male. E' significativa la differenza di consumo del chipset?
Dovrebbe essere lo stesso, è un dissi fino a 140W TDP...
Per il consumo... io credo che chip-set e menate varie incidano veramente poco... infatti PD in idle sia come consumo procio che come consumo complessivo del sistema è inferiore alla controparte... poi sotto carico sia il 32nm che ancor più il 22nm consumano meno.

paolo.oliva2
17-11-2012, 13:36
http://uptiki.altervista.org/_altervista_ht/d5qgm4g2mxqdktnp3ced_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=d5qgm4g2mxqdktnp3ced.jpg)

http://uptiki.altervista.org/_altervista_ht/qv08utfvyqx8sqjhrfls_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=qv08utfvyqx8sqjhrfls.jpg)

Va che ci arrivo...
200x25,5=5,117GHz Cinebench 8,77
201x25,5=5,142GHz Cinebench 8,81.

NB def 2,2GHz e DDR3 2133.

P.S.
AI Suite II della CF V non funzia sotto Windows 8, e AI Suite della CF V-z, fatto per Windows 8, non funzia correttamente sulla CF V.
AOD non funzia sotto Windows 8, non cambia alcun parametro...
Praticamente l'OC sopra è fatto dopo variate bestemmie, su Windows 8.

Athlon 64 3000+
17-11-2012, 14:30
http://forums.anandtech.com/showthread.php?t=2283742

Non so se è vero questo rumor.

smoicol
17-11-2012, 15:07
Io l'ho pagato 199€, come anche altri.. Comunque tutto dipende dall'utilizzo... per un uso puramente MT, io non vedo un valore aggiuntivo di 100-120€ in un 3770K, in ST potrà forse essere diverso. Poi l'utilizzo def è una cosa, per chi occa bisogna vedere... leggevo che i 4,7GHz sono in pochi ad arrivarci con il 3770K... mentre i 4,6-4,7GHz con l'8350 si raggiungono con il dissi stock e qualcuno senza dover manco overvoltare. Inoltre bisognerebbe tenere sott'occhio l'8320 perchè potrebbe comunque garantire OC sui 4,6-4,7GHz, ma con un costo inferiore... praticamente la metà di un 3770K. Secondo me, per chi cerca il massimo tra ST e giochi, il 3770K è l'unico procio che può fare il risultato (io faccio 1,39 a Cinebench @5,2GHz, il 3770K mi sembra faccia 1,55 a def, spero di non sbagliarmi)... ma per la differenza reale globale di prestazioni, già 50€ sarebbero troppi.

hai colpito nel segno, è questo che mi tormenta da un pò di tempo a cui una spiegazione non l'ho ancora trovata, ho 3770k e il pc lo uso per game principalmente, a parte le prestazioni totali del 3770k in oc o senza, realmente un 8350 quanto va meno, se và meno? lo chiedo per 2 motivi fondamentali, primo: un 3770k in oc è vero che rende, ma i nuovi amd per divertirsi sembrano migliori, result a parte.
secondo: in oc un 8350 si porta con dissi stock intorno i 4.5\4.6 chi è a liquido o ha un buon dissi ad aria un 100\200 mhz in più li prende come minimo, allora chiedo realmente passare da un 3770k a un amd pure overclokkato è cosi limitante? guardando anche in ottica pc micro atx o mini itx.

capitan_crasy
17-11-2012, 15:22
http://forums.anandtech.com/showthread.php?t=2283742

Non so se è vero questo rumor.

Alcuni ES steamroller sono già funzionanti, se usciranno soluzioni a 28nm nel 2013 è probabile che riguardi SOLO il reparto mobile/ultra mobile...

netcrusher
17-11-2012, 15:28
Di certo il northbridge e il southbridge di AMD non consumano 20 W in più della controparte Intel. D'altronde nessuno si è mai occupato dei consumi del chipset, quindi non dovrebbe essere molta la differenza. Quando l'FX 8350 costerà 100 - 120 € (o 200 € in valore assoluto, il minimo delle due al momento) meno del 3770 k sarà un best buy.

ma infatti l'FX-8350 costa 100-120 euro in meno all'I7 3770K :muro: :muro:

Athlon 64 3000+
17-11-2012, 16:10
Alcuni ES steamroller sono già funzionanti, se usciranno soluzioni a 28nm nel 2013 è probabile che riguardi SOLO il reparto mobile/ultra mobile...

Sarebbe già molto se per max questa estate riusciranno a lanciare in ambito Notebook/Ultrabook e Netbook Kaveri e Kabini cosi da far respirare la casse di AMD.

winebar
17-11-2012, 16:18
Di certo il northbridge e il southbridge di AMD non consumano 20 W in più della controparte Intel. D'altronde nessuno si è mai occupato dei consumi del chipset, quindi non dovrebbe essere molta la differenza. Quando l'FX 8350 costerà 100 - 120 € (o 200 € in valore assoluto, il minimo delle due al momento) meno del 3770 k sarà un best buy.

A listino di entrambi i produttori il 3770k costa 320$. L'8350 costa 195$.
Parliamo di 125$ di differenza, che ovviamente si tramutano in €...
Quindi che dici, costando 125€ in meno del top Intel e andando poco meno in quasi tutti i test, tranne nel gaming, è un best buy?

Calcolare il consumo di Northbridge + Southbdrige tradizionali con quelli di un NB + SB che forniscono solo le linee PCI-E, USB e SATA è difficile, ma certamente parliamo di ALMENO 10 W di differenza.

Io l'ho pagato 199€, come anche altri.. Comunque tutto dipende dall'utilizzo... per un uso puramente MT, io non vedo un valore aggiuntivo di 100-120€ in un 3770K, in ST potrà forse essere diverso. Poi l'utilizzo def è una cosa, per chi occa bisogna vedere... leggevo che i 4,7GHz sono in pochi ad arrivarci con il 3770K... mentre i 4,6-4,7GHz con l'8350 si raggiungono con il dissi stock e qualcuno senza dover manco overvoltare. Inoltre bisognerebbe tenere sott'occhio l'8320 perchè potrebbe comunque garantire OC sui 4,6-4,7GHz, ma con un costo inferiore... praticamente la metà di un 3770K. Secondo me, per chi cerca il massimo tra ST e giochi, il 3770K è l'unico procio che può fare il risultato (io faccio 1,39 a Cinebench @5,2GHz, il 3770K mi sembra faccia 1,55 a def, spero di non sbagliarmi)... ma per la differenza reale globale di prestazioni, già 50€ sarebbero troppi.

Io son riuscito a trovarlo a 176/183€ più spedizione (dovrebbe essere 8€) in uno shop online. Ovviamente nuovo.
Magari ci mette un po' di più ad arrivare, ma comunque si risparmiano 15/20€ sul processore come niente...
In pratica lo si prende quasi al prezzo di un 8320 a listino. :D
Se non sbaglio il 3570k fa 1,54 in ST a Cinebench e un 3770k dovrebbe arrivare a poco meno di 1,70. :)

netcrusher
17-11-2012, 16:30
infatti il prezzo migliore al momento dell'FX-8350 è 176 euro + spedizione, sto parlando di shop italiano niente crucconia.......il 3770K costa tra le 290 e i 300 quindi mi pare ci siano tutti i 120-130 euro di risparmio, e nell'multi threading sta pure avanti alcune volte al 3770K, sul versante gaming lasciamo perdere và.....anche se penso ma chi cavolo gioca ancora con la 1280x720?????

paolo.oliva2
17-11-2012, 16:54
infatti il prezzo migliore al momento dell'FX-8350 è 176 euro + spedizione, sto parlando di shop italiano niente crucconia.......il 3770K costa tra le 290 e i 300 quindi mi pare ci siano tutti i 120-130 euro di risparmio, e nell'multi threading sta pure avanti alcune volte al 3770K, sul versante gaming lasciamo perdere và.....anche se penso ma chi cavolo gioca ancora con la 1280x720?????

Comunque secondo me cambieranno le offerte ed i listini ai primi del 2013...
Ho la sensazione che Intel farà uscire un modello superiore al 3770K ma allo stesso prezzo e il 3770K dovrebbe diminuire di prezzo...
Dal canto AMD... qualsiasi 8350 attuale, 1,4V def, permetterebbe tranquillamente i 4,2GHz def e 4,4GHz Turbo... dagli 2-3 mesi di produzione, giusto per raffinare un pelino lo step di produzione e l'8370 sarebbe già bello che servito. Ho i miei dubbi che cambierebbe granché in OC massimo, ma 100MHz in più in OC ad aria li vedrei possibilissimi.

LS1987
17-11-2012, 17:40
ma infatti l'FX-8350 costa 100-120 euro in meno all'I7 3770K :muro: :muro:

OK. L'ultima volta che avevo guardato su trovaprezzi la differenza era inferiore. Se hanno lo stesso dissipatore stock forse è ancora più conveniente FX-8320 rispetto all'8350. Oppure vale la pena spendere 27 € in più?

Non ho capito chi comprerebbe i vecchi FX 6200 per risparmiare 6 € rispetto all'FX 6300.

DanieleRC5
17-11-2012, 18:02
Per me sei in linea... 1,42V i 4,5GHz secondo me va bene.
Per vedere se è l'ali, puoi fare 2 prove:

La prima... sei RS, tipo 1,42V 4,5GHz, ci carichi 2-3 programmi intensivi contemporaneamente, da mandare i core al 101% di carico... e vedi se tiene.

La seconda... disabilita 2 moduli e testalo come FX X4 alle frequenze che come X8 ti si inchiappettava...

Ma questi 1,42v per voi sono da intendersi co LLC attivo? Se si' a che valore? Io per ora ho preferito un vcore piu' alto con llc disattivato.
Per quek che sto vedendo cmq va infinitamente meglio dek 1055t che ho posseduto ( che sulla mobo del tempo arrivava DU a 3,75 ghz senza problemi ad aria)
Mi piace sto 8350 :-)

Inviato dal mio GT-I9300 con Tapatalk 2

shellx
17-11-2012, 18:05
Sarebbe già molto se per max questa estate riusciranno a lanciare in ambito Notebook/Ultrabook e Netbook Kaveri e Kabini cosi da far respirare la casse di AMD.

Hai assolutamente ragione, ma io lo voglio per desktop :(

dagli 2-3 mesi di produzione, giusto per raffinare un pelino lo step di produzione e l'8370 sarebbe già bello che servito. Ho i miei dubbi che cambierebbe granché in OC massimo, ma 100MHz in più in OC ad aria li vedrei possibilissimi.

io credo che questo scenario lo vedrai con PD2.0, credo che l'8350 resterà il top fino all'uscita del prossimo step PD (il famoso PD2.0 annunciato giorni fa da amd previsto nel 2013 al posto di steamroller posticipato nel 2014). Sempre se le cose vanno nel verso giusto...
io continuo ad avere una strana sensazione: AMD deve fare cassa, per farlo deve assolutamente coprire i mercati tablet e smartphone, o fare denaro con chip custom ed embedded (console), questa cosa è assolutamente necessaria, ma per poterla realizzare ci vogliono soldi per investire. La mia paura è: o che non lo faccia per non rischiare e preferisce vendersi, o che lo faccia, si riprenda veramente, però tutto questo paga il fatto che trascura in maniera violenta il mercato desktop pc, che secondo rory non porta piu soldi. Io spero solo che riesca a riprendersi entrando in altri mercati, ma in maniera parallela continuare con i suoi prodotti di sempre per pc tradizionali (cpu, gpu ecc ecc), anche perchè si vero che il mobile oggi è priorità ma è anche vero che i PC (specie desktop) per quanto crisi subiscano oggi sono assolutamente necessari in ambiti professionali e particolari, dove cellulari e tablet non possono cambiare la situazione perleridotte potenze e con queigli arm_toys), solo che purtroppo non sono piu scelti dalla massa per ovvi motivi, e questo causa crisi alle aziende che hanno sempre prodotto cpu, e chi gestisce un azienda piccolina è quella a risentirne di piu. Del resto intel sti problemi non li ha avuti perchè tanto riesce a produrre per tutti i mercati che vuole, visto i soldi che ha, non ha paura di investire. AMD deve investire sul mobile assolutamente, inmodo tale da riprendersi e ricominciare a produrre prodotti per tutti, senza dover castrare roadmap (perchè secondo me le ultime roadmap desktop sono installo per questo motivo, perchè il mobile gli porta di piu, e il desktop puo aspettare visto la gia spinta potenza e le richieste nettamente inferiori rispetto gli anni passati). Speriamo bene, perchè io gli ultrabook per zombie, che non si lasciano smanettare, che la potenza e èanch'essa inferiore rispetto dove puoiarrivare con id esktop, e oltretutto che si sfasciano dopo un anno: no no... non li voglio.

[OT] Volete sapere l'ultima ? Mi hanno regalato ieri per il mio compleanno il Nexus7 :eek: quando lo visto volevo morire...gli ho detto "ma non era meglio una mobo" ? e lui mi fa: "una che" ? e io: "lascia perdere"...
Ho installato MSI AFTERBURNER per android sul tablet per overcloccare dal bios mobo tramite tablet :sofico: , solo che MSI ha fatto l'applicazione per android ma non gli è venuto in mente di integrare un bluetooth nella mobo (invece ROG Asus ti esce il modulino bt nella scatola), ho dovuto comprare un pennino bt. Ora mi chiedo, a parte questo utilizzo di bios per il mio pc, non riesco a trovare altro modo di utilizzare il tablet per cose utili. Credimi, è posato sul comodino non lo calcolo nemmeno di striscio perchè sono troppo preso dall'8120. Voi conoscete qualche uso (apparte oc di uefi bios) da poter fare con il tablet in concomitanza con il mio pc ? [FINE OT]

Tornando in topic:
Aggiornamento mio fx-8120: 1.337v 4,4ghz RD DU (48° max in full) su os xubuntu e mint (fra poco provo su gentoo), ancora tutti gli altri parametri sono default, il valore del cpu/nb è impostato su auto, tuttavia alzando il clock ratio (senza toccare bus) il vcore lo mantiene a 1.337v.
Fin qui mi son detto: minchia che culo ! E invece inizia adesso la sfiga, per i 4.5ghz (+100mhz -> da 1,33 vuole drasticamente gli 1.38v) di meno crasha, i 4,6ghz manco li provo che mi demoralizzo. Sai dirmi se centra il fatto dell'ottimizazzione nb e affini ? Io faccio schifo in oc, non saprei come muoverli quei cosi per trovare il giusto compromesso in modo tale da dare meno voltaggio (almeno 1.37v) per i 4,5ghz. Cosi da avere 1,38/1,39 per i 4,6ghz.

Raffyone
17-11-2012, 18:22
Ragazzi visto che sono stabile con i parametri in firma adesso per un risparmio energetico quando non lo utilizzo oppure quando navigo solo, su quale impostazione devo intervenire nel bios?

paolo.oliva2
17-11-2012, 18:24
Ho fatto delle prove di undervolt... e sono rimasto sorpreso da questo step C0, perchè è molto strano rispetto al B2g.

Con il Vcore def, 1,3V, l'8150 arrivava a 3,8GHz.

4GHz - 8350 1,35V - 8150 a naso 1,37V (forse anche meno)

Quello che cambia in maniera radicale, è che l'8350 con il Vcore def di 1,4V, praticamente arriva dai 4GHz def sino ai 4,5-4,6GHz, mentre l'8150 stava a 1,42V per i 4,2GHz, 1,44V per i 4,4GHz, 1,46-1,48V per i 4,6GHz.

Quindi con +0,05V (considerando 1,35V per 4GHz), l'8350 è in grado di salire di 600MHz, mentre l'8150 (considerando 1,37V per 4GHz) per le stesse frequenze necessita da +0,09 a +0,11V, praticamente il doppio.

L'8350 riesce a stare attorno ai 5GHz su 1,5V Vcore... e per 5,150GHz io ci applico un Vcore da 1,55V a 1,6V..., non sono RS :D.

Cambiando il sistema operativo, sono arrivato a 5,150GHz, ma non ne sono del tutto convinto che sia l'SO, perchè oggi le temp si sono abbassate e contemporaneamente ho preso 100MHz in più... coincidenza? Qualche giorno e provo con il WC, poi lo scopriro' :sofico:

shellx
17-11-2012, 18:34
Ho fatto delle prove di undervolt... e sono rimasto sorpreso da questo step C0, perchè è molto strano rispetto al B2g.

Con il Vcore def, 1,3V, l'8150 arrivava a 3,8GHz.

4GHz - 8350 1,35V - 8150 a naso 1,37V (forse anche meno)

Quello che cambia in maniera radicale, è che l'8350 con il Vcore def di 1,4V, praticamente arriva dai 4GHz def sino ai 4,5-4,6GHz, mentre l'8150 stava a 1,42V per i 4,2GHz, 1,44V per i 4,4GHz, 1,46-1,48V per i 4,6GHz.

Quindi con +0,05V (considerando 1,35V per 4GHz), l'8350 è in grado di salire di 600MHz, mentre l'8150 (considerando 1,37V per 4GHz) per le stesse frequenze necessita da +0,09 a +0,11V, praticamente il doppio.

L'8350 riesce a stare attorno ai 5GHz su 1,5V Vcore... e per 5,150GHz io ci applico un Vcore da 1,55V a 1,6V..., non sono RS :D.

Cambiando il sistema operativo, sono arrivato a 5,150GHz, ma non ne sono del tutto convinto che sia l'SO, perchè oggi le temp si sono abbassate e contemporaneamente ho preso 100MHz in più... coincidenza? Qualche giorno e provo con il WC, poi lo scopriro' :sofico:

Occhio alla condensa, che ho saputo che l'ultima volta sulla mobo hai creato l'habitat ideale per i girini e zanzare. :D

paolo.oliva2
17-11-2012, 19:48
Hai assolutamente ragione, ma io lo voglio per desktop :(

io credo che questo scenario lo vedrai con PD2.0, credo che l'8350 resterà il top fino all'uscita del prossimo step PD (il famoso PD2.0 annunciato giorni fa da amd previsto nel 2013 al posto di steamroller posticipato nel 2014). Sempre se le cose vanno nel verso giusto...
io continuo ad avere una strana sensazione: AMD deve fare cassa, per farlo deve assolutamente coprire i mercati tablet e smartphone, o fare denaro con chip custom ed embedded (console), questa cosa è assolutamente necessaria, ma per poterla realizzare ci vogliono soldi per investire. La mia paura è: o che non lo faccia per non rischiare e preferisce vendersi, o che lo faccia, si riprenda veramente, però tutto questo paga il fatto che trascura in maniera violenta il mercato desktop pc, che secondo rory non porta piu soldi. Io spero solo che riesca a riprendersi entrando in altri mercati, ma in maniera parallela continuare con i suoi prodotti di sempre per pc tradizionali (cpu, gpu ecc ecc), anche perchè si vero che il mobile oggi è priorità ma è anche vero che i PC (specie desktop) per quanto crisi subiscano oggi sono assolutamente necessari in ambiti professionali e particolari, dove cellulari e tablet non possono cambiare la situazione perleridotte potenze e con queigli arm_toys), solo che purtroppo non sono piu scelti dalla massa per ovvi motivi, e questo causa crisi alle aziende che hanno sempre prodotto cpu, e chi gestisce un azienda piccolina è quella a risentirne di piu. Del resto intel sti problemi non li ha avuti perchè tanto riesce a produrre per tutti i mercati che vuole, visto i soldi che ha, non ha paura di investire. AMD deve investire sul mobile assolutamente, inmodo tale da riprendersi e ricominciare a produrre prodotti per tutti, senza dover castrare roadmap (perchè secondo me le ultime roadmap desktop sono installo per questo motivo, perchè il mobile gli porta di piu, e il desktop puo aspettare visto la gia spinta potenza e le richieste nettamente inferiori rispetto gli anni passati). Speriamo bene, perchè io gli ultrabook per zombie, che non si lasciano smanettare, che la potenza e èanch'essa inferiore rispetto dove puoiarrivare con id esktop, e oltretutto che si sfasciano dopo un anno: no no... non li voglio.

[OT] Volete sapere l'ultima ? Mi hanno regalato ieri per il mio compleanno il Nexus7 :eek: quando lo visto volevo morire...gli ho detto "ma non era meglio una mobo" ? e lui mi fa: "una che" ? e io: "lascia perdere"...
Ho installato MSI AFTERBURNER per android sul tablet per overcloccare dal bios mobo tramite tablet :sofico: , solo che MSI ha fatto l'applicazione per android ma non gli è venuto in mente di integrare un bluetooth nella mobo (invece ROG Asus ti esce il modulino bt nella scatola), ho dovuto comprare un pennino bt. Ora mi chiedo, a parte questo utilizzo di bios per il mio pc, non riesco a trovare altro modo di utilizzare il tablet per cose utili. Credimi, è posato sul comodino non lo calcolo nemmeno di striscio perchè sono troppo preso dall'8120. Voi conoscete qualche uso (apparte oc di uefi bios) da poter fare con il tablet in concomitanza con il mio pc ? [FINE OT]

Tornando in topic:
Aggiornamento mio fx-8120: 1.337v 4,4ghz RD DU (48° max in full) su os xubuntu e mint (fra poco provo su gentoo), ancora tutti gli altri parametri sono default, il valore del cpu/nb è impostato su auto, tuttavia alzando il clock ratio (senza toccare bus) il vcore lo mantiene a 1.337v.
Fin qui mi son detto: minchia che culo ! E invece inizia adesso la sfiga, per i 4.5ghz (+100mhz -> da 1,33 vuole drasticamente gli 1.38v) di meno crasha, i 4,6ghz manco li provo che mi demoralizzo. Sai dirmi se centra il fatto dell'ottimizazzione nb e affini ? Io faccio schifo in oc, non saprei come muoverli quei cosi per trovare il giusto compromesso in modo tale da dare meno voltaggio (almeno 1.37v) per i 4,5ghz. Cosi da avere 1,38/1,39 per i 4,6ghz.

Il mio procio vuole Vcore nettamente superiori... 1,42V per i 4,6GHz, ma non capisco il tuo problema... nel senso che se un 8350 con 1,4V a 4GHz è sotto i 125W TDP, anche se tu gli dassi 1,4V (anziché 1,38V) per 4,5GHz, dovresti essere sempre sotto ai 125W TDP, quindi comunque dissipabili dal dissi stock.
L'ottimizzazione dell'NB comunque ti dovrebbe alzare un pochino i consumi, perchè da 1,165V def per 2GHz, credo che 1,2V per 2,4-2,6GHz bisogna dargli, ma comunque, nel discorso globale, se aumenta le prestazioni di un 3% (a caso), vuol dire che a parità di prestazioni puoi stare 100MHz almeno più sotto con la frequenza dei core, quindi un Vcore core inferiore e temp più basse... Ad occhio e croce l'overvolt dei core aumenta le temp almeno 5 volte di più che l'overvolt all'NB/MC.

Per il discorso performances, condivido quello che dici sul discorso di dare un po' meno attenzione al desktop e più in altri settori... ma penso che AMD nel desktop abbia fatto un calcolo ponderato, tra più o meno costi, in base agli investimenti che dovrebbero essere circa proporzionali all'aumento di performances, un target più o meno ampio di volumi di vendite.
Facendo un po' di fanta-informatica, senza creare discussioni di partito, AMD avrebbe potuto commercializzare un Steamroller o un PD ibrido tra Zambesi e Steamroller? Forse... ma guardiamo il problema da un altro punto di vista. Chi decide il prezzo è chi ha il procio più potente sulla piazza, gli altri per creare alternativa possono unicamente giocare la carta di un prezzo/prestazioni più conveniente. Ed è qui il problema... AMD poteva forse fare un procio con 20% in più di potenza rispetto all'8350, ma Intel? Tralascianto il conflitto interno tra 1155 e 2011, un 3770K senza la pasta del capitano e con un TDP di 95W avrebbe colmato quel plus del 20% di AMD, con il risultato che come oggi abbiamo l'8350 vs 3770K, avremmo avuto la stessa differenza con 2 proci con sigle differenti... ma una cosa è spendere poco per Vishera e poter fare tranquillamente il prezzo basso, un'altra è spendere molto di più nella progettazione/stesura per poi aver guadagni risicati e non aver margine di riduzione prezzo.
In pratica, quello che penso, è che AMD non puo' pianificare come vuole miniaturizzazione/affinamento massimo silicio, perchè le FAB non le ha più. Mentre è molto più facile realizzare una strategia di prezzo, perchè lo sviluppo dell'architettura lo decide lei quanto spendere, il costo a die occhio e croce è ben delineato, e si va avanti.

Vedi Zambesi.... AMD poteva spendere di più per realizzare Steamroller al posto di Vishera (ammesso che lo avesse potuto fare), al buio, senza sapere effettivamente le potenzialità del 32nm SOI C0? Ed anche se tutto fosse andato bene... puo' un die con 1,2 miliardi di transistor, sopra ai 300mm2, competere con un IVY 22nm, con meno transistor e con una superficie a die inferiore, cacchio, dallo stesso wafer da 300mm Intel ci tira fuori 2-3 volte di più di proci rispetto ad AMD/GF... ipotizzando costi simili ed accantonando l'ammodernamento FAB e progettazione silicio, Intel potrebbe vendere un 3770K alla metà del prezzo di un 8350 pure guadagnandoci di più.

La differenza di prestazioni, di miniaturizzazione silicio, di qualità silicio, è troppo ampia... non puo' esistere una disponibilità finanziaria tale da potenziare tutto e subito... e il problema è che Intel puo' fare e disfare come vuole... AMD invece per certo NON puo' SBAGLIARE, e se vogliamo un mezzo sbaglio (ad essere clementi) c'è già stato con Zambesi e le aspettative mancate non tutte per colpa dell'architettura acerba... prova a pensare quanti Opteron in meno venduti e quanti proci desktop, con la stessa spesa, però, a monte, cioè nella progettazione.

winebar
17-11-2012, 21:36
OK. L'ultima volta che avevo guardato su trovaprezzi la differenza era inferiore. Se hanno lo stesso dissipatore stock forse è ancora più conveniente FX-8320 rispetto all'8350. Oppure vale la pena spendere 27 € in più.

Si ma guardare i prezzi dei vari shop è inutile...
Piledriver era appena uscito sul mercato, quindi essendo una novità è normale trovare una differenza minore.
Se guardi i prezzi a listino invece la differenza è più ampia. Ed un negozio SERIO ha una differenza di prezzi simile tra i due, cioè, se il 3770k costa 10€ in meno che a listino, dovrebbe costare 10€ in meno anche un 8350.
Ma come ben sappiamo spesso contano le scorte...

Comunque, per farti un esempio, il dragone vende l'8350 a 223€, quasi 30€ in PIU' del prezzi di listino. Idem con il 3770k, sempre circa 20/30€ in più del prezzo dettato da Intel.

io credo che questo scenario lo vedrai con PD2.0, credo che l'8350 resterà il top fino all'uscita del prossimo step PD (il famoso PD2.0 annunciato giorni fa da amd previsto nel 2013 al posto di steamroller posticipato nel 2014).

Tolto il fatto che non era un annuncio ma una slide trapelata (quindi non si sa se fosse vera o no, anche se in genere domainhaber è affidabile), mi chiedo da quando l'ho letta se PD 2.0 sarà una semplice revisione del pp, con conseguente aumento di frequenza, oppure se sarà un die shrink (come SB e IB per Intel) e aumenteranno le frequenze riducendo i consumi ulteriormente (es, +400 Mhz e 10 W in meno di consumi)...
Anche perchè per AMD il rischio sotto il profilo dei consumi aumenta sempre di più. L'anno prossimo Intel integrerà i VRM nel procio e porterà il suo chipset a 32 nm per aumentare l'efficenza (Intel punta a un'efficenza 200 volte maggiore entro la fine del decennio).
Quindi AMD ha una pessima scelta da fare...
Andare su un eventuale D0 a 32nm, sapendo che magari potrà dare +100 Mhz e ridurre i consumi di, ipotizziamo, 2/3W (mantenendo un prezzo molto basso, direi intorno a 150€ per il top l'anno prossimo), oppure passare ai 28 nm, guadagnare una decina di W in consumo e aumentare le frequenze in modo cospicuo, senza mettere mano al core?
E mi dispiace sapere che per vedere in atto l'evoluzione portata dalle librerie ad alta densità (letto sul tuo blog shellx :D ) con Excavator dovremmo aspettare un ulteriore anno, arrivando addirittura al 2015.

LS1987
17-11-2012, 21:52
Si ma guardare i prezzi dei vari shop è inutile...
Piledriver era appena uscito sul mercato, quindi essendo una novità è normale trovare una differenza minore.
Se guardi i prezzi a listino invece la differenza è più ampia. Ed un negozio SERIO ha una differenza di prezzi simile tra i due, cioè, se il 3770k costa 10€ in meno che a listino, dovrebbe costare 10€ in meno anche un 8350.
Ma come ben sappiamo spesso contano le scorte...

Comunque, per farti un esempio, il dragone vende l'8350 a 223€, quasi 30€ in PIU' del prezzi di listino. Idem con il 3770k, sempre circa 20/30€ in più del prezzo dettato da Intel.



Tolto il fatto che non era un annuncio ma una slide trapelata (quindi non si sa se fosse vera o no, anche se in genere domainhaber è affidabile), mi chiedo da quando l'ho letta se PD 2.0 sarà una semplice revisione del pp, con conseguente aumento di frequenza, oppure se sarà un die shrink (come SB e IB per Intel) e aumenteranno le frequenze riducendo i consumi ulteriormente (es, +400 Mhz e 10 W in meno di consumi)...
Anche perchè per AMD il rischio sotto il profilo dei consumi aumenta sempre di più. L'anno prossimo Intel integrerà i VRM nel procio e porterà il suo chipset a 32 nm per aumentare l'efficenza (Intel punta a un'efficenza 200 volte maggiore entro la fine del decennio).
Quindi AMD ha una pessima scelta da fare...
Andare su un eventuale D0 a 32nm, sapendo che magari potrà dare +100 Mhz e ridurre i consumi di, ipotizziamo, 2/3W (mantenendo un prezzo molto basso, direi intorno a 150€ per il top l'anno prossimo), oppure passare ai 28 nm, guadagnare una decina di W in consumo e aumentare le frequenze in modo cospicuo, senza mettere mano al core?
E mi dispiace sapere che per vedere in atto l'evoluzione portata dalle librerie ad alta densità (letto sul tuo blog shellx :D ) con Excavator dovremmo aspettare un ulteriore anno, arrivando addirittura al 2015.

Avevano detto che i 28 nm non permettevano di salire ulteriormente con le frequenze (e che l'immissione sul mercato di una CPU da 4 GHz con turbo a 4.4 significava praticamente 0 overclock, dato che si era molto vicini al limite fisico del silicio), ma che permettevano un buon incremento di IPC. Non so se limitava anche il numero di core: qualora non ci fosse questo problema poteva venire fuori un X 12 a 3.5 GHz.
Tutto dipendeva dalla differenza tra SOI e bulk, non ricordo bene.

paolo.oliva2
17-11-2012, 22:12
Occhio alla condensa, che ho saputo che l'ultima volta sulla mobo hai creato l'habitat ideale per i girini e zanzare. :D
Non è stato proprio così... :D
Era la mia prima volta che provavo la coimbentazione di una mobo... e stranamente non è che avevo fatto male il "lavoro", ma erano i valori temp che erano troppo elevati per le mie capacità. Detto in parole povere, la mobo di per sè era asciutta, ma sparando troppo in basso la temp liquido, si era formata la condensa sui piedini del procio e di lì a fare il "corto" il passo è stato breve, purtroppo. Fortunatamente AMD il procio me l'ha sostituito in garanzia, la mobo invece l'ho ricomprata.
Cosa ho imparato da quell'esperienza? La cosa più semplice... non coimbientare nulla, semplicemente eliminare il prb alla radice, cioè non superare, a seconda dell'umidità dell'aria, una differenza temp liquido/ambiente tra i -5 e i -10°.
Il problema reale non è in Italia... dove basta aspettare l'inverno, perchè il mio WC arriva fino a 3° massimi e per essere arcisicuri basta una temp ambiente di 8° e sei a posto, ma in Africa, dove tra umidità e temp, non potro' scendere oltre i 25° circa.

winebar
17-11-2012, 22:17
Avevano detto che i 28 nm non permettevano di salire ulteriormente con le frequenze (e che l'immissione sul mercato di una CPU da 4 GHz con turbo a 4.4 significava praticamente 0 overclock, dato che si era molto vicini al limite fisico del silicio), ma che permettevano un buon incremento di IPC. Non so se limitava anche il numero di core: qualora non ci fosse questo problema poteva venire fuori un X 12 a 3.5 GHz.
Tutto dipendeva dalla differenza tra SOI e bulk, non ricordo bene.

Hai ragione mi ero dimenticato del passaggio da SOI a bulk...
Allora a quel punto l'unico motivo per cui AMD eventualmente passerebbe ai 28 nm con PD 2.0 sarebbe per far uscire più chip da un unico silicio...
Anche perchè se i 28nm bulk non permettono (giustamente, visto che il bulk è meno "raffinato" di un SOI e la differenza di dimensioni tra 32 e 28 nm è minima) aumenti di frequenza significa che il consumo sarebbe praticamente identico...
E che non ci sarebbero vantaggi dall'adottare i 28 nm, se non appunto il maggior numero di chip da un singolo wafer... Quindi GF deve necessariamente pensare per bene quanto far pagare i chip alle aziende. Perchè se li fa pagare troppo esse rimangono con i 32nm, che magari vengono aggiornati e offrono migliorie allo stesso prezzo, mentre se chiedono troppo poco rischiano di guadagnare un'eresia e potrebbero ritrovarsi con pochi fondi per futuri pp migliori.

Ma che voi sappiate l'intenzione di GF è sempre quella di mantenere i 28nm per un solo anno?
Perchè in questo caso l'intenzione di AMD (dando per buone quelle slide trapelate) potrebbe benissimo essere quella di attendere i 20nm, visto che i 28 bulk non darebbero vantaggi, per aumentare la potenza e ridurre i consumi.
Anche perchè aumentare l'IPC del 5/6% senza variare altro darebbe un aumento inconsistente. E AMD nel settore desktop deve fare attenzione a rispettare le aspettative, dopo ciò che è avvenuto con Bulldozer...

paolo.oliva2
17-11-2012, 22:58
Faccio una piccola parentesi sull'utilizzo di AOD per creare un overclock semplice semplice e compatibile pure con il dissi stock, mantenendo attive pure tutte le opzioni di risparmio energetico.

Questo è AOD. Il Vcore def per un 8350 è 1,3875V.

http://uptiki.altervista.org/_altervista_ht/x5wo0lf6x7hijx5ert_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=x5wo0lf6x7hijx5ert.jpg)

Clicchiamo sul Turbo core control e ci appare la finestra del Turbo su tutti i core. Io ho già provveduto a modificare il molti portandolo a 23X, e modificare il Vcore portandolo a 1,4375V, ma già a 1,42V è più che sufficiente.

http://uptiki.altervista.org/_altervista_ht/wvh6mhwvu3ttde3de3_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=wvh6mhwvu3ttde3de3.jpg)

Per default compare il Turbo su tutti i core selezionando o 0 o 1 passiamo al turbo massimo che possiamo pure impostare su un numero diverso di 4 come def, tipo 2 o 6.

http://uptiki.altervista.org/_altervista_ht/x8j9wy4blowpzraowcic_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=x8j9wy4blowpzraowcic.jpg)

Immettiano il molti per la massima frequenza su 4 core (o 6 o 2, a piacere)

http://uptiki.altervista.org/_altervista_ht/55rd7djefbvubkjhejej_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=55rd7djefbvubkjhejej.jpg)

Ci ritroviamo un 8350 che in idle passa a 1,4GHz con 0,9375V, opera dai 4GHz def ai 4,6GHz in turbo su tutti i core, e 4,8GHz in turbo massimo su 2 core (che a me non funzia... anche con 1 TH rimangono a 4,6GHz tutti i core... ma forse ho impostato 6 core che sono troppi :))

http://uptiki.altervista.org/_altervista_ht/4pkj72zh1oks0z7cxlfy_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=4pkj72zh1oks0z7cxlfy.jpg)

http://uptiki.altervista.org/_altervista_ht/x3evud8hvhc15ejictfo_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=x3evud8hvhc15ejictfo.jpg)

In teoria, tra i 4GHz def e i 4,6GHz Turbo su tutti i core, il procio dovrebbe variare a seconda delle temp e della possibilità... puo' darsi che io essendo a liquido, praticamente puo' funzionare sempre alla massima frequenza impostata.
Un altro settaggio compatibile con il dissi stock, sarebbe quello di portare la frequenza def a 4,2GHz anziché 4GHz, senza bisogno di toccare il Vcore, e di portare il turbo su tutti i core a 4,4GHz anzichè 4,1GHz ed anche qui si può lasciare il Vcore def, che è di 1,415V circa, ed il turbo massimo su 4 core a 4,6GHz che con 1,43V è possibilissimo ed RS.

digieffe
17-11-2012, 23:34
...cut...
Per il discorso performances, condivido quello che dici sul discorso di dare un po' meno attenzione al desktop e più in altri settori... ma penso che AMD nel desktop abbia fatto un calcolo ponderato, tra più o meno costi, in base agli investimenti che dovrebbero essere circa proporzionali all'aumento di performances, un target più o meno ampio di volumi di vendite.
Facendo un po' di fanta-informatica, senza creare discussioni di partito, AMD avrebbe potuto commercializzare un Steamroller o un PD ibrido tra Zambesi e Steamroller? Forse... ma guardiamo il problema da un altro punto di vista. Chi decide il prezzo è chi ha il procio più potente sulla piazza, gli altri per creare alternativa possono unicamente giocare la carta di un prezzo/prestazioni più conveniente. Ed è qui il problema... AMD poteva forse fare un procio con 20% in più di potenza rispetto all'8350, ma Intel? Tralascianto il conflitto interno tra 1155 e 2011, un 3770K senza la pasta del capitano e con un TDP di 95W avrebbe colmato quel plus del 20% di AMD, con il risultato che come oggi abbiamo l'8350 vs 3770K, avremmo avuto la stessa differenza con 2 proci con sigle differenti... ma una cosa è spendere poco per Vishera e poter fare tranquillamente il prezzo basso, un'altra è spendere molto di più nella progettazione/stesura per poi aver guadagni risicati e non aver margine di riduzione prezzo.
In pratica, quello che penso, è che AMD non puo' pianificare come vuole miniaturizzazione/affinamento massimo silicio, perchè le FAB non le ha più. Mentre è molto più facile realizzare una strategia di prezzo, perchè lo sviluppo dell'architettura lo decide lei quanto spendere, il costo a die occhio e croce è ben delineato, e si va avanti.

Vedi Zambesi.... AMD poteva spendere di più per realizzare Steamroller al posto di Vishera (ammesso che lo avesse potuto fare), al buio, senza sapere effettivamente le potenzialità del 32nm SOI C0? Ed anche se tutto fosse andato bene... puo' un die con 1,2 miliardi di transistor, sopra ai 300mm2, competere con un IVY 22nm, con meno transistor e con una superficie a die inferiore, cacchio, dallo stesso wafer da 300mm Intel ci tira fuori 2-3 volte di più di proci rispetto ad AMD/GF... ipotizzando costi simili ed accantonando l'ammodernamento FAB e progettazione silicio, Intel potrebbe vendere un 3770K alla metà del prezzo di un 8350 pure guadagnandoci di più.

La differenza di prestazioni, di miniaturizzazione silicio, di qualità silicio, è troppo ampia... non puo' esistere una disponibilità finanziaria tale da potenziare tutto e subito... e il problema è che Intel puo' fare e disfare come vuole... AMD invece per certo NON puo' SBAGLIARE, e se vogliamo un mezzo sbaglio (ad essere clementi) c'è già stato con Zambesi e le aspettative mancate non tutte per colpa dell'architettura acerba... prova a pensare quanti Opteron in meno venduti e quanti proci desktop, con la stessa spesa, però, a monte, cioè nella progettazione.

...cut...
Tolto il fatto che non era un annuncio ma una slide trapelata (quindi non si sa se fosse vera o no, anche se in genere domainhaber è affidabile), mi chiedo da quando l'ho letta se PD 2.0 sarà una semplice revisione del pp, con conseguente aumento di frequenza, oppure se sarà un die shrink (come SB e IB per Intel) e aumenteranno le frequenze riducendo i consumi ulteriormente (es, +400 Mhz e 10 W in meno di consumi)...
Anche perchè per AMD il rischio sotto il profilo dei consumi aumenta sempre di più. L'anno prossimo Intel integrerà i VRM nel procio e porterà il suo chipset a 32 nm per aumentare l'efficenza (Intel punta a un'efficenza 200 volte maggiore entro la fine del decennio).
Quindi AMD ha una pessima scelta da fare...
Andare su un eventuale D0 a 32nm, sapendo che magari potrà dare +100 Mhz e ridurre i consumi di, ipotizziamo, 2/3W (mantenendo un prezzo molto basso, direi intorno a 150€ per il top l'anno prossimo), oppure passare ai 28 nm, guadagnare una decina di W in consumo e aumentare le frequenze in modo cospicuo, senza mettere mano al core?
E mi dispiace sapere che per vedere in atto l'evoluzione portata dalle librerie ad alta densità (letto sul tuo blog shellx :D ) con Excavator dovremmo aspettare un ulteriore anno, arrivando addirittura al 2015.

Avevano detto che i 28 nm non permettevano di salire ulteriormente con le frequenze (e che l'immissione sul mercato di una CPU da 4 GHz con turbo a 4.4 significava praticamente 0 overclock, dato che si era molto vicini al limite fisico del silicio), ma che permettevano un buon incremento di IPC. Non so se limitava anche il numero di core: qualora non ci fosse questo problema poteva venire fuori un X 12 a 3.5 GHz.
Tutto dipendeva dalla differenza tra SOI e bulk, non ricordo bene.

a me qualcosa continua a non tornare: uno steamroller con 3 moduli e +30% di ipc andrebbe di fatto quanto un 8350... (sul soi 32nm) anche con un consumo inferiore al 8350

sul 28nm il consumo sarebbe stato probabilmente sotto i 95W.

quindi non lo realizzano solo perché questo processo non permette molto overclock? mah...

digieffe
17-11-2012, 23:52
[OT] Volete sapere l'ultima ? Mi hanno regalato ieri per il mio compleanno il Nexus7 :eek: quando lo visto volevo morire...gli ho detto "ma non era meglio una mobo" ? e lui mi fa: "una che" ? e io: "lascia perdere"...
Ho installato MSI AFTERBURNER per android sul tablet per overcloccare dal bios mobo tramite tablet :sofico: , solo che MSI ha fatto l'applicazione per android ma non gli è venuto in mente di integrare un bluetooth nella mobo (invece ROG Asus ti esce il modulino bt nella scatola), ho dovuto comprare un pennino bt. Ora mi chiedo, a parte questo utilizzo di bios per il mio pc, non riesco a trovare altro modo di utilizzare il tablet per cose utili. Credimi, è posato sul comodino non lo calcolo nemmeno di striscio perchè sono troppo preso dall'8120. Voi conoscete qualche uso (apparte oc di uefi bios) da poter fare con il tablet in concomitanza con il mio pc ? [FINE OT]

quell'aggeggio che ti hanno regalato ti permette di controllare i parametri in overclock indipendentemente dal SO o richiede una componente software sul pc?

paolo.oliva2
18-11-2012, 00:44
a me qualcosa continua a non tornare: uno steamroller con 3 moduli e +30% di ipc andrebbe di fatto quanto un 8350... (sul soi 32nm) anche con un consumo inferiore al 8350

sul 28nm il consumo sarebbe stato probabilmente sotto i 95W.

quindi non lo realizzano solo perché questo processo non permette molto overclock? mah...

Ma... io credo che il problema sia non tanto la potenza che potrebbe venire, quanto che un Bulk, anche se 28nm, non lo vedo mica tanto bene con 1,2 miliardi di transistor. Cioè, va bene 3 moduli al posto di 4, ma la L3? 6MB? E poi, almeno da quello che ho capito, un aumento di IPC viene si dall'ottimizzazione dell'architettura, ma tutte le pipeline aggiuntive & C, aumentano i transistor a modulo, alla fine... anche 3 moduli Steamroller non è che avrebbero meno transistor rispetto a PD 4 moduli. E poi c'è sempre l'esempio Intel che in fatto a Bulk ha esperienza da vendere... un 2600K X4 ha 95W, un SBe X6 alla stessa frequenza ha 150W sia per l'aumento di transistor per i 2 core in più che per un'architettura più potente nell'I/O, che nell'insieme è certamente più vicina ad un BD visto anche come Opteron di quanto lo sia un procio 1155. E comunque un SBe X6 dovrebbe avere un numero di transistor inferiore ad un BD. Penso che ad un 30% in più di IPC, il 28nm avrebbe concesso per 125W TDP meno frequenza di un SBe X6, e valutando 150W TDP per un 3,5GHz e 135W TDP per 3,3GHz... mi sa che al +30% di IPC si sarebbe aggiunto un -20% di frequenza operativa... Penso che un PD2, guadagnando un 5% in più di frequenza sull'8350 e anche un misero +3% di IPC, garantisca performances superiori ad un Steamroller X6 28nm... con la differenza che PD2 lo si gioca bene per via di un costo progettazione comunque relativamente basso, su un silicio 32nm SOI che lo si conosce e che comunque già un 8350 per 125W TDP potrebbe pure essere commercializzato come 4,2GHz def, mentre il 28nm Bulk? Al buio...

shellx
18-11-2012, 01:01
Anche perchè per AMD il rischio sotto il profilo dei consumi aumenta sempre di più. L'anno prossimo Intel integrerà i VRM nel procio e porterà il suo chipset a 32 nm per aumentare l'efficenza (Intel punta a un'efficenza 200 volte maggiore entro la fine del decennio).

si ma...sai che la situazione per gli overclocker_intel è peggiore di quella attuale ? Oggi con le versioni liscie qualche mhz lo tiri (grazie ai vrm delle mobo), con haswell se non ha la versone "k" la mobo non ti potrà aiutare piu di tanto (12v diretta nel procio) niente piu vcore/vidd da impostare. Praticamente mi hanno spiegato che le cpu future intel non avranno piu il vcore (voltaggio) che te lo imposti come vuoi tu per overcloccare (come avviene adesso), forse questo sarà possibile solo nella versione "K" ma perchè sarà un parametro reso disponibile da Intel e io penso che oltretutto il valore sul bios della mobo non verrà nemmeno espresso come vcore (perchè non è piu un vidd) è una tensione diretta 12v. Non so se sono esatte al 100% queste informazioni o lo sono solo parzialmente, solo un esperto in elettronica potrebbe saperne di piu a riguardo. Ma se fosse vera sta cosa, pensa chebastonata sulle balls agli overclocker_intel. Vabbè che gia adesso non è che la situazione sia malneabile come lo era al tempo. E' vero si che i proci amd sono meno perfomanti e con silicio precedente, però è anche vero che almeno ti lascia la possibilità di smanettare come diavolo vuoi e ti sblocca tutto quanto. Intel a volte mi ricorda Microsoft nelle politiche "dittatoriali" che adotta.


Andare su un eventuale D0 a 32nm, sapendo che magari potrà dare +100 Mhz e ridurre i consumi di, ipotizziamo, 2/3W (mantenendo un prezzo molto basso, direi intorno a 150€ per il top l'anno prossimo), oppure passare ai 28 nm, guadagnare una decina di W in consumo e aumentare le frequenze in modo cospicuo, senza mettere mano al core?
E mi dispiace sapere che per vedere in atto l'evoluzione portata dalle librerie ad alta densità (letto sul tuo blog shellx :D ) con Excavator dovremmo aspettare un ulteriore anno, arrivando addirittura al 2015.

Hai ragione mi ero dimenticato del passaggio da SOI a bulk...
Allora a quel punto l'unico motivo per cui AMD eventualmente passerebbe ai 28 nm con PD 2.0 sarebbe per far uscire più chip da un unico silicio...
Anche perchè se i 28nm bulk non permettono (giustamente, visto che il bulk è meno "raffinato" di un SOI e la differenza di dimensioni tra 32 e 28 nm è minima) aumenti di frequenza significa che il consumo sarebbe praticamente identico...
E che non ci sarebbero vantaggi dall'adottare i 28 nm, se non appunto il maggior numero di chip da un singolo wafer... Quindi GF deve necessariamente pensare per bene quanto far pagare i chip alle aziende. Perchè se li fa pagare troppo esse rimangono con i 32nm, che magari vengono aggiornati e offrono migliorie allo stesso prezzo, mentre se chiedono troppo poco rischiano di guadagnare un'eresia e potrebbero ritrovarsi con pochi fondi per futuri pp migliori.

Ma che voi sappiate l'intenzione di GF è sempre quella di mantenere i 28nm per un solo anno?
Perchè in questo caso l'intenzione di AMD (dando per buone quelle slide trapelate) potrebbe benissimo essere quella di attendere i 20nm, visto che i 28 bulk non darebbero vantaggi, per aumentare la potenza e ridurre i consumi.
Anche perchè aumentare l'IPC del 5/6% senza variare altro darebbe un aumento inconsistente. E AMD nel settore desktop deve fare attenzione a rispettare le aspettative, dopo ciò che è avvenuto con Bulldozer...

Allora la realtà secondo me è questa: non ci sarà nessun 28nm per il desktop il prossimo anno, Steamroller a 28nm uscirà solo per il mobile. Per il mercato desktop secondo me resterà sempre su 32nm e faranno solo un upgrade di modelli (dal punto di vista di freq. e consumi) proci sembre core vishera basati su 32nm, uno step successivo ( es: D0 ) e chiamati per marketing: "Piledriver 2.0" . Tutto qui. (stile Deneb->Thuban).
Nel 2014 dovremmo vedere nel desktop una versione Steamroller rivisitata dal mobile e a 20nm (fdsoi?) sul dekstop. Il motivo è forse perchè si sono fatti due conti e avranno pensato: "28nm bulk sui proci desktop" ? Il desktop non ha bisogno di una esagerato abbassamento dei consumi, preferiamo piu frequenza e piu potenza per quei pochi sfigati di nicchia che sono rimasti per il mondo a overcloccare proci e pagare l'enel, invece i 28nm bulk che viene prima gli e li diamo agli utenti mobile subito, che loro vogliono che la batteria dei portatili e tablet gli duri almeno 12 ore al cesso davanti "iuporn" prima di scegliere il video piu idoneo alle loro esigenze perverse.
Inoltre c'è da considerare un'altra cosa: 32nm - > 28nm per desktop ? Meglio un cambio piu consistente di miniaturizzazione nel desktop: 32nm -> 20nm (e basati entrambi forse sul soi). Detto in soldoni: il bulk (oltretutto con una miniaturizzazione risicata da 32 a 28) di AMD/GF (e no quello di intel che è altra roba) non è assolutamente idoneo per sistemi desktop (specie per quelli destinati ad utenti con esigenze di alte prestazioni o/e overclock), è piu esatto invece per schede video e apu, oltretutto le mobile. Le apu desktop secondo me le vogliono rivisitare nel 2014 con il 20nm (kaveri desktop). Con questa scusa ottimizzano le piattaforme desktop con piu calma per redenderle pompate per noi 4 gatti oc e per i professionisti, danno massiama prorità al mobile dove c'è piu ricavo, e tutto questo avengo costi aziendali piu ridotti (visto la situazione aziendale).
Questa è la mia ipotesi, ma è la mia ipotesi se amd non se ne esce a febbraio con la notizia: "stiamo vendendo l'azienda" oppure "da oggi siamo solo una azienda per soc embedded e custom, adioooos desktop e pc tradizionali". Speriamo solo su notizie non pretendo positive, ma almeno normali, giuste e no drastiche. In modo da lasciar contenti tutti gli utenti di tutte le fasce di mercato. :sperem:

quell'aggeggio che ti hanno regalato ti permette di controllare i parametri in overclock indipendentemente dal SO o richiede una componente software sul pc?

Mi hanno regalato (a mia insaputa altrimenti li avrei fatto prendere altro) il Nexus 7 della Asus, ha la forma di una mattonella da cessi ospedalieri, e gira android jelly bean (l'unica cosa seria che mi piace di sti aggeggi, indovina perchè ? :D ).
Per Android ci sono delle applicazioni che i produttori di mobo hanno reso disponibile nell'app market di android (google play) mi riferisco a queste:
https://play.google.com/store/apps/details?id=com.truetel.svc.asus&feature=search_result
https://play.google.com/store/apps/details?id=com.app.asus.btremote&feature=search_result
https://play.google.com/store/apps/details?id=com.msi.commandcenter&feature=more_from_developer
questo per le schede video msi:
https://play.google.com/store/apps/details?id=com.msi.afterburner&feature=search_result
le installi sul tablet o smartphone, interfacci l'applicazione alla mobo tramite ilmodulo bluetoot, e interagisci con l'uefi bios della mobo direttamente dal tablet, overcloccando il sistema mentre dal pc sei in win/linux (a caldo praticamente, come fai con l'uefi sotto windows o linux.). E' figo...tutto qui, niente di utile, è figo perchè mentri smanetti col mouse, con il dito dai i parametri di oc, se poi ti scappa di andare in bagno, ti controlli i parametri dal bagno, sempre se il bagno non è troppo distante dalal stanza dove hai il pc, perchè oltre che defecarti addosso perdi la connessione bluetoot con la mobo. Dall'applicazione del tablet ti dice anche in remoto e dopo che riavvi il pc, cosa sta accadendo, se il sistema è partito, se è chrashato, e se è entrato nell'os. Se hai uno smartphone android lo puo fare chiunque. Con il tablet hai lo schermo piu grande tutto qui.
Tolto questo, sto percheria rimane appoggiato sul comodino, permeè inutile aggeggio, appena lo preso la prima cosa che ho fatto è abilitare i permessi di root, e smanettare con il terminale android :D
Mi spengo anche Linux Mint dal tablet, mi interfaccio in rete, dal terminale dell'android entro in ssh nel pc e spengo la macchina con Mint. Praticamente è ottimo per perdere tempo. Perchè fai prima a pigiare il tasto power del case :D

isomen
18-11-2012, 08:50
si ma...sai che la situazione per gli overclocker_intel è peggiore di quella attuale ? Oggi con le versioni liscie qualche mhz lo tiri (grazie ai vrm delle mobo), con haswell se non ha la versone "k" la mobo non ti potrà aiutare piu di tanto (12v diretta nel procio) niente piu vcore/vidd da impostare. Praticamente mi hanno spiegato che le cpu future intel non avranno piu il vcore (voltaggio) che te lo imposti come vuoi tu per overcloccare (come avviene adesso), forse questo sarà possibile solo nella versione "K" ma perchè sarà un parametro reso disponibile da Intel e io penso che oltretutto il valore sul bios della mobo non verrà nemmeno espresso come vcore (perchè non è piu un vidd) è una tensione diretta 12v. Non so se sono esatte al 100% queste informazioni o lo sono solo parzialmente, solo un esperto in elettronica potrebbe saperne di piu a riguardo. Ma se fosse vera sta cosa, pensa chebastonata sulle balls agli overclocker_intel. Vabbè che gia adesso non è che la situazione sia malneabile come lo era al tempo. E' vero si che i proci amd sono meno perfomanti e con silicio precedente, però è anche vero che almeno ti lascia la possibilità di smanettare come diavolo vuoi e ti sblocca tutto quanto. Intel a volte mi ricorda Microsoft nelle politiche "dittatoriali" che adotta.

se questa notizia si rivelasse fondata potrebbe permettere a amd di recuperare buona parte del gap prestazionale (nn sui consumi) che ha con l'oc, però nn metto in dubbio la tua parola... ma qui sembra dire l'opposto, cioé che tutte le cpu haswell saranno overcloccabili:

Maggiore controllo delle frequenze operative [modifica]

Altre caratteristiche previste dalla nuova architettura dovrebbero essere un rivoluzionario approccio al contenimento dei consumi della CPU, fino alla metà rispetto a quelli ottenibili dai processori basati su Sandy Bridge[19]. Inoltre, continuando sulla strada intrapresa con le precedenti soluzioni Ivy Bridge, anche la nuova architettura Haswell prevede alcune specifiche revisioni per poter semplificare il processo di overclock.

Va sottolineato come nelle architetture precedenti, Nehalem e Sandy Bridge, il clock dei componenti dell'intero sistema era correlato al "Base Clock" della CPU, caratteristica che limitava fortemente le capacità di overclock nei processori con moltiplicatore bloccato, in quanto un aumento del Base Clock comportava anche un aumento di frequenza dei BUS PCI Express e delle periferiche di I/O.
Con Ivy Bridge è diventato poi possibile aumentare la frequenza della CPU e della memoria RAM in maniera indipendente dai restanti BUS di sistema.

Con Haswell si avrà un ulteriore miglioramento sul fronte della flessibilità della configurazione, potendo gestire da BIOS in maniera indipendente, le frequenza del core, della memoria RAM, del comparto GPU e di tutti gli altri BUS delle varie periferiche[20][21][22]. Alcune di queste caratteristiche sono presenti anche per alcuni modelli basati sulla precedente architettura, ma solo su alcuni, in particolare quelli basati sul socket LGA 2011, conosciuti come "Sandy Bridge-E" (per esempio i modelli Core i7 3960X, Core i7 3930K e Core i7 3820).
Nello specifico, con Haswell sarà possibile variare il cosiddetto Coarse Ratio Multiplier che viene appunto utilizzato per controllare il rapporto tra il Base Clock del processore e la frequenza operativa del controller della memoria RAM, in maniera indipendente da quello utilizzato per le aree della CPU che gestiscono l'I/O e il BUS PCI Express[22].

Nelle precedenti CPU identificate dal nome in codice di "Sandy Bridge-E", il Base Clock è impostato a 100 MHz ma può essere innalzato a 125 MHz o 166 MHz utlizzando due "divisori" appositi. Tale caratteristica consente di avere un maggiore controllo sulle frequenze operative rispetto a quanto possibile con le altre CPU, basate sulla stessa architettura di base (Sandy Bridge), ma realizzate per il socket LGA 1155. In particolare, si tratta di quelle identificate dalla serie "K", che hanno il moltiplicatore sbloccato; si tratta di una caratteristica utile per innalzare il clock della CPU, ma che offre un controllo meno granulare delle frequenze operative[22].

A tale flessibilità, estesa quindi a tutta la gamma di CPU, si aggiungerà inoltre una maggiore stabilità dell'energia erogata per il funzionamento del processore (facilitando a sua volta l'overclock), dato che il circuito preposto a tale regolazione (il cosiddetto "Voltage Regulator Module") verrà integrato direttamente nella CPU

fonte wikipedia (http://it.wikipedia.org/wiki/Haswell_(hardware))




Allora la realtà secondo me è questa: non ci sarà nessun 28nm per il desktop il prossimo anno, Steamroller a 28nm uscirà solo per il mobile. Per il mercato desktop secondo me resterà sempre su 32nm e faranno solo un upgrade di modelli (dal punto di vista di freq. e consumi) proci sembre core vishera basati su 32nm, uno step successivo ( es: D0 ) e chiamati per marketing: "Piledriver 2.0" . Tutto qui. (stile Deneb->Thuban).
Nel 2014 dovremmo vedere nel desktop una versione Steamroller rivisitata dal mobile e a 20nm (fdsoi?) sul dekstop. Il motivo è forse perchè si sono fatti due conti e avranno pensato: "28nm bulk sui proci desktop" ? Il desktop non ha bisogno di una esagerato abbassamento dei consumi, preferiamo piu frequenza e piu potenza per quei pochi sfigati di nicchia che sono rimasti per il mondo a overcloccare proci e pagare l'enel, invece i 28nm bulk che viene prima gli e li diamo agli utenti mobile subito, che loro vogliono che la batteria dei portatili e tablet gli duri almeno 12 ore al cesso davanti "iuporn" prima di scegliere il video piu idoneo alle loro esigenze perverse.
Inoltre c'è da considerare un'altra cosa: 32nm - > 28nm per desktop ? Meglio un cambio piu consistente di miniaturizzazione nel desktop: 32nm -> 20nm (e basati entrambi forse sul soi). Detto in soldoni: il bulk (oltretutto con una miniaturizzazione risicata da 32 a 28) di AMD/GF (e no quello di intel che è altra roba) non è assolutamente idoneo per sistemi desktop (specie per quelli destinati ad utenti con esigenze di alte prestazioni o/e overclock), è piu esatto invece per schede video e apu, oltretutto le mobile. Le apu desktop secondo me le vogliono rivisitare nel 2014 con il 20nm (kaveri desktop). Con questa scusa ottimizzano le piattaforme desktop con piu calma per redenderle pompate per noi 4 gatti oc e per i professionisti, danno massiama prorità al mobile dove c'è piu ricavo, e tutto questo avengo costi aziendali piu ridotti (visto la situazione aziendale).
Questa è la mia ipotesi, ma è la mia ipotesi se amd non se ne esce a febbraio con la notizia: "stiamo vendendo l'azienda" oppure "da oggi siamo solo una azienda per soc embedded e custom, adioooos desktop e pc tradizionali". Speriamo solo su notizie non pretendo positive, ma almeno normali, giuste e no drastiche. In modo da lasciar contenti tutti gli utenti di tutte le fasce di mercato. :sperem:

secondo me, quindi parere molto modesto, la tua ipotesi é la cosa migliore che può fare amd e spero che sia fondata


Mi hanno regalato (a mia insaputa altrimenti li avrei fatto prendere altro) il Nexus 7 della Asus, ha la forma di una mattonella da cessi ospedalieri, e gira android jelly bean (l'unica cosa seria che mi piace di sti aggeggi, indovina perchè ? :D ).
Per Android ci sono delle applicazioni che i produttori di mobo hanno reso disponibile nell'app market di android (google play) mi riferisco a queste:
https://play.google.com/store/apps/details?id=com.truetel.svc.asus&feature=search_result
https://play.google.com/store/apps/details?id=com.app.asus.btremote&feature=search_result
https://play.google.com/store/apps/details?id=com.msi.commandcenter&feature=more_from_developer
questo per le schede video msi:
https://play.google.com/store/apps/details?id=com.msi.afterburner&feature=search_result
le installi sul tablet o smartphone, interfacci l'applicazione alla mobo tramite ilmodulo bluetoot, e interagisci con l'uefi bios della mobo direttamente dal tablet, overcloccando il sistema mentre dal pc sei in win/linux (a caldo praticamente, come fai con l'uefi sotto windows o linux.). E' figo...tutto qui, niente di utile, è figo perchè mentri smanetti col mouse, con il dito dai i parametri di oc, se poi ti scappa di andare in bagno, ti controlli i parametri dal bagno, sempre se il bagno non è troppo distante dalal stanza dove hai il pc, perchè oltre che defecarti addosso perdi la connessione bluetoot con la mobo. Dall'applicazione del tablet ti dice anche in remoto e dopo che riavvi il pc, cosa sta accadendo, se il sistema è partito, se è chrashato, e se è entrato nell'os. Se hai uno smartphone android lo puo fare chiunque. Con il tablet hai lo schermo piu grande tutto qui.
Tolto questo, sto percheria rimane appoggiato sul comodino, permeè inutile aggeggio, appena lo preso la prima cosa che ho fatto è abilitare i permessi di root, e smanettare con il terminale android :D
Mi spengo anche Linux Mint dal tablet, mi interfaccio in rete, dal terminale dell'android entro in ssh nel pc e spengo la macchina con Mint. Praticamente è ottimo per perdere tempo. Perchè fai prima a pigiare il tasto power del case :D

metti che lasci il pc a scaricare e vai a letto dimenticandoti di abbassare frequenza e voltaggio, con il tablet sul comodino puoi farlo senza doverti rialzare... se la camera nn é troppo distante dal pc :sbonk:

;) CIAUZ

cirano994
18-11-2012, 08:57
Domanda veloce (scusate se avete già risposto, ma non posso leggere tutto :D ): 8350 non è altro che un 8320 overcloccato?

Grazie

winebar
18-11-2012, 09:08
a me qualcosa continua a non tornare: uno steamroller con 3 moduli e +30% di ipc andrebbe di fatto quanto un 8350... (sul soi 32nm) anche con un consumo inferiore al 8350

Si ma la situazione di AMD non è così rosea...
Possono benissimo pensare a fare steamroller sul mobile e magari saltarlo sul desktop per passare direttamente a Excavator sui 20 nm e offrire, tra incrementi di IPC e di frequenza, anche il 40% in più di potenza...

sul 28nm il consumo sarebbe stato probabilmente sotto i 95W.

No, perchè io mi ricordavo male.
Paragonavo i 28nm e i 32 dando per scontato che fossero entrambi SOI, mentre in realtà GF per i 28 (almeno sul desktop) dovrebbe passare a bulk e riadottare il SOI (FD SOI in questo caso) per i 20 nm.

quindi non lo realizzano solo perché questo processo non permette molto overclock? mah...

Bisogna vedere cosa intendono loro per overclock...
Se intendono che i 28nm bulk non danno vantaggi e non possono aumentare le frequenze rispetto a PD su 32nm (quindi overclock inteso come OC di fabbrica, frequenze stock più elevate) allora hanno ragione... E significherebbe che non avrebbero nessun margine per ridurre i consumi neppure di qualche watt.

si ma...sai che la situazione per gli overclocker_intel è peggiore di quella attuale ? Oggi con le versioni liscie qualche mhz lo tiri (grazie ai vrm delle mobo), con haswell se non ha la versone "k" la mobo non ti potrà aiutare piu di tanto (12v diretta nel procio) niente piu vcore/vidd da impostare. Praticamente mi hanno spiegato che le cpu future intel non avranno piu il vcore (voltaggio) che te lo imposti come vuoi tu per overcloccare (come avviene adesso), forse questo sarà possibile solo nella versione "K" ma perchè sarà un parametro reso disponibile da Intel e io penso che oltretutto il valore sul bios della mobo non verrà nemmeno espresso come vcore (perchè non è piu un vidd) è una tensione diretta 12v. Non so se sono esatte al 100% queste informazioni o lo sono solo parzialmente, solo un esperto in elettronica potrebbe saperne di piu a riguardo. Ma se fosse vera sta cosa, pensa chebastonata sulle balls agli overclocker_intel. Vabbè che gia adesso non è che la situazione sia malneabile come lo era al tempo. E' vero si che i proci amd sono meno perfomanti e con silicio precedente, però è anche vero che almeno ti lascia la possibilità di smanettare come diavolo vuoi e ti sblocca tutto quanto.

Veramente Intel ha garantito il contrario...
L'overclock dovrebbe tornare ai fasti di un tempo.
Tutto slacciato da tutto in pratica... Cioè, vuoi aumentare il bclk? Non devi preoccuparti che aumenti anche la frequenza del PCI-E...
Ovviamente faranno in modo di dare la possibilità di overclockare per bene solo sui processori k...
Anche perchè potrebbero usare saldatura fluxless sui processori k e pasta termica "superschifo deluxe" sui non k per esaltare ancor di più le prestazioni in OC...
E in ogni caso i problemi di Intel nell'overclock non sono dati da come viene gestito o dalle temp, ma dal silicio...
Cioè, un 3770k a 5,5 Ghz sotto azoto è queasi da world record...

Ma qui siamo OT...

Allora la realtà secondo me è questa: non ci sarà nessun 28nm per il desktop il prossimo anno, Steamroller a 28nm uscirà solo per il mobile. Per il mercato desktop secondo me resterà sempre su 32nm e faranno solo un upgrade di modelli (dal punto di vista di freq. e consumi) proci sembre core vishera basati su 32nm, uno step successivo ( es: D0 ) e chiamati per marketing: "Piledriver 2.0" . Tutto qui. (stile Deneb->Thuban).
Nel 2014 dovremmo vedere nel desktop una versione Steamroller rivisitata dal mobile e a 20nm (fdsoi?) sul dekstop. Il motivo è forse perchè si sono fatti due conti e avranno pensato: "28nm bulk sui proci desktop" ? Il desktop non ha bisogno di una esagerato abbassamento dei consumi, preferiamo piu frequenza e piu potenza per quei pochi sfigati di nicchia che sono rimasti per il mondo a overcloccare proci e pagare l'enel, invece i 28nm bulk che viene prima gli e li diamo agli utenti mobile subito, che loro vogliono che la batteria dei portatili e tablet gli duri almeno 12 ore al cesso davanti "iuporn" prima di scegliere il video piu idoneo alle loro esigenze perverse.

Secondo me invece si sono resi conto che non hanno nessun motivo utile per passare ad un 28 nm bulk sul desktop...
Magari sul mobile ne approfitteranno per fare uscire steamroller e per ridurre i consumi di qualche W, dove lì 1W in meno può benissimo fare la differenza (ad esempio Intel i chipset desktop li fa a 65nm, quelli mobile li fa a 22nm riducendo i consumi da 7 a 4W).
Poi scusa ma la storia di iuporn non mi va giù... Anche io per l'università vorrei un PC che consumi poco e duri tantissimo... In questo modo se so che la batteria mi dura 10 ore posso usarlo all'uni (soprattutto nei laboratori, dove al solito metodo itaGliano per 150 persone ci sono 100 PC) praticamente senza preoccuparmi di dovermi portare dietro il caribatterie e senza rinunciare a uno schermo di 13/15"...
Non chiedo molto ad un portatile (per le prestazioni ho il desktop), giusto che abbia un'autonomia molto alta, uno schermo non minuscolo e un processore che, nel caso, mi permetta di gestire flussi in HD...
Anche perchè all'uni non faccio chissà cosa... Giusto la programmazione, e come ben sai non ci vuole molto a compilare al volo meno di 100k di sorgenti. :D


Inoltre c'è da considerare un'altra cosa: 32nm - > 28nm per desktop ? Meglio un cambio piu consistente di miniaturizzazione nel desktop: 32nm -> 20nm (e basati entrambi forse sul soi). Detto in soldoni: il bulk (oltretutto con una miniaturizzazione risicata da 32 a 28) di AMD/GF (e no quello di intel che è altra roba) non è assolutamente idoneo per sistemi desktop (specie per quelli destinati ad utenti con esigenze di alte prestazioni o/e overclock), è piu esatto invece per schede video e apu, oltretutto le mobile. Le apu desktop secondo me le vogliono rivisitare nel 2014 con il 20nm (kaveri desktop). Con questa scusa ottimizzano le piattaforme desktop con piu calma per redenderle pompate per noi 4 gatti oc e per i professionisti, danno massiama prorità al mobile dove c'è piu ricavo, e tutto questo avengo costi aziendali piu ridotti (visto la situazione aziendale).

Mi sembra di aver letto che GF ha un accordo con ST Microelectronics perusare attrezzatura a 20 e 28 nm FD SOI. Quindi volendo potrebbero fare anche un SOI...
E ho anche visto che AMD oltre a essersi completamente liberata delle quote che aveva di GF (qualche mese fa ovviamente) ha deciso di chiudere il contratto di esclusività con GF stessa pagando 475 milioni di dollari.
Se AMD continuerà a rifornirsi da GF la spesa sarà stata vana... Per questo spero che adottino, almeno per il mobile, i 28nm di TSMC, anche perchè ormai ha risolto i problemi di resa sui 28 nm.


l'unica cosa seria che mi piace di sti aggeggi, indovina perchè ? :D.

Non so perchè ma IMHO perchè il kernel è Linux e l'intero sistema (tranne le parti in [L]GPL) è rilasciato sotto licenza Apache. :D

isomen
18-11-2012, 09:09
Domanda veloce (scusate se avete già risposto, ma non posso leggere tutto :D ): 8350 non è altro che un 8320 overcloccato?

Grazie

Teoricamente gli 8350 dovrebbero essere quelli con il silicio migliore (più selezionato, proveniente dal cuore del wafer) e dovrebbero raggiungere frequenze più alte o con meno vcore, ma come sempre ci saranno anche gli 8350 più sfigati e gli 8320 più fortunelli... e nn sarà impossibile trovare esemplari di entrambi che raggiungono le stesse frequenze d'oc.

;) CIAUZ

winebar
18-11-2012, 09:13
Domanda veloce (scusate se avete già risposto, ma non posso leggere tutto :D ): 8350 non è altro che un 8320 overcloccato?

Esatto...
Anzi, sarebbe meglio dire che l'8320 è un 8350 downclockato...
Il concetto sarebbe come i 3550 e i 3570k di Intel...
Sono lo STESSO IDENTICO processore, ma con il microcodice diverso (il microcodice è un piccolissimo software, generalmente situato nel bios, che permette di gestire ogni parte del processore, detto per sommi capi).

In pratica l'8320 è un processore che non riesce a soddisfare i requisiti degli 8350 (es, richiedono una tensione operativa più alta a frequenza def) e quindi vengono downclockati.
Tutte le aziende fanno così. Anche Intel, per diminuire le scorte il più possibile.
Giusto per fare un esempio fuori da architetture x86, Nvidia con i Tegra 3 su piattaforma Kai fa la stessa cosa. Il processore è sempre quello, ma con una frequenza operativa inferiore. ;)

cirano994
18-11-2012, 09:18
Grazie a tutti.

Quindi quei circa 40€ di differenza sarebbe meglio spenderli per altro.
Ad esempio l'Arctic A30 (circa 35€) potrebbe essere un buon dissipatore per questi 8-core AMD?

jnthnlvnstn
18-11-2012, 09:25
Ciao a tutti, sono qui a titolo personale a chiedere a chi volesse la potenza della sua cpu, c'è una gara mondiale e mancano pochi giorni alla fine, chi volesse può cercare jnthnlvnstn boinc col motore di ricerca e mi trova.

Mi spiace postare cosi senza troppi fronzoli ma non ho tempo e spero di non dare fastidio a nessuno, sono iscritto da anni e spero comprendiate.

Ciao a tutti di nuovo.

winebar
18-11-2012, 09:27
Quindi quei circa 40€ di differenza sarebbe meglio spenderli per altro.
Ad esempio l'Arctic A30 (circa 35€) potrebbe essere un buon dissipatore per questi 8-core AMD?

Per etrambi, dipende...
L'8320 è un processore che va quanto un 8150 medamente e consuma comunque molto meno. Se pensi alle prestazioni e non ti interessa consumare qualche W in più allora la scelta sarebbe un 8350, altrimenti va bene anche l'8320.

Riguardo il dissi, se vuoi overclockare è discreto... Rischi che d'estate non riesca a tenerti le temperature abbastanza basse da non mandare il sistema in protezione.
E dipende sempre quanto vuoi overclockare. Se vuoi fare un OC leggero (fino a 4,4Ghz) allora diciamo che va bene, altrimenti no, conviene puntare su dissipatori migliori ma che costano di più, come il TPC 800 di Cooler Master (a cui aggiungere due ventole) o il TPC 812 (che è un TPC 800 con una ventola).

Ciao a tutti, sono qui a titolo personale a chiedere a chi volesse la potenza della sua cpu, c'è una gara mondiale e mancano pochi giorni alla fine, chi volesse può cercare jnthnlvnstn boinc col motore di ricerca e mi trova.

Quella di WGC? Io ho mollato per non consumare uno sproposito, anche perchè tengo il PC acceso tantissimo tempo ogni giorno...
E comunque il team tedesco rimane sempre irraggiungibile. :cry:

jnthnlvnstn
18-11-2012, 09:31
[QUOTE=.



Quella di WGC? Io ho mollato per non consumare uno sproposito, anche perchè tengo il PC acceso tantissimo tempo ogni giorno...
E comunque il team tedesco rimane sempre irraggiungibile. :cry:[/QUOTE]

Mo c'hanno passato pure i Minnesota Crunchers...
Dai mezza giornata, scaccola qualcosa e dillo agli amici tuoi...

cirano994
18-11-2012, 10:04
Per etrambi, dipende...
L'8320 è un processore che va quanto un 8150 medamente e consuma comunque molto meno. Se pensi alle prestazioni e non ti interessa consumare qualche W in più allora la scelta sarebbe un 8350, altrimenti va bene anche l'8320.

Riguardo il dissi, se vuoi overclockare è discreto... Rischi che d'estate non riesca a tenerti le temperature abbastanza basse da non mandare il sistema in protezione.
E dipende sempre quanto vuoi overclockare. Se vuoi fare un OC leggero (fino a 4,4Ghz) allora diciamo che va bene, altrimenti no, conviene puntare su dissipatori migliori ma che costano di più, come il TPC 800 di Cooler Master (a cui aggiungere due ventole) o il TPC 812 (che è un TPC 800 con una ventola).


Senza OC come siamo messi a temperature per un 8320 con un dissi normale (ad esempio l'A30)?

Grazie

LS1987
18-11-2012, 10:49
Ma... io credo che il problema sia non tanto la potenza che potrebbe venire, quanto che un Bulk, anche se 28nm, non lo vedo mica tanto bene con 1,2 miliardi di transistor. Cioè, va bene 3 moduli al posto di 4, ma la L3? 6MB? E poi, almeno da quello che ho capito, un aumento di IPC viene si dall'ottimizzazione dell'architettura, ma tutte le pipeline aggiuntive & C, aumentano i transistor a modulo, alla fine... anche 3 moduli Steamroller non è che avrebbero meno transistor rispetto a PD 4 moduli. E poi c'è sempre l'esempio Intel che in fatto a Bulk ha esperienza da vendere... un 2600K X4 ha 95W, un SBe X6 alla stessa frequenza ha 150W sia per l'aumento di transistor per i 2 core in più che per un'architettura più potente nell'I/O, che nell'insieme è certamente più vicina ad un BD visto anche come Opteron di quanto lo sia un procio 1155. E comunque un SBe X6 dovrebbe avere un numero di transistor inferiore ad un BD. Penso che ad un 30% in più di IPC, il 28nm avrebbe concesso per 125W TDP meno frequenza di un SBe X6, e valutando 150W TDP per un 3,5GHz e 135W TDP per 3,3GHz... mi sa che al +30% di IPC si sarebbe aggiunto un -20% di frequenza operativa... Penso che un PD2, guadagnando un 5% in più di frequenza sull'8350 e anche un misero +3% di IPC, garantisca performances superiori ad un Steamroller X6 28nm... con la differenza che PD2 lo si gioca bene per via di un costo progettazione comunque relativamente basso, su un silicio 32nm SOI che lo si conosce e che comunque già un 8350 per 125W TDP potrebbe pure essere commercializzato come 4,2GHz def, mentre il 28nm Bulk? Al buio...

Teoricamente un piledriver 2.0 potrebbe anche aumentare le frequenze dell'11 %, perché la CPU Intel a frequenza elevata mai prodotta aveva 4.4 GHz (era uno Xeon 2 core) e vendere un 4.44 con turbo a 4.6 potrebbe migliorare in parte l'immagine di AMD che potrebbe battere Intel almeno dal punto di vista della frequenza massima mai raggiunta. Anche se in overclock recuperasse solo 50-60 MHz non sarebbe male, dato che non tutti overcloccano, al limite mettono un dissipatore stock migliore per gestire il calore, se uno step D0 non dovesse farcela a rimanere entro i 125 W di tdp. Con qualche ottimizzazione l'IPC può salire anche del 5-6 % e un piledriver 2.0 potrebbe quindi andare fino al 18 % in più.

Lo so, sono troppo ottimista :D .

Se AMD rimanda Steamroller al 2014 gli conviene cambiare piattaforma e unificare tutto su FMx.

Forse un mio amico potrebbe prendere un FX 8350 quando uscirà Haswell (i prezzi si abbasseranno), dato che virtualizza molto e pensionare il suo Q8xxx. Sta cercando delle RAM, non sa quali prendere: l'importante è che vadano bene per una piattaforma futura. Peccato che non esistano moduli da 8 GB per schede madri socket 775.

isomen
18-11-2012, 11:39
Teoricamente un piledriver 2.0 potrebbe anche aumentare le frequenze dell'11 %, perché la CPU Intel a frequenza elevata mai prodotta aveva 4.4 GHz (era uno Xeon 2 core) e vendere un 4.44 con turbo a 4.6 potrebbe migliorare in parte l'immagine di AMD che potrebbe battere Intel almeno dal punto di vista della frequenza massima mai raggiunta. Anche se in overclock recuperasse solo 50-60 MHz non sarebbe male, dato che non tutti overcloccano, al limite mettono un dissipatore stock migliore per gestire il calore, se uno step D0 non dovesse farcela a rimanere entro i 125 W di tdp. Con qualche ottimizzazione l'IPC può salire anche del 5-6 % e un piledriver 2.0 potrebbe quindi andare fino al 18 % in più.

Lo so, sono troppo ottimista :D .

Se AMD rimanda Steamroller al 2014 gli conviene cambiare piattaforma e unificare tutto su FMx.

Forse un mio amico potrebbe prendere un FX 8350 quando uscirà Haswell (i prezzi si abbasseranno), dato che virtualizza molto e pensionare il suo Q8xxx. Sta cercando delle RAM, non sa quali prendere: l'importante è che vadano bene per una piattaforma futura. Peccato che non esistano moduli da 8 GB per schede madri socket 775.

Se attualmente deve montarle su sckt 775 e poi passarle su am3+ nn é semplice, ma penso che queste potrebbero andare bene:

http://www.gskill.com/products.php?index=385

hanno vdimm a 1,5v e sono certificate a 1866mhz.

;) CIAUZ

paolo.oliva2
18-11-2012, 11:46
Teoricamente un piledriver 2.0 potrebbe anche aumentare le frequenze dell'11 %, perché la CPU Intel a frequenza elevata mai prodotta aveva 4.4 GHz (era uno Xeon 2 core) e vendere un 4.44 con turbo a 4.6 potrebbe migliorare in parte l'immagine di AMD che potrebbe battere Intel almeno dal punto di vista della frequenza massima mai raggiunta. Anche se in overclock recuperasse solo 50-60 MHz non sarebbe male, dato che non tutti overcloccano, al limite mettono un dissipatore stock migliore per gestire il calore, se uno step D0 non dovesse farcela a rimanere entro i 125 W di tdp. Con qualche ottimizzazione l'IPC può salire anche del 5-6 % e un piledriver 2.0 potrebbe quindi andare fino al 18 % in più.

Lo so, sono troppo ottimista :D .

Se AMD rimanda Steamroller al 2014 gli conviene cambiare piattaforma e unificare tutto su FMx.

Forse un mio amico potrebbe prendere un FX 8350 quando uscirà Haswell (i prezzi si abbasseranno), dato che virtualizza molto e pensionare il suo Q8xxx. Sta cercando delle RAM, non sa quali prendere: l'importante è che vadano bene per una piattaforma futura. Peccato che non esistano moduli da 8 GB per schede madri socket 775.
La frequenza non è direttamente correlata alla miniaturizzazione del silicio, ma la quantità di transistor rimanendo in un certo TDP si.
Cosa salta subito all'occhio? Il SOI garantisce frequenze elevate quasi indipendentemente dal numero di transistor del procio...
Intel per un X6 ha aspettato il 32nm, AMD l'ha fatto sul 45nm, idem per X8, Intel ha bisogno del 22nm, AMD l'ha fatto sul 32nm e a frequenze di 500MHz def superiori rispetto ad un X6 SBe tra l'altro con 25W TDP in più, e non credo che un SBe X6 si possa overcloccare di 600MHz mantenendo lo stesso Vcore e praticamente un TDP pressoché simile.
Chiaramente le cose sono diverse se consideriamo il consumo/prestazioni, e comunque nelle frequenze gioca anche la caratteristica dell'architettura.
Il problema è che BD ha bisogno di frequenze comunque alte per l'IPC attuale... Intel ha bisogno di un TDP inferiore unicamente per poter aggiungere dei core.
Ma è il discorso IPC/frequenza il punto... ogni architettura ha un punto di incontro tra i 2 valori, ad un IPC alto corrisponde una frequenza inferiore rispetto ad un'altra architettura con IPC basso. Intel ha nel silicio una riserva di TDP, ma le frequenze idonee a sfruttare appieno l'architettura le ha già raggiunte. Un 3770K 3,5GHz a 75W non permetterebbe mai i 5GHz a 125W, ma permetterebbe un X8 a 3,5GHz. Un Vishera necessiterebbe di 500MHz in più di clock def, per dire che l'architettura sia sfruttata, ma il problema è il silicio, non certo l'architettura.
Nel confronto vs Intel, relegando il discorso sul 1155, AMD è indietro sull'IPC a core ma recupera nell'MT. Andarsi a scontrare con Intel nella potenza massima 1-4 core è un suicidio, fosse anche con AMD 6 core.
Intel divide il suo mercato in socket 1155 e 2011. Qual'è la differenza tra i 2? Unicamente la potenza MT, perchè il 1155 ha una potenza ST 1-4TH superiore. Per assurdo, è più alla portata arrivare vicino ad un SBe X6 in MT che ad un 3770K in ST.

Fanta-elettronica.
Questo 32nm SOI step C0 è migliorato di 200-300MHz come frequenza massima (5GHz 8150 - 5,2-5,3GHz 8350), ma è migliorato di 800MHz (3,8GHz 8150 - 4,6GHz 8350) nella frequenza raggiungibile per 125W TDP.
Secondo me, ad essere ottimisti uno step D potrebbe concedere 200MHz in più come frequenza massima raggiungibile, circa 5,5GHz, mentre potrebbe concedere un 4,5GHz def per un X8, con la porta aperta ad un X12 sui 4GHz.
Nel confronto vs Intel, un +15% tra frequenza ed IPC di un PD2 X8, non farebbero granché di differenza, diverso sarebbe un PD2 X12, che se fosse a 4GHz def con lo stesso IPC di PD, garantirebbe fino ad un un +50% in MT secco.
P.S.
Un X10 richiederebbe una ridisposizione transistor piuttosto consistente... un X12 molto meno.

winebar
18-11-2012, 12:01
Senza OC come siamo messi a temperature per un 8320 con un dissi normale (ad esempio l'A30)?

Penso che in full tenga una decina di gradi in meno, anche perchè se non erro i dissipatori di fascia medio bassa (quelli fino a 30€ insomma) non sempre danno la possibilità di tenere 2 ventole...
Ad esempio gli Arctic Cooling sono solo per una ventola...
Se invece si tende a dissipatori più potenti il distacco aumenta sensibilmente, ovviamente parlo di dissipatori ad aria e non di ciofeche come l'H50 di Corsair... ;)

Teoricamente un piledriver 2.0 potrebbe anche aumentare le frequenze dell'11 %, perché la CPU Intel a frequenza elevata mai prodotta aveva 4.4 GHz (era uno Xeon 2 core) e vendere un 4.44 con turbo a 4.6 potrebbe migliorare in parte l'immagine di AMD che potrebbe battere Intel almeno dal punto di vista della frequenza massima mai raggiunta. Anche se in overclock recuperasse solo 50-60 MHz non sarebbe male, dato che non tutti overcloccano, al limite mettono un dissipatore stock migliore per gestire il calore, se uno step D0 non dovesse farcela a rimanere entro i 125 W di tdp. Con qualche ottimizzazione l'IPC può salire anche del 5-6 % e un piledriver 2.0 potrebbe quindi andare fino al 18 % in più.

Bisogna innanzitutto vedere se AMD ha intenzione di aumentare l'IPC di un eventuale Piledriver 2.0, anche perchè ormai Steamroller dovrebbe essere in uno stadio avanzato e POTREBBERO non avere il tempo per portare le migliorie architetturali di Piledriver 2.0 su Steamroller.
Oppure possono portare alcuni miglioramenti di IPC su Piledriver e ottimizzare ancor di più Steamroller. Anche se c'è da dire che uno dei grandi vantaggi che dovrebbe aumentare l'IPC di Steamroller parecchio è l'uso di uno scheduler per ogni unità di calcolo invece di uno scheduler condiviso (l'unità di decode è sempre unica invece).
Non so, dipende da quanto sia fattibile la cosa e quanto effettivamente convenga a AMD, perchè aumentare la potenza oggi e avere guadagni più risicati domani potrebbe essere un'arma a doppio taglio per AMD (del tipo, con PD 2.0 rispetta il 15% di aumento in prestazioni anno per anno ma con Steamroller arriva al 12)...

Se AMD rimanda Steamroller al 2014 gli conviene cambiare piattaforma e unificare tutto su FMx.

AMD ovviamente non fa annunci a riguardo, altrimenti rischia di far precipitare le vendite degli AM3+, però si parla di un possibile Steamroller su FMx da quando è uscito Bulldozer, se non prima.
E se rimandano al 2014 IMHO conviene puntare su un controller DDR4, attese per fine 2013.

Athlon 64 3000+
18-11-2012, 13:18
Riguardo PD 2.0 ne ho sentite di tutti i colori.
Dal fatto che sarà solo uno step con frequenze leggermente aumentate al fatto che avrà dei tweak all'architettura da tirargli fuori un altro 6-7% di IPC e frequenze leggermente maggiorate.
Io la sparo grossa,sarebbe ottimo se PD 2.0 avesse un 10% in più di IPC e un 5% in più sulle frequenze e valesse sia per la piattaforma FM2 che AM3+.

isomen
18-11-2012, 13:27
Riguardo PD 2.0 ne ho sentite di tutti i colori.
Dal fatto che sarà solo uno step con frequenze leggermente aumentate al fatto che avrà dei tweak all'architettura da tirargli fuori un altro 6-7% di IPC e frequenze leggermente maggiorate.
Io la sparo grossa,sarebbe ottimo se PD 2.0 avesse un 10% in più di IPC e un 5% in più sulle frequenze e valesse sia per la piattaforma FM2 che AM3+.

e magari nel 2014 aggiungiamo un +30% con SR fra revisione dell'architettura, ipc, frequenza e PP... nn sarebbe niente male davvero :sofico:

;) CIAUZ

winebar
18-11-2012, 13:55
Riguardo PD 2.0 ne ho sentite di tutti i colori.
Dal fatto che sarà solo uno step con frequenze leggermente aumentate al fatto che avrà dei tweak all'architettura da tirargli fuori un altro 6-7% di IPC e frequenze leggermente maggiorate.
Io la sparo grossa,sarebbe ottimo se PD 2.0 avesse un 10% in più di IPC e un 5% in più sulle frequenze e valesse sia per la piattaforma FM2 che AM3+.

Le nostre, ovviamente, sono sempre e solo ipotesi. ;)
Comunque, un +10% di IPC in un anno IMHO è impossibile. anche perchè AMD non ha abbastanza forza lavoro da permettere un vantaggio prestazione clock to clock così elevato, nonostante Bulldozer abbia tantissimi problemi architetturali che andrebbero risolti...
E non è una novità che, proprio per la mancanza di manodopera (e con i conti che ha è molto probabile un altro taglio), AMD è costretta ad aumentare tanto le frequenze e a rinunciare a grandi aumenti di IPC. Cosa che Intel invece si può permettere (e mi chiedo per quanto ancora, visto che il denaro che possono investire in R&D sta calando drasticamente) viste le sue quote in ambito mobile e desktop.
E l'aumento di IPC identico sia su AM3+ che FM2 sarebbe bello, ma anche qui dipende. Se alcuni problemi su AM3+ derivano dalla cache L3 e li sistemano, allora l'aumento di IPC su AM3+ sarà più alto.

Phenomenale
18-11-2012, 13:58
Oggi con le versioni liscie qualche mhz lo tiri (grazie ai vrm delle mobo), con haswell se non ha la versone "k" la mobo non ti potrà aiutare piu di tanto (12v diretta nel procio) niente piu vcore/vidd da impostare. Praticamente mi hanno spiegato che le cpu future intel non avranno piu il vcore (voltaggio) che te lo imposti come vuoi tu per overcloccare (come avviene adesso)
LOL, guarda che ti hanno raccontato una bella favoletta :asd:

Non è che haswell funziona a 12v diretti e non puoi più regolare i voltaggi, nè hanno messo i mosfet di potenza delle fasi di alimentazione dentro haswell così possono venderlo come 300W TDP, rimane tutto come ora.
Unica differenza, il chippino logico del PWM si troverà integrato nella cpu anzichè esterno sulla mainboard. Fasi e mosfet saranno sempre esterne, ed il vcore sarà variabile come prima (ci mancherebbe!).
Integrare il PWM (che è una logica di controllo, non un drive di potenza) serve ad avere un controllo più accurato su voltaggi e vdroop per avvicinarsi al concetto di "near voltage" presentato all' ultimo IDF per massimizzare l'efficenza energetica.

EDIT:
Le leggende che haswell integra anche il trasformatore così lo attacchi direttamente alla 220v lasciamole alla fantasia, per chi vuole vedere il chippino che verrà integrato guardi in questa immagine, in basso a destra "PWM Controller":
http://s14.postimage.org/ghqwhn4ul/imageview.jpg (http://postimage.org/image/ghqwhn4ul/)

winebar
18-11-2012, 14:15
LOL, guarda che ti hanno raccontato una bella favoletta :asd:

Non è che haswell funziona a 12v diretti e non puoi più regolare i voltaggi, nè hanno messo i mosfet di potenza delle fasi di alimentazione dentro haswell così possono venderlo come 300W TDP, rimane tutto come ora.
Unica differenza, il chippino logico del PWM si troverà integrato nella cpu anzichè esterno sulla mainboard. Fasi e mosfet saranno sempre esterne come prima (per forza!), il vcore sarà variabile in offset e fixed come prima (ci mancherebbe!).
Integrare il PWM (che è una logica di controllo, non un drive di potenza) serve ad avere un controllo più accurato su voltaggi e vdroop per avvicinarsi al concetto "near voltage" presentato all' ultimo IDF per massimizzare l'efficenza energetica.

Le leggende che haswell integra anche il trasformatore così lo attacchi direttamente alla 220v lasciamole alla fantasia :D

Giustissimo, anche perchè non c'è nessun processore che si prende 12v ad oggi... Anzi, a 1,6 V si friggono in poco tempo (quindi è facilmente immaginabile che più di 10V vengano dissipati dalle fasi e dai mosfet)...

paolo.oliva2
18-11-2012, 14:25
LOL, guarda che ti hanno raccontato una bella favoletta :asd:

Non è che haswell funziona a 12v diretti e non puoi più regolare i voltaggi, nè hanno messo i mosfet di potenza delle fasi di alimentazione dentro haswell così possono venderlo come 300W TDP, rimane tutto come ora.
Unica differenza, il chippino logico del PWM si troverà integrato nella cpu anzichè esterno sulla mainboard. Fasi e mosfet saranno sempre esterne come prima (per forza!), il vcore sarà variabile in offset e fixed come prima (ci mancherebbe!).
Integrare il PWM (che è una logica di controllo, non un drive di potenza) serve ad avere un controllo più accurato su voltaggi e vdroop per avvicinarsi al concetto "near voltage" presentato all' ultimo IDF per massimizzare l'efficenza energetica.

Le leggende che haswell integra anche il trasformatore così lo attacchi direttamente alla 220v lasciamole alla fantasia :D

Però... premetto che non ne so nulla su haswell, tanto di elogio sul "near voltage"... ma il succo è... se Intel volesse limitare l'OC su hanswell, beh, una volta che fissi il Vcore entro certi limiti DENTRO al procio, di occare non se ne parla proprio più.
Di... sul 3770K il tentativo di limitare l'OC e scavalcabile dai più facinorosi scoperchiandolo (io non lo farei mai altrimenti per avere un procio funzionante me ne servirebbe un tir), ma se Intel prosegue la sua guerra all'OC su proci "economici" e lo permettesse parzialmente sulla K ed in modo "aperto" nella EE, non mi meraviglierebbe che il blocco del Vcore lo possa e lo voglia utilizzare.

smoicol
18-11-2012, 14:31
hai colpito nel segno, è questo che mi tormenta da un pò di tempo a cui una spiegazione non l'ho ancora trovata, ho 3770k e il pc lo uso per game principalmente, a parte le prestazioni totali del 3770k in oc o senza, realmente un 8350 quanto va meno, se và meno? lo chiedo per 2 motivi fondamentali, primo: un 3770k in oc è vero che rende, ma i nuovi amd per divertirsi sembrano migliori, result a parte.
secondo: in oc un 8350 si porta con dissi stock intorno i 4.5\4.6 chi è a liquido o ha un buon dissi ad aria un 100\200 mhz in più li prende come minimo, allora chiedo realmente passare da un 3770k a un amd pure overclokkato è cosi limitante? guardando anche in ottica pc micro atx o mini itx.

ciao paolo a questo quesito che puoi dirmi?

winebar
18-11-2012, 14:33
Però... premetto che non ne so nulla su haswell, tanto di elogio sul "near voltage"... ma il succo è... se Intel volesse limitare l'OC su hanswell, beh, una volta che fissi il Vcore entro certi limiti DENTRO al procio, di occare non se ne parla proprio più.
Di... sul 3770K il tentativo di limitare l'OC e scavalcabile dai più facinorosi scoperchiandolo (io non lo farei mai altrimenti per avere un procio funzionante me ne servirebbe un tir), ma se Intel prosegue la sua guerra all'OC su proci "economici" e lo permettesse parzialmente sulla K ed in modo "aperto" nella EE, non mi meraviglierebbe che il blocco del Vcore lo possa e lo voglia utilizzare.

In realtà Intel promette la stessa overclockabilità dei SB-E.
In pratica tutto indipendente da ciò che è un pericolo (principalmente il clock del PCI-E) per l'OC indipendentemente dalla qualità dei componenti.
Ovviamente a quanto sembra non dovrebbe trattarsi di una overclockabilità old style (praticamente come fa AMD), ma di un miglioramento netto rispetto a Sandy Bridge...

winebar
18-11-2012, 14:37
ciao paolo a questo quesito che puoi dirmi?

Da un 3770k a 4,7 Ghz non ti conviene...
Se dovevi fare un PC nuovo allora il discorso era diverso... Già solo di processore pagavi 120€ in meno (e le mobo AMD di qualità costano generalmente meno delle controparti Intel).
Conviene restare al 3770k...
Anche perchè se è vero che un PD arriva a 4,5/4,6Ghz come niente con il dissi stock, è vero anche che poi ad un certo punto devi aumentare il vcore parecchio (almeno a quanto ho capito) e i 5Ghz in DU forse sono appannaggio solo di Paolo che ha anche un water chiller (tradotto, un motore del frigorifero LOL), che però giustamente punta a ottimizzare le prestazioni generiche e non alla frequenza assoluta. :D

smoicol
18-11-2012, 14:39
Da un 3770k a 4,7 Ghz non ti conviene...
Se dovevi fare un PC nuovo allora il discorso era diverso... Già solo di processore pagavi 120€ in meno (e le mobo AMD di qualità costano generalmente meno delle controparti Intel).
Conviene restare al 3770k...
Anche perchè se è vero che un PD arriva a 4,5/4,6Ghz come niente con il dissi stock, è vero anche che poi ad un certo punto devi aumentare il vcore parecchio (almeno a quanto ho capito) e i 5Ghz in DU forse sono appannaggio solo di Paolo che ha anche un water chiller (tradotto, un motore del frigorifero LOL), che però giustamente punta a ottimizzare le prestazioni generiche e non alla frequenza assoluta. :D

grazie per risposta, ma a parte la piattaforma che ho adesso, prestazionalmente in game è cosi limitato amd?

winebar
18-11-2012, 15:37
grazie per risposta, ma a parte la piattaforma che ho adesso, prestazionalmente in game è cosi limitato amd?

No. Specialmente alle alte definizioni.
Ovviamente più aumenta la definizione più il processore diventa meno necessario per fare FPS in un gioco.
Non ho idea con BF 3 in multiplayer con 64 giocatori, però in genere anche se è dietro ad un 2500k a 1920*1080 non è così tremendamente indietro.
Ovvio che se poi si guardano i test fatti con Quake 2 a 1024*768 allora Piledriver limita la GPU. Ma lo fa anche un 3770k visto il gioco e la definizione.
E se po vai a vedere ti accorgi che sei ben sopra i 120Hz. Quindi o uno gioca a 800 Hz oppure non se ne accorge visto che entra in gioco il vsync.
Altrimenti a definizioni e refresh rate vagamente umani diventa un "ni" (dipende dal gioco).

Se poi parliamo dello SLI e del CFX, allora un 8350 limita le VGA.

Sevenday
18-11-2012, 15:40
Schede madri Micro ATX ce ne son tre e con chip anteguerra, miniITX manco una.

AM3+ è una linea di prodotti poco miniaturizzabile, sia per il calore, sia per i chip da metter esterni.

affiu
18-11-2012, 15:54
io cmq non capisco tutte le preoccupazzioni in ottica 2013 e passaggio a 28 nm .
Partendo da questo passaggio DI CERTO si avrebbe PER FORZA un rimpicciolimento(grande piccolo che sia) del die size di bulldozer che oggi è 315 mm2; questo significa che sarà piu piccolo di 315mm2,magari non sarebbe lo stesso rispetto al passaggio 32nma 20 nm,ma non potrà rimanere uguale il die size di oggi;e credo che su questo siamo tutti d'accordo.
Questo significa che se ci sarà una diminuzione della superficie del die che si tradurebbe in minor consumi a default(poi per loverclock si puo suppore altro) e ci puo scappare il 4,2 -4,4 ghz sempre sullo stesso TDP di 125w certamente.
Per quanto riguarda l'overclock del 28 nm bulk rispetto al 32nm ,secondo la mia personale visione, non c'è molto da preoccuparsi perchè la differenza sarebbe unicamente sul fatto che il 28 nm è processo usato per le schede video e le apu(alcune fascie tipo zacate e futuro bobcat2) ed è più tollerante a temperature maggiori rispetto al soi ,ma non ci sono problemi perchè bulldozer per via dell'architettura sono processori abbastanza freddi e anche un leggero aumento di 5 gradi associato a maggiore overcloccabilità cambia poco la cosa ,perchè bulldozer per farlo lavorare lo si deve caricare pesantemente ,ma nell'uso quotidiano e per il load normale(non occt) non ci arriverebbe mai a sembrare piu caldo.....risultato

avremo un fx 8350 che sarà sotto rispetto all'8550(o al 8370) COME l'fx 8150 sta al 8350 ,e considerando l'architettura modulare e scalare NON è PER NULLA POCO.

Fino a qui avremo dal 28nm un 200-400mhz di frequenza cioè altri 5-10% di potenza in più rispetto al'fx 8350 sempre a default....se a questo si aggiunge un altro 5-7% di ipc in AGGIUNTA all'apporto della frequenza la cosa si mette male.
AMD,secondo me se lo puo permettere di far slittare steamroller ,perchè cmq l'fx 8350(che non è che sia scarsuccio,soprattutto a 4,4-4,6 ghz che sta ABBONDANTEMENTE sopra un 2600k a default)) viene superato da un ipotetico 8550 cmq di almeno ,nel peggiore delle ipotesi ,un 10% tra ipc/frequenza.

passando all'overclock con il bulk ,per come la vedo io , l'overclock massimo aumenterebbe di altri 200mhz ed ad aria credo che i 5 ghz si acchiappano con il 90 % dei proci per arrivare in buona percentuale a 5,2-5,4 ghz a liquido.
Ora non per fare polemica o flame o altro ,ma credo che cmq lo scontro sarà duro perchè mentre pd2 sarà in tutti gli scenari sopra un 8350 (a qualiasi frequenza,dato che è la steesa architettura modulare-scalare)) non posiamo dire lo stesso tra haswell e ivy ,perchè sono architetture diverse e chi lo puo sapere che in tutti gli scenari sia sopra......è vero che è tutto potenziato e magari sarà un mostro che si mangia tutti ,ma un piledriver2 a 28 nm a 4,2-4,4 ghz ,piu lo stesso,per convenzione,7% di ipc, IN OGNI CASO è PESANTE come scenario di posizionamento ed in determinati ambiti la vedo male cmq.

per avere un idea da dove parte la mia immaginazione-ipotesi io penso ad un 8550 oppure 8370 ipotetico sia a default che in overclock a 5ghz(in questo grafico a 4,9 ghz) con il '''7%''' di ipc come c'è stato con piledriver ,in questi bench:
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-povray.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-x264_pass1.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-x264_pass2.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-7zip.jpg

Diablo III
18-11-2012, 15:59
Schede madri Micro ATX ce ne son tre e con chip anteguerra, miniITX manco una.

vero, proprio un peccato :(

smoicol
18-11-2012, 16:00
grazie per la risposta,
io gioco a 1920x1200
e non stò li a guardare quanti fps fà il gioco,
però mi preme una riflessione,
se per giocare bene mi occorre una piattaforma come in sign e non ci sono dubbi che vada bene,con la controparte amd se posso ottenere prestazioni simili e risparmiare quei 100\150€ non vedo perchè non provarlo, già per il fatto che le temperature cpu sono umane, mi piace, per l'oc mi piace, che dire devo solo capire se è un possibile passo fattibile

Grizlod®
18-11-2012, 16:36
grazie per la risposta,
io gioco a 1920x1200
e non stò li a guardare quanti fps fà il gioco,
però mi preme una riflessione,
se per giocare bene mi occorre una piattaforma come in sign e non ci sono dubbi che vada bene,con la controparte amd se posso ottenere prestazioni simili e risparmiare quei 100\150€ non vedo perchè non provarlo, già per il fatto che le temperature cpu sono umane, mi piace, per l'oc mi piace, che dire devo solo capire se è un possibile passo fattibileIMO è fattibile, l'unica modifica da apportare, rispetto la tua configurazione in firma, sono le RAM. Servono almeno delle 1866 MHz, ma personalmente ritengo molto utile salire anche di bus, quindi consiglierei le 2000 MHz. Naturamente, bisogna IMO necessariamente salire anche col CPU-NB, per evitare strozzamenti di dati dalla RAM.

E poi, mi permetto di consigliare pure il tweak che ho in sign :D ..utile a sfruttare al meglio anche configurazioni Crossfire/SLI, dato che, sembra che Windoz, non riconosca perfettamente, ne NB, ne SB, ne IMC, su piattaforma AMD.

P.S.Anzi, volendo si potrebbe optare pure per un sixcore; per giocare, non è strettamente necessario un octacore...

smoicol
18-11-2012, 16:41
IMO è fattibile, l'unica modifica da apportare, rispetto la tua configurazione in firma, sono le RAM. Servono almeno delle 1866 MHz, ma personalmente ritengo molto utile salire anche di bus, quindi consiglierei le 2000 MHz. Naturamente, bisogna IMO necessariamente salire anche col CPU-NB, per evitare strozzamenti di dati dalla RAM.

E poi, mi permetto di consigliare pure il tweak che ho in sign :D ..utile a sfruttare al meglio anche configurazioni Crossfire/SLI, dato che, sembra che Windoz, non riconosca perfettamente, ne NB, ne SB, ne IMC, su piattaforma AMD.

P.S.Anzi, volendo si potrebbe optare pure per un sixcore; per giocare, non è strettamente necessario un octacore...

ciao e grazie, io opterei pure per un dual, basta che si possa fareoc senò non mi diverto :D :D :D

Grizlod®
18-11-2012, 16:58
ciao e grazie, io opterei pure per un dual, basta che si possa fareoc senò non mi diverto :D :D :D:D Ho carpito l'ironia...cmq oggigiorno, meglio minimo minimo un quadcore...

Non vedo il tuo alimentatore in firma, ma posso intuire che non sia proprio scrauso.
Lo scrivo per completezza d'informazione: IMO meglio stare almeno sui 750W e che non siano alimentatori OEM.

P.S. ricordo che FX, supporta RAM da 1866 MHz in sù, con sole 2 DIMM...con 4 DIMM, viaggia a max 1600 MHz (anche un po di più, per la verità :D ).

LS1987
18-11-2012, 17:08
Se attualmente deve montarle su sckt 775 e poi passarle su am3+ nn é semplice, ma penso che queste potrebbero andare bene:

http://www.gskill.com/products.php?index=385

hanno vdimm a 1,5v e sono certificate a 1866mhz.

;) CIAUZ

Gli faccio prendere la versione da 1600 mhz per risparmiare, tanto ram più veloci servono solo con Trinity, che non gli interessa. Con Piledriver non ricordo aumenti di performance significativi con RAM più veloci.

shellx
18-11-2012, 17:17
LOL, guarda che ti hanno raccontato una bella favoletta :asd:
cut...

Ok ti credo, molto probabilmente chi me la detto è unaltro catastrofista come tanti di quelli che si trovano in rete. Comunque grazie per la spiegazione, con questa scusa adesso ho capito meglio cosa accadrà, e sopratutto ho capito qual'è l'elemento sulla mobo che verrà integrato nel die. A me avano detto che le future mobo 1150 saranno prive di VRM, ossia di fasi di alimentazione, digi+ digi- ecc ecc, praticamente tutte quelel robe che adesso dissipano con gli heatsink fighissimi, sarebbero quindi sparite. A me hanno detto cosi. Invece alal fine si tratta solo di un chip di logica pwm. Ti giuro che su ste cose io sono proprio terra terra (se tornassi indietro anzichè sobirmi 5 anni di in ing.informatica, punterei su l'elettronica, ho fatto solo 2 materie di base, e mi sarebbe piaciuto approfondire l'elettronica digitale). Ma levami una curiosità: ma i digi+, quei cosetti che i produttori di mobo dissipano e vantano cosi tanto a colpi di marketing sulle confezioni, centrano quindi con chip pwm (quello che verra integrato) ? O i digi+ sono altra roba ancora ?
Scusate L'OT: se vuoi rispondermi e ne vogliamo parlare fallo forse meglio in pm, non sarebbe corretto nel thread.

winebar
18-11-2012, 18:19
le future mobo 1150 saranno prive di VRM, ossia di fasi di alimentazione, digi+ digi- ecc ecc, praticamente tutte quelel robe che adesso dissipano con gli heatsink fighissimi, sarebbero quindi sparite.

Ecco l'errore...
Le mobo saranno effettivamente prive di VRM. Ma non i VRM, IL VRM.
Il VRM è un chip (quello che Phenomenale ha fatto vedere nell'immagine) che, come dice l'acronimo Volage Regulator Modulo (modulo di regolazione della tensione), non fa altro che variare la tensione dell'energia mandata alla CPU.
I mosfet, le fasi ecc rimangono sempre lì con i loro superfaighi dissipatori. ;)
Digi + VRM (sigla usata da ASUS se non erro) non è altro che il VRM composto da un chip, che controlla la tensione in modo totalmente digitale...
La differenza rispetto ai VRM analogici è che quelli analogici sono meno precisi.
In pratica con gli 1150 i produttori smetteranno di dire che usano un regolatore di tensione completamente digitale, in quanto non è una funzionalità in più ma direttamente integrata nella CPU. ;)

paolo.oliva2
18-11-2012, 18:23
io cmq non capisco tutte le preoccupazzioni in ottica 2013 e passaggio a 28 nm .
Partendo da questo passaggio DI CERTO si avrebbe PER FORZA un rimpicciolimento(grande piccolo che sia) del die size di bulldozer che oggi è 315 mm2; questo significa che sarà piu piccolo di 315mm2,magari non sarebbe lo stesso rispetto al passaggio 32nma 20 nm,ma non potrà rimanere uguale il die size di oggi;e credo che su questo siamo tutti d'accordo.
Questo significa che se ci sarà una diminuzione della superficie del die che si tradurebbe in minor consumi a default(poi per loverclock si puo suppore altro) e ci puo scappare il 4,2 -4,4 ghz sempre sullo stesso TDP di 125w certamente.
Per quanto riguarda l'overclock del 28 nm bulk rispetto al 32nm ,secondo la mia personale visione, non c'è molto da preoccuparsi perchè la differenza sarebbe unicamente sul fatto che il 28 nm è processo usato per le schede video e le apu(alcune fascie tipo zacate e futuro bobcat2) ed è più tollerante a temperature maggiori rispetto al soi ,ma non ci sono problemi perchè bulldozer per via dell'architettura sono processori abbastanza freddi e anche un leggero aumento di 5 gradi associato a maggiore overcloccabilità cambia poco la cosa ,perchè bulldozer per farlo lavorare lo si deve caricare pesantemente ,ma nell'uso quotidiano e per il load normale(non occt) non ci arriverebbe mai a sembrare piu caldo.....risultato

avremo un fx 8350 che sarà sotto rispetto all'8550(o al 8370) COME l'fx 8150 sta al 8350 ,e considerando l'architettura modulare e scalare NON è PER NULLA POCO.

Fino a qui avremo dal 28nm un 200-400mhz di frequenza cioè altri 5-10% di potenza in più rispetto al'fx 8350 sempre a default....se a questo si aggiunge un altro 5-7% di ipc in AGGIUNTA all'apporto della frequenza la cosa si mette male.
AMD,secondo me se lo puo permettere di far slittare steamroller ,perchè cmq l'fx 8350(che non è che sia scarsuccio,soprattutto a 4,4-4,6 ghz che sta ABBONDANTEMENTE sopra un 2600k a default)) viene superato da un ipotetico 8550 cmq di almeno ,nel peggiore delle ipotesi ,un 10% tra ipc/frequenza.

passando all'overclock con il bulk ,per come la vedo io , l'overclock massimo aumenterebbe di altri 200mhz ed ad aria credo che i 5 ghz si acchiappano con il 90 % dei proci per arrivare in buona percentuale a 5,2-5,4 ghz a liquido.
Ora non per fare polemica o flame o altro ,ma credo che cmq lo scontro sarà duro perchè mentre pd2 sarà in tutti gli scenari sopra un 8350 (a qualiasi frequenza,dato che è la steesa architettura modulare-scalare)) non posiamo dire lo stesso tra haswell e ivy ,perchè sono architetture diverse e chi lo puo sapere che in tutti gli scenari sia sopra......è vero che è tutto potenziato e magari sarà un mostro che si mangia tutti ,ma un piledriver2 a 28 nm a 4,2-4,4 ghz ,piu lo stesso,per convenzione,7% di ipc, IN OGNI CASO è PESANTE come scenario di posizionamento ed in determinati ambiti la vedo male cmq.

per avere un idea da dove parte la mia immaginazione-ipotesi io penso ad un 8550 oppure 8370 ipotetico sia a default che in overclock a 5ghz(in questo grafico a 4,9 ghz) con il '''7%''' di ipc come c'è stato con piledriver ,in questi bench:
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-povray.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-x264_pass1.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-x264_pass2.jpg
http://www.overclockers.com/wp-content/uploads/2012/10/oc-fx-8350-7zip.jpg

Dai risultati che hai postato... l'8350 è messo meglio di quello che pensavo nel discorso a def. Trovo un po' "partigiano" mettere un 8350@4,9GHz e confrontarlo con gli Intel a def. :D.

Però, obiettivamente, non so se sia più positivo il sapere che un 8350 si occa a 4,5/4,6GHz con facilità, oppure un 8350 che a def fosse stato 4,2GHz.... in fin dei conti avrebbe totalizzato un 5% in più in qualsiasi bench e visto il confronto a def, non è che quel 5% non sarebbe servito.

winebar
18-11-2012, 18:25
P.S. ricordo che FX, supporta RAM da 1866 MHz in sù, con sole 2 DIMM...con 4 DIMM, viaggia a max 1600 MHz (anche un po di più, per la verità :D ).

Ehm, veramente di base gli FX supportano FINO A 1866 Mhz OOTB.
Questo ovviamente non significa che sia impossibile usare memorie a frequenze più elevate, ma solo che il memory controller rileva memorie che vanno fino a 1866 automaticamente (in teoria) e utilizza i timing adeguati (anche qui, in teoria sono quelli che dice il produttore della RAM).
Se il rilevamento non funziona basta entrare nel BIOS e impostare il moltiplicatore della RAM. Cosa che io ho dovuto fare con la mia da 1600 Mhz, ma non ho dovuto toccare i timing.

Oltre ai 1866 AMD dice che devi fare tutto da solo. Potrebbe essere che il BIOS adotta automagicamente i timing adatti solo usando il moltiplicatore, ma non ne viene data garanzia. ;)

E comunque, oltre ai 1600 Mhz non serve andare. Anzi, piuttosto che prendere 1866 CL9 o 2133 CL10, anche su trinity conviene andare di 1600 Mhz CL8.
Diversi test hanno dimostrato che su Trinity la banda della memoria ha un certo peso, che però oltre ai 1600 Mhz non influisce. Da 1600 Mhz in poi invece la latenza diventa importante. ;)

Grizlod®
18-11-2012, 19:01
Ehm, veramente di base gli FX supportano FINO A 1866 Mhz OOTB.
Questo ovviamente non significa che sia impossibile usare memorie a frequenze più elevate, ma solo che il memory controller rileva memorie che vanno fino a 1866 automaticamente (in teoria) e utilizza i timing adeguati (anche qui, in teoria sono quelli che dice il produttore della RAM).
Se il rilevamento non funziona basta entrare nel BIOS e impostare il moltiplicatore della RAM. Cosa che io ho dovuto fare con la mia da 1600 Mhz, ma non ho dovuto toccare i timing.

Oltre ai 1866 AMD dice che devi fare tutto da solo. Potrebbe essere che il BIOS adotta automagicamente i timing adatti solo usando il moltiplicatore, ma non ne viene data garanzia. ;) Veramente, sul loro sito, sta scriito quanto ho scritto io:
http://www.amd.com/us/products/desktop/processors/amdfx/Pages/amdfx-key-architectural-features.aspx

Al paragrafo: Integrated DRAM Controller with AMD Memory Optimizer Technology, c'è un rimando (2) a fondo pagina...

L'ho già sperimentato direttamente...come anche le cose che hai aggiunto...

E comunque, oltre ai 1600 Mhz non serve andare. Anzi, piuttosto che prendere 1866 CL9 o 2133 CL10, anche su trinity conviene andare di 1600 Mhz CL8.
Diversi test hanno dimostrato che su Trinity la banda della memoria ha un certo peso, che però oltre ai 1600 Mhz non influisce. Da 1600 Mhz in poi invece la latenza diventa importante. ;) Su Trinity non mi pronuncio (anche se so che su Llano è stato dimostrato il contrario di quanto hai scritto...), ma ho scritto riguardo FX ed avendo prima avuto delle RAM a 1600 MHz, successivamente cambiate con delle 2000 MHz, tiposso assicurare che il guadagno c'è...+/- in tutti i campi. Per come ho scritto in risposta a smoicol, anche in campo videogames.

winebar
18-11-2012, 20:24
Veramente, sul loro sito, sta scriito quanto ho scritto io:
http://www.amd.com/us/products/desktop/processors/amdfx/Pages/amdfx-key-architectural-features.aspx

Al paragrafo: Integrated DRAM Controller with AMD Memory Optimizer Technology, c'è un rimando (2) a fondo pagina...

L'ho già sperimentato direttamente...come anche le cose che hai aggiunto...

Su Trinity non mi pronuncio (anche se so che su Llano è stato dimostrato il contrario di quanto hai scritto...), ma ho scritto riguardo FX ed avendo prima avuto delle RAM a 1600 MHz, successivamente cambiate con delle 2000 MHz, tiposso assicurare che il guadagno c'è...+/- in tutti i campi. Per come ho scritto in risposta a smoicol, anche in campo videogames.

"Supports up to DDR3-1866"

Up to significa " fino a" in inglese, non oltre i. ;)
E ciò che dico è stato dimostrato proprio con Llano. ;)

isomen
18-11-2012, 20:40
Gli faccio prendere la versione da 1600 mhz per risparmiare, tanto ram più veloci servono solo con Trinity, che non gli interessa. Con Piledriver non ricordo aumenti di performance significativi con RAM più veloci.

2x4gb delle sniper che ho linkato le trovi a prezzi che variano da 40 a 50€, quindi nn costano molto... per la frequenza sbagli, i bulldozer gestiscono ram fino a 1866mhz e con vishera posso impostarle fino a 2400mhz senza toccare il bus (con l'8350 ho delle 2133 che impostate alla frequenza di targa rendono più che a 1600 o a 1866)... ma l'importante é che sono a 1,5v e quindi compatibili con la piattaforma 775.

;) CIAUZ

Grizlod®
18-11-2012, 20:41
"Supports up to DDR3-1866"

Up to significa " fino a" in inglese, non oltre i. ;)
E ciò che dico è stato dimostrato proprio con Llano. ;)So benissimo cosa signifia in inglese; il fatto è che se trascrivi tutto correttamente, risulta:

■Supports up to DDR3-1866² (verificando cosa che sta ad indicare quel ² )

risulta: 2. 1866 supported with 1 DPC (DIMM per Channel) in single memory slot motherboard designs
Cioè, precisa che supporta RAM a 1866 MHz, con 2 sole DIMM...una per canale. Con quattro non le regge le 1866 MHz.

Personalmente, con quattro DIMM, sono arrivato a 1780 MHz, giocando con moltiplicatore e FSB. Oltre non c'è stato verso.

Riguardo Llano, a suo tempo, avevo letto da più parti che condividendo la bandwidth con la scheda grafica necessitasse di almeno RAM a 2133 MHz per rendere al meglio. Con trinity non lo so, non seguo neppure il thread dedicato, ma mi sembra strano...

winebar
18-11-2012, 20:51
So benissimo cosa signifia in inglese; il fatto è che se trascrivi tutto correttamente, risulta:

■Supports up to DDR3-1866² (verificando cosa che sta ad indicare quel ² )

risulta: 2. 1866 supported with 1 DPC (DIMM per Channel) in single memory slot motherboard designs Cioè, precisa che supporta RAM a 1866 MHz, con 2 sole DIMM...una per canale. Con quattro non le regge le 1866 MHz.

Personalmente, con quattro DIMM, sono arrivato a 1780 MHz, giocando con moltiplicatore e FSB. Oltre non c'è stato verso.

Riguardo Llano, a suo tempo, avevo letto da più parti che condividendo la bandwidth con la scheda grafica necessitasse di almeno RAM a 2133 MHz per rendere al meglio. Con trinity non lo so, non seguo neppure il thread dedicato, ma mi sembra strano...

Si ma leggiti il tuo post... Avevi detto che gli FX supportano da 1866 in su con due dimm...
Cosa non vera perché AMD non scrive da nessuna parte che supporta RAM a più di 1866MHz.
Infatti io non ho detto che con quattro DIMM arrivi sicuramente a 1866, anzi. ;)

Inviato dal mio GT-I9000 con Tapatalk 2

Grizlod®
18-11-2012, 21:04
Si ma leggiti il tuo post... Avevi detto che gli FX supportano da 1866 in su con due dimm...
Cosa non vera perché AMD non scrive da nessuna parte che supporta RAM a più di 1866MHz.
Infatti io non ho detto che con quattro DIMM arrivi sicuramente a 1866, anzi. ;)

:D questa pero è una tua interpretazione di quanto ho scritto.
Se tu ti riferivi a quanto dice AMD, posso anche concordare, ma in questo thread, si dibatte anche con utenti (dicamo) SKILL, i quali sanno benissimo, dove mettere le mani nel BIOS e sanno bene come funzia la faccenda. Se tutti ci limitassimo alle informazioni che passano le aziende, allora, non ci sarebbero sul mercato DIMM a 2000, 2133, 2400 MHz; che oltretutto, sarebbero meno utili su piattaforme Intel.

Il mio appunto era rivolto a questa tipologia di utenti, cioè, che vogliano sfruttare al meglio le caratteristiche di cio che acquistano...

Quindi quanto ho detto in proposito, è vero!

folken84
18-11-2012, 21:42
Ciao ragazzi qualche possessore di 8320 o 8350 ha fatto qualche prova?
sarei curioso di vedere come si comporta in modalità 4m/4c nei giochi
sono indeciso tra l'acquisto di un fx6300 o fx8320, questa prova mi chiarirebbe un bel dubbio :D

Cocco83
18-11-2012, 22:02
Certo che da quei grafici.... se avessero avuto modo di portare il procio in maniera che funzionasse a 5ghz in turbo in produzione.... avremmo onore di dire che la serie FX sarebbe tornata..... troppi se purtroppo....

winebar
18-11-2012, 22:05
P.S. ricordo che FX, supporta RAM da 1866 MHz in sù, con sole 2 DIMM...con 4 DIMM, viaggia a max 1600 MHz (anche un po di più, per la verità :D ).

:D questa pero è una tua interpretazione di quanto ho scritto.

Quindi quanto ho detto in proposito, è vero!

Assolutamente falso...
Dire che AMD supporta memorie oltre a 1866 MHz è come dire che Intel supporta memorie a 2133 quando invece dice solo che le supporta fino a 1600 MHz...
Il fatto che funzionino non significa che siano supportate, quello è un altro paio di maniche, significa solo che VOLENDO puoi andare fuori specifica di AMD, ma AMD non ti da nessunissima certezza che il memory controller riesca a reggere frequenze più alte (che poi ci riesca è un altro paio di maniche).

Riguardo le due frasi in grassetto, quella è proprio una "mia libera interpretazione di ciò che hai scritto"...
Quindi ho letto "supporta da 1866 in su" e ho capito "supporta anche più di 1866". In pratica ho capito Roma per Roma, giusto? LOL

Grizlod®
18-11-2012, 22:20
Assolutamente falso...
Dire che AMD supporta memorie oltre a 1866 MHz è come dire che Intel supporta memorie a 2133 quando invece dice solo che le supporta fino a 1600 MHz...
Il fatto che funzionino non significa che siano supportate, quello è un altro paio di maniche, significa solo che VOLENDO puoi andare fuori specifica di AMD, ma AMD non ti da nessunissima certezza che il memory controller riesca a reggere frequenze più alte (che poi ci riesca è un altro paio di maniche).

Riguardo le due frasi in grassetto, quella è proprio una "mia libera interpretazione di ciò che hai scritto"...
Quindi ho letto "supporta da 1866 in su" e ho capito "supporta anche più di 1866". In pratica ho capito Roma per Roma, giusto? LOLSì vabbeh...visto che hai illuminato il thread con queste tue regole, d'ora in poi, gli AMDISTI, non metteranno RAM oltre i 1866 MHz...sei contento?! Oppure è meglio se non superano i 1600 Mhz, dato che, come hai scritto tu, non serve :mbe:... anche su trinity.

:D Puoi cominciare a stappare lo champagne BOOOMM :sofico:

netcrusher
18-11-2012, 22:23
allora vorrei capire sta cosa delle memorie, cioè se prendo delle memorie da 2133 è bene che siano solo due banchi anzichè quattro?????? ma allora perchè la mia motherboard mi fà impostare il moltiplicatore delle ram fino alle ddr3 2400 mhz???

se devo prendere 16gb dd3 2133 in quattro banchi da 4gb ciascuno lo prenderò a quel posto, è sicuro che non funzioneranno???? porca miseria questa cosa mi dà a pensare e non poco porca miseria, attendo un chiarimento serio a tal proposito, chi ha ram da 2400 sul proprio sistema????? rispondetemi please prima che butto soldi nel gabinetto.

paolo.oliva2
18-11-2012, 22:28
AMD riporta supporto fino alle DDR3 1866 semplicemente perchè il Jdec, ovvero chi definisce uno standard per le memorie, è fermo alle 1866.
AMD, come chiunque altro, non puo' dichiarare una compatibilità per cio' che non esiste come definito.

Quando Jdec si darà una mossa e definirà uno standard per DDR3 2000, 2133, 2300, 2400, il giorno dopo AMD riporterà "supporto DDR3 fino a" senza cambiare una mazza all'MC.

L'MC di Zambesi non apportava differenze di performances con DDR3 >1866, a parte nei test di banda. Vishera ha un MC migliorato, ma non so se effettivamente guadagna di più di Zambesi con DDR3 più veloci... comunque Vishera vede DDR3 > 2,4GHz, vedi immagine, e mi sembra arrivi anche a tenere le 2,6GHz.

http://uptiki.altervista.org/_altervista_ht/uflijeybst1cvczfynnf_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=uflijeybst1cvczfynnf.jpg)

Anche con le mobo ritroviamo lo stesso problema... se le DDR3 fino a 1866 rispettano uno standard Jdec, non ci sarebbe bisogno di riportare la compatibilità, semplicemente perchè se le DDR3 Caio e Sempronio hanno le stesse caratteristiche, ovvero Timing e Vcore uguali, riportare la compatibilità con Caio equivarrebbe anche a riportare Sempronio.
Invece è più importante riportare la compatibilità con DDR3 >1866, perchè in assenza di una tabella standard delle caratteristiche, ognuno può fare di testa sua. In verità poi se un tipo di memorie non compare sulla lista, non è che non funzionano... alla male peggio basta settarle (se rientra nelle tolleranze delle ram) con timing/Vcore di una DDR3 certificata, e si risolve il problema.

winebar
18-11-2012, 22:28
Sì vabbeh...visto che hai illuminato il thread con queste tue regole, d'ora in poi, gli AMDISTI, non metteranno RAM oltre i 1866 MHz...sei contento?!

Non mi cambia la vita... Ma saresti contento di sapere che spendi soldi in più solo per avere una maggiore banda che non fa differenza in NIENTE se non in Sandra nel test della banda disponibile?

Oppure è meglio se non superano i 1600 Mhz, dato che, come hai scritto tu, non serve :mbe:... anche su trinity.

http://www.legitreviews.com/article/1652/1/

C'è anche dell'hardware di tom, che ovviamente non posso postare, che da lo stesso risultato...
Una memoria 1600 MHz CL8 va tanto quanto una 1866 MHz CL9.
E con una 1866 CL8 la storia non cambierebbe.
L'unica cosa importante è non prendere banchi da 1333.

:D Puoi cominciare a stappare lo champagne BOOOMM :sofico:

Vedi di fare poco lo spiritoso... Non hai portato nulla che dicesse il contrario di ciò che ho detto...

winebar
18-11-2012, 22:30
AMD riporta supporto fino alle DDR3 1866 semplicemente perchè il Jdec, ovvero chi definisce uno standard per le memorie, è fermo alle 1866.
AMD, come chiunque altro, non puo' dichiarare una compatibilità per cio' che non esiste come definito.

L'MC di Zambesi non apportava differenze di performances con DDR3 >1866, a parte nei test di banda. Vishera ha un MC migliorato, ma non so se effettivamente guadagna di più di Zambesi con DDR3 più veloci... comunque Vishera vede DDR3 > 2,4GHz, vedi immagine, e mi sembra arrivi anche a tenere le 2,6GHz.

Ma io non dico che non funzionino, dico solo che AMD non dice che supporta memorie OLTRE ai 1866 MHz.

Grizlod®
18-11-2012, 22:40
Non mi cambia la vita... Ma saresti contento di sapere che spendi soldi in più solo per avere una maggiore banda che non fa differenza in NIENTE se non in Sandra nel test della banda disponibile?



http://www.legitreviews.com/article/1652/1/

C'è anche dell'hardware di tom, che ovviamente non posso postare, che da lo stesso risultato...
Una memoria 1600 MHz CL8 va quanto di una 1866 MHz CL9.
E con una 1866 CL8 la storia non cambierebbe.
L'unica cosa importante è non prendere banchi da 1333.



Vedi di fare poco lo spiritoso... Non hai portato nulla che dicesse il contrario di ciò che ho detto... Io al contrario delle review, ho fatto veramente millemila prove con FX e quanto ho scritto, l'ho scritto, per cognizione di causa. Quindi non posterò links (anche se qualcuno c'è...) con recensioni che dimostrino come bisogna recensire veramente un FX.

Poi ogni utente decide per se per i suoi acquisti...

Ma affermare cose che nemmeno si sono provate personalmente (vedi RAM max a 1600 MHz), direi che è un po azzardato.


P.S. se per caso, ti sei sentito offeso, ti chiedo scusa...ci mancherebbe...

paolo.oliva2
18-11-2012, 22:41
Ma io non dico che non funzionino, dico solo che AMD non dice che supporta memorie OLTRE ai 1866 MHz.

Ma io che ho scritto? NON puo' dire che supporta ad esempio delle DDR3 2000 perchè Jdec non ha definito ancora uno standard, quindi se AMD riportasse "supporto DDR3 2000", ed io compro delle DDR3 2000 che non mi funzionano con Vishera, gli posso fare un reso con la dicitura "reso non conforme alle caratteristiche dichiarate". In Italia è una cosa che magari si risolve senza alcuna penale, ma in America ti fanno il :ciapet: ... :D

Per il discorso di 1/2/4 banchi di ram, dipende esclusivamente dalla mobo/bios, perchè di per sè l'MC è compatibile con tutto. Nel discorso overclock la cosa cambia, ma qui la ragione è diversa... è chiaro che l'overclock stressa di più qualsiasi parte del procio e 4 banchi in ogni caso "sforzano" l'MC di più che 2 o 1. Con l'8150 io avevo 4 banchi di ram 2133, arrivavo a 5GHz, con 2 banchi sempre 5GHz.

winebar
18-11-2012, 22:57
Io al contrario delle review, ho fatto veramente millemila prove con FX e quanto ho scritto, l'ho scritto, per cognizione di causa. Quindi non posterò links (anche se qualcuno c'è...) con recensioni che dimostrino come bisogna recensire veramente un FX.

Poi ogni utente decide per se per i suoi acquisti...

Ma affermare cose che nemmeno si sono provate personalmente (vedi RAM max a 1600 MHz), direi che è un po azzardato.


P.S. se per caso, ti sei sentito offeso, ti chiedo scusa...ci mancherebbe...

Non mi sono sentito offeso, ci mancherebbe, mi ha solo infastidito quella parte a cui ho risposto male, ti chiedo scusa anche io.
Comunque, capisco cosa intendi. Anche io noto leggermente la differenza tra moduli a 1600 e a quasi 1700 (a parità di latenza).
Eppure ogni volta che faccio test vedo una differenza minima. Solo la latenza migliora. Ma il miglioramento (parliamo di 1 nanosecondo), unito all'aumento di performance (fino a 200 MB/s, meno dello 0,25% rispetto al valore standard) quando parliamo di circa 45 nm di latenza (che già sono impercettibili) normale e di diversi GB/s per ogni singolo banco di memoria mi fanno sempre pensare all'effetto placebo...
Cioè, sia chiaro, non do per certi i benchmark, ma quantomeno so la base di partenza e di arrivo e riesco a capire se effettivamente l'aumento è abbastanza alto da esserce percettibile o se è più probabile che si tratti di effetto placebo...
E un aumento minore dell'1% ovviamente non è mai percettibile, soprattutto se siamo su ordini di grandezza elevatissimi. :)

Sempre senza prenderlo per oro colato, ho trovato un bench in inglese che non posso postare incentrato proprio sulla RAM, l'ho trovato cercando "amd fx memory benchmark" su Google, si tratta di un sito "che fa un abbondante uso del rosso".
Anche li fanno vedere che differenze non ce ne sono. Ad ogni aumento di clock le performance o aumentano leggermente o diminuiscono leggermente, cosa che varia in base al software usato. In genere però si resta nel margine di errore. E i test li hanno effettuati alla latenza stabile minore che hanno ottenuto.

Ma io che ho scritto? NON puo' dire che supporta ad esempio delle DDR3 2000 perchè Jdec non ha definito ancora uno standard, quindi se AMD riportasse "supporto DDR3 2000", ed io compro delle DDR3 2000 che non mi funzionano con Vishera, gli posso fare un reso con la dicitura "reso non conforme alle caratteristiche dichiarate". In Italia è una cosa che magari si risolve senza alcuna penale, ma in America ti fanno il :ciapet: ... :D

Dicevamo la stessa cosa allora. Avevo inteso male. :D
Comunque, [TROLL MODE ON] in Italia per una cosa di questo tipo possono mandare in carcere, per quelle che sono le teorie di carcerazione di questo paese. lol [TROLL MODE OFF]


Per il discorso di 1/2/4 banchi di ram, dipende esclusivamente dalla mobo/bios, perchè di per sè l'MC è compatibile con tutto. Nel discorso overclock la cosa cambia, ma qui la ragione è diversa... è chiaro che l'overclock stressa di più qualsiasi parte del procio e 4 banchi in ogni caso "sforzano" l'MC di più che 2 o 1. Con l'8150 io avevo 4 banchi di ram 2133, arrivavo a 5GHz, con 2 banchi sempre 5GHz.

Probabilmente AMD vuole tutelarsi su quelli che hanno 4 banchi a 1866 e devono downclockarli a 1600 anche se non intervengono di bus... :confused:

paolo.oliva2
18-11-2012, 23:04
Non mi cambia la vita... Ma saresti contento di sapere che spendi soldi in più solo per avere una maggiore banda che non fa differenza in NIENTE se non in Sandra nel test della banda disponibile?

C'è anche dell'hardware di tom, che ovviamente non posso postare, che da lo stesso risultato...
Una memoria 1600 MHz CL8 va tanto quanto una 1866 MHz CL9.
E con una 1866 CL8 la storia non cambierebbe.
L'unica cosa importante è non prendere banchi da 1333.

Il discorso che fa Tom è diverso. Non mi ricordo ma c'è un calcolo ben preciso... in cui la frequenza è un valore e il timing o CL è un altro valore.
Non lo ricordo bene il calcolo, ma il filo sarebbe che se si avesse delle DDR3 a 1GHz con CL 10, equivarrebbero a delle DDR3 a 100MHz ma con CL 1.

Poi la performances della memoria è strettamente legata al tipo di programma che si utilizza, e qui Tom non puo' assolutamente dire che una CL8 andrebbe come una CL9. Facendo un esempio, mettiamo che ho un sistema che lavora con un database ENORME, i cui campi sono di pochi byte. Qualsiasi processore non avrebbe alcun giovamento nell'usare anche DDR3 2400 perchè con i timing più alti, l'indirizzamento sarebbe lento e una banda alta non servirebbe a nulla in quanto i record sarebbero piccoli. Viceversa, ad esempio facendo una conversione video, il file è sequenziale e qui l'avere una banda alta è di gran lunga preferibile a dei timing più aggressivi.

In fin dei conti basta fare una semplice equazione. La memoria deve avere una velocità tale da non creare un collo di bottiglia al procio, cioè se il procio chiede 100, la ram non puo' dargli 99, che poi gli dasse 101 o 200, si avrebbe lo stesso risultato.
Ora... se ad un 8150 def gli bastavano le DDR3 1600, vuol dire che queste bastavano a fornirgli tutti i dati. Ora... un 8350 risulta del 15% più potente di u n 8150... quindi mi pare normale che le DDR3 1600 che con l'8150 risultavano sufficienti, con l'8350 risultino strette, specie in caso di overclock, perchè già un 8350@4,6GHz equivale ad un 8150@5GHz, che è piuttosto distante dai 3,6GHz def.

Edit P.S.
Naturalmente si discute... anche perchè, tra l'altro, sono stato io tra i primi a riportare tramite i bench che delle DDR3 1866 bastavano ed avanzavano all'8150, e lo ricordo bene perchè ho fatto il test sino a 5GHz perchè volevo capire che l'MC fosse stato compatibile con un aumento dei core... da qui un 8150@5GHz richiedeva un flusso dati sicuramente superiore ad un teorico X10 a 3,2GHz... Stesso discorso per un aumento di core base Vishera... se le 1866 o al limite le 2000 bastassero, le 2400 garantirebbero un aumento di banda compatibile con un aumento dei core.

winebar
18-11-2012, 23:13
Il discorso che fa Tom è diverso. Non mi ricordo ma c'è un calcolo ben preciso... in cui la frequenza è un valore e il timing o CL è un altro valore.
Non lo ricordo bene il calcolo, ma il filo sarebbe che se si avesse delle DDR3 a 1GHz con CL 10, equivarrebbero a delle DDR3 a 100MHz ma con CL 1.

Poi la performances della memoria è strettamente legata al tipo di programma che si utilizza, e qui Tom non puo' assolutamente dire che una CL8 andrebbe come una CL9. Facendo un esempio, mettiamo che ho un sistema che lavora con un database ENORME, i cui campi sono di pochi byte. Qualsiasi processore non avrebbe alcun giovamento nell'usare anche DDR3 2400 perchè con i timing più alti, l'indirizzamento sarebbe lento e una banda alta non servirebbe a nulla in quanto i record sarebbero piccoli. Viceversa, ad esempio facendo una conversione video, il file è sequenziale e qui l'avere una banda alta è di gran lunga preferibile a dei timing più aggressivi.

In fin dei conti basta fare una semplice equazione. La memoria deve avere una velocità tale da non creare un collo di bottiglia al procio, cioè se il procio chiede 100, la ram non puo' dargli 99, che poi gli dasse 101 o 200, si avrebbe lo stesso risultato.
Ora... se ad un 8150 def gli bastavano le DDR3 1600, vuol dire che queste bastavano a fornirgli tutti i dati. Ora... un 8350 risulta del 15% più potente di u n 8150... quindi mi pare normale che le DDR3 1600 che con l'8150 risultavano sufficienti, con l'8350 risultino strette, specie in caso di overclock, perchè già un 8350@4,6GHz equivale ad un 8150@5GHz, che è piuttosto distante dai 3,6GHz def.

Edit P.S.
Naturalmente si discute... anche perchè, tra l'altro, sono stato io tra i primi a riportare tramite i bench che delle DDR3 1866 bastavano ed avanzavano all'8150, e lo ricordo bene perchè ho fatto il test sino a 5GHz perchè volevo capire che l'MC fosse stato compatibile con un aumento dei core... da qui un 8150@5GHz richiedeva un flusso dati sicuramente superiore ad un teorico X10 a 3,2GHz...

Guarda personalmente do poco corda ai ragionamenti di Tom e preferisco vedere i risultati. Ciò che si vede è che mediamente, e anche nei giochi con un'APU, i 1600 bastano e avanzano e non dimostrano quasi nessuna differenza con timing più alti.
Poi ovviamente se si entra in discorsi più specifici il discorso cambia, però per come si comportano generalmente le differenze sono poche e quasi nulle, spesso nel margine di errore.

Ad esempio guardando un altro test in x264 il first pass va da 144 a 156 fps, mentre il second pass rimane stabile.

Che si discuta è normalissimo. Anzi, serve anche per riuscire a capire quale sia effettivamente la frequenza su cui vale la pena investire sapendo che tra un paio di anni tutto verrà messo in discussione dalle DDR4. :)

capitan_crasy
18-11-2012, 23:36
allora vorrei capire sta cosa delle memorie, cioè se prendo delle memorie da 2133 è bene che siano solo due banchi anzichè quattro?????? ma allora perchè la mia motherboard mi fà impostare il moltiplicatore delle ram fino alle ddr3 2400 mhz???

se devo prendere 16gb dd3 2133 in quattro banchi da 4gb ciascuno lo prenderò a quel posto, è sicuro che non funzioneranno???? porca miseria questa cosa mi dà a pensare e non poco porca miseria, attendo un chiarimento serio a tal proposito, chi ha ram da 2400 sul proprio sistema????? rispondetemi please prima che butto soldi nel gabinetto.

Non è la prima CPU AMD che con 4 banchi montati non supporta le frequenze massime settabili con due banchi; questo a causa del "rumore elettrico"...

AMD riporta supporto fino alle DDR3 1866 semplicemente perchè il Jdec, ovvero chi definisce uno standard per le memorie, è fermo alle 1866.
AMD, come chiunque altro, non puo' dichiarare una compatibilità per cio' che non esiste come definito.

Quando Jdec si darà una mossa e definirà uno standard per DDR3 2000, 2133, 2300, 2400, il giorno dopo AMD riporterà "supporto DDR3 fino a" senza cambiare una mazza all'MC.



Paolo Jedec ha certificato anche le DDR3 2133Mhz da parecchio tempo; se cerchi in giro ci sono già soluzioni DDR3 con 2133Mhz @ 1.5V...

isomen
19-11-2012, 00:02
Ciao ragazzi qualche possessore di 8320 o 8350 ha fatto qualche prova?
sarei curioso di vedere come si comporta in modalità 4m/4c nei giochi
sono indeciso tra l'acquisto di un fx6300 o fx8320, questa prova mi chiarirebbe un bel dubbio :D

Sono spiacente, ma nn posso fare i test che avevo promesso, il bios 1604 della sabertooth nn permette di disabilitare un core a modulo... ma solo i moduli 2-3-4.

;) CIAUZ

shellx
19-11-2012, 00:23
cut.. si tratta di un sito "che fa un abbondante uso del rosso".


Del vino ? Ergo fanno test e recensiscono da ubriachi ?

...se può chiarire l'idea, ho cercato con una mobo di fascia alta la sabertooth R2.0 e ho guardato che nella QVL delle memorie è dichiarano che fino a 2200mhz sono supportati i 4 banchi di memoria
http://dlcdnet.asus.com/pub/ASUS/mb/...Memory-QVL.pdf
per cui mi chiederei, ma che senso avrebbe se poi l'mc della cpu non può gestire 4 banchi oltre i 1866mhz?...

per probabili evoluzioni future di cpu (magari con MC ottimizzato), vedi il caso dell'AM3+ che è uscito l'anno scorso e dobbiamo sorbircelo fino al 2014.

winebar
19-11-2012, 07:55
...se può chiarire l'idea, ho cercato con una mobo di fascia alta la sabertooth R2.0 e ho guardato che nella QVL delle memorie è dichiarano che fino a 2200mhz sono supportati i 4 banchi di memoria
http://dlcdnet.asus.com/pub/ASUS/mb/SocketAM3+/SABERTOOTH_990FX_R2.0/Sabertooth_990FX_R20-Memory-QVL.pdf
per cui mi chiederei, ma che senso avrebbe se poi l'mc della cpu non può gestire 4 banchi oltre i 1866mhz?...

Questo è esattamente ciò che diceva Paolo.
AMD garantisce fino a 1866, dopo diventa molto dipendente sia dalla frequenza del processore e del NB, sia dalla scheda madre.
Quindi i vari produttori testano delle RAM a frequenza più elevata per poterti dire "se prendi queste funzionano".
Ovviamente vano contate anche cose come accordi commerciali.
Ad esempio ASUS nelle sue presentazioni utilizza sempre memorie Corsair, e a sua volta Corsair usa sempre componenti di ASUS, quindi vedere praticamente sempre memorie Corsair nella QVL è normalissimo.

Inviato dal mio GT-I9000 con Tapatalk 2

paolo.oliva2
19-11-2012, 09:05
Paolo Jedec ha certificato anche le DDR3 2133Mhz da parecchio tempo; se cerchi in giro ci sono già soluzioni DDR3 con 2133Mhz @ 1.5V...
Io sono andato via dal mondo 8 mesi fa... non lo sapevo.
Però, Capitano, in molte cose AMD lascia parecchio a desiderare. Va bene che nello sviluppo ci vogliono soldi e qui un motivo delle cose non fatte ci sarebbe... ma lasciare volantini di età "arcaica", tipo l'OC di un 8150 a 5GHz ad aria e cose simili, non penso costi chissà che cifra aggiornarli. AOD 4.2.3 Beta è lì da una vita... vendi un procio nuovo, il minimo sarebbe di aggiornarlo.

Freisar
19-11-2012, 09:21
Più guardo i prezzi/prestazioni più sono convinto dell FX6300 che consuma un pelino meno.

Ho qualche dubbio sul tipo di scheda madre che mi serve.

paolo.oliva2
19-11-2012, 09:59
QUI (http://www.techpowerup.com/175762/MSI-990FXA-GD80-Sets-a-New-World-Record-of-8.37GHz-with-FX-8350.html), 8,370GHz OC 8350 su una MSI

QUI (http://www.guru3d.com/articles_pages/amd_fx_8350_8320_6300_processor_4300_performance_review,1.html) un confronto tra 8350-8320-6300-4300

Freisar
19-11-2012, 10:23
Questa dovrebbe andare bene per le mie esigenze soltanto che cè da aggiornare il bios credo mi pare sia supporta
http://www.asrock.com/mb/overview.it.asp?Model=960GM/U3S3 FX

Supporta anche le DDR3 1866 non ci sono problemi per queste ram no?

Freisar
19-11-2012, 10:47
Io non tocco niente lascio tutto di default sia CPU che GPU. :)

Magari per dopo natale mi faccio il regalo.

paolo.oliva2
19-11-2012, 10:48
Più guardo i prezzi/prestazioni più sono convinto dell FX6300 che consuma un pelino meno.

Ho qualche dubbio sul tipo di scheda madre che mi serve.

Secondo me, a parità di potenza elaborativa, il processore che consuma meno è l'8350, seguito dall'8320.

Questo perché I/O e cache L3 hanno un loro consumo fisso, che sia X4 che X8, quindi l'aumento derivante dal numero maggiore di core di per sé è percentualmente inferiore.
Ogni FX, indipendentemente da X4/X8 ha una L3 di 8MB, MC e I/O, teoricamente 25W. A questo consumo fisso si aggiungerebbero 25W per ogni modulo (valori teorici, ma comunque qualsiasi valore applicato non cambierebbe il risultato), quindi:
25W + 50W (2 moduli) - FX X4 - 75W - consumo totale a modulo = 37,5W
25W + 75W (3 moduli) - FX X6 - 100W - consumo totale a modulo = 33,33W
25W + 100W (4 moduli) - FX X8 - 125W - consumo totale a modulo = 31,25W

Quindi gli X8 dovrebbero essere quelli con un consumo/prestazioni migliore.

L'8320 dovrebbe consumare un pelino di più dell'8350 semplicemente perchè non è il silicio migliore, cioè richiede un Vcore maggiore per le stesse frequenze rispetto all'8350.

winebar
19-11-2012, 11:35
Del vino ? Ergo fanno test e recensiscono da ubriachi ?

Esattamente...
E io sono quello che li rifornisce di vino...
Motivo per cui spero sempre che aumentino di test. asd

Secondo me, a parità di potenza elaborativa, il processore che consuma meno è l'8350, seguito dall'8320.

Questo perché I/O e cache L3 hanno un loro consumo fisso, che sia X4 che X8, quindi l'aumento derivante dal numero maggiore di core di per sé è percentualmente inferiore.
Ogni FX, indipendentemente da X4/X8 ha una L3 di 8MB, MC e I/O, teoricamente 25W. A questo consumo fisso si aggiungerebbero 25W per ogni modulo (valori teorici, ma comunque qualsiasi valore applicato non cambierebbe il risultato), quindi:
25W + 50W (2 moduli) - FX X4 - 75W - consumo totale a modulo = 37,5W
25W + 75W (3 moduli) - FX X6 - 100W - consumo totale a modulo = 33,33W
25W + 100W (4 moduli) - FX X8 - 125W - consumo totale a modulo = 31,25W

Quindi gli X8 dovrebbero essere quelli con un consumo/prestazioni migliore.

L'8320 dovrebbe consumare un pelino di più dell'8350 semplicemente perchè non è il silicio migliore, cioè richiede un Vcore maggiore per le stesse frequenze rispetto all'8350.

Sì l'8350 in genere come rapporto consumi/prestazioni è un pelino più efficente.
E il modulo in più non si fa quasi sentire in bolletta quando il sistema è in idle.
Senza contare che ci sono delle recensioni fatte su Llano (anche se non è CMT) che dimostrano come piano piano le aziende stanno aumentando la parallelizzazione dei software, quindi se l'intenzione è tenere il procio per almeno due anni non andrei sotto un 8320.

Se non erro da Steamroller in poi anche la L3 dovrebbe diventare modulare.
Cioè, se non ho tradotto/capito male, l'intenzione è fare in modo che se un modulo non viene utilzzato due MB di L3 vengono "spenti", senza contare che potrebbe essere utile per ridurre la L3 sui processori più economici e quindi il consumo di quei processori anche in full.

Phenomenale
19-11-2012, 12:16
Se non erro da Steamroller in poi anche la L3...
Volevi dire: la L2... Quando un modulo è in Idle Steamroller potrà spegnere completamente la sua L2, in più, grazie all'architettura modulare, quando un modulo è attivo sarà possibile spegnere le sole parti non utilizzate della L2 !!! :Perfido:

Freisar
19-11-2012, 12:24
Soltanto che devo cambiare case sul quale nel pannellino frontale ho le USB 2.0.

Cmq vedrò che fare.

winebar
19-11-2012, 12:33
Volevi dire: la L2... Quando un modulo è in Idle Steamroller potrà spegnere completamente la sua L2, in più, grazie all'architettura modulare, quando un modulo è attivo sarà possibile spegnere le sole parti non utilizzate della L2 !!! :Perfido:

Ehm, hai ragione. :D
Piccolo lapsus. :D

winebar
19-11-2012, 12:46
però scusate, ma non dovrebbe essere già cosi ora con la L2?... cioè, se la L2 è modulare, ma io quel modulo nelle specifico non lo sto caricando, perchè mi dovrebbe consumare se non viene caricato da dati? non rimane in idle anche la L2 dello specifico modulo non caricato?...

Se non erro si parlava di offloading completo.
Cioè, per ora la L2 inutilizzata del modulo dovrebbe andare solo in idle.
Con l'offloading dovrebbe completamente spegnersi finchè non serve nuovamente. :D

Analista di borsa
19-11-2012, 12:49
Trollata di semiaccurate?

AMD kills off big cores, Kaveri, Steamroller, and Excavator
http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

Athlon 64 3000+
19-11-2012, 13:01
Trollata di semiaccurate?

AMD kills off big cores, Kaveri, Steamroller, and Excavator
http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

ne ho le scatole piene di leggere solo rumor negativi.
Secondo me questa è una bufala clamorosa.

winebar
19-11-2012, 13:04
Trollata di semiaccurate?

AMD kills off big cores, Kaveri, Steamroller, and Excavator
http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

Non so...
Anche loro alla fine dicono che una cosa del genere, se fosse vera, sarebbe una mossa suicida.
Anche perchè per ora AMD ha annunciato solo ARM per server. E quindi o si ridimensione in modo palese oppure pagherebbe le pene dell'inferno...
E dicono comunque che seppur sia una lotta difficile, riescono a stare dietro alle prestazioni di Intel (anno per anno il distacco prestazionale è stabile e arriva anche a dminuire come con PD, anche se Intel aumenta l'efficenza ).
Quindi se prima ero certo di prendere un PD sapendo che sarei potuto passare a BD 2.0 e attendere così Steamroller, potrebbero esserci esclusivamente revisioni di Piledriver e nessuna novità di rilievo.
Quindi attendo un'eventuale risposta di AMD ad un rumor di questo rilievo. :sisi:

Secondo me questa è una bufala clamorosa.

Io lo spero vivamente...
Intanto attenderò alla finestra per vedere se PD mi resta comunque conveniente e se dare fiducia a AMD per altri 2 anni (con PD e PD2.0) o se passare a Haswell qualora AMD dichiari che il rumor è valido.
Non che PD diventi lo schifo con questo rumor, ma vorrei evitare di restare su una piattaforma supportata che non si sa quanti miglioramenti avrà...

E comunque potrebbe essere sia vera che finta, fatto sta che però ormai il core Steamroller dovrebbe essere un ES abbastanza avanzato nello sviluppo, soprattutto per le piattaforme mobili.

Korn
19-11-2012, 13:10
gesù se fosse vero amd chiude in paio d'anni

fastleo63
19-11-2012, 14:09
Mi inserisco un attimo nel discorso RAM, velocità e densità, riportando la mia esperienza personale con il sistema in firma.
Ho recentemente acquistato un kit TridentX da 16 GiB (8GiB x 2) di G.Skill.
Visto che il kit può arrivare, su piattaforme Intel, fino a 2400 MHz, ho provato alcuni benchmarks, sia a 1600 MHz CL7-8-8-21, che a 1866 MHz CL8-8-8-21 (ho ovviamente abbassato il moltiplicatore per mantenere il Northbridge vicino ai 2800 MHz, visto che per superare i 1600 MHz con i Thuban è necessario alzare il base clock). Confermo che il guadagno prestazionale con il mio 1090T (tenuto fisso a 3400 MHz, TurboCORE disattivato) è molto contenuto, quasi impercettibile nell'uso normale. Non so se alzando ulteriormente le frequenze avrei migliorato un pò, ma non era quello il mio obiettivo. Il mio vero progetto era invece quello di fare coesistere il mio precedente kit da 8 GiB (4 GiB x 2) G.Skill Ripjaws, ed avere 24 GiB di RAM, e ci sono riuscito!
Di certo il merito non è mio, bensì del mio esemplare di CPU, della RAM e della mainboard. Pensavo comunque che riuscire ad avere 24 GiB in 4 banchi di memorie diverse e mantenere latenze così basse fosse ben più difficile. Tra l'altro non ho dovuto modificare nulla nel BIOS, se non inserire manualmente le temporizzazioni (CL7-8-8-21-29 1T).

shellx
19-11-2012, 14:22
Quando vi dico che RR è un buono a nulla incompetente non mi dite che ho torto. E se AMD fa a fondo, la colpa è solo sua ! E' entrato in azienda l'anno scorso promettendo di rettificare alcune lacune aziendali, e per DIOO ha avuto la capacità in meno di un anno non solo a non fare niente di buono, ma oltretutto a peggiorare la situazione a tal punto di affondare quasi totalmente la nave. E intanto i dollari sei li è pappati ! Tutto questo per colpa della sue gestioni strategiche a caxxo di cane. Secondo me lui non ha proprio idea di cosa sono i veri prodotti AMD.
Morale della favola: se questa notizia è vera (e secondo me lo è perchè SemiAccurate è attendibile) dite addio ad AMD, ringraziate RR e gotevi per l'ultimo giro i vostri proci amd, perchè per quanto mi riguarda non esisterà nemmeno più quell'ipotetico PD2.0.
Se ancora non è chiaro: se questa notizia è vera, aspettatevi a Febbraio la notizia che AMD chiude battenti con i Big_Core e con tuttii prodotti desktop. A questo punto è all'90% sicuro.
Vishera per me sarà l'ultimo core, e anche se ci sarà un PD2.0 e uccideranno SR ed EC nel desktop, io personalmente PD2.0 non lo prenderò proprio per ritrovarmi una cpu "fatta per miracolo" e copia e incolla della precedente, solo per cucire le bocche dei clienti desktop. Senza innovazione (quella che doveva essere SR e next->) prendere un PD2.0 senza aspettare una vera evoluzione e sapere che è l'ultima tappa, non ha proprio senso.
Addio AMD ! ... e a questo giro c'è poco da essere ottimisti... il 2013 sarà l'anno del monopolio cpu x86...e il desktop sparirà nel 2014 anche da parte di Intel. Quest'ultima punterà tutto su ultrabook, tablet e cellulati dal 2015 in poi mentre amd produrrò soc custom ed embedded (no pc).

Che delusione...

Diablo III
19-11-2012, 14:34
ma come siete drammatici oggi :sofico:

WarSide
19-11-2012, 14:40
Quando vi dico che RR è un buono a nulla incompetente non mi dite che ho torto. E se AMD fa a fondo, la colpa è solo sua ! E' entrato in azienda l'anno scorso promettendo di rettificare alcune lacune aziendali, e per DIOO ha avuto la capacità in meno di un anno non solo a non fare niente di buono, ma oltretutto a peggiorare la situazione a tal punto di affondare quasi totalmente la nave. E intanto i dollari sei li è pappati ! Tutto questo per colpa della sue gestioni strategiche a caxxo di cane. Secondo me lui non ha proprio idea di cosa sono i veri prodotti AMD.
Morale della favola: se questa notizia è vera (e secondo me lo è perchè SemiAccurate è attendibile) dite addio ad AMD, ringraziate RR e gotevi per l'ultimo giro i vostri proci amd, perchè per quanto mi riguarda non esisterà nemmeno più quell'ipotetico PD2.0.
Se ancora non è chiaro: se questa notizia è vera, aspettatevi a Febbraio la notizia che AMD chiude battenti con i Big_Core e con tuttii prodotti desktop. A questo punto è all'90% sicuro.
Vishera per me sarà l'ultimo core, e anche se ci sarà un PD2.0 e uccideranno SR ed EC nel desktop, io personalmente PD2.0 non lo prenderò proprio per ritrovarmi una cpu "fatta per miracolo" e copia e incolla della precedente, solo per cucire le bocche dei clienti desktop. Senza innovazione (quella che doveva essere SR e next->) prendere un PD2.0 senza aspettare una vera evoluzione e sapere che è l'ultima tappa, non ha proprio senso.
Addio AMD ! ... e a questo giro c'è poco da essere ottimisti... il 2013 sarà l'anno del monopolio cpu x86...e il desktop sparirà nel 2014 anche da parte di Intel. Quest'ultima punterà tutto su ultrabook, tablet e cellulati dal 2015 in poi mentre amd produrrò soc custom ed embedded (no pc).

Che delusione...

Si è capito che RR ha la stessa funzione di elop, era chiaro da un bel pò ormai.

Phenomenale
19-11-2012, 14:44
Quando vi dico che RR è un buono a nulla incompetente non mi dite che ho torto. E se AMD fa a fondo, la colpa è solo sua !
Guarda questa news di businnesmagazine:
http://www.businessmagazine.it/news/meno-15-per-le-vendite-di-pc-nelle-nazioni-europee_44591.html
Da quando RR ha lasciato Lenovo, quest' ultima ha invertito la tendenza alle perdite riguadagnando il 7,7% sul mercato.
Da quando RR è entrato in AMD, solo cattive notizie, perdite, e licenziamenti.

Help!!! :help:

Diablo III
19-11-2012, 14:47
Guarda questa news di businnesmagazine:
http://www.businessmagazine.it/news/meno-15-per-le-vendite-di-pc-nelle-nazioni-europee_44591.html
Da quando RR ha lasciato Lenovo, quest' ultima ha invertito la tendenza alle perdite riguadagnando il 7,7% sul mercato.
Da quando RR è entrato in AMD, solo cattive notizie, perdite, e licenziamenti.

Help!!! :help:

è una maledizione quell'uomo :asd:

george_p
19-11-2012, 14:48
Quando vi dico che RR è un buono a nulla incompetente non mi dite che ho torto. E se AMD fa a fondo, la colpa è solo sua ! E' entrato in azienda l'anno scorso promettendo di rettificare alcune lacune aziendali, e per DIOO ha avuto la capacità in meno di un anno non solo a non fare niente di buono, ma oltretutto a peggiorare la situazione a tal punto di affondare quasi totalmente la nave. E intanto i dollari sei li è pappati ! Tutto questo per colpa della sue gestioni strategiche a caxxo di cane. Secondo me lui non ha proprio idea di cosa sono i veri prodotti AMD.
Morale della favola: se questa notizia è vera (e secondo me lo è perchè SemiAccurate è attendibile) dite addio ad AMD, ringraziate RR e gotevi per l'ultimo giro i vostri proci amd, perchè per quanto mi riguarda non esisterà nemmeno più quell'ipotetico PD2.0.
Se ancora non è chiaro: se questa notizia è vera, aspettatevi a Febbraio la notizia che AMD chiude battenti con i Big_Core e con tuttii prodotti desktop. A questo punto è all'90% sicuro.
Vishera per me sarà l'ultimo core, e anche se ci sarà un PD2.0 e uccideranno SR ed EC nel desktop, io personalmente PD2.0 non lo prenderò proprio per ritrovarmi una cpu "fatta per miracolo" e copia e incolla della precedente, solo per cucire le bocche dei clienti desktop. Senza innovazione (quella che doveva essere SR e next->) prendere un PD2.0 senza aspettare una vera evoluzione e sapere che è l'ultima tappa, non ha proprio senso.
Addio AMD ! ... e a questo giro c'è poco da essere ottimisti... il 2013 sarà l'anno del monopolio cpu x86...e il desktop sparirà nel 2014 anche da parte di Intel. Quest'ultima punterà tutto su ultrabook, tablet e cellulati dal 2015 in poi mentre amd produrrò soc custom ed embedded (no pc).

Che delusione...

Anche riguardo la chiusura del centro supporto linux ci si è fasciati la testa (fosse solo quella :) ) prima di averla rotta... poi saltò fuori una notizia diversa o meno "generale"...
Possibile che ogni web-scoreggia provochi tutto questo malumore e frustrazione (parlo in generale)?

shellx
19-11-2012, 14:51
ma come siete drammatici oggi :sofico:

è la situazione di amd ad essere drammatica, e RR ne è il regista di tale opera. E non venite a dirmi adesso che SemiAccurate trolla (come ho gia sentito prima) perchè non è vero niente. Tanto è vero che nell'articolo non si parla di una indiscrezione, ma leggendolo lo esprimono con convinzione, come se loro già ne sono certi, dai loro portavoci. Io posso anche capire che ogni tanto ci sia una trollata qualche notizia negativa, ma qui è da mesi che va avanti sta storia, prima titubavo anchio, adesso mi sto rendendo conto che AMD è agli sgoccioli, e se non lo è interamente essa, lo è il suo comparto di prodotto desktop. E' chiaro ormai, sta mandando a casa tutti gli ingegneri di cpu, chipset e quant'altro, ecco perchè ha mostrato la roadmap ("copia e incolla" dell'anno scorso) desktop, sono a corti pure di personale che approfondisce le evoluzioni dei chip (in ambito desktop parlo). E' finita, ormai è finita c'è poco da fare. Altro che drammatico... ci ho sperato fino all'ultimo che si trattava solo di speculazioni web, ma ormai è chiaro, è pura realtà. Stop, questa è stata la notizia per medefinitiva: allo stato attuale e a differenza di prima per me le speculazioni sono quelle che dicono il contrario, ossia che quest e notizie sono trollate.


Anche riguardo la chiusura del centro supporto linux ci si è fasciati la testa (fosse solo quella ) prima di averla rotta... poi saltò fuori una notizia diversa o meno "generale"...
Possibile che ogni web-scoreggia provochi tutto questo malumore e frustrazione (parlo in generale)?

Si vabbe, diversa..ma alla fine ti assicuro che la divisione di svilujppatori linux è ridotta tipo (a 1 o 2 persone?)...ergo la situaizone non è mica diversa, avrebbero fatto prima a non supportarlo proprio. Ste cose a metà a prese per il c.lo proprio non le sopporto. E' inutile che si trascine, sembra un pesce rosso in agonia nell'acquario, che si venda una volta per tutte che soffre lei e ci sta facendo penare a noi.
E per me la colpa è solo di RR...

Diablo III
19-11-2012, 14:53
SemiAccurate si è sempre dimostrato affidabile ;)

capitan_crasy
19-11-2012, 15:04
Con tutto il rispetto che ho per Charlie di Semiaccurate, ma quando sento la parola "analisti" mi viene un attacco di diarrea...:oink:
Per il resto tutta questa "tragedia" mi sembra che manchino solo i suicidi di massa degli ingegneri AMD e una strategia basata sui sacrifici umani al dio Cthulhu... :rolleyes:

shellx
19-11-2012, 15:11
SemiAccurate si è sempre dimostrato affidabile ;)

Lo so, lo so...
Tanto è vero che se questa notizia fosse detta da Fudzilla (es) o OBR forse avrei reagito in maniera lievemente diversa. Ma se lo dice SemiAccurate, mi gioco lo scroto che è cosi ! E mi sa tanto che se la prendono con Fudzilla e OBR..mah!..inizio ad avere i miei dubbi...Vedo confermate più cose passate da loro che quelli che le smentiscono. Tuttavia, di SemiAccurate ci si puo stare tranquilli, non ho mai visto una smentita alle sue notizie.
E non puoi capire come questa cosa mi da fastidio.
Non hanno piu soldi, capisci ? Non sanno piu come muoversi nemmeno loro. Giustamente hanno paura ad investire nelle evoluzioni, specie per il desktop che porta meno guadagni oggi. Investire sul mobile per fare cassa e fare sopravvivere anche gli altri mercati (tipo il desktop) è impossibile anche, perchè non hanno piu fondi.
Lw soluzioni sarebbero: o che qualcuno (arabi che ne so) li aiuti dal punto di vista finanziario per investire e riprendersi, oppure che vendano sta sottospecie di anzienda di microchip che è rimasta. E temo che le smentite di AMD riguardo la vendita sono state fatte apposta per far salire il tasso in borsa, cosi da fargli aumentare valore per l'eventuale vendita definitiva.

Tuttavia la chiudo qui perchè siamo OT.

edit:
Con tutto il rispetto che ho per Charlie di Semiaccurate, ma quando sento la parola "analisti" mi viene un attacco di diarrea...
Per il resto tutta questa "tragedia" mi sembra che manchino solo i suicidi di massa degli ingegneri AMD e una strategia basata sui sacrifici umani al dio Cthulhu...

si ma capitano, capisci che non è piu una o due notizie, qui sembra un tormentone, e sappiamo bene che i tormentoni sono sempre realtà. Poi si è vero che gli analisti non sono certo veggenti, però sono pur sempre analisti, se dicono questo nondico che hanno al 100% ragione, però una forte percentuale che sia probabile l'evento c'è. Oltretutto SemiAccurate descrive la cosa come se fosse pura certezza, e no rumors...

Per quanto riguarda il sacrificio di massa: beh in Italia forse dopo la chiusura di una zienda e dipendenti a spasso forse sarebbe stato possibile, ma in USA escono da un azienda e trovano posto in un'altra.
Comunque sono estremamente rammaricato...solo a sapere che dentro il case ho l'ultima cpu di amd della storia. E nel futuro dovrò spendere tipo 2000 euro per una sola macchina Intel, di cui 500 euro per una sola cpu mainstream oltretutto (senza amd).

paolo.oliva2
19-11-2012, 15:14
Posso dire una minchiata?

Indipendentemente dalla notizia vera o falsa... tanto se è falsa, non chiude, se è vera chiude, quello che possiamo scrivere non cambierebbe nulla :D.

Mi baso su 2 punti:

- il primo, che dopo aver speso soldoni per creare un'architettura ex-novo, i soldi ritornano unicamente con la vendita di proci... e limitare il ritorno solo su Trinity, non mi sembra un affare... anche perchè la fascia desktop e server, seppur calata di percentuale, rappresenterebbe comunque un buon introito... non so la fascia server su base PD, ma a me sembra che Vishera desktop i numeri di vendite li stia facendo.

- Il secondo... non essendoci nulla di ufficiale, potrebbe essere interpretato stile dictat? Cioè... il salto al 28nm è stato annullato e si è rimasti sul 32nm. La miniaturizzazione successiva dovrebbe andare a breaccetto con il successore di PD2... e la mia impressione è che GF non dia l'impressione di voler galoppare, anzi, a me sembrerebbe come se volesse continuare il più possibile la produzione 32nm SOI per far entrare quanti più utili possibile.

In questo scenario, queste informazioni potrebbero essere anche intese tipo "GF, vai avanti con la miniaturizzazione? Allora io vado avanti con lo sviluppo... altrimenti non mi posso ritrovare ancora nel 2014 con il 32nm e sobbarcarmi una spesa di potenziamento architetturale per ovviare alla mancata miniaturizzazione. Altrimenti... ciao, posso sempre continuare con TSMC ed altri, poi vedi tu come far lavorare la FAB di Dresda e quella nel NJ se io non ti do' più i proci da produrre...".
Non dimentichiamoci che la FAB di Dresda vede quasi come unico cliente AMD e la FAB del NJ la principale produzione doveva essere il 22nm (e successori) in cui la maggior produzione doveva venire su base proci AMD. Ora... non metto in dubbio che GF possa avere altri clienti, ma una cosa è produrre 100.000 wafer da 300mm (mi sembra circa) con 90.000-95.000 già venduti, tutt'altro l'avere questo potenziale seguito da 5.000-10.000 venduti. Il mancato incasso e una lievitazione esponenziale delle spese di gestione rispetto agli incassi, sarebbero un ottimo deterrente nel caso il prb venga da GF.

Diablo III
19-11-2012, 15:25
qui sembra un tormentone, e sappiamo bene che i tormentoni sono sempre realtà. Poi si è vero che gli analisti non sono certo veggenti, però sono pur sempre analisti, se dicono questo nondico che hanno al 100% ragione, però una forte percentuale che sia probabile l'evento c'è. Oltretutto SemiAccurate descrive la cosa come se fosse pure certezza, e no rumors...

già :(

io resto sempre dell'idea che con l'acquisto di ATI, AMD abbia fatto il passo più lungo della gamba, poi magari mi sbaglio, perchè io sono tutto tranne che uno di questi famosi analisti, ma da li in poi non ne ha combinata più una buona (non parlo delle vga), probabilmente perchè ha svuotato troppo le casse :stordita:

per il resto poi oh, la vita va avanti lo stesso, con o senza AMD..Intel...NVIDIA & compagnia bella :asd:

shellx
19-11-2012, 15:28
cut...
- il primo, che dopo aver speso soldoni per creare un'architettura ex-novo, i soldi ritornano unicamente con la vendita di proci... e limitare il ritorno solo su Trinity, non mi sembra un affare... anche perchè la fascia desktop e server, seppur calata di percentuale, rappresenterebbe comunque un buon introito... non so la fascia server su base PD, ma a me sembra che Vishera desktop i numeri di vendite li stia facendo.

Sei proprio sicuro ?
http://www.tomshw.it/cont/news/vendite-processori-amd-apu-al-75-percento-ma-male-gli-fx/41152/1.html

Altrimenti... ciao, posso sempre continuare con TSMC ed altri, poi vedi tu come far lavorare la FAB di Dresda e quella nel NJ se io non ti do' più i proci da produrre...".
Non dimentichiamoci che la FAB di Dresda vede quasi come unico cliente AMD e la FAB del NJ la principale produzione doveva essere il 22nm (e successori) in cui la maggior produzione doveva venire su base proci AMD. Ora... non metto in dubbio che GF possa avere altri clienti, ma una cosa è produrre 100.000 wafer da 300mm (mi sembra circa) con 90.000-95.000 già venduti, tutt'altro l'avere questo potenziale seguito da 5.000-10.000 venduti. Il mancato incasso e una lievitazione esponenziale delle spese di gestione rispetto agli incassi, sarebbero un ottimo deterrente nel caso il prb venga da GF.

Non esiste piu nessuna FAB a Desdra...

paolo.oliva2
19-11-2012, 15:33
già :(

io resto sempre dell'idea che con l'acquisto di ATI, AMD abbia fatto il passo più lungo della gamba, poi magari mi sbaglio, perchè io sono tutto tranne che uno di questi famosi analisti, ma da li in poi non ne ha combinata più una buona (non parlo delle vga), probabilmente perchè ha svuotato troppo le casse :stordita:

per il resto poi oh, la vita va avanti lo stesso, con o senza AMD..Intel...NVIDIA & compagnia bella :asd:

Io penso che la tragedia vera e propria sia stato il silicio di GF.

Un Vishera ha si un +7% di IPC circa, ma Zambesi doveva avere almeno un +20% di frequenze operative allo stesso TDP.
Prova a pensare un procio migliore di un 8350 ma 1 anno fa... le casse altrochè se le avrebbe rimpinguate... perchè una cosa è un 8350/32nm vs 3770K/22nm, tutt'altra vs un 2600K-2700K/32nm.

carlottoIIx6
19-11-2012, 15:35
cut
Addio AMD ! ... e a questo giro c'è poco da essere ottimisti... il 2013 sarà l'anno del monopolio cpu x86...e il desktop sparirà nel 2014 anche da parte di Intel. Quest'ultima punterà tutto su ultrabook, tablet e cellulati dal 2015 in poi mentre amd produrrò soc custom ed embedded (no pc).

Che delusione...

il mercato evolve, ed amd ha contatti con arm, fa le gpu, è leader insieme ad intel negli x86. la sua posizione è più strateggica di chiunque altro.
se la finite di dire assurdità forse vende qualche cpu in più :)

shellx
19-11-2012, 15:38
il mercato evolve, ed amd ha contatti con arm, fa le gpu, è leader insieme ad intel negli x86. la sua posizione è più strateggica di chiunque altro.
se la finite di dire assurdità forse vende qualche cpu in più :)

se se...come no...
ora è colpa nostra perchè commentiamo i danni che essa stessa causa...ma falla finita per favore.
Oltretutto se la strategia di AMD= ARM: grazie passo....non sono interessato.
Per quanto riguarda x86= è leader ancora per poco, non so se ti rendi conto, ma dubito perchè sei troppo spudorato proamd ta l punto che sugli occhi hai prosciutti.
Sono sicuro che se (facendo corna) dovesse realmente capitare che amd fallisca, tu sarai uno di quelli che dirà che è il fallimento è solo una strategia adottata per rinascere in super sayan di 4 livello.
Fiiiuu...quante ne devo sentire...

Diablo III
19-11-2012, 15:40
Io penso che la tragedia vera e propria sia stato il silicio di GF.

Un Vishera ha si un +7% di IPC circa, ma Zambesi doveva avere almeno un +20% di frequenze operative allo stesso TDP.
Prova a pensare un procio migliore di un 8350 ma 1 anno fa... le casse altrochè se le avrebbe rimpinguate... perchè una cosa è un 8350/32nm vs 3770K/22nm, tutt'altra vs un 2600K-2700K/32nm.

allora già che si va sulla fantasticheria, sarebbe stato ancora meglio se l'8350 fosse uscito contro Bloomfield, o meglio ancora contro Yorkfield :D ma così non è stato, come non è uscito nel periodo Sandy Bridge, quindi che senso ha fantasticare? :D

conta soltanto quello che è successo, non quello che poteva succedere... ;)

Phantom II
19-11-2012, 15:43
Per quanto riguarda il sacrificio di massa: beh in Italia forse dopo la chiusura di una zienda e dipendenti a spasso forse sarebbe stato possibile, ma in USA escono da un azienda e trovano posto in un'altra.
Vallo a spiegare ai 50 milioni di poveri a stelle e strisce che laggiù, se esci da un'azienda rientri in un'altra...

paolo.oliva2
19-11-2012, 15:46
Sei proprio sicuro ?
http://www.tomshw.it/cont/news/vendite-processori-amd-apu-al-75-percento-ma-male-gli-fx/41152/1.html

Scusa, ma l'articolo è farlocco, perchè è basato su dati 2012 fino al 3° trimestre..
Secondo te, nel 3° trimestre 2012, in quanti avrebbero comprato Zambesi con l'imminente uscita di Vishera?
In secondo luogo... un 8150 a 180€ ed un 2600K a 200€ di certo non fa decollare le vendite AMD... ma un 8350 a 180€ ed un 3770K a 300€... Mi sembra indubbio che se prendessimo le vendite di novembre 2012, le vendite FX di AMD dovrebbero essersi impennate... ma loro fanno valutazioni sino a settembre 2012 e lo scrivono I dati non contemplano i nuovi chip AMD FX Vishera, arrivati sul mercato nel quarto trimestre.
Io non ho mai avuto grande ammirazione per Tom, e sinceramente ti dico che scrivere un articolo sulle vendite AMD escludendo Vishera, è come sputare sopra AMD gratuitamente, perchè sappiamo tutti che Zambesi ha fatto cilecca, ma non Llano e Trinity...
Il prodotto Llano e Trinity è aumentato semplicemente perchè i clienti hanno giudicato migliore l'acquisto di questi proci rispetto alle proposte Intel, tutto il contrario un 8150 vs 2600K, mentre l'8350 sembra che la maggior parte lo giudichino preferibile al 3570K 3770K.

Per la FAB di Dresda, che io sappia è sempre lì, veramente.

paolo.oliva2
19-11-2012, 15:48
allora già che si va sulla fantasticheria, sarebbe stato ancora meglio se l'8350 fosse uscito contro Bloomfield, o meglio ancora contro Yorkfield :D ma così non è stato, come non è uscito nel periodo Sandy Bridge, quindi che senso ha fantasticare? :D

conta soltanto quello che è successo, non quello che poteva succedere... ;)

Tu hai detto che il problema di AMD è stata l'acquisizione di ATI... io ti dico che il problema è stato il silicio GF su Zambesi, e senza ATI, oggi non ci sarebbe Trinity... che cacchio starebbe vendendo AMD?

shellx
19-11-2012, 15:54
Scusa, ma l'articolo è farlocco, perchè è basato su dati 2012 fino al 3° trimestre..
Secondo te, nel 3° trimestre 2012, in quanti avrebbero comprato Zambesi con l'imminente uscita di Vishera?
In secondo luogo... un 8150 a 180€ ed un 2600K a 200€ di certo non fa decollare le vendite AMD... ma un 8350 a 180€ ed un 3770K a 300€... Mi sembra indubbio che se prendessimo le vendite di novembre 2012, le vendite FX di AMD dovrebbero essersi impennate... ma loro fanno valutazioni sino a settembre 2012 e lo scrivono I dati non contemplano i nuovi chip AMD FX Vishera, arrivati sul mercato nel quarto trimestre.
Io non ho mai avuto grande ammirazione per Tom, e sinceramente ti dico che scrivere un articolo sulle vendite AMD escludendo Vishera, è come sputare sopra AMD gratuitamente, perchè sappiamo tutti che Zambesi ha fatto cilecca, ma non Llano e Trinity...
Il prodotto Llano e Trinity è aumentato semplicemente perchè i clienti hanno giudicato migliore l'acquisto di questi proci rispetto alle proposte Intel, tutto il contrario un 8150 vs 2600K, mentre l'8350 sembra che la maggior parte lo giudichino preferibile al 3570K 3770K.

Si è vero, sono esclusi i Vishera, semplicemente perchè non si puo determinare ancora le vendite, se ne parla con l'anno nuovo. Sicuramente i Vishera saranno piu venduti dei Zambesi, ma tu pensi davvero che cambi la situazione di amd con un centinaio di chip in piu venduti ?
Guarda Paolo la situazione è nera nera nera..
Ed io spero con tutta l'anima che domani qualcuno mi quoti un post, mi incolli un link che smentisce la notizia di SemiAccurate e mi dica: "shellx sei un idiota impulsivo, beccati questo" ... Tuttavia dubito che questo accada. Credimi che se accade gli offro una cena. Questo per farti capire che non sto trollando, sono solo rammaricato di sta situazione, perchè a me i tablet non mi servono, e per lavorare miserve un desktop, e non mi va di spendere mille mila euro per Intel, per avere una innovazione fake, solo perchè amd sarà assente.

Per la FAB di Dresda, che io sappia è sempre lì, veramente.

No no scusa, ho sbagliato io, mi riferivo ad altro inerente a Dresda ed AMD, ora ho capito che ti riferivi a GF.

carlottoIIx6
19-11-2012, 15:58
se se...come no...
ora è colpa nostra perchè commentiamo i danni che essa stessa causa...ma falla finita per favore.
Oltretutto se la strategia di AMD= ARM: grazie passo....non sono interessato.
Per quanto riguarda x86= è leader ancora per poco, non so se ti rendi conto, ma dubito perchè sei troppo spudorato proamd ta l punto che sugli occhi hai prosciutti.
Sono sicuro che se (facendo corna) dovesse realmente capitare che amd fallisca, tu sarai uno di quelli che dirà che è il fallimento è solo una strategia adottata per rinascere in super sayan di 4 livello.
Fiiiuu...quante ne devo sentire...

perchè dite cose che non sono connesse con la realtà?
amd non è arm! la diversificazione dei prodotti avviene perchè le due case hanno prodotti diversi.

amd è leader, sai quante case vorrebbero le sue prprietà intellettuali?
non scherziamo come al solito. ha me fa rabbia il senso comune dei forum, dove ancora consigliano pendium con le apu a prezzi minimi storici.

per quando riguarda la notizia di tom's, male gli fx, è una cavolata!
amd vende più apu e sopratutto più bratos, perchè semplicemente li chiedono di più. ma dalle apu più grandi passando dagli fx fino ai sever vende piledriver, un unico progetto..

Diablo III
19-11-2012, 16:00
Tu hai detto che il problema di AMD è stata l'acquisizione di ATI... io ti dico che il problema è stato il silicio GF su Zambesi, e senza ATI, oggi non ci sarebbe Trinity... che cacchio starebbe vendendo AMD?

perchè prima del fantomatico silicio merdoso di GF su Zambezi AMD aveva processori capaci di competere con la controparte? quali erano i Phenom? :sofico:

prima dell'acquisizione di ATI, invece, io ricordo processori che asfaltavano gli Extreme Edition di Intel, e non cpu con mille compromessi vendute a prezzi contenuti :oink:

cosa starebbe vendendo oggi senza trinity: semplice, quasi niente :(

ma capovolgendo la moneta, quali processori poteva vantare oggi AMD se non avesse speso tutto per ATI? bho, magari gli stessi PD che troviamo oggi sugli scaffali, o forse chessò cpu che competono con SNB-E o che addirittura lo superano, peccato che non lo sapremo mai, perchè la storia è come dire...scritta e indietro non si torna :p

shellx
19-11-2012, 16:07
perchè dite cose che non sono connesse con la realtà?

aspetta aspetta: stiamo parlando della realtà ? O della tua realtà ? Prima chiariscimi questo punto..cosi regolo il modo e il tipo di risposta...

amd è leader, sai quante case vorrebbero le sue prprietà intellettuali?
non scherziamo come al solito. ha me fa rabbia il senso comune dei forum, dove ancora consigliano pendium con le apu a prezzi minimi storici.

Si, certo che lo è, mica ho detto il contrario...ma penso che questo scenario ha i mesi contati...vuoi iniziare a contare ? Vai! resetta la clessidra.

AceGranger
19-11-2012, 16:14
- il primo, che dopo aver speso soldoni per creare un'architettura ex-novo, i soldi ritornano unicamente con la vendita di proci... e limitare il ritorno solo su Trinity, non mi sembra un affare... anche perchè la fascia desktop e server, seppur calata di percentuale, rappresenterebbe comunque un buon introito... non so la fascia server su base PD, ma a me sembra che Vishera desktop i numeri di vendite li stia facendo.


la fascia professionale credo sia in caduta libera, ha prodotti fuori mercato.

Bulldozer raggiunge solo il 10% delle vendite di AMD, che gia sono basse

http://www.tomshw.it/cont/news/vendite-processori-amd-apu-al-75-percento-ma-male-gli-fx/41152/1.html

di X8 ne vende solo 120.000 a trimestre.... vendera piu 3930K intel...


Secondo te, nel 3° trimestre 2012, in quanti avrebbero comprato Zambesi con l'imminente uscita di Vishera?


da quei dati pare invece che nel Q3 le vendite siano aumentate e molto, probabilmente grazie ai tagli di prezzi degli ultimi mesi;

tolti i 4 gatti come noi che seguono forum di questo dipo, direi praticamente tutto il resto del pianeta, visto che nessuno fuori da qui sa cos'è Vishera; non sanno quando escono le nuove CPU Intel, figuriamoci se sanno quelle di AMD.

Diablo III
19-11-2012, 16:16
la fascia professionale credo sia in caduta libera, ha prodotti fuori mercato.

Bulldozer raggiunge solo il 10% delle vendite di AMD, che gia sono basse

http://www.tomshw.it/cont/news/vendite-processori-amd-apu-al-75-percento-ma-male-gli-fx/41152/1.html

di X8 ne vende solo 120.000 a trimestre.... vendera piu 3930K intel...

questa parte fa riflettere:

Secondo i dati complessivi sul settore x86, AMD ha una quota inferiore al 17% e non si vede come l'azienda possa ribaltare la situazione nel breve periodo. AMD ha recentemente annunciato un grande cambiamento, decidendo di adottare le architetture ARM nel settore server, affiancandole ai tradizionali Opteron x86.

Si tratta però di un piano che prenderà corpo a partire dal 2014 e come si può vedere dai dati di vendita del settore server, la sua efficacia è tutta da valutare. Non resta quindi che attendere e confidare nell'azione del nuovo direttivo guidato da Rory Read, chiamato al difficilissimo compito di salvare un'azienda che rischia seriamente il tracollo.

:stordita:

Alekz
19-11-2012, 16:29
Riguardo il grafico di toms..è assolutamente normale quella distribzione, perfino, chessò, per le lavatrici la fascia bassa e la fascia media formano la stragrande maggioranza del mercato, e poi quali sono i margini di guadagno? Quella vagonata di Bobcat non fa certo guadagnare miliardi
ergo PD è importante per AMD

isomen
19-11-2012, 16:31
Probabilmente é vero che AMD per acquisire ATI ha speso più di quello che poteva permettersi, ma le vga sono buone e vendono... credo che a questo punto la divisione grafica più che un costo sia un guadagno, penso che se bulldozer nn avesse avuto rinvii (mi sembra che doveva uscire 1 anno prima) e fosse stato quello che doveva essere avrebbe significato incassi più cospicui un anno prima e un anno di spese per la progettazione in meno e credo che questo avrebbe fatto una notevole differenza per la liquidità di AMD... poi se nn avesse acquisito ati probabilmente avrebbe avuto più soldi e magari avremmo avuto cpu migliori, ma sicuramente nn avrebbe fatto le apu.

;) CIAUZ

winebar
19-11-2012, 16:52
cut
Addio AMD ! ... e a questo giro c'è poco da essere ottimisti... il 2013 sarà l'anno del monopolio cpu x86...e il desktop sparirà nel 2014 anche da parte di Intel. Quest'ultima punterà tutto su ultrabook, tablet e cellulati dal 2015 in poi mentre amd produrrò soc custom ed embedded (no pc).

E senza CEO l'azienda andava comunque bene...
Questa è la cosa buffa...
Le grandi decisioni le prendeva il CDA, altrimenti se non erano scelte grosse penso fossero lasciate ai manager, adesso invece è arrivato Read e ha peggiorato la situazione...
Che poi ha una faccia da schiaffi... :D

Da quando RR ha lasciato Lenovo, quest' ultima ha invertito la tendenza alle perdite riguadagnando il 7,7% sul mercato.
Da quando RR è entrato in AMD, solo cattive notizie, perdite, e licenziamenti.

Quindi mi chiedo, perchè prendere un CEO che nel settore informatico si è dimostrato inaffidabile?
C'è anche da dire che l'italianissimo Lanci stava facendo fare un bel balzo ad Acer mentre era CEO, nonostante Acer non avesse chissà quale superfama...

SemiAccurate si è sempre dimostrato affidabile ;)

Questa è la cosa brutta. Anzi, pessima.

Con tutto il rispetto che ho per Charlie di Semiaccurate, ma quando sento la parola "analisti" mi viene un attacco di diarrea...:oink:
Per il resto tutta questa "tragedia" mi sembra che manchino solo i suicidi di massa degli ingegneri AMD e una strategia basata sui sacrifici umani al dio Cthulhu... :rolleyes:

Visto che andiamo di leggende... Non è che il 21/12/12 AMD chiude i battenti (cosa che al momento reputo impossibile).

Comunque, spero solo che arrivi qualche sceicco con una vagonata di soldi, altrimenti per AMD diventa davvero brutta. Anche perchè puntare su ARM, nonostante sia una buona scelta (ma ANCHE sugli ARM, non SOLO) rende la situazione molto difficile...
Si mollano CPU su cui si ha un ottimo know how in favore di CPU che praticamente non conoscono e che sono fatte in modo totalmente differente...
Senza contare che su ARM deve affrontare concorrenti come Qualcomm, Samsung, Nvidia (che seppur fa processori appena discreti il know lo sta acquisendo da un po') e chi più ne ha più ne metta.

winebar
19-11-2012, 17:07
- il primo, che dopo aver speso soldoni per creare un'architettura ex-novo, i soldi ritornano unicamente con la vendita di proci... e limitare il ritorno solo su Trinity, non mi sembra un affare... anche perchè la fascia desktop e server, seppur calata di percentuale, rappresenterebbe comunque un buon introito... non so la fascia server su base PD, ma a me sembra che Vishera desktop i numeri di vendite li stia facendo.

Si ma capisci che comunque si parla sempre di processori su base piledriver.
Potrei capire rallentare lo sviluppo dei big core, ma fermarli proprio non avrebbe senso, perchè altrimenti come diavolo crei processori mobile con una parte CPU più prestante e diminuendo di un pizzico i consumi?
Cioè, piuttosto tolgano la L3 anche sul desktop (o la dimezzino) oppure facciano solo APU per tutte le fasce integrando poca L3 (al posto 2 MB / modulo ne mettono 1).
I processori di fascia bassa ne gioverebbero, e potrebbero approfittare di un cambio litografico per non far notare la differenza.

- Il secondo... non essendoci nulla di ufficiale, potrebbe essere interpretato stile dictat? Cioè... il salto al 28nm è stato annullato e si è rimasti sul 32nm. La miniaturizzazione successiva dovrebbe andare a breaccetto con il successore di PD2... e la mia impressione è che GF non dia l'impressione di voler galoppare, anzi, a me sembrerebbe come se volesse continuare il più possibile la produzione 32nm SOI per far entrare quanti più utili possibile.

Bè ma GF dovrebbe spaventarsi a prescindere sia dalla possibile chiusura di AMD che dal fatto che a Sunnyvale potrebbero decidere di adottare i 28nm di TSMC per un anno (che sono bulk, il SOI solitamente è inadatto alle GPU ad alte prestazioni se non erro) e rimanere sempre con TSMC passando l'anno successivo ai 20nm. E contando che dai 14nm TSMC inizierà ad utilizzare il FinFET (o transistor 3D) potrebbe essere una buona scelta.
L'altra faccia della medaglia è che AMD non avrebbe esclusività, e quindi un eventuale problema produttivo andrebbe pesantemente a sfavore di AMD sia per le VGA che per le CPU.
Oppure potrebbero rivolgersi a UMC (che è la seconda fonderia conto terzi al mondo) che al momento non ha troppi clienti di spiccco come TSMC (che da sola serve Qualcomm, AMD per le GPU, Nvidia sia per ARM che per GPU e altri produttori minori).

mtk
19-11-2012, 17:28
....cazzaruola....e pensare che io avevo capito che amd avrebbe fuso i big core con le apu per realizzare qualcosa di diverso...e ora mi dite che oltre a chiudere i battenti mollera' tutti i progetti in via di sviluppo..

avevo capito che avrebbe realizzato nuovi sistemi server utilizzando opteron e chip arm(tra l altro non sviluppati da amd,quindi senza costi aggiuntivi) sviluppati da arm stessa.....e ora mi dite che e' tutto finito..

dopo i primi anni di sofferenze economiche per acquisire ati e arrivare fino ad oggi con il concetto gcn,pensavo che avessero guadagnato quote di mercato e bei soldini dalla divisione grafica e ora mi dite che non hanno piu' soldi....

.......relax signori,la fine non e' ancora arrivata per amd e se anche fosse arrivata ci penserebbe intel vs intel by antitrust a rimettere in ordine la concorrenza...

DottorLeo
19-11-2012, 17:35
C'è un aggiornamento alla notizia di Semiaccurate:

Updated 11/19/2012@10:15am: AMD contacted us with an official denial of the story and stated that Kaveri and the big cores are still on track.


http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

winebar
19-11-2012, 17:38
"nuovi sistemi server utilizzando opteron e chip arm(tra l altro non sviluppati da amd,quindi senza costi aggiuntivi) sviluppati da arm stessa....."
...
Perdonami ma non è proprio così.
ARM da due tipi di licenze.
1, più economica, prevede che adotti una GPU di tua scelta ma SENZA poter modificare il core della CPU.
2 - più costosa, prevede che hai completamente libera scelta nelle modifiche ai core. In pratica loro ti danno il progetto del core e tu lo modifichi come più ti aggrada. Ovviamente vi aggiungi anche una GPU.

Non so quale delle due licenze abbia aquisito AMD, ma penso la seconda, quindi ora più che mai ha bisogno di fondi per investire sia nelle GPU che nelle CPU desktop, mobile e server sia x86 che ARM.
;)

C'è un aggiornamento alla notizia di Semiaccurate:

Updated 11/19/2012@10:15am: AMD contacted us with an official denial of the story and stated that Kaveri and the big cores are still on track.


http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

Meglio. AMD ha ancora intenzione di sviluppare i big core. Dipende solo quanto tempo ci vorrà per vederli sul mercato... Se l'anno prossimo oppure se rimandano di due anni Steamroller o se faranno un big core ogni biennio (quasi stile intel per intenderci, dove Intel però modifica pesantemente l'architettura precedente).

mtk
19-11-2012, 17:43
"nuovi sistemi server utilizzando opteron e chip arm(tra l altro non sviluppati da amd,quindi senza costi aggiuntivi) sviluppati da arm stessa....."
...
Perdonami ma non è proprio così.
ARM da due tipi di licenze.
1, più economica, prevede che adotti una GPU di tua scelta ma SENZA poter modificare il core della CPU.
2 - più costosa, prevede che hai completamente libera scelta nelle modifiche ai core. In pratica loro ti danno il progetto del core e tu lo modifichi come più ti aggrada. Ovviamente vi aggiungi anche una GPU.

Non so quale delle due licenze abbia aquisito AMD, ma penso la seconda, quindi ora più che mai ha bisogno di fondi per investire sia nelle GPU che nelle CPU desktop, mobile e server sia x86 che ARM.
;)



Meglio. AMD ha ancora intenzione di sviluppare i big core. Dipende solo quanto tempo ci vorrà per vederli sul mercato... Se l'anno prossimo oppure se rimandano di due anni Steamroller o se faranno un big core ogni biennio (quasi stile intel per intenderci, dove Intel però modifica pesantemente l'architettura precedente).

se la memoria non mi inganna,ma non ci scommetterei le palle :D ,la notizia diceva che amd avrebbe acquistato il progetto finito da arm,senza mettere mano a modifiche del progetto

Phenomenale
19-11-2012, 18:00
Non so quale delle due licenze abbia aquisito AMD
AMD la prima, Nvidia la seconda...

Comunque la notizia non potrebbe essere interpretata anche in un altro modo? Ovvero che AMD intende mollare l'architettura "bulldozer" prima di dover arrivare fino ad excavator per *sostituirla* con un' altra più orientata all' IPC che alle frequenze (anche perchè avranno capito che con i problemi dei 32nm di GF di frequenze non vedranno mai un granchè, con i 4,2GHz sono al limite).
Con Llano avevano iniziato a migliorare il core K10, magari potrebbero ripartire da quello aggiungendo pipeline e quant' altro per una nuova cpu che "macina duro" anche in single thread. Tutto questo è frutto della mia immaginazione, però chissà...?

Athlon 64 3000+
19-11-2012, 18:00
Secondo me la smentita di AMD è vera e quindi che il rumor era una balla atomica.
Di notizie negative ne ho davvero le scatole piene visto che sono venute fuori solo di quelle nelle ultime settimane.

paolo.oliva2
19-11-2012, 18:05
C'è un aggiornamento alla notizia di Semiaccurate:

Updated 11/19/2012@10:15am: AMD contacted us with an official denial of the story and stated that Kaveri and the big cores are still on track.


http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

E' allucinante...

Abbiamo speso 3 pagine di TH per dire che AMD lascia i proci desktop e server... ora che lo stesso sito pubblica la notizia di una smentita ufficiale, magari si leggeranno post tipo "ma credei che lo direbbero?".

A me viene da credere... discutiamo sulle possibilità vere o meno che AMD chiuda, oppure, come mi sembra, ad ogni brezza risvegliamo la voglia repressa che AMD chiuda?

Vorrei tanto capire cosa si guadagnerebbe dalla chiusura di AMD... nessuna concorrenza equivale a prezzi proci alle stelle da qui all'eternità, nessun regalo di proci sbloccati, quindi castramento all'OC, e modelli per un tempo infinito sul mercato tanto per massimizzare al massimo del massimo i guadagni.

lightwave3d
19-11-2012, 18:08
Scusate l'OT.Una domanda perchè sono distrutto. Mi è appena arrivato il mio fx 8350,monto tutto su una NUOVA GA-990FXA-UD3(rev 1.2). Accendo e incredibile..schermo nero senza nessun BEEP,solo le ventole che girano e basta. Volevo sapere ,può essere che per l'fx8350,come alimentazione sulla scheda madre (12v atx) non vada bene l'adattatore da 4 a 8 pin come ho io??Il mio alimentatore ha solo un 4 pin per i 12v dia limentazione dle procio e ho messo un'adattatore,cosa che avevo anche prima sulla mia scheda madre gigabite.O può essere che non mi riconosce il procio perchè c'è il bios non aggiornato anche se la rev è la 1.2? Grazie per l'eventuale aiuto e scusate l'OT ma sono distrutto :cry:

Athlon 64 3000+
19-11-2012, 18:08
AMD la prima, Nvidia la seconda...

Comunque la notizia non potrebbe essere interpretata anche in un altro modo? Ovvero che AMD intende mollare l'architettura "bulldozer" prima di dover arrivare fino ad excavator per *sostituirla* con un' altra più orientata all' IPC che alle frequenze (anche perchè avranno capito che con i problemi dei 32nm di GF di frequenze non vedranno mai un granchè, con i 4,2GHz sono al limite).
Con Llano avevano iniziato a migliorare il core K10, magari potrebbero ripartire da quello aggiungendo pipeline e quant' altro per una nuova cpu che "macina duro" anche in single thread. Tutto questo è frutto della mia immaginazione, però chissà...?

Non credo proprio che cambieranno roadmap.
Primo perchè Steamroller è in avanzato stadio di sviluppo se non già completato e quindi sono passati alla fase del test sul silicio
Secondo perchè scommetto che Excavator anch'esso hanno iniziato già da quel pezzo lo sviluppo.
Per esempio Trinity hanno completato lo sviluppo dell'architettura a giugno 2011 e il debutto sul mercato è avvenuto un'anno dopo.

Athlon 64 3000+
19-11-2012, 18:23
Secondo me l'unico progetto che rischia forte potrebbe essere il famoso processore ibrido che è in previsione per il 2015.
Potrebbe essere posticipato oppure cancellato e rifatto da 0 come è successo con Bulldozer.
E' solo una mia ipotesi che potrebbe anche essere una balla clamorosa.

paolo.oliva2
19-11-2012, 18:26
AMD la prima, Nvidia la seconda...

Comunque la notizia non potrebbe essere interpretata anche in un altro modo? Ovvero che AMD intende mollare l'architettura "bulldozer" prima di dover arrivare fino ad excavator per *sostituirla* con un' altra più orientata all' IPC che alle frequenze (anche perchè avranno capito che con i problemi dei 32nm di GF di frequenze non vedranno mai un granchè, con i 4,2GHz sono al limite).
Con Llano avevano iniziato a migliorare il core K10, magari potrebbero ripartire da quello aggiungendo pipeline e quant' altro per una nuova cpu che "macina duro" anche in single thread. Tutto questo è frutto della mia immaginazione, però chissà...?

Secondo me l'architettura BD modulare, il CMT, non hanno nulla a che vedere con il valore dell'IPC a monte... perchè il modulo concettualmente è una condivisione tra 2 core, ma la condivisione in sé per sé non implica alcun limite sulla potenza elaborativa INT nè tantomeno sul numero/potenza delle FP.

Potenziare un Phenom II, che è un'architettura che non supporta le AES e quant'altro, implicherebbe un lavoro immane e comunque farebbe buttare nel cestino quanto speso in Trinity e tutto il seguito.

Aumentare l'IPC di BD non vuole dire assolutamente che si deve abbandonare BD... ma semplicemente "irrobustirlo" dove è carente.

In fin dei conti Vishera, che altro non è che un Zambesi ottimizzato, quindi nessuna rivisitazione profonda dell'architettura, ma nonostante questo, direi che in ambito ST, tra IPC e frequenze, non abbia nulla da invidiare al Phenom II, ma se parliamo di MT, vorrei proprio vedere un Thuban fare 6,9 in Cinebench a def... foss'anche sul 32nm...

smoicol
19-11-2012, 18:33
questo thread era bello quando si parlava di oc ipc e tdp

winebar
19-11-2012, 18:48
se la memoria non mi inganna,ma non ci scommetterei le palle :D ,la notizia diceva che amd avrebbe acquistato il progetto finito da arm,senza mettere mano a modifiche del progetto

AMD la prima, Nvidia la seconda...

mtk, peccato che non le hai scommesse, te le sareste tenute. :read:
AMD quindi rischia grosso...
O fornisce chip in ambito server molto overclockati, altrimenti a Samsung o a Qualcomm basta uno sputo per asfaltare AMD.
AMD d'altronde mi sembra giusto che vafa con cautela al momento.
Invece di rischiare di migliorare un core creato da terzi, lo prende come è per vedere quanto riesce a penetrare il mercato.
Cioè, in pratica minimizzano i costi (e quelli delle licenze in confronto al costo di modifica del core non è nulla, tant'è che generalmente un core ARM viene aggiornato ogni due anni) per vedere se riescono a vendere System on Chip ARMe se vale la pena investire realmente...
Cioè, se prende il 5% del settore server ARM IMHO continuerà, ma vendendo solo SoC a cui aggiunge solo la GPU e la RAM, se dovesse superare il 10/15% allora faranno sul serio... E magari parte dei ricavi li reinvestiranno anche nel settore desktop.

Comunque la notizia non potrebbe essere interpretata anche in un altro modo? Ovvero che AMD intende mollare l'architettura "bulldozer" prima di dover arrivare fino ad excavator per *sostituirla* con un' altra più orientata all' IPC che alle frequenze (anche perchè avranno capito che con i problemi dei 32nm di GF di frequenze non vedranno mai un granchè, con i 4,2GHz sono al limite).
Con Llano avevano iniziato a migliorare il core K10, magari potrebbero ripartire da quello aggiungendo pipeline e quant' altro per una nuova cpu che "macina duro" anche in single thread. Tutto questo è frutto della mia immaginazione, però chissà...?

AMD ha già detto che punterà per 4 anni su core Bulldozer e sue evoluzioni e valuterà dopo se è il caso di continuare seriamente o di farne solo update e intanto riprendere in mano il core Thuban, aumentarne l'IPC e estrenderlo con nuove istruzioni.

La parte su Thuban è solo una mia ipotesi. ;)

Scusate l'OT.Una domanda perchè sono distrutto. Mi è appena arrivato il mio fx 8350,monto tutto su una NUOVA GA-990FXA-UD3(rev 1.2). Accendo e incredibile..schermo nero senza nessun BEEP,solo le ventole che girano e basta. Volevo sapere ,può essere che per l'fx8350,come alimentazione sulla scheda madre (12v atx) non vada bene l'adattatore da 4 a 8 pin come ho io??Il mio alimentatore ha solo un 4 pin per i 12v dia limentazione dle procio e ho messo un'adattatore,cosa che avevo anche prima sulla mia scheda madre gigabite.O può essere che non mi riconosce il procio perchè c'è il bios non aggiornato anche se la rev è la 1.2? Grazie per l'eventuale aiuto e scusate l'OT ma sono distrutto :cry:

Sicuro di aver messo bene la CPU?
Il connettore 4+4 è compatibile con gli 8 pin, sicuro di non averlo incastrato (ergo, messo dal lato sbagliato)?

Non credo proprio che cambieranno roadmap.
Primo perchè Steamroller è in avanzato stadio di sviluppo se non già completato e quindi sono passati alla fase del test sul silicio
Secondo perchè scommetto che Excavator anch'esso hanno iniziato già da quel pezzo lo sviluppo.
Per esempio Trinity hanno completato lo sviluppo dell'architettura a giugno 2011 e il debutto sul mercato è avvenuto un'anno dopo.

Infatti, AMD sta già lavorando su Steamroller da un pezzo, e sicuramente avranno finito di svilupparlo.
Excavator lo staranno sviluppando in questo periodo. E le novità sono proprio succose (come l'uso di High Density Libraries per diminuire la dimensione del die, direttamente dal mondo GPU).

Secondo me l'unico progetto che rischia forte potrebbe essere il famoso processore ibrido che è in previsione per il 2015.
Potrebbe essere posticipato oppure cancellato e rifatto da 0 come è successo con Bulldozer.
E' solo una mia ipotesi che potrebbe anche essere una balla clamorosa.

AMD non ha ma dato per certo la CPU ibrida per il 2015. Dicono sempre che hanno intenzione di finire i 4 (o 5 se uscira PD 2.0) anni con il CMT per valutare se andare avanti o meno.
Il che significa che entro un anno decideranno la strada da percorrere sul desktop.

Secondo me l'architettura BD modulare, il CMT, non hanno nulla a che vedere con il valore dell'IPC a monte... perchè il modulo concettualmente è una condivisione tra 2 core, ma la condivisione in sé per sé non implica alcun limite sulla potenza elaborativa INT nè tantomeno sul numero/potenza delle FP.

Potenziare un Phenom II, che è un'architettura che non supporta le AES e quant'altro, implicherebbe un lavoro immane e comunque farebbe buttare nel cestino quanto speso in Trinity e tutto il seguito.

Aumentare l'IPC di BD non vuole dire assolutamente che si deve abbandonare BD... ma semplicemente "irrobustirlo" dove è carente.

In fin dei conti Vishera, che altro non è che un Zambesi ottimizzato, quindi nessuna rivisitazione profonda dell'architettura, ma nonostante questo, direi che in ambito ST, tra IPC e frequenze, non abbia nulla da invidiare al Phenom II, ma se parliamo di MT, vorrei proprio vedere un Thuban fare 6,9 in Cinebench a def... foss'anche sul 32nm...

Allora, generalmente la natura di condivisione tipica del CMT è di suo poco orientata all'IPC ed è più sensibile alle frequenze. Cò non significa che i processori tradizionali sono il meglio a prescindere, ma solo che ci vuole molta più accortezza nel creare architetture CMT con un IPC elevato, che ovviamente si traduce in costi elevati.
Però il vantaggio è che escono più CPU da un singolo wafer a parità di caratteristche (cache, frequenza e core) proprio perchè si hanno meno unità da andare a disegnare.
Genralmente la natura stessa di essere altamente parallelizzabile del CMT (aggiungere moduli dovrebbe essere una passeggiata) fa si che il CMT venga definita l'architettura del futuro, laddove la potenza in ST sarà sufficentemente elevata da poter eseguire calcoli non parallelizzabili in modo agevole e i programmi pesantemente MT (8+ core) saranno all'ordine del giorno...

Grizlod®
19-11-2012, 18:52
Scusate l'OT.Una domanda perchè sono distrutto. Mi è appena arrivato il mio fx 8350,monto tutto su una NUOVA GA-990FXA-UD3(rev 1.2). Accendo e incredibile..schermo nero senza nessun BEEP,solo le ventole che girano e basta. Volevo sapere ,può essere che per l'fx8350,come alimentazione sulla scheda madre (12v atx) non vada bene l'adattatore da 4 a 8 pin come ho io??Il mio alimentatore ha solo un 4 pin per i 12v dia limentazione dle procio e ho messo un'adattatore,cosa che avevo anche prima sulla mia scheda madre gigabite.O può essere che non mi riconosce il procio perchè c'è il bios non aggiornato anche se la rev è la 1.2? Grazie per l'eventuale aiuto e scusate l'OT ma sono distrutto :cry:Prova a spostare il connettore supplementare sull'altra metà...

EDIT:

Scusa, ma quando parli di (rev 1.2), intendi la versione F6 ? In questo caso, credo che tu debba aggiornarlo con un Deneb, Thuban,ma andrebbe bene pure un Sempron o Athlon II...alla versione F9.
http://it.gigabyte.com/products/page/mb/ga-990fxa-ud3rev_10/download/bios

paolo.oliva2
19-11-2012, 19:02
Secondo me l'unico progetto che rischia forte potrebbe essere il famoso processore ibrido che è in previsione per il 2015.
Potrebbe essere posticipato oppure cancellato e rifatto da 0 come è successo con Bulldozer.
E' solo una mia ipotesi che potrebbe anche essere una balla clamorosa.

Non lo so... BD è stato creato proprio in previsione di APU in primis e di Next generations in secondo luogo.

Quello che penso... è che aumentare l'IPC in una architettura costa un botto... quindi il compromesso per massimizzare i guadagni è l'arrivare ad un IPC minimo sufficiente a raggiungere determinate potenze sull'aspettativa delle frequenze del silicio.

Io il problema serio che vedo, e forse una parte di ste cacchio di voci negative non sono infondate, è che AMD non puo' fare tutto da sola... cioè, deve realizzare una architettura più efficiente dal punto di vista IPC/frequenze/consumo, poi la potenza finale viene da sè.
In poche parole, per piazzare un prodotto alternativo, si puo' giocare la carta prezzo, ma non all'infinito, ci vuole pure un prodotto valido.

Forse non vogliamo renderci conto che non è un problema di BD se consuma più di un IVY, il consumo viene dal silicio ed un 32nm (a parità di riuscita) non puo' consumare di meno o uguale ad un 22nm e tantomeno rispetto ad un 14nm.

Ed idem con patate in fatto di potenza. Il discorso IPC è si importante, ma la potenza si sta spostando sempre più nell'MT, e la potenza MT è strettamente legata al numero di transistor permessi sul silicio senza scavalcare un determinato TDP, e per questo cosa è di estrema importanza? IL SILICIO, più ha una miniaturizzazione maggiore, più transistor trovano spazio nella stessa area del silicio meno miniaturizzato, con consumi anche inferiori...

Un Intel sul 14nm ed un AMD sul 32nm sarebbe simile ad una situazione stile AMD 45nm rispetto ad Intel sul 22nm... Cosa farebbe un Thuban contro un IVYe X8 o il successore X10? Alzando l'IPC cosa si risolleverebbe?

shellx
19-11-2012, 19:11
C'è un aggiornamento alla notizia di Semiaccurate:

Updated 11/19/2012@10:15am: AMD contacted us with an official denial of the story and stated that Kaveri and the big cores are still on track.


http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/


che figura da latrina vietnamita che mi sono sparato con quei post catastrofici dettati dalla rabbia...ora mi tocca sparire dal thread per 2 giorni almeno cosi vi dimenticate. :ops:
Nel frattempo insultatemi pure, a sto giro me lo merito...

Tuttavia, non cambia il fatto che RR è un incompetente...

Athlon 64 3000+
19-11-2012, 19:28
Non lo so... BD è stato creato proprio in previsione di APU in primis e di Next generations in secondo luogo.

Quello che penso... è che aumentare l'IPC in una architettura costa un botto... quindi il compromesso per massimizzare i guadagni è l'arrivare ad un IPC minimo sufficiente a raggiungere determinate potenze sull'aspettativa delle frequenze del silicio.

Io il problema serio che vedo, e forse una parte di ste cacchio di voci negative non sono infondate, è che AMD non puo' fare tutto da sola... cioè, deve realizzare una architettura più efficiente dal punto di vista IPC/frequenze/consumo, poi la potenza finale viene da sè.
In poche parole, per piazzare un prodotto alternativo, si puo' giocare la carta prezzo, ma non all'infinito, ci vuole pure un prodotto valido.

Forse non vogliamo renderci conto che non è un problema di BD se consuma più di un IVY, il consumo viene dal silicio ed un 32nm (a parità di riuscita) non puo' consumare di meno o uguale ad un 22nm e tantomeno rispetto ad un 14nm.

Ed idem con patate in fatto di potenza. Il discorso IPC è si importante, ma la potenza si sta spostando sempre più nell'MT, e la potenza MT è strettamente legata al numero di transistor permessi sul silicio senza scavalcare un determinato TDP, e per questo cosa è di estrema importanza? IL SILICIO, più ha una miniaturizzazione maggiore, più transistor trovano spazio nella stessa area del silicio meno miniaturizzato, con consumi anche inferiori...

Un Intel sul 14nm ed un AMD sul 32nm sarebbe simile ad una situazione stile AMD 45nm rispetto ad Intel sul 22nm... Cosa farebbe un Thuban contro un IVYe X8 o il successore X10? Alzando l'IPC cosa si risolleverebbe?

Sono d'accordo con te che il problema dei consumi elevati e la mancata riuscita di raggiungimento delle frequenze stabilite sia colpa del pessimo processo produttivo a 32 nm SOI della GF.
Mentre il fatto che abbia Zambezi delle pessime performance è dovuto unicamente alla sua architettura.
Riguardo al discorso MT è vero per l'ambito server,mentre in ambito desktop avere buone prestazioni anche in ST ha ancora il suo peso e lo sarà ancora per qualche anno.
Infatti Steamroller con le sue modifiche architetturali dovrebbe dare un forte incremento in ST e migliorare anche in MT.

Athlon 64 3000+
19-11-2012, 19:30
che figura da latrina vietnamita che mi sono sparato con quei post catastrofici dettati dalla rabbia...ora mi tocca sparire dal thread per 2 giorni almeno cosi vi dimenticate. :ops:
Nel frattempo insultatemi pure, a sto giro me lo merito...

Tuttavia, non cambia il fatto che RR è un incompetente...

Con quello che ho letto sul Ceo di AMD mi viene da dire che farei meglio io di lui ad amministrare l'azienda.:D :sofico: :sofico: :sofico: :sofico: :sofico:

lightwave3d
19-11-2012, 19:31
Prova a spostare il connettore supplementare sull'altra metà...

EDIT:

Scusa, ma quando parli di (rev 1.2), intendi la versione F6 ? In questo caso, credo che tu debba aggiornarlo con un Deneb, Thuban,ma andrebbe bene pure un Sempron o Athlon II...alla versione F9.
http://it.gigabyte.com/products/page/mb/ga-990fxa-ud3rev_10/download/bios

Sicuro di aver messo bene la CPU?
Il connettore 4+4 è compatibile con gli 8 pin, sicuro di non averlo incastrato (ergo, messo dal lato sbagliato)?



La rev 1.2 è la revisione del bios della scheda madre non sò dirti però se è la F6.però c'è scritto sulla scatola della mainboard che è ( AM3+ CPU BIOS installed).per quanto riguarda la CPU è sicyuramente installata bene,anche perchè se cosi non fosse la levetta di bloccaggio non si chiuderebbe.idem il connettore a 8 pin..ha solo un senso,perchè dall'altro non va?proverò la main con il mio Phenom 2 per vedere se è il procio o la main che scazza.

paolo.oliva2
19-11-2012, 19:31
Allora, generalmente la natura di condivisione tipica del CMT è di suo poco orientata all'IPC ed è più sensibile alle frequenze. Cò non significa che i processori tradizionali sono il meglio a prescindere, ma solo che ci vuole molta più accortezza nel creare architetture CMT con un IPC elevato, che ovviamente si traduce in costi elevati.

Si... ti faccio un esempio prendendo il modulo AMD ed il core + SMT Intel:

Zambesi IPC 100 ST - +70% MT CMT-Modulo con 2 TH.
IVY IPC 155 ST - +25% MT con SMT.

A questo bisognerebbe aggiungere, ma non lo so, quanto % di transistor in più richieda rispettivamente l'SMT e il CMT.
Per semplificare, se l'SMT richiedesse il 25% e il CMT il 70%, fondamentalmente l'aumento di potenza sarebbe uguale all'incremento di transistor.

Il discorso di una architettura più o meno portata all'ST o all'MT ci può stare... ma un 8350 dovrebbe competere con un SBe X6 nell'MT e perdere in ST, non perdere in ST e MT con un 3770K, ed in questo non si puo' dare unicamente la colpa al silicio.


Però il vantaggio è che escono più CPU da un singolo wafer a parità di caratteristche (cache, frequenza e core) proprio perchè si hanno meno unità da andare a disegnare.
Genralmente la natura stessa di essere altamente parallelizzabile del CMT (aggiungere moduli dovrebbe essere una passeggiata) fa si che il CMT venga definita l'architettura del futuro, laddove la potenza in ST sarà sufficentemente elevata da poter eseguire calcoli non parallelizzabili in modo agevole e i programmi pesantemente MT (8+ core) saranno all'ordine del giorno...
Io all'inizio pensavo che un silicio che potesse offrire frequenze più alte ed un numero maggiore di moduli potesse bastare a BD... ma effettivamente senza un aiuto di IPC la cosa è impossibile.
Dai 100 di Zambesi, PD è arrivato a 107... ma perchè il silicio possa sfruttare BD con frequenze fattibili alla fisica, l'IPC di BD dovrebbe arrivare almeno sui 125-130. Dopo è chiaro che in MT sarebbe tutto un altro andare... perchè una cosa sarebbe 155 +25%, un'altra 130 +70%, poi non sarebbe un vero problema per l'MT se AMD disponesse di un gradino inferiore nella miniaturizzazione silicio... a patto di arrivare almeno ad avere un numero di moduli uguale/o leggermente inferiore al numero di core + SMT del rivale...

Diablo III
19-11-2012, 19:36
Io all'inizio pensavo che un silicio che potesse offrire frequenze più alte ed un numero maggiore di moduli potesse bastare a BD... ma effettivamente senza un aiuto di IPC la cosa è impossibile.


vedo che finalmente l'hai capito, quando lo dicevo io mesi fa è scoppiato un casino qua dentro

Grizlod®
19-11-2012, 19:51
La rev 1.2 è la revisione del bios della scheda madre non sò dirti però se è la F6.però c'è scritto sulla scatola della mainboard che è ( AM3+ CPU BIOS installed).per quanto riguarda la CPU è sicyuramente installata bene,anche perchè se cosi non fosse la levetta di bloccaggio non si chiuderebbe.idem il connettore a 8 pin..ha solo un senso,perchè dall'altro non va?proverò la main con il mio Phenom 2 per vedere se è il procio o la main che scazza.Quanto scritto sulla MB, probabilmnte è riferito a Bulldozer, non Vishera, di conseguenza, col tuo Phenom II,partirà sicuramente.

P.S. occhio al quoting...l'ultima parte non è mia...

lightwave3d
19-11-2012, 19:54
Quanto scritto sulla MB, probabilmnte è riferito a Bulldozer, non Vishera, di conseguenza, col tuo Phenom II,partirà sicuramente.

P.S. occhio al quoting...l'ultima parte non è mia...

è possibile quindi che non riconosca l'fx8350?Speriamo sia cosi.Domani provo a montare il mio phenom II e se dovesse partire aggiornerò subito il bios

P.s

Pe ril quote,si scusa ,ho quotato la risposta di un'altro utente.Grazie.ciao

Vinsss
19-11-2012, 19:58
ciao ragazzi..volevo dire la mia opinione discorso "amd fallisce"
bè capisco il rancore e la tristezza su la cara e amata mamma AMD pero sù non bisogna abbattersi con il pessimismo,vero per quando mai sia l'articolo dei cosiddetti analisti...io sono dell'idea che finche non vedo le porte chiuse con scritto con un nastro "close for failure" le do ancora speranza e ottimismo cosa che e attualmente!..per fortuna.
Ora passiamo un pò alla realtà dal mio punto di vista...e vero con BD non si sono fatte molte vendite ma per fortuna ci sono state le altre fasce che hanno bilanciato come bobcat e liano però stiamo parlando già di un anno fà ma al momento attuale da quel che vedo amd grazie a piledrive si e ripresa parecchio come appunto diceva paolo prima non c'era molta concorrenza tra un 8150vs2600k ma adesso con 8350vs3770k SI!sopratutto con il rapporto PREZZO/prestazione,e da quel che vedo anche sul web non si parla male di piledrive anzi,in più quest'anno c'è anche trinity altro argomento alquanto positivo.
poi anche sulla questione amd ati bè permettetemi di dire una cosa e cioè prima che ati fosse acquistata da amd stava fallendo sul serio e da quando e stata messa sotto l’ala di amd ati e cresciuta non di poco e gli ha dato,e gli da un bel filo da torcere a nvidia e vi dirò di piu che al momento amd readeon e piu piaciuta e consigliata di nvidia e gli toglie una bella fetta di mercato (da quello che vedo in giro per il web) e anche questo ci fa capire piu incasso per amd in piu di recente amd ha lanciato titan il supercomputer,se sa che deve fallire che lo lanciava a fare!?...diamogli un po’ di tempo cosi da vendere per bene piledrive e commercializzare anche i trinity netbook (visto che in giro ancora ce ne sono poco e niente),per me amd deve spingere molto sul mercato dei supermercati perche li ancora vige il monopolio intel che gli porta via sia una bella fetta di mercato per quanto riguarda le famiglie di scarsa/media conoscenza dei computer (che non sono poche) e sia come “nome”( vedendo da per tutto sempre la scritta intel pensa che esista solo quel marchio),provate a pensare se ci fossero tanti amd (soprattutto notebook)nei supermercati quanti ce ne sono per intel con quello che costano gli amd con sta crisi che la gente e famiglie sono al risparmio quanti AMD si venderebbero?...un bel po’ rispetto ad intel!

FINE OT for me!

winebar
19-11-2012, 20:01
Si... ti faccio un esempio prendendo il modulo AMD ed il core + SMT Intel:

Zambesi IPC 100 ST - +70% MT CMT-Modulo con 2 TH.
IVY IPC 155 ST - +25% MT con SMT.

A questo bisognerebbe aggiungere, ma non lo so, quanto % di transistor in più richieda rispettivamente l'SMT e il CMT.
Per semplificare, se l'SMT richiedesse il 25% e il CMT il 70%, fondamentalmente l'aumento di potenza sarebbe uguale all'incremento di transistor.

Il discorso di una architettura più o meno portata all'ST o all'MT ci può stare... ma un 8350 dovrebbe competere con un SBe X6 nell'MT e perdere in ST, non perdere in ST e MT con un 3770K, ed in questo non si puo' dare unicamente la colpa al silicio.


Io all'inizio pensavo che un silicio che potesse offrire frequenze più alte ed un numero maggiore di moduli potesse bastare a BD... ma effettivamente senza un aiuto di IPC la cosa è impossibile.
Dai 100 di Zambesi, PD è arrivato a 107... ma perchè il silicio possa sfruttare BD con frequenze fattibili alla fisica, l'IPC di BD dovrebbe arrivare almeno sui 125-130. Dopo è chiaro che in MT sarebbe tutto un altro andare... perchè una cosa sarebbe 155 +25%, un'altra 130 +70%, poi non sarebbe un vero problema per l'MT se AMD disponesse di un gradino inferiore nella miniaturizzazione silicio... a patto di arrivare almeno ad avere un numero di moduli uguale/o leggermente inferiore al numero di core + SMT del rivale...

Se non ricordo male quando Intel lanciò l'HT parlava di un aumento minimo in termini di dimensioni (IMHO non più del 10%) e di un aumento di prestazioni che arrivava a picchi del 30%, però non si è mai chiarito quanto effettivamente l'approccio "standard" sia utile nel confronto con CMT.
Però il problema è che un'architettura come quelle Intel (intese solo come quelle prodotte da Intel, in ambito professionale/accademico l'architettura Intel è uguale a tutto il settore x86 per ovvie ragioni storiche) è estremamente poco modulare. Basti vedere come Intel per ottenre un aumento di IPC lavori parecchio sullo spostamento dei componenti all'interno del die.
E soprattutto è estremamente monolitica. In linea teorica il CMT abbatte quella tendenza ad essere un monolite di architetture più vecchie.
Il monolite c'è ancora, ma al posto di essere quasi tutto il die è praticamente solo il modulo, con ovvi vantaggi e svantaggi. Il vantaggio è che quando devi fare una modifica è più facile da effettuare perchè hai da lavorare su un circuito molto più piccolo e indipendente dal resto dei componenti del die.
Ad esempio questo permette a AMD di vendere APU SENZA L3 senza costi elevati, e su Llano non ci giurerei che sia stato così semplice separare il tutto dalla L3.

isomen
19-11-2012, 20:02
La rev 1.2 è la revisione del bios della scheda madre non sò dirti però se è la F6.però c'è scritto sulla scatola della mainboard che è ( AM3+ CPU BIOS installed).per quanto riguarda la CPU è sicyuramente installata bene,anche perchè se cosi non fosse la levetta di bloccaggio non si chiuderebbe.idem il connettore a 8 pin..ha solo un senso,perchè dall'altro non va?proverò la main con il mio Phenom 2 per vedere se è il procio o la main che scazza.

Probabilmente dico una cosa ovvia, ma verifica che la mobo nn faccia massa con il case, perchè in questo caso partono le ventole... ma nn si accende niente (fortunatamente nn si fanno neppure danni, se invece la mobo va in corto con il case a pc acceso i danni si fanno... eccome), cmq a me é successa la stessa cosa (apparentemente)... avevo montato un 955 per aggiornare il bios e installare il so in attesa che arrivasse l'8350, arriva... smonto il deneb e monto vishera, accendo e nn parte niente, ho perso un pomeriggio per scoprire la causa... éra morto l'ali (un enermax perfettamente funzionante... prima), cmq nn é tanto il fatto che hai messo l'adattatore da 4 a 8 pin per l'alimentazione supplementare della cpu (arrivano solo fili 12v e negativi e il connettore é sagomato in modo che é impossibile invertire i contatti) ma che il tuo alimentatore abbia un amperaggio sufficente sui 12v per alimentare tutte le periferiche connesse.

;) CIAUZ

Grizlod®
19-11-2012, 20:04
è possibile quindi che non riconosca l'fx8350? Speriamo sia cosi.Domani provo a montare il mio phenom II e se dovesse partire aggiornerò subito il bios

Non sei il primo a cui capita. Con la mia, non partiva nemmeno con un Thuban 1055T...per fortuna avevo un X4 810 e dal silenzio assoluto, è partita regolarmente, dopodiche ho aggiornato il BIOS.

Certo la mia è più datata...praticamente l'890FX è stato il primo chipset a supportare Bulldozer.

Cmq se giri un po per il forum, di esempi simili ne trovi; purtroppo con le AM3+, si sono un po incasinati...

lightwave3d
19-11-2012, 20:30
Probabilmente dico una cosa ovvia, ma verifica che la mobo nn faccia massa con il case, perchè in questo caso partono le ventole... ma nn si accende niente (fortunatamente nn si fanno neppure danni, se invece la mobo va in corto con il case a pc acceso i danni si fanno... eccome), cmq a me é successa la stessa cosa (apparentemente)... avevo montato un 955 per aggiornare il bios e installare il so in attesa che arrivasse l'8350, arriva... smonto il deneb e monto vishera, accendo e nn parte niente, ho perso un pomeriggio per scoprire la causa... éra morto l'ali (un enermax perfettamente funzionante... prima), cmq nn é tanto il fatto che hai messo l'adattatore da 4 a 8 pin per l'alimentazione supplementare della cpu (arrivano solo fili 12v e negativi e il connettore é sagomato in modo che é impossibile invertire i contatti) ma che il tuo alimentatore abbia un amperaggio sufficente sui 12v per alimentare tutte le periferiche connesse.

;) CIAUZ

Grazie per la risposta.Ho dato un'occhiata all'alimentatore.C'è scritto +12v(1)17A +12V(2)19A -12V(0.8A) .Adesso capire se siano sufficienti,non te lo saprei dire ;) .L'alimentatore è un 600W e sul manuale della scheda consigliano un 500w o superiore quindi non dovrei avere problemi di voltaggio.Grazie

capitan_crasy
19-11-2012, 20:31
C'è un aggiornamento alla notizia di Semiaccurate:

Updated 11/19/2012@10:15am: AMD contacted us with an official denial of the story and stated that Kaveri and the big cores are still on track.


http://semiaccurate.com/2012/11/19/amd-kills-off-big-cores-kaveri-steamroller-and-excavator/

http://i.imgur.com/hPKK0.png

lightwave3d
19-11-2012, 20:32
Non sei il primo a cui capita. Con la mia, non partiva nemmeno con un Thuban 1055T...per fortuna avevo un X4 810 e dal silenzio assoluto, è partita regolarmente, dopodiche ho aggiornato il BIOS.

Certo la mia è più datata...praticamente l'890FX è stato il primo chipset a supportare Bulldozer.

Cmq se giri un po per il forum, di esempi simili ne trovi; purtroppo con le AM3+, si sono un po incasinati...

Grazie,mi state rincuorando.Domani rpovo subito col phenom2 cpu che stò attualmente usando per scrivervi ;) e speriamo bene,perchè ho comprato tutto nuovo e il fatto che non parta mi demoralizza non poco.

netcrusher
19-11-2012, 20:51
Grazie,mi state rincuorando.Domani rpovo subito col phenom2 cpu che stò attualmente usando per scrivervi ;) e speriamo bene,perchè ho comprato tutto nuovo e il fatto che non parta mi demoralizza non poco.

puoi sempre vendermi tutto il materiale a me con il 50% di sconto :D
Dai scherzo........comunque può capitare anche qualche DOA ogni tanto eh! (DOA sta per Dead On Arrival cioè ricevuta non funzionante)

netcrusher
19-11-2012, 21:00
è la concorrenza sleale che Intel ha pagato con una semplice multa, intanto il danno d'immagine per amd oramai è stato fatto, gli assemblatori guadagnavano percentuali se installavano cpu intel piuttosto che amd, e così se oggi parli con un assemblatore ti dice che amd non è buona, e bravo oramai sei stato fidelizzato da Intel.........questa è una delle tante.

filo mc-ati crossfire
19-11-2012, 21:05
e finalmente oggi tocco i 4,80 ghz,per eseguire un 3d mark 06,come vi sembrano 6450 punti al 3dm06?

winebar
19-11-2012, 21:18
ok, ma non è una cosa risalente al 2006 tipo quella degli oem?

Si però non mi sembra che fosse equa al danno di immagine e di profitti potenzialmente persi di AMD... OK che sono passati 6 anni, ma comunque hanno tolto interesse alla clientela e soldi che a Sunnyvale potevano investire nello sviluppo.

Inviato dal mio GT-I9000 con Tapatalk 2

netcrusher
19-11-2012, 21:32
sia chiaro non voglio fare nessun flame però le evidenze quelle sono e scusate se è poco, la multa è ben poca cosa rispetto alle quote di mercato che Amd ha perso negli anni, e pensare che Amd aveva fatto pure crollare i titoli in borsa di Intel, in modo corretto, poi è successo quello che è successo, ripeto niente flames sono fatti reali e di cui chiunque può documentarsi trovando tutto in rete......

carlottoIIx6
19-11-2012, 21:32
Secondo me l'unico progetto che rischia forte potrebbe essere il famoso processore ibrido che è in previsione per il 2015.
Potrebbe essere posticipato oppure cancellato e rifatto da 0 come è successo con Bulldozer.
E' solo una mia ipotesi che potrebbe anche essere una balla clamorosa.

non si rischia niente,
la roadmap di amd può cambiare nella forma ma non nella sostanza.
tutte le mosse sono guidate dal software ibrido ed le implementazioni, le modifiche sono tutte inevitabilmente segnate indipendemente dal percorso fatto per arrivarci.

BodyKnight
19-11-2012, 21:34
Trovo stupendo credere che la colpa di tutto sia di Rory Read, e della clasica "concorrenza sleale" di Intel.

AMD negli ultimi 10 anni ha mancato cicli di sviluppo su cicli di sviluppo, e sarebbe morta anni fa se non fosse stato per il miliardino di Intel, lo spin off delle fabbriche e per il fatto che parliamo di licenze x86.

Rory Read è solo il padre chiamato al capezzale di uno che è terminale. Semmai gli si dovrà rendere conto per la scelta di buttarsi in stile kamikaze nel mondo ARM... (tra parentesi, TI a uccisio il suo OMAP, così, giusto per chiarire che dove c'è concorrrenza e tutti possono comprare una licenza, bisogna avere 2 palle così).

netcrusher
19-11-2012, 21:36
Trovo stupendo credere che la colpa di tutto sia di Rory Read, e della clasica "concorrenza sleale" di Intel.

AMD negli ultimi 10 anni ha mancato cicli di sviluppo su cicli di sviluppo, e sarebbe morta anni fa se non fosse stato per il miliardino di Intel, lo spin off delle fabbriche e per il fatto che parliamo di licenze x86.

Rory Read è solo il padre chiamato al capezzale di uno che è terminale.

ecco questo è quello che si chiama "flame"

Se ritieni Intel superiore come spieghi allora che hanno fatto ricorso alla concorrenza sleale???? non avrebbero dovuto avere problemi ad imporsi visto la tanto presunta superiorità.........i fatti invece parlano diversamente, come puoi spiegare questa cosa?

carlottoIIx6
19-11-2012, 21:39
e finalmente oggi tocco i 4,80 ghz,per eseguire un 3d mark 06,come vi sembrano 6450 punti al 3dm06?

queste sono le notizie che rendono vivi i forum come questo.

un processore da da 96 sei core che costa meno di un i3!
e ancora la gente consiglia sti i3 e pendium:rolleyes:
quando li consigliavo io me ne dicevano di tutti colori, sveglia!

carlottoIIx6
19-11-2012, 21:42
Trovo stupendo credere che la colpa di tutto sia di Rory Read, e della clasica "concorrenza sleale" di Intel.

AMD negli ultimi 10 anni ha mancato cicli di sviluppo su cicli di sviluppo, e sarebbe morta anni fa se non fosse stato per il miliardino di Intel, lo spin off delle fabbriche e per il fatto che parliamo di licenze x86.

Rory Read è solo il padre chiamato al capezzale di uno che è terminale. Semmai gli si dovrà rendere conto per la scelta di buttarsi in stile kamikaze nel mondo ARM... (tra parentesi, TI a uccisio il suo OMAP, così, giusto per chiarire che dove c'è concorrrenza e tutti possono comprare una licenza, bisogna avere 2 palle così).

se! ti devi ritarare il senso della realtà.

smoicol
19-11-2012, 21:54
ragazzi una domanda mi sorge spontanea,
intel o amd, ati o nvidia, bianchi o neri

ma noi checi guadagnamo?
ci facciamo solo guerra

Vash_85
19-11-2012, 21:56
ragazzi una domanda mi sorge spontanea,
intel o amd, ati o nvidia, bianchi o neri

ma noi checi guadagnamo?
ci facciamo solo guerra

;)

filo mc-ati crossfire
19-11-2012, 21:59
queste sono le notizie che rendono vivi i forum come questo.

un processore da da 96 sei core che costa meno di un i3!
e ancora la gente consiglia sti i3 e pendium:rolleyes:
quando li consigliavo io me ne dicevano di tutti colori, sveglia!
eseguito 3d mark 06 : 6480 punti senza nessun crash
3d mark vantage cpu score: 18404 / gpu score: 21975
YEAHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH!!!

paolo.oliva2
19-11-2012, 22:01
vedo che finalmente l'hai capito, quando lo dicevo io mesi fa è scoppiato un casino qua dentro

Mesi fa era un discorso nettamente differente :D.

Io ho sempre detto che l'IPC non sarebbe stato importante SE il silicio avesse rispettato le aspettative, che erano di 4,2GHz def almeno come X8 e prossime ai 5GHz come massimo... mettiamo 4,8GHz.

Se un 8150 avesse avuto queste frequenze, sarebbe risultato del 16,66% più veloce in MT (def e turbo escluso) e del 14,3% più veloce in ST, di più di quello che l'8350 offre.

Visto che un 8350 batte il 2600K in MT con un +15% rispetto all'8150, un 8150 con un +16,66% sarebbe più potente di un 8350... senza alcun aumento di IPC. In ST invece sarebbe comunque sotto ad Intel, ma visto che Vishera riesce a fare una figura discreta con il suo +7%, un +14,3% di un 8150 a 4,8GHz avrebbe fatto meglio, anche qui senza alcun aumento di IPC.

Nel confronto contro un SBe X6, alcuni mesi fa l'X10 era ancora in scaletta. Non so precisamente la differenza tra un SBe X6 ed un 2600K, però, un 8150 che comunque sarebbe risultato superiore al 2600K, aggiungici "fino al" +25% di core, ci saremmo trovati con una differenza abbastanza diversa da quello che un 8350 riesce ad offrire. A spannella, contando i 6,9 in Cinebench, l'X10, visto l'ottima scalabilita di AMD, avrebbe dato 8,625... un SBe mi sembra faccia circa 9.

Poi è chiaro, se togli l'X10, le frequenze aumentano ma non a valori idonei per l'architettura PD, prospetta l'incubo del passagio al Bulk, cioè... se vuoi aumentare la potenza puo' rimanere solo l'IPC, ammettere questo non vuole dire rinnegare il mio vecchio pensiero, unicamente essere obiettivo con le info nuove.

filo mc-ati crossfire
19-11-2012, 22:05
Mesi fa era un discorso nettamente differente :D.

Io ho sempre detto che l'IPC non sarebbe stato importante SE il silicio avesse rispettato le aspettative, che erano di 4,2GHz def almeno come X8 e prossime ai 5GHz come massimo... mettiamo 4,8GHz.

Se un 8150 avesse avuto queste frequenze, sarebbe risultato del 16,66% più veloce in MT (def e turbo escluso) e del 14,3% più veloce in ST, di più di quello che l'8350 offre.

Visto che un 8350 batte il 2600K in MT con un +15% rispetto all'8150, un 8150 con un +16,66% sarebbe più potente di un 8350... senza alcun aumento di IPC. In ST invece sarebbe comunque sotto ad Intel, ma visto che Vishera riesce a fare una figura discreta con il suo +7%, un +14,3% di un 8150 a 4,8GHz avrebbe fatto meglio, anche qui senza alcun aumento di IPC.

Nel confronto contro un SBe X6, alcuni mesi fa l'X10 era ancora in scaletta. Non so precisamente la differenza tra un SBe X6 ed un 2600K, però, un 8150 che comunque sarebbe risultato superiore al 2600K, aggiungici "fino al" +25% di core, ci saremmo trovati con una differenza abbastanza risicata.

Poi è chiaro, se togli l'X10, le frequenze aumentano ma non a valori idonei per l'architettura PD, prospetta l'incubo del passagio al Bulk, cioè... se vuoi aumentare la potenza puo' rimanere solo l'IPC, ammettere questo non vuole dire rinnegare il mio vecchio pensiero, unicamente essere obiettivo con le info nuove.
Paolo,una curiosità,col phenom 2 x6,che score fai al 3dm 06?se lo hai fatto!

paolo.oliva2
19-11-2012, 22:07
Paolo,una curiosità,col phenom 2 x6,che score fai al 3dm 06?se lo hai fatto!

non l'ho mai fatto... mi ero impuntato su Cinebench.

filo mc-ati crossfire
19-11-2012, 22:11
non l'ho mai fatto... mi ero impuntato su Cinebench.

lolero curioso di vedere se era tanta la differenza prestazionale tra queste 2 cpu,ho cercato il 1100t,ma nuovo è introvabile!

Diablo III
19-11-2012, 22:40
lolero curioso di vedere se era tanta la differenza prestazionale tra queste 2 cpu,ho cercato il 1100t,ma nuovo è introvabile!

il 1100t fa circa 6000pt al cpu test del 3d06 (a default) :)

Diablo III
19-11-2012, 22:42
Mesi fa era un discorso nettamente differente :D.


come non detto lascia perdere, meglio evitare di rientrare in questo discorso ;)

netcrusher
19-11-2012, 22:44
ragazzi una domanda mi sorge spontanea,
intel o amd, ati o nvidia, bianchi o neri

ma noi checi guadagnamo?
ci facciamo solo guerra

un pò quello che sta succedendo pure a livello sociale, un'inutile guerra tra poveri :( , poi specialmente in ambito hardware dove avercelo più grosso non serve proprio a niente, diciamo che la gente non sà cosa significa divertirsi oramai ed è sempre lì a voler primeggiare, che primeggino chissene.....io mi diverto intanto

filo mc-ati crossfire
19-11-2012, 22:48
il 1100t fa circa 6000pt al cpu test del 3d06 (a default) :)

azz,io faccio 6480 punti a 4,80 ghz ahahahaha vabbè ,sapevo che in ambito gaming/prestazionale,era migliore il phenom,ma non ricordavo cosi' tanto!

Diablo III
19-11-2012, 22:54
azz,io faccio 6480 punti a 4,80 ghz ahahahaha vabbè ,sapevo che in ambito gaming/prestazionale,era migliore il phenom,ma non ricordavo cosi' tanto!

a 4.8 non ricordo di preciso quanto totalizza, sicuro sopra gli 8000pt (forse intorno a 8500pt) :)

Grizlod®
19-11-2012, 23:44
..........,ho cercato il 1100t,ma nuovo è introvabile!Lo trovi su overvolt dot it.

paolo.oliva2
20-11-2012, 00:16
come non detto lascia perdere, meglio evitare di rientrare in questo discorso ;)

Aspetta, magari mi sono espresso male :sofico:.

Cioè... non voglio fare la parte di quello che ha sempre ragione...

L'IPC è una variabile nella potenza di un procio, come lo è d'altra parte la frequenza operativa. L'8150 doveva assolutamente incrementare la potenza... Vishera ha aumentato la potenza del 15% rispetto all'8150, ma se prendiamo l'MT, l'incremento di potenza è dato per 2/3 dall'aumento di frequenza e per 1/3 dall'incremento di IPC, quindi Vishera gran parte dell'aumento di potenza lo deve alla frequenza maggiore, non certamente all'IPC.
Un 8150 a 4,2GHz def come X8 non sarebbe uguale all'8350 4GHz def con +5% di incremento IPC? E' chiaro che se il silicio fosse rimasto fermo a 3,6GHz per 125W TDP, allora per avere un +15% poteva venire esclusivamente dall'IPC.

Il discorso rispetto a mesi fa era che si voleva giudicare il 32nm SOI alla frutta con 3,6GHz per un X8, semplicemente perchè Intel, con un X6, aveva frequenze inferiori.

Un 8350 dimostra credo ampiamente che il 32nm SOI era tutt'altro che alla frutta come potenzialità.... ma dopo 1 anno non c'è più un 2600K sul 32nm, c'è IVY sul 22nm, se un +15% poteva andare bene contro il 32nm/1155, oggi è insufficiente contro il 22nm/1155, anche se potrebbe essere possibilissimo un ulteriore aumento delle frequenze dentro i 125W, tipo 4,2GHz, ma parliamo di un +5%, ed il cestinamento dell'X10 rende defunta ogni speranza di corposi aumenti di potenza MT a parità di IPC.
Allora l'unica via è l'aumento di IPC, ed infatti ho detto che sbagliavo, ma non per errore di ragionamento, ma per mancanza di miglioramenti silicio.

paolo.oliva2
20-11-2012, 00:43
Se non ricordo male quando Intel lanciò l'HT parlava di un aumento minimo in termini di dimensioni (IMHO non più del 10%) e di un aumento di prestazioni che arrivava a picchi del 30%, però non si è mai chiarito quanto effettivamente l'approccio "standard" sia utile nel confronto con CMT.
Però il problema è che un'architettura come quelle Intel (intese solo come quelle prodotte da Intel, in ambito professionale/accademico l'architettura Intel è uguale a tutto il settore x86 per ovvie ragioni storiche) è estremamente poco modulare. Basti vedere come Intel per ottenre un aumento di IPC lavori parecchio sullo spostamento dei componenti all'interno del die.
E soprattutto è estremamente monolitica. In linea teorica il CMT abbatte quella tendenza ad essere un monolite di architetture più vecchie.
Il monolite c'è ancora, ma al posto di essere quasi tutto il die è praticamente solo il modulo, con ovvi vantaggi e svantaggi. Il vantaggio è che quando devi fare una modifica è più facile da effettuare perchè hai da lavorare su un circuito molto più piccolo e indipendente dal resto dei componenti del die.
Ad esempio questo permette a AMD di vendere APU SENZA L3 senza costi elevati, e su Llano non ci giurerei che sia stato così semplice separare il tutto dalla L3.

Io penso che l'architettura AMD sia effettivamente più malleabile a tutti i cambiamenti possibili. L'architettura Intel meno... ma non vedo pregi o difetti in questa differenza, semplicemente quasi una forzatura per il piazzamento sul mercato.

AMD deve spendere il meno possibile per avere sempre un prodotto competitivo come prezzo... Intel non gli frega nulla di spese maggiori di progettazione, perchè anche se spendesse 3 volte di più, avrebbe comunque dei volumi di vendita 3 volte maggiori, quindi anche teorizzando un plus di costo a procio, l'incidenza sarebbe la stessa, aggiungici poi che comunque alla fine Intel applica un prezzo maggiore....

Robby Naish
20-11-2012, 06:59
Ragazzi,

c'è da parte un test lato gpu di questi ultimi FX?

Volevo vedere a che svideo potrebbero essere equiparati

graz

Ale

LurenZ87
20-11-2012, 07:18
Ragazzi,

c'è da parte un test lato gpu di questi ultimi FX?

Volevo vedere a che svideo potrebbero essere equiparati

graz

Ale

a nessuna, non hanno gpu integrate.

Robby Naish
20-11-2012, 07:26
a nessuna, non hanno gpu integrate.

Ecco perche non riuscivo a troavrne nemmeno 1 :)))

Quindi "ripiego" su A-xxx?

Grazie e scusate

Ale

Korn
20-11-2012, 07:36
dipende per fare cosa

Robby Naish
20-11-2012, 07:49
dipende per fare cosa

Ti dico al volo, per non fare troppo OT...

ora sto con un AMD e4850 + 4gb ram e Xp Sp3

Al momento il problema maggiore è che quando ho aperte 20-30 pagine web, con chrome, rallenta di brutto. Devo chiudere chrome e riaprirlo....

Utilizzo ufficio, internet, elaborazione foto (NEF by Nikon), compressione video.

Per il nuovo pc pensavo ad un un Ivy Bridge che abbia la Hd4000 o una buona AMD. Pensavo a qs cpu per evitare quindi svideo esterne.

Prediligo stabilità alla velocità

Grazie e scusate ancora

Ale

Diablo III
20-11-2012, 08:52
Lo trovi su overvolt dot it.

si bhe dai, chi spenderebbe ormai 175€ per un 1100T? :p

quello è un procio che semmai va preso usato a basso prezzo;)

paolo.oliva2
20-11-2012, 10:01
Sul discorso Phenom II - Buldozer... ho avuto modo di provare sia LLano su base 32nm ed ora ho potuto vedere la differenza con Trinity, una sorta di test tra 2 architetture diverse ma sulla stessa miniaturizzazione silicio, e non c'è assolutamente nulla che faccia rimpiangere Llano su Trinity.

Trinity ha temp addirittura inferiori, 40° circa, la ventola non è mai in funzione e quando lo è, l'aria esce leggermente tiepida. Un Llano 4,5h di autonomia, Trinity arriva addirittura a 9h...

Va bene che Llano era step A0 e Trinity è step A1 sempre sul 32nm, ma io sono dell'idea che il 45nm riusciva a sfruttare il Phenom II molto meglio di quanto possa fare il 32nm con Buldozer.

E qui il confronto è impari... nel senso che un 8150 era sotto clamorosamente in ST e di poco sopra in MT, ma lo sbaglio è stato imputare le colpe interamente all'architettura. E' bastato che il silicio migliorasse, con una grattatina per eliminare i problemi di un'architettura acerba, e oggi nessuno si sogna di confrontare un 8350 ad un 1100T in MT, in ST è vero che non c'è un salto, ma è anche vero, come abbiamo potuto testare, che i 4,2GHz di massima frequenza Turbo su 4 core è, secondo me, al di sotto di quello che potrebbe concedere sfruttando al massimo i 125W TDP, e già i 4,4GHz, con un 5% in più, si farebbero sentire e basterebbero per superare il 980.
Guardando sempre l'ST, un Thuban @4,5GHz con Cinebench 1,36, 8350@5,2GHz 1,39. Mi sembra che il mio Thuban a 4,7GHz abbia raggiunto 1,39... quindi, a parte l'MT, a PD basta avere un +500MHz di clock per arrivare alla stessa potenza ST di un Phenom II.
L'8350, con 4,2GHz di frequenza massima, esprime una potenza ST superiore a qualsiasi Phenom II, tranne il 980, che ha un clock di 3,8GHz, sarebbero necessari i 4,3GHz con l'8350, in conf def... ma in OC l'8350 la spunta.

winebar
20-11-2012, 10:53
Trinity ha temp addirittura inferiori, 40° circa, la ventola non è mai in funzione e quando lo è, l'aria esce leggermente tiepida. Un Llano 4,5h di autonomia, Trinity arriva addirittura a 9h...

Mi sembra strano che duri addirittura il doppio, ben venga invece la minore necessità di aumentare i giri della ventola.
A parità di clock è praticamente impossibile che Trinity consumi addirittura la metà. Perchè non è possibile, sempre se il clock (e la potenza generica) è lo stesso. Perchè alla fine dei conti parliamo di uno step dello stesso processo litografico.
Quello che intendo è, non è che la batteria del portatile con Trinity sia più capiente di, ipotizziamo, un 40/45%?

Riguardo a 1100T vs 8350, il paragone in MT è assurdo, è ovvio che l'8350 stia davanti. Però in ST la cosa non è così scontata. Se non erro le prestazioni sono simili (tolte le nuove istruzoni FMA/AES). E il tutto con l'8350 che ha clock molto superiori rispetto ad un 1100T stock.
Con ciò cosa voglio dire? Che AMD deve tentare di aumentare il più possibile l'IPC. La storia delle frequenze alte per offuscare un IPC basso l'abbiamo già sentita con "una piccola azienda" che voleva arrivare a 10Ghz ma che invece fece uscire dei forni.
Ovviamente AMD non ha fatto promesse in merito. Ma aumentando piano piano la frequenza operativa dei suoi processori rischia parecchio di arrivare ad un punto dove si trova la strada sbarrata, e anche un cambio di litografia porta il rischio di permettere un aumento di soli 100/200Mhz in più .
Certo che se AMD continua ad avere utili irrisori e non trova investitori (non compratori) la storia sarà sempre questa.

filo mc-ati crossfire
20-11-2012, 10:56
è invece,la differenza tra fx-6100 ed fx-6300,si nota?
parlando di portarli a parità di frequenza!

winebar
20-11-2012, 11:04
è invece,la differenza tra fx-6100 ed fx-6300,si nota?
parlando di portarli a parità di frequenza!

A pari frequenza un po' di differenza c'è per l'aumento di IPC, parliamo di circa il 5%.
Però parliamo di un processore un po' più overclockabile e che consuma meno a parità di clock.

Diablo III
20-11-2012, 11:29
è invece,la differenza tra fx-6100 ed fx-6300,si nota?
parlando di portarli a parità di frequenza!

avresti un miglioramento derivato quasi esclusivamente dal maggiore IPC, ma si parla di un 7% medio (in qualche scenario si va oltre, in qualche altro è inferiore)

il vantaggio più grosso l'avresti sui consumi, soprattutto in overclock, ma a mio modesto parere non vale la pena fare quel cambio, potrebbe già essere diverso se invece del 6300 prenderesti in considerazione un 8320/8350, almeno oltre ai vantaggi suddetti avresti anche un modulo in più ;)