View Full Version : [Thread Ufficiale] CPU serie FX: AMD Bulldozer/Piledriver - Aspettando Steamroller
Sul discorso Phenom II - Buldozer... ho avuto modo di provare sia LLano su base 32nm ed ora ho potuto vedere la differenza con Trinity, una sorta di test tra 2 architetture diverse ma sulla stessa miniaturizzazione silicio, e non c'è assolutamente nulla che faccia rimpiangere Llano su Trinity.
Trinity ha temp addirittura inferiori, 40° circa, la ventola non è mai in funzione e quando lo è, l'aria esce leggermente tiepida. Un Llano 4,5h di autonomia, Trinity arriva addirittura a 9h...
Va bene che Llano era step A0 e Trinity è step A1 sempre sul 32nm, ma io sono dell'idea che il 45nm riusciva a sfruttare il Phenom II molto meglio di quanto possa fare il 32nm con Buldozer.
E qui il confronto è impari... nel senso che un 8150 era sotto clamorosamente in ST e di poco sopra in MT, ma lo sbaglio è stato imputare le colpe interamente all'architettura. E' bastato che il silicio migliorasse, con una grattatina per eliminare i problemi di un'architettura acerba, e oggi nessuno si sogna di confrontare un 8350 ad un 1100T in MT, in ST è vero che non c'è un salto, ma è anche vero, come abbiamo potuto testare, che i 4,2GHz di massima frequenza Turbo su 4 core è, secondo me, al di sotto di quello che potrebbe concedere sfruttando al massimo i 125W TDP, e già i 4,4GHz, con un 5% in più, si farebbero sentire e basterebbero per superare il 980.
Guardando sempre l'ST, un Thuban @4,5GHz con Cinebench 1,36, 8350@5,2GHz 1,39. Mi sembra che il mio Thuban a 4,7GHz abbia raggiunto 1,39... quindi, a parte l'MT, a PD basta avere un +500MHz di clock per arrivare alla stessa potenza ST di un Phenom II.
L'8350, con 4,2GHz di frequenza massima, esprime una potenza ST superiore a qualsiasi Phenom II, tranne il 980, che ha un clock di 3,8GHz, sarebbero necessari i 4,3GHz con l'8350, in conf def... ma in OC l'8350 la spunta.
Passano i mesi, che poi sono diventati anni, e ancora qui a ricamare sulle % di differenza in ST, quasi esultando perchè il differenziale si assottiglia...
Ti dico al volo, per non fare troppo OT...
ora sto con un AMD e4850 + 4gb ram e Xp Sp3
Al momento il problema maggiore è che quando ho aperte 20-30 pagine web, con chrome, rallenta di brutto. Devo chiudere chrome e riaprirlo....
Utilizzo ufficio, internet, elaborazione foto (NEF by Nikon), compressione video.
Per il nuovo pc pensavo ad un un Ivy Bridge che abbia la Hd4000 o una buona AMD. Pensavo a qs cpu per evitare quindi svideo esterne.
Prediligo stabilità alla velocità
Grazie e scusate ancora
Ale
controlla con task manager piuttosto di non aver saturato la ram, facile che con 30 tab sei over 4Gb /fine OT
Grizlod®
20-11-2012, 12:15
si bhe dai, chi spenderebbe ormai 175€ per un 1100T? :p
quello è un procio che semmai va preso usato a basso prezzo;)Concordo...cmq se un qualche "intrippato" del K10, lo stesse cercando...
comunque paolo, sul discorso tdp, io non capisco molto le scelte di amd...
se sanno già ora che uscirà solo un PD2.0 e quindi solo con pp aggiornato magari, perchè non variare il tdp di alcuni modelli?
esempio:
vedrei bene un FX-4300 a 75w tdp
vedrei bene un FX-6300/FX-8300/FX-8320 a 95w tdp
vedrei bene un FX-8350 a 125w tdp...
basta giocare sulle frequenze, ma in tanto dai nuovo spirito al brand FX assetato di tdp, e poi tra 9 mesi un FX-8370/8450 a 125w come aggiornamento...
Il problema è che un 4300 a 75w lo dovresti vendere a poco e si scontrerebbe con Trinity, che però a 100w fornisce anche VGA integrata e il FCH praticamente fornisce solo linee PCI-E/USB/SATA.
Quello che intendo è che devi comunque vendere una CPU che probabilmente andrebbe meno di un 5800k ma che contando anche una VGA discreta da aggiungere obbligatoriamente porterebbe a consumi più alti.
Senza contare che comunque sentiresti cose come "ma intel a 77w fornisce un prodotto molto simile alle APU ma che va praticamente il doppio".
Un 4300 a 75w lo vedrei bene solo ed esclusivamente se hanno tanti scarti di produzione che downclockati non darebbero problemi di stabilità.
Oppure un PD2.0 con un buon aumento di IPC (+10%, cosa di cui dubito), ma con un cambio di pp e una diminuzione di consumi, senza aumentare la frequenza. Anche qui però, è una cosa di cui dubito, perchè passare da SOI a bulk porterebbe svantaggi sulle GPU (e GF torna al SOI dai 20 nm).
filo mc-ati crossfire
20-11-2012, 12:22
Bhe non credo la media del 7% sia poca,e magari da come capisco,potrei avere + possibilità di salire in oc,sono un po' indeciso,poichè ho trovato la stabilità,a 4,80ghz col 6100,e dopo aver cambiato ram,ieri,sono riuscito a prendere altri punti in più,al 3dm06 e 3dmvantage,magari qualcuno mi dirà,ma ti basi sui bench? bhe giochi che mi danno particolari problemi,non ne ho,e quei punti in + al 3dmark,sono soddisfazioni :) credo che qualcuno potrà capirmi :)
Bhe non credo la media del 7% sia poca,e magari da come capisco,potrei avere + possibilità di salire in oc,sono un po' indeciso,poichè ho trovato la stabilità,a 4,80ghz col 6100,e dopo aver cambiato ram,ieri,sono riuscito a prendere altri punti in più,al 3dm06 e 3dmvantage,magari qualcuno mi dirà,ma ti basi sui bench? bhe giochi che mi danno particolari problemi,non ne ho,e quei punti in + al 3dmark,sono soddisfazioni :) credo che qualcuno potrà capirmi :)
Capisco cosa intendi, ma non andrei comunque sotto un 8320.
Pssare ad un 6300 IMHO è come una mossa suicida (per il portafogli). :D
filo mc-ati crossfire
20-11-2012, 12:39
Capisco cosa intendi, ma non andrei comunque sotto un 8320.
Pssare ad un 6300 IMHO è come una mossa suicida (per il portafogli). :D
non hai torto,ovviamente!
ma il prezzo per la serie 8000 è + alto della 6000,sinceramente non ho guardato attentamente ma se non erro 8350 e sui 230 euro,ripeto non ho guardato bene ho visto il prezzo di sfuggita!
tecno789
20-11-2012, 12:44
ma ora come ora passare da un phenom II x6 ad un piledriver è abbastanza vantaggioso o il gap non è ancora molto e quindi conviene ancora aspettare? vi chiedo questo, perchè da recensioni varie ho visto molte situazioni diverse, ma non ho mai visto un confronto con le architetture vecchie.. voi che ne pensate?
paolo.oliva2
20-11-2012, 12:55
Mi sembra strano che duri addirittura il doppio, ben venga invece la minore necessità di aumentare i giri della ventola.
A parità di clock è praticamente impossibile che Trinity consumi addirittura la metà. Perchè non è possibile, sempre se il clock (e la potenza generica) è lo stesso. Perchè alla fine dei conti parliamo di uno step dello stesso processo litografico.
Quello che intendo è, non è che la batteria del portatile con Trinity sia più capiente di, ipotizziamo, un 40/45%?
Beh, Llano a parte, l'architettura Phenom II non prevede di spegnere fisicamente i core, tutti i core andranno ad una frequenza pari alla massima anche se usata solamente da un core... Buldozer, ed ivi compreso Trinity, nonostante un numero complessivo di transistor ben superiore, permette consumi inferiori in idle anche a parità di miniaturizzazione.
Riguardo a 1100T vs 8350, il paragone in MT è assurdo, è ovvio che l'8350 stia davanti. Però in ST la cosa non è così scontata. Se non erro le prestazioni sono simili (tolte le nuove istruzoni FMA/AES). E il tutto con l'8350 che ha clock molto superiori rispetto ad un 1100T stock.
Con ciò cosa voglio dire? Che AMD deve tentare di aumentare il più possibile l'IPC.
Ma questo sono d'accordo, perchè oltre che non sono possibili frequenze superiori, è stato cancellato pure l'aumento del numero massimo dei core, è normale che l'unica uscita sia l'IPC
La storia delle frequenze alte per offuscare un IPC basso l'abbiamo già sentita con "una piccola azienda" che voleva arrivare a 10Ghz ma che invece fece uscire dei forni.
Il confronto con il PIV è troppo estremizzato.. si fermò a 4GHz, non si è arrivati manco al 50% delle aspettative, l'8350 pur essendo un X8 è già arrivato più in alto del PIV, ma converrai con me che non avrebbe di certo bisogno di 10GHz di clock per essere competitivo... già con 1GHz in più andrebbe più che bene.
Ovviamente AMD non ha fatto promesse in merito. Ma aumentando piano piano la frequenza operativa dei suoi processori rischia parecchio di arrivare ad un punto dove si trova la strada sbarrata, e anche un cambio di litografia porta il rischio di permettere un aumento di soli 100/200Mhz in più .
Guarda, secondo me bisogna dividere le cose...
L'IPC a core visto come ST è importante, non discuto, ma non estremizziamolo con il solito SPI, minimo 120 FPS dei giochi e quant'altro... come è chiaro che con un IPC troppo basso a core sarebbe inutile avere 20 core totali...
Dipende tutto dal tipo di utilizzo. Io l'esempio l'ho con l'i5 sul portatile contro un Llano/Trinity. L'i5 potrà essere anche superiore nei bench (non l'ho confrontato), ma i bench trattano 1 programma e non rispecchiano assolutamente l'uso "normale" del sistema, e per uso normale non intendo cose innaturali, quanto invece avere Internet attivo, torrent, potersi guardare un film e, magari, all'occorrenza, poter pure masterizzare senza essere obbligati a lasciare libero il sistema. Con il mio i5, è impossibile fare questo, e non cambierebbe certamente anche se fosse un X2 di ultimissima generazione.
Questo è un esempio, per spiegare che la potenza ST di un 8150 era effettivamente troppo bassa, ma quella di un PD, anche se distante ancora da quella Intel, è comunque accettabile.
Ed è qui il punto dell'IPC a core, perchè tra un 3770K ed un 8350 c'è una differenza enorme in ST, ma poi, nell'MT, questa differenza si assottiglia e di parecchio.
Io non sto difendendo l'8350, AMD & C., ma sto solamente dicendo che se uno necessita del massimo ST, vuoi per un CF a 4 schede video, vuoi per una singola applicazione, certamente nessun procio AMD va bene. Se invece l'utilizzo del sistema è globale, nel senso non il massimo dell'ST e nemmeno il massimo dell'MT, il prodotto 8350 non ha chissà quanto di differenza da un 3770K, inglobando pure il costo/prestazioni.
Poi è chiaro che un SBe X6 è il massimo, perchè è comunque lì come potenza ST con i fratelli 1155, ma in MT sminchia e gli da 2 giri all'8350.
Ma ricollegandomi al discorso sopra... l'IPC iniziale a core è importante ma in funzione del silicio, perchè se questo permettesse un X10 o un X12, è chiaro, seppur con i limiti sull'ST che ho scritto prima, che comunque l'MT verrebbe fuori se i core fossero anzichè 8, 10 o 12. Ed è la stessa cosa che è successa con il Thuban vs gli i7 9XX X4.
Poi è chiaro che se non si puo' aumentare il numero dei moduli, non si possono aumentare le frequenze, cosa ci rimane? Solamente l'IPC.
Certo che se AMD continua ad avere utili irrisori e non trova investitori (non compratori) la storia sarà sempre questa.
Se consideriamo il futuro, forse si, ma se il futuro è APU, con l'acquisizione di ATI AMD non è di certo in svantaggio.
Guarda... io devo comunque capire perchè si deve sempre tirare fuori gli utili di AMD confronto a quelli Intel? Siamo tutti azionisti? Non credo... quindi è più importante quanto lo paghiamo noi il prodotto o quanto ci guadagna la ditta? Anche in veste futura... senza molti soldi, è difficile fare investimenti... ok, quindi AMD non arriverebbe mai a pareggiare con Intel, d'accordissimo... ma a noi cosa cambia? Vuoi più dell'8350, c'è il 3770K, c'è l'SBe X6, ci sarà l'IVY X6 e forse anche X8...
La scelta delle potenze c'è... quello che produrrà AMD lo si valuterà per potenza e per prezzo, tale ed uguale ad ora, non cambierà nulla.
Io trovo inutile confrontare i proci come se fossero autovetture senza considerare il listino. E' indubbio che una Bugatti vada più di una Fiat... peccato che listino alla mano il 99,9999% compri una Fiat al posto della Bugatti...
paolo.oliva2
20-11-2012, 13:01
ma ora come ora passare da un phenom II x6 ad un piledriver è abbastanza vantaggioso o il gap non è ancora molto e quindi conviene ancora aspettare? vi chiedo questo, perchè da recensioni varie ho visto molte situazioni diverse, ma non ho mai visto un confronto con le architetture vecchie.. voi che ne pensate?
Dipende dall'utilizzo e dal "smanettamento" (divertimento OC).
Se lo usi per giocare... meglio spendere i soldi in un upgrade della VGA più che del gioco. Se invece necessiti di una potenza superiore MT, la cosa è nettamente diversa.
Ma qualsiasi sistema con proci top recenti, di qualsiasi marca, se utilizzato nei giochi, il cambio procio non porta alcun vantaggio se rapportato al costo/prestazioni ottenuto rispetto al cambio della/delle VGA.
Il Thuban nei test aveva un senso con un 8150... dove il Thuban lo uguagliava quasi nell'MT ma lo sotterrava in ST. Ora è l'opposto... un 8350 uguaglia un Thuban in ST ma lo sotterra in MT...
filo mc-ati crossfire
20-11-2012, 13:02
Beh, Llano a parte, l'architettura Phenom II non prevede di spegnere fisicamente i core, tutti i core andranno ad una frequenza pari alla massima anche se usata solamente da un core... Buldozer, ed ivi compreso Trinity, nonostante un numero complessivo di transistor ben superiore, permette consumi inferiori in idle anche a parità di miniaturizzazione.
Ma questo sono d'accordo, perchè oltre che non sono possibili frequenze superiori, è stato cancellato pure l'aumento del numero massimo dei core, è normale che l'unica uscita sia l'IPC
Il confronto con il PIV è troppo estremizzato.. si fermò a 4GHz, non si è arrivati manco al 50% delle aspettative, l'8350 pur essendo un X8 è già arrivato più in alto del PIV, ma converrai con me che non avrebbe di certo bisogno di 10GHz di clock per essere competitivo... già con 1GHz in più andrebbe più che bene.
Guarda, secondo me bisogna dividere le cose...
L'IPC a core visto come ST è importante, non discuto, ma non estremizziamolo con il solito SPI, minimo 120 FPS dei giochi e quant'altro... come è chiaro che con un IPC troppo basso a core sarebbe inutile avere 20 core totali...
Dipende tutto dal tipo di utilizzo. Io l'esempio l'ho con l'i5 sul portatile contro un Llano/Trinity. L'i5 potrà essere anche superiore nei bench (non l'ho confrontato), ma i bench trattano 1 programma e non rispecchiano assolutamente l'uso "normale" del sistema, e per uso normale non intendo cose innaturali, quanto invece avere Internet attivo, torrent, potersi guardare un film e, magari, all'occorrenza, poter pure masterizzare senza essere obbligati a lasciare libero il sistema. Con il mio i5, è impossibile fare questo, e non cambierebbe certamente anche se fosse un X2 di ultimissima generazione.
Questo è un esempio, per spiegare che la potenza ST di un 8150 era effettivamente troppo bassa, ma quella di un PD, anche se distante ancora da quella Intel, è comunque accettabile.
Ed è qui il punto dell'IPC a core, perchè tra un 3770K ed un 8350 c'è una differenza enorme in ST, ma poi, nell'MT, questa differenza si assottiglia e di parecchio.
Io non sto difendendo l'8350, AMD & C., ma sto solamente dicendo che se uno necessita del massimo ST, vuoi per un CF a 4 schede video, vuoi per una singola applicazione, certamente nessun procio AMD va bene. Se invece l'utilizzo del sistema è globale, nel senso non il massimo dell'ST e nemmeno il massimo dell'MT, il prodotto 8350 non ha chissà quanto di differenza da un 3770K, inglobando pure il costo/prestazioni.
Poi è chiaro che un SBe X6 è il massimo, perchè è comunque lì come potenza ST con i fratelli 1155, ma in MT sminchia e gli da 2 giri all'8350.
Ma ricollegandomi al discorso sopra... l'IPC iniziale a core è importante ma in funzione del silicio, perchè se questo permettesse un X10 o un X12, è chiaro, seppur con i limiti sull'ST che ho scritto prima, che comunque l'MT verrebbe fuori se i core fossero anzichè 8, 10 o 12. Ed è la stessa cosa che è successa con il Thuban vs gli i7 9XX X4.
Poi è chiaro che se non si puo' aumentare il numero dei moduli, non si possono aumentare le frequenze, cosa ci rimane? Solamente l'IPC.
Se consideriamo il futuro, forse si, ma se il futuro è APU, con l'acquisizione di ATI AMD non è di certo in svantaggio.
Guarda... io devo comunque capire perchè si deve sempre tirare fuori gli utili di AMD confronto a quelli Intel? Siamo tutti azionisti? Non credo... quindi è più importante quanto lo paghiamo noi il prodotto o quanto ci guadagna la ditta? Anche in veste futura... senza molti soldi, è difficile fare investimenti... ok, quindi AMD non arriverebbe mai a pareggiare con Intel, d'accordissimo... ma a noi cosa cambia? Vuoi più dell'8350, c'è il 3770K, c'è l'SBe X6, ci sarà l'IVY X6 e forse anche X8...
La scelta delle potenze c'è... quello che produrrà AMD lo si valuterà per potenza e per prezzo, tale ed uguale ad ora, non cambierà nulla.
Io trovo inutile confrontare i proci come se fossero autovetture senza considerare il listino. E' indubbio che una Bugatti vada più di una Fiat... peccato che listino alla mano il 99,9999% compri una Fiat al posto della Bugatti...
d'accordissimo su tutto! sopratutto sul finale!
ElfoLiNk
20-11-2012, 13:15
Secondo voi, per Natale mi regalo un samsung 830 256GB o un FX 8350? :D
Adesso ho un Caviar Black 1TB e un Phenom II x4 @ 3,4GHz su Windows 8; Cosi inizio a risparmiare un po di soldi, Grazie! :)
Windtears
20-11-2012, 13:17
non hai torto,ovviamente!
ma il prezzo per la serie 8000 è + alto della 6000,sinceramente non ho guardato attentamente ma se non erro 8350 e sui 230 euro,ripeto non ho guardato bene ho visto il prezzo di sfuggita!
scusate se mi intrometto ma il 8350 sta in offerta (le solite offerte speciali che poi dovrebbero essere il prezzo normale) a 195e su eprezzo e il 8320 a 170e, presumo gli altri negozi avranno prezzi più o meno simili. :D
filo mc-ati crossfire
20-11-2012, 13:17
Secondo voi, per Natale mi regalo un samsung 830 256GB o un FX 8350? :D
Adesso ho un Caviar Black 1TB e un Phenom II x4 @ 3,4GHz su Windows 8; Cosi inizio a risparmiare un po di soldi, Grazie! :)
Per me senza dubbio fx-8350
Secondo voi, per Natale mi regalo un samsung 830 256GB o un FX 8350? :D
Adesso ho un Caviar Black 1TB e un Phenom II x4 @ 3,4GHz su Windows 8; Cosi inizio a risparmiare un po di soldi, Grazie! :)
SSD, senza pensarci.
Diablo III
20-11-2012, 13:21
SSD, senza pensarci.
quoto, ormai non ci rinuncerei mai:D
capitan_crasy
20-11-2012, 13:25
Secondo voi, per Natale mi regalo un samsung 830 256GB o un FX 8350? :D
Adesso ho un Caviar Black 1TB e un Phenom II x4 @ 3,4GHz su Windows 8; Cosi inizio a risparmiare un po di soldi, Grazie! :)
stai in mezzo:
Prendi un SSD da 128GB e un FX-8320...
Raffyone
20-11-2012, 13:38
qualcuno mi fa capire perchè non riesco a portare il procio in firma a + di 5050MHz:mad: ??? con la configurazione in firma e stabilissimo e ne sono strafelicissimo:p
ho provato ad aumentare anche con il bus ma niente da fare:mad: ho provato a mettere i V. a 1.68 ma niente da fare, ho abbassato il nb e ht ma niente:confused: :mad:
attualmente il bus e a 200 con tutti i parametri in firma e va una scheggia non capisco perchè non riesco a fare di piu', per caso c'e qualcosa che ancora non capisco?
Uhm ripensadoci quasi quasi aspetto natale prox magari escono 8 core con TDP più accettabili.
Phenomenale
20-11-2012, 13:56
La storia delle frequenze alte per offuscare un IPC basso l'abbiamo già sentita...
Dice il proverbio: "chi non ha testa metta gambe" !!! :idea:
paolo.oliva2
20-11-2012, 14:33
qualcuno mi fa capire perchè non riesco a portare il procio in firma a + di 5050MHz:mad: ??? con la configurazione in firma e stabilissimo e ne sono strafelicissimo:p
ho provato ad aumentare anche con il bus ma niente da fare:mad: ho provato a mettere i V. a 1.68 ma niente da fare, ho abbassato il nb e ht ma niente:confused: :mad:
attualmente il bus e a 200 con tutti i parametri in firma e va una scheggia non capisco perchè non riesco a fare di piu', per caso c'e qualcosa che ancora non capisco?
Io sono arrivato al stramassimo a 5,036GHz... di più manco a buttarlo da un grattacielo... se si è arrivati al massimo, se proprio vuoi di più, le uniche soluzioni sono 2... o lo mandi a -30°, oppure upgradare a PD.
Raffyone
20-11-2012, 14:45
Io sono arrivato al stramassimo a 5,036GHz... di più manco a buttarlo da un grattacielo... se si è arrivati al massimo, se proprio vuoi di più, le uniche soluzioni sono 2... o lo mandi a -30°, oppure upgradare a PD.
che significa upgradare a PD
Diablo III
20-11-2012, 14:50
che significa upgradare a PD
vendere l'8150 e prenderti un 8320/8350 :p
cut
La citazione del PIV era per far capire come prima o poi ci si imbatte nel problema che le frequenze sono troppo alte per garantire un TDP e dei consumi abbastanza bassi.
E la frequenza può essere castrata da un pp non ottimale, come dimostrato da Bulldozer.
In pratica oggi abbiamo PD che è ciò che sarebbe dovuto essere bulldozer. Ma rimaniamo comunque con 500 MHz in meno rispetto alla frequenza con cui doveva uscire PD.
Ovviamente AMD aveva ancora margine del TDP (come dimostrano i consumi di PD, abbastanza più bassi di un 8150).
Con questo non dico che AMD doveva aumentare la frequenza. Dimostrare un 15% in più avendo margine ulteriore è sempre positivo.
Probabilmente anche AMD sa che non può tendere solo alla frequenza e poco all'IPC (il 5/7% anno per anno è buono, ma non abbastanza), dimostrato dal fatto che Steamroller dovrebbe avere un 30% in più di IPC, magari per diminuire i consumi).
Poi per il resto, come ho già detto, sono un grande fan del CMT e sono convinto che sia il futuro dei processori (anche perché avere una decode unità sfruttata al 75% non è efficiente).
Inviato dal mio GT-I9000 con Tapatalk 2
Raffyone
20-11-2012, 14:55
vendere l'8150 e prenderti un 8320/8350 :p
ci avevo gia pensato;) sto aspettando che mi arrivi la sabertooth 990fx mandata in rma e vendo un bel blocchetto mobo e cpu...
Diablo III
20-11-2012, 15:00
ci avevo gia pensato;) sto aspettando che mi arrivi la sabertooth 990fx mandata in rma e vendo un bel blocchetto mobo e cpu...
;)
ci avevo gia pensato;) sto aspettando che mi arrivi la sabertooth 990fx mandata in rma e vendo un bel blocchetto mobo e cpu...
ciao raffyone ankio possiedo una sabertooth,posso chiederti che problema aveva la tua MB?
Ocio al PRIME95 :stordita:
"Quote:
Originally Posted by bmgjet View Post
Guess my chip is faulty then.
At stock settings
With prime 25.5 it starts failing every 2nd core with in 2mins.
With prime 27.7 it starts failing after a few hours but only when I go to use the PC for something (check emails/facebook)
Voltage doesnt matter, Tried higher CPU voltage and CPU-NB voltage up to 1.5V cpu and 1.3V NB.
Does the exact same when overclocked to 5Ghz.
Tried everything when all of us were trying to figure it out 150-200 pages back.
Weird thing is no other stability program has any problems and during the 2XP in bf3 I put in a solid 6 hours non-stop and it didnt crash and hasnt at all in anything.
Also Vishera supports 2 different instructions sets to Zambezi.
FMA and a different version AVX which is more closer to intels.
Oh look at that in the prime95 change log they have made some bug fixes to code that uses that for version 27.2
"The rewritten FFT assembly code in the current stable version 27 (since May 15, 2012) uses Advanced Vector Extensions (AVX) instructions"
And this is an example of someone who does know how to troubleshoot problems.
Occam's razor ladies and gentlemen. Everything works but this one program, and this one program has been known to not work at stock settings. Simple solution: It's the program."
http://www.overclock.net/t/1318995/official-fx-8320-fx-8350-vishera-owners-club/3760
Raffyone
20-11-2012, 16:37
sinceramente non si e capito:p all'improvviso non si avviava piu' il Bios:confused: smontata, provata riprovata fatta testare da piu' di un tecnico ma niente il bios non si avviava:mad: poi ho acquistato la crosshair v formula-z ho liquidato tutto dal processore ai mosfet e chipset ti posso garantire oltre alla bellezza e prestazioni superiori rispetto alla sab. anche piu' accessibile e compatibile con il liquido...
naturalmente la Sab. e e resta una grande mobo;)
adesso mandata in RMA direttamente all'Asus e a giorni dovrei riceverla nuova:fagiano:
navarre63
20-11-2012, 16:40
fx 4300 in arrivo nella Capitale a 140 euri :eek: :eek:
fx 4300 in arrivo nella Capitale a 140 euri :eek: :eek:
:rotfl:
Ottimo prezzo
:rotfl:
sinceramente non si e capito:p all'improvviso non si avviava piu' il Bios:confused: smontata, provata riprovata fatta testare da piu' di un tecnico ma niente il bios non si avviava:mad: poi ho acquistato la crosshair v formula-z ho liquidato tutto dal processore ai mosfet e chipset ti posso garantire oltre alla bellezza e prestazioni superiori rispetto alla sab. anche piu' accessibile e compatibile con il liquido...
naturalmente la Sab. e e resta una grande mobo;)
adesso mandata in RMA direttamente all'Asus e a giorni dovrei riceverla nuova:fagiano:
a bè credovo un qualcosa che si era capito però con schermo nero direi che si capisce poco il difetto!!..cmq grazie
Athlon 64 3000+
20-11-2012, 17:56
fx 4300 in arrivo nella Capitale a 140 euri :eek: :eek:
io oggi ho intravisto l'FX-4300 a 103 euro contro i 135 euro dell'FX-6300 nello stesso negozio.
paolo.oliva2
20-11-2012, 19:19
La citazione del PIV era per far capire come prima o poi ci si imbatte nel problema che le frequenze sono troppo alte per garantire un TDP e dei consumi abbastanza bassi.
E la frequenza può essere castrata da un pp non ottimale, come dimostrato da Bulldozer.
In pratica oggi abbiamo PD che è ciò che sarebbe dovuto essere bulldozer. Ma rimaniamo comunque con 500 MHz in meno rispetto alla frequenza con cui doveva uscire PD.
Ovviamente AMD aveva ancora margine del TDP (come dimostrano i consumi di PD, abbastanza più bassi di un 8150).
Con questo non dico che AMD doveva aumentare la frequenza. Dimostrare un 15% in più avendo margine ulteriore è sempre positivo.
Probabilmente anche AMD sa che non può tendere solo alla frequenza e poco all'IPC (il 5/7% anno per anno è buono, ma non abbastanza), dimostrato dal fatto che Steamroller dovrebbe avere un 30% in più di IPC, magari per diminuire i consumi).
Poi per il resto, come ho già detto, sono un grande fan del CMT e sono convinto che sia il futuro dei processori (anche perché avere una decode unità sfruttata al 75% non è efficiente).
Inviato dal mio GT-I9000 con Tapatalk 2
Indubbiamente... Secondo me, aveva visto giusto quel tipo che sul giudizio 8150 aveva detto (occhio e croce): "BD è una buona architettura, l'8150 non ha un problema in particolare, ma un insieme di problemi più o meno piccoli che sommati segano le prestazioni".
Il prefetch in AMD ha sempre fatto pena rispetto alla controparte Intel, la latenza delle cache, idem, aggiungici la fretta di ultimare il prodotto, queste sono tutte cose che prese singolarmente avrebbero una bassa incidenza sull'IPC, ma una volta sommate, diventano una perdita importante.
Poi si deve anche valutare il fatto che se l'architettura è stata realizzata per una frequenza X, se fatta lavorare ad una frequenza più bassa non c'è solamente il mancato guadagno derivante da una frequenza inferiore, ma c'è anche una effettiva perdita di IPC, anche fosse solamente dell'1%, che si somma ai prb sopra.
Cioè... se io prendo una DDR3 2,4, 10-12-12, e al posto di 2,4GHz la faccio lavorare a 2GHz, non si hanno perdite SE modifico i timing in 9-9-9, ma purtroppo con un procio non lo si puo' fare. Probabile che una parte di incremento IPC di PD derivi anche da questo, anche se con AIDA facendo i bench cache/ram, non mi è parso differente.
Che vi sia un differente consumo con l'aumentare delle frequenze, non ci piove, però bisogna aggiungere il parametro a parità di architettura e a parità di silicio. Facendo un esempio... un SBe X6 a 3,5GHz è 150W TDP, un 8350 ha 25W TDP in meno con 500MHz in più e i 3,5GHz sono già applicati ad un Pstate intermedio di risparmio energetico...
Questo è possibile perchè appunto l'IPC dell'8350 è inferiore all'SBe, perchè il consumo (e calore parlando di TDP) si genera nel cambio di stato dei transistor. Un IPC maggiore significa che le parti logiche hanno una potenza superiore, con un numero superiore di transistor che cambiano di stato.
Poi è chiaro che se un 2600K per 95W (non parlo del 3770K perchè è sul 22nm) produce una potenza simile all'8350 ma con meno W TDP, vuol dire che l'IPC/silicio del 2600K ha una riuscita migliore rispetto alle caratteristiche IPC/silicio e quindi frequenza, dell'8350, e questo non è colpa di altri, ma è comunque di GF ma anche di AMD... perchè un 8150 secondo me non aveva i requisiti per iniziare la commercializzazione.
Se poi riflettiamo... cosa fa Intel sul tic-toc fondamentalmente? Realizza una nuova architettura UNICAMENTE su un silicio già rodato, cioè conosce le massime frequenze ottenibili, conosce il TDP per X transistor, eccetera eccetera. Quindi sulla base di questo imposta i vari parametri affinchè il silicio possa sfruttare il più possibile l'architettura. Quando invece passa ad una miniaturizzazione superiore, si porta dietro la vecchia architettura, ma qui il rischio è minimo, perchè difficilmente, ad esempio, un 22nm potrà offrire qualità peggiori di un 32nm.
P.S.
Se do' fastidio con i miei meandri neuronali, scrivetemelo... :sofico:
filo mc-ati crossfire
20-11-2012, 20:08
Indubbiamente... Secondo me, aveva visto giusto quel tipo che sul giudizio 8150 aveva detto (occhio e croce): "BD è una buona architettura, l'8150 non ha un problema in particolare, ma un insieme di problemi più o meno piccoli che sommati segano le prestazioni".
Il prefetch in AMD ha sempre fatto pena rispetto alla controparte Intel, la latenza delle cache, idem, aggiungici la fretta di ultimare il prodotto, queste sono tutte cose che prese singolarmente avrebbero una bassa incidenza sull'IPC, ma una volta sommate, diventano una perdita importante.
Poi si deve anche valutare il fatto che se l'architettura è stata realizzata per una frequenza X, se fatta lavorare ad una frequenza più bassa non c'è solamente il mancato guadagno derivante da una frequenza inferiore, ma c'è anche una effettiva perdita di IPC, anche fosse solamente dell'1%, che si somma ai prb sopra.
Cioè... se io prendo una DDR3 2,4, 10-12-12, e al posto di 2,4GHz la faccio lavorare a 2GHz, non si hanno perdite SE modifico i timing in 9-9-9, ma purtroppo con un procio non lo si puo' fare. Probabile che una parte di incremento IPC di PD derivi anche da questo, anche se con AIDA facendo i bench cache/ram, non mi è parso differente.
Che vi sia un differente consumo con l'aumentare delle frequenze, non ci piove, però bisogna aggiungere il parametro a parità di architettura e a parità di silicio. Facendo un esempio... un SBe X6 a 3,5GHz è 150W TDP, un 8350 ha 25W TDP in meno con 500MHz in più e i 3,5GHz sono già applicati ad un Pstate intermedio di risparmio energetico...
Questo è possibile perchè appunto l'IPC dell'8350 è inferiore all'SBe, perchè il consumo (e calore parlando di TDP) si genera nel cambio di stato dei transistor. Un IPC maggiore significa che le parti logiche hanno una potenza superiore, con un numero superiore di transistor che cambiano di stato.
Poi è chiaro che se un 2600K per 95W (non parlo del 3770K perchè è sul 22nm) produce una potenza simile all'8350 ma con meno W TDP, vuol dire che l'IPC/silicio del 2600K ha una riuscita migliore rispetto alle caratteristiche IPC/silicio e quindi frequenza, dell'8350, e questo non è colpa di altri, ma è comunque di GF ma anche di AMD... perchè un 8150 secondo me non aveva i requisiti per iniziare la commercializzazione.
Se poi riflettiamo... cosa fa Intel sul tic-toc fondamentalmente? Realizza una nuova architettura UNICAMENTE su un silicio già rodato, cioè conosce le massime frequenze ottenibili, conosce il TDP per X transistor, eccetera eccetera. Quindi sulla base di questo imposta i vari parametri affinchè il silicio possa sfruttare il più possibile l'architettura. Quando invece passa ad una miniaturizzazione superiore, si porta dietro la vecchia architettura, ma qui il rischio è minimo, perchè difficilmente, ad esempio, un 22nm potrà offrire qualità peggiori di un 32nm.
P.S.
Se do' fastidio con i miei meandri neuronali, scrivetemelo... :sofico:
paolo,scusa la mia domanda forse STUPIDISSIMA,ma l'ipc,cosa sarebbe?questo non lo so' purtroppo!
Indubbiamente... Secondo me, aveva visto giusto quel tipo che sul giudizio 8150 aveva detto (occhio e croce): "BD è una buona architettura, l'8150 non ha un problema in particolare, ma un insieme di problemi più o meno piccoli che sommati segano le prestazioni".
Il prefetch in AMD ha sempre fatto pena rispetto alla controparte Intel, la latenza delle cache, idem, aggiungici la fretta di ultimare il prodotto, queste sono tutte cose che prese singolarmente avrebbero una bassa incidenza sull'IPC, ma una volta sommate, diventano una perdita importante.
Poi si deve anche valutare il fatto che se l'architettura è stata realizzata per una frequenza X, se fatta lavorare ad una frequenza più bassa non c'è solamente il mancato guadagno derivante da una frequenza inferiore, ma c'è anche una effettiva perdita di IPC, anche fosse solamente dell'1%, che si somma ai prb sopra.
Se non erro l'analisi l'aveva fatta sempre Charlie. E alla fine diceva anche che se la colpa di GF c'è, è in realtà molto bassa, proprio perchè ci sono tantissimi punti in cui si perde poco IPC per volta (e con PD si è solo cominciato a lavorare in questo senso).
Il prefetch di AMD non sapevo che avesse sempre fatto pena. Però ad esempio posso dirti che la branch prediction è fonte di veramente tantissimi studi universitari per capire quanto debba essere pesante. E parlo di uno studio che c'è da veramente tantissimi anni. In pratica da prima che esiste la branch prediction.
Anche il MC comunque non è questo mostro. Le prestazioni della RAM sono SEMPRE inferiori ai processori Intel di pari periodo (e spesso anche di processori precedenti). E anche il fatto che AMD certifica il funzionamento di banchi a 1866 ma con 4 lo assicura fino a 1600 mi da una conferma ulteriore.
Quindi anche qui, va ottimizzato il MC e non praticamente solo aumentata la frequenza di esso. Cioè, se oggi riescono a portarlo alla pari di Intel, per me potrebbero anche rimodificarlo tra 5 anni. Ma vedere ram che potrebbero arrivare a 17GB/s stroncate a 12 per l'inefficenza del controller, che è anche integrato nella CPU da un bel po', è veramente brutto. Ed è ancora più brutto vedere che anno per anno le prestazioni di un MC, che è appena discreto, rimanere pressochè invariate.
Ovviamente i numeri sono su configurazioni multibanco (io al momento faccio quasi 9GB/s con un banco solo).
Che vi sia un differente consumo con l'aumentare delle frequenze, non ci piove, però bisogna aggiungere il parametro a parità di architettura e a parità di silicio. Facendo un esempio... un SBe X6 a 3,5GHz è 150W TDP, un 8350 ha 25W TDP in meno con 500MHz in più e i 3,5GHz sono già applicati ad un Pstate intermedio di risparmio energetico....
Certamemte.
Ed è proprio questo il fatto. Anzi, la mossa di Intel di proporre un processore a 150w ma sempre a 6 core (invece di sbloccare gli altri 2) mi è sembrata un po' una presa per i fondelli a AMD, senza contare che se sbloccavano gli altri due core dei SB-E gli sviluppatori avrebbero cominciato ad aumentare ulteriormente la parallelizzazione del codice, portandola da 12 a 16 thread contemporanei. E come sappiamo l'architettura di AMD riesce a far eseguire anche altri task molto più fluidamente delle controparti Intel dal prezzo simile.
Poi è chiaro che se un 2600K per 95W (non parlo del 3770K perchè è sul 22nm) produce una potenza simile all'8350 ma con meno W TDP, vuol dire che l'IPC/silicio del 2600K ha una riuscita migliore rispetto alle caratteristiche IPC/silicio e quindi frequenza, dell'8350, e questo non è colpa di altri, ma è comunque di GF ma anche di AMD... perchè un 8150 secondo me non aveva i requisiti per iniziare la commercializzazione.
Certamente. Bulldozer non era assolutamente pronto, e ormai ha infangato il marchio FX, quindi mi aspetto che con Steamroller (sperando sempre nel +30% di IPC e con una consistente riduzione della dimensione del die portato dalle HDL) cambino marchio commerciale, anche mantenendo sempre gli stessi codename (che non interessano alla massa).
Ad esempio le APU non hano problemi sotto questo punto di vista, perchè nel passaggio da Stars a Piledriver ne ha solo guadagnato.
In pratica intendo una mossa come quella di Intel. Ha creato i Pentium 4 Prescott che hanno infangato il nome. Quindi vuoi un po' la vetustità del marchio, vuoi l'infangatura del nome, si è passati al marchio Core. Anche se inizialmente non erano altro che Pentium modificati e multicore.
Quando invece passa ad una miniaturizzazione superiore, si porta dietro la vecchia architettura, ma qui il rischio è minimo, perchè difficilmente, ad esempio, un 22nm potrà offrire qualità peggiori di un 32nm.
Il grande vantaggio del tick-tock di Intel è proprio questo.
Portando un'architettura ad un pp nuovo non ha solo il tempo necessario per sfruttarlo al meglio con l'architettura successiva, ma nasconde alla perfezione i problemi iniziali che potrebbe avere il nuovo TDP, tolti ovviamente quelli di resa.
Ad esempio a me sembra strano che un 2600k producesse un TDP di 95w mentre un 3570k (che va praticamente quanto un 2600k, tranne pochi casi) ne produce 77. Perchè si parla dell'uso SIA dei 22nm (quindi minori consumi assicurati) che dell'uso del FinFET (che migliorano sia le prestazioni che i consumi). Cioè, parliamo di 18W in meno utilizzando tecnologie che in linea teorica portano anche ad una riduzione (a parità di transistor, IPC ecc.) più del 30% dei consumi, mentre qui arriviamo appena a toccare il 19%. E contando un aumento di frequenza di 100 Mhz (ipotizzando 2 W in più di consumo clock to clock) arriviamo giusto al 20%.
E il pp è un punto molto cruciale. Intel non riesce a sfruttare appieno le proprie fab a 22 nm, tantè che sono al 50% e forse dovranno anche fermarsi in futuro per eccessi di magazzino, GF dovrebbe creare i 28 solo per un anno per poi passare direttamente ai 20. Cioè, chi gliela fa fare? Passi ai 28 nm e l'anno dopo passi direttamente ai 20, mantenendo comunque le fab a 28 attive, ma in un anno dovrebbe coprire i costi e generare i ricavi per investimenti futuri. Quindi, o GF ha già accordi con tante aziende minori (non AMD ovviamente, che di rimanere ai 28 non ne ha bisogno) oppure i suoi 28 li vedo proprio male.
paolo,scusa la mia domanda forse STUPIDISSIMA,ma l'ipc,cosa sarebbe?questo non lo so' purtroppo!
È l'acronimo di Instructions per Clock.
Serve per determinare, in base a dei test standardizzati, quante istruzioni riesce asd elaborare un processore (è un test valido sia CPU che GPU, ovviamente i test sono diversi) in un singolo ciclo di clock.
Un tempo (parliamo di 40 anni fa) si calcolava in CPI, clock per instruction.
Va da se che se io calcolo FINO A una sola istruzione per ciclo di clock va bene, ma poi appena aumenta la complessità della CPU non va più bene, perché con un CPI alto avresti valori come 0.25 che non sono adatti a calcoli più veloci e che danno poco l'idea prestazionale e farebbero pensare a poca potenza.
Al contrario l'IPC con il tempo tende asd aumentare e non da praticamente mai valori inferiori a 1.
Inviato dal mio GT-I9000 con Tapatalk 2
paolo.oliva2
20-11-2012, 22:41
paolo,scusa la mia domanda forse STUPIDISSIMA,ma l'ipc,cosa sarebbe?questo non lo so' purtroppo!
Ti hanno già risposto, aggiungo solamente:
istruzioni per clock, elaborate da un core. Più alto è l'IPC, maggiore saranno le istruzioni elaborate a ciclo di clock.
Ti aggiungo alcune cose... giusto per comprendere un po' meglio.
L'IPC di per sè non dice veramente tutto del procio, perchè all'IPC deve seguire anche la frequenza a cui lavora il procio... esempio:
1 core IPC 100 a 1GHz e 1 core IPC 50 a 2GHz avrebbero la stessa potenza, ma con IPC differenti.
Purtroppo è un modo di misura vecchio perchè è nato quando i processori avevano 1 solo core e quindi nasce con la logica di un programma su un core. Questo cosa comporta? Che se ad esempio prendi un FX X4, un FX X6 ed un FX X8, l'IPC è il medesimo, mentre se utilizzi un programma che può sfruttare tutti i core presenti nel procio, un FX X6 sarebbe del 50% più veloce dell'FX X4 ed un FX X8 lo sarebbe del doppio riferito all'X4 e del 33% riferito all'X6.
Allora l'IPC andrebbe moltiplicato anche per il numero dei core? NO!:D .
Per rendere il tutto ancor più incasinato, sia Intel che AMD hanno trovato 2 soluzioni per aumentare la potenza con il minimo incremento di transistor, ma questo ha implicato 2 modi di agire distinti:
L'SMT ed il CMT.
L'SMT lo adotta Intel, e si avvale del fatto che un programma non sfrutta mai al 100% il core, ma un valore inferiore. L'SMT praticamente sfrutta i tempi morti in cui il core non viene sfruttato per raggiungere il 100%, e la logica è che i transistor utilizzati per l'SMT producono una potenza maggiore con un numero inferiore di transistor rispetto all'aggiunta di 1 core "normale",
Il CMT, invece, riduce il numero di transistor perchè condivide delle parti tra i 2 core.
In entrambi i modi, il 2° core (logico in Intel e fisico in AMD) non arriva mai al valore IPC assegnato al core. In Intel è il 25% dell'IPC, in AMD è il 70%.
Quindi, sempre secondo me, per inquadrare la reale potenza di un procio (non ti incasino perchè ci sarebbe pure la scalabilità, cioè se il guadagno di prestazioni è più o meno proporzionato all'aumentare dei core), bisogna:
Intel:
IPC a core, +25% dell'SMT, * la frequenza operativa * (il numero di TH eseguibili /2).
con processori che non utilizzano l'HT, cioè senza SMT:
IPC a core, * la frequenza operativa * il numero di core.
AMD
Con Buldozer:
IPC a core, +70% del CMT, * la frequenza operativa * il numero di moduli presenti oppure (il numero di core presenti /2).
Con il Phenom II
IPC a core, * la frequenza operativa * il numero dei core.
Se non ti è chiaro... sono qua.
digieffe
21-11-2012, 01:24
Certamemte.
Ed è proprio questo il fatto. Anzi, la mossa di Intel di proporre un processore a 150w ma sempre a 6 core (invece di sbloccare gli altri 2) mi è sembrata un po' una presa per i fondelli a AMD, senza contare che se sbloccavano gli altri due core dei SB-E gli sviluppatori avrebbero cominciato ad aumentare ulteriormente la parallelizzazione del codice, portandola da 12 a 16 thread contemporanei. E come sappiamo l'architettura di AMD riesce a far eseguire anche altri task molto più fluidamente delle controparti Intel dal prezzo simile.
io penso che, per il momento intel non abbia voluto svalutare la fascia 8 core riservandola agli xeon.
I 150w dimostrano altresì quanto sia sensibile il pp impiegato per quella cpu al leakage, NON credo proprio si tratti di un aumento di consumo lineare.
Ad esempio a me sembra strano che un 2600k producesse un TDP di 95w mentre un 3570k (che va praticamente quanto un 2600k, tranne pochi casi) ne produce 77. Perchè si parla dell'uso SIA dei 22nm (quindi minori consumi assicurati) che dell'uso del FinFET (che migliorano sia le prestazioni che i consumi). Cioè, parliamo di 18W in meno utilizzando tecnologie che in linea teorica portano anche ad una riduzione (a parità di transistor, IPC ecc.) più del 30% dei consumi, mentre qui arriviamo appena a toccare il 19%. E contando un aumento di frequenza di 100 Mhz (ipotizzando 2 W in più di consumo clock to clock) arriviamo giusto al 20%.
- perchè il 2600k lo paragoni al 3570k che è senza ht e non al 3770k che ha l'ht, ha frequenze più alte ed è sempre 77w?
- (a memoria) la gpu del 3770k è più potente (del 50%) rispetto al 2600k.
- se guardi il grafico del risparmio del FinFet è notevole a frequenze basse ma poi tende agli stessi consumi del "tradizionale" a frequenze elevate.
- il 3,3% di frequenza in più su 3 ghz sono 100mhz i quali aumentano il consumo di 1,033^2 = 6.7% quindi ~5W
E il pp è un punto molto cruciale. Intel non riesce a sfruttare appieno le proprie fab a 22 nm, tantè che sono al 50% e forse dovranno anche fermarsi in futuro per eccessi di magazzino, GF dovrebbe creare i 28 solo per un anno per poi passare direttamente ai 20. Cioè, chi gliela fa fare? Passi ai 28 nm e l'anno dopo passi direttamente ai 20, mantenendo comunque le fab a 28 attive, ma in un anno dovrebbe coprire i costi e generare i ricavi per investimenti futuri. Quindi, o GF ha già accordi con tante aziende minori (non AMD ovviamente, che di rimanere ai 28 non ne ha bisogno) oppure i suoi 28 li vedo proprio male.
su questo concordo, speriamo solo che sia vero il salto diretto ai 20 nm.
digieffe
21-11-2012, 01:29
In entrambi i modi, il 2° core (logico in Intel e fisico in AMD) non arriva mai al valore IPC assegnato al core. In Intel è il 25% dell'IPC, in AMD è il 70%.
Quindi, sempre secondo me, per inquadrare la reale potenza di un procio (non ti incasino perchè ci sarebbe pure la scalabilità, cioè se il guadagno di prestazioni è più o meno proporzionato all'aumentare dei core), bisogna:
Intel:
IPC a core, +25% dell'SMT, * la frequenza operativa * (il numero di TH eseguibili /2).
con processori che non utilizzano l'HT, cioè senza SMT:
IPC a core, * la frequenza operativa * il numero di core.
AMD
Con Buldozer:
IPC a core, +70% del CMT, * la frequenza operativa * il numero di moduli presenti oppure (il numero di core presenti /2).
Con il Phenom II
IPC a core, * la frequenza operativa * il numero dei core.
Se non ti è chiaro... sono qua.
Eppure, da quel po' che ho visto dell'architettura di Haswell, sarei pronto a scommettere che quel +25% oscillerà vicino al 40% (solo per l'HT).
paolo.oliva2
21-11-2012, 02:12
Eppure, da quel po' che ho visto dell'architettura di Haswell, sarei pronto a scommettere che quel +25% oscillerà vicino al 40% (solo per l'HT).
In teoria... il 100% è dato dalla massima potenza INT ed FP del core sfruttato al 100%. Per quanto sia, per arrivare al 40% l'SMT, vuol dire che il programma a monte non ne puo' sfruttare più del 60% del potenziale core... non puo' venire fuori un risultato superiore al 100% su un core che massimo può dare 100... altrimenti non si potrebbe parlare più di SMT nel vero senso della parola.:sofico:. Per assurdo... sarebbe interessante applicare l'SMT al CMT.... verrebbe un ibrido con i fiocchi.
digieffe
21-11-2012, 02:30
In teoria... il 100% è dato dalla massima potenza INT ed FP del core sfruttato al 100%. Per quanto sia, per arrivare al 40% l'SMT, vuol dire che il programma a monte non ne puo' sfruttare più del 60% del potenziale core... non puo' venire fuori un risultato superiore al 100% su un core che massimo può dare 100... altrimenti non si potrebbe parlare più di SMT nel vero senso della parola.:sofico:. Per assurdo... sarebbe interessante applicare l'SMT al CMT.... verrebbe un ibrido con i fiocchi.
infatti avendo aggiunto altre 2 porte (oltre le 6 già esistenti) sarà IMHO difficile sfruttarle tutte dando un recupero in HT.
PS: ha 4 alu int per core + il resto
EDIT: alcune precisazioni:
- 80% -> ht +25%
- 75% -> ht +33%
- 71% -> ht +40%
Per assurdo... sarebbe interessante applicare l'SMT al CMT.... verrebbe un ibrido con i fiocchi.
Non so se e quanto sia possibile.
L'SMT punta alla duplicazione di alcune.unità mentre il CMT punta ad eliminare quelle superflue e che vengono sfruttate solo in parte.
In ogni caso se fosse possibile sarebbe molto interessante... Anche perché l'SMT aumenta abbastanza la potenza sfruttando pochi transistor.
E potrebbe, nel caso, essere un grande vantaggio. Perché comunque programmi adatti al CMT ce ne sono pochissimi, mentre programmi che sfruttano saggiamente l'SMT ce ne sono tanti, anche per questioni di età.
io penso che, per il momento intel non abbia voluto svalutare la fascia 8 core riservandola agli xeon.
I 150w dimostrano altresì quanto sia sensibile il pp impiegato per quella cpu al leakage, NON credo proprio si tratti di un aumento di consumo lineare.
- perchè il 2600k lo paragoni al 3570k che è senza ht e non al 3770k che ha l'ht, ha frequenze più alte ed è sempre 77w?
- (a memoria) la gpu del 3770k è più potente (del 50%) rispetto al 2600k.
- se guardi il grafico del risparmio del FinFet è notevole a frequenze basse ma poi tende agli stessi consumi del "tradizionale" a frequenze elevate.
- il 3,3% di frequenza in più su 3 ghz sono 100mhz i quali aumentano il consumo di 1,033^2 = 6.7% quindi ~5W
Effettivamente non avevo contato cose come la GPU integrata... :)
Per quanto riguarda il paragone tra 2600 e 3570 era perché generano la stessa potenza all'incirca. ;)
Inviato dal mio GT-I9000 con Tapatalk 2
Phenomenale
21-11-2012, 08:09
Naturalmente non c'è bisogno di ricordare che, parlando di TDP delle CPU, parliamo di scaglioni massimi di tutta la famiglia e non della potenza precisa di uno specifico modello. :fagiano:
filo mc-ati crossfire
21-11-2012, 08:25
Ti hanno già risposto, aggiungo solamente:
istruzioni per clock, elaborate da un core. Più alto è l'IPC, maggiore saranno le istruzioni elaborate a ciclo di clock.
Ti aggiungo alcune cose... giusto per comprendere un po' meglio.
L'IPC di per sè non dice veramente tutto del procio, perchè all'IPC deve seguire anche la frequenza a cui lavora il procio... esempio:
1 core IPC 100 a 1GHz e 1 core IPC 50 a 2GHz avrebbero la stessa potenza, ma con IPC differenti.
Purtroppo è un modo di misura vecchio perchè è nato quando i processori avevano 1 solo core e quindi nasce con la logica di un programma su un core. Questo cosa comporta? Che se ad esempio prendi un FX X4, un FX X6 ed un FX X8, l'IPC è il medesimo, mentre se utilizzi un programma che può sfruttare tutti i core presenti nel procio, un FX X6 sarebbe del 50% più veloce dell'FX X4 ed un FX X8 lo sarebbe del doppio riferito all'X4 e del 33% riferito all'X6.
Allora l'IPC andrebbe moltiplicato anche per il numero dei core? NO!:D .
Per rendere il tutto ancor più incasinato, sia Intel che AMD hanno trovato 2 soluzioni per aumentare la potenza con il minimo incremento di transistor, ma questo ha implicato 2 modi di agire distinti:
L'SMT ed il CMT.
L'SMT lo adotta Intel, e si avvale del fatto che un programma non sfrutta mai al 100% il core, ma un valore inferiore. L'SMT praticamente sfrutta i tempi morti in cui il core non viene sfruttato per raggiungere il 100%, e la logica è che i transistor utilizzati per l'SMT producono una potenza maggiore con un numero inferiore di transistor rispetto all'aggiunta di 1 core "normale",
Il CMT, invece, riduce il numero di transistor perchè condivide delle parti tra i 2 core.
In entrambi i modi, il 2° core (logico in Intel e fisico in AMD) non arriva mai al valore IPC assegnato al core. In Intel è il 25% dell'IPC, in AMD è il 70%.
Quindi, sempre secondo me, per inquadrare la reale potenza di un procio (non ti incasino perchè ci sarebbe pure la scalabilità, cioè se il guadagno di prestazioni è più o meno proporzionato all'aumentare dei core), bisogna:
Intel:
IPC a core, +25% dell'SMT, * la frequenza operativa * (il numero di TH eseguibili /2).
con processori che non utilizzano l'HT, cioè senza SMT:
IPC a core, * la frequenza operativa * il numero di core.
AMD
Con Buldozer:
IPC a core, +70% del CMT, * la frequenza operativa * il numero di moduli presenti oppure (il numero di core presenti /2).
Con il Phenom II
IPC a core, * la frequenza operativa * il numero dei core.
Se non ti è chiaro... sono qua.
chiarissimo,ma allora mi chiedo,amd queste cose non le sà? lol
aumentare questo ipc,implicherebbe il costo di produzione? o è una cosa che proprio loro non contano,per quanto dovrebbe contare su una cpu?
cmq ho deciso,a natale mi autoregao un fx-8350!
Dark_Immortal_Scream
21-11-2012, 09:03
disperazione stavo per acquistare un AMD FX X8 8350 16MB per la mia gygabite GA-990FXA-D3 ma sulla lista processori compatibili questo modello NON c'è e su tutte le altre anche modelli inferiori lo da compatibile!! a me sembra più un problema di aggiornamento sito http://it.gigabyte.com/products/page...d3rev_10/news/
Qualcuno può darmi una dritta?
chiarissimo,ma allora mi chiedo,amd queste cose non le sà? lol
aumentare questo ipc,implicherebbe il costo di produzione? o è una cosa che proprio loro non contano,per quanto dovrebbe contare su una cpu?
cmq ho deciso,a natale mi autoregao un fx-8350!
Aumentare l'IPC è il costo maggiore dell'aumento di potenza di un'architettura.
AMD queste cose le sa benissimo, ma deve fare i conti con un bilancio non proprio roseo, quindi abbina un leggero incremento di IPC ad un incremrnto consistente della frequenza operativa della CPU.
Inviato dal mio GT-I9000 con Tapatalk 2
netcrusher
21-11-2012, 09:32
disperazione stavo per acquistare un AMD FX X8 8350 16MB per la mia gygabite GA-990FXA-D3 ma sulla lista processori compatibili questo modello NON c'è e su tutte le altre anche modelli inferiori lo da compatibile!! a me sembra più un problema di aggiornamento sito http://it.gigabyte.com/products/page...d3rev_10/news/
Qualcuno può darmi una dritta?
mi dispiace ma la tua motherboard non supporta nemmeno l'FX-8150 (arriva fino all' FX-8140), la tua motherboard ha 4+1 fasi e quindi non è ottimale per cpu che richiedono una regolazione di voltaggio maggiore come l'FX-8350 che non a caso è compatibile solo con le motherboards che hanno 8+2 fasi per la regolazione dei voltaggi.
paolo.oliva2
21-11-2012, 09:50
concordo sul calcolo della potenza cpu, ma hai tralasciato un fattore attualmente importante secondo me... lo sfruttamento attuale del software sull'hardware... in base al tuo calcolo teoricamente già ora l'architettura amd raggiunge intel colmando il gap del 50% di IPC in meno (esempio grezzo al cinebench in ST a 3.8ghz, PD fa circa 1 e SB circa 1.5 a parità di clock) grazie al CMT, ma non sempre quel +70% funziona purtroppo perchè è una variabile e non una costante, cosi come SMT...
per fare numeri, portanto le frequenze a 3.8ghz all'incirca e contando a pieno lo sfruttamento software:
intel: 1.5 +25% x 3.8ghz x 8/2 = 28 (2600k)
amd: 1.0 +70% x 3.8ghz x 8/2 = 26 (8350k)
infatti al cinebench fanno uguale anzi sta davanti 8350 perchè sale un pelo in frequenza rispetto al 3.8ghz e il 2600k non arriva a 3.8ghz...
ma se lo sfruttamento non c'è, con cosa puoi colmare il gap? solo con la frequenza... per cui a parità di fattori avrai amd indietro del 50% dovuto all'IPC inferiore...
intel: 1.5 x 3.8ghz x 4 = 22 (2600k)
amd: 1.0 x 3.8ghz x 4 = 15 (8350k)
per cui il vantaggio è che intel ha di base una COSTANTE superiore al 50% rispetto amd, che dove il software non sfrutta il CMT viene fuori...
ok il CMT è nato da poco al contrario dell'SMT rodato da 10 anni ormai, ma se il software non decolla c'è poco da fare, contando poi che non tutto è parallelizzabile e questo loro lo devono mettere bene in conto... come fai ad appellarti contro le software house che il codice è castrato quando ricopri il 15/20% del mercato cpu desktop?... per non contare il mercato server che non so la %... 2 domande me le farei...
Non ti seguo... cioè, quando si parla di ST Intel è +50%, quando si parla MT inteso come modulo vs 1 core + SMT, la differenza si riduce (vedi 8350 vs 3770K)... Poi è chiaro che se prendiamo il software ST o comunque software che per numero di TH non supera il numero di core fisici, la differenza è simile all'ST... Però, per il software attuale, un 6300 andrebbe bene perchè oltre i 3 moduli è chiaramente un uso MT... in questo un X2 Intel sarebbe stretto ma un X4 starebbe largo. Poi è chiaro che se si parla di SBe X6, lo si faccia con cognizione di causa, nel senso che l'acquisto di un SBe X6 per un uso non MT, avrebbe lo stesso valore di uno che si compra la Ferrari per andare da casa al bar a prendere il caffé con il limite di 50km/h, lo si puo' fare, ma si azzerano i vantaggi di 2 core in più.
Ma la vera differenza è che AMD ha massimo un 4 moduli nel desktop, Intel ha un X6. Per fronteggiare un SBe X6, ad AMD servirebbe un 6 moduli ovvero X12, con l'IPC/frequenze attuali, ovvero 450mm2 di silicio...
digieffe
21-11-2012, 11:10
Qualcuno nei giorni passati scriveva di usura a seguito di undervolting:
- Sto testando l'undervolt su 3 cpu amd (65 e 45 nm SOI). (penso che lo farò anche con 1 cpu intel 65 nm)
sapete dirmi se è vero che c'è una forma di usura? e quali sono i motivi di tale usura?
ci sono cpu/processi produttivi/condizioni particolari colpite da questa usura?
avete anche qualche link a documentazione?
Grazie
EDIT: per il momento, non ho trovato nulla sia in italiano che in inglese.
scusate se mi intrometto nella discussione ma voi parlate sempre di cpu top di gamma come il 8350 ma come me che è interessato al 6300 trovo poco nulla in giro per forum o siti.Qundi voi che mi sembtate esperti potete darmi un giudizio su questa cpu?magari differenze tra un i3 o i5,io uso il pc per home e per giocare ogni tanto.la mia attual config è:
intel e6600
asus p5b
ati 6870
mi dispiace ma la tua motherboard non supporta nemmeno l'FX-8150 (arriva fino all' FX-8140), la tua motherboard ha 4+1 fasi e quindi non è ottimale per cpu che richiedono una regolazione di voltaggio maggiore come l'FX-8350 che non a caso è compatibile solo con le motherboards che hanno 8+2 fasi per la regolazione dei voltaggi.
FX 8320 consuma sicuramente meno dell'FX 8120 e già quello andrebbe meglio dell'8150. Il top di gamma ovviamente richiede più potenza ed è normale che non sia supportato. Se supporta un FX 8140 non so come mai non supporta l'8320.
filo mc-ati crossfire
21-11-2012, 11:44
scusate se mi intrometto nella discussione ma voi parlate sempre di cpu top di gamma come il 8350 ma come me che è interessato al 6300 trovo poco nulla in giro per forum o siti.Qundi voi che mi sembtate esperti potete darmi un giudizio su questa cpu?magari differenze tra un i3 o i5,io uso il pc per home e per giocare ogni tanto.la mia attual config è:
intel e6600
asus p5b
ati 6870
Bhe passi dalle stelle alle stalle,e6600,ha un architettura del 1900 praticamente ,confrontato ad un fx-6300...
Io personalmente sono passato da un e5400 a 4,200 ghz,ad un fx-6100 portato anche esso in oc oltre i 4,70 ghz,la differenza è tanta!e con un fx-6300,ancor di +,visto che da come ho capito il nuovo 6300,dovrebbe essere circa il 15% + performante del mio 6100,CORREGGETEMI SE SBAGLIO!
scusate se mi intrometto nella discussione ma voi parlate sempre di cpu top di gamma come il 8350 ma come me che è interessato al 6300 trovo poco nulla in giro per forum o siti.Qundi voi che mi sembtate esperti potete darmi un giudizio su questa cpu?magari differenze tra un i3 o i5,io uso il pc per home e per giocare ogni tanto.la mia attual config è:
intel e6600
asus p5b
ati 6870
Con una 6870 una CPU di AMD non ti limita da nessuna parte.
La differenza è che generalmente.i processori di AMD su Piledriver (serie x300) vanno generalmente meglio di un Intel di pari costo. Però consumano di più.
Se invece intendi cambiare presto la grafica con una molto più potente, fino ad una 7870 non hai problemi di CPU limite, oltre invece il rischio c'è e varia da gioco a gioco.
Inoltre non so dirti come vadano online con BF3 (se ci giochi, nell'online è uno dei giochi più esosi di CPU) in quanto test in merito non me sono stati fatti.
In ogni caso, passando da un e6600 avresti un vantaggio anche in daily use.
Ad esempio il browser gioverebbe della maggiore potenza del processore.
Inviato dal mio GT-I9000 con Tapatalk 2
scusate se mi intrometto nella discussione ma voi parlate sempre di cpu top di gamma come il 8350 ma come me che è interessato al 6300 trovo poco nulla in giro per forum o siti.Qundi voi che mi sembtate esperti potete darmi un giudizio su questa cpu?magari differenze tra un i3 o i5,io uso il pc per home e per giocare ogni tanto.la mia attual config è:
intel e6600
asus p5b
ati 6870
Guarda QUI (http://www.anandtech.com/bench/Product/699?vs=53)...
Tieni conto che ho preso in esame Q6600 vs FX6300... Come puoi tu stesso vedere non c'è nemmeno paragone...
paolo.oliva2
21-11-2012, 11:52
in che senso non mi segui?... ho solo tradotto in numeri il tuo calcolo sulla potenza procio che è giusto, ma solo che in base al software utilizzato quel +25% del SMT e +70% del CMT possono diventare +0% essendo una variabile e non una costante... la cosa invece costante è IPC che sarà sempre 1 per PD e 1.5/1.6 per SB/IB a parità di frequenza circa 3.7/3.8ghz...
beh ma SBe infatti ha 435mm2, contro i 220mm2 di SB e 170mm2 di IB e 315mm2 di Vishera... per cui torna con i 450mm2 di un vishera x12... solo che di quei 435mm2 lo devi moliplicare per 6/8 dato che 2 core sono spenti, per cui 325mm2 per SBe x6 e 435mm2 per SBe x8 teorico non castrato... ma siamo sempre li, il CMT occupa il 40% in più del SMT a mm2 per prestazioni con un +20% di TDP che però dipende per metà dal silicio scarso attuale...
ovvio che vedere allo stato attuale un SMT rodato da 10 anni contro un CMT da 1 è una sfida ovvia persa già, ma bisogna dargli tempo sempre se amd ci tenga a proseguire la sua crociata...
Non avevo capito io... si si.
tu sai mica un Abu Dhabi a 12 core quanto sia in mm2?... perchè non sono riuscito a trovare nulla a parte i soliti 315mm2, ma ovvio che si intende per x8 e per 2 sullo stesso die farebbe 630mm2 con x16... farebbe circa 470mm2 un x12
http://www.cpu-world.com/CPUs/Bulldozer/AMD-Opteron%206348%20-%20OS6348WKTCGHK.html guarda questo x12 115w tdp
Abu Dhabi sarebbe la variante server di PD...
:confused: ma parli di un X12 nativo o di 2 die X6 sullo stesso package? Io sono fermo che al massimo PD offre 4 moduli a die...
Poi non sapevo che l'SBe è 435mm2... pensavo molto meno, sui 300-350mm2. Allora la differenza transistor/potenza è meno tragica di quella che pensavo.
Edit
Abu Dhabi mi sembra sia il classico die X8 nativo come Piledriver... 2 nello stesso package per configurazioni >8X =<16X, perchè riportano 2x8MB di cache L3... se fosse nativo, metterebbero 1x16MB. Quindi sarebbe 630mm2 un X16...
P.S.
Maximum operating temperature 70.4°C per un Opteron... quindi presumo che un 8350 dovrebbe poter arrivare sui 75° come temp massima senza problemi... valutando che in ambito Server i limiti dovrebbero essere più conservativi.
Dark_Immortal_Scream
21-11-2012, 11:57
mi dispiace ma la tua motherboard non supporta nemmeno l'FX-8150 (arriva fino all' FX-8140), la tua motherboard ha 4+1 fasi e quindi non è ottimale per cpu che richiedono una regolazione di voltaggio maggiore come l'FX-8350 che non a caso è compatibile solo con le motherboards che hanno 8+2 fasi per la regolazione dei voltaggi.
sei stato molto gentile nel rispondermi un ultima cosa volevo chiederti.. ma se ci monto lo stesso la CPU in questione ho solo il problema che non la sfrutto al 100%?
Bhe passi dalle stelle alle stalle,e6600,ha un architettura del 1900 praticamente ,confrontato ad un fx-6300...
Io personalmente sono passato da un e5400 a 4,200 ghz,ad un fx-6100 portato anche esso in oc oltre i 4,70 ghz,la differenza è tanta!e con un fx-6300,ancor di +,visto che da come ho capito il nuovo 6300,dovrebbe essere circa il 15% + performante del mio 6100,CORREGGETEMI SE SBAGLIO!
grzie mille della risposta
Con una 6870 una CPU di AMD non ti limita da nessuna parte.
La differenza è che generalmente.i processori di AMD su Piledriver (serie x300) vanno generalmente meglio di un Intel di pari costo. Però consumano di più.
Se invece intendi cambiare presto la grafica con una molto più potente, fino ad una 7870 non hai problemi di CPU limite, oltre invece il rischio c'è e varia da gioco a gioco.
Inoltre non so dirti come vadano online con BF3 (se ci giochi, nell'online è uno dei giochi più esosi di CPU) in quanto test in merito non me sono stati fatti.
In ogni caso, passando da un e6600 avresti un vantaggio anche in daily use.
Ad esempio il browser gioverebbe della maggiore potenza del processore.
Inviato dal mio GT-I9000 con Tapatalk 2[/QUOTE]
no non intendo cambiare presto la gpu a meno di rotture.cosa vuol dire di precisi cpu limite?a me serve un pc che duri come prestazioni per qualche anno(penso che si capisca dalla mia attuale configurazione :D )
Guarda QUI (http://www.anandtech.com/bench/Product/699?vs=53)...
Tieni conto che ho preso in esame Q6600 vs FX6300... Come puoi tu stesso vedere non c'è nemmeno paragone...
effettivamente :eek:
arcaik81
21-11-2012, 12:04
Ciao a tutti, dopo un po' di indecisione mi trovo costretto ad aggiornare il pc e leggendo le varie recensioni mi sn orientato sugli FX, visto che cn amd mi sn sempre trovato bene...
volevo un consiglio su quale motherboard abbinare ad un amd fx 8320, avendo come limite il costo di non più di 90€
Grazie :D
Athlon 64 3000+
21-11-2012, 12:39
http://www.bitsandchips.it/9-hardware/2004-hiroshige-goto-di-pcwatch-parla-di-steamroller
secondo me continuo a ribadire che steamroller non è stato cancellato,ma al max hanno spostato il progetto sui 20nm.
filo mc-ati crossfire
21-11-2012, 12:45
Ciao a tutti, dopo un po' di indecisione mi trovo costretto ad aggiornare il pc e leggendo le varie recensioni mi sn orientato sugli FX, visto che cn amd mi sn sempre trovato bene...
volevo un consiglio su quale motherboard abbinare ad un amd fx 8320, avendo come limite il costo di non più di 90€
Grazie :D
QUOTO, io l'ho presa con l'fx-6100,è ottima in overclock,ed ha un prezzo bassissimo credo che come PREZZO/PRESTAZIONI,abbia poche rivali!
GUARDIAN 77
21-11-2012, 12:45
un consiglio per sostituire il mio Phenom 945.
un fx 4300 o un fx 4170?
mi conviene o aspetto un pò che scende il prezzo dell' fx 8350?
netcrusher
21-11-2012, 12:45
sei stato molto gentile nel rispondermi un ultima cosa volevo chiederti.. ma se ci monto lo stesso la CPU in questione ho solo il problema che non la sfrutto al 100%?
non verrebbe proprio riconosciuta perchè non compresa nella lista dell'ultimo update del BIOS, supponendo che venisse pure riconosciuta la motherboard si brucerebbe in tempi brevi, qui trovi la lista compatibilità con l'ultimo bios:
http://www.gigabyte.com/support-downloads/cpu-support-popup.aspx?pid=3900
netcrusher
21-11-2012, 12:48
FX 8320 consuma sicuramente meno dell'FX 8120 e già quello andrebbe meglio dell'8150. Il top di gamma ovviamente richiede più potenza ed è normale che non sia supportato. Se supporta un FX 8140 non so come mai non supporta l'8320.
l'8140 difatti è 95W come pure l'8120......supporta in alcuni casi le cpu da 125w ma fino a una determinata frequenza, penso sia per via delle 4+1 fasi comunque
http://www.gigabyte.com/support-downloads/cpu-support-popup.aspx?pid=3900
netcrusher
21-11-2012, 12:50
un consiglio per sostituire il mio Phenom 945.
un fx 4300 o un fx 4170?
mi conviene o aspetto un pò che scende il prezzo dell' fx 8350?
sinceramente la serie fx 4000 te la sconsiglio perchè fanno un pò schifetto rispetto alla controparte phenom II , io andrei verso l'8320 sinceramente per il tuo upgrade.
GUARDIAN 77
21-11-2012, 12:55
sinceramente la serie fx 4000 te la sconsiglio perchè fanno un pò schifetto rispetto alla controparte phenom II , io andrei verso l'8320 sinceramente per il tuo upgrade.
ok, quindi avrei pochi miglioramenti rispetto al phenom.
aspetto e prendo un 8320.
NumbersDontL1e
21-11-2012, 12:57
Pochi miglioramenti che neanche ti accorgeresti.
Phenomenale
21-11-2012, 13:06
sinceramente la serie fx 4000 te la sconsiglio
Mi unisco allo sconsiglio :D per un FX-Piledriver attualmente il meglio è l' FX-8320, costa poco di per sè, imho non vale la pena prendere una cpu castrata nei moduli per pochi spiccioli risparmiati.
Guarda che belle recensioni su Newegg da chi l'ha comprata! Very impressive!!! :sofico:
http://www.newegg.com/Product/Product.aspx?Item=N82E16819113285
Mi unisco allo sconsiglio :D per un FX-Piledriver attualmente il meglio è l' FX-8320, costa poco di per sè, imho non vale la pena prendere una cpu castrata nei moduli per pochi spiccioli risparmiati.
Guarda che belle recensioni su Newegg da chi l'ha comprata! Very impressive!!! :sofico:
http://www.newegg.com/Product/Product.aspx?Item=N82E16819113285
Mah guarda se la serie 4xxx pd costasse qualcosa come 70-80€ io un pensierino ce lo farei....
Al prezzo a cui viene venduto ora non è semplicemente acquistabile...
capitan_crasy
21-11-2012, 13:52
http://www.bitsandchips.it/9-hardware/2004-hiroshige-goto-di-pcwatch-parla-di-steamroller
secondo me continuo a ribadire che steamroller non è stato cancellato,ma al max hanno spostato il progetto sui 20nm.
Sarei curioso di vedere la roadmap del Mobile, può darsi che in questo mercato Kaveri esca nel 2013 a 28nm...
Su Richland invece si sta creando un pò di confusione, alcuni dicono che sarà una variante di trinity a 32nm, altri sostengono che sia una APU a 28nm e che ci siano anche CPU ES già in circolazione...
In tutto questo calderone se non interviene prima AMD, bisogna aspettare il Financial Analyst Day 2013...
paolo.oliva2
21-11-2012, 13:55
beh un po' di luce si intravede dopo settimane di mxxxa su amd...
comunque ormai è lecito vedere i piani di amd cambiare ogni 6/12 mesi, senza fabbriche è difficile capire il reale andamento della miniaturizzazione e possibilità su di essa come architettura e upgrade, 50% dipende da lei per l'architettura e 50% da chi gli produce il chip, su questo intel ha un bel vantaggio fino a che riuscirà a gestire i costi di ricerca, sviluppo e produzione delle sue cpu...
Si, e poi anche se Intel si fermasse, dormirebbe tranquilla per un tot...
Tanto IVYe secondo me è pronto fin dall'uscita del 3770K, sta solamente massimizzando i guadagni sull'SBe aspettando la conversione completa delle FAB sul 22nm... per poi (secondo me) IVYe sarà prima disponibile come X6, lasciando l'X8 come secondo passaggio giusto per fare un altro giro di vendite con l'upgrade.
AMD... beh... il plus di potenza del 30% sbandierato... onestamente è molto da interpretare... come del resto è giusto dopo la gaf su Zambesi, che AMD si pari un po' il fondo schiena... :) Il +30% potrebbe essere interpretato come (dal modo negativo a quello più positivo):
+30% visto come guadagno globale, cioè IPC, frequenze, numero dei core totali (e qui un Vishera X10 potrebbe già arrivare a +25% con lo stesso IPC e stesse frequenze).
+30% visto come IPC/frequenze a core singolo all'interno del modulo (IPC core singolo in connubio con le frequenze sarebbe già diverso, perchè comunque si considererebbe la massima frequenza Turbo, più alta della frequenza def totale su tutti i core)
+30% visto come IPC/frequenze a modulo (darebbe un'idea più precisa di quanto possa essere potenziato il modulo, chiaramente con l'X della frequenza)
+30% visto come IPC a core singolo all'interno del modulo
+30% visto come IPC a modulo (come sopra, ma potrebbe risultare pure maggiore considerando un eventuale aumento delle frequenze)
Sullo stile di PD, io sarei propenso a credere +30% inteso come aumento confrontato all'8350, a parità di moduli e considerando unicamente l'IPC perchè mi sembra troppo presto avere una idea chiara sulle frequenze
arcaik81
21-11-2012, 14:04
990FX Extreme3
http://www.asrock.com/mb/overview.it.asp?cat=CPU&Model=990FX%20Extreme3
su trovaprezzi sui 90/100 spedita ed è un chipset 990FX... su quel prezzo penso sia il top per AM3+ e chipset 990FX
Bella, me piace... :eek:
Ok, come prima scelta non c'è male... altre valide?? :read:
DartBizu
21-11-2012, 14:16
Continuate a parlare del 8350 ma del 6350 cosa dite? Per un uso Game può essere una buona soluzione ??
990FX Extreme3
http://www.asrock.com/mb/overview.it.asp?cat=CPU&Model=990FX%20Extreme3
su trovaprezzi sui 90/100 spedita ed è un chipset 990FX... su quel prezzo penso sia il top per AM3+ e chipset 990FX
Questa è una cosa che mi fa rabbia...
ASrock ha semplicemente fatto certificare per Windows 8 le vecchie Mobo, mentre ASUS (che è proprietaria di ASRock), ha fatto leggere modifiche alla Sabertooth e alla Crosshair V (nella CHV-Z ad esempio ha messo una porta SATA in più, ha spostato i pulsanti di accensione onboard e ha modificato l'IO panel) per crearne versioni Windows 8 ready...
Cioè, dai, la tua divisione si fa certificare mobo di un anno fa (così ne ha meno a catalogo e deve aggiornare meno BIOS) e tu fai delle piccole revisioni alle vecchie per puro spirito marchettaro? Senza parole. :mbe:
l'8140 difatti è 95W come pure l'8120......supporta in alcuni casi le cpu da 125w ma fino a una determinata frequenza, penso sia per via delle 4+1 fasi comunque
Si ma l'8140 non si trova praticamente in nessuna parte.
E quei pochi reviewer che lavorano in aziende che vendono prodotti di questo tipo (mi vengono in mente ad esempio Newegg e NCIX negli USA e Canada) quando ne hanno aperto uno a caso e CPU l'ha rilevato come 8140 invece che come 8150 loro stessi dicono "it does not seem to exist in the maret".
E anche con PD si sta ripetendo la stessa solfa. Basti vedere che il 6350 non è stato lanciato eppure i bios lo supportano.
Comunque, il 6300 al prezzo a cui viene venduto è sconveniente. Ti consiglierei di metterci quei 20€ in più e passare ad un 8320.
Posso solo dirti che su pianeta hardware EUropa dovrebbe costare intorno a 150€ + spedizioni (meno di 10 €), dato che un 8350 lo danno a 176. :)
Continuate a parlare del 8350 ma del 6350 cosa dite? Per un uso Game può essere una buona soluzione ??
FX6300 vuoi dire?
Continuate a parlare del 8350 ma del 6350 cosa dite? Per un uso Game può essere una buona soluzione ??
Per il momento ci sono solo 4 processori su piledriver: 8350, 8320, 6300 e 4300.
Il 6350 è supportato dai BIOS in vista di una POSSIBILE uscita futura sul mercato.
in linea di massima sono d'accordo sull'andazzo markkettaro, però hanno migliorato la gestione e le fasi delle ram sia sulla saber che sulla crosshair...
Si però io con una Sabertooth ancora non vedo una versione di AISuiteII per Win 8. Ho dovuto ripiegare sulla versione per la RAMPAGE II (mobo che monta ovviamente processori AMD, come no) che tra l'altro mi rileva al massimo 2 ventole, nemmeno tutte (ne ho 7, di cui 6 collegate alla mobo).
E l'ultima versione per Windows 7 sulla Professional (presa da Dreamspark, quindi attivata legalmente) non funziona, a prescindere da come la avvio.
netcrusher
21-11-2012, 15:04
winebar ma che stai a dì???? asrock non è assolutamente di proprietà asus per la cronoaca
P.S.
Maximum operating temperature 70.4°C per un Opteron... quindi presumo che un 8350 dovrebbe poter arrivare sui 75° come temp massima senza problemi... valutando che in ambito Server i limiti dovrebbero essere più conservativi.
Se è come sui phenom II... più il tdp è alto, più bassa è la temperatura massima consigliata.
Per esempio nei phenom II con 95tdp consigliano 71° mentre i 125tdp sui 64° (vado a memoria)
Diablo III
21-11-2012, 15:14
winebar ma che stai a dì???? asrock non è assolutamente di proprietà asus per la cronoaca
ormai da un bel pezzo anche :asd: :D
ah ok, allora cosi avrebbe senso e rientriamo nei 65° per FX-8350...
Da quello che leggo non bisogna però confondere temperature del SOCKET con quella dei core...i 65°C sui core significa almeno 75° sul socket....
ok trovato i link
1055t 95tdp http://www.cpu-world.com/CPUs/K10/AMD-Phenom%20II%20X6%201055T%20-%20HDT55TWFK6DGR%20(HDT55TWFGRBOX).html
1055t 125tdp http://www.cpu-world.com/CPUs/K10/AMD-Phenom%20II%20X6%201055T%20-%20HDT55TFBK6DGR%20(HDT55TFBGRBOX).html
Chiudo OT e torno a leggervi ;)
Questa è una cosa che mi fa rabbia...
ASrock ha semplicemente fatto certificare per Windows 8 le vecchie Mobo, mentre ASUS (che è proprietaria di ASRock), ha fatto leggere modifiche alla Sabertooth e alla Crosshair V (nella CHV-Z ad esempio ha messo una porta SATA in più, ha spostato i pulsanti di accensione onboard e ha modificato l'IO panel) per crearne versioni Windows 8 ready...
Cioè, dai, la tua divisione si fa certificare mobo di un anno fa (così ne ha meno a catalogo e deve aggiornare meno BIOS) e tu fai delle piccole revisioni alle vecchie per puro spirito marchettaro? Senza parole. :mbe:
Si ma l'8140 non si trova praticamente in nessuna parte.
E quei pochi reviewer che lavorano in aziende che vendono prodotti di questo tipo (mi vengono in mente ad esempio Newegg e NCIX negli USA e Canada) quando ne hanno aperto uno a caso e CPU l'ha rilevato come 8140 invece che come 8150 loro stessi dicono "it does not seem to exist in the maret".
E anche con PD si sta ripetendo la stessa solfa. Basti vedere che il 6350 non è stato lanciato eppure i bios lo supportano.
Comunque, il 6300 al prezzo a cui viene venduto è sconveniente. Ti consiglierei di metterci quei 20€ in più e passare ad un 8320.
Posso solo dirti che su pianeta hardware EUropa dovrebbe costare intorno a 150€ + spedizioni (meno di 10 €), dato che un 8350 lo danno a 176. :)
il sito che stai "promuovendo" è affidabile perchè le cpu costano circa 10-15 euro in meno di siti come amaz.n
winebar ma che stai a dì???? asrock non è assolutamente di proprietà asus per la cronoaca
ormai da un bel pezzo anche :asd: :D
Dovete capire che la mia memoria ha più buchi di un groviera...
Se vogliamo trollare, ha anche più buchi di un Mac. :D
Quindi scusatemi se ogni tanto sparo cavolate a livello storico. :cool:
E la cosa bella è che... alle superiori passato il 1850 storia era diventata una delle mie materie preferite. :p
digieffe
21-11-2012, 15:49
Non so se e quanto sia possibile.
L'SMT punta alla duplicazione di alcune.unità mentre il CMT punta ad eliminare quelle superflue e che vengono sfruttate solo in parte.
In ogni caso se fosse possibile sarebbe molto interessante... Anche perché l'SMT aumenta abbastanza la potenza sfruttando pochi transistor.
E potrebbe, nel caso, essere un grande vantaggio. Perché comunque programmi adatti al CMT ce ne sono pochissimi, mentre programmi che sfruttano saggiamente l'SMT ce ne sono tanti, anche per questioni di età.
Non vorrei scrivere inesattezze, ma a memoria, mi sembra che Sun o Ibm abbiano l'HT sul CMT.
Per programmi MT "normali" è molto più facile sfruttare il CMT che l'HT, in quanto con l'ht il numero di thread sale notevolmente rispetto al guadagno delle performance (raddoppio dei thread + 25/30%) mentre col CMT raddoppio dei thread +70% performance (e parliamo di quello implementato da Amd che non è il massimo, attendiamo SR che dovrebbe sistemare un bel po' la situazione).
tutto ciò si scontra con la legge di Amdahl (http://en.wikipedia.org/wiki/Amdahl%27s_law) in 2 parole più thread ci sono peggio scalerà l'applicazione.
(per l'ultimo punto ci sono anche una mirade di condizioni, ma questa non è una lezione accademica :D)
digieffe
21-11-2012, 15:53
chiarissimo,ma allora mi chiedo,amd queste cose non le sà? lol
aumentare questo ipc,implicherebbe il costo di produzione? o è una cosa che proprio loro non contano,per quanto dovrebbe contare su una cpu?
cmq ho deciso,a natale mi autoregao un fx-8350!
a quanto pare le sa asd :D.
le prime soluzioni sostanziose dovrebbero stare in Steamroller (SR) che dovrebbe essere già "pronto" attendiamo che decidano su quale PP e qual'è il miglior periodo per lanciarlo :rolleyes: .
è stato superato il WR sulla frequenza massima mai raggiunta.
Prima era di 8,47 Ghz su una MSI 990fx-80, adesso passiamo a 8,67 Ghz su una CH V Formula Z.
http://rog.asus.com/183622012/overclocking/8-67ghz-fx-8350-and-more-as-rog-smashes-world-records/
E a 7,4 Ghz sono anche riusciti a chiudere dei test con Prime95!
secondo voi come dicevo prima per un uso home e qualche gioco mi conviene prendere un 6300 a 135 euro o un 8320 a 155 euro?
so che 20 euro non sono molti ma se valgono la differza ok perchè altrimenti li uso per le ram quei soldi
Diablo III
21-11-2012, 15:58
è stato superato il WR sulla frequenza massima mai raggiunta.
Prima era di 8,47 Ghz su una MSI 990fx-80, adesso passiamo a 8,67 Ghz su una CH V Formula Z.
http://rog.asus.com/183622012/overclocking/8-67ghz-fx-8350-and-more-as-rog-smashes-world-records/
il WR assoluto è a poco più di 8.7GHz, sempre di AndreYang, ma con FX-8150 ;)
http://www.hwbot.org/submission/2294034_andreyang_cpu_frequency_fx_8150_8709_mhz
http://valid.canardpc.com/cache/banner/2075306.png (http://valid.canardpc.com/2075306)
il sito che stai "promuovendo" è affidabile perchè le cpu costano circa 10-15 euro in meno di siti come amaz.n
Infatti io prenderò l'8350 proprio da loro all'inizio del nuovo anno. :D
Non vorrei scrivere inesattezze, ma a memoria, mi sembra che Sun o Ibm abbiano l'HT sul CMT.
IBM non lo so, ma Oracle (che ha acquistato Sun, con tutti i problemi derivati di Java, OpenOffice e di Sparc stesso) ho visto che lo usa. E addirittura arriva ad un livello spaventoso...
8 core fisici per 64 core logici...
In pratica 8 thread a core...
cirano994
21-11-2012, 16:14
Cambia qualche cosa affiancare ad un 8320 Ram a 1600Mhz anzichè 1866Mhz?
Dovete capire che la mia memoria ha più buchi di un groviera...
tranquillo, comunque come hai appurato Asus non centra piu una mazza con Asrock dopo la scissione di Pegatron gli lasciato la divsione a lei (ergo Asrock oggi è proprietaria di Pegatron), tuttavia quest'ultima collabora ancora con Asus per il design dei suoi prodotti (comprese motherboard).
A parte questo, ipotizzando che fosse stata la sua divisione, beh io credo che il principio markettario sarebbe stato corretto, inqualità del fatto che comunque la parte Asus è sempre la parte piu cazzuta dove deve dimostrare innovazione.
Ma la vuoi sapere una cosa ? Per me Asrock negli ultimi 3/4 anni si è dimostrata superiore ad Asus nelle sue mobo. Prova a guardare la pagina su facebook (io sono iscritto) c'è di tutto...
Se vogliamo trollare, ha anche più buchi di un Mac. :D
Beh allora trollo io e rettifico: "ha anche piu buchi di win" :D
Apple la odio quanto MS, ma sul suo OS (OS X/iOS) non si puo paraganorlo proprio a windows, anzi il kernel deriva proprio da... ;)
è stato superato il WR sulla frequenza massima mai raggiunta.
Prima era di 8,47 Ghz su una MSI 990fx-80, adesso passiamo a 8,67 Ghz su una CH V Formula Z.
http://rog.asus.com/183622012/overcl...world-records/
E a 7,4 Ghz sono anche riusciti a chiudere dei test con Prime95!
mannaggia...ed io chemi ero gasato visto che posseggo quella mobo, e gia me l'hanno inchiappettata.
Un ali 550w reggerebbe un 8350+HD5850?
scusate se insisto ma nell uso home e qualche gioco pendere un 6300 o per 20 euro in più un 8320 può fare differenza,ovvero sono spesi bene o non c'è una reale differenza da giustificare il sovraprezzo
Io resterei a def, il mio dubbio è tra l'8350 e l'6300.
Cmq non ha alti voltaggi se questo che intendi.
nardustyle
21-11-2012, 16:44
Un ali 550w reggerebbe un 8350+HD5850?
io sul 550 corsair ho :
1100t a 4.3ghz , 560 a 1.080ghz, 4 hard disk , ssd, lettore dvd, 13 ventole e pure 2 metri di led e tastiera con lo schermetto.... mai problemi di sorta....:sofico:
vai tranquillo finchè non lo porti a 6ghz non hai problemi:D
Uhm io tengo tutto a def.
A parte questo, ipotizzando che fosse stata la sua divisione, beh io credo che il principio markettario sarebbe stato corretto, inqualità del fatto che comunque la parte Asus è sempre la parte piu cazzuta dove deve dimostrare innovazione.
Capisco tutto, ma vedere che AD OGGI ASUS ancora non mi da una versione di AISUITEII adatta a Windows 8 (che sono costretto ad usare per dubbie scelte dell'uni, per fortuna non ho pagato sto schifo) me le fa girare e non poco.
Soprattutto sapendo che per la R2.0 è disponibile. :mad:
Ma la vuoi sapere una cosa ? Per me Asrock negli ultimi 3/4 anni si è dimostrata superiore ad Asus nelle sue mobo. Prova a guardare la pagina su facebook (io sono iscritto) c'è di tutto...
Con la sabertooth in parecchi abbiamo trovato molte regressioni in aggiornamenti di BIOS creati per aumentare la sicurezza.
Il supporto software è penoso (ad esempio i driver per i dispositivi sono aggiornati a mesi fa mentre sono stati rilasciati aggiornamenti sul sito del produttore), la QVL non viene aggiornata ecc.
E altri hanno trovato cose simili con altre mobo, sempre di fascia alta.
Beh allora trollo io e rettifico: "ha anche piu buchi di win" :D
Apple la odio quanto MS, ma sul suo OS (OS X/iOS) non si puo paraganorlo proprio a windows, anzi il kernel deriva proprio da... ;)
... FreeBSD, monoliticissimo (hanno aggiunto da relativamente poco la possibilità di usare moduli), + Mach, microkernel. :D
Si chiama XNU e unito a tutto il sottosistema creato da Apple crea Darwin, che praticamente è OSX senza interfaccia Aqua.
Devo aggiungere altro? Come i motivi per cui si è scelto di passare da System 9 che era un tipo di OS a se ad uno Unix like? :cool:
mannaggia...ed io chemi ero gasato visto che posseggo quella mobo, e gia me l'hanno inchiappettata.
Ma non significa che sia una mobo pessima. E ricorda che una CFV-Z costa molto più di una GD80.
Cambia qualche cosa affiancare ad un 8320 Ram a 1600Mhz anzichè 1866Mhz?
Assolutamente nulla. Se a parità di costo puoi prendere RAM 1600 CL8 inveche che CL9, mantendo inalterati i consumi, è il compromesso migliore. ;)
Un ali 550w reggerebbe un 8350+HD5850?
Dipende dalla marca e dalla qualità dell'ali.
E non si dice voltaggio ma tensione. ;)
Voltaggio è LA PIU' SBAGLIATA traduzione dall'anglofono (voltage), dove però li il termine è più che corretto.
scusate se insisto ma nell uso home e qualche gioco pendere un 6300 o per 20 euro in più un 8320 può fare differenza,ovvero sono spesi bene o non c'è una reale differenza da giustificare il sovraprezzo
è un investimento migliore per il futuro.
Se poi vuoi cambiare procio tra 1 anno vai di 6300, altrimenti se vuoi tenerlo per almeno 2 vai di 8320. Al momento c'è la tendenza ad aumentare la parallelizzazione del codice, quindi i 2 core in più potrebbero fare un po' di differenza.
cirano994
21-11-2012, 17:01
Assolutamente nulla. Se a parità di costo puoi prendere RAM 1600 CL8 inveche che CL9, mantendo inalterati i consumi, è il compromesso migliore. ;)
Avevo visto le Corsair Vengeance CL9, potrebbero andare bene?
Avevo visto le Corsair Vengeance CL9, potrebbero andare bene?
Conviene prendere le Crucial Ballistix (una qualsiasi serie va bene), costano uguali ma sono a 30 nm contro 40 (consumano meno e salgono di più in un eventuale overclock).
Capisco tutto, ma vedere che AD OGGI ASUS ancora non mi da una versione di AISUITEII adatta a Windows 8 (che sono costretto ad usare per dubbie scelte dell'uni, per fortuna non ho pagato sto schifo) me le fa girare e non poco.
Soprattutto sapendo che per la R2.0 è disponibile. :mad:
Se quel AISUITEII (sia la vecchia versione che la versione per le mobo R2.0) avesse la sorgente del codice aperta, la paura passava subito. Si confrontava il codice e si editava la vecchia versione per renderla comptaibile con le mobo 1.0, è tutta una questione di codice interno forzato, ma in soldoni il resto della sintassi e delle istruzioni del codice è analogo per entrambi le versioni, sono solo 4 stringhe relative alla microcode e al codice uefi relativo al modello mobo ;)
Con la sabertooth in parecchi abbiamo trovato molte regressioni in aggiornamenti di BIOS creati per aumentare la sicurezza.
Il supporto software è penoso (ad esempio i driver per i dispositivi sono aggiornati a mesi fa mentre sono stati rilasciati aggiornamenti sul sito del produttore), la QVL non viene aggiornata ecc.
E altri hanno trovato cose simili con altre mobo, sempre di fascia alta.
marketing fratello, si chiama marketing...
... FreeBSD, monoliticissimo (hanno aggiunto da relativamente poco la possibilità di usare moduli), + Mach, microkernel. :D
Si chiama XNU e unito a tutto il sottosistema creato da Apple crea Darwin, che praticamente è OSX senza interfaccia Aqua.
Devo aggiungere altro? Come i motivi per cui si è scelto di passare da System 9 che era un tipo di OS a se ad uno Unix like? :cool:
;)
Ma non significa che sia una mobo pessima. E ricorda che una CFV-Z costa molto più di una GD80.
ma si certo, alla fine sono piu che soddisfatto della mia mobo, MSI ha sempre fatto ottimi prodotti, e nelle mobo non scherza mica, specie la serie MILITARY CLASS (altro marketing spudodato) ihihih....:D
Se quel AISUITEII (sia la vecchia versione che la versione per le mobo R2.0) avesse la sorgente del codice aperta, la paura passava subito. Si confrontava il codice e si editava la vecchia versione per renderla comptaibile con le mobo 1.0, è tutta una questione di codice interno forzato, ma in soldoni il resto della sintassi e delle istruzioni del codice è analogo per entrambi le versioni, sono solo 4 stringhe relative alla microcode e al codice uefi relativo al modello mobo ;)
E lo so... Ma se il closed source ha conquistato il mondo che ci possiamo fare... :mad:
ma si certo, alla fine sono piu che soddisfatto della mia mobo, MSI ha sempre fatto ottimi prodotti, e nelle mobo non scherza mica, specie la serie MILITARY CLASS (altro marketing spudodato) ihihih....:D
Esattamente come con la Sabertooth e un certificato praticamente identico...
E mi ci gioco quello che vuoi che la CFV-Z ha lo stesso tipo di componenti.
Anche perchè le certificazioni che fanno fare ASUS e MSI non sono sulla mobo ma sui componenti presi singolarmente (prendono un po' di mosfet e li testano, un po' di condensatori e così via. :O
cirano994
21-11-2012, 17:48
Conviene prendere le Crucial Ballistix (una qualsiasi serie va bene), costano uguali ma sono a 30 nm contro 40 (consumano meno e salgono di più in un eventuale overclock).
Beh insomma costano un po' di più: dalla chiave 2x4Gb son 50€, 2x8Gb Corsair 70€.
Fanno tanto schifo le Corsair o conviene spenderli proprio quei 30€ di differenza?
Considera che difficilmente farò OC (magari qualcosina tanto per divertirmi un po' :D ) e non faccio di certo benchmark ogni giorno.
Beh insomma costano un po' di più: dalla chiave 2x4Gb son 50€, 2x8Gb Corsair 70€.
Fanno tanto schifo le Corsair o conviene spenderli proprio quei 30€ di differenza?
Considera che difficilmente farò OC (magari qualcosina tanto per divertirmi un po' :D ) e non faccio di certo benchmark ogni giorno.
No, a quel punto sono sconvenienti. ;)
Se poi vuoi occare per bene sono ram che salgono benissimo, ma generalmente 30€di differenza sono tantini. :(
lupowlf46
21-11-2012, 18:27
io devo dire che sono molto soddisfatto dell'amd fx-8150. certo sicuramente è inferiore ai vari intel di gamma medio/alta, ma non lo vedo così pessimo come su alcuni siti lo dipingono.
e poi....buon margine di occarlo!!! :D :D :D :D
...
uhmm.. :wtf: ... ... ... ... ... ... ...
TheBestFix
21-11-2012, 18:46
ciao a tutti, scusate se sono scomparso dal forum causa lavoro fuori sede (e si, purtroppo per dare il mio contributo ad AMD da qualche parte li devo pur guadagnare i dindini), vi ho lasciato che ancora nessuno aveva in mano piledriver, e (da qualche pagina letta) vi ritrovo che praticamente son rimasto l'unico a non averla ancora provata (cosa alla quale ho posto rimedio pochi minuti fa), come avevo preannunciato rimango fermo nella mia scelta iniziale ovvero ho acquistato il 6300 (e ci e' scappato anche un banchetto dimastech :sofico: capita quando si e' dentro un negozio online, e l'indice cade per sbaglio sul tasto sinistro del mouse :) )...per cui penso per la settimana prossima di poter fornire qualche screen anche sul 6 core ...a proposito qualcun altro ha preso il 6? o siete andati tutti di 8? ed inoltre state postando su questo 3d tutti i risultati o da qualche parte e' stato aperto un 3d apposito sull'overclock e risultati varii come per bulldozer?
scusate ancora ma da quando son sparito dal forum sono tante le pagine nuove e ne ho lette solo alcune, magari mi son perso qualcosa...
ciao a tutti, scusate se sono scomparso dal forum causa lavoro fuori sede (e si, purtroppo per dare il mio contributo ad AMD da qualche parte li devo pur guadagnare i dindini), vi ho lasciato che ancora nessuno aveva in mano piledriver, e (da qualche pagina letta) vi ritrovo che praticamente son rimasto l'unico a non averla ancora provata (cosa alla quale ho posto rimedio pochi minuti fa), come avevo preannunciato rimango fermo nella mia scelta iniziale ovvero ho acquistato il 6300 (e ci e' scappato anche un banchetto dimastech :sofico: capita quando si e' dentro un negozio online, e l'indice cade per sbaglio sul tasto sinistro del mouse :) )...per cui penso per la settimana prossima di poter fornire qualche screen anche sul 6 core ...a proposito qualcun altro ha preso il 6? o siete andati tutti di 8? ed inoltre state postando su questo 3d tutti i risultati o da qualche parte e' stato aperto un 3d apposito sull'overclock e risultati varii come per bulldozer?
scusate ancora ma da quando son sparito dal forum sono tante le pagine nuove e ne ho lette solo alcune, magari mi son perso qualcosa...
ottimo, e benvenuto nell'orgia degli FX_user...
pare che forse fino adesso sei l'unico ad averlo preso il 6 core, ma leggo che forse ti si affiancherà qualcuno prossimamente.
Per quanto riguarda il thread: esiste quello dedicato all'oc: http://www.hwupgrade.it/forum/showthread.php?t=2411022 ma pare che nessuno se lo caghi piu di tanto, forse perchè credono che sia dedicato solo a Zambesi. Per cui a quanto a pare postarli qui o postarli li non dovrebbre esserci differenza, altrimenti il capitano avrebbe detto qualcosa gia da tempo, o aggiornato quel thread con l'aggiunta "Piledriver" (anche se con bulldozer si va a coprire tutta l'architettura di base aldila delle evoluzioni). Ma il suo silenzio per me è sinonimo: "fate quello che vi pare, ormai mi sono fracassato le balls pure di leggervi" :D
paolo.oliva2
21-11-2012, 19:36
Dovete capire che la mia memoria ha più buchi di un groviera...
Se vogliamo trollare, ha anche più buchi di un Mac. :D
Quindi scusatemi se ogni tanto sparo cavolate a livello storico. :cool:
E la cosa bella è che... alle superiori passato il 1850 storia era diventata una delle mie materie preferite. :p
Guarda... per solidarietà... anche io pensavo che Asrock fosse ancora di Asus... :sofico:
filo mc-ati crossfire
21-11-2012, 19:37
Guarda... per solidarietà... anche io pensavo che Asrock fosse ancora di Asus... :sofico:
idem io ... lol
TheBestFix
21-11-2012, 19:46
ottimo, e benvenuto nell'orgia degli FX_user...
pare che forse fino adesso sei l'unico ad averlo preso il 6 core, ma leggo che forse ti si affiancherà qualcuno prossimamente.
Per quanto riguarda il thread: esiste quello dedicato all'oc: http://www.hwupgrade.it/forum/showthread.php?t=2411022 ma pare che nessuno se lo caghi piu di tanto, forse perchè credono che sia dedicato solo a Zambesi. Per cui a quanto a pare postarli qui o postarli li non dovrebbre esserci differenza, altrimenti il capitano avrebbe detto qualcosa gia da tempo, o aggiornato quel thread con l'aggiunta "Piledriver" (anche se con bulldozer si va a coprire tutta l'architettura di base aldila delle evoluzioni). Ma il suo silenzio per me è sinonimo: "fate quello che vi pare, ormai mi sono fracassato le balls pure di leggervi" :D
grazie per la risposta ;)
ciao a tutti, scusate se sono scomparso dal forum causa lavoro fuori sede (e si, purtroppo per dare il mio contributo ad AMD da qualche parte li devo pur guadagnare i dindini), vi ho lasciato che ancora nessuno aveva in mano piledriver, e (da qualche pagina letta) vi ritrovo che praticamente son rimasto l'unico a non averla ancora provata (cosa alla quale ho posto rimedio pochi minuti fa), come avevo preannunciato rimango fermo nella mia scelta iniziale ovvero ho acquistato il 6300 (e ci e' scappato anche un banchetto dimastech :sofico: capita quando si e' dentro un negozio online, e l'indice cade per sbaglio sul tasto sinistro del mouse :) )...per cui penso per la settimana prossima di poter fornire qualche screen anche sul 6 core ...a proposito qualcun altro ha preso il 6? o siete andati tutti di 8? ed inoltre state postando su questo 3d tutti i risultati o da qualche parte e' stato aperto un 3d apposito sull'overclock e risultati varii come per bulldozer?
scusate ancora ma da quando son sparito dal forum sono tante le pagine nuove e ne ho lette solo alcune, magari mi son perso qualcosa...
Bentornato,
io sono andato di 8350... e mi sembra che macini niente male, però mi é morto (inspiegabilmente) l'enermax 750w e stò testando con il 400 e penso che sia questo il motivo per cui sono instabile nei test pesanti da 4,6/4,7 in su... però 9xxx punti nel physics test del 3dmark11 mi sembrano promettenti.
PS
come va la vga?
;) CIAUZ
è per fortuna non lo è piu ! Perchè quando lo era, Asus dedicava il marchio Asrock per le mobo economiche, ed erano tali nel vero senso della parola: bruttissime a livello di layout, si fracassavano dopo un mese e puzzavano pure di plastica chin chiù là. Da quando Asrock è gestita da Pegraton e per i fatti suoi, le mobo Asrock hanno cambiato forma, disegno, qualità, longevità e fini di utilizzo, tanto è vero che danno filo da torciere pure ad Asus con i modelli di punta, da alleata è diventata diretta concorrente nemica.
TheBestFix
21-11-2012, 19:53
Bentornato,
io sono andato di 8350... e mi sembra che macini niente male, però mi é morto (inspiegabilmente) l'enermax 750w e stò testando con il 400 e penso che sia questo il motivo per cui sono instabile nei test pesanti da 4,6/4,7 in su... però 9xxx punti nel physics test del 3dmark11 mi sembrano promettenti.
PS
come va la vga?
;) CIAUZ
povero Enermax 750, di cosa e' morto vecchiaia? :cry:
comunque penso anche io il 400 per quanto ottimo non basta a reggere la sete di Ampere di un fx 8 core overcloccato + il resto della config...
per la vga ti rispondo in pvt che poi andiamo ot
paolo.oliva2
21-11-2012, 19:54
Secdondo me... non fatevi troppe paranoie tra ALI/consumo e qualsivoglia, scrivo le mie PERSONALISSIME opinioni...
Come possessore di 8350, io mi trovo benissimo a 4,6GHz, e per sicurezza ho impostato un Vcore 1,45V (sarebbe RS anche a 1,425V) nonostante sia a liquido, e sempre con la filosofia della massima ottimizzazione, trovo che un NB a 2,4/2,5GHz con DDR3 2133/2400 (non vedo molte differenze prestazionali, almeno al momento), il procio sia RS al 1000%.
Io sconsiglio un 6300... perchè non vedo consumi inferiori di un 6300 rispetto ad un 8320 sia a livello di utilizzo che a parità di potenza elaborativa, ma 2 core in più rappresenterebbero una consistente riserva di potenza elaborativa per un costo in più insignificante.
Per intenderci... un 8350@4,6GHz è sul livello di un 8150@4GHz come difficoltà e peso per il sistema... praticamente è un OC per bambini :D .
Leggevo prima che dovrebbe avere un TDP sui 170W circa un 8350@4,6GHz... andare più su per un 5-10% di performances in più, sinceramente, offre minuscoli vantaggi reali, forse più psicologici...
In quest'ottica, specie per chi non pensa di avere sistemi di dissipazione estremi (aria/acqua/WC), anche se un 8320 si occasse qualcosa di meno allo stesso Vcore, i 4,5GHz sarebbero credo comunque fattibi... e l'8320 anche se concedesse "solo" i 4,5GHz, rappresenterebbe un reale risparmio con prestazioni RS/DU simili all'8350.
TheBestFix
21-11-2012, 20:11
Secdondo me... non fatevi troppe paranoie tra ALI/consumo e qualsivoglia, scrivo le mie PERSONALISSIME opinioni...
Come possessore di 8350, io mi trovo benissimo a 4,6GHz, e per sicurezza ho impostato un Vcore 1,45V (sarebbe RS anche a 1,425V) nonostante sia a liquido, e sempre con la filosofia della massima ottimizzazione, trovo che un NB a 2,4/2,5GHz con DDR3 2133/2400 (non vedo molte differenze prestazionali, almeno al momento), il procio sia RS al 1000%.
Io sconsiglio un 6300... perchè non vedo consumi inferiori di un 6300 rispetto ad un 8320 sia a livello di utilizzo che a parità di potenza elaborativa, ma 2 core in più rappresenterebbero una consistente riserva di potenza elaborativa per un costo in più insignificante.
Per intenderci... un 8350@4,6GHz è sul livello di un 8150@4GHz come difficoltà e peso per il sistema... praticamente è un OC per bambini :D .
Leggevo prima che dovrebbe avere un TDP sui 170W circa un 8350@4,6GHz... andare più su per un 5-10% di performances in più, sinceramente, offre minuscoli vantaggi reali, forse più psicologici...
In quest'ottica, specie per chi non pensa di avere sistemi di dissipazione estremi (aria/acqua/WC), anche se un 8320 si occasse qualcosa di meno allo stesso Vcore, i 4,5GHz sarebbero credo comunque fattibi... e l'8320 anche se concedesse "solo" i 4,5GHz, rappresenterebbe un reale risparmio con prestazioni RS/DU simili all'8350.
prendo atto del tuo sempre utile punto di vista, ma ormai il dado e' tratto e aspetto il pacchetto col 6300 ...ho gia' pronto un wattmetro cosi' facciamo il punto anche sui consumi a default e in overclock ;)
:D facci sapere anchio sono interessato a quella CPU.
povero Enermax 750, di cosa e' morto vecchiaia? :cry:
comunque penso anche io il 400 per quanto ottimo non basta a reggere la sete di Ampere di un fx 8 core overcloccato + il resto della config...
per la vga ti rispondo in pvt che poi andiamo ot
Ho smontato il 955 usato per aggiornare il bios e installare il so che funzionava tutto perfettamente, ho montato l'8350 e il pc nn é più partito... se nn dopo aver sostituito l'ali :boh:
PS
nn éra nuovo, ma neppure vecchissimo.... R.I.P.
;) CIAUZ
cloud_2004
21-11-2012, 22:02
Ho smontato il 955 usato per aggiornare il bios e installare il so che funzionava tutto perfettamente, ho montato l'8350 e il pc nn é più partito... se nn dopo aver sostituito l'ali :boh:
PS
nn éra nuovo, ma neppure vecchissimo.... R.I.P.
;) CIAUZ
prova a rimontare l'enermax 750,una volta mi ha dato lo stesso problema il mio vecchio ali,ma una volta montato un altro e rimontato di nuovo il vecchio mi è partito.poi ho scoperto che la causa era da attribuersi a una tensione rimasta latente non so come nel sistema,che mi faceva andare in protezione l'ali.magari risolvi anche tu come me
carlottoIIx6
21-11-2012, 22:19
prendo atto del tuo sempre utile punto di vista, ma ormai il dado e' tratto e aspetto il pacchetto col 6300 ...ho gia' pronto un wattmetro cosi' facciamo il punto anche sui consumi a default e in overclock ;)
il wattometro (che ho anch'io) non serve a nulla se non sai come fare una misura che abbia senso (cosa che neanche le riviste fanno).
i watt non dicono i consumi, ma la potenza, ma neanche un forno (che abbia un termstato) consuma quanto è potente, dipende dall'efficenza (dipende dalla coibentazione).
dovresti misurare i kwh che impieghi in un determinato uso del pc e l'altro dovrebbe ripeterlo uguale per fare una stima.
ma se uno consumasse meno, ma faccesse tutto prima, cosa si potrebbe dire delle due cpu?
è come due macchine che per arrivare ad un posto impiegano diverse quantità di benzina, ma quella che consuma di più arriva anche prima.
il problema verò è il calcolo dell'efficenza, ma efficenza spesso non necesssariamente vuol dire velocità. e quindi un potrrebbe volere un computer meno efficente e più veloce.
prova a rimontare l'enermax 750,una volta mi ha dato lo stesso problema il mio vecchio ali,ma una volta montato un altro e rimontato di nuovo il vecchio mi è partito.poi ho scoperto che la causa era da attribuersi a una tensione rimasta latente non so come nel sistema,che mi faceva andare in protezione l'ali.magari risolvi anche tu come me
Purtroppo ho già provato, nn gira più neppure la sua ventola, si accende solo il led della mobo e quando premo il pulsante d'accensione perde lunibosità... proverò a farlo riguardaew (visto che io nn sono in grado)... al momento sono in attesa di un enermax da 720w.
;) CIAUZ
il wattometro (che ho anch'io) non serve a nulla se non sai come fare una misura che abbia senso (cosa che neanche le riviste fanno).
i watt non dicono i consumi, ma la potenza, ma neanche un forno (che abbia un termstato) consuma quanto è potente, dipende dall'efficenza (dipende dalla coibentazione).
dovresti misurare i kwh che impieghi in un determinato uso del pc e l'altro dovrebbe ripeterlo uguale per fare una stima.
ma se uno consumasse meno, ma faccesse tutto prima, cosa si potrebbe dire delle due cpu?
è come due macchine che per arrivare ad un posto impiegano diverse quantità di benzina, ma quella che consuma di più arriva anche prima.
il problema verò è il calcolo dell'efficenza, ma efficenza spesso non necesssariamente vuol dire velocità. e quindi un potrrebbe volere un computer meno efficente e più veloce.
Per aggirare il problema, ed avere dati vagamente sensati, uno dovrebbe fare una prova con pc in idle e vedere quanti watt si prende (vero che il watt è la "potenza" ma può indicare anche l'assorbimento energetico. Realmente per un pc è sbagliato dire "consuma tot watt" quello che si dovrebbe dire è "ha bisogno di tot watt per fare quello che fà").
Poi una prova con il pc in full e vedere quanti watt vuole o ciuccia dalla rete elettrica. E vedere la differenza.
Poi fai lo stesso gioco con procio in oc e si vede la differenza tra pc normale e pc oc.
Se uno puoi ovviamente vuole cercare di "isolare" il procio, ovviamente il secondo test uno non occa anche la vga, ma solo il processore.
Diciamo il parametro fondamentale sarebbe il Delta W assorbito dal sistema alla rete elettrica. La sua differenza tra idle e full (questi in pochi lo evidenziano invece è il parametro principe perchè un pc accesso in idle deve starci) e la differenza tra full default e full oc.
digieffe
21-11-2012, 23:38
AMD... beh... il plus di potenza del 30% sbandierato... onestamente è molto da interpretare... come del resto è giusto dopo la gaf su Zambesi, che AMD si pari un po' il fondo schiena... :) Il +30% potrebbe essere interpretato come (dal modo negativo a quello più positivo):
+30% visto come guadagno globale, cioè IPC, frequenze, numero dei core totali (e qui un Vishera X10 potrebbe già arrivare a +25% con lo stesso IPC e stesse frequenze).
+30% visto come IPC/frequenze a core singolo all'interno del modulo (IPC core singolo in connubio con le frequenze sarebbe già diverso, perchè comunque si considererebbe la massima frequenza Turbo, più alta della frequenza def totale su tutti i core)
+30% visto come IPC/frequenze a modulo (darebbe un'idea più precisa di quanto possa essere potenziato il modulo, chiaramente con l'X della frequenza)
+30% visto come IPC a core singolo all'interno del modulo
+30% visto come IPC a modulo (come sopra, ma potrebbe risultare pure maggiore considerando un eventuale aumento delle frequenze)
Sullo stile di PD, io sarei propenso a credere +30% inteso come aumento confrontato all'8350, a parità di moduli e considerando unicamente l'IPC perchè mi sembra troppo presto avere una idea chiara sulle frequenze
La slide diceva +30% di operations per cycle quindi a parità di clock +30% indipendentemente da moduo/core ecc...
l'unico caso che sfugge e se aggiungono un modulo ed una manciata di ipc...
imho non credo sia così in quanto si è già visto che, spegnendo 1 core del modulo, quindi dedicando tutto ad 1 solo core abbiamo +21.5% con cinebench ed intorno al 20% con il resto...
tenendo conto delle, presunte, modifiche introdotte delle quali ne abbiamo già parlato tante volte tra le quali aumento della cache l1, e raddoppio dei decoder non reputo inverosimile un valore vicino al 30%
se poi fosse 25% + 5% di frequenza per me sarebbe uguale...
digieffe
21-11-2012, 23:43
Da quello che leggo non bisogna però confondere temperature del SOCKET con quella dei core...i 65°C sui core significa almeno 75° sul socket....
sinceramente non sono ferrato sulle temperature del socket, come mai sono più alte di quelle dei core (che sono poi quelli che generano il calore)?
george_p
21-11-2012, 23:44
Su un articolo di tom's (ita) avevo letto che il 30% era riferito a BD e non PD.
Mi auguro invece che sia riferito a PD, se no avremo solo un 15 % in più e tanto vale infatti un PD2.
digieffe
21-11-2012, 23:48
Su un articolo di tom's (ita) avevo letto che il 30% era riferito a BD e non PD.
Mi auguro invece che sia riferito a PD, se no avremo solo un 15 % in più e tanto vale infatti un PD2.
si ma il 15% è dato da IPC + clock...
la slide è chiara "opc" = ipc, nella peggiore delle ipotesi avremmo 30% - 5/7% = 22/25%, a meno che le slide non siano farlocche...
george_p
22-11-2012, 00:02
si ma il 15% è dato da IPC + clock...
la slide è chiara "opc" = ipc, nella peggiore delle ipotesi avremmo 30% - 5/7% = 22/25%, a meno che le slide non siano farlocche...
Ok, Grazie.
In effetti non avevo considerato il solo aumento di ipc da BD a PD.
23/25% di solo ipc in più suona meglio di un 15.
Mister D
22-11-2012, 01:10
Per aggirare il problema, ed avere dati vagamente sensati, uno dovrebbe fare una prova con pc in idle e vedere quanti watt si prende (vero che il watt è la "potenza" ma può indicare anche l'assorbimento energetico. Realmente per un pc è sbagliato dire "consuma tot watt" quello che si dovrebbe dire è "ha bisogno di tot watt per fare quello che fà").
Poi una prova con il pc in full e vedere quanti watt vuole o ciuccia dalla rete elettrica. E vedere la differenza.
Poi fai lo stesso gioco con procio in oc e si vede la differenza tra pc normale e pc oc.
Se uno puoi ovviamente vuole cercare di "isolare" il procio, ovviamente il secondo test uno non occa anche la vga, ma solo il processore.
Diciamo il parametro fondamentale sarebbe il Delta W assorbito dal sistema alla rete elettrica. La sua differenza tra idle e full (questi in pochi lo evidenziano invece è il parametro principe perchè un pc accesso in idle deve starci) e la differenza tra full default e full oc.
Ciao,
prendo il tuo messaggio per fare delle considerazioni doverose utili a tutti.
Vero che bisognerebbe vedere il delta W tra idle e full e tra full def e full oc, ma misureresti solo la potenza massima erogata dal pc o dalla cpu. Non il consumo. Il consumo è potenza per tempo, cioè energia. Il Watt è l'unità di misura, nel sistema internazionale, della potenza, non del consumo. Il Juole è l'unità di misura nel SI dell'energia (o lavoro) e cioè equivale al consumo di energia.
W=J/s I Wh sono stati introdotti per semplificare la vita e corrispondono a J x 3600 (i secondi in un ora). 3600 J = 1 Wh; 3600000 j= 1 KWh. Es se l'etichetta del phone dice 1 KW vuol dire che se tengo accesso al massimo il phone per un ora avrò consumato un 1 KWh. Per mezz'ora avrò consumato 500Wh e così via.
Per questo carlotto, che se non ricordo male è un fisico, insiste con lo spiegarvi che per sapere il consumo bisogna introdurre il tempo e ha perfettamente ragione.
Detto questo se il wattmetro misura, es, 10 watt in idle, e 110w in full cpu, ho che la mia cpu ha un potenza massima di 100 watt e che consuma in un ora 100 wattora o 360000 J se tenuta per quell'ora sempre al 100%. Ergo è giusto fare la differenza tra idle e full ma bisogna ricordare che quello che si misura è il picco massimo di potenza erogata dalla cpu al 100% che corrisponde numericamente in wattora solo se in un ora faccio andare sempre al 100% la cpu. Tutto questo tenendo presente che la misura effettuata dipenderà molto dal programma utilizzato per mandare la cpu al massimo, con alcuni programmi vengono sfruttate anche altri componenti della cpu, come ram, vga e hd. Usando prime95 o occt sicuramente sarà utilizzata tutta la cpu e la ram e visto che la ram consuma poco rispetto alla cpu si può considerare trascurabile il suo apporto alla misura. E poi c'è anche l'efficienza dell'alimentatore stesso da tenere presente, visto che il wattmetro misura la potenza istantanea assorbita a monte dell'alimentatore.
Spero di essere stato d'aiuto per tutti.;)
paolo.oliva2
22-11-2012, 01:39
ormai è una crociata la nostra :)
...ma è cosi difficile spiegare che se una cpu finisce prima dell'altra, la prima avrà consumato meno?...
infatti secondo me 8350 è la cpu più efficiente in utilizzo medio anche se è tallonato dall'8320, consuma un 10/20w circa in più del 8320 ma con 500mhz in più ha prestazioni superiori del 10% medio, finendo prima il lavoro...
:D .
E poi... se si confronta un 8320 ed un 6300, facendolo sia con 8TH che con 6TH, l'8320 non consumerebbe mai di più, perchè con 6 TH l'8320 spegnerebbe un modulo, quindi si parlerebbe di 2 proci entrambi con 3 moduli attivi, con 8T è chiaro che l'8320 finirebbe prima.
eh ma è proprio quello il punto, ormai con GF in questa condizione capisco la posizione di AMD... non potranno mai avere una roadmap superiore ai 12 mesi perchè dipendono al 50% dalle fonderie conto terzi, in questo caso GF e forse più avanti TSMC...
...certo che un +20/30% di IPC da un anno all'altro nella stessa architettura per le cpu è una rivoluzione epocale... si potrebbe parlare di architettura diversa quasi...
Guarda... sinceramente, e non lo dico perchè AMD l'avrebbe lungo :D, io inquadro sempre la cosa non come miglioramento, ma per come Zambesi rispecchiava le potenzialità dell'architettura in modo orrendo.
Io non mi ricordo perfettamente, però molto prima della commercializzazione di Zambesi, si discuteva del numero di transistor tra la soluzione SMT e quella CMT, e siccome la soluzione CMT aveva ed ha un numero superiore di transistor, si era portati a credere che il modulo di BD doveva avere una potenza superiore al core Intel + SMT ed inferiore rispetto a 2 core Intel con SMT. Zambesi ed ancora Vishera, non riescono a spuntarla nè in MT nè tantomeno in ST contro 1 core Intel + SMT...
Quello che sarebbe interessante, è che se veramente AMD riuscirà ad aumentare l'IPC del 30%, fosse anche su Zambesi e non su PD, sarebbe interessante, perchè uscirebbe un 130 + 70% =221 contro 150 +25% = 187,5, quindi 221 *4 = 884 contro 1125 (SBe X6), però con 884 che diventerebbe 1010 per 500MHz di clock in più, sempre che il nuovo pp silicio non possa permettere qualche cosa di più.
Questo non intaccherebbe ugualmente Intel nella potenza massima, perchè un IVYe X6 risulterebbe comunque più potente, ed ancor più un X8.
Comunque ce n'è di tempo, perchè se il prox anno dovrà ancora uscire PD2, se ne parlerebbe l'anno successivo, e magari ci sarà il dopo IVY.
paolo.oliva2
22-11-2012, 01:58
Ciao,
prendo il tuo messaggio per fare delle considerazioni doverose utili a tutti.
Vero che bisognerebbe vedere il delta W tra idle e full e tra full def e full oc, ma misureresti solo la potenza massima erogata dal pc o dalla cpu. Non il consumo. Il consumo è potenza per tempo, cioè energia. Il Watt è l'unità di misura, nel sistema internazionale, della potenza, non del consumo. Il Juole è l'unità di misura nel SI dell'energia (o lavoro) e cioè equivale al consumo di energia.
W=J/s I Wh sono stati introdotti per semplificare la vita e corrispondono a J x 3600 (i secondi in un ora). 3600 J = 1 Wh; 3600000 j= 1 KWh. Es se l'etichetta del phone dice 1 KW vuol dire che se tengo accesso al massimo il phone per un ora avrò consumato un 1 KWh. Per mezz'ora avrò consumato 500Wh e così via.
Per questo carlotto, che se non ricordo male è un fisico, insiste con lo spiegarvi che per sapere il consumo bisogna introdurre il tempo e ha perfettamente ragione.
Detto questo se il wattmetro misura, es, 10 watt in idle, e 110w in full cpu, ho che la mia cpu ha un potenza massima di 100 watt e che consuma in un ora 100 wattora o 360000 J se tenuta per quell'ora sempre al 100%. Ergo è giusto fare la differenza tra idle e full ma bisogna ricordare che quello che si misura è il picco massimo di potenza erogata dalla cpu al 100% che corrisponde numericamente in wattora solo se in un ora faccio andare sempre al 100% la cpu. Tutto questo tenendo presente che la misura effettuata dipenderà molto dal programma utilizzato per mandare la cpu al massimo, con alcuni programmi vengono sfruttate anche altri componenti della cpu, come ram, vga e hd. Usando prime95 o occt sicuramente sarà utilizzata tutta la cpu e la ram e visto che la ram consuma poco rispetto alla cpu si può considerare trascurabile il suo apporto alla misura. E poi c'è anche l'efficienza dell'alimentatore stesso da tenere presente, visto che il wattmetro misura la potenza istantanea assorbita a monte dell'alimentatore.
Spero di essere stato d'aiuto per tutti.;)
Dimmi se il mio ragionamento è corretto:
Praticamente... se un procio è 95W TDP ed un altro 125W TDP, sono misure di calore che indicano quale dissipazione minima si deve usare in base al TDP. Ma siccome il calore è generato dai transistor ed essendo il procio esente da parti meccaniche in movimento, a 95W TDP corrisponderebbe un 25% in meno di consumo riferito ad un procio a 125W TDP... che poi i 95W TDP corrisponderebbero ad un valore X di W, mettiamo 100W, quella differenza di TDP (a parte la differenza degli scalini di valore TDP, prendiamo i modelli massimi per lo stesso TDP), nel mio esempio 25% (95W TDP vs 125W TDP), corrisponderebbe ad un valore X di W (nel mio esempio 100W) + il 25%, cioè 125W.
Poi, che 100W o 125W sia la potenza, se fatti lavorare per 1h al 100%, diventerebbero W/h.
In poche parole... se prendiamo un procio 95W ed un altro 125W, nell'uso "normale", alla peggio potrebbe essere 5' al 100%, 25' al 70-80% (esempio nei giochi) ed il rimanente in idle... alla fine se ci fosse un consumo di 10W/h superiore da parte del 125W TDP vs 95W TDP, sarebbe molto... Che poi, riferito all'intero sistema e non solo della CPU, equivarrebbe a non più dell'1%... cioè, praticamente se in 1h accendessi la lampadina per 5', avrei speso di più rispetto al procio 125W vs 95W...
Qui hanno fatto delle menate pazzesche facendo passare che l'avere un procio con 50W TDP in più avrebbe aumentato la bolletta di 100€ al mese... :D... manco fosse un phoon da 2KW.
----------------
P.S.
C'è una cosa che non mi è chiara... Io avevo un Llano, 35W TDP, ed il portatile aveva una autonomia sulle 3h/4h... cliccando la batteria da carico mi dava 4h 30'.... ora ho un Trinity, sempre 35W TDP, ma la batteria, che mi sembra la stessa di Llano, mi dura 7-8h sicuro, 9h 30' cliccando sulla batteria... se confronto i 2 risultati, Trinity consumerebbe sicuro la metà di un Llano pur avendo lo stesso TDP.
Poi c'è anche il discorso delle temp.... perchè più le temp di esercizio sono alte, più si crea l'effetto joule, e più dovrebbero essere alti i consumi. Poi non mi riesco a capacitare come possa il 32nm Intel consumare meno del 32nm AMD, cacchio, un i5 32nm su un portatile HP mi arrivava a 102° facendo le conversioni video... cacchio, durata batteria 1h 20'... considerando un monitor più piccolo... lol.
Mi piace riuscire a comprendere le differenze.... per esprimere giudizi "giusti", ma per certe cose devo andare per supposizioni/intuito/ragionamento... perchè non ne ho le basi... anche se le ho studiate, purtroppo con voglia zero, a scuola... anche allora ottimizzavo... si i tempi, il minor tempo di studio con il massimo voto ottenibile... = 6. un pelino di ironia, una risata...
digieffe
22-11-2012, 02:28
...cut...
...ma per come Zambesi rispecchiava le potenzialità dell'architettura in modo orrendo.
Io non mi ricordo perfettamente, però molto prima della commercializzazione di Zambesi, si discuteva del numero di transistor tra la soluzione SMT e quella CMT, e siccome la soluzione CMT aveva ed ha un numero superiore di transistor, si era portati a credere che il modulo di BD doveva avere una potenza superiore al core Intel + SMT ed inferiore rispetto a 2 core Intel con SMT.
e così sarebbe dovuto essere: la colpa non è del CMT è di AMD & co. (GF)!!!
il modulo CMT avrebbe dovuto avere una potenza non troppo inferiore a 2 core intel senza HT, addirittura uguale o superiore considerando la "mancata" differenza di clock.
Zambesi ed ancora Vishera, non riescono a spuntarla nè in MT nè tantomeno in ST contro 1 core Intel + SMT...se parliamo di 1 core + SMT non parliamo più di SingleThread ma di DualThread.
Quello che sarebbe interessante, è che se veramente AMD riuscirà ad aumentare l'IPC del 30%, fosse anche su Zambesi e non su PD, sarebbe interessante, perchè uscirebbe un
130 + 70% =221 contro 150 +25% = 187,5, quindi 221 *4 = 884 contro 1125 (SBe X6), però con 884 che diventerebbe 1010 per 500MHz di clock in più, sempre che il nuovo pp silicio non possa permettere qualche cosa di più.Imho il conto va fatto così: alle 3.30 il database si ferma lo scrivo domani :D
Raffyone
22-11-2012, 07:32
azz:eek:
http://www.the-overclock-hole.it/novita/3264-867ghz-per-fx-8350.html
Caterpillar86
22-11-2012, 09:00
Ragazzi vi ripropongo una domanda, nel caso abbiate avuto altre notizie... Sapete se il successore di Vishera avrà sempre il socket AM3+ ?
Mi hanno chiesto di vendere la mia scheda madre AM3, e sono indeciso se rimettermi a smontare tutto e spendere altri 50€ in più oppure no.
pensa che con 8150 hanno fatto meglio :sofico: , l'hanno postato pagine indietro mi sembra... per cui c'è ancora margine per 8350 magari a 9 ghz
comunque dimostra la bontà dell'architettura e la pessima figura del silicio a condizioni "normali" ad aria e in DU...
Assolutamente vero. Però c'è da dire che io risultato migliore è stato fatto, se non ricordo male, un paio di mesi dopo il lancio.
AMD aveva addirittura organizzato un evento prima del lancio e aveva raggiunto risultati sorprendenti (per quelli che erano i record di OC con processori AMD precedenti).
Il che faceva pensare ad un processore ottimo, anche come silicio (almeno ad una prima analisi).
E invece si è dimostrato un processore poco più che discreto, fortemente limitato dal silicio, e per di più venduto ad un prezzo troppo elevato. Presumo che siamo tutti d'accordo che se un 8150 fosse stato venduto a 200$/€ come l'8150 (ma anche a 210$/€) l'opinione derivante da esso sarebbe stata completamente differente.
Quindi possiamo dire che AMD sapeva di avere in mano un processore sotto le aspettative e l'ha venduto sovrapprezzato.
Con il risultato che AMD invece di diminuire il presso dei suoi processori ha anche potuto aumentarlo un pochino (parlo di $, avevo letto una review dove dicevano che al lancio un 2500k costava 216$ e un anno dopo è arrivato a 219$).
In pratica aveva adottato una strategia pessima, cosa fortunatamente non avvenuta con PD.
Però ora vorrei fare una riflessione.
Come sappiamo AMD fino a qualche mese fa aveva ancora delle quote di GF. Quando poi a Sunnyvale hanno deciso di sciogliere il contratto di esclusività si sono liberati anche del 14% di GF che gli era rimasto. Il costo totale stimato è stato di 700 milioni di dollari (frazionati in più anni), di cui circa 425 solo per lo scioglimento del contrasti di cui sopra. Possibile che hanno addirittura SVENDUTO le azioni rimaste di GF, e anzi, sembrerebbe che hanno pagato pur di non avvenne più?
Possibile che GF avesse un profitto così esile da rendere sconveniente ad AMD possederne quote?
Soprattutto, è davvero conveniente per AMD non avere neanche un briciolo di controllo sulla fonderia che al momento gli crea le CPU?
A ciò si aggiunge anche un articolo che ho letto qualche giorno fa su SA se non erro, dove si diceva che AMD ha teste buone nella dirigenza, ma che sono appena entrate e che quindi per poter dare un contenuto serio all'azienda ci vorrà un pochino, anche perché la dirigenza che ha fatto scelte da un anno a questa parte circa (Rory Read docet) ha dimostrato di essere capace in tutto trame che a mandare avanti un'azienda tecnologica (anche qui, Rory Read a Lenovo docet), peggio ancora asse si tetra di un'azienda tecnologica con gravi problemi economici.
Caterpillar se non erro da tempo si parla di far passare tutto su socket FMx (quindi si tornerebbe a socket unico), ma.se non sbaglio AMD non ha ne confermato ne smentito.
Anzi, sembra che inizialmente Bulldozer dovesse essere l'unico processore nuovo su socket Am3+, ma appena arrivato il nuovo CEO (il Rory Read di cui sopra) ha ordinato di rimanere un altro anno su AM3+, quindi probabilmente da Steamroller si cambierà finalmente la piattaforma (e si cambia in modo serio e non solo variando qualche frequenza e la dimensione dei buchi).
Inviato dal mio GT-I9000 con Tapatalk 2
Caterpillar86
22-11-2012, 09:16
Caterpillar se non erro da tempo si parla di far passare tutto su socket FMx (quindi si tornerebbe a socket unico), ma.se non sbaglio AMD non ha ne confermato ne smentito.
Anzi, sembra che inizialmente Bulldozer dovesse essere l'unico processore nuovo su socket Am3+, ma appena arrivato il nuovo CEO (il Rory Read di cui sopra) ha ordinato di rimanere un altro anno su AM3+, quindi probabilmente da Steamroller si cambierà finalmente la piattaforma (e si cambia in modo serio e non solo variando qualche frequenza e la dimensione dei buchi).
Ok ti ringrazio, allora mi tengo i soldi in tasca perchè per me sarebbe inutile comprare una AM3+ se poi il successore di VIshera sarà su un altro tipo di socket. Purtroppo le aziende tendono un po' ad offuscare le informazioni sui socket per vendere più schede madri...
Cambia qualche cosa affiancare ad un 8320 Ram a 1600Mhz anzichè 1866Mhz?
Interessa anche a un mio amico.
Caterpillar86
22-11-2012, 09:57
Interessa anche a un mio amico.
Senza aprire nuovi benchmark ti posso dire che a livello pratico non cambia assolutamente niente. Mi sbirciai i peggio benchmark quando dovetti comprare il computer. Ormai, con le frequenze così alte, una differenza di 266 Mhz è ininfluente per il 90% degli utilizzi.
digieffe
22-11-2012, 10:16
Quello che sarebbe interessante, è che se veramente AMD riuscirà ad aumentare l'IPC del 30%, fosse anche su Zambesi e non su PD, sarebbe interessante, perchè uscirebbe un
130 + 70% =221 contro 150 +25% = 187,5, quindi 221 *4 = 884 contro 1125 (SBe X6), però con 884 che diventerebbe 1010 per 500MHz di clock in più, sempre che il nuovo pp silicio non possa permettere qualche cosa di più.Imho il conto va fatto così:
modulo base DB o PD
100 + 65 = 165
Steamroller
Non (100 + 30) + (65 + 20) = 130 + 85
Ma (100 + 20) + (65 + 30) = 120 + 95
Imho per l'inserimento dei componenti non condivisi ed il miglioramento dei condivisi ci sarà meno differenza tra le prestazioni di 1 solo core del modulo e 2.
Edit: Imho il rapporto cambierà da 100 + 65 a 100 + 80 (quello che doveva essere "l'originale".
Edit2: secondo me i miglioramenti saranno relativi a piledriver (già si vedono le potenzialità spegnendo 1 core)
filo mc-ati crossfire
22-11-2012, 10:56
Imho il conto va fatto così:
modulo base DB o PD
100 + 65 = 165
Steamroller
Non (100 + 30) + (65 + 20) = 130 + 85
Ma (100 + 20) + (65 + 30) = 120 + 95
Imho per l'inserimento dei componenti non condivisi ed il miglioramento dei condivisi ci sarà meno differenza tra le prestazioni di 1 solo core del modulo e 2.
Edit: Imho il rapporto cambierà da 100 + 65 a 100 + 80 (quello che doveva essere "l'originale".
Edit2: secondo me i miglioramenti saranno relativi a piledriver (già si vedono le potenzialità spegnendo 1 core)
scusami un attimo,non ho forse ben compreso il tuo ultimo edit,cioè spegnendo ad esempio,2 core nel mio 6100,guadagnerei qualcosa in prestazioni? scusami ma non l'ho capito bene!
filo mc-ati crossfire
22-11-2012, 11:40
Il discorso è che spegnendo un core a modulo si ha un guadagno in ST del 20% circa, ma ovviamente perderesti in MT perchè non avresti più 6 core al 85% (o 3 moduli al 170%), ma 3 core al 100%... per cui teoricamente in ST avresti 3 invece che 2.55(3 x 85%), ma in MT 3 sempre invece che 5.10 (6core x 85% o 3core x 170%)... per cui dipende dall'utilizzo che ne devi fare... in programmi reali che sfruttano l'hardware tipo cinebench(test) meglio 6 core all'85%, nei giochi meglio 3 al 100%...
in cinebench con 3 core ed uno a modulo faresti 3.3 (1p x 3), invece con 6 core e 2 a modulo faresti 5.1...
i numeri sono di esempio...
guardando numeri reali ad esempio 8350 totalizza 1.1 in ST ed 6.9 in MT
per cui uno penserebbe che in ST facendo in MT 6.9/8= 0.85, ma in realta fa 1.1
allora,ho provato a disattivare 2 core,e da 4,70 ghz stabile ( 6 core) ho fatto il 3d mark 06,stabilissimo con 4 core a 5,0ghz,temperatura + bassa del 4,70 ghz per 6 core,noto con piacere che spinge molto di + la vga,cioè i fotogrammi sono saliti in certi punti ad esempio da 80 a 91/93 , altri da 117 a 128,ma lo score totale della cpu,da 6400 è sceso a 5400,ma per l'uso che ne devo fare io,forse cosi' rende di + in game,e magari posso passare anche i 5 ghz,che dite?è rischioso passare i 5 ghz,anche se le temperature permettono?
Diablo III
22-11-2012, 11:44
allora,ho provato a disattivare 2 core,e da 4,70 ghz stabile ( 6 core) ho fatto il 3d mark 06,stabilissimo con 4 core a 5,0ghz,temperatura + bassa del 4,70 ghz per 6 core,noto con piacere che spinge molto di + la vga,cioè i fotogrammi sono saliti in certi punti ad esempio da 80 a 91/93 , altri da 117 a 128,ma lo score totale della cpu,da 6400 è sceso a 5400,ma per l'uso che ne devo fare io,forse cosi' rende di + in game,e magari posso passare anche i 5 ghz,che dite?è rischioso passare i 5 ghz,anche se le temperature permettono?
tu hai probabilmente disattivato un modulo completo, sopra si parlava di disattivare un singolo "core" per ogni modulo ;)
Grizlod®
22-11-2012, 12:03
Interessa anche a un mio amico.IMO, cambia...l'avevo già postato qualche pagina addietro...
Certo se lascia tutto a default, bastano pure le 1600 MHz, ma in questo caso, ha sbagliato CPU (essendo fully unlocked)...sempre IMO naturalmente.
paolo.oliva2
22-11-2012, 12:07
allora,ho provato a disattivare 2 core,e da 4,70 ghz stabile ( 6 core) ho fatto il 3d mark 06,stabilissimo con 4 core a 5,0ghz,temperatura + bassa del 4,70 ghz per 6 core,noto con piacere che spinge molto di + la vga,cioè i fotogrammi sono saliti in certi punti ad esempio da 80 a 91/93 , altri da 117 a 128,ma lo score totale della cpu,da 6400 è sceso a 5400,ma per l'uso che ne devo fare io,forse cosi' rende di + in game,e magari posso passare anche i 5 ghz,che dite?è rischioso passare i 5 ghz,anche se le temperature permettono?
Tutto dipende dalle temperature massime a cui arrivi, ed in base a ciò a che Vcore.
Cioè... dare 1,5V ad un Vishera non crea problemi, a patto che il procio diciamo che non superi i 60° (sempre meglio non portarlo a 65-70°, anche se c'è la protezione termica, nel qual caso il procio in automatica prima abbassa le frequenze e se non sufficiente a calare le temp, te lo spegne).
Quando arrivavo a 5,050GHz con l'8350 come massimo su 8 core, con 1 modulo attivo per misurare Cinebench in ST sono arrivato a 5,2GHz, terminandolo a 1,39, lo stesso valore fatto con il 1090T@4,7GHz.
Quando disabiliti 1 o più moduli o i core all'interno del modulo, ho notato una richiesta inferiore di Vcore per le stesse frequenze... anche piuttosto consistente. Per i 5,166GHz 1,608V su 8 core, per 5,2GHz su 1 modulo, 1,520V.
filo mc-ati crossfire
22-11-2012, 12:09
tu hai probabilmente disattivato un modulo completo, sopra si parlava di disattivare un singolo "core" per ogni modulo ;)
Disattivando un core per ogni modulo,avrei un tiple core,cosi' mettendo attivi solo 4 core ( da bios) ho ottenuti risultati soddisfacenti,in quanto,la vga sembra + sveglia!e la cosa mi interessa di +! quando devo usare il 3d studio,riattivo i 2 core dormienti!
PS: domanda forse stupida,allora,io a 4,70ghz con 6 core attivi sono stabilissimo,ora con 4 core attivi arrivo a benchare tranquillamente a 5,0ghz,ma se attivo solo 5 core,potrei riuscire ad avere i 4,9ghz,sbaglio?
Diablo III
22-11-2012, 12:13
Disattivando un core per ogni modulo,avrei un tiple core,cosi' mettendo attivi solo 4 core ( da bios) ho ottenuti risultati soddisfacenti,in quanto,la vga sembra + sveglia!e la cosa mi interessa di +! quando devo usare il 3d studio,riattivo i 2 core dormienti!
evidentemente non hai colto il significato che c'è dietro alla disabilitazione di un core per modulo :p
filo mc-ati crossfire
22-11-2012, 12:46
evidentemente non hai colto il significato che c'è dietro alla disabilitazione di un core per modulo :p
se me lo spieghi lo capisco hahahaha:sofico:
digieffe
22-11-2012, 13:23
se me lo spieghi lo capisco hahahaha:sofico:
sinceramente non riesco a capire se stai scherzando :)
cmq, disattivando 1 core per modulo, a parità di Ghz anderebbe circa il 20% in più sul singolo core.
es: fissati i 4.6 ghz, ora fai 100x6 = 600, disattivati i 3 core, faresti 120x3 = 360.
quindi i restanti 3 core farebbero 120 ciascuno riducendo il collo di bottiglia con le vga... (nei casi appositi)
ora non so se il tuo sistema disattivati i 3 core (uno per modulo) ti permette anche di salire es a 4.8
digieffe
22-11-2012, 13:30
Tutto dipende dalle temperature massime a cui arrivi, ed in base a ciò a che Vcore.
Cioè... dare 1,5V ad un Vishera non crea problemi, a patto che il procio diciamo che non superi i 60° (sempre meglio non portarlo a 65-70°, anche se c'è la protezione termica, nel qual caso il procio in automatica prima abbassa le frequenze e se non sufficiente a calare le temp, te lo spegne).
UNA domanda importante da che serie di core AMD è stata introdotta la protezione termica?
ho avuto a che fare con un paio di macchine AMD piene di fuligine, che se pur ripulite, pasta nuova, ecc ora quando una quando supera i ~45° si spegne, l'altra quanto accesa per 2 ore sotto un carico medio-alto a 56-60° si resetta.
Non conosco bene questo problema ma secondo me si sono cotte le cpu... (mi capitò già con un 486dx-50)
Ringrazio anticipatamente per la risposta.
Ps: ha una certa importanza per me, thx.
paolo.oliva2
22-11-2012, 13:31
se me lo spieghi lo capisco hahahaha:sofico:
Dipende dal bios.
Penso tutti i bios prevedono l'attivazione modulo 1 / modulo 2 / modulo 3 / modulo 4.
Altri bios, e questo non so se il tuo è fra questi, prevedono l'attivazione/disattivazione di uno dei 2 core all'interno del modulo.
Praticamente...
FX 4XXX
- attivazione/disattivazione modulo 1 e attivazione/ disattivazione core 0 o 1
- attivazione/disattivazione modulo 2 e attivazione/ disattivazione core 2 o 3
FX 6XXX
Come sopra +
- attivazione/disattivazione modulo 3 e attivazione/ disattivazione core 4 o 5
FX 8XXX
Come sopra +
- attivazione/disattivazione modulo 4 e attivazione/ disattivazione core 6 o 7
paolo.oliva2
22-11-2012, 13:33
UNA domanda importante da che serie di core AMD è stata introdotta la protezione termica?
ho avuto a che fare con un paio di macchine AMD piene di fuligine, che se pur ripulite, pasta nuova, ecc ora quando una quando supera i ~45° si spegne, l'altra quanto accesa per 2 ore sotto un carico medio-alto a 56-60° si resetta.
Non conosco bene questo problema ma secondo me si sono cotte le cpu... (mi capitò già con un 486dx-50)
Ringrazio anticipatamente per la risposta.
Ps: ha una certa importanza per me, thx.
Già il Phenom II C1 la aveva... e l'ho testata di persona... si era spenta la pompa dell'acqua, mi ricordo 90° e poi si è spento tutto il sistema.
Prima non lo so... ma mi sembra di ricordare di un termodiodo al centro del socket, sulla mobo, sotto il procio... ma non ti so dire in che anno... :D .
digieffe
22-11-2012, 14:00
Già il Phenom II C1 la aveva... e l'ho testata di persona... si era spenta la pompa dell'acqua, mi ricordo 90° e poi si è spento tutto il sistema.
Prima non lo so... ma mi sembra di ricordare di un termodiodo al centro del socket, sulla mobo, sotto il procio... ma non ti so dire in che anno... :D .
un paio di precisazioni:
- i difetti erano presenti prima della revisione
- una cpu è un Athlon x2 @1900 (stock) brisbane 65nm dual che funge da file server
- l'altra è un Athlon x2 mobile QL-65 @2100 (stock) griffin 65nm notebook di riserva/prestare.
EDIT: a nessuno sono capitati casi simili?.
... scusate l'ot ma, anche questo se non é specifico, è il thread master AMD :)
UNA domanda importante da che serie di core AMD è stata introdotta la protezione termica?
ho avuto a che fare con un paio di macchine AMD piene di fuligine, che se pur ripulite, pasta nuova, ecc ora quando una quando supera i ~45° si spegne, l'altra quanto accesa per 2 ore sotto un carico medio-alto a 56-60° si resetta.
Non conosco bene questo problema ma secondo me si sono cotte le cpu... (mi capitò già con un 486dx-50)
Ringrazio anticipatamente per la risposta.
Ps: ha una certa importanza per me, thx.
La protezione termica, ergo lo spegnimento del die in caso di over_temp oltre il 20% del limite di margine assoluto, è stato introdotto con il debutto dei K8. I K7 se non stavi attento con l'oc rischiavi di far diventare il die il color della pece.
Ergo se le macchine in tuo posseso adesso non si accendono, direi che la colpa è piu da imputare a mobo e/o psu.
carlottoIIx6
22-11-2012, 16:32
Per aggirare il problema, ed avere dati vagamente sensati, uno dovrebbe fare una prova con pc in idle e vedere quanti watt si prende (vero che il watt è la "potenza" ma può indicare anche l'assorbimento energetico. Realmente per un pc è sbagliato dire "consuma tot watt" quello che si dovrebbe dire è "ha bisogno di tot watt per fare quello che fà").
Poi una prova con il pc in full e vedere quanti watt vuole o ciuccia dalla rete elettrica. E vedere la differenza.
Poi fai lo stesso gioco con procio in oc e si vede la differenza tra pc normale e pc oc.
Se uno puoi ovviamente vuole cercare di "isolare" il procio, ovviamente il secondo test uno non occa anche la vga, ma solo il processore.
Diciamo il parametro fondamentale sarebbe il Delta W assorbito dal sistema alla rete elettrica. La sua differenza tra idle e full (questi in pochi lo evidenziano invece è il parametro principe perchè un pc accesso in idle deve starci) e la differenza tra full default e full oc.
il problema è il pc secondo l'uso sta tra il minimo ed il massimo, cioè è una distribuzione di potenza, un istogramma epr intenderci.
ogni istogramma dipenderà dall'uso che ognuno fa del pc, ed ogni istogramma produrra un consumo diverso.
quindi se il dato idle sicuramente è indicativo del consumo della cpu, il dato amssimo no, sarebbe interessente il dato medio, ma che dipende dall'uso del pc.
alla fine l'unico modo per vedere il consume reale di uno è:
1) metti il wattometro a misurare i kwh consumati
2) usa il computer un mese
3) fa la media ad un giorno
in questo scenario, nella gran parte degli utenti, le differenze intel-amd diventano irrisorie e così tra cpu amd diverse.
carlottoIIx6
22-11-2012, 16:35
comunque mi spiace contraddirti ma l'esempio della macchina è fuorviante, perchè anche se arriva prima(meno tempo) ha effettivamente consumato più benzina(kwh) rispetto a quella più lenta per percorrere la stressa strada(lavoro), invece per le cpu non è cosi, semplicemente perchè la benzina si utilizza al metro/kilometro(lavoro) mentre la corrente al secondo/ora(tempo)...
certo, però ho voluto sottolineare un'altra cosa extra consumo.
cioè uno potrebbe essere interessato ad arrivare prima, o meglio volevo porre questa domanda:
se arrivi prima, ti importa che questo ti è costato qualche kwh in più?
certo, però ho voluto sottolineare un'altra cosa extra consumo.
cioè uno potrebbe essere interessato ad arrivare prima, o meglio volevo porre questa domanda:
se arrivi prima, ti importa che questo ti è costato qualche kwh in più?
Per quanto riguarda l'esempio automobile: io personalmente preferisco arrivare dopo, consumare meno benzina (e quanto dipende dal motore dell'auto) e soprattutto abbassare del 50% il rischio di sfracellarmi contro un autotir con rimorchio annesso.
Ma questo è un altro discorso...
Per quanto riguarda l'esempio cpu: preferisco piu potenza a costo di leggeri consumi maggiori. Del resto per l'utilizzo che ci faccio io con le mie macchine (che sono accese anche piu di una giornalmente) i consumi purtroppo per me sono inevitabili. Ma ammortizzo le spese con i guadagni dei lavori che faccio grazie all'operatività e reattività delle mie macchine. Ergo lo stesso funziona nelle aziende. I consumi sono si importanti, ma quando entra in scena l'efficienza in termini di potenza e tempistiche di finire un determinato progetto/lavoro il consumo passa in secondo piano.
I consumi lasciamoli al settore mobile, perchè li hanno un senso. Però lo hanno anche i pc casalinghi (non orientanti alla professionalita dove ci ricavi guadagni), a questo punto questo tipo di utenti è logico che guardano i consumi. Ma alla fine parliamo sempre di medie impercettibili, a meno che non si tiene la macchina overcloccata 24 su 24 allo stremo e super overvoltata. Ma deduco che gli utenti medi che si preoccupano dei consumi sicuramente a sua volta non sono direttamente interessati ai vari overclock cpu, gpu, ram e affini...
Caterpillar86
22-11-2012, 17:59
Già il Phenom II C1 la aveva... e l'ho testata di persona... si era spenta la pompa dell'acqua,
Che pompa era?
paolo.oliva2
22-11-2012, 18:33
Che pompa era?
Una swiftech, che ho ancora... si era staccato il cavetto di alimentazione...
sergio.p.
22-11-2012, 18:47
----------------C'è una cosa che non mi è chiara... Io avevo un Llano, 35W TDP, ed il portatile aveva una autonomia sulle 3h/4h... cliccando la batteria da carico mi dava 4h 30'.... ora ho un Trinity, sempre 35W TDP, ma la batteria, che mi sembra la stessa di Llano, mi dura 7-8h sicuro, 9h 30' cliccando sulla batteria... se confronto i 2 risultati, Trinity consumerebbe sicuro la metà di un Llano pur avendo lo stesso TDP.
magari(ipotesi) il turbo migliore consente di svolgere a pari consumo(istantaneo) le operazioni in meno tempo e quindi fa si che in totale il consumo sia più basso; o magari la gpu del trinity occupa una fetta maggiore in quei 35W, o altro ancora l'idle della gpu è migliore
- una cpu è un Athlon x2 @1900 (stock) brisbane 65nm dual che funge da file server
- l'altra è un Athlon x2 mobile QL-65 @2100 (stock) griffin 65nm notebook di riserva/prestare.
il mio turion è un griffin 65nm e una volta si è spento per il calore
paolo.oliva2
22-11-2012, 18:52
Per quanto riguarda l'esempio automobile: io personalmente preferisco arrivare dopo, consumare meno benzina (e quanto dipende dal motore dell'auto) e soprattutto abbassare del 50% il rischio di sfracellarmi contro un autotir con rimorchio annesso.
Ma questo è un altro discorso...
Per quanto riguarda l'esempio cpu: preferisco piu potenza a costo di leggeri consumi maggiori. Del resto per l'utilizzo che ci faccio io con le mie macchine (che sono accese anche piu di una giornalmente) i consumi purtroppo per me sono inevitabili. Ma ammortizzo le spese con i guadagni dei lavori che faccio grazie all'operatività e reattività delle mie macchine. Ergo lo stesso funziona nelle aziende. I consumi sono si importanti, ma quando entra in scena l'efficienza in termini di potenza e tempistiche di finire un determinato progetto/lavoro il consumo passa in secondo piano.
I consumi lasciamoli al settore mobile, perchè li hanno un senso. Però lo hanno anche i pc casalinghi (non orientanti alla professionalita dove ci ricavi guadagni), a questo punto questo tipo di utenti è logico che guardano i consumi. Ma alla fine parliamo sempre di medie impercettibili, a meno che non si tiene la macchina overcloccata 24 su 24 allo stremo e super overvoltata. Ma deduco che gli utenti medi che si preoccupano dei consumi sicuramente a sua volta non sono direttamente interessati ai vari overclock cpu, gpu, ram e affini...
Io, quotandoti, aggiungerei qualche cosa.
Il mio PC è acceso 24h su 24 per 365 giorni l'anno... per l'80% ha come carico unicamente torrent... il rimanente qualche conversione, qualche giocata, e caxxeggio in internet.
A dispetto del TDP nominale che è 125W per un 8350, comunque in situazione idle l'8350 ha gli stessi consumi di un 6300 e 4300, perchè 1W/h +/- penso non venga neppure "sentito" dal contatore...
Sotto carico, quando un 8350 è sfruttato come un 4300 o un 6300, non consuma di più, anzi, probabilmente facendo parte della selezione migliore, niente di più che consumi anche meno.
Quando viene sfruttato con tutti i core, ok, consumerà di più ma in un arco di tempo inferiore... cioè, se un FX X4 ha 50W di potenza per fare una conversione e ci impiega 1h, avro' 50W/h. Un X8 in primis non ha una potenza doppia rispetto un X4, ma leggermente inferiore (per il discorso che MC/cache L3/I/O hanno dei consumi fissi e sono gli stessi sia in un X4 che X8), mettiamo 90W, ma eseguirà lo stesso lavoro in metà tempo, cio' 30', quindi sarebbero 45W/h contro i 50W/h di un X4.
E' per questo che non ha senso dire che un X4 consuma meno di un X6 che a sua volta meno di un X8, perchè, in realtà, l'X8 secondo me è il procio con il consumo minore a parità di lavoro eseguito.
E poi trovo comunque ridicolo sta puntualizzazione sempre dei consumi... semplicemente perchè anche il più piccolo degli OC ha un rapporto consumo/potenza ottenuta largamente sfavorevole a qualsiasi procio def in commercio, quindi perchè puntigliare 5W +/- quando con un OC già si parlerebbe minimo del doppio? Dai... se hai un 8350, si potrebbe fare anche a meno di occarlo, ma se hai un X4... di ragioni ce ne sarebbero di più...
Ha più senso ad esempio anzichè confrontare gli FX X4/X6/X8 tra di loro, confrontarli con la concorrenza, perchè il 3770K offre una potenza maggiore con consumi inferiori, ma questo risparmio non è grande quanto lo si crede, ma c'è.
Cioè, se uno vuole consumare poco, che si prenda un portatile 35W ed un pannello solare per ricaricarlo... oppure un inverter 12V e lo attacca alla batteria dell'auto... :sofico:
dav1deser
22-11-2012, 19:27
Quando viene sfruttato con tutti i core, ok, consumerà di più ma in un arco di tempo inferiore... cioè, se un FX X4 ha 50W di potenza per fare una conversione e ci impiega 1h, avro' 50W/h. Un X8 in primis non ha una potenza doppia rispetto un X4, ma leggermente inferiore (per il discorso che MC/cache L3/I/O hanno dei consumi fissi e sono gli stessi sia in un X4 che X8), mettiamo 90W, ma eseguirà lo stesso lavoro in metà tempo, cio' 30', quindi sarebbero 45W/h contro i 50W/h di un X4.
Giusto per puntualizzare sono Wh, non W/h.
Spiegazione semplice: se fossero W/h, 50W di conversione video, durata 2h, totale 25W/h, quindi avresti consumato di meno che a metterci meno tempo. Quindi devono essere 100Wh.
Spiegazione complicata (ma poco). I watt sono una potenza, cioè energia diviso tempo, i wattora sono energia, quindi devi moltiplicare un tempo ai watt per ritornare all'energia.
Giusto per puntualizzare sono Wh, non W/h.
Spiegazione semplice: se fossero W/h, 50W di conversione video, durata 2h, totale 25W/h, quindi avresti consumato di meno che a metterci meno tempo. Quindi devono essere 100Wh.
Spiegazione complicata (ma poco). I watt sono una potenza, cioè energia diviso tempo, i wattora sono energia, quindi devi moltiplicare un tempo ai watt per ritornare all'energia.
ahhh l'analisi dimensionale fonte di gioia e disperazione ai tempi dell'università..... :D :D
digieffe
22-11-2012, 19:44
La protezione termica, ergo lo spegnimento del die in caso di over_temp oltre il 20% del limite di margine assoluto, è stato introdotto con il debutto dei K8. I K7 se non stavi attento con l'oc rischiavi di far diventare il die il color della pece.
Ergo se le macchine in tuo posseso adesso non si accendono, direi che la colpa è piu da imputare a mobo e/o psu.
non è che non si accendono una si spegne dopo un tot e l'altra si resetta. (come specificato prima)
il mio turion è un griffin 65nm e una volta si è spento per il calore
spento per la protezione o inchiodato o resettato?
non hai avuto nessuna conseguenza?
non è che non si accendono una si spegne dopo un tot e l'altra si resetta. (come specificato prima)
Per la macchina che si spegne mi gioco tutto che è l'alimentatore con i finali partiti o condensatori non piu efficienti che a carichi eccessivi o dopo un po di tempo (causa X) si spegne, spegnendo di conseguenza tutto il resto.
Per quello che si resetta potrebbe anche essere il psu, ma a questa macchina posso anche dare la colpa alla mobo/ram. Prova quindi a togliere il/i modulo/i ram, pulirlo/i e cambiarli/invertirgli slot.
sergio.p.
22-11-2012, 20:49
spento per la protezione o inchiodato o resettato?
non hai avuto nessuna conseguenza?
stavo giocando e non mi ero accorto che la feritoia di uscita dell'aria era tappata da varie cose, il pc a un certo punto semplicemente è diventato con schermo nero, così all'improvviso(era spento ovviamente). quando l'ho acceso se non sbaglio mi ha chiesto la solita cosa: attivare normalmente/ in mod. provvisoria ecc. non so se era un fattore legato alla scheda madre che, salendo troppo in temp, ha staccaato tutto o se è stata la scheda video
Wolfhang
22-11-2012, 21:38
Ha più senso ad esempio anzichè confrontare gli FX X4/X6/X8 tra di loro, confrontarli con la concorrenza, perchè il 3770K offre una potenza maggiore con consumi inferiori, ma questo risparmio non è grande quanto lo si crede, ma c'è.
qui l'efficienza e i consumi li hanno quantificati...
http://www.tomshw.it/cont/articolo/recensione-amd-fx-8350-ecco-vishera-con-core-piledriver-consumi-ed-efficienza/40519/18.html
paolo.oliva2
22-11-2012, 22:13
qui l'efficienza e i consumi li hanno quantificati...
http://www.tomshw.it/cont/articolo/recensione-amd-fx-8350-ecco-vishera-con-core-piledriver-consumi-ed-efficienza/40519/18.html
C'è verso un 3770K, peccato che non confronta l'8350 con un 6300 o 4300.
Però... senza nulla voler togliere ai consumi inferiori del 3770K, come ho anche sottolineato nel mio test di prima, vorrei farti riflettere su un punto.
Ora, se mi fai un test, fammelo su una rosa completa di situazioni tipo, cioè dal carico al 100%, al carico 70%, al carico 50%, fino al 10% e all'idle.
Se tu invece fai il test UNICAMENTE sotto carico al 100%, è indiscutibile che il 3770K consumi meno di un 8350, azzo, è un 22nm contro un 32nm, però in questo modo fai credere che un 3770K ti consuma un 47% in meno SEMPRE, mentre sappiamo, ad esempio, che in idle, un 8350 consuma meno del 3770K sia come CPU che come intero sistema.
Poi è chiaro che se in idle l'8350 consuma 1W/h in meno del 3770K, ci vorrebbero 40h e passa di idle per compensare anche 1 sola ora a pieno carico dove il 3770K consuma di meno, però in mezzo ci sono situazione di carico che vanno da 99% all'1% in cui proporzionatamente la differenza di consumo tra i 2 sistemi si riduce.
Cioè... ad esempio... se un gioco sfrutta 3TH al massimo, su 8 disponibili, vorrebbe dire (a spannella) che il procio è sfruttato al 34%, quindi i 120W/h in più di un 8350 sui 230W/h di un 3770K, si ridurrebbero a 40W/h. Quindi... su una giornata tipo di 8h, di cui 1h sfruttamento al 100%, 3h di gioco al 34% e di 4h di idle ad esempio con torrent, un 8350 non consumerebbe 1KW/h in più (cioè i 120W/h * 8h), ma (120W/h per 1h, 40W/h per 3h e -4W/h per 4 ore) 236W/h, ovvero 5 centesimi di €, ovvero 20 giorni per arrivare ad 1€, 18€ all'anno in più usandolo 8h al giorno, tutti i giorni.
Non so se mi segui... io di Tom's non ho molta stima... perchè in ogni suo articolo, chissà perchè, fanno vedere sempre 1 solo lato della medaglia, solamente quella che vogliono far vedere... non ti ricordi l'articolo sulle vendite AMD di poco fa? Scusa... fai un confronto al 31 dicembre del 2011 e al 31 dicembre 2012.... se invece punti la lente da agosto 2012 a ottobre 2012, per far vedere che le vendite Zambesi calano, a me sembra cercato e voluto... chi comprerebbe un 8150 se dopo 1 settimana a 10€ in più si comprerebbe un 8350?
Idem quell'articolo sui consumi... qual'è la situazione dove il 3770K consuma meno confrontato ad un 8350? Chiaro, a carico 100%... Chissà perchè tutte le altre situazioni non compaiono... tu pensi che se il 3770K consumasse meno dell'8350 in idle non l'avrebbero messo? Chissà perchè, invece, manca.
P.S.
Con questo non voglio dire che il 3770K non sia più efficiente dell'8350, perchè secondo me forse ancora il 2600K lo sarebbe... però non cerchiamo di far apparire una lampada a basso consumo come se avesse una resa tipo un led...
paolo.oliva2
22-11-2012, 22:40
L'8150 a quanto era arrivato in OC?
Qui sono a 8,670GHz con l'8350, Andre Yang
http://xtreview.com/images/processor%20FX-8350%20_02.png
Diablo III
22-11-2012, 22:42
L'8150 a quanto era arrivato in OC?
Qui sono a 8,670GHz con l'8350, Andre Yang
http://xtreview.com/images/processor%20FX-8350%20_02.png
poco più di 8.7ghz, record sempre di andre:)
Wolfhang
22-11-2012, 22:46
Idem quell'articolo sui consumi... qual'è la situazione dove il 3770K consuma meno confrontato ad un 8350? Chiaro, a carico 100%... Chissà perchè tutte le altre situazioni non compaiono... tu pensi che se il 3770K consumasse meno dell'8350 in idle non l'avrebbero messo? Chissà perchè, invece, manca.
magari se leggi bene trovi anche i consumi in idle....
digieffe
22-11-2012, 23:02
Però... senza nulla voler togliere ai consumi inferiori del 3770K, come ho anche sottolineato nel mio test di prima, vorrei farti riflettere su un punto.
Ora, se mi fai un test, fammelo su una rosa completa di situazioni tipo, cioè dal carico al 100%, al carico 70%, al carico 50%, fino al 10% e all'idle.
Se tu invece fai il test UNICAMENTE sotto carico al 100%, è indiscutibile che il 3770K consumi meno di un 8350, azzo, è un 22nm contro un 32nm, però in questo modo fai credere che un 3770K ti consuma un 47% in meno SEMPRE, mentre sappiamo, ad esempio, che in idle, un 8350 consuma meno del 3770K sia come CPU che come intero sistema.
Poi è chiaro che se in idle l'8350 consuma 1W/h in meno del 3770K, ci vorrebbero 40h e passa di idle per compensare anche 1 sola ora a pieno carico dove il 3770K consuma di meno, però in mezzo ci sono situazione di carico che vanno da 99% all'1% in cui proporzionatamente la differenza di consumo tra i 2 sistemi si riduce.
Cioè... ad esempio... se un gioco sfrutta 3TH al massimo, su 8 disponibili, vorrebbe dire (a spannella) che il procio è sfruttato al 34%, quindi i 120W/h in più di un 8350 sui 230W/h di un 3770K, si ridurrebbero a 40W/h. Quindi... su una giornata tipo di 8h, di cui 1h sfruttamento al 100%, 3h di gioco al 34% e di 4h di idle ad esempio con torrent, un 8350 non consumerebbe 1KW/h in più (cioè i 120W/h * 8h), ma (120W/h per 1h, 40W/h per 3h e -4W/h per 4 ore) 236W/h, ovvero 5 centesimi di €, ovvero 20 giorni per arrivare ad 1€, 18€ all'anno in più usandolo 8h al giorno, tutti i giorni.Sai quanto sono critico nei confronti di Amd a seguito delle vicende e dei rumors, ma su questo hai perfettamente ragione.
Non stiamo parlando di server (per la maggior parte del tempo sotto carico), anzi esclusi utilizzi particolari (rendering, che poi si può considerre cmq un server) l'utilizzo dovrebbe tendere molto più a ZERO che al 100%.
si dovrebbe registrare il consumo tipico di una settimana per 3/4...5 categorie di utenti e valutare il reale consumo quotidiano: sono convinto che le differenze (a parte utilizzi particolari) sarebbero irrisorie.
Wolfhang
22-11-2012, 23:17
Sai quanto sono critico nei confronti di Amd a seguito delle vicende e dei rumors, ma su questo hai perfettamente ragione.
Non stiamo parlando di server (per la maggior parte del tempo sotto carico), anzi esclusi utilizzi particolari (rendering, che poi si può considerre cmq un server) l'utilizzo dovrebbe tendere molto più a ZERO che al 100%.
si dovrebbe registrare il consumo tipico di una settimana per 3/4...5 categorie di utenti e valutare il reale consumo quotidiano: sono convinto che le differenze (a parte utilizzi particolari) sarebbero irrisorie.
quindi qui c'è gente che si compra un 8 core, lo overclocca a 4,5/5 Ghz per lasciarlo in idle la maggior parte del tempo??
si prendeva un celeron e faceva un affare...
capitan_crasy
22-11-2012, 23:33
quindi qui c'è gente che si compra un 8 core, lo overclocca a 4,5/5 Ghz per lasciarlo in idle la maggior parte del tempo??
si prendeva un celeron e faceva un affare...
Non è una questione di prendere un celeron, ma per la maggior parte della sua vita la CPU ha una via di mezzo che non viene mai misurata...
Detto questo è anche vero che non è proprio quantificabile questa zona grigia e credo che sia poco credibile cercare di darli dei numeri o percentuali per giustificare un difetto sui consumi al 100%...
paolo.oliva2
23-11-2012, 01:38
quindi qui c'è gente che si compra un 8 core, lo overclocca a 4,5/5 Ghz per lasciarlo in idle la maggior parte del tempo??
si prendeva un celeron e faceva un affare...
Io concordo perfettamente sui minori consumi...
però uno non compra un procio potente perchè ha sempre bisogno della potenza.
Io non mi comprerei mai una Panda, ma non vuole dire che se prendo una Ferrari sto sempre a 300KM/h. Idem con il procio... se fai una conversione video, non ci voglio mettere 1 giorno, ma questo non vuole dire che se ho preso un X8 ci devo stare tutto il giorno a stracaricarlo di programmi...
Dal mio punto di vista, poi, un X8 non offre solamente più potenza in MT, ma una riserva di potenza, perchè indipendentemente da quello che gira "sotto", "lui" accetta senza problemi quello che in quel preciso momento mi viene voglia di fare. Sto scaricando con Torrent, sto convertendo un film, sto girando in internet, mi viene voglia di giocare, voglio spatacare con il telescopio, voglio masterizzare, non c'è problema, non devo attendere la fine di un programma per evitare micro-interruzioni. Questo modo di agire è impensabile con un X4 Phenom II, foss'anche il 980, ed è già stretto con un Thuban.
Io concordo perfettamente sui minori consumi...
però uno non compra un procio potente perchè ha sempre bisogno della potenza.
Io non mi comprerei mai una Panda, ma non vuole dire che se prendo una Ferrari sto sempre a 300KM/h. Idem con il procio... se fai una conversione video, non ci voglio mettere 1 giorno, ma questo non vuole dire che se ho preso un X8 ci devo stare tutto il giorno a stracaricarlo di programmi...
Dal mio punto di vista, poi, un X8 non offre solamente più potenza in MT, ma una riserva di potenza, perchè indipendentemente da quello che gira "sotto", "lui" accetta senza problemi quello che in quel preciso momento mi viene voglia di fare. Sto scaricando con Torrent, sto convertendo un film, sto girando in internet, mi viene voglia di giocare, voglio spatacare con il telescopio, voglio masterizzare, non c'è problema, non devo attendere la fine di un programma per evitare micro-interruzioni. Questo modo di agire è impensabile con un X4 Phenom II, foss'anche il 980, ed è già stretto con un Thuban.
Quoto, e questo è il motivo che ricopre oggi almeno il 70% di utenza che acquista processori top di gamma. (gamers, utenti che aprono n.mila processi/applicazioni e vogliono tutto reattivo e fluido).
Un 20% sono professionisti o persone che lavorano e vogliono potenza h24 su singole applicazioni parallelizzate MT.
E il restante 10% sono smanettoni overclockers che occano mezzora, e poi tengono tutto in idle o rivendono il procio per testarne altri e togliersi lo sfizio, oppure abbassano l'oc e lo tengono RS DU per andare poi a fare quello che fanno gli utenti apaprtenenti alal fascia del 70% +10 diventano 80%.
Ma poi un'altra cosa: io ho 5 macchine, di cui 2 sono aperte 24h per almeno 5 giorni su 7. Le due macchine sempre aperte sono: fx-8320 e il 1055T (ERGO AMD), entrambi sono overcloccati in maniera umana però ad aria. Io in bolletta non supero le 130 euro (ma ho tanti altri elettrodomestici e tv in casa). Se avessi avuto 2600k + 3770k al posto di quei due, risparmiavo 4 euro ogni due mesi ? Ma pure 5 tè...? Ergo ? Che cambia ?
cloud_2004
23-11-2012, 07:20
Io concordo perfettamente sui minori consumi...
però uno non compra un procio potente perchè ha sempre bisogno della potenza.
Io non mi comprerei mai una Panda, ma non vuole dire che se prendo una Ferrari sto sempre a 300KM/h. Idem con il procio... se fai una conversione video, non ci voglio mettere 1 giorno, ma questo non vuole dire che se ho preso un X8 ci devo stare tutto il giorno a stracaricarlo di programmi...
Dal mio punto di vista, poi, un X8 non offre solamente più potenza in MT, ma una riserva di potenza, perchè indipendentemente da quello che gira "sotto", "lui" accetta senza problemi quello che in quel preciso momento mi viene voglia di fare. Sto scaricando con Torrent, sto convertendo un film, sto girando in internet, mi viene voglia di giocare, voglio spatacare con il telescopio, voglio masterizzare, non c'è problema, non devo attendere la fine di un programma per evitare micro-interruzioni. Questo modo di agire è impensabile con un X4 Phenom II, foss'anche il 980, ed è già stretto con un Thuban.
ciao,volevo chiederti una curiosità.mantieni attive le tecnologie di risparmio energetico?(c1,Cool'n'Quiet ecc)
Quoto, e questo è il motivo che ricopre oggi almeno il 70% di utenza che acquista processori top di gamma. (gamers, utenti che aprono n.mila processi/applicazioni e vogliono tutto reattivo e fluido).
Un 20% sono professionisti o persone che lavorano e vogliono potenza h24 su singole applicazioni parallelizzate MT.
E il restante 10% sono smanettoni overclockers che occano mezzora, e poi tengono tutto in idle o rivendono il procio per testarne altri e togliersi lo sfizio, oppure abbassano l'oc e lo tengono RS DU per andare poi a fare quello che fanno gli utenti apaprtenenti alal fascia del 70% +10 diventano 80%.
Ma poi un'altra cosa: io ho 5 macchine, di cui 2 sono aperte 24h per almeno 5 giorni su 7. Le due macchine sempre aperte sono: fx-8320 e il 1055T (ERGO AMD), entrambi sono overcloccati in maniera umana però ad aria. Io in bolletta non supero le 130 euro (ma ho tanti altri elettrodomestici e tv in casa). Se avessi avuto 2600k + 3770k al posto di quei due, risparmiavo 4 euro ogni due mesi ? Ma pure 5 tè...? Ergo ? Che cambia ?
Cambia: 4 € * 6 * 10 anni = 240 €. Tu ne hai solo 2, quindi hai bisogno di 10 anni per vedere la differenza e non ti poni il problema. Prova a pensare ad un'azienda che ne ha 100.
Considivisibili opinioni di un utente di overclock.net
"But I'm going to go on one of my angry rants about how everyone goes, "imagine what would happen if AMD went out of business, x86 CPUs would suck!" and then I rant about how x86 performance from 2004 netburst single core p4 to core i7 920 in 2008 is a hell of a lot bigger jump than quad core i7 920 in 2008 to i7 3770k in 2012. And about how you have to pay for the privilege to overclock your CPU with a K version, even though it's been free for 30+ years. And how sockets change all the time. And how a 91mm^2 i3 chip is being sold for $129. And how Intel just cuts features off of lower tier chips (like virtualization). The x86 market is already ****, if you waited 4 years after buying a p4 system in 2004 you had a damn good reason to upgrade in 2008 to a core system. If you bought an i7 920 in 2008, you have almost no reason to upgrade to i7 3770k 4 years later in 2012 unless you want to do something like me. Compilng Blender on Gentoo to use FMA and all that fun stuff and cut the render time on my benchmark file from close to 3 minutes on my 4ghz i7 920 to 50 seconds on 5ghz FX 8350 with FMA4 and stuff (yes, it really is almost 3 times faster at Blender rendering than my Intel i7 920 at 4ghz when the FX 8350 uses FMA4 and all the other good CFLAGS from the gentoo wiki and GCC 4.6+). But you don't see anyone taking advantage of those instructions and you just see AMD getting clobbered in benchmarks like SuperPI and unpatched versions of Skyrim that love x87 instructions because the majority of review sites are **** and ran by people who want to bend over for whoever gives them free silicon, and Nvidia and Intel just love to throw in a free handjob when they get done with review sites. Not all of them are bad, but a ton of them are."
:D
Sto qui si è incazzato un po....:sofico: :sofico:
Mi dai il link della discussione
Sto qui si è incazzato un po....:sofico: :sofico:
Mi dai il link della discussione
http://www.overclock.net/t/1318995/official-fx-8320-fx-8350-vishera-owners-club/3940
paolo.oliva2
23-11-2012, 09:22
ciao,volevo chiederti una curiosità.mantieni attive le tecnologie di risparmio energetico?(c1,Cool'n'Quiet ecc)
Al momento si, @4,6GHz, 1,45V (ma basterebbero 1,425V), in idle mi arriva a 0,937V 1,4GHz.
Anche se cerchi l'OC massimo, potrebbero stare attivi... nel senso che finchè è sotto carico e non cambia P-State, non direbbe nulla alla stabilità.
paolo.oliva2
23-11-2012, 09:44
Cambia: 4 € * 6 * 10 anni = 240 €. Tu ne hai solo 2, quindi hai bisogno di 10 anni per vedere la differenza e non ti poni il problema. Prova a pensare ad un'azienda che ne ha 100.
Un'azienda che ne ha 100 non cambia una mazza, perchè se con 1 PC risparmi 20€ l'anno di corrente contro 100€ di spesa in più, con 100 PC risparmieresti 2.000€ l'anno, ma con una spesa iniziale di 10.000€ in più, gira come la giri sono sempre quei 5 anni (di meno... con gli studi di settore, tu le tasse le paghi indipendentemente dall'ammontare degli acquisti, che hanno un tetto massimo... invece credo che le bollette si possano scaruicare per intero).
Vedi, è tutto il discorso che scricchiola... il 3770K ha più potenza ST dell'8350, è più potente in MT e consuma meno.
Uno vuole la massima potenza ST, si compra il 3770K. Vuole rimanere nella fascia 1155/AM3+? Fa le sue valutazioni tra 3770K e 8350.
Ma quei 100€ di differenza non ti ritorneranno mai indietro dalle bollette, perchè il procio lo si sarà cambiato prima... (io in generale lo cambio 1 volta l'anno... 5 anni sono un'era nel PC) e nel caso di un utilizzo intensivo al 100% per 8h ore al giorno, quindi spudoratamente MT, non sarebbe idoneo nè il 3770K e nè un 8350, ma un SBe X6 foss'anche da 150W TDP o aspettare un IVYe... ma in questo caso l'offerta server sarebbe da valutare, appunto, perchè aumenta la potenza MT ma su un range di frequenza dove i processori risultano molto più efficienti, cioè >numero di core e <frequenza operativa.
Oppure si fa come ho fatto io... quando cambi il procio prendi un sistema ex-novo e ti tieni il vecchio... Anziché prendere 8350 + SBe X6, ho preferito tenermi il 1090T e l'8150 al posto dell'SBe X6... ma dove sono io, la bolletta costa 10-20 volte di meno... non esiste la scelta in base al consumo, un francese non la penserà MAI come un italiano..., come pure uno svizzero... in stati dove la cucina esiste solamente elettrica e la bolletta costa 1/10 rispetto all'Italia, il discorso risparmio consumo assume un'importanza nettamente inferiore perchè i 5 anni diventerebbero 50... (nel mio caso, 100 anni)
Cambia: 4 € * 6 * 10 anni = 240 €. Tu ne hai solo 2, quindi hai bisogno di 10 anni per vedere la differenza e non ti poni il problema. Prova a pensare ad un'azienda che ne ha 100.
La % di consumi rimane stabile però...
Senza contare che nessuna azienda sana tiene 100 PC per 10 anni.
Almeno se parliamo di ambiti lavorativi dove serve la potenza...
Se parliamo di comuni o di altri enti della PA allora i 10 anni sono anche pochi... Per quanto lavorano... :asd: :asd: :asd:
Considivisibili opinioni di un utente di overclock.net
"But I'm going to go on one of my angry rants about how everyone goes, "imagine what would happen if AMD went out of business, x86 CPUs would suck!" and then I rant about how x86 performance from 2004 netburst single core p4 to core i7 920 in 2008 is a hell of a lot bigger jump than quad core i7 920 in 2008 to i7 3770k in 2012. And about how you have to pay for the privilege to overclock your CPU with a K version, even though it's been free for 30+ years. And how sockets change all the time. And how a 91mm^2 i3 chip is being sold for $129. And how Intel just cuts features off of lower tier chips (like virtualization). The x86 market is already ****, if you waited 4 years after buying a p4 system in 2004 you had a damn good reason to upgrade in 2008 to a core system. If you bought an i7 920 in 2008, you have almost no reason to upgrade to i7 3770k 4 years later in 2012 unless you want to do something like me. Compilng Blender on Gentoo to use FMA and all that fun stuff and cut the render time on my benchmark file from close to 3 minutes on my 4ghz i7 920 to 50 seconds on 5ghz FX 8350 with FMA4 and stuff (yes, it really is almost 3 times faster at Blender rendering than my Intel i7 920 at 4ghz when the FX 8350 uses FMA4 and all the other good CFLAGS from the gentoo wiki and GCC 4.6+). But you don't see anyone taking advantage of those instructions and you just see AMD getting clobbered in benchmarks like SuperPI and unpatched versions of Skyrim that love x87 instructions because the majority of review sites are **** and ran by people who want to bend over for whoever gives them free silicon, and Nvidia and Intel just love to throw in a free handjob when they get done with review sites. Not all of them are bad, but a ton of them are."
:D
Condivido appieno l'idea, ma non i toni.
Riguardo alla "corruzione" che fanno Nvidia e Intel alle redazioni, loro purtroppo possono permetterselo, al contrario di AMD.
Certo che se ti vengono a consigliare un processore Intel a 80€ quando un AMD dello stesso prezzo è notevolmente più equilibrato o una 660 ti come scheda da gioco (che va quanto una 7870, che costa anche 40€ in meno in versioni custom overclockate) allora la cosa fa parecchio riflettere... :stordita:
PS: per chi non è mai andato oltre Windows o non ha mai compilato nulla su Linux cercando di ottimizzare, i CFLAGS citati in quel messaggio non sono altro che dei valori che vengono passati al compilatore per abilitare certe istruzioni quando viene compilato in C. Vale anche per programmi in C++ generalmente (solitamente i valori per C++ sono gli stessi di quelli per C).
paolo.oliva2
23-11-2012, 11:54
Considivisibili opinioni di un utente di overclock.net
"But I'm going to go on one of my angry rants about how everyone goes, "imagine what would happen if AMD went out of business, x86 CPUs would suck!" and then I rant about how x86 performance from 2004 netburst single core p4 to core i7 920 in 2008 is a hell of a lot bigger jump than quad core i7 920 in 2008 to i7 3770k in 2012. And about how you have to pay for the privilege to overclock your CPU with a K version, even though it's been free for 30+ years. And how sockets change all the time. And how a 91mm^2 i3 chip is being sold for $129. And how Intel just cuts features off of lower tier chips (like virtualization). The x86 market is already ****, if you waited 4 years after buying a p4 system in 2004 you had a damn good reason to upgrade in 2008 to a core system. If you bought an i7 920 in 2008, you have almost no reason to upgrade to i7 3770k 4 years later in 2012 unless you want to do something like me. Compilng Blender on Gentoo to use FMA and all that fun stuff and cut the render time on my benchmark file from close to 3 minutes on my 4ghz i7 920 to 50 seconds on 5ghz FX 8350 with FMA4 and stuff (yes, it really is almost 3 times faster at Blender rendering than my Intel i7 920 at 4ghz when the FX 8350 uses FMA4 and all the other good CFLAGS from the gentoo wiki and GCC 4.6+). But you don't see anyone taking advantage of those instructions and you just see AMD getting clobbered in benchmarks like SuperPI and unpatched versions of Skyrim that love x87 instructions because the majority of review sites are **** and ran by people who want to bend over for whoever gives them free silicon, and Nvidia and Intel just love to throw in a free handjob when they get done with review sites. Not all of them are bad, but a ton of them are."
:D
E' roba che più o meno sappiamo tutti. Io non condivido il discorso di aggiornamento... mi pare chiaro... per uno che ha upgradato dal 1090T all'8150 :sofico:...
Per come la vedo io, Intel è indubbiamente superiore sia per consumi che per potenza, è evidente, come è evidente che c'è un continuo ingigantimento di questa differenza per giustificare un listino che altrimenti non sarebbe giustificabile, come d'altronte lui riporta di un die di 91mm2 venduto quasi allo stesso prezzo di un die da 312mm2... E allora via con il discorso dei consumi, su test a misura tipo SPI, su OC presi sempre al massimo per Intel e al minimo per la contraparte...
Insomma, Intel è superiore e se uno vuole il meglio accetta di pagare di più... ma da qui a far passare che la differenza di prezzo è proporzionale ai guadagni in più, dai... non cerchiamo di vedere la neve nel Sahara.
Infatti perchè i possessori di proci Intel fanno il tifo perché AMD chiuda? Semplice... un 8350 a 190€ è un esempio che un 3770K a 300€ ha un prezzo/prestazioni più sfavorevole... togliendo di mezzo AMD, si toglierebbe l'unico punto di riferimento e di qui il confronto.
digieffe
23-11-2012, 12:06
al momento riguarderebbe solo intel, ma il trend potrebbe essere questo: http://www.hwupgrade.it/news/cpu/processori-saldati-sulla-scheda-madre-anche-per-sistemi-desktop_44780.html
Infatti perchè i possessori di proci Intel fanno il tifo perché AMD chiuda? Semplice... un 8350 a 190€ è un esempio che un 3770K a 300€ ha un prezzo/prestazioni più sfavorevole... togliendo di mezzo AMD, si toglierebbe l'unico punto di riferimento e di qui il confronto.
E i bello è che sia il 3770k che l'8350 non sono al massimo delle loro prestazioni in NESSUNA recensione perchè, come detto nel post in inglese sopra, si usano istruzioni vecchie e stravecchie. Ad esempio le x87 NON permettono in nessun modo di parallelizzare il calcolo. Le istruzioni SIMD (SSE, FMA ecc) invece lo permettono. Anzi, hanno proprio questo scopo.
Quindi è normale che in calcoli poco (o per niente) parallelizzati vinca Intel. Ha una maggiore potenza in ST e quindi meno i calcoli sono parrallelizzati, più vantaggi mostra.
Per i possessori di processori Intel, non facciamo di tutta un'erba un fascio. Sono in tanti a dire di volere una AMD più competitiva sia come prestazioni che come consumi (anche qui, sempre calcolando il TDP massimo) per avere sia un maggiore aumento di potenza che per avere prezzi più bassi.
Ovviamente ci sono anche quelli che dicono che AMD DEVE fallire. Anzi, c'è chi dice che è fallita da un bel po' (!), che le conviene vendere la divisione grafica e chiudere i battenti. Tanto fuori uno avanti un altro. Non capiscono che un'azienda che OGGI vuole iniziare a prodrre CPU si prende una licenza ARM perchè ha supporto software, maggiori vendite e pieno controllo sullo sviluppo del core, senza necessità di partire da zero.
Nessuno ad oggi prenderebbe licenze per processori x86 o PowerPC (che ormai produce solo IBM) per il semplice fatto che hanno poche vendite rispetto a quello che chiede il mercato.
E poi una CPU x86 costa, a produrla, diversi ordini di grandezza una ARM. Ha più potenza, è vero, ma questo porta le grandi aziende a comprare più processori e le piccole aziende ad avere la possibilità di comprarle.
Ma anche nel settore ARM si fa una grande fatica, basti vedere Texas Instruments che ha deciso di mollare gli OMAP e di supportarli solo per coloro che li hanno già acquistati.
Quindi l'unica speranza sono i processori MIPS (che ora sono in mano a Imagination Technologies, la produttrice delle GPU PowerVR di Intel Medfield e dei prodotti mobili di Apple oltre agli altr), che, ricordiamoci, erano sulla PS2 nel 2000, oltre che su PSP, rimanendo comunque CPU molto molto efficenti per le prestazioni che offrono.
PeteRParkeR
23-11-2012, 12:30
Ragazzi ma è possibile che non riesca a trovare sta benedetta stabilità almeno a 4,4 GHz con l'FX-8320 ??? :cry: :cry:
Il pc boota a frequenze anche superiori 4,6GHz...impostando un adeguato voltaggio (ma sempre inferiore a 1,4 volts ) ma sotto test da segni di squilibrio...
Il punto è questo quando parto con i test per saggiarne il RS bios 1,375 llc high ( IBT, Linx o AMD overdrive ) la temperatura della cpu, (non dei core!!) (per esempio dopo 4-5-6 cicli di IBT o Linx) si porta a valori che rasentano i 60-62 gradi dopodichè sale ancora e raggiungendo i 66-68 inizia la cpu a perdere ovviamente qualità nel calcolo si abbassano prestazioni in concomitanza del fatto che il moltiplicatore si abbassa a 7x...poi a questo punto spengo il test per non stressare la cpu...
Ora deduco questo: 1) la cpu è sfigata....:mad::muro: :muro: 2) valori impostati troppo alti ?? ma non credo che tali voltaggi siano alti...e cmq più bassi poi non riuscirebbe ( ...ma il bello è che le temperature dei core (da hwmonitor) stanno sui 46-48-50 gradi su massimo carico in idle si abbassano molto e vanno anche sui 15-17 gradi.
Il dissipatore non è niente male è un Hyper 612s ( montato con cura e con un velo di arctic MX-4 ) con una viper pwm 120mm ad alta pressione dinamica. (case grande ben aerato) insomma le condizioni ottimali ci sono tutte...ma c'è qlcs che nn va...:muro:
filo mc-ati crossfire
23-11-2012, 12:42
Ragazzi ma è possibile che non riesca a trovare sta benedetta stabilità almeno a 4,4 GHz con l'FX-8320 ??? :cry: :cry:
Il pc boota a frequenze anche superiori 4,6GHz...impostando un adeguato voltaggio (ma sempre inferiore a 1,4 volts ) ma sotto test da segni di squilibrio...
Il punto è questo quando parto con i test per saggiarne il RS bios 1,375 llc high ( IBT, Linx o AMD overdrive ) la temperatura della cpu, (non dei core!!) (per esempio dopo 4-5-6 cicli di IBT o Linx) si porta a valori che rasentano i 60-62 gradi dopodichè sale ancora e raggiungendo i 66-68 inizia la cpu a perdere ovviamente qualità nel calcolo si abbassano prestazioni in concomitanza del fatto che il moltiplicatore si abbassa a 7x...poi a questo punto spengo il test per non stressare la cpu...
Ora deduco questo: 1) la cpu è sfigata....:mad::muro: :muro: 2) valori impostati troppo alti ?? ma non credo che tali voltaggi siano alti...e cmq più bassi poi non riuscirebbe ( ...ma il bello è che le temperature dei core (da hwmonitor) stanno sui 46-48-50 gradi su massimo carico in idle si abbassano molto e vanno anche sui 15-17 gradi.
Il dissipatore non è niente male è un Hyper 612s ( montato con cura e con un velo di arctic MX-4 ) con una viper pwm 120mm ad alta pressione dinamica. (case grande ben aerato) insomma le condizioni ottimali ci sono tutte...ma c'è qlcs che nn va...:muro:
per i 4,6 meno di 1,40,mi pare parecchio basso come vcore,io per avere stabilità a 4,70ghz ( fx-6100) devo dare 1,47/48,ma i 60 gradi non li passo,ho uno scythe mugen 3,una bella bestia ad aria,con su una scythe ultra kaze 30mm da 3000rpm
paolo.oliva2
23-11-2012, 13:22
Ragazzi ma è possibile che non riesca a trovare sta benedetta stabilità almeno a 4,4 GHz con l'FX-8320 ??? :cry: :cry:
Il pc boota a frequenze anche superiori 4,6GHz...impostando un adeguato voltaggio (ma sempre inferiore a 1,4 volts ) ma sotto test da segni di squilibrio...
Il punto è questo quando parto con i test per saggiarne il RS bios 1,375 llc high ( IBT, Linx o AMD overdrive ) la temperatura della cpu, (non dei core!!) (per esempio dopo 4-5-6 cicli di IBT o Linx) si porta a valori che rasentano i 60-62 gradi dopodichè sale ancora e raggiungendo i 66-68 inizia la cpu a perdere ovviamente qualità nel calcolo si abbassano prestazioni in concomitanza del fatto che il moltiplicatore si abbassa a 7x...poi a questo punto spengo il test per non stressare la cpu...
Ora deduco questo: 1) la cpu è sfigata....:mad::muro: :muro: 2) valori impostati troppo alti ?? ma non credo che tali voltaggi siano alti...e cmq più bassi poi non riuscirebbe ( ...ma il bello è che le temperature dei core (da hwmonitor) stanno sui 46-48-50 gradi su massimo carico in idle si abbassano molto e vanno anche sui 15-17 gradi.
Il dissipatore non è niente male è un Hyper 612s ( montato con cura e con un velo di arctic MX-4 ) con una viper pwm 120mm ad alta pressione dinamica. (case grande ben aerato) insomma le condizioni ottimali ci sono tutte...ma c'è qlcs che nn va...:muro:
per i 4,6 meno di 1,40,mi pare parecchio basso come vcore,io per avere stabilità a 4,70ghz ( fx-6100) devo dare 1,47/48,ma i 60 gradi non li passo,ho uno scythe mugen 3,una bella bestia ad aria,con su una scythe ultra kaze 30mm da 3000rpm
Io per i 4,6GHz ci devo dare almeno 1,425V... e gli do' 1,45V perchè nonostante test e ritest, mi sembra troppo basso come Vcore.
Ma io sono a liquido... credo di non passare i 40° sotto carico.
Se il procio ti scalda troppo, lascia perdere i 4,6GHz. Il tuo limite secondo me sono le temp, quindi o prendi un dissi più potente, o cerchi di capire quale Vcore massimo puoi dare affinchè il tuo dissi non superi i 55-60°, ed in base a quello portare il ì procio alla massima frequenza sopportabile. Da 4,6GHz portarlo a 4,5GHz ma metti anche 4,4GHz in estate, sono differenze rilevabili unicamente nei bench.
Una frequenza più bassa e temperature più basse ti possono servire per portare l'NB sui 2,4-2,5GHz, forse il tutto con differenze ridicole rispetto ai 4,6GHz con NB a def.
Phenomenale
23-11-2012, 13:23
Infatti perchè i possessori di proci Intel fanno il tifo perché AMD chiuda?
Mai conosciute persone del genere. :rolleyes:
Nel mondo reale facilmente si comprano macchine di entrambe le marche a seconda del budget / necessità del momento.
(Poi nei forum magari per divertimento/trollaggio si scrivono cose che non si credono/pensano).
paolo.oliva2
23-11-2012, 13:27
al momento riguarderebbe solo intel, ma il trend potrebbe essere questo: http://www.hwupgrade.it/news/cpu/processori-saldati-sulla-scheda-madre-anche-per-sistemi-desktop_44780.html
Addio all'assemblaggio e all'upgrade... e probabilmente anche all'OC, perchè se il procio X ha un determinato TDP, voglio vedere il produttore di mobo, in concorrenza con altri, che offrirebbe reparto alimentazione con caratteristiche superiori tanto da supportare l'aumento di consumo e di dissipazione...
Ma... sarebbe come con i portatili... se ha qualche anno, o ti accontenti o lo cambi, nessun upgrade, e credo che questo implicherebbe anche un aumento dei costi, perchè una cosa è un produttore di mobo che in magazzino ha solamente mobo, tutt'altro il dover acquistare anche il procio e tenerlo a magazzino con la mobo... oltre che la diminuzione dei costi del procio, come naturalmente avverrebe con il tempo (per lo stesso modello) rasenterebbe lo zero, lasciando aperta la porta anche a situazioni "maldestre", tipo quanto accaduto in passato, cioè prezzi reali più bassi di quelli ufficiali...
al momento riguarderebbe solo intel, ma il trend potrebbe essere questo: http://www.hwupgrade.it/news/cpu/processori-saldati-sulla-scheda-madre-anche-per-sistemi-desktop_44780.html
Dopo l'oc bloccato si sono inventati pure questo (spero solo sulla fascia bassa)....
Diablo III
23-11-2012, 13:52
(spero solo sulla fascia bassa)....
me lo auguro :oink:
Mai conosciute persone del genere. :rolleyes:
Nel mondo reale facilmente si comprano macchine di entrambe le marche a seconda del budget / necessità del momento.
(Poi nei forum magari per divertimento/trollaggio si scrivono cose che non si credono/pensano).
Fidati che nel mondo reale ce ne sono e nemmeno poche di persone così...
PeteRParkeR
23-11-2012, 14:36
per i 4,6 meno di 1,40,mi pare parecchio basso come vcore,io per avere stabilità a 4,70ghz ( fx-6100) devo dare 1,47/48,ma i 60 gradi non li passo,ho uno scythe mugen 3,una bella bestia ad aria,con su una scythe ultra kaze 30mm da 3000rpm
Si infatti sono daccordo con te!!! Il mio era un parlare per assurdo!! ;) Nel senso che la cpu regge il boot ed operazioni normali ma crasha o si surriscalda se la spremo con i test già ad un voltaggio di 1,375v ( il suo vid è 1,337 )
ps: intendevi 130mm giusto?? no perchè 3 cm (30mm) di ventola....sarebbe davvero una bestiaccia!!!:D :D :D
Io per i 4,6GHz ci devo dare almeno 1,425V... e gli do' 1,45V perchè nonostante test e ritest, mi sembra troppo basso come Vcore.
Ma io sono a liquido... credo di non passare i 40° sotto carico.
Se il procio ti scalda troppo, lascia perdere i 4,6GHz. Il tuo limite secondo me sono le temp, quindi o prendi un dissi più potente, o cerchi di capire quale Vcore massimo puoi dare affinchè il tuo dissi non superi i 55-60°, ed in base a quello portare il ì procio alla massima frequenza sopportabile. Da 4,6GHz portarlo a 4,5GHz ma metti anche 4,4GHz in estate, sono differenze rilevabili unicamente nei bench.
Una frequenza più bassa e temperature più basse ti possono servire per portare l'NB sui 2,4-2,5GHz, forse il tutto con differenze ridicole rispetto ai 4,6GHz con NB a def.
Idem come sopra per i voltaggi sono daccordo con voi....Il punto è che i 4,6GHz li ho abbandonati (va beh ok non c'è differenza come dici bene solo nei bench..)...ma prima mi riferivo proprio a 4,4GHz...non li regge con 1,375v o meglio li regge pure ma le temperature sono un limite...
Ma anche scendendo: ho provato ad impostare 4,2-4,3 GHz con 1,337 (sarebbe il suo vid) così sta proprio pelo pelo (60-62°)..ed è il suo vid!! (è vero anche che se lo imposto auto il voltaggio e lo metto a default 3,5GHz la cpu si prende solo 1,28-1,296v...
Cosa devo pensare che la cpu è sfigatella ?? Oppure è "strunz" il dissy ??
No perchè leggo qui sul forum che teoricamente certe frequenze si potrebbero toccare con il dissy default ( non parlo ovviamente di freq tendenti ai 5GHz ma di freq tipo 4,4-4,6 Ghz ) e quindi mi domando con un dissipatore aftermarket che non è un top ma neanche male come l'Hyper 612s (cm da recensione coolingtechnique se la dovrebbe cavare bene...) come mai la cpu va in sofferenza ??
Quale dissipatore mi consiglieresti per migliorare la situazione ??? Il solito top noctua?? Oppure pensi che avrei fatto meglio a rivolgermi ad un FX8350 (silicio più scelto...) accomodando il problema con una cpu più fresca e più facile da dissipare ??
theProix87
23-11-2012, 14:39
Ragazzi sotto vostro consiglio ho formattato.
Niente... dopo un primo periodo brillante, questo FX non mi regge più frequenze altre i 4.2 4.3, se salgo sopra questa frequenza, la frequenza massima la reggono solo 2 massimo 3 core, e i restanti scendono a 3.4GHz o anche a 1500MHz....
Non sono un novellino, con il PC ci lavoro da anni, e ho anche il record del 3dMark sotto piattaforma AMD con il vecchio 1100t... solo per dirvi che non dipende da miei errori.. "Purtroppo"
Cosa devo fare...? Apro un RMA...? Potrebbe essere il bios ancora acerbo della 990ud7?
Solo io ho questo tipo di problema...?
capitan_crasy
23-11-2012, 14:41
Mai conosciute persone del genere. :rolleyes:
Ma dai... :asd:
Nel mondo reale facilmente si comprano macchine di entrambe le marche a seconda del budget / necessità del momento.
(Poi nei forum magari per divertimento/trollaggio si scrivono cose che non si credono/pensano).
Nel mondo reale si comprano le macchine che il mercato nazionale offre e il 95% nel mercato Italiano parla solo Intel...
Un'azienda che ne ha 100 non cambia una mazza, perchè se con 1 PC risparmi 20€ l'anno di corrente contro 100€ di spesa in più, con 100 PC risparmieresti 2.000€ l'anno, ma con una spesa iniziale di 10.000€ in più, gira come la giri sono sempre quei 5 anni (di meno... con gli studi di settore, tu le tasse le paghi indipendentemente dall'ammontare degli acquisti, che hanno un tetto massimo... invece credo che le bollette si possano scaruicare per intero).
Vedi, è tutto il discorso che scricchiola... il 3770K ha più potenza ST dell'8350, è più potente in MT e consuma meno.
Uno vuole la massima potenza ST, si compra il 3770K. Vuole rimanere nella fascia 1155/AM3+? Fa le sue valutazioni tra 3770K e 8350.
Ma quei 100€ di differenza non ti ritorneranno mai indietro dalle bollette, perchè il procio lo si sarà cambiato prima... (io in generale lo cambio 1 volta l'anno... 5 anni sono un'era nel PC) e nel caso di un utilizzo intensivo al 100% per 8h ore al giorno, quindi spudoratamente MT, non sarebbe idoneo nè il 3770K e nè un 8350, ma un SBe X6 foss'anche da 150W TDP o aspettare un IVYe... ma in questo caso l'offerta server sarebbe da valutare, appunto, perchè aumenta la potenza MT ma su un range di frequenza dove i processori risultano molto più efficienti, cioè >numero di core e <frequenza operativa.
Oppure si fa come ho fatto io... quando cambi il procio prendi un sistema ex-novo e ti tieni il vecchio... Anziché prendere 8350 + SBe X6, ho preferito tenermi il 1090T e l'8150 al posto dell'SBe X6... ma dove sono io, la bolletta costa 10-20 volte di meno... non esiste la scelta in base al consumo, un francese non la penserà MAI come un italiano..., come pure uno svizzero... in stati dove la cucina esiste solamente elettrica e la bolletta costa 1/10 rispetto all'Italia, il discorso risparmio consumo assume un'importanza nettamente inferiore perchè i 5 anni diventerebbero 50... (nel mio caso, 100 anni)
OK. Avevo fatto i conti su una differenza di costi inferiore.
Diablo III
23-11-2012, 15:14
95%???...ora mi spiego i centri commerciali saturi di oem intel :doh:
...wtf...
è talmente evidente la corruzione in atto di questa società che solo chi non vuole vedere non lo ammette... 95%... bah... in un paese che non ha più soldi poi... sono sempre più sbigottito dall'ignoranza dell'italiano medio che non si interessa manco in cosa spende i propri soldi, a prescindere da intel anche e dall'usare un desktop, mobile +999€, smartphone +599€ o i tablet-useless... e tutte le cose di moda o per sentito dire...
scusate l'ot...
quoto :cry:
Phenomenale
23-11-2012, 15:23
Nel mondo reale si comprano le macchine che il mercato nazionale offre e il 95% nel mercato Italiano parla solo Intel...
Tutto mi sarei immaginato tranne che il ritrovarmi a darti nel pessimista :D
La suddivisione di mercato Intel/AMD è stempre stata intorno al 80/20, il tuo 95% è esagerato.
Per l' Italia che "parla" Intel... dei miei 3 notebook 2 sono AMD: non ho fatto la minima fatica a comprarli, li ho presi dalla GDF italiana mica ordinati per posta da "cruccolandia"... chi vuole comprare AMD davvero non ha difficoltà a farlo. E chi vuole comprare un Intel non ha alcuna ragione di sperare nella chiusura di AMD, piuttosto spera che AMD si riprenda per avere più scelta od almeno prezzi più competitivi in futuro.
PS. OBR è uno sbruffone, lui non conta. :asd:
TheBestFix
23-11-2012, 16:01
Si infatti sono daccordo con te!!! Il mio era un parlare per assurdo!! ;) Nel senso che la cpu regge il boot ed operazioni normali ma crasha o si surriscalda se la spremo con i test già ad un voltaggio di 1,375v ( il suo vid è 1,337 )
ps: intendevi 130mm giusto?? no perchè 3 cm (30mm) di ventola....sarebbe davvero una bestiaccia!!!:D :D :D
Idem come sopra per i voltaggi sono daccordo con voi....Il punto è che i 4,6GHz li ho abbandonati (va beh ok non c'è differenza come dici bene solo nei bench..)...ma prima mi riferivo proprio a 4,4GHz...non li regge con 1,375v o meglio li regge pure ma le temperature sono un limite...
Ma anche scendendo: ho provato ad impostare 4,2-4,3 GHz con 1,337 (sarebbe il suo vid) così sta proprio pelo pelo (60-62°)..ed è il suo vid!! (è vero anche che se lo imposto auto il voltaggio e lo metto a default 3,5GHz la cpu si prende solo 1,28-1,296v...
Cosa devo pensare che la cpu è sfigatella ?? Oppure è "strunz" il dissy ??
No perchè leggo qui sul forum che teoricamente certe frequenze si potrebbero toccare con il dissy default ( non parlo ovviamente di freq tendenti ai 5GHz ma di freq tipo 4,4-4,6 Ghz ) e quindi mi domando con un dissipatore aftermarket che non è un top ma neanche male come l'Hyper 612s (cm da recensione coolingtechnique se la dovrebbe cavare bene...) come mai la cpu va in sofferenza ??
Quale dissipatore mi consiglieresti per migliorare la situazione ??? Il solito top noctua?? Oppure pensi che avrei fatto meglio a rivolgermi ad un FX8350 (silicio più scelto...) accomodando il problema con una cpu più fresca e più facile da dissipare ??
ad occhio e croce punterei sul dissi......se vuoi puoi fare una prova smontalo puliscilo e controlla la superficie di contatto della base in rame, di sicuro non e' stata rifinita a dovere sara' concava o convessa, in tal caso una lappatura a specchio potrebbe giovare alle temperature ;)
ancora piu' semplice con la cpu sotto stress tocca la base del dissi (se riesci) se e' calda e' ok se e' appena tiepida e' come penso io...
Ragazzi sotto vostro consiglio ho formattato.
Niente... dopo un primo periodo brillante, questo FX non mi regge più frequenze altre i 4.2 4.3, se salgo sopra questa frequenza, la frequenza massima la reggono solo 2 massimo 3 core, e i restanti scendono a 3.4GHz o anche a 1500MHz....
Non sono un novellino, con il PC ci lavoro da anni, e ho anche il record del 3dMark sotto piattaforma AMD con il vecchio 1100t... solo per dirvi che non dipende da miei errori.. "Purtroppo"
Cosa devo fare...? Apro un RMA...? Potrebbe essere il bios ancora acerbo della 990ud7?
Solo io ho questo tipo di problema...?
L'ho avuto anche io con il 4100 e la 970 extreme4 poi mi hanno detto di disattivare delle voci nel bios (APM, C1e e tutto quello che riguarda throttling e risparmi energetici) e adesso nn lo fa più (anche se ho riattivato il C&Q per il daily, quando é in full tutti i core rimangono alla frequenza massima).
;) CIAUZ
La suddivisione di mercato Intel/AMD è stempre stata intorno al 80/20, il tuo 95% è esagerato.
Difficilmente lo share delle due aziende viene calcolato in ambito internazionale...
E comunuque AMD ha uno share abbastanza alto sul desktop e pessimo sui notebook... Un motivo ci sarà, no? :(
Per l' Italia che "parla" Intel...
Questa è, purtroppo, una cosa che confermo. Quando capita che vado in un centro commerciale sbircio i "prezzacci" di vari notebook ne vedo solo 1, massimo 2, con processori AMD. A generalmente parliamo di roba con A4, nemmeno processori ad alte prestazioni.
Vai a vedere i netbook? Ancora peggio. Non ce n'è UNO con un E-350 o un E-450, che sono ottimi processori per questi scopi, decisamente migliori degli Atom.
me lo auguro :oink:
Secondo me no. Il bga coprirà tutta la fasce fino alla mainstream. Solo il socket di punta (attuale 2011) resterà lga. E ti dico di più, mi stanno sorgendo dei presentimenti, vuoi vedere che anche amd farà lo stesso ?
Mi spiego meglio: PD2.0 = Vishera + Richland ecc ecc sugli stessi socket (AM3+ e FM2 rispettivamente come ora).
Il successore, Steamroller per la fascia mainstream (ergo kaveri desktop) lo spiatteleranno integrato sulla mobo con lo stesso socket che usa per il suoi notebook/ultrathin). A questo punto il socket AM3+ o resterà analogo per l'enthusiast (come lo è il 2011 di intel), oppure questa fascia diventerà APU o CPU+ controller pci-e su un ipotetico FM2+ questo solo per l'enthusiast (quello che è adesso AM3+). Tutto il resto che c'è sotto nelle fasce sarà cpu integrata su mobo.
Questa è una mi ipotesi un dubbio sorto.
Comunque se Intel fa sta caxxata distrugge il mercato desktop (piu di uanto sia gia distrutto). Ma ormai sono rassegnato, ho gia capito qualè il suo destino, è inutile illudersi ragazzi: i sistemi desktop come ieri e oggi li intendiamo spariranno nell'arco di altri due anni, diversificandosi in amaniera netta fino a diventare ibridi schifosi. L'era delle mobo a go go, proci a go go, modding, overclock a go go, ram di tutit i gusti, vga di tutti i gusti è agli sgoccioli. Ogni giorno ed ogni notizia che leggo m ene convinco sempre di piu.
L'altro giorno parlavamo del controller PWM che haswell integra, e alcuni hanno detto che è meglio in ambiti OC. Ma forse non avete ancora capito, che il meglio è per Intel no per voi, Intel integra perchè vuole tagliare le gambe ai produttori di mobo, perchè vuole fare monopolio, dominio controllo totale sui sistemi e semplificazione totale, fregandosene dei vostri OC e delle vostre esigenze. Guardate il cambiamento: Haswell 1150, dopo un anno Broadwell con BGA socket, quindi ricambio di mobo e tutto, e per fare cosa ? Per avere uno schifossisimo ibrido con una cpu integrata, dissipatore obbligato montanto li sopra, se vuoi 20 porte usb e una cpu media non puoiii, devi prenderti tutto il pacchetto che ti dice lei.
Sapete che vi dico: godiamo sto fine 2012 e il 2013 (che sarà ancora piu turbolento negativamente di notizie relative alla nostra passione). Dal 2014 in poi dovremmo cambiare modo di pensare. Ma del resto la vita va avanti ;) Mentre l'informatica è ormai disintegrata, e tablet e cellulari sono la causa principale che hanno causato questo "cancro" a quella che è la vera informatica e i veri sistemi PC. E la massa sono zombie.
sergio.p.
23-11-2012, 17:09
conviene fare scorta di cpu appena succedde e fare gli assemblatori/rivenditori :sofico:
conviene fare scorta di cpu appena succedde e fare gli assemblatori/rivenditori :sofico:
per fare cosa scusami ? Al massimo se sei bravo in elettronica e hai una buona stazione saldante, quello che oggi i tecnici fanno sui portatili potrebbero farlo su questi ibridi desktop. Nel senso, ti accade qualcosa sulla mobo ? Te la riparo, oppure vuoi un altra cpu sulla stessa mobo, bene ne ho una di un'altra mobo, la dissisaldo e la risaldo sulla tua. Magari spendendo di piu (cpu+manodopera) di quanto si spende oggi a cambiarti solo la cpu o la mobo.
Se vi dico che stanno ammazzando l'informatica....
Allora se sti bga li fa sulle sue mobo è un conto, la chiave della soluzione sta nel contesto SEEE Intel produrrà ANCHE cpu Broadwell retail (come oggi), se farà questo allorà ci potranno essere soluzioni tradizionali come oggi con mobo di altri produttori con socket per broadwell, affiancando una fascia piu low essential con il bga. Ma dubito si sta cosa, per cui io vedo un uscita di produttori di mobo, resteranno giusto Asus e Gigabyte (che leccano il culo ad intel) e le stesse mobo Intel tutto con cpu integrate.
Di conseguenza Amd farà lo stesso, perchè come la storia informatica ci insegna ha sempre funzionato fra amd rispetto intel come un detto del mio paese: "unu piscia e ll'atru ddicca" = "uno urina e l'altro lecca", nel senso a ruota amd fa copia ed incolla nelle piattaforme come fa Intel.
Scordatevi di vedere un amd con socket tradizionali e una Intel diversa. Anzi sono del parere che secondo me a qeusto giro amd anticipa Intel nella complet aintegrazione. Io ancora sono titubante sul futuro desktop da parter di amd. Qua secondo me si stanno tutti quanti pianificando per la totale conversione a sistemi integrati anche sul desktop...ci stanno solo pensando a come fare in modo che non creano panico e disorientamento a noi. Preparatevi al peggio user_Desktop (io il primo).
Edit: e poi pensate ad una cosa, come mai amd rimanda al 2014 steamroller ? Guarda caso in concomitanza con questo broadwell ...... ? ? ... ? ? ... si mette male...mi sa che il 2013 sarà l'ultimo anno di pc tradizionali con mobo e socket 1150 e Z87 - 2011 X79 per intel, e solito AM3+ 990FX - FM2 A85 per amd. Dopodichè (2014) nelle fascia mainstram tutto integrato ! Sia per amd che per Intel.
Quest aè una mia ipotesi, ma vi assicuro che è la piu verosimile.
paolo.oliva2
23-11-2012, 17:36
Si infatti sono daccordo con te!!! Il mio era un parlare per assurdo!! ;) Nel senso che la cpu regge il boot ed operazioni normali ma crasha o si surriscalda se la spremo con i test già ad un voltaggio di 1,375v ( il suo vid è 1,337 )
ps: intendevi 130mm giusto?? no perchè 3 cm (30mm) di ventola....sarebbe davvero una bestiaccia!!!:D :D :D
Idem come sopra per i voltaggi sono daccordo con voi....Il punto è che i 4,6GHz li ho abbandonati (va beh ok non c'è differenza come dici bene solo nei bench..)...ma prima mi riferivo proprio a 4,4GHz...non li regge con 1,375v o meglio li regge pure ma le temperature sono un limite...
Ma anche scendendo: ho provato ad impostare 4,2-4,3 GHz con 1,337 (sarebbe il suo vid) così sta proprio pelo pelo (60-62°)..ed è il suo vid!! (è vero anche che se lo imposto auto il voltaggio e lo metto a default 3,5GHz la cpu si prende solo 1,28-1,296v...
Cosa devo pensare che la cpu è sfigatella ?? Oppure è "strunz" il dissy ??
No perchè leggo qui sul forum che teoricamente certe frequenze si potrebbero toccare con il dissy default ( non parlo ovviamente di freq tendenti ai 5GHz ma di freq tipo 4,4-4,6 Ghz ) e quindi mi domando con un dissipatore aftermarket che non è un top ma neanche male come l'Hyper 612s (cm da recensione coolingtechnique se la dovrebbe cavare bene...) come mai la cpu va in sofferenza ??
Quale dissipatore mi consiglieresti per migliorare la situazione ??? Il solito top noctua?? Oppure pensi che avrei fatto meglio a rivolgermi ad un FX8350 (silicio più scelto...) accomodando il problema con una cpu più fresca e più facile da dissipare ??
Per il discorso del Vcore... beh... una cosa è un 8350 125W TDP per 4GHz def, quindi con un silicio "migliore" e che può tollerare il 15% di OC (4,6GHz), un altro è un 8320 che viene venduto sempre a 125W TDP, ma per i 3,5GHz, e i 4,6GHz rappresentano il 31%... tieni presente che il 31% su un 8350 vorrebbe dire i 5,250GHz...
E' per questo che in proporzione un 8320 si occa meglio... perchè un 8350 con +1GHz è @5GHz, un 8320 con +1GHz verrebbe 4,5GHz.
Io se fossi in te... farei questa prova: aspetta una giornata veramente fredda, giusto per poter portare la temp ambiente sui 5-10°, e rifai l'OC per vedere se l'instabilità derivava dalle temp. Se si, allora l'acquisto di un dissi più potente ti potrebbe far prendere più frequenza, se invece hai gli stessi prb, il problema non sono le temp, potrebbe essere mobo/ami o procio sfigato.
Vendere l'8320 per sostituirlo con un 8350, mi sembra una soluzione costosa... meglio l'upgrade del dissi che te lo puoi portare dietro in futuro...
.. ma gli stessi 600MHz su un 8320 fanno 4,1GHz.
Se
Secondo me no. Il bga coprirà tutta la fasce fino alla mainstream. Solo il socket di punta (attuale 2011) resterà lga. E ti dico di più, mi stanno sorgendo dei presentimenti, vuoi vedere che anche amd farà lo stesso ?
Mi spiego meglio: PD2.0 = Vishera + Richland ecc ecc sugli stessi socket (AM3+ e FM2 rispettivamente come ora).
Il successore, Steamroller per la fascia mainstream (ergo kaveri desktop) lo spiatteleranno integrato sulla mobo con lo stesso socket che usa per il suoi notebook/ultrathin). A questo punto il socket AM3+ o resterà analogo per l'enthusiast (come lo è il 2011 di intel), oppure questa fascia diventerà APU o CPU+ controller pci-e su un ipotetico FM2+ questo solo per l'enthusiast (quello che è adesso AM3+). Tutto il resto che c'è sotto nelle fasce sarà cpu integrata su mobo.
Questa è una mi ipotesi un dubbio sorto.
AMD IMHO dovrebbe cogliere la palla al balzo. Intel va di BGA? Ci prendiamo tutti gli overclocker. Anche perchè AMD sa che in questo periodo DEVE cercare il più possibile di accontentare sia utenti che produttori di mobo. Quindi se Intel comincia a fare proci BGA i produttori di schede madri si ritroveranno spiazzati, e gli utenti inizieranno ad andare su AMD, perchè garantisce overclock, garantisce di trovare la mobo giusta per te e non costringe l'utente a prendere una mobo con quel processore piuttosto che un altro. Come ho letto, se uno ha bisogno di un processore poco potente ma tante porte sata, come farà? Ci sarà si e no una sola mobo per fascia da ogni produttore. Magari con balzi di 100€ tra una e l'altra.
AMD, secondo me, tenendo tutto come è ora (magari passando ad un eventuale FM3) garantirebbe quello che vuole l'utente enthusiast. E pian piano l'utente enthusiast inizia a screditare Intel (come al solito, vedasi come con LG e la vicenda del Nexus 4) e la massa, che crede più all'amico smanettone che al venditore della supermegacatena, comincia a comprare AMD.
Quello che Intel non riesce a capire è che per accontentare gli azionisti e gli investitori stanno tendendo verso dei processori sempre più castrati, facendo finta di non capire che ARM è alla pari con i consumi con un pp inferiore, e ha un supporto software molto più avanzato. Vedasi un Android che funziona bene sugli ARM e maluccio sugli Atom Medfield (tant'è che si diceva che l'ottimizzazione x86 di Android sarebbe arrivata con ICS, ma nessuno tranne motorola li monta). E anche MS (per quanto conti nel settore mobile) ha svincolato Intel perchè crede che in tutto il settore ultraportatile farà pena (salvo offrire un tablet x86 soprattutto per i professionisti).
In questo modo perderanno SIA nel mobile, SIA nei processori tradizionali per desktop e notebook. Dovevano concentrarsi sui professionisti e sulla fascia enthusiast, perchè quello è l'unico futuro che avràla piattaforma x86.
Tant'è che già si sta parlando di una divisione in tre parti di Intel (la notizia è su Bits and Chips), una per la fonderia, una per i processori e una per lo sviluppo software. In questo modo se la divisione processori comincia ad andare male la fonderia porta introiti mica da poco, con GF, UMC e TSMC che comincerebbero a tremare.
Anche perchè come sappiamo Intel sembra aver rimandato i 14nm perchè le fabbriche a 22nm sono sfruttate meno del 50%.
Mentre l'informatica è ormai disintegrata, e tablet e cellulari sono la causa principale che hanno causato questo "cancro" a quella che è la vera informatica e i veri sistemi PC. E la massa sono zombie.
Questa è proprio la cosa che mi dispiace. Che poi sono solo gli smartphone.
Gli unici tablet che vendono bene sono due: il Nexus 7 e gli iPad. Tolti questi i produttori fanno fatica a creare profitti ingenti.
paolo.oliva2
23-11-2012, 17:40
Ragazzi sotto vostro consiglio ho formattato.
Niente... dopo un primo periodo brillante, questo FX non mi regge più frequenze altre i 4.2 4.3, se salgo sopra questa frequenza, la frequenza massima la reggono solo 2 massimo 3 core, e i restanti scendono a 3.4GHz o anche a 1500MHz....
Non sono un novellino, con il PC ci lavoro da anni, e ho anche il record del 3dMark sotto piattaforma AMD con il vecchio 1100t... solo per dirvi che non dipende da miei errori.. "Purtroppo"
Cosa devo fare...? Apro un RMA...? Potrebbe essere il bios ancora acerbo della 990ud7?
Solo io ho questo tipo di problema...?
Mi sembra strano dipenda dal procio... escludendo la pasta al dissi, se hai la possibilità, prova ad usare un'altra mobo, un altro ALI, delle altre memorie.
Per le memorie al limite ne metti solo 1 banco e provi ad occare, provando sia l'uno che l'altro.
Per la mobo... potresti sentire con qualcuno che ha una AM3+ (previo aggiornamento bios).
L'ALI... un rivenditore amico...
sergio.p.
23-11-2012, 17:50
per fare cosa scusami ?
così, per chi vuole un pc tradizionale, o per chi non vuole un pc 100% nuovo possedendone uno di questa era,tanto la potenza non manca già oggi.
con cpu si intendeva cpu/MB ecc..comunque era tanto per sdrammatizzare
paolo.oliva2
23-11-2012, 18:00
AMD IMHO dovrebbe cogliere la palla al balzo. Intel va di BGA? Ci prendiamo tutti gli overclocker. Anche perchè AMD sa che in questo periodo DEVE cercare il più possibile di accontentare sia utenti che produttori di mobo. Quindi se Intel comincia a fare proci BGA i produttori di schede madri si ritroveranno spiazzati, e gli utenti inizieranno ad andare su AMD, perchè garantisce overclock, garantisce di trovare la mobo giusta per te e non costringe l'utente a prendere una mobo con quel processore piuttosto che un altro. Come ho letto, se uno ha bisogno di un processore poco potente ma tante porte sata, come farà? Ci sarà si e no una sola mobo per fascia da ogni produttore. Magari con balzi di 100€ tra una e l'altra.
AMD, secondo me, tenendo tutto come è ora (magari passando ad un eventuale FM3) garantirebbe quello che vuole l'utente enthusiast. E pian piano l'utente enthusiast inizia a screditare Intel (come al solito, vedasi come con LG e la vicenda del Nexus 4) e la massa, che crede più all'amico smanettone che al venditore della supermegacatena, comincia a comprare AMD.
Quello che Intel non riesce a capire è che per accontentare gli azionisti e gli investitori stanno tendendo verso dei processori sempre più castrati, facendo finta di non capire che ARM è alla pari con i consumi con un pp inferiore, e ha un supporto software molto più avanzato. Vedasi un Android che funziona bene sugli ARM e maluccio sugli Atom Medfield (tant'è che si diceva che l'ottimizzazione x86 di Android sarebbe arrivata con ICS, ma nessuno tranne motorola li monta). E anche MS (per quanto conti nel settore mobile) ha svincolato Intel perchè crede che in tutto il settore ultraportatile farà pena (salvo offrire un tablet x86 soprattutto per i professionisti).
In questo modo perderanno SIA nel mobile, SIA nei processori tradizionali per desktop e notebook. Dovevano concentrarsi sui professionisti e sulla fascia enthusiast, perchè quello è l'unico futuro che avràla piattaforma x86.
Tant'è che già si sta parlando di una divisione in tre parti di Intel (la notizia è su Bits and Chips), una per la fonderia, una per i processori e una per lo sviluppo software. In questo modo se la divisione processori comincia ad andare male la fonderia porta introiti mica da poco, con GF, UMC e TSMC che comincerebbero a tremare.
Anche perchè come sappiamo Intel sembra aver rimandato i 14nm perchè le fabbriche a 22nm sono sfruttate meno del 50%.
Questa è proprio la cosa che mi dispiace. Che poi sono solo gli smartphone.
Gli unici tablet che vendono bene sono due: il Nexus 7 e gli iPad. Tolti questi i produttori fanno fatica a creare profitti ingenti.
Io ti quoto ma non sono completamente d'accordo su tutto.
Ad esempio il Trinity che ho sul portatile è bloccato... chiaro, non è K, però è lo stesso discorso... in questo caso AMD come Intel proteggono i produttori di portatili, perchè altrimenti uno comprerebbe la fascia media e con l'OC si ritroverebbe la fascia alta.
Con il procio saldato sulla mobo e non occabile, non si farebbero altro che estendere il limite che c'è sui portatili anche sul desktop.
AMD credo che seguirebbe Intel... sarebbe troppo pericoloso per lei... Intel potrebbe sempre giocare la carta prezzo... Non creerebbe problemi perdere pure il 5% del mercato desktop, perchè è meglio un 80% di mercato a prezzi di 200€ che l'85% a 100€..., ma è chiaro che se perdesse di più, boh... io credo che un 3770K potrebbe anche costare 1/3 di un 8350, guadagnandoci forse anche di più di quello che AMD guadagna con l'8350.
Edit, P.S. OT
Guarda, mia moglie mi ha rotto le... perchè vedendo i miei acquisti di informatica, ha voluto un regalo. Quale? Un i-pad 3 16GB. All'apparenza è bellino e funzionale, lo guardi più da profondo, è una fregatura pazzesca. Ho preso quello con la SIM perchè pensavo si potesse usare normalmente come un telefono... bisogna installarci un programma e poi lavora su una sim di un altro telefonino? E a che cacchio gli serve la sua sim? Solo per internet? Lo colleghi al PC, devi scaricare i-tune per poter trasferire le cose... con sempre la fissa che devi acquistare su internet... spendi 500€ e non c'è un manuale cartaceo e manco gli auricolari? Dai... mi sono fidato della massa entusiastissima per un prodotto della Mela, per me la Mela ha chiuso... 1° ed ultimo acquisto... mi è costato più "lui" del computer portatile con Trinity...
Analista di borsa
23-11-2012, 18:06
Se vi dico che stanno ammazzando l'informatica....
Semplicemente, siamo entrati nell'era dove i consumi contano quanto le prestazioni,
se non di piu'.
paolo.oliva2
23-11-2012, 18:11
Semplicemente, siamo entrati nell'era dove i consumi contano quanto le prestazioni,
se non di piu'.
Io direi dove contano i guadagni... oggi non trovi sorrisi e cordialità, al suo posto trovi una mano che viene verso di te per chiedere soldi senza manco sapere cosa vuoi, e che se ne sbatte ampiamente delle tue necessità, PUNTO!
Io ti quoto ma non sono completamente d'accordo su tutto.
Ad esempio il Trinity che ho sul portatile è bloccato... chiaro, non è K, però è lo stesso discorso... in questo caso AMD come Intel proteggono i produttori di portatili, perchè altrimenti uno comprerebbe la fascia media e con l'OC si ritroverebbe la fascia alta.
Con il procio saldato sulla mobo e non occabile, non si farebbero altro che estendere il limite che c'è sui portatili anche sul desktop.
AMD credo che seguirebbe Intel... sarebbe troppo pericoloso per lei... Intel potrebbe sempre giocare la carta prezzo... Non creerebbe problemi perdere pure il 5% del mercato desktop, perchè è meglio un 80% di mercato a prezzi di 200€ che l'85% a 100€..., ma è chiaro che se perdesse di più, boh... io credo che un 3770K potrebbe anche costare 1/3 di un 8350, guadagnandoci forse anche di più di quello che AMD guadagna con l'8350.
Edit, P.S. OT
Guarda, mia moglie mi ha rotto le... perchè vedendo i miei acquisti di informatica, ha voluto un regalo. Quale? Un i-pad 3 16GB. All'apparenza è bellino e funzionale, lo guardi più da profondo, è una fregatura pazzesca. Ho preso quello con la SIM perchè pensavo si potesse usare normalmente come un telefono... bisogna installarci un programma e poi lavora su una sim di un altro telefonino? E a che cacchio gli serve la sua sim? Solo per internet? Lo colleghi al PC, devi scaricare i-tune per poter trasferire le cose... con sempre la fissa che devi acquistare su internet... spendi 500€ e non c'è un manuale cartaceo e manco gli auricolari? Dai... mi sono fidato della massa entusiastissima per un prodotto della Mela, per me la Mela ha chiuso... 1° ed ultimo acquisto... mi è costato più "lui" del computer portatile con Trinity...
Oddio, overclockare un portatile è una cosa che non farei mai e poi mai.
Generalmente le ventoline che hanno bastano appena per tenere QUEL procio con QUEL consumo.
Ti faccio un esempio. Ho un notebook del 2008 (che uso solo in vacanza, motivo per cui vorrei rimpiazzarlo con un notebook da 11 o 13 pollici con una durata decente e che abbia un costo abbastanza basso) con una grafica Intel x3100. Un mio amico aveva lo stesso identico modello di notebook (la scheda mamma era la stessa. Dovevo pulire il mio e mi chiede se potevo dare una pulita veloce al suo. Aprendolo noto, oltre al fatto che la scheda mamma era la stessa (visto dal BIOS), che la ventola del suo notebook è più grossa della mia. Vado a vedere sul sito Intel e vedo che il TDP è lo stesso.
La disposizione interna dei componenti era ESATTAMENTE identica, così come le temperature erano molto molto simili. Però lui si trovava una ventola di dimensioni maggiori non si sa perchè.
E l'unica differenza era nel procio. Stesso chipset, stessa grafica integrata (ovviamente, era ancora integrata nel chipset all'epoca) stessa quantità di ram ecc.
Questo significa che il mio procio consumava leggermente meno, quindi hanno usato una ventola un pochino più piccola.
Comunque per AMD dipende tutto da quello che deciderà Rory "io non sono capace a far nulla" Read. Se intende seguire Intel si avvicinerà al fallimento, anche Intel sta fallendo (inteso che i nuovi settori in cui sta entra non portano al suo successo), con un capitale molto ampio. IMHO la scelta dei mini server ARM da parte di AMD è giusta. è un settore inesplorato.
Io direi dove contano i guadagni... oggi non trovi sorrisi e cordialità, al suo posto trovi una mano che viene verso di te per chiedere soldi senza manco sapere cosa vuoi, e che se ne sbatte ampiamente delle tue necessità, PUNTO!
Questa è la cosa peggiore. Bene o male un tempo facevano gli interessi dell'utenza. Ora fanno solo i loro facendoti credere che stanno facendo i tuoi.
Un altro esempio è dato dalle macchine. L'introduzione dello sterzo ELETTRICO in alune macchine Infinity. E questo nonostante si sa che lo sterzo elettrico non da nessun feedback sulla guida, cosa ovviamente molto pericolosa. E si parla di simularlo. In questo modo devono usare un paio di cavi invece di un sistema molto più complesso. Il risultato? Loro risparmiano, ma a te dicono che costa parecchio e che lo fanno perchè i sistemi elettrici sono molto più sicuri.
Quindi è una cosa comune a tutti i settori di mercato.
paolo.oliva2
23-11-2012, 20:12
Il problema è che la concorrenza, se non è vera concorrenza, diventa cartello.
Io credo che i mercati asiatici hanno portato anche bene, ma anche male.
Il bene perchè hanno fatto capire quale poteva essere il vero prezzo di alcuni articoli... il male è che il costo a monte non è sostenibile per un prodotto europeo, con stipendi europei e con sicurezza/modo di lavorare europeo, ed allora boom.
Ti dico un altro OT e poi faccio basta...
In Costa d'Avorio, ma in generale in tutta l'Africa, NON ESISTONO manco in vendita nuove, macchine Euro 5, ma sono TUTTE max euro 4 a scegliere il meglio, altrimento sono euro 1-2-3, dal concessionario, nuove. Allora che ci fanno ste menate delle vetture euro 5 per combattere lo smog, giustificando prezzi via via più alti, quando poi loro stessi vendono le vecchie macchine nel continente africano, sud-americano e asiatico? Come fa un Land Cruiser a costare 40.000€ in Italia ed in Marocco, cambiando nome in Prado, senza cerchi in lega e con un motore meno potente ma tutto predisposto per il Sahara, tipo filtri, ammortizzatori e &, a costarne 20.000? Ho visto copie IDENTICHE, tranne nel display, di telefonini Nokia/Samsung ultima generazione, a prezzi di 20-30€ quando da noi non compri manco la batteria... E' tutta una lobby... ed una grandissima presa per il....
capitan_crasy
23-11-2012, 20:40
95%???...ora mi spiego i centri commerciali saturi di oem e mobile intel :doh:
...wtf...
è talmente evidente la corruzione in atto di questa società che solo chi non vuole vedere non lo ammette... 95%... bah... in un paese che non ha più soldi poi... sono sempre più sbigottito dall'ignoranza dell'italiano medio che non si interessa manco in cosa spende i propri soldi, a prescindere da intel anche e dall'usare un desktop, mobile +999€, smartphone +599€ o i tablet-useless... e tutte le cose di moda o per sentito dire...
edit: tv 99" da 720p da 800hz, o 3d pacco occhialuto... :doh:
scusate l'ot...
Non esageriamo...
Di solito le grandi catene se ne fregano del tipo di hardware che montano i PC ordinati, quello importante per loro è il prezzo all'ingrosso su un totale di ordini.
Alcune catene ricevono modelli a prezzi stracciati per fare la classica offerta del volantino ma la scelta dell'hardware rimane del produttore.
Intel riesce a muovere un incredibile mode di ordini la quale AMD non può neanche avvicinarsi, di contro i produttori OEM non vogliono il monopolio tecnologico in quanto sarebbe l'anarchia dei prezzi dettata dagli stessi produttori hardware...
Comunque sto leggendo meglio e la cosa è ben diversa: http://www.xtremehardware.com/news/hardware/intel-broadwell-soc-da-14nm-per-il-2014-201211237894/
non è che non esiste piu il socket lga, è broadwell che non compare per lga, masolo per sistemi mobile o desktop lowlowlow (ergo bga/pga), sul socket lga invece dopo haswell vanno in stallo nel 2014, guarda caso proprio come AMD...mancanza di concorrenza ?
Dicono che Haswell resterà fino al 2014. E nel 2015 skylake sempre a 14nm, ma ancora solo su bga e mobile.
http://news.softpedia.com/news/Intel-Broadwell-Fuses-CPU-and-GPU-on-14nm-Architecture-309212.shtml
sta cosa sembra il riflesso allo specchio di quella roadmap desktop di amd riguardo steamroller, con la differenza che amd lo tira fuori prima o poi (illusione nostra), intel se ne vuole proprio sbattere le palle del desktop...bbah!? non ci capisco piu niente...
Mnacanza di concorrenza o desktop trascurato ? Una cosa è certa sia Intel che AMD stanno ormai oggi concentrandosi quasi solo su mobile. Il desktop lo lasciano ammuffire. A differenza degli anni passati che ogni 6 mesi c'era n.mila roadmap per desktop.
Comunque chiudo L'OT con sta storia, mi ci sono fissato solo perchè solitamente quello che fa intel lo fa pure amd, e la mia paura è che se ne esce pure amd con ste integratine del caxxo.
Non so che cavolo ho toccato nel bios nelle voci, ma mi regge da un ora e mezzo i 4,5ghz a 1,39v (nb def, ram def) sotto stress con cpuburn e vari bench phoronix.
digieffe
23-11-2012, 22:15
AMD IMHO dovrebbe cogliere la palla al balzo. Intel va di BGA? Ci prendiamo tutti gli overclocker. Anche perchè AMD sa che in questo periodo DEVE cercare il più possibile di accontentare sia utenti che produttori di mobo. Quindi se Intel comincia a fare proci BGA i produttori di schede madri si ritroveranno spiazzati, e gli utenti inizieranno ad andare su AMD, perchè garantisce overclock, garantisce di trovare la mobo giusta per te e non costringe l'utente a prendere una mobo con quel processore piuttosto che un altro. Come ho letto, se uno ha bisogno di un processore poco potente ma tante porte sata, come farà? Ci sarà si e no una sola mobo per fascia da ogni produttore. Magari con balzi di 100€ tra una e l'altra.
Non gli utenti mainstream ma coloro che vorranno qualcosa di più e non possono/vogliono l'enthusiast Intel.
AMD, secondo me, tenendo tutto come è ora (magari passando ad un eventuale FM3) garantirebbe quello che vuole l'utente enthusiast. E pian piano l'utente enthusiast inizia a screditare Intel (come al solito, vedasi come con LG e la vicenda del Nexus 4) e la massa, che crede più all'amico smanettone che al venditore della supermegacatena, comincia a comprare AMD.
Esatto proprio l'utente enthusiast che in questo caso il marketing chiama "influencer(s)".
- potresti in PM oppure con un link spiegarmi la vicenda LG e nexus 4 con un parallelo a questa situazione.
Tant'è che già si sta parlando di una divisione in tre parti di Intel (la notizia è su Bits and Chips), una per la fonderia, una per i processori e una per lo sviluppo software. In questo modo se la divisione processori comincia ad andare male la fonderia porta introiti mica da poco, con GF, UMC e TSMC che comincerebbero a tremare.
Anche perchè come sappiamo Intel sembra aver rimandato i 14nm perchè le fabbriche a 22nm sono sfruttate meno del 50%.
Non so se sia una divisione corretta... potrebbero le fonderie ex intel produrre (in maniera corretta) anche per AMD?
ed il supporto dei compilatori diventerebbe senza trucchi?
digieffe
23-11-2012, 22:21
Io direi dove contano i guadagni... oggi non trovi sorrisi e cordialità, al suo posto trovi una mano che viene verso di te per chiedere soldi senza manco sapere cosa vuoi, e che se ne sbatte ampiamente delle tue necessità, PUNTO!
Mega Quotone
paolo.oliva2
23-11-2012, 22:30
Non so che cavolo ho toccato nel bios nelle voci, ma mi regge da un ora e mezzo i 4,5ghz a 1,39v (nb def, ram def) sotto stress con cpuburn e vari bench phoronix.
Non ti meravigliare, a me con il Vcore def, 1,385V da bios, tiene i 4,6GHz, ma non l'ho mai postato perchè.... mi sembrava di fare la figura del fanboy AMD.
Piuttosto... ho una sensazione... troppo fantascientifica forse..
Non è che la nuova tecnologia di gestione dei clock porti si guadagni, ma anche delle perdite? Oppure il silicio ha un comportamento molto differente.
Cioè... da 1,385V fino a 1,425, con solo +0,04V di overvolt, sto C0 permette all'8320 di overcloccare di 1GHz e all'8350 di +600MHz, e all'8350 di salire oltre i 5GHz con Vcore 1,5-1,525V.
Però... mentre l'8150 digeriva bene anche 1,6V, l'8350 a me sembra che lo puoi overvoltare sopra 1,525V SOLAMENTE con temp procio basse, forse anche sotto lo zero.
Non ho fatto molte prove perchè, purtroppo, mi serve internet e non posso fare sessioni di OC con i vari crash ed altro...
digieffe
23-11-2012, 22:32
Non so che cavolo ho toccato nel bios nelle voci, ma mi regge da un ora e mezzo i 4,5ghz a 1,39v (nb def, ram def) sotto stress con cpuburn e vari bench phoronix.
tiro ad indovinare load line calibration al max, oppure qualche impostazione che te lo overvolta "auto"maticamente in determinate situazioni :)
Non so se sia una divisione corretta... potrebbero le fonderie ex intel produrre (in maniera corretta) anche per AMD?
ed il supporto dei compilatori diventerebbe senza trucchi?
Ma secondo me si produce solo per se stessa, per avere un maggiore controllo dei chip e cpu che sforna per i vari mercati: desktop, mobile, embedded (router, tablet, smartphone). Vedi gli ultimi atom che saranno montati anche sui prossimi router. Secondo me è una divisione piu proiettata ad una politica dimaggiore precisione di gestione.
Ma dubito fortemente che diventa una fonderia APERTA a tutti. Specialmente ad AMD. Sarebbe come se il gatto fornisce il formaggio al topo.
digieffe
23-11-2012, 22:55
Ma secondo me si produce solo per se stessa, per avere un maggiore controllo dei chip e cpu che sforna per i vari mercati: desktop, mobile, embedded (router, tablet, smartphone). Vedi gli ultimi atom che saranno montati anche sui prossimi router. Secondo me è una divisione piu proiettata ad una politica dimaggiore precisione di gestione.
Ma dubito fortemente che diventa una fonderia APERTA a tutti. Specialmente ad AMD. Sarebbe come se il gatto fornisce il formaggio al topo.
Se la smembrano, almeno formalmente le fonderie devono essere aperte a tutti, che poi le condizioni di produzione possano essere insostenibili per non ex intel...
stesso discorso compilatori, non è detto che dopo lo smembramento diventino imparziali.
Ps: normalmente, lo smembramento serve per eliminare la situazione di monopolio... (secondo me andrebbe ripensato la logica dello smembramento)
Non ti meravigliare, a me con il Vcore def, 1,385V da bios, tiene i 4,6GHz, ma non l'ho mai postato perchè.... mi sembrava di fare la figura del fanboy AMD.
Piuttosto... ho una sensazione... troppo fantascientifica forse..
Non è che la nuova tecnologia di gestione dei clock porti si guadagni, ma anche delle perdite? Oppure il silicio ha un comportamento molto differente.
Cioè... da 1,385V fino a 1,425, con solo +0,04V di overvolt, sto C0 permette all'8320 di overcloccare di 1GHz e all'8350 di +600MHz, e all'8350 di salire oltre i 5GHz con Vcore 1,5-1,525V.
Però... mentre l'8150 digeriva bene anche 1,6V, l'8350 a me sembra che lo puoi overvoltare sopra 1,525V SOLAMENTE con temp procio basse, forse anche sotto lo zero.
Non ho fatto molte prove perchè, purtroppo, mi serve internet e non posso fare sessioni di OC con i vari crash ed altro...
tiro ad indovinare load line calibration al max, oppure qualche impostazione che te lo overvolta "auto"maticamente in determinate situazioni
No, è auto la llc, quella la conosco e non la alzo per principio. Sto cercando di capire, sto bios a n.mila voci non ci capisco piu niente. Comunque stavo smanettando dentro la schermata relativa alle voci di tensione della cpu, ram e affini nel bios di msi sono su aree indipendenti. Ma non ricordo, le sto toccando tutte e ora non so che ho toccato, si è bloccato all'avvio ho dovuto fare il clear cmos e ricaricare il profilo oc di prima, perchèio ho poca memoria e non mi ricordo mai le cose e le voci che ho toccato prima. Vabbe comunque me ne frego, lo lascio tutta la notte a 4,5ghz e 1,39v se non mi crasha domani abbasso di qualche step il vcore e rifaccio i test, se mi tiene a 1,38x sono super contento, non mi interessano nemmeno i 4,6ghz. Comunque in tutto questo: temp sotto stress 52/54°
Se la smembrano, almeno formalmente le fonderie devono essere aperte a tutti, che poi le condizioni di produzione possano essere insostenibili per non ex intel...
stesso discorso compilatori, non è detto che dopo lo smembramento diventino imparziali.
Ps: normalmente, lo smembramento serve per eliminare la situazione di monopolio... (secondo me andrebbe ripensato la logica dello smembramento)
Non lo so Fabio, so solo che non ci sto capendo piu niente con ste aziende. Secondo me stiamo vivendo degli anni di transazione. Io so tuttavia che non si tratta mica dello smembramento (antitrust) ancora amd è viva e vegeta. Non lo mica capita sta cosa.
carlottoIIx6
23-11-2012, 23:13
qui l'efficienza e i consumi li hanno quantificati...
http://www.tomshw.it/cont/articolo/recensione-amd-fx-8350-ecco-vishera-con-core-piledriver-consumi-ed-efficienza/40519/18.html
i test di efficenza di tom's mi convingono zero.
paolo.oliva2
23-11-2012, 23:38
Ho beccato questa analisi... non mi sembra male.
Il discorso è complesso, perchè in realtà il Sistema operativo continua a muovere dei Task in background mentre il gioco gira in primo piano. Per questo un FX-8xxx gira più forte di un 4 core FX-4xxx, anche se il gioco più di 3 o 4 core non impiega.
Ero curioso di capire come mai un AMD fosse inferiore ad un Intel, anche a frequenze di Clock molto superiori, quindi la mia natura di tecnico mi ha fatto analizzare l'architettura dei due tipi di processore.
In sostanza, spiegato a mia nonna cioè senza entrare esageratamente nel tecnico, l'architettura AMD è molto più aggressiva e poco prudente, mentre Intel è più convenzionale e "cauta".
A partire dal Pentium PRO è entrato nell'architettura X86 il concetto di Pipeline. Mentre prima i vecchi Pentium, MMX o lisci, eseguivano (detto molto semplicisticamente) una singola istruzione per ogni singolo ciclo di clock, quindi, grossomodo, ad una frequenza di 166 Mhz corrispondevano 166 operazioni x86, anzi, in realtà molto meno perchè ci sono istruzioni CPU x86 long che impiegano diversi cicli di clock per essere eseguite, cmq figuratevi una cosa del genere.
Quindi all'aumentare delle frequenze si scalavano linearmente le prestazioni del processore. Però questa tecnologia aveva forti limiti, perchè le frequenze non si possono aumentare indefinitivamente ed ogni breve lasso di tempo tempo (tecnologia della riduzione dello spessore del DIE). Quindi ecco il concetto di Pipeline.
Sempre semplificando estremamente possiamo immaginarci come una scatola verticale molto stretta e sviluppata in altezza dove vengono buttate dentro e dall'alto delle scatolette contenenti le istruzioni x86.
Ebbene le istruzioni NON vengono eseguite finchè la pipeline, la scatolona verticale, non è completamente piena, satura. Quindi diversi cicli di clock, molti, vengono impiegati per impilare le istruzioni dentro la pipeline, ed in questi cicli nessuna istruzione di output è presente in uscita, tempo morto che chiamiamo latenza di Pipeline.
Una volta piena la Pipeline ecco che inizia la parte computazionale della CPU, con l'esecuzione delle istruzioni sui dati.
Attraverso una serie di particolari tecniche di esecuzione, a Pipeline piena, le istruzioni che vengono eseguite per singolo colpo di clock diventano molte; 4, 5 e anche 6 istruzioni per ciclo di clock, aumentando ENORMEMENTE le capacità computazionali della CPU, e riprendendosi con gli interessi, il tempo di latenza trascorso in attesa che si riempisse la Pipeline.
Ora, una di queste tecniche, che si sono evolute nel tempo, per velocizzare le istruzioni per singolo ciclo, è la Branch Prediction.
Il Branch Prediction, come lascia indovinare il nome, è un Modulo previsore di una possibile sequenza di istruzioni, in maniera da preparare già in anticipo e riempire la Pipeline con la previsione dei dati, istruzioni e risultati.
Dopo un salto condizionato c'è sempre una diramazione in due direzioni del flusso operazioni e l'unità di BP cerca di indovinare quali saranno le istruzioni successive, preparando dati, operazioni su di essi e risultato finale. Ottimo, bene...
...bene finchè la previsione viene eseguita (ovvero HIT, colpita) e questo accade nel 95-98% dei casi.
Ma cosa accade quando la previsione non viene "colpita"? Un dramma! Un dramma temporale perchè quando un'istruzione non viene predetta o un dato non viene trovato, avviene un "cachè missing" ed in questo caso la Pipeline viene COMPLETAMENTE svuotata e riempita di nuovo con una sequenza di dati corretta, perchè quelli buttati dentro i cicli prima non servono a nulla, e tutto deve essere azzerato.
Questo comporta la perdita di diversi, numerosi cicli di clock in operazioni "nullafacenti" e nasce un tempo di latenza dove la CPU lavora per il nulla mischiato al niente.
Viene da se comprendere che una Pipeline molto lunga è molto più efficiente (una volta che è piena e parte) di una più corta, ma è anche molto penalizzante nel caso di un cache missing e successivo completo svuotamento.
Tornando all'architettura AMD, questa ha scelto di utilizzare Pipeling molto molto lunghe, confidando in una unità di BP molto efficiente e con una percentuale di HIT superiore all'unità disponibile dentro gli INTEL. Però... un previsore rimane un oggetto che esegue una stima, una valutazione, una previsione appunto, che non sempre è conforme a quello che accade nella realtà. Ecco che inevitabilmente, alla faccia della migliore efficienza, tutto viene vanificato da una mancata previsione.
Questo spiega perchè alcuni software che sono "prevedibili" nel loro output (pernsiamo ad un rendering o ad una modifica su un'immagine statica) hanno buoni risultati, mentre altri, come i giochi, fortemente dinamici e mutevoli, hanno una minore efficienza, proprio perchè statisticamente maggiormente soggetti a produrre cachè missing.
Ecco spiegato l'arcano della minore efficienza degli AMD in alcune situazioni.
E' vero che il software può essere, in una qualche misura, ottimizzato per evitare i cache missing, con un flusso il più regolare e lineare possibile, ma il concetto stesso di programma che ha un'interazione con servizzi esterni (tra cui anche l'operatore) per sua stessa natura non può essere contenuto in rigide regole statiche e lineari.
cut...
Non esiste spiegazione piu chiara e completa ! Caspita. Ma non ho capito l'hai letta o l'hai stesa tu ? Se l'hai letta che sito è ?
Ho beccato questa analisi... non mi sembra male.
Il discorso è complesso, perchè in realtà il Sistema operativo continua a muovere dei Task in background mentre il gioco gira in primo piano. Per questo un FX-8xxx gira più forte di un 4 core FX-4xxx, anche se il gioco più di 3 o 4 core non impiega.
Ero curioso di capire come mai un AMD fosse inferiore ad un Intel, anche a frequenze di Clock molto superiori, quindi la mia natura di tecnico mi ha fatto analizzare l'architettura dei due tipi di processore.
In sostanza, spiegato a mia nonna cioè senza entrare esageratamente nel tecnico, l'architettura AMD è molto più aggressiva e poco prudente, mentre Intel è più convenzionale e "cauta".
A partire dal Pentium PRO è entrato nell'architettura X86 il concetto di Pipeline. Mentre prima i vecchi Pentium, MMX o lisci, eseguivano (detto molto semplicisticamente) una singola istruzione per ogni singolo ciclo di clock, quindi, grossomodo, ad una frequenza di 166 Mhz corrispondevano 166 operazioni x86, anzi, in realtà molto meno perchè ci sono istruzioni CPU x86 long che impiegano diversi cicli di clock per essere eseguite, cmq figuratevi una cosa del genere.
Quindi all'aumentare delle frequenze si scalavano linearmente le prestazioni del processore. Però questa tecnologia aveva forti limiti, perchè le frequenze non si possono aumentare indefinitivamente ed ogni breve lasso di tempo tempo (tecnologia della riduzione dello spessore del DIE). Quindi ecco il concetto di Pipeline.
Sempre semplificando estremamente possiamo immaginarci come una scatola verticale molto stretta e sviluppata in altezza dove vengono buttate dentro e dall'alto delle scatolette contenenti le istruzioni x86.
Ebbene le istruzioni NON vengono eseguite finchè la pipeline, la scatolona verticale, non è completamente piena, satura. Quindi diversi cicli di clock, molti, vengono impiegati per impilare le istruzioni dentro la pipeline, ed in questi cicli nessuna istruzione di output è presente in uscita, tempo morto che chiamiamo latenza di Pipeline.
Una volta piena la Pipeline ecco che inizia la parte computazionale della CPU, con l'esecuzione delle istruzioni sui dati.
Attraverso una serie di particolari tecniche di esecuzione, a Pipeline piena, le istruzioni che vengono eseguite per singolo colpo di clock diventano molte; 4, 5 e anche 6 istruzioni per ciclo di clock, aumentando ENORMEMENTE le capacità computazionali della CPU, e riprendendosi con gli interessi, il tempo di latenza trascorso in attesa che si riempisse la Pipeline.
Ora, una di queste tecniche, che si sono evolute nel tempo, per velocizzare le istruzioni per singolo ciclo, è la Branch Prediction.
Il Branch Prediction, come lascia indovinare il nome, è un Modulo previsore di una possibile sequenza di istruzioni, in maniera da preparare già in anticipo e riempire la Pipeline con la previsione dei dati, istruzioni e risultati.
Dopo un salto condizionato c'è sempre una diramazione in due direzioni del flusso operazioni e l'unità di BP cerca di indovinare quali saranno le istruzioni successive, preparando dati, operazioni su di essi e risultato finale. Ottimo, bene...
...bene finchè la previsione viene eseguita (ovvero HIT, colpita) e questo accade nel 95-98% dei casi.
Ma cosa accade quando la previsione non viene "colpita"? Un dramma! Un dramma temporale perchè quando un'istruzione non viene predetta o un dato non viene trovato, avviene un "cachè missing" ed in questo caso la Pipeline viene COMPLETAMENTE svuotata e riempita di nuovo con una sequenza di dati corretta, perchè quelli buttati dentro i cicli prima non servono a nulla, e tutto deve essere azzerato.
Questo comporta la perdita di diversi, numerosi cicli di clock in operazioni "nullafacenti" e nasce un tempo di latenza dove la CPU lavora per il nulla mischiato al niente.
Viene da se comprendere che una Pipeline molto lunga è molto più efficiente (una volta che è piena e parte) di una più corta, ma è anche molto penalizzante nel caso di un cache missing e successivo completo svuotamento.
Tornando all'architettura AMD, questa ha scelto di utilizzare Pipeling molto molto lunghe, confidando in una unità di BP molto efficiente e con una percentuale di HIT superiore all'unità disponibile dentro gli INTEL. Però... un previsore rimane un oggetto che esegue una stima, una valutazione, una previsione appunto, che non sempre è conforme a quello che accade nella realtà. Ecco che inevitabilmente, alla faccia della migliore efficienza, tutto viene vanificato da una mancata previsione.
Questo spiega perchè alcuni software che sono "prevedibili" nel loro output (pernsiamo ad un rendering o ad una modifica su un'immagine statica) hanno buoni risultati, mentre altri, come i giochi, fortemente dinamici e mutevoli, hanno una minore efficienza, proprio perchè statisticamente maggiormente soggetti a produrre cachè missing.
Ecco spiegato l'arcano della minore efficienza degli AMD in alcune situazioni.
E' vero che il software può essere, in una qualche misura, ottimizzato per evitare i cache missing, con un flusso il più regolare e lineare possibile, ma il concetto stesso di programma che ha un'interazione con servizzi esterni (tra cui anche l'operatore) per sua stessa natura non può essere contenuto in rigide regole statiche e lineari.
Ciao Paolo, non ho capito in cosa AMD è più aggressiva rispetto a Intel?....nei processori superscalari (come quelli che hai citato tu) creare pipeline (mi piace il paragone della pipeline con la catena di montaggio) lunghe lunghe non è sempre una buona scelta soprattutto se non disponi di un BP al top e anche se ne disponi cmq il rischio di una errata previsione esiste come esiste la conseguente necessità di svuotare e di ricaricare tutta la pipeline....inoltre lo svuotamento delle pipeline c'entra solo in parte con il cache missing.... il problema dello svuotamento della pipeline non sta SOLO nel dove reperire le istruzioni ma sta nel riempirla tutta ex-novo...perchè per arrivare alla fase finale di RETIRE di un istruzione, tutti gli stadi precedenti della pipeline devono essere riempiti e questo COSTA cicli di clock...ovviamente più la pipeline è lunga più ha stadi e più impiega cicli a riempirsi...a prescindere dal dove si trovano le istruzioni (lo dico xchè anche se tutto fosse in cache e non ci fosse il cache missing....cmq lo svuotamento di una pipeline lunga è cmq una 'tragedia' in termini di performance).... rivelandosi errata la previsione, la pipeline deve essere svuotata e riempita poi con le ISTRUZIONI giuste....me se è lunga lunga impiega un sacco di tempo, cicli, a riempirsi a prescindere dal fatto che le istruzioni e/o i dati siano presenti nella cache (certo se non sono in cache aggiungi ai cicli di riempimento della pipeline anche i cicli dovuti a reperire le istruzioni o i dati da usare)...l'esperienza insegna che pipeline lunghe permettono clock alti...ma come ben sappiamo clock alti introducono latenze alte, ad esempio nelle cache; cache che vanno a 4,5 ghz avranno latenze molto più alte di cache che devono andare solo a 3ghz,..oltre al fatto che la pipeline di bulldozer è si lunga ma non così lunga.....il problema, secondo me, risiede proprio nelle unità di esecuzione che per non sforare con il transistor count le hanno semplificate troppo...vedi FPU AMD con la divisione e l'implementazione in SR..oltre al fatto che da quanto sapevo io l'unità migliore di BP non è di AMD..anzi....se non ricordo male anche in PD l'hanno migliorata...perchè non è proprio quella che si definisce un fulmine di guerra :)..
Inoltre da quanto mi ricordo nei miei studi, HIT (come lo chiami) dovrebbe essere il cache HIT e non la previsione azzeccata... l'HIT si riferisce alla presenza o meno del dato/istruzione nella cache :'Quando il processore vuole leggere o scrivere in una data collocazione in memoria principale, inizialmente controlla se il contenuto di questa posizione è caricato in cache. Questa operazione viene effettuata confrontando l'indirizzo della posizione di memoria con tutte le etichette nella cache che potrebbero contenere quell'indirizzo. Se il processore trova che la posizione di memoria è in cache, si parla di cache hit (accesso avvenuto con successo), altrimenti di cache miss (fallimento d'accesso). Nel caso di un cache hit, il processore legge o scrive immediatamente il dato sulla linea di cache. Il rapporto tra cache hit e accessi totali è chiamato anche hit rate ed è una misura dell'efficacia della cache stessa."
la previsione non sta nel fatto di aver previsto che verranno eseguite quelle istruzioni e quindi riempio la cache, ma nel fatto che si sta riempiendo la pipeline di quelle istruzioni che si prevedono verranno eseguite alla presenza di un jump condizionato, in base a quanto è successo fino ad adesso (tenendo traccia dei jump e dei risultati in una tabella all'interno della CPU il BTB Branch Target Buffer se non ricordo male ...per cui si prevede che se 9 volte su 10 QUEL jump condizionale ha portato all'esecuzione di quelle istruzioni io intanto comincio a caricarmi la pipeline...se poi ho ragione, allora ho già le istruzioni pronte, ma se ho torto tutto il lavoro fatto in precedenza non serve a nulla..
ti consiglio questo libro interessantissimo che mi sono letto(e si parla anche di BD :D - 180 pagine interessantissime):
http://www.google.it/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=1&cad=rja&sqi=2&ved=0CDAQFjAA&url=http%3A%2F%2Fwww.agner.org%2Foptimize%2Fmicroarchitecture.pdf&ei=sRywUMzTIcqQswaV84Bw&usg=AFQjCNGRPm4A8ixWqSSGOOtNPCxp1YRfQg&sig2=Ht0lC2-Q1GXsYZcRij1K8w
e un'altra caratteristica che fa la differenza è la fusion micro op....anche lì si sta spingendo molto con i decoder cisc-risc
Ciao
theProix87
24-11-2012, 00:53
Sto caricando un Video sul mio canale di youtube cosi vi faccio vedere il problema del processore... non ne esco fuori, dal bios ho disabilitato tutti i parametri della gestione dei consumi e via dicendo...
Voi dite che non è il processore, ma il 1100T funzionava alla grande in OC, era sempre stabile, a dimostrazione che la mobo dovrebbe essere sana, invece questo 8350 non risponde proprio ai comandi che gli do... da bios l'OC proprio non va perchè frequenza e voltaggio che assegno non sono visualizzati su windows, poi ci si aggiunge che ha temperature davvero sballate, UFF....
Come posto il video vi prego di darmi una "Zampa" :mc:
Aggiungo che quando zoppica come poi vedrete... è impossibile giocarci e editare video.... dato che è come se andasse a scatti...
paolo.oliva2
24-11-2012, 01:15
Non esiste spiegazione piu chiara e completa ! Caspita. Ma non ho capito l'hai letta o l'hai stesa tu ? Se l'hai letta che sito è ?
Non l'ho scritta io, è su tom's nel forum, al quesito 8350 vs 3770K.
Ciao Paolo, non ho capito in cosa AMD è più aggressiva rispetto a Intel?....nei processori superscalari (come quelli che hai citato tu) creare pipeline (mi piace il paragone della pipeline con la catena di montaggio) lunghe lunghe non è sempre una buona scelta soprattutto se non disponi di un BP al top e anche se ne disponi cmq il rischio di una errata previsione esiste come esiste la conseguente necessità di svuotare e di ricaricare tutta la pipeline....inoltre lo svuotamento delle pipeline c'entra solo in parte con il cache missing.... il problema dello svuotamento della pipeline non sta SOLO nel dove reperire le istruzioni ma sta nel riempirla tutta ex-novo...perchè per arrivare alla fase finale di RETIRE di un istruzione, tutti gli stadi precedenti della pipeline devono essere riempiti e questo COSTA cicli di clock...ovviamente più la pipeline è lunga più ha stadi e più impiega cicli a riempirsi...a prescindere dal dove si trovano le istruzioni (lo dico xchè anche se tutto fosse in cache e non ci fosse il cache missing....cmq lo svuotamento di una pipeline lunga è cmq una 'tragedia' in termini di performance).... rivelandosi errata la previsione, la pipeline deve essere svuotata e riempita poi con le ISTRUZIONI giuste....me se è lunga lunga impiega un sacco di tempo, cicli, a riempirsi a prescindere dal fatto che le istruzioni e/o i dati siano presenti nella cache (certo se non sono in cache aggiungi ai cicli di riempimento della pipeline anche i cicli dovuti a reperire le istruzioni o i dati da usare)...l'esperienza insegna che pipeline lunghe permettono clock alti...ma come ben sappiamo clock alti introducono latenze alte, ad esempio nelle cache; cache che vanno a 4,5 ghz avranno latenze molto più alte di cache che devono andare solo a 3ghz,..oltre al fatto che la pipeline di bulldozer è si lunga ma non così lunga.....il problema, secondo me, risiede proprio nelle unità di esecuzione che per non sforare con il transistor count le hanno semplificate troppo...vedi FPU AMD con la divisione e l'implementazione in SR..oltre al fatto che da quanto sapevo io l'unità migliore di BP non è di AMD..anzi....se non ricordo male anche in PD l'hanno migliorata...perchè non è proprio quella che si definisce un fulmine di guerra :)..
Inoltre da quanto mi ricordo nei miei studi, HIT o il cache HIT non c'entra nulla con la previsione azzeccata ma si riferisce alla presenza o meno del dato/istruzione nella cache :'Quando il processore vuole leggere o scrivere in una data collocazione in memoria principale, inizialmente controlla se il contenuto di questa posizione è caricato in cache. Questa operazione viene effettuata confrontando l'indirizzo della posizione di memoria con tutte le etichette nella cache che potrebbero contenere quell'indirizzo. Se il processore trova che la posizione di memoria è in cache, si parla di cache hit (accesso avvenuto con successo), altrimenti di cache miss (fallimento d'accesso). Nel caso di un cache hit, il processore legge o scrive immediatamente il dato sulla linea di cache. Il rapporto tra cache hit e accessi totali è chiamato anche hit rate ed è una misura dell'efficacia della cache stessa."
la previsione non sta nel fatto di aver previsto che verranno eseguite quelle istruzioni e quindi riempio la cache, ma nel fatto che si sta riempiendo la pipeline di quelle istruzioni che si prevedono verranno eseguite alla presenza di un jump condizionato, in base a quanto è successo fino ad adesso (tenendo traccia dei jump in una tabella all'interno della CPU...per cui si prevede che se 9 volte su 10 QUELLO SPECIFICO jump condizionale ha portato all'esecuzione di quelle istruzioni io intanto comincio a caricarmi la pipeline...se poi ho ragione, allora ho già le istruzioni pronte, ma se ho torto tutto il lavoro fatto in precedenza non serve a nulla..
Ciao
Anche io su alcune cose non sono d'accordo... tipo pipeline lunghe lunghe.
Il discorso aggressività, penso sia riferito che BD è aggressivo come architettura... meno aggressivo di un PIV, ma più di un i7, e come le cose aggressive, introducono un fattore rischio più alto, e l'esempio l'abbiamo in Zambesi. Cioè... mettici un po' tutto... rischio di una predizione molto efficente per le pipeline lunghe, rischio perchè si deve avere un ottimo PP di silicio, rischio perchè AMD ha fatto un cambiamento radicale... mettici tutto...
----
Poi nella discussione parlavano, giustamente, che nel discorso giochi la soluzione AMD 8350 non è affatto inferiore al 3770K... perchè la spesa inferiore nel procio può concedere l'acquisto di una VGA superiore.
Però, secondo me non è vero del tutto, perchè a risoluzioni idonee ai monitor attuali, conta praticamente solo la VGA, perchè credo che non si raggiunga mai la situiazione CPU-limit. Se invece si ha CPU-limit, una VGA più potente non conta una mazza e lì o 3770K, o 2600K o comunque una soluzione Intel.
Cioè, dai, a parte (forse, perchè non l'ho provato) una maggiore fluidità, l'8350 sta dietro al 3770K quasi dovunque... in alcuni casi poco, in altri di più. Chiaro che se costassero uguale... Ma in ogni caso, siamo ben distanti da una situazione 1 modulo = 1 core Intel + HT, e questo è il dazio del rischio fatto dall'aggressività, intesa il passo più lungo della gamba.
Non l'ho scritta io, è su tom's nel forum, al quesito 8350 vs 3770K.
Anche io su alcune cose non sono d'accordo... tipo pipeline lunghe lunghe.
Il discorso aggressività, penso sia riferito che BD è aggressivo come architettura... meno aggressivo di un PIV, ma più di un i7, e come le cose aggressive, introducono un fattore rischio più alto, e l'esempio l'abbiamo in Zambesi. Cioè... mettici un po' tutto... rischio di una predizione molto efficente per le pipeline lunghe, rischio perchè si deve avere un ottimo PP di silicio, rischio perchè AMD ha fatto un cambiamento radicale... mettici tutto...
----
Poi nella discussione parlavano, giustamente, che nel discorso giochi la soluzione AMD 8350 non è affatto inferiore al 3770K... perchè la spesa inferiore nel procio può concedere l'acquisto di una VGA superiore.
Però, secondo me non è vero del tutto, perchè a risoluzioni idonee ai monitor attuali, conta praticamente solo la VGA, perchè credo che non si raggiunga mai la situiazione CPU-limit. Se invece si ha CPU-limit, una VGA più potente non conta una mazza e lì o 3770K, o 2600K o comunque una soluzione Intel.
Cioè, dai, a parte (forse, perchè non l'ho provato) una maggiore fluidità, l'8350 sta dietro al 3770K quasi dovunque... in alcuni casi poco, in altri di più. Chiaro che se costassero uguale... Ma in ogni caso, siamo ben distanti da una situazione 1 modulo = 1 core Intel + HT.
d'accordo...sono d'accordo che il 8350 sia una bella CPU per quello che costa ed è un acquisto consigliatissimo....il mio era solo un discorso di più alto respiro :D...non ero sul discordo valore economico CPU...dove 8350 è sicuramente una bella CPU....se fosse uscita al posto 8150..sarebbe stata una gran bella cosa :D...l'architettura è cmq valida anche se nuova, come del resto si è sempre sostenuto...se consideriamo che anche 8350 è castrato dal PP perchè sono 200MHZ in + per singolo modulo mi sembrano pochini pochini....mi sarei aspettato almeno un 4400
OT:
ragazzi ma la sapevate questa cosa ?
http://boardreader.com/thread/Thread_Ufficiale_CPU_serie_FX_AMD_Bulld_83qnX1fj4n.html
Top contributing authors:
paolo.oliva in testa ed io secondo in classifica :rotfl:
vabbe basta chiudo l'ot la verità è che non mi viene sonno stanotte e sfantasio con internet..notte a tutti ;)
FINE OT
BodyKnight
24-11-2012, 06:55
95%???...ora mi spiego i centri commerciali saturi di oem e mobile intel :doh:
Ma ti sei mai fatto un giro al centro commerciale di turno a contare quanti computer farlocchi con l'e-350/450 c'erano? Dico farlocchi perchè assemblano un formato notebook, con dentro un e-350.
Sto caricando un Video sul mio canale di youtube cosi vi faccio vedere il problema del processore... non ne esco fuori, dal bios ho disabilitato tutti i parametri della gestione dei consumi e via dicendo...
Voi dite che non è il processore, ma il 1100T funzionava alla grande in OC, era sempre stabile, a dimostrazione che la mobo dovrebbe essere sana, invece questo 8350 non risponde proprio ai comandi che gli do... da bios l'OC proprio non va perchè frequenza e voltaggio che assegno non sono visualizzati su windows, poi ci si aggiunge che ha temperature davvero sballate, UFF....
Come posto il video vi prego di darmi una "Zampa" :mc:
Aggiungo che quando zoppica come poi vedrete... è impossibile giocarci e editare video.... dato che è come se andasse a scatti...
Se a default va bene la cpu é a posto, il problema potrebbe essere il bios... cmq prova a fare un clearcmos e a reimpostare tutto (in questo modo a volte si risolvono cose impensabili.
;) CIAUZ)
paolo.oliva2
24-11-2012, 08:23
Se a default va bene la cpu é a posto, il problema potrebbe essere il bios... cmq prova a fare un clearcmos e a reimpostare tutto (in questo modo a volte si risolvono cose impensabili.
;) CIAUZ)
Tu sei riuscito a disabilitare 1 core a modulo?
Non riesco a capire... con l'8150 i bios lo prevedevano ed ora con l'8350 sembra che l'abbiano tolto tutti i bios.
PeteRParkeR
24-11-2012, 09:20
Non so che cavolo ho toccato nel bios nelle voci, ma mi regge da un ora e mezzo i 4,5ghz a 1,39v (nb def, ram def) sotto stress con cpuburn e vari bench phoronix.
Tanto per sapere...:cool: Shellx ma con 1,39v ad aria ( mi pare di ricordare...) con che dissipatore stai ?? così magari mi faccio un idea per l'upgrade dissipativo...:D :D (sotto ottimi consigli di paolo@Forse il test che mi dicevi di fare...difficilmente riesco a farlo...qui da me 5-10 gradi di temp esterna è difficile che li raggiungo!!! ahahaha :D :D :D )
Per quanto riguarda la LLC se la lasci "auto" si prende da sola valori a seconda delle richieste della cpu...non è disattivata con auto...( lo è se metti regular che equivale 0% di LLC!! la mobo dovrebbe restituire il comportamento di base senza correzioni sul circuito.)
Cmq attualmente ho trovato un compromesso con limiti sui 60° sui 4236Mhz 1,3312v cpu/nb= 1,15v (è stabile a 2222MHz sia nb che ht !! e mi fa scaldare meno...) da bios (201bios@201,68 x21 su win le asus devono metterci sempre lo zampino!!) cpu llc = high cpu/nb = high ; cpu e cpu/n capability = 130% power phase control = optimized asus ; power duty control = T.probe ( in relaz alle temp anche se credo sarebbe meglio extreme per avere erogazione corrente in modo ultra-stabile ).
Cmq a mio parere una componente negativa sono le benedette ram ( ho a disposiz le vengeance black c8 1600 8gb , ma non ci stanno a cas 8 stabilità a 1600 per ora solo a cas 9 forse dovrei alzare voltaggio ddr magari a 1,6 ?? ma dovrebbero essere certificate 1,5v a 1600 c8...mah??)
PeteRParkeR
24-11-2012, 09:39
ad occhio e croce punterei sul dissi......se vuoi puoi fare una prova smontalo puliscilo e controlla la superficie di contatto della base in rame, di sicuro non e' stata rifinita a dovere sara' concava o convessa, in tal caso una lappatura a specchio potrebbe giovare alle temperature ;)
ancora piu' semplice con la cpu sotto stress tocca la base del dissi (se riesci) se e' calda e' ok se e' appena tiepida e' come penso io...
Pardon...mi ero dimenticato di rispondere....(grazie della tua risposta!!;) )
Si è un'operazione che ho fatto di smontare e rimontare e tastare con mano...per ovviare a difetti di questo genere...( la superficie cmq sembra aderire perfettamente all' HIS della cpu! Ed è caldo sufficientemente da poter fugare dubbi...la qualità costruttiva della cooler master mi sembra adeguata...) C'è pure da dire che se fosse questo il problema come insegna la "trasmissione del calore" :D anche a carichi bassi ci sarebbero temperature elevate rispetto alla norma...invece in idle la cpu è molto fresca ( ora per esempio è fermo da 10 min e sta sui 13-14° sui core e 34-35 sulla cpu da hwmonitor con una temp ext di 19-20° ) probabilmente come messo in evidenza dai test e come suggerito qui sul forum il dissipatore hyper612s soffre a dissipare i watt generati da una cpu 8core...:( non ci vedo altre motivazioni altrimenti...
TheBestFix
24-11-2012, 10:01
Pardon...mi ero dimenticato di rispondere....(grazie della tua risposta!!;) )
Si è un'operazione che ho fatto di smontare e rimontare e tastare con mano...per ovviare a difetti di questo genere...( la superficie cmq sembra aderire perfettamente all' HIS della cpu! Ed è caldo sufficientemente da poter fugare dubbi...la qualità costruttiva della cooler master mi sembra adeguata...) C'è pure da dire che se fosse questo il problema come insegna la "trasmissione del calore" :D anche a carichi bassi ci sarebbero temperature elevate rispetto alla norma...invece in idle la cpu è molto fresca ( ora per esempio è fermo da 10 min e sta sui 13-14° sui core e 34-35 sulla cpu da hwmonitor con una temp ext di 19-20° ) probabilmente come messo in evidenza dai test e come suggerito qui sul forum il dissipatore hyper612s soffre a dissipare i watt generati da una cpu 8core...:( non ci vedo altre motivazioni altrimenti...
....
Riguardo al megapost che paolo ha copiato da tommy (senza che abbia controllato, infatti avevo risposto a quella discussione), faccio un paio di precisazioni.
1 - La BP dei processori basati su architettura Bulldozer è superaggressva. Si penalizzano tutti i processi che fanno troppe MISS in tutti e tre i livelli della cache. Questo è dovuto, in parte, anche alla poca velocità che garantisce il MC dei processori AMD rispetto al massimo teorico dei banchi di ram (ad esempio il MC di Intel supera i 22GB/s, ma i banchi arrivano, in dual channel, appena sopra i 17/18). Quindi AMD tenta di ridurre al minimo gli eventi di lettura dalla RAM che potrebbero non avvenire.
Sempre riguardo la branch prediction, quella di AMD non è la più efficente. Esattamente come non lo è quella di Intel. Proprio sulla BP esistono studi universitari quasi 30nnali (se non più vecchi).
2 - Riguardo le pipeline lunghe, non sono le migliori (generalmente le pipeline più sono corte meglio è), però una pipeline lunga permette di salire tantissimo in frequenza. Prendiamo Intel. Usa pipeline molto corte. Il risultato è una maggiore velocità nei calcoli ST. Però quando si porta il processore ad alte frequenze non riesce a reggere. Tant'è che i 5,5 Ghz ad azoto con un 3770k sono quasi da record mondiale.
Insomma, ancora una volta AMD dimostra un approccio differente da quello di Intel. Da una parte vuole una branch prediction più efficente (e qui la colpa si divide in due, in parte è colpa degli sviluppatori del software e in parte degli sviluppatori dei compilatori) mentre dall'altra usa delle pipeline lunghe che sono meno efficenti ma che permettono ad AMD di aumentare la potenza generale in modo molto più efficente.
Nforce Ultra
24-11-2012, 10:11
Pardon...mi ero dimenticato di rispondere....(grazie della tua risposta!!;) )
Si è un'operazione che ho fatto di smontare e rimontare e tastare con mano...per ovviare a difetti di questo genere...( la superficie cmq sembra aderire perfettamente all' HIS della cpu! Ed è caldo sufficientemente da poter fugare dubbi...la qualità costruttiva della cooler master mi sembra adeguata...) C'è pure da dire che se fosse questo il problema come insegna la "trasmissione del calore" :D anche a carichi bassi ci sarebbero temperature elevate rispetto alla norma...invece in idle la cpu è molto fresca ( ora per esempio è fermo da 10 min e sta sui 13-14° sui core e 34-35 sulla cpu da hwmonitor con una temp ext di 19-20° ) probabilmente come messo in evidenza dai test e come suggerito qui sul forum il dissipatore hyper612s soffre a dissipare i watt generati da una cpu 8core...:( non ci vedo altre motivazioni altrimenti...
Secondo me il problema del tuo dissipatore è la ventola guarda qui:
http://www.coolingtechnique.com/img/rece/dissipatori/coolermaster/hyper-612s/hyper-612s-fan-data.png
La pressione statica di questa ventola è troppo bassa per un dissipatore, cambiala con una migliore
TheBestFix
24-11-2012, 10:20
Secondo me il problema del tuo dissipatore è la ventola guarda qui:
http://www.coolingtechnique.com/img/rece/dissipatori/coolermaster/hyper-612s/hyper-612s-fan-data.png
La pressione statica di questa ventola è troppo bassa per un dissipatore, cambiala con una migliore
il problema e' che quella ventola e' fatta per la massima silenziosità anche al massimo del regime, infatti quel dissi risulta essere uno dei piu' silenziosi, un'altra prova che farei sarebbe applicare una seconda ventola (penso si possa fare) sul dissi in configurazione push/pull come io ho fatto sul mio mugen2 ottenendo importanti abbassamenti di temperatura
Caterpillar_WRT
24-11-2012, 10:28
A me sembra che le scelte architetturali si siano invertite rispetto ai tempi del PIV vs AMD64.
Quello che non capisco è come abbia fatto AMD a farsi battere proprio sulle scelte architetturali.
Nforce Ultra
24-11-2012, 10:29
il problema e' che quella ventola e' fatta per la massima silenziosità anche al massimo del regime, infatti quel dissi risulta essere uno dei piu' silenziosi, un'altra prova che farei sarebbe applicare una seconda ventola (penso si possa fare) sul dissi in configurazione push/pull come io ho fatto sul mio mugen2 ottenendo importanti abbassamenti di temperatura
Senza stare a spendere molto con 10 euro mette una bella Scythe Slip Stream da 1900 rpm e sta apposto:
http://www.coolingtechnique.com/img/rece/dissipatori/scythe/ninja3/dati-fan.png
questa ha un ottima pressione statica il doppio dei cfm della sua attuale
non vorrei sbagliare ma mi pare di aver letto che quel dissi e' fatto per dissipare sui 130w ...considerando che a default il 8320 e' un 125w tdp in overvolt/overclock sfora sicuro....e cmq la base di contatto non e' rifinita a dovere al pari di altre marche piu' blasonate, passando il dito sulla superficie non puoi rendertene conto, io per controllare le superfici dei dissi lo faccio con piastra di vetro + crema ...osservi l'impronta lasciata....poi tracciando una griglia sulla base e passandola leggermente sulla carta abrasiva (fine) capisci se e dove e' concava o convessa...ma se non hai manualita' con l'operazione meglio cambiare dissi, se vuoi rimanere ad aria prendine uno con superficie lappata di fabbrica, risparmi tempo e fatica nel farla poi da te...per esperienza ti dico di non risparmiare proprio sul dissi, a meno di 40€ non trovi di sicuro un prodotto per le tue esigenze
Se non erro i dissi dei due top di gamma di AMD arrivano a 140W (uno dei motivi per cui i produttori di mobo dichiarano supporto fino a proci da 140W), mentre quelli dei processori meno potenti (da 95w) hanno un dissi che arriva intorno ai 100/110W, in quanto montano una ventola più piccola.
Come dissi l'arctic freezer extreme è ottimo. Oppure c'è anche un dissi di Cooler Master con il vapor chamber (non ricordo più come di chiama) economico, ovviamente non intendo il TPC-800.
A me sembra che le scelte architetturali si siano invertite rispetto ai tempi del PIV vs AMD64.
Quello che non capisco è come abbia fatto AMD a farsi battere proprio sulle scelte architetturali.
Roba che ormai sanno anche i muri di hwupgrade. :lol:
Intel ha fatto pratiche commerciali scorrette che hanno penalizzato i guadagni di AMD.
Tra queste l'abuso di posizione dominante e il diverso comportamento dei programmi compilati con compilatori Intel su processori diversi dai suoi (in questo subforum c'è un thread apposito su questa vicenda). :D
PeteRParkeR
24-11-2012, 10:53
non vorrei sbagliare ma mi pare di aver letto che quel dissi e' fatto per dissipare sui 130w ...considerando che a default il 8320 e' un 125w tdp in overvolt/overclock sfora sicuro....e cmq la base di contatto non e' rifinita a dovere al pari di altre marche piu' blasonate, passando il dito sulla superficie non puoi rendertene conto, io per controllare le superfici dei dissi lo faccio con piastra di vetro + crema ...osservi l'impronta lasciata....poi tracciando una griglia sulla base e passandola leggermente sulla carta abrasiva (fine) capisci se e dove e' concava o convessa...ma se non hai manualita' con l'operazione meglio cambiare dissi, se vuoi rimanere ad aria prendine uno con superficie lappata di fabbrica, risparmi tempo e fatica nel farla poi da te...per esperienza ti dico di non risparmiare proprio sul dissi, a meno di 40€ non trovi di sicuro un prodotto per le tue esigenze
Si in effetti hai perfettamente ragione ha un tdp di riferimento basso!! ;) Prima lo usavo su un 960T ed effettivamente andava al limite quando lo spingevo ad x6 in overclock infatti tendenzialmente ( causa anche l'assenza dei sensori in modalità x6 ) lo tenevo ad x4!
In quanto a manualità non sono messo malaccio...:D ma il pensiero di un guadagno nell'ordine di 2-3 gradi indicativamente per una rettifica della superficie non mi entusiasma considerando il fatto che il dissipatore potrebbe essere al suo limite già di base!!
Cmq la superficie è arrivata lappata a specchio già in confezione...:rolleyes:
Penso a questo punto che andrò sul sicuro con un NH-D14 così taglio la testa al toro...penso che con questo non posso sbagliare no??
Secondo me il problema del tuo dissipatore è la ventola guarda qui:
http://www.coolingtechnique.com/img/rece/dissipatori/coolermaster/hyper-612s/hyper-612s-fan-data.png
La pressione statica di questa ventola è troppo bassa per un dissipatore, cambiala con una migliore
Si infatti l'ho cambiata fin dall'inizio ( avevo letto qst cosa...) forse non hai avuto modo di leggere qualche post sopra dove lo dicevo...
Ho montato su una akasa viper pwm 120mm ad alta pressione ( su questa ventola non ci sono dubbi!! ;) ehehe circa 84 CFM...:cool: )
PeteRParkeR
24-11-2012, 11:03
il problema e' che quella ventola e' fatta per la massima silenziosità anche al massimo del regime, infatti quel dissi risulta essere uno dei piu' silenziosi, un'altra prova che farei sarebbe applicare una seconda ventola (penso si possa fare) sul dissi in configurazione push/pull come io ho fatto sul mio mugen2 ottenendo importanti abbassamenti di temperatura
Effettivamente potrebbe essere un tentativo da fare!! Ci avevo già pensato...mi devo inventare qualcosa per tenere la 2a ventola in pull ( perchè la viper in push ha il castelletto originale della ventola in dotazione che si incastra nei profili delle lamelle del dissy con l'aiuto di alcuni gommini di spessore per evitare vibrazioni )
Senza stare a spendere molto con 10 euro mette una bella Scythe Slip Stream da 1900 rpm e sta apposto:
questa ha un ottima pressione statica il doppio dei cfm della sua attuale
Ottima ventola...l'avevo vista ma poi scelsi la viper per la silenziosità ed i cfm erogati proporzionali alle velocità di rotazione ed anche per un fattore estetico!! ;)
filo mc-ati crossfire
24-11-2012, 11:05
Si in effetti hai perfettamente ragione ha un tdp di riferimento basso!! ;) Prima lo usavo su un 960T ed effettivamente andava al limite quando lo spingevo ad x6 in overclock infatti tendenzialmente ( causa anche l'assenza dei sensori in modalità x6 ) lo tenevo ad x4!
In quanto a manualità non sono messo malaccio...:D ma il pensiero di un guadagno nell'ordine di 2-3 gradi indicativamente per una rettifica della superficie non mi entusiasma considerando il fatto che il dissipatore potrebbe essere al suo limite già di base!!
Cmq la superficie è arrivata lappata a specchio già in confezione...:rolleyes:
Penso a questo punto che andrò sul sicuro con un NH-D14 così taglio la testa al toro...penso che con questo non posso sbagliare no??
Si infatti l'ho cambiata fin dall'inizio ( avevo letto qst cosa...) forse non hai avuto modo di leggere qualche post sopra dove lo dicevo...
Ho montato su una akasa viper pwm 120mm ad alta pressione ( su questa ventola non ci sono dubbi!! ;) ehehe circa 84 CFM...:cool: )
per me il problema rumore non esiste,una macchina da 500 cavalli fà rumore no?se voglio una macchina che non fà rumore,prendo una elettrica ! hahahaha lol
http://www.coolingtechnique.com/recensioni/74-ventole-rheobus/448-recensione-scythe-ultrakaze-3000rpm.html?start=1
PS: io ho questa sul mugen 3
TheBestFix
24-11-2012, 11:05
Senza stare a spendere molto con 10 euro mette una bella Scythe Slip Stream da 1900 rpm e sta apposto:
http://www.coolingtechnique.com/img/rece/dissipatori/scythe/ninja3/dati-fan.png
questa ha un ottima pressione statica il doppio dei cfm della sua attuale
io ho una slip stream da 1900 rpm la usavo in estrazione sul cm690 controllata da kaze server (al massimo dei giri non si puo' sentire :rolleyes: ) pero' la portata di aria che sposta e' impressionante
per me il problema rumore non esiste,una macchina da 500 cavalli fà rumore no?se voglio una macchina che non fà rumore,prendo una elettrica ! hahahaha lol
http://www.coolingtechnique.com/recensioni/74-ventole-rheobus/448-recensione-scythe-ultrakaze-3000rpm.html?start=1
A parità di rumore generato è meglio una Slip Stream però. Più CFM e più SP. ;)
Poi la Ultra Kaze è da 38 mm invece che un più standard 25mm.
Se si può spendere c'è anche da prendere in considerazione la Gentle Typhoon. Otima ventola. Il costo è un po' alto però.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.