View Full Version : Nehalem a 3,2GHz? Non proprio...
Redazione di Hardware Upg
03-04-2008, 08:56
Link alla notizia: http://www.hwupgrade.it/news/cpu/nehalem-a-3-2ghz-non-proprio_24853.html
Le informazioni relative alla dimostrazione di un processore Intel Nehalem a 3,2GHz paiono essere prive di fondamento; si tratta solamente di due processori Xeon 5400
Click sul link per visualizzare la notizia.
Nehalem non ricava la propria frequenza da una frequenza di bus, ma seguendo una tecnica differente (presumibilmente sempre con l'impiego di un moltiplicatore) sulla quale tuttavia non ci è stato possibile fare chiarezza.
interessante :what: ...
Userà per forza una host frequency, quella a cui funziona il link Quick Path.
ghiltanas
03-04-2008, 09:05
pensare certo che 2,13 e' la freq di default del mio e6400:)
Anche FUDZilla vi cita per lo scoop di ieri... :D Non so se è un vanto... :asd:
Probabilmente ci sarà un PLL interno, magari a 66-133-166, da cui si ricavano tutti i clock per RAM QPI e CPU. Non può essere del tipo 100-200 MHz, perchè poi sarebbe più complicato ricavare i clock per le RAM del tipo 1333 o 1066... (dovrebbero fare come AMD: moltiplicatore e divisore in cascata...)
viper-the-best
03-04-2008, 09:15
secondo quanto riferitoci Nehalem non ricava la propria frequenza da una frequenza di bus, ma seguendo una tecnica differente
Se è davvero così ancora ci sarà lavoro da fare per far capire ai consumatori finali che un ipotetico nehalem a 1,5 GHz (forse) è più efficente di un penryn a 2.4 GHz..
Userà per forza una host frequency, quella a cui funziona il link Quick Path.
Già questo per me è arabo.
Interessante comunque
aceto876
03-04-2008, 09:16
Certo Paolo che siete proprio dei ficcanaso.:cool: Secondo me al prossimo IDF non fanno più entrare :banned: oppure vi mettono un buttafuori di fianco per controllarvi a vista :oink:
Se è davvero così ancora ci sarà lavoro da fare per far capire ai consumatori finali che un ipotetico nehalem a 1,5 GHz (forse) è più efficente di un penryn a 2.4 GHz..
Interessante comunque
Da informazioni INTEL, un core Nehalem dovrebbe essere "solo" il 20-30% più efficiente di un core Penryn... ;)
Se è davvero così ancora ci sarà lavoro da fare per far capire ai consumatori finali che un ipotetico nehalem a 1,5 GHz (forse) è più efficente di un penryn a 2.4 GHz..
Già questo per me è arabo.
Interessante comunque
ah su questo non ci piove : ci sarà parecchio da lavorare per i commerciali Intel :asd: ...
se nn si potrà cloccare mi sa che bisognerà spendere parecchio per avere prestazioni elevate (non del tipo prendi il Q6600 e lo mandi oltre i 3ghz mentre ti fai un caffe) :asd:
ghiltanas
03-04-2008, 09:29
se nn si potrà cloccare mi sa che bisognerà spendere parecchio per avere prestazioni elevate (non del tipo prendi il Q6600 e lo mandi oltre i 3ghz mentre ti fai un caffe) :asd:
no perche' nn si potranno cloccare? useranno il processo produttivo a 45 nm che ormai intel conosce bene e quindi dovrebbero salire bene :sperem:
Mercuri0
03-04-2008, 09:30
ah su questo non ci piove : ci sarà parecchio da lavorare per i commerciali Intel :asd: ...
Eh già, non per niente partono dai server e dagli Extreme Edition (una Extreme Edition capace di star in cima ai benchmark Intel riuscirebbe a farla anche dai 486 ;) ...)
Spero gli uomini del marketing di Intel si siano fatti un corso in hypologia. La gente si eccita solo a sentire il nome, di Nehalem.
E già circolano leggende e visioni mistiche. Poi magari si overclocca male... intendo: se un processore non si overclocca, che serve? :rolleyes:
kliffoth
03-04-2008, 09:31
Già ai tempi era dura (cioè impossibile) far capire che AMD e Intel non erano comparabili e andavano aggiunti circa 400-500 Mhz ai primi (ad occhio)....AMD dovette cambiare nomenclatura
no perche' nn si potranno cloccare? useranno il processo produttivo a 45 nm che ormai intel conosce bene e quindi dovrebbero salire bene :sperem:
nell'articolo da quel che ho capito non usa fsb per decretarne la frequenza, e se intel blocca i moltiplicatori e per di più il bus o come lo vogliamo chiamare...beh non vedo molti metodi di bypass...
certamente è difficile che ciò accada altrimenti venderebbero solo asrock :asd:
Mercuri0
03-04-2008, 10:03
no perche' nn si potranno cloccare? useranno il processo produttivo a 45 nm che ormai intel conosce bene e quindi dovrebbero salire bene :sperem:
I quad core saranno nativi, e in più con un controller di memoria integrato, cache L3 alla Barcellona, e tanti tanti altri transistor. E' difficile che salgano in frequenza più degli attuali processori (e quad 2+2) sempre a 45nm.
Anzi io sono convinto che Intel non stia troppo spingendo con la frequenza dei processori attuali proprio per lasciarsi un margine per Nehalem.
ghiltanas
03-04-2008, 10:07
capisco.....cmq mi pare strano che intel nn lasci sbocchi in tal senso, ha un folta comunita' di overclockers e la semplicita' con cui salgono e' disarmante. mi pare strano inverta questa tendenza, anche xke' overclock limitati sono sicuro nn farebbero piacere ne' ai produttori di mother boards, ne a quelli di mem ddr3 un po' spinte :asd:
Stargazer
03-04-2008, 11:34
Da informazioni INTEL, un core Nehalem dovrebbe essere "solo" il 20-30% più efficiente di un core Penryn... ;)
da quando si chiede all'oste se fa buon vino?
e comunquen grazie al cazz
esce a metà 2009 quello che può paragonarsi come consumi a un penryn
http://en.wikipedia.org/wiki/Nehalem_(CPU_architecture)#Performance_and_Power_Improvements
sarebbe il colmo che NON sia più potente di un processore di 2 anni prima...
...ho sempre acquistato processori a prescindere dalla loro propensione al funzionamento fuori specifiche elettriche/termiche nominali.
La massima stabilità operativa (a parità di condizioni al contorno) per un componente elettronico a circuito integrato, discreto ecc. si ha per il suo funzionamento nell'intorno dei parametri elettrici "nominali" (da progetto).
In ambito ingegneristico si progetta un sistema perché funzioni con determinati coefficienti di sicurezza che però non andrebbero oltrepassati.
Non sono nemmeno d'accordo con chi sostiene la "politica dell'overclock" ad ogni costo e sempre; e questo per i processori per sistemi con I.S.A x86 a partire come minimo dal circuito integrato "80486" nelle versioni con P.L.L (analogico come è anche oggi) per la moltiplicazione della frequenza di host esterna; in epoca di 80486 il concetto di front-side-bus doveva ancora arrivare con il successivo Pentium PRO.
Grazie.
Marco71.
serassone
03-04-2008, 12:44
...è innegabile che nel caso dei processori, dove le specifiche, a parità di architettura, spaziano notevolmente (basti pensare alla differenza tra un Pentium dual core E2140 e un Core 2 Duo E6850, per esempio), esistono "margini di manovra" che sono sempre stati sfruttati, e che credo lo saranno ancora in futuro: alcuni nuclei di processore, pur classificati a un dato livello, in molti casi possono salire facilmente a un livello superiore senza per questo oltrepassare le specifiche di progetto, ma solamente i propri dati di targa, diciamo così.
Sono sicuro che le stesse aziende, Intel ma anche AMD, tengono in conto questa categoria di utenti... ;)
ghiltanas
03-04-2008, 13:03
...è innegabile che nel caso dei processori, dove le specifiche, a parità di architettura, spaziano notevolmente (basti pensare alla differenza tra un Pentium dual core E2140 e un Core 2 Duo E6850, per esempio), esistono "margini di manovra" che sono sempre stati sfruttati, e che credo lo saranno ancora in futuro: alcuni nuclei di processore, pur classificati a un dato livello, in molti casi possono salire facilmente a un livello superiore senza per questo oltrepassare le specifiche di progetto, ma solamente i propri dati di targa, diciamo così.
Sono sicuro che le stesse aziende, Intel ma anche AMD, tengono in conto questa categoria di utenti... ;)
quoto, anche perchè un processore che si overclocca bene vuole anche dire che è ampiamente nel range a cui può lavorare. è anche una questione di convenienza per gli utenti: con i core2 si può facilmente overcloccare e quindi raggiungere e superare le performance dei modelli superiori, che spesso costano parecchio di +
...tecnicamente un processore che "si overclocca bene" non è "ampiamente nel range entro cui può lavorare".
Per un qualsiasi componente elettrico,elettronico, meccanico vengono per progetto definiti i parametri nominali di funzionamento di cui viene dato conto nei "fogli dati" (data sheets).
Tutto ciò che esula da quanto fornito ufficialmente è discrezionale...
La pratica dell'overclock è ormai divenuta una prassi ma non tutti i cosiddetti "appassionati" la pongono in essere.
Grazie.
Marco71.
marchigiano
03-04-2008, 13:30
Da informazioni INTEL, un core Nehalem dovrebbe essere "solo" il 20-30% più efficiente di un core Penryn... ;)
clock to clock? in tutte le applicazioni? ci vuole un codice scritto appositamente come per phenom?
Se è davvero così ancora ci sarà lavoro da fare per far capire ai consumatori finali che un ipotetico nehalem a 1,5 GHz (forse) è più efficente di un penryn a 2.4 GHz..
be semplice ci sono i numeri... E10000 E12400 E18200 ecc...
clock to clock? in tutte le applicazioni? ci vuole un codice scritto appositamente come per phenom?
be semplice ci sono i numeri... E10000 E12400 E18200 ecc...
Beh, su wiki dice che sono aumentate del 33% le microistruzioni che possono stare in flight, ossia in attesa, è stato introdotto un branch predictor aggiuntivo di secondo livello e finalmente (come le CPU AMD da tempo immemorabile, addirittura dall'athlon originale, se non sbaglio) è stata aggiunta una cache TLB di secondo livello...
Col memory controller integrato la vedo dura arrivare a 4Ghz... cmq tutto è possibile.....
GiovanniGTS
03-04-2008, 16:16
...tecnicamente un processore che "si overclocca bene" non è "ampiamente nel range entro cui può lavorare".
Per un qualsiasi componente elettrico,elettronico, meccanico vengono per progetto definiti i parametri nominali di funzionamento di cui viene dato conto nei "fogli dati" (data sheets).
Tutto ciò che esula da quanto fornito ufficialmente è discrezionale...
La pratica dell'overclock è ormai divenuta una prassi ma non tutti i cosiddetti "appassionati" la pongono in essere.
Grazie.
Marco71.
devi pero' considerare che alcune CPU sono identiche e che vengono differenziate bloccando il moltiplicatore,
per citare un caso, ad es. il mio 5200+ è identico al fratello maggiore 5600+
cambia solo il molti
questo discorso vale quando una CPU dalle freq. minori non è lo "scarto" di una CPU che doveva funzionare a freq. maggiori, in tali casi non si puo' salire
ma se la CPU sale, allora, in taluni casi, vale il mio discorso
IMHO
Per GiovanniGTS e MArco71:
Si, l'overclock è una gran cosa, ma utile solo per i giochi. Un sistema professionale non ha nessun intaresse ad avere una grande potenza ma, al contempo, un alto numero di errori! Il solito vecchio proverbio: chi va piano va sano e lontano!
Per chi invece vuole giocare al 100% senza spendere una cifra a 3 zeri e si accontenta di qualche "blackout" ogni tanto... va benissimo l'overclock
Ciao
Mercuri0
04-04-2008, 00:55
...ho sempre acquistato processori a prescindere dalla loro propensione al funzionamento fuori specifiche elettriche/termiche nominali.
Marco71.
...tecnicamente un processore che "si overclocca bene" non è "ampiamente nel range entro cui può lavorare".
Alleluia!!! Finalmente qualcuno che parla chiaro sull'overclock anche su un sito tecnologico di "appassionati" :ave:
Io ho sempre avuto paura di essere linciato :) , l'ultimo processore che ho overcloccato era un 386, a 13 anni. Che tempi, all'epoca si smanettava con jumper non meglio documentati.
Dopo sono cresciuto :D
La pratica dell'overclock è ormai divenuta una prassi ma non tutti i cosiddetti "appassionati" la pongono in essere.
A leggere i commenti sembra che l'uso di un processore da queste parti debba essere: 3dmark e overclock. E' preso come uno sport fine a sè stesso: non contano le prestazioni che si raggiungono.
devi pero' considerare che alcune CPU sono identiche e che vengono differenziate bloccando il moltiplicatore,
per citare un caso, ad es. il mio 5200+ è identico al fratello maggiore 5600+
cambia solo il molti
questo discorso vale quando una CPU dalle freq. minori non è lo "scarto" di una CPU che doveva funzionare a freq. maggiori, in tali casi non si puo' salire
ma se la CPU sale, allora, in taluni casi, vale il mio discorso
IMHO
Il tuo discorso non vale mai: una cpu impostata a frequenza minore è sempre uno "scarto" (usando le parole tue) di una a frequenza maggiore. Altrimenti, stai sicuro, la venderebbero alla frequenza giusta ;)
La CPU può funzionare fuori specifiche perché
- i test di stabilità "fatti in casa" sono uno scherzo rispetto a quelli dei produttori, overcloccando si accetta una possibilità di un blocco hardware/conti sbagliati imprevedibilmente maggiore di quella prevista dai criteri di qualità del costruttore.
- non si fanno test/considerazioni sul tempo di vita medio della CPU (che in overclock si accorcia rispetto a quello previsto)
- si accetta il fatto che la CPU lavori fuori specifiche termiche e di potenza (che invece per il progettista sono un, anzi "il" parametro di progetto)
Detto questo, non dico che sia male overcloccare, evidentemente è divertente e a volte i compromessi di sopra possono essere vantaggiosi.
Però veramente sui siti di "appassionati" si esagera... sopratutto a pensare che i progettisti considerino minimamente gli overclockers. ;) I processori che "si overcloccano" li fanno quelli del marketing più che gli ingegneri. ( che tra l'altro avrebbero qualche difficoltà a progettare avendo come specifiche che funzioni fuori specifiche :asd: )
Kelainefes
04-04-2008, 10:45
Il discorso di GiovanniGTS, invece vale molto molto spesso, quando si parla delle CPU Intel con architettura Core 2 e Core Quad a 65 nm.
La maggior parte delle cpu vendute come E6550 (2,33 GHz) e E6750 (2,66 GHz), per esempio, possono funzionare ai 3 GHz del E6850 senza richiedere aumenti di voltaggio, o diddipatori migliori dello stock, e il tutto senza nessun problema di funzionamento nonostante l'FSB sia fuori specifica. Perchè questo? Perche i processori scelti per essere venduti a 3 GHz sono si i migliori, ma molti di quelli che avanzano rientrano comunque nel range di tolleranza che li renderebbe adatti a essere venduti a 3 GHz, ma sono venduti a frequenze e prezzi inferiori solo perchè non tutti possono permettersi un E6850, e allora Intel mette un marchio diverso ed ecco pronti i processoridi fascia economica.
A Intel conviene fare cosi, è molto piu economico avere linee di produzione che producono processori identici e poi scegliere a che frequenza farli andare che non avere linee separate.
Inoltre, l'invecchiamento accelerato dovuto a overclock è dovuto al fatto che all'umentare della frequenza aumenta il consumo e lo spreco di energia, che si manifesta nell'aumento di temperatura.
A quanto pare, ogni 10 gradi centigradi in più comportano un dimezzamento della vita operativa, relativamente a un chip identico che lavori appunto 10 gradi piu fresco.
Personalmente posso dire che la mia CPU sta piu fresca ora, 900 MHz oltre lo stock ma con un HSF Thermalright, che non con frequenze e dissipatore stock.
Ovviamente non sottintendo che i progettisti Intel abbiano pensato agli overclockers, semplicemente hanno fatto un lavoro cosi eccellente che questo è diventato un periodo in cui, nel bene e nel male, quasi chiunque puo leggere una guida e "spremere" un poco la sua CPU.
@Marco71: a quanto ho capito io, chi ha detto che un processore che overclocka facile è ampiamente entro specifica, intendeva che lo è quando non overclockato, non dopo che si smanetta su frequenze e voltaggi.
@Mercuri0: l'ultimo processore che hai oveclockato è un 386? be allora ti assicuro che di passi avanti verso un overclocking più tranquillo se nesono fatti tanti da allora.
Poi i test di stabilità fatti in casa uno scherzo, non consentirebbero di rilevare gli errori che fa il processore? I programmi che uso io fanno calcoli cosi complessi che richiedono anche diversi minuti l'uno, e il cui risultato è già noto: se ne faccio a catena per 8 ore di seguito, e l'uso della CPU e 100% fisso, l'utilizzo di memoria pressoche completo, e non viene fuori nessun errore, che cosa vuol dire? Tra l'altro faccio notare che questi test mettono la cpu sotto stress termici superiori a qualsiasi altra operazione, durante una codifica video x264 in multithread il mio processore ha picchi massimi di 48 C, con Prime, OCCT & compagnia bella raggiungo i 55 C.
Mercuri0
04-04-2008, 12:02
Il discorso di GiovanniGTS, invece vale molto molto spesso, quando si parla delle CPU Intel con architettura Core 2 e Core Quad a 65 nm.
La maggior parte delle cpu vendute come E6550 (2,33 GHz) e E6750 (2,66 GHz), per esempio, possono funzionare ai 3 GHz del E6850 senza richiedere aumenti di voltaggio, o diddipatori migliori dello stock, e il tutto senza nessun problema di funzionamento nonostante l'FSB sia fuori specifica. Perchè questo?
L'ho detto io sopra perché
Perche i processori scelti per essere venduti a 3 GHz sono si i migliori, ma molti di quelli che avanzano rientrano comunque nel range di tolleranza che li renderebbe adatti a essere venduti a 3 GHz, ma sono venduti a frequenze e prezzi inferiori solo perchè non tutti possono permettersi un E6850, e allora Intel mette un marchio diverso ed ecco pronti i processoridi fascia economica.
Staresti dicendo che Intel preferisce vendere processori che a lei costano nello stesso modo ad un prezzo più basso, "perché non tutti possono permetterseli".
Perché non diminuire il prezzo di tutti i 3ghz a un livello medio?
A Intel conviene fare cosi, è molto piu economico avere linee di produzione che producono processori identici e poi scegliere a che frequenza farli andare che non avere linee separate.
I processori escono dalla stessa linea di produzione, vengono testati ad uno ad uno e viene assegnata la frequenza maggiore che riescono a sopportare secondo gli standard di qualità previsti.
Inoltre, l'invecchiamento accelerato dovuto a overclock è dovuto al fatto che all'umentare della frequenza aumenta il consumo e lo spreco di energia, che si manifesta nell'aumento di temperatura.
A quanto pare, ogni 10 gradi centigradi in più comportano un dimezzamento della vita operativa, relativamente a un chip identico che lavori appunto 10 gradi piu fresco.
Personalmente posso dire che la mia CPU sta piu fresca ora, 900 MHz oltre lo stock ma con un HSF Thermalright, che non con frequenze e dissipatore stock.
Quindi tu pensi che intervenendo sull'effetto (l'aumento di temperatura) intervieni anche sulle cause. La logica è un pò fallace.
La temperatura è un problema ma non l'unico: i fenomeni di elettromigrazione, per esempio (che possono portare alla rottura delle piste) dipendono dalla densità delle correnti, che dipendono dal voltaggio.
Comunque non sto dicendo che se overclokki un processore "lo rompi" o lo danneggi automaticamente, eh. Tutto sta nella rilevanza degli effetti. Di sicuro ne riduci l'affidabilità rispetto allo standard qualitativo del produttore, ma la cosa può essere tollerabilissima a seconda delle applicazioni.
(comunque è ovvio che il costo del dissipatore va aggiunto a tutte le considerazioni)
Poi i test di stabilità fatti in casa uno scherzo, non consentirebbero di rilevare gli errori che fa il processore? I programmi che uso io fanno calcoli cosi complessi che richiedono anche diversi minuti l'uno, e il cui risultato è già noto: se ne faccio a catena per 8 ore di seguito, e l'uso della CPU e 100% fisso, l'utilizzo di memoria pressoche completo, e non viene fuori nessun errore, che cosa vuol dire? Tra l'altro faccio notare che questi test mettono la cpu sotto stress termici superiori a qualsiasi altra operazione, durante una codifica video x264 in multithread il mio processore ha picchi massimi di 48 C, con Prime, OCCT & compagnia bella raggiungo i 55 C.
I dispositivi integrati sono progettati aggiungendo piedini e architetture *apposta* per il solo collaudo. Le metodologie di collaudo, sia per la stabilità che per il tempo di vita sono ampiamente formalizzate con parametri fisici, statistici, etc etc. Ci sono aziende specializzate e corsi universitari solo su questo argomento.
AMD, Intel e parenti per il collaudo ci buttano soldi per le varie fasi di test, e per ciascun pezzo i costi sono proporzionali alla superficie del chip, ed entrano nel prezzo.
Fidati, "boh, a me sembra che va bene" rispetto a quello che fanno Intel e AMD, è proprio uno scherzo. ;)
Kelainefes
04-04-2008, 13:03
Quoto da Wikipedia (pur rimanendo aperto ad accettare una fonte "piu attendibile", possibilmente supportata da un link):
"In elettronica l'elettromigrazione è un fenomeno che avviene quando la temperatura di esercizio di un materiale conduttore (o semiconduttore) diviene eccessiva."
"...ed è proprio l'innalzarsi della temperatura il fattore scatenante di una elettromigrazione. Di solito il fenomeno si manifesta in modo repentino ed il risultato è un chip non più funzionante ne tanto meno recuperabile."
Quello che capisco è quindi che in overclock, un chip produce più calore, che si traduce in aumento di temperatura e quindi accelera l'elettromigrazione, solo se il calore non viene dissipato!
Ovviamente, se sei ferrato in materia spiegami pure cosa ho omesso.
Poi, vedo che siamo d'accordo che i processori escono dalla stessa linea e poi vengono selezionati; quello che affermo è che, con l'architettura Core 2 a 65 nm, il processo è così perfezionato che molte CPU vengono marchiate in un modo anche se rispettano tutti i requisiti per essere marchiati come modelli superiori con moltiplicatori più alti; il motivo è molto semplice, i soldi.
In quel modo risecono evidentemente ad avere un ricavo superiore.
Cioè, se si possono vendere 10 milioni di processori da 120 euro e 4 milioni da 160 e 500.000 da 220, quello sarà ciò che verrà immesso sul mercato, a prescindere dal fatto che tutti possano andare alla velocità di quello da 220 o no.
Poi, nota bene, non sto dicendo che TUTTI i processori sono uguali, come ha detto qualcuno, e che l'overclock è garantito, ma invece che molti (e ribadisco, solo con l'architettura Core 2, prima le eccezioni erano molte meno) possono funzionare come un "fratello maggiore", rimanendo in specifica, per il semplice fatto che anche loro hanno passato il test.
Quindi, con un pò di fortuna si puo beccare una CPU che "overclocka facile" e risparmiare qualche soldo.
Sono d'accordo comunque che chi overclocka lo fa (o dovrebbe farlo) come hobby, un professionista non può ovviamente basarsi sulla fortuna per avere le prestazioni che richiede.
Infine, AMD e Intel avranno dei test più accurati di quelli che posso fare io, ma alla fine dei conti la mia CPU la uso (io personalmente) non per fare test di affidabilità, ma per giocare, fare un po di grafica 2d e 3d, codificare e decodificare film.
L'overclock lo uso solo per le applicazioni più intensive, come i giochi, i rendering e la codifica video, il resto del tempo il mio processore sta UNDERclockato e UNDERvoltato, che tanto per la maggior parte delle cose (guardare un film, navigare) non cambia nulla se non la bolletta ENEL.
Ma se quando lo overclocko non ho problemi di nessun tipo (reset spontanei, crash e cose simili), dove starebbe il problema?
GiovanniGTS
04-04-2008, 13:11
non tutti possono permettersi un E6850
direi che hai centrato la questione
si chiama segmentazione del mercato, nel caso specifico offrire piu' prodotti di fasce diverse di prezzo differenziandole per freq. (anche per altro ma ipotizziamo un overclock ad es. da E6600 a E6800) aumenta il fatturato
e cio' è ampiamente dimostrato
altro fenomeno è quello delle economie di scala e di apprendimento, produrre un unico prodotto (dal punto di vista tecnologico, di knowhow, ecc...) e differenziarlo cambiando poco (nel caso in specie bloccando il molti) riduce tantissimo i costi (ad es. di progettazione, di testing, ecc...)
c'e' una nota azienda di cosmetici che con lo stesso prodotto (stessi componenti, stessa, crema, ecc..) vende + prodotti differenziandoli per quantitativo e confezione, e le ragazze spendendo di piu' pensano di .......... vabbe' lasciamo stare
ora, non tutti i prodotti di fascia media o bassa sono scarti di prodotti di fascia alta, perche?
perche' le quantità di scarto della fascia alta non sarebbero sufficienti a soddisfare la domanda proveniente dalla fascia mainstream
alcuni esemplari buggati vengono dirottati verso le fasce piu' basse, ma gli altri hanno le potenzialità (quando hanno tutti gli altri requisiti, ad es. la cache) per raggiungere le freq. dei fratelli maggiori
è da una vita che è cosi', mi meraviglio che si cerchi di dimostrare il contrario
Mercuri0
06-04-2008, 12:12
Quoto da Wikipedia (pur rimanendo aperto ad accettare una fonte "piu attendibile", possibilmente supportata da un link):
"In elettronica l'elettromigrazione è un fenomeno che avviene quando la temperatura di esercizio di un materiale conduttore (o semiconduttore) diviene eccessiva."
"...ed è proprio l'innalzarsi della temperatura il fattore scatenante di una elettromigrazione. Di solito il fenomeno si manifesta in modo repentino ed il risultato è un chip non più funzionante ne tanto meno recuperabile."
Quella pagina di wikipedia in italiano è completamente sbagliata, Oltretutto chi l'ha editata non ha la benché minima idea di cosa sia la frequenza di clock in un chip, e perché bisogni overvoltare. Tra un paio di settimane vedrò di rispolverare il wikipediano che c'è in me e correggerla.
Nella "discussione" un altro tipo aveva segnalato che lo voce non era corretta, e ne aveva dato una migliore descrizione.
Se l'argomento ti interessa ti suggerisco la pagina di wikipedia in inglese, che però è piuttosto tecnica. http://en.wikipedia.org/wiki/Electromigration
Ma se quando lo overclocko non ho problemi di nessun tipo (reset spontanei, crash e cose simili), dove starebbe il problema?
Nessunissimo problema: il discorso sull'affidabilità è puramente statistico, c'è chi preferisce un maggior grado statistico di affidabilità, chi le prestazioni.
Qui comunque si stava discutendo delle capacità di overclock di Nehalem, che prevedibilmente saranno inferiori a quelle dei processori attuali, e sul fatto che la cosa per 2 o 3 di noi non è assolutamente indicativa delle capacità di Nehalem.
(addirittura potrebbe benissimo accadere che i primi Nehalem in overclock non possano superare, neanche come prestazioni, gli attuali processori ovecloccati)
la notizia dice che lavorano a 2.13 ghz...sarà.....ma sta di fatto che la cpu va a una frequenza bassa,poi potranno mettere quanti core vogliono ma la frequenza sarà sempre quella.
Io con il pc gioco e basta,niente codifiche,niente multitasking o altro.
I giochi ora sfruttano 2 core.Dicono che i Nahalem ne avranno 8.
Secondo me ne possono mettere anche 100 di core a 2.13,ma anche un dual a 3.0 Ghz lo polla alla grande in ambito videludico.
;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.