View Full Version : Intel, presto Xeon dual-core a basso consumo
Redazione di Hardware Upg
29-07-2005, 08:49
Link alla notizia: http://www.hwupgrade.it/news/cpu/15111.html
Affiancare il nome di una famiglia di processori per server, Xeon, alla locuzione "basso consumo" può apparire un controsenso. Difficile però che il colosso Intel prenda una direzione senza aver fatto i propri conti
Click sul link per visualizzare la notizia.
Speriamo che siano di quei processori destinati a durare :rolleyes:
intel proprio non digerisce i 64 bit
"Indicato con il nome in codice Sossaman..."
In romagna si chiamerà soc' mel
Max Power
29-07-2005, 09:48
Dovrebbero montarli sui Desktop i proci a basso consumo :O .
Superare la soglia dei 100W e davvero troppo :mad: .
Colgo l'occasione per avvertire tutti i miei fan della sostituzione mitica 8500XT :cry: (dopo due anni e mezzo! :eekk: di onorata carriera) per la nuova fiammante GeCube 9800PRO Limited Edition :sborone:
Ma non preoccupatevi! :D Ritornerà in azione dopo un meritato mese di ferie, sul PC di mio fratello, a lottare contro giochi sempre + pesanti!!! :cool:
Sono curioso di sapere quando i dual processor per note saranno pronti...... chissa?
Sono indeciso.......... comprare un note adesso a 32b mi sembra un po una mich... perchè tra poco ci saranno dual core..... anche se il turion..... non è malaccio!!!!!
Comunque la strada che sta prendendo intel è abbastanza evidente......
ma un dual processor ha circa il doppio dei transistor di un single o ha tutta un'altra architettura?
mi spiego meglio....
un'athlon 64 X2 a 2.0Ghz + 1.0M di Cache dovrebbe avere il doppio dei transistor del corrispettivo athlon 64?
quindi anche la superficie del die è il doppio?
inoltre, se il single core dissipa circa 90 watt, il dual core non ne dovrebbe disspiare 180??
grazie a chiunque mi chiarisse sti dubbi :)
riuzasan
29-07-2005, 10:35
Chi sceglie un Blade Server certo non si affida a quell'accrocchio che è l'architettura IntelXeon - NT.
Molto meglio affidarsi a processori Power e ad un OS *nix pienamente supportato.
E' terribile pensare che grazie a Microsoft ed Intel la parola Server stia diventando sinonimo di WorkStation... con macchine che hanno una percentuale di SRT del 90% o un MTBCF di due mesi.
Un Sistema Blade come l'ultimo nato di Ibm con processore Cell verrà certificato a settembre con un MTBCF di un anno grazie alla meticolosa attenzione alla scelta dei componenti, all'OS ed al software installato.
Ad oggi è ridicolo chiamare "server professionali" quasi la totalità dei sistemi NT, a meno che come caratteristica non si accetti il fatto che ogni 1-3 mesi bisogna riavviarli.
PS
SRT - System Running Time: Percentuale di running di un server.
MTBCF - Mean Time Between Critical Faults: è il numero di mesi od anni previsto prima di un reboot forzato (alcuni mainframe IBM raggiungono i 30 anni ... )
picard88
29-07-2005, 10:41
magari il supporto ai 64 bit verrà inserito prima della presentazione ufficiale...cmq quello che importa è che intel ha preso la strada giusta sia nel segmento server con questo procio sia nel segmento desktop con conroe (mi sembra)
zani83: in breve: si si si si :D
poi in realtà ad es. un dual core opteron a 2.4 consuma poco di più di un single core a 2.6 sia per i 200 mhz in meno sia perchè hanno raffinato il risparmio energetico e i processi produttivi. infatti i single core che hanno una serie di attenzioni a questo livello consumano veramente poco (sto parlando prevalentemente di AMD), molto al di sotto del dichiarato, dichiarato che rimane alto perchè deve comprendere tutti gli step del processore a cui fa riferimento. voglio dire: il TDP per l'athlon 3200+ è uguale per qualsiasi versione del core, ma i primissimi core hanno un consumo completamente diverso rispetto alle ultime versioni, vuoi per il passaggio da 130 nm a 90 nm, vuoi per le migliorie apportate al core.
nel caso di intel, invece, il discorso è più complesso, essenzialmente riducono i consumi abbassando di molto le frequenze (il top single core è 3.8, il top dual è 3.2), ma cmq complessivamente è messa peggio sia perchè i valori cmq sono più alti sia perchè il TDP lo calcola in modo diverso rispetto ad AMD.
cmq in giro ci sono dei test "real world" sui consumi... sono quelli che contano alla fin fine più dei TDP dichiarati.
picard88
29-07-2005, 10:48
e poi l'architettura netBurst ha molti problemi di consumo energetico a causa della enorme profondità delle pipeline e del conseguente spreco di cicli di clock..
Chi sceglie un Blade Server certo non si affida a quell'accrocchio che è l'architettura IntelXeon - NT.
si sta parlando di un'altra cosa, vedo che cogli l'occasione per lanciare la frecciatina... i server blade basati su pentium m esistono già, e dato che si sta parlando di uno xeon DI NUOVA GENERAZIONE basato per l'appunto sull'architettura dei pentium m non mi puoi fare paragoni con gli xeon attuali
Molto meglio affidarsi a processori Power e ad un OS *nix pienamente supportato.
sai, tendenzialmente diffido chi mi dice che una cosa è molto meglio senza nemmeno sapere quali sono le esigenze specifiche
comunque mi devi spiegare come fare ad avere un MTBCF di un anno con un sistema linux in quanto io con red hat enterprise ogni 2 mesi devo riavviare per via degli aggiornamenti al kernel
Un Sistema Blade come l'ultimo nato di Ibm con processore Cell verrà certificato a settembre con un MTBCF di un anno grazie alla meticolosa attenzione alla scelta dei componenti, all'OS ed al software installato.
peccato che:
1) sarà dura certificare un processore che a settembre non sarà ancora in produzione
2) il cell ha un ambito molto specifico d'uso
Ad oggi è ridicolo chiamare "server professionali" quasi la totalità dei sistemi NT, a meno che come caratteristica non si accetti il fatto che ogni 1-3 mesi bisogna riavviarli.
ok, prendo atto che la red hat enterprise non va bene per i server professionali solo perchè ogni tanto devo riavviare se voglio veder applicati gli aggiornamenti al kernel
PS
SRT - System Running Time: Percentuale di running di un server.
MTBCF - Mean Time Between Critical Faults: è il numero di mesi od anni previsto prima di un reboot forzato (alcuni mainframe IBM raggiungono i 30 anni ... )
ah beh se metto su un server Dos 6.22 anche lui ha un MTBCF di 30 anni... evidentemente non è l'unico parametro da guardare, dipende UNICAMENTE dalle esigenze, non credi?
riuzasan
29-07-2005, 10:56
Commento # 6 di: zani83 pubblicato il 29 Luglio 2005, 11:24
ma un dual processor ha circa il doppio dei transistor di un single o ha tutta un'altra architettura?
__________________
No.
Su un Athlon64 X2 circa il 30% della superfice del chip è occupato dal controler della memoria, dall'SRQ e dalla logica di comunicazione con il bus esterno. Inoltre (per quanto riguarda i consumi) un altro 40% della superfice circa è occupato dalle due cache dei due core che in se non richiedono un grande assorbimento di watt per funzionare a regime. Resta il 15-20% in più occupato dal secondo "core" (Fpu, Unità intera, Registri, unità di brand/dispatch etc etc) che dovrebbe andare ad incidere direttamente sul consumo della CPU.
Tuttavia con il passsaggio alla tecnologia di costruzione a 0.09 micron si potrà contenere la diferenza di consumo con un equivalente processore costruito ocn tecnologia 0.11 micron (oltre che a conservare una dimensione del chip simile a quello vecchio single core).
riuzasan
29-07-2005, 11:10
Commento # 11 di: Fx pubblicato il 29 Luglio 2005, 11:51
....
ah beh se metto su un server Dos 6.22 anche lui ha un MTBCF di 30 anni... evidentemente non è l'unico parametro da guardare, dipende UNICAMENTE dalle esigenze, non credi?
_______________
Credo che la richiesta principale da fare ad un server sia la sua robustezza.
Se hai usato in questi ultimi 3-4 anni dei "server" NT su architettura Intel avrai notato come la distanza dai sistemi workstation in ambito stabilità stia scemando e diminuendo ogni anno di più: una cosa inaccettabile (tra parentesi con il bene placito di molti "so called" it professional, che vorrebbero tanto vedere un giorno un semplice PC gestire il Db di una Università, dati i loro skills a livello di un 15ndicenne che smonta PC).
Un Blade Server, e qui torno al punto di sopra, viene usato in congiunzione ad altri server (senno a che pro si prende un rack server???) ad esempio lo si può usare per gestire un'area di gioco di un mmorpg o un'area di un Database dell'utenza Tim. Affermare che in uno di questi casi (e in generale in un server) la stabilità non sia IL requisito, significa affermare che forse in quell'ambito un server non è necessario
^TiGeRShArK^
29-07-2005, 11:21
Tuttavia con il passsaggio alla tecnologia di costruzione a 0.09 micron si potrà contenere la diferenza di consumo con un equivalente processore costruito ocn tecnologia 0.11 micron (oltre che a conservare una dimensione del chip simile a quello vecchio single core).
i winchester, i venice e gli ultimi opteron sono già a 90 nm.
processori a .11 nn sono mai esistiti (x86 ovviamente).
il processo a .11 è stato utilizzato x alcune skede video., mentre i proci sono passati da .13 a .09.
Tommy.73
29-07-2005, 11:57
Possiamo aggiungere che, sulla carta, il Sossaman avrà un FSB a 667MHz e un memory addressing a 36 bit, ovvero supporterà fino a 64GB di memoria (un indirizzamento a 32bit impone un limite di 4GB). Dico questo perché alcuni (ahimè anche un noto sito) hanno subito collegato (erroneamente) il supporto ai 64GB di memoria all'EM64T, dimenticando che a livello CPU anche i P4, PIII, PII ed il capostipite dell'architettura P6, il Pentium Pro, possono indirizzare la memoria a 36bit.
Ovviamente la speranza rimane, anche perché l'EM64T ha debuttato proprio su piattaforma Xeon, e presentare nel 2006 uno Xeon senza supporto all'EM64T sarebbe un passo indietro. Staremo a vedere.
Oramai Intel sta adottando la sua architettura Mobile ovunque.. è vero si che è stato un vero e proprio successo... però diamoci un taglio, sono pur sempre architetture per uso domestico adattate ad utilizzi professionali... la mia preoccupazione è che prenderanno un Pentium M Dothan e gli metteranno 18kg di silicio di cache L2 e L3
Tommy.73
29-07-2005, 12:48
Perché il Nocona non è un semplice Prescott con abilitato l'SMP ed il supporto ai 64bit? Vedi altre differenze tu? Il Dothan lo vedi più domestico di un Prescott? Io direi diamo un taglio a NetBurst! Intel l'ha capito da un pezzo, ma l'abbandono è e sarà purtroppo graduale.
Non mi trovo d'accordo nemmeno sul discorso cache. L'aumento della L2 su architettura Pentium M ha funzionato alla grande, ha portato ottimi incrementi prestazionali ed anche i consumi sono rimasti molto contenuti! semmai l'aumento di L2 non ha funzionato su NetBurst, dove al raddoppio della quantità è stato abbinato un aumento delle latenze, probabilmente richiesto dalle alte frequenze operative.
Automator
29-07-2005, 13:03
x riuzasan... 3 mesi per il riavvio forzato???... magari!
io il mio cesso di server lo devvo riavviare tutte le settimane, grazie ad exchange....
riuzasan
29-07-2005, 14:22
Commento # 18 di: Automator pubblicato il 29 Luglio 2005, 14:03
x riuzasan... 3 mesi per il riavvio forzato???... magari!
_____________
Era una previsione ottimistica, purtroppo.
_____________
Scusa "nel passaggio da 0.13 a 0.09". La dimensione di un Athlon64 X2 e il consumo in watt è comparabile a quella degli Atlon64 con single core realizzati con tecnologia a 0.13 micron.
No.
Su un Athlon64 X2 circa il 30% della superfice del chip è occupato dal controler della memoria, dall'SRQ e dalla logica di comunicazione con il bus esterno. Inoltre (per quanto riguarda i consumi) un altro 40% della superfice circa è occupato dalle due cache dei due core che in se non richiedono un grande assorbimento di watt per funzionare a regime. Resta il 15-20% in più occupato dal secondo "core" (Fpu, Unità intera, Registri, unità di brand/dispatch etc etc) che dovrebbe andare ad incidere direttamente sul consumo della CPU.
si, dimenticavo che gli AMD64 dual core hanno l'SRQ, il crossbar switch, l'hypertransport e il memory controller condivisi tra i due core, comunque ho controllato sul sito di AMD, e ciò nonostante i dual core hanno PIU' del doppio dei transistor...
da 68.5 milioni si passa a 154 milioni
da 114 milioni si passa a 233.2 milioni
decisamente strano, mi sarei aspettato qualche milione in meno del doppio, proprio in virtù degli elementi condivisi. a meno che il dato per gli athlon 64 single core si riferisca a qualche revision vecchia del core.
per quanto riguarda il discorso server, stiam dicendo la stessa cosa: dipende dall'esigenza. se hai un'esigenza mission o business critical, si, un server windows non è una buona scelta, ma se è per quello manco linux... però questo non vuol dire che comunque windows o linux non vadano bene per altri ambiti di applicazione. ogni esigenza ha la soluzione migliore.
+Benito+
29-07-2005, 19:14
l'athlon 64 X2 mi pare 4400+ consuma meno di tutta la serie single core grazie allo sviluppo del processo produttivo, che evidentemente in molti casi ha dei risultati che fanno cagare data questa cosa.
Gli Athlon 64 X2 (tutta la linea) consumano meglio dei single core ma a 130 nm, non certo di quelli a 90 nm.
+Benito+
30-07-2005, 14:03
mi pare di no, ma non ci metto la mano sul fuoco
Colgo l'occasione per avvertire tutti i miei fan della sostituzione mitica 8500XT :cry: (dopo due anni e mezzo! :eekk: di onorata carriera) per la nuova fiammante GeCube 9800PRO Limited Edition :sborone:
Ma non preoccupatevi! :D Ritornerà in azione dopo un meritato mese di ferie, sul PC di mio fratello, a lottare contro giochi sempre + pesanti!!! :cool:
Per quanto tempo ancora durerà questa forma di spam?
comunque mi devi spiegare come fare ad avere un MTBCF di un anno con un sistema linux in quanto io con red hat enterprise ogni 2 mesi devo riavviare per via degli aggiornamenti al kernel
Bhè, sarebbe troppo aggiornare un kernel e pretendere di non riavviare la macchina... :D
Pensa che ci sono sistemi operativi che ti fanno riavviare per aggiornare le icone :fiufiu: :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.