45 TDP anche per alcune cpu Phenom

45 TDP anche per alcune cpu Phenom

AMD prevede di avere a disposizione versioni di cpu Phenom con TDP particolarmente ridotti

di Paolo Corsini pubblicata il , alle 10:27 nel canale Processori
AMD
 

Nel corso del mese di Giugno AMD ha presentato le cpu Athlon della serie BE, soluzioni dual core per schede madri Socket AM2 caratterizzate da un TDP massimo dichiarato in 45 Watt, contro i 65 Watt delle altre soluzioni Athlon 64 X2 basate su medesima architettura.

Questi processori sono destinati a quegli ambiti di utilizzo nei quali un inferiore consumo è uno dei principali requisiti: pensiamo ai sistemi Home Theater PC, nei quali ad esempio grazie ad un processore con un TDP ridotto sia possibile utilizzare un sistema di raffreddamento più silenzioso benché non si sia ancora giunti all'utilizzo di sistemi completamente passivi su larga scala almeno per le CPU.

Stando alle informazioni anticipate dal sito Dailytech a questo indirizzo, AMD avrebbe in previsione di continuare lo sviluppo di versioni di processore con TDP di 45 Watt anche con le prossime generazioni di cpu desktop, note con il nome di Phenom. Questi processori verranno proposti in versioni Quad Core, modelli Phenom X4, e Dual Core, serie Phenom X2: saranno questi ultimi a venir proposti con TDP di 45 Watt.

Nel dettaglio, le roadmap attuali prevedono 3 modelli di cpu Phenom X2 con TDP pari a 45 Watt: la cpu Phenom X2 GE-6600 avrà clokc di 2,3 GHz, seguita da quelle Phenom X2 GE-6500 con clock di 2,1 GHz e Phenom X2 GE-6400 con clock di 1,9 GHz. Per tutte e 3 vengono segnalate cache L2 da 512 Kbytes per Core e secondo la fonte cache L3 da 2 Mbytes, anche se AMD ha segnalato come le cpu Phenom dual core non verranno proposte con cache L3 integrata. Il bus Hypertransport abbinato sarà da almeno 3,2 GHz di clock.

Questi processori saranno compatibili sia con le piattaforme Socket AM2 che con le future Socket AM2+. Il debutto previsto per questi processori è la fine del primo trimestre 2008, a seguire quindi il lancio delle soluzioni Phenom X2 serie GE che verranno presentate a inizio 2008.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

35 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
farinacci_7904 Luglio 2007, 10:37 #1

CERTO CHE E' STRANO

ormai le CPU consumano veramente poco in proporzione alla potenza elaborativa (o almeno consumano meno del picco raggiunto con i P4).

E' veramente assurdo che in un PC ormai la componente che consume di più siano le VGA, dove la ricerca della potenza elaborativa non va di pari passo con la ricerca della riduzione dei consumi.

E' vero che basta non prendere una VGA top di gamma per vedere ridurre drasticamente i consumi, ma è anche vero che non si assemblano solo HTPC o client aziendali, ma anche macchine "da lotta".
Bisogna anche tenere conto, però, che il rapporto prestazioni/consumi della VGA è ottimo: è rispauto che la potenza elaborativa delle moderne GPU è molto superiore alle CPU, ma il consumo assoluto è veramente alto e porta in secondo piano quello relativo.

Comunque, noto che tanto ATI(AMD) quanto nVidia non puntino molto sul contenimento dei consumi o almeno non lo danno a vedere: AMD e Intel ne stanno facendo un potente strumento di marketing.
gianni187904 Luglio 2007, 10:47 #2
direi meno male, altro che strano, ci vorrebbe lo stesso anche per le vga, anche se la complessità è molto diversa
farinacci_7904 Luglio 2007, 10:50 #3

INTEDEVO DIRE

che è strano proprio il divario dei consumi assoluti tra CPU e GPU, anche se i rapporti prestazioni/consumi non sono poi così distanti.
NB: la complessità e la potenza assoluta di una moderna GPU va ben oltre quella di una CPU, diverso è il discorso che non siano sfruttate a pieno.
DevilsAdvocate04 Luglio 2007, 10:54 #4

MICA TANTO

... se ci fai caso le CPU sono sempre prodotte con processi più avanzati,
cioè voltaggi e consumi minori....

NB: La "potenza" di una CPU non è confrontabile con quella di una GPU,
altrimenti "l`oggetto più potente" è sempre il DSP (che esegue un unico
compito a velocità pazzesca)....
Originariamente inviato da: farinacci_79
che è strano proprio il divario dei consumi assoluti tra CPU e GPU, anche se i rapporti prestazioni/consumi non sono poi così distanti.
NB: la complessità e la potenza assoluta di una moderna GPU va ben oltre quella di una CPU, diverso è il discorso che non siano sfruttate a pieno.
spammone04 Luglio 2007, 11:04 #5
Il fatto è che le GPU sono altamente parallelizzate e sotto carico hanno mediamente molte più sezioni attive contemporaneamente rispetto ad una CPU general purpose, quindi è un po' piu' complesso implementare una gestione di c-state efficace.
Crux_MM04 Luglio 2007, 11:06 #6
Effettivamente dovrebbero impegnarsi sui consumi VGA..ma non ci dispiacciono neanche questi!
Dreadnought04 Luglio 2007, 11:15 #7
In tutto questo va sempre considerato che nelle cpu AMD c'è il controller della memoria + il crossbar switch che non è che consumino proprio zero, anzi i loro 5-10W (la metà di un northbridge intel tanto per dire) li consumano.

Originariamente inviato da: farinacci_79
ormai le CPU consumano veramente poco in proporzione alla potenza elaborativa (o almeno consumano meno del picco raggiunto con i P4).

Vabeh i P4 con i loro 130W di picco erano un caso a parte, una mela marcia tra i processori x86... peraltro venduti come oro colato alla gente stupida.

E' veramente assurdo che in un PC ormai la componente che consume di più siano le VGA, dove la ricerca della potenza elaborativa non va di pari passo con la ricerca della riduzione dei consumi.

Non è strano, è normale, alla fine una 8800GTX assorbe fino a 120-130W di picco, ma anche perchè ogni suo transistor è sfruttato quasi al massimo per fare l'unica cosa che fa bene: renderizzare vertici, poligoni e texture.
Una cpu fa di tutto, ed ha unità di calcolo diversificate proprio per riuscire a gestire i codici più variabili, se fai girare un programma normale adattandolo su una GPU non attivi il 20% del totale die transistor, le GPU consumano tanto anche perchè la mole di dati in entrata e in uscita è costantemente elaborata.

Poi secondo me c'è un secondo fattore (come tu hai detto): tra i costruttori di VGA non c'è ancora la corsa al ribasso dei consumi, come c'è stata tra le CPU ai tempi dei p4.
kelendil04 Luglio 2007, 11:16 #8
Va beh, ma comunque questo aiuta a "far quadrare il bilancio", cioè consuma di più la vga, ma consuma di meno tutto il resto... Alla fine, se non ti metti ad usare 2 vga parallele, un alimentatore da 500W basta comunque...

Comunque, il tempo in cui i produttori butteranno un'occhio anche ai consumi delle VGA arriverà...
xeal04 Luglio 2007, 12:21 #9
Bisogna considerare anche i tempi di sviluppo: il progetto di una cpu impiega un paio d'anni per vedere la luce, quello di una gpu molto meno. L'ottimizzazione dei circuiti elettronici, per massimizzare le prestazioni e minimizzare il numero di transistor impiegati e il consumo richiede tempo e verifiche, cosa che né Ati né Nvidia possono permettersi, sia per i tempi ridotti che intercorrono tra una famiglia e un'altra, sia anche perchè sono fabless, e questo incide negativamente sullo sviluppo dei processi produttivi (discorso a parte per Amd, che ha acquistato da troppo poco Ati per aspettarsi un'integrazione tale da consentire uno sfruttamento adeguato dei suoi processi - 65nm + SSDOI - specialmente su progetti precedenti)
The3DProgrammer04 Luglio 2007, 12:32 #10
OMG

nn sapevo che gli X2 nn avranno cache L3....

quindi ancora 512k per core? :S

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^