|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/cpu/21819.html
AMD prevede di avere a disposizione versioni di cpu Phenom con TDP particolarmente ridotti Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 307
|
CERTO CHE E' STRANO
ormai le CPU consumano veramente poco in proporzione alla potenza elaborativa (o almeno consumano meno del picco raggiunto con i P4).
E' veramente assurdo che in un PC ormai la componente che consume di più siano le VGA, dove la ricerca della potenza elaborativa non va di pari passo con la ricerca della riduzione dei consumi. E' vero che basta non prendere una VGA top di gamma per vedere ridurre drasticamente i consumi, ma è anche vero che non si assemblano solo HTPC o client aziendali, ma anche macchine "da lotta". Bisogna anche tenere conto, però, che il rapporto prestazioni/consumi della VGA è ottimo: è rispauto che la potenza elaborativa delle moderne GPU è molto superiore alle CPU, ma il consumo assoluto è veramente alto e porta in secondo piano quello relativo. Comunque, noto che tanto ATI(AMD) quanto nVidia non puntino molto sul contenimento dei consumi o almeno non lo danno a vedere: AMD e Intel ne stanno facendo un potente strumento di marketing. |
![]() |
![]() |
![]() |
#3 |
Bannato
Iscritto dal: May 2004
Città: Sicily™ Trattative:Innumerevoli
Messaggi: 20620
|
direi meno male, altro che strano, ci vorrebbe lo stesso anche per le vga, anche se la complessità è molto diversa
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 307
|
INTEDEVO DIRE
che è strano proprio il divario dei consumi assoluti tra CPU e GPU, anche se i rapporti prestazioni/consumi non sono poi così distanti.
NB: la complessità e la potenza assoluta di una moderna GPU va ben oltre quella di una CPU, diverso è il discorso che non siano sfruttate a pieno. |
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3680
|
MICA TANTO
... se ci fai caso le CPU sono sempre prodotte con processi più avanzati,
cioè voltaggi e consumi minori.... NB: La "potenza" di una CPU non è confrontabile con quella di una GPU, altrimenti "l`oggetto più potente" è sempre il DSP (che esegue un unico compito a velocità pazzesca).... Quote:
|
|
![]() |
![]() |
![]() |
#6 |
Member
Iscritto dal: Dec 2005
Messaggi: 181
|
Il fatto è che le GPU sono altamente parallelizzate e sotto carico hanno mediamente molte più sezioni attive contemporaneamente rispetto ad una CPU general purpose, quindi è un po' piu' complesso implementare una gestione di c-state efficace.
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Apr 2007
Città: Napoli IN Provincia :asd:
Messaggi: 1601
|
Effettivamente dovrebbero impegnarsi sui consumi VGA..ma non ci dispiacciono neanche questi!
![]() |
![]() |
![]() |
![]() |
#8 | ||
Senior Member
Iscritto dal: Aug 1999
Città: Vares
Messaggi: 3831
|
In tutto questo va sempre considerato che nelle cpu AMD c'è il controller della memoria + il crossbar switch che non è che consumino proprio zero, anzi i loro 5-10W (la metà di un northbridge intel tanto per dire) li consumano.
Quote:
Quote:
Una cpu fa di tutto, ed ha unità di calcolo diversificate proprio per riuscire a gestire i codici più variabili, se fai girare un programma normale adattandolo su una GPU non attivi il 20% del totale die transistor, le GPU consumano tanto anche perchè la mole di dati in entrata e in uscita è costantemente elaborata. Poi secondo me c'è un secondo fattore (come tu hai detto): tra i costruttori di VGA non c'è ancora la corsa al ribasso dei consumi, come c'è stata tra le CPU ai tempi dei p4.
__________________
Quanto tutti sono d'accordo con me ho l'impressione di avere torto. |
||
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Aug 2006
Messaggi: 592
|
Va beh, ma comunque questo aiuta a "far quadrare il bilancio", cioè consuma di più la vga, ma consuma di meno tutto il resto... Alla fine, se non ti metti ad usare 2 vga parallele, un alimentatore da 500W basta comunque...
Comunque, il tempo in cui i produttori butteranno un'occhio anche ai consumi delle VGA arriverà...
__________________
Ho concluso transazioni con: Titave, Obelix-It, Nemesis2, bottoni, ventiquattro, Parish, polostation, Ivanooe, ezekiel22, Nyk512, ziocan, mike2587 |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
Bisogna considerare anche i tempi di sviluppo: il progetto di una cpu impiega un paio d'anni per vedere la luce, quello di una gpu molto meno. L'ottimizzazione dei circuiti elettronici, per massimizzare le prestazioni e minimizzare il numero di transistor impiegati e il consumo richiede tempo e verifiche, cosa che né Ati né Nvidia possono permettersi, sia per i tempi ridotti che intercorrono tra una famiglia e un'altra, sia anche perchè sono fabless, e questo incide negativamente sullo sviluppo dei processi produttivi (discorso a parte per Amd, che ha acquistato da troppo poco Ati per aspettarsi un'integrazione tale da consentire uno sfruttamento adeguato dei suoi processi - 65nm + SSDOI - specialmente su progetti precedenti)
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: May 2000
Messaggi: 1459
|
OMG
nn sapevo che gli X2 nn avranno cache L3.... quindi ancora 512k per core? :S |
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
I c-state in questo caso non c'entrano, e neanche il fatto che una cpu può vedere impiegate solo alcune unità di calcolo per volta (cosa che può accadere anche con una gpu: un gioco può sfruttare maggiormente i pixel oppure i vertex shader, oppure usare più texturing che shading - le dx10 rispondono anche ad esigenze di questo tipo, per sfruttare meglio tutte le unità elaborative). Qui si sta parlando di consumi massimi assoluti, ottenuti per di più (trattandosi del tdp delle cpu amd) solo in condizioni da laboratorio, con temperature sfavorevoli e usando software che hanno l'unico scopo di impegnare al massimo tutte le sezioni della cpu, quindi il confronto con le vga (che vale solo per notare come nelle cpu ad un aumento delle prestazioni non corrisponda un aumento dei consumi per core, cosa desiderabile anche in una vga) va fatto negli stessi termini. Però anche in idle le vga top di gamma dell'ultima generazione consumano un botto, e un sistema di risparmio energetico efficiente quanto un cool'n'quite o uno speedstep non farebbe un brutta figura; però così torniamo al discorso di prima: per fare le cose per bene serve più tempo di quanto ne impieghino per sfornare una nuova famiglia di gpu, specialmente se si tiene conto della complessità circuitale (ma non sarà così per sempre: dopo i sistemi Santa Rosa mi aspetto che arrivino presto anche le gpu Locatelli che fanno le cose per bene
![]() |
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
No, ancora 512k di L2 + 128k di L1: le cache degli amd sono esclusive, quindi contengono dati diversi (anche se non si può semplicemente effettuare una somma e concludere che abbiano 640k di cache complessivamente, perchè la l2 può contenere qualsiasi cosa, mentre la l1 è divisa in due: 64k di dati e 64k di istruzioni). Considera anche che una cache più grande e unificata ha mediamente latenze maggiori, e che il controller integrato rende meno sentita l'esigenza di cache maggiori (meno vero in un quadcore, anche se penso che la l3 unificata sarà inclusiva e suppongo che servirà principalmente a velocizzare l'ispezione delle cache "private", oltre che a mascherare le latenze verso la memoria, ma potrei sbagliare). Quando nelle architetture amd si sentirà l'esigenza di cache veramente imponenti, allora arriveranno, e arriverà anche la zram, con un numero di transistor sensibilmente minore e latenze di accesso, a seconda delle dimensioni, anche migliori rispetto alle sram (penso che si continuerà con piccole L2 private, in sram, e grosse l3 condivise, in zram).
|
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2177
|
Se non sbaglio la zram viene prodotta da un azienda di recente acquisizione da parte di AMD, letto mi pare sempre su queste pagine.
Son proprio curioso di vedere le prestazioni dei phenom, soprattutto rispetto al mio Sempron 3000+ che sto per sostituire con un athlon BE-2350. Potrei chiedere se qualcuno conosce, in percentuale, l'aumento di prestazioni dovuto alla scalabilità dei sistemi multiprocessori opteron o serie FX in genere? Quanto aumenta ad es, in un sistema a doppio processore e quanto in uno a 3 o a 4 ad es. Questo anche per capire se il prezzo per ogni Opteron delle serie 8 valga veramente la pena rispetto a quelli della serie 2. In definitiva, converrebbe una potenza di calcolo di 4 workstation dual processor serie 2 o FX o una workstation con 8 processori opteron? E soprattutto cosa costerebbe di più? Premetto che lavoro nella grafica 3D e una potenza di calcolo maggiore aiuterebbe a diminuire i tempi di rendering.
__________________
__________ Configurazione: Mainboard Gigabyte G1.Sniper A88X (rev. 3.0) ; APU A10 7850K ; HDD Western Digital SATA III WD Blue 1 TB ; Ram Corsair 1866 mhz 16 gb ; OS Seven premium 64 bit |
![]() |
![]() |
![]() |
#15 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
In generale dipende molto dalle applicazioni, da quanto sono parallelizzate e da come (in generale, bisognerebbe vedere se il codice che preso in esame prevede una notevole interazione tra i processori durante le elaborazioni, oppure se ognuno esegue molti calcoli prima di dover sincronizzare il lavoro con gli altri, ma conta anche come sono distribuiti i dati tra i processori, se i vari thread elaborano dati "propri" oppure se le elaborazioni riguardano gli stessi dati; però con queste considerazioni forse si va un po' troppo per il sottile).
Per il confronto in base ai core: supponendo che l'applicazione, ed è il tuo caso, sfrutti bene molti core/processori, si può fare una schematizzazione di questo tipo: - nei sistemi intel, in generale, all'aumentare del numero di processori/core diminuisce la banda disponibile per ciascuno, perchè tutte le comunicazioni tra le cpu e gli accessi alla memoria impegnano il chipset (tant'è che si usano chipset particolari, con delle cache di alcune decine di MB per ovviare), quindi si ha un decadimento prestazionale più o meno marcato rispetto alla potenza di calcolo massima teorica (la somma delle capacitò di calcolo dei singoli processori: l'uso condiviso dello stesso memory controller tende a fare da collo di bottiglia); nei quad core attuali, ottenuti affiancando due dual core in un package, la situazione è equivalente a quella in cui si hanno più dual core, quindi l'unico vantaggio consiste nel poter realizzare sistemi con più core fisici sulla stessa scheda madre; nei futuri quad core nativi la situazione migliorerà un po' (non che ora sia particolarmente tragica, eh, solo c'è un qualche collo di bottiglia di cui è meglio essere a conoscenza per fare delle scelte oculate), grazie alle comunicazioni tra i core di una stessa cpu che diventeranno interne e sgraveranno un po' il chipset; la vera svolta, da questo punto di vista, arriverà con i Nehalem, - nei sistemi amd, grazie al controller integrato e all'architettura NUMA, all'aumentare delle cpu (= pezzo di silicio infilato nel socket, a prescindere dal numero di core), aumenta anche la banda complessiva del sistema verso la memoria, e in più i processori comunicano attraverso HyperTransport, quindi gli accessi in memoria non ne risentono; poichè però i core di una stessa cpu condividono il memory controller, all'aumentare del numero dei core si ha un leggero decadimento prestazionale (tendenzialmente inferiore, comunque, a quello che si ha con gli intel), compensato anche in questo caso dai vantaggi dell'avere un singolo sistema con tante cpu (il problema, comunque, è relativo, perchè i quad core opteron k10 devono ancora arrivare e saranno sicuramente più veloci di due dual core k8, mentre i dual core k10 - se previsti, questo non lo ricordo - arriveranno ancora dopo; a meno che tu non stia valutando anche l'opzione di un sistema multivia basato su singlecore); - i vantaggi di un sistema unico con molti processori, rispetto a un cluster di più sistemi, a parità di numero complessivo di core fisici, consiste nella maggiore velocità nelle comunicazioni tra i processori e nell'accesso ai dati in memoria (che sarebbero inevitabilmente distribuiti tra i sistemi del cluster), poichè nel cluster avvengono in maniera esterna al singolo sistema, quindi attraverso la connessione realizzata (tipicamente di tipo ethernet, quindi al più delle gigabit, a meno di realizzare un supercomputer e optare per connessioni studiate ad hoc e in fibra). Ancora, l'incidenza della velocità nelle connessioni dipende molto dal tipo di algoritmo e dall'implementazione specifica, ma nel caso del rendering in generale si ha a che fare con algoritmi ricorsivi e influenza reciproca dei risultati parziali (ad esempio, nella radiosity ogni superficie diffonde la luce verso le altre, che a loro volta ne rispediranno una parte verso quella/e da cui l'hanno ricevuta, influenzando e variando ad ogni passo l'illuminazione della scena, nel complesso e nelle singole parti). Piccola nota: è possibile, in via teorica (non so se qualcuno lo faccia - a parte alcune schede per 8 opteron, che usano una scheda base e delle schede figlie che comunicano appunto via htt, per non realizzare un pcb enorme), realizzare comunicazioni esterne basate sul bus hypertransport, però diventano soluzioni custom, quindi complicate e costose. Per quanto riguarda i costi, anche qui tutto è relativo: il singolo processore della serie 2 costa meno rispetto a uno della serie 8, però non sono sicuro che due workstation con due dual core posssano costare meno di un singolo sistema con quattro dual core. A mio modestissimo avviso, facendo un'analisi esclusivamente qualitativa (non ho listini sotto mano ![]() Spero di esserti stato di aiuto ![]() |
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
P.S. la zram è stata brevettata da una società dalla quale amd ha acquistato delle licenze per sfruttarla nei propri processori. Fondamentalmente si tratta di una ram dinamica che sfrutta le capacità parassite dei wafer SOI per immagazzinare un bit con un solo transistor, quindi è fino a 6 volte più densa della ram statica; inoltre implementa un particolare sistema di lettura che non dipende dai cicli del condensatore, tipici della dram, e quindi ha latenze in lettura confrontabili con quelle di una sram (se non migliori). Per quanto riguarda la scrittura, invece, si deve rispettare il clock, che al momento arriva al massimo a 400 mhz; però la maggiore densità fa sì che, per blocchi di memoria notevoli (decine o centinaia di MB), la lunghezza notevolmente minore delle piste (e i minori problemi connessi) renda la latenza complessiva molto competitiva, se non migliore, rispetto alla sram.
|
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2177
|
Grazie!!
Grazie xeal,
sei stato veramente troppo gentile e disponibile oltre che molto esauriente! Come ultima cosa, se non chiedo troppo, la velocità di connessione tra i processori all'interno di una scheda madre (avviene esclusivamente via Hypertrasport o per le cpu in altro modo!?) quanto sarebbe maggiore (in linea approssimativa) rispetto a quella/e utilizzata/e per collegare più sistemi (cioè via ethernet, fibra)? Ti ringrazio tantissimo anticipatamente e chiudo l'OT. Ciao
__________________
__________ Configurazione: Mainboard Gigabyte G1.Sniper A88X (rev. 3.0) ; APU A10 7850K ; HDD Western Digital SATA III WD Blue 1 TB ; Ram Corsair 1866 mhz 16 gb ; OS Seven premium 64 bit |
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26788
|
AMD = FUTURO
nel senso che parla sempre al futuro... "usciranno" "saranno" "avranno"... sono 2 anni che sentiamo baggianate su cose non ancora esistenti addirittura ora si è messa anche a divulgare benchmark sulle "presunte potenzialità" e a parlare di versioni di processore il cui originario non si è ancora visto neppure in azione p.s. la z-ram funziona con il SOI e AMD il SOI lo può usare solo per i 90nm e 65, per i 45nm userà i dielettrici ad alto k, similmente a Intel... fate quindi i vostri conti ![]() |
![]() |
![]() |
![]() |
#19 | |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26788
|
Quote:
C'è solo il grafico del sistema Intel che dimostra come il tale consumi meno. Strano. ![]() |
|
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Oct 2005
Città: Verona
Messaggi: 1764
|
la battaglia penryn barcelona si fa sempre piu avvincente!!
![]()
__________________
~~~GIGABYTE 965P-DS3 | CORE 2 DUO E4300 1.9ghz@0.981v@35watt ![]() ~~~MULO ALL FANLESS: CELERON 420 1.6ghz@0.83v@14watt ![]() ~~~MEDIA CENTER ALL FANLESS: CELERON E1200 1.6ghz@0.86v@25watt ![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:05.