View Full Version : 45 TDP anche per alcune cpu Phenom
Redazione di Hardware Upg
04-07-2007, 09:27
Link alla notizia: http://www.hwupgrade.it/news/cpu/21819.html
AMD prevede di avere a disposizione versioni di cpu Phenom con TDP particolarmente ridotti
Click sul link per visualizzare la notizia.
farinacci_79
04-07-2007, 09:37
ormai le CPU consumano veramente poco in proporzione alla potenza elaborativa (o almeno consumano meno del picco raggiunto con i P4).
E' veramente assurdo che in un PC ormai la componente che consume di più siano le VGA, dove la ricerca della potenza elaborativa non va di pari passo con la ricerca della riduzione dei consumi.
E' vero che basta non prendere una VGA top di gamma per vedere ridurre drasticamente i consumi, ma è anche vero che non si assemblano solo HTPC o client aziendali, ma anche macchine "da lotta".
Bisogna anche tenere conto, però, che il rapporto prestazioni/consumi della VGA è ottimo: è rispauto che la potenza elaborativa delle moderne GPU è molto superiore alle CPU, ma il consumo assoluto è veramente alto e porta in secondo piano quello relativo.
Comunque, noto che tanto ATI(AMD) quanto nVidia non puntino molto sul contenimento dei consumi o almeno non lo danno a vedere: AMD e Intel ne stanno facendo un potente strumento di marketing.
gianni1879
04-07-2007, 09:47
direi meno male, altro che strano, ci vorrebbe lo stesso anche per le vga, anche se la complessità è molto diversa
farinacci_79
04-07-2007, 09:50
che è strano proprio il divario dei consumi assoluti tra CPU e GPU, anche se i rapporti prestazioni/consumi non sono poi così distanti.
NB: la complessità e la potenza assoluta di una moderna GPU va ben oltre quella di una CPU, diverso è il discorso che non siano sfruttate a pieno.
DevilsAdvocate
04-07-2007, 09:54
... se ci fai caso le CPU sono sempre prodotte con processi più avanzati,
cioè voltaggi e consumi minori....
NB: La "potenza" di una CPU non è confrontabile con quella di una GPU,
altrimenti "l`oggetto più potente" è sempre il DSP (che esegue un unico
compito a velocità pazzesca)....
che è strano proprio il divario dei consumi assoluti tra CPU e GPU, anche se i rapporti prestazioni/consumi non sono poi così distanti.
NB: la complessità e la potenza assoluta di una moderna GPU va ben oltre quella di una CPU, diverso è il discorso che non siano sfruttate a pieno.
spammone
04-07-2007, 10:04
Il fatto è che le GPU sono altamente parallelizzate e sotto carico hanno mediamente molte più sezioni attive contemporaneamente rispetto ad una CPU general purpose, quindi è un po' piu' complesso implementare una gestione di c-state efficace.
Effettivamente dovrebbero impegnarsi sui consumi VGA..ma non ci dispiacciono neanche questi!:)
Dreadnought
04-07-2007, 10:15
In tutto questo va sempre considerato che nelle cpu AMD c'è il controller della memoria + il crossbar switch che non è che consumino proprio zero, anzi i loro 5-10W (la metà di un northbridge intel tanto per dire) li consumano.
ormai le CPU consumano veramente poco in proporzione alla potenza elaborativa (o almeno consumano meno del picco raggiunto con i P4).
Vabeh i P4 con i loro 130W di picco erano un caso a parte, una mela marcia tra i processori x86... peraltro venduti come oro colato alla gente stupida.
E' veramente assurdo che in un PC ormai la componente che consume di più siano le VGA, dove la ricerca della potenza elaborativa non va di pari passo con la ricerca della riduzione dei consumi.
Non è strano, è normale, alla fine una 8800GTX assorbe fino a 120-130W di picco, ma anche perchè ogni suo transistor è sfruttato quasi al massimo per fare l'unica cosa che fa bene: renderizzare vertici, poligoni e texture.
Una cpu fa di tutto, ed ha unità di calcolo diversificate proprio per riuscire a gestire i codici più variabili, se fai girare un programma normale adattandolo su una GPU non attivi il 20% del totale die transistor, le GPU consumano tanto anche perchè la mole di dati in entrata e in uscita è costantemente elaborata.
Poi secondo me c'è un secondo fattore (come tu hai detto): tra i costruttori di VGA non c'è ancora la corsa al ribasso dei consumi, come c'è stata tra le CPU ai tempi dei p4.
kelendil
04-07-2007, 10:16
Va beh, ma comunque questo aiuta a "far quadrare il bilancio", cioè consuma di più la vga, ma consuma di meno tutto il resto... Alla fine, se non ti metti ad usare 2 vga parallele, un alimentatore da 500W basta comunque...
Comunque, il tempo in cui i produttori butteranno un'occhio anche ai consumi delle VGA arriverà...
Bisogna considerare anche i tempi di sviluppo: il progetto di una cpu impiega un paio d'anni per vedere la luce, quello di una gpu molto meno. L'ottimizzazione dei circuiti elettronici, per massimizzare le prestazioni e minimizzare il numero di transistor impiegati e il consumo richiede tempo e verifiche, cosa che né Ati né Nvidia possono permettersi, sia per i tempi ridotti che intercorrono tra una famiglia e un'altra, sia anche perchè sono fabless, e questo incide negativamente sullo sviluppo dei processi produttivi (discorso a parte per Amd, che ha acquistato da troppo poco Ati per aspettarsi un'integrazione tale da consentire uno sfruttamento adeguato dei suoi processi - 65nm + SSDOI - specialmente su progetti precedenti)
The3DProgrammer
04-07-2007, 11:32
OMG
nn sapevo che gli X2 nn avranno cache L3....
quindi ancora 512k per core? :S
I c-state in questo caso non c'entrano, e neanche il fatto che una cpu può vedere impiegate solo alcune unità di calcolo per volta (cosa che può accadere anche con una gpu: un gioco può sfruttare maggiormente i pixel oppure i vertex shader, oppure usare più texturing che shading - le dx10 rispondono anche ad esigenze di questo tipo, per sfruttare meglio tutte le unità elaborative). Qui si sta parlando di consumi massimi assoluti, ottenuti per di più (trattandosi del tdp delle cpu amd) solo in condizioni da laboratorio, con temperature sfavorevoli e usando software che hanno l'unico scopo di impegnare al massimo tutte le sezioni della cpu, quindi il confronto con le vga (che vale solo per notare come nelle cpu ad un aumento delle prestazioni non corrisponda un aumento dei consumi per core, cosa desiderabile anche in una vga) va fatto negli stessi termini. Però anche in idle le vga top di gamma dell'ultima generazione consumano un botto, e un sistema di risparmio energetico efficiente quanto un cool'n'quite o uno speedstep non farebbe un brutta figura; però così torniamo al discorso di prima: per fare le cose per bene serve più tempo di quanto ne impieghino per sfornare una nuova famiglia di gpu, specialmente se si tiene conto della complessità circuitale (ma non sarà così per sempre: dopo i sistemi Santa Rosa mi aspetto che arrivino presto anche le gpu Locatelli che fanno le cose per bene :asd: ).
No, ancora 512k di L2 + 128k di L1: le cache degli amd sono esclusive, quindi contengono dati diversi (anche se non si può semplicemente effettuare una somma e concludere che abbiano 640k di cache complessivamente, perchè la l2 può contenere qualsiasi cosa, mentre la l1 è divisa in due: 64k di dati e 64k di istruzioni). Considera anche che una cache più grande e unificata ha mediamente latenze maggiori, e che il controller integrato rende meno sentita l'esigenza di cache maggiori (meno vero in un quadcore, anche se penso che la l3 unificata sarà inclusiva e suppongo che servirà principalmente a velocizzare l'ispezione delle cache "private", oltre che a mascherare le latenze verso la memoria, ma potrei sbagliare). Quando nelle architetture amd si sentirà l'esigenza di cache veramente imponenti, allora arriveranno, e arriverà anche la zram, con un numero di transistor sensibilmente minore e latenze di accesso, a seconda delle dimensioni, anche migliori rispetto alle sram (penso che si continuerà con piccole L2 private, in sram, e grosse l3 condivise, in zram).
george_p
04-07-2007, 15:34
Se non sbaglio la zram viene prodotta da un azienda di recente acquisizione da parte di AMD, letto mi pare sempre su queste pagine.
Son proprio curioso di vedere le prestazioni dei phenom, soprattutto rispetto al mio Sempron 3000+ che sto per sostituire con un athlon BE-2350.
Potrei chiedere se qualcuno conosce, in percentuale, l'aumento di prestazioni dovuto alla scalabilità dei sistemi multiprocessori opteron o serie FX in genere?
Quanto aumenta ad es, in un sistema a doppio processore e quanto in uno a 3 o a 4 ad es.
Questo anche per capire se il prezzo per ogni Opteron delle serie 8 valga veramente la pena rispetto a quelli della serie 2.
In definitiva, converrebbe una potenza di calcolo di 4 workstation dual processor serie 2 o FX o una workstation con 8 processori opteron? E soprattutto cosa costerebbe di più?
Premetto che lavoro nella grafica 3D e una potenza di calcolo maggiore aiuterebbe a diminuire i tempi di rendering.
In generale dipende molto dalle applicazioni, da quanto sono parallelizzate e da come (in generale, bisognerebbe vedere se il codice che preso in esame prevede una notevole interazione tra i processori durante le elaborazioni, oppure se ognuno esegue molti calcoli prima di dover sincronizzare il lavoro con gli altri, ma conta anche come sono distribuiti i dati tra i processori, se i vari thread elaborano dati "propri" oppure se le elaborazioni riguardano gli stessi dati; però con queste considerazioni forse si va un po' troppo per il sottile).
Per il confronto in base ai core: supponendo che l'applicazione, ed è il tuo caso, sfrutti bene molti core/processori, si può fare una schematizzazione di questo tipo:
- nei sistemi intel, in generale, all'aumentare del numero di processori/core diminuisce la banda disponibile per ciascuno, perchè tutte le comunicazioni tra le cpu e gli accessi alla memoria impegnano il chipset (tant'è che si usano chipset particolari, con delle cache di alcune decine di MB per ovviare), quindi si ha un decadimento prestazionale più o meno marcato rispetto alla potenza di calcolo massima teorica (la somma delle capacitò di calcolo dei singoli processori: l'uso condiviso dello stesso memory controller tende a fare da collo di bottiglia); nei quad core attuali, ottenuti affiancando due dual core in un package, la situazione è equivalente a quella in cui si hanno più dual core, quindi l'unico vantaggio consiste nel poter realizzare sistemi con più core fisici sulla stessa scheda madre; nei futuri quad core nativi la situazione migliorerà un po' (non che ora sia particolarmente tragica, eh, solo c'è un qualche collo di bottiglia di cui è meglio essere a conoscenza per fare delle scelte oculate), grazie alle comunicazioni tra i core di una stessa cpu che diventeranno interne e sgraveranno un po' il chipset; la vera svolta, da questo punto di vista, arriverà con i Nehalem,
- nei sistemi amd, grazie al controller integrato e all'architettura NUMA, all'aumentare delle cpu (= pezzo di silicio infilato nel socket, a prescindere dal numero di core), aumenta anche la banda complessiva del sistema verso la memoria, e in più i processori comunicano attraverso HyperTransport, quindi gli accessi in memoria non ne risentono; poichè però i core di una stessa cpu condividono il memory controller, all'aumentare del numero dei core si ha un leggero decadimento prestazionale (tendenzialmente inferiore, comunque, a quello che si ha con gli intel), compensato anche in questo caso dai vantaggi dell'avere un singolo sistema con tante cpu (il problema, comunque, è relativo, perchè i quad core opteron k10 devono ancora arrivare e saranno sicuramente più veloci di due dual core k8, mentre i dual core k10 - se previsti, questo non lo ricordo - arriveranno ancora dopo; a meno che tu non stia valutando anche l'opzione di un sistema multivia basato su singlecore);
- i vantaggi di un sistema unico con molti processori, rispetto a un cluster di più sistemi, a parità di numero complessivo di core fisici, consiste nella maggiore velocità nelle comunicazioni tra i processori e nell'accesso ai dati in memoria (che sarebbero inevitabilmente distribuiti tra i sistemi del cluster), poichè nel cluster avvengono in maniera esterna al singolo sistema, quindi attraverso la connessione realizzata (tipicamente di tipo ethernet, quindi al più delle gigabit, a meno di realizzare un supercomputer e optare per connessioni studiate ad hoc e in fibra). Ancora, l'incidenza della velocità nelle connessioni dipende molto dal tipo di algoritmo e dall'implementazione specifica, ma nel caso del rendering in generale si ha a che fare con algoritmi ricorsivi e influenza reciproca dei risultati parziali (ad esempio, nella radiosity ogni superficie diffonde la luce verso le altre, che a loro volta ne rispediranno una parte verso quella/e da cui l'hanno ricevuta, influenzando e variando ad ogni passo l'illuminazione della scena, nel complesso e nelle singole parti). Piccola nota: è possibile, in via teorica (non so se qualcuno lo faccia - a parte alcune schede per 8 opteron, che usano una scheda base e delle schede figlie che comunicano appunto via htt, per non realizzare un pcb enorme), realizzare comunicazioni esterne basate sul bus hypertransport, però diventano soluzioni custom, quindi complicate e costose.
Per quanto riguarda i costi, anche qui tutto è relativo: il singolo processore della serie 2 costa meno rispetto a uno della serie 8, però non sono sicuro che due workstation con due dual core posssano costare meno di un singolo sistema con quattro dual core. A mio modestissimo avviso, facendo un'analisi esclusivamente qualitativa (non ho listini sotto mano :D), a seconda delle esigenze specifiche, è meglio, per quanto possibile, rimanere nell'ambito di un singolo sistema con più processori e core per processore, quindi, se non si hanno esigenze particolari, mi sembrano equilibrati o un sistema dual dualcore, oppure uno con 4 dualcore (ma anche quad core; passare poi a sistemi a otto vie diventa più complicato). A meno che non si abbiano a disposizione dei "vecchi sistemi" da riciclare, o delle workstation equivalenti a quella che si vuole sostituire (se è una sola) reperibili a basso costo (ad esempio usate, dismesse da grosse ditte) e allora si può fare un serio pensierino a un cluster, software permettendo (però bisognerebbe anche valutare la questione dei consumi di un sistema più complesso e basato su tecnologie meno recenti). Gli fx a due vie sono pressoché identici agli opteron, ma sono di nicchia e costicchiano, non so quanto si possa risparmiare rispetto agli opteron, considerando che da un lato la memoria che usano è unbuffered e quindi costa meno, ma dall'altro la maggiore sicurezza data dalla ecc può avere un suo peso nella decisione finale. Alla fine, credo che convenga sempre valutare soluzioni alternative più o meno equivalenti e fissare un tetto di spesa con un minimo di flessibilità.
Spero di esserti stato di aiuto :)
P.S. la zram è stata brevettata da una società dalla quale amd ha acquistato delle licenze per sfruttarla nei propri processori. Fondamentalmente si tratta di una ram dinamica che sfrutta le capacità parassite dei wafer SOI per immagazzinare un bit con un solo transistor, quindi è fino a 6 volte più densa della ram statica; inoltre implementa un particolare sistema di lettura che non dipende dai cicli del condensatore, tipici della dram, e quindi ha latenze in lettura confrontabili con quelle di una sram (se non migliori). Per quanto riguarda la scrittura, invece, si deve rispettare il clock, che al momento arriva al massimo a 400 mhz; però la maggiore densità fa sì che, per blocchi di memoria notevoli (decine o centinaia di MB), la lunghezza notevolmente minore delle piste (e i minori problemi connessi) renda la latenza complessiva molto competitiva, se non migliore, rispetto alla sram.
george_p
04-07-2007, 18:13
Grazie xeal,
sei stato veramente troppo gentile e disponibile oltre che molto esauriente!
Come ultima cosa, se non chiedo troppo, la velocità di connessione tra i processori all'interno di una scheda madre (avviene esclusivamente via Hypertrasport o per le cpu in altro modo!?) quanto sarebbe maggiore (in linea approssimativa) rispetto a quella/e utilizzata/e per collegare più sistemi (cioè via ethernet, fibra)?
Ti ringrazio tantissimo anticipatamente e chiudo l'OT.
Ciao
MiKeLezZ
04-07-2007, 19:54
AMD = FUTURO
nel senso che parla sempre al futuro... "usciranno" "saranno" "avranno"... sono 2 anni che sentiamo baggianate su cose non ancora esistenti
addirittura ora si è messa anche a divulgare benchmark sulle "presunte potenzialità" e a parlare di versioni di processore il cui originario non si è ancora visto neppure in azione
p.s. la z-ram funziona con il SOI e AMD il SOI lo può usare solo per i 90nm e 65, per i 45nm userà i dielettrici ad alto k, similmente a Intel... fate quindi i vostri conti :rolleyes:
MiKeLezZ
04-07-2007, 19:57
In tutto questo va sempre considerato che nelle cpu AMD c'è il controller della memoria + il crossbar switch che non è che consumino proprio zero, anzi i loro 5-10W (la metà di un northbridge intel tanto per dire) li consumano.Tanti bei discorsi, quando però si va a confrontare MB AMD + CPU AMD da 65W contro MB Intel + CPU Intel da 65W tutte le teorie le vediamo cadere... Il controller di memoria integrato, il TDP di Intel farlocco, bla bla bla...
C'è solo il grafico del sistema Intel che dimostra come il tale consumi meno.
Strano.
:rolleyes:
OverdeatH86
04-07-2007, 20:00
la battaglia penryn barcelona si fa sempre piu avvincente!! :D
JohnPetrucci
04-07-2007, 20:42
la battaglia penryn barcelona si fa sempre piu avvincente!! :D
Sperando che arrivi un giorno questa battaglia e che non ci si dilunghi con proclami e chiacchiere.
In ogni caso se battaglia ci sarà, speriamo non sia un'altra batosta per AMD.
NeoTheMatrix27
05-07-2007, 00:12
ancora a parlare di batoste.. ma chi cavolo mai ha preso ste batoste , ma finitela!
PRIMA TUTTI CHE VOGLIONO NOTIZIE E POI: ancora con queste voci sono 2 anni gne gne gne... evidentemente non ci sta tutta sta fretta ... è a voi che brucia qualcosa . mettetevi l'anima in pace... io aspetto il tempo che devo e man mano leggo le news
pigliatevi sti intel e STOP!
ohhhhhhhhhhhhh dovevo sfogarmi XD
P.S. riguardando i test le vga amd sono bei prodotti e fanno in molti casi il culetto a quelle ciabatte di nvidia
petruc levati il prosciutto davanti gli occhi.. non ci vedi XD
palate per anni avete preso
la battaglia penryn barcelona si fa sempre piu avvincente!! :D
sisi :D
Sperando che arrivi un giorno questa battaglia e che non ci si dilunghi con proclami e chiacchiere.
In ogni caso se battaglia ci sarà, speriamo non sia un'altra batosta per AMD.
effettivamente sono stanco della teoria...amd metti in pratica.....
leoneazzurro
05-07-2007, 08:33
ancora a parlare di batoste.. ma chi cavolo mai ha preso ste batoste , ma finitela!
PRIMA TUTTI CHE VOGLIONO NOTIZIE E POI: ancora con queste voci sono 2 anni gne gne gne... evidentemente non ci sta tutta sta fretta ... è a voi che brucia qualcosa . mettetevi l'anima in pace... io aspetto il tempo che devo e man mano leggo le news
pigliatevi sti intel e STOP!
ohhhhhhhhhhhhh dovevo sfogarmi XD
P.S. riguardando i test le vga amd sono bei prodotti e fanno in molti casi il culetto a quelle ciabatte di nvidia
petruc levati il prosciutto davanti gli occhi.. non ci vedi XD
palate per anni avete preso
Evitiamo i commenti fanboistici, non siamo allo stadio.
NeoTheMatrix27
05-07-2007, 10:41
beh, effettivamente son sembrato un pò tifoso... sry
cmq, leggo oramai di continuo post con le solite parole, e scritte sempre dagli stessi "batoste", da fastidio il fatto che siano cose poco supportate da fatti.. tutto qui
marchigiano
05-07-2007, 13:00
sbaglio o questi phenom useranno il 100% di banda delle ddr3 1600 in dual channel mentre i core2duo si fermeranno a 666 in dual channel?
più semplicemente: phenom con HT a 3.2ghz, core2duo con FSB 1.33ghz?
Proprio Io
05-07-2007, 14:46
[/OT ON]
Xeal, sai per caso di una comparativa tra le caratteristiche e le prestazioni in termini di densità di memorizzazione/consumi/tempi d'accesso e quant'altro di FRAM, MRAM e ZRAM ?
Visto che si parla di queste tecnologie come del futuro dei componenti RAM, VRAM e persino HDD (ma... quando ?!?), mi interesserebbe almeno riuscire ad intravedere quale tra queste sarà effettivamente adottata.
[/OT OFF]
MiKeLezZ
06-07-2007, 01:12
beh, effettivamente son sembrato un pò tifoso... sry
cmq, leggo oramai di continuo post con le solite parole, e scritte sempre dagli stessi "batoste", da fastidio il fatto che siano cose poco supportate da fatti.. tutto quiTieni i fatti:
http://blogs.zdnet.com/Ou/?p=567
leoneazzurro
06-07-2007, 09:58
Tieni i fatti:
http://blogs.zdnet.com/Ou/?p=567
Diciamo che oltre a un fatto c'è molto FUD e sensazionalismo giornalistico.
Il fatto è che il Barcelona a 2.6 GHz non esisterà al lancio e probabilmente fino all'anno prossimo, e che quindi mettere i risultati stimati di un Barcelona a 2.6 GHz a confronto con la concorrenza non è una cosa corretta se si vogliono paragonare le prestazioni assolute delle due piattaforme.
Il resto è FUD. Questo per alcuni motivi:
1) AMD viene accusata di non avere incluso i risultati dello Xeon quad-core a 3 GHz nel confronto. La slide risale al 16 Aprile, quando lo Xeon 3 Ghz non era disponibile sul mercato. Ovvio che si poteva postare un risultato "stimato" anche per lo Xeon 3 GHz, ma etichettare la cosa come "criminale" è forzato ed eccessivo.
2) Ancora, AMD viene accusata di avere fornito SPEC score errati. Questo è falso, gli SPEC score erano giusti... quando è stata postata la slide, ed è giusto che rimanga tale a meno di non aggiornare gli score anche per Barcelona. Infatti, da Aprile una cosa che è cambiata e che influenza moltissimo gli score SPEC è la versione del compilatore utilizzata per caompilare quei benchmark. Due score ottenuti sulla stessa macchina con versioni differenti di compilatore non sono assolutamente paragonabili. Ergo, è giusto che in quella slide siano presenti i risultati SPEC ottenuti con la medesima versione di compilatore.
Quello che non è giusto, come detto, è l'aver postato dei risultati stimati per il Barcelona a 2.6 GHz se lo scopo era quello di paragonare le prestazioni assolute della CPU, mentre la slide potrebbe risultare comunque interessante e basalmente corretta per paragonare le prestazioni relative clock per clock delle due architetture.
PS: il signor Ou si è anche "dimenticato" di citare il fatto che AMD ha dichiarato si che ci saranno al lancio solo versioni fino a 2 GHz, ma che il mese dopo ci saranno versioni a 2.3 GHz e che per fine anno sono rpeviste versioni a 2.5 GHz.
@ george_p
Scusa, ma stavolta non ho tantissimo tempo a disposizione, quindi sarò breve (se vuoi approfondire un po', puoi fare un giretto su wikipedia).
HyperTransport è un bus punto-punto che sfrutta fino a 32 linee di trasmissione per link (gli Opteron serie 8 ne hanno 3) ed è di tipo DDR, quindi un link a 1GHz (la velocità viene negoziata e può variare) trasmette fino a circa 7.5GByte/s (misurati come potenze di 2 - rifiuto in blocco le definizioni del SI, ma questo è un altro discorso), che possono essere suddivisi in più canali per ottimizzare la trasmissione dei dati tra diversi componenti; un link HT 3.0 a 2.6GHz sfiora i 20GB/s. Una normale scheda di rete normale arriva a 1Gbit/s, a meno di costruire sistemi dedicati, ma si sale molto con il costo, e comunque il discorso della fibra dovresti vederlo più che altro in questo modo: hai un supercomputer con diversi armadi pieni di schede madri e cpu, che devono scambiarsi i dati in maniera molto veloce -> costruisci un sistema ad hoc, che comunque avrà delle performance associate a ciascuna scheda madre più o meno limitate (considera che il bus usato dalla scheda madre potrebbe fare da collo di bottiglia - a titolo di esempio, una comune scheda di rete sfrutta il bus PCI - e che i dati all'esterno percorrono un tragitto più lungo - alla velocità della luce nel mezzo - e questo aumenta le latenze), però nel complesso riuscirai a gestire una mole impressionante di dati. Gli Opteron usano solo HyperTransport.
@ Proprio Io
Mi sa tanto che il meglio che si possa trovare sono le dichiarazioni dei "produttori" e qualche approfondimento di qualche rivista tecnica (cartacea o online) sulla singola tecnologia: considera che praticamente esistono solo sulla carta, quindi non si può fare una comparativa "su strada". Ricordo che per le MRAM si parlava di prestazioni prossime a quelle delle SRAM e processi produttivi allo studio per ottenere densità paragonabili a quelle della DRAM; per le ZRAM si parla di prestazioni confrontabili alle SRAM in lettura (in scrittura per grandi quantità) e densità pari alla metà della DRAM (un solo transitor contro 2 transistor - uno "vero" e l'altro modificato, un po' più grande, che fa da condensatore); poi ci sarebbe anche la NRAM (con i nanotubi di carbonio), che promette prestazioni da ram statica (anche come archiviazione dati) e densità massima teorica di 1 Tb/cm^2. Però bisognerà vedere cosa arriverà sul mercato: ad esempio, per la ZRAM si parla di processi produttivi ottimizzabili per ottenere o il massimo delle prestazioni, o il minimo consumo, o la densità massima (o un compromesso fra i tre), a seconda delle esigenze specifiche. Di più, nin so.
Per il quando, be', come si dice... campa cavallo che l'erba cresce :cry:
@Mikelezz
Hai qualche link sotto mano sull'uso degli High-k (sapevo della litografia a immersione come certa e dell'uso degli High K come probabile, sia per amd, sia per ibm, ma in "ballottaggio" fra i 45 e i 32nm), e soprattutto sull'incompatibilità con il soi?
Comunque, me ne infischio: io voglio dei chip di zram da 1-2Gbit e a 400MHz "interni", per avere moduli di ram DDR3-4 in dual/quad channel con latenze e banda da paura!!! (poi però voglio anche i soldi per comprarli :D)
Concordo con leoneazzurro, in fondo, seppur a caratteri microscopici, nella slide è chiarito che il risultato del 2.6 è solo una simulazione.
E poi, da una qualsiasi azienda che è "parte in causa" io mi aspetto sempre e solo dichiarazioni "di parte" :D questo vale per tutti. Ormai manca poco, quando cominceranno le consegne agli oem, sono sicuro che circoleranno anche i sample per i test indipendenti e allora scoppierà la bomba, in un senso o nell'altro.
george_p
06-07-2007, 11:50
Grazie infinite Xeal,
non preoccuparti sei stato molto più che esauriente!
Ora l'unica cosa che mi manca sono i soldi, ma fa niente, conto molto sui sistemi opteron Barcellona (se non altro saranno un gradino più su rispetto ai K8!) e sulle commercializzazioni del 2008.
Thanks very much!!! ;)
MiKeLezZ
06-07-2007, 12:01
Sicuramente vi è un eccessivo bilanciamento "intellista", il tipo assomiglia un po' all'amico sharikou, ma colorato di blu...
Ma non parlerei assolutamente di FUD. FUD è la slide AMD.
L'articolo solleva solo alcune obiezioni, che una volta "scremate" dagli epiteti, risultano valide e interessanti.
Perno centrale è che non è possibile confrontare due cose facenti parte di diverse epoche temporali.
Come se ora andassimo a confrontare i nuovi Core 2 Duo da 1333MHz di FSB con i vecchi A64 socket 939. Perchè?! Non ha senso.
Sarebbe stato accettabile se il 16 Aprile fosse uscito sul mercato tal Barcelona da 2,6GHz, ma non è così, e si ha il diritto di parlare di "scorrettezza" da parte di AMD, per quanto la slide in sé non riporti valori "relativamente" errati.
Per colpa di questo abbiamo:
. CPU Intel dai valori più bassi che non attualmente. Grazie al nuovo compilatore. OK. L'azione in sé è quindi giustificabile se guardiamo la data del 16 Aprile, ma non lo è se poi quei dati vengono messi a confronto con un Barcelona a 2,6GHz (che ricordo non esistente).
. Ecco il peggio al peggio, un clock sensazionalistico. Per Barcelona non si son viste CPU da più di 1,6GHz, e puntano giusto a 2GHz per fine anno (2,5GHz?..........). Parlare di 2,6GHz il 16 Aprile è del tutto fuori luogo, a meno che non parlino anche di Penryn a 3,33GHz. Già non parlano del 5365, quindi figuriamoci.
. Risultati fittizi!!! Chi ci da la certezza che DAVVERO Barcelona abbia tali valori? Sarebbe come predire che G90 "andrà a 89fps in Lost Planet DX10 a 1280x1024 con 2xAA".
Per quanto riguarda il 5365, era già disponibile "entro 24 ore" dal 4 Aprile.
http://www.macscoop.com/articles/2007/04/04/apple-releases-8-core-mac-pro-and-drops-cinema-displays-pricing
Penso proprio che la slide fatta uscire il 16 Aprile sia stata VOLUTA, in modo da dar giustificazione dell'omissione. Ovvero, magari domani esce di sorpresa il Barcelona, e oggi Intel si mette a divulgare benchmark su benchmark di come il Core 2 Duo sia superiore agli A64...
Sono tutti specchietti per le allodole (o meglio, azionisti).
MiKeLezZ
06-07-2007, 12:14
Hai qualche link sotto mano sull'uso degli High-k (sapevo della litografia a immersione come certa e dell'uso degli High K come probabile, sia per amd, sia per ibm, ma in "ballottaggio" fra i 45 e i 32nm), e soprattutto sull'incompatibilità con il soi?Volendo si potrebbe usare HK+MG+SOI, quindi high-k assieme a SOI. Il problema è che per ora è solo teoria (e pure costosa sulla carta), di pratica c'è che IBM per i 45nm e 32nm ha previsto gli high-k, allo studio già da anni, e che per i chip inferiori ai 65nm è previsto dalle varie aziende costruttrici commerciali l'adozione del sSOI (strained SOI, diverso dal SOI).
@george_p
De nada ;)
@Mikelezz
Sapevo che ibm e amd usano già lo strained soi (strained silicon directly on insulator per la precisione), quindi la zram dovrebbe essere già compatibile con questa tecnologia, se poi questa non dovesse avere problemi particolari con gli high k allora dovrebbe rimanare tutto fattibile :boh:
Da quel che ho capito, la zram per funzionare ha bisogno di uno strato di ossido di silicio tale da creare un effetto memoria sufficiente...
Per il resto... mah, secondo me esageri un po'... cito solo questo:
Come se ora andassimo a confrontare i nuovi Core 2 Duo da 1333MHz di FSB con i vecchi A64 socket 939. Perchè?! Non ha senso.
Oggi no, ma se i C2D fossero stati in fase avanzata di progettazione all'epoca degli A64 939, tanto da poter fare una simulazione delle prestazioni ottenibili alla frequenza limite della prima "generazione" (ovvero con le primissime revision commerciali della famiglia), non avrei trovato così scorretto confrontare i risultati della simulazione con il meglio che la concorrenza offriva sul mercato a quella data, per convincere azionisti e partner commerciali della bontà del progetto.
Del resto, le critiche sulla non esistenza del barcellona 2.6ghz sarebbero state a mio parere più appropriate se la slide in questione fosse stata pubblicamente diffusa a quella data per creare hype; non capisco invece perchè sia stata diffusa oggi, visto che comunque, essendo vecchi i dati riportati, non poteva non sollevare aspre critiche... almeno avessero ripetuto la simulazione per poter confrontare stime recenti con i risultati recenti della contraparte... forse, dopo l'acquisizione di ati, quando hanno ridotto il personale manageriale e per le pr hanno fatto qualche errore di valutazione...
Per quanto riguarda il 5365, alla data, oltre alla cpu, erano disponibili dei test ufficiali basati su spec? Voglio dire: immagino che AMD si sia appoggiata ai risultati già di dominio pubblico e certificati, anche per dare maggiore credibilità, e non abbia assemblato e testato da sé i sistemi basati su xeon... almeno credo (e così dichiarano nelle slide)... Ma se anche ci fossero stati, proprio perchè il 2.6 non esiste e non esisteva, ma si trattava di una semplice simulazione per uso più o meno interno e non di un confronto tra top di gamma di dominio pubblico, l'omissione potrebbe essere giustificata (alla data) dall'aver voluto realizzare un confronto clock per clock.
leoneazzurro
06-07-2007, 13:48
Sicuramente vi è un eccessivo bilanciamento "intellista", il tipo assomiglia un po' all'amico sharikou, ma colorato di blu...
Ma non parlerei assolutamente di FUD. FUD è la slide AMD.
L'articolo solleva solo alcune obiezioni, che una volta "scremate" dagli epiteti, risultano valide e interessanti.
Perno centrale è che non è possibile confrontare due cose facenti parte di diverse epoche temporali.
Come se ora andassimo a confrontare i nuovi Core 2 Duo da 1333MHz di FSB con i vecchi A64 socket 939. Perchè?! Non ha senso.
Sarebbe stato accettabile se il 16 Aprile fosse uscito sul mercato tal Barcelona da 2,6GHz, ma non è così, e si ha il diritto di parlare di "scorrettezza" da parte di AMD, per quanto la slide in sé non riporti valori "relativamente" errati.
Per colpa di questo abbiamo:
. CPU Intel dai valori più bassi che non attualmente. Grazie al nuovo compilatore. OK. L'azione in sé è quindi giustificabile se guardiamo la data del 16 Aprile, ma non lo è se poi quei dati vengono messi a confronto con un Barcelona a 2,6GHz (che ricordo non esistente).
. Ecco il peggio al peggio, un clock sensazionalistico. Per Barcelona non si son viste CPU da più di 1,6GHz, e puntano giusto a 2GHz per fine anno (2,5GHz?..........). Parlare di 2,6GHz il 16 Aprile è del tutto fuori luogo, a meno che non parlino anche di Penryn a 3,33GHz. Già non parlano del 5365, quindi figuriamoci.
. Risultati fittizi!!! Chi ci da la certezza che DAVVERO Barcelona abbia tali valori? Sarebbe come predire che G90 "andrà a 89fps in Lost Planet DX10 a 1280x1024 con 2xAA".
Per quanto riguarda il 5365, era già disponibile "entro 24 ore" dal 4 Aprile.
http://www.macscoop.com/articles/2007/04/04/apple-releases-8-core-mac-pro-and-drops-cinema-displays-pricing
Penso proprio che la slide fatta uscire il 16 Aprile sia stata VOLUTA, in modo da dar giustificazione dell'omissione. Ovvero, magari domani esce di sorpresa il Barcelona, e oggi Intel si mette a divulgare benchmark su benchmark di come il Core 2 Duo sia superiore agli A64...
Sono tutti specchietti per le allodole (o meglio, azionisti).
Come ho già detto, il fatto di avere pubblicato delle simulazioni di risultati a 2.6 GHz quando il chip in questione non c'è e magari con lo scopo di comparare delle prestazioni ASSOLUTE è un errore AMD. Ma il resto no, il chip a 3.0 GHz è uscito per primo in Apple ma 1) Apple è stato il primo produttore ad avere in mano i chips, mentre gli altri lo hanno avuto diverso tempo dopo 2) i risultati certificati SPEC sono usciti se non erro in Maggio (ci possono essere in giro risultati non certificati da parte dei produttori di CPU ma questi non sono presi come riferimenti "certi"), quindi poteva anche non essere incluso in una slide del 16 Aprile, e comunque nella maniera più assoluta la comparazione con i risultati odierni non è praticabile, perchè dei benefici di un nuovo compilatore può benissimo usufruirne anche Barcelona. Se domani uscisse un nuovo compilatore che aumenta i risultati nello SPECInt e SPEC FP del 20%, e AMD usasse quello con un chip Barcelona a 2.3 GHz, e poi comparasse gli SPEC score con i numeri attuali degli Xeon, sarebbe corretto? Ovviamente NO.
Poi trovo il resto dell'articolo veramente stucchevole, con riferimenti a comportamenti "criminali" da parte di AMD, dimenticando che comunque la line-up di AMD non si fermerà al 2 GHz del lancio ma che ci saranno CPU a 2.2-2.3 GHz solo un mese dopo, ecc.
Se questo non è FUD, non saprei cosa lo è, nonostante il comportamento di AMD sia tutt'altro che irreprensibile.
@xeal: la slide in questione non è stata pubblicata oggi, ma appunto ad Aprile. Le slide "pubblicate" (in realtà diffuse in barba ad un NDA) in questo periodo sono quelle che paragonano Barcelona 2.3 GHz come drop-in replacement per un Opteron K8 a 3 GHz
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.