PDA

View Full Version : AMD Analyst Day: cpu e piattaforme del futuro


Redazione di Hardware Upg
14-12-2006, 18:04
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/1621/index.html

Il primo Analyst Day di AMD ad essere tenuto dopo l'acquisizione di ATI è occasione per delineare quelle che saranno le future evoluzioni di mercato del produttore americano; nuove roadmap e rinnovato interesse sia alle piattaforme che all'integrazione tra CPU, GPU e acceleratori nei processori dei prossimi anni

Click sul link per visualizzare l'articolo.

Pistolpete
14-12-2006, 18:19
Beh l'evoluzione prospettata da AMD è la più logica.
Mi chiedo: Intel prevede uno sviluppo simile? Cosa lancierà per constrastare "torrenza" di AMD?

Probabilmente, in un futuro non troppo lontano, le aziende avranno la possibilità di ordinare processori su misura, con un mix di core personalizzato.

Di tutto l'articolo la cosa che più mi ha interessato è la gestione indipendente dei voltaggi di ogni core nei futuri processori.

lucusta
14-12-2006, 18:24
chipset dx10 nel 2008: un anno di ritardo rispetto a vista!
piattaforma notebook aperta: ottima scelta, rimarranno spiu' economiche le soluzioni base.
fusion: finalmente!
xPU core: ottimo, ma si creera' una bella confusione
bisognera' prendere delle schede a 4 socket con 4 CPU/xPU differenti per fare tutto?
verrano proposte categorie di CPU a seconda delle prestazioni accellerate (e del costo)?

preferivo una soluzione che desse il minimo di accellerazione con la possibilita' di aumentare le prestazioni con l'affiancamento di una CPU uguale, ossia affiancando 2 CPU/xPU si aveva la possibilita' di sommare le pipeline delle GPU, degli accelleratori fisici, sommare i core ecc...
comunque e' ancora presto per parlarne..

Wilfrick
14-12-2006, 18:25
Queste "specializzazioni" mi ricordano un po' le gpu dx9, ma ora con dx10 hanno unificato tutto. con i proci si fa l'inverso? quindi avremo computer velocissimi per determinate cose e lentucci in altre... in sostanza mi dovrei comprare un computer per rendering, uno per editing video, uno per giocare...... ho capito male?

XP2200
14-12-2006, 18:30
Queste "specializzazioni" mi ricordano un po' le gpu dx9, ma ora con dx10 hanno unificato tutto. con i proci si fa l'inverso? quindi avremo computer velocissimi per determinate cose e lentucci in altre... in sostanza mi dovrei comprare un computer per rendering, uno per editing video, uno per giocare...... ho capito male?

E un discorso riservato al mercato Server/Workstation (difatti si parla di processori Opteron), in ambito casalingo non dovrebbe trovare applicazione, almeno non nel breve termine.

nullsoft
14-12-2006, 19:18
CORE DEDICATI?

vi rendete conto che la sezione processori sarà un delirio di preventivi e configurazioni???
:D :D :D :D :sofico: :sofico: :sofico:

scusate che core devo prendere? me ne serve uno per giocare a halo7, uno per i porno e uno per cracckare vista vero?

nonikname
14-12-2006, 19:25
Solo a me pare poco elegante il crossbar switch e il memory controller da condividere fra cpu e gpu ???

E un discorso riservato al mercato Server/Workstation (difatti si parla di processori Opteron), in ambito casalingo non dovrebbe trovare applicazione, almeno non nel breve termine.
A dire il vero non si parla solo di opteron : infatti , in ambito desktop , sarebbe utile avere , per es. , 6 core general pourpose e altri 2 specializzati per i calcoli sulla fisica e sull'I.A...
Ma con l'avvento delle DX10 questo discorso lascia il tempo che trova... Se non si hanno delle API adatte per utilizzare questi core , questa soluzione non è preferibile ad una GPU a shader unificati ...
Basta vedere cpsa possono fare 128 stream processor di una 8800GTX (http://www.hwupgrade.it/articoli/skvideo/1597/cuda.gif) cofronto un core duo 2 E6700 in ambito GP-GPU..

Di tutto l'articolo la cosa che più mi ha interessato è la gestione indipendente dei voltaggi di ogni core nei futuri processori.
Intel adotta questo sistema già da tempo...

kbytek
14-12-2006, 19:26
Marchio ati per i chipset Intel...ora si ragiona.

Dexther
14-12-2006, 19:28
edit :stordita:

imayoda
14-12-2006, 19:35
Alla faccia della modularità... però mi piace :D

AndreaG.
14-12-2006, 19:44
Parlando degli oteron dite

"i TDP delle cpu non cambieranno rispetto a quanto attualmente disponibile, e non è prevista per il momento l'adozione della memoria DDR2 per questa serie di processori; nel corso del 2007 le soluzioni Opteron adotteranno la tecnologia Hypertransport 3.0, come già del resto anticipato in precedenti articoli."

?? cioè? che memorie vanno su sti opteron? non mi dite che usano ancora le ddr1? :stordita:

MiKeLezZ
14-12-2006, 20:38
Sarebbe bello se ci fossero meno fatti su cui discutere e più processori da testare :)

leoneazzurro
14-12-2006, 20:41
Solo a me pare poco elegante il crossbar switch e il memory controller da condividere fra cpu e gpu ???


Si, perchè duplicare tutto? Senza contare che è la soluzione ideale se la GPU deve coadiuvare la CPU nei calcoli FP.


Intel adotta questo sistema già da tempo...


No. anzi, nelle CPU Intel attuali i core devono operare entrambi (o tutti e 4) alla medesima frequenza e voltaggio: http://download.intel.com/design/mobile/datashts/31407801.pdf

Vedi alla voce "Enhanced Intel speedstep", pagina 18, ultimo paragrafo in basso. Invece AMD già con Barcelona introdurrà frequenze separate per ogni core.



chipset dx10 nel 2008: un anno di ritardo rispetto a vista!


Beh, per Aero bastano e avanzano le DX9, per chi vuole giocare gli ultimi titoli serviranno GPU discrete.

brutus89
14-12-2006, 21:29
per il segmento desktop pensavo così:
una sk. madre cn due socktet, 1 per la cpu cn core general purpose (quelli attuali) e un altro per le cpu cn core dedicati. In questo modo l'utente che nn pretende molto dovrà semplicemente prendere un procio mentre per chi vuole di più sceglierebbe una cpu cn core dedicati.

Pier de Notrix
14-12-2006, 23:16
...tutte queste prospettive di nuove architetture, ma neanche per i dual core abbiamo applicazioni ottimizzate.
Ma quando creano questi processori i compilatori per creare applicazioni li distribuiscono???

Scrambler77
15-12-2006, 01:49
:asd:

nonikname
15-12-2006, 04:48
Si, perchè duplicare tutto? Senza contare che è la soluzione ideale se la GPU deve coadiuvare la CPU nei calcoli FP.

Quando la cpu e la gpu devono "interrogare" la ram nello stesso momento (situazione che avverrà quasi costantemente) ci saranno delle latenze esagerate.. e dato che un controller a 128bit è già tirato all'osso quando viene usato esclusivamente per la CPU o per la GPU...il tutto diventa ancora più complicato...
Basta vedere la tecnologia turbocache , che per lavorare ai limiti della decenza , ha bisogno di almeno 32Mb di ram dedicata per la gpu con controller a 64-128bit..
L'integrazione della gpu nel processore la vedo più come una soluzione di ripiego per costruire prodotti di fascia bassa al minor prezzo possibile , almeno fino a quando i pcb delle piastre madri non supporteranno agevolmente bus di memoria tipo quello della 8800gtx (256+128)

No. anzi, nelle CPU Intel attuali i core devono operare entrambi (o tutti e 4) alla medesima frequenza e voltaggio: http://download.intel.com/design/mo...ts/31407801.pdf

Vedi alla voce "Enhanced Intel speedstep", pagina 18, ultimo paragrafo in basso. Invece AMD già con Barcelona introdurrà frequenze separate per ogni core.

Vai a vedere nel link che mi hai postato : Clock control and low power states... :)

...."Clock Control and low power states

The intel core 2 Duo mobile processor supports low power states both at the individual core level and the package level for optimal power management. A core may independently enter the C1/autoHALT, C1/MWAIT, C2, C3 and C4 low power states.".....

bjt2
15-12-2006, 09:09
E' chiaro che le soluzioni con CPU e GPU integrate siano per il minor costo possibile... Per un PC da ufficio andrà benissimo... Anche per un NoteBook ultra-compatto e con consumi ridottissimi... I collegamenti esterni, il northbridge, il chip per fare da ponte tra HT e PCIex... Tutto eliminato... Rimarrà solo il southbridge, magari con scheda audio integrata... Un PC in soli due chip... Ottimo per gli UMPC (ex origami) o subnotebook leggeri, silenziosi e con autonomia astronomica (specialmente se abbinati ad HD solid state... )... Insomma... Il futuro si sta lentamente delineando... I PDA spariranno lentamente... ANche per la notizia delle prime pagine che anche i prodotti di consumer electronics di AMD (ex ATI) migreranno all'x86... Avremo Windows classico anche sui PDA...

leoneazzurro
15-12-2006, 09:31
Quando la cpu e la gpu devono "interrogare" la ram nello stesso momento (situazione che avverrà quasi costantemente) ci saranno delle latenze esagerate.. e dato che un controller a 128bit è già tirato all'osso quando viene usato esclusivamente per la CPU o per la GPU...il tutto diventa ancora più complicato...
Basta vedere la tecnologia turbocache , che per lavorare ai limiti della decenza , ha bisogno di almeno 32Mb di ram dedicata per la gpu con controller a 64-128bit..
L'integrazione della gpu nel processore la vedo più come una soluzione di ripiego per costruire prodotti di fascia bassa al minor prezzo possibile , almeno fino a quando i pcb delle piastre madri non supporteranno agevolmente bus di memoria tipo quello della 8800gtx (256+128)

I controller di memoria della prossima generazione di CPU AMD non saranno "128 bit" ma "2x64", quindi avranno maggiore granularità, il che potrebbe diminuire il problema degli accessi contemporanei. Ma la GPU integrata servirà soprattutto per la fascia bassa, è inutile sperare in soluzioni high end integrate su unico die, quindi non servono bus esagerati. Oggi le schede video high end hanno bandwidth nell'ordine degli 80 Gb/s. In un domani non lontano supereranno i 100 Gb/s. Con i moduli DDR3 standard (1200-1600 MHZ) ci vorrebbero controller di memoria a 6 canali per avere una banda paragonabile, il che significa schede madri di complessità estrema. Non che non si possa fare (i sistemi Itanium hanno soluzioni multicanale simili) ma i costi sarebbero fuori target.
L'obiettivo probabile è avere CPU+GPU senza Northbridge e solo un ulteriore chip di I/O (southbridge) per diminuire i costi nel settore Office e Notebook leggeri.


Vai a vedere nel link che mi hai postato : Clock control and low power states... :)

...."Clock Control and low power states

The intel core 2 Duo mobile processor supports low power states both at the individual core level and the package level for optimal power management. A core may independently enter the C1/autoHALT, C1/MWAIT, C2, C3 and C4 low power states.".....

Quelli NON sono frequenza e voltaggio ;) Se è per questo le CPU mobile di Intel possono spegnere selettivamente settori di cache e altre circuiterie logiche non utilizzati anche "sotto carico" per risparmiare energia. :)
Leggi il paragrafo che ti ho indicato:

"Each core in the processor implements an indipendent MSR for controlling Enhanced Intel Speedstep Technology, but both cores must operate at the same frequency and voltage. The processor has performance state coordination logic to resolve frequency and voltage requests from the two cores in a single frequency and voltage request for the package as a whole. If both cores request the same frequency and voltage, then the processor will transition to the requested common frequency and voltage. If the two cores have different frequency and voltage requests, then the processor will take the highest of the two frequencies and voltages as the resolved request and transition to that frequency and voltage"

Quindi i due cores possono gestire indipendentemente quali parti della circuteria spegnere, e quale "power state" (che non è legato a frequenza e tensione di alimentazione) impiegare, ma la tensione di alimentazione e la frequenza di entrambi sono indissolubilmente legate.

poz72
15-12-2006, 10:30
I controller di memoria della prossima generazione di CPU AMD non saranno "128 bit" ma "2x64", quindi avranno maggiore granularità, il che potrebbe diminuire il problema degli accessi contemporanei. Ma la GPU integrata servirà soprattutto per la fascia bassa, è inutile sperare in soluzioni high end integrate su unico die, quindi non servono bus esagerati.

Pienamente d'accordo. Una GPU integrata potrebbe semmai coadiuvare quella tradizionale (una sorta di crossfire).

L'unica alternativa potrebbe essre una GPU su uno zoccolo/slot separato con memoria dedicata collegata via HTT.

BTW anche il controller di memoria sarà alimentato separatamente

bonzuccio
15-12-2006, 10:43
Come ti vendo una cosa che non esiste, si spera che a restare maestri in questo siano sempre gli stessi.
Quardando le slide (se non riassumono troppo) sembrerebbe che a livello di server - workstation nel 2007 entra k10 con Barcellona e Budapest rispettivamente per sistemi a 2 - 8 socket e a un socket.. e sono tutti e due quadcore (!), del dual core k10 non v'è traccia :what:
per questa fascia i chipset continueranno a farli nvidia e broadcom :rolleyes:, ati si rompe la testa con fusion
per la fascia desktop in ordine di tempo prima arrivano i sostituti per 4x4 dell'attuale fx svenduto alla coppia a metà 2007poi arrivano per sistemi "normali" a un socket con am3 (e quindi ht3.0) che viene un po dopo rispetto ai 4x4 che li metteranno su ht1.0 per un periodo,
qui ritornano pure i dual core k10..
avremo molto di che confonderci, il dual core k10 arriva su am2 SOLO a fine 2007?
Se è cosi ci sfornassero quanti + proci a 65nm che attualmente passare ad intel da quelli a 90nm risulta davvero allettante

nonikname
15-12-2006, 12:59
L'obiettivo probabile è avere CPU+GPU senza Northbridge e solo un ulteriore chip di I/O (southbridge) per diminuire i costi nel settore Office e Notebook leggeri.
Su questo siamo in perfetto accordo..

Se è per questo le CPU mobile di Intel possono spegnere selettivamente settori di cache e altre circuiterie logiche non utilizzati anche "sotto carico" per risparmiare energia.
Si , se non sbaglio è gia dal 0,13 µm (Banias?) che si adotta questa soluzione..

Leggi il paragrafo che ti ho indicato.........If the two cores have different frequency and voltage requests...

E questo pasaggio che non capisco: "se i 2 core hanno richieste di frequenza e voltaggio differente..."
Allora queste richieste di freq. o voltaggio differenti sono le specifiche ottimali per quel pezzo di die (core) alle quali sarebbe impostato se fosse messo sul mercato come Core solo..??

T3mp
15-12-2006, 13:38
era l'ora!
faranno le cpu per giocare o per lavorare... esempio:
cpu a 8 core per giocare: 6gpu per la grafica e 2 per i calcoli
cpu a 8 core per lavorare: 2gpu per la grafica e 6per i calcoli

si delineerebbe anche una linea di vendita come le CPU per chi vuole giocare e le CPU per chi vuole lavorare e affanc**o alle schede video da 27cm e doppia alimentazione :D

leoneazzurro
15-12-2006, 13:49
E questo pasaggio che non capisco: "se i 2 core hanno richieste di frequenza e voltaggio differente..."
Allora queste richieste di freq. o voltaggio differenti sono le specifiche ottimali per quel pezzo di die (core) alle quali sarebbe impostato se fosse messo sul mercato come Core solo..??

le richieste vengono fatte in base al carico di lavoro: se questo carico di lavoro è identico per le due CPU, le richieste delle due circuiterie di controllo dello Speedstep concidono, se non è equamente ripartito le due richieste invece saranno differenti. Nel primo caso non c'è ovviamente problema, nel secondo caso invece "vince" la richiesta con tensione e frequenza più elevate.

bjt2
15-12-2006, 19:02
era l'ora!
faranno le cpu per giocare o per lavorare... esempio:
cpu a 8 core per giocare: 6gpu per la grafica e 2 per i calcoli
cpu a 8 core per lavorare: 2gpu per la grafica e 6per i calcoli

si delineerebbe anche una linea di vendita come le CPU per chi vuole giocare e le CPU per chi vuole lavorare e affanc**o alle schede video da 27cm e doppia alimentazione :D

Pensa che se si giocano bene le carte, non è nemmeno necessario... ;)

Mi spiego:

Pensa ad una enorme serie di unità FP. Il G80 ne contiene 128. Pensa a N thread CPU che si contendono queste unità, assieme ai pixel e vertex shader. Pensa ad una logica che da priorità ai "thread" GPU, o magari ad una logica programmabile. In 2D o comunque un 3D poco carico (ad esempio Aero glass), ci sarebbero più unità FP libere per i thread CPU. Quindi farebbero versioni di CPU-GPU che si distinguono per numero di unità FP (come ora l'8800 GTX ne ha 128 e il GTS ne ha 96), per il numero di TMU, di ROPs, magari anche ottimizzando le rese produttive disabilitando le unità venute male, e si distinguono infine anche per numero massimo di thread CPU (magari condividendo la cache L1 ed L2 e/o i decoder)... Le unita FP si potranno usare anche per gli interi oppure si potranno mettere unità intere a parte solo per le CPU... Questo sarebbe il massimo che si può ottenere da un pezzo di silicio. Se poi gli si fanno fare anche elaborazioni audio (con apposite unità che competono per le unità FPU), allora si potrà avere un sistema in un chip... E' una idea che mi frulla per la testa ormai da qualche anno e finalmente qualcuno potrebbe implementarla!

lucusta
15-12-2006, 23:07
bjt2,
sono anni che ne parliamo, ma mi sa' che dobbiamo attendere qualche altra decina di generazione prima di questo..
(eppure VIA, con il luke un po' aggiornato su unico die, lo potrebbe quasi gia' fare, e sfornare UMPC a rotta di collo, piu' di apple con gli i-pod)

Pier de Notrix
16-12-2006, 13:21
Invece di fare proci a 4 core, perké nn mi danno 4 proci al prezzo di uno o, meglio, 1 procio a un quarto del prezzo???

skyscream73
05-01-2007, 12:14
Penso che AMD stia per intraprendere la strada giusta. Anche perchè sebbene intel abbia costruito in via sperimentale un processore a 80 core utilizzando chissà quali stratagemmi, siamo ben lontani dall'utilizzo massiccio multicore. Mi spiego meglio: un quad core 2,66 GHZ consuma circa 130 Watt (una enormità)! Overcloccato a 3,2 ghz secondo test trovati in rete arriviamo a 300 Watt. Nel complesso tutto il computer porebbe consumare 380 watt circa, e se aggiungiamo una scheda grafica da "urlo" potremmo arrivare a quasi 600 watt. (Mancherebbe ancora il monitor). Questi consumi elettrici attualmente rendono impossibile il multicore massiccio. Nel corso dell'anno si spenderebbe più denaro in elettricità che per costruirsi il PC!!
L'architettura "modulare" di AMD senza dubbio ottimizerebbe il tutto a seconda dell'uso che si deve fare del PC.
Secondo me bisognerebbe ingeniarsi per costruire il microprocessore non intermini planari 2d, ma escogitare una architettura che permetta di costruire un prcessore 3d, in tredimensioni: per esempio un cubo potrebbe accogliere sei processori (magari 3 gpu e 3 cpu) con al centro la memoria cache condivisa da tutti i core (fantascienza!!??hehehe). In fondo se prendiamo come modello il cervello umano non è certo fondato su una architettura 2d, anzi è estrememente 3d. Se lo spiaccicassimo su una superficie piana occuperebbe (non ricordo ora) almeno un centinaio di m2 (credo). Noi non è che abbiamo tre o quattro cervelli, ne abbiamo uno soltanto, e la sua caratteristica principale è quello di essere un sistema enormemente parallelo, collegato da miliardi e miliardi di connessioni sinaptiche. Quindi si al multicore, ma perfavore, bisogna migliorare enormemente il calcolo parallelo dei singoli core (il cervello di ogni core!)
Vado un attimo in psichiatria..

bonzuccio
05-01-2007, 12:20
In fondo se prendiamo come modello il cervello umano non è certo fondato su una architettura 2d, anzi è estrememente 3d. Se lo spiaccicassimo su una superficie piana occuperebbe (non ricordo ora) almeno un centinaio di m2 (credo).


:mbe: :Puke: