Entra

View Full Version : AMD Fusion in demo: i benefici della GPU


Redazione di Hardware Upg
11-06-2010, 07:48
Link alla notizia: http://www.hwupgrade.it/news/cpu/amd-fusion-in-demo-i-benefici-della-gpu_32878.html

AMD effettua nuove dimostrazioni della propria architettura Fusion, nella quale trovano posto GPU e CPU nello stesso package

Click sul link per visualizzare la notizia.

Spantegu
11-06-2010, 08:12
quest'omino fa quasi tenerezza :) nel suo sforzo inutile di pubblicizzare winamd

demon77
11-06-2010, 08:18
Ok.. ma questi benefici saranno comunque presenti su qualsiasi pc sfruttando la normale sk video giusto?
Cioè, non è che affiancata alla cpu ci sia una GPU speciale, ha solo il vantaggio di essere tutto in uno..

Come soluzione è ottima per i piccoli sistemi, io attendo di vedere prove sul campo di come questo vantaggio si combina con una sk video che monta una gpu di fascia alta!

lowenz
11-06-2010, 08:24
Esatto, il "vantaggio di essere tutto in uno" come dici tu essenzialmente è la riduzione delle latenze nella comunicazione e del consumo per effettuarla.

zappy
11-06-2010, 08:27
mi preoccupa un po' la necessità di usare dei driver per far funzionare la CPU...
perchè la parte GPU necessita di driver proprietari, vero?

beppe90
11-06-2010, 08:34
mi preoccupa un po' la necessità di usare dei driver per far funzionare la CPU...
perchè la parte GPU necessita di driver proprietari, vero?

io penso che molto semplicemente verranno rilasciati dei driver che andranno a riconoscere semplicemente la GPU all'interno della CPU, insomma dei driver che funzionano come per le schede video normali, solo che invece di cercare la scheda sulla mainboard andrà a cercarla nel processore.

v1nline
11-06-2010, 08:36
"E' da rimarcare come questi demo siano in realtà più una testimonianza diretta dell'importanza di avere una GPU di buona potenza elaborativa all'interno del proprio sistema, che sia integrata in CPU o chipset oppure di tipo discreto poco importa."

mi pare invece chiaro che questa pubblicità è indirizzata a quelle aziende che hanno bisogno di un parco macchine entry level per l'ufficio. vogliono convincerli che anche loro hanno bisogno di una gpu decente.

calabar
11-06-2010, 08:37
Per il momento il vantaggio è quello.
In futuro si spera che questo paradigma, supportato dal software, raggiunga gli obiettivi sperati dando vista ad un processore (o meglio, APU) equilibrato capace di grande efficienza in ogni campo, per cui l'affiancamento ad una scheda video discreta non sia una sovrapposizione, ma un'aggiunta necessaria per chi desidera avere maggiore potenza in ambito videoludico e 3D in generale o necessiti di operare grandi masse di calcoli adatti alla struttura GPU.

In sostanza cioè l'unità gpu integrata non va vista come le odierne vga integrate nei chipset (o inserite nei package dei processori) come una dedicata alla grafica integrata per motivi di costi, spazio o consumi, bensì come un'estensione delle capacità di calcolo del processore in certi ambiti.

Appare ovvio che se tale unità dovesse essere sfruttata per tali scopi (ossia calcoli per cui di norma si usa il processore), chi necessitasse di una VGA dovrebbe comunque ricorrere ad un'unità esterna.
Per capirci, facciamo un esempio con i giochi: se l'unità gpu integrata venisse usata per la fisica (compito diciamo tipico della cpu, in cui le unità gpu però sono più efficienti), avremo comunque bisogno di una vga esterna per la grafica.

DeAndreon
11-06-2010, 08:48
Scusate ma la preoccupazione che avete riguardante l'accerelazione tramite gpu del browser è assolutamente inutile in quanto i browser futuri sfrutteranno le gpu attualmente in commercio. Poi dipende da browser a browser quale supporteranno. Io con una nvidia 7600gs ho fatto la demo che fa vedere nel video con risultati davvero soddisfacenti (non a livello però di quelli mostrati ma si avvicinano :))

beppe90
11-06-2010, 08:55
Per il momento il vantaggio è quello.
In futuro si spera che questo paradigma, supportato dal software, raggiunga gli obiettivi sperati dando vista ad un processore (o meglio, APU) equilibrato capace di grande efficienza in ogni campo, per cui l'affiancamento ad una scheda video discreta non sia una sovrapposizione, ma un'aggiunta necessaria per chi desidera avere maggiore potenza in ambito videoludico e 3D in generale o necessiti di operare grandi masse di calcoli adatti alla struttura GPU.

In sostanza cioè l'unità gpu integrata non va vista come le odierne vga integrate nei chipset (o inserite nei package dei processori) come una dedicata alla grafica integrata per motivi di costi, spazio o consumi, bensì come un'estensione delle capacità di calcolo del processore in certi ambiti.

Appare ovvio che se tale unità dovesse essere sfruttata per tali scopi (ossia calcoli per cui di norma si usa il processore), chi necessitasse di una VGA dovrebbe comunque ricorrere ad un'unità esterna.
Per capirci, facciamo un esempio con i giochi: se l'unità gpu integrata venisse usata per la fisica (compito diciamo tipico della cpu, in cui le unità gpu però sono più efficienti), avremo comunque bisogno di una vga esterna per la grafica.

ah ok grazie adesso mi hai chiarito le idee, io avevo inteso come se fossero delle vere e proprie GPU, invece danno solo una mano in più alla CPU aggravandosi i calcoli che di solito li competono, okok grazie per la delucidazione :D

cruelboy
11-06-2010, 09:03
[OT]
però che tristezza... leggere una news su AMD FUSION e trovarsi a lato le pubblicità di vendita del GILLETTE FUSION... :help:

ecco un modo per aumentare la fiducia in un'azienda :sofico: :sofico: :sofico:

[FINE OT]

calabar
11-06-2010, 09:06
@beppe90
Mi hai messo il dubbio di non essermi spiegato bene ^____^
Si tratta di in realtà di vere e proprie GPU, sono cioè in grado di svolgere i compiti che attualmente svolgono le gpu (integrate o discrete che siano).
Ma non è questo il punto: nel progetto fusion la gpu integrata non vuole essere una semplice scheda video, ma vuole diventare un'unità di supporto alla cpu o, meglio, una parte integrante della APU destinata ai calcoli di un certo tipo. Ovviamente software permettendo.
Pensarla solo come una scheda video insomma è un po' riduttivo, per lo meno significa non aver compreso dove il progetto fusion vuole arrivare. Anche se per arrivare a questo ci vorrà del tempo.

ConteZero
11-06-2010, 09:29
Quindi per fare l'upgrade del lato grafico o cambio tutto il processore o mi tocca disabilitare parte di quello che ho pagato ed usare una scheda discreta, giusto ?

FIKISSIMO!

E'una strada che spunta, sicuramente :asd:


...ma io dico, ma andare da Sony e farsi licenziare le tecnologie necessarie per mettere una botta di SPE (che si possono usare sia come CPU che come acceleratori GPU) suonava male ?

zappy
11-06-2010, 09:46
io penso che molto semplicemente verranno rilasciati dei driver che andranno a riconoscere semplicemente la GPU all'interno della CPU, insomma dei driver che funzionano come per le schede video normali, solo che invece di cercare la scheda sulla mainboard andrà a cercarla nel processore.

se si punta al fatto che queste GPU siano in realtà adatte a calcoli non solo video ma generici, il fatto che funzionino solo con driver proprietari mi da molto fastidio, perchè in pratica si tratta di CPU castrate

se si tratta di estensioni delle istruzioni come MMX o SSE, il discorso cambia.

ConteZero
11-06-2010, 09:57
se si punta al fatto che queste GPU siano in realtà adatte a calcoli non solo video ma generici, il fatto che funzionino solo con driver proprietari mi da molto fastidio, perchè in pratica si tratta di CPU castrate

se si tratta di estensioni delle istruzioni come MMX o SSE, il discorso cambia.

Credo che uno shader/unità nVidia ed un equivalente ATi (per non tirare in ballo gli altri) si assomiglino come pere e banane, per cui è ovvio che nativamente (senza driver/interpreti e similia) non puoi programmarli "omogeneamente".

dr-omega
11-06-2010, 10:00
quest'omino fa quasi tenerezza :) nel suo sforzo inutile di pubblicizzare winamd

Vero, dovrebbero imparare a fare marketing da altri...

Potrei suggerire ad Amd questa strategia vincente:

-includere il suo hardware in una scatoletta bianca lucida dagli spigoli arrotondati
-descrivere le funzioni di "Fusion" come "magiche"
-donare alle testate giornalistiche molti più soldi della concorrenza, per fare in modo che il nome "Fusion" sia pronunciato "ad cazzum" anche dal verduriere sotto casa
-aumentare il prezzo di listino del 50% almeno
-blindare il tutto con applicazioni ridicole a pagamento che funzionano solo con "Fusion"

Se seguiranno alla lettera queste indicazioni venderanno a pacchi e ci saranno file di esauriti con la bava alla bocca fuori dai negozi.

:Prrr:

dany700
11-06-2010, 10:13
@beppe90
Mi hai messo il dubbio di non essermi spiegato bene ^____^
Si tratta di in realtà di vere e proprie GPU, sono cioè in grado di svolgere i compiti che attualmente svolgono le gpu (integrate o discrete che siano).
Ma non è questo il punto: nel progetto fusion la gpu integrata non vuole essere una semplice scheda video, ma vuole diventare un'unità di supporto alla cpu o, meglio, una parte integrante della APU destinata ai calcoli di un certo tipo. Ovviamente software permettendo.
Pensarla solo come una scheda video insomma è un po' riduttivo, per lo meno significa non aver compreso dove il progetto fusion vuole arrivare. Anche se per arrivare a questo ci vorrà del tempo.

Non credo ci vorrà molto tempo....sarà fruibile da subito.
Certo non al 100%...ma anche ipotizzando al lancio, una scarsa ottimizzazione...questa "chicca" non ha concorrenza, è una leadership tecnologica unica, Intel con il flop di larrabee ed Nvidia con il suo FMF (Forno Mobile Fermo :banned: ) brancoleranno nel BUIO per parecchio tempo...e Fusion come tale, rappresenta il cavallo da battaglia di AMD per aggredire il mercato mobile da OGNI punto di vista...pertanto, alla luce del lavoro che ha compiuto in questi ultimi anni, ritengo che centrerà l'obiettivo.

Già oggi con Vision, non c'è storia...nè paragoni...per quanto riguarda il rapporto qualità prezzo dall'entry level al top di gamma (in quest'ultimo caso...per avere il 10-15% di prestazioni generali in più con INTEL...occorre sborsare almeno il 40-50% in più rispetto ad AMD).

Fra un anno e forse meno...ne vedremo delle belle...tutto di guadagnato per noi acquirenti. Rovescio della medaglia: se Fusion effettivamente rispetterà le aspettative nell'immediato...potremo pure dire addio al brand verde in questo mercato.:doh: ...che è già da un po' di tempo compromesso per la mancanza di un'alternativa alla serie 5xxx di Ati.

PeK
11-06-2010, 10:13
[OT]
però che tristezza... leggere una news su AMD FUSION e trovarsi a lato le pubblicità di vendita del GILLETTE FUSION... :help:

ecco un modo per aumentare la fiducia in un'azienda :sofico: :sofico: :sofico:

[FINE OT]

:asd:

ConteZero
11-06-2010, 10:14
Ma la vera domanda è....

WILL IT BLEND ?

calabar
11-06-2010, 10:16
@ConteZero
Leggi il mio primo commento a questa news.
Non c'è alcun lato grafico da "upgradare", in quanto le unità GPU integrate saranno unità di supporto alla cpu, non schede video integrate come quelle a cui siamo abituati oggi.
O meglio... certo saranno schede video integrate, ma lo scopo del progetto fusione è ben differente da quello di fornirti una scheda video insieme ad un processore. Lo scopo è fornirti un processore, o meglio APU, capace di sfruttare la propria parte GPU per calcoli fortemente paralleli (software permettendo, ovviamente).
Quindi se vorrai aggiornare la scheda video potrai farlo, ma non per questo dovrai disabilitare quella integrata considerando la cosa uno spreco.

ConteZero
11-06-2010, 10:20
@ConteZero
Leggi il mio primo commento a questa news.
Non c'è alcun lato grafico da "upgradare", in quanto le unità GPU integrate saranno unità di supporto alla cpu, non schede video integrate come quelle a cui siamo abituati oggi.
O meglio... certo saranno schede video integrate, ma lo scopo del progetto fusione è ben differente da quello di fornirti una scheda video insieme ad un processore. Lo scopo è fornirti un processore, o meglio APU, capace di sfruttare la propria parte GPU per calcoli fortemente paralleli (software permettendo, ovviamente).
Quindi se vorrai aggiornare la scheda video potrai farlo, ma non per questo dovrai disabilitare quella integrata considerando la cosa uno spreco.

Beh, una volta che vorrai aggiornare l'APU dovrai farlo (e/o se la scheda video ha un APU incompatibile con quello sulla GPU discreta).
Torno a ripetermi... c'è un architettura tanto carina nota come CELL che sembra promettere tanto bene (e che ha ISA liberamente consultabile)... costa tanto mettere degli SPE anziché inventarsi ammemmicoli vari (di cui NON riveleranno mai i dettagli architetturali) da usare con appositi driver ?

Devil402
11-06-2010, 10:34
@ConteZero: Cell non lo ca*a nessuno perchè ha prestazioni ridicole nel calcolo di tipo General Purpose...E' utile solo nel calcolo vettoriale, figurati che gliene frega ad AMD...Fusion rappresenta il futuro delle CPU, avere un unica unità che sia mediamente prestante in campo video e general purpose, significa avere un sistema performante e con consumi minori...Se vuoi aggiornare l'APU, cosa assolutamente stupida secondo me, la cambi e basta. Come per le normali CPU solo che queste, hanno una marcia in più....senza contare poi, che se vuoi un lato video più prestante, come detto da calabar, non hai mica bisogno di cambiare l'APU...semplicemente, aggiungi un posto a tavola e mettiti una GPU...I problemi di incompatibilità tra APU e GPU, inoltre, non ci sono...Almeno non su Seven, che integra appunto, un sistema per utilizzare schede video di diversi produttori senza problemi...su altri sistemi, non saprei, ma comunque su quest'ultimo, non ce ne sono proprio di problemi e dubito ci siano anche su altri...scusami che te lo dico, ma se ho un APU AMD, non compro una GPU Nvidia...ma in ogni caso, credo non ci siano problemi in quanto uno dovrebbe avere driver che si occupano di una CPU con GPU integrata e perfettamente inglobata, l'altro è semplicemente un driver per scheda video...i problemi di incompatibilità o di conflitti tra le due periferiche, non ci dovrebbero assolutamente essere...

ConteZero
11-06-2010, 10:47
La storia del calcolo "general purpose" fa molto console war.
Gli acceleratori grafici sono essenzialmente unità vettoriali... se poi fusion và bene anche sui SISD auguri... ma dubito che sia così superiore (bench alla mano) rispetto ai CELL.


Peraltro, come ho già detto, la differenza fra lavorare su una PU (compilando codice per la PU stessa) e scriverci metacodice da dover reinterpretare/ricompilare JIT penso sia abbastanza "grossa" da vanificare buona parte dei "vantaggi" della seconda.

calabar
11-06-2010, 11:28
ConteZero
Come faceva notare Devil402, non ha senso parlare di upgrade della sola scheda video.
La parte GPU di fusion sarà una parte del processore, e se giudicherai il tuo processore obsoleto, lo cambierai in blocco.
Esempio un po' tirato per i capelli, ma per capirci va bene, è come se tu oggi volessi mantenere il tuo processore e ti lamentassi perchè non puoi cambiare quella parte della pipeline relativa alle istruzioni SSE perchè vuoi prenderne una più moderna che supporta SSE4 mentre la tua supporta solo SSE3.
Ovvio che se desideri le SSE4 pensi semplicemente a cambiare processore.

Inoltre non vedo questa necessità di una compatibilità: con la GPU integrata non devi fare un crossfire con la scheda discreta, ma usarla per calcoli da CPU in cui la GPU lavora meglio.
Quindi quale sia la scheda discreta poco ti importa, l'importante è che lavori come deve.

Per quanto riguarda i Cell, dovrebbe farti pensare il fatto che la PS3, oltre il Cell, abbia integrato una scheda video nvidia. Evidentemente il Cell non è così spinto su quel tipo di applicazioni, le GPU sono più efficaci, per il resto c'è la parte CPU dell'APU.
Questo poi al di la del discorso che AMD non avrebbe alcun interesse ad investire su cell, quando, vendendo anche schede video, può curare con un unico sforzo sia la parte gpu delle sue apu che le schede video discrete. Che senso avrebbe aggiungere un ulteriore elemento che fa la stessa cosa quando già si sta lavorando, si ha un certo know how e si possiede qualcosa di simile?

ConteZero
11-06-2010, 11:44
Infatti pensando a Fusion mi viene in mente proprio la PS3, ovvero una serie di processori SPE affiancati alla CPU che svolgono operazioni anche complesse in accordo alla CPU e "guidano" la GPU.

Ci sono solo un paio di problemi di mezzo...
...sulla PS3 funziona perché:
1. si programmano gli SPE, non si lavora con codice da compilare JIT
2. SPE e scheda grafica sono un "monoblocco" per i programmatori, che possono controllare fin nel più piccolo dettaglio l'interazione fra l'una e l'altra
3. la PS3 è un architettura "rigida"

I rischi sono:
1. Se domani volessi che l'APU fosse più performante dovrei cambiare la CPU
2. L'iterazione "perfetta" è possibile solo se c'è "sinergia" fra APU e GPU discreta
3. Stiamo nelle mani di quanto i programmatori vorranno usare l'APU

E questo sempre sperando che nVidia s'adegui (perché se nVidia inizia a lavorare per mettere i bastoni all'APU la tecnologia nasce e muore su AMD/ATi).

Al di là di questo una considerazione:
Sono stato uno dei pochi possessori di una sfigatissima scheda prodotta da Matrox, la M3D. Costava tanto, anziché spendersi per ficcare una GPU nella CPU (for no particular reason) fare dei processori ACCELERATORI (come Toshiba ha provato a fare con gli SPE) da ficcare su slot PCIe ?

Capellone
11-06-2010, 11:47
il mio prossimo Upgrade: gillette Fusion :D
mi pialllo la barbazza con l'accelerazione della GPU e ci gira anche Crysis.

ma io spero che non ci vogliano le DX11 per vedere quelle cavolate del browser e di Office...

Trokji
11-06-2010, 12:03
CI troviamo sicuramente di fronte ad una "svolta", come è stato il passaggio dal single core al multi core. Sicuramente se microsoft inizia a supportare l'accelerazione gpu nel suo nuovo sistema operativo per i vari applicativi c'è la possibilità che ci sia un vasto utilizzo.. una soluzione come fusion in pochi anni potrebbe permettere di avere a parità di prezzo decine di volte la potenza di una normale cpu in moltissime applicazioni.. insomma una bella accelerazione del progresso

calabar
11-06-2010, 12:08
Riguardo ai punti che hai espresso, posso dirti la mia su alcuni:

Problemi:
2) è lo stesso risultato che si vuole ottenere con Stream, capace di dividere adeguatamente i carichi di lavoro, OpenCL, e immagino DirectCompute.
I programmatori scriveranno cioè i programmi utilizzando strumenti che permetteranno alla apu di dividere il carico nel modo migliore possibile.

Rischi:
1) non dovrebbe essere un problema: le apu saranno fatte in modo da bilanciare la parte cpu con quella GPU. Quando sentirai il bisogno di cambiare quella gpu, probabilmente cambierai anche quella cpu.
Del resto, riprendendo l'esempio di prima, è come se oggi volessi cambiare la pipeline in virgola mobile lasciando quella degli interi.
Se poi per ciò che fai necessiti di uno sbilanciamento verso i calcoli operati dalla gpu, puoi sempre rimediare acquistando una gpu discreta.
2) Non necessariamente. In situazioni normali la GPU si potrebbe occupare di fare da scheda video, mentre la parte GPU della apu di fare calcoli GP. Senza interazione.
3) ovviamente... o per lo meno, di quanto i programmatori utilizzeranno piattaforme e linguaggi che permetteranno di utilizzare la parte GPU quando necessario. Ma questo è ovvio, anzi, è proprio il punto focale della questione. E su questo convergeranno gli sforzi dal lato software.

Quello degli acceleratori è un concetto molto differente, così come quello della cpu modulari (su cui AMD in passato aveva tirato fuori diverse idee). Qui si va verso l'integrazione è l'efficienza.
Negli altri casi invece il concetto di base mi sembra più quello della "potenza on demand".
Del resto gli acceleratori su slot pciE li abbiamo già: le schede video per il GpGPU.

Capozz
11-06-2010, 12:46
Quindi per fare l'upgrade del lato grafico o cambio tutto il processore o mi tocca disabilitare parte di quello che ho pagato ed usare una scheda discreta, giusto ?

FIKISSIMO!

E'una strada che spunta, sicuramente :asd:


...ma io dico, ma andare da Sony e farsi licenziare le tecnologie necessarie per mettere una botta di SPE (che si possono usare sia come CPU che come acceleratori GPU) suonava male ?

1) La gpu integrata in Llano si può usare anche per la grafica ovviamente, ma lo scopo principale è quello di coadiuvare la cpu in determinati calcoli, per il resto si usa la gpu discreta. Quando diventa osblosela cambi cpu e gpu in blocco come faresti con una cpu normale, un cell o similia.
2) In casa AMD sia le licenze x86 che le gpu migliori, per quale motivo dovrebbero andare a regalare soldi a Sony ?
3) La gpu integrata in Llano è paragonabile ad una 4650 (320sp) ergo quasi 500 Gigaflops...quante spu dovresti schiaffarci dentro, ammesso che sia possibile, per avere una simile potenza di calcolo ?



E questo sempre sperando che nVidia s'adegui (perché se nVidia inizia a lavorare per mettere i bastoni all'APU la tecnologia nasce e muore su AMD/ATi).



E come potrebbe ? Nvidia, specialmente in questo periodo, non è propriamente in una situazione di forza, non credo che possa mettere i bastoni tra le ruote a qualcuno. Non può produrre cpu, è fuori dal mercato chipset e sta prendendo sonore mazzate anche nel comparto gpu.

lucabeavis69
11-06-2010, 12:55
[OT]
però che tristezza... leggere una news su AMD FUSION e trovarsi a lato le pubblicità di vendita del GILLETTE FUSION... :help:

ecco un modo per aumentare la fiducia in un'azienda :sofico: :sofico: :sofico:

[FINE OT]

:D Ma ancor di più stona quella del Mediaworld, che c'entra con AMD come i cavoli a merenda :p

ConteZero
11-06-2010, 13:03
Contare i gigaflops delle unità ATi è un po'una cavolata, anche perché le architetture sono abbastanza peculiari (qualcuno direbbe "orientate al calcolo vettoriale"):

http://www.ixbt.com/video3/images/rv770/rv770_diag.png

RV770 block diagram

...per cui a meno di casi molto favorevoli a disposizione hai molta meno potenza.

Peraltro se un X4 940 (che non è esattamente "piccolo") arriva, tirato, a meno di 8 GFlops è difficile restare seri pensando che con die size simili si riescano a fare processori non strettamente specializzati capaci di sparare 500 GFlops...
...se AMD fosse capace di fare tali architetture "general purpose" a prezzi modici sarebbe solo che scema a continuare a propinare i PhenomII.

elevul
11-06-2010, 14:01
Ottimo.
Voglio un eeebox ed un acer 7540g con fusion, ora. :D

ilmassa1
11-06-2010, 14:06
Un punto di svolta importante, prestazioni e efficienza >>>

ConteZero
11-06-2010, 14:12
Un punto di svolta importante, prestazioni e efficienza >>>

E'quello che tutti i PR hanno detto di tutte le tecnologie dall'invenzione della pubblicità ad oggi.

calabar
11-06-2010, 14:13
@ConteZero
Secondo me parti dal presupposto sbagliato.
L'uso della gpu diventa conveniente proprio nei casi in cui abbiamo istruzioi vettoriali e calcolo fortemente parallelo.
Entrambe situazioni che tendono ad avvicinare la potenza di calcolo reale a quei 500 GFlops teorici di cui puoi arrivare a disporre una gpu come quella.

Il paragone che fai non ha molto senso: è un po' come confrontare le mele con le pere.
Gli 8 Gflops del 940 sono molti meno a parità di area proprio perchè si tratta di un'architettura poco parallela (rispetto ad una GPU), molto più flessibile e appesantita dalle istruzioni x86 che, se non utilizzate, sono solo un peso (senza contare la questione retrocompatibilità).
Non puoi pretendere che con queste premesse si possa avere un'area del die paragonabile a parità di flops.

ConteZero
11-06-2010, 14:34
@ConteZero
Secondo me parti dal presupposto sbagliato.
L'uso della gpu diventa conveniente proprio nei casi in cui abbiamo istruzioi vettoriali e calcolo fortemente parallelo.
Entrambe situazioni che tendono ad avvicinare la potenza di calcolo reale a quei 500 GFlops teorici di cui puoi arrivare a disporre una gpu come quella.

Il paragone che fai non ha molto senso: è un po' come confrontare le mele con le pere.
Gli 8 Gflops del 940 sono molti meno a parità di area proprio perchè si tratta di un'architettura poco parallela (rispetto ad una GPU), molto più flessibile e appesantita dalle istruzioni x86 che, se non utilizzate, sono solo un peso (senza contare la questione retrocompatibilità).
Non puoi pretendere che con queste premesse si possa avere un'area del die paragonabile a parità di flops.

La domanda sorge spontanea... ma se è un lavoro da GPU, che si parallelizza bene sulle GPU, che è pratico negli ambiti delle GPU e che rende nelle applicazioni con le GPU e la cui architettura assomiglia a quella delle GPU... perché non usare le GPU ?
Perché appiccicare questo coso sulla CPU ?
Perché non metterlo, ad esempio, su una scheda PCIe ?

Devil402
11-06-2010, 14:46
Ma senti, non hai pensato ad i sistemi notebook e di piccole dimensioni? sai che significa avere un APU tricore con gpu simile alla serie 4xxx a livello di potenziale teorico con librerie dx11? praticamente, un salto in avanti per questi sistemi. Per i desktop invece? le soluzioni attuali da supermercato, con grafica integrata ridicola, diverrebbero soluzioni semplicemente ottime per prezzo/consumo/prestazioni...non è assolutamente paragonabile all'accoppiata CPU e GPU, ma ha uno scopo ben definito...

ConteZero
11-06-2010, 14:52
Ma senti, non hai pensato ad i sistemi notebook e di piccole dimensioni? sai che significa avere un APU tricore con gpu simile alla serie 4xxx a livello di potenziale teorico con librerie dx11? praticamente, un salto in avanti per questi sistemi. Per i desktop invece? le soluzioni attuali da supermercato, con grafica integrata ridicola, diverrebbero soluzioni semplicemente ottime per prezzo/consumo/prestazioni...non è assolutamente paragonabile all'accoppiata CPU e GPU, ma ha uno scopo ben definito...

Guarda che già oggi Congo ha una bella GPU ATi 3200 integrata nel southbridge.
E per quello che deve fare un netbook 720p basta ed avanza.
Servisse una GPU più potente si potrebbe sempre "gonfiare" la GPU, non è mica necessario ficcarne pezzi nella CPU.

elevul
11-06-2010, 14:59
Guarda che già oggi Congo ha una bella GPU ATi 3200 integrata nel southbridge.
E per quello che deve fare un netbook 720p basta ed avanza.
Servisse una GPU più potente si potrebbe sempre "gonfiare" la GPU, non è mica necessario ficcarne pezzi nella CPU.

Ok, ma se metti la gpu nel southbridge poi devi mettere un dissipatore pure su quello, mentre se la metti nella cpu basta un unico dissipatore per entrambe... :asd:

ConteZero
11-06-2010, 15:05
Ok, ma se metti la gpu nel southbridge poi devi mettere un dissipatore pure su quello, mentre se la metti nella cpu basta un unico dissipatore per entrambe... :asd:

Il problema non è mettere un altro dissipatore, il problema è l'opposto, è distribuire meglio il calore.
I portatili si friggono perché le CPU già ora scaldano troppo (ed appena il dissipatore inizia ad impolverarsi iniziano a "soffrire")... accentrarvi anche la GPU è quantomeno... questionabile.

Tsaeb
11-06-2010, 15:06
l'integrazione di una GPU nella CPU è forse la prima vera evoluzione in ambito X86 degli ultimi 10 anni. Ora dobbiamo solo sperare che il software si adegui di conseguenza. Le premesse ci sono tutte.

Devil402
11-06-2010, 15:08
No, chiariamo...un unico chip riduce di molto i consumi e di certo, un solo dissipatore invece di 2, da che mondo e mondo, conviene. Oltretutto, l'hai detto anche te...Congo integra una 3200...basta ed avanza, ma se un prodotto offre di più anche con vantaggi per quanto riguarda dimensioni e consumi, perchè non dovrebberlo lanciarlo? oltretutto, non si parla di vantaggi da poco per un netbook, notebook o quant'altro...

ConteZero
11-06-2010, 15:23
In quel caso il problema è il calore prodotto.

Avere due fornetti a dieci centimentri significa poterli raffreddare singolarmente, quindi puoi usare due dissipatori ed un sistema meno "spinto".
Avere due fornetti unificati significa dover raffreddare in un unica passata, significa più calore a parità di superficie di dissipazione.

Quanto all'unico chip (SOC ?) ne riparliamo quando oltre all'elaborazione stream dei flussi nella CPU metti pure tutto il resto dei componenti che in genere si trova nel bridge.

In ultimo 320 stream processor consumano, scaldano ed occupano lo stesso die size sia sul bridge che sulla CPU.

Devil402
11-06-2010, 15:33
Come se avessero semplicemente portato i 320 stream processor all'interno della cpu -.-" il calore prodotto è legatissimo ai consumi, se io ho un chip che mettiamo caso, consuma 25W ed uno che ne consuma 30W, ho più calore di un singolo chip con consumo pari a 40W...senza considerare le varie ottimizzazioni per risparmio energetico ed altro, che sicuramente, saranno implementate in Fusion...Al momento, comunque, CPU e GPU sono affiancate ma è diverso dal sistema adottato da intel con la serie Core...Fusion 2, sarà un unico chip in grado di fare le due cose, con consumi e calore ovviamente ridotti...

ConteZero
11-06-2010, 15:37
Come se avessero semplicemente portato i 320 stream processor all'interno della cpu -.-" il calore prodotto è legatissimo ai consumi, se io ho un chip che mettiamo caso, consuma 25W ed uno che ne consuma 30W, ho più calore di un singolo chip con consumo pari a 40W...senza considerare le varie ottimizzazioni per risparmio energetico ed altro, che sicuramente, saranno implementate in Fusion...Al momento, comunque, CPU e GPU sono affiancate ma è diverso dal sistema adottato da intel con la serie Core...Fusion 2, sarà un unico chip in grado di fare le due cose, con consumi e calore ovviamente ridotti...

Ok, ma le ottimizzazioni per abbassare i consumi e quindi il calore prodotto li fanno sia che gli gream processor siano sulla CPU sia che siano nel NB... non è che magicamente nella CPU scaldano meno.
Anzi, nella CPU dovendo avere a che fare con il calore prodotto dalla CPU stessa probabilmente consumeranno (e scalderano) di più (perché bisognerà voltarli un po'più sù per tenerli stabili a temperature più alte).
Ed "impilando" core "grafici" e CPU nello stesso chip il calore generato "nel punto" sarà notevolmente superiore, e difficile da dissipare.

E non ci vuole molto a capire che se c'è più roba che lavora (as in quad core vs dual core a pari processo produttivo) c'è più roba che scalda, quindi più calore e quindi più rogne per la dissipazione.

calabar
11-06-2010, 15:55
@ConteZero (#35)
Ma quella che devi porti è proprio la domanda contraria:
"Se la GPU svolge tanto bene compiti "da CPU", ossia general purpose, perchè continuare a sviluppare CPU che arrancano dove la GPU va tanto bene e non integrare una GPU dentro la CPU?"

In questo modo avremo a disposizione un'unità equilibrata, capace di essere forte da ogni punto di vista.
Quando il software sarà davvero adeguato si potrà fare a meno di elementi CPU che verranno surclassati da quelli GPU, con notevole risparmio di spazio e calore.
Fino ad allora avremo comunque vantaggi notevoli: hardware semplificato (controller e cache condivise), maggiore integrazione (riduzione di latenze e costi per hardware accessori), minori consumi, accesso anche per la parte GPU alle tecnologie produttive più avanzate usate per la GPU (il SOI, nel caso di AMD, e anche il processo più fine rispetto a quelle generalmente più economico solitamente usato per i chipset), e soprattutto non rimane silicio sprecato perchè fa le veci della scheda video integrata che siamo abituati a vedere nei chipset e ha già di suo motivi di utilizzo nel panorama attuale, senza che ancora il concetto di fusion sia perfettamente operativo.
Insomma, ci sono tutti i motivi per portare avanti questo progetto.

Devil402
11-06-2010, 15:59
MAH! Se si parla di consumi COMPLESSIVI ridotti e non di poco, vuol dire che la CPU consuma meno e riscalda conseguentemente meno e che la GPU fa la stessa cosa...ergo, una soluzione Fusion consuma e riscalda di meno in ambiti d'uso normali ò_ò non è che sommi le temperature e scaldano di più >_< se prima una cpu consumava 40W riscaldando, buttandola li, sui 50° ed una GPU invece, consumava 70W riscaldando fino a 40°, ed ora il consumo complessivo è di facciamo caso, 50W, significa che le due componenti al suo interno, consumano di meno e riscaldano conseguentemente di meno e quindi, anche l'intero chip... CPU + GPU nel primo caso, consumerebbero 40+70 W mentre nel secondo, solo 50W...il calore prodotto sarebbe quindi minore in Fusion rispetto a quello presente nella normale accoppiata...sbaglio? >_<

ConteZero
11-06-2010, 16:09
@ConteZero (#35)
Ma quella che devi porti è proprio la domanda contraria:
"Se la GPU svolge tanto bene compiti "da CPU", ossia general purpose, perchè continuare a sviluppare CPU che arrancano dove la GPU va tanto bene e non integrare una GPU dentro la CPU?"

In questo modo avremo a disposizione un'unità equilibrata, capace di essere forte da ogni punto di vista.
Quando il software sarà davvero adeguato si potrà fare a meno di elementi CPU che verranno surclassati da quelli GPU, con notevole risparmio di spazio e calore.
Fino ad allora avremo comunque vantaggi notevoli: hardware semplificato (controller e cache condivise), maggiore integrazione (riduzione di latenze e costi per hardware accessori), minori consumi, accesso anche per la parte GPU alle tecnologie produttive più avanzate usate per la GPU (il SOI, nel caso di AMD, e anche il processo più fine rispetto a quelle generalmente più economico solitamente usato per i chipset), e soprattutto non rimane silicio sprecato perchè fa le veci della scheda video integrata che siamo abituati a vedere nei chipset e ha già di suo motivi di utilizzo nel panorama attuale, senza che ancora il concetto di fusion sia perfettamente operativo.
Insomma, ci sono tutti i motivi per portare avanti questo progetto.

Risposta seria ed equilibrata all'idea di togliere pezzi di CPU x86 (e x64) per usare al loro posto unità della GPU che non si capisce come debbano essere integrate nell'ISA e nell'architettura:

http://images.encyclopediadramatica.com/images/b/b8/Massimo.jpg

MAH! Se si parla di consumi COMPLESSIVI ridotti e non di poco, vuol dire che la CPU consuma meno e riscalda conseguentemente meno e che la GPU fa la stessa cosa...ergo, una soluzione Fusion consuma e riscalda di meno in ambiti d'uso normali ò_ò non è che sommi le temperature e scaldano di più >_< se prima una cpu consumava 40W riscaldando, buttandola li, sui 50° ed una GPU invece, consumava 70W riscaldando fino a 40°, ed ora il consumo complessivo è di facciamo caso, 50W, significa che le due componenti al suo interno, consumano di meno e riscaldano conseguentemente di meno e quindi, anche l'intero chip... CPU + GPU nel primo caso, consumerebbero 40+70 W mentre nel secondo, solo 50W...il calore prodotto sarebbe quindi minore in Fusion rispetto a quello presente nella normale accoppiata...sbaglio? >_<

Ogni componente scalda in proporzione al suo processo produttivo ed a quanto "lavora" (a quanto i suoi transistor "commutano" per unità di tempo).
Se "si parla" posso parlarti pure degli alieni, difatto 320 stream processor scaldano come 320 stream processor, ed integrarli sulla CPU non li fa scaldare più o meno di integrarli nel NB.
Il punto è che sul NB a scaldare ci sono quasi esclusivamente loro, e quindi il calore generato è poco e basta poco per disperderlo, sulla CPU invece il calore "si somma" (non algebricamente sui gradi, ma si somma comunque) a quello prodotto dalla CPU, e questo complica di molto la dissipazione.
Al di fuori di questo chi giocava con l'overclock tempo addietro ricorda che bisognava aumentare la tensione passata ai componenti per mantenerli stabili all'aumentare della temperatura, e questo è un effetto collaterale tipico che probabilmente vedremo quando si andrà a ficcare un fornetto da 320 stream processor nel giardino di casa di una CPU...

calabar
11-06-2010, 16:24
@ConteZero
Risposta equilibrata eh? :p
Non so se hai dato un'occhiata all'architettura Bulldozer, il poco che se ne sa per lo meno: per ogni unità in virgola mobile ci saranno due unità intere.
AMD sta già percorrendo questa strada.
Quando il software sarà adeguato, magari con l'annunciato Fusion II nel 2015, AMD farà scelte ancora più forti in questa direzione.
Pensi davvero sia una cosa tanto assurda? ;)

calabar
11-06-2010, 16:29
(perdonate il doppio post, dalle news non si puà editare)

Se "si parla" posso parlarti pure degli alieni, difatto 320 stream processor scaldano come 320 stream processor, ed integrarli sulla CPU non li fa scaldare più o meno di integrarli nel NB.
In questo caso invece l'utilizzo del SOI permette di ridurre in consumi dei 320sp (ma no erano 400-480?) proprio perchè lo si sta integrando nella GPU.
Non solo: il PCB della scheda video consuma, e non c'è. Due controller di memoria consumano, e ce n'è solo uno. Il pciE consuma anche lui. La cache condivisa potrebbe anch'essa aiutare in questo senso.
E che consumi meno non lo dico io, lo dicono i risultati: senza cambiare architettura AMD ha ottenuto, almeno a quanto dichiarato, risultati davvero insperati.

ConteZero
11-06-2010, 16:31
Se vogliono fare nuove e più avveneristiche architetture (non solo CPU, architetture proprio) si accomodino, gli x86/x64 sono fatti in un certo modo e perché gli giri sopra la solita roba (Windows in primis) è necessario che funzionino in un certo modo (tipo su CPU general purpose con un set d'istruzioni che già ora è lungo una quaresima).
Magari è anche carino immaginarsi un altro set d'istruzioni addizionali, il 3DForeverAfter, ma checché se ne sappia per ora non c'è nulla di questo genere e non è facile pensare d'integrarci qualcosa del genere.

ConteZero
11-06-2010, 16:42
In questo caso invece l'utilizzo del SOI permette di ridurre in consumi dei 320sp (ma no erano 400-480?) proprio perchè lo si sta integrando nella GPU.

Se il SOI lo applichi al NB e la GPU la metti lì i consumi li riduci in egual misura.
Il processo produttivo permette eguali risparmi, non differenzia fra utilizzi finali.

Non solo: il PCB della scheda video consuma, e non c'è.

La "scheda video" è un box nero con su scritto "scheda video", se nella scheda video a consumare sono gli stream processor a consumare saranno gli stream processor, ovunque tu li metta.

Due controller di memoria consumano, e ce n'è solo uno.

Se c'è una sola memoria (cosa che già avviene per le UMA) ce n'è solo uno comunque.

Il pciE consuma anche lui.

Il PCIe "virtuale", visto che un UMA non è fisicamente connesso a delle lane, quindi la differenza fra "nella CPU" e "nel NB" è nulla.

La cache condivisa potrebbe anch'essa aiutare in questo senso.

La cache dei processori è fatta in un certo modo e non ha nulla a che spartire con quella eventuale della GPU, anzi... evitare i cache poisoning può solo che aiutare.

E che consumi meno non lo dico io, lo dicono i risultati: senza cambiare architettura AMD ha ottenuto, almeno a quanto dichiarato, risultati davvero insperati.

Ecco, i risultati che AMD, che vuole vendere questa soluzione, ha dichiarato.
E sono gli stessi che sistematicamente barano, anche quando c'è da giocare sporco nei driver per fare qualche frame in più e "vincere" sulla concorrenza.

calabar
11-06-2010, 16:47
Quelle che chiami "nuove e più avveniristiche architetture" è un progetto a lungo termine che AMD porta avanti da tempo e che vede un doppio sviluppo della componente hardware e software come passo essenziale.
L'architettura per far girare i vecchi programmi ci sarà sempre, quello che cambierà sarà ciò che farà girare i nuovi programmi, che sempre più potranno usufruire della cosiddetta accelerazione gpu.

Sarà il tempo a decretare se con questo progetto AMD ha scommesso bene.

E proprio il fatto di partire dalle GPU a rendere tutto questo fattibile: nel frattempo che l'ecosistema non è ancora pronto per un'integrazione totale, il lavoro che viene fatto risulta comunque usufruibile dal lato software come gpgpu generico su schede anche discrete e quindi subito sfruttabile, dal lato hardware come vga integrata.

calabar
11-06-2010, 17:03
Se il SOI lo applichi al NB e la GPU la metti lì i consumi li riduci in egual misura.
Il processo produttivo permette eguali risparmi, non differenzia fra utilizzi finali.

La "scheda video" è un box nero con su scritto "scheda video", se nella scheda video a consumare sono gli stream processor a consumare saranno gli stream processor, ovunque tu li metta.

Se c'è una sola memoria (cosa che già avviene per le UMA) ce n'è solo uno comunque.

Il PCIe "virtuale", visto che un UMA non è fisicamente connesso a delle lane, quindi la differenza fra "nella CPU" e "nel NB" è nulla.

La cache dei processori è fatta in un certo modo e non ha nulla a che spartire con quella eventuale della GPU, anzi... evitare i cache poisoning può solo che aiutare.
Ma come tu ben sai i northbridge non li fanno con gli ultimi processi produttivi, per motivi di costi.
Ora invece il passaggio a soi e l'integrazione da la possibilità di fare questo passo avanti.

Nella scheda video non consumano solo gli stream processor, ma anche tutto il resto, sia integrato nella gpu (come le rops o come le vuoi chiamare, e quelle rimangono), sia esterno (che trovi nel pcb appunto).

Il pciE che intendo è quello reale, con cui connetteresti una scheda video esterna. Tra l'altro il progetto fusion prevede sempre maggiore integrazione delle componenti, con Fusion II non si potrà più distinguere tra cpu e gpu all'interno del die. Questo è l'obiettivo che si vuole raggiungere.

La gestione dell'utilizzo della cache la lascio agli ingegneri AMD. Se hanno in progetto di condividerla, evidentemente avranno dei vantaggi in tal senso. Non vedo che senso abbia parlare di cache poisoning. Allora eliminiamo direttamente la cache e vedrai che tutti i problemi di cache spariranno! :asd:

In generale comunque tutto questo discorso è prematuro. Da un semplice elenco punti dove potrebbero annidarsi i vantaggi di una tecnologia unificata, sei passato a discutere di cose su cui non c'è ancora alcuna base per discutere.
Mi pare che tu voglia per forza vedere negativo, ma in questo momento motivi per farlo non ce ne siano ancora. Vedremo in futuro.

Ecco, i risultati che AMD, che vuole vendere questa soluzione, ha dichiarato.
E sono gli stessi che sistematicamente barano, anche quando c'è da giocare sporco nei driver per fare qualche frame in più e "vincere" sulla concorrenza.
Se AMD dichiara certi TDP significa che il calore generato, direttamente legato ai consumi, rimane entro quella soglia. Non si dichiarano TDP sbagliati solo per vendere, perchè altrimenti i computer fondono.

ConteZero
11-06-2010, 17:05
Quelle che chiami "nuove e più avveniristiche architetture" è un progetto a lungo termine che AMD porta avanti da tempo e che vede un doppio sviluppo della componente hardware e software come passo essenziale.
L'architettura per far girare i vecchi programmi ci sarà sempre, quello che cambierà sarà ciò che farà girare i nuovi programmi, che sempre più potranno usufruire della cosiddetta accelerazione gpu.

Sarà il tempo a decretare se con questo progetto AMD ha scommesso bene.

E proprio il fatto di partire dalle GPU a rendere tutto questo fattibile: nel frattempo che l'ecosistema non è ancora pronto per un'integrazione totale, il lavoro che viene fatto risulta comunque usufruibile dal lato software come gpgpu generico su schede anche discrete e quindi subito sfruttabile, dal lato hardware come vga integrata.

L'architettura x86, quella che oggi ti permette di avere sei core in hyperthreading a 3 GHz nasce dal 8086 (e, volendo, da roba ancora precedente) di trent'anni fa... ed è ancora compatibile con esso a livello software.
Che AMD (che, poverina, s'è comprata ATi e deve sopravvivere pur non essendo competitiva come CPU e con un conto in banca che è meno di un decimo quello di Intel) propini e rilanci certe cose è una cosa, che possa poi tirare fuori qualcosa del genere, specie sul medio termine, è un altra.

Qui tu mi parli favolisticamente di integrazioni, aggiunte, mixaggi e via sproloquiando restando simpaticamente al di fuori del dettaglio tecnico, ovvero di COME questa roba dovrebbe venir realizzata, e di come questa roba dovrebbe venir realizzata senza compromettere la compatibilità che ancora oggi è il cuore dei processori x86.

Ok, parliamo di roba nuova e fikissima, ma io qui vedo solo un "sposto un unità funzionale da un chip all'altro, chiamo il tutto fusion e cerco di lanciare l'hype"...

ilmassa1
11-06-2010, 17:35
Secondo me quelli della intel si cagano in mano, sapendo che nel lato GPU non hanno niente in mano, e non saranno mai competitivi.
Possono aumentare quanti core vogliono, ma se una APU si comporta così, la vedranno con il canocchiale.
L'unico prob. è che si potrebbe creare un monopolio.
La ATI/AMD pensa già al futuro, e chi fa così, si troverà sempre meglio.

Capozz
11-06-2010, 17:35
L'architettura x86, quella che oggi ti permette di avere sei core in hyperthreading a 3 GHz nasce dal 8086 (e, volendo, da roba ancora precedente) di trent'anni fa... ed è ancora compatibile con esso a livello software.
Che AMD (che, poverina, s'è comprata ATi e deve sopravvivere pur non essendo competitiva come CPU e con un conto in banca che è meno di un decimo quello di Intel) propini e rilanci certe cose è una cosa, che possa poi tirare fuori qualcosa del genere, specie sul medio termine, è un altra.

Qui tu mi parli favolisticamente di integrazioni, aggiunte, mixaggi e via sproloquiando restando simpaticamente al di fuori del dettaglio tecnico, ovvero di COME questa roba dovrebbe venir realizzata, e di come questa roba dovrebbe venir realizzata senza compromettere la compatibilità che ancora oggi è il cuore dei processori x86.

Ok, parliamo di roba nuova e fikissima, ma io qui vedo solo un "sposto un unità funzionale da un chip all'altro, chiamo il tutto fusion e cerco di lanciare l'hype"...

Ma perchè dovrebbe essere sputtanata la compatibilità dei processori x86 ?
Quì si tratta di prendere una cpu x86, lasciarla esattamente com'è, ed integrare una gpu POTENTE (non quelle cagate che fa intel con gli i5) per un certo tipo di calcoli. Non capisco dove sta il problema.
Non ti piace come soluzione e dovevano metterci le SPU sony per farti contento (chissà perchè poi) ?
Ce ne faremo una ragione...

ConteZero
11-06-2010, 17:51
Secondo me quelli della intel si cagano in mano, sapendo che nel lato GPU non hanno niente in mano, e non saranno mai competitivi.
Possono aumentare quanti core vogliono, ma se una APU si comporta così, la vedranno con il canocchiale.
L'unico prob. è che si potrebbe creare un monopolio.
La ATI/AMD pensa già al futuro, e chi fa così, si troverà sempre meglio.

AMD non rinuncerà mai a fare GPU che girino bene su piattaforma Intel, sarebbe un suicidio economico.
Ed nVidia è sempre lì, anche se spesso perde colpi una volta ogni tanto una l'azzecca.

Ma perchè dovrebbe essere sputtanata la compatibilità dei processori x86 ?
Quì si tratta di prendere una cpu x86, lasciarla esattamente com'è, ed integrare una gpu POTENTE (non quelle cagate che fa intel con gli i5) per un certo tipo di calcoli. Non capisco dove sta il problema.
Non ti piace come soluzione e dovevano metterci le SPU sony per farti contento (chissà perchè poi) ?
Ce ne faremo una ragione...

Infatti l'amico calabar parlava delle evoluzioni future.

calabar
11-06-2010, 18:00
@ConteZero
Si, ma non ho mai detto che le evoluzioni future avrebbero perso di compatibilità.
Semplicemente, strada tra l'altro già in parte intrapresa da bulldozer, le cpu amd avrebbero potenziato quella parte della cpu più general purpose e relegato il potenziamento del resto all'unità gpu.
Oddio, non è proprio così semplice, ma è giusto per capirci.

PS: so cosa sia la isa x86... e un 8086 l'ho avuto quando ancora i pc erano poco diffusi (mitico olivetti M240!), e ho avuto in mano anche un bell'8088 ;)

ConteZero
11-06-2010, 18:15
Sugli XT c'ho combattuto anch'io... il punto è che, piuttosto, quel che dice AMD ha molto senso dal punto di vista del "marketing" ma sul versante pratico non vuol dire una cippa.
Regaleremo più performance all'ambito GPU... che vuol dire ?
Mi metti un core RV vicino alla CPU ? Che me ne faccio, tanto vale che mi fai una scheda acceleratrice e la piazzo sullo slot PCIe...


Cioè, si, capisco, vende bene, specie quando si tratta di numeri "sulla carta"... ma in pratica è vaporware.

degac
11-06-2010, 19:24
Onestamente mi piacerebbe vedere molti più test e benchmark se esistessero di queste CPU+GPU.
Ho letto il whitepaper sul sito di AMD e da quel poco che capisco non è 'brutta' come idea, anzi!

In effetti quando si fa riferimento alla APU non viene quasi mai indicata la presenza di una GPU bensì di:

+ x86 cores
+ high performance bus - memory controller
+ SIMD engine array
+ unified video decoder

Quindi almeno a livello teorico lo scopo di una APU non è quello di 'fare grafica' o di 'integrare la GPU in un unico die'.
Llano e Ontario - sicuramente - sono i primi esperimenti in tal proposito ed hanno una loro ragione d'essere: una sorta di SoC (CPU+GPU) permette un certo risparmio di costi/efficienza energetica - che non guasta mai, soprattutto in sistemi mobili.

Secondo me saranno decisamente più interessanti le future versioni di queste APU quando sarà maggiormente diffuso OpenCL e DirectCompute.
Queste unità SIMD sicuramente altro non sono che le varie unità 'riciclate' dalle GPU, probabilmente adattate a comunicare con i core X86 e destinate a calcoli vettoriali. Sicuramente in un futuro non molto lontano le varie circuiterie destinate alla compatibilità con MMX, SSE e compagnia cantante saranno 'virtualizzate' da queste SIMD e questo porterà a 'potare' alcuni rami morti (secondo me): in pratica sarà possibile avere le ultime SSEx 'inventate' da Intel oppure migliorare/fixare quelle esistenti.
Insomma Altivec, SPE, SSEx ecc... sotto un nome nuovo, ma programmabili tramite driver e OpenCL/DirectCompute

E' palese che i programmi che non hanno la necessità di trattare dati vettoriali - come un elaboratore di testi - non sfrutteranno mai a fondo queste CPU, ma d'altronde oggi corriamo lo stesso rischio con il muti-core gestito malissimo!

Considerando che OpenCL è stato 'sponsorizzato' da Apple mi vien quasi da pensare che quest'ultima sia una delle più interessate alle piattaforme AMD-APU.

ConteZero
11-06-2010, 19:56
(parlando di aggiungere queste unità all'ISA come un set d'istruzioni addizionali)

Il punto (uno dei tanti) è: come li fai comunicare ?
O sono unità asincrone, e le sincronizzi tramite interrupt (pratico e semplice, così gestisci tutti i gruppi che vuoi... ma "costa" come sincronizzazioni) o le gestisci come unità sincrone, ma diventa un casino da gestire, specialmente in un ambito multitasking.

Peraltro il sistema delle asincrone via interrupt e simili... è lo stesso usato per sincronizzare i "vecchi" 287/387... quando 287/387 erano unità ESTERNE alla CPU... ed insomma, non ha molto senso anche così.

sniperspa
11-06-2010, 20:45
Sugli XT c'ho combattuto anch'io... il punto è che, piuttosto, quel che dice AMD ha molto senso dal punto di vista del "marketing" ma sul versante pratico non vuol dire una cippa.
Regaleremo più performance all'ambito GPU... che vuol dire ?
Mi metti un core RV vicino alla CPU ? Che me ne faccio, tanto vale che mi fai una scheda acceleratrice e la piazzo sullo slot PCIe...


Cioè, si, capisco, vende bene, specie quando si tratta di numeri "sulla carta"... ma in pratica è vaporware.

Ma forse non ti è chiaro che queste soluzioni sono indirizzate quasi esclusivamente a netbook notebook e all in one magari per uffici e compagnia...mi sembrano abbastanza evidenti i vantaggi in termini di consumi/calore/prestazioni dati dall'integrare tutto in un unico package

Ovviamente io non me ne faccio nulla su desktop ora come ora ma...

ConteZero
11-06-2010, 20:53
Ma forse non ti è chiaro che queste soluzioni sono indirizzate quasi esclusivamente a netbook notebook e all in one magari per uffici e compagnia...mi sembrano abbastanza evidenti i vantaggi in termini di consumi/calore/prestazioni dati dall'integrare tutto in un unico package

Ovviamente io non me ne faccio nulla su desktop ora come ora ma...

E'fantozziano, in un ambito come notebook/netbook in cui le considerazioni termiche sono critiche (ancor più per AMD che è "indietro" come processi produttivi), andare ad impaccare CPU e stream processors in un unico chip.

calabar
11-06-2010, 23:02
@ConteZero
Scherzi vero? In macchine di piccole dimensioni, dove l'ottimizzazione in termini di spazio e dissipazione è fondamentale, si possono avere solo benefici.
Pensa solo ai vantaggi che ha ottenuto intel, che ha solamente affiancato cpu e gpu nello stesso package. Con fusion si va ancora oltre, e i vantaggi possono ancora aumentare.
Pensi che gli ingegneri intel e amd siano tutti fessi ad intraprendere una strada che, a sentirti parlare, sembra portare solo svantaggi?

L'applicazione su notebook e netbook è sicuramente un vantaggio immediato, ma secondo me non ha assolutamente nulla a che vedere con ciò che AMD vuole ottenere dalla creazione delle APU.

@degac
Secondo me hai colto esattamente in punto.
Le attuali APU sono interessanti, portano vantaggi in determinati ambiti e possono rivelarsi un bel prodotto, ma le vere APU le vedremo in seguito.
Sarebbe infatti inutile ora fare il passo più lungo della gamba, quando l'ecosistema che sta intorno a questi processori non è ancora pronto.

La "fortuna" di AMD, come dicevo in precedenza, è di poter portare avanti questo progetto usufruendo nel frattempo dei vantaggi che l'integrazione offre, proponendo prodotti quindi che risultano interessanti anche se non utilizzati ancora appieno nelle funzionalità per cui erano pensati.

capitan_crasy
11-06-2010, 23:19
E'fantozziano, in un ambito come notebook/netbook in cui le considerazioni termiche sono critiche (ancor più per AMD che è "indietro" come processi produttivi), andare ad impaccare CPU e stream processors in un unico chip.

Hai qualche personale teoria su un possibile consumo di queste APU Llano a 32nm SOI / APu ontario a 40nm bulk oppure ipotizzi a caso e basta?

sniperspa
12-06-2010, 01:17
E'fantozziano, in un ambito come notebook/netbook in cui le considerazioni termiche sono critiche (ancor più per AMD che è "indietro" come processi produttivi), andare ad impaccare CPU e stream processors in un unico chip.

Fantozziano???

Ma guarda che mica hai un chip a 100° da distribuire nella superfice del note/netbook!

E poi...non hai la minima idea di quanto consumino/scaldino questi chip!:wtf:

ConteZero
12-06-2010, 06:26
Come ho già detto ultimamente di portatili rotti ne vedo una caterva.

La massima parte di questi portatili deve il suo destino a problemi di surriscaldamento.
Mettere i due componenti che scaldano di più insieme significa accentrare il calore prodotto sulla piastra (e fino a qui non mi pare ci voglia arte a capirlo).

Ok, nuovi processi costruttivi e non ho i dati specifici di quei chip, ma a meno di non eludere le regole della fisica più roba metti insieme più il tutto scalda, e per quanto miniaturizzi i transistor alla fine il punto è che devi abbassare i clock per tenere termicamente "stabile" l'insieme semplicemente perché il blob scalda più di quanto non scalderebbe se queste due unità fossero tenute ben separate.

sniperspa
12-06-2010, 07:57
Come ho già detto ultimamente di portatili rotti ne vedo una caterva.

La massima parte di questi portatili deve il suo destino a problemi di surriscaldamento.
Mettere i due componenti che scaldano di più insieme significa accentrare il calore prodotto sulla piastra (e fino a qui non mi pare ci voglia arte a capirlo).

Ok, nuovi processi costruttivi e non ho i dati specifici di quei chip, ma a meno di non eludere le regole della fisica più roba metti insieme più il tutto scalda, e per quanto miniaturizzi i transistor alla fine il punto è che devi abbassare i clock per tenere termicamente "stabile" l'insieme semplicemente perché il blob scalda più di quanto non scalderebbe se queste due unità fossero tenute ben separate.

Ma se si parla di chip che andranno montati anche su netbook cosa ti fa pensare che scaldino/consumino tanto?
Senza sapere il consumo di queste APU è inutile fare ipotesi campate...

ConteZero
12-06-2010, 08:13
Ma se si parla di chip che andranno montati anche su netbook cosa ti fa pensare che scaldino/consumino tanto?
Senza sapere il consumo di queste APU è inutile fare ipotesi campate...

Non sto dicendo "consumano X watt" o "scaldano X gradi", dico che, a parità di processo produttivo una CPU da n core SENZA APU nello stesso die scalda X, una CPU da n core CON APU nello stesso die scalda Y, e per forza di cose Y > X a meno di non scendere di clock nella seconda soluzione.

calabar
12-06-2010, 08:29
Ma in realtà, in questo caso, questa "parità di processo" non c'è.
Senza contare che non conosci neppure la superficie del chip, elemento essenziale per valutare il modo in cui verrà dissipato il calore.
E senza contare il risparmio consumi che l'integrazione può portare, quindi meno calore generale da dissipare.

L'unica cosa che conta davvero è rimanere entro certe specifiche termiche.
Se un core i7 mobile ha un TDP di 45w e una apu di 40w, non è che la seconda scalda più della prima perchè ha integrata anche la GPU.

Del resto guarda anche ciò che giò esiste: gli i3/i5 di intel con grafica integrata non sono forse le soluzioni che attualmente danno i miglior risultati in termini di calore e consumi nella loro fascia? Eppure entrambi gli elementi sono insieme nello stesso package, quindi dovrebbero dissipare peggio. Ma non è così.

ConteZero
12-06-2010, 08:48
Ma in realtà, in questo caso, questa "parità di processo" non c'è.

Ma senti tu che devo leggere.
La frase è "a parità di processo" (ipotesi) mettere l'APU nel die della CPU significa PER FORZA aumentare il calore generato rispetto a non mettercelo.
Da questa ipotesi ne deriva che l'idea, dal punto di vista del calore generato, non è così meravigliosa.

Senza contare che non conosci neppure la superficie del chip, elemento essenziale per valutare il modo in cui verrà dissipato il calore.

Siam sempre lì, senza APU la superficie del chip sarà sempre minore, e quindi si potranno usare soluzioni più semplici e meno impegnative.

E senza contare il risparmio consumi che l'integrazione può portare, quindi meno calore generale da dissipare.

Contiamolo.
Tu puoi stimarlo ?
nVidia ed ATi ad oggi non riescono a fare core che non scaldino come fornetti, tant'è che le GPU sono sempre più simili a chinook...
Ora di sicuro quest "integrazione" (che è una buzzword meravigliosa*, ma che nella pratica porta quasi sempre a risparmi marginali sui consumi) qualcosa permette di risparmiare, ma 320-480 o sonca**o io quanti stream processor che pompano per forza scaldano.

L'unica cosa che conta davvero è rimanere entro certe specifiche termiche.
Se un core i7 mobile ha un TDP di 45w e una apu di 40w, non è che la seconda scalda più della prima perchè ha integrata anche la GPU.

Le cose che contano sono:
1. evitare di produrre troppo calore
2. offrire, in cambio del calore e dell'energia dissipata, abbastanza potenza di calcolo da giustificare i primi.

A questo aggiungici che l'APU non è una CPU, è un CORREDO alla CPU, quindi un APU ficcata in un core i7 mobile avrà un TDP di 45 + 40w (meno qualcosa per "l'integrazione").

Del resto guarda anche ciò che giò esiste: gli i3/i5 di intel con grafica integrata non sono forse le soluzioni che attualmente danno i miglior risultati in termini di calore e consumi nella loro fascia? Eppure entrambi gli elementi sono insieme nello stesso package, quindi dovrebbero dissipare peggio. Ma non è così.

Sono anche quelli che hanno le unità "CPU" più sacrificate.
Avessero le unità grafiche disattivate (o direttamente estirpate) consumerebbero ancora meno e scalderebbero ancora meno.

* Ultimamente è l' "it got electrolytes" dell'informatica.

calabar
12-06-2010, 09:46
Ma senti tu che devo leggere.
La frase è "a parità di processo" (ipotesi) mettere l'APU nel die della CPU significa PER FORZA aumentare il calore generato rispetto a non mettercelo.
Da questa ipotesi ne deriva che l'idea, dal punto di vista del calore generato, non è così meravigliosa.
Non si stava discutendo sull'ovvio. Nessuno dubita del fatto che integrare la gpu implichi maggiore calore rispetto al non integrarla a parità di processo.
Ma.. ci sono due "ma".
Il primo è che appunto questa parità di processo non c'è. Rispetto alle gpu amd c'è il vantaggio del SOI, rispetto alle gpu integrate nei chipset anche il miglior processo produttivo.
Il secondo ma deriva dal fatto che, in un modo o nell'altro, la gpu devi mettercela. Se non sta nel processore starà da qualche altra parte e quindi allo stesso modo produrrà calore.

Siam sempre lì, senza APU la superficie del chip sarà sempre minore, e quindi si potranno usare soluzioni più semplici e meno impegnative.
Non ci siamo capiti. Una maggiore superficie a parità di calore generato è più facile da dissipare, perchè aumenta l'area di contatto con il dissipatore.
Quindi non è detto che spostando l'area relativa alla gpu dal chipset o dalla scheda dedicata al processore si possano avere problemi di dissipazione del calore, perchè ovviamente anche la superficie di cpu+gpu aumenta di conseguenza rispetto alla sola cpu.

Contiamolo.
Tu puoi stimarlo ?
nVidia ed ATi ad oggi non riescono a fare core che non scaldino come fornetti, tant'è che le GPU sono sempre più simili a chinook...
Ora di sicuro quest "integrazione" (che è una buzzword meravigliosa*, ma che nella pratica porta quasi sempre a risparmi marginali sui consumi) qualcosa permette di risparmiare, ma 320-480 o sonca**o io quanti stream processor che pompano per forza scaldano.
Per questo la apu ha potenza ridotta. Una potenza che gli ingegneri amd avranno stimato equilibrata per il lavoro che deve svolgere e il calore che genera.
E tu puoi stimare che l'integrazione, cito, "porta quasi sempre a risparmi marginali sui consumi"? ;)

Le cose che contano sono:
1. evitare di produrre troppo calore
2. offrire, in cambio del calore e dell'energia dissipata, abbastanza potenza di calcolo da giustificare i primi.

A questo aggiungici che l'APU non è una CPU, è un CORREDO alla CPU, quindi un APU ficcata in un core i7 mobile avrà un TDP di 45 + 40w (meno qualcosa per "l'integrazione").
No, l'APU è l'integrazione di cpu e gpu. Ma vabbè, è solo una questione di terminologia.
Far diventare un i7 un APU implica un notevole lavoro di reingegnerizzazione, e no, non è detto che 45+40 faccia 85, potrebbe fare decisamente meno.

Sono anche quelli che hanno le unità "CPU" più sacrificate.
Avessero le unità grafiche disattivate (o direttamente estirpate) consumerebbero ancora meno e scalderebbero ancora meno.
Certo, il processore da solo consumerebbe meno.
Ma il processore più il comparto vga quanto consumerebbero?
Perchè, come ti dicevo prima, entrambi sono necessari per il pc, quindi non puoi escluderne uno come se non dovessi comunque metterlo da qualche parte.

capitan_crasy
12-06-2010, 09:47
Vediamo di dare alcuni numeri, anche se non confermati, sulle APU AMD:

http://www.pctunerup.com/up//results/_201006/20100612104237_fusion_details.png

AMD ha pensato a 2 socket (FS1 e FP1) per il mercato Notebook, un socket (FM1) per il mercato mainstream Desktop e un socket (FT1) per il mercato Netbook.
Ci saranno nuovamente versioni Triple core eredita dell' architettura K10; i valori TDP per Llano dovrebbero variare da un massimo di 100W ad un minimo di 20W, mentre per Ontario/Bobcat ci dovrebbero essere modelli con un TDP massimo di 20W e uno minimo di 5W; mancano ancora le caratteristiche delle GPU integrate e le frequenze di clock dei core X86.
Viene confermato l'utilizzo di un nuovo socket per il mercato Desktop anche se mancano ancora le caratteristiche; quello sicuro è che non saranno compatibili con nessuna piattaforma AMD attualmente in commercio.

ConteZero
12-06-2010, 10:34
Non si stava discutendo sull'ovvio. Nessuno dubita del fatto che integrare la gpu implichi maggiore calore rispetto al non integrarla a parità di processo.
Ma.. ci sono due "ma".
Il primo è che appunto questa parità di processo non c'è. Rispetto alle gpu amd c'è il vantaggio del SOI, rispetto alle gpu integrate nei chipset anche il miglior processo produttivo.
Il secondo ma deriva dal fatto che, in un modo o nell'altro, la gpu devi mettercela. Se non sta nel processore starà da qualche altra parte e quindi allo stesso modo produrrà calore.

Si, ma se il calore è SPLITTATO fra due punti ben distanti è più facile dissiparlo.
Averlo CONCENTRATO in un unico punto complica di molto le cose.

Non ci siamo capiti. Una maggiore superficie a parità di calore generato è più facile da dissipare, perchè aumenta l'area di contatto con il dissipatore.
Quindi non è detto che spostando l'area relativa alla gpu dal chipset o dalla scheda dedicata al processore si possano avere problemi di dissipazione del calore, perchè ovviamente anche la superficie di cpu+gpu aumenta di conseguenza rispetto alla sola cpu.

Aumentano i transistor, il processo produttivo è lo stesso e quindi si ha che il chip con APU è più grosso, ma la dimensione del chip in sé è minima, anche perchè il problema è la dissipazione DAL DISSIPATORE.

Per questo la apu ha potenza ridotta. Una potenza che gli ingegneri amd avranno stimato equilibrata per il lavoro che deve svolgere e il calore che genera.

Potevano "non ridurre" e mettere gli stream processor da qualche altra parte, tipo sul bridge.
Ci sarebbero stati meno rischi di... fusion.

E tu puoi stimare che l'integrazione, cito, "porta quasi sempre a risparmi marginali sui consumi"? ;)

Certo, basta che prendi la classica immagine massimizzata di una GPU con i blocchi separati e guardi quanta superficie è rappresentata dai core veri e propri.
Quell'area è incomprimibile.

No, l'APU è l'integrazione di cpu e gpu. Ma vabbè, è solo una questione di terminologia.
Far diventare un i7 un APU implica un notevole lavoro di reingegnerizzazione, e no, non è detto che 45+40 faccia 85, potrebbe fare decisamente meno.

"decisamente" as in 80, non certo 50.

Certo, il processore da solo consumerebbe meno.
Ma il processore più il comparto vga quanto consumerebbero?
Perchè, come ti dicevo prima, entrambi sono necessari per il pc, quindi non puoi escluderne uno come se non dovessi comunque metterlo da qualche parte.

Ti ripeto... uno stream processor fatto da ATi al meglio delle sue capacità produce X consumando Y, e questo indipendentemente da dove lo metti.
Messo ALTROVE non aggiunge problemi di natura termica.

calabar
12-06-2010, 11:11
Perchè, messo li invece crea questi problemi?
Secondo me questo è il presupposto sbagliato da cui parti.

Innanzi tutto l'integrazione fa consumare meno (anche qui tu dai per scontato in maniera marginale, ma così scontato non è, anche per i motivi suddetti).
Inoltre la superficie da dissipare è comunque superiore, quindi non hai più calore nella stessa superficie, ma più calore in una superficie maggiore (e quindi maggior calore si, ma anche meglio dissipabile).

Infine l'unico punto, diciamo "a sfavore", ossia che le due fonti di calore, cpu e gpu, siano vicine.
Ma siamo sicuri che sia un punto a sfavore?
Innanzi tutto, anche se lo fosse, potrebbe essere bilanciato dai minori consumi generali.
Inoltre potrebbe rivelarsi più conveniente utilizzare un dissipatore unico di buona fattura piuttosto che due sistemi di dissipazione separati.
Oltretutto, ti ripeto, ci sono anche i dati reali: ti sembra che intel abbia avuto questi problemi nei suoi processori con GPU affiancata?

E in ogni caso, quindi anche con una maggiore difficoltà di dissipazione, rimangono inoltre i vantaggi di compattezza e minori consumi generali che bilanciano abbondantemente il problema, soprattutto tenendo conto che, nel caso dei notebook, le specifiche termiche sono comunque contenute.

Riprendendo qualche citazione da sopra:
- non vedo come la comprimibilità dell'area degli SP di una gpu influisca con i consumi.
- non vedo perchè "Potevano "non ridurre" e mettere gli stream processor da qualche altra parte". La parte GPU delle apu è già molto potente per quel che deve fare, va bene messa li e con quella potenza. Più avanti esigenze diverse modificheranno questo dato, ma ci saranno anche diverse architetture e diversi processi produttivi.
Questo perchè, ti ricordo il concetto, lo scopo della APU non è quello di spostare la scheda video dal chipset al processore (cosa che comunque ha i suoi vantaggi, ma è solo un "effetto collaterale" del progetto APU), quanto quello di creare un'unità di calcolo capace di essere più efficiente grazie all'integrazione delle SIMD prese dalla GPU.

ConteZero
12-06-2010, 11:15
Come superficie dissipabile s'intende quella dei dissipatori, non ha senso dire "il chip è più grosso, dissipa meglio", anche perché è una ca**a*a terrificante che chiunque, qui dentro, può smentire.

L'integrazione offre vantaggi marginali perché non è la logica di controllo o il bus alla memoria a scaldare, sono le unità di calcolo, e quelle non le ottimizzi.

Per il resto ho capito che ti piace ribattere il pelo e ritirar fuori frasi da PR pur di evitare di discutere nel merito, io ce l'ho messa tutta... quando questi fusion saranno in giro vedrai cosa varranno per davvero.
Buona prosecuzione in singolo.

calabar
12-06-2010, 11:46
Quella del chip più grosso te l'ho spiegata prima: essendo maggiore la superficie di contatto con il dissipatore, si ha un vantaggio nel dissipare. E anche questo può confermartelo chiunque qui dentro.

L'integrazione ha vantaggi non marginali perchè consente una migliore comunicazione tra gli elementi in questione, permettendo un aumento di prestazioni a parità di elementi.
Se fosse una strada con vantaggi marginali, perchè tutti la stanno intraprendendo?
La tua logica si scontra con i fatti reali, anche in questo caso.

Per il resto ti dico che all'inizio di questo topic ti ho risposto perchè mi era parso che non avessi affatto capito cosa fosse un APU e a cosa mirasse, e ho cercato di farti cogliere il punto.
Ma evidentemente mi sbagliavo: hai poi portato il discorso sul fatto che le apu dovessero per forza essere sconvenienti in base a valutazioni di circostanza, e a quel punto si è proseguito il discorso su questo.
Chiariamoci, nessuno qui è capace di valutare davvero i vantaggi di questa tecnologia. Però il fatto che la strada intrapresa sia quella dovrebbe farti riflettere. Inutile quindi entrare nel dettaglio tecnico quando non si hanno le basi per valutarlo.

Su una cosa alla fine siamo però d'accordo: fusion uscirà, così come le sue successive incarnazioni e le controparti intel, e allora davvero vedremo come andrà.

Devil402
12-06-2010, 12:02
Mah...si dai, ha ragione ConteZero in fin dei conti...Devo dire che il Cell è un ottimo processore, idioti all'AMD a non aver preso la licenza dalla sony (e da toshiba ed ibm se non erro xD)...davvero, scalda POCHISSIMO ed i consumi sono BASSISIMI xD Ma andiamo...sappiamo tutti che è la parte che scalda di più nella ps3 e che consuma di più...sappiamo che in calcolo vettoriale è ottimo ma per il resto per niente...a questo punto, spiegami che senso avrebbe per amd utilizzare SPE al posto di altro...e poi, su quali basi mi vieni a dire che un APU scalda di più? Il calore è proporzionale al consumo, se i consumi sono minori, il calore è minore. Un esempio? Guarda Fermi...Consumi altissimi--->Calore altissimo...poi, vabbè, dipende anche dall'architettura, non solo l'efficienza energetica ma anche la capacità di dissipare calore...non puoi semplicemente dire che scalderà di più, se non conosci minimamente, l'architettura che ci sta sotto e sopratutto, non hai mai visto alcun test basato su fusion riguardo proprio i consumi ed il calore emesso...

ConteZero
12-06-2010, 12:29
SPE di Cell è un architettura praticamente pubblica.
Vai sul sito di IBM e scarichi i manuali per programmarci.
Vai su una qualsiasi distribuzione linux (ma anche windows) e scarichi i compilatori.
E questo fa una certa differenza (l'APU di fusion la "programmi" in metalinguaggio, stile .NET, java o flash).

Inoltre non dico che gli SPE della PS3 non scaldino/consumino, ma quella era la prima installazione di architettura, e se rapportata al processo produttivo è anche buona.

Per il resto, come ho già detto, unità derivate da core grafici sono quasi esclusivamente utilizzabili per il "calcolo vettoriale".

Buona continuazione anche a te.

calabar
12-06-2010, 14:03
Si, ma AMD produce hardware, non software.
Su quella cpu non deve programmarci, ma basarci un'architettura.

La parte GPU di fusion (continui ad usare il termine APU in maniera impropria :) ) per il calcolo vettoriale generico potrà essere programmata usando Stream, OpenCL, DirectCompute...
Non mi è molto chiaro cosa tu intenda per "metalinguaggio"... le SPE di CELL non le programmi certo in assembler, tutti i linguaggi di norma usati sono ad alto livello, in ogni caso.

Per il resto, ricordiamoci che le simd gpu sono "forti" nel calcolo vettoriale, proprio dove è forte il cell.
Per i calcoli non vettoriali uso la parte cpu della apu, per quelli vettoriali la parte gpu, che in questo è molto efficiente. A che pro usare qualcosa di intermedio come il cell?

degac
12-06-2010, 15:30
Non vedo tutto sto problema sul calore/dissipazione termica: dubito che AMD non abbia pensato a questo problema, e anzi mi sembra l'ultimo dei problemi su un dispositivo mobile. Preferisco l'efficienza energetica (= maggior durata delle batterie) . mentre per la dissipazione mi sembra che sia facilmente solvibile con dissipatori di nuova forme...

Non si deve inventare nessun nuovo linguaggio, gli/lo standard è già stato individuato (almeno nelle sue linee base) fa già parte di sistemi operativi diversi (DirectCompute e OpenCL): sarà poi compito dei programmatori saperli usare e creare delle applicazioni
AMD (o Intel o Nvidia o chiunque altro) devono semplicemente fornire i driver per il supporto di queste nuove tecnologie.
Francamente trovo più utilzzabile FUSION di AMD che non Knight Ferry (la CPU multi-core..) a meno che Intel non fornisca dei driver per OpenCl-DirectCompute.
Anche perchè se non è presente una APU sarà sempre possibile utilizzare una GPU compatibile (se non erro dalla serie HD4xxx per AMD Ge8000 per Nvidia) . quindi maggiore base di utiizzo.

Poi se il mercato non apprezza, non si produce, fine dell'esperimento - nulla di traumatico

Mercuri0
13-06-2010, 11:15
Perché appiccicare questo coso sulla CPU ?

Perché i transistor man mano che si va avanti costano sempre meno delle interconnessioni, sopratutto riguardo al controller per la memoria (condivisa) che per le architetture AMD e le nuove lntel deve essere vicino alla CPU, e che quindi comincia a fare da collo di bottiglia se fosse tenuto lontano da una GPU su chip separato.

Perché non metterlo, ad esempio, su una scheda PCIe ?
Per il motivo di prima, e perché i "fusion" sono pensati per sostituire l'IGP, sopratutto nei portatili.

Francamente non capisco queste 9 pagine di polemiche :mbe: : lntel sta facendo esattamente la stessa cosa. Quindi capirai che se sia lntel che AMD hanno preso la stessa direzione, ci sta che ci sia qualche motivo tecnico. :)

La differenza è che le GPU AMD sono architetture adatte anche al calcolo generico, e quindi AMD pubblicizza questa cosa, e forse su questo orienterà le architetture "APU" future. Anche se probabilmente in questi demo sono le solite accelerazioni DirectX, che comunque AMD ha molto più interesse rispetto a lntel a pubblicizzare, per ovvi motivi.

zappy
13-06-2010, 11:52
E' palese che i programmi che non hanno la necessità di trattare dati vettoriali - come un elaboratore di testi - non sfrutteranno mai a fondo queste CPU, ma d'altronde oggi corriamo lo stesso rischio con il muti-core gestito malissimo!

non ti preoccupare. microsoft troverà certamente il modo di appesantire Word a sufficienza e rendere il codice così inefficente da richiedere un parallelismo spinto solo per visualizzare una pagina bianca :D

zappy
13-06-2010, 11:54
La parte GPU di fusion (continui ad usare il termine APU in maniera impropria :) ) per il calcolo vettoriale generico potrà essere programmata usando Stream, OpenCL, DirectCompute...
continuo a non capire esattamente... queste gpu integrate non rihiedono più driver appositi?
perchè se il rendering avviene attraverso un linguaggio di programmazione come lo è per x86 attualmente per le cpu...

zappy
13-06-2010, 11:56
@ConteZero
Scherzi vero? In macchine di piccole dimensioni, dove l'ottimizzazione in termini di spazio e dissipazione è fondamentale, si possono avere solo benefici.
io mi ricordo del Nforce4 che aveva un solo chip (north+south) e scaldava da bestia, tanto da necessitare di dissipazione attiva...

Mercuri0
13-06-2010, 12:12
continuo a non capire esattamente... queste gpu integrate non rihiedono più driver appositi?
Si che li richiedono, la novità è che la GPU invece di essere integrata nel nortbridge è integrata nel chip della CPU, e che le GPU attuali possono essere utilizzate per il calcolo generico.

io mi ricordo del Nforce4 che aveva un solo chip (north+south) e scaldava da bestia, tanto da necessitare di dissipazione attiva...
Anche il tanto acclamato e usato ovunque (compreso nei macbook) ION di nVidia è north+igp+south integrato.

zappy
13-06-2010, 12:22
Si che li richiedono, la novità è che la GPU invece di essere integrata nel nortbridge è integrata nel chip della CPU, e che le GPU attuali possono essere utilizzate per il calcolo generico.

in pratica CPU che per funzionare al 100% richiedono dei driver...
Quindi sono legate alle scelte di marketing del produttote, che rilascia i driver come, quando e per i SO che vuole...

La cosa non mi piace manco un po'.

capitan_crasy
13-06-2010, 15:36
io mi ricordo del Nforce4 che aveva un solo chip (north+south) e scaldava da bestia, tanto da necessitare di dissipazione attiva...

io mi ricordo che la dissipazione attiva non era necessaria sugli Nforce4, nè tanto meno su gli ULI 1697 che integravano NB e SB stile nvidia; solo che costava meno collocare una ventolina del casso su un pezzo di tolla piuttosto che mettere un pezzo di alluminio di qualche grammo sufficientemente più pesante per la dissipazione passiva...

in pratica CPU che per funzionare al 100% richiedono dei driver...
Quindi sono legate alle scelte di marketing del produttote, che rilascia i driver come, quando e per i SO che vuole...

La cosa non mi piace manco un po'.

CPU, GPU e APU; finchè non impariamo a distinguere questi elementi come "diversi" uno dall'altro non si va da nessuna parte...
I core X86 delle APU non avranno bisogno di alcun driver per funzionare al 100%.
La GPU delle APU per forza avrà bisogno di driver per funzionare; detto questo dove sta il dannato intoppo?
Sembra quasi che oggi con CPU e IGP o GPU, i driver per quest'ultimi siano del tutto opzionali...:rolleyes:

Mercuri0
13-06-2010, 19:51
in pratica CPU che per funzionare al 100% richiedono dei driver...
Quindi sono legate alle scelte di marketing del produttote, che rilascia i driver come, quando e per i SO che vuole...

La cosa non mi piace manco un po'.

:mbe: :mbe: :mbe:

vabé, vado ar cine.

wardenclyffe
13-06-2010, 23:43
......ancora fumo:
aspettiamo l' arrosto........

ilmassa1
14-06-2010, 01:01
......ancora fumo:
aspettiamo l' arrosto........

Arrosto is -F- (e) "o" -r- (m) "n" -i- :stordita: !
Chi scopre la doppia parola vince asd.

zappy
14-06-2010, 08:46
CPU, GPU e APU; finchè non impariamo a distinguere questi elementi come "diversi" uno dall'altro non si va da nessuna parte...
I core X86 delle APU non avranno bisogno di alcun driver per funzionare al 100%
ci mancherebbe altro!
La GPU delle APU per forza avrà bisogno di driver per funzionare; detto questo dove sta il dannato intoppo?
Sembra quasi che oggi con CPU e IGP o GPU, i driver per quest'ultimi siano del tutto opzionali...:rolleyes:

un conto è una sk grafica che serve a far la scheda grafica e basta

discorso diverso è se integri nella cpu unità per il calcolo parallelo (NON solo grafico) ma necessiti di driver per usarle.
Insomma, oggi la GPU è una unità specializzata solo nella grafica (e servono driver), la cpu è generica (e non ne ha bisogno).
Se fondi il tutto in un unico chip che ha funzioni generiche e ad alto parallelismo e pretendi che la sezione parallela necessiti di driver in pratica vendi una unità di calcolo castrata ed a obsolescenza programmata (dipendente dal rilascio di driver).

capitan_crasy
14-06-2010, 09:51
ci mancherebbe altro!


un conto è una sk grafica che serve a far la scheda grafica e basta

discorso diverso è se integri nella cpu unità per il calcolo parallelo (NON solo grafico) ma necessiti di driver per usarle.
Insomma, oggi la GPU è una unità specializzata solo nella grafica (e servono driver), la cpu è generica (e non ne ha bisogno).
Se fondi il tutto in un unico chip che ha funzioni generiche e ad alto parallelismo e pretendi che la sezione parallela necessiti di driver in pratica vendi una unità di calcolo castrata ed a obsolescenza programmata (dipendente dal rilascio di driver).
Ma tu credi veramente che un OS supporti nativamente un elemento come una GPU utilizzata per il calcolo generico solo perchè è integrato nello stesso pezzo di silicio della CPU?:sofico:

zappy
14-06-2010, 10:15
Ma tu credi veramente che un OS supporti nativamente un elemento come una GPU utilizzata per il calcolo generico solo perchè è integrato nello stesso pezzo di silicio della CPU?:sofico:

la cpu fa calcoli generici?
ed è supportata nativamente?
Ed allora di che stiamo parlando?

capitan_crasy
14-06-2010, 10:42
la cpu fa calcoli generici?
ed è supportata nativamente?

E quindi???
Vuoi capire che nessun OS supporta il calcolo generico delle GPU (GPGPU) senza driver e programmi studiati ad hoc? (CUDA per Nvidia e Stream per ATI non ti dicono niente?)

Ed allora di che stiamo parlando?

Ma almeno tu sai di cosa è composta una APU AMD come Llano?

http://www.pctunerup.com/up/results/_201005/20100512154149_Llano_comp2.jpg

Ci sono i core X86, i controller PCI-Express, il controller Ram e la GPU...
Come vedi i core X86 sono ben distinti dal elemento GPU e per utilizzare quest'ultimo come "co-processore" bisogna installare driver e programmi specifici...
Se poi in un futuro Microsoft o la comunità di Linux riusciranno a supportare nativamente in un OS una GPU per il calcolo generico sarò il primo a festeggiare...

zappy
14-06-2010, 13:29
E quindi???
Vuoi capire che nessun OS supporta il calcolo generico delle GPU (GPGPU) senza driver e programmi studiati ad hoc? (CUDA per Nvidia e Stream per ATI non ti dicono niente?)
senza programmi è un conto. senza driver è un altro.

anche per sfruttare MMX o SSE hai bisogno di "programmi appositi", ma non di driver.

capitan_crasy
14-06-2010, 14:35
senza programmi è un conto. senza driver è un altro.

anche per sfruttare MMX o SSE hai bisogno di "programmi appositi", ma non di driver.

http://www.capitancrasy.com/images/1241426089902.gif

Caliamo un velo pietoso, anzi due...

zappy
14-06-2010, 14:44
Caliamo un velo pietoso, anzi due...
certo, sai tutto tu.

capitan_crasy
14-06-2010, 15:31
certo, sai tutto tu.

Per l'ultima volta...
Dalle tue risposte non ti rendi conto che la GPU di Llano non può fare calcolo generico per miracolo acquisito; inoltre per eliminare i driver (la quale continuo a non capire quale sia il dannato problema nell'istallazione di essi) deve essere OS a gestire la GPU in determinati ambiti e questo compito è affidato alla casa madre del software.
La GPU di Llano è una GPU o Graphics Processing Unit con la possibilità di eseguire calcoli in GPGPU grazie, in primis alla sua architettura, ai driver e ai programmi appositi e non un elemento toccato dallo spirito santo in grado di fare tutto quello che vuole.
Lo scenario da te descritto verrà in un prossimo futuro, quando verrà creato l'ibrido tra una CPU X86 e una GPU, la quale gli elementi saranno letteralmente fusi insieme da non poterli più distinguere uno dall'altro; inoltre gli OS devono avere la capacità di eseguire calcoli GPGPU senza l'ausilio dei driver o programmi...

Jean240
14-06-2010, 22:49
Non capisco tutte ste pagine di polemiche su qualcosa che ancora non si sa di preciso..come cavolo si fa a dire che consumano che scaldano tanto se ancora dati tecnici certi non ce ne sono??? MA!! :eek:

zappy
15-06-2010, 08:25
Per l'ultima volta...
Dalle tue risposte non ti rendi conto che la GPU di Llano non può fare calcolo generico per miracolo acquisito; inoltre per eliminare i driver (la quale continuo a non capire quale sia il dannato problema nell'istallazione di essi) deve essere OS a gestire la GPU in determinati ambiti e questo compito è affidato alla casa madre del software.
La GPU di Llano è una GPU o Graphics Processing Unit con la possibilità di eseguire calcoli in GPGPU grazie, in primis alla sua architettura, ai driver e ai programmi appositi e non un elemento toccato dallo spirito santo in grado di fare tutto quello che vuole.
Lo scenario da te descritto verrà in un prossimo futuro, quando verrà creato l'ibrido tra una CPU X86 e una GPU, la quale gli elementi saranno letteralmente fusi insieme da non poterli più distinguere uno dall'altro; inoltre gli OS devono avere la capacità di eseguire calcoli GPGPU senza l'ausilio dei driver o programmi...
tu probabilmente non hai chiaro:
- cosa è un set di istruzioni (impresso nel silicio)
- cosa è un driver di gestione dell'hw
- cosa è un programma che gira su un set di istruzioni.

capitan_crasy
15-06-2010, 08:54
tu probabilmente non hai chiaro:
- cosa è un set di istruzioni (impresso nel silicio)
- cosa è un driver di gestione dell'hw
- cosa è un programma che gira su un set di istruzioni.

Può darsi, dato che io dico una cosa e tu ne dici un altra...
A questo punto sono curioso, mi potresti spiegare cosa sono i set di istruzioni e la differenza di esecuzione tra una CPU X86 e una GPU?
Mi potresti spiegare cosa sono i driver per la gestione dell' hardware e cosa è un programma che gira su un set di istruzioni (senza ovviamente utilizzare Google o wikipedia)
Già che ci sei mi potresti spiegare gentilmente come una GPU di Llano potrebbe eseguire calcoli in GPGPU senza dei driver appositi e senza supporto dell'OS, mentre una GPU tradizionale di pari famiglia abbia bisogno dei driver (la scusa che è nello stesso pezzo di silicio non vale più dato che ti ho dimostrato precedentemente che la GPU di Llano è un elemento separato dai core X86)...
Ricordati però di non deviare sul discorso iniziato precedentemente; tanto per dovere di cronaca riporto i tuoi post precedenti:

continuo a non capire esattamente... queste gpu integrate non rihiedono più driver appositi?
perchè se il rendering avviene attraverso un linguaggio di programmazione come lo è per x86 attualmente per le cpu...

in pratica CPU che per funzionare al 100% richiedono dei driver...
Quindi sono legate alle scelte di marketing del produttote, che rilascia i driver come, quando e per i SO che vuole...

La cosa non mi piace manco un po'.

ci mancherebbe altro!


un conto è una sk grafica che serve a far la scheda grafica e basta

discorso diverso è se integri nella cpu unità per il calcolo parallelo (NON solo grafico) ma necessiti di driver per usarle.
Insomma, oggi la GPU è una unità specializzata solo nella grafica (e servono driver), la cpu è generica (e non ne ha bisogno).
Se fondi il tutto in un unico chip che ha funzioni generiche e ad alto parallelismo e pretendi che la sezione parallela necessiti di driver in pratica vendi una unità di calcolo castrata ed a obsolescenza programmata (dipendente dal rilascio di driver).