View Full Version : Un coprocessore con 512 Core
Redazione di Hardware Upg
07-11-2006, 09:12
Link alla notizia: http://www.hwupgrade.it/news/cpu/19139.html
Effettuata la prima dimostrazione di un coprocessore altamente integrato, dotato di ben 512 semplici Core al proprio interno
Click sul link per visualizzare la notizia.
chissà come ci gira oblivion :D Scherzi a parte, mi ha colpito la scelta di installare dei processori azzarderei obsoleti (a 500 Mhz) per giusitificare costi di produzione e consumi quanto più bassi possibili
NeroCupo
07-11-2006, 09:18
Infatti... 512processori per un totale di 60 Watt... :eek:
Paganetor
07-11-2006, 09:21
interessante!
512 Gigaflops sono tanti? mi fate un paragone con qualcosa in commercio? :fagiano:
i consumi mi sembrano buoni (sempre che le prestazioni siano, come immagino, di tutto rispetto).
l'impiego di un smile "processore" sarebbe limitato a compiti specifici o, in un futuro non troppo remoto, sarà possibile vedere simili cpu su comuni PC? non so, ma a parità di gigaflop mi sembra più flessibile avere la potenza divisibile su più core... nel senso che con 512 core (come nel processore dell’esempio) un software scritto in un modo può sfruttarne 300 per la grafica, 100 per la fisica e 100 per l’AI, mentre in un gioco di scacchi può usarne 10 per la grafica e 500 per l’AI :D
è possibile fare una suddivsione simile con i processori attuali o un core, quando si occupa di una certa cosa, fa quella e basta? :stordita:
basta, per ora ho finito di chiedere :D
PS: il link della fonte è in giapponese :mc:
finalmente sono sempre i giappo a fare qualcosa di utile alla comunità scentifica...voglio quella scheda pci-x e quel procio da affiancare al mio opteron 170 quando faccio le simulazioni dei programmi di fisica!
Il fatto che vadano a 500 Mhz è relativo... Le performance nella applicazioni di questo tipo si ottengono moltiplicando le CPU e non aumentando le performance di ogni singolo processore...
Vengono sfruttati per lavori che permettono un notevole parallelismo...
Un processore con un siffatto numero di core, andrebbe bene per una GPU. Quanti GFlops hanno le GPU in commercio?
GigiDagostino
07-11-2006, 09:36
interessante!
512 Gigaflops sono tanti? mi fate un paragone con qualcosa in commercio? :fagiano:
Quoto....si può fare il paragone con delle cpu "normali"?
Ad esempio io ho un E6600....
ci avevano gia' provato i jappo a fare una cosa del genere, tanti anni fa, e si e' risolto tutto in un flop commerciale e una perdita economica incredebili.
ora mi vado a ricercare le dispense su cui avevo letto ste cose ma mi pare ci fosse stato il progetto (jappo) di una macchina a 65536 processori, realizzato con costi esorbitanti, il cui unico problema era dato dal fatto che ogni processore aveva una tempo medio di critical faliure di 65000 ore. morale? una volta all'ora quella macchina era ferma per la sostituzione di una delle cpu
::::Dani83::::
07-11-2006, 09:40
edit...ricordavo male :D
Paganetor
07-11-2006, 09:40
su un link di wikipedia ho trovato questo:
Per fare un confronto con processori meno attempati, Intel ha dichiarato che un Pentium 4 a 3 GHz, raggiunge gli 0.006 Teraflop, ovvero circa 6 Gigaflop, lo Xeon DP 51xx, basato sul core Woodcrest, è attestato a 24 Gigaflop, mentre un sistema Itanium 2 con quattro processori dual core Montecito arriva a 45 GFLOP.
ecco, mi pare quindi che questo coprocessore sia mooooolto più veloce di una CPU in commercio... vedo se trovo dei dati anche sulle GPU...
coschizza
07-11-2006, 09:42
interessante!
512 Gigaflops sono tanti? mi fate un paragone con qualcosa in commercio? :fagiano:
fare confronti seri è impossibile perche bisogna vedere come vengono misurati tali valori.
basandici sui valori dichiarati posso citare:
playstation 3 - 210 Gigaflops
xbox 360 - 120 Gigaflops
cpu i86 moderna dual core stimata in - 40 Gigaflops
ma tutto dipende da come vengono misurati i valori perche possono essere misure di picco reali o semplice dati ricavati dal semplice calcolo - numero dir core * frequenza * unita FPU * thread hardware
tanto per capire quanto questi numeri di base dicano davvero poco prendo un esempio concreto:
la playstation 3 genera ufficialmente circa 210 Gigaflops utilizzando valori in virgola mobile con precisione singola, se invece prendiamo lo stesso codice e lo facciamo elaborare dalla cpu con precisione doppi passamo dal valore precedente a circa 24 Gigaflops che è quasi un ordine di grandezza inferiore.
meglio non farsi "abbindolare" dal valore di 512 core perche non significa che ha all'interno ha 512 cpu come le moderne i86 e le SPE nel cell, anche perche con la litografia utilizzata occuperebbe 10 volte piu dello spazio dichiarato.
per confronto
x1900xtx -> stimati 500Gigaflops consumo 250W
core 2 duo -> 24Gigaflops
Itaium -> 45gflops
Cell (PS3) -> 256Gflops
reference :
http://www.programmazione.it/index.php?entity=eitem&idItem=34371
Paganetor
07-11-2006, 09:45
be', se avesse la potenza di calcolo di una x1900xtx e consumi ridotti a 1/4 non sarebbe comunque male... si potrebbe parlare di raffreddamento passivo o conventole molto piccole...
...mi pare di capire che un singolo chip consumi 60 watt!!!
ecco, mi pare quindi che questo coprocessore sia mooooolto più veloce di una CPU in commercio... vedo se trovo dei dati anche sulle GPU...
Ripeto sono situazioni diverse...magari dai in pasto un normale programma a quella CPU e ci mette 10 volte quello che ci mette un x86 ;)
Questi 512 core non sono general purpose, ma appositamente studiati per situazioni di calcolo parallele...
::::Dani83::::
07-11-2006, 09:48
...mi pare di capire che un singolo chip consumi 60 watt!!!
Non ogni singolo core però :D
Sennò dovremmo raffreddare circa 30.700watt :D
dsajbASSAEdsjfnsdlffd
07-11-2006, 09:49
non sono certo core "obsoleti" solo perche hanno un basso clocckaggio, con tutta probabilità non derivano da nessuna delle famose dinastie di processori visti fino ad ora, ma data l'alta specificità di ogni array (da quel che si evince nell'articolo) sono RISC dedicati ad una specifica tipologia di funzioni. quindi confrontare un singolo core con le cose "domestiche" viste fino ad ora non ha (con tutta probabilità) il minimo significato, menchè meno paragonarne il clockaggio, che già di per sè al giorno d'oggi è un operazione inutile tra processori domestici di marche diverse.
Più sensato è usare come termine di paragone tra la potenza di picco raggiungibile da questa soluzione (di tutto riguardo soprattutto paragonata al consumo), anche se non è specificato il contensto nel quale sono raggiungibili questi risultati e che tool di sviluppo / accorgimenti occorrano per sviluppare un programma efficiente per questo processore (512 core non si gestiscono certo a mano)
cmq davvero una macchina interessante! una buona notizia finalmente :)
Paganetor
07-11-2006, 09:50
esatto cionci, ma il "futuro" è proprio questo, i calcoli paralleli.
già con i semplici dual o quad core si parla di elaborazioni parallele: ecco, con il passare del tempo usciranno sempre più programmi capaci di sfruttare questi multi-processori. che differenza c'è tra programmare qualcosa per un quad core o un X-core?
megawati
07-11-2006, 09:53
Ecco, questo tipo di processore sarebbe PERFETTO per una scheda/motore fisico tipo ageia physx!
Ripeto sono situazioni diverse...magari dai in pasto un normale programma a quella CPU e ci mette 10 volte quello che ci mette un x86 ;)
Questi 512 core non sono general purpose, ma appositamente studiati per situazioni di calcolo parallele...
Certo... situazioni però del tutto comuni in un mondo multimediale digitale.
In effetti penso che il futuro sia un ipercomplesso processore tipo Core2 affiancato da una cosa del genere. Così da avere prestazioni ottimali con ogni genere di algoritmi...
Insomma un Cell con core principale potenziato.
nanciusol
07-11-2006, 09:56
ma come fate a pensare di sfruttare queste cpu, già abbiamo problemi con più di 2 core figuriamoci con 512... win diventerebbe scemo ad utilittarli tutti.. sempre se non si impalla prima dell'avvio.
Ps: si potrebbe pensare di affiancarlo ad una gpu per il calcolo della fisica, o per elaborazioni video hd...li sì che ci sarebbe bisogno di tanta forza "bruza"ma ancora è presto...per il software.
Si dovà aspettare almeno un anno per vederlo utilizzato in qualche cosa.., notate la cosa strana 1 core sviluppa 1 Gigaflops.
512 Core a 500 MHz =512 Gigaflops
quindi 512 core a 1000Mhz = 1024 Gigaflops =1 Teraflops
esatto cionci, ma il "futuro" è proprio questo, i calcoli paralleli.
già con i semplici dual o quad core si parla di elaborazioni parallele: ecco, con il passare del tempo usciranno sempre più programmi capaci di sfruttare questi multi-processori. che differenza c'è tra programmare qualcosa per un quad core o un X-core?
Meglio mettere in chiaro che questi piccoli core non c'entrano niente con gli x86 e sono appunto utilizzabili in poche situazioni in cui i dati che devi elaborare te lo permettono... Avranno un istruction set molto limitato ed una memoria locale per le istruzioni da eseguire in maniera ciclica...
Il futuro è sicuramente questo anche per gli x86, ma è bene non correre troppo con la fantasia ;)
Un processore con un siffatto numero di core, andrebbe bene per una GPU.
Leggendo qui ( http://grape.astron.s.u-tokyo.ac.jp/grape/computer.htm) e qui (http://jp.arxiv.org/abs/astro-ph/0509278) ho l'impressione che GRAPE-DR sia proprio l'equivalente, nel calcolo scientifico, delle GPU. A differenza del Cell i buffer di memoria sono ridotti e sono presenti unità di calcolo dedicate, e questo può spiegare le prestazioni 2 volte superiori con un numero di transistor e un consumo simili.
Si parla di costruire un supercomputer da 2 Pflops, ma come MDGRAPE-3 (http://en.wikipedia.org/wiki/MDGRAPE-3) probabilmente il dato si riferisce ai calcoli dedicati, e non è confrontabile direttamente con i numeri di Blue Gene. E sembra che fra le applicazioni del computer ci siano le simulazioni astrofisiche (come questa (http://www.mpa-garching.mpg.de/galform/millennium/) :eek: )
nanciusol
07-11-2006, 10:02
quoto cionci e Banus.
crepesdesela
07-11-2006, 10:24
Alias GRAvity PipE
Like a graphics accelerator speeding up graphics calculations on a workstation, without changing the software running on that workstation, the GRAPE acts as a Newtonian force accelerator, in the form of an attached piece of hardware. In a large-scale gravitational N-body calculation, where N is the number of particles, almost all instructions of the corresponding computer program are thus performed on a standard workstation, while only the gravitational force calculations, in innermost loop, are replaced by a function call to the special-purpose hardware.
TABLE-1 Low-Precision machines
Machine Year Peak Notes
GRAPE-1 1989 240Mflops Concept Syste,
GRAPE-3 1991 15 Gflops Custom LSI
GRAPE-5 1998/9 ~ 1Tflops
TABLE-2 High-Precision machines
Machine Year Peak Notes
GRAPE-2 1990 40Mflops IEEE single/double
HARP-1 1993 180 Mflops Force and its time derivative
GRAPE-4 1995 1Tflops Single-chip pipeline
GRAPE-6 2002 64Tflops 6 pipelines in one chip
GRAPE-DR 2008 2 Pflops New architecture
Dati del 2004. Beh? Dov'è la novità?
E' un esperimento, e stiamo parlando di ricerca: è fatto da gente con tante idee e pochi(ssimi) soldi a disposizione. E il risultato quindi è da ritenersi spettacolare!
Non fate troppi voli pindarici o paragoni fantasiosi sul possibile utilizzo di un simile processore nel vostro pc: ho sudato (e credo proprio che continuerò a sudare) sangue per far funzionare a dovere le mie due x1900 in parallelo! Ed è un sistema che viene venduto e pubblicizzato a iosa... un sistema che probabilmente nemmeno chi l'ha progettato sa come funzioni precisamente... non basta costruire un sistema: bisogna realizzare del software con l'idea di farlo girare con tali specifiche. E nel campo informatico (ma ne l marketing in generale), progettare una cosa che non si sa se possa diventare uno standard, è una mossa assai azzardata...
60 W in full, con 300 milioni di transistor e' normale
30 W in idle, il 50% del consumo in full (assurdo)
O e' un errore della news o gli ingegneri nipponici hanno fatto dei casini.
Questo procio non rispetta il protocollo di Kyoto!!! LOL (e sono pure giapponesi)
int main ()
07-11-2006, 11:13
:sofico: :sofico: 29cm d processore :oink: cmq è na figata!! :D 512 core!!! ci metti a trasformare un dvx in un dvd massimo 10 minuti :sofico:
Paganetor
07-11-2006, 11:14
ma Kyoto non parla solo delle emissioni? cosa c'entra con il consumo in idle di un processore che, tra l'altro, è solo un esperimento? ;)
Paganetor
07-11-2006, 11:16
non sono 29 cm di processore, ma 290 mm^2... se fosse perfettamente quadrato, sarebbe circa 5.4 cm di lato... nella norma, direi ;)
60 W in full, con 300 milioni di transistor e' normale
30 W in idle, il 50% del consumo in full (assurdo)
Non è assurdo... Essendo le unità di esecuzione dei core molto semplici e quindi piccole, la parte che deve rimanere attiva in idle è comunque una grande % del core...
ci metti a trasformare un dvx in un dvd massimo 10 minuti
Oppure 50 giorni... Hai letto quello che abbiamo detto prima ?
capitan_crasy
07-11-2006, 11:20
:sofico: :sofico: 29cm d processore :oink: cmq è na figata!! :D 512 core!!! ci metti a trasformare un dvx in un dvd massimo 10 minuti :sofico:
29cm?? :D
ma lol!!!!!!!
Il primo co-processore più grande della scheda mamma!!! :rotfl:
coschizza
07-11-2006, 11:31
non sono 29 cm di processore, ma 290 mm^2... se fosse perfettamente quadrato, sarebbe circa 5.4 cm di lato... nella norma, direi ;)
5.4 cm :doh:
sono circa 1,7 cm di lato
"GRAPE-DR contiene un totale di 300 milioni di transistor, costruiti dalla fonderia taiwanese TSMC utilizzando tecnologia produttiva a 90 nanometri."
Beh... l'opteron 165 contiene 222milioni di transitor e ha solo due core..e poi questo è solo un coprocessore bravo in matematica... :D
Paganetor
07-11-2006, 11:34
hai ragione coschizza, ho sbagliato a fare la radice quadrata, m'è scappato uno zero in più :fagiano:
il.SiMpy
07-11-2006, 11:42
:eekk: :sbav: :sofico: :D
...ho sudato (e credo proprio che continuerò a sudare) sangue per far funzionare a dovere le mie due x1900 in parallelo! Ed è un sistema che viene venduto e pubblicizzato a iosa...
Stai parlando di cose tipo BrookGPU, GPGPU?
int main ()
07-11-2006, 12:54
:sofico: nn avevo letto mm quadrati :muro: i'm sorry :stordita:
fare confronti seri è impossibile perche bisogna vedere come vengono misurati tali valori.
basandici sui valori dichiarati posso citare:
playstation 3 - 210 Gigaflops
xbox 360 - 120 Gigaflops
cpu i86 moderna dual core stimata in - 40 Gigaflops
ma tutto dipende da come vengono misurati i valori perche possono essere misure di picco reali o semplice dati ricavati dal semplice calcolo - numero dir core * frequenza * unita FPU * thread hardware
tanto per capire quanto questi numeri di base dicano davvero poco prendo un esempio concreto:
la playstation 3 genera ufficialmente circa 210 Gigaflops utilizzando valori in virgola mobile con precisione singola, se invece prendiamo lo stesso codice e lo facciamo elaborare dalla cpu con precisione doppi passamo dal valore precedente a circa 24 Gigaflops che è quasi un ordine di grandezza inferiore.
meglio non farsi "abbindolare" dal valore di 512 core perche non significa che ha all'interno ha 512 cpu come le moderne i86 e le SPE nel cell, anche perche con la litografia utilizzata occuperebbe 10 volte piu dello spazio dichiarato.
da 210 Gigaflops a 24 Gigaflops non è un ordine di grandezza, è solo /10,un ordine di grandezza è quando si passa da Gigaflops a Teraflops o viceversa, cioè 3 zeri di differenza....
da 210 Gigaflops a 24 Gigaflops non è un ordine di grandezza, è solo /10,un ordine di grandezza è quando si passa da Gigaflops a Teraflops o viceversa, cioè 3 zeri di differenza....
Ehm, devo smentirti. Un ordine di grandezza rappresenta, in parole povere, l'approssimazione, in termini di potenze di 10, di un numero.
"4554" ha ordine di grandezza 10^3, così come "7822". "84356" ha invece ordine di grandezza 10^4.
http://it.wikipedia.org/wiki/Ordini_di_grandezza
ciao!
da 210 Gigaflops a 24 Gigaflops non è un ordine di grandezza, è solo /10,un ordine di grandezza è quando si passa da Gigaflops a Teraflops o viceversa, cioè 3 zeri di differenza....
axa dét!
http://it.wikipedia.org/wiki/Ordini_di_grandezza
pardon, ho confuso il significato di ordini di grandezza,sarà il fatto di essere abituato a convertire sempre per tre ordini di grandezza alla volta considerandola una.
se fosse realmente scalare, 10 di questi processori in un normale PC permetterebbero di comodamente nella TOP500, considerando che al 500esimo posto c'e' uno xeon 2800 (x1028 processori totali, IBM cluster)
5Pflop a 600W, complimenti.
questo genere di processori sono molto apprezzati nei supercomputer per le simulazioni in tempo reale/accellerato, tipo l'earth simulator nipponico, ossia in situazioni dove i thread sono molto corti, ma le variabili molto molto numerose, e generalmente interdipendenti;
con 5120 core a 500mhz, anche ad una sola pipe per core da 5/8 stadi, c'e' la possibilita' di gestire all'unisono un numero decisamente sufficente di variabili per un microcosmo chiuso..
PS: microcosmo inteso come ambiente chiuso a variabili finite, ovviamente non come piccolo universo..
...utilizzando tecnologia produttiva a 90 nanometri.
e pensate cos'altro tirerebbero fuori da questo coprocessore utilizzando un processo a 65 nanometri: potrebbe funzionare a 600 Mhz con un consumo simile, oppure consumare ancora meno dei 60 W in full load.
Tenete anche presente che su questo coprocessore 100 Mhz in più sono un enormità, perchè dovete considerare quell'incremento prestazionale (che già da solo rappresenta il 20% di frequenza in più) per ognuno dei 512 core.
...e come correttamente citato nella frase presente su Wikipedia
"Il fatto che due numeri differiscano per un ordine di grandezza significa che uno è circa dieci volte maggiore dell'altro." la differenza tra 24 Giga f.l.o.p.s e 210 Giga f.l.o.p.s è appunto di circa un ordine di grandezza.
In base dieci, nel passare dal prefisso Tera (10^12) a quello Giga (10^9) si ha una differenza di tre ordini di grandezza.
Quanto al progetto G.R.A.P.E, io che lo ho seguito anche in passato nella sua evoluzione (quando iniziai ad interessarmi di S.E.T.I e del problema della risoluzione numerica del problema degli n-corpi), è sbalorditivo vederne la progessione in termini di "potenza di calcolo raw".
Ho paura però che non sia una soluzione di calcolo molto "general purpose".
Grazie.
Marco1971.
ale0bello0pr
07-11-2006, 19:30
cert0....mmmmh...512 core :o
vuol dire mumble muble...
4core =1000 €
512 core = 4*128= 1000€*128= :rotfl:
ahahahah :sofico:
benjinato
07-11-2006, 21:23
Se non sbaglio si parla di COprocessore e non processore vero e proprio! Se è giusto il mio appunto significa che questo superchip fa una parte ben specifica del lavoro che il processore ci metterebbe una eternità a costruire.
Per quanto riguarda i paragoni con i modelli in commercio di processore io non ne farei alcuno: il numero di flops, da se, non indica potenza di calcolo. Mi spiego meglio. Un processore comune deve fare milioni di operazioni per raggiungere le prestazioni che un processore dedicato farebbe in poche centinaia di passi. Pensate alla conversione divx: i dvd recorder la fanno in tempo relae perché "sanno fare" solo quello mentre i processori che usiamo noi ci mettono del tempo perché i nostri processori "sanno fare" più cose. La distinzione sta proprio nell' istruction set e nella FONDAMENTALE distinzione tra macchine RISC e CISC.
Creare un coprocessore di 512 core non significa altro che creare 512 microistruzioni implementate in hardware in modo che, quando è richiesta quella particolare operazione, invece di ricorrere alle generiche routines degli istruction sets che abbiamo noi (SSE3 etc.), si ottiene un risultato paragonabile solo con i tempi di latenza della circuiteria.
Morale della favola se a calcolare una equazione differenziale (naturalemente sto scrivendo una assurdità solo per spiegarmi) un processore ci mette 30 sec. a 3 Ghz, potrebbe mettercene anche solo 3 sec. a 500 Mhz purché la circuiteria sappia fare quella operazione in pochi passaggi.
Il difficile nella questione è costruire bene la circuiteria e integrarla con il resto dei controller, questo è stato il passo importante per l'umanità! Solo che problemi del genere se ne studiano in tutte le università non solo in Jappone ;).
Che dite cela farà a tenere mediaplayer e emule?? :sofico:
sarebbe bello venisse messo in commercio tra poco :rolleyes:
gabi.2437
07-11-2006, 23:02
Bello, anche se, essendo progettato per essere parte di un supercomputer, ha poco a che veder con le nostre cpu :D
Cmq si, le schede video hanno molti più Gflops di una CPU, anche se meno sfruttabili perchè mentre la cpu fa di tutto, una gpu è molto più limitata.
Una gpu moderna faràmeno 5 volte i gflops di una cpu...basta veder i dati di folding@home che ha creato da poche settimane il client per le gpu, i gflops dati sono molti di più (addirittura si vocifera di 20-30volte la velocità di una cpu)
golden23q3
08-11-2006, 00:52
cert0....mmmmh...512 core :o
vuol dire mumble muble...
4core =1000 €
512 core = 4*128= 1000€*128= :rotfl:
ahahahah :sofico:
auhauahuaauhauh devo iniziare a mettere da parte un po di grano per comprarlo :rotfl: :rotfl: :rotfl: ...
ypsilon-123
08-11-2006, 01:39
Sarà... Nell'articolo precedentemente menzionato in un post si affermava che una delle due innovazioni di tale coprocessore è l'implementazione in hardware dell'operazione di riduzione... Vi inviterei a informarvi su cos'è una riduzione prima di commentare l'articolo.
Attenzione, co-processore non processore...vuol dire che ognuno dei 512 co-processori verrà programmato per esegurie UNA SOLA SPECIFICA operazione...la velocità aumenterà esponenzialmente perchè quando il sw richiederà QUELLA specifica operazione, si troverà a disposizione un co-processore dedicato!
Ma la vera rivoluzione è, a mio avviso, il chaos computing: è un chip i cui circuiti logici possono venire riprogrammati in tempo reale!
Ad es.: se eseguo un programma di grafica, il chip si riconfigura trasformandosi per la maggior parte in memoria. Se invece ho bisogno di potenza di calcolo, il chip si trasforma in una CPU. In pratica sto benedetto chip del professor Ditto è in grado di trasormarsi nell HW che l'applicazione richiede in quel momento!
Attenzione, non è fantascienza! Il primo chip dimostrativo sarà già presentato a Gennaio!
i&s_drums
08-11-2006, 11:43
Ma la vera rivoluzione è, a mio avviso, il chaos computing: è un chip i cui circuiti logici possono venire riprogrammati in tempo reale!
Ad es.: se eseguo un programma di grafica, il chip si riconfigura trasformandosi per la maggior parte in memoria. Se invece ho bisogno di potenza di calcolo, il chip si trasforma in una CPU. In pratica sto benedetto chip del professor Ditto è in grado di trasormarsi nell HW che l'applicazione richiede in quel momento!
Attenzione, non è fantascienza! Il primo chip dimostrativo sarà già presentato a Gennaio!
Una cosa concettualmente simile mi pare fosse stata fata da IBM non era un singolo coprocio ma una scheda in grado di ospitare un numero che mi pare partisse da 4 e arrivasse a anche a 32 (non ricordo bene) processori e un numero spropositato di giga di ram e serviva per quello che adesso chiamano "virtualizzazione" ovvero più sistemi operativi su una macchina in tempo reale. Il tutto se non vado errato era gestibile tramite un'interfaccia che ti permetteva di assegnare risorse in tempo reale al sistema che preferivi o che aveva più bisogno in un determinato momento (mi pare ci fosse anche un sistema di load balancing ma non sono sicuro). alla luce di sta cosa il tutto non è un concetto un po' obsoleto?
In questo caso non si parla di vari componenti hw che possono essere bilanciati da una interfaccia utente, ma di un singolo chip che SOSTITUISCE contemporaneamente memoria, co-processori, processori e quant'altro modificandosi in tempo reale a seconda delle richieste del sw.
In pratica si tratta di un unico componente in grado di svolgere QUALSIASI funzione e di adattarsi alle esigenze della stessa: serve memoria, mi trasformo in gran parte in essa, serve più calcolo, mi trasformo in un mega processore, ecc.. Ben diverso da un sistema multiprocessore ultrapompato che riesce a gestire contemporaneamente n sistemi di cui tu mi parli.
Una cosa che mi ha molto colpito è che il maggior finanziatore di questo chip è il Ministero della Difesa degli Stati Uniti e che, fin dalla nascita del progetto è nata una società dedicata che ora verrà quotata in borsa.
i&s_drums
08-11-2006, 14:29
cmq il processo è diverso e sicuramente innovativo e strabiliante dal punto di vista delle possibiil appricazioni ma il fine è dal mio punto di vista è lo stesso ovvero cercare di realizzare una infrastruttura scalabile che mi permette di avere una notevole flessibilità a livello di assegnazione risorse (Non se avete presente sempre mamma IBM il suo slogan era "ON DEMAND"). però ancora mi rimane un dubbio... come si trasforma un coprocessore in memoria? Intendo dire, ho bisogno di memoria per una applicazione questo chip trasforma se stesso in memoria... fisicamente dove li mette i dati? intendo dire, ok ci sono 512 cores che lavorano ma proprio per questo se ho bisogno di quanitativi di memoria grossi vedi 1gb per esempio... dove li mette? trasforma tutto se stesso in memoria o solo una parte?
Quindi presto avremo dei cooprocessori che si trasformano in missili se "l'applicazione lo richiede" :p
...
http://www.pcmag.com/article2/0,1895,1988186,00.asp
http://www.economist.com/science/displayStory.cfm?story_id=2552875
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.