PDA

View Full Version : Tera-scale: 80 Core in un unico processore


Redazione di Hardware Upg
12-02-2007, 17:06
Link alla notizia: http://www.hwupgrade.it/news/server/20116.html

Intel anticipa quella che potrebbe essere l'evoluzione futura delle cpu con un prototipo di processore a 80 Core, capace di elaborare sino a 1 teraFLOP

Click sul link per visualizzare la notizia.

yanchi
12-02-2007, 17:13
mi domando quanto ci sia di simile concettualmente e tecnicamente tra questa architettura e il Cell di STI...

Trinakie
12-02-2007, 17:14
secondo me alla microsoft sarebbero capaci di fare windows vienna talmente pesante da farlo andare lento anche con questo processore......

Hitman04
12-02-2007, 17:16
Trinakie, voglia di trollare oggi? Per quello se vuoi c'è il forum di PI.

mentalrey
12-02-2007, 17:17
I centri di elaborazione dati si sfregherebbero le mani al pensiero di avere macchine con un equipaggiamento di questa portata.
Il progetto, pero' mi sembra una versione piu' spinta del progetto Cell
della IBM o per lo meno molto simile.

mentalrey
12-02-2007, 17:19
P.S. interessante il router di comunicazione tra un core e l'altro.

The Predator
12-02-2007, 17:30
Si ma quanto costerà se lo mettono in commercio,centomila euro.

riaw
12-02-2007, 17:31
attualmente, il più potente ha 260tflop con 131.072 processori.

in linea teorica, con questo processore si può ottenere lo stesso risultato usando 260 processori (260 contro 131.072) e con una dissipazione totale di 26kilowatt.

oppure, nella versione a basso consumo, utilizzare 818 processori per una dissipazione totale di 8kilowatt.

o hanno sparato alto con i tflop dichiarati, o è una semi-rivoluzione.

essereumano
12-02-2007, 17:36
Ah si va benino.... 62 chede video, 80core....
Siamo sicuri che sia la strada giusta?

Apple80
12-02-2007, 17:46
Il problema sarà creare un software per gestire tutti i core. no?
in ambito militare scientifico ecc. no rpoblem. Ma per casa-lavoro mi chiedo quanto possa servire. Prima che lo vedremo nelle nostre case passeranno una decina di anni.

FFrank
12-02-2007, 17:52
scusatemi un attimo... ma all'E3 2005 la sony non aveva sbandierato ai quattro venti che la playstation3 era in grado di elaborare due teraflop con il cell ? :sofico:
e a me risulta che il cell abbia meno di 160 core...

Micene.1
12-02-2007, 17:52
attualmente, il più potente ha 260tflop con 131.072 processori.

in linea teorica, con questo processore si può ottenere lo stesso risultato usando 260 processori (260 contro 131.072) e con una dissipazione totale di 26kilowatt.

oppure, nella versione a basso consumo, utilizzare 818 processori per una dissipazione totale di 8kilowatt.

o hanno sparato alto con i tflop dichiarati, o è una semi-rivoluzione.

magari quello che dici tu è compatibile con le istruzione x86...sta cosa delle istruzioni semplificate secondo me altera parecchio le potenze di calcolo in gioco

morpheus89
12-02-2007, 17:54
80 core x 1Tflop??? ma se la 360 con soli 3 core riesce a tirare fuori 1Tflop...

Opteranium
12-02-2007, 17:54
ma il core 2 duo non ne ha leggeri 300 milioni?

se è così ogni core di quell' affare ha gli stessi transistor di un 486... e che mettendo insieme un' ottantina di 486 si spara fuori 1 tflop??

boh io non ho mai provato, chissa ;-)

nMOS
12-02-2007, 17:56
"mi domando quanto ci sia di simile concettualmente e tecnicamente tra questa architettura e il Cell di STI..."


cambia notevolmente, da quel che ho capito qui ci sono 80 core singoli, cioè 80 vere e proprie cpu connesse tra loro; non si fa riferimento a dettagli sull'architettura della memoria che intel ha deciso di adottare

nel Cell il discorso varia, e di molto, si è seguito un approccio innovativo e sicuramente affascinante, che solo per questo dovrebbe invogliare a comprarla, mandando al rogo xbox360 e la microsoft stessa: nel Cell originario c'è UNA sola cpu (denominata "general purpose") che è il G5, mentre le altre 8 unità di calcolo sono piccole unità molto specifiche che utilizzano protocolli di coerenza dei dati sbalorditivi; infatti se queste non hanno cache ci sarà qualcosa di rivoluzionario sotto!
cmq anche con il Cell si parla di teraflops, mi sa che in totale ne possa fare 2 (ripartizionati tra cell e gpu, mi sa che il cell ne fa 1,6 di suo ma non ricordo bene).

CommaderP5
12-02-2007, 18:01
Ancora con questa favoletta degli 80 core: quelli che vengono definiti "core", ovvero processori autonomi, non sono altro che subunità di calcolo, ben differenti da una CPU normale.

Basta vedere l'immagine a corredo dell'articolo: tutte le parti di I/O tra CPU e resto del sistema, senza contare i controllori della memoria ed il clock sono UNICI e BEN DISTINTI da quello che, forzando un po', potrebbe essere definito CLUSTER DI CALCOLO...

Per essere ancora più esplicativo, provate a dare un'occhiata a questa immagine ( http://i2.neoseeker.com/a/a64-x2-4200/diagram_thumb.jpg ), dove è rappresentata l'architettura interna di un AMD X2: i due core sono ben separati, e l'unica cosa in comune, oltre all'interfaccia di intercomunicazione, è il controller DDR.. L'unica differenza con i core duo, a livello logico/costruttivo, è che in questi ultimi la memoria L2 è condivisa ( http://www.zdnet.com.au/shared/images/products/intel-core2duo-diagram-440x370.jpg )..

Fx
12-02-2007, 18:09
il cell della ps3 ha 8 "core" per un totale teorico di picco di 256 Gflops

il valore fuffa di 2 Tflops è ottenuto sommando anche la potenza di calcolo di picco (ancora più teorica) della GPU

la cosa curiosa è che all'atto pratico la GPU dell'xbox 360 è equivalente, pur avendo un valore dichiarato di picco in gflops pari a meno della metà (ma ho anche idea di come calcoleranno i gflops in questi casi, ovvero prendendo il valore di picco teorico di ogni singola unità di calcolo presente nella GPU e facendo una insulsa e assolutamente non significativa somma)...


l'aspetto che mi sconcerta è che, quando si tratta di calcolo parallelo (ad esempio elaborazione di stream), tirar fuori gflops sia relativamente una stupidata ma ciò nonostante:
1) questi numeroni che ne escono suscitano sempre stupore
2) si fanno sempre paragoni a sproposito con gli x86 o comunque CPU general purpose la cui complessità è decisamente maggiore
3) le CPU così concepite escono con il contagocce

è talmente ovvio che se devi trattare blocchi di 1000 word alla volta è meglio avere 1000 core a 1 hz che 1 core a 1000 hz che davvero non capisco questa "rivoluzione"... a me sembra davvero l'acqua calda - non a caso processori dedicati al calcolo vettoriale così strutturati ci sono in giro da parecchi anni

è un po' come per i dischi fissi allo stato solido... ci sono da anni ma evidentemente diventano innovativi solo quando si muovono i colossi...

Dumah Brazorf
12-02-2007, 18:10
Cmq meglio 80 core in un unico package che 62 schede in //

CommaderP5
12-02-2007, 18:25
Quotone panico per FX!

E' la stessa storia dei GB (che NON esistono, secondo i produttori di dischi rigidi) e della velocità in ADSL (4 M teorica, 300 K reale)..

Per fare pubblicità tirano fuori numeri anche dalla lista della spesa!

darkquasar
12-02-2007, 18:37
visto che per quanto riguarda i progetti futuri Intel marca male, dopo aver sfornato i processori quad core finti adesso vogliono a fare a chi ce l'ha più lungo sul numero di core, un po' come avevano fatto con l'architettura Netburst (pipeline con un fottio di stadi) per quanto riguarda i MHz.
Sono ridicoli.

Oh a proposito, visto che l'atteggiamento è questo: 'sto processore se ha 100 milioni di transistor, vuol dire che ne ha meno della metà del Cell.

erpalma
12-02-2007, 18:57
@CommanderP5



Per i produttori di HD (e non solo purtroppo) 1kB=1000B invece di 1024B, ecco il mistero.

Per la storia dell'adsl... Un conto è dire che nella navigazione DNS problematici e PING elevati sono deleteri (concordo), un altro è dire che la tua ADSL da 4Mbit/s (massimi) cioè 512kByte/s di picco non li riesca mai a "vedere" e si assesti sempre su valori massimi di 300kB/s. Se davvero ti succede questo allora c'è un grosso problema. Ovviamente vanno misurati anche in base alla capacità del server e alla distanza dello stesso: un server in italia con una connessione molto libera te li darà sicuramente i 512 (anche qualcosa in più di picco). Altro modo per ottenerli è usare più connessioni al server in parallelo, come fanno penso tutti i download manager. Io di norma faccio almeno 20 connessioni in parallelo, fino anche a 60 quando il server è molto intasato. So che non è molto ortodosso ma se ho fretta è l'unica soluzione.

mjordan
12-02-2007, 19:09
Si ma quanto costerà se lo mettono in commercio,centomila euro.

Non a caso soluzioni simili richiedono anni per l'immissione sul mercato.
Credi forse che quello che compri nei negozi sia veramente l'ultima tecnologia costruibile dall'uomo?

mjordan
12-02-2007, 19:10
Il problema sarà creare un software per gestire tutti i core. no?
in ambito militare scientifico ecc. no rpoblem. Ma per casa-lavoro mi chiedo quanto possa servire. Prima che lo vedremo nelle nostre case passeranno una decina di anni.

No. Con queste architetture soluzioni simili a OpenMP piu' assistenza mirata dei compilatori diventerà la norma.

mjordan
12-02-2007, 19:11
visto che per quanto riguarda i progetti futuri Intel marca male, dopo aver sfornato i processori quad core finti adesso vogliono a fare a chi ce l'ha più lungo sul numero di core, un po' come avevano fatto con l'architettura Netburst (pipeline con un fottio di stadi) per quanto riguarda i MHz.
Sono ridicoli.

Oh a proposito, visto che l'atteggiamento è questo: 'sto processore se ha 100 milioni di transistor, vuol dire che ne ha meno della metà del Cell.

Ingegnè, tu che cosa proponi in alternativa invece? :rotfl:

Marko91
12-02-2007, 19:21
"mi domando quanto ci sia di simile concettualmente e tecnicamente tra questa architettura e il Cell di STI..."


cambia notevolmente, da quel che ho capito qui ci sono 80 core singoli, cioè 80 vere e proprie cpu connesse tra loro; non si fa riferimento a dettagli sull'architettura della memoria che intel ha deciso di adottare

nel Cell il discorso varia, e di molto, si è seguito un approccio innovativo e sicuramente affascinante, che solo per questo dovrebbe invogliare a comprarla, mandando al rogo xbox360 e la microsoft stessa: nel Cell originario c'è UNA sola cpu (denominata "general purpose") che è il G5, mentre le altre 8 unità di calcolo sono piccole unità molto specifiche che utilizzano protocolli di coerenza dei dati sbalorditivi; infatti se queste non hanno cache ci sarà qualcosa di rivoluzionario sotto!
cmq anche con il Cell si parla di teraflops, mi sa che in totale ne possa fare 2 (ripartizionati tra cell e gpu, mi sa che il cell ne fa 1,6 di suo ma non ricordo bene).

Un Cell con 8 SPE può al massimo eleborare 256 Gigaflops con codice ultraottimizzato. I 2 teraflops erano riferiti alle performance totali di Ps3 (Cell+RSX) ma sono 4-5 volti superiori alla realtà (che è intorno ai 600 Gigaflops)
Anche MS cmq ha gonfiato i numeri, praticamente gli ha raddoppiati.
L'idea è buona, anche AMD seguirà quella strada.

Jon_Snow
12-02-2007, 19:24
Interessante, mI ricorda un po' la filosofia delle FPGA.

flapane
12-02-2007, 19:34
...in attesa nei prossimi decenni di abbandonare il SIlicio e in un futuro ancora più lontano di intravedere l'informatica quantistica :sbavvv:
E'chiaro che questo è solo un esercizio tecnologico e non sarà realtà nell'immediato almeno fin quando la miniaturizzazione non avrà una bella spinta

demon77
12-02-2007, 19:35
però..
un cluster-on-a-chip!!

il problema ora è sfruttare come si deve la potenzialità in parallelo

metallus84
12-02-2007, 19:41
m sa ke stanno cercando di strizzare la tecnologia basata sul silicio con questa novità , visto ke mi sà ke + di tanto non riescon ad andare con velocità di elaborazione (l'elettrone inizia a essere un po lento :°D) si appoggiano sul calcolo parallelo, non è male secondo me, chissà quando vedremo i primi chipset delle mobo dual core ihihihi :D
Spero si sbrighino ad applicare a livello commerciale la tecnica fotonica. I cristalli sono 1 grande cosa in confronto al silicio, molto + veloci. Le teorie ormai ci sono e si studiano da tanti anni, prima del computer quantistico m sa che arriverà quello fotonico:)
chi vivrà, vedrà...

R3GM4ST3R
12-02-2007, 19:43
anche i compilatori sono programmi...quindi vanno riscritti ed ottimizzati...poi ci sono i sistemi operativi (che integrano la gestione delle risorse del sistema...di roba da riscrivere ce nè, soprattutto per il fatto che non sono VLIW e non x86).

Secondo il mio punto di vista il gioco del "chi ce l'ha più grosso" continuando ad aumentare il numero di core è abbastanza inutile...

Sarebbe interessante vedere lo schema del memory controller affiancato a questa cpu per eseguire i test sopracitati...

darkquasar
12-02-2007, 19:47
Ingegnè, tu che cosa proponi in alternativa invece? :rotfl:
Dottò, un quadri-core vero sarebbe già un progresso notevole...

Rimaniamo in trepidante attesa...

Kuarl
12-02-2007, 19:50
ragazzi... il cell è ben altra cosa, molto diverso da sto coso. L'unica cosa che si potrebbe paragonare è il sistema di comunicazione interno... questi pseudocore non sono degni di essere paragonati agli spe.... :D

darkquasar
12-02-2007, 19:52
"mi domando quanto ci sia di simile concettualmente e tecnicamente tra questa architettura e il Cell di STI..."


cambia notevolmente, da quel che ho capito qui ci sono 80 core singoli, cioè 80 vere e proprie cpu connesse tra loro; non si fa riferimento a dettagli sull'architettura della memoria che intel ha deciso di adottare

nel Cell il discorso varia, e di molto, si è seguito un approccio innovativo e sicuramente affascinante, che solo per questo dovrebbe invogliare a comprarla, mandando al rogo xbox360 e la microsoft stessa: nel Cell originario c'è UNA sola cpu (denominata "general purpose") che è il G5, mentre le altre 8 unità di calcolo sono piccole unità molto specifiche che utilizzano protocolli di coerenza dei dati sbalorditivi; infatti se queste non hanno cache ci sarà qualcosa di rivoluzionario sotto!
cmq anche con il Cell si parla di teraflops, mi sa che in totale ne possa fare 2 (ripartizionati tra cell e gpu, mi sa che il cell ne fa 1,6 di suo ma non ricordo bene).
'ste 80 cpu sono molto più semplici degli 8 spe del cell, visto che il numero di transistor di cui sono composte è estremamente inferiore.
Altro che "vere cpu"...

Khronos
12-02-2007, 19:53
abbandonare il silicio? il silicio è sabbia compressa, la materia più duttile e disponibile di questo pianeta. i cristalli come li si ottiene?

darkquasar
12-02-2007, 19:55
ragazzi... il cell è ben altra cosa, molto diverso da sto coso. L'unica cosa che si potrebbe paragonare è il sistema di comunicazione interno... questi pseudocore non sono degni di essere paragonati agli spe.... :D
...tra l'altro in 'sta roba qui di 80 core, la complessità del sistema di comunicazione tra i vari core porta via ulteriori transistor alla potenza di calcolo reale...

jappilas
12-02-2007, 19:55
Per i produttori di HD (e non solo purtroppo) 1kB=1000B invece di 1024B, ecco il mistero.no, loro usano corettamente il KB definito nel sistema internazionale come a base decimale, è il resto del mondo a non aver fatto caso all' esistenza di KiB, MiB e GiB (Kibibyte Mebibyte e Gibibyte, cioè Kilo/Mega/Giga binary byte )... :)

nonikname
12-02-2007, 20:10
Mi sa che la notizia è stata fraintesa:

Questa soluzione progettata da Intel con 80 "core" è un prototipo atto a testare il funzionamento di varie tecnologie, prima fra tutti la circuiteria che funge da router per collegare i vari core...
Ora che il core sia più o meno potente oppure X86 o no , ai fini della ricerca ha poca importanza .... Infatti sappiamo bene come Intel lavora nel progettare e costruire il songolo core .. e lo sanno ormai benne anche loro..
Quello che hanno fatto , dunque è stato cercare di realizzare una rete di core semplici , mettendone quanti il processo produttivo permette , e dedicando il grosso del lavoro al compilatore....

Il chip sarà anche in grado di processare un teraflop , ma non sono operazioni a 128bit FP ma single-precision FP...

nonikname
12-02-2007, 20:13
DImenticavo per chi vuole approfondire:

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2925

:)

sts
12-02-2007, 20:54
...in attesa nei prossimi decenni di abbandonare il SIlicio e in un futuro ancora più lontano di intravedere l'informatica quantistica
E'chiaro che questo è solo un esercizio tecnologico e non sarà realtà nell'immediato almeno fin quando la miniaturizzazione non avrà una bella spinta
:eek: complimenti per le informazioni. Infatti in alcuni laboratori del sol levante studiano da alcuni anni elaboratori che usano la luce al posto dei tradizionali conduttori. praticamente sti PC che abbiamo oggi nel futuro sembreranno pallottolieri. bye :p

int main ()
12-02-2007, 21:15
Ah si va benino.... 62 chede video, 80core....
Siamo sicuri che sia la strada giusta?
ma perkè quelli come te nn li bannano? :confused:

Dreadnought
12-02-2007, 21:32
perchè qua sono la maggioranza... :rolleyes:

Catan
12-02-2007, 22:04
a parte che il cell su ps3 è a 6 spe^^.
cmq a parte che sicuramente per farne uno con archidettura x86 quindi fruibile al pubblico sicuramente ci sarebbero molti problemi di ingnerizazione con il numero di transistor destinati a levitare oppure mantenedo gli stessi trans ma diminuendo i core.
cmq sono belli questi esercizzi di stile permettono di capire come utilizzare le nuove tecnologie

mjordan
12-02-2007, 23:16
Dottò, un quadri-core vero sarebbe già un progresso notevole...

Rimaniamo in trepidante attesa...

Tu parli di prodotti destinati al commercio, qui stiamo parlando di prototipi sperimentali di ricerca che influenzeranno i prodotti del futuro. Non confrontiamo le pere con le arance.

mjordan
12-02-2007, 23:22
no, loro usano corettamente il KB definito nel sistema internazionale come a base decimale, è il resto del mondo a non aver fatto caso all' esistenza di KiB, MiB e GiB (Kibibyte Mebibyte e Gibibyte, cioè Kilo/Mega/Giga binary byte )... :)

Io veramente sapevo che le unità di misura Kibibyte, Mebi e Gibi sono state definite in un periodo successivo a quelle classiche, proprio per dare un senso a questa nomenclatura indotta dai produttori di memoria di qualsivoglia natura... :stordita:
Quindi 1MB = 1024KB, 1MiB = 1000KiB.

Poi posso anche sbagliarmi, ma mi sembrava di aver letto cosi da qualche parte.

mjordan
12-02-2007, 23:29
anche i compilatori sono programmi...quindi vanno riscritti ed ottimizzati...poi ci sono i sistemi operativi (che integrano la gestione delle risorse del sistema...di roba da riscrivere ce nè, soprattutto per il fatto che non sono VLIW e non x86).


Si parlava di "applicazioni". E' chiaro che i compilatori andranno riadattati, difatti se rileggi quello che ho scritto i conti tornano. Quello che sostanzialmente ho detto è che per le comuni applicazioni cambierà molto poco dal punto di vista della scrittura di applicazioni.
Che i tool di sistema e i SO dovranno essere adattati è la scoperta dell'acqua calda.


Secondo il mio punto di vista il gioco del "chi ce l'ha più grosso" continuando ad aumentare il numero di core è abbastanza inutile...


Non è inutile finchè si capisce che le tradizionali architetture sono arrivate alla frutta e aggiungere unità di elaborazione parallele è la via da seguire se si vuole aumentare ulteriormente la complessità dei processori e la loro capacità elaborativa. Come si è sempre fatto, del resto. Questo modo di procedere è la normale continuazione logica a quello che abbiamo sempre chiamato "cluster". Solo che stavolta è a livello di CPU. Si parlava di processi produttivi a 22nm, fin quando credi che si possa scendere ancora?

walter89
13-02-2007, 00:05
Io veramente sapevo che le unità di misura Kibibyte, Mebi e Gibi sono state definite in un periodo successivo a quelle classiche, proprio per dare un senso a questa nomenclatura indotta dai produttori di memoria di qualsivoglia natura... :stordita:
Quindi 1MB = 1024KB, 1MiB = 1000KiB.

Poi posso anche sbagliarmi, ma mi sembrava di aver letto cosi da qualche parte.
no è proprio il contrario

1 MiB = 1024 KiB o 2^10 Kib = 2 ^ 20 byte
1 Mb = 10^3 Kb = 10^6 byte

di conseguenza 1 Mb = (10^6 / 2 ^20) MiB = 0,95 MiB

cioè un Milione di byte (Mb) corrisponde a 0,95 MiB.
L'ambiguità nasce dal fatto che in windows ad esempio quello che è identificato come Megabyte (Mb) è in realtà il Mibibyte (MiB)

Allo stesso modo
1 GiB = 2^30 byte
1 Gb = 10^9 byte
quindi il rapporto GiB (o Gb winzozziano :D ) / Gb formale (quello con cui misurano le capacità degli hard disk per capirici) è = 0,93
ecco perchè un hard disk da 250 gb (ufficiali; 250 x 10^9 byte) in windows è di 237,5 Gb (che in realtà sono Gib ovvero 237,5 * 2^30 byte).

se ho sbagliato qualcosa correggetemi

Cazzabbubbolo
13-02-2007, 00:17
Ah si va benino.... 62 chede video, 80core....
Siamo sicuri che sia la strada giusta?

Direi proprio di si, se pensi che diminuendo la frequenza del core di un processore, diminuisce il calore e soprattutto il consumo. E quello che perdi in prestazioni, lo guadagni con l'altro core... :read:

Comunque, direi che ormai certi commenti sono inappropriati, a meno di non aver capito una cippa di informatica di base... :D

Scrambler77
13-02-2007, 00:41
cazz! io ero rimasto fermo al k8l!! :asd: :asd: :asd:

mjordan
13-02-2007, 02:56
no è proprio il contrario

1 MiB = 1024 KiB o 2^10 Kib = 2 ^ 20 byte
1 Mb = 10^3 Kb = 10^6 byte

di conseguenza 1 Mb = (10^6 / 2 ^20) MiB = 0,95 MiB

cioè un Milione di byte (Mb) corrisponde a 0,95 MiB.
L'ambiguità nasce dal fatto che in windows ad esempio quello che è identificato come Megabyte (Mb) è in realtà il Mibibyte (MiB)

Allo stesso modo
1 GiB = 2^30 byte
1 Gb = 10^9 byte
quindi il rapporto GiB (o Gb winzozziano :D ) / Gb formale (quello con cui misurano le capacità degli hard disk per capirici) è = 0,93
ecco perchè un hard disk da 250 gb (ufficiali; 250 x 10^9 byte) in windows è di 237,5 Gb (che in realtà sono Gib ovvero 237,5 * 2^30 byte).

se ho sbagliato qualcosa correggetemi

Si è vero ho invertito nella definizione, ma secondo me si sta facendo ancora una gran confusione. Mb sta per "megabit" mentre "megabyte" si scrive MB.
Infatti il sistema SI internazionale definisce il bit come "b" mentre il byte come "B". Quindi Mb non è "megabyte" ma "megabit".

Ho ritrovato l'articolo, la definizione di mibi, kibi, etc. è infatti posteriore alla definizione comune, esse infatti sono state definite solo nel 1998 e per di piu' dallo IEC, proprio per risolvere le ambiguità con il sistema SI.

Le ambiguità non derivano da Windows, Windows le usa correttamente in base al contesto, infatti 1MB (1 megabyte) ha 3 diverse interpretazioni in base al contesto, proprio per motivazioni tecniche.

C'è da dire che è anche incorretto dire che 1 MB = 10^3 KB = 10^6 byte sempre e comunque, perchè quella è una convenzione IEC e non sta scritto da nessuna parte che debba essere usata per forza. Infatti viene usata solo quando si parla di storage, ma negli altri casi si usa il sistema SI, che prevede il piu' classico 1MB = 1048576 byte = 1024 KB.

Comunque leggete qui':
http://it.wikipedia.org/wiki/Megabyte

cionci
13-02-2007, 08:40
Credo che ci sia da mettere in evidenza alcune cosa:

- sono 80 core, ma ogni core svolge solo le funzioni FPU
- sono 80 core VLIW (Epic style suppongo) e come tali sono molto diversi da un x86 e non risentono di molte problematiche di una architettura x86 (nella VLIW il parallelismo fra le unità è gestito direttamente tramite il codice macchina tanto per evidenziare la differenza maggiore)
- 1 TeraFLOP....si fa presto a fare questi calcoli sommando la capacità di ogni singola unità (a 32 bit tra l'altro)

Questo non per criticare il progetto, ma solo per farvi capire a cosa siamo davanti.
E' un prototipo, niente di più e niente di meno, con applicazioni pratiche sicuramente limitate. Questo non siminuisce senz'altro la notizia, in quanto è sicuramente un'anticipazione di quanto potrebbe riservarci il futuro.
Per chi si chiede: ma è questa l'unica strada ? Da parte mia, come avevo già detto ed ipotizzato in passato, la risposta è sì. E' l'unica possibilità per rispondere alla richiesta di aumento di prestazioni in quanot la via dell'aumento di frequenza (ipotizzata da anni da Intel, secondo loro avremmo dovuto avere CPU a 8 GHz di questi tempi). Purtroppo l'aumento di parallelismo non ha ancora visto un equivalente sforzo dal punto di vista dei linguaggi di programmazione. In pratica ci troviamo davanti ai Quad Core con linguaggi paralleli praticamente inesistenti.
Ecco secondo me quale sarà punto di svolta per il futuro. Al giorno d'oggi sviluppare codice parallelo ha un costo troppo elevato.

DevilsAdvocate
13-02-2007, 10:16
Se parlano di un gigaflop in tutto il general purpose e non solo
nel calcolo fp (senno' quest'oggetto non va molto piu' veloce del cell...) allora X86 deve morire..... Con Linux o BSD i sorgenti sono aperti e
quindi questi S.O. si potranno adattare a qualsiasi novita' il futuro ci
porti....

JOHNNYMETA
13-02-2007, 10:20
ma il core 2 duo non ne ha leggeri 300 milioni?

se è così ogni core di quell' affare ha gli stessi transistor di un 486... e che mettendo insieme un' ottantina di 486 si spara fuori 1 tflop??

boh io non ho mai provato, chissa ;-)

Infatti dovrebbero avere 1.200.000 transistor l'uno come i 486 però i 486 andavano massimo a 50 Mhz mentre questi 80 core vanno a 3133Mhz.

liviux
13-02-2007, 10:30
Potrei sbagliarmi, ma a me pare che il tipo di applicazioni che ha maggiore bisogno di incrementi di prestazioni sia anche quello che più si presta ad essere parallelizzato. Per i singoli thread abbiamo già tutta la potenza che può servire. I videogiochi possono certamente essere parallelizzati, per esempio dedicando ad ogni core un sottoinsieme delle entità (personaggi, oggetti, parti dello scenario, particelle) anzichè una singola funzionalità (la fisica, l'audio, la grafica, l'AI) come si cerca di fare attualmente. Il primo approccio è scalabile, il secondo no.
Se un domani avremo nei nostri PC nugoli di "agenti" intelligenti al nostro servizio, ciascuno operante sul suo core, certamente continueremo anche a fare word processing. Ma uno solo dei tanti core a disposizione sarà più che sufficiente allo scopo.

Marco71
13-02-2007, 10:32
...però non si può comparare la tecnologia micro-elettronica di fine anni '80 con quella odierna (che ha moltissimi problemi uno tra tutti il consumo di potenza molto spesso abnorme).
La famiglia 80486 non andava "al massimo a 50 MHertz"...
Esisteva l'80486DX-50 con bus esterno funzionante a 50MHz e strutture interne sincrone ad esso ma, esisteva anche l'80486DX4 di Intel funzionante a 100MHz.
Per non parlare dell'A.M.D 5x86-133 funzionante a 133MHz e con 16+16 KBi di memoria cache L1-L2.
Grazie.

Marco71.

mtk
13-02-2007, 12:25
mi sa che intel deve avermi copiato....il mio celeron 1.3(muletto)con 1.2 giga di memoria,120 giga di hard e ati 1650 pro ha le stesse prestazioni quando lo spengo hahahahahahaha

Gatto Isidoro
13-02-2007, 13:53
Speriamo solamente che con tutti sti Tera e Gigaflop il tutto poi non si riveli solo un flop...staremo a vedere...

darkquasar
13-02-2007, 14:55
Tu parli di prodotti destinati al commercio, qui stiamo parlando di prototipi sperimentali di ricerca che influenzeranno i prodotti del futuro. Non confrontiamo le pere con le arance.
qui stiamo parlando di prototipi sperimentali di ricerca che influenzeranno quelli che di ricerca non sanno una mazza, visto che insolitamente ne è giunta notizia in quei siti letti dagli utenti normali.
In gergo si chiama "pubblicità".

mjordan
13-02-2007, 22:39
qui stiamo parlando di prototipi sperimentali di ricerca che influenzeranno quelli che di ricerca non sanno una mazza, visto che insolitamente ne è giunta notizia in quei siti letti dagli utenti normali.
In gergo si chiama "pubblicità".

Se non ne vedi le implicazioni tecnologiche non ti posso fare niente. La news non è partita dai siti "letti dagli utenti normali" ma dall'Intel Developer Forum. Stai continuando a commettere l'errore di guardare questa cosa nell'ottica di un prodotto finito. Questa è solo una dimostrazione di come almeno il principio possa essere realizzato praticamente con un prototipo funzionante. Quì i discorsi di performance non c'entrano nulla.

darkquasar
15-02-2007, 00:01
Se non ne vedi le implicazioni tecnologiche non ti posso fare niente. La news non è partita dai siti "letti dagli utenti normali" ma dall'Intel Developer Forum.
...e fin qui niente di strano.
Il "problema" è che poi dall' intel developer forum, la notizia si è "espansa" a 360 gradi...



Stai continuando a commettere l'errore di guardare questa cosa nell'ottica di un prodotto finito. Questa è solo una dimostrazione di come almeno il principio possa essere realizzato praticamente con un prototipo funzionante.
di prototipi sai quanti ce ne saranno in casa AMD, in casa IBM, in casa Intel, eccetera eccetera, anche se noi non ne abbiamo notizia? Tanti.



Quì i discorsi di performance non c'entrano nulla.
questo sono io il primo a dirlo.

int main ()
15-02-2007, 00:20
mi sa che intel deve avermi copiato....il mio celeron 1.3(muletto)con 1.2 giga di memoria,120 giga di hard e ati 1650 pro ha le stesse prestazioni quando lo spengo hahahahahahaha
:banned: