PDA

View Full Version : Nuove cpu Itanium 2 a Novembre


Redazione di Hardware Upg
01-11-2004, 07:16
Link alla notizia: http://news.hwupgrade.it/13449.html

Ad inizio Novembre previsto il debutto di nuove versioni di processore Itanium 2: cache L2 maggiorate a 9 Mbytes

Click sul link per visualizzare la notizia.

joe4th
01-11-2004, 08:21
Curioso notare come il lancio del processore coincida
con l'annuncio della NASA del cluster
da 43TFlops che entrera al primo posto nella
classifica dei TOP500:

http://www.linuxinsider.com/story/37663.html

Tra l'altro mi chiedo perche' si fanno
ancora cluster di questo tipo, piuttosto
che per esempio utilizzare coproccesori
vettoriali dedicati, per esempio in schede
PCI interconnesse tra loro. In fondo alla fin fine,
i sistemi matematici a cui sono destinati
sono sempre gli stessi e gli algoritmi
per risolverli noti da 20anni, per cui
non dovrebbe essere difficile implementarli
in hardware (per esempio una versione aggiornata
dei vecchi Transputer...chi se li ricorda?).

Ciao.

BEMPINO
01-11-2004, 08:58
Intel cerca di fare del suo megli ma AMD è in fuga come la JUVENTUS :cool:
:mc:
:mc:
:mc: :muro:

homero
01-11-2004, 09:26
gia' fatto negli anni passati con le onyx silicon graphics...
niente da fa i cluster sono piu' scalabili.....

joe4th
01-11-2004, 10:19
Sarebbe interessante valutare il costo in Euro al
Gigaflop (ed eventualmente il costo
al Gigaflop al metro cubo).

LASCO
01-11-2004, 10:26
Per quanto riguarda soluzioni con schede PCI aggiuntive sembra interessante quella della società ClearSpeed. Si tratta del CSX600 su scheda PCI-X capace di fornire 50 Gflops. Da PI (http://punto-informatico.it/p.asp?i=49962):
Evoluzione del precedente modello CS301, il CSX600 è un co-processore matematico a 64 bit che integra, in un solo chip, 96 "elementi di calcolo" da 250 MHz l'uno capaci di sfornare la stessa potenza di un supercomputer entry-level: il tutto consumando, in media, soltanto 5 watt.

Il chip è stato progettato per accelerare i calcoli matematici in virgola mobile (floating point) in PC, workstation, server, cluster o blade, e può essere aggiunto, grazie ad una scheda add-in, ad un qualsiasi sistema dotato di bus PCI-X.

La società britannica sta collaborando con i propri clienti e la comunità open source per introdurre il supporto del CSX600 all'interno delle principali applicazioni e librerie per il calcolo matematico.

ClearSpeed conta di rilasciare sul mercato il nuovo co-processore già nel corso del primo trimestre 2005.Speriamo che non costi più del dovuto.

Per quanto riguarda i supercalcolatori pare che nella prossima classifica top500 ci siano diverse novità come scritto qui (http://punto-informatico.it/p.asp?i=50201):
attualmente la classifica la guida ancora il NEC dell'"Earth Simulator" con i suoi 35.86 Tflops, ma quando sarà aggiornata a breve forse non sarà il Columbia della Silicon Graphics con i soui 42.7 Tflops a guidare la classifica, ma potrebbe essere ancora NEC con i 58.5 Tflops del suo SX-8. Comunque:
Il produttore americano (SGI) ha poi precisato che il test di velocità è stato eseguito utilizzando solo 16 dei 20 server Altix che formano il Columbus: ciò significa, secondo alcune fonti, che il mostro è potenzialmente in grado di superare i 60 Tflops.

Il sistema completo conta 10.240 processori Itanium 2, dunque 512 CPU per singolo nodo, e si basa sul sistema operativo Linux. SGI sostiene di aver costruito e installato Columbus, al cui progetto ha collaborato anche Intel, in 120 giorni, completando il lavoro lo scorso 12 ottobre. I dettagli tecnici del sistemone sono disponibili qui.

LASCO
01-11-2004, 10:34
Originariamente inviato da joe4th
Sarebbe interessante valutare il costo in Euro al
Gigaflop (ed eventualmente il costo
al Gigaflop al metro cubo). Mi posso sbilanciare nel dire che molto probabilmente il sistema più economico sia quello basato sul progetto APE, l'ultimo è APEnext e qui (http://punto-informatico.it/p.asp?i=43002) puoi leggere due info su quest'ultimo progetto.
Con il primo progetto, APE, il risparmio dovuto all'autoprogettazione delle cpu e del software era circa del 90%, ossia si risparmiava 9/10 della spesa che si sarebbe dovuti fare per ottenere un'unità di calcolo commerciale che avesse le stesse performances.
Quando i processori commerciali non erano potenti come quelli di oggi, circa 7 anni fa APE era il supercalcolatore più potente al mondo.

joe4th
01-11-2004, 12:24
Ah, l'APE. Ma esiste ancora?
mi ricordo di APE100, che ne avevano parlato
su MC Microcomputer almeno 10 anni fa...
Pero' oramai anche un portatile e' piu' veloce
dei Cray Y-MP di quell'epoca...

Tra l'altro mi chiedo se al posto di
10240 Itanium2, non sarebbero costati meno
e avrebbero permesso di raggiungere ratio
superiori utilizzando 102400 processori
Sempron 2200. Soprattutto considerando che l'Itanium64
non e' 10 volte piu' veloce del Sempron, ma
costa (39E a 3000E) 80-100 volte di piu'.

joe4th
01-11-2004, 12:38
Originariamente inviato da LASCO
Per quanto riguarda soluzioni con schede PCI aggiuntive sembra interessante quella della società ClearSpeed. Si tratta del CSX600 su scheda PCI-X capace di fornire 50 Gflops. Da PI (http://punto-informatico.it/p.asp?i=49962):
Speriamo che non costi più del dovuto.


Qui:

http://news.zdnet.com/2100-9584_22-5399128.html

c'e' scritto che una macchina che ne monta 2 di quelle schede
costa 50000$, ovvero 25000$ a scheda non mi sembra
proprio economica...

LASCO
01-11-2004, 13:06
Direi che 25000$ non ce li vorrei spendere per una scheda PCI. Anche l'Itanium costicchia un pò, ma fare un cluster con 100 000 sempron occuperebbe 10 volte più spazio della soluzione con 10 000 itanium2 che già di suo occupa un bel pò di metri quadrati. Poi bisogna vedere come va con la scalabilità ecc. Infine ci sono 64bit contro 32bit del sempreon.

Zerk
01-11-2004, 13:20
Scusate la domanda banale, ma la gpu che abbiamo nei nostri piccì, non è un processore a virgola mobile da vari gigaflops?

overclock80
01-11-2004, 13:54
Originariamente inviato da LASCO
Direi che 25000$ non ce li vorrei spendere per una scheda PCI. Anche l'Itanium costicchia un pò, ma fare un cluster con 100 000 sempron occuperebbe 10 volte più spazio della soluzione con 10 000 itanium2 che già di suo occupa un bel pò di metri quadrati. Poi bisogna vedere come va con la scalabilità ecc. Infine ci sono 64bit contro 32bit del sempreon.

Ma da dove cavolo la tiri fuori sta storia dei cluster coi sempron
:D :D , non centra assolutamente niente.

Ti ricordo che per questi compiti ci sono gli Opteron :cool: che guarda caso sono pure a 64-bit e che hanno un rapporto prezzo/prestazioni eccezionale :cool:

LASCO
01-11-2004, 14:01
Originariamente inviato da overclock80
Ma da dove cavolo la tiri fuori sta storia dei cluster coi sempron
:D :D , non centra assolutamente niente.

Ti ricordo che per questi compiti ci sono gli Opteron :cool: che guarda caso sono pure a 64-bit e che hanno un rapporto prezzo/prestazioni eccezionale :cool: Certo, se leggi gli altri post stavo rispondendo al perché non si usano 100 000 sempron al posto di 10 000 itanium. Aggiungo che anche se costerebbe meno la soluzione sempron, ammesso che le prestazioni fossero simili, alla fine i costi di corrente elettrica sarebbero molto superiori considerando che 10 sempron consumano 4-5 volte quello che consuma 1 itanium 2.

x Zerk

un P4 a 3GHz arriva quasi a 2 Gflops

joe4th
01-11-2004, 14:22
Si, se non ricordo male le GPU delle
schede grafiche dovrebbero essere equivalenti
a 10 volte la potenza di calcolo sviluppata
dalle CPU come Athlon/Pentium IV, etc.,
solo che l'unita' e' in singola precisione
(o forse anche meno).

Qui ad esempio voglio fare un cluster di Playstation:

http://www.geek.com/news/geeknews/2003May/bga20030527020154.htm

derek2
01-11-2004, 14:35
Ma su questi supercomputer da 50 Tflops ci girerà bene Doom 3?

LASCO
01-11-2004, 14:36
Sarebbe interessante sapere qual'è il sistema con il miglior rapporto prestazioni/prezzo ed aggiornabilità. Ci sono siti con liste di sistemi "artigianali" anche con cpu diverse a formare un cluster.

P.S.
Se qualcuno potrebbe prestarmi anche solo per 3 mesi un bel clusterino ...:D :cry:

joe4th
01-11-2004, 15:46
Originariamente inviato da overclock80
Ma da dove cavolo la tiri fuori sta storia dei cluster coi sempron
:D :D , non centra assolutamente niente.

Ti ricordo che per questi compiti ci sono gli Opteron :cool: che guarda caso sono pure a 64-bit e che hanno un rapporto prezzo/prestazioni eccezionale :cool:

Qui si parla di costo al gigaflop. E i 64bit non c'entrano. Tant'e'
che si facevano cluster con migliaia di processori a 32bit
gia' da anni. Il sistema della NASA e' costituito da cluster Altsys
di macchine SGI da 512 processori l'uno. A occhio
direi che i 512 processori sono interconnessi come
nelle vecchie macchine a parallelismo massiccio (Origin?),
(se vogliamo tipo le SMP), mentre i cluster a loro
volta sono connessi tra loro con qualche rete veloce
(gigabit, myrinet, etc.). Ora 512 Opteron sicuramente non
ce li metterebbero mai in quel tipo di
parallelismo, perche' l'architettura Opteron
e' limitata a 8 processori (possono al piu' fare cluster di
N macchine 8-processore). Inoltre anche l'indirizzamento
di memoria fisica e' inferiore (40bit) a quella degli Itanium.

Sul piano puramente dei gigaflop di calcolo distribuiti,
io non scarterei del tutto l'opzione Sempron (o
se vogliamo i Sempron64 se proprio vogliamo rimanere sui
64bit). Facciamo un esempio. Gli
Opteron sono sui 1700 SpecFP 2000, gli Itanium sui 2000-2100 SpecFp2000.
I Sempron 2200 dovrebbero essere vicini agli Athlon 1800
ovvero sui 500-600 SpecFP 2000. Spannometricamente
questo vuol dire che 3 Sempron fanno la potenza di calcolo di un'Opteron
e 4 Sempron superano la potenza di calcolo di 1 Itanium.
Ma 4 Sempron costano 160Euro e 3 Sempron costano
120Euro. Ora Opteron da 120E ancora non ne ho visti...E nemmeno
Sempron64. Quindi ipotizzando l'efficienza massima del cluster,
ovvero che le prestazioni scalino linearmente o molto vicino,
su entrambi i sistemi, avrei che gia' 40960
Sempron sono equivalenti alla potenza di
calcolo del cluster di 10240 Itanium 64.
Ma per ogni itanium mi posso comprare 75 Sempron 2200
(3000/40) e quasi 4 Opteron (3000/800). D'altro
canto per ogni Opteron mi posso comprare 20 Sempron 2200.

Andiamo sui consumi. Gli Itanium erano gia' sui 130W l'uno
(e questi hanno pure la cache potenziata); 130*10240 = 1331200,
ovvero 1.331 kiloWatt (ma la centrale elettrica TurboGAS la danno
assieme al cluster?).
Vediamo quanto consumano in un'anno:

1331 * 24 * 365 = 11.659. 560 kWh = 11.7 GWh

11 milioni di chilowattora. Vediamo con il Sempron. Un
sempron 2500 dovrebbe consumare sui 40-45W; prendiamo
40W per il Sempron 2200:

40 * 40960 = 1600 kW, e quindi: 1600 * 25 * 365 = 14 GWh.

Proviamo con l'Opteron. Di Opteron ce ne vogliono 12500 per
avere la stessa potenza di calcolo, quindi se non ricordo
male gli Opteron consumano 89W (se qualcuno ha l'URL delle
tabelle dei consumi accurati lo posti per favore):

89 * 12500 = 1100 kW, e quindi: 9.4 GWh.

Se prendiamo gli Opteron HE che consumano 55W, allora
il tutto si riduce a 6 GWh. Ora supponiamo che la NASA
la bolletta la paghi all'ENEL, allo stesso nostro prezzo,
ovvero 6.67 Eurocent (129 lire) al chilowattora
(in realta' per forniture speciali generalmente l'ente
erogatore ti fa un po' di sconto). Abbiamo:

10240 Itanium: 778000 Euro
40960 Sempron: 930000 Euro
12500 Opteron: 630000 Euro

Ora. Vediamo i costi solo di processori (in realta' poi
ci sono memorie, dischi, etc.):

10240*3000 = 31 Milioni di Euro
40960 * 40 = 1.7 Milioni di Euro
12500 * 800 = 10 Milioni di Euro

Secondo te 700mila Euro di corrente
all'anno su 40 milioni si vedono oppure no? In 20 anni forse
si vedono anche, ma dubito che cluster del genere
abbiano cicli di vita oltre i 4-5 anni... (altrimenti
si troverebbero ancora ad usare cluster di migliaia
di Pentium 60Mhz...).

nonikname
01-11-2004, 15:47
Ma su questi supercomputer da 50 Tflops ci girerà bene Doom 3?

Dovrebbe girare un po meglio che su un Desktop high-end , però in modalità software rendering (senza scheda video)... ;)

joe4th
01-11-2004, 15:48
Originariamente inviato da LASCO
Sarebbe interessante sapere qual'è il sistema con il miglior rapporto prestazioni/prezzo ed aggiornabilità. Ci sono siti con liste di sistemi "artigianali" anche con cpu diverse a formare un cluster.

P.S.
Se qualcuno potrebbe prestarmi anche solo per 3 mesi un bel clusterino ...:D :cry:

Che io sappia i cluster di calcolo parallelo li affittano. Non te li danno fisicamente
ma paghi il tempo macchina di utilizzo remoto.

joe4th
01-11-2004, 16:03
Originariamente inviato da nonikname
Dovrebbe girare un po meglio che su un Desktop high-end , però in modalità software rendering (senza scheda video)... ;)

Esatto, precisamente in modalita' ray-tracing in tempo reale
Altrimenti girerebbe come su un normale sistema desktop.

Se volete vedere i sistemi Real-Time Raytracing allora
date un'occhiata al sito http://www.openrt.de.
In particolare guardate i filmati:
http://graphics.cs.uni-sb.de/~wald/Publications/2002_Headlights/2002_Headlights.divx4
http://www.openrt.de/Gallery/OpenRT/OpenRT.divx
http://graphics.cs.uni-sb.de/%7Ejofis/Arbeit/GI04-MWZC-RayTracing.avi

o il quake3 in ray-tracing:

http://graphics.cs.uni-sb.de/~sidapohl/egoshooter/

Ciao.

Zerk
01-11-2004, 18:27
che significa che l'unità e' un singola precisione? non e' in virgola mobile?

homero
01-11-2004, 18:29
i sistemi di calcolo parallelo sono la soluzione ottimale alle esigenze di calcolo immediato di algoritmi complessi.
le soluzioni single chip non trovano alcun seguito almeno storicamente e' stato cosi'.
mentre le soluzioni parallele hanno trovato una giusta applicazione negli ultimi 10 anni.
numerose società hanno studiato sistemi per incrementare la potenza dei nodi ed in realtà si e' visto che il problema focale e' la distrubuzione dei dati da calcolare al contrario della potenza di calcolo specifica.
in questo itanium e' il miglior sistema per i cluster per i suoi metodi di gestione della cache...
altro problema e' la stabilità matematica delle unità di calcolo che obbligano ad utilizzare sistemi general purpose testati invece che DSP o vectorial unit....

joe4th
01-11-2004, 18:56
Il fatto e' che gran parte di quei sistemi
che tu chiami complessi, utilizzano come
funzioni di livello piu' basso le solite
librerie librerie e i soliti algoritmi paralleli che sono noti e piu' o meno sempre gli stessi da 20 anni
(citiamo le BLAS, LAPACK, FFT, etc. si trova
quasi tutto su NETLIB).
Basterebbe quindi mettere su silicio questi
algoritmi. L'hanno fatto per sistemi come
l'encoding MP4/DIVX (pensa ai chip mediatek),
non vedo perche' non potrebbero farlo anche
con questi sistemi.

joe4th
01-11-2004, 19:16
Originariamente inviato da Zerk
che significa che l'unità e' un singola precisione? non e' in virgola mobile?

Le unita' in virgola mobile dei (co)processori matematici sono
generalmente a 64 (o internamente a 80) bit. Quelle delle
GPU sono a 24 (o 32).

derek2
01-11-2004, 20:13
Scusate l'ignoranza ma io sono alle prime armi con i computers.

Voi parlate di CLUSTER,di NODI,ma io non so neanche cosa sono,forse l'arabo lo capirei di più:confused:

C'è qualche anima buona che può spiegarmi brevemente e con parole moooolto semplici come è fatto fisicamente un supercomputer con 5000 processori? Cioè da quali componenti è composto? Qualcuno ha detto che i giochi girano senza scheda video,boh..:confused: :confused:

xeal
01-11-2004, 23:15
x derek2

In parole semplici, immagina un armadio pieno di cassetti: ogni cassetto è in pratica un computer, con un certo numero di cpu, la sua ram, uno o più hd, se serve qualche scheda; il lavoro viene distribuito tra i "cassetti" e, all'interno dei cassetti, tra i vari processori, in modo da parallelizzare tutto il più possibile e fare molti calcoli simultaneamente. Però bisogna considerare che i processori dello stesso cassetto comunicano tra di loro in maniera molto veloce, mentre i cassetti tra di loro comunicano in maniera inevitabilmente più lenta, per cui è necessario studiare dei sistemi di comunicazione appositi (non bastano le porte "tradizionali" o le schedine di rete presenti ormai in tutte le MB): si usano fibre ottiche e sistemi complessi; inoltre è necessario organizzare tutti i cavi e stabilire i collegamenti tra tutti i cassetti per instradare le informazioni che si scambiano (e creare a volte delle sotto unità, ad esempio si può stabilire che un certo numero di cassetti collabori per certi calcoli mentre un altro gruppo fa un altro lavoro). A questo ci pensano i nodi, che puoi immaginare come delle centraline telefoniche o dei caselli autostradali (ad ogni "casello" fanno capo un certo numero di "armadi" in modo da costruire un "reparto" di calcolo, che adesso non ricordo esattamente se viene indicato nel complesso come nodo (= "armadi" + "casello")).

Per il discorso dei giochi che girano senza scheda video, si parlava di raytracyng, ovvero il più complesso ed efficace tipo di rendering che si può fare e che richiede il calcolo di MOLTI processori, non basta una scheda video. Il rendering consiste nel disegno della scena con tutti i particolari: personaggi, oggetti ecc. applicando le "mappe", le tessiture e colorando il tutto in base alla provenienza delle luci e al volume d'ombra degli oggetti, e anche in base alla trasparenza degli oggetti. Con le schede video si fa il rendering più semplice, ovvero si disegnano le "cose" visibili e si colora tutto secondo formule matematiche approssimate relativamente semplici (poca cosa al confronto del raytracing, che simula il propagarsi dei singoli raggi di luce), a volte senza neanche considerare l'ombra, cercando di creare effetti il più possibile realistici e nel più breve tempo possibile (in tempo reale). Con tutti quei processori si potrebbe ottenere un realismo fotografico, però questo non vuol dire che non si userebbe la scheda video: servirebbe sempre, ma solo come interfaccia con il monitor, non farebbe calcoli (come per i filmati). Comunque il gioco dovrebbe essere scritto appositamente, altrimenti cercherebbe di usare sempre un solo processore.

Spero di essere stato chiaro :)

derek2
01-11-2004, 23:50
Non so come ringraziarti:ave::ave::ave:

Ricapitolando un attimo i nodi dovrebbero essere un certo numero di computer dedicati a un certo tipo di operazione.
E i cluster?

Comunque ti ringrazio ancora per il tempo che mi dedichi:ave::ave:

zoboliluca
02-11-2004, 11:31
se ho capito bene. un nodo comprende un certo numero di computer ma soprattutto comprende tutta l'elettronica di collegamento tra i suddetti computer.
La definizione fisica di un nodo non e' logica (gruppo di computer dedicati a un lavoro) ma e' soprattutto hawrdare (gruppo di computer collegato tra logo).

Non sono la persona piu adatta per risponderti ma un cluster dovrebbe essere un insieme di macchine che lavorano in parallelo per gestire enne operazioni.
Non un solo calcolo complesso distribuito ma la distribuzione di tanti calcoli indipendenti su enne macchine. Es. Server Internet. 1000 accessi (utenti) che vengono serviti da enne server in cluster. Ogni utente e' un calcolo separato dagli altri e il carico di lavoro viene distribuito sui vari server. Il vantaggio e' che si possono usare molte piccole macchine di basso costo al posto di grandi computer. Questo diventa molto utile in caso di guasti e ancora piu utile nell'espandere il sistema all'aumentare delle richieste.

cdimauro
02-11-2004, 13:25
Originariamente inviato da joe4th
(per esempio una versione aggiornata
dei vecchi Transputer...chi se li ricorda?).

Ciao.
"Sì, la vita è tutto un RISC... Ma i Transputer, sono i Transputer" - Andrea de Prisco in un vecchio numero di MC Microcomputer... ;)

Comunque nella news c'è un errore: è la cache L3 a passare da 6 a 9MB, non la L2, che rimane sempre di 256KB...

cdimauro
02-11-2004, 13:27
Originariamente inviato da homero
in questo itanium e' il miglior sistema per i cluster per i suoi metodi di gestione della cache...
Anche gli Opteron hanno un'ottima gestione della cache (implementano il sistema M.O.E.S.I.) e della coerenza dei dati.
Tra l'altro tramite dei controller crossbar si può superare il limite degli 8 processori collegati direttamente, arrivando fino a 32 (per ora) per singolo nodo.

xeal
03-11-2004, 23:57
x derek2

Provo a darti qualche definizione, per quanto mi è possibile; considera che a volte i termini vengono usati per estensione oltre il significato originario e con sfumature diverse in contesti diversi.

Cluster letteralmente vuol dire "grappolo" e indica, in informatica, cose diverse. In un hard disk un claster è l'unità minima di allocazione dei file, cioè la quantità minima di byte che il sistema operativo "raggruppa" prima di scriverli su aree contigue del disco, così se il cluster è di 4KByte, un file costituito da un byte solo e uno costituito da 3K occuperanno sempre lo spazio di un cluster, mentre un file di 6KB (4 + 2 = 6) occuperà 2 cluster, e lo spazio rimasto libero non sarà utilizzabile (è comodo gestire lo spazio in questo modo). In un sistema telematico (più computer collegati a formare una rete) un cluster è un insieme di terminali che "cooperano". Un cluster di questo tipo può essere costituito da più server che in un certo senso fanno la stessa cosa, con uno o più server pronti a sostituirne uno fuori uso (si parla di fault tolerance, cioè tolleranza agli errori), oppure da macchine che si suddividono il lavoro da fare (load balancing, bilanciamento del carico). Secondo questa definizione, un cluster può essere costituito anche da un insieme di pc collegati in modo opportuno su cui girano dei programmi scritti appositamente. In un supercomputer strutturato in cluster, gli armadi di cui ti parlavo sono proprio dei cluster, e fisicamente hanno praticamente la forma di armadietti, con le macchine sistemate una sull'altra come dei cassetti, e si parla di cluster proprio perchè i computer vengono raggruppati. Lo stesso supercomputer si può pensare, per estensione, come un grande cluster, ovvero un gruppo di macchine che concorrono a calcolare il risultato di un certo "lavoro" (i sistemi distribuiti vengono indicati anche come concorrenti, e possono essere di due tipi: sistema distribuito (in senso) stretto, in genere per macchine multiprocessore, e lasco, quando più macchine, multiprocessore o monoprocessore - non ha importanza, il tipo può essere "misto" - sono collegate e le operazioni vengono distribuite sulle macchine).

Veniamo ai nodi. Un nodo può essere un qualsiasi sistema di una rete: facendo un paragone con internet, anche il tuo computer è un nodo (in particolare è un client) e lo sono anche i server a cui ti colleghi per ottenere informazioni (le pagine web che il tuo browser visualizza), ma lo sono anche i server e tutte le "apparecchiature" usate per collegare i vari nodi e instradare le informazioni (quindi i server del tuo ISP e i vari gate). Tornando ai supercomputer organizzati in cluster, in base alla "definizione" di nodo, lo è ciascuna macchina e ciascun cluster (quindi gli armadi e i cassetti), ma può esserlo l'intero supercomputer in contesti molto grandi in cui molti supercomputer (ad es. universitari o di centri di ricerca) sono collegati tra di loro, anche a grande distanza (attualmente si parla in questi casi di griglie di calcolo, "computational grids"). In genere, comunque, se non ricordo male nei supercomputer (più grandi) si parla principalmente di due tipi di nodo: i nodi di calcolo, costituiti da più cluster (cioè gli armadi) collegati tra di loro con appositi sistemi (che fanno parte del nodo e costituiscono anche l'interfaccia con gli altri nodi) e i nodi di comunicazione, cioè sistemi che servono a collegare tra di loro i vari nodi di calcolo e a ottimizzare le comunicazioni. Ha ragione zoboliluca sul fatto che un nodo non è un gruppo logico, ma "fisico", anche se volendo si può anche affidare un certo compito a un certo numero di macchine all'interno del nodo, creando una specie di nodo "logico" (possono anche non far parte dello stesso "armadio", né dello stesso "nodo fisico", anche se in genere è sempre meglio che le macchine che collaborano a una certa operazione siano il più possibile vicine, comunque questo dipende anche dal modo in cui sono interconnesse).

Spero di esserti stato, e di non aver fatto confusione sulle esatte definizioni di nodo in un supercomputer (mi riservo un piccolo dubbio sui dettagli e sulla terminologia precisa, comunque lo schema di massima è questo) :p

Comunque, non è necessario che mi ringrazi, in fondo i forum servono a scambirsi informazioni, idee e a chiarirsi dei dubbi. Io stesso sono su questo forum per imparare (e a qualcuno ho rotto le scatole più di una volta :D). Poi, il mondo dell'informatica è in continua evoluzione e non si smette mai di imparare.

Ciao :)