View Full Version : 3 PetaFLOPS per il futuro supercomputer più veloce al mondo
Redazione di Hardware Upg
20-12-2010, 09:09
Link alla notizia: http://www.businessmagazine.it/news/3-petaflops-per-il-futuro-supercomputer-piu-veloce-al-mondo_34824.html
Architettura con soli processori Intel Xeon di prossima generazione quella scelta per una nuova installazione in Germania, sviluppata in collaborazione con IBM
Click sul link per visualizzare la notizia.
mircocatta
20-12-2010, 09:31
ci potrebbe girare crysis in ray tracing volendo :asd:
14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
jpjcssource
20-12-2010, 10:02
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio? :mbe:
coschizza
20-12-2010, 10:14
14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
ho riletto il post un paio di volte ma non ho capito cosa stai dicemdo
cosa singifica "un supercomputer del cavolo...." se quello piu veloce al mondo è del cavolo allora gli altri cosa sono?
rimpiangi la sgi ti ricordo che la sgi è ormai defunta proprio a causa della loro tecnologia mips che era ormai è morta perche superata dal x64, anche la sgi alla fine prima di morire si era messa a vendere server x64 ma a quel punto uil mercat oera pieno di validi concorrenti e quindi non aveva piu un vantaggio storico come ai tempi d'oro.
"resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori" e l'aternativa è ?????????????????????? usarne 13999 oppure 140001 dal tuo post non si capisce cosa intendi.
Ti risocrdo che l'attaule supercomputer pu veloce al mondo usa piu cpu e molte gpu eppure risulta piu lento di questo come specifiche quindi mi sembra un grande passo avanti usare molto meno hardware per ottenere un risultato superiore.
coschizza
20-12-2010, 10:17
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio? :mbe:
verissimo ma vale anche l'opposto cioè il tesla serveno ben poco in molti tipi di calcolo paralleli che poco si prestano o proprio non possono essere eseguiti su delle gpu invece che una cpu.
Oenimora
20-12-2010, 10:54
E pensare che il più veloce attualmente è cinese, il Tianhe-1A, con un Rmax di 2,566 Petaflops. I Cinesi hanno ben 41 sistemi nella Top500. Giappone, Francia, Germania ne hanno 26 a testa e almeno uno nei primi dieci. L'UK 25. L'Italia 6... e il più veloce è al 95 posto. La Svizzera ne ha 4, ma con performance nettamente migliori di quelli italiani. Siamo messi bene...
Opteranium
20-12-2010, 11:02
14000 processori xeon....un supercomputer del cavolo....
eh?
come li calcolano i petaflop?
a mano: uno, due, tre..
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
boh, questa non la so, ma non credo che gli altri siano così grulli.
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
eh?
facciamo così, ti concedo il beneficio del dubbio e ti invito a spiegare meglio. Altrimenti la risposta è TSO!! :eek:
iorfader
20-12-2010, 11:08
che vuol dire TSO?
cmq l'italia è un paese vecchio, ancora non hanno capito che l'informatica è il futuro
Opteranium
20-12-2010, 12:20
trattamento sanitario obbligatorio... l' ho detto a battuta ma - seriamente - non ho trovato un senso al discorso di homero
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
coschizza
20-12-2010, 12:59
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
"con molte meno risorse si potevano raggiungere quelle prestazioni"
solo una domadna : come?
se a loro serva una potenza pari a 10 ci devono mettere dentro cpu che diano potenza pari a 10, mica stiamo parlando di un pc di casa assemblato ma di un supercomputer sviluppano in anni di lavoro che che richiede anche centinaia di persone costantemente impegnate a mantenerlo operativo.
Forse homero intendeva dire: se mi serve potenza 10 allora mettro delle cpu che mi diano potenza 5 e delle gpu che mi dirano il restante 5. Il problema di questo approccio è che magari la potenza 5 data dalla gpu non è utilizzabile perche le applicazioni che devi far girare non sono gestibili tramite gpgpu (cosa molto comune) quindi ti trovaresti un sistema piu complesso piu costoso è con una potenza totale inferiore a quello che ti serve.
I sistemi ibridi vengono usati gia oggi sul supercomputer che ha l'attuale 1 posizione, ma si usano solo se ti danno un vantaggio Altrimenti non servono a nulla.
Ti faccio un esempio in piccolo, immagina che io devo farmi un supercomputer per casa e mi serve per usare il 3dsmax in rendering, allora punto tutto sulla cpu perche le gpu non mi servono a nulla in questo caso (e posso unsare anche una gpu integrata come faccio io realmente), se invece punto tutto sul rendering e sulla modellazione 3d allora devo bilanciare la potenza anche su una gpu discreta di livello, se invece devo fare solo modellazione e 0 rendering allora la gpu sara l'investimento principale. Spero che hai capito come si va a decidere che hardware deve unare un supercomputer.
GPU e CPU non sono intercambiabili.
Pier2204
20-12-2010, 13:23
"con molte meno risorse si potevano raggiungere quelle prestazioni"
solo una domadna : come?
.
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..
Naturalmente se questo è fattibile.
jpjcssource
20-12-2010, 14:13
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..
Naturalmente se questo è fattibile.
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
coschizza
20-12-2010, 15:00
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..
Naturalmente se questo è fattibile.
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?
Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
solo una domadna : come?
:mbe: è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero. :rolleyes:
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS. :sofico:
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
Opteranium
20-12-2010, 15:27
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
vi ringrazio per le risposte, ma fatelo dire a lui... Solo allora riconsidererò l' ipotesi del trattamento :D
e, a parte gli scherzi, tu parli di «spreco, troppe cpu, magari si poteva fare di più e con meno». Due cose:
1. chi lo ha progettato non sarà un venditore di tostapane;
2. se guardate la top500 e prendete il Jaguar (II posto), noterete un totale di 226 mila e passa core, nella pratica oltre 37 mila cpu Opteron, per un massimo stabile di 1,7 PFlop.
questo avrà poco più di 1/3 dei suddetti core, ma una potenza superiore. E lo chiamate spreco?
Terza e ultima cosa, come altri hanno detto, le gpu vanno bene per molto ma non per tutto. Se l' obiettivo di questo aggeggio esula dal loro campo non vedo grosse alternative..
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..
Naturalmente se questo è fattibile.
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.
non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
Pier2204
20-12-2010, 18:25
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
Certamente no, non so perche in Germania hanno commissionato un computer simile, se riguarda settori di interesse strategico Nazionale o Militare è chiaro che non è possibile, io parlo di settori di interesse globale, per fare esempi: lo studio di eventi sismici, lo studio del clima a livello globale, il calcolo delle risorse fossili e non..sarebbero molti i settori dove il calcolo distribuito potrebbe essere un vantaggio per tutti.
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?
Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
:mbe: è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero. :rolleyes:
Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS. :sofico:
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.
non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
Grazie delle risposte, certamente la rete è un problema quando la velocità di scambio dati tra i vari processi è un fattore di primaria importanza, e naturalmente, come ha fatto notare qualcuno, non si capisce chi deve sostenere i costi.
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Dipende, ma in genere no.
Il problema e' come sono fatti quei calcoli, non basta dire "paralleli", ci sono molti tipi di "parallelo" diversi.
Ad esempio, considera un problema standard in moltissimi campi, quello dell'evoluzione di unn sistema particellare (o un'analisi a elementi finiti, fondamentalmente e' lo stesso). Il problema si affronta cosi': hai un volume con all'interno un tot di "particelle", dove ogni particella interagisce con le altre (gravita', se la "particelle" sono stelle in una simulazione astronomica; equazioni quantistiche, se le particelle sono atomi, eccetera); parti dalla condizioen iniziale al tempo 0; poi calcola tutte le forze, calcola come le particelle si muovono a causa di queste forze, e calcola la nuova posizione al tempo t1; ora ricalcola tutte le forze per la nuova configurazione, applica le forze, e ottieni la posizione al tempo t2; ... e prosegui cosi' per molto tempo (possono essere milioni di step, o miliardi, o miliardi di miliardi, a seconda di cosa vuoi simulare).
Come si parallelizza un problema del genere? Suddividi il volume in tanti volumetti, assegna ogni volumetto ad un processore, che calcola uno step (es. l'evoluzione da t0 a t1); tutti i volumetti sono calcolati in parallelo... ma alla fine, tutti i processori devono scambiarsi i dati, vuoi perche' una particella potrebbe essere passata da un volume ad un altro, vuoi perche' cmq devi tenere conto delle forze non solo nel tuo volume, ma anche in quelli vicini (con delle semplificazioni, ad es. potresti tenere conto solo dei volumi di fianco al tuo, perche' gli altri sono troppo lontani per avere effetto, eccetera).
Quindi, funziona cosi':
* calcolo step 1, parallelo
* barriera: sincronizzazione di tutti i processori, tutti devono raggiungere questa barriera e scambiarsi i dati prima di procedere
* calcolo step 2, in parallelo
* barriera: sincronizzazione di tutti i processori
* ...
Ora, in un supercomputer hai decine di migliaia di nodi, quindi puoi dividere in un sacco di volumetti e calcolarli in parallelo. Ma hai anche una rete velocissima per scambiare dati tra i processori, che e' fondamentale per fare in fretta la fase di sincronizzazione (la "barriera").
Considera ora un sistema tipo BOINC: puoi anche avere milioni di computer, e quindi fare molto in fretta i calcoli paralleli; ma poi devi sincronizzare tutti... e li' non ce la fai: magari un task e' andato perso perche' uno ha spento il computer o si e' sconnesso dalla rete, oppure uno ha un computer lentissimo e ci mette piu' tempo degli altri a calcolare il suo task, e tutti devono aspettare lui... metti anche solo che in 10 secondi riesci a distribuire un milione di task in giro per il mondo, farli elaborare, e raccoglierli (che e' completamente irrealistico); gia' solo per eseguire un milione di step ti servirebbero 10^7 secondi, cioe' 115 giorni, di cui magari 1 giorno di calcoli, e il resto di sincronizzazione :)
Non funziona, proprio no, a meno di non avere un problema parallelizzabile in modo diverso, ad es. un problema scomponibile in pezzi completamente scorrelati, come ad es. (non a caso, ovviamente :) il programma del SETI o Folding.
Ma la maggior parte dei problemi non si parallelizzano in quel modo.
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.