|
|
|
|
Strumenti |
20-12-2010, 08:09 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link alla notizia: http://www.businessmagazine.it/news/...ndo_34824.html
Architettura con soli processori Intel Xeon di prossima generazione quella scelta per una nuova installazione in Germania, sviluppata in collaborazione con IBM Click sul link per visualizzare la notizia. |
20-12-2010, 08:31 | #2 |
Senior Member
Iscritto dal: Sep 2007
Messaggi: 15700
|
ci potrebbe girare crysis in ray tracing volendo
|
20-12-2010, 08:54 | #3 |
Senior Member
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
|
fanno proprio ridere
14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop? rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit.... oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa... come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer....... resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma...... |
20-12-2010, 09:02 | #4 |
Senior Member
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5097
|
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio?
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD |
20-12-2010, 09:14 | #5 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 6521
|
Quote:
cosa singifica "un supercomputer del cavolo...." se quello piu veloce al mondo è del cavolo allora gli altri cosa sono? rimpiangi la sgi ti ricordo che la sgi è ormai defunta proprio a causa della loro tecnologia mips che era ormai è morta perche superata dal x64, anche la sgi alla fine prima di morire si era messa a vendere server x64 ma a quel punto uil mercat oera pieno di validi concorrenti e quindi non aveva piu un vantaggio storico come ai tempi d'oro. "resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori" e l'aternativa è ?????????????????????? usarne 13999 oppure 140001 dal tuo post non si capisce cosa intendi. Ti risocrdo che l'attaule supercomputer pu veloce al mondo usa piu cpu e molte gpu eppure risulta piu lento di questo come specifiche quindi mi sembra un grande passo avanti usare molto meno hardware per ottenere un risultato superiore. Ultima modifica di coschizza : 20-12-2010 alle 09:19. |
|
20-12-2010, 09:17 | #6 |
Senior Member
Iscritto dal: May 2004
Messaggi: 6521
|
verissimo ma vale anche l'opposto cioè il tesla serveno ben poco in molti tipi di calcolo paralleli che poco si prestano o proprio non possono essere eseguiti su delle gpu invece che una cpu.
|
20-12-2010, 09:54 | #7 |
Senior Member
Iscritto dal: Jun 2010
Messaggi: 410
|
E pensare che il più veloce attualmente è cinese, il Tianhe-1A, con un Rmax di 2,566 Petaflops. I Cinesi hanno ben 41 sistemi nella Top500. Giappone, Francia, Germania ne hanno 26 a testa e almeno uno nei primi dieci. L'UK 25. L'Italia 6... e il più veloce è al 95 posto. La Svizzera ne ha 4, ma con performance nettamente migliori di quelli italiani. Siamo messi bene...
|
20-12-2010, 10:02 | #8 | ||
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5315
|
eh?
a mano: uno, due, tre.. Quote:
Quote:
facciamo così, ti concedo il beneficio del dubbio e ti invito a spiegare meglio. Altrimenti la risposta è TSO!! |
||
20-12-2010, 10:08 | #9 |
Senior Member
Iscritto dal: Nov 2010
Città: tra le colline calabresi
Messaggi: 5300
|
che vuol dire TSO?
cmq l'italia è un paese vecchio, ancora non hanno capito che l'informatica è il futuro |
20-12-2010, 11:20 | #10 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5315
|
trattamento sanitario obbligatorio... l' ho detto a battuta ma - seriamente - non ho trovato un senso al discorso di homero
|
20-12-2010, 11:24 | #11 |
Senior Member
Iscritto dal: Aug 2008
Messaggi: 627
|
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
|
20-12-2010, 11:59 | #12 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 6521
|
Quote:
solo una domadna : come? se a loro serva una potenza pari a 10 ci devono mettere dentro cpu che diano potenza pari a 10, mica stiamo parlando di un pc di casa assemblato ma di un supercomputer sviluppano in anni di lavoro che che richiede anche centinaia di persone costantemente impegnate a mantenerlo operativo. Forse homero intendeva dire: se mi serve potenza 10 allora mettro delle cpu che mi diano potenza 5 e delle gpu che mi dirano il restante 5. Il problema di questo approccio è che magari la potenza 5 data dalla gpu non è utilizzabile perche le applicazioni che devi far girare non sono gestibili tramite gpgpu (cosa molto comune) quindi ti trovaresti un sistema piu complesso piu costoso è con una potenza totale inferiore a quello che ti serve. I sistemi ibridi vengono usati gia oggi sul supercomputer che ha l'attuale 1 posizione, ma si usano solo se ti danno un vantaggio Altrimenti non servono a nulla. Ti faccio un esempio in piccolo, immagina che io devo farmi un supercomputer per casa e mi serve per usare il 3dsmax in rendering, allora punto tutto sulla cpu perche le gpu non mi servono a nulla in questo caso (e posso unsare anche una gpu integrata come faccio io realmente), se invece punto tutto sul rendering e sulla modellazione 3d allora devo bilanciare la potenza anche su una gpu discreta di livello, se invece devo fare solo modellazione e 0 rendering allora la gpu sara l'investimento principale. Spero che hai capito come si va a decidere che hardware deve unare un supercomputer. GPU e CPU non sono intercambiabili. Ultima modifica di coschizza : 20-12-2010 alle 12:09. |
|
20-12-2010, 12:23 | #13 | |
Bannato
Iscritto dal: Sep 2008
Messaggi: 8946
|
Quote:
Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo.. Naturalmente se questo è fattibile. |
|
20-12-2010, 13:13 | #14 | |
Senior Member
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5097
|
Quote:
Il calcolo distribuito non è la panacea di tutti i mali.
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD |
|
20-12-2010, 14:00 | #15 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 6521
|
Quote:
Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa. |
|
20-12-2010, 14:07 | #16 | |
Senior Member
Iscritto dal: Aug 2008
Messaggi: 627
|
è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero.
Quote:
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri. |
|
20-12-2010, 14:27 | #17 | |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5315
|
Quote:
e, a parte gli scherzi, tu parli di «spreco, troppe cpu, magari si poteva fare di più e con meno». Due cose: 1. chi lo ha progettato non sarà un venditore di tostapane; 2. se guardate la top500 e prendete il Jaguar (II posto), noterete un totale di 226 mila e passa core, nella pratica oltre 37 mila cpu Opteron, per un massimo stabile di 1,7 PFlop. questo avrà poco più di 1/3 dei suddetti core, ma una potenza superiore. E lo chiamate spreco? Terza e ultima cosa, come altri hanno detto, le gpu vanno bene per molto ma non per tutto. Se l' obiettivo di questo aggeggio esula dal loro campo non vedo grosse alternative.. |
|
20-12-2010, 15:42 | #18 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 1119
|
Quote:
non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza. |
|
20-12-2010, 17:25 | #19 | ||||
Bannato
Iscritto dal: Sep 2008
Messaggi: 8946
|
Quote:
Quote:
Quote:
Quote:
Ultima modifica di Pier2204 : 20-12-2010 alle 17:28. |
||||
21-12-2010, 16:47 | #20 | |
Member
Iscritto dal: Sep 2007
Messaggi: 265
|
Quote:
Il problema e' come sono fatti quei calcoli, non basta dire "paralleli", ci sono molti tipi di "parallelo" diversi. Ad esempio, considera un problema standard in moltissimi campi, quello dell'evoluzione di unn sistema particellare (o un'analisi a elementi finiti, fondamentalmente e' lo stesso). Il problema si affronta cosi': hai un volume con all'interno un tot di "particelle", dove ogni particella interagisce con le altre (gravita', se la "particelle" sono stelle in una simulazione astronomica; equazioni quantistiche, se le particelle sono atomi, eccetera); parti dalla condizioen iniziale al tempo 0; poi calcola tutte le forze, calcola come le particelle si muovono a causa di queste forze, e calcola la nuova posizione al tempo t1; ora ricalcola tutte le forze per la nuova configurazione, applica le forze, e ottieni la posizione al tempo t2; ... e prosegui cosi' per molto tempo (possono essere milioni di step, o miliardi, o miliardi di miliardi, a seconda di cosa vuoi simulare). Come si parallelizza un problema del genere? Suddividi il volume in tanti volumetti, assegna ogni volumetto ad un processore, che calcola uno step (es. l'evoluzione da t0 a t1); tutti i volumetti sono calcolati in parallelo... ma alla fine, tutti i processori devono scambiarsi i dati, vuoi perche' una particella potrebbe essere passata da un volume ad un altro, vuoi perche' cmq devi tenere conto delle forze non solo nel tuo volume, ma anche in quelli vicini (con delle semplificazioni, ad es. potresti tenere conto solo dei volumi di fianco al tuo, perche' gli altri sono troppo lontani per avere effetto, eccetera). Quindi, funziona cosi': * calcolo step 1, parallelo * barriera: sincronizzazione di tutti i processori, tutti devono raggiungere questa barriera e scambiarsi i dati prima di procedere * calcolo step 2, in parallelo * barriera: sincronizzazione di tutti i processori * ... Ora, in un supercomputer hai decine di migliaia di nodi, quindi puoi dividere in un sacco di volumetti e calcolarli in parallelo. Ma hai anche una rete velocissima per scambiare dati tra i processori, che e' fondamentale per fare in fretta la fase di sincronizzazione (la "barriera"). Considera ora un sistema tipo BOINC: puoi anche avere milioni di computer, e quindi fare molto in fretta i calcoli paralleli; ma poi devi sincronizzare tutti... e li' non ce la fai: magari un task e' andato perso perche' uno ha spento il computer o si e' sconnesso dalla rete, oppure uno ha un computer lentissimo e ci mette piu' tempo degli altri a calcolare il suo task, e tutti devono aspettare lui... metti anche solo che in 10 secondi riesci a distribuire un milione di task in giro per il mondo, farli elaborare, e raccoglierli (che e' completamente irrealistico); gia' solo per eseguire un milione di step ti servirebbero 10^7 secondi, cioe' 115 giorni, di cui magari 1 giorno di calcoli, e il resto di sincronizzazione Non funziona, proprio no, a meno di non avere un problema parallelizzabile in modo diverso, ad es. un problema scomponibile in pezzi completamente scorrelati, come ad es. (non a caso, ovviamente il programma del SETI o Folding. Ma la maggior parte dei problemi non si parallelizzano in quel modo. |
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:41.