View Full Version : Supercomputer ENEA con IBM e Intel
Redazione di Hardware Upg
07-06-2008, 07:50
Link alla notizia: http://www.hwupgrade.it/news/server/supercomputer-enea-con-ibm-e-intel_25563.html
L'ENEA ha scelto le soluzioni di IBM e Intel per realizzare un supercomputer nel quadro dello nello sviluppo integrato di una Grid computazionale a livello nazionale che riunisca i quattro centri PON nel Centro-Sud Italia finanziati dal MiUR
Click sul link per visualizzare la notizia.
cOREvENICE
07-06-2008, 08:35
Altra botta per AMD :rolleyes:
DarKilleR
07-06-2008, 09:07
Ottimo finalmente qualche super PC anche in Italia....
anche se quello del CNR di Pisa non scherza...mi sembra quando fu acquistato era il più potente di europa, ma ora è vecchiotto...
spendono maree di euro quando ci sono software come boinc...povera italietta
DarKiller, il CINECA di Bologna ospita i 2 supercomputer più potenti in italia, il 48-esimo e 71-esimo nel mondo. (su quest'ultimo faccio i conti io).
http://www.top500.org/country/98
Aggiungo che solo l'1.2% dei supercomputer nel mondo usa windows, il restante 98.8% è unix/linux (per fortuna!)
http://www.top500.org/charts/list/30/os
spendono maree di euro quando ci sono software come boinc...povera italietta
per me fai tenerezza te che non capisci la differenza tra avere un supercalcolatore e usare un software di calcolo distribuito
per parcondicio dovresti dire POVERE TUTTE LE ALTRE NAZIONI che hanno supercalcolatori
Dreadnought
07-06-2008, 09:46
DarKiller, il CINECA di Bologna ospita i 2 supercomputer più potenti in italia, il 48-esimo e 71-esimo nel mondo. (su quest'ultimo faccio i conti io).
http://www.top500.org/country/98
Aggiungo che solo l'1.2% dei supercomputer nel mondo usa windows, il restante 98.8% è unix/linux (per fortuna!)
http://www.top500.org/charts/list/30/os
Da marzo in Cilea c'è un cluster con 208 Blade con 8 core, per un totale di circa 20 teraflop.
Però a fine giugno in ferrari, cambiando tutti gli opteron del suo cluster da dual core in quad core, mi sa che in italia diventerà quello il più potente.
Non capisco molto il senso di usare IBM più intel (mi domando che macchine usino...), aveva molto più senso IBM + powerPC.
per me fai tenerezza te che non capisci la differenza tra avere un supercalcolatore e usare un software di calcolo distribuito
per parcondicio dovresti dire POVERE TUTTE LE ALTRE NAZIONI che hanno supercalcolatori
Più che altro boinc ha bisogno di molta più potenza di un cluster ottimizzato, consumi decuplicati, overhead di 500%-1000% di codice e di trasmissione dati e tempi di calcolo troppo variabili.
E' un'altra cosa... Non puoi fare un servizio serio con il calcolo distribuito.
Lud von Pipper
07-06-2008, 10:03
Ma perchè non usare dei Cell al posto degli Xeon, con questi ultimi al massimo come controller?
Che io sappia Cell è molto più adatto per il calcolo intensivo...
gabi.2437
07-06-2008, 10:13
BOINC è diverso da un supercomputer, sebbene con risultati simili...
Come efficenza è molto meglio un supercomputer visto che viene costruito apposta per questo e è controllato direttamente da chi lo usa... inoltre tutto ciò crea nuova potenza di calcolo che si va ad aggiungere a quella di BOINC... anche se è vero che di potenza BOINC potrebbe darne molta di più se i partecipanti aumentassero...talmente tanta da oscurare i vari supercomputer
Dreadnought
07-06-2008, 10:36
Ci sono alcuni calcoli istantanei che con i supercomputer + infiniband fai e con boinc non puoi fare in tempi rapidi.
Dipende dalla tipologia di calcolo, se hai bisogno di fare trasformate di matrici di grandezza esagerata il supercomputer se la cava in qualche minuto, con boinc sta in ballo giornate, questo perchè scomponendo la matrice in blocchi più piccoli i calcoli iniziali devono terminare prima di iniziare i successivi.
Poi c'è l'aspetto marketing, molta gente su internet si vanta di fare calcoli per seti/boinc e altro, però mi viene da ridere, perchè nessuno sa bene cosa sta facendo, magari mentre ti propongono il calcolo di una nuova proteina contro il cancro in realtà assieme a quello passano piccoli pacchetti per fare calcoli a scrocco per altre aziende.
Non dobbiamo dimenticare che boinc vive sul fatto che la gente si sente "felice" di fare calcoli per alcuni progetti.
Hanno creato il business dal nulla! (grazie a tutti i pesci che abboccano :asd: )
Chi sfrutta boink ha potenza di calcolo gratis a scapito delle bollette di chi fornisce i suoi PC, ma questo perchè ci sono molte persone che esprimono la volontà di aderire ai progetti.
Se devi fare calcoli per cercare il petrolio chi diamine vuoi che aderisca al tuo progetto? :D
DarkMage74
07-06-2008, 11:12
Se devi fare calcoli per cercare il petrolio chi diamine vuoi che aderisca al tuo progetto? :D
se mi fanno pagare meno la benzina io aderisco subito :asd:
1) si sa quanto hanno speso per questo supercomputerone?
2) tra quanti anni sarà obsoleto (prevedo 5 anni e lo possono anche buttare via)
Le Altre nazioni......forse hanno produttori di microchip...ma solo forse eh :)
un concentrato di min****** complimenti dread, cmq pare che il progetto rosetta sia una copertura per nuove armi di distruzione di massa ahahah ma cosa vuoi che spenda di corrente con boinc al 10%? ma va a lavurà
amagriva
07-06-2008, 11:15
@dreadnought:
da "donatore" di potenza di calcolo per folding at home, quando holetto le tue affermazioni che incollo qui sotto:
però mi viene da ridere, perchè nessuno sa bene cosa sta facendo, magari mentre ti propongono il calcolo di una nuova proteina contro il cancro in realtà assieme a quello passano piccoli pacchetti per fare calcoli a scrocco per altre aziende.
Non dobbiamo dimenticare che boinc vive sul fatto che la gente si sente "felice" di fare calcoli per alcuni progetti
fine quote
Ho fatto un salto sulla sedia.
Sei a conoscenza di qualcosa di più preciso in merito a quanto affermi?
Vorresti dire che magari mentre mi fanno vedere le proteine che si "srotolano" sotto sotto sto facendo delle proiezioni per cercare il petrolio della Exxon?
Se quanto affermi fosse vero sarebbe gravissimo, per cui se sei a conoscenza di "complotti" di tale portata, che sarebbero ancora più gravi vista la buonafede con cui la gente regala banda e calcolo, ti invito a spiegarti meglio ed a condividere le informazioni in tuo possesso.
Grazie
Io ho visto un server tesla in azione, e devo dire che fa veramente PAURA!
Dove un sistema xeon a 8 core calcola un passaggio ogni 60s, una sola Tesla ne calcola 20 in un 1s !!!
Enorme risparmio di tempo, costi e consumi!
Dall'ENEA mi sarei aspettato che fosse meno ottusa del CNR che non ha nemmeno voluto assistere alla presentazione pratica di questi prodotti.
spendono maree di euro quando ci sono software come boinc...povera italietta
invece un pò tenerezza fai te, come i tanti che fanno i fighi col loro super arduerrr preso a posta solo per vantarsi di tenerlo al 100% con boinc quando dovrebbe stare in idle.
Cosa c'entrano i supercomputer?? Secondo te un dipartimento che deve fare simulazioni o elaborazioni pesanti AL MOMENTO, deve andarsi a rivolgere a BOINC, dove già ci sono progetti prefissati, o usa la propria rete universitaria italiana?
Guarda che non l'hanno comprato per fare oc e sfondare i 10secondi al superpi, eh, ci sono tante elaborazioni che vengono richieste AL MOMENTO. bah:doh:
gabi.2437
07-06-2008, 12:01
Poi ci spieghi perchè uno dovrebbe tenere il pc in idle se l'ha comprato...a casa mia le cose si comprano per essere usate, non per tenerle in idle :D
E cmq non sottovalutate BOINC, che è in grado di rivaleggiare benissimo con tutti i supercomputer
ma cosa dovrebbero simulare quelli dell' enea? ma sprecassero meno soldi che le tasse che paghiamo sono già tante, per me se un' azienda acquista un megaserver è libera di farlo buon per lei...ma se ogni università del paese si dovesse fare il proprio megaserver allora siamo messi proprio male...voglio proprio vedere se dovessero acquistarlo con i propri soldi.
Ma davvero credete che verrà utilizzato 24 ore su 24? ahahhah al massimo lo useranno 2 3 ore al giorno
spreconi! boinc sarebbe più che bastato ...ovviamente non sono capaci di implementare un progetto serio
AL MOMENTO NON CI SONO SOLDI MI SPIACE.
gabi.2437
07-06-2008, 12:05
Tra tutti i modi per spender soldi, comprar megaserver è uno dei migliori... certo, ovviamente qua in italia è sprecar soldi, infatti si vede come siamo allegramente messi :rolleyes: :D
E i soldi ci sono, ECCOME! O forse credi che l'italia è messa male perchè poverina non ha i soldi? Bah... tra tutti i magna magna politici&co ci tiri fuori talmente tanti di quei soldi...tipo, i 300 milioni ad alitalia, per fare un esempio... quei 300 milioni ci sono... e i MILIARDI che ora danno per il ponte a messina? Vedi quanti soldi che ci sono?
Ah, se sei venuto qua a flammare e deridere, mi sa che hai sbagliato posto
Dreadnought
07-06-2008, 12:11
Ho fatto un salto sulla sedia.
Sei a conoscenza di qualcosa di più preciso in merito a quanto affermi?
Vorresti dire che magari mentre mi fanno vedere le proteine che si "srotolano" sotto sotto sto facendo delle proiezioni per cercare il petrolio della Exxon?
Se quanto affermi fosse vero sarebbe gravissimo, per cui se sei a conoscenza di "complotti" di tale portata, che sarebbero ancora più gravi vista la buonafede con cui la gente regala banda e calcolo, ti invito a spiegarti meglio ed a condividere le informazioni in tuo possesso.
Non dirmi che non ti sei mai posto la domanda!!!
Beh ho esagerato un po', ma può essere probabile che tu stia calcolando strutture atomiche di proteine, ma assieme a quello, a tua insaputa stai facendo anche altro (non sto nemmeno ad elencare), oppure in realtà la proteina non è per curare il cancro ma è un nuovo medicinale di qualche azienda farmaceutica che ha passato sottomano soldi a centri di calcolo distribuito per far fare i calcoli a te, spacciandolo come progetto filantropico.
Come fai ad accorgertene? E' praticamente impossibile: non c'è niente di più complicato che decifrare qualcosa da una valanga di dati. Boinc/seti/folding@home si basano sulla fiducia, io con i tempi che corrono e la recessione non mi fido più... :mad:
Poi tra l'altro il calcolo distribuito è uno dei modi MENO efficienti di fare calcolo, va bene solo sui progetti proposti da chi ha pochi fondi, per cui la gente - mossa a carità - spende i suoi soldi per partecipare a progetti per l'umanità.
Se qualcuno vedi ENI/Exxon/altri i fondi li ha che si spenda i suoi milioni di euro per comprarsi un cluster, oppure si faccia girare boinc per tutti i pc dell'installato aziendale.
ma cosa dovrebbero simulare quelli dell' enea? ma sprecassero meno soldi che le tasse che paghiamo sono già tante, per me se un' azienda acquista un megaserver è libera di farlo buon per lei...ma se ogni università del paese si dovesse fare il proprio megaserver allora siamo messi proprio male...voglio proprio vedere se dovessero acquistarlo con i propri soldi.
Ma davvero credete che verrà utilizzato 24 ore su 24? ahahhah al massimo lo useranno 2 3 ore al giorno
spreconi! boinc sarebbe più che bastato ...ovviamente non sono capaci di implementare un progetto serio
AL MOMENTO NON CI SONO SOLDI MI SPIACE.
mi sa che non ne sei al corrente, ma i super computer vengono anche affittati a terzi per fare i propri calcoli ... non è come il tuo pc che lo usi solamente te e gli altri se ne devono stare alla larga
gli altri atenei, le industrie, o chiunque richieda di fare ingenti calcoli per i propri progetti a chi credi che si rivolgano? a boinc? cosi tutti sanno che progetti stanno facendo?
naturalmente l'affitto di un supercomputer non è gratis
spendono maree di euro quando ci sono software come boinc...povera italietta
per fortuna che in Italia ci sono luminari del tuo calibro invece :rolleyes:
Poi ci spieghi perchè uno dovrebbe tenere il pc in idle se l'ha comprato...a casa mia le cose si comprano per essere usate, non per tenerle in idle :D
Perchè forse il consumo in idle è una frazione di quello in load?
La bolletta energetica si paga salata ormai...
Con ciò non dico che sia sbagliato dedicare le proprie risorse hardware a progetti meritevoli, ci mancherebbe altro!
E cmq non sottovalutate BOINC, che è in grado di rivaleggiare benissimo con tutti i supercomputer
Solo per quanto riguarda la capacità globale di calcolo, di certo non in termini di efficienza e gestione.
mi sa che non ne sei al corrente, ma i super computer vengono anche affittati a terzi per fare i propri calcoli ... non è come il tuo pc che lo usi solamente te e gli altri se ne devono stare alla larga
gli altri atenei, le industrie, o chiunque richieda di fare ingenti calcoli per i propri progetti a chi credi che si rivolgano? a boinc? cosi tutti sanno che progetti stanno facendo?
naturalmente l'affitto di un supercomputer non è gratis
tanto meglio li affittassero di sicuro verrebbe a fare meno...grandi genii quelli dell' enea, davvero dei genii, a me però basta sapere come hanno gestito le pratiche per le detrazioni sul solare termico per capire che non hanno bisogno di questo server, magari serve al barone di turno che indicherà nelle sue pubblicazioni le simulazioni fatte con questo server
Vergogna!
Dreadnought
07-06-2008, 12:50
Il politecnico di milano normalmente paga cilea per servizi di calcolo, e così moltissime aziende che per progetti semplici, tipo ad esempio simulare fluidodinamica, calcolare sforzi meccanici o studiare problemi non polinomiali...
Se quelli di enea spendono qualche milione di euro per un cluster di sicuro gli ritornano tutti.
gabi.2437
07-06-2008, 12:57
Boh qua sta diventando un ricettacolo di flame puro... me ne tiro fuori :mbe:
tanto meglio li affittassero di sicuro verrebbe a fare meno...grandi genii quelli dell' enea, davvero dei genii, a me però basta sapere come hanno gestito le pratiche per le detrazioni sul solare termico per capire che non hanno bisogno di questo server, magari serve al barone di turno che indicherà nelle sue pubblicazioni le simulazioni fatte con questo server
Vergogna!
Scusa! Ma non ho capito nulla di quello che hai scritto
Potresti chiarirmi meglio la tua posizione?
amagriva
07-06-2008, 13:54
@dreadnought:
adesso ho capito...
spali m..... sulla buona volontà della gente instillando dubbi senza un minimo di conferme o prove.
Stai facendo dei danni e sei un "cioccapiatti" o venditore di cioccolata (sei su un forum di informazione scientifica non con il gomito appoggiato al bancone del bar a sparare c....ate)
Io ho visto un server tesla in azione, e devo dire che fa veramente PAURA!
Dove un sistema xeon a 8 core calcola un passaggio ogni 60s, una sola Tesla ne calcola 20 in un 1s !!!
Enorme risparmio di tempo, costi e consumi!
Dall'ENEA mi sarei aspettato che fosse meno ottusa del CNR che non ha nemmeno voluto assistere alla presentazione pratica di questi prodotti.
C'e molta ignoranza su tesla!
Tesla e' una bomba, piu' di 1024 processi simultanei ma soffre di grav1 problemi
-Supporta solo la precisione singola a 4byte e non i double
-la memoria. le matrici che devi utilizzare devono essere contenute nella memoria ram della gpu. Attualmente sono fermi a 2GB quindi per fare una moltiplicazione di matrici al massimo puoi allocare 2gb/3 (a*b=c) cio' significa che puoi al massimo moltiplicare 2 matrici quadrate 400x400.
-la memoria 2: ogni singolo thread non puoi gestire la memoria quindi funzioni di allocazione della ram non sono disponibili. Cio' taglia le gambe all'utilizzo su matrici sparse.
-Tutti i thread eseguono lo stesso programma quindi non puoi serializzare processi all'interno della stessa gpu. Ora non so se ne hai 4 puoi serializzare su diverse gpu.
Per questo motivo abbiamo un cluster tesla fermo! Noi usavamo matrici sparse da 4-6gb su opteron ma il cluster tesla non riusciva a farci nulla.
Ora magari il cuda 2 risolve ma per ora sono limitate ad alcune applicazioni specifiche in campo fisico!
songohan
07-06-2008, 14:10
Amagriva, scusa se mi intrometto nel discorso, non voglio fare l'avvocato del diavolo, ma quello che voleva dire Dread è che, con i tempi che corrono, FORSE questi progetti filantropici vengono usati anche per altri scopi, meno etici... E' un dubbio lecito, il mondo funziona così da sempre, e tanto più le tecnologie saranno sofisticate e tanto meno saranno le persone in grado di controllarle.
CaFFeiNe
07-06-2008, 14:18
ah l'enea.... rubia... mi vengono in mente esperimenti di fusione fredda quasi riuscita....e i politici che nella loro ottusaggine... hanno bloccato gli italiani e sono venuti i francesi a rubarci gli studi... ma per fortuna non sono ancora riusciti a riprodurre niente....
ecco themose, non so tu che ci faccia davanti ad un computer, secondo me saresti molto piu' felice in un campo a coltivarlo....
un po' come i leghisti che vogliono togliere i soldi al centro di ricerca neurologico fondato dalla montalcini.... uno dei centri che piu' ha aiutato la ricerca neurologica in europa e nel mondo (non danno mica il premio nobel per la medicina al primo che vien)
e poi ci lamentiamo che non abbiamo lavoro, che siamo 10 anni indietro, che le nostri menti geniali vanno a lavorare all'estero...
grazie.... abbiamo certe menti geniali qui, che considerano i soldi dati alla ricerca uno spreco....
fosse per me darei di stipendio 1500 euro ai politici, e sposterei i soldi alla ricerca, ad un prof universitario darei non piu' di 2000 3000 e sposterei i soldi alla ricerca (se guadagnano di meno i prof, sono anche piu' tentati a ricercare e creare qualcosa)... non darei soldi a nessuna azienda sull'orlo del fallimento, ma imporrei a dei privati di comprarla.... e darei tutto alla ricerca... mi farei PAGARE MULTE OGNI GIORNO DALLA MEDIASET PER TUTTA QUELLA FECCIA CHE MANDA IN ONDA CHE CONSIDERO OFFESA ALLA CULTURA... e darei tutto alla ricerca... non darei alcun limite moral/ecclesiastico alla ricerca (clonazione, why not?)
vogliono attivare il nucleare.... si con le centrali costruite negli anni 70.....
mah
ma non vi chiedete mai "ma dove sto vivendo?" un laureato in informatica o in materie tecnologiche, se lavora in italia, puo' lavorare bene e fare quello che sogna solo lavorando per multinazionali nelle sedi italiane....
amagriva
07-06-2008, 14:47
Qualsiasi dubbio è lecito (altro che cluster per calcolare il numero dei dubbi leciti...) ma arrivare a dire: Hanno creato il business dal nulla! (grazie a tutti i pesci che abboccano) con faccina che sogghigna a seguire,mi sa tanto del luogo comune a gratis che fa rinunciare tanta gente a fare beneficenza "perchè chi lo sa dove vanno a finire..."
E poi di ste teorie complottiste bona lè se non hai uno straccio di prova...
CaFFeiNe
07-06-2008, 15:19
beh amagriva, il suo discorso non è neanche totalmente sbagliato
come tu magari dai fiducia a priori ad una associazione di beneficenza, e in questo caso a boinc, magari lui da' sfiducia a priori
sta ad entrambi magari informarsi per vedere se il proprio sentimento è fondato...
cavasayan
07-06-2008, 15:39
ma cosa dovrebbero simulare quelli dell' enea? ma sprecassero meno soldi che le tasse che paghiamo sono già tante, per me se un' azienda acquista un megaserver è libera di farlo buon per lei...ma se ogni università del paese si dovesse fare il proprio megaserver allora siamo messi proprio male...voglio proprio vedere se dovessero acquistarlo con i propri soldi.
Ma davvero credete che verrà utilizzato 24 ore su 24? ahahhah al massimo lo useranno 2 3 ore al giorno
spreconi! boinc sarebbe più che bastato ...ovviamente non sono capaci di implementare un progetto serio
AL MOMENTO NON CI SONO SOLDI MI SPIACE.
:cry:
Ma come si fa a scrivere queste cose...a pensarle solo.
I super computer facciamoli comprare solo alle altre nazioni, la ricerca scientifica lasciamola agli altri che a noi non serve! :doh:
Mi capita di usare i cluster del CILEA praticamente ogni giorno e ogni giorno ringrazio di averli a disposizione altrimenti il mio lavoro di ricerca non sarebbe neanche incominciato.
blackshard
07-06-2008, 16:25
@dreadnought:
adesso ho capito...
spali m..... sulla buona volontà della gente instillando dubbi senza un minimo di conferme o prove.
Stai facendo dei danni e sei un "cioccapiatti" o venditore di cioccolata (sei su un forum di informazione scientifica non con il gomito appoggiato al bancone del bar a sparare c....ate)
Secondo me il dubbio di Dreadnought è perfettamente lecito. Lui non ha spalato niente, ha solo detto che se volessero potrebbero farlo senza che tu ti accorga di niente.
E nulla, se non l'etica, gli vieta di farlo.
gabi.2437
07-06-2008, 17:20
E invece penso che la cosa verrebbe fuori... basta analizzare il file .exe che caxx fa e/o analizzare i dati, poi sono quasi tutti progetti universitari, quindi non puoi farci quello che vuoi...
Dreadnought
07-06-2008, 17:24
Nulla da togliere a boinc/seti/folding@home.
Però sinceramente io mi pongo alcune domande:
- perchè io devo dare il mio pc, la mia corrente e di conseguenza inquinando e usando i miei soldi per sistemi di calcolo distribuito?! Ci sono i cluster che consumano 1/10 e fanno i calcoli molto più in fretta!
- perchè nessuno mi paga per farlo?
- perchè c'è gente che in ogni caso (se non in $$ almeno in fama o gloria) ne trae guadagno senza dare nessuna garanzia?
Secondo me il calcolo distribuito va regolamentato, con garanzie e alcune leggi che obblighino chi propone iniziative simili a dimostrare i suoi risultati.
Superboy
07-06-2008, 19:08
che discorso egoista ammazza... è una donazione ad un ente o ambito di ricerca, se la vuoi fare usi quei programmi, se non vuoi nn li esegui, ma rompere tanto le balle perchè uno vuole donare un po' di tempo cpu anzichè lanciare un salvaschermo mi sembra fuori luogo. Se sei tanto contro questo progetto fai una donazione di 100 euro l'anno all'istitito in questione così il medesimo potrà affittare potenza di calcolo ad un supercluster di qualchuno che ci lucrerà sopra.
Nulla da togliere a boinc/seti/folding@home.
Però sinceramente io mi pongo alcune domande:
- perchè io devo dare il mio pc, la mia corrente e di conseguenza inquinando e usando i miei soldi per sistemi di calcolo distribuito?! Ci sono i cluster che consumano 1/10 e fanno i calcoli molto più in fretta!
- perchè nessuno mi paga per farlo?
- perchè c'è gente che in ogni caso (se non in $$ almeno in fama o gloria) ne trae guadagno senza dare nessuna garanzia?
Secondo me il calcolo distribuito va regolamentato, con garanzie e alcune leggi che obblighino chi propone iniziative simili a dimostrare i suoi risultati.
nessuno ti costringe a farlo, se lo vuoi fare è perchè ti va altrimenti va benissimo lo stesso nessuno sentirà la tua mancanza
adesso basta trollare che sono 4 pagine che siamo offtopicchissimo
Dreadnought
07-06-2008, 19:37
Non è che a me sembri tanto una "donazione".
Molti fanno a gara a chi calcola di più e i siti pubblicano anche le classifiche (anche qua puro marketing), negozi promuovono il calcolo distribuito per vendere pc da overcloccare e altri come voi non riuscite a vedere più in là del vostro naso...
Dimenticate infatti di considerare che al mondo ci sono milioni di CPU/GPU/Console che fanno calcolo in modo inefficente e costoso inquinando un ordine di grandezza di più della tecnologia dei cluster e soprattutto senza alcuna garanzia che quel che fate è a scopo "benefico".
Considerando tutto questo la faccenda diventa anche un problema di tutti.
Ora potete arrampicarvi sugli specchi quanto volete, il succo del discorso è che avete poche prove tangibili dei risultati ottenuti dai calcoli che macina la vostra elettronica casalinga, quindi ogni tanto almeno una domanda io me la porrei.
Nessuno tocca il vostro dogma o il vostro credo: se però un semplice utente su un forum, facendovi scattare nel cervello semplici pensieri vi fa incazzare così tanto, allora evidentemente un po' di incertezze anche voi "donatori di flops" le avete.
Fatico a capire come mai ci sia questa diatriba in corso.
In fondo tutti, in un modo o nell'altro, vogliamo che la ricerca scientifica progredisca. Davvero conta come? Cambia molto se tramite BOINC o tramite dei supercomputer?
I centri di ricerca hanno usato DA SEMPRE i supercomputer e BOINC non cerca certo di sostituirli: si tratta invece di un di più, un'altra via da esplorare.
Siamo anche d'accordo che BOINC non possa far girare certi progetti che richiedono alta parellelizzazione. Anche i supercomputer però hanno i loro limiti (difficoltà di programmazione, difficoltà di gestione, costi) che invece BOINC supera agevolmente.
Siamo ancora d'accordo che BOINC non abbia l'efficienza di un supercomputer (anche se non è COSÌ INEFFICIENTE come si crede, leggete questo articolo link (http://www.boincitaly.org/index.php?option=com_content&task=view&id=67&Itemid=1)).
E per l'ultima volta siamo d'accordo che BOINC si basi sulla fiducia perchè si fa fatica a sapere cosa elaborino i computer in realtà. Ma ciò non implica che si faccia qualcosa di male.
Quindi, davvero, da dove nasce questa diatriba? Che senso ha questa discussione?
Io credo piuttosto che sia da essere contenti che l'Italia si sia dotata di un supercomputer, finalmente qualcosa di concreto per la ricerca, dopo tante parole...
Superboy
07-06-2008, 20:02
si si, un bel supercomputer per fare analisi del suolo per trovare plutonio per poi fare altri conti per calcolare i costi del suo smaltimento, io li metterei a Chiaiano :D
fosse per me darei di stipendio 1500 euro ai politici, e sposterei i soldi alla ricerca, ad un prof universitario darei non piu' di 2000 3000 e sposterei i soldi alla ricerca (se guadagnano di meno i prof, sono anche piu' tentati a ricercare e creare qualcosa)... non darei soldi a nessuna azienda sull'orlo del fallimento, ma imporrei a dei privati di comprarla.... e darei tutto alla ricerca... mi farei PAGARE MULTE OGNI GIORNO DALLA MEDIASET PER TUTTA QUELLA FECCIA CHE MANDA IN ONDA CHE CONSIDERO OFFESA ALLA CULTURA... e darei tutto alla ricerca... non darei alcun limite moral/ecclesiastico alla ricerca (clonazione, why not?)
vogliono attivare il nucleare.... si con le centrali costruite negli anni 70.....
mah
ma non vi chiedete mai "ma dove sto vivendo?" un laureato in informatica o in materie tecnologiche, se lavora in italia, puo' lavorare bene e fare quello che sogna solo lavorando per multinazionali nelle sedi italiane....
Assolutamente d'accordo. Quoto praticamente tutto( soprattutto il prendere i soldi alla merd@set e darli alla ricerca :D ). ;)
Obelix-it
08-06-2008, 12:34
Quindi, davvero, da dove nasce questa diatriba? Che senso ha questa discussione?
Celolunghismo allo stato brado. C'e' chi e' convinto che soikkome *lui* usa Boinc, allora solo Boinc esiste e merita. Sfortunatamente, il mondo si estende oltr ei miseri confini della sua intelligenza, e normalmente, cerca di sfruttare tutto quello che capita a tiro (Boinc, supercomputer etc.etc.)
bonzuccio
08-06-2008, 13:00
Non è che a me sembri tanto una "donazione".
Molti fanno a gara a chi calcola di più e i siti pubblicano anche le classifiche (anche qua puro marketing), negozi promuovono il calcolo distribuito per vendere pc da overcloccare e altri come voi non riuscite a vedere più in là del vostro naso...
Dimenticate infatti di considerare che al mondo ci sono milioni di CPU/GPU/Console che fanno calcolo in modo inefficente e costoso inquinando un ordine di grandezza di più della tecnologia dei cluster e soprattutto senza alcuna garanzia che quel che fate è a scopo "benefico".
Considerando tutto questo la faccenda diventa anche un problema di tutti.
Ora potete arrampicarvi sugli specchi quanto volete, il succo del discorso è che avete poche prove tangibili dei risultati ottenuti dai calcoli che macina la vostra elettronica casalinga, quindi ogni tanto almeno una domanda io me la porrei.
Nessuno tocca il vostro dogma o il vostro credo: se però un semplice utente su un forum, facendovi scattare nel cervello semplici pensieri vi fa incazzare così tanto, allora evidentemente un po' di incertezze anche voi "donatori di flops" le avete.
Guarda che una semplice pleistescion col suo folding ha un rendimento di sicuro superiore a una macchina del tipo quella che questi di enea si sono comprati coi nostri soldi (gli xeon :doh: :doh: ).
Se permetti agli affari da miliardi di euro pilotati chissà da quali cordate preferisco metterci del mio in maniera sicuramente più sensata.
Che a fare populismi e disfattismi vari ci vuole poco da tutte le parti :read: :read: :read:
Poi se permetti pure fosse se una università si fa calcolare roba per le case farmaceutiche a parte che si scoprirebbe in breve tempo perchè uscirebbe fuori e poi anche fosse (ma sarebbe uno scandalo) sarebbe cmq un modo per sopravvivere visto che in questo paese spendiamo in ricerca il 2% del nostro pil
tralasciamo boinc, anche se le farneticazioni sul petrolio mi fanno ridere, in ogni caso andate a farvi un giro sul forum di rosetta, è praticamente deserto non ci sono molti ricercatori interessati a questo tipo di proteine!!
Comunque sono LIBERAMENTE consultabili, il capo progetto aggiorna puntualmente il forum con le novità di rilievo ed è anche molto gentile e disponibile a qualsiasi chiarimento.
Boinc è un progetto elaborato in america (dove come è noto ci sono i migliori server mondiali), ora io mi chiedo: dato che questi signori (ENEA) spendono tranquillamente migliaia di euro per macchine del genere (certo che hanno scelto proprio il momento proprizio con le nuove architetture dietro l' angolo), COME MAI e dico COME MAI nessuno ha elaborato un progetto simile di calcolo computazionale?
tra l' altro boinc è anche rilasciato per sistemi come linux...si potrebbe quindi prendere spunto almeno in parte da questo progetto, ma i NOSTRI cari ricercatori forse non sono capaci?
quindi delle 2 l' una
1) o i software di calcolo computazionale sono inefficienti, ma in questo caso chi ha elaborato il progetto boinc è proprio un cretino poichè non ha ancora abbandonato tale progetto(sinceramente mi sembra piuttosto strano dato che i nuovi progetti sono sempre più numerosi)
2) o i nostri ricercatori non sono così bravi o cmq non hanno i mezzi tecnici/teorici per un progetto del genere
Guarda che una semplice pleistescion col suo folding ha un rendimento di sicuro superiore a una macchina del tipo quella che questi di enea si sono comprati coi nostri soldi (gli xeon :doh: :doh: )
[omissis]
mi daresti qualche link su quello che affermi con sicurezza assoluta!
tralasciamo boinc, anche se le farneticazioni sul petrolio mi fanno ridere, in ogni caso andate a farvi un giro sul forum di rosetta, è praticamente deserto non ci sono molti ricercatori interessati a questo tipo di proteine!!
Comunque sono LIBERAMENTE consultabili, il capo progetto aggiorna puntualmente il forum con le novità di rilievo ed è anche molto gentile e disponibile a qualsiasi chiarimento.
Boinc è un progetto elaborato in america (dove come è noto ci sono i migliori server mondiali), ora io mi chiedo: dato che questi signori (ENEA) spendono tranquillamente migliaia di euro per macchine del genere (certo che hanno scelto proprio il momento proprizio con le nuove architetture dietro l' angolo), COME MAI e dico COME MAI nessuno ha elaborato un progetto simile di calcolo computazionale?
tra l' altro boinc è anche rilasciato per sistemi come linux...si potrebbe quindi prendere spunto almeno in parte da questo progetto, ma i NOSTRI cari ricercatori forse non sono capaci?
quindi delle 2 l' una
1) o i software di calcolo computazionale sono inefficienti, ma in questo caso chi ha elaborato il progetto boinc è proprio un cretino poichè non ha ancora abbandonato tale progetto(sinceramente mi sembra piuttosto strano dato che i nuovi progetti sono sempre più numerosi)
2) o i nostri ricercatori non sono così bravi o cmq non hanno i mezzi tecnici/teorici per un progetto del genere
come ho già detto un super computer e un software di calcolo distribuito coprono due esigenze di ricerca differente
abbiamo capito che coprono esigenze differenti ma mi sembra strano che in Italia nessuno abbia le esigenze del calcolo distribuito....bah
http://www.boincitaly.org/index.php?option=com_fireboard&Itemid=2&func=view&catid=10&id=5965 per chi vuole approfondire
Ho sempre cercato di tenermi alla larga dalle diatribe che nascono su questo forum, ma questa volta non sono riuscito a trattenermi.
Esistono varie classi di problemi. In risposta a tali problemi esistono altrettante classi di strumenti di calcolo.
Si tenga presente che l'efficienza con la quale si può risolvere un problema dipende si dall'hardware ma in misura preponderante dall'algoritmo impiegato (legge di Amdahl)
Con una notevole semplificazione si può dire che:
Alcuni problemi sono facilmente decomponibili in sottoproblemi i cui risultati costituiscono quello del problema principale, e che quindi possono essere risolti indipendentemente uno dall'altro (parallelamente).
Altri problemi possono essere si scomposti in sottoproblemi, ma le varie parti possiedono delle dipendenze funzionali tra di loro.
Altri ancora non possono essere scomposti, o meglio, non si conoscono tecniche o algoritmi per scomporli oppure sono intrinsecamente sequenziali.
Le griglie computazionali in generale costituiscono un ottimo modo di aggregare potenza di calcolo attraverso la condivisione e superare i problemi logistici, economici dovuti ad una gestione centralizzata locale. Purtroppo solo la prima classe di problemi si può avvantaggiare di tali architetture.
Da questo punto di vista in Italia esistono infrastrutture stupefacenti, di gran lunga migliori di Boinc come L'INFN-Grid facente parte del progetto europeo LCG (40k processori e svariati peta-byte di storage). Tutta roba che potete trovare su internet.
Per gli altri problemi non vi è altra soluzione che impiegare i computeroni. Il problema principale è la latenza della rete di interconnessione dei nodi. Per alcuni programmi che necessitano di frequenti scambi di informazioni tra i sottoprocessi non sono sufficienti addirittura le caratteristiche di latenza e ampiezza di banda delle reti Infiniband per i cluster, figuriamoci le reti WAN che boinc impiega. Ecco perchè ancora non sono morti i gli MPP, SMP, NUMA, ccNUMA etc. . E probabilmente mai spariranno non ostante gli alti costi.
Un altro problema dei sistemi distribuiti condivisi è la sicurezza. Purtroppo la condivisione non è un opzione in molte applicazioni: chi mi assicura che il singolo utente non mi infila spazzatura di proposito nei risultati? Come faccio ad essere certo che non venda a terzi i risultati? Che fine fanno i miei dati?
Un'altra cosa di cui spesso sento sproloquiare sono i processori cell, che sono in realtà notoriamente molto difficili da programmare. Bene, vi basti pensare che alcuni programmi per la ricerca sono stati sviluppati in anni e superano tranquillamente il milione di righe di codice, è facile rendersi conto che gli sforzi in termini di risorse umane, tempo e denaro necessari a portare a nuove architetture programmi che vengono utilizzati da anni, superano di gran lunga gli investimenti necessari per dotarsi delle infrastrutture stesse.
Boinc è figo e molto interessante, ma non è la risposta definitiva alle esigenze di calcolo, molto semplicemente perchè la risposta definitiva non esiste. Mi piacerebbe pensare che un giorno esisterà, ma i sistemi multipurpose sono per loro natura troppo generici per molte classi di problemi.
Infine, informatevi sui computer APE, e sulla ricerca italiana dove c'è gente che in cambio di spiccioli offre le proprie competenze, che in altri paesi gli frutterebbero miliardi e riconoscimenti internazionali. Si è costretti ad arrangiarsi... altro che sprechi.
Mi sento veramente dispiaciuto quando leggo di commenti sprezzanti approssimativi e denigratori riguardo istituzioni come CNR, ENEA, CINECA, etc.
A volte ho l'impressione che alcuni dei commenti siano scritti da qualcuno che vive in un'altra dimensione, o forse sono io...
partiamo dal presupposto che se si spendessero i soldi che gli utenti spendono in corrente compreremmo un cluster nesimamente + potente, performante e ecologico,
ma cosa dovrebbero simulare quelli dell' enea? ma sprecassero meno soldi che le tasse che paghiamo sono già tante, per me se un' azienda acquista un megaserver è libera di farlo buon per lei...ma se ogni università del paese si dovesse fare il proprio megaserver allora siamo messi proprio male...voglio proprio vedere se dovessero acquistarlo con i propri soldi.
Ma davvero credete che verrà utilizzato 24 ore su 24? ahahhah al massimo lo useranno 2 3 ore al giorno
spreconi! boinc sarebbe più che bastato ...ovviamente non sono capaci di implementare un progetto serio
AL MOMENTO NON CI SONO SOLDI MI SPIACE.
2 o 3 ore al giorno? manco ci avvii i calcoli in 2 o 3 ore...per il fatto dei soldi, leggi sopra...
Guarda che una semplice pleistescion col suo folding ha un rendimento di sicuro superiore a una macchina del tipo quella che questi di enea si sono comprati coi nostri soldi (gli xeon :doh: :doh: ).
ok, torna nel tuo angolino e frustati pure senza ritegno... vorrei vedere una pleistation fare i calcoli di un singolo xeon quad core con svariati giga di ram a disposizione...indubbio avrebbero fatto meglio a fare un cluster di 10 ps3 (1 gb di scheda di rete?) contro un cluster di veri xeon quad core con infiniband? da test pare che già da 16/20 core ci sia un incremento di prestazioni (o meglio un non decremento di linearità nelle prestazioni) usando infiniband rispetto ad una rete gigabit...
bio
bonzuccio
08-06-2008, 23:55
Datti una bella calmata
fortunatamente un paio di post fa è intervenuto qualcuno che ha spiegato con calma e da addetto ai lavori ha sparato un ottimo primo messaggio.
E' inutile che cerchi di alimentare ancora il flame visto che io rispondevo a quello che diceva che il calcolo distribuito finanziava le mafie mondiali all'insaputa dei poveri utenti.. :doh:
poi il cell (osannato e vituperato) ha unità eccellenti per il calcolo di determinati algoritmi (sia quelli dove serve forza bruta per processi semplici sia processi più generici) inoltre il costo di questi chip è estremamente concorrenziale in relazione ai risultati che da e quindi sai quale poteva essere la sua utilità in macchine che stanno in una wlan dentro casa di milioni di persone? Calcolare porzioni di problemi semplici
che possono essere poi messi assieme in un secondo momento..
questo si chiama guardacaso calcolo distribuito, questo tipo di calcolo se applicato a macchine da milioni di euro di tipo centralizzato sarebbe uno spreco di risorse in molti casi oltre al fatto che non tutti possono permettersele.
Quindi non venirmi a dire che i quad xeon su infiniband sono più fighi perchè è come dire che il sole è giallo perchè la terra è rotonda.non ha senso e mi pareva chiaro.
Alla lettura della notizia la mia idea è che una piattaforma del genere con processori intel è come dire.. inadatta.. mi ha fatto storcere la bocca poi dopo i commenti vari me ne sono uscito in quel modo
Ora io dico qui su questa cosa ci sta la ibm uno non è che può dire che ci volevano i cell e nemmno me lo può far dire qualcun altro.. perchè non sta in piedi
non è che poi si può dire che è una cosa super seria questa se no ci mettevano i power 6.. (e il cell ha un cuore power 5 che non significa quasi niente ma come dire.. è un tocco di classe ecco)
cioè per essere la ibm a dire vabè dai vi possiamo dare gli xeon mi suona come qualcosa con poca lungimiranza
almeno garantirsi un futuro e maggiori prestazioni coi phenom (eri infatti te che non ti interessava il 3d mark mi pare.. forse era qualcun altro).. cioè oltre a risparmiare pagando 2 lire i cervelli che abbiamo magari hanno speso talmente tanto sugli algoritmi da avere pochi soldini per la piattaforma.. ma magari sarà vero che molto dipende dall'algoritmo..
solo che se io sposo questa idea poi storco la bocca se mi si dice che il cell è difficile da programmare
ma anche quello era per rendere l'idea e fugare ogni dubbio a qualsiasi tipo di lettore :)
Dreadnought
09-06-2008, 00:18
Guarda che una semplice pleistescion col suo folding ha un rendimento di sicuro superiore a una macchina del tipo quella che questi di enea si sono comprati coi nostri soldi (gli xeon :doh: :doh: ).
Ma scherzi?!
Per carità evita di spararle così grosse se non hai idea di cosa parli... un server con 8 core xeon 3.66GHz una scheda infiniband dual port 20Gb/s, un hard disk e 32GB di ram consuma attono ai 480-500W.
Per mettere insieme la potenza elabrativa di un blade 8-core xeon/opteron per tutti i tipi di calcolo parallelo (vedi post di 'ohyeah' (http://www.hwupgrade.it/forum/showpost.php?p=22809795&postcount=50)), da quello che richiede 4/8GB di RAM per core a quello che chiede ameno 4Gb/s di interconnessione tra nodi a quello poi che chiede praticamente solo CPU (caso del calcolo distribuito come boinc). Considerando le tre tipolige ti servirebbero come minimo 2000-4000W con dei pc normali/PS3, senza contare poi che la banda internet non è affatto a consumo zero, mentre l'infiniband fino a 20m di distanza consuma qualche Watt. Inoltre per le prime due tipologie di calcolo è evidente che un cluster riesce a terminare una unità di calcolo in tempi che sono 10-100 o 1000 volte inferiori al grid computing.
I colli di bottiglia possono essere molti, non solo le unità elabrative!
La tipologia di calcolo di cui tu parli, quella a cui ti ha abituato boinc/seti/folding, in cui ci sono pochi dati da elaborare per lungo tempo è ben adattabile solo al calcolo distribuito.
Diverso hardware invece serve quando la mole di dati per nodo è elevata (es: 10-100GB) e soprattutto è evidente che con una simile mole di dati la trasmissione via internet viene meno, visto che anche solo diecimila nodi sparsi in tutto il mondo farebbero collassare molti provider che forniscono ADSL. In questi casi, che sono la maggioranza, il distributed computing è inutilizzabile, mentre il cluster è l'unica soluzione.
Mi sento veramente dispiaciuto quando leggo di commenti sprezzanti approssimativi e denigratori riguardo istituzioni come CNR, ENEA, CINECA, etc.
A volte ho l'impressione che alcuni dei commenti siano scritti da qualcuno che vive in un'altra dimensione, o forse sono io...
Beh calma, diamo gli onori del caso ma diamo anche le colpe!
...perchè è vero che i centri di calcolo italiani non bastano mai e sono sempre a pieno regime, però le istituzioni italiane sono sempre piene di mele marce e di gente che fa gli interessi del proprio portafoglio invece di quelli della nazione e lo sperpero è sempre dietro l'angolo. A partire dagli ambienti di ricerca come le università: dai professori prima di tutto per poi arrivare anche ai ricercatori. Dopotutto se nei primi 20 posti della top500 non ci siamo, sicuramente un motivo c'è, eppure facciamo parte del G8!
Mi è capitato vedere cluster di calcolo fermi perchè chi li ha comprati non ha pensato al condizionamento adeguato :roll: o un impianto elettrico che regga le correnti da erogare :roll:. Queste sono tipiche situazioni da repubblica delle banane in cui viviamo, perchè spesso validi ricercatori sono sempre attorniati da altri, e tra questi capitano sempre quelli incompetenti e fancazzisti che scaricano le responsabilità e fanno il minimo indispensabile per garantirsi il posto di lavoro.
bonzuccio
09-06-2008, 00:29
Si allora facciamo che io dico che ai sistemi massicciamente paralleli (smp) è stata data una bella botta da quei 5 milioni di cell in giro per il mondo..
sai quanti xeon ci vogliono per superare un potenziale del genere?
Quindi ebbene si, in determinati calcoli il rendimento è migliore :asd:
Cosa vuoi intendere per rendimento il fatto che il cell quelli del folding (la Stanford University) non lo pagano?
O vuoi intendere che fanno benissimo a far fare certi cacoli a un cell piuttosto che scomodare un solo core dei 4 dello xeon
perchè sarebbe come stuzzicarsi i denti con una quercia?
O magari rende di più la potenza disponibile dei cell a quella che non sta da nessuna parte perchè anche 1000 di quei blade xeon
non bastano per avere il risultato in mano in un tempo decente ma meglio la potenza di 1 milione di ps3?
O forse gli rende di più perchè cosi fanno qualche calcoletto pure alla esso per trovare i pozzi di petrolio o magari per spammarti la posta di pubblicità :doh: .. non eri te che diceva ste cose
Mettila come ti pare non mi sembra di aver detto una cavolata
A parte che leggendo queste vostre risposte mi sono RIMASTO IMPRESSIONATO della genialità diffusa di alcuni che non hanno dove dire baggianate e sopratutto dai toni quasi maligni e delle teorie enciclopediche di qualcuno... volevo giusto per rientrare dal vostro kilometrico OT per dirvi solo una cosa: dite la vostra, ok. Ma ricordate se l'ENEA ha speso tot soldi per comprare IBM e INTEL ci saranno tutti i loro buoni motivi, questo, da ignorante o meno che vogliate, ve lo assicuro.
E come consiglio ad alcuni è quello di fare un pò meno disinformazione o fare questo --> :mc: solo per gusto...
A parte che leggendo queste vostre risposte mi sono RIMASTO IMPRESSIONATO della genialità diffusa di alcuni che non hanno dove dire baggianate e sopratutto dai toni quasi maligni e delle teorie enciclopediche di qualcuno... volevo giusto per rientrare dal vostro kilometrico OT per dirvi solo una cosa: dite la vostra, ok. Ma ricordate se l'ENEA ha speso tot soldi per comprare IBM e INTEL ci saranno tutti i loro buoni motivi, questo, da ignorante o meno che vogliate, ve lo assicuro.
E come consiglio ad alcuni è quello di fare un pò meno disinformazione o fare questo --> :mc: solo per gusto...
Dreadnought
09-06-2008, 07:00
Cosa vuoi intendere per rendimento il fatto che il cell quelli del folding (la Stanford University) non lo pagano?
Però nessuno ti indica quanti soldi prendono alla stanford university per i calcoli della gente.
Cmq, non ci siamo: in quanto a pessimo rendimento intendo che un cluster consuma 1/10 del calcolo distribuito.
Inoltre se in Europa ci sono normative per cui molte aziende spendono e investono per rendere i datacenter più efficienti nei consumi (ad esempio dismettendo vecchi catrami Xeon-P4 per nuovi Opteron/Xeon che consumano la metà) con il grid computer questo consolidamento è nullo.
bonzuccio
09-06-2008, 07:54
Un cluster consuma 1/10 del calcolo distribuito..
mi sa che non hai capito quali sono le forze in gioco
per fare un cluster della capacità di tutte le ps3 in giro per il mondo capace di fare i suoi calcoli credo ci voglia il pil italiano di un anno per comprarselo..
leggi qui per capire che il cell non è solo il processore di una console ma un progetto coi contro@@
http://www-128.ibm.com/developerworks/power/library/pa-cellperf/
senza calcolare le cpu e le gpu..
il calcolo distribuito è necessario per certi tipi di calcolo, quando si ha un approccio al problema per cui bisogna avere una base di dati realmente enorme in cui i calcoli sono di tutti i tipi
qualsiasi supercomputer dal generico allo specializzato sarebbe sottodimensionato rispetto a questo potenziale
Anche una architettura ibrida (metti fatta di cell e opteron o xeon), un supercomputer cioè fatto di centinaia di coprocessori e centinaia di unità più generiche sbiancherebbe di fronte al potenziale dei milioni di chip che esistono.
E non credere che una rete infiniband con le sue latenze non rappresenti un collo di bottiglia e che la divisione di un problema in sottoproblemi poi da integrare non sia qualcosa su cui i più grandi cervelli non sbattono la testa anche lavorando sui supercomputer.
Ci sono problemi che sono per loro natura "sequenziali" come si diceva prima
ci vuole velocità nello scambio e ricerca nello sviluppo di velocissime reti.. sviluppo che poi pian piano entra nele nostre case :)
Pensa poi che in casa abbiamo quasi tutti un core 2 da offrire
Non dirmi che non ti sei mai posto la domanda!!!
Beh ho esagerato un po', ma può essere probabile che tu stia calcolando strutture atomiche di proteine, ma assieme a quello, a tua insaputa stai facendo anche altro (non sto nemmeno ad elencare), oppure in realtà la proteina non è per curare il cancro ma è un nuovo medicinale di qualche azienda farmaceutica che ha passato sottomano soldi a centri di calcolo distribuito per far fare i calcoli a te, spacciandolo come progetto filantropico.
Come fai ad accorgertene? E' praticamente impossibile: non c'è niente di più complicato che decifrare qualcosa da una valanga di dati. Boinc/seti/folding@home si basano sulla fiducia, io con i tempi che corrono e la recessione non mi fido più... :mad:
Poi tra l'altro il calcolo distribuito è uno dei modi MENO efficienti di fare calcolo, va bene solo sui progetti proposti da chi ha pochi fondi, per cui la gente - mossa a carità - spende i suoi soldi per partecipare a progetti per l'umanità.
Se qualcuno vedi ENI/Exxon/altri i fondi li ha che si spenda i suoi milioni di euro per comprarsi un cluster, oppure si faccia girare boinc per tutti i pc dell'installato aziendale.
Il fatto che il codice sia stato rilasciato può garantire la fiducia? perchè ad esempio quello di Seti è pubblico, mentre quelli di Rosetta non lo hanno ancora rilasciato, nonostante nella board ufficiale ci sia gente che l'ha richiesto più volte (già da 3 anni)
sinceramente qualche dubbio comincia a venire anche a me
riguardo all'efficienza, bisogna mettere in conto il consumo addizionale, non il totale..
Scrambler77
09-06-2008, 08:51
Certi tizi che leggo quì dentro sono la vera rovina di questa "povera italietta"...
La ricerca e lo sviluppo sono una risorsa preziosissima per restare in testa ai paesi con alto grado di sviluppo civile e tecnologico... e questi parlano di software open per il calcolo distribuito che non danno alcuna garanzia sui tempi di risposta, sul controllo e sull'efficienza.
Che Dio ce ne scampi e liberi.
Scrambler77
09-06-2008, 08:53
Guarda che una semplice pleistescion col suo folding ha un rendimento di sicuro superiore a una macchina del tipo quella che questi di enea si sono comprati coi nostri soldi (gli xeon :doh: :doh: ).
Appunto... :rotfl:
topo loco
09-06-2008, 10:30
Allora le scelte imb intel sono dovute come è stato detto al problema di programmare in cell (ci sono programmi già studiati e testati per quelle strutture e magari hanno diciamo anche sovvenzionato il progetto).
Dire che i soldi alla ricerca sono sprecati è sbagliato e anche vero che a volte non sono ben spesi.
Si direi che se il codice non è pubblico io non mi fido ma se reso pubblico e chiaro perchè no?
Imho sono per la ricerca ma è puir vero ce in italia ci sono molti impedimenti.
Lo dico da Ex-ricercatore.
C'e molta ignoranza su tesla!
Tesla e' una bomba, piu' di 1024 processi simultanei ma soffre di grav1 problemi
-Supporta solo la precisione singola a 4byte e non i double
-la memoria. le matrici che devi utilizzare devono essere contenute nella memoria ram della gpu. Attualmente sono fermi a 2GB quindi per fare una moltiplicazione di matrici al massimo puoi allocare 2gb/3 (a*b=c) cio' significa che puoi al massimo moltiplicare 2 matrici quadrate 400x400.
-la memoria 2: ogni singolo thread non puoi gestire la memoria quindi funzioni di allocazione della ram non sono disponibili. Cio' taglia le gambe all'utilizzo su matrici sparse.
-Tutti i thread eseguono lo stesso programma quindi non puoi serializzare processi all'interno della stessa gpu. Ora non so se ne hai 4 puoi serializzare su diverse gpu.
Per questo motivo abbiamo un cluster tesla fermo! Noi usavamo matrici sparse da 4-6gb su opteron ma il cluster tesla non riusciva a farci nulla.
Ora magari il cuda 2 risolve ma per ora sono limitate ad alcune applicazioni specifiche in campo fisico!
A dir la verità una singola unita Tesla di processori ne ha 128...
Un Rack 1U, S870, monta 4 GPU quindi 512 Processori, quindi immagino tu debba avere 8 GPU per arrivare a 1024.
Devo ancora finire di leggermi la documentazione ma da quello che ho letto fin'ora mi sembra che si possano eseguire 8 task per GPU contemporaneamente e non 1.
Tesla viene usato anche da alcune aziende tessili, non solo quindi per limitate applicazioni specifiche in campo fisico!
Mi sento veramente dispiaciuto quando leggo di commenti sprezzanti approssimativi e denigratori riguardo istituzioni come CNR, ENEA, CINECA, etc.
A volte ho l'impressione che alcuni dei commenti siano scritti da qualcuno che vive in un'altra dimensione, o forse sono io...
E'che la maggioranza, probabilmente, non ha neanche idea, o ancora frequenta il liceo (senza offesa, eh, ma a vedere i profili di alcuni user... informiamoci, prima di parlare:rolleyes: ).
In caso poi andranno loro a spiegare a qualche ricercatore come deve sviluppare quella simulazione fluidodinamica al momento, ah già, si rivolge a boinc :D.
Fra "povera italietta", "cosa devono simulare, ci sono io col boinc e il mio arduer superfigherrimo" "merdaset" i post qui diventano sempre più da rotfl, ogni volta che c'è qualche news che esula dall'ultimo Penryn che sale a 4ghz (tipo un annetto fa con i materiali piezoelettrici per recuperare l'energia persa), si iniziano a sentire boiate a non finire, credo che almeno questa sezione dovrebbe essere soggetta a pre-moderazione. Se ci martelliamo i gingillini anche quelle poche volte che in italia si fa qualcosa di buono, altro che Portogallo, Grecia e Spagna, ci ritroveremo a competere col Bangladesh:muro:(/ot)
bonzuccio
09-06-2008, 12:05
Certi tizi che leggo quì dentro sono la vera rovina di questa "povera italietta"...
La ricerca e lo sviluppo sono una risorsa preziosissima per restare in testa ai paesi con alto grado di sviluppo civile e tecnologico... e questi parlano di software open per il calcolo distribuito che non danno alcuna garanzia sui tempi di risposta, sul controllo e sull'efficienza.
Che Dio ce ne scampi e liberi.
Quoto affinchè i posteri giudichino.
Dopo la preziosissima perla di ovvietà iniziale da quello che hai scritto si capisce che non hai la benchè minima conoscenza di come funziona il calcolo distribuito mettendo in mezzo la storia dell'open source in un discorso che non c'entrava nulla
non potevi rimanere sul generico prima di mettere in mezzo le divinità? :mbe:
Ah che è di poco fa la notizia del patch day di microsoft siamo ancora in clima di festa si vede :D
Non crederai mica che roba del genere gira su Vista su
Scrambler77
09-06-2008, 12:15
Quoto affinchè i posteri giudichino.
Dopo la preziosissima perla di ovvietà iniziale da quello che hai scritto si capisce che non hai la benchè minima conoscenza di come funziona il calcolo distribuito mettendo in mezzo la storia dell'open source in un discorso che non c'entrava nulla
non potevi rimanere sul generico prima di mettere in mezzo le divinità? :mbe:
Ah che è di poco fa la notizia del patch day di microsoft siamo ancora in clima di festa si vede :D
Non crederai mica che roba del genere gira su Vista su
Meno male che ci sei tu ad illuminarci... :rotfl:
Chi ha parlato di open-"source"??
Problemi di vista... (o di quoziente...).
bonzuccio
09-06-2008, 12:20
Meno male che ci sei tu ad illuminarci... :rotfl:
Chi ha parlato di open-"source"??
Problemi di vista... (o di quoziente...).
Bravo metti i puntini sulle i fino ad adesso si era detto che se il software era closed non c'era da fidarsi arrivi te da gates fan a dire che la chiusura del codice garantisce efficienza controllo e garanzia sui tempi di risposta
ma ci facci o piacere :read:
Scrambler77
09-06-2008, 12:24
Bravo metti i puntini sulle i fino ad adesso si era detto che se il software era closed non c'era da fidarsi arrivi te da gates fan a dire che la chiusura del codice garantisce efficienza controllo e garanzia sui tempi di risposta
ma ci facci o piacere :read:
Eheheheh ma perchè ti scaldi tanto?? Noto un certo malumore da qualche mese a questa parte che ti porta a travisare i contenuti... :D
Ciò che ho scritto è e resta quello.
E visto che parli di me (come se mi conoscessi), non sono gates-fan (se mi conoscessi almeno quanto dici di conoscere ciò di cui parli, sapresti che sono tutt'altro che un fan microsoft) e "facci tu o piacere" e torna a guardare Dragon Ball in TV. ;)
Grazie a nome di tutti.
P.S: non costringermi a mettere anche te in ignore.
io aspetto ancora qualche moderatore che chiuda sta discussione inutile
siete imbarazzanti, rendetevene conto
per una volta che in italia si spende qualcosa a favore della ricerca tutti a dargli contro
andatevene a cercare di tirare fuori qualche fps a crysis e non scassate i cosiddetti
bonzuccio
09-06-2008, 17:33
per una volta che in italia si spende qualcosa a favore della ricerca tutti a dargli contro
..
E perchè non si può dire niente?
Cosa è l'Enea? Dal sito:
"
L'ENEA, Ente per le Nuove tecnologie, l’Energia e l’Ambiente, è un ente pubblico che opera nei settori dell'energia, dell'ambiente e delle nuove tecnologie a supporto delle politiche di competitività e di sviluppo sostenibile del Paese."
Sostenibile poi visto che "L’ENEA è responsabile per legge del presidio scientifico e tecnologico in tema di energia nucleare"
Mi chiedo quindi solo il perchè di soluzioni di questo tipo visto che ad es il nuovo Road runner fatto di 13.000 cell e 7000 opteron hanno battuto il precedente computer più veloce del mondo fatto di ben 212.992 processori installato solo l'anno scorso (2007)
Cioè perchè costruire dei poli separati (questo è quello di Portici ad esempio) quando pare che il futuro stia nell'integrazione di unità generiche e specifiche in un unico super computer
Scrambler77
09-06-2008, 17:38
:asd:
per una volta che in italia si spende qualcosa a favore della ricerca tutti a dargli contro
Concordo pienamente...
E perchè non si può dire niente?
Cosa è l'Enea? Dal sito:
"
L'ENEA, Ente per le Nuove tecnologie, l’Energia e l’Ambiente, è un ente pubblico che opera nei settori dell'energia, dell'ambiente e delle nuove tecnologie a supporto delle politiche di competitività e di sviluppo sostenibile del Paese."
Sostenibile poi visto che "L’ENEA è responsabile per legge del presidio scientifico e tecnologico in tema di energia nucleare"
Mi chiedo quindi solo il perchè di soluzioni di questo tipo visto che ad es il nuovo Road runner fatto di 13.000 cell e 7000 opteron hanno battuto il precedente computer più veloce del mondo fatto di ben 212.992 processori installato solo l'anno scorso (2007)
Cioè perchè costruire dei poli separati (questo è quello di Portici ad esempio) quando pare che il futuro stia nell'integrazione di unità generiche e specifiche in un unico super computer
perkè il supercomputer non si costruisce in 3 giorni
sicuramente l'ordine è stato fatto qualche anno fa
costruire bestie del genere non è come assemblarsi un pc da salotto, ci sono anni di prove e studi
Il motivo per cui si usano ancora i supercomputer nonostante ci siano
sistemi di calcolo distribuito tipo Boinc sono gli stessi per cui
esistono i desktop, i notebook, i server, i mainframe, i pda ed i palmari:
non esiste IL computer, ne esistono di vari tipi adatti a certi tipi
di applicazioni anche se in certi casi c'e' una certa sovrapposizione.
Prima di Seti@Home e Boinc c'era un sistema di calcolo distribuito
chiamato Linda che pero' non se lo filava praticamente nessuno
internet era ancora agli albori ed era pensato per girare
sulle reti locali di universita ed aziende.
Seti@home e' venuto dopo ed ha avuto successo anche perche
oltre alla maggior diffusione di internet che permetteva
di distribuire le work unit su piu vasta scala, chi forniva tempo macchina
in un certo senso lo faceva per motivazioni politico-ideologiche (es: voglio
contribuire alla ricerca di vita su altri pianeti, mi sta sul caXXo che abbiano
tagliato i fondi al Seti, ecc. ecc.), il calcolo era facilmente suddivisibile in
unita indipendenti tra loro e non c'era una scadenza da rispettare.
Boinc e' stato uno sviluppo successivo ed oltre ad "aiutare la ricerca"
era ed e' ESSO STESSO un progetto di ricerca (sul calcolo distribuito
e le sue applicazioni): http://boinc.berkeley.edu/trac/wiki/BoincPapers
Ora, Boinc puo essere usato per certi tipi di applicazioni e quindi
puo liberare tempo macchina sui supercomputer per quelle applicazioni
che invece per un motivo o per l'altro mal si adattano ad esso
(perche ci sono scadenze strette, perche c'e' una interdipendenza
troppo grande tra le work unit, ecc. ecc.), ma non e' la soluzione
ideale per tutto.
Per fornire un esempio "banale" in cui Boinc non e' il massimo, pensate
ad una simulazione su vasta scala in cui le work unit sono i mattoncini
di un "cubo" (es: per simulazioni di fluidodinamica ecc. ecc.)
e che ad ogni ciclo devono scambiarsi dati con quelle adiacenti
prima di iniziare il ciclo successivo.
Se si facesse girare una roba simile con Boinc la work unit piu "lenta"
(perche il computer su cui gira si sconnette da internet o solo
perche e' lento di suo rispetto agli altri) bloccherebbe a cascata
la computazione, duplicando n-volte su nodi diversi le work unit
si risolverebbe solo in parte il problema e si sprecherebbero
n-volte le risorse di calcolo "utili". ecc. ecc.
Invece su un supercomputer lo stesso tipo di calcolo procede
con maggior efficienza e viene eseguito in tempi di gran lunga
piu ridotti (perche le latenze di interscambio dei dati
sono molto piu ridotte e non ci sono duplicazioni del lavoro).
E' tutta una questione di usare lo strumento piu adatto.
Dreadnought
10-06-2008, 00:28
Penso sia inutile spiegare, tra troll e fanboy di sony che non sanno nemmeno cosa sia un cluster non si può mica pretendere che siano tutti sistemisti. E' un po' come far capire la fisica tecnica alla maestra di scienze delle elementari: non ha nè l'esperienza nè la capacità mentale di comprendere certi concetti.
Senza contare che spesso nemmeno ci usa il grid computing o il calcolo distribuito ne capisce qualcosa!
perkè il supercomputer non si costruisce in 3 giorni
sicuramente l'ordine è stato fatto qualche anno fa
costruire bestie del genere non è come assemblarsi un pc da salotto, ci sono anni di prove e studi
Ma... un super computer ordinato l'anno prima ha i processori dell'anno prima o dell'anno corrente? :asd:
Più tempo passa meno vale il tuo cluster.
Se c'è proprio una cosa che non deve esserci in un supercomputer è la lentezza nell'ordine e nell'assemblaggio: tra produzione, configurazione e messa in funzione in genere non passano più di 7-8 settimane, che poi l'attesa più lunga è dovuta quasi sempre alla firma dell'ordine da parte del cliente.
Se c'è proprio una cosa che non deve esserci in un supercomputer è la lentezza nell'ordine e nell'assemblaggio: tra produzione, configurazione e messa in funzione in genere non passano più di 7-8 settimane, che poi l'attesa più lunga è dovuta quasi sempre alla firma dell'ordine da parte del cliente.
certo e i test se tutto funziona a pieno carico li fanno in mezza giornata
i test di raffreddamento li fanno guardando se le ventole girano
le misurazioni dell'assorbimento a pieno carico le fanno con il righello
7-8 settimane quasi ci vogliono per farsi un pc assemlato in casa tra il reperire tutti i componenti e assemblarli
bonzuccio
10-06-2008, 09:18
..enso sia inutile spiegare, tra troll e fanboy di sony che non sanno nemmeno cosa sia un cluster non si può mica pretendere che siano tutti sistemisti. E' un po' come far capire la fisica tecnica alla maestra di scienze delle elementari: non ha nè l'esperienza nè la capacità mentale di comprendere certi concetti...
--
Se c'è proprio una cosa che non deve esserci in un supercomputer è la lentezza nell'ordine e nell'assemblaggio: tra produzione, configurazione e messa in funzione in genere non passano più di 7-8 settimane, che poi l'attesa più lunga è dovuta quasi sempre alla firma dell'ordine da parte del cliente.
Si, si comprano da unieuro :read: :doh:
ma se ti hanno detto che il problema sta nella scelta della configurazione in funzione degli algoritmi applicati, piani di migrazione e chissà quant'altro..
te quoti roba che non leggi e dici cose che poi bellamente ti rimangi.. una specie di cestino di windows :)
bonzuccio
10-06-2008, 09:22
..
Non fa una piega! :)
Dreadnought
11-06-2008, 22:14
certo e i test se tutto funziona a pieno carico li fanno in mezza giornata
i test di raffreddamento li fanno guardando se le ventole girano
le misurazioni dell'assorbimento a pieno carico le fanno con il righello
7-8 settimane quasi ci vogliono per farsi un pc assemlato in casa tra il reperire tutti i componenti e assemblarli
LOL, beata ignoranza :D
Dimmi quando vuoi un cluster che te lo vengo installare, visto che ne ho già fatti un po' :)
Ovviamente visto che per te ci impiego molto forniscimi una connessione a internet, così mentre mi paghi 1200 euro al giorno per 3 mesi di consulenza per "testing del cluster" io almeno navigo e posto sul forum :asd:
Ma almeno sapete di cosa parlate o scrivete per sentito dire?
Tanto per darvi una idea -visto che da quel che scrivete- sicuramente NON lavorate nel campo:
- l'installazione e la messa in funzione del cluster di media grandezza, ovvero da 15-20TeraFLop, partendo dai rack inscatolati arrivando al prodotto funzionante chiavi in mano in genere è un lavoro da 1 settimana.
- I tempi di consegna dopo la firma dell'ordine sono attorno ai 2 mesi, in genere la lentezza sta nell'asta al ribasso che viene fatta con un appalto e le varie burocrazie.
- Con applicativi commerciali come fluent in genere il setup e la configurazione sono rapidi: se il cliente li usa da un po' il passaggio è immediato, prende l'immagine, trasferisce i dati e prova a fare nuovi calcoli, che possono essere anche vecchi calcoli rifatti con maggiore precisione, se il cliente non li usa allora deve installarselo o comprare una consulenza, ma anche qua, il tempo di deploy dei sistemi operativi su 200 nodi è in genere il tempo di creazione di un nodo "master" più 30 miunti per replicarlo sulle altre macchine.
N.B: Se vi state chiedendo come è possibile che una macchina venga replicata su altre 200 in meno di 30 minuti, forse il costo della licenza di un software di management del cluster può darvi una idea: per 200 nodi siamo attorno ai 50.000€, esclusi i servizi di installazione e configurazione.
- i test di assorbimento sono assolutamente inutili, la previsione dei consumi viene fatta prima, ma questo non solo per i cluster, per qualsiasi server che installi in un CED.
- i testi di condizionamento vengono fatti nel tempo, dalla mia esperienza molta gente non ha ben presente il 2° principio della termodinamica e spesso i condizionatori non bastano mai, ma non è un problema bloccante, tanto al massimo il CED va a 30°, ma le macchine reggono in genere fino a 35°.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.