PDA

View Full Version : Il CERN e il World Wide Web di domani


Redazione di Hardware Upg
08-04-2008, 14:37
Link alla notizia: http://www.hwupgrade.it/news/software/il-cern-e-il-world-wide-web-di-domani_24913.html

Il prestigioso centro di ricerca è prossimo a varare una nuova struttura di rete superveloce per applicazioni di ricerca e calcolo distribuito. Un domani anche nelle nostre case?

Click sul link per visualizzare la notizia.

D3stroyer
08-04-2008, 14:59
wow, questa è una news alla armageddon.

10mila volte piu' veloce? uh.

dr-omega
08-04-2008, 15:06
"...darebbe modo di scaricare intere discografie di artisti in pochi secondi..." I membri della SIAE ed i loro accoliti staranno sbiancando mentre leggono queste news all'interno delle loro cripte...

D3stroyer
08-04-2008, 15:09
dai, non c'è scritto illegalmente, magari intendeva solo un "comprate direttamente da un qualsiasi music store!"

Slayer86
08-04-2008, 15:12
Fantastico! Io a casina mia sono ancora con una connessione 56k fa sempre piacere sentire che il mondo va avanti!

cavallo_pazzo
08-04-2008, 15:29
belli gli "Stati Unti" :)
cmq notizia non certo da sottovalutare

gabi.2437
08-04-2008, 15:34
Stati Uniti? Il CERN è in Europa, a Ginevra :)

lowenz
08-04-2008, 15:42
Spero VIVAMENTE che rimanga una rete a scopi scientifici e didattici e dove "la libertà" è solo quella scientifica e della didattica.

Internet si è evoluta in modo del tutto sconclusionato, spero non accada lo stesso per questa rete.

sergiochu
08-04-2008, 15:42
Ragà.. potrò sembrare banale... Ma che razza di potenza di calcolo ci vuole per poter sopportare un trasferimento a quelle velocità...?
Con la tecnologia dei dischi attuali, anche facendo un RAID con migliaia di HD, ci sarebbe il problema della scrittura su HD...

Cmq per quanto mi riguarda mi accontenterei se anche solo 1/10 di tutta questa velocità/potenza sia messa a disposizione di tutti... Ormai non se ne può più di sentire/leggere di gente che ancora stà con il 56K...

grana
08-04-2008, 15:46
ci lavoravo fino ad un mese fa! :D ;)

matic
08-04-2008, 15:50
Il PORN è il World Wide Web di domani!

demon77
08-04-2008, 15:51
Urca..

Si vabbè ma non dicono niente su come funziona????
10 mila volte più veloce? E come fanno a passare tutti sti dati??

Trykx
08-04-2008, 16:49
E intanto in Italia in alcuni posti non arriva menache l'ADSL...a 740

KVL
08-04-2008, 16:57
Ehem... A che serve ai comuni mortali?
P2P a gigabit con filtri annessi? Traffic shaping con cluster di calcolo?
Riparliamone nel 2020. Un conto è la tecnologia, un conto è la sua reale utilità/applicabilità.

BrightSoul
08-04-2008, 17:01
Urca..

Si vabbè ma non dicono niente su come funziona????
10 mila volte più veloce? E come fanno a passare tutti sti dati??

Per una rete grande, ci vuole un hard disk grande.

No, ci vuole un grande hard disk! Probabilmente avranno pensato anche a come evolveranno i dischi nel prossimo decennio. Supporti olografici, ecc...

grana
08-04-2008, 17:29
Penso che non sia ben chiaro quali sono le finalità di GRID né l'infrastruttura.
Lo scopo è il calcolo distribuito per scopi scientifici, ossia fornire alla comunità scientifica una potenza di calcolo enorme, "infinita", tramite un'infrastruttura non eccessivamente costosa in quanto basata su calcolatori "normali".
I numeri che si leggono (petabyte e così via) sono riferiti soprattutto ai backbone di trasferimento dati tra i grandi nodi, poi verso le singole macchine si usano gli stessi cavi di rete che usate voi a casa vostra.
Anche per lo storage si sfrutta storage distribuito, con tutto ciò che ne consegue.

Poi, che magari in futuro tutte le reti siano così, è possibile, ma non confondiamo... :)

lucusta
08-04-2008, 17:37
si parla della velocita' media di tutta la rete, che in effetti e' decisamente bassa, non del collegamento del singolo utente alla rete.

da quanto poco ho capito e' una rete P2P basata su server-storage.
nella pratica, se 1000 utenti sfruttano un signolo server, pur se questo e' fornito di una buona banda ed ha cluster di copie, potra' fornire il servizio limitatamente; se invece ci fossero 100 server che hanno gli stessi dati, ma dislocati in diversi posti, le infrastrutture di rete sarebbero molto meno cariche, ossia, nel primo caso si ha solo un canale per servire 1000 utenti, nel secondo caso si hanno 100 canali per servire gli stessi utenti, che a loro volta possono servire altri utenti.

una tipologia di rete di questa forma va' bene in un settore che ha dei ben precisi limiti, anche se enormemente vasto, ma non per l'intera struttura della rete "internet", quindi e' giusto dire che 200.000 server, con tutte le repliche di tutti i documenti di tutti gli atenei permettono un trasferimento per tutti gli studenti e ricercatori molto veloce, ma non e' la stessa cosa dire di poter adibire servizzi per la "normale rete", dove ogni giorno nascono milioni di nuove pagine, file, e il traffico "a perdere" e' misurato il petabyte.

il P2P e' veloce perche' si limita in un solo settore, ma e' comunque questo il limite che si pone.

zani83
08-04-2008, 17:39
Beh...non si può mettere tutto su qualche migliaio di HD metterlo tutto su un aereo e dopo 24 ore hai trasferito tutti i petabyte!!!!

Stano ma funzionale! e non mette in crisi niente!

Fl1nt
08-04-2008, 17:46
muahahahahah

Kayne
08-04-2008, 18:48
quei petabyte credo siano stimati all'anno, come un enorme e continuo streaming parallelo, xkè nel mentre devono essere pesantemente elaborati alla F@H

jpjcssource
08-04-2008, 19:51
Beh...non si può mettere tutto su qualche migliaio di HD metterlo tutto su un aereo e dopo 24 ore hai trasferito tutti i petabyte!!!!

Stano ma funzionale! e non mette in crisi niente!

Ma LOL :sofico: :rotfl:

Manda loro una lettera per dire che sono dei noob per non aver pensato questa soluzione :sofico:

Andyilmatto
08-04-2008, 20:00
Fantastico, la storia del web non è che agli inizi.
A chi non l'ha mai letto consiglio "Com'è nato il web", di James Gillies e Robet Cailliau: un libro che ho dovuto studiare per un esame, ma del quale mi sono innamorato; è incredibilmente affascinante conoscere le vite dei tanti uomini che hanno contribuito a dar vita al web, che è nato decenni fa come semplice idea su carta.

quartz
08-04-2008, 21:41
Su Le Scienze di Aprile c'è un reportage abbastanza approfondito su LHC! :sbav:

Shotokhan
09-04-2008, 00:53
graaaaaandi! :D

powhatan
09-04-2008, 01:03
Su Le Scienze di Aprile c'è un reportage abbastanza approfondito su LHC! :sbav:

Dall'articolo completo su Scientific American (http://www.sciam.com/article.cfm?id=the-discovery-machine-hadron-collider) (seconda pagina)

Four giant detectors—the largest would roughly half-fill the Notre Dame cathedral in Paris, and the heaviest contains more iron than the Eiffel Tower—will track and measure the thousands of particles spewed out by each collision occurring at their centers. Despite the detectors’ vast size, some elements of them must be positioned with a precision of 50 microns.

The nearly 100 million channels of data streaming from each of the two largest detectors would fill 100,000 CDs every second, enough to produce a stack to the moon in six months. So instead of attempting to record it all, the experiments will have what are called trigger and data-acquisition systems, which act like vast spam filters, immediately discarding almost all the information and sending the data from only the most promising-looking 100 events each second to the LHC’s central computing system at CERN, the European laboratory for particle physics and the collider’s home, for archiving and later analysis.

A “farm” of a few thousand computers at CERN will turn the filtered raw data into more compact data sets organized for physicists to comb through. Their analyses will take place on a so-called grid network comprising tens of thousands of PCs at institutes around the world, all connected to a hub of a dozen major centers on three continents that are in turn linked to CERN by dedicated optical cables.


Sinteticamente e a un livello terra terra vi si dice che l'enorme quantità di dati sarebbe stata trattata mediante una specie di megafiltro anti-spam.
Ho un paio di caselle email che ne avrebbero bisogno... :D
Ma anche 100000 cd al secondo non sarebbero male, il ponte sullo stretto potrebbe finalmente diventare realtà! :sofico:

iuccio
09-04-2008, 01:16
Ma dove avete letto 56 Petabyte? Nel sito è scritto CHIARAMENTE (e ormai da mesi) 15 Petabyte all'anno

MacLinuxWinUser
09-04-2008, 04:21
Ma LCG è una grid di calcolo! Sono computer connessi in rete tra loro,
anche attraverso internet e sono una rete di calcolo distribuito.
Ossia permettono di condividere e usare files di dati, di fisica per ora,
che sono sparsi magari in 20 server diversi, inoltre una volta recuperati
i dati in 20 posti diversi, li smistano su altre macchine in giro per la rete grid.
Non è p2p per files di musicao altro!
E' mettere insieme idee come bittorrent, folding @ home e simili!
Può darsi che diventi il futuro di rete globale, ma per ora serve perchè
una sola area di stoccaggio dati ed un solo centro di calcolo erano insufficienti,
qui si può dire che l'unione di tanti pc fa la forza!

Abbo88
09-04-2008, 17:14
Ehem... A che serve ai comuni mortali?
P2P a gigabit con filtri annessi? Traffic shaping con cluster di calcolo?
Riparliamone nel 2020. Un conto è la tecnologia, un conto è la sua reale utilità/applicabilità.

A noi comuni mortali serve a collegare internet al PC tramite l'eSATA! :D