|
|
|
|
Strumenti |
12-08-2004, 08:34 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link alla notizia: http://news.hwupgrade.it/12974.html
L'ente aerospaziale americano ha commissionato a Intel un sistema Server basato su oltre 10.000 cpu Itanium, basato su sistema operativo Linux Click sul link per visualizzare la notizia. |
12-08-2004, 08:46 | #2 |
Senior Member
Iscritto dal: Dec 2002
Città: Chiavari, (GE)
Messaggi: 430
|
Dowrebbe essere + che sufficiene per far girare Doom3 !!!
|
12-08-2004, 08:55 | #3 |
Member
Iscritto dal: Jul 1999
Città: Milano Ovest
Messaggi: 215
|
mmmm nn so.... hai letto le ultime richieste hardware?
cmq mi piacerebbe vedere anche solo in video una di queste simulazioni..... giusto per capire perche' hanno bisogno di una macchina cosi' potente.... credo che il problema di base si a immaginare tutti gli scenari possibili.... nn e' un'operazione immessa dall'uomo e poi affinata dalla macchina? quindi se l'uomo nn prevede uno scenario (chesso' si intasa il cesso dello shuttle) tutta quella potenza nn serve... e cosi' o mi sbaglio? zxciozi |
12-08-2004, 09:06 | #4 |
Member
Iscritto dal: Mar 2003
Messaggi: 47
|
In teoria è come dici tu, in pratica ci sono alcuni calcoli matematici quali integrali e frattali che necessitano di una grande potenza di calcolo per avere una risposta entro termini temporali accettabili. Altrimenti l'elaborazione di una missione aereospaziale viene definita in una decina di anni piuttosto che nei due di oggi
|
12-08-2004, 09:08 | #5 | |
Senior Member
Iscritto dal: Nov 2001
Città: Kendermore
Messaggi: 6497
|
Quote:
Visto che si tratterà di simulazioni estremamente complesse con una quantità inimmaginabile di variabili non credo che vadano a sprecare tempo, denaro e cicli di clock per generare filmati su qualcosa che sostazialmente non interessa a nessuno (o meglio, possono interessare i risultati e le eventuali applicazioni, non quello che ci sta in mezzo)
__________________
https://tasslehoff.burrfoot.it | Cloud? Enough is enough! | SPID… grazie ma no grazie "Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." |
|
12-08-2004, 09:12 | #6 |
Senior Member
Iscritto dal: Feb 2004
Città: Biella
Messaggi: 617
|
Calcolo distribuito
Ma nessuno di voi ha mai sentito parlare di calcolo distribuito?
Mah... qualcuno diceva "tutti parlano, nessuno sa"
__________________
Intel 14700K Artic Freezer II 420mm MSI Z790 Tomahawk M2 Samsung 990 Pro Corsair DDR5 @6600 Asus Dual 4070 Seasonic 850W Platinum Corsair D7000 |
12-08-2004, 09:19 | #7 |
Member
Iscritto dal: Aug 2003
Città: Abissi di moria
Messaggi: 222
|
versione linux
Ma il linux che verrà installato su questa macchina è una semplice distribuzione tipo suse o gentoo, oppure una versione dedicata per il lavoro in cluster?
|
12-08-2004, 09:21 | #8 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 1277
|
questo diventa il pc piu potente al mondo?
|
12-08-2004, 09:21 | #9 |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 3600
|
Io non lo so però con 10.240 processori Itanium 2 mi sarebbe propio piaciuto vedere la dimensione della scheda madre .
|
12-08-2004, 09:23 | #10 |
Member
Iscritto dal: Aug 2003
Città: Abissi di moria
Messaggi: 222
|
x maestro joda
io ne ho sentito parlare...dovrebbe essere un sistema cluster dove il carico di lavoro è distribuito tra i vari nodi.
detto in parole povere |
12-08-2004, 09:25 | #11 |
Member
Iscritto dal: Aug 2003
Città: Abissi di moria
Messaggi: 222
|
x murdorr
penso esistano svariate schede madri dato che il sistema sarà costituito da molti computer collegati tra loro in cluster tramite fibra ottica o gigabit...qualcuno mi corregga se sbaglio
|
12-08-2004, 09:26 | #12 |
Senior Member
Iscritto dal: Feb 2004
Città: Biella
Messaggi: 617
|
X CORSINI
Comunque il piu' potente e' quello della NSA.
__________________
Intel 14700K Artic Freezer II 420mm MSI Z790 Tomahawk M2 Samsung 990 Pro Corsair DDR5 @6600 Asus Dual 4070 Seasonic 850W Platinum Corsair D7000 |
12-08-2004, 09:35 | #13 |
Member
Iscritto dal: Aug 2003
Città: Abissi di moria
Messaggi: 222
|
lista supercoputer
http://www.top500.org/
qui c'è la lista dei più potenti supercomputer del mondo |
12-08-2004, 09:36 | #14 |
Member
Iscritto dal: Oct 2003
Città: Londra
Messaggi: 92
|
C'é sempre bisogno di piú potenza.....
Tanto per fare un esempio, 10240 processori Itanium ancora non sono sufficienti per simulare le condizioni meteo della terra in real time.
Come per dire, avvi il supercomputer con tutti i dati, poi ti dice che ieri pioveva :-) Ce n'é solo uno al mondo che riesce a fare tutti i calcoli in tempi decenti, sta a Tokio e dovrebbe essere il primo o secondo computer piú veloce al mondo. Anche lí, peró, ci vogliono due giorni prima di avere un risultato, quindi bisogna accontentarsi di sapere le previsioni meteo un paio di volte alla settimana! |
12-08-2004, 09:40 | #15 |
Senior Member
Iscritto dal: Jan 2001
Città: Pizzighettone - CR
Messaggi: 722
|
Questo è realizzato con server Altix della Silicon Graphics, monta una versione custom di linux che può girare con una sola immagine di sistema su 512 cpu [1024 per fine anno]
|
12-08-2004, 10:00 | #16 |
Senior Member
Iscritto dal: Dec 2003
Città: Trento, Pisa... ultimamente il mio studio...
Messaggi: 4369
|
Determinismo?
A dir la verità, tramite metodi di approssimazione numerica il calcolo degli integrali non è poi tanto laborioso... È più ce altro l'immenso numero di variabili che fa aumentare esponenzialmente il numero di equazioni contenute nei sistemi... soprattutto equazioni differenziali, che, oltre ad un certo ordine ( se non mi sbaglio già oltre il secondo ordine si risolvono solo in casi particolari! ) vanno sciolte tramite metodi approssimativi.
Tanto per fare un esempio, prendete un equazione di Schrödinger ( descrivono gli orbitali elettronici! ): finché si tratta di risolverla per il primo elettrone dell'elio non è un grosso problema, ma diventa tutto estremamente complicato per gli atomi più pesanti! Ma il vero ed interessante problema, IMHO, è di natura filosofica, non matematica- informatica- scientifica. Scriveva Laplace nel 1800: "Un intelligenza che, per un dato istante, conoscesse le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all'analisi ( e 10240 itanium2 potrebbero esserlo! ), abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi". Determinismo universale: conosco tutte le variabili, sono in grado di elaborarle ( cosa che allora, senza computers, si sognavano! ). Ma, dico, non è che qualcuno si dimentica qualcosa? Niente di importante, per carità, ma mi sembra che nel 900 il determinismo universale abbia dovuto forzatamente lasciare il posto ad un principio di causalità molto più debole, a causa dellìintroduzione della meccanica ondulatoria e, in primis, dalle indeterminazioni di Heisenberg !!! Quindi, se a priori dell'esperienza non possiamo con esattezza (ΔxΔp≥h/4π) determinare né la posizione né la velocità di un sistema, non potremmo nemmeno ottenere delle previsioni certe! La domanda con cui chiudo ( scusatemi per la menata... non lo faccio più ) è questa: piuttosto che "quanto potente dovremmo fare un sistema per avere previsioni in tempo reale" non dovremmo chiederci "visto che le previsioni, per quanto attendibili, non sono che un'approssimazione della realtà, per definizione, ha veramente senso cercare di formularle? Per quanto dalle mie parti si dica "tos che miga..."
__________________
"Expedit esse deos, et, ut expedit, esse putemus" (Ovidio) Il mio "TESSORO": SuperMicro 733TQ, SuperMicro X8DAI I5520, 2x Xeon Quad E5620 Westmere, 12x Kingston 4GB DDR3 1333MHz, 4x WD 1Tb 32MB 7.2krpm |
12-08-2004, 10:13 | #17 |
Member
Iscritto dal: Aug 2003
Città: Abissi di moria
Messaggi: 222
|
anche se le previsioni non sono certe potrebbero essere comunque utili per pianificare determinati lavori...altrimenti non si spiegano i grandi investimenti in questo tipo di ricerca..o no?
|
12-08-2004, 10:15 | #18 |
Member
Iscritto dal: Dec 2001
Messaggi: 67
|
I miei complimenti sulla dissertazione.
Voglio farti notare, però che il caso è solo uno degli elementi del calcolo degli scenario. Nel calcolo di uno scenario, oltre a calcolare tutte le possibilil situazioni (e qui il caso c'entra), si cerca di trovare delle soluzioni ottimali a dei problemi. Come una sorta di mega albero costruito con valori expectimax dove l'elaborazione dei nodi della casualità è complessa quanto quella dell'albero principale. E' come immaginare un albero enorme che ha alcuni nodi che sono alberi enormi. Immaginate la complessità della ricerca in quest'albero. Per dirla in parle povere...chissà in quanto tempo ti comprime un DIVX :P |
12-08-2004, 10:18 | #19 |
Bannato
Iscritto dal: Jul 2004
Città: Vercelli
Messaggi: 178
|
Mah...non mi sembra così tanto potente....;DDD
|
12-08-2004, 10:35 | #20 |
Bannato
Iscritto dal: Jan 2003
Città:
Messaggi: 4400
|
...io vorrei conoscere il rendimento di tali soluzioni...il grosso problema resta l'interconnessione tra i vari nodi che mina appunto il rendimento
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 05:52.