View Full Version : Super server Itanium per la NASA
Redazione di Hardware Upg
12-08-2004, 08:34
Link alla notizia: http://news.hwupgrade.it/12974.html
L'ente aerospaziale americano ha commissionato a Intel un sistema Server basato su oltre 10.000 cpu Itanium, basato su sistema operativo Linux
Click sul link per visualizzare la notizia.
Dowrebbe essere + che sufficiene per far girare Doom3 !!!
mmmm nn so.... hai letto le ultime richieste hardware? :D
cmq mi piacerebbe vedere anche solo in video una di queste simulazioni..... giusto per capire perche' hanno bisogno di una macchina cosi' potente.... credo che il problema di base si a immaginare tutti gli scenari possibili.... nn e' un'operazione immessa dall'uomo e poi affinata dalla macchina? quindi se l'uomo nn prevede uno scenario (chesso' si intasa il cesso dello shuttle) tutta quella potenza nn serve...
e cosi' o mi sbaglio? :D
zxciozi
In teoria è come dici tu, in pratica ci sono alcuni calcoli matematici quali integrali e frattali che necessitano di una grande potenza di calcolo per avere una risposta entro termini temporali accettabili. Altrimenti l'elaborazione di una missione aereospaziale viene definita in una decina di anni piuttosto che nei due di oggi
Tasslehoff
12-08-2004, 09:08
Originariamente inviato da Lexon
cmq mi piacerebbe vedere anche solo in video una di queste simulazioni..... giusto per capire perche' hanno bisogno di una macchina cosi' potente....
Beh non credo che si tratti di simulazioni con tanto di video, l'output sarà composto più che altro da una serie di valori numerici.
Visto che si tratterà di simulazioni estremamente complesse con una quantità inimmaginabile di variabili non credo che vadano a sprecare tempo, denaro e cicli di clock per generare filmati su qualcosa che sostazialmente non interessa a nessuno (o meglio, possono interessare i risultati e le eventuali applicazioni, non quello che ci sta in mezzo)
Maestro Joda
12-08-2004, 09:12
Ma nessuno di voi ha mai sentito parlare di calcolo distribuito? :rolleyes:
Mah... qualcuno diceva "tutti parlano, nessuno sa"
Ma il linux che verrà installato su questa macchina è una semplice distribuzione tipo suse o gentoo, oppure una versione dedicata per il lavoro in cluster?
questo diventa il pc piu potente al mondo?
Io non lo so però con 10.240 processori Itanium 2 mi sarebbe propio piaciuto vedere la dimensione della scheda madre :D :D :D .
io ne ho sentito parlare...dovrebbe essere un sistema cluster dove il carico di lavoro è distribuito tra i vari nodi.
detto in parole povere
penso esistano svariate schede madri dato che il sistema sarà costituito da molti computer collegati tra loro in cluster tramite fibra ottica o gigabit...qualcuno mi corregga se sbaglio
Maestro Joda
12-08-2004, 09:26
Comunque il piu' potente e' quello della NSA.
http://www.top500.org/
qui c'è la lista dei più potenti supercomputer del mondo
Italian Stallio
12-08-2004, 09:36
Tanto per fare un esempio, 10240 processori Itanium ancora non sono sufficienti per simulare le condizioni meteo della terra in real time.
Come per dire, avvi il supercomputer con tutti i dati, poi ti dice che ieri pioveva :-)
Ce n'é solo uno al mondo che riesce a fare tutti i calcoli in tempi decenti, sta a Tokio e dovrebbe essere il primo o secondo computer piú veloce al mondo. Anche lí, peró, ci vogliono due giorni prima di avere un risultato, quindi bisogna accontentarsi di sapere le previsioni meteo un paio di volte alla settimana!
Questo è realizzato con server Altix della Silicon Graphics, monta una versione custom di linux che può girare con una sola immagine di sistema su 512 cpu [1024 per fine anno]
Lucrezio
12-08-2004, 10:00
A dir la verità, tramite metodi di approssimazione numerica il calcolo degli integrali non è poi tanto laborioso... È più ce altro l'immenso numero di variabili che fa aumentare esponenzialmente il numero di equazioni contenute nei sistemi... soprattutto equazioni differenziali, che, oltre ad un certo ordine ( se non mi sbaglio già oltre il secondo ordine si risolvono solo in casi particolari! ) vanno sciolte tramite metodi approssimativi.
Tanto per fare un esempio, prendete un equazione di Schrödinger ( descrivono gli orbitali elettronici! ): finché si tratta di risolverla per il primo elettrone dell'elio non è un grosso problema, ma diventa tutto estremamente complicato per gli atomi più pesanti!
Ma il vero ed interessante problema, IMHO, è di natura filosofica, non matematica- informatica- scientifica.
Scriveva Laplace nel 1800:
"Un intelligenza che, per un dato istante, conoscesse le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all'analisi ( e 10240 itanium2 potrebbero esserlo! ), abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi".
Determinismo universale: conosco tutte le variabili, sono in grado di elaborarle ( cosa che allora, senza computers, si sognavano! ).
Ma, dico, :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: non è che qualcuno si dimentica qualcosa?
Niente di importante, per carità, ma mi sembra che nel 900 il determinismo universale abbia dovuto forzatamente lasciare il posto ad un principio di causalità molto più debole, a causa dellìintroduzione della meccanica ondulatoria e, in primis, dalle indeterminazioni di Heisenberg !!!
Quindi, se a priori dell'esperienza non possiamo con esattezza (ΔxΔp≥h/4π) determinare né la posizione né la velocità di un sistema, non potremmo nemmeno ottenere delle previsioni certe!
La domanda con cui chiudo ( scusatemi per la menata... non lo faccio più :blah::blah: ) è questa: piuttosto che "quanto potente dovremmo fare un sistema per avere previsioni in tempo reale" non dovremmo chiederci "visto che le previsioni, per quanto attendibili, non sono che un'approssimazione della realtà, per definizione, ha veramente senso cercare di formularle? Per quanto dalle mie parti si dica "tos che miga..."
anche se le previsioni non sono certe potrebbero essere comunque utili per pianificare determinati lavori...altrimenti non si spiegano i grandi investimenti in questo tipo di ricerca..o no?
nickthename
12-08-2004, 10:15
I miei complimenti sulla dissertazione.
Voglio farti notare, però che il caso è solo uno degli elementi del calcolo degli scenario.
Nel calcolo di uno scenario, oltre a calcolare tutte le possibilil situazioni (e qui il caso c'entra), si cerca di trovare delle soluzioni ottimali a dei problemi.
Come una sorta di mega albero costruito con valori expectimax dove l'elaborazione dei nodi della casualità è complessa quanto quella dell'albero principale.
E' come immaginare un albero enorme che ha alcuni nodi che sono alberi enormi. Immaginate la complessità della ricerca in quest'albero.
Per dirla in parle povere...chissà in quanto tempo ti comprime un DIVX :P
Ciaparat
12-08-2004, 10:18
Mah...non mi sembra così tanto potente....;DDD
...io vorrei conoscere il rendimento di tali soluzioni...il grosso problema resta l'interconnessione tra i vari nodi che mina appunto il rendimento ;)
Penso sia il vero collo di bottiglia di questi sistemi. Probabilmente neppure la fibra ottica attuale riesce a garantire una banda adeguata alla mole di dati che macchine come questa devono gestire.
Lucrezio
12-08-2004, 11:15
Ovviamente una previsione "probabile" ¨¨ possibile: non dimentichiamo che l'indeterminazione ¨¨ veramente molto piccola ( h/4¦Ð = circa 5*10^-35!!! ), volevo solamente... diciamo mettere a tutti una pulce nell'orecchio!
*nick the name:
Non stavo parlando di caso, ma di indeterminazione: a causa del principio di Heisenberg (chiamiamo x l'indet. ), tu hai una fluttuazione della misura di qualsiasi parametro ( anche la stessa potenza dei processori, la lunghezza dei fili di collegamento, la dimesione della tua tastiera, la tua altezza, l'energia potenziale degli atomi di silicio che costituiscono i cores... chi pi¨´ ne ha pi¨´ ne metta! ) fra a-x e a+x. Quindi, se vuoi, si pu¨° dire che la misura va presa "a caso" in questo range. Ovviamente ¨¨ un'oscillazione molto piccola, ma ¨¨ quanto basta per annichilire il principio di causa effetto ( purtroppo! ).
Ok la pianto! Cmq voglio sottolineare come la mia fosse una puntualizzazione pi¨´ filosofica che non scientifica! Ciao a tutti!
Lucrezio
12-08-2004, 11:18
Secondo voi perché mi ha fatto tutto quel casino? prima mi scriveva tranquillamente tutti i caratteri e adesso nn fa piu' nemmeno quelli accentati... mah!
Ah, dimenticavo: un aggeggio del genere mi piacerebbe un sacco! Avete in mente che figata aprire photoshop, giocare ad uno sparatutto, comprimere un divx con quello? sbavvvvvv
Se nn potessimo ottenere delle previsioni certe come si fa allora a mandare satelliti e navicelle sulla luna, su marte o sugli altri pianeti o asteroidi?
Xkè x fare ciò bisogna "prevedere" l'orbita sia del corpo celeste sia dell'oggetto ke deve raggiungerlo,
infatti,in realtà,nn si parla d "previsioni certe" ma di "probabilità" .Nn so se ricordi quando c'era quell'asteroide ke poteva colpire la terra,si parlava di probabilità ke cio potesse accadere,anke x le previsioni meteo in realtà si tratta di probabilità ke ciò ke dicono i meteorologi si verifichi.
Continuando a parlare di previsioni meteo, ha senso farle e studiare metodi sempre + precisi xkè grazie alle previsioni meteo nn solo si può scegliere se andare al mare o no ma si possono salvare a ke migliia di vite della furia degli uragani x esempio.
Così come sn necessari computer tanto potent x permettere di progettare una missione spaziale nella quale c sn migliia di variabili da considerare ke vanno dalle condizioni meteo al momento del lancio alla posizione del corpo o dell'orbita da raggiungere, dai possibili "disturbi" ke possono dare gli altri corpi celesti attorno l'obiettivo ai guasti tecnici, fino ad arrivare al fattore umano.
Tasslehoff
12-08-2004, 11:41
Originariamente inviato da damxxx
[snip]
fino ad arrivare al fattore umano. Che in definitiva credo possa essere considerato la variabile meno comprensibile di tutto questo sistema estremamente complesso ;)
Il che pone un atroce dubbio, ha senso spendere tante risorse e tanto lavoro quando alla fine tutto questo converge su un sistema tanto complesso quanto imprevedibile come l'uomo?
Chi può saperlo, milioni di ore di calcoli, di previsioni, di lavoro e poi magari l'astronauta preme il tasto X al posto del tasto Y perchè in quel momento ha in testa la gnocca :D
la verità è che non si puo prevedere tutto...non è nemmeno pensabile...non è tanto il prevedere migliardi di possibilità x evitare incidenti etc quanto diminuire il tempo di progettazione di una missione spaziale in modo da non perdere tempo utile..il discorso sarebbe lungo e profondo ma mi fermo qui..chi ha orecchie per intendere...intenda..
...mi chiedo... a questo punto credo sia un miracolo che "qualche anno fa" abbiano mandato gente sulla luna o che siano state lanciate sonde che oggi sono arrivate fuori dal sistema solare (e continuano a funzionare), tutto tramite computer dotati di 8088 (o forse anche i suoi predecessori).
Beh, con questo si potranno calcolare anche altre variabili (come appunto il cesso che si intasa sullo Shuttle o la quantità di merendine da portarsi nel pranzo al sacco) però rimango perplesso da questa differenza abissale di prestazioni.
overclock80
12-08-2004, 12:03
E intanto per la realizzazione del terzo episodio del prequel di Star Wars stanno usando gli AMD Opteron (http://home.businesswire.com/portal/site/home/index.jsp?epi-content=NEWS_VIEW_POPUP_TYPE&newsId=20040809005738&newsLang=en&beanID=202776713&viewID=news_view_popup) :cool:
Italian Stallio
12-08-2004, 12:06
Non crederai mica che la Nasa aveva degli 8088 negli anni '60 vero?
L'8088 é stato il primo microprocessore, ma era anni luce dai superprocessori usati da agenzie statali. Mai sentito gente dire che i computer stavano a mala pena in una stanza? Quei computer erano (sono) ancora piú veloci del P4 o AMD64 che hai sulla scrivania. La NASA aveva a disposizione il computer piú potente nel '59 mi pare, occupava un intero palazzo. Quindi potenza di calcolo ce n'era....
Sul discorso delle previsioni e probabilitá: é vero che alla fine c'é sempre l'errore umano dietro una qualunque azione. Ma non é forse questo il motivo dell' automatizzazione? Avere degli esperti che configurano un sistema per agire come farebbero loro, poi mettere una scimmia davanti allo schermo e ripordurre le stesse azioni..... Certo, l'errore umano puó pur essere presente dalla parte degli esperti, ma quello é un altro discorso.
In non molto tempo, grazie a robot a computer potremmo fare qualsiasi cosa come la farebbe un esperto**. E allora l'errore umano potrebbe essere dimenticato.
**A parte le lasagne che come le fa mia nonna non le fa nessuno :-)
Tasslehoff
12-08-2004, 12:10
Originariamente inviato da Italian Stallio
In non molto tempo, grazie a robot a computer potremmo fare qualsiasi cosa come la farebbe un esperto**. E allora l'errore umano potrebbe essere dimenticato.Ho i miei dubbi su questo, vorrebbe dire riprodurre esattamente un essere umano, con tutte le imprescrutabili variabili che lo caratterizzano. E questo vorrebbe dire aver compreso fino in fondo tutto ciò che compone l'uomo, compresa quella strana massa che sta dentro la nostra cucuzza :)
No, imho non si arriverà a questo punto, a meno che l'uomo non si evolva in un'altra forma, chessò Q :p
[OT Mode=ON]
And I'm the Q...
Do not forget my name--
Do not forget me,
Mon Capitain!
[OT Mode=OFF]
Praetorian
12-08-2004, 12:11
Originariamente inviato da damas1
...il prevedere migliardi di possibilità...
sopratutto...
:rolleyes:
Lucrezio
12-08-2004, 12:13
Mi sembra che siamo tutti abbastanza d'accordo! Alla fine il succo è questo: la certezza non esiste ( o meglio non esiste più! )
Cmq, ripeto, il mio era più che altro un discorso filosofico; anche perché un'incertezza di un miliardesimo di miliardesimo di millimetro sulla posizione di attracco di una nave spaziale, su misure dell'ordine di quelle spaziali, è assolutamente trascurabile!
Resta sempre, se mi passate la battuta, una celebre frase di woody allen: Errare è umano, ma per incasinare davvero tutto serve un computer!
Ciao
P.S.: mi piacerebbe assaggiarle quelle lasagne... mi hai fatto venire un attacco di fame che mi sa che svuoto il frigo!
Tasslehoff
12-08-2004, 12:15
Originariamente inviato da Lucrezio
P.S.: mi piacerebbe assaggiarle quelle lasagne... mi hai fatto venire un attacco di fame che mi sa che svuoto il frigo! A proposito, tieniti forte, ecco il pranzo che ho appena consumato, il pranzo dei campioni: Fonzies e RedBull
X Barlog: La fibra basta ed avanza te lo assicuro... il collo di bottiglia puo' essere l'architettura del cluster o + semplicementente gli switch a cui sono interconnessi i gruppi di servers che devono avere una banda passante mostruosa e sono apparecchiature che costano MOOOOOOLLLTOOOOOOO!
X Lucrezio: x fare delle simulazioni di situazioni macroscopiche non esiste la necessità di tenere conto delle fluttuazioni delle particelle subatomiche, la loro influenza è ASSOLUTAMENTE TRASCURABILE. Si tiene conto del principio di indeterminazione se, invece, devo calcolare la traiettoria delle particelle di due atomi che si scontreranno a velocità prossime alla luce , ma alla NASA non evono simulare queste cose, quindi le tue elucubrazioni mentali sono fuori luogo.
Poi, secondo me sarà il computer + potente al mondo ... basta guardare la classifica top500 il primo è l'Earth-Simulator con 5120 processori nec ed il secondo è il Thunder con 4096 processori Itanium 2 1.4 Ghz ... ora considerando che:
1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator. ;)
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.
IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
Italian Stallio
12-08-2004, 12:23
Forse non mi sono espresso nel migliore dei modi:
intendevo dire la riproduzione di una singola azione fatta nel miglior modo possible. Ovviamente non considerando l'immaginazione....
Tutto questo accade giá: ci sono divani, sedie, chiavi, ecc, prodotte da macchine come e meglio di un artigiano. Ma l'artigiano fa anche la spesa, da mangiare, mette su famiglia, mentre le macchine fanno solo una singola azione.
É questo quello che intendevo: prima o poi ci saranno macchine che riprodurranno un'azione fatta "al meglio" da un'esperto. Cosí da renderle disponibili per tutti.
Ah, e le lasagne le vorrei assaggiare anch'io, é un sacco di tempo che non vado a visitare mia nonna. Slurp....
Beh, pausa pranzo!!
Ah dimenticavo ... è anche probabile che usino il nuovo Itanium 2 1.70 Ghz con 9MB di cache che sta per uscire.
Se è così penso che sarà il + potente computer del pianeta per un bel po' di tempo! ;)
sycret_area
12-08-2004, 12:40
per me è tutta una scusa per spegnere il riscaldamento a gas ed utilizzare l'aria calda generata dai proci..
con 10.000 proci Itanium dovrebbero riuscire a scaldare tutta la Nasa... :)
Che versione di linux montano questi mostri?
Intendo dire montano una versione enterprise di gentoo o simili oppure una versione dedicata e creata specificatamente per l'hardware esistente?
tisserand
12-08-2004, 12:51
Come al solito su notizie intel vi dilettate a sparare sulla cri, però il cuore della stessa viene ignorato: si usano sistemi linux. In terra usa, dove il gates si compra quasi tutto è unp smacco impensabile che dovrebbe far riflettere piuttosto che continuare con la solita storia: il mio è più lungo del tuo. Ciao
Tasslehoff
12-08-2004, 12:55
Originariamente inviato da tisserand In terra usa, dove il gates si compra quasi tutto è unp smacco impensabile che dovrebbe far riflettere piuttosto che continuare con la solita storia: il mio è più lungo del tuo. Ciao Beh, la NASA ha migrato a linux i webserver che pubblicano il sito un bel po' di tempo fa, quello è stato uno smacco ancora maggiore a livello di immagine
cmq e' un bel gingillo, ci vorrebbero delle foto!
"Dowrebbe essere + che sufficiene per far girare Doom3 !!!" (PM) (nn so come si quota da qua)
Asdasdadasdasdad...cmq ammazza che cosa!
In certi ambiti si usa linux per svariati motivi:
- basso costo
- kernel snello e robusto che si presta meglio al calcolo distribuito parallelo.
- sorgenti del kernel pubblici, quindi si puo' anche eventualmente patchare il kernel secondo i propri scopi
- Alte performances su piattaforna Intel.
Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.
Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.
Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
Fritzen leggi bene .... è stato commissionato ... ma per vedere delle foto dovrai aspettare che venga realizzato. asdasdasd.
non capisco come mai mi ha postato doppio...bo!!
scusate
Originariamente inviato da lamp76
... ora considerando che:
1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator. ;)
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.
IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
...mi dispiace...ma il cray X1 con soli 4000 processori ha schiacciato l'heart simulator passando dai 35 TeraFlop di quest' ultimo a 50 (!) Teraflop...il nuovo processore che viaggia a 400MHz ha un picco massimo di 25GFlop...riuscendo così a superare gli 800GFlop per cabinet...
...nn c'è molta storia :p
...link (http://www.lithium.it/dream0016p1.asp) ;)
Crisidelm
12-08-2004, 14:22
"Heart" simulator? Non era Earth? :)
avvelenato
12-08-2004, 14:35
Originariamente inviato da lamp76
... ora considerando che:
1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator.
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.
IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
non condivido quest'analisi.
in primis, la potenza di un sistema di calcolo non cresce linearmente all'aumentare dei processori.
in secundis, sinceramente sono alquanto scettico (al di là della normale fascinazione che penso tutti i patiti di tecnologia subiscano) verso classifiche tipo http://www.top500.org .
Queste classifiche con che criteri vengono svolte? Fanno un benchmark sul calcolo numerico in virgola mobile, se non sbaglio. Ah, tutto qui? Praticamente un giorno potremmo organizzarci con un client di calcolo distribuito, ogni utente internet, e battere qualsiasi supercomputer utilizzando pc come il mio p3 e interconnessioni come l'adsl o il 56k... ridicolo.
Ovviamente chi progetta certi sistemi deve badàre a vincoli di prestazioni ben più complessi del "devo riuscire ad entrare nella top five di top500.org!".
Solo per farti capire perché aggiungendo processori non necessariamente si può avere un incremento prestazionale: ogni problema computazionale ha un suo grado di parallelelismo, ovvero la possibilità di scomporlo in problemi computazionali più piccoli, con ridotte necessità di interazione reciproca. Si parla di "parallelelismo imbarazzante" o "perfect parallelelism" quando il problema complesso è scindibile in tantissimi problemi semplici con necessità di interazione reciproca fra i processi tendenti a zero. Tipo SETI, insomma.
Ciò non toglie che esistano dei problemi per niente parallelizzabili, per i quali avere un cluster di 4096 processori, o avere solo un nodo, è la stessa cosa, con evidente risparmio di energia e complessità nel secondo caso.
correggetemi se ho detto inesattezze, purtroppo non è (per adesso) il mio campo! ;)
-(Lovin'Angel)-
12-08-2004, 15:27
Originariamente inviato da Lucrezio
Secondo voi perché mi ha fatto tutto quel casino? prima mi scriveva tranquillamente tutti i caratteri e adesso nn fa piu' nemmeno quelli accentati... mah!
Sarà perchè il Forum stesso si dimena nelle calde e afose giornate ferragostane,
magari si rifiuta di pubblicarti... PER PROTESTA !!!:asd:
(non ce la fa più manco il forum, vuole andare in vacanza anche lui :D)
Vai a farti 1 bagno al mare,svagati non ti ammazzare di teorie di Heisemberg.. ke oramai sta fa la muffa!
Ciaooo (buon mare a tiuuuutti)
:p
Opteranium
12-08-2004, 15:46
HeiseNberg (!!!!!!!)
avvelenato
12-08-2004, 15:53
in realtà intendeva dire heisemburgher, nota catena di fast-food tedesca... :D
Per Italian Stallio:
Ti sbagli... l'uomo è andato sulla luna con la potenza equivalenente di un 386... altro che P4...
avvelenato
12-08-2004, 17:47
Per Italian Stallio:
Ti sbagli... l'uomo è andato sulla luna con la potenza equivalenente di un 386... altro che P4...
nel senso che il pc di bordo era equiparabile ad un 386, forse meno.
Ma certo prima di mandare un uomo sulla luna avranno fatto dei calcoli a terra, e sono del parere che glissare sull'importanza preparatoria e concentrarsi solo sull'attimo cruciale della missione lunare non dimostri assolutamente nulla.
o no?
Originariamente inviato da Crisidelm
"Heart" simulator? Non era Earth? :)
...è che la questione mi stava a cuore :p
ODISSEO10
12-08-2004, 20:53
Ma quanto potrebbe consumare? Credo + o - come un piccolo paesino...!!! Mi confermate?
Che dite potranno metterci il futuro Longhorn e doom3???
avvelenato
12-08-2004, 22:47
se ci metti longhorn, doom3 non parte, a meno che non upgradi la ram :D :lol:
ShadowX84
13-08-2004, 00:33
Inviato da: ally
...40 MW
Sicuro??:eek:
Mi sembrano un pò eccessivi...soprattutto considerando..che ad esempio il Cray X1 nella versione più completa (cioè quella capace di processare a 50 TFOLP/Sec) consuma 4Mega watt...che non sono comunque pochi!!
Originariamente inviato da ShadowX84
Sicuro??:eek:
Mi sembrano un pò eccessivi...soprattutto considerando..che ad esempio il Cray X1 nella versione più completa (cioè quella capace di processare a 50 TFOLP/Sec) consuma 4Mega watt...che non sono comunque pochi!!
....si scusa ho sbagliato 2 volte...ho scrtto il dato dell'X1 ed ho anche sbagliato :p
JOHNNYMETA
13-08-2004, 13:38
Originariamente inviato da MaxP4
...mi chiedo... a questo punto credo sia un miracolo che "qualche anno fa" abbiano mandato gente sulla luna o che siano state lanciate sonde che oggi sono arrivate fuori dal sistema solare (e continuano a funzionare), tutto tramite computer dotati di 8088 (o forse anche i suoi predecessori).
Beh, con questo si potranno calcolare anche altre variabili (come appunto il cesso che si intasa sullo Shuttle o la quantità di merendine da portarsi nel pranzo al sacco) però rimango perplesso da questa differenza abissale di prestazioni.
Calcolare la traiettoria da percorrere fra due corpi celesti con orbite determinate è una cosa.Perfettamente possibile nel 1969 e facilissimamente calcolabile anche da un thunderbird 1000Mhz.
Simulare fenomeni di tipo caotico come lo spostamento delle nuvole o fenomeni spaziali simili dove le variabili si creano da sole moltiplicandosi esponenzialmente con lo scorrere dei minuti è un'altra cosa che non da spazio a ca##@!e come prevedere il cesso che si intasa o altri compiti come la grafica o il video (aspetti secondari) di cui parla lexon
Originariamente inviato da lamp76
ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
non è uno spreco di risorse perchè anzi queste sono sempre scarse per tali elaborazioni che in realtà sono un unico compito che da solo si moltiplica in numerosissimi sottoproblemi e variabili.
Originariamente inviato da Italian Stallio
Non crederai mica che la Nasa aveva degli 8088 negli anni '60 vero?
L'8088 é stato il primo microprocessore, ma era anni luce dai superprocessori usati da agenzie statali. Mai sentito gente dire che i computer stavano a mala pena in una stanza? Quei computer erano (sono) ancora piú veloci del P4 o AMD64 che hai sulla scrivania. La NASA aveva a disposizione il computer piú potente nel '59 mi pare, occupava un intero palazzo. Quindi potenza di calcolo ce n'era....
Qui c'è molta confusione.
Cosa intendi con superprocessori delle agenzie statali?Cosa vuol dire che la NASA nel 59 (secondo te l'uomo è stato sulla Luna nel 59?) aveva un computer che ancora oggi è cosa galattica?
La NASA nel 59 possedeva sì il più potente supercomputer dell'epoca ma erano 4 IBM7090 (oltretutto il primo computer non commerciale completamente transistorizzato della storia) e tutti e quattro messi assieme (occupavano intere stanze oppure un palazzo se vuoi e non poteva essere diversamente con quel processo produttivo a bassissima densità) avevano 44000transistor (per stanza) X 4=176000transistor.
Quindi fai tu: un Athlon64 clawhammer è composto da 106 milioni di transitor,a quei tempi sarebbe stato non in un laptop ma in un grattacelo di 500 piani che non esiste tuttora!!!
Nel 1969,dieci anni dopo,era quasi lo stesso:fu costruita la prima CPU (non micro) della storia (indipendentemente dall'essere commerciale o meno) quindi parlare di superprocessori delle agenzie statali nel '59, ma anche nel '69, non ha senso.
Quei computer non erano più veloci ne di un P4 ne di un A32 o 64
quanto è vero che eseguivano 22.900 calcoli (somme) al secondo mentre un comunissimo Athlon64 o Pentium4 a 2000 o 3000mhz,come minimo esegue 10.000.000.000 di calcoli-istruzioni (somme) al secondo considerando oltre alla pura frequenza anche pipeline superscalari e tutto il resto.
...per ora basta...
:coffee:
avra un hd da 500 tb..
10000 cpu...
ma quante schede video avra???
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
e di ram?? DDR 2 o 4 512 gb?????
:yeah: :yeah: :yeah: :yeah:
edivad82
15-08-2004, 15:00
Originariamente inviato da Balrog
Penso sia il vero collo di bottiglia di questi sistemi. Probabilmente neppure la fibra ottica attuale riesce a garantire una banda adeguata alla mole di dati che macchine come questa devono gestire.
in un cluster di calcolo massivo l'interconnettività ha un ruolo fondamentale per certi versi...l'aumentare di potenza di calcolo può non dare risultati migliori se la interconnessione tra i nodi è inefficiente o studiata male...
in ogni caso le strade da percorrere sono le solite due...studiare sistemi ad-hoc ad aree con dei core-network et similia... oppure avanzare di "ignoranza" con soluzioni ten-G (10gigabit) e del buon "sano" channel bonding...
l'infrastruttura di rete credo sia forse il primo passo da seguire dopo la scelta del numero di nodi e della potenza dei nodi...
chissà come ci rulla DOOM 3 :rotfl: :eheh: :gluglu: :sofico:
doom 3 x fatto di cpu e ram ci gira minimo 4 volte
poi di sk video...bohhhhhhhhhhh
:sofico: :sofico: :sofico:
ErPazzo74
16-08-2004, 17:09
Come qualcuno ha fatto notare nn sempre la banda di rete e' 1 limite, i conti che mio fratello fa' con i suoi cluster sono sempre molto poco network-dependent. Lui con delle normali 100mb nn ha problemi ma mi sembra che anche con delle 10Mb nn aveva problemi con i vecchi cluster che utilizzava.
Questo xche' ogni problema e' differente, evidentemente quelli che intende studiare la nasa sono molto ben parallelizzabili.
Cia'.
Qualche piccola precisazione sull'equazione di Heisenberg.
Che il rapporto h/4pi sia molto piccolo di per sè non è molto rassicurante, come invece aveva concluso Lucrezio, poichè purtroppo vale la relazione >=, quindi in teoria non c'è limite al valore che essa può assumere, in particolare, risolvendo per uno dei parametri, ad esempio delta_p, abbiamo dp=k/dx, e ciò vuol dire che al diminuire di una "imprecisione" cresce drammaticamente l'altra.
Quest'ultimo aspetto, però, può essere una parziale consolazione sulle nostre velleità di conoscere il mondo: generalizzando, noi non possiamo conoscere il valore di tutti i parametri che influenzano un dato sistema contemporaneamente con grande precisione, però ciò non vuol dire che non possiamo ottenere una precisione decente (entro certi limiti di tolleranza, spesso legati a problemi più pratici che teorici) su alcuni parametri (magari anche un buon numero); quindi se riusciamo ad isolare un numero non troppo elevato di parametri utili siamo a cavallo, viceversa ci possiamo tranquillamente attaccare... (in un certo senso sarebbe come voler risolvere un sistema con più incognite che equazioni; non c'entra molto in realtà, però credo che possa rendere l'idea di indeterminazione). Tornando all'esempio degli elettroni, a cui, se non ricordo male, Heisenberg faceva riferimento in particolare, in realtà teoricamente potremmo calcolare la posizione di un elettrone in un dato istante con una notevole precisione, così come la sua energia, ma non contemporaneamente, per cui bisogna scegliere, non c'è speranza, e poichè l'energia di un elettrone è di gran lunga più rilevante nello studio delle proprietà fisiche e chimiche di un elemento rispetto al suo movimento reale, la scelta vien da se, per definire la "forma" di un atomo e il moto dei suoi elettroni il concetto di orbitale e di nuvola elettronica è più che sufficiente (almeno fino ad oggi lo è stato).
Da un punto di vista filosofico, ritengo che chiedersi se sia opportuno cercare di approfondire le nostre conoscenze sapendo che comunque continueremo a sapere meno di quanto vorremmo, a causa di problemi pratici, teorici, tecnologici, umani ecc., sia un po' come voler stabilire se tutto scorre o invece no, cioè se possiamo affidarci ai nostri sensi (e quindi muoverci entro i nostri limiti) oppure cercare di basarci solo sulla ragione, oppure ancora se non sia meglio accontentarsi e rinunciare all'impresa. Io credo che la risposta sia semplice, ed è il metodo scientifico stesso a fornircela: noi i sensi abbiamo e solo quelli possiamo usare, salvo poi ricorrere alla scienza più astratta e razionale (la matematica) per conferire un po' di universalità ai nostri risultati; che poi abbiamo dei limiti notevoli, che non riusciamo ad effettuare mai misure precise (per colpa degli strumenti), che la matematica stessa e la natura ci pongano dei muri invalicabili è innegabile, però non credo che questo debba diventare un freno per la nostra sete di conoscenza o possa impedirci di trarre il ben che minimo vantaggio da ogni goccia di sapere che riusciamo a far stillare dall'ignoto (oggi ho una strana vena poetica, forse il caldo ha fuso qualche circuito, ehm, sinapsi nel mio cervello :D). Insomma, incontreremo sempre dei limiti, però possiamo sempre andare avanti fin quasi a raggiungerli; se poi strada facendo ci rendiamo conto di averli superati vorrà dire che le nostre stime erano troppo pessimistiche, però i limiti sono sempre la, basta metterli in conto e non lasciarsi scoraggiare (ok, lo aveva detto anche un certo Kant "qualche annetto fa" :P).
Ciao a tutti :)
DioBrando
18-08-2004, 17:12
Originariamente inviato da Praetorian
sopratutto...
:rolleyes:
sopraTtutto...
basta fare i sapientini :rolleyes:
DioBrando
18-08-2004, 17:21
Originariamente inviato da xeal
Qualche piccola precisazione sull'equazione di Heisenberg.
Che il rapporto h/4pi sia molto piccolo di per sè non è molto rassicurante, come invece aveva concluso Lucrezio, poichè purtroppo vale la relazione >=, quindi in teoria non c'è limite al valore che essa può assumere, in particolare, risolvendo per uno dei parametri, ad esempio delta_p, abbiamo dp=k/dx, e ciò vuol dire che al diminuire di una "imprecisione" cresce drammaticamente l'altra.
Quest'ultimo aspetto, però, può essere una parziale consolazione sulle nostre velleità di conoscere il mondo: generalizzando, noi non possiamo conoscere il valore di tutti i parametri che influenzano un dato sistema contemporaneamente con grande precisione, però ciò non vuol dire che non possiamo ottenere una precisione decente (entro certi limiti di tolleranza, spesso legati a problemi più pratici che teorici) su alcuni parametri (magari anche un buon numero); quindi se riusciamo ad isolare un numero non troppo elevato di parametri utili siamo a cavallo, viceversa ci possiamo tranquillamente attaccare... (in un certo senso sarebbe come voler risolvere un sistema con più incognite che equazioni; non c'entra molto in realtà, però credo che possa rendere l'idea di indeterminazione). Tornando all'esempio degli elettroni, a cui, se non ricordo male, Heisenberg faceva riferimento in particolare, in realtà teoricamente potremmo calcolare la posizione di un elettrone in un dato istante con una notevole precisione, così come la sua energia, ma non contemporaneamente, per cui bisogna scegliere, non c'è speranza, e poichè l'energia di un elettrone è di gran lunga più rilevante nello studio delle proprietà fisiche e chimiche di un elemento rispetto al suo movimento reale, la scelta vien da se, per definire la "forma" di un atomo e il moto dei suoi elettroni il concetto di orbitale e di nuvola elettronica è più che sufficiente (almeno fino ad oggi lo è stato).
Da un punto di vista filosofico, ritengo che chiedersi se sia opportuno cercare di approfondire le nostre conoscenze sapendo che comunque continueremo a sapere meno di quanto vorremmo, a causa di problemi pratici, teorici, tecnologici, umani ecc., sia un po' come voler stabilire se tutto scorre o invece no, cioè se possiamo affidarci ai nostri sensi (e quindi muoverci entro i nostri limiti) oppure cercare di basarci solo sulla ragione, oppure ancora se non sia meglio accontentarsi e rinunciare all'impresa. Io credo che la risposta sia semplice, ed è il metodo scientifico stesso a fornircela: noi i sensi abbiamo e solo quelli possiamo usare, salvo poi ricorrere alla scienza più astratta e razionale (la matematica) per conferire un po' di universalità ai nostri risultati; che poi abbiamo dei limiti notevoli, che non riusciamo ad effettuare mai misure precise (per colpa degli strumenti), che la matematica stessa e la natura ci pongano dei muri invalicabili è innegabile, però non credo che questo debba diventare un freno per la nostra sete di conoscenza o possa impedirci di trarre il ben che minimo vantaggio da ogni goccia di sapere che riusciamo a far stillare dall'ignoto (oggi ho una strana vena poetica, forse il caldo ha fuso qualche circuito, ehm, sinapsi nel mio cervello :D). Insomma, incontreremo sempre dei limiti, però possiamo sempre andare avanti fin quasi a raggiungerli; se poi strada facendo ci rendiamo conto di averli superati vorrà dire che le nostre stime erano troppo pessimistiche, però i limiti sono sempre la, basta metterli in conto e non lasciarsi scoraggiare (ok, lo aveva detto anche un certo Kant "qualche annetto fa" :P).
Ciao a tutti :)
ah che bei ricordi la ragion pura e l'imperativo categorico ( schif) :D
JOHNNYMETA
18-08-2004, 21:05
Originariamente inviato da damas1
sopratutto...
...il prevedere migliardi di possibilità...
Originariamente inviato da Praetorian
sopratutto...
:rolleyes:
Originariamente inviato da DioBrando
sopraTtutto...
basta fare i sapientini :rolleyes:
:rotfl: :rotfl: :rotfl: :fagiano: :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.