|
|
|
|
Strumenti |
10-02-2005, 07:12 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link alla notizia: http://news.hwupgrade.it/14019.html
Sun introduce un approccio molto interessante ai propri clienti, con il quale fornire potenza di elaborazione da sistemi remoti pagando un canone per processore all'ora Click sul link per visualizzare la notizia. |
10-02-2005, 07:49 | #2 |
Senior Member
Iscritto dal: May 2000
Città: Milano
Messaggi: 13352
|
Seti@Sun...
|
10-02-2005, 07:58 | #3 |
Senior Member
Iscritto dal: Aug 2004
Città: Vicenza
Messaggi: 6950
|
Mi sembra che si stia tornando indietro. Anni fa, centri elaborazione dati che lavoravano per conto terzi (soprattutto con gestionali) sono stati costretti a chiudere, perchè con l'aumentare della potenza dei singoli computer e la diminuzione dei prezzi ognuno si faceva le elaborazioni in casa.
Comunque, prima di lanciare una cosa del genere avranno fatto delle ricerche di mercato, dalle quali evidentemente è risultato che esiste una domanda per simili servizi, forse per picchi di lavoro. |
10-02-2005, 08:20 | #4 |
Senior Member
Iscritto dal: Apr 2003
Città: Verona
Messaggi: 594
|
...sistema di calcolo remoto...
Quindi accessibile via web? Sarebbe come avere un processore super collegato tramite internet... ma allora la banda necessaria per il trasferimento dei dati non sarebbe troppo piccola, fungendo purtroppo da collo di bottiglia? Oppure si ha il trasferimento dei dati solo prima e dopo l'elaborazione? Qualcuno mi illumini |
10-02-2005, 09:05 | #5 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 2354
|
Quote:
scientifico; il problema dei vari supercomputer di qualche anno fa (che poi erano sostanzialmente Cray), e' che avevano costi di "noleggio" per tempo macchina molto alti, centinaia di volte superiori a questi. In piu', i sistemi erano proprietari, per cui nessuno, avendoli mai visti, ci capiva nulla. Le prenotazioni erano ultrarigorose etc., e alla fine quello che pagavi sostanzialmente era la logistica, e rimaneva ben poco tempo per il calcolo. Ora, praticamente questi sistemi non sono nient'altro che reti di PC con Linux, molto pompati (soprattutto in RAM) esattamente uguali al PC di casa, ma con più memoria e con la possibilita' di lavorare in cluster, e con la HOME in NFS. La programmazione parallela pero' uno se la deve fare, non e' che specifica N=64 e per miracolo ecco che il programmillo scritto magari con i piedi in Fortran magicamente girera' su tutti i 512 nodi alla velocita 512x... L'unico problema di questi sistemi, perlomeno di alcuni, e' che chiaramente non ci sono limiti agli accessi, per cui se ci sono troppi utenti (ne bastano 64 su un cluster di 64 nodi), ti ritrovi con una potenza di calcolo inferiore a quella che avesti sul tuo PC...; quanto alla programmazione parallela, i matematici e fisici, hanno la tendenza ad evitarla (per non doverla imparare) e tendono anziche' a lanciare un'unica simulazione parallelizzata, N simulazioni (ovviamente ciascuna con parametri differenti...). Comunque penso che se ben gestita a livello di accessi possa essere piu' conveniente rivolgersi a questi centri, che magari farsi il beowulf di una 20ina o 30ina di nodi in casa. Anche se facendo 2 o 3 conti non saprei. Un cluster beowulf di una ventina di nodi generalmente piu' costare dai 10 ai 30000 euro. E dopo 3,4anni rimane praticamente obsoleto, periodo trascorso il quale i 20 nodi sono praticamente equivalenti a 2 PC da due (e quindi come costi di mantenimento [consumo corrente, etc.], conviene praticamente dismetterlo e passare ai 2PC. Ora in 3-4 anni ci sono sulle 26-35000 ora. 35000 ore a 1euro all'ora sono 35000 euro...: siamo li come costi. |
|
10-02-2005, 09:09 | #6 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 2354
|
Quote:
Solaris) tramite SSH. E li ti trovi una HOME e i programmi necessari (compilatori, etc.). I programmi te li trasferisci sulla tua HOME remota, li compili e li lanci, e i risultati dell'elaborazione rimarranno li. Quando hai finito ti riprendi i risultati dell'elaborazione in SSH e te li trasferisci sulla tua home locale. Certamente se la tua simulazione genera 18 petabytes di dati, la vedo un po' dura ritrasferirteli... |
|
10-02-2005, 09:27 | #7 | |
Junior Member
Iscritto dal: Mar 2004
Messaggi: 27
|
Quote:
|
|
10-02-2005, 10:01 | #8 |
Senior Member
Iscritto dal: Aug 2004
Città: Vicenza
Messaggi: 6950
|
xjoe4th
Penso che regolamenteranno gli accessi creando un sistema di prenotazioni. Altrimenti, se si collegano assieme 1000 utenti e ci sono 100 processori le elaborazioni andranno lente come su un 486... Sarebbe come affittare lo stesso appartamento a 10 famiglie diverse!!
|
10-02-2005, 10:34 | #9 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 783
|
puo essere utile se ti dimentichi una password...
|
10-02-2005, 10:45 | #10 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 2354
|
Quote:
lo e'...per la Sun. |
|
10-02-2005, 10:47 | #11 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 2354
|
Re: xjoe4th
Quote:
erano proprio cosi'. Un certo numero di macchine ben equipaggiate, installate (alla cazzo) con mix fra Debian, RedHat, DigitalUnix, 32bit e 64bit... senza semafori per gli utenti... |
|
10-02-2005, 12:23 | #12 |
Senior Member
Iscritto dal: Dec 2003
Messaggi: 1062
|
Sarebbe molto utile se tra i centri di ricerca, le università ecc. si facesse una rete di grid computing come quella sviluppata nei laboratori di Frascati e regolarne l'accesso a seconda delle necessità. Ci sono centri in cui in certi periodi servirebbe 100 volte la potenza disponibile altre in cui la potenza disponibile non viene sfruttata quasi per niente, mentre altri centri che hanno un sistema di calcolo sovradimensionato che non sfrutteranno mai a pieno, ma in Italia sarebbe chiedere troppo. Una cosa del genere la stanno progettando al cern per i centri di ricerca europei sfruttando anche le conoscenze sviluppate a Frascati. Inoltre potrebbe pure essere un modo per aumentare le entrate economiche nel caso si metta a disposizione di chi ne faccia richiesta.
|
10-02-2005, 13:26 | #13 | |
Senior Member
Iscritto dal: Dec 2003
Messaggi: 1062
|
Quote:
|
|
10-02-2005, 14:19 | #14 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 2354
|
Quote:
(l'unica autoparellelizzazione che funziona veramente e' quella del benchmark del venditore del compilatore autoparallelizzante ;-) e soprattutto sono al piu' performanti al piu' in cluster a memoria condivisa non certo a memoria distribuita. |
|
10-02-2005, 14:49 | #15 | |
Senior Member
Iscritto dal: Mar 2000
Città: napoletano trapiantato a Roma
Messaggi: 3813
|
Quote:
c'e' una cosa che no nhai considerato nei tuoi conti..... hai supposto la necessità di potenza di calcolo costante, cosa veramente rara da trovare...... un centro di quel tipo nasce proprio per venire incontro ad eseigenze di "potenza" estremamente incostante (questo mese ho bisogno di apacità ci calcolo abnormi, poi per 6 mesi nulla.....etc...) |
|
10-02-2005, 16:14 | #16 |
Junior Member
Iscritto dal: Jul 2004
Messaggi: 27
|
per Lasco
Maggiori informazioni sulla Grid di cui parli si trovano a questo sito:
http://eu-datagrid.web.cern.ch/eu-datagrid/ In pratica è stato costituito un consorzio pubblico-privato il cui obbiettivo è creare appunto una Grid europea in grado di erogare risorse di calcolo su richiesta degli istituti di ricerca che verranno connessi. Il progetto si sviluppa in parallelo con la costruzione al Cern del nuovo acceleratore di particelle LHC che produrrà una mole di dati di diversi peta byte l'anno. la necessità di ricercare informazioni nella mole di dati prodotti richiederà infatti un potenziale di calcolo enorme. ciao |
10-02-2005, 17:29 | #17 |
Member
Iscritto dal: May 2003
Città: Madrid
Messaggi: 217
|
e' da considerare anche la corrente per il datacenter ed il sistema di condizionamento, la manutenzione, il personale, il locale... a mio modesto parere la farm di per se ha il costo minimo dell'intera struttura soprattutto se la richiesta di potenza elaborativa non e' costante. in questo caso sarebbe piu' economico comprarla quando serve
|
11-02-2005, 13:45 | #18 |
Senior Member
Iscritto dal: Jun 2004
Città: 127.0.0.1 Lavora presso: Tua Mamma Titolo di studio: Asilo Nido
Messaggi: 11118
|
cioe se io devo convertire un file video per esempio a divx lo posso mandare al loro server che lo elaborano e come finisce me lo rinviano?
e poi mi arriva il conto sul tempo che il server ha impiegato per fare l' intera operazione?
__________________
|
11-02-2005, 15:26 | #19 | |
Senior Member
Iscritto dal: Mar 2000
Città: napoletano trapiantato a Roma
Messaggi: 3813
|
Quote:
be credo il concetto sia piu' o meno questo anche se è difficile che il tipo di applicazione sia di questo tipo |
|
11-02-2005, 16:15 | #20 |
Bannato
Iscritto dal: Apr 2003
Città: Termoli
Messaggi: 2165
|
se con un dollaro si riesce a renderizzar una scena di 3dstudiomax in mezz'ora che ben venga. Il tempo è denaro. Io ci metto tutta la notte quando non si blocca
Se offrono il servizio ci sarà di sicuro una banda passante sufficente. |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 02:09.