Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Comparativa tra WiFi System: alla ricerca della connessione perfetta
Comparativa tra WiFi System: alla ricerca della connessione perfetta
I kit WiFi System sono una via pratica per risolvere i problemi di ridotta copertura del segnale WiFi all'interno del proprio ambiente domestico. Pensati per assicurare installazione semplice e rapida anche all'utente meno esperto, portano i vantaggi delle reti Mimo all'interno della casa o del piccolo ufficio per garantire elevate velocità di trasmissione dei dati.
PaintShop Pro 2018, Corel aggiorna la sua alternativa a Photoshop
PaintShop Pro 2018, Corel aggiorna la sua alternativa a Photoshop
Interfaccia semplificata, maggiore velocità e più strumenti per PaintShop Pro, l'anti-Photoshop di Corel. Che punta tutto su prezzo concorrenziale e licenza perpetua.
Recensione Wolfenstein II: ambizione a livelli estremi
Recensione Wolfenstein II: ambizione a livelli estremi
Per come lo si prenda, Wolfenstein II: The New Colossus è un gioco estremo, sia per i temi trattati, sia per le modalità narrative, sia per il modello di shooter che offre. Anche rispetto a New Order, Machine Games si decisamente ‘spinta oltre’, confezionando un titolo davvero ambizioso e ‘forte’
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 20-12-2010, 09:09   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 2
Link alla notizia: http://www.businessmagazine.it/news/...ndo_34824.html

Architettura con soli processori Intel Xeon di prossima generazione quella scelta per una nuova installazione in Germania, sviluppata in collaborazione con IBM

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:31   #2
mircocatta
Senior Member
 
L'Avatar di mircocatta
 
Iscritto dal: Sep 2007
Messaggi: 13206
ci potrebbe girare crysis in ray tracing volendo
mircocatta è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:54   #3
homero
Senior Member
 
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 3168
fanno proprio ridere

14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......



homero è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:02   #4
jpjcssource
Senior Member
 
L'Avatar di jpjcssource
 
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5082
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio?
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD
jpjcssource è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:14   #5
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 4190
Quote:
Originariamente inviato da homero Guarda i messaggi
14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
ho riletto il post un paio di volte ma non ho capito cosa stai dicemdo

cosa singifica "un supercomputer del cavolo...." se quello piu veloce al mondo è del cavolo allora gli altri cosa sono?

rimpiangi la sgi ti ricordo che la sgi è ormai defunta proprio a causa della loro tecnologia mips che era ormai è morta perche superata dal x64, anche la sgi alla fine prima di morire si era messa a vendere server x64 ma a quel punto uil mercat oera pieno di validi concorrenti e quindi non aveva piu un vantaggio storico come ai tempi d'oro.

"resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori" e l'aternativa è ?????????????????????? usarne 13999 oppure 140001 dal tuo post non si capisce cosa intendi.

Ti risocrdo che l'attaule supercomputer pu veloce al mondo usa piu cpu e molte gpu eppure risulta piu lento di questo come specifiche quindi mi sembra un grande passo avanti usare molto meno hardware per ottenere un risultato superiore.

Ultima modifica di coschizza : 20-12-2010 alle 10:19.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:17   #6
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 4190
Quote:
Originariamente inviato da jpjcssource Guarda i messaggi
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio?
verissimo ma vale anche l'opposto cioè il tesla serveno ben poco in molti tipi di calcolo paralleli che poco si prestano o proprio non possono essere eseguiti su delle gpu invece che una cpu.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:54   #7
Oenimora
Senior Member
 
L'Avatar di Oenimora
 
Iscritto dal: Jun 2010
Messaggi: 383
E pensare che il più veloce attualmente è cinese, il Tianhe-1A, con un Rmax di 2,566 Petaflops. I Cinesi hanno ben 41 sistemi nella Top500. Giappone, Francia, Germania ne hanno 26 a testa e almeno uno nei primi dieci. L'UK 25. L'Italia 6... e il più veloce è al 95 posto. La Svizzera ne ha 4, ma con performance nettamente migliori di quelli italiani. Siamo messi bene...
Oenimora è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 11:02   #8
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 2480
Quote:
Originariamente inviato da homero Guarda i messaggi
14000 processori xeon....un supercomputer del cavolo....
eh?
Quote:
Originariamente inviato da homero Guarda i messaggi
come li calcolano i petaflop?
a mano: uno, due, tre..
Quote:
Originariamente inviato da homero Guarda i messaggi
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
boh, questa non la so, ma non credo che gli altri siano così grulli.
Quote:
Originariamente inviato da homero Guarda i messaggi
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
eh?

facciamo così, ti concedo il beneficio del dubbio e ti invito a spiegare meglio. Altrimenti la risposta è TSO!!
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 11:08   #9
iorfader
Senior Member
 
L'Avatar di iorfader
 
Iscritto dal: Nov 2010
Città: tra le colline calabresi
Messaggi: 5296
che vuol dire TSO?

cmq l'italia è un paese vecchio, ancora non hanno capito che l'informatica è il futuro
iorfader è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 12:20   #10
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 2480
trattamento sanitario obbligatorio... l' ho detto a battuta ma - seriamente - non ho trovato un senso al discorso di homero
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 12:24   #11
rb1205
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 592
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
rb1205 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 12:59   #12
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 4190
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
"con molte meno risorse si potevano raggiungere quelle prestazioni"

solo una domadna : come?

se a loro serva una potenza pari a 10 ci devono mettere dentro cpu che diano potenza pari a 10, mica stiamo parlando di un pc di casa assemblato ma di un supercomputer sviluppano in anni di lavoro che che richiede anche centinaia di persone costantemente impegnate a mantenerlo operativo.

Forse homero intendeva dire: se mi serve potenza 10 allora mettro delle cpu che mi diano potenza 5 e delle gpu che mi dirano il restante 5. Il problema di questo approccio è che magari la potenza 5 data dalla gpu non è utilizzabile perche le applicazioni che devi far girare non sono gestibili tramite gpgpu (cosa molto comune) quindi ti trovaresti un sistema piu complesso piu costoso è con una potenza totale inferiore a quello che ti serve.

I sistemi ibridi vengono usati gia oggi sul supercomputer che ha l'attuale 1 posizione, ma si usano solo se ti danno un vantaggio Altrimenti non servono a nulla.

Ti faccio un esempio in piccolo, immagina che io devo farmi un supercomputer per casa e mi serve per usare il 3dsmax in rendering, allora punto tutto sulla cpu perche le gpu non mi servono a nulla in questo caso (e posso unsare anche una gpu integrata come faccio io realmente), se invece punto tutto sul rendering e sulla modellazione 3d allora devo bilanciare la potenza anche su una gpu discreta di livello, se invece devo fare solo modellazione e 0 rendering allora la gpu sara l'investimento principale. Spero che hai capito come si va a decidere che hardware deve unare un supercomputer.

GPU e CPU non sono intercambiabili.

Ultima modifica di coschizza : 20-12-2010 alle 13:09.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 13:23   #13
Pier2204
Bannato
 
Iscritto dal: Sep 2008
Messaggi: 8949
Quote:
Originariamente inviato da coschizza Guarda i messaggi
"con molte meno risorse si potevano raggiungere quelle prestazioni"

solo una domadna : come?

.
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
Pier2204 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 14:13   #14
jpjcssource
Senior Member
 
L'Avatar di jpjcssource
 
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5082
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD
jpjcssource è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 15:00   #15
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 4190
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?

Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 15:07   #16
rb1205
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 592
Quote:
Originariamente inviato da coschizza Guarda i messaggi
solo una domadna : come?
è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero.

Quote:
Originariamente inviato da Pier2204
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS.
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
rb1205 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 15:27   #17
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 2480
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
vi ringrazio per le risposte, ma fatelo dire a lui... Solo allora riconsidererò l' ipotesi del trattamento

e, a parte gli scherzi, tu parli di «spreco, troppe cpu, magari si poteva fare di più e con meno». Due cose:

1. chi lo ha progettato non sarà un venditore di tostapane;
2. se guardate la top500 e prendete il Jaguar (II posto), noterete un totale di 226 mila e passa core, nella pratica oltre 37 mila cpu Opteron, per un massimo stabile di 1,7 PFlop.

questo avrà poco più di 1/3 dei suddetti core, ma una potenza superiore. E lo chiamate spreco?

Terza e ultima cosa, come altri hanno detto, le gpu vanno bene per molto ma non per tutto. Se l' obiettivo di questo aggeggio esula dal loro campo non vedo grosse alternative..
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 16:42   #18
D1o
Senior Member
 
L'Avatar di D1o
 
Iscritto dal: Dec 2005
Messaggi: 1101
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.

non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza.
D1o è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 18:25   #19
Pier2204
Bannato
 
Iscritto dal: Sep 2008
Messaggi: 8949
Quote:
Originariamente inviato da jpjcssource Guarda i messaggi
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
Certamente no, non so perche in Germania hanno commissionato un computer simile, se riguarda settori di interesse strategico Nazionale o Militare è chiaro che non è possibile, io parlo di settori di interesse globale, per fare esempi: lo studio di eventi sismici, lo studio del clima a livello globale, il calcolo delle risorse fossili e non..sarebbero molti i settori dove il calcolo distribuito potrebbe essere un vantaggio per tutti.

Quote:
Originariamente inviato da coschizza Guarda i messaggi
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?

Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero.



Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS.
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
Quote:
Originariamente inviato da D1o Guarda i messaggi
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.

non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
Grazie delle risposte, certamente la rete è un problema quando la velocità di scambio dati tra i vari processi è un fattore di primaria importanza, e naturalmente, come ha fatto notare qualcuno, non si capisce chi deve sostenere i costi.

Ultima modifica di Pier2204 : 20-12-2010 alle 18:28.
Pier2204 è offline   Rispondi citando il messaggio o parte di esso
Old 21-12-2010, 17:47   #20
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 260
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Dipende, ma in genere no.
Il problema e' come sono fatti quei calcoli, non basta dire "paralleli", ci sono molti tipi di "parallelo" diversi.

Ad esempio, considera un problema standard in moltissimi campi, quello dell'evoluzione di unn sistema particellare (o un'analisi a elementi finiti, fondamentalmente e' lo stesso). Il problema si affronta cosi': hai un volume con all'interno un tot di "particelle", dove ogni particella interagisce con le altre (gravita', se la "particelle" sono stelle in una simulazione astronomica; equazioni quantistiche, se le particelle sono atomi, eccetera); parti dalla condizioen iniziale al tempo 0; poi calcola tutte le forze, calcola come le particelle si muovono a causa di queste forze, e calcola la nuova posizione al tempo t1; ora ricalcola tutte le forze per la nuova configurazione, applica le forze, e ottieni la posizione al tempo t2; ... e prosegui cosi' per molto tempo (possono essere milioni di step, o miliardi, o miliardi di miliardi, a seconda di cosa vuoi simulare).

Come si parallelizza un problema del genere? Suddividi il volume in tanti volumetti, assegna ogni volumetto ad un processore, che calcola uno step (es. l'evoluzione da t0 a t1); tutti i volumetti sono calcolati in parallelo... ma alla fine, tutti i processori devono scambiarsi i dati, vuoi perche' una particella potrebbe essere passata da un volume ad un altro, vuoi perche' cmq devi tenere conto delle forze non solo nel tuo volume, ma anche in quelli vicini (con delle semplificazioni, ad es. potresti tenere conto solo dei volumi di fianco al tuo, perche' gli altri sono troppo lontani per avere effetto, eccetera).

Quindi, funziona cosi':
* calcolo step 1, parallelo
* barriera: sincronizzazione di tutti i processori, tutti devono raggiungere questa barriera e scambiarsi i dati prima di procedere
* calcolo step 2, in parallelo
* barriera: sincronizzazione di tutti i processori
* ...

Ora, in un supercomputer hai decine di migliaia di nodi, quindi puoi dividere in un sacco di volumetti e calcolarli in parallelo. Ma hai anche una rete velocissima per scambiare dati tra i processori, che e' fondamentale per fare in fretta la fase di sincronizzazione (la "barriera").

Considera ora un sistema tipo BOINC: puoi anche avere milioni di computer, e quindi fare molto in fretta i calcoli paralleli; ma poi devi sincronizzare tutti... e li' non ce la fai: magari un task e' andato perso perche' uno ha spento il computer o si e' sconnesso dalla rete, oppure uno ha un computer lentissimo e ci mette piu' tempo degli altri a calcolare il suo task, e tutti devono aspettare lui... metti anche solo che in 10 secondi riesci a distribuire un milione di task in giro per il mondo, farli elaborare, e raccoglierli (che e' completamente irrealistico); gia' solo per eseguire un milione di step ti servirebbero 10^7 secondi, cioe' 115 giorni, di cui magari 1 giorno di calcoli, e il resto di sincronizzazione

Non funziona, proprio no, a meno di non avere un problema parallelizzabile in modo diverso, ad es. un problema scomponibile in pezzi completamente scorrelati, come ad es. (non a caso, ovviamente il programma del SETI o Folding.
Ma la maggior parte dei problemi non si parallelizzano in quel modo.
Pleg è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Comparativa tra WiFi System: alla ricerca della connessione perfetta Comparativa tra WiFi System: alla ricerca della ...
PaintShop Pro 2018, Corel aggiorna la sua alternativa a Photoshop PaintShop Pro 2018, Corel aggiorna la sua altern...
Recensione Wolfenstein II: ambizione a livelli estremi Recensione Wolfenstein II: ambizione a livelli e...
AMD riscrive i propri driver con Radeon Software Adrenalin Edition AMD riscrive i propri driver con Radeon Software...
Epson EcoTank 7700, la carica di inchiostro dura 3 anni Epson EcoTank 7700, la carica di inchiostro dura...
Call of Duty: WWII gioco più venduto in ...
Quake Champions: l'aggiornamento di dice...
Tesla Semi Truck: ordinate 100 unit&agra...
Company of Heroes 2 gratis su Humble Bun...
Vernee X, in arrivo lo smartphone full-s...
NASA e Google: scoperto un nuovo Sistema...
Vivo avrà il primo smartphone con...
3 droni in offerta su TomTop
Cherry, tastiera Strait 3.0 per Mac: l'e...
Samsung Galaxy S8 e S8+: Android 8.0 Ore...
Injustice 2: demo disponibile su PlaySta...
Ulefone Power 3: scopri le potenzialit&a...
Crytek cita in giudizio Cloud Imperium a...
Happy Hacking Keyboard Professional 2 ar...
Qualcomm, ZTE e Wind Tre annunciano la s...
Dropbox
ICQ
Chromium
Avira Internet Security Suite
PCMark 8
Avira Free Antivirus
Opera 49
VLC Media Player
Backup4all
CCleaner Standard
IsoBuster
3DMark
IObit Uninstaller
Advanced SystemCare
K-Lite Codec Pack Update
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:40.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2017, Jelsoft Enterprises Ltd.
Served by www2v
1