Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
Abbiamo visto ancora una volta la Formula E da vicino, ospiti di Jaguar TCS Racing. In questa occasione però curve e rettilinei erano quelli di un circuito permanente, molto diverso dagli stretti passaggi delle strade di Roma
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming
Lenovo ha puntato forte sul gaming negli ultimi anni e lo testimoniano i marchi LEGION e LOQ, il primo per gli amanti delle massime prestazioni e dell'assenza di compromessi, il secondo per chi desidera soluzioni dal buon rapporto tra prestazioni e prezzo. Abbiamo provato due esponenti dell'offerta, così da capire l'effettiva differenza prestazionale.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 20-12-2010, 08:09   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75175
Link alla notizia: http://www.businessmagazine.it/news/...ndo_34824.html

Architettura con soli processori Intel Xeon di prossima generazione quella scelta per una nuova installazione in Germania, sviluppata in collaborazione con IBM

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 08:31   #2
mircocatta
Senior Member
 
Iscritto dal: Sep 2007
Messaggi: 15700
ci potrebbe girare crysis in ray tracing volendo
mircocatta è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 08:54   #3
homero
Senior Member
 
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
fanno proprio ridere

14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......



homero è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:02   #4
jpjcssource
Senior Member
 
L'Avatar di jpjcssource
 
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5097
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio?
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD
jpjcssource è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:14   #5
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6521
Quote:
Originariamente inviato da homero Guarda i messaggi
14000 processori xeon....un supercomputer del cavolo....
come li calcolano i petaflop?
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
ho riletto il post un paio di volte ma non ho capito cosa stai dicemdo

cosa singifica "un supercomputer del cavolo...." se quello piu veloce al mondo è del cavolo allora gli altri cosa sono?

rimpiangi la sgi ti ricordo che la sgi è ormai defunta proprio a causa della loro tecnologia mips che era ormai è morta perche superata dal x64, anche la sgi alla fine prima di morire si era messa a vendere server x64 ma a quel punto uil mercat oera pieno di validi concorrenti e quindi non aveva piu un vantaggio storico come ai tempi d'oro.

"resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori" e l'aternativa è ?????????????????????? usarne 13999 oppure 140001 dal tuo post non si capisce cosa intendi.

Ti risocrdo che l'attaule supercomputer pu veloce al mondo usa piu cpu e molte gpu eppure risulta piu lento di questo come specifiche quindi mi sembra un grande passo avanti usare molto meno hardware per ottenere un risultato superiore.

Ultima modifica di coschizza : 20-12-2010 alle 09:19.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:17   #6
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6521
Quote:
Originariamente inviato da jpjcssource Guarda i messaggi
Sticazzi! 3 Peta senza GPU, ne deduco però che l'attuale leader supererà questo mostro nei tipi di calcoli in cui le sue Tesla andranno a nozze visto che il benchmark per stabilire la classifica del top500 non è ottimizzato per le GPU oppure sbaglio?
verissimo ma vale anche l'opposto cioè il tesla serveno ben poco in molti tipi di calcolo paralleli che poco si prestano o proprio non possono essere eseguiti su delle gpu invece che una cpu.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 09:54   #7
Oenimora
Senior Member
 
L'Avatar di Oenimora
 
Iscritto dal: Jun 2010
Messaggi: 410
E pensare che il più veloce attualmente è cinese, il Tianhe-1A, con un Rmax di 2,566 Petaflops. I Cinesi hanno ben 41 sistemi nella Top500. Giappone, Francia, Germania ne hanno 26 a testa e almeno uno nei primi dieci. L'UK 25. L'Italia 6... e il più veloce è al 95 posto. La Svizzera ne ha 4, ma con performance nettamente migliori di quelli italiani. Siamo messi bene...
Oenimora è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:02   #8
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 5315
Quote:
Originariamente inviato da homero Guarda i messaggi
14000 processori xeon....un supercomputer del cavolo....
eh?
Quote:
Originariamente inviato da homero Guarda i messaggi
come li calcolano i petaflop?
a mano: uno, due, tre..
Quote:
Originariamente inviato da homero Guarda i messaggi
rimpiango i sistemi SGI di una volta....con 256 cpu mips a 64bit....
oggi pero' sgi è avanti con le soluzioni Hybrid cluster...in cui processori diversi sono armanonizzati in un'unica struttura elaborativa...
come al solito sgi è rivoluzionaria nei suoi progetti rendendo la parte software il centro principale di un supercomputer.......
boh, questa non la so, ma non credo che gli altri siano così grulli.
Quote:
Originariamente inviato da homero Guarda i messaggi
resta il fatto che non è ad oggi pensabile continuare ad usare sistemi di calcolo con 14.000 processori....e tutto questo dimostra che la tecnologia dei microprocessori è attualmente ferma......
eh?

facciamo così, ti concedo il beneficio del dubbio e ti invito a spiegare meglio. Altrimenti la risposta è TSO!!
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 10:08   #9
iorfader
Senior Member
 
L'Avatar di iorfader
 
Iscritto dal: Nov 2010
Città: tra le colline calabresi
Messaggi: 5300
che vuol dire TSO?

cmq l'italia è un paese vecchio, ancora non hanno capito che l'informatica è il futuro
iorfader è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 11:20   #10
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 5315
trattamento sanitario obbligatorio... l' ho detto a battuta ma - seriamente - non ho trovato un senso al discorso di homero
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 11:24   #11
rb1205
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 627
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
rb1205 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 11:59   #12
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6521
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
"con molte meno risorse si potevano raggiungere quelle prestazioni"

solo una domadna : come?

se a loro serva una potenza pari a 10 ci devono mettere dentro cpu che diano potenza pari a 10, mica stiamo parlando di un pc di casa assemblato ma di un supercomputer sviluppano in anni di lavoro che che richiede anche centinaia di persone costantemente impegnate a mantenerlo operativo.

Forse homero intendeva dire: se mi serve potenza 10 allora mettro delle cpu che mi diano potenza 5 e delle gpu che mi dirano il restante 5. Il problema di questo approccio è che magari la potenza 5 data dalla gpu non è utilizzabile perche le applicazioni che devi far girare non sono gestibili tramite gpgpu (cosa molto comune) quindi ti trovaresti un sistema piu complesso piu costoso è con una potenza totale inferiore a quello che ti serve.

I sistemi ibridi vengono usati gia oggi sul supercomputer che ha l'attuale 1 posizione, ma si usano solo se ti danno un vantaggio Altrimenti non servono a nulla.

Ti faccio un esempio in piccolo, immagina che io devo farmi un supercomputer per casa e mi serve per usare il 3dsmax in rendering, allora punto tutto sulla cpu perche le gpu non mi servono a nulla in questo caso (e posso unsare anche una gpu integrata come faccio io realmente), se invece punto tutto sul rendering e sulla modellazione 3d allora devo bilanciare la potenza anche su una gpu discreta di livello, se invece devo fare solo modellazione e 0 rendering allora la gpu sara l'investimento principale. Spero che hai capito come si va a decidere che hardware deve unare un supercomputer.

GPU e CPU non sono intercambiabili.

Ultima modifica di coschizza : 20-12-2010 alle 12:09.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 12:23   #13
Pier2204
Bannato
 
Iscritto dal: Sep 2008
Messaggi: 8946
Quote:
Originariamente inviato da coschizza Guarda i messaggi
"con molte meno risorse si potevano raggiungere quelle prestazioni"

solo una domadna : come?

.
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
Pier2204 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 13:13   #14
jpjcssource
Senior Member
 
L'Avatar di jpjcssource
 
Iscritto dal: Sep 2005
Città: Ferrara (cs_italy)
Messaggi: 5097
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
__________________
Asrock Z68 Extreme4Gen3, Core i5 2500K@3,7Ghz, Radeon HD6950 2GB, 4x1 GB OCZ PC3-12800 DDR3 1600MHz, Iiyama Prolite B2403WS LCD 24" + Plasma Panasonic 50VT20E 3D, SSD Crucial M4 256GB, WD Caviar 250GB Sata II 16MB, Alice Flat 2 Mbit/s , PS3 Slim 120GB HALF LIFE 2: LE MIGLIORI MOD
jpjcssource è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 14:00   #15
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6521
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?

Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 14:07   #16
rb1205
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 627
Quote:
Originariamente inviato da coschizza Guarda i messaggi
solo una domadna : come?
è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero.

Quote:
Originariamente inviato da Pier2204
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS.
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
rb1205 è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 14:27   #17
Opteranium
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 5315
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
Immagino che homero intenda che fare un supercomputer così potente basato solo su un numero elevatissimo di cpu è uno spreco considerando che con molte meno risorse si potevano raggiungere quelle prestazioni con un sistema ibrido, o maggiori prestazioni a parità di risorse.
vi ringrazio per le risposte, ma fatelo dire a lui... Solo allora riconsidererò l' ipotesi del trattamento

e, a parte gli scherzi, tu parli di «spreco, troppe cpu, magari si poteva fare di più e con meno». Due cose:

1. chi lo ha progettato non sarà un venditore di tostapane;
2. se guardate la top500 e prendete il Jaguar (II posto), noterete un totale di 226 mila e passa core, nella pratica oltre 37 mila cpu Opteron, per un massimo stabile di 1,7 PFlop.

questo avrà poco più di 1/3 dei suddetti core, ma una potenza superiore. E lo chiamate spreco?

Terza e ultima cosa, come altri hanno detto, le gpu vanno bene per molto ma non per tutto. Se l' obiettivo di questo aggeggio esula dal loro campo non vedo grosse alternative..
Opteranium è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 15:42   #18
D1o
Senior Member
 
L'Avatar di D1o
 
Iscritto dal: Dec 2005
Messaggi: 1119
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?

Per quanto un supercomputer è potente non raggiungerà mai la potenza di migliaia di macchine in parallelo..

Naturalmente se questo è fattibile.
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.

non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza.
D1o è offline   Rispondi citando il messaggio o parte di esso
Old 20-12-2010, 17:25   #19
Pier2204
Bannato
 
Iscritto dal: Sep 2008
Messaggi: 8946
Quote:
Originariamente inviato da jpjcssource Guarda i messaggi
Quindi spargi per il mondo pacchetti di dati riguardanti progetti di ricerca riservati o addirittura top secret di importanza strategica per le aziende del tuo paese e per le tue forze armate?
Il calcolo distribuito non è la panacea di tutti i mali.
Certamente no, non so perche in Germania hanno commissionato un computer simile, se riguarda settori di interesse strategico Nazionale o Militare è chiaro che non è possibile, io parlo di settori di interesse globale, per fare esempi: lo studio di eventi sismici, lo studio del clima a livello globale, il calcolo delle risorse fossili e non..sarebbero molti i settori dove il calcolo distribuito potrebbe essere un vantaggio per tutti.

Quote:
Originariamente inviato da coschizza Guarda i messaggi
certamente ,questo gia si fa oggi con varie ricerche ma il problema è: di chi sono i computer?, chi li finanzia?, chi paga l'energia elettrica? chi mantiente l'integrita del tato e la tutela alla privacy nel caso sia necessario?

Ci sono progetti come SETI@home e Folding@home che fanno questo ma dipende da chi deve fare al ricerca e che fondi ha, inoltre quali sono le elaborazioni da fare. Non puoi mica delegare al mondo l'elaborazione di dati strategici per una ricerca senza poter essere sicuro che il tutto funzioni a dovere inoltre certi calcoli devono avvenire con grande interazione tra i processi e questo richiede server vicini o attaccati non con il mondo di internet in mezzo che li separa.
Quote:
Originariamente inviato da rb1205 Guarda i messaggi
è scritto appena dopo la frase che hai quotato: con un sistema ibrido. Lo so bene che c'è differenza fra CPU e GPU, e che un sistema ibrido è meno flessibile di uno a sole CPU, ma ricordati che quello che stavo facendo era cercare d'interpretare il pensiero di homero.



Quello si fa già per molti progetti e si chiama, appunto, calcolo distribuito. Molti sono basati su normalissimi PC di donatori sparsi per il mondo; ad esempio il maggiore, Folding@Home, è il sistema informatico con la maggior potenza teorica al mondo: sviluppa l'equivalente di 10 PFLOPS.
Tuttavia un sistema del genere comporta molte problematiche: la pesante limitazione delle tipologie di problemi risolvibili, i tempi necessari a completare ogni progetto, il dover mandare in chiaro i dati e i risultati delle analisi in giro per il mondo, il poco controllo sulla qualità dei solutori e tanti altri.
Quote:
Originariamente inviato da D1o Guarda i messaggi
è fattibile (e come detto da altri viene fatto) se si devono eseguire tanti calcoli singoli e non è necessaria interazione e scambio di dati tra i vari nodi. altrimenti la lentezza della rete inficia il guadagno prestazionale dato dalla distribuzione dei calcoli.

non a caso, nelle situazioni dove è richiesto un grande scambio di informazioni tra i vari core e processori si usano le reti infiniband che costano uno sfracelo. probabilmente anche questo supercomputer tedesco avrà una situazione del genere.
Grazie delle risposte, certamente la rete è un problema quando la velocità di scambio dati tra i vari processi è un fattore di primaria importanza, e naturalmente, come ha fatto notare qualcuno, non si capisce chi deve sostenere i costi.

Ultima modifica di Pier2204 : 20-12-2010 alle 17:28.
Pier2204 è offline   Rispondi citando il messaggio o parte di esso
Old 21-12-2010, 16:47   #20
Pleg
Member
 
Iscritto dal: Sep 2007
Messaggi: 265
Quote:
Originariamente inviato da Pier2204 Guarda i messaggi
Non so se l'idea è peregrina oppure attuabile, ma invece che usare un supercomputer monolitico, non è meglio distribuire i calcoli su un un numero considerevole di Computer sparsi nel mondo?
Dipende, ma in genere no.
Il problema e' come sono fatti quei calcoli, non basta dire "paralleli", ci sono molti tipi di "parallelo" diversi.

Ad esempio, considera un problema standard in moltissimi campi, quello dell'evoluzione di unn sistema particellare (o un'analisi a elementi finiti, fondamentalmente e' lo stesso). Il problema si affronta cosi': hai un volume con all'interno un tot di "particelle", dove ogni particella interagisce con le altre (gravita', se la "particelle" sono stelle in una simulazione astronomica; equazioni quantistiche, se le particelle sono atomi, eccetera); parti dalla condizioen iniziale al tempo 0; poi calcola tutte le forze, calcola come le particelle si muovono a causa di queste forze, e calcola la nuova posizione al tempo t1; ora ricalcola tutte le forze per la nuova configurazione, applica le forze, e ottieni la posizione al tempo t2; ... e prosegui cosi' per molto tempo (possono essere milioni di step, o miliardi, o miliardi di miliardi, a seconda di cosa vuoi simulare).

Come si parallelizza un problema del genere? Suddividi il volume in tanti volumetti, assegna ogni volumetto ad un processore, che calcola uno step (es. l'evoluzione da t0 a t1); tutti i volumetti sono calcolati in parallelo... ma alla fine, tutti i processori devono scambiarsi i dati, vuoi perche' una particella potrebbe essere passata da un volume ad un altro, vuoi perche' cmq devi tenere conto delle forze non solo nel tuo volume, ma anche in quelli vicini (con delle semplificazioni, ad es. potresti tenere conto solo dei volumi di fianco al tuo, perche' gli altri sono troppo lontani per avere effetto, eccetera).

Quindi, funziona cosi':
* calcolo step 1, parallelo
* barriera: sincronizzazione di tutti i processori, tutti devono raggiungere questa barriera e scambiarsi i dati prima di procedere
* calcolo step 2, in parallelo
* barriera: sincronizzazione di tutti i processori
* ...

Ora, in un supercomputer hai decine di migliaia di nodi, quindi puoi dividere in un sacco di volumetti e calcolarli in parallelo. Ma hai anche una rete velocissima per scambiare dati tra i processori, che e' fondamentale per fare in fretta la fase di sincronizzazione (la "barriera").

Considera ora un sistema tipo BOINC: puoi anche avere milioni di computer, e quindi fare molto in fretta i calcoli paralleli; ma poi devi sincronizzare tutti... e li' non ce la fai: magari un task e' andato perso perche' uno ha spento il computer o si e' sconnesso dalla rete, oppure uno ha un computer lentissimo e ci mette piu' tempo degli altri a calcolare il suo task, e tutti devono aspettare lui... metti anche solo che in 10 secondi riesci a distribuire un milione di task in giro per il mondo, farli elaborare, e raccoglierli (che e' completamente irrealistico); gia' solo per eseguire un milione di step ti servirebbero 10^7 secondi, cioe' 115 giorni, di cui magari 1 giorno di calcoli, e il resto di sincronizzazione

Non funziona, proprio no, a meno di non avere un problema parallelizzabile in modo diverso, ad es. un problema scomponibile in pezzi completamente scorrelati, come ad es. (non a caso, ovviamente il programma del SETI o Folding.
Ma la maggior parte dei problemi non si parallelizzano in quel modo.
Pleg è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione Nothing Ear e Ear (a): gli auricolari per tutti ...
Sony FE 16-25mm F2.8 G: meno zoom, più luce Sony FE 16-25mm F2.8 G: meno zoom, più lu...
Cuffie Sennheiser MOMENTUM 4 Wireless: q...
SSD 1080 PRO non è quello che pen...
Ring Intercom ed Echo Pop: sconto imperd...
ASML, intesa con il governo olandese: pi...
Portatile Low cost potentissimo: AMD Ryz...
I nuovi coupon nascosti di Amazon: ecco ...
Torna il super tablet da 109€ con displa...
Continuano le super offerte su Google Pi...
Meta copia Microsoft con Windows: il sis...
Blackmagic Design: arriva il nuovo softw...
La sonda spaziale NASA Voyager 1 ricomin...
Blackmagic PYXIS 6K per riprendere filma...
Sapphire Nitro+ B650I Wi-Fi: un’ottima s...
E4 Computer Engineering potenzierà...
Blackmagic URSA Cine 12K: la videocamera...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 08:41.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www2v
1