Torna indietro   Hardware Upgrade Forum > Software > Programmazione

Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
Abbiamo provato le nuove CPU Intel Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: più core e ottimizzazioni al funzionamento interno migliorano le prestazioni, anche in virtù di prezzi annunciati interessanti. A questo si aggiungono nuove ottimizzazioni software. Purtroppo, a fronte di prestazioni di calcolo elevate, il quadro rimane incerto nel gaming, dove l'andamento rimane altalenante. Infine, rimane il problema della piattaforma a fine vita.
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Il modello "build to order" di PCSpecialist permette di selezionare una struttura base per un sistema, personalizzandolo in base alle specifiche esigenze con una notevole flessibilità di scelta tra i componenti. Il modello Lafité 14 AI AMD è un classico notebook clamshell compatto e potente, capace di assicurare una elevata autonomia di funzionamento anche lontano dalla presa di corrente
Recensione Nothing Phone 4(a): sempre iconico ma ora più concreto
Recensione Nothing Phone 4(a): sempre iconico ma ora più concreto
Nothing con il suo nuovo Phone 4(a) conferma la sua identità visiva puntando su una costruzione che nobilita il policarbonato. La trasparenza resta l'elemento cardine, arricchita da una simmetria interna curata nei minimi dettagli. Il sistema Glyph si evolve, riducendosi nelle dimensioni ma aumentando l'utilità quotidiana grazie a nuove funzioni software integrate e notifiche visive. Ecco tutti i dettagli nella recensione completa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 27-11-2008, 13:26   #1
The_ouroboros
Senior Member
 
L'Avatar di The_ouroboros
 
Iscritto dal: May 2007
Città: Milano
Messaggi: 7103
[Generico]Parallel computing

Chi mi sa dire di sull'argomento Parallel computing..
E soprattutto, oltre a OpenMp che in gcc è supportato... esiste altro?


Grazie
__________________
Apple Watch Ultra + iPhone 15 Pro Max + Rog Ally + Legion Go
The_ouroboros è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2008, 19:27   #2
The_ouroboros
Senior Member
 
L'Avatar di The_ouroboros
 
Iscritto dal: May 2007
Città: Milano
Messaggi: 7103
up
__________________
Apple Watch Ultra + iPhone 15 Pro Max + Rog Ally + Legion Go
The_ouroboros è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2008, 21:22   #3
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
M'era sfuggito questo thread. Ecco qui: http://docs.python.org/library/multi...ultiprocessing
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2008, 23:39   #4
The_ouroboros
Senior Member
 
L'Avatar di The_ouroboros
 
Iscritto dal: May 2007
Città: Milano
Messaggi: 7103
quanto amo il python
__________________
Apple Watch Ultra + iPhone 15 Pro Max + Rog Ally + Legion Go
The_ouroboros è offline   Rispondi citando il messaggio o parte di esso
Old 10-12-2008, 15:07   #5
gugoXX
Senior Member
 
L'Avatar di gugoXX
 
Iscritto dal: May 2004
Città: Londra (Torino)
Messaggi: 3692
Per C#, oltre alle altre varie cose native, c'e' anche il PLINQ.
P.es. se si volesse calcolare il massimo valore di un vettore (molto lungo...)

Codice:
// Codice normale
int max = Vect.Max();

/Codice parallelo
int max = Vect.AsParallel().Max();
Se invece vuoi renderizzare un'immagine, passando attraverso uno dei modelli tipo Phong o Radiosity (o una qualsiasi funzione lenta da ripetere piu' volte con input diversi)
Codice:
// Codice normale
for(int y=0; y<maxY; y++)
{
   for(int x=0; x<maxX; x++)
   {
      Pixel[y,x] = Radiosity(map, y, x);
   }
}

//Codice Parallelo
Parallel.For(0, MaxY, y=>
{
   for(int x=0; x<maxX; x++)
   {
      Pixel[y,x] = Radiosity(map, y, x);
   }
});
__________________
Se pensi che il tuo codice sia troppo complesso da capire senza commenti, e' segno che molto probabilmente il tuo codice e' semplicemente mal scritto.
E se pensi di avere bisogno di un nuovo commento, significa che ti manca almeno un test.
gugoXX è offline   Rispondi citando il messaggio o parte di esso
Old 10-12-2008, 23:27   #6
malocchio
Senior Member
 
L'Avatar di malocchio
 
Iscritto dal: Feb 2007
Città: Verona
Messaggi: 1060
Non per tirarmela, ma Java ha una gestione del multi-threading invidiata da tutti.


prevedo risposte astiose
__________________
malocchio è offline   Rispondi citando il messaggio o parte di esso
Old 10-12-2008, 23:47   #7
gugoXX
Senior Member
 
L'Avatar di gugoXX
 
Iscritto dal: May 2004
Città: Londra (Torino)
Messaggi: 3692
Quote:
Originariamente inviato da malocchio Guarda i messaggi
Non per tirarmela, ma Java ha una gestione del multi-threading invidiata da tutti.


prevedo risposte astiose
Una volta.
__________________
Se pensi che il tuo codice sia troppo complesso da capire senza commenti, e' segno che molto probabilmente il tuo codice e' semplicemente mal scritto.
E se pensi di avere bisogno di un nuovo commento, significa che ti manca almeno un test.
gugoXX è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 00:11   #8
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12112
Quote:
Originariamente inviato da malocchio Guarda i messaggi
Non per tirarmela, ma Java ha una gestione del multi-threading invidiata da tutti.


prevedo risposte astiose
prova a fare in java, in maniera semplice, qualcosa di equivalente a quello che ha scritto gugoxx fatto in C# con il PLINQ e posta il codice
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:35   #9
banryu79
Senior Member
 
L'Avatar di banryu79
 
Iscritto dal: Oct 2007
Città: Padova
Messaggi: 4131
Quote:
Originariamente inviato da ^TiGeRShArK^ Guarda i messaggi
prova a fare in java, in maniera semplice, qualcosa di equivalente a quello che ha scritto gugoxx fatto in C# con il PLINQ e posta il codice
Quoto, e guardando il codice per il parallellismo in C# postato da GugoXX, invidio questa caratteristica (lavoro in Java).

In Java hai il multithreading, è vero, ma non hai il parallellismo ne lo puoi implementare facilmente.
Creare più thread non significa che in una macchina dual core, ad esempio, i thread verranno ripartiti su entrambe le cpu: dato che appartengono comunque allo stesso processo che li ha creati (la nostra applicazione) andranno in esecuzione comunque su una singola cpu (anche perchè essendo dei Thread e non dei Processi, condividono appunto lo stesso contesto e lo spazio di memoria allocato per il Processo da cui vengono creati).

Io almeno la sapevo così.

@EDIT (per i posteri):
Ho detto cazzate, questo mio post è fuffa.
__________________

As long as you are basically literate in programming, you should be able to express any logical relationship you understand.
If you don’t understand a logical relationship, you can use the attempt to program it as a means to learn about it.
(Chris Crawford)

Ultima modifica di banryu79 : 11-12-2008 alle 09:54.
banryu79 è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:39   #10
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12112
Quote:
Originariamente inviato da banryu79 Guarda i messaggi
Quoto, e guardando il codice per il parallellismo in C# postato da GugoXX, invidio questa caratteristica (lavoro in Java).

In Java hai il multithreading, è vero, ma non hai il parallellismo ne lo puoi implementare facilmente.
Creare più thread non significa che in una macchina dual core, ad esempio, i thread verranno ripartiti su entrambe le cpu: dato che appartengono comunque allo stesso processo che li ha creati (la nostra applicazione) andranno in esecuzione comunque su una singola cpu (anche perchè essendo dei Thread e non dei Processi, condividono appunto lo stesso contesto e lo spazio di memoria allocato per il Processo da cui vengono creati).

Io almeno la sapevo così.
no, i thread girano su + core dato che sono definiti come la minima unità di esecuzione sequenziale o qualcosa del genere
Infatti se provi a lanciare il codice di gugoxx vedi nel task manager un unico processo, ma il lavoro è suddiviso in n thread
questa limitazione invece c'è in python, ma è dovuta + che altro al global interlock..o come diamine si chiama
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:44   #11
gugoXX
Senior Member
 
L'Avatar di gugoXX
 
Iscritto dal: May 2004
Città: Londra (Torino)
Messaggi: 3692
Si, vero, per fortuna i Thread vengono ripartiti tra le CPU. Condividono si' la stessa memoria, che appunto e' unica per tutta la macchina.
Diverso e' il discorso delle cache dedicata ad ogni singolo core/processore, e li' appunto si annida qualche problema del parallelismo.
__________________
Se pensi che il tuo codice sia troppo complesso da capire senza commenti, e' segno che molto probabilmente il tuo codice e' semplicemente mal scritto.
E se pensi di avere bisogno di un nuovo commento, significa che ti manca almeno un test.
gugoXX è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:50   #12
banryu79
Senior Member
 
L'Avatar di banryu79
 
Iscritto dal: Oct 2007
Città: Padova
Messaggi: 4131
Quote:
Originariamente inviato da ^TiGeRShArK^ Guarda i messaggi
snip
Ok, mi hanno raccontato mezza fuffa allora, o son io che mi ricordo male e ho fatto un pastrocchio in testa
__________________

As long as you are basically literate in programming, you should be able to express any logical relationship you understand.
If you don’t understand a logical relationship, you can use the attempt to program it as a means to learn about it.
(Chris Crawford)
banryu79 è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:50   #13
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12112
Quote:
Originariamente inviato da gugoXX Guarda i messaggi
Si, vero, per fortuna i Thread vengono ripartiti tra le CPU. Condividono si' la stessa memoria, che appunto e' unica per tutta la macchina.
Diverso e' il discorso delle cache dedicata ad ogni singolo core/processore, e li' appunto si annida qualche problema del parallelismo.
tipo quello che avevi detto che ti era capitato per via delle dipendenze nascoste create implicitamente da plinq?
ma cos'era capitato di preciso?
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 09:55   #14
banryu79
Senior Member
 
L'Avatar di banryu79
 
Iscritto dal: Oct 2007
Città: Padova
Messaggi: 4131
Quote:
Originariamente inviato da gugoXX Guarda i messaggi
Si, vero, per fortuna i Thread vengono ripartiti tra le CPU. Condividono si' la stessa memoria, che appunto e' unica per tutta la macchina.
Diverso e' il discorso delle cache dedicata ad ogni singolo core/processore, e li' appunto si annida qualche problema del parallelismo.
Um, ok adesso mi è più chiaro, grazie.
__________________

As long as you are basically literate in programming, you should be able to express any logical relationship you understand.
If you don’t understand a logical relationship, you can use the attempt to program it as a means to learn about it.
(Chris Crawford)
banryu79 è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 10:01   #15
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da ^TiGeRShArK^ Guarda i messaggi
no, i thread girano su + core dato che sono definiti come la minima unità di esecuzione sequenziale o qualcosa del genere
Infatti se provi a lanciare il codice di gugoxx vedi nel task manager un unico processo, ma il lavoro è suddiviso in n thread
questa limitazione invece c'è in python, ma è dovuta + che altro al global interlock..o come diamine si chiama
Sì (si chiama GIL: Global Interpreter Lock), ma una limitazione che è stata superata in Python 2.6 e 3.0 con l'uso della libreria multiprocessing di cui ho postato il link prima.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 10:02   #16
gugoXX
Senior Member
 
L'Avatar di gugoXX
 
Iscritto dal: May 2004
Città: Londra (Torino)
Messaggi: 3692
Quote:
Originariamente inviato da ^TiGeRShArK^ Guarda i messaggi
tipo quello che avevi detto che ti era capitato per via delle dipendenze nascoste create implicitamente da plinq?
ma cos'era capitato di preciso?
La dipendenza era implicita ma a livello hardware. PLINQ poteva farci poco ed era colpa mia.
Era capitato che, nello scrivere il risultato vettoriale di un processo in un array di interi a 32bit, avessi spaccato il ciclo in 2, scrivendo semplicemente con un thread negli indici pari del vettore, e con un altro thread negli indici dispari.
In teoria tutto bene, gli indici erano deterministicamente suddivisi, non c'era condivisione di memoria e non c'era quindi da piazzare nessun lock esplicito.

Ma non c'era nessuna differenza con il singolo thread. Anzi, c'era addirittura un peggioramento e non capivo il perche'.

Leggendo qua e la' ho poi capito il perche'.
Le linee di cache del mio microprocessore sono a 64bit. Capitava quindi che nello scrivere un int32 da parte del processo del core che scriveva sugli indici pari nella propria cache, si attivasse il processo di snooping hardware che lockava la cella corrispondente nella cache dell'altro core, che corrispondeva guarda caso proprio all'indice dispari che sarebbe stato scritto da questo core in questo ciclo.

Peggio che un processo monothread.

Soluzione: Spaccare il ciclo in 2, assegnando il lavoro 0 -> N/2 al primo core e N/2 -> N al secondo core.
Nei parallelismi in cui si sfrutta il parallelismo per eseguire tante operazioni semplici, non bisognerebbe quindi mai spaccare pari/dispari o consecutivi.
Nel caso di parallelismi in cui si sfrutta il parallelismo per eseguire poche operazioni complesse questo effetto e' invece mascherato e si puo' ignorare.
__________________
Se pensi che il tuo codice sia troppo complesso da capire senza commenti, e' segno che molto probabilmente il tuo codice e' semplicemente mal scritto.
E se pensi di avere bisogno di un nuovo commento, significa che ti manca almeno un test.
gugoXX è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 10:02   #17
The_ouroboros
Senior Member
 
L'Avatar di The_ouroboros
 
Iscritto dal: May 2007
Città: Milano
Messaggi: 7103
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Sì (si chiama GIL: Global Interpreter Lock), ma una limitazione che è stata superata in Python 2.6 e 3.0 con l'uso della libreria multiprocessing di cui ho postato il link prima.
ho gia detto che amo il python?
__________________
Apple Watch Ultra + iPhone 15 Pro Max + Rog Ally + Legion Go
The_ouroboros è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 10:07   #18
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12112
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Sì (si chiama GIL: Global Interpreter Lock), ma una limitazione che è stata superata in Python 2.6 e 3.0 con l'uso della libreria multiprocessing di cui ho postato il link prima.
mmmm...
non mi pare..
quella non serve per creare + processi?
La limitazione sui thread in parallelo c'è sempre, quello che è stata aggiunta è la possibilità di utilizzare più facilmente dei processi in parallelo se non ricordo male
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 10:11   #19
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12112
Quote:
Originariamente inviato da gugoXX Guarda i messaggi
La dipendenza era implicita ma a livello hardware. PLINQ poteva farci poco ed era colpa mia.
Era capitato che, nello scrivere il risultato vettoriale di un processo in un array di interi a 32bit, avessi spaccato il ciclo in 2, scrivendo semplicemente con un thread negli indici pari del vettore, e con un altro thread negli indici dispari.
In teoria tutto bene, gli indici erano deterministicamente suddivisi, non c'era condivisione di memoria e non c'era quindi da piazzare nessun lock esplicito.

Ma non c'era nessuna differenza con il singolo thread. Anzi, c'era addirittura un peggioramento e non capivo il perche'.

Leggendo qua e la' ho poi capito il perche'.
Le linee di cache del mio microprocessore sono a 64bit. Capitava quindi che nello scrivere un int32 da parte del processo del core che scriveva sugli indici pari nella propria cache, si attivasse il processo di snooping hardware che lockava la cella corrispondente nella cache dell'altro core, che corrispondeva guarda caso proprio all'indice dispari che sarebbe stato scritto da questo core in questo ciclo.

Peggio che un processo monothread.

Soluzione: Spaccare il ciclo in 2, assegnando il lavoro 0 -> N/2 al primo core e N/2 -> N al secondo core.
Nei parallelismi in cui si sfrutta il parallelismo per eseguire tante operazioni semplici, non bisognerebbe quindi mai spaccare pari/dispari o consecutivi.
Nel caso di parallelismi in cui si sfrutta il parallelismo per eseguire poche operazioni complesse questo effetto e' invece mascherato e si puo' ignorare.
ah ok capito + o -..
anche se mi sfugge il fatto per cui venisse bloccato l'indice corrispondente alla stessa linea di cache nell'altro core..
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 11-12-2008, 11:31   #20
das
Senior Member
 
Iscritto dal: Jan 2001
Città: Livorno
Messaggi: 1385
Quote:
Originariamente inviato da gugoXX Guarda i messaggi
La dipendenza era implicita ma a livello hardware. PLINQ poteva farci poco ed era colpa mia.
Era capitato che, nello scrivere il risultato vettoriale di un processo in un array di interi a 32bit, avessi spaccato il ciclo in 2, scrivendo semplicemente con un thread negli indici pari del vettore, e con un altro thread negli indici dispari.
In teoria tutto bene, gli indici erano deterministicamente suddivisi, non c'era condivisione di memoria e non c'era quindi da piazzare nessun lock esplicito.

Ma non c'era nessuna differenza con il singolo thread. Anzi, c'era addirittura un peggioramento e non capivo il perche'.

Leggendo qua e la' ho poi capito il perche'.
Le linee di cache del mio microprocessore sono a 64bit. Capitava quindi che nello scrivere un int32 da parte del processo del core che scriveva sugli indici pari nella propria cache, si attivasse il processo di snooping hardware che lockava la cella corrispondente nella cache dell'altro core, che corrispondeva guarda caso proprio all'indice dispari che sarebbe stato scritto da questo core in questo ciclo.

Peggio che un processo monothread.

Soluzione: Spaccare il ciclo in 2, assegnando il lavoro 0 -> N/2 al primo core e N/2 -> N al secondo core.
Nei parallelismi in cui si sfrutta il parallelismo per eseguire tante operazioni semplici, non bisognerebbe quindi mai spaccare pari/dispari o consecutivi.
Nel caso di parallelismi in cui si sfrutta il parallelismo per eseguire poche operazioni complesse questo effetto e' invece mascherato e si puo' ignorare.
Come hai fatto ad accorgertene ?
das è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte Core Ultra 7 270K Plus e Core Ultra 7 250K Plus:...
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu PC Specialist Lafité 14 AI AMD: assemblat...
Recensione Nothing Phone 4(a): sempre iconico ma ora più concreto Recensione Nothing Phone 4(a): sempre iconico ma...
Corsair Vanguard Air 99 Wireless: non si era mai vista una tastiera gaming così professionale Corsair Vanguard Air 99 Wireless: non si era mai...
Ecovacs DEEBOT T90 PRO OMNI: ora il rullo di lavaggio è ampio Ecovacs DEEBOT T90 PRO OMNI: ora il rullo di lav...
iPad 12 arriverà nel 2026 e sar&a...
AMD per il futuro dell'IA in Corea del S...
L'IA agentica incrementa il rischio cybe...
Rapporto Clusit 2026: finanza e infrastr...
Gli stessi sali che solidificano il tofu...
Il conflitto in Medio Oriente minaccia l...
OnlyFans, scomparso il proprietario Leon...
Le migliori offerte Amazon da leggere in...
Recensioni su Trustpilot non affidabili,...
Il CISPE denuncia Broadcom all'antitrust...
Il cyberattacco che negli Usa ha trasfor...
AI Grid Intelligent Orchestration, l'inf...
Roborock Qrevo CURV 2 Flow X: tecnologia...
Quanto viaggia il modem di iPhone Air? I...
300 GB di memoria RAM per le future gene...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 06:44.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v