Torna indietro   Hardware Upgrade Forum > Software > Programmazione

Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
vivo X300 Pro rappresenta un'evoluzione misurata della serie fotografica del produttore cinese, con un sistema di fotocamere migliorato, chipset Dimensity 9500 di ultima generazione e l'arrivo dell'interfaccia OriginOS 6 anche sui modelli internazionali. La scelta di limitare la batteria a 5.440mAh nel mercato europeo, rispetto ai 6.510mAh disponibili altrove, fa storcere un po' il naso
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
A re:Invent 2025, AWS mostra un’evoluzione profonda della propria strategia: l’IA diventa una piattaforma di servizi sempre più pronta all’uso, con agenti e modelli preconfigurati che accelerano lo sviluppo, mentre il cloud resta la base imprescindibile per governare dati, complessità e lock-in in uno scenario sempre più orientato all’hybrid cloud
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-11-2011, 19:39   #1
Hiskrtapps
Senior Member
 
L'Avatar di Hiskrtapps
 
Iscritto dal: Nov 2000
Città: Bussero (MI)
Messaggi: 1263
Algoritmo di parallelizzazione di un processo.

Sono alle prese con la gestione della paralizzazione di alcuni processi.

Diciamo che ho un processo parallelizzabile; questo processo è gestito da un Executor che delega a più Workers parti di questo processo.

Il requisito è che questo algoritmo sia adattativo, cioè, il numero di Workers non è deciso preventivamente ma si seleziona man mano che il processo viene eseguito analizzando il throughput totale e altri dati a disposizione.

In pratica ecco i punti fondamentali:
- L'Executor parte, istanzia un Worker e gli assegna una parte di lavoro.
- Ogni volta che un Worker ha eseguito il suo lavoro richiede all'Executor nuovo lavoro; l'Executor glielo da finchè c'è Lavoro.
- Ogni tot tempo l'Executor si sveglia, controlla i dati dei suoi Workers e decide se aggiungere o rimuovere Workers o tenere invariato il loro numero, per massimizzare il loro throughput.
(Questo è necessario perchè il carico dell'ambiente su cui gira il processo è molto variabile).

I dati disposizione dell'Executor sono:
- la lunghezza del lasso di tempo dall'ultima volta che ha controllato
- unità di lavoro svolta da ogni Worker in quel lasso di tempo; la somma di tutte le unità di lavoro di tutti gli Worker in quel lasso di tempo è il throughput di quel lasso di tempo
- numero di Worker che hanno lavorato in quel lasso di tempo
- Uno storico delle informazioni relative a lassi di tempo precedenti a questo

L'idea di base per fare eseguire questa valutazione è la seguente:
- se il throughput attuale è maggiore di x% rispetto a quello precedente aggiungi un Worker
- se il throughput attuale è inferiore di x% rispetto a quello precedente rimuovi un Worker
- altrimenti mantieni il numero di Worker attuale

Per quanto sembri vincente questo algoritmo non si comporta in maniera ottimale e sebbene il funzionamento si avvicini a quello voluto il risultato è ancora poco soddisfacente.
I problemi principali che posso indicare sono questi:
- se ho un Worker che funziona al massimo (diciamo throughput costante da molto tempo) come fa il mio Executor a sapere che con un Worker in più andrebbe più veloce? (es. perchè abbiamo un altro processore a disposizione);
- se ho un Worker che funziona al massimo (diciamo throughput costante da molto tempo) come fa il mio Executor a sapere che con un Worker in meno andrebbe più veloce?

La mia domanda è: esistono algoritmi già esistenti e documentati da poter implementare senza che mi inventi l'acqua calda?
Spero di aver spiegato il mio problema che mi sembra un buon argomento di discussione.

Grazie!
Hiskrtapps è offline   Rispondi citando il messaggio o parte di esso
Old 20-11-2011, 10:44   #2
starfred
Senior Member
 
Iscritto dal: Jul 2011
Messaggi: 381
ciao, il tuo problema non è molto differente da un problema di throughput di una rete.
Quindi un consiglio potrebbe esser quello di andare a vedere tutti gli algoritmi di controllo di congestione ed i loro vari funzionamenti.
Tuttavia nel tuo caso potrei suggerirti differenti miglioramenti:
Il primo è il modo in cui aggiungi il nuovo Worker, ti basi sugli eventi passati. Così facendo hai bisogno di una storia, quindi hai bisogno di "tempo" per creare la storia che per l'appunto è dato dall'Executor che ogni tanto si sveglia, controlla e memorizza il throughput. Questo algoritmo è vincente ma è lento.
Invece di creare la storia potresti calcolarti il throughput massimo su quella macchina con un numero fisso di worker e basarti sempre su quello. Se per esempio tu sai che su quella macchina il TP max è 100 con 10 worker tu parti subito con quelle condizioni oppure potresti provare con l'incremento esponenziale dei worker, per esempio parto da 1 worker, misuro il TP (es. 5), allora metto altri 2 worker in più, rimisuro il TP che è 30 e rimetto allora 6 worker in più... per quest'ultimo aspetto guarda il meccanismo di controllo della congestione del TCP-reno.



Un altro consiglio è levare il controllo dell'Executor che si risveglia ogni tot di tempo, crei overhead inutile. Demanda il compito di svegliare l'Executor ai vari Worker. Per esempio quando il Worker finisce e chiede un nuovo lavoro all'Executor, potresti sfruttare quest'evento per il calcolo del throughput.

Spero di esserti stato utile, ciao
__________________
Concluso positivamente con: Kamzata, Ducati82, Arus, TheLastRemnant, ghost driver, alexbull1, DanieleRC5, XatiX
starfred è offline   Rispondi citando il messaggio o parte di esso
Old 20-11-2011, 19:25   #3
Hiskrtapps
Senior Member
 
L'Avatar di Hiskrtapps
 
Iscritto dal: Nov 2000
Città: Bussero (MI)
Messaggi: 1263
Ciao,

grazie della risposta.

E' vero quel che dici che il problema è simile al throughput su rete e mi sembra un buon consiglio quello che l'executor sia svegliato dai worker stessi.

Per quanto riguarda l'idea di cercare il numero ottimale di workers ed usare sempre questo, non si può fare.
E' proprio questo il problema, nel senso che il numero ottimale di workers calcolato in un dato momento potrebbe non andare bene in un altro (immagina un processo che dura ore e che gira su un sistema complesso in condizioni variabili)
E' come se l'executor dovesse fare questa ricerca del numero ottimale di thread continuamente (diciamo ogni tot intervallo di tempo)

Ho provato a buttar giù un'idea proprio basandomi su questo concetto, cioè lasciando perdere calcoli di percentuali. Cioè:

L'executor compie una azione possibile tra INCREASE (incrementare numero di workers) e DECREASE (diminuirla).
Per esempio incrementa. Il giro dopo si chiede se il throughput è migliorato. Se si persegue con questa azione, se no compie l'azione inversa, e così via.

Mi sembra che i risultati così siano un po' meglio, è come se in ogni momento ricercasse il numero ottimale di workers.
Hiskrtapps è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria Recensione vivo X300 Pro: è ancora lui il...
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
BOOX Palma 2 Pro in prova: l'e-reader diventa a colori, e davvero tascabile BOOX Palma 2 Pro in prova: l'e-reader diventa a ...
I cosmonauti avrebbero riparato tutte le...
Artemis II: la NASA conferma il lancio d...
Il CEO di Embrak Studios difende l'uso d...
Il Trump Phone è sempre più un mistero: ...
OPPO ha svelato la serie Reno 15 "global...
Poste ID diventa a pagamento: l'identità...
7 articoli crollati di prezzo su Amazon ...
Lavatappeti, smacchiatore e Vaporella a ...
Prezzi a picco in 24 ore: due monitor to...
OLED top di gamma LG con super ribasso d...
Il nuovo OnePlus Nord 6 è vicino al debu...
Tesla svela i risultati del Q4: conferma...
Nuova rimodulazione da Fastweb: fino a 3...
La NVIDIA RTX 5090 potrebbe presto costa...
ASUS non produrrà più smar...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:11.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v