red.hell
28-03-2009, 14:44
sto implementando un algoritmo evolutivo in python (sfruttando il "toolbox" scipy/numpy)
l'algoritmo evolutivo prevede la minimizzazione di una funzione d'errore tramite la variazione per tentativi di alcuni parametri
all'interno della funzione d'errore utilizzo np.linalg.eigvals(np.dot((-np.linalg.inv(M_l)),K_l)) per il calcolo degli autovalori del rapporto tra le metrici di massa e rigidezza di un modello ad elementi finiti
il collo di bottiglia del programma è proprio il calcolo degli autovalori, perchè aumentando le dimensioni delle matrici aumenta di parecchio il tempo d'esecuzione
il problema è che il codice scritto utilizza una sola cpu (ho un dual core)
io non sono un programmatore python, il linguaggio che conosco meglio è il Matlab, e per agevolare questo tipo di calcoli apro un "matlabpool" con 2 workers e parallelizzo utilizzando l'istruzione "parfor" al posto del normale "for". il parfor assegna 2 esecuzioni del ciclo contemporaneamente ai due workers, così entrambe le cpu vengono saturate
con matlab, per lo stesso codice e con la stessa funzione d'errore, impiego circa 8 secondi ad iterazione, il codice in python ne impiega 18 (con 40 valutazioni della funzione d'errore)
con matlab sto testando funzioni molto più complesse (modello ad elementi finiti da 160 elementi, 4 coordinate per elemento, aggiunta dello smorzamento, per cui la matrice diventa da circa 1300x1300 al posto di essere 280x280 come in questo caso) e il tempo di calcolo, nonostante la parallelizzazione aumenta notevolmente (circa 40 secondi per 4 valutazioni della funzione d'errore)
ho letto sul sito di python che ci sono vari moduli che permettono la parallelizzazione (mpi4py, ScientificPython, pympi ed altri), qualcuno ha già esperienze in merito?
se serve allego i due file su cui sto lavorando
grazie a tutti e scusate per la lunghezza del post ma preferivo chiarire al meglio il problema :)
l'algoritmo evolutivo prevede la minimizzazione di una funzione d'errore tramite la variazione per tentativi di alcuni parametri
all'interno della funzione d'errore utilizzo np.linalg.eigvals(np.dot((-np.linalg.inv(M_l)),K_l)) per il calcolo degli autovalori del rapporto tra le metrici di massa e rigidezza di un modello ad elementi finiti
il collo di bottiglia del programma è proprio il calcolo degli autovalori, perchè aumentando le dimensioni delle matrici aumenta di parecchio il tempo d'esecuzione
il problema è che il codice scritto utilizza una sola cpu (ho un dual core)
io non sono un programmatore python, il linguaggio che conosco meglio è il Matlab, e per agevolare questo tipo di calcoli apro un "matlabpool" con 2 workers e parallelizzo utilizzando l'istruzione "parfor" al posto del normale "for". il parfor assegna 2 esecuzioni del ciclo contemporaneamente ai due workers, così entrambe le cpu vengono saturate
con matlab, per lo stesso codice e con la stessa funzione d'errore, impiego circa 8 secondi ad iterazione, il codice in python ne impiega 18 (con 40 valutazioni della funzione d'errore)
con matlab sto testando funzioni molto più complesse (modello ad elementi finiti da 160 elementi, 4 coordinate per elemento, aggiunta dello smorzamento, per cui la matrice diventa da circa 1300x1300 al posto di essere 280x280 come in questo caso) e il tempo di calcolo, nonostante la parallelizzazione aumenta notevolmente (circa 40 secondi per 4 valutazioni della funzione d'errore)
ho letto sul sito di python che ci sono vari moduli che permettono la parallelizzazione (mpi4py, ScientificPython, pympi ed altri), qualcuno ha già esperienze in merito?
se serve allego i due file su cui sto lavorando
grazie a tutti e scusate per la lunghezza del post ma preferivo chiarire al meglio il problema :)