Teo@Unix
22-01-2011, 18:24
Mi stò leggendo il principio di funzionamento dell'algoritmo "Resilient back propagation", questo apporta delle notevoli migliorie in termini di velocità di addestramento. http://en.wikipedia.org/wiki/Rprop
In breve la nuova regola introdotta riguarda il valore delta...
http://imagepaste.nullnetwork.net/viewimage.php?id=1696
a livello di programmazione non ho ben capito cosa devo fare... io la derivata la faccio ma sul valore di uscita del neurone corrente per i layer di uscita e nascosto...
non ho capito, ma in teoria il cambiamento è piccolo dall'EBP normale...
Io sto leggendo qui:
http://paginas.fe.up.pt/~ee02162/dissertacao/RPROP%20paper.pdf
Grazie per l'aiuto...
In breve la nuova regola introdotta riguarda il valore delta...
http://imagepaste.nullnetwork.net/viewimage.php?id=1696
a livello di programmazione non ho ben capito cosa devo fare... io la derivata la faccio ma sul valore di uscita del neurone corrente per i layer di uscita e nascosto...
non ho capito, ma in teoria il cambiamento è piccolo dall'EBP normale...
Io sto leggendo qui:
http://paginas.fe.up.pt/~ee02162/dissertacao/RPROP%20paper.pdf
Grazie per l'aiuto...