vault backup: 2024-12-03 18:17:28
This commit is contained in:
parent
d9ea78bc60
commit
f358dcd161
2 changed files with 2 additions and 2 deletions
|
@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell
|
|||
#### Backpropagation
|
||||
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
|
||||
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
|
||||
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente.
|
||||
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO sebbene risulta derivabile per $\theta$, non lo è però per $\phi$, quindi è impossibile calcolare il suo gradiente.
|
||||
|
||||
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**:
|
||||
|
||||
|
|
Loading…
Add table
Add a link
Reference in a new issue