vault backup: 2024-12-03 18:16:53

This commit is contained in:
Marco Realacci 2024-12-03 18:16:53 +01:00
parent 57694bf6fe
commit d9ea78bc60

View file

@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell
#### Backpropagation
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$.
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente.
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**: