vault backup: 2024-12-03 18:17:28

This commit is contained in:
Marco Realacci 2024-12-03 18:17:28 +01:00
parent d9ea78bc60
commit f358dcd161
2 changed files with 2 additions and 2 deletions

View file

@ -191,7 +191,7 @@
"companion:Toggle completion": false
}
},
"active": "0d5325c0f9289cea",
"active": "029fd45331b34705",
"lastOpenFiles": [
"Foundation of data science/notes/7 Autoencoders.md",
"Foundation of data science/notes/8 Variational Autoencoders.md",

View file

@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell
#### Backpropagation
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente.
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO sebbene risulta derivabile per $\theta$, non lo è però per $\phi$, quindi è impossibile calcolare il suo gradiente.
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**: