diff --git a/.obsidian/workspace.json b/.obsidian/workspace.json index 9d99289..fda4f17 100644 --- a/.obsidian/workspace.json +++ b/.obsidian/workspace.json @@ -191,7 +191,7 @@ "companion:Toggle completion": false } }, - "active": "0d5325c0f9289cea", + "active": "029fd45331b34705", "lastOpenFiles": [ "Foundation of data science/notes/7 Autoencoders.md", "Foundation of data science/notes/8 Variational Autoencoders.md", diff --git a/Foundation of data science/notes/8 Variational Autoencoders.md b/Foundation of data science/notes/8 Variational Autoencoders.md index 738f1b4..f319fba 100644 --- a/Foundation of data science/notes/8 Variational Autoencoders.md +++ b/Foundation of data science/notes/8 Variational Autoencoders.md @@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell #### Backpropagation Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation? Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No. -Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente. +Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO sebbene risulta derivabile per $\theta$, non lo è però per $\phi$, quindi è impossibile calcolare il suo gradiente. Possiamo risolvere questo problema usando un trick, il **reparametrization trick**: