vault backup: 2024-12-03 18:16:53
This commit is contained in:
parent
57694bf6fe
commit
d9ea78bc60
1 changed files with 1 additions and 1 deletions
|
@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell
|
|||
#### Backpropagation
|
||||
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
|
||||
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
|
||||
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$.
|
||||
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente.
|
||||
|
||||
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**:
|
||||
|
||||
|
|
Loading…
Reference in a new issue