vault backup: 2024-12-03 18:16:53
This commit is contained in:
parent
57694bf6fe
commit
d9ea78bc60
1 changed files with 1 additions and 1 deletions
|
@ -46,7 +46,7 @@ La seconda parte viene usata come termine di penalizzazione: penalizza il modell
|
||||||
#### Backpropagation
|
#### Backpropagation
|
||||||
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
|
Il problema resta che ok, possiamo calcolare la loss, ma possiamo anche fare la backpropagation?
|
||||||
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
|
Dovremmo poter derivare la loss (quindi l'ELBO nel nostro caso), si può? No.
|
||||||
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$.
|
Perché non si può derivare? Non lo so, erano più di due pagine per calcolare una derivata e ho scelto un CdL in computer science, mica in matematica, però fidatevi, l'ELBO non è derivabile per $\phi$ e quindi è impossibile calcolare il suo gradiente.
|
||||||
|
|
||||||
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**:
|
Possiamo risolvere questo problema usando un trick, il **reparametrization trick**:
|
||||||
|
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue