diff --git a/Foundation of data science/notes/8 Variational Autoencoders.md b/Foundation of data science/notes/8 Variational Autoencoders.md index 871a191..eed2e61 100644 --- a/Foundation of data science/notes/8 Variational Autoencoders.md +++ b/Foundation of data science/notes/8 Variational Autoencoders.md @@ -8,7 +8,7 @@ Prendendo campioni da questa distribuzione e mandandoli in input al decoder, ott (p.s. supporrò che i vettori x siano immagini) $p(x)$: la vera distribuzione di x, ovvero la distribuzione del dataset. NON LA SI CONOSCE, altrimenti sarebbe tutto bello. -Esempio: ipotizzando di avere un dataset con immagini di numeri, un'immagine che rappresenta il numero "1" avrà un valore alto di $p(x)$, un'immagine che rappresenta un cazzo curvo avrà un valore basso di $p(x)$. +**Esempio:** ipotizzando di avere un dataset con immagini di numeri, un'immagine che rappresenta il numero "1" avrà un valore alto di $p(x)$, un'immagine che rappresenta un cazzo curvo avrà un valore basso di $p(x)$. $p(z)$ la distribuzione della variabile latente. Solitamente si usa una gaussiana $N(0, I)$, dove I è la matrice identità. La dimensione della matrice è la dimensione dello spazio latente z: ogni $z_{i}$ ha valore medio 0 e varianza 1.