From 57694bf6fe2d2e60883f95f03b06ccbea6d3937e Mon Sep 17 00:00:00 2001 From: Marco Realacci Date: Tue, 3 Dec 2024 18:14:48 +0100 Subject: [PATCH] vault backup: 2024-12-03 18:14:48 --- Foundation of data science/notes/8 Variational Autoencoders.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/Foundation of data science/notes/8 Variational Autoencoders.md b/Foundation of data science/notes/8 Variational Autoencoders.md index 871a191..eed2e61 100644 --- a/Foundation of data science/notes/8 Variational Autoencoders.md +++ b/Foundation of data science/notes/8 Variational Autoencoders.md @@ -8,7 +8,7 @@ Prendendo campioni da questa distribuzione e mandandoli in input al decoder, ott (p.s. supporrò che i vettori x siano immagini) $p(x)$: la vera distribuzione di x, ovvero la distribuzione del dataset. NON LA SI CONOSCE, altrimenti sarebbe tutto bello. -Esempio: ipotizzando di avere un dataset con immagini di numeri, un'immagine che rappresenta il numero "1" avrà un valore alto di $p(x)$, un'immagine che rappresenta un cazzo curvo avrà un valore basso di $p(x)$. +**Esempio:** ipotizzando di avere un dataset con immagini di numeri, un'immagine che rappresenta il numero "1" avrà un valore alto di $p(x)$, un'immagine che rappresenta un cazzo curvo avrà un valore basso di $p(x)$. $p(z)$ la distribuzione della variabile latente. Solitamente si usa una gaussiana $N(0, I)$, dove I è la matrice identità. La dimensione della matrice è la dimensione dello spazio latente z: ogni $z_{i}$ ha valore medio 0 e varianza 1.