vault backup: 2024-10-29 13:21:43

This commit is contained in:
Marco Realacci 2024-10-29 13:21:43 +01:00
parent 2f23ac3314
commit 94637a29d1
2 changed files with 2 additions and 2 deletions

View file

@ -190,7 +190,7 @@
"smart-second-brain:Open S2B Chat": false
}
},
"active": "5af0211cef5316b5",
"active": "0d5325c0f9289cea",
"lastOpenFiles": [
"Foundation of data science/images/Pasted image 20241029123613.png",
"Foundation of data science/notes/2 Logistic Regression.md",

View file

@ -66,6 +66,6 @@ Ora tutto ciò lo applichiamo alla LL (log likelihood):
$$\theta^{t+1} = \theta^{t} - \frac{LL'(\theta^0)}{LL''(\theta^0)}$$
fidatevi, funziona.
Se $\theta$ è un vettore, possiamo anche scriverlo così: $$\theta^{t+1} = \theta^{t} - \frac{\nabla_{\theta}LL}{H}$$
Se $\theta$ è un vettore, possiamo anche scriverlo così: $$\theta^{t+1} = \theta^{t} - H^{-1}\nabla LL(\theta)$$
con H matrice definita come segue: $$H_{i,j}=\frac{\partial^2 LL}{\partial \Theta_i \partial \Theta_j}
$$