vault backup: 2024-10-29 13:21:43
This commit is contained in:
parent
2f23ac3314
commit
94637a29d1
2 changed files with 2 additions and 2 deletions
2
.obsidian/workspace.json
vendored
2
.obsidian/workspace.json
vendored
|
@ -190,7 +190,7 @@
|
|||
"smart-second-brain:Open S2B Chat": false
|
||||
}
|
||||
},
|
||||
"active": "5af0211cef5316b5",
|
||||
"active": "0d5325c0f9289cea",
|
||||
"lastOpenFiles": [
|
||||
"Foundation of data science/images/Pasted image 20241029123613.png",
|
||||
"Foundation of data science/notes/2 Logistic Regression.md",
|
||||
|
|
|
@ -66,6 +66,6 @@ Ora tutto ciò lo applichiamo alla LL (log likelihood):
|
|||
$$\theta^{t+1} = \theta^{t} - \frac{LL'(\theta^0)}{LL''(\theta^0)}$$
|
||||
fidatevi, funziona.
|
||||
|
||||
Se $\theta$ è un vettore, possiamo anche scriverlo così: $$\theta^{t+1} = \theta^{t} - \frac{\nabla_{\theta}LL}{H}$$
|
||||
Se $\theta$ è un vettore, possiamo anche scriverlo così: $$\theta^{t+1} = \theta^{t} - H^{-1}\nabla LL(\theta)$$
|
||||
con H matrice definita come segue: $$H_{i,j}=\frac{\partial^2 LL}{\partial \Theta_i \partial \Theta_j}
|
||||
$$
|
Loading…
Reference in a new issue