vault backup: 2024-11-24 02:29:04

This commit is contained in:
Marco Realacci 2024-11-24 02:29:04 +01:00
parent ae69c5fb2b
commit 97f314dbb4
11 changed files with 162 additions and 41 deletions

View file

@ -4,39 +4,24 @@
"type": "split", "type": "split",
"children": [ "children": [
{ {
"id": "d43d10180ff70873", "id": "588a3efa3d0e16de",
"type": "tabs", "type": "tabs",
"children": [ "children": [
{ {
"id": "d0c4b502891dff1f", "id": "029fd45331b34705",
"type": "leaf", "type": "leaf",
"state": { "state": {
"type": "markdown", "type": "markdown",
"state": { "state": {
"file": "Biometric Systems/notes/9. Ear recognition.md", "file": "Foundation of data science/notes/6 PCA.md",
"mode": "source", "mode": "source",
"source": false "source": false
}, },
"icon": "lucide-file", "icon": "lucide-file",
"title": "9. Ear recognition" "title": "6 PCA"
}
},
{
"id": "6505b4c292260ca3",
"type": "leaf",
"state": {
"type": "markdown",
"state": {
"file": "Biometric Systems/notes/11. Fingerprints.md",
"mode": "source",
"source": false
},
"icon": "lucide-file",
"title": "11. Fingerprints"
} }
} }
], ]
"currentTab": 1
} }
], ],
"direction": "vertical" "direction": "vertical"
@ -206,54 +191,53 @@
"companion:Toggle completion": false "companion:Toggle completion": false
} }
}, },
"active": "6505b4c292260ca3", "active": "0d5325c0f9289cea",
"lastOpenFiles": [ "lastOpenFiles": [
"Biometric Systems/notes/9. Ear recognition.md", "Foundation of data science/notes/Untitled.md",
"Foundation of data science/slides/IP CV Basics.pdf",
"Biometric Systems/images/architecture - enrollment.png",
"Biometric Systems/images/Pasted image 20241121085417.png",
"Biometric Systems/images/Pasted image 20241121090256.png",
"Biometric Systems/images/Pasted image 20241121104307.png",
"Biometric Systems/images/Pasted image 20241121090018.png",
"Foundation of data science/notes/6 PCA.md",
"Foundation of data science/slides/FDS_backprop_new.pdf",
"Foundation of data science/slides/Untitled 1.md",
"Foundation of data science/slides/more on nn.pdf",
"Autonomous Networking/notes/q&a.md",
"Autonomous Networking/notes/presentazione presentante.md",
"Biometric Systems/notes/2. Performance indexes.md",
"Biometric Systems/notes/11. Fingerprints.md", "Biometric Systems/notes/11. Fingerprints.md",
"Biometric Systems/slides/LEZIONE11_Fingerprints.pdf",
"Biometric Systems/slides/Biometric_System___Notes.pdf",
"Biometric Systems/slides/Riassunto_2021_2022.pdf",
"Biometric Systems/notes/9. Ear recognition.md",
"Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
"Biometric Systems/notes/dati da considerare.md", "Biometric Systems/notes/dati da considerare.md",
"Biometric Systems/images/Pasted image 20241121024108.png", "Biometric Systems/images/Pasted image 20241121024108.png",
"Biometric Systems/images/Pasted image 20241121023854.png", "Biometric Systems/images/Pasted image 20241121023854.png",
"Biometric Systems/images/Pasted image 20241121015024.png", "Biometric Systems/images/Pasted image 20241121015024.png",
"Biometric Systems/images/Pasted image 20241120134522.png", "Biometric Systems/images/Pasted image 20241120134522.png",
"Biometric Systems/slides/LEZIONE11_Fingerprints.pdf",
"Biometric Systems/slides/LEZIONE8_Face antispoofing 1.pdf", "Biometric Systems/slides/LEZIONE8_Face antispoofing 1.pdf",
"Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
"Biometric Systems/images/Pasted image 20241121024042.png", "Biometric Systems/images/Pasted image 20241121024042.png",
"Biometric Systems/images/Pasted image 20241121020116.png",
"Biometric Systems/slides/Biometric_System___Notes.pdf",
"Biometric Systems/images/Pasted image 20241120144654.png",
"Biometric Systems/images/Pasted image 20241120143424.png",
"Biometric Systems/images/Pasted image 20241120140235.png",
"Biometric Systems/notes/8 Face anti spoofing.md", "Biometric Systems/notes/8 Face anti spoofing.md",
"Foundation of data science/notes/5 Neural Networks.md", "Foundation of data science/notes/5 Neural Networks.md",
"Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf", "Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf",
"Biometric Systems/slides/LEZIONE7_Face recognition3D.pdf", "Biometric Systems/slides/LEZIONE7_Face recognition3D.pdf",
"Biometric Systems/notes/7. Face recognition 3D.md", "Biometric Systems/notes/7. Face recognition 3D.md",
"Foundation of data science/slides/more on nn.pdf",
"Foundation of data science/slides/IP CV Basics.pdf",
"Autonomous Networking/slides/5 Drones.pdf",
"Autonomous Networking/notes/4 WSN Routing.md", "Autonomous Networking/notes/4 WSN Routing.md",
"Autonomous Networking/notes/5 Drones.md", "Autonomous Networking/notes/5 Drones.md",
"Biometric Systems/notes/2. Performance indexes.md",
"Biometric Systems/notes/1. Introduction.md", "Biometric Systems/notes/1. Introduction.md",
"Biometric Systems/notes/3. Recognition Reliability.md", "Biometric Systems/notes/3. Recognition Reliability.md",
"Foundation of data science/notes/convnet.md",
"Foundation of data science/slides/FDS_convnet_primer_new.pdf",
"Foundation of data science/slides/Untitled.md",
"Biometric Systems/images/Pasted image 20241114084019.png",
"Foundation of data science/slides/Untitled 1.md",
"Biometric Systems/notes/6. Face recognition 2D.md", "Biometric Systems/notes/6. Face recognition 2D.md",
"conflict-files-obsidian-git.md", "conflict-files-obsidian-git.md",
"Autonomous Networking/notes/10 Q-Learning.md", "Autonomous Networking/notes/10 Q-Learning.md",
"Autonomous Networking/notes/q&a.md",
"Autonomous Networking/notes/7.2 10 arm testbed - optimism in face of uncertainty.md", "Autonomous Networking/notes/7.2 10 arm testbed - optimism in face of uncertainty.md",
"Autonomous Networking/notes/9 Markov processes.md", "Autonomous Networking/notes/9 Markov processes.md",
"Autonomous Networking/notes/2 RFID.md", "Autonomous Networking/notes/2 RFID.md",
"Autonomous Networking/notes/6 Internet of Things.md", "Autonomous Networking/notes/6 Internet of Things.md",
"Biometric Systems/notes/4. Face detection.md", "Biometric Systems/notes/4. Face detection.md",
"Foundation of data science/notes/4 L1 and L2 normalization.md", "Foundation of data science/notes/4 L1 and L2 normalization.md",
"Autonomous Networking/notes/7.1 K-Armed bandit problem.md",
"Autonomous Networking/notes/7 RL.md",
"Senza nome.canvas" "Senza nome.canvas"
] ]
} }

View file

@ -0,0 +1,16 @@
...
application of the rl methodology to the addressed problem
agent collaboration
- no
- proactive
- reactive
rerward function: is immediate?
environment
model free or model based? (se l'agent impara la transition matrix)
exploration vs exploitation: policy
converge studies

Binary file not shown.

After

Width:  |  Height:  |  Size: 302 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 940 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 306 KiB

View file

@ -0,0 +1,70 @@
Uno dei primi tratti biometrici utilizzati per identificare un soggetto.
Problemi: rotazione del dito, secchezza della pelle.
Un'impronta digitale di solito appare come una serie di linee scure che rappresentano la parte alta e appuntita della pelle della cresta di attrito, mentre le valli tra queste creste appaiono come uno spazio bianco e sono la parte bassa e poco profonda della pelle della cresta di attrito.
Le impronte digitali sono tratti randotipici.
La prima classificazione di impronte digitali fu propostada Purkinje nel 1823, basata su 9 categorie:![[Pasted image 20241121085417.png]]
Non andava ad analizzare le minuzie, però può essere usato come meccanismo per riconoscere velocemente che due impronte sono **molto** diverse tra loro.
Il primo approccio scientifico è dato da Galton (antropologo, il quale ha dato una prima classificazione delle impronte che definiamo come macro singolarità (archi, loop e spirali) in termine del numero di "delta": whorl (2 delta), loop (1 delta), arch (no delta)
![[Pasted image 20241121090018.png]]
e successivamente ha introdotto il concetto di minuzie che definiamo come micro similarità.
![[Pasted image 20241121090256.png]]
Henry invece ha proposto una classificazione con la frequenza per ogni classe:
- Spirali: 28%
- Archi: 6.6%
- Left loop: 33.8%
- Right loop: 31.7%
#### AFIS
Il primo ente a collezionare impronte è stata l'FBI.
...
La formazione delle impronte è già completata nel settimo mese di sviluppo fetale e la configurazione delle creste su ciascun dito è costante durante l'intero ciclo di vita.
aggiungi qualcosa sull'unicità magari
#### Acquisizione
Può essere:
- **Offline:** consiste in due step, la prima è la creazione dell'impronta su carta tramite inchiostro ad esempio, con la successiva digitalizzazione dell'impronta stampata. Rientrano in questa categoria le "impronte latenti": quelle che lasciamo involontariamente sulle varie superfici a causa della natura oleosa della pelle
- **Online:** viene usato un sensore di cattura che digitalizza direttamente l'impronta (*live-scan*).
Parametri che caratterizzano un'impronta digitalizzata:
- risoluzione (in DPI): il minimo necessario per estrarre le minuzie è 200-300 DPI. L'FBI ha 500 DPI come requisito minimo
- area di acquisizione: almeno 1x1 pollice (secondo le specifiche FBI)
- la profondità in bit per codificare ogni pixel
- contrasto: un'immagine più contrastata (sharp) contiene più dettagli
- distorsione geometrica introdotta dal sensore
#### Tipi di scanner
- **Scanner ottico:** poco costoso, robusto alla variazione di clima e con buona risoluzione. Ma deve essere sufficientemente grande e va pulito bene dopo ogni utilizzo
- **Scanner capacitivo:** migliore risoluzione dell'impronta e dimensioni ridotte. Svantaggi: la durabilità del sensore in condizioni subottimali non è stata provata. Siccome è più piccolo bisogna accertarsi che le acquisizioni vengano fatte bene
- **Scanner piezoelettrico:** misura cambiamenti in pressione, accelerazione, deformazione e forza convertendoli in una carica elettrica
- **Scanner termico:** non può essere ingannato da impronte artificiali perché riconosce pulsazione, temperatura, pori e cambiamento del colore della pelle tramite pressione. Svantaggio: quando un dito viene posizionato sul sensore, inizialmente c'è un grosso delta termico, ma in un tempo molto breve (meno di 1/10 di secondo) l'immagine sparisce perché il sensore raggiunge la temperatura del dito
#### Pores pattern
Aumentando ancora la risoluzione, andando oltre alle minuzie, riusciamo a catturare i pattern dei pori della pelle. Servono però scanner dell'ordine dei 1000 DPI, per cui non è praticabile nella maggior parte dei contesti applicativi.
#### Tecniche di matching
Gli esperti consigliano di considerare 4 aspetti:
- valutare prima un pattern globale e scartare impronte con pattern diversi
- valutare la qualità (valutare le minuzie)
- valutare la quantità (numero minimo di minuzie che matchano)
- corrispondenza di dettagli che devono essere interrelati: una coppia di minuzie in due acquisizioni diverse deve avere la stessa distanza
Approcci metodologici:
- **Basato su correlazione:** le due immagini vengono sovrapposte e viene fatto un calcolo della correlazione dei vari pixel (iterando sui possibili allineamenti). Alto costo computazionale ed è sensibile a trasformazioni non lineari
- **Basato sulle ridge features:** utilizzato per immagini di bassa qualità, non è possibile quindi estrarre minuzie. Utilizza feature facili da estrarre come l'orientamento, la frequenza e la forma dei vari ridge. Poco discriminativo
- **Basato sulle minuzie:** vengono estratte le minuzie e vengono salvate come punti in uno spazio a due dimensioni. Il metodo cerca un possibile allineamento che massimizzi il numero di match di minuzie.
Problemi nel matching:
![[Pasted image 20241121104307.png]]
- Le distorsioni non lineari sono causate da rotazioni del dito o livelli di pressione diversi (se schiaccio di più o di meno)
- Overlap scarso tra le due acquisizioni: rilevante soprattutto in sensori con un'ara di acquisizione ridotta.

Binary file not shown.

View file

@ -0,0 +1,51 @@
**Definizione**
- **Analisi dei Componenti Principali (PCA)** è un metodo di riduzione della dimensionalità utilizzato in statistica ed elaborazione dei dati.
- Lo scopo principale del PCA è trasformare una serie di variabili correlate in un numero inferiore di variabili non correlate, detti "Componenti Principali", che spiegano la maggior parte della varianza nel set di dati originale.
**Processo**
1. **Standardizzazione dei Dati:** I dati vengono standardizzati in modo che abbiano una media di 0 e deviazione standard di 1. $$Z = \frac{X-\mu}{\sigma}$$
2. **Calcolo della Matrice di Covarianza:**
- si calcola la matrice di covarianza $$\text{cov}(x_1, x_2) = \frac{\sum_{i=1}^{n} (x_{1i} - \bar{x_1})(x_{2i} - \bar{x_2})}{n-1}$$
- la covarianza può essere:
- **positiva:** se x1 aumenta, aumenta pure x2
- **negativa:** se x1 aumenta, x2 diminuisce
- **zero:** non c'è una relazione diretta tra x1 e x2
3. **Calcolo degli autovettori e degli autovalori:**
- gli autovettori rappresentano le direzioni principali (componenti principali) lungo cui i dati mostrano la massima variazione
- gli autovalori corrispondenti indicano la quantità di varianza "contenuta" in una direzione
4. **Selezione dei Componenti Principali:**
- Si selezionano i primi k autovettori corrispondenti ai più grandi autovalori (k < numero di variabili originali).
- k lo posso scegliere o sulla base delle dimensioni finali che voglio avere, o, guardando la "explained variance": la percentuale di varianza dei dati trattenuta da un determinato componente principale `explained_var = np.cumsum(eigenvalues) / np.sum(eigenvalues)`
- l'array in output contiene alla posizione i la percentuale di varianza che preserverò scegliendo i componenti (k = i)
5. **Trasformazione dei Dati:**
- I dati originali vengono proiettati lungo questi nuovi assi per ottenere le componenti principali.
**Componenti Principali**
- Le componenti principali sono combinazioni lineari delle variabili originali, ordinate in base alla quantità di varianza spiegata.
- La prima componente principale è quella che spiega la maggior parte della varianza nei dati e così via.
**Formula per le Componenti Principali**
$$Z_i = \sum_{j=1}^p X_j \cdot v_{ij}$$
dove
- $Z_i$ è il valore del i-esimo componente principale.
- $X_j$ sono i valori delle variabili originali.
- $v_{ij}$ sono gli elementi del j-esimo autovettore.
- **Visualizzazione dei Dati:** Per ridurre la dimensionalità e aiutare nella visualizzazione di dati multivariabili.
- **Riduzione del Rumore:** Per eliminare rumori presenti nei dati originali, in particolare quando i dati sono interrelati.
- **Preprocessing per Modelli Di Machine Learning:** Riduce la dimensionalità dei dati mantenendo al massimo il contenuto informativo.
**Considerazioni e limitazioni**
- **Interpretazione:** Ogni componente rappresenta una combinazione lineare di tutte le variabili originali, il che può rendere difficile l'interpretazione dei risultati.
- Il primo componente principale è quello che cattura la varianza maggiore nei dati.
- Per ottimizzare il processo, vogliamo che non ci sia correlazione tra gli assi risultanti dopo la proiezione dei dati. In altre parole, vogliamo che il secondo componente catturi la varianza **ortogonale** al primo componente, e così via.
- **Perdita di informazione:** stiamo letteralmente comprimendo i dati, cerchiamo di farlo perdendo meno informazione possibile ma qualcosa si perde. La scelta del numero k delle componenti principali richiede un equilibrio tra la varianza che si vuole preservare e la dimensionalità.
- In PCA si assume che l'informazione si trovi nella varianza delle feature: più alta è la varianza in una feature, più importanti saranno le informazioni contenute in quella feature.
- PCA assume che la relazione tra le variabili sia lineare. In caso contrario PCA potrebbe non funzionare bene.
- Può essere computazionalmente molto costoso per dataset grandi, soprattutto se il numero di variabili nel dataset è largo.
### Conclusione
Il PCA è uno strumento di analisi dati molto utile quando si ha a che fare con molti dati interrelati. Tuttavia, come per ogni tecnica statistica, richiede attenta considerazione del contesto applicativo e delle ipotesi di base.