vault backup: 2024-11-24 02:29:04
This commit is contained in:
parent
ae69c5fb2b
commit
97f314dbb4
11 changed files with 162 additions and 41 deletions
66
.obsidian/workspace.json
vendored
66
.obsidian/workspace.json
vendored
|
@ -4,39 +4,24 @@
|
|||
"type": "split",
|
||||
"children": [
|
||||
{
|
||||
"id": "d43d10180ff70873",
|
||||
"id": "588a3efa3d0e16de",
|
||||
"type": "tabs",
|
||||
"children": [
|
||||
{
|
||||
"id": "d0c4b502891dff1f",
|
||||
"id": "029fd45331b34705",
|
||||
"type": "leaf",
|
||||
"state": {
|
||||
"type": "markdown",
|
||||
"state": {
|
||||
"file": "Biometric Systems/notes/9. Ear recognition.md",
|
||||
"file": "Foundation of data science/notes/6 PCA.md",
|
||||
"mode": "source",
|
||||
"source": false
|
||||
},
|
||||
"icon": "lucide-file",
|
||||
"title": "9. Ear recognition"
|
||||
}
|
||||
},
|
||||
{
|
||||
"id": "6505b4c292260ca3",
|
||||
"type": "leaf",
|
||||
"state": {
|
||||
"type": "markdown",
|
||||
"state": {
|
||||
"file": "Biometric Systems/notes/11. Fingerprints.md",
|
||||
"mode": "source",
|
||||
"source": false
|
||||
},
|
||||
"icon": "lucide-file",
|
||||
"title": "11. Fingerprints"
|
||||
"title": "6 PCA"
|
||||
}
|
||||
}
|
||||
],
|
||||
"currentTab": 1
|
||||
]
|
||||
}
|
||||
],
|
||||
"direction": "vertical"
|
||||
|
@ -206,54 +191,53 @@
|
|||
"companion:Toggle completion": false
|
||||
}
|
||||
},
|
||||
"active": "6505b4c292260ca3",
|
||||
"active": "0d5325c0f9289cea",
|
||||
"lastOpenFiles": [
|
||||
"Biometric Systems/notes/9. Ear recognition.md",
|
||||
"Foundation of data science/notes/Untitled.md",
|
||||
"Foundation of data science/slides/IP CV Basics.pdf",
|
||||
"Biometric Systems/images/architecture - enrollment.png",
|
||||
"Biometric Systems/images/Pasted image 20241121085417.png",
|
||||
"Biometric Systems/images/Pasted image 20241121090256.png",
|
||||
"Biometric Systems/images/Pasted image 20241121104307.png",
|
||||
"Biometric Systems/images/Pasted image 20241121090018.png",
|
||||
"Foundation of data science/notes/6 PCA.md",
|
||||
"Foundation of data science/slides/FDS_backprop_new.pdf",
|
||||
"Foundation of data science/slides/Untitled 1.md",
|
||||
"Foundation of data science/slides/more on nn.pdf",
|
||||
"Autonomous Networking/notes/q&a.md",
|
||||
"Autonomous Networking/notes/presentazione presentante.md",
|
||||
"Biometric Systems/notes/2. Performance indexes.md",
|
||||
"Biometric Systems/notes/11. Fingerprints.md",
|
||||
"Biometric Systems/slides/LEZIONE11_Fingerprints.pdf",
|
||||
"Biometric Systems/slides/Biometric_System___Notes.pdf",
|
||||
"Biometric Systems/slides/Riassunto_2021_2022.pdf",
|
||||
"Biometric Systems/notes/9. Ear recognition.md",
|
||||
"Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
|
||||
"Biometric Systems/notes/dati da considerare.md",
|
||||
"Biometric Systems/images/Pasted image 20241121024108.png",
|
||||
"Biometric Systems/images/Pasted image 20241121023854.png",
|
||||
"Biometric Systems/images/Pasted image 20241121015024.png",
|
||||
"Biometric Systems/images/Pasted image 20241120134522.png",
|
||||
"Biometric Systems/slides/LEZIONE11_Fingerprints.pdf",
|
||||
"Biometric Systems/slides/LEZIONE8_Face antispoofing 1.pdf",
|
||||
"Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
|
||||
"Biometric Systems/images/Pasted image 20241121024042.png",
|
||||
"Biometric Systems/images/Pasted image 20241121020116.png",
|
||||
"Biometric Systems/slides/Biometric_System___Notes.pdf",
|
||||
"Biometric Systems/images/Pasted image 20241120144654.png",
|
||||
"Biometric Systems/images/Pasted image 20241120143424.png",
|
||||
"Biometric Systems/images/Pasted image 20241120140235.png",
|
||||
"Biometric Systems/notes/8 Face anti spoofing.md",
|
||||
"Foundation of data science/notes/5 Neural Networks.md",
|
||||
"Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf",
|
||||
"Biometric Systems/slides/LEZIONE7_Face recognition3D.pdf",
|
||||
"Biometric Systems/notes/7. Face recognition 3D.md",
|
||||
"Foundation of data science/slides/more on nn.pdf",
|
||||
"Foundation of data science/slides/IP CV Basics.pdf",
|
||||
"Autonomous Networking/slides/5 Drones.pdf",
|
||||
"Autonomous Networking/notes/4 WSN Routing.md",
|
||||
"Autonomous Networking/notes/5 Drones.md",
|
||||
"Biometric Systems/notes/2. Performance indexes.md",
|
||||
"Biometric Systems/notes/1. Introduction.md",
|
||||
"Biometric Systems/notes/3. Recognition Reliability.md",
|
||||
"Foundation of data science/notes/convnet.md",
|
||||
"Foundation of data science/slides/FDS_convnet_primer_new.pdf",
|
||||
"Foundation of data science/slides/Untitled.md",
|
||||
"Biometric Systems/images/Pasted image 20241114084019.png",
|
||||
"Foundation of data science/slides/Untitled 1.md",
|
||||
"Biometric Systems/notes/6. Face recognition 2D.md",
|
||||
"conflict-files-obsidian-git.md",
|
||||
"Autonomous Networking/notes/10 Q-Learning.md",
|
||||
"Autonomous Networking/notes/q&a.md",
|
||||
"Autonomous Networking/notes/7.2 10 arm testbed - optimism in face of uncertainty.md",
|
||||
"Autonomous Networking/notes/9 Markov processes.md",
|
||||
"Autonomous Networking/notes/2 RFID.md",
|
||||
"Autonomous Networking/notes/6 Internet of Things.md",
|
||||
"Biometric Systems/notes/4. Face detection.md",
|
||||
"Foundation of data science/notes/4 L1 and L2 normalization.md",
|
||||
"Autonomous Networking/notes/7.1 K-Armed bandit problem.md",
|
||||
"Autonomous Networking/notes/7 RL.md",
|
||||
"Senza nome.canvas"
|
||||
]
|
||||
}
|
16
Autonomous Networking/notes/presentazione presentante.md
Normal file
16
Autonomous Networking/notes/presentazione presentante.md
Normal file
|
@ -0,0 +1,16 @@
|
|||
|
||||
...
|
||||
|
||||
application of the rl methodology to the addressed problem
|
||||
agent collaboration
|
||||
- no
|
||||
- proactive
|
||||
- reactive
|
||||
rerward function: is immediate?
|
||||
|
||||
environment
|
||||
model free or model based? (se l'agent impara la transition matrix)
|
||||
|
||||
exploration vs exploitation: policy
|
||||
|
||||
converge studies
|
BIN
Biometric Systems/images/Pasted image 20241121085417.png
Normal file
BIN
Biometric Systems/images/Pasted image 20241121085417.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 302 KiB |
BIN
Biometric Systems/images/Pasted image 20241121090018.png
Normal file
BIN
Biometric Systems/images/Pasted image 20241121090018.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 940 KiB |
BIN
Biometric Systems/images/Pasted image 20241121090256.png
Normal file
BIN
Biometric Systems/images/Pasted image 20241121090256.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 28 KiB |
BIN
Biometric Systems/images/Pasted image 20241121104307.png
Normal file
BIN
Biometric Systems/images/Pasted image 20241121104307.png
Normal file
Binary file not shown.
After Width: | Height: | Size: 306 KiB |
|
@ -0,0 +1,70 @@
|
|||
Uno dei primi tratti biometrici utilizzati per identificare un soggetto.
|
||||
|
||||
Problemi: rotazione del dito, secchezza della pelle.
|
||||
|
||||
Un'impronta digitale di solito appare come una serie di linee scure che rappresentano la parte alta e appuntita della pelle della cresta di attrito, mentre le valli tra queste creste appaiono come uno spazio bianco e sono la parte bassa e poco profonda della pelle della cresta di attrito.
|
||||
|
||||
Le impronte digitali sono tratti randotipici.
|
||||
|
||||
La prima classificazione di impronte digitali fu propostada Purkinje nel 1823, basata su 9 categorie:![[Pasted image 20241121085417.png]]
|
||||
Non andava ad analizzare le minuzie, però può essere usato come meccanismo per riconoscere velocemente che due impronte sono **molto** diverse tra loro.
|
||||
|
||||
Il primo approccio scientifico è dato da Galton (antropologo, il quale ha dato una prima classificazione delle impronte che definiamo come macro singolarità (archi, loop e spirali) in termine del numero di "delta": whorl (2 delta), loop (1 delta), arch (no delta)
|
||||
![[Pasted image 20241121090018.png]]
|
||||
|
||||
e successivamente ha introdotto il concetto di minuzie che definiamo come micro similarità.
|
||||
![[Pasted image 20241121090256.png]]
|
||||
|
||||
Henry invece ha proposto una classificazione con la frequenza per ogni classe:
|
||||
- Spirali: 28%
|
||||
- Archi: 6.6%
|
||||
- Left loop: 33.8%
|
||||
- Right loop: 31.7%
|
||||
|
||||
#### AFIS
|
||||
Il primo ente a collezionare impronte è stata l'FBI.
|
||||
...
|
||||
|
||||
La formazione delle impronte è già completata nel settimo mese di sviluppo fetale e la configurazione delle creste su ciascun dito è costante durante l'intero ciclo di vita.
|
||||
|
||||
aggiungi qualcosa sull'unicità magari
|
||||
|
||||
#### Acquisizione
|
||||
Può essere:
|
||||
- **Offline:** consiste in due step, la prima è la creazione dell'impronta su carta tramite inchiostro ad esempio, con la successiva digitalizzazione dell'impronta stampata. Rientrano in questa categoria le "impronte latenti": quelle che lasciamo involontariamente sulle varie superfici a causa della natura oleosa della pelle
|
||||
- **Online:** viene usato un sensore di cattura che digitalizza direttamente l'impronta (*live-scan*).
|
||||
|
||||
Parametri che caratterizzano un'impronta digitalizzata:
|
||||
- risoluzione (in DPI): il minimo necessario per estrarre le minuzie è 200-300 DPI. L'FBI ha 500 DPI come requisito minimo
|
||||
- area di acquisizione: almeno 1x1 pollice (secondo le specifiche FBI)
|
||||
- la profondità in bit per codificare ogni pixel
|
||||
- contrasto: un'immagine più contrastata (sharp) contiene più dettagli
|
||||
- distorsione geometrica introdotta dal sensore
|
||||
|
||||
#### Tipi di scanner
|
||||
- **Scanner ottico:** poco costoso, robusto alla variazione di clima e con buona risoluzione. Ma deve essere sufficientemente grande e va pulito bene dopo ogni utilizzo
|
||||
- **Scanner capacitivo:** migliore risoluzione dell'impronta e dimensioni ridotte. Svantaggi: la durabilità del sensore in condizioni subottimali non è stata provata. Siccome è più piccolo bisogna accertarsi che le acquisizioni vengano fatte bene
|
||||
- **Scanner piezoelettrico:** misura cambiamenti in pressione, accelerazione, deformazione e forza convertendoli in una carica elettrica
|
||||
- **Scanner termico:** non può essere ingannato da impronte artificiali perché riconosce pulsazione, temperatura, pori e cambiamento del colore della pelle tramite pressione. Svantaggio: quando un dito viene posizionato sul sensore, inizialmente c'è un grosso delta termico, ma in un tempo molto breve (meno di 1/10 di secondo) l'immagine sparisce perché il sensore raggiunge la temperatura del dito
|
||||
|
||||
|
||||
#### Pores pattern
|
||||
Aumentando ancora la risoluzione, andando oltre alle minuzie, riusciamo a catturare i pattern dei pori della pelle. Servono però scanner dell'ordine dei 1000 DPI, per cui non è praticabile nella maggior parte dei contesti applicativi.
|
||||
|
||||
#### Tecniche di matching
|
||||
Gli esperti consigliano di considerare 4 aspetti:
|
||||
- valutare prima un pattern globale e scartare impronte con pattern diversi
|
||||
- valutare la qualità (valutare le minuzie)
|
||||
- valutare la quantità (numero minimo di minuzie che matchano)
|
||||
- corrispondenza di dettagli che devono essere interrelati: una coppia di minuzie in due acquisizioni diverse deve avere la stessa distanza
|
||||
|
||||
Approcci metodologici:
|
||||
- **Basato su correlazione:** le due immagini vengono sovrapposte e viene fatto un calcolo della correlazione dei vari pixel (iterando sui possibili allineamenti). Alto costo computazionale ed è sensibile a trasformazioni non lineari
|
||||
- **Basato sulle ridge features:** utilizzato per immagini di bassa qualità, non è possibile quindi estrarre minuzie. Utilizza feature facili da estrarre come l'orientamento, la frequenza e la forma dei vari ridge. Poco discriminativo
|
||||
- **Basato sulle minuzie:** vengono estratte le minuzie e vengono salvate come punti in uno spazio a due dimensioni. Il metodo cerca un possibile allineamento che massimizzi il numero di match di minuzie.
|
||||
|
||||
Problemi nel matching:
|
||||
![[Pasted image 20241121104307.png]]
|
||||
- Le distorsioni non lineari sono causate da rotazioni del dito o livelli di pressione diversi (se schiaccio di più o di meno)
|
||||
- Overlap scarso tra le due acquisizioni: rilevante soprattutto in sensori con un'ara di acquisizione ridotta.
|
||||
|
BIN
Biometric Systems/slides/Riassunto_2021_2022.pdf
Normal file
BIN
Biometric Systems/slides/Riassunto_2021_2022.pdf
Normal file
Binary file not shown.
51
Foundation of data science/notes/6 PCA.md
Normal file
51
Foundation of data science/notes/6 PCA.md
Normal file
|
@ -0,0 +1,51 @@
|
|||
**Definizione**
|
||||
- **Analisi dei Componenti Principali (PCA)** è un metodo di riduzione della dimensionalità utilizzato in statistica ed elaborazione dei dati.
|
||||
- Lo scopo principale del PCA è trasformare una serie di variabili correlate in un numero inferiore di variabili non correlate, detti "Componenti Principali", che spiegano la maggior parte della varianza nel set di dati originale.
|
||||
|
||||
**Processo**
|
||||
1. **Standardizzazione dei Dati:** I dati vengono standardizzati in modo che abbiano una media di 0 e deviazione standard di 1. $$Z = \frac{X-\mu}{\sigma}$$
|
||||
2. **Calcolo della Matrice di Covarianza:**
|
||||
- si calcola la matrice di covarianza $$\text{cov}(x_1, x_2) = \frac{\sum_{i=1}^{n} (x_{1i} - \bar{x_1})(x_{2i} - \bar{x_2})}{n-1}$$
|
||||
- la covarianza può essere:
|
||||
- **positiva:** se x1 aumenta, aumenta pure x2
|
||||
- **negativa:** se x1 aumenta, x2 diminuisce
|
||||
- **zero:** non c'è una relazione diretta tra x1 e x2
|
||||
3. **Calcolo degli autovettori e degli autovalori:**
|
||||
- gli autovettori rappresentano le direzioni principali (componenti principali) lungo cui i dati mostrano la massima variazione
|
||||
- gli autovalori corrispondenti indicano la quantità di varianza "contenuta" in una direzione
|
||||
|
||||
4. **Selezione dei Componenti Principali:**
|
||||
- Si selezionano i primi k autovettori corrispondenti ai più grandi autovalori (k < numero di variabili originali).
|
||||
- k lo posso scegliere o sulla base delle dimensioni finali che voglio avere, o, guardando la "explained variance": la percentuale di varianza dei dati trattenuta da un determinato componente principale `explained_var = np.cumsum(eigenvalues) / np.sum(eigenvalues)`
|
||||
- l'array in output contiene alla posizione i la percentuale di varianza che preserverò scegliendo i componenti (k = i)
|
||||
|
||||
5. **Trasformazione dei Dati:**
|
||||
- I dati originali vengono proiettati lungo questi nuovi assi per ottenere le componenti principali.
|
||||
|
||||
**Componenti Principali**
|
||||
- Le componenti principali sono combinazioni lineari delle variabili originali, ordinate in base alla quantità di varianza spiegata.
|
||||
- La prima componente principale è quella che spiega la maggior parte della varianza nei dati e così via.
|
||||
|
||||
**Formula per le Componenti Principali**
|
||||
$$Z_i = \sum_{j=1}^p X_j \cdot v_{ij}$$
|
||||
dove
|
||||
- $Z_i$ è il valore del i-esimo componente principale.
|
||||
- $X_j$ sono i valori delle variabili originali.
|
||||
- $v_{ij}$ sono gli elementi del j-esimo autovettore.
|
||||
|
||||
- **Visualizzazione dei Dati:** Per ridurre la dimensionalità e aiutare nella visualizzazione di dati multivariabili.
|
||||
- **Riduzione del Rumore:** Per eliminare rumori presenti nei dati originali, in particolare quando i dati sono interrelati.
|
||||
- **Preprocessing per Modelli Di Machine Learning:** Riduce la dimensionalità dei dati mantenendo al massimo il contenuto informativo.
|
||||
|
||||
**Considerazioni e limitazioni**
|
||||
- **Interpretazione:** Ogni componente rappresenta una combinazione lineare di tutte le variabili originali, il che può rendere difficile l'interpretazione dei risultati.
|
||||
- Il primo componente principale è quello che cattura la varianza maggiore nei dati.
|
||||
- Per ottimizzare il processo, vogliamo che non ci sia correlazione tra gli assi risultanti dopo la proiezione dei dati. In altre parole, vogliamo che il secondo componente catturi la varianza **ortogonale** al primo componente, e così via.
|
||||
- **Perdita di informazione:** stiamo letteralmente comprimendo i dati, cerchiamo di farlo perdendo meno informazione possibile ma qualcosa si perde. La scelta del numero k delle componenti principali richiede un equilibrio tra la varianza che si vuole preservare e la dimensionalità.
|
||||
- In PCA si assume che l'informazione si trovi nella varianza delle feature: più alta è la varianza in una feature, più importanti saranno le informazioni contenute in quella feature.
|
||||
|
||||
- PCA assume che la relazione tra le variabili sia lineare. In caso contrario PCA potrebbe non funzionare bene.
|
||||
- Può essere computazionalmente molto costoso per dataset grandi, soprattutto se il numero di variabili nel dataset è largo.
|
||||
|
||||
### Conclusione
|
||||
Il PCA è uno strumento di analisi dati molto utile quando si ha a che fare con molti dati interrelati. Tuttavia, come per ogni tecnica statistica, richiede attenta considerazione del contesto applicativo e delle ipotesi di base.
|
Loading…
Reference in a new issue