vault backup: 2024-12-30 01:20:34

This commit is contained in:
Marco Realacci 2024-12-30 01:20:34 +01:00
parent b49bc4e2f9
commit ad010570ce
6 changed files with 84 additions and 62 deletions

View file

@ -16,7 +16,7 @@
"file": "Biometric Systems/slides/Biometric_System___Notes.pdf",
"page": 17,
"left": -85,
"top": 416,
"top": 424,
"zoom": 1.5
},
"icon": "lucide-file-text",
@ -32,61 +32,71 @@
"file": "Biometric Systems/slides/LEZIONE4_Face introduction and localization.pdf",
"page": 25,
"left": -373,
"top": 295,
"top": 303,
"zoom": 0.8
},
"icon": "lucide-file-text",
"title": "LEZIONE4_Face introduction and localization"
}
},
{
"id": "c74d17cfbe39864e",
"type": "leaf",
"state": {
"type": "pdf",
"state": {
"file": "Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
"page": 17,
"left": -153,
"top": 848,
"zoom": 1.3
},
"icon": "lucide-file-text",
"title": "LEZIONE9_Ear recognition.pptx"
}
},
{
"id": "fac915dd40926979",
"type": "leaf",
"state": {
"type": "pdf",
"state": {
"file": "Biometric Systems/slides/LEZIONE5_NEW_More about face localization.pdf",
"page": 3,
"left": -292,
"top": 228,
"zoom": 0.9
"file": "Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf",
"page": 33,
"left": -226,
"top": 521,
"zoom": 1
},
"icon": "lucide-file-text",
"title": "LEZIONE5_NEW_More about face localization"
"title": "LEZIONE8_Face antispoofing"
}
},
{
"id": "bf4a60835e83ee85",
"id": "fdcc02f6bb8bc429",
"type": "leaf",
"state": {
"type": "pdf",
"type": "image",
"state": {
"file": "Biometric Systems/slides/Riassunto_2021_2022.pdf",
"page": 35,
"left": -11,
"top": 423,
"zoom": 1.3154136917261656
"file": "Biometric Systems/images/Pasted image 20241228171617.png"
},
"icon": "lucide-file-text",
"title": "Riassunto_2021_2022"
"icon": "lucide-image",
"title": "Pasted image 20241228171617"
}
},
{
"id": "61ed77bf6f8f2ca3",
"id": "2d7d1ebb465ffaef",
"type": "leaf",
"state": {
"type": "markdown",
"type": "image",
"state": {
"file": "Foundation of data science/notes/4 L1 and L2 normalization - Lasso and Ridge.md",
"mode": "source",
"source": false
"file": "Biometric Systems/images/Pasted image 20241228174722.png"
},
"icon": "lucide-file",
"title": "4 L1 and L2 normalization - Lasso and Ridge"
"icon": "lucide-image",
"title": "Pasted image 20241228174722"
}
}
],
"currentTab": 4
"currentTab": 5
}
],
"direction": "vertical"
@ -256,53 +266,53 @@
"companion:Toggle completion": false
}
},
"active": "0d5325c0f9289cea",
"active": "2b2245f56092006e",
"lastOpenFiles": [
"Biometric Systems/images/Pasted image 20241228171617.png",
"Biometric Systems/images/Pasted image 20241228174722.png",
"Biometric Systems/notes/4. Face detection.md",
"Biometric Systems/notes/6. Face recognition 2D.md",
"Biometric Systems/notes/11. Fingerprints.md",
"Biometric Systems/notes/8 Face anti spoofing.md",
"Biometric Systems/slides/LEZIONE11_Fingerprints.pdf",
"Biometric Systems/slides/Biometric_System___Notes.pdf",
"Biometric Systems/slides/LEZIONE4_Face introduction and localization.pdf",
"Biometric Systems/slides/LEZIONE9_Ear recognition.pptx.pdf",
"Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf",
"Biometric Systems/notes/7. Face recognition 3D.md",
"Biometric Systems/slides/LEZIONE8_Face antispoofing 1.pdf",
"Biometric Systems/notes/12. Iris recognition.md",
"Biometric Systems/notes/13. Multi biometric.md",
"Biometric Systems/slides/LEZIONE5_NEW_More about face localization.pdf",
"Biometric Systems/notes/2. Performance indexes.md",
"Biometric Systems/notes/3. Recognition Reliability.md",
"Biometric Systems/notes/9. Ear recognition.md",
"Biometric Systems/slides/LEZIONE3_Affidabilita_del_riconoscimento.pdf",
"Biometric Systems/slides/LEZIONE2_Indici_di_prestazione.pdf",
"Biometric Systems/slides/Riassunto_2021_2022.pdf",
"Foundation of data science/notes/9 Random Forest.md",
"Foundation of data science/notes/9 Decision tree.md",
"Foundation of data science/notes/9 Gradient Boosting.md",
"Foundation of data science/notes/8 Variational Autoencoders.md",
"Foundation of data science/notes/7 Autoencoders.md",
"Foundation of data science/notes/4 L1 and L2 normalization - Lasso and Ridge.md",
"Biometric Systems/images/Pasted image 20241217025904.png",
"Biometric Systems/images/Pasted image 20241217030157.png",
"Foundation of data science/notes/1 CV Basics.md",
"Foundation of data science/notes/5 Neural Networks.md",
"Foundation of data science/notes/6 PCA.md",
"Foundation of data science/notes/4 L1 and L2 normalization - Lasso and Ridge.md",
"Foundation of data science/notes/3.2 LLM generated from notes.md",
"Foundation of data science/notes/3.1 Multi Class Logistic Regression.md",
"Foundation of data science/notes/3 Logistic Regression.md",
"Foundation of data science/notes/2 Linear Regression.md",
"Foundation of data science/notes/9 Decision tree.md",
"Biometric Systems/slides/LEZIONE8_Face antispoofing.pdf",
"Biometric Systems/notes/8 Face anti spoofing.md",
"Biometric Systems/slides/LEZIONE7_Face recognition3D.pdf",
"Biometric Systems/slides/LEZIONE5_NEW_More about face localization.pdf",
"Biometric Systems/slides/LEZIONE4_Face introduction and localization.pdf",
"Biometric Systems/slides/Biometric_System___Notes.pdf",
"Biometric Systems/slides/LEZIONE6_Face recognition2D.pdf",
"Biometric Systems/notes/9. Ear recognition.md",
"Biometric Systems/notes/3. Recognition Reliability.md",
"Biometric Systems/notes/7. Face recognition 3D.md",
"Biometric Systems/slides/Riassunto_2021_2022.pdf",
"Biometric Systems/notes/dati da considerare.md",
"Biometric Systems/notes/multi bio.md",
"Biometric Systems/notes/13. Multi biometric.md",
"Biometric Systems/notes/2. Performance indexes.md",
"Biometric Systems/notes/11. Fingerprints.md",
"Foundation of data science/notes/8 Variational Autoencoders.md",
"Foundation of data science/notes/7 Autoencoders.md",
"Biometric Systems/notes/6. Face recognition 2D.md",
"Biometric Systems/slides/LEZIONE2_Indici_di_prestazione.pdf",
"Biometric Systems/notes/1. Introduction.md",
"Biometric Systems/notes/12. Iris recognition.md",
"Biometric Systems/notes/4. Face detection.md",
"Foundation of data science/notes/9 Random Forest.md",
"Biometric Systems/images/Pasted image 20241212094046.png",
"Biometric Systems/images/Pasted image 20241212094016.png",
"Biometric Systems/images/Pasted image 20241212093900.png",
"Biometric Systems/images/Pasted image 20241212084349.png",
"Biometric Systems/images/Pasted image 20241212094000.png",
"Biometric Systems/images/Pasted image 20241212093943.png",
"Biometric Systems/images/Pasted image 20241212093927.png",
"Biometric Systems/images/Pasted image 20241212093902.png",
"Biometric Systems/slides/LEZIONE12_MULBIOMETRIC.pdf",
"Biometric Systems/slides/LEZIONE3_Affidabilita_del_riconoscimento.pdf",
"Senza nome.canvas"
]
}

Binary file not shown.

After

Width:  |  Height:  |  Size: 86 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 50 KiB

View file

@ -82,11 +82,19 @@ Problemi nel matching:
### Segmentation
The term indicates the separation between the foreground fingerprint from the background which is isotropic (i.e. rotating the white background, the image stays the same)
Anisotropy: the property of being directionally dependent (as opposed to isotropy).
Anisotropy (*anisotropia in italiano*): the property of being directionally dependent (as opposed to isotropy).
Characteristic of the fingerprints are directionally dependent, we can use this to separate the fingerprint from the background.
Characteristic of the fingerprints are directionally dependent, we can use this to separate the fingerprint from the background:
- presence of a peak in a histogram of the local orientations
- the orientation of the ridge line is estimated at each pixel and a histogram is calculated for each block 16×16. The presence of a significant peak denotes an oriented pattern, while a "flat" histogram is characteristic of isotropic signal
- variance of the gray levels in the direction perpendicular to the gradient
- in noisy regions the pattern does not depend on the direction, while the fingerprint area is characterized by a very high variance in the direction orthogonal to the ridge orientation and very low along the ridge
- magnitude of the gradient
- because the area of the fingerprint is rich in edge due to the alternation of ridge and valley, the gradient is high in the foreground and lower elsewhere
- combination of several characteristics
- for each pixel we calculate some characteristics (consistency of the gradient, and average and variance of the intensity), and the allocation to foreground / background is operated by a classifier
Once a fingerprint has been segmentated we can start extracting macro-features such as:
Once a fingerprint has been segmentated we can start extracting **macro-features** such as:
- **ridge-line flow:** described by a structure called **directional map** (or directional image) which is a discrete matrix whose elements denote the orientation of the tangent to the ridge lines.
- analogously, the ridge line density can be synthesized by using a density map.
![[Pasted image 20241127135348.png]]

View file

@ -6,7 +6,7 @@ L'attacco di spoofing può essere:
- **Indiretto (2-8):** avviene nelle fasi successive della pipeline
![[Pasted image 20241113134358.png]]
### Face spoofing
f### Face spoofing
si classificano in attacchi di spoofing 2D e 3D
- **Print/photo attack:** viene presentata un'immagine del soggetto da identificare. Questo attacco può essere facilmente identificato (cambia il modo in cui riflette la luce ecc., LBP viene d'aiuto), oppure possiamo rilevare cose tipo il battito delle ciglia...
@ -71,6 +71,8 @@ Una "foto di una foto" avrà una qualità inferiore, siccome avrà meno informaz
Viene usato LBPV per aggiungere informazioni sul contrasto all'istogramma LBP (per i curiosi le formule stanno negli screenshot di seguito).
Si comparano poi le distanze tra gli istogrammi (distanza chi-square) del modello genuino, del modello fake e della probe. In questo modo si classifica se la probe è fake o real *(4real bro)*.
Matching per chi-squared distance tra istogrammi: si compara la probe con il modello genuino e il modello recaptured.
![[Pasted image 20241114084019.png]]
![[Pasted image 20241114084037.png]]

View file

@ -9,16 +9,17 @@ Tratto biometrico composto da una struttura ben definita:
È un tratto passivo, non varia con gli anni, solitamente non è coperto, non sono richieste alte risoluzioni, non è affetto da variazioni dell'espressione.
##### Aspetti negativi:
Sensibili a variazioni di posa e illuminazione.
Utilizzo estremamente limitato in forensica.
Una prima prova delluniversalità e unicità di questo tratto è quella di Iannarelli nel 1989, purtroppo però lindagine è stata effettuata campionando pochissimi esempi.
Vengono misurate 12 distanze tra dei punti dell'orecchio.
Iannarelli ha poi classificato le orecchie in 4 possibili forme esterne: triangolari, circolari, rettangolari e ovali.
![[Pasted image 20241120140235.png]]
![[Pasted image 20241228171617.png]]
### Localizzazione dell'orecchio
3 approcci diversi:
- **Individuazione di punti di interesse:** diversi possibili approcci, uno di questi è usare le reti neurali. Si possono trainare su immagini a bassa risoluzione perché ci interessa solo estrarre punti, in questa fase non siamo interessati ai dettagli. Individuati questi possiamo costruire il rettangolo che conterrà l'orecchio, eventualmente si può normalizzare la dimensione dell'orecchio
- **Object detection:** esistono classificatori in grado di riconoscere le orecchie. Si possono usare object detector come Viola-Jones / AdaBoost.
- **Object detection:** esistono classificatori in grado di riconoscere le orecchie. Si possono usare object detector come Viola-Jones (AdaBoost).
- **Tecniche di localizzazione 3D:** si basano su una valutazione della profondità e della curvatura delle regioni dell'orecchio. Training offline: partendo da un modello 3D del profilo del soggetto, vengono identificati i punti massimi di curvatura. Viene creata un'immagine binaria (0 nero 1 bianco) e la regione corrispondente all'orecchio viene estratta manualmente. Le regioni estratte vengono fuse insieme per formare un modello di riferimento. Il test viene eseguito online. L'immagine binaria viene calcolata per il nuovo modello, vengono identificati i punti di curvatura massima e minima e vengono ricercate le regioni corrispondenti al modello.
### Riconoscimento dell'orecchio
@ -56,12 +57,13 @@ Metodo robusto per quanto riguarda punti iniziali, risoluzione e rumore.
- **Matching:** avviene calcolando
- somma delle differenze assolute tra gli elementi corrispondenti dei vettori
- numero dei valori simili nei vettori (che rientrano in una certa threshold)
![[Pasted image 20241228174722.png]]
- **Alignment (usando Active Shape Model or Scale Invariant Feature Transform):**
- il modello ASM è un modello statistico che si deforma iterativamente per adattarsi a una nuova immagine
- **SIFT:** per trovare i punti più rappresentativi di un'immagine, ovvero i punti che sono invarianti per traslazioni, rotazioni e scaling. Parzialmente invarianti a cambi di illuminazione e distorsioni geometriche.
- **SIFT:** classico matching con SIFT
- Si fanno vari gaussian smoothing e resampling dell'immagine
- Si applica DoG (difference of gaussian) tra le immagini derivate. Si considerano i punti di massimo e di minimo (maxima and minima) del risultato della DoG.
- Si applica DoG (difference of gaussian) tra le immagini derivate. Si considerano i punti di massimo e di minimo (maxima and minima) del risultato della DoG, si thresholda ecc. Niente di diverso dal classico algoritmo SIFT insomma.
#### 3D
Si valutano curvature e profondità delle regioni rilevanti dell'orecchio. Il matching avviene tra regioni corrispondenti chiamate patch.