vault backup: 2024-12-30 01:20:34

This commit is contained in:
Marco Realacci 2024-12-30 01:20:34 +01:00
parent b49bc4e2f9
commit ad010570ce
6 changed files with 84 additions and 62 deletions

View file

@ -82,11 +82,19 @@ Problemi nel matching:
### Segmentation
The term indicates the separation between the foreground fingerprint from the background which is isotropic (i.e. rotating the white background, the image stays the same)
Anisotropy: the property of being directionally dependent (as opposed to isotropy).
Anisotropy (*anisotropia in italiano*): the property of being directionally dependent (as opposed to isotropy).
Characteristic of the fingerprints are directionally dependent, we can use this to separate the fingerprint from the background.
Characteristic of the fingerprints are directionally dependent, we can use this to separate the fingerprint from the background:
- presence of a peak in a histogram of the local orientations
- the orientation of the ridge line is estimated at each pixel and a histogram is calculated for each block 16×16. The presence of a significant peak denotes an oriented pattern, while a "flat" histogram is characteristic of isotropic signal
- variance of the gray levels in the direction perpendicular to the gradient
- in noisy regions the pattern does not depend on the direction, while the fingerprint area is characterized by a very high variance in the direction orthogonal to the ridge orientation and very low along the ridge
- magnitude of the gradient
- because the area of the fingerprint is rich in edge due to the alternation of ridge and valley, the gradient is high in the foreground and lower elsewhere
- combination of several characteristics
- for each pixel we calculate some characteristics (consistency of the gradient, and average and variance of the intensity), and the allocation to foreground / background is operated by a classifier
Once a fingerprint has been segmentated we can start extracting macro-features such as:
Once a fingerprint has been segmentated we can start extracting **macro-features** such as:
- **ridge-line flow:** described by a structure called **directional map** (or directional image) which is a discrete matrix whose elements denote the orientation of the tangent to the ridge lines.
- analogously, the ridge line density can be synthesized by using a density map.
![[Pasted image 20241127135348.png]]

View file

@ -6,7 +6,7 @@ L'attacco di spoofing può essere:
- **Indiretto (2-8):** avviene nelle fasi successive della pipeline
![[Pasted image 20241113134358.png]]
### Face spoofing
f### Face spoofing
si classificano in attacchi di spoofing 2D e 3D
- **Print/photo attack:** viene presentata un'immagine del soggetto da identificare. Questo attacco può essere facilmente identificato (cambia il modo in cui riflette la luce ecc., LBP viene d'aiuto), oppure possiamo rilevare cose tipo il battito delle ciglia...
@ -71,6 +71,8 @@ Una "foto di una foto" avrà una qualità inferiore, siccome avrà meno informaz
Viene usato LBPV per aggiungere informazioni sul contrasto all'istogramma LBP (per i curiosi le formule stanno negli screenshot di seguito).
Si comparano poi le distanze tra gli istogrammi (distanza chi-square) del modello genuino, del modello fake e della probe. In questo modo si classifica se la probe è fake o real *(4real bro)*.
Matching per chi-squared distance tra istogrammi: si compara la probe con il modello genuino e il modello recaptured.
![[Pasted image 20241114084019.png]]
![[Pasted image 20241114084037.png]]

View file

@ -9,16 +9,17 @@ Tratto biometrico composto da una struttura ben definita:
È un tratto passivo, non varia con gli anni, solitamente non è coperto, non sono richieste alte risoluzioni, non è affetto da variazioni dell'espressione.
##### Aspetti negativi:
Sensibili a variazioni di posa e illuminazione.
Utilizzo estremamente limitato in forensica.
Una prima prova delluniversalità e unicità di questo tratto è quella di Iannarelli nel 1989, purtroppo però lindagine è stata effettuata campionando pochissimi esempi.
Vengono misurate 12 distanze tra dei punti dell'orecchio.
Iannarelli ha poi classificato le orecchie in 4 possibili forme esterne: triangolari, circolari, rettangolari e ovali.
![[Pasted image 20241120140235.png]]
![[Pasted image 20241228171617.png]]
### Localizzazione dell'orecchio
3 approcci diversi:
- **Individuazione di punti di interesse:** diversi possibili approcci, uno di questi è usare le reti neurali. Si possono trainare su immagini a bassa risoluzione perché ci interessa solo estrarre punti, in questa fase non siamo interessati ai dettagli. Individuati questi possiamo costruire il rettangolo che conterrà l'orecchio, eventualmente si può normalizzare la dimensione dell'orecchio
- **Object detection:** esistono classificatori in grado di riconoscere le orecchie. Si possono usare object detector come Viola-Jones / AdaBoost.
- **Object detection:** esistono classificatori in grado di riconoscere le orecchie. Si possono usare object detector come Viola-Jones (AdaBoost).
- **Tecniche di localizzazione 3D:** si basano su una valutazione della profondità e della curvatura delle regioni dell'orecchio. Training offline: partendo da un modello 3D del profilo del soggetto, vengono identificati i punti massimi di curvatura. Viene creata un'immagine binaria (0 nero 1 bianco) e la regione corrispondente all'orecchio viene estratta manualmente. Le regioni estratte vengono fuse insieme per formare un modello di riferimento. Il test viene eseguito online. L'immagine binaria viene calcolata per il nuovo modello, vengono identificati i punti di curvatura massima e minima e vengono ricercate le regioni corrispondenti al modello.
### Riconoscimento dell'orecchio
@ -56,12 +57,13 @@ Metodo robusto per quanto riguarda punti iniziali, risoluzione e rumore.
- **Matching:** avviene calcolando
- somma delle differenze assolute tra gli elementi corrispondenti dei vettori
- numero dei valori simili nei vettori (che rientrano in una certa threshold)
![[Pasted image 20241228174722.png]]
- **Alignment (usando Active Shape Model or Scale Invariant Feature Transform):**
- il modello ASM è un modello statistico che si deforma iterativamente per adattarsi a una nuova immagine
- **SIFT:** per trovare i punti più rappresentativi di un'immagine, ovvero i punti che sono invarianti per traslazioni, rotazioni e scaling. Parzialmente invarianti a cambi di illuminazione e distorsioni geometriche.
- **SIFT:** classico matching con SIFT
- Si fanno vari gaussian smoothing e resampling dell'immagine
- Si applica DoG (difference of gaussian) tra le immagini derivate. Si considerano i punti di massimo e di minimo (maxima and minima) del risultato della DoG.
- Si applica DoG (difference of gaussian) tra le immagini derivate. Si considerano i punti di massimo e di minimo (maxima and minima) del risultato della DoG, si thresholda ecc. Niente di diverso dal classico algoritmo SIFT insomma.
#### 3D
Si valutano curvature e profondità delle regioni rilevanti dell'orecchio. Il matching avviene tra regioni corrispondenti chiamate patch.