Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

Detecting Images Outside Training Distribution for Fingerprint Spoof Detection

Holmkvist, Daniel LU (2023) In Master's Theses in Mathematical Sciences FMAM05 20231
Mathematics (Faculty of Engineering)
Abstract
Artificial neural networks are known to run into issues when given samples that deviate from the training distribution, where the network may confidently provide an incorrect answer. Out-of-distribution detection methods aims to provide a solution to this issue, by detecting data that deviates from the distribution used to train the model. This thesis looks at the possibility of using out-of-distribution methods in a more challenging context, where the data looked at is more semantically similar than what is often looked at in the literature. Three out-of-distribution detection methods are tested and evaluated at separating fingerprint images from out-of-distribution images, including spoof molds of fingerprints, generated fingerprints... (More)
Artificial neural networks are known to run into issues when given samples that deviate from the training distribution, where the network may confidently provide an incorrect answer. Out-of-distribution detection methods aims to provide a solution to this issue, by detecting data that deviates from the distribution used to train the model. This thesis looks at the possibility of using out-of-distribution methods in a more challenging context, where the data looked at is more semantically similar than what is often looked at in the literature. Three out-of-distribution detection methods are tested and evaluated at separating fingerprint images from out-of-distribution images, including spoof molds of fingerprints, generated fingerprints using GANs, and non-finger images. The results on the non-finger dataset are in line with the literature, and all methods give promising results on the non-finger dataset. None of the methods are however able to separate the more challenging spoof molds dataset from the in-distribution images. However, on the generated dataset the methods are able to provide somewhat encouraging results, though the performance is significantly lower than on the semantically different datasets. (Less)
Popular Abstract
Moderna maskininlärningalgoritmer har ofta svårt att hantera data annorlunda till det den tidigare har sett. Detta arbete undersöker möjligheten att detektera huruvida en ny bild algoritmen får se är olik träningsdatan för att förbättra fingeravtrycksdetektion som utförs på företaget Precise Biometrics.

Maskininlärningsalgoritmer används idag i många fält, och har visat sig väldigt användbara till allt från självkörande bilar till chatbottar. Algoritmerna använder data för att skapa modeller till att förutspå framtiden. De är dock inte utan problem, utan kan ha svårt att hantera data olik den det tidigare har sett. När nätverket får sådana bilder kan resultatet ofta bli konstigt och oförväntat, något som kan vara väldigt negativt för... (More)
Moderna maskininlärningalgoritmer har ofta svårt att hantera data annorlunda till det den tidigare har sett. Detta arbete undersöker möjligheten att detektera huruvida en ny bild algoritmen får se är olik träningsdatan för att förbättra fingeravtrycksdetektion som utförs på företaget Precise Biometrics.

Maskininlärningsalgoritmer används idag i många fält, och har visat sig väldigt användbara till allt från självkörande bilar till chatbottar. Algoritmerna använder data för att skapa modeller till att förutspå framtiden. De är dock inte utan problem, utan kan ha svårt att hantera data olik den det tidigare har sett. När nätverket får sådana bilder kan resultatet ofta bli konstigt och oförväntat, något som kan vara väldigt negativt för säkerhetskritiska applikationer så som fingeravtrycksdetektion. Men det finns metoder för att upptäcka och flagga dessa bilder, några av vilka jag i detta examensarbete undersökt.

Datan jag har använt mig av för att utföra tester kan primärt delas upp i två delar. Första gruppen består av bilder som är väsentligt skilda ifrån träningsdatan. Dessa är inte fingeravtryck överhuvudtaget, utan istället exempelvis siffror eller byxor. Den andra gruppen är svårare och består av bilder som är liknande träningsdatan, det vill säga fejkade fingeravtryck som nätverket inte tidigare har sett. I literaturen används metoderna primärt på bilder som är väsentligt skillda träningsdatan, medan jag här undersökt hur bra metoderna fungerar på denna “svårare” data, och vad som kan förbättra dem i denna kontext.

Jag har använt mig av nya metoder som i forskningen visat bra resultat i studier, både i riktighet och snabbhet. Metoderna har även gemensamt att de inte kräver en förändring av nätverkets uppbyggnad, eller kräver att hela nätverket tränas om. Metoderna har förbättras specifikt på det här problemet, både genom att förbehandla datan samt genom lämpliga parameterval. Som nätverk användes kraftfulla fingeravtrycksklassifierare från Precise Biometrics vilka metoderna integrerades med för att ta hand om ny, skild data.

Resultatet visar att metoderna fungerar väldigt bra på data som är väsentligt skild ifrån träningsdatan, där dessa metoder betydligt förbättrar sannolikheten att algoritmen ger en önskvärd respons. På sådan data kan man uppnå rätt resultat i över 99% av fallen med den bästa metoden jag undersökte. Det är dock som förväntat mycket svårare på data som är mer lik fingeravtryck. Här kan man inte förvänta sig i närheten av den typen av resultat, men beroende på kvaliteten av de falska fingeravtrycken kan man ändå prestera en bra bit över slump. För att försöka få ett bättre resultat skulle man kunna ta till många olika strategier. Till exempel kan man använda fejkade fingeravtryck nätverket inte tidigare sett för att träna detektorn, eller utforska andra metoder. (Less)
Please use this url to cite or link to this publication:
author
Holmkvist, Daniel LU
supervisor
organization
course
FMAM05 20231
year
type
H2 - Master's Degree (Two Years)
subject
keywords
Machine learning, Out-of-Distribution, Deep Neural Network, spoof detection, Neural Network
publication/series
Master's Theses in Mathematical Sciences
report number
LUTFMA-3503-2023
ISSN
1404-6342
other publication id
2023:E25
language
English
id
9127968
date added to LUP
2023-11-06 15:13:18
date last changed
2023-11-06 15:13:18
@misc{9127968,
  abstract     = {{Artificial neural networks are known to run into issues when given samples that deviate from the training distribution, where the network may confidently provide an incorrect answer. Out-of-distribution detection methods aims to provide a solution to this issue, by detecting data that deviates from the distribution used to train the model. This thesis looks at the possibility of using out-of-distribution methods in a more challenging context, where the data looked at is more semantically similar than what is often looked at in the literature. Three out-of-distribution detection methods are tested and evaluated at separating fingerprint images from out-of-distribution images, including spoof molds of fingerprints, generated fingerprints using GANs, and non-finger images. The results on the non-finger dataset are in line with the literature, and all methods give promising results on the non-finger dataset. None of the methods are however able to separate the more challenging spoof molds dataset from the in-distribution images. However, on the generated dataset the methods are able to provide somewhat encouraging results, though the performance is significantly lower than on the semantically different datasets.}},
  author       = {{Holmkvist, Daniel}},
  issn         = {{1404-6342}},
  language     = {{eng}},
  note         = {{Student Paper}},
  series       = {{Master's Theses in Mathematical Sciences}},
  title        = {{Detecting Images Outside Training Distribution for Fingerprint Spoof Detection}},
  year         = {{2023}},
}