Machine learning maakt computers steeds slimmer. Gezichten herkennen is voor velen niet moeilijk, denk maar aan Google Foto’s of Facebook Moments.
Dergelijke algoritmes worden ‘getraind’. Onderzoekers laten het computerprogramma los op een dataset met miljoenen gezichten in, waarna de software door middel van trial en error met foutcorrectie steeds slimmer wordt. Na een tijd kan een dergelijk algoritme individuele gezichten herkennen met bijna 100 procent precisie.
Onderzoekers van de universiteit van Washington wilden samen met onder andere Intel, Samsung en Google ontdekken hoe waardevol de bestaande algoritmes zijn in een realistischer scenario. De universiteit lanceerde daartoe het MegaFace-project. De onderzoekers daagden de makers van verschillende algoritmes uit om hun software los te laten op een beeldenset met daarin maar liefst 690.572 unieke personen. De beelden waren afkomstig van Flickr, waar foto’s onder de Creative Commons-licentie voor dergelijk onderzoek van het net geplukt mogen worden. In totaal ging het om één miljoen foto’s.
Google, dat natuurlijk een enorme dataset ter beschikking heeft om zijn algoritme te trainen, deed het met FaceNet het beste. N-TechLab uit Rusland haalde de op één na hoogste score met 73 procent.
De onderzoekers vinden het belangrijk dat gezichtsherkennissoftware overweg kan met MegaFace-hoeveelheden aan data. Ze hebben geen big-brother-cameranetwerk in gedachten; integendeel. Denk maar aangezichtsbeveiliging op je telefoon: wie die verliest en vertrouwd op de beveiliging wil een hogere nauwkeurigheid dan 1 op 10.000.
Natuurlijk kan een perfect gezichtherkenningsalgoritme de ordediensten ook helpen om een terrorist op de speuren, door de software los te laten op camerabeelden van bijvoorbeeld de metro of het treinstation.