In de Verenigde Staten is een zwangere vrouw op basis van een arrestatiefoto uit 2015 gearresteerd en voor 11 uur gedetineerd geweest. Achteraf bleek ze niets met de zaak te maken te hebben. Het is niet de eerste keer dat een ‘false-positive’ een onschuldig iemand achter tralies zet. Elke technologie is feilbaar en dat er betreurenswaardige situaties voorkomen is op zichzelf geen reden om een technologie geheel in de ban te doen. Maar wanneer er herhaaldelijk eenzelfde probleem boven water komt, is het wellicht verstandig om toch eerst even terug te gaan naar de tekentafel.
Gezichtsherkenning vaak de mist in
De 32 jaar oude Porcha Woodruff mocht een dagje brommen in Detroit nadat de politie haar had gearresteerd in verband met een overval en een autodiefstal. De gezichtsherkenningssoftware van het bureau had een verband gelegd tussen een oude foto van haar en een persoon die te zien was op beveiligingsbeelden. Ze werd ondervraagd en haar telefoon werd in beslag genomen. Dat alles terwijl Porcha hoogzwanger is, en de persoon op de beelden dat overduidelijk niet was.
Het is beslist niet de eerste keer dat politie in de VS te veel vertrouwen legt in gezichtsherkenningssoftware. Minstens vijf keer eerder ging het fout, waarvan twee net als dit laatste geval ook in Detroit. Zaken als lengte, postuur of duidelijke kenmerken worden genegeerd. In het geval van Porcha werd de foto ook door het slachtoffer aangewezen. Dat er bij Porcha werd aangeklopt is één ding, maar je mag toch verwachten dat bij het zien van haar zwangere buik de agenten twijfels hadden moeten krijgen.
Dat dit niet gebeurde, heeft wellicht wat te maken met het systematische racisme waarmee men in de VS mee te doen heeft. Alle 6 foutief aangewezen personen waren niet wit. De Amerikaanse politie maakt gemiddeld 125 keer per jaar gebruik van gezichtsherkenning, vrijwel altijd wanneer ze op zoek zijn naar een zwarte man. Dat terwijl het ondertussen algemene kennis is dat gezichtsherkenningssoftware bovengemiddeld veel moeite heeft om mensen met een donkere huiskleur te herkennen.
Geen wetenschappelijke basis voor huidige gebruiksvormen
In de VS wordt dergelijke software ondertussen al een jaar of 20 ingezet voor ordehandhaving. Echter blijkt dit gebruik niet te zijn gestoeld op gedegen onderzoek. Sterker nog, recente onderzoeken tonen vooral de valkuilen aan. Bepaalde demografieën worden steevast vaker verkeerd herkend dan anderen. De demografie waarin de meeste fouten worden gemaakt is vrouw, zwart en 18 tot en met 30 jaar. 189 verschillende stukken herkenningssoftware waren bij deze demografie het minst accuraat.
Maar het is niet alleen een probleem met de software zelf. Volgens een onderzoek door Georgetown Law is de technologie erg vatbaar voor manipulatie. Bijvoorbeeld door cognitieve bias, het gebruik van bewijsmateriaal van erg lage kwaliteit of zelfs gemanipuleerd bewijs. Georgetown kwam dan ook met een keihard oordeel: De techniek werkt niet goed genoeg voor het gebruik dat politiebureaus voor ogen hebben.
Ook in Nederland mag de politie gezichtsherkenning inzetten
Dat het gebruik van de software door politie niet onomstreden is, zou men ook in Nederland aan het denken moeten zetten. Toch heeft de politie aangekondigd dat het, na een voorafgaande toets, gezichtsherkenningssoftware in zou kunnen gaan zetten. De opgestelde kaders moeten het voor politie mogelijk maken om te toetsen wanneer gezichtsherkenning wel en niet ingezet mag worden. Zo moet er bijvoorbeeld gekeken worden naar de ernst van een delict en of er andere mogelijkheden van opsporing zijn.
De politie zegt dat de inzet van gezichtsherkenning agenten en rechercheurs een belangrijk hulpmiddel biedt. Wel moet er vooraf worden gekeken of de inzet verantwoord is. Dat werk zal worden gedaan door een toetsingscommissie. De commissie is niet de eindverantwoordelijke. Bijvoorbeeld een officier van justitie of burgemeester kan na goedkeuring een streep zetten door de inzet van gezichtsherkenning. We mogen hopen dat er bij de Nederlandse politie goed wordt gekeken naar de fouten die de Amerikaanse collega’s maken.