Lektor: Ansigtsgenkendelse fejlidentificerer oftere kvinder og mennesker med mørk hud

Bestemte befolkningsgrupper fejlidentificeres markant oftere end hvide mænd af ansigtsgenkendelsesteknologi. Det skal derfor grundigt undersøges, hvorvidt politiets kommende brug af værktøjet vil forskelsbehandle borgere, skriver Nina Grønlykke Mollerup. 

Af Nina Grønlykke Mollerup
Lektor, Institut for Tværkulturelle og Regionale Studier, Københavns Universitet

Når regeringen sammen med SF, Danmarksdemokraterne og Dansk Folkeparti har tilladt politiet at bruge ansigtsgenkendelsessoftware i forbindelse med grov kriminalitet, er det værd at holde sig for øje, om dette redskab vil have forskellige konsekvenser for forskellige befolkningsgrupper.

Teknologien fungerer nemlig ikke ens for alle.

{{toplink}}

Forskere og rettighedsgrupper har i årevis påpeget problemer ved ansigtsgenkendelsessoftware, blandt andet fordi det bidrager til at kompromittere borgeres retssikkerhed.

Dette handler ikke blot om vores ret til privatliv, opbevaring af data og andre spørgsmål, som allerede er påpeget i en dansk kontekst.

Det drejer sig også om, at nogle befolkningsgrupper kan være mere udsatte for fejlidentifikationer end andre.

Diskrimination af kvinder og mennesker med mørk hud

Mens der naturligvis er eksempler på serieforbrydere, der er blevet identificeret via ansigtsgenkendelse og siden dømt, så er der også mange – rigtig mange –eksempler på folk, der er blevet forkert identificeret og arresteret.

Det kan have voldsomme konsekvenser – også selvom de ikke ender med at blive dømt. Der har da også været omfattende erstatningssager.

Det er derfor afgørende at være opmærksom på, hvornår ansigtsgenkendelse fungerer specielt dårligt.

Mens ansigtsgenkendelsessoftware typisk har haft en rimelig succesrate, når det drejer sig om at genkende hvide mænd, er der ikke altid den samme succesrate for andre befolkningsgrupper.

Dem, der er blevet fejlidentificeret har således overvejende været kvinder og mennesker med mørk hud – og fejlraterne har været markante.

Det er i og for sig ikke overraskende (eller nyt) at kamerateknologier fungerer dårligere for nogle befolkningsgrupper end andre.

Helt tilbage i Kodaks storhedstid udviklede kameragiganten først sin farvepalette med flere brune nuancer, da chokolade- og træmøbelfabrikanter klagede over at farvenuancerne i deres produkter ikke kunne ses ordentligt på billederne i deres reklamer.

At billeder ikke kunne gengive ansigtstræk på en stor del af verdens befolkning blev således først italesat som et problem – og opdaget som et kommercielt potentiale – senere.

{{toplink}}

Når politiet begynder at bruge ansigtsgenkendelse, er det vigtigt for vores retssikkerhed, at de formår at mitigere teknologiens designmæssige bias, så de ikke oversættes til fejlagtige arrestationer af mennesker fra bestemte befolkningsgrupper.

Derudover er det også relevant at forholde sig til, hvilken data den ansigtsgenkendelsessoftware, der bliver indkøbt, er trænet på.

Grunden til, at ansigtsgenkendelsesteknologier traditionelt har fungeret bedre på hvide mænd, er fordi der har været en overvægt at hvide mænd i de databaser, softwaren er blevet trænet på, for eksempel databaser over kendte mennesker.

Ulovlig træning af AI-værktøjer

Andre firmaer har imidlertid trænet deres software på et andet og på sin vis mere effektivt materiale.

Adskillige firmaer på området har nemlig fået en fordel gennem data tilvejebragt i samarbejde med repressive regimer, der har overvåget deres egne eller besatte befolkninger.

I modsætning til databaser med velbelyste billeder af kendte mennesker er disse data realistiske, og softwaren er således trænet til at genkende ansigter, der er dårligt belyste og kun delvist synlige.

Dette leder forventeligt til mere præcise resultater, men for hvilken pris?

Det er begrænset med gennemsigtigheden på området, så der er meget vi ikke ved.

Men når dansk politi begynder at bruge ansigtsgenkendelsesteknologi, er det væsentligt, at vi kan sikre os at bestemte befolkningsgrupper ikke bliver særligt udsatte.

Desuden er det væsentligt at sikre, at softwaren ikke er udviklet med udgangspunkt i overtrædelser af menneskerettighederne.

Foreløbigt har man i Danmark indhentet et tilbud på ansigtsgenkendelsessoftware fra et israelsk firma.

Det er værd at undersøge, hvilken data softwaren er trænet på, og hvordan den er blevet tilvejebragt.  

Forrige artikel Tænketank om ansigtsovervågning: De velmenende politikere ved tydeligvis ikke, hvad de har besluttet Tænketank om ansigtsovervågning: De velmenende politikere ved tydeligvis ikke, hvad de har besluttet