CBS-forskere: Hold igen med datadeling, indtil der er skabt effektive samtykkemekanismer

Nuværende AI-dilemmaer giver rigelig anledning til at holde igen med datadeling, indtil der er skabt effektive consentmekanismer og ’the right to be excluded’ er etableret og kan håndhæves, skriver Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom.

Af Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom
forskere i kunstig intelligens, CBS

Techfirmaer, som udvikler de ansigtsgenkendelsessystemer, der er klassificeret som højrisiko-teknologier af EU, har måske fået hjælp fra et uventet sted: dit ansigt.

Forskningsprojektet ’Exposing.ai’ har bygget et værktøj, der lader folk søge efter deres egen tilstedeværelse i de billedsamlinger, som danner fundamentet for mange ansigtsgenkendelsesteknologier.

Værktøjet, som matcher billeder fra den – i øvrgit aldrende – billeddelingsplatform, Flickr, giver et indblik i de enorme mængder data, som kunstig intelligens kræver.

Almindelige mennesker ved ofte ikke, at de bidrager til udviklingen af kunstig intelligens. For nogle føles erkendelsen grænseoverskridende. Andre oplever det som en naturlig og uproblematisk forlængelse af deres digitale tilværelse.

Men de færreste har overblik over, hvilke sammenhænge deres data bruges i.

Downloadet tusindvis af gange
Til denne artikel søgte vi på søgeordet '#copenhagen' i Exposing.ai-systemet.

Ud af den enorme database dukkede 2.399 taggede billeder op med dette hashtag i billedsamlingen ’Megaface’, som er et kæmpe datasæt, der består af billeder af ansigter.

Disse billeder og 3.578.697 øvrige billeder er blevet brugt til ansigtsgenkendelse i mindst 78 projekter og i 14 forskellige lande.

Ifølge New York Times er Megaface-datasættet blevet downloaded tusindvis af gange af det amerikanske forsvarsfirma Northrop Grumman; In-Q-Tel, CIA’s investeringsaafdeling; Bytedance, som ejer det kinesiske sociale medie TikTok, og det kinesiske overvågningsfirma Megvii.

Exposing.ai har også fundet download-henvendelser fra det danske politi, Europol, Facebook, Google, Huawei, Microsoft, IARPA, det russiske sikkerhedsfirma Stilsoft.ru, det tyrkiske politi og Hoan Ton-That, som ejer det omstridte sikkerhedsfirma Clearview.ai.

Nogle af de systemer, som udvikles, anvendes angiveligt til forskningsformål, der ikke har anvendelse uden for laboratoriet, mens andre bruges til træning af systemer, der overvåger mennesker for at målrette annoncer eller spore mennesker i det fysiske rum.

Uanset anvendelsen er det problematisk, at ansigtsbilleder er blevet anvendt og formentlig stadig bliver det uden oplyst tilsagn.

Umuligt at fjerne data
Spørgsmålet melder sig ikke desto mindre: Hvis man opdager, at man befinder sig i denne database og gerne vil undgå, at éns ansigt bliver brugt i en eller flere af disse forbindelser, hvilke muligheder har man så for at trække sin data tilbage?

Værktøjet Exposing.ai har allerede skabt bølger i vandet i forskningsverdenen, hvor adskillige forskere har trukket adgangen til højtprofilerede datasæt tilbage.

Men selv hvis adgangen til selve datasættet trækkes tilbage, vil billederne ofte stadig cirkulere i andre udgaver. Det er med andre ord utroligt svært, for ikke at sige umuligt, at fjerne data, når det først er sat i cirkulation.

Det er denne erkendelse, som har medført, at den europæiske regulering er så restriktiv på området – især når det kommer til potentielt sensitiv data.

Samtidig anerkender både policy makers og industrien, at en for snæver lovgivning kan hindre de fremskridt, som kunstig intelligens byder på.

Hold igen med datadeling
GDPR har måske bidraget til at løse noget af problemet fremadrettet for EU-borgere.

I hvert fald har nogle tech-giganter sat anvendelse af billeder af europæiske borgere til træning af AI-systemer på pause.

Facebook undlod eksempelvis i starten af 2021 helt at inkludere billeder af europæere i deres aktuelle flagskibssmodel til billedgenkendelse, SEER. I stedet blev der brugt en milliard billeder fra Facebookejede Instagram fra borgere uden for EU.

Men det viser også de nye teknologiers iboende dilemma: Der forlyder rygter om, at netop på grund af GDPR er Facebook nu angiveligt blevet dårligere til at identificere europæiske borgere.

Om det er godt eller skidt vil nok afhænge af øjnene, der ser.

Men en foreløbig delkonklusion kunne være, at de nuværende dilemmaer giver rigelig anledning til at holde igen med datadeling, indtil der er blevet skabt effektive consentmekanismer, og at ’the right to be excluded’ er blevet etableret juridisk og i praksis kan håndhæves på tværs af grænser og sektorer.

Forrige artikel DUF og tech-ambassadør: Vores generations ansvar at sikre demokratiske online-spilleregler DUF og tech-ambassadør: Vores generations ansvar at sikre demokratiske online-spilleregler Næste artikel Forsker: AI-etiske udfordringer skal løses med afsæt i digitale menneskerettigheder Forsker: AI-etiske udfordringer skal løses med afsæt i digitale menneskerettigheder