IT-Politisk Forening om AI-udspil: Listen over forbudte anvendelser er alt for kort

En omfattende regulering af kunstig intelligens er nødvendig, hvis vi skal sikre, at teknologien understøtter europæiske samfundsværdier frem for at modarbejde dem. EU-kommissionens liste over forbudte anvendelser bør udvides, mener Jesper Lund.

Når man læser om kunstig intelligens er det nemt at blive begejstret over alt det som bliver muligt fremover.

Men anvendelsen af kunstig intelligens kan også skabe betydelige risici for borgernes grundlæggende rettigheder og det demokratiske samfund.

Teknologi til at analysere store datamængder kan eksempelvis misbruges til systematisk overvågning og kontrol af befolkningen.

Tiltag, som kendes fra GDPR
Kunstig intelligens kan forstærke eksisterende sociale uligheder mellem borgerne og magtfulde aktører som staten og store virksomheder.

Disse aktører har de økonomiske ressourcer og adgangen til store datamængder, som er forudsætningen for udvikling og anvendelse af kunstig intelligens.

Som AI-forskeren Kate Crawford udtalte til Wired for nylig er ’kunstig intelligens’ hverken kunstig eller intelligent. Der er tale om modeller til statistiske forudsigelser, som ofte er blevet så komplicerede, at ingen reelt kan overskue konsekvenserne, herunder ikke mindst risikoen for diskrimination fra bias i modellerne.

Tanken om at computeralgoritmer designet på den måde skal træffe automatiske afgørelser hen over hovedet på borgerne er skræmmende i sig selv.

En omfattende regulering af kunstig intelligens er derfor nødvendig, hvis vi skal sikre, at teknologien understøtter europæiske samfundsværdier frem for at modarbejde dem.

I mange tilfælde (men ikke alle) kan dette sikres med de tiltag, som kendes fra GDPR:

Retsgarantier for borgerne, formålsbegrænsning for anvendelsen, obligatoriske konsekvensanalyser, tekniske beskyttelsesforanstaltninger som privacy by design og en uafhængig tilsynsmyndighed, som effektivt kan sanktionere lovovertrædelser med bøder.

Eksplicitte forbud nødvendigt
I forhold til kunstig intelligens er denne type regulering imidlertid ikke nok. Visse anvendelser af kunstig intelligens, specielt relateret til masseovervågning, kan medføre så store skader på grundlæggende samfundsværdier, at det er nødvendigt med et eksplicit forbud.

En regulering af kunstig intelligens bør derfor sætte klare juridiske rammer for, hvad der er uacceptabel - forbudt - anvendelse af teknologien.

European Digital Rights (EDRi), som IT-Politisk Forening er medlem af, offentliggjorde i juni 2020 et positionspapir med sådanne anbefalinger for reguleringen af kunstig intelligens.

Sammen med en række andre civilsamfundsorganisationer deltager IT-Politisk Forening i koalitionen Reclaim Your Face, som siden februar 2021 har arbejdet på at indsamle underskrifter til et europæisk borgerinitiativ (ECI) om at forbyde biometrisk masseovervågning (som ansigtsgenkendelse).

På trods af GDPR er disse teknologier desværre ved at blive udbredt, som dokumenteret af Reclaim Your Face-medlemmernes research.

Forbudslisten er for kort
Det er derfor glædeligt, at EU-Kommissionens udspil til regulering af kunstig intelligens både indeholder en liste med forbudt praksis for kunstig intelligens (afsnit II) og en detaljeret regulering af anvendelser af systemer til kunstig intelligens som udgør såkaldt ’høj risiko’ (afsnit III).

Listen med forbudt praksis for kunstig intelligens i Kommissionens forordningsforslag er desværre alt for kort.

Der er kun egentlige forbud mod 'social credit score' systemer (som de kendes fra Kina) hos offentlige myndigheder, subliminal manipulation af menneskers adfærd og udnyttelse af menneskelige sårbarheder. Derudover er biometrisk fjernidentifikation i realtid forbudt på offentlige steder, men kun for politiet, og dette forbud er på forhånd udhulet af en række undtagelser.

Listen med forbud burde omfatte systemer til såkaldt ’predictive policing’ og grænsekontrol, der kun er klassificeret som ’højrisiko’-systemer i Kommissionens forslag. Grænsekontrol bliver i stigende grad baseret på individuelle risikovurderinger som i filmen ’Minority Report’.

Et eksempel er det EU-støttede udviklingsprojekt iBorderCtrl. Den Europæiske Union kan ikke holde fanen højt for grundlæggende rettigheder og samtidig udsætte tredjelandsborgere for den type nedværdigende behandling.

Forbuddet mod biometrisk fjernidentifikation i realtid bør udvides til at gælde for alle dataansvarlige, og det bør omfatte biometrisk masseovervågning mere generelt, ikke bare til identifikation.

Ansigtsgenkendelse til biometrisk kategorisering og følelsesgenkendelse (’emotion recognition’) er også meget problematisk, blandt andet fordi det kan føre til diskrimination mod minoritetsgrupper. Samtidig er der tale om teknikker som bedst kan karakteriseres som pseudovidenskab.

Et forbud mod anvendelsen i det offentlige rum er derfor helt oplagt her.

Forrige artikel SF i EU: Derfor stemmer vi nej til SF i EU: Derfor stemmer vi nej til "verdens vigtigste klimalov" Næste artikel Tidl. ambassadør om fransk regionalvalg: Macrons parti tabte, men han har stadig en chance til præsidentvalget Tidl. ambassadør om fransk regionalvalg: Macrons parti tabte, men han har stadig en chance til præsidentvalget