Justitia: Sænk farten på det teknologiske lyntog i velfærdsstaten

Egner det socialretlige område sig egentlig som eksperimentarium for kunstig intelligens? Der er fortsat stor usikkerhed med teknologien og fejl vil have stor betydning for de sårbare borgere, det drejer sig om, skriver Birgitte Arent Eiriksson.

Der er fuld fart på den teknologiske udvikling i Danmark, som siden 2018 har været verdensmester i digitalisering.

De danske ambitioner er dog ikke stoppet her. Ifølge et regeringsudspil samme år, «Digital service i verdensklasse», skal Danmark også inden 2025 være blandt de førende lande i verden til at anvende kunstig intelligens, og vores nuværende regering har netop udsendt en ny digitaliseringsstrategi, hvor de har afsat  140 millioner kroner til udbredelse af kunstig intelligens i den offentlige sektor og vil anvende teknologi til frigøre arbejdskraft svarende til 10.000 offentlige årsværk.

Der kan næppe herske nogen tvivl om, at kunstig intelligens rummer et stort effektiviseringspotentiale, men teknologien har også nogle begrænsninger og skyggesider, som løbende afdækkes i takt med, at den kunstige intelligens testes og anvendes i praksis.

Spørgsmålet er, om velfærdsstaten, og i særdelshed det socialretlige område, egner sig som eksperimentarium for kunstig intelligens, hvor det ikke kun er teknologiens muligheder og begrænsninger, der prøves af, men også effekten på borgernes rettigheder og retssikkerhed. 

Forsøgene er i gang

På trods af, at de mange udfordringer og dilemmaer med kunstig intelligens fortsat er uafklarede, har teknologien allerede bredt sig i den offentlige sektor.

Det gælder for eksempel de mange såkaldte signaturprojekter, som Regeringen, KL og Danske Regioner siden 2020 har givet støtte til for at accelerere afprøvning og anvendelse af kunstig intelligens.

Hertil kommer en lang række øvrige offentlige og private initiativer med kunstig intelligens, herunder det værktøj, som TrygFondens Børneforskningscenter i samarbejde med VIA University College og to danske kommuner er ved at udvikle til brug for vurdering af underretninger om børn.

Under testningen af værktøjet viste det sig, at underretninger om de yngste børn blev undervurderet af den kunstige intelligens, fordi de historiske data, som var blevet anvendt til udvikling af algoritmen, havde en indbygget aldersbias.

Selvom socialrådgiverne i de medvirkende kommuner fortsat var meget åbne for at anvende værktøjet, som de blandt andet mente havde potentiale til at kvalificere sagsprioriteringen, var de også bekymret for konsekvenserne, når værktøjet ikke vurderede underretningerne korrekt, ligesom de var bekymret for, om den kunstige intelligens på sigt ville afkoble deres selvstændige faglige stillingtagen i hver enkelt sag.

Stor usikkerhed  

Ønsket om at skabe det bedst mulige beslutningsgrundlag med kunstig intelligens er helt forståelig og legitim, og handler ikke kun om effektivisering og økonomi, men også om fordelene ved at sammenholde store datamængder i sager med høj kompleksitet.

Det gælder for eksempel de nævnte sager med underretninger om børn, hvor en række forskelligartede oplysninger skal afvejes i forhold til hinanden, og hvor det både kan få store konsekvenser, hvis en underretning går under radaren, og hvis et barn tvangsfjernes akut, uden der reelt er grundlag for det.

Teknologi er god til hurtigt at finde og sammenstille data. Men når man samtidig afgrænser datamængden til bestemte kendte kilder og tilfører en formel på, hvordan disse data skal vægtes i forhold til hinanden, kan det også nemt gå galt.

Det gælder ikke kun, når det er den kunstige intelligens, som træffer beslutningen, men også når den anvendes som beslutningsstøtte for en sagsbehandler, der skal træffe afgørelse.

Forskning viser, at kunstig intelligens som beslutningsstøtte kan have væsentlig betydning for den endelige vurdering af en sag – både når resultatet er korrekt og forkert, og at det særligt er de mindre erfarne ansatte, som lader sig forvilde af et forkert resultat fra beslutningsstøtten.

Det kræver altså stor tro på egne evner at tilsidesætte et resultat fra kunstig intelligens, og derfor er bekymringer om afkobling af den selvstændige menneskelige vurdering også ganske velbegrundede.

Sænk farten

De mange projekter med kunstig intelligens på det socialretlige område er selvfølgelig velegnede til at gøre os klogere på teknologien.

Men vi befinder os også på et område med mange sårbare borgere, og hvor myndighedernes afgørelser kan have afgørende betydning for borgernes liv og fremtidsmuligheder. Hertil kommer, at fejl og uhensigtsmæssigheder i den kunstige intelligens kan være meget vanskelige at opdage og derfor få betydning i rigtig mange sager.

Det er på tide at sænke farten på det teknologiske lyntog i velfærdsstaten og drage erfaringer med kunstig intelligens på andre områder, inden den igen slippes løs på det socialretlige område. Og når det sker, skal det selvfølgelig være med klare rammer for, hvordan kunstig intelligens anvendes og udbredes, uden borgernes rettigheder og retssikkerhed kompromitteres.

{{toplink}}

Forrige artikel Projektgruppe: I vejen fra krisecenter til bolig er et velfungerende hjem vigtigt for trivslen Projektgruppe: I vejen fra krisecenter til bolig er et velfungerende hjem vigtigt for trivslen Næste artikel EL-borgmester: Forbyd private krisecentre at trække profit ud EL-borgmester: Forbyd private krisecentre at trække profit ud