Lektor: Optimismen omkring AI på socialområdet bunder i en misforståelse af sociale problemer

Fremfor at lade sig forføre af tekniske løsninger og forestillinger om AI’s potentiale til kvalitetssikring og effektivitet er det nødvendigt helt grundlæggende at overveje, om kunstig intelligens er et værktøj, der meningsfuldt egner sig til at løse komplekse opgaver tæt på borgerne, skriver Stella Mia Sieling-Monas.

De seneste års udbredelse af kunstig intelligens i den offentlige sektor og i leverancen af serviceydelser har bidraget til en udbredt optimisme om teknologiens mange potentialer.

Især lokker teknologiens løfter om effektivisering og kvalitetssikring i en sektor, der er trængt på ressourcer og uddannet arbejdskraft.

De politiske forventninger til området er til at spore. Det stod blandt andet klart med økonomiaftalen fra maj 2024, som beskrev nedsættelsen af en ny taskforce, der skal udbrede kunstig intelligens i det offentlige Danmark og positionere os som de førende i verden.

Således taler vi ikke længere om, hvorvidt og hvorfor kunstig intelligens skal udbredes i leverancen af offentlig service, men i højere grad om, hvordan og hvorhenne AI kan implementeres bredest muligt.

{{toplink}}

Også den nyligt afgående digitaliseringsminister, Marie Bjerre (V), nåede at fremhæve forventningen om 10.000 besparede årsværk og bemærke, at hun ikke umiddelbart ser grænser for, hvilke områder AI kan finde anvendelse på.

For at tage et eksempel fra socialområdet fremhævede den daværende minister potentialet for at anvendelse kunstig intelligens i sager om tvangsfjernelse af børn.

Beskedne resultater

Den politiske optimisme kan forekomme påfaldende, taget i betragtning af de beskedne og til tider nedslående resultater, som forsøg på implementering af AI på socialområdet hidtil har demonstreret.

I flæng kan nævnes en lang række af Kommunernes Landsforenings tidligere millionsatsninger under de såkaldte signaturprojekter, der for manges vedkommende strandede i juridiske, faglige og etiske hårdknuder.

Fra profilering af langtidsledighed og til risikovurderinger af underretninger på børneområdet er projekt efter projekt blevet skrinlagt, fordi kvalitet, legitimitet og bidrag til praksis har været utilstrækkelig.

Her kan man selvfølgelig fristes til at pege på, at der blot er tale om umoden teknologi og eksperimenter, som ikke nødvendigvis var tiltænkt fuld implementering.

Så meget desto vigtigere er det måske at gå et skridt tilbage til grundlæggende at spørge, om de redskaber, man tiltror store potentialer, grundlæggende egner sig til at løse de problemer, man står over for.

En hammer er som bekendt primært relevant, når opgaven består af søm, som skal hamres. Andre værktøjer kan derimod være mere meningsfulde, når man står med en håndfuld skruer.

Kunstig intelligens på socialområdet, her forstået som maskinlæring og algoritmisk beslutningsstøtte som led i kompleks sagsbehandling, er nemlig grundlæggende baseret på en ganske særlig vidensopfattelse og problemforståelse, når det kommer til sociale problemer og menneskelig adfærd.

Det forkerte værktøj

Forsimplet sagt skal en prædiktiv algoritme bidrage med at forudsige udfald ved at knytte et tilstrækkeligt antal datapunkter sammen til mønstre.

En borgers risiko for langtidsledighed kan således forudsiges ved at kigge historisk på, hvad andre borgere i langtidsledighed har været karakteriseret ved, og herefter træne algoritmen på dette data.

{{toplink}}

Vi har således at gøre med en meget rationel og objektiviseret forståelse af, at sociale problemer for en enkelt borger er noget, vi kan forudsige ved at vurdere tilstrækkeligt mange observerbare variable, og at forudsigelseskraft kan indfanges via statistiske sandsynligheder på gruppeniveau.

Problemet med en sådan naturvidenskabelig forståelse af komplekse sociale problemstillinger er blot dét, som man i socialt arbejde har opereret med siden tidernes morgen; nemlig, at faktorer som specifik kontekst, relationer mellem enkeltpersoner og en lang række af umiddelbart mindre 'observerbare variable' rundt om en borger i en vanskelig livssituation ofte bærer meget mere forklaringskraft, når det kommer til at forstå sociale hændelser og forandre livssituationer.

Netop ovenstående erkendelse af, hvad sociale problemer er for et genstandsfelt, forklarer muligvis, hvorfor succesen med at udvikle AI-værktøjer på socialområdet hidtil har været ganske begrænset.

Vi forsøger fejlagtigt at bruge en hammer til at skrue skruer i med, fordi vi grundlæggende misforstår den arbejdsopgave, vi står over for.

Tøjlede politiske forventninger

Dertil kommer, at vi ikke fejlagtigt må tilvælge kunstig intelligens ud fra en antagelse om, at algoritmiske modeller træffer mere præcise og objektive vurderinger end mennesker.

I stedet må vi anerkende, at algoritmer i sig selv bærer både sociale konstruktioner og stærke potentialer for netop forskelsbehandling og diskrimination, som er vanskelige for både borger og system selv at gennemskue og derved sætter hele borgernes retssikkerhed på spil.

En gennemsnitsbetragtning i form af en algoritmisk baseret "risiko-score" bærer i bedste fald kun ringe forklaringskraft med sig og kan principielt tilsidesættes af sagsbehandleren, såfremt den ikke bidrager til de faglige vurderinger.

I værste fald sættes borger og sagsbehandler dog i risiko for fejlvurderinger, bias, overoplysning af sager, usynligt merarbejde og manglende gennemsigtighed i sagsbehandlingen. Derfor kan vi ikke kan tillade os at opfatte AI-eksperimenter på socialområdet som harmløse og neutrale.

Når taskforcen nedsættes, må man håbe, at man tør tøjle de politiske forhåbninger til AI på socialområdet en smule og forsøge at interessere sig for "beskaffenheden" af det område, man har med at gøre.

Fremfor at lade sig forføre af tekniske løsninger og forestillinger om AI's potentiale til kvalitetssikring og effektivitet er det nødvendigt helt grundlæggende at overveje, om kunstig intelligens er et værktøj, der meningsfuldt egner sig til at løse komplekse opgaver tæt på borgerne.

Alternativt kan man jo vælge at gå en anden vej og i stedet arbejde for at sikre tilstrækkeligt med veluddannede fagprofessionelle og nødvendigt faglige råderum til at udøve vurderinger på baggrund af kendskab til den enkelte borger.

{{toplink}}

Forrige artikel Institut for menneskerettigheder: Ny handlingsplan skal lappe hullerne på handicapområdet Institut for menneskerettigheder: Ny handlingsplan skal lappe hullerne på handicapområdet