KMD: Der er brug for principper for anvendelsen af generativ AI i det offentlige

Problemerne med AI-fødte systemers implementering i det offentlige står i kø. Derfor forudsætter effektiv brug af AI et sæt principper, der kombinerer teknologisk innovation med samfundets krav om præcision og lighed, skriver Hans Jayatissa. 

Når vi i dag taler om anvendelsen af kunstig intelligens i det offentlige, så er der ofte fokus på at etablere specifikke hjælpeværktøjer (for eksempel til billeddiagnostik i sundhedssektoren), eller at berige eksisterende systemer ved at tilføje AI-egenskaber (for eksempel udarbejde et resume af et dokument eller klassificere et brev i et sagsbehandlingssystem).

Dette giver god mening, hvis man vel at mærke starter med problemet, og derudfra vælger den AI-algoritme, som bedst passer til at løse det pågældende problem. Sådanne gode mønstre for løsning af konkrete generiske problemer med bestemte former for kunstig intelligens bør den nyligt nedsatte AI-taskforce arbejde med at udbrede.

Hvis vi derimod ser på den seneste udvikling af de potente generative AI-værktøjer, som for eksempel OpenAIs ChatGPT, så bliver de i tiltagende grad opfattede som omnipotente platforme, der kan løse alle typer af problemer.

De mest begejstrede taler ovenikøbet om at værktøjerne nærmer sig det forjættede AGI (Artificial General Intelligence) niveau, hvor værktøjerne ikke bare trænes til at løse ét specifikt problem, men har en generel bred intelligens anvendelse.

En letkøbt konklusion

I den sammenhæng taler man også om, at vi bevæger os hen mod etableringen af AI-fødte (AI-native) systemer, hvor AI-en er selve systemet, som derefter oplæres/konfigureres til det enkelte fagdomæne.

Dette vil i givet fald give nogle enorme fordele i forhold til hurtigt at kunne etablere nye systemer på specifikke fagspecialer og tillige muligheden for løbende og dynamisk at forbedre disse til ændret lovgivning og nye krav.

På denne måde vil vi med tiden kunne undgå fortidens træghed i implementeringen af ny lovgivning i eksisterende systemer.

Det lyder jo forjættende, men i den offentlige sektor skal dette dog balanceres med kravene til, at den offentlige forvaltning sker med præcision, transparens, sporbarhed, historik, lovmedholdelighed og ligebehandling/konsistens. For eksempel har vi en forventning om, at to borgere, der har samme problem og er i samme situation/kontekst, får præcis den samme hjælp eller afgørelse, hvis de henvender sig til en offentlig instans.

{{toplink}}

Det vil således være meget let at konkludere, at AI-fødte systemer ikke kan anvendes i den offentlige forvaltning, da problemerne jo står i kø. Nutidens generative AI-værktøjer er ikke transparente med, hvilke data de er oplært på baggrund af, de opfinder svar, der ikke har hold i fakta, de er inkonsistente og svarer forskelligt på samme spørgsmål uden begrundelse og så har de begrænset hukommelse og ved ikke, hvad de svarede tidligere.

Dette vil således konkret betyde, at systemets output uden forklaring vil blive forskelligt på forskellige tidspunkter, selv med samme input og uden at randbetingelserne er ændrede.

Et sæt af principper

Vi håber dog, at AI-taskforcen ikke tyer til sådanne letkøbte konklusioner, men i stedet anerkender, at kunstig intelligens og især de generative AI-værktøjer er i en rivende udvikling, hvor der fortsat forskes i nye teknologier og metoder.

For at anerkende denne udvikling og samtidigt undgå uhensigtsmæssige konsekvenser af brugen af AI i det offentlige, så vil vi i stedet anbefale, at AI-taskforcen som noget af det første nedsætter et sæt principper for anvendelsen af AI, inklusiv generativ AI, i det offentlige.

Disse principper skal blandt andet afspejle de fundamentale randbetingelser, som gælder, når der anvendes it til offentlig sagsbehandling, for eksempel hvad angår forklarbarhed, konsistens og sporbarhed.

Med sådanne principper i hånden skaber vi en større sikkerhed for, at de løsninger, der etableres, afspejler det stade, som teknologien er på. Samtidigt skal principperne være tolerante for at den teknologiske udvikling fortsætter, og at for eksempel generativ AI med tiden vil kunne anvendes på måder, som ikke er forsvarlige i dag.

For at understøtte dette, så kan principperne bruges som kvalificerende faktorer på de gode mønstre for brugen af AI, som jeg nævnte indledningsvist, og det vil ikke nødvendigvis være alle principper, der skal gælde for alle brugsmønstre. Således kan man forestille sig gode mønstre for brugen af generativ AI til for eksempel resumé- og referatskrivning, som uproblematisk ikke overholder princippet om konsistens.

Med sådanne mønstre og kvalificerende principper vil det blive betydeligt lettere for offentlige myndigheder at stille de rette krav til brugen af AI i deres it-systemer. Således at disse krav både afspejler det aktuelle stade af AI-teknologien og anerkender, at denne udvikler sig, måske således, at det en dag er forsvarligt at gøre systemerne AI-native.

{{toplink}}

Forrige artikel Lektor: Ansigtsgenkendelse fejlidentificerer oftere kvinder og mennesker med mørk hud Lektor: Ansigtsgenkendelse fejlidentificerer oftere kvinder og mennesker med mørk hud