Forsker om AI: Det farlige ville være at bero på menneskelig kundskab alene

I det offentlige system skal det være naturligt at bruge alle de værktøjer, der hjælper os - inklusive kunstig intelligens, skriver Anders Kofod-Petersen.

EU's udspil om rammerne for anvendelsen af kunstig intelligens i Europa har mange gode takter og skal nu diskuteres frem til en endelig form.

Jeg forudser, at det bliver særdeles udfordrende, hvis ikke vi får styr på en grundpræmis: kunstig intelligens er ikke i sig selv farligt – det er menneskers anvendelse af det, vi skal være opmærksomme.

Ellers er den egentlige fare, at vi kommer til at takke nej til alt for mange fantastiske muligheder med værktøjet.

Adgang til alle værktøjer
Forestil dig, at du går til din læge. Du får desværre at vide, at du har en alvorlig sygdom. Lægen ser med alvorlige øjne på dig og følger op med denne besked: ”Vi har bevidst besluttet ikke at anvende al tilgængelig information om dig og din lidelse, så du kan ikke få den bedste behandling.” 

Jeg vil vove den påstand, at du ville blive utilfreds med at få den besked. Men det er, sat på spidsen, hvad vi kan risikere at stå overfor, hvis ikke vi bliver bedre til at anvende kunstig intelligens til dét, værktøjet gør så meget bedre end os mennesker, nemlig at håndtere information med høj kompleksitet og i store mængder.

For hvis lægen i ovenstående eksempel havde adgang til de værktøjer inden for kunstig intelligens, som vi allerede har i dag, eller dem der er på vej, så ville hun kunne tilbyde en behandling, som ville være endnu bedre tilpasset dig og din diagnose.

Det kan eksempelvis betyde, at man får stillet den rigtige diagnose tidligere, at man fra starten får udskrevet den korrekte medicin i den korrekte dosering, og at man kan få mere specifik vejledning om, hvordan éns livsstil kan påvirke éns sygdomsforløb.

Vinder over læger
Alligevel vil mange i dag tøve, hvis de bliver spurgt, om de hellere vil have en vurdering fra en kunstig intelligens frem for en læge.

På sin vis har det sin berettigelse, for i undersøgelser, der holder vurderingerne op fra læger versus kunstig intelligens (eksempelvis inden for diagnosticering af dermatologi og cancer), så er sejren godt nok oftest gået til den kunstige intelligens, men der er gode argumenter, der taler til fordel for lægernes mavefornemmelse.

Hvad alle undersøgelser er enige om er, at hvis læger samarbejder med en kunstig intelligens, så er vurderingerne længder bedre – hver gang!

Så hvis du er én af dem, der er skeptisk over for at stole på en kunstig intelligens, så bid mærke i, at du faktisk burde være lige så skeptisk over for din læges vurdering, hvis ikke vedkommende benytter sig af et værktøj baseret på kunstig intelligens.

’Men hvad med vores personfølsomme informationer’, kan jeg næsten høre dig spørge, ’skal vi bare give dem fra os uden videre’?

Det er i al fald et spørgsmål, jeg utroligt tit får. Selvom jeg forstår bekymringen, er jeg mindst lige så bekymret for, hvis vi misser oplagte muligheder med kunstig intelligens, fordi der ikke er nok offentlig viden om, hvordan man rent faktisk kan beskytte vores data.

Hvis vi lige ignorerer, at vi faktisk giver vores informationer til læger i dag, som trods alt også er fejlbarlige systemer, der kan komme til at tale over sig, så skal man også forstå, at meget af det, vi i dag kan udvikle med kunstig intelligens, kan gøres samtidig med at dine data beskyttes.

Farligt kun at bero på menneskelig kundskab
På Alexandra Instituttet har vi eksempelvis et samarbejde med Rigshospitalet, hvor nogle patienter, der har været indlagt med blodpropper i hjertet, har indvilget i at give deres data til projektet.

Projektet skal ende med at give os en model, der forhåbentlig i fremtiden kan sørge for, at vi ikke fortsat skal opleve, at 25 procent af patienterne bliver genindlagt inden for det første halve år.

Det ville kræve en hel artikel for sig at beskrive, hvordan vi har sikret patienternes data, men humlen er, at patienter spørges, inden nogen data registreres, får fuld information, får krypteret deres data og får slettet selvsamme data et år efter, de er indsamlet.

Når først modellen er udviklet på baggrund af de data, kan dataene ikke længere føres tilbage til den enkelte patient – men måske den kan betyde, at du kan undgå en genindlæggelse, hvis du skulle være så uheldig at få en blodprop i hjertet engang.

I det offentlige system, som udgøres af dig og mig, skal det være naturligt at bruge værktøjer, der hjælper os.

Vi skal investere i gode værktøjer, i godt håndværk, og vi skal stille krav – og netop derfor skal vi forstå, at hvis vi beror på menneskelig kundskab alene, så er det et farligere udgangspunkt, end hvis vi bruger mennesker til det, de er gode til, og maskiner til det, de er gode til.

Jeg personligt vil kæmpe for, at det bliver en del af den endelige form, EU-reguleringen får, og jeg håber, at I vil kæmpe med mig.

Forrige artikel Konsulent: Spionageskandalen kan øge risikoen for cyberaktivisme mod Danmark Konsulent: Spionageskandalen kan øge risikoen for cyberaktivisme mod Danmark Næste artikel Institut for Menneskerettigheder kritiserer EU’s AI-udspil: Sæt borgeren i centrum Institut for Menneskerettigheder kritiserer EU’s AI-udspil: Sæt borgeren i centrum