ADD-bloggen giver et indblik i ADD-projektets forskning på tværs af de seks universitetspartnere. Mød vores forskere fra Aalborg Universitet, Aarhus Universitet, Copenhagen Business School, Roskilde Universitet, Københavns Universitet og Syddansk Universitet. Læs om deres projekter, aktiviteter, idéer og tanker – og få et nyt perspektiv på de kontroverser og dilemmaer, vi står overfor i digitaliseringens tidsalder, og ideer til, hvordan vi kan arbejde for at styrke det digitale demokrati.
Af Helene Friis Ratner, lektor og co-PI i ADD-projektet, Aarhus Universitet-
Den danske Digitaliseringsminister Caroline Stage (M) vil fremme ”usexet” og ”super-kedelig” AI, ”der virker” i stedet for de juridisk og etisk komplekse AI projekter, der har fyldt i medierne. Det er en anden politisk kommunikation om AI, end den vi hørte fra hendes forgænger Marie Bjerre (V). I sommeren 2024 opfordrede Bjerre os til ikke at være ”berøringsangste” – og nævnte, at AI potentielt kunne implementeres på et af de mest komplekse, indgribende og følsomme områder – tvangsfjernelser af børn og unge. Et indlæg, som ikke overraskende medførte stor kritik.
Stages tilgang signalerer modsat en mere forsigtig tilgang, hvor den offentlige forvaltning starter med at høste de lavthængende frugter, primært på det administrative område. Hvordan skal vi forstå dette skifte i den politiske kommunikation om AI? I dette blogindlæg vil jeg forsøge at belyse netop det spørgsmål, med afsæt i den forskning vi har lavet i ADD-projektet på Aarhus Universitet.
1. generations eksperimenter med AI i den offentlige sektor
I ADD-projektet har vi undersøgt et stort udsnit af de første projekter, der forsøgte at udvikle algoritmer baseret på maskinlæring til den offentlige sektor. Maskinlæring er en gren af kunstig intelligens, der finder mønstre i store mængder historiske data og bruger disse til at forudsige f.eks. hændelser eller kategorisere borgere. Sådanne prædiktive algoritmer er i dansk sammenhæng forsøgt udviklet på en lang række forskellige områder, f.eks. til at forudsige kritiske sygdomme hos akutte patienter på sundhedsområdet, til at forudsige ældres risiko for genindlæggelse på social- og serviceområdet, til at matche ledige borgere med virksomheder på beskæftigelsesområdet og til at forudsige behovet for kommunale køretøjer.
I ADD-projektets første periode (2021-25) har vi på Aarhus Universitet fulgt samtlige danske AI projekter på udsatte børne- og ungeområdet samt undersøgt de fællesoffentlige danske AI signaturprojekter. På udsatte børne- og ungeområdet er der tale om fire danske forsøg:
- Gladsaxe kommune, der ville forudsige børns mistrivsel, før symptomer opstod, gennem omfattende datasammenkørsel (kommunen søgte om undtagelse fra databeskyttelseslovgivning gennem frikommuneforsøget).
- Forskningsprojektet Underretninger i Fokus, der ville undersøge om en beslutningsstøtte, der forudsiger børns risiko for alvorlig mistrivsel, kunne hjælpe sagsbehandlere med lovpligtige risikovurderinger af underretninger.
- To kommuner, der ville udvikle mailsorteringsprogrammer, der kunne forudsige, hvilke underretninger, der med stor sandsynlighed var akutte, så en sagsbehandler kunne behandle disse først. De to kommuner ønskede ikke at introducere algoritmer i selve det faglige beslutningsrum (opsporing af udsatte børn eller risikovurdering af underretninger).
Ingen af de fire forsøg lever i dag. Hvor de to første lukkede ned eller blev reduceret i omfang pga. manglede legalitet, eller usikkerhed herom, leverede de to sidste ikke de nødvendige resultater. Derudover viser vores forskning, at disse projekter – som omhandler nogle af de mest sårbare borgere i samfundet – oplevede stor kritisk bevågenhed fra offentligheden. Dette medførte over tid en øget kritisk bevidsthed blandt udviklerne om, at kunstig intelligens ikke blot kan være en ”løsning”, men også indebærer mange etiske dilemmaer og kalder på ekstra forsigtighed. Med andre ord er der i Danmark på dette område vokset en modenhed frem i projekterne, mod større grad af forsigtighed og mindre magt til algoritmen. Dette afspejles tydeligt i udviklingen fra det første projekt, Gladsaxes opsporingsalgoritme, til de to kommuners forsøg med mailsortering. Derfor var det også overraskende, da Bjerre i sommeren 2024 nævnte tvangsanbringelser som et eksempel på, at vi skulle være mindre berøringsangste. Ingen af de danske forsøg har handlet om tvangsfjernelse, men derimod om forebyggende arbejde og håndtering af underretninger. Tvangsfjernelse er langt mere indgribende end de danske, nu lukkede, projekter.
De offentlige AI signaturprojekter
Vi har også forsket i de danske AI signaturprojekter. Signaturprojekterne dækker 40 projekter i danske regioner og kommuner, igangsat 2020-2022 for 187 mio. kr., og de spænder over sundhed, administration, klima og miljø, beskæftigelse samt social- og omsorgsområdet. Her udviklede vi en taksonomi til at kategorisere AI i forhold til, hvor stort indgreb den potentielt har i den enkelte borgers tilværelse, samt hvordan den automatiserer beslutningsprocesser.
Vores forskning viser, at prædiktive algoritmer i signaturprojekterne skulle forudsige på tre forskellige niveauer:
- Sagsniveau: Algoritmer klassificerer sager ud fra tekst eller billeder, f.eks. klassifikation af indholdet i en email til automatisk mailsortering.
- Individniveau: Borger-rettede prædiktive algoritmer, der f.eks. skal forudsige en borgers bedste match med virksomheder på beskæftigelsesområdet eller genindlæggelse. Her bruges algoritmisk prædiktion som profileringsværktøj.
- Organisatorisk niveau: Her er fokus typisk at optimere ressourcer for hele organisationen, f.eks. til at styre transportflåde, ruteplanlægning eller energiforbrug i bygninger.
Denne inddeling gav os dels en viden om mangfoldigheden af AI-eksperimenter i den danske offentlige sektor, men vi kunne også se en sammenhæng mellem prædiktionsniveau og projekternes succes ift. at blive implementeringsklare. Hvor de borgerrettede AI-projekter med få undtagelser er lukket ned, er flere AI-projekter, der opererer på sags- og organisatorisk niveau, i dag i drift eller på vej til det.
Det er ikke overraskende, at de borgerrettede projekter er lukket. Dels viste flere projekter at mangle den nødvendige lovhjemmel; en bredere tendens, som den nyligt offentliggjorte database over danske offentlige AI-projekter også dokumenterer. Dermed ikke sagt at Danmark ikke anvender borgerrettet profilering. Metoden anvendes af SKAT og Udbetaling Danmark, hvilket har medført kritik af myndighederne for uproportionel overvågning og manglende transparens. Til gengæld viser vores forskning i Signaturprojekterne også, at det offentliges eksperimenter med AI er gået på tværs af mange forskellige domæner, fra klima- og energiområdet over til sundhed og beskæftigelse, og at der eksperimenteres med mange forskellige løsninger inden for de forskellige forvaltningsområder. Således er det offentliges forsøg med AI meget bredere og af langt større diversitet end de få projekter, der når den offentlige samtale i medierne.
Der er som regel en god grund til, at de borgerrettede profileringsprojekter tiltrækker sig både eksperters og mediers kritiske opmærksomhed. Når prædiktive algoritmiske forudsigelser handler om mennesker, sociale problemer og komplekse sagsforløb, opstår der hurtigt dilemmaer. Fejl og algoritmisk bias kan få alvorlige konsekvenser for berørte borgere. Samtidigt er de projekter også meget komplekse, både ift. juraen, den kommunale it-infrastruktur, hvor mange forskellige it-systemer skal kunne udveksle data ”realtime”, og ift. kvaliteten af data, for en algoritme bliver ikke bedre, end den data, som den er trænet på.
I det lys er det ikke mærkeligt, at vi i stigende grad ser en bevægelse mod den såkaldte ”kedelige” AI, ”der virker”. Vi kan se det som en politisk og institutionel modning, der afspejler en stigende forståelse af, at kunstig intelligens i den offentlige sektor bør udvikles med både etisk omtanke og juridisk robusthed. Derfor er det også primært de administrative og organisatoriske løsninger, som f.eks. automatisering af ruteplanlægning, sagsbehandling af byggeansøgninger og aktindsigtsanmodninger, som i dag bliver fremhævet som eksemplariske.
Hvad så med den super-kedelige AI?
Som de fleste ved, blev de danske AI signaturprojekter overhalet indenom af den teknologiske udvikling. I november 2022 lancerede OpenAI ChatGPT, der bl.a. kan generere menneskelignende tekst på baggrund af prompts. I stedet for prædiktive modeller, trænet på det offentliges data og udviklet til specifikke og afgrænsede områder, er den generative AI (GenAI) en anden slags. Den bygger ikke på analyser af det offentliges historiske data med det formål at forudsige fremtidige hændelser, men på store sprogmodeller, der er trænet på enorme tekst- og billedmængder høstet fra internettet, og har til formål at forstå og generere naturligt sprog. Det betyder, at teknologien i udgangspunktet er generisk, den er ikke skræddersyet til en bestemt opgave eller sektor, men kan tilpasses bredt og fleksibelt.
Selvom GenAI også opererer prædiktivt ved at forudsige næste ord i en sætning, adskiller den sig alligevel fra de danske afprøvede prædiktive algoritmer både i teknologi, funktion og anvendelse. Hvor prædiktive modeller i den offentlige sektor typisk er trænet på egne data og har til formål at optimere specifikke arbejdsgange (fx risikovurdering af borgere, forudsigelse af sygdomsforløb eller kategorisering af sager), er generativ AI kendetegnet ved en mere åben anvendelighed. I stedet for at klassificere eller forudsige specifikke sagsforhold, genererer den tekst, opsummerer dokumenter, oversætter, besvarer spørgsmål og assisterer i informationssøgning. Generativ AI er dermed ikke bundet til én snæver opgave, men kan anvendes bredt på tværs af domæner og brugssituationer. Hvor prædiktive modeller opererer i lukkede, datadrevne systemer med klart definerede output, arbejder generativ AI med åben tekstproduktion og interaktion. Det gør den mere fleksibel, men også mere uforudsigelig og vanskeligere at kontrollere. Det er velkendt, at den både kan ’hallucinere’, dvs. generere faktuelt forkerte output, og at dens output kan være biased.
I den offentlige sektor knytter der sig fx store forhåbninger til brugen af generativ AI til (delvist) at automatisere dokumentation. Et aktuelt eksempel er tale-til-tekst-teknologier, hvor generativ AI anvendes til at transskribere og fortolke lyd ved at forudsige den mest sandsynlige tekst ud fra det talte input. Det betyder, at en sygeplejerske i stedet for at indtaste sine observationer manuelt kan indtale dem, hvorefter systemet automatisk genererer et udkast til journalnotat. Ligeledes kan man forestille sig løsninger, hvor samtaler mellem medarbejder og borger optages, transskriberes og omsættes til udkast til sagsnotater eller referater. Denne brug af AI griber umiddelbart ikke ind i den professionelle dømmekraft på samme måde som en algoritmisk beslutningsstøtte, men sigter mod at reducere den tid, medarbejdere bruger på administrativt arbejde. Tid, der i stedet kan frigøres til den direkte kontakt med borgerne. Derfor ses teknologien som et middel til at lette arbejdsbyrden og afhjælpe mangel på arbejdskraft.
Men spørgsmålet er, om disse løsninger overhovedet “virker” i praksis, og om de juridisk og organisatorisk er klar til implementering. Generativ AI, herunder talegenkendelse, kræver ofte adgang til cloudinfrastruktur og modeller, som er udviklet af amerikanske techvirksomheder. Det rejser komplekse spørgsmål om databeskyttelse, særligt hvis systemerne efterfølgende skal fintunes på lydoptagelser eller dokumenter fra danske borgere og offentligt ansatte. Må man fx bruge optagelser af borgernes og medarbejdernes stemmer til at eftertræne AI? Og hvor robust er teknologien i praksis, når den skal håndtere dialekter og udtalevariationer? Derudover genererer sprogmodeller ofte fejl, der kræver efterredigering. Hvis medarbejdere ender med at bruge tid på at rette AI-genereret dokumentation til, opstår spørgsmålet: Er der så reelt tale om en effektivisering? Disse spørgsmål søges aktuelt besvaret i dette spændende PhD-projekt.
Endelig er det værd at stille spørgsmål ved præmissen: At dokumentation blot er et administrativt tidsrøveri. For mange professionelle er dokumentation ikke kun en optegnelse, men en måde at tænke og forstå praksis på – en form for meningsskabelse, hvor observationer, vurderinger og prioriteringer nedfældes og bearbejdes. Talegenkendelse og automatisering kan ikke nødvendigvis opfange de subtile elementer, som præger mødet mellem borger og medarbejder: Den måde en borger går ind i et rum på, en ændret stemmeføring, lugt, øjenkontakt eller pludselig tavshed. Alt dette indgår i den taktile og kropslige viden, som professionelle bringer i spil i deres vurderinger. Hvis vi reducerer dokumentation til en teknisk overførsel af tale til tekst, risikerer vi at overse det vigtige samspil mellem sanseindtryk, faglig dømmekraft og skriftlig refleksion. Det bør vi tage alvorligt, når nye teknologier implementeres.
Derfor er det afgørende at finde den rette balance mellem automatisering og faglig autonomi. Ved at inddrage både professionelle og borgere i udvikling og implementering af AI-løsninger kan man i højere grad sikre, at teknologien understøtter – snarere end fortrænger – dømmekraft, erfaring og relationel viden. Autonomi kan styrkes gennem gennemsigtighed, mulighed for fravalg og klare grænser for, hvad AI skal og ikke skal bruges til i konkrete arbejdsopgaver.
AI i den offentlige sektor er ikke længere kun et spørgsmål om at vælge den rette teknologi eller model, men i stigende grad også et spørgsmål om globale datainfrastrukturer, organisatoriske praksisser og værdimæssige prioriteringer. Skiftet fra ambitiøse, men (ofte) kontroversielle profileringsprojekter til mere lavpraktiske og administrative anvendelser, vidner om en voksende erkendelse af, at AI ikke er neutrale værktøjer, men teknologier, der indgår i og former komplekse samspil mellem datainfrastruktur og lovgivning, faglighed og mødet med borgeren. ”Kedelig AI” kalder på grundig afvejning, inddragelse og refleksion, hvis vi vil sikre, at teknologien faktisk virker både teknisk, organisatorisk og demokratisk.
Endelig bør vi ikke glemme, at ”kedelig AI” ikke nødvendigvis er (det eneste) svar på det politiske ønske om effektivisering. Det viste den offentlige evaluering af signaturprojekterne med al tydelighed. Det eneste projekt, med en businesscase med en besparelse på 5 årsværk, er Københavns kommunes projekt med at automatisere sagsbehandling af byggeansøgninger, som primært er bygget på den noget ældre automatiseringsteknologi Robot Process Automation (RPA). RPA er en teknologi, der automatiserer regelbaserede og gentagne opgaver ved at efterligne menneskers interaktion med it-systemer. Hvor AI er et forsøg på at efterligne menneskeligt ræsonnement, er RPA mere enkel: Den klikker, taster, tjekker og flytter data. Det er teknologisk set mere simpelt, men også mere stabilt og forudsigeligt, og ofte nok til at opnå betydelige effektiviseringer, særligt i administrative arbejdsgange.
Som min tidligere kollega i ADD-projektet, Jakob Laage-Thomsen har bemærket, så er der derfor endnu mere ”kedelige” løsninger og lavthængende frugter end ”kedelig AI”. Det bør minde os om, at AI ikke altid behøver være svaret. Nogle gange er den bedste løsning hverken generativ eller prædiktiv, den er mere enkel og muligvis udviklet i 1990’erne.
Den kedelige AI, der virker, kommer ikke af sig selv. Den kræver ansvarlighed, inddragelse af borgere og det offentliges faggrupper. Derudover kræver den en grundig forståelse af både infrastruktur, ikke mindst i forhold til cloud, teknologi organisatoriske realiteter og demokratiske værdier, herunder vigtigheden af inklusion af borgerne. Opgaven for offentlige og private aktører er derfor ikke kun at udvikle smartere løsninger, men at udvikle dem med omtanke, tålmodighed og blik for den virkelighed, de skal virke i.
