Luk

ADD blogpost: Skal ‘den digitale kirkegård’ mindskes, skal vi have en dedikeret lovramme for AI i den offentlige sektor

Offentlige AI-projekter støder ind i juridiske barrierer ved implementering, hvorfor Danmark har brug for en ny lovramme.

ADD-bloggen giver et indblik i ADD-projektets forskning på tværs af de seks universitetspartnere. Mød vores forskere fra Aalborg Universitet, Aarhus Universitet, Copenhagen Business School, Roskilde Universitet, Københavns Universitet og Syddansk Universitet. Læs om deres projekter, aktiviteter, idéer og tanker – og få et nyt perspektiv på de kontroverser og dilemmaer, vi står overfor i digitaliseringens tidsalder, og ideer til, hvordan vi kan arbejde for at styrke det digitale demokrati.

Af adjunkt Aysel Küçüksu,Københavns Universitet

Danmarks ambition om at være verdensførende inden for implementering af AI i den offentlige sektor bliver måske jævnligt udbredt til omverdenen, men stemmer ikke overens med virkeligheden. Forskning viser, at AI-projekter udviklet til den danske offentlige sektor oftere end ikke ender på den såkaldte »digitale kirkegård«.

Dette er problematisk set ud fra et økonomisk og menneskerettighedsmæssigt perspektiv, fordi det ikke er en politisk prioritet at have en offentligt tilgængelig oversigt over vellykkede og mislykkede AI-projektforløb. Økonomisk betyder denne udeladelse, at vi risikerer løbende at bruge danske offentlige midler på at gentage fortidens fejl uden nogen garanti for, at sådanne gentagelser vil adskille sig, selv i mindste grad, fra det, der allerede er blevet forsøgt før.

Fra et menneskerettighedsperspektiv indebærer uofficielle og udokumenterede mislykkede forløb en risiko for, at eksperimentelle datapraksisser normaliseres uden tilstrækkelig parlamentarisk granskning, retsligt tilsyn eller borgerindsigt. Gennemsigtighed udgør en minimumsgaranti for menneskerettighedernes beskyttelse, og den nuværende uigennemsigtighed rejser betydelige demokratiske bekymringer.
Ikke nok med det, undergraver manglen på systematisk dokumentation af de igangværende automatiseringsbestræbelser også yderligere tilliden til de offentlige myndigheder. Det gør den ved at etablere en skæv gennemsigtighed, hvor digitaliseringen i stigende grad blotlægger borgerne over for staten, samtidig med at statens egne beslutningsprocesser bliver mindre gennemskuelige.[1]

For at modvirke disse konsekvenser var jeg med til at oprette Offentlig-AI-databasen, der kortlægger danske AI-projekter i den offentlige sektor (både vellykkede og mislykkede). Indsamlingen af data har været udfordrende, men givende. Med mere end 140 projekter og flere på vej er databasen en værdifuld ressource i bestræbelserne på at diagnosticere nogle af årsagerne til størrelsen af den digitale kirkegård i Danmark. Når man læser dokumentationen og taler med offentlige myndigheder, bliver det klart, at Danmark er nået til en strukturel begrænsning:

Vi kan udvikle AI-systemer, men vi kan ikke lovligt implementere dem på grund af manglen på en overordnet lovramme, der muliggør dette på en konsistent og ansvarlig måde.

Dette fænomen kan betagnes som et ›lovlighedskontrolpunkt‹: et tilbagevendende mønster, hvor AI-projekter gennemgår teknisk og økonomisk krævende udviklingsfaser, men ikke går videre til implementering. Forklaringen er enkel: Danmark har ingen omfattende lovgivningsmæssig ramme, der muliggør implementering af AI-systemer i den offentlige forvaltning. Resultatet er en digital offentlig administration, der er teknologisk kompetent, men juridisk begrænset, om end med god grund: lovlighedskontrollen beskytter borgerne mod utilsigtet og ulovlig brug af AI, indtil den passende lovgivningsmæssige ramme er på plads. Når de juridiske sikkerhedsforanstaltninger ikke kan følge med de teknologiske ambitioner, er tilbageholdelse af implementeringen ikke en bureaukratisk gene, men en nødvendig foranstaltning til beskyttelsen af vores rettigheder.

For at forstå, hvorfor dette sker, må vi se ud over de enkelte tilfælde og undersøge den bredere lovgivningsmæssige struktur. I dag gør Danmark brug af et ad hoc-lovgivningsmæssigt kludetæppe for implementering af AI-systemer i den offentlige sektor: Der udarbejdes særskilte, ad hoc-prægede lovbestemmelser for at bringe individuelle AI-projekter ud af juridisk usikkerhed.[2] 

Dette er den typiske fremgangsmåde, når en offentlig myndighed ønsker at anvende AI i en specifik administrativ opgave. Selv den nylige annoncering om de tre stor-skala projekter, der skal gennemføres i den offentlige sektor, blev ledsaget af en liste over sektorspecifikke love, der skulle ændres for at gøre det muligt at realisere regeringens AI-projekter.

Denne tilgang kan godt muliggøre enkeltstående initiativer eller løse isolerede problemer, men den er fundamentalt uholdbar. Den forbruger politiske og administrative ressourcer, skaber ulige muligheder på tværs af sektorer og efterlader offentlige myndigheder i tvivl om, hvorvidt de har tilstrækkelige juridiske beføjelser til at implementere AI-understøttede systemer.

Ikke nok med det, fungerer mange AI-systemer i den offentlige sektor på tværs af flere sektorer eller trækker på datastrømme fra flere administrative domæner. Sektorspecifikke lovgrundlag risikerer derfor at skabe hjemmelsasymmetrier, hvor et AI-system er lovligt i én sektor, men ulovligt i en anden. Måske vigtigst af alt er, at ad hoc-godkendelser går ud over retssikkerheden og i sidste ende risikerer at bringe borgernes rettigheder i fare ved at omgå den høje grad af demokratisk debat, der kræves for at kunne tage stilling til, hvilke typer AI-systemer vi ønsker at tillade eller forbyde i vores offentlige forvaltning.

Af disse grunde er den eneste bæredygtige løsning på den nuværende gåde at skabe en eksplicit, sammenhængende og fremtidssikret lovgivning, der regulerer om, hvornår og under hvilke strenge betingelser AI må anvendes i den offentlige sektor. 

Dette bør udmøntes i en generel lovramme, en AI-lov, der fastsætter betingelserne for lovlig anvendelse og implementering af AI i den danske offentlige forvaltning, definerer forholdet mellem automatiserede processer og menneskelig påpasselighed, men også rammesætter de nødvendige elementer for, at borgerne kan forstå, udfordre og stole på en AI-assisteret beslutningstagning.

En sådan ramme ville ikke udgøre et grønt lys for ubegrænset teknologisk ekspansion, men fungere som et lovgivningsmæssigt redskab, der etablerer et juridisk grundlag for anvendelsen af AI og supplerer den gældende regulering i GDPR og AI-forordningen ved at formulere et sæt regler og principper, der generelt præciserer betingelserne for anvendelsen og implementeringen af AI.

Danmark ville ikke stå alene i en sådan indsats. Norge og Finland har taget afgørende skridt ved at opdatere deres forvaltningslovgivning for at muliggøre og tillade en mere konsekvent anvendelse af AI i deres offentlige sektorer. Norge har en meget liberal tilgang: Landet har revideret sin forvaltningslovgivning, så den udtrykkeligt tillader både automatiseret beslutningstagning og automatiseret beslutningsstøtte, så længe de eksisterende juridiske sikkerhedsforanstaltninger overholdes, den administrative skønsbeføjelse forbliver meningsfuld og loven ikke på anden måde forbyder denne praksis.[3]

Man kan argumentere for, at denne tilgang ikke anerkender de nye typer af udfordringer, som AI medfører, hvor eksisterende juridiske sikkerhedsforanstaltninger og principper kan blive ineffektive og derfor kræver en mere AI-specifik styrkelse.

Et eksempel er fænomenet »emergent discrimination«, hvor algoritmisk beslutningstagning resulterer i diskrimination, der ikke er baseret på- og ikke passer nøjagtigt ind i eksisterende beskyttelsesgrunde. Finland har en mere forsigtig tilgang og har indført lovbestemte regler, der forbyder automatiserede beslutninger baseret på maskinlæring, mens der gives mulighed for regelbaserede automatiserede beslutninger i »lette« sager, der ikke indebærer skønsmæssige vurderinger.[4] Derudover har Finland vedtaget ny lovgivning for at sikre et robust menneskeligt tilsyn, dokumentationspligt og proceduremæssige sikkerhedsforanstaltninger i sit forsøg på at skabe balance mellem innovation og ansvarlighed.[5]

Norges tilgang er baseret på den overbevisning, at eksisterende forvaltningsretlige og EU-retslige bestemmelser kan rumme en ansvarlig udbredelse af AI, men den rejser også spørgsmål om, hvorvidt de juridiske sikkerhedsforanstaltninger er tilstrækkeligt robuste, når automatisering er bredt autoriseret. Finlands mere restriktive holdning afspejler derimod en eksplicit beslutning om at beskytte borgerne mod uigennemsigtige, probabilistiske systemer på områder, hvor menneskelig dømmekraft og anfægtelighed er afgørende – også set i lyset af forandringer, hvis konsekvenser vi ikke er i stand til fuldt ud at overskue. Selvom Danmark ikke har tradition for at ændre sine forvaltningsretlige bestemmelser, kan de norske og finske eksempler tjene som inspiration til principper og afgrænsninger, der kan danne grundlag for en mere samlet regulering af AI i den offentlige forvaltning.

Afslutningsvis er det vigtigt at erkende, at offentlige myndigheder udøver betydelig magt over enkeltpersoners liv; en magt, der skal forblive anfægtelig og ansvarlig. Selv med klarere lovgivning bør teknologiske muligheder aldrig forveksles med uundgåelighed. En fremtidig dansk lovramme for AI bør anerkende, at ikke alle opgaver i den offentlige sektor er egnede til automatisering. Dette indebærer en bevidsthed om de miljømæssige konsekvenser af at træne og drive store AI-systemer, hvis udvikling forbruger offentlige ressourcer og bidrager til klimabelastninger, der vil påvirke sårbare samfund og fremtidige generationer uforholdsmæssigt meget. En ansvarlig lovramme skal derfor ikke kun skabe plads til innovation, men også til en informeret beslutning om at afstå fra at bruge AI, når det ikke er det rette redskab til opgaven.


[1] Alston, P. (2019). Report of the Special rapporteur on extreme poverty and human rights. United Nations. Availabel at:OHCHR, ‘World Stumbling Zombie-like into a Digital Welfare Dystopia, Warns UN Human Rights Expert’ (OCHHR, 17 October 2019) https://www.ohchr.org/en/press-releases/2019/10/world-stumbling-zombie-digital-welfare-dystopia-warns-un-human-rights-expert, accessed 14 January 2026, p. 3.

[2] See for example, Forslag til Lov om ændring af SU-loven (L152, Folketingstidende Tillæg A, Folketinget 2024-2025, Uddannelses- og Forskningsmin., j.nr. 2025-460), which seeks to establish a legal basis for the use of artificial intelligence in decisions by the Danish Agency for Higher Education and Science (SU styrelsen) concerning the award of supplementary grants on the grounds of permanent physical or mental disability; Beskæftigelsesministeriets bekendtgørelse om Arbejdstilsynets anvendelse af kunstig intelligens (BEK nr 868 af 23/06/2025) til brug for tilsyns- og vejledningsopgaver. In the latter case, an already existing statutory authorization in Lov om arbejdsmiljø (§72, which empowers the Minister for Employment to lay down “more detailed rules on the Danish Working Environment Authority’s (Arbejdstilsynet) collection, processing, and disclosure of information …”) is relied upon as the legal basis for permitting the Authority to use artificial intelligence in its case handling.
 

[3] Prop. 79 L (2024 –2025) https://www.regjeringen.no/contentassets/ef9495b7fc144db7a73242f90976ff45/no/pdfs/prp202420250079000dddpdfs.pdf

[4] Suksi, M. (2024) ‘Creating Legal Basis for Automated Decision-making: A Review of Section 53 e of Finland’s Administrative Procedure Act and Beyond’, European Review of Digital Administration & Law 5(2).

[5] Similarly to Denmark, however, Finland has not yet legally regulated automated decision support-practices.