Luk

Bliv klogere på ADD-forskeres arbejde med anvendelsen af algoritmer i sagsbehandlingen af udsatte børn

Helene Ratner og Ida Schrøder undersøger, om brugen af algoritmer i sagsbehandlingen af udsatte børn er etisk forsvarligt.

Helene Friis Ratner (lektor) og Ida Schrøder (postdoc). Begge ansat på DPU – Danmarks Institut for Pædagogik og Uddannelse, Aarhus Universitet.

De fleste danskere har hørt frygtelige historier om børn, der i flere år er blevet seksuelt misbrugt, uden kommunen har reageret. Eller de har hørt ”modsatte” historier, hvor kommunen har reageret med tvangsanbringelse uden synderlig grund. Det er bl.a. forpligtigelsen til at undgå denne type af ”falsk positive” og ”falsk negative” beslutninger, at flere kommuner har kastet sig ud i at udvikle og teste algoritmer som støtte til sagsbehandlingen på området for udsatte børn og unge. Men algoritme-forsøgene har vist sig at være svære at realisere, fordi de er kontroversielle. Som led i forskningsprojektet Algoritmer, Data og Demokrati undersøger vi, hvordan forståelsen af, hvad der er etisk forsvarligt at anvende algoritmer til på området for udsatte børn og unge har forandret sig siden Danmarks første forsøg i 2017.

Fra teknologioptimisme til (halv)døde projekter

I Danmark har der været fire algoritmer under udvikling til at understøtte sagsbehandlingen af udsatte børn og unge. To af dem er i dag helt lukket ned, en er pauseret og den sidste skal ikke anvendes i praksis.

Det startede med Gladsaxe kommunes forsøg med at udvikle en algoritme til tidlig opsporing af børn. Kommunen oplevede, at de modtog underretninger for sent og ønskede at sammenkøre data til at lave en tidlig opsporing af børn, inden symptomer på mistrivsel opstod. Tanken var, at et frivilligt tilbud til familien om forebyggende indsatser kunne hjælpe både familien og kommunen inden problemerne voksede sig alvorlige og dyre. Gladsaxe blev som bekendt centrum i en medieskandale, og politikerne trak støtten til projektet. Men inden det nåede så vidt, havde Gladsaxes projekt ændret status fra at være en frikommuneansøgning til at være en del af Løkke-regeringens udspil til en ghettopakke. Begejstringen for algoritmen var således så stor, at den ikke blot skulle afprøves i en enkelt kommune, men udrulles som national lovgivning.

I samme periode blev forskningsprojektet Underretninger i Fokus skudt i gang. Her var problemstillingen en anden. Algoritmen skulle ikke proaktivt forudsige børns mistrivsel, før en reel bekymring opstod, men i stedet understøtte sagsbehandleres risikovurderinger af underretninger gennem en sandsynlighedsbaseret forudsigelse af børns risiko for anbringelse. Forskningsprojektet skulle undersøge, om det var muligt at udvikle en algoritme til dette formål, og hvorvidt også sagsbehandlere og familier oplevede beslutningsstøtten som en hjælp. Mediernes dækning af projektet skabte massive debatter om bl.a. algoritmens påvirkning af socialrådgivernes faglighed. Grundet tvivl om det retlige grundlag måtte projektet ændre sit design, så algoritmen i dag ikke skal testes på virkelige cases i praksis.

Endelig er der to kommuner, som har udviklet algoritmer til at markere emails med underretninger, der har sandsynlighed for at være akutte. Grundet de to andre projekters offentlige kontroverser, har disse kommuner fra starten sagt, at algoritmerne hverken måtte profilere børn eller indgå som beslutningsstøtte. Begge algoritmer blev lukket ned efter testperioden, fordi de ikke kunne hamle op med de erfarne, socialfaglige sagsbehandleres hurtighed og viden.

Hvad kan vi lære af denne udvikling?

Ovenstående gennemgang viser, at Danmark er gået fra en teknologioptimistisk til en mere forsigtig omgang med algoritmer på området for udsatte børn og unge. Dette gælder bl.a. i forhold til datagrundlaget. Her er vi gået fra, at algoritmen skal sammenkøre data på tværs af forvaltninger, som var tilfældet med Gladsaxe, til at algoritmerne kun anvender data inden for samme forvaltningsområde. Ønsket om at minimere data blev endvidere et styrende princip i de tre øvrige projekter.

Minimeringsprincippet gælder også i forhold til de opgaver, algoritmerne er blevet tildelt. Her er vi gået fra at lade algoritmen profilere borgere ift. deres sandsynlige fremtid til at lade algoritmen hjælpe med sortering af emails med underretninger – altså fra at indgå i beslutningsprocesser til at bistå med administration.

Endelig har synet på lovgivningens rolle også ændret sig. Hvor den ulovlige Gladsaxemodel gav anledning til et politisk forslag om ny lovgivning, der skulle lovliggøre samkøring på nationalt plan, ser vi i dag, at algoritme-forsøgene tager udgangspunkt i et forsigtighedsprincip, når de tolker de juridiske regler. Et godt eksempel er Underretninger i Fokus, der valgte at tolke det som ulovligt at afprøve deres algoritme i praksis, fordi de blev mødt af to forskellige juridiske fortolkninger – kammeradvokaten sagde god for algoritmen, mens en jurist på området for udsatte børn og unge pegede fingeren nedad.  

Udviklingen fra teknologioptimisme mod forsigtighed og ydmyghed er sund. Meget er på spil, herunder borgernes retssikkerhed og tillid til den offentlige forvaltning samt sagsbehandleres faglighed. Samtidigt viser udviklingen, at både medier og professionelle – det sociale arbejdes ledere, forskere og socialrådgivere – ikke er passive tilskuere til algoritmernes indtog, men aktivt bidrager til at forme algoritmernes rolle. I en tid, hvor der synes enighed om, at algoritmerne får stadig større magt i samfundet, så er det også værd at fejre, når en demokratisk samtale i såvel offentligheden og som kommuner har givet anledning til læring og forsigtighed, før algoritmer ”slippes løs” i menneskerettet sagsbehandling.

Dette indlæg blev bragt i Ingeniøren 17. januar og kan læses HER