Luk

Digitale løsninger på samfundets tillidskriser

Projektets forskningsdel er efter et åbent opslag og indstilling fra en international bedømmelseskomité blevet vundet af et tværvidenskabeligt forskningskonsortium

Forskningen i ADD-projektet

Den stadigt stigende brug af digitale algoritmer til indsamling og bearbejdning af store mængder data forandrer grundlæggende måden, hvorpå vi danner vores holdninger og træffer beslutninger – som individer og som samfund. Hvor denne forandring tidligere undslap sig offentlighedens opmærksomhed, bliver den nu stadigt oftere problematiseret.

Digitaliseringen er med andre ord blevet kontroversiel og er i dag medvirkende årsag til samfundets tillidskriser, idet teknologiske udviklinger accelererer tendenser som populisme, polarisering, konspirationer og konflikter. Dermed væves miljømæssige, sociale, politiske og økonomiske kriser sammen og øger den generelle mistillid til samfundets traditionelle institutioner.  

Gennem forskningen i ADD-projektet undersøger vi, hvordan denne udvikling er opstået og hvordan den kan vendes; hvordan kan algoritmer og data bruges til at oplyse og engagere borgerne og styrke demokratiet? Vi finder altså digitale løsninger digitale problemer ved at studere kontroverser om digitalisering, som disse udspiller sig digitale platforme og er formet af digitale teknologier.

Se forskningsleder Sine Nørholm Just præsentere forskningsdelen af projektet på lanceringskonferencen den 9. april 2021.

Arbejdspakker og delprojekter

Forskningen i ADD-projektet består af tre overordnede arbejdspakker og en række delprojekter. Du kan læse og høre om de forskellige elementer i forskningsprojektet nedenfor.

Her kan du høre forskerne i projektet, fortæller lidt om de enkelte delprojekter, som de er ansvarlige for:

Teoriudvikling

Den teoretiske arbejdspakke ledes af Torben Elgaard Jensen og hans team af teknoantropologer ved Aalborg Universitet, og det konkrete formål er at integrere teoriudvikling med det empiriske case arbejde. Vi har designet en trinvis proces, som muliggør denne integration og derfor er fælles for alle delprojekterne.

Arbejdet begynder med en omfattende og overordnet kortlægning af offentlige kontroverser, der omhandler data og algoritmer. Denne kortlægning er baseret på indsamling af et meget stort sæt data, som omfatter hovedparten af de artikler, indlæg og opslag, som i de sidste ti år har forholdt sig til algoritmer i nyhedsmedier, på sociale medier, i forskningsartikler og i folketingsdebatter. Med udgangspunkt i det fælles datasæt udfolder projektet sig i fire faser, der veksler mellem empiriske nedslag og teoretisk integration.

Først afholdes såkaldte datasprint workshops for alle empiriske delprojekter, hvorved hvert delprojekt udforsker det fælles datasæt og bidrager til at skabe et overordnet overblik over typer af algoritme- og datarelaterede kontroverser. Samlet set undersøger vi, hvor og hvordan data og algoritmer bliver kontroversielle – på tværs af og indenfor udvalgte felter. Hvordan problematiseres data og algoritmer fx i forbindelse med sundhed, finans og offentlig forvaltning? Hvilke spørgsmål om cybersikkerhed og privatliv opstår i den sammenhæng? Og hvordan italesættes teknologisk innovation på tværs af datasættet?

I hvert datasprint inddrages relevante interessenter og eksperter inden for de udvalgte temaer og hovedområder, så der opnås bred og dyb forståelse for de måder, hvorpå data og algoritmer anvendes, og de kontroverser det giver anledning til i forskellige typer af offentligheder.

På den baggrund går hvert delprojekt i dybden med sine udvalgte cases, samtidig med at vi bevæger os videre til fase to i den fælles teoriudvikling. Her udvikler projektet sin tværfaglige forståelse af data og algoritmer som tekniske og sociale fænomener via en række interne workshops.

I den tredje fase åbner projektet sit teoretiske laboratorium for andre forskere, blandt andet medlemmerne af projektets ekspertpanel, for at trykprøve og bestyrke resultaterne af fase to.

Endelig syntetiseres og præsenteres projektets samlede teoridannelse i fase fire, som vil kulminere i en international forskningskonference med tilhørende publikationer.    

Sådanne spørgsmål peger dels på, at implementeringen af de nye teknologiske muligheder kræver en høj grad af tillid. Dels på, at selve tillidens karakter er i forandring. For hvad vil det sige at stole på en algoritme? Vi kan altid være sikre på dens præcision, men ikke på dens etik. Tilsvarende er resultatet af en algoritmisk beregning måske klart, men det er de færreste, der forstår den algoritmiske beregningsproces. Der er altså brug for øget transparens, men også for et helt nyt sæt af etiske retningslinjer, ikke bare for brugen af borgernes data, men også for implementeringen af algoritmiske beslutninger.

Forskningen i ADD-projektet vil undersøge eksisterende praksisser på konkrete områder (fx brugen af data og algoritmer indenfor sundhed, finans og offentlig administration) og i forhold til de generelle betingelser for offentlig meningsdannelse og beslutningstagen (de teknologiske platformes indvirkning på spørgsmål om sikkerhed og privatliv). Og vi vil skabe bedre praksisser via bud på konkret teknologisk innovation samt forslag til generelle retningslinjer og policies.

Metodiske bidrag

Dem metodiske arbejdspakke ledes af Christina Lioma, Maria Maistro og medlemmerne af sektion for maskinlæring ved Institut for Datalogi, Københavns Universitet.

Arbejdspakken har to hovedformål: For det første understøtter arbejdspakken den fælles forskningsproces i forhold til indsamling og analyse af data samt forståelse af algoritmer, der er blevet kontroversielle. For det andet udgør pakken et eget bidrag til forskningen i datalogi og datalogiske metoder. Det første formål realiseres som en integreret del af alle fire forskningsfaser (som beskrevet ovenfor). Det andet formål udfoldes i tre datalogiske delprojekter.

Algoritmisk evaluering

Det første delprojekt tager udgangspunkt i det forhold, at eksisterende algoritmer, fx søgemaskiner, kan videreføre falske informationer, særligt når de trænes og testes på datasæt, der rummer sådanne informationer. Problemet er, at det kræver enorme ressourcer at udvikle datasæt, der udelukkende består af efterprøvede og korrekte fakta og kan bruges til solid og valid udvikling og testning af nye algoritmer. I stedet bruger man brugerklik som datagrundlag, men brugere klikker ikke kun på rigtige oplysninger. Tværtimod klikker de på det øverste resultat, det sjoveste eller mest interessante, det, de tror er rigtigt, osv.

Når den slags data gøres til grundlag for nye algoritmer, gentages og forstærkes brugernes fejl. Derfor er det afgørende at medtænke konteksten for brugerklik, når man udvikler klikbaserede datasæt. Ved at inddrage baggrunden for brugernes interaktioner forbedrer delprojektet ikke bare eksisterende evalueringspraksisser, men gør os også opmærksomme på de begrænsninger, der kendetegner etablerede datasæt.

Udvælgelsesbias

Algoritmer trænes på historiske datasæt, der antages at være repræsentative for de data, som algoritmerne senere skal arbejde med. Det betyder, at algoritmer aldrig er bedre end deres træningsdata og kan reproducere de bias, der eventuelt måtte være i data. Men hvordan definerer og identificerer vi bias i data? Og kan man konstruere et datasæt uden bias? Det er hovedspørgsmålene i dette delprojekt.

Problemet er, at hvis vi kontrollerer for alle bias, vil datasættet være så fjernt fra virkeligheden, at en algoritme, der er trænet på det, ikke forholder sig realistisk til ægte data. Projektet tager udgangspunkt i dette skisma mellem deskriptiv og præskriptiv bias, hvilket danner grundlag for en dybere forståelse for de algoritmer, der gøres til genstand for offentlige kontroverser. Hvad er deres bias? Og hvordan kan disse bias formindskes eller afhjælpes?

Generalisering ud fra data

Maskinlæringsalgoritmer kan i teorien kalibrere sig selv ved at udlede de optimale parametre og værdier direkte fra det datagrundlag, de trænes på. Her giver flere parametre bedre læring, men det kræver også mere og mere præcis data. I praksis tages der imidlertid ikke højde for relationen mellem disse tre elementer (antal parametre, datasættets størrelse og fejltolerance), hvilket begrænser algoritmernes reelle læring. I stedet for at blive i stand til at lære nyt, lærer de blot datasæt udenad. I dette delprojekt undersøges konsekvenserne af, at de teoretiske principper ikke overholdes i praksis. Dermed øges forståelsen og vurderingen af kontroversielle algoritmer.

Delprojektet bidrager til realisering af vores overordnede formål, idet vi ikke kun undersøger, hvordan man kan styrke den offentlige debat om data og algoritmer, men også foreslår forbedring af algoritmerne selv.

Empiriske undersøgelser

Projektets teoriudvikling understøttes af de metodiske bidrag og begge dele udvikles i tæt samspil med de empiriske undersøgelser. Helene Friis Ratner fra Danmarks Institut for Pædagogik og Uddannelse ved Aarhus Universitet og Leonard Seabrooke fra Copenhagen Business School koordinerer denne arbejdspakke og sikrer integrationen af de fem delprojekter, der hver især er forankret ved et partneruniversitet.

Cybersikkerhed og privatliv

Dette delprojekt, der ledes af Torben Elgaard Jensen, fokuserer på, hvordan spørgsmål om sikkerhed og privatliv viser sig i forbindelse med store IT-infrastrukturer som SmitteStop, NemID og Mobile Pay. Hvornår og hvordan opstår der bekymringer og hvordan udspiller disse sig som og i offentlige debatter? Det rejser også spørgsmålet om, hvordan teknologierne selv deltager i og formes af debatterne. I hvilken forstand bliver de kontroversielle og hvad gøres der for at løse kontroverserne, fx i forhold til at afbalancere effektivitet og risici?

Delprojektet vil udvælge og undersøge en række konkrete cases og inddrage forskellige aktørgrupper i studiet af, hvordan de hver især forstår sikkerhed og privatliv, ligesom vi undersøger den teknologiske indlejring af disse forståelser i de algoritmer, som kontroverserne drejer sig om.

Prædiktive algoritmer i den offentlige forvaltning

Den offentlige forvaltning tager i stigende grad algoritmer til hjælp i forsøget på at forudsige konkrete sagsforløb og træffe beslutninger, der kan afhjælpe dårlige udkommer. Det kan fx dreje sig om spørgsmål som, hvilke børn der vil blive udsat for omsorgssvigt, hvilke ledige der ender i langtidsledighed, eller hvilke borgere der ikke betaler deres skat rettidigt. Værdien af at kende svarene på disse spørgsmål er oplagt, men udfordringerne er lige så tydelige.

Dette delprojekt, der ledes af Helene Friis Ratner, vil udforske de dilemmaer, der opstår, når algoritmer inddrages i den offentlige forvaltning: hvilke dataetiske udfordringer melder sig, når algoritmer erstatter det professionelle menneskelige skøn? Kan man fx understøtte sagsbehandlingen algoritmisk uden at algoritmerne får den fulde kontrol? Og hvordan kan man ramme den rette balance? Delprojektet begynder med en kortlægning af eksisterende initiativer og forsøg med algoritmisk forvaltning og dykker dernæst ned i udvalgte forløb, som følges med digitale og etnografiske metoder.

Sundhedsdata mellem autonomi og kontrol

Sundhedsdata er på den ene side nogle af de mest følsomme og private data, man kan forestille sig, og på den anden side nogle af de mest værdifulde ud fra et befolkningsperspektiv. Efterhånden som det bliver muligt at skabe, lagre og dele flere og flere data om den enkelte borger, opstår også flere og flere spørgsmål om, hvad vi kan og bør gøre med disse data. Den enkelte borger kan bruge dem til at få indsigt i sin egen sundhed og træffe personlige beslutninger om alt fra den daglige løberute til den næste familieforøgelse.

Samtidig kan borgernes samlede dataaftryk bruges til at træffe kollektive beslutninger om alt fra pandemibekæmpelse til forskning i sjældne sygdomme. Borgernes sundhedsdata bliver dermed kilde til både øget autonomi og stigende kontrol, hvilket er omdrejningspunktet for dette delprojekt, som ledes af Sine Nørholm Just ved Institut for Kommunikation og Humanistisk Videnskab, Roskilde Universitet. Hvordan udnytter vi bedst de algoritmiske muligheder for både generalisering og personalisering? Og hvordan sikrer vi indsamling og behandling af data til både borgerens og samfundets bedste?

Finansiel transparens

Den stadigt mere gennemgribende anvendelse af algoritmer i finanssektoren har ændret forholdet mellem myndigheder, finansielle virksomheder og borgere. Dette delprojekt, som ledes af Leonard Seabrooke, fokuserer på, hvad disse ændringer betyder for den enkelte borger i hverdagen. Spørgsmål om, hvordan borgere faktisk handler og kan tænkes at handle, optager i stigende grad regulatorer såvel som investorer, og vi fokuserer på, hvordan disse spørgsmål besvares via algoritmer og data, samt hvad svarene betyder for borgerne.

Med nedslag i aktuelle sager, fx automatiseret ejendomsvurdering, nye forsikringsprodukter og hurtiglån, undersøges spændinger mellem transparens og monitorering såvel som andre kontroversielle udviklinger indenfor såkaldt ’fintech’. Særligt centralt står det altid aktuelle spørgsmål om, hvorvidt der er brug for mere eller mindre regulering af finanssektoren. Delprojektet benytter sig af netværksanalyse til at identificere nye professionelle aktører og forklare, hvordan samspillet mellem profession og teknologi påvirker diskussionen om finanssektorens transparens og legitimering.

Innovation og demokrati

Er innovation et nødvendigt og absolut gode? Hvordan taler vi om innovation i relation til data og algoritmer? Og hvordan påvirker algoritmer og data de innovationsprocesser, de indgår i? Dette delprojekt, der ledes af Alf Rehn ved Institut for Teknologi og Innovation, Syddansk Universitet, tager sådanne spørgsmål op til overvejelse og undersøger helt grundlæggende, om og hvordan teknologiske udviklinger kan føre til demokratiske forbedringer. Udgangspunktet er en kritik af den øjeblikkelige tendens til at se digital innovation som en universel løsning på alle samfundsproblemer.

Kritikken gælder både de algoritmiske beslutningers kompleksitet og mørklægningen af deres datagrundlag, som resulterer i uforklarlige innovationsprocesser. Projektet har til formål at åbne disse forskellige ’sorte kasser’ og give borgerne et bedre grundlag for at forstå og tage stilling til innovation. Dermed kan vi udvælge og fremme de teknologier, der reelt styrker det digitale demokrati. For at nå dette mål arbejdes der her på tværs af de øvrige delprojekter, idet de forskellige måder, som innovation artikuleres på, identificeres og evalueres, ligesom vi vil foreslå forbedringer af gældende sociale praksisser og tekniske løsninger.