Luk

Er algoritmer fair? Det er ikke så ligetil at svare på, viser ny forskning

Algoritmer og AI har et indbygget pleaser-gen. Det er ikke altid en god ting.

I 2017 havde Netflix premiere på en episode af deres dystopiske sci-fi-serie ‘Black Mirror’, hvor en altvidende algoritme havde overtaget datingmarkedet.

Algoritmen analyserede, matchede og fortalte parrene – før deres forhold overhovedet var startet – hvor længe deres forhold ville vare.

Afsnittet talte til en underliggende ængstelighed i vores digitale tidsalder: Hvis computere kender os bedre, end vi selv gør, har vi så overhovedet fri vilje?

En fair anbefaling

Selvom en altvidende kærlighedsrobot endnu ikke er opfundet, er Netflix-visionen på sin vis blevet til virkelighed.

Ifølge Telia bruger danskere i gennemsnit 5-7 timer om dagen foran en skærm. En stor del af denne tid bruges i selskab med recommender systemer – algoritmer, der har til formål at give dig det, du vil have. Nogle gange før du overhovedet ved, at du vil have det.

“Formålet med recommender systemer er at matche ting såsom produkter, tjenester eller endda personer med deres brugere,” siger Theresia Rampisela, ph.d.-forsker ved Københavns Universitet. ”Målet er at få brugerne til at interagere med det, der bliver anbefalet, fordi de finder det relevant – eksempelvis ved at de klikker, ser en video, liker noget indhold, eller køber noget.” 

“Hvad der er retfærdigt i én sammenhæng, er ikke nødvendigvis retfærdigt i en anden” — Theresia Rampisela

Disse anbefalingssystemer fylder mere og mere på internettet – fra anbefalinger til din næste binge-worthy tv-serie til personer du måske kender på Facebook eller et par bukser, der kan gå til de strømper, du har bestilt online.

Men hvorfor algoritmerne bag foreslår én ting frem for en anden, er ikke altid klart.

Det forsøger Theresia Rampisela derfor at belyse ved at studere algoritmisk fairness som bidragende forsker i Algoritmer-, Data- og Demokrati-projektet,

“Hvad mener jeg med fairness?” spørger Theresia Rampisela. “Desværre er der ingen universel definition, men det handler om at sikre, at brugerne ikke diskrimineres.”

Tag en online shopping-platform som eksempel, hvor brugerne er købere og sælgere: Skal platformen give lokale sælgere mere eksponering på bekostning af sælgere fra andre lande? Eller promovere virksomheder ejet af kvinder eller minoriteter? Skal man kunne betale for at få bedre anbefalinger end andre?

“Hvad der er retfærdigt i én sammenhæng, er ikke nødvendigvis retfærdigt i en anden,” siger Theresia Rampisela, der for nylig har udgivet en ny artikel, hvor hun sammenligner forskellige måder at måle algoritmisk retfærdighed på. Selvom hun ikke mener, at der findes en perfekt retfærdig algoritme, tyder hendes arbejde på, at retfærdighed og relevans ikke altid er et nulsumsspil:

“Der har tidligere været en udbredt opfattelse, at hvis vi øger graden af fairness, får vi mindre gode anbefalinger. Anden ny forskning peger dog på, at dette ikke altid tilfældet. I vores eksperimenter ser vi, at vi kan ofre relevansen en smule, men til gengæld gøre anbefalingerne mere retfærdige,” siger hun.

Anbefalingernes skyggeside

I en ny undersøgelse fra the Anti-Bullying Centre ved Dublin City University konkluderede forfatterne, at anbefalingsalgoritmer også kan sprede ”toksisk indhold” – for eksempel ved at eksponere teenagedrenge for videoer fra den kontroversielle mandesfære-influencer Andrew Tate.

Så er algoritmisk retfærdighed den rigtige målestok, eller burde vi i højere grad tale om algoritmisk etik?

“I dette felt hænger alt sammen på den ene eller anden måde,” siger Theresia Rampisela. “Retfærdighed, ansvarlighed, gennemsigtighed, etik. Disse begreber eksisterer alle i et krydsfelt. Men når det gælder skadeligt indhold, mener jeg, at det mere er et spørgsmål om sikkerhed end retfærdighed.”

“Der findes forskellige teknikker til at sørge for, at anbefalingsalgoritmer er sikre for deres brugere. Men vi skal ikke kun have fokus på sikkerhed, men også retfærdighed, transparens og usikkerhed, fordi det er alle vigtige problemstillinger, og det er et svært problem.”

Er du enig i, at anbefalingssystemer er en del af årsagen til, at nogle mennesker bliver radikaliseret online?

“Jeg ville ikke lægge hele skylden på anbefalingssystemer, fordi folk har også et ansvar selv. Vi kan bruge vores hjerne til at tænke og handle rationelt og logisk. Hvad jeg mener, er vigtigt, er at være bevidst om, at anbefalingssystemer påvirker os, og at de nogle gange har et bias i de anbefalinger, de giver,” siger Theresa Rampisela.

Den sorte boks åbnes

Theresia Rampisela deler kontor på datalogisk institut med Sara Marjanovic – en anden ph.d.-forsker og bidragyder til ADD-projektet. Hun undersøger spørgsmålet om tillid fra en anden vinkel, nemlig hvornår man kan stole på, hvad en AI-model siger.

Sara Marjanovic forsker i explainable AI på datalogisk institut på Københavns Universitet.

“Før i tiden plejede vi at betragte disse store sprogmodeller som sorte bokse, vi aldrig helt kunne forstå. Man indtaster en masse træningsdata, der sker noget magisk, og pludselig har man et svar, der ofte er ret præcist. Men hvorfor vi får dette svar, især hvis svaret er forkert, blev engang anset som noget, vi ikke kunne give et definitivt svar på,” siger hun.

“”Som brugere skal vi være lidt mere forsigtige med det output, vi får.” — Sara Marjanovic

Men med de rette modeller viser Sara Marjanovics arbejde, at det er muligt at begynde at åbne den sorte boks. I en nylig artikel undersøger hun, hvad der sker, når store sprogmodeller forsøger at besvare spørgsmål med en høj grad af usikkerhed eller “støj”.

“Jeg ville se, om en model kunne give meningsfulde svar, selv når den var usikker,” forklarer Sara Marjanovic. Derfor stillede Sara Marjanovic og hendes medforfattere opgaver, som de bevidst havde gjort svære at løse, eksempelvis ved at stave forkert eller udelade ord:

“Vi fandt ud af, at nogle gange kan en model være meget usikker, men den vil stadig finde relevante oplysninger, hvilket betyder, at den stadig kan bruges i et samarbejde mellem mennesker og AI. Andre gange ser vi, at selv når vi har gjort opgaven meget vanskelig, og modellen præsterer dårligt, er det ikke tydeligt at se ud fra den usikkerhedsværdi, algoritmen giver os,” tilføjer hun.

Det er måske ikke så afgørende, hvis man spørger en AI om vej. Omvendt betyder det en del, hvis du bruger en AI-model til at hjælpe med at diagnosticere patienter. Men fordi folk kan lide selvsikre svar, kan AI-modeller have en tendens til at nedtone deres egen usikkerhed.

“Så som brugere skal vi være lidt mere forsigtige med det output, vi får. Og som folk, der forsker i store sprogmodeller, skal vi også finde måder at reducere denne overdrevne selvsikkerhed eller i det mindste afspejle den mere nøjagtigt,” siger Sara Marjanovic.