ADD-bloggen giver et indblik i ADD-projektets forskning på tværs af de seks universitetspartnere. Mød vores forskere fra Aalborg Universitet, Aarhus Universitet, Copenhagen Business School, Roskilde Universitet, Københavns Universitet og Syddansk Universitet. Læs om deres projekter, aktiviteter, idéer og tanker – og få et nyt perspektiv på de kontroverser og dilemmaer, vi står overfor i digitaliseringens tidsalder, og ideer til, hvordan vi kan arbejde for at styrke det digitale demokrati.
Af Ole Willers, Postdoc ved Institut for Organisation, Copenhagen Business School. jow.ioa@cbs.dk
Hvorfor fravælges AI-løsninger?
Debatten om kunstig intelligens (AI) er i dag i høj grad præget af et disruptionsnarrativ. Ifølge dette narrativ vil kombinationen af store datamængder og maskinlæring fundamentalt ændre den måde, vi arbejder, lærer og løser problemer på – uanset om vi befinder os i den offentlige eller private sektor.
Denne forestilling om en nært forestående omvæltning lægger pres på organisationer for at “være med” – for ikke at sakke bagud. Sociologerne Marion Fourcade og Kieran Healy beskriver dette pres som “the data imperative“: en selvforstærkende dynamik, hvor dataindsamling og -analyse bliver et krav snarere end et valg (Fourcade & Healy, 2017).
Men virkeligheden lever ikke op til hypen. Tværtimod viser flere analyser, at andelen af organisationer, som reelt bruger AI, ligger langt under forventningerne. Ifølge EU-kommissionens egne tal havde kun 13,5 % af europæiske virksomheder taget teknologien i brug i 2024 (European Commission, 2025, s. 13). Det står i skarp kontrast til målsætningen om, at tre ud af fire virksomheder i EU skal anvende AI inden 2030.
Samtidig er AI-brugen skævt fordelt på tværs af sektorer. Eurostat-data viser, at det især er IT- og rådgivningsbranchen, der driver udviklingen, mens produktions- og servicesektoren halter bagefter. I vores forskning på CBS kalder vi denne udvikling for uneven algorithmization (Gamerdinger & Willers, 2025).
Men hvorfor vælger så mange organisationer AI-løsninger fra?
AI-barrierer: Et overset forskningsfelt
Forskningen i innovation viser, at implementering af ny teknologi afhænger af et komplekst samspil af organisatoriske og sociale faktorer (Kim & Chung, 2017). Når det gælder AI, peger mange på høje omkostninger, juridisk usikkerhed og intern modstand som afgørende barrierer. Da både forskning og offentlig debat har været optaget af det transformative potentiale ved AI, ved vi forholdsvis lidt om, hvordan og hvorfor organisationer aktivt vælger teknologien fra – og det er problematisk.
Hvis vi ikke forstår, hvorfor AI fravælges, risikerer vi at gå glip af innovationer, der kunne bidrage til at løse store samfundsudfordringer. Samtidig risikerer vi, at gevinsterne ved AI koncentreres hos få aktører – og dermed forstærker ulighed.
I denne blogpost sætter jeg fokus på én særlig barriere, som er legitimitetsproblemet.
Legitimitetsproblemet
Organisationer er afhængige af, at deres handlinger opfattes som legitime. Det er en klassisk pointe i organisationsteorien (Meyer & Rowan, 1977). I vores forskning i ADD-projektet ser vi igen og igen, hvordan netop legitimitet udgør en central barriere for brugen af AI.
Fx har Helene Friis Ratner og Ida Schrøder (2024) vist, hvordan brugen af prædiktive algoritmer i børne- og ungeområdet skabte stærke etiske og juridiske kontroverser. Kontroverser, som i sidste ende førte til en langt mere forsigtig tilgang til AI i den offentlige sektor.
Problemet er bredere end enkeltsager. En undersøgelse fra 2020 viste, at 62 % af 9.640 adspurgte europæiske virksomheder oplevede lav social tillid som en barriere for at tage AI i brug. Hver fjerde betragtede social accept som en kerneudfordring (European Enterprise Survey, 2020).
Når vi taler til erhvervsfolk i Danmark, hører vi ofte et særligt udtryk: “Ekstra Bladet-testen”. Spørgsmålet lyder: Ville vores AI-løsning blive til en kritisk forsidehistorie, hvis den blev offentlig kendt?
Bekymringen er ikke grebet ud af luften. Skepsis blandt europæiske borgere er udbredt (Ehret, 2022), og advarsler mod AI’s potentielle skadevirkninger har domineret bestsellerlisterne i de seneste år. Det er i sig selv en vigtig modvægt til “dataimperativet”, som Fourcade og Healy beskrev. Det bidrager med, hvad jeg kalder et “legitimitetsimperativ”, som kan blive til en afgørende faktor i udviklingen af kunstig intelligens, der er forankret i vores fælles værdier og normer.
Men legitimitetsimperativet fører også til konflikter om, hvad der er acceptabelt og uacceptabelt – dét tyskerne kalder for Deutungskämpfe. Udarbejdelsen af etiske retningslinjer for AI er blevet en central arena for disse kampe.
Hvad er etisk AI, og hvem bestemmer det?
Etisk AI er blevet en ledelsesudfordring af første rang (Berente et al., 2021). For selvom der er etableret en række ekspertkommissioner og udarbejdet etiske retningslinjer, er mange af dem for abstrakte til at kunne omsættes til praksis. EU’s retningslinjer for “pålidelig AI” er et godt eksempel: Ambitiøse på papiret, men svære at anvende konkret.
Vores forskning i forsikringsbranchen viser, hvordan forsøg på at tilpasse retningslinjerne til særlige brugsområder hurtigt støder på interessekonflikter (Gamerdinger & Willers, 2025). I stedet for at afklare etiske spørgsmål, er disse tilpassede retningslinjer fyldt med modstridende ideer omkring, hvad der konstituerer etisk AI brug.
Resultatet er ofte, at organisationer ikke føler sig hjulpet, men snarere forvirrede.
Så hvad kan man gøre?
En ny retning: Forebyggelse af kontroverser
Ét bud er at tage legitimitetsproblemet alvorligt fra begyndelsen: Engagér jer i offentligheden, lyt til bekymringer og fortæl den gode historie.
Et eksempel er forsikringsbranchens arbejde med AI-baseret skadeforebyggelse. En branche, der tidligere har været bannerfører for dataoptimisme. I en rapport fra 2017 blev det spået, at de næste 15-20 år ville byde på større forandringer end de foregående 300 (F&P, 2017). Fokus var på nye former for risikovurdering og produktudvikling.
Men denne digitale revolution er udeblevet. Ingen af de 17 største livsforsikringsselskaber i Danmark har implementeret AI til prisfastsættelse. Uvished om regulering og frygt for overvågning lagde en dæmper på optimismen.
I stedet er et nyt spor vundet frem: brug af AI til at forebygge skader. Tre ud af fire store danske pensionsselskaber har nu strategier for AI-baseret forebyggelse, fx for at identificere risikoen for langtidssygdom. Teknologien er den samme, men konteksten og formålet er ændret – og det virker.
I marts 2025 offentliggjorde PFA et samarbejde med SF – en af de skarpeste kritikere af private sundhedsforsikringer – om brugen af AI til forebyggelse af langtidssygdom. Fortællingen handler ikke om overvågning, men om fælles gevinster: Et sundere liv, en stærkere velfærdsstat og en mere bæredygtig forretning.
Fra legitimitetskrav til fælles værdi?
Management-forskeren Michael Porter introducerede sammen med Mark Kramer i 2011 begrebet shared value, som er idéen om at koble økonomisk gevinst med socialt ansvar (Porter & Kramer, 2011). Kunne AI’s legitimitetsproblem faktisk være katalysator for en sådan udvikling?
Måske.
Få sektorer er så afhængige af tillid og præget af moralske dilemmaer som forsikringsbranchen (Horan, 2021), men etiske spørgsmål står også centralt i mange andre brancher. Vores erfaring i ADD-projektet er, at et eksplicit fokus på etiske dilemmaer kan fremme produktiv dialog – både internt og med omverdenen.
Et eksempel er den dilemma-baserede tilgang til cybersikkerhed, udviklet af Laura Kocksch og Torben Elgaard Jensen (2024). I samarbejde med F&P har vi på CBS udviklet et tilsvarende dilemma-kortlægningsværktøj (Gamerdinger & Holm, 2024).
Tør vi være lidt mindre hurtige?
Legitimitetsproblemet er selvsagt kun én årsag blandt mange for virksomhedernes tøven, når det kommer til AI. Usikkerhed om eksisterende og fremtidige regler samt organisatoriske dynamikker spiller ligeledes en stor rolle. Målsætningen var derfor ikke at argumentere for et udelukkende fokus på legitimitet, jeg håber snarere at have fremkaldt nogen tanker om, hvordan et aktivt engagement med legitimitetsudfordringer kan bane vejen for en mere samfundsgavnlig brug af AI.
Dataimperativet presser på for hurtig handling. At engagere sig aktivt med legitimationsproblemet er tidskrævende.
Kan vi tillade os at være langsomme? Nok ikke.
Kan vi være lidt mindre hurtige? Det mener jeg.
Lidt som haren i Æsops fabel: Det er ikke altid den hurtigste, der vinder.
Literatur:
Berente, N., Gu, B., Recker, J., & Santhanam, R. (2021). Managing artificial intelligence. MIS quarterly, 45(3).
Ehret, s. (2022) Public preferences for governing AI technology: Comparative evidence, Journal of European Public Policy, 29:11, 1779-1798, DOI:10.1080/13501763.2022.2094988
European Commission (2025). ‘AI Continent Action Plan’ COM(2025) 165 final.
European Enterprise Survey (2020). European enterprise survey on the use of technologies based on artificial intelligence. Final report. doi:10.2759/759368
F&P. 2017. Radikal Digitalisering i Forsikringsbranchen. Udarbejdet af Ph.d., Brian Due, Mads Hennelund og Jesper Højberg Christensen for Forsikring & Pension, september 2017.
Fourcade, M. & Healy, J. (2017). ‘Seeing Like a Market’. Socio-Economic Review, 2017, Vol. 15(1), pp. 9–29. DOI: 10.1093/ser/mww033
Gamerdinger, A., & Holm, J. (2024). Ethical AI in Life and Non-Life Insurance: A Framework for Mapping Ethical Trade-Offs in AI Use. Copenhagen: Forsikring & Pension.
Gamerdinger, A., & Willers, J. O. (2025). Solving AI ethics? Hybrid expertise and professional power in EU ethics governance. Journal of European Public Policy, 1–28. https://doi.org/10.1080/13501763.2025.2499113
Horan, C. (2021). Insurance era: Risk, governance, and the privatization of security in postwar America. In Insurance Era. University of Chicago Press.
Kim, J. S. & Chung , G. H. (2017) Implementing innovations within organizations: a systematic review and research agenda, Innovation, 19:3, 372-399, DOI: 10.1080/14479338.2017.1335943
Kramer, M. R., & Porter, M. (2011). Creating shared value (Vol. 17). Boston, MA: FSG.
Kocksch, L. and Torben Elgaard Jensen. 2024. The Mundane Art of Cybersecurity: Living with Insecure IT in Danish Small- and Medium-Sized Enterprises. Proc. ACM Hum.-Comput. Interact. 8, CSCW2, Article 354 (November 2024), 17 pages. https://doi.org/10.1145/3686893
Meyer, J. W., & Rowan, B. (1977). Institutionalized organizations: Formal structure as myth and ceremony. American journal of sociology, 83(2), 340-363.
Porter, M. E., & Kramer, M. R. (2011). Creating Shared Value – How to reinvent capitalism and unleash a wave of innovation and growth. Harvard Business Review.
Ratner, H. F. and Schrøder, I. (2024) “Ethical Plateaus in Danish Child Protection Services: The Rise and Demise of Algorithmic Models”, Science & Technology Studies, 37(3), pp. 44–61. doi: 10.23987/sts.126011.
