Luk

ADD Partnerkonference: Når AGI bliver et teknologisk kapløb – og et demokratisk eksperiment

På ADD’s årlige partnerkonference var vi samlet for at undersøge et centralt spørgsmål: Får vi en verden med AGI – og hvordan forbereder vi os?

Er du doomer, bloomer, deemer eller bleemer? Og hvad betyder det for, hvordan vi forstår fremtiden med kunstig intelligens? De fire positioner fra CAISA’s seneste brief dannede omdrejningspunktet for ADD’s årlige partnerkonference, afholdt i samarbejde med IDA og CAISA på Kalvebod Brygge. Her var over 120 deltagere samlet om ét hovedspørgsmål: Får vi en verden med AGI – og hvordan forbereder vi os?

AGI uden fælles definition

Mens generativ AI udvikler sig hastigt, peger forskere på, at næste trin – AGI, Artificial General Intelligence – er langt mere omfattende. Hvor dagens modeller kan efterligne og kombinere mønstre, lover AGI noget andet: systemer der kan lære, forstå og handle bredt. Et skridt nærmere egentlig superintelligens.

Samtidig mangler der en fælles definition, og det skaber både splittelse og forvirring. Professor Anders Søgaards matrix fra CAISA’s brief placerer os i fire kategorier – fra optimisme til dommedagsfrygt – og viser, hvor forskelligt både forskere og beslutningstagere ser på udviklingen.

Som professor Thomas Moeslund fra Aalborg Universitet udtrykte det:
“På den ene side har vi allerede AGI. På den anden side får vi aldrig AGI.”

Den uenighed gør det endnu vigtigere at nuancere, hvad vi taler om – og hvilke konsekvenser det kan få for samfundet.

Teknologiske udfordringer med reel risiko

Flere oplæg viste, at selv nutidens systemer allerede udfordrer vores kontrol. Professor i Machine learning, Christina Lioma, fra Københavns Universitet demonstrerede eksempler på AI-agenter, der handler autonomt, manipulerer eller omgår eksplicitte ordrer – blandt andet i militære simulationsscenarier.

Hun pegede på behovet for at styrke det tekniske modspil til en udvikling, der i dag drives af tech-giganterne. Ifølge hende mangler der stærke incitamenter for, at udviklere prioriterer sikkerhed og finder løsninger på de tekniske problemer ved AI.

Derfor bør arbejdet med at løse AI’s tekniske udfordringer ikke overlades til aktører med primært kommercielle interesser, men også forankres i uafhængige forskningsmiljøer og institutioner, der kan sætte sikkerhed over vækst.

Geopolitisk kapløb

Netop de kommercielle interesser præger store dele af feltet og debatten om AGI. Konferencens tredje oplægsholder, professor Rebecca Adler-Nissen, beskrev debatten som “dybt politiseret”. Ikke alene er de videnskabelige uenigheder store – de politiske konflikter er endnu større.

Hun fremhævede især rivaliseringen mellem USA og Kina:
“Den amerikanske logik er paradoksal i den forstand, at de skynder sig med at udvikle en teknologi, som de tror kommer til at udrydde os alle sammen – men de vil gerne være de første som gør det.”

Teknologien udvikles med andre ord i et globalt kapløb, hvor regulering, evidens og sikkerhed ofte halter efter strategiske hensyn.

De skynder sig med at udvikle en teknologi, som de tror kommer til at udrydde os alle sammen – men de vil gerne være de første som gør det.

“If we, as a society, hand the keys to agentic software, and erode the classic lines of defense that humans have built up for decades in cybersecurity and institutional best practices, then we deserve whatever sad apocalypse ensues”.

Når teknologien møder filosofien

I konferencens første paneldebat pegede Serge Belongie på nødvendigheden af at af-antropomorfisere AI-diskussionen: “AI – BS = ordinary technology.”

Med det budskab opfordrer han til, at vi stopper med at tale, som om AI tænker, føler eller planlægger som mennesker.

Anders Søgaard fulgte op med hans version: “AI – Bullshit = ? – We don’t really know.”

Uanset hvad svaret er, understregede panelet vigtigheden af stærke institutioner som værn mod dårlig teknologi.

Serge Belongie formulerede det skarpt:
“If we, as a society, hand the keys to agentic software, and erode the classic lines of defense that humans have built up for decades in cybersecurity and institutional best practices, then we deserve whatever sad apocalypse ensues”.

“Vi kommer aldrig til at forstå det. Hvis vi stopper op, så ville vi stå stille for evigt.”

Den politiske temperatur

Hvor forskerne fokuserede på risici og definitioner, tog den anden paneldebat fat på, hvad vi politisk stiller op med teknologien.

Christiane Vejlø fremhævede behovet for konsekvens- og risikovurderinger frem for ren begejstring:
“Vi vil så gerne have alle gevinsterne, men vi glemmer at snakke om tabene.”

IDA’s formand Laura Klitgaard udtrykte bekymring for, at AI bevæger sig ind i politik uden tilstrækkelig forståelse blandt beslutningstagere.
DI Digitals Andreas Holbak Espersen indtog det mest udviklingsoptimistiske standpunkt:
“Vi kommer aldrig til at forstå det. Hvis vi stopper op, så ville vi stå stille for evigt.”

Fælles for paneldeltagerne var ønsket om at bevæge sig fremad – men med åbne øjne for de reelle risici.

Et demokratisk eksperiment

Konferencen viste, at AGI ikke kun er et teknologisk spørgsmål, men et demokratisk. Vi kan ikke regulere os ud af alle kommende udfordringer – og vi kan ikke overlade udviklingen til aktører, der ikke nødvendigvis arbejder i offentlighedens interesse.

Den næste generation af AI kræver mere end tekniske fixes: den kræver dømmekraft, viden, mod og institutioner, der kan holde systemerne i skak, før teknologien udvikler en logik, vi ikke længere helt forstår.

Tak til alle oplægsholdere for en dag, der undersøgte grænsen mellem menneske og maskine – og mellem viden og ansvar.