Luk

Google: AI er alt for vigtigt til ikke at regulere – og regulere klogt

Google, der er indtrådt som partner i ADD-projektet, ser potentialerne i AI som så vigtige, at vi netop derfor må insistere på at regulere teknologien.

Af Bianca Bruhn, landechef Google Danmark

Vi befinder os i et ret afgørende øjeblik i historien. Et øjeblik, hvor udviklingen og udbredelsen af kunstig intelligens tager fart i et tempo, som det kan være svært at begribe. Hvor vi står med et helt utroligt potentiale til at løse nogle af verdens mest presserende problemer – men hvor vi også skal have blik for de risici, der følger med.

Når kavalkaderne over de største trends i 2023 inden længe skal laves, er et godt bud, at kunstig intelligens spiller en yderst fremtrædende rolle. Måske især generativ AI, som millioner af mennesker allerede bruger til at øge kreativiteten og forbedre produktiviteten.

Af debatten kan man nogle gange få indtryk af, at kunstig intelligens er noget nyt. Det er ikke tilfældet. Grundlæggende er det ”bare” et redskab til at genkende mønstre, lave forudsigelser og lære af fejl med en hastighed, der langt overgår det menneskeligt mulige. Og lige nu accelererer udviklingen så som ikke hidtil set.

Ligesom ethvert redskab i et køkken eller en værktøjskasse er kunstig intelligens i sig selv hverken god eller ond – det afhænger helt af, hvordan det bliver brugt. Altså et etisk spørgsmål.

Potentialet er nærmest ubegribeligt og perspektiverne alt for vigtige og livsforandrende til at se bort fra: Vi kan vælge at bruge den til at udvikle ny medicin på rekordtid, diagnosticere brystkræft tidligere og mere præcist end hidtil, frigøre hænder i sundhedsvæsenet, sætte skub under den grønne omstilling eller sikre mere effektiv afvikling af trafikken – for bare at nævne nogle få eksempler på, hvordan AI kan redde og forbedre millioner af menneskeliv verden over.

Men faldgruberne er også reelle og alvorlige. Men ryger værktøjet i de forkerte hænder, kan det potentielt bruges til at gøre stor skade på vores samfund og fælles offentlighed.

Derfor må og skal innovation ske med indbygget ansvarlighed, grundig analyse og afvejning af risici fra første kodelinje. Tilbage i 2018 var Google blandt de første til at binde udviklingen af kunstig intelligens op på et sæt fundamentale etiske retningslinjer i form af syv konkrete AI-principper. Eksempelvis at AI ikke må bruges til at udvikle våben eller andet, som kan gøre skade på folk, men derimod skal være både samfundsgavnligt og privatlivssikret.

I praksis betyder det, at vi stiller os selv til regnskab – også over for offentligheden – gennem et detaljeret sæt af praksisser inden for alt fra datarepræsentation til komplekse risikoanalyser, som hvert år munder ud i hundredvis af forskningsartikler og rapporter om de erfaringer, vi har gjort os. 

Men hverken Google eller andre aktører kan alene udstikke retningen og rammerne for den samfundsmæssigt ansvarlige brug af kunstig intelligens. Som samfund har vi brug for, at både industri, forskning og civilsamfund bidrager med perspektiver til den fælles samtale om, hvordan det gode liv med AI ser ud. Ligesom vi også har brug for, at politikere og lovgivere udstikker nogle internationale færdselsregler, der hverken går på kompromis med vores sikkerhed eller kvæler den innovation, der skal forbedre udsigterne for vores fremtid. 

Som samfund kan vi ikke bare “vælge AI fra” – og det ville også være dumt. Til gengæld kan vi sætte rammerne for vores fremtidige liv med dette ekstremt potente værktøj – helst i en fælles demokratisk dialog.

AI er alt for vigtigt til ikke at regulere – og alt for vigtigt til ikke at regulere klogt.