EU's regelsæt for AI

Brødtekst

En af de vigtigste organer for dataetik og ansvarlig AI er EU’s European AI Aliance. Samtidig er det et erklæret mål for Danmark at være en forløber på dataetikken, på national plan og på et niveau hvor vi ligefrem skal gøre det til en forretningsfordel at agere dataetisk. Men hvem sætter så dagsordenen i DK?

Sidste år kom jeg og de andre medlemmer af Ekspertgruppen for Dataetik med 9 anbefalinger til regeringen om hvordan danske virksomheder kan agere dataetisk. 8 af disse gennemføres nu, med den dataetiske mærkeordning og det nyligt formede dataetiske råd som et udpluk af disse anbefalinger.

Som jeg har skrevet om tidligere har anbefalingen om en ”Dynamisk værktøjskasse” til AI udviklere med helt praktiske værktøjer og tilgange, været det forslag som jeg har lagt særligt vægt på og drevet frem i ekspertgruppen. I forlængelse af dette arbejde blev jeg så for nyligt optaget i EU's ”European AI Alliance”, og her slog det mig at der er et vist overlap imellem det arbejde der gøres i DK og det der foregår i EU.

For eksempel har EU's European AI Alliance igangsat en pilotfase for afprøvning af deres udviklede ”Assessment List” fra deres ”Ethics Guidelines for trustworthy AI”, som meget i stil med målet for den dynamiske værktøjskasse, skal sikre at de der arbejder med AI i praksis, får nogle værktøjer til at sikre at de agerer dataetisk.

Spørgsmålet er hvor Danmark skal satse. Bør vi forsøge at være en ledestjerne ift. dataetik, som kan inspirere og guide omverdenen og sælge det danske Brand, eller bør vi koncentrere os om at have størst mulig indflydelse på de dataetiske retningslinjer på EU-niveau, som potentielt kommer til at have større effekt og rækkevidde?

Hvis Danmarks dataetiske råd kommer hurtigt ud over stepperne med det det dataetiske forslag om en dynamiske værktøjskasse rettet mod dem der arbejder med datadrevne løsninger, tror jeg i hvert fald at vi har en reel mulighed for at bane vejen for et niveau der rækker ud over Danmarks grænser.

Det siger jeg blandt andet fordi at når jeg læser den førnævnte assessment list, så forekommer indholdet mig meget abstrakt. Læser man for eks. om hvordan man skal undgå bias, tales der mere om hvad man ønsker at undgå end hvordan. Efter at have arbejdet med AI-drevne løsninger i en årrække har jeg lært at der er helt specifikke steder under udviklingen af sådanne løsninger hvor bias typisk introduceres. Lad mig bruge det som et kort eksempel.

EDJ
Illustration: EDJ

Bias kan være indeholdt i rå data fra starten – måske siger data korrekt og akkurat noget om verden som vi ikke bryder os om. Det kunne være at det bedst betaler at hyre det ene køn til stillinger i et bestemt marked hvor det andet køn har en uretfærdig fordel pga. diskrimination. Det var ikke noget der krøb ind i modellen ved en fejl sådan er det bare – og vi bryder os ikke om at få det at vide.

Indsamling og staging af data kunne være ramt af bias ved at man undervurderer vigtigheden af diversitet i data. Det så man da Google skulle lave ansigtsgenkendelse på deres billeder, men ikke havde styr på træningsgrundlaget og antallet af sorte mennesker deri, så man at nogle sorte mennesker blev kategoriseret som gorillaer – meget beklageligt og etisk problematisk.

Feature Engineering er så der hvor vi transformerer data der beskriver vores menneskelige, kaotiske verden til et simpelt format som en AI model kan læse og træne ud fra. Det kunne for eksempel være at reducere en række menneskelige beskrivelser til tal mellem 0 og 1, som er det eneste kunstige neurale netværk – en særdeles udbredt AI model – kan arbejde med.

Man kan let forestille sig hvordan bias hurtigt kan introduceres ved så kraftig en reduktion. Til gengæld er det også ved feature engineering at man har mulighed for at rette op på den bias der er indeholdt i de tidligere trin og faktisk forhindre en skævvridning af det dataetiske fundament for den udviklede løsning.

Det sidste punkt i min personlige bias model for AI-drevne løsninger er så der hvor selve træningen af AI modellen foregår, og det er så det absolut sidste sted at bias introduceres, men fordi det er herfra resultaterne kommer ud af maskineriet, så råber vi ofte op omkring bias fra AI modeller uden at have øje på at den sev ind via de tre tidligere stadier af tilrettelæggelse af data.

EDJ
Illustration: EDJ

Bias, personhenførbar data samt modellens gennemsigtighed, eller ”forklarlighed” er så i mine øjne, de tre vigtigste områder at kigge på. Frem for politiske hensigtserklæringer fra EU, skal vi i Danmark have udviklet nogle konkrete værktøjer til at arbejde med disse områder - rettet mod dem der udvikler løsningerne, ikke til ledere som skal få ansatte til at skrive under på diverse hensigtserklæringer. Med en sådan dynamisk værktøjskasse kan vi positionere os stærkt på det dataetiske landkort, som dem der både har de rigtige samfundsværdier, men også har svarene på hvordan vi går til opgaven i praksis.