EU’s lovgivning for AI kan kun fremtidssikres, hvis den omfatter almene AI-systemer
De fleste har nok hørt, at Meta – tidligere kendt som Facebook – for nylig har lanceret en omfattende sprogmodel, som er tilgængelig for enhver forsker, der har lyst til at eksperimentere med den. Meta erkender, at systemet har temmelig stor tilbøjelighed til at generere giftigt sprogbrug og forstærke skadelige stereotyper. Og alligevel bliver ansvaret for sikkerheden af sådanne systemer – også kendt som almene AI-systemer – lagt over på brugerne.
Almen kunstig intelligens omfatter systemer, som kan udføre en lang række opgaver. Disse omfatter – men er ikke begrænset til – billed- og talegenkendelse, generering af lyd eller video, mønstergenkendelse, at besvare spørgsmål og oversætte.
Dette gør det muligt at bruge systemerne til mange forskellige, specialiserede applikationer som chatbots, systemer til generering af annoncer, beslutningsassistance og spambots. Faktisk har disse systemer så mange potentielle anvendelsesmuligheder, at de fleste endnu mangler at blive opdaget. Mange vil være til stor gavn for brugerne, men mange vil også udgøre en høj risiko, og nogle kan man være nødt til at forbyde.
Nogle af disse systemer har allerede ført til udbredelse af indhold af ekstremistisk karakter, har udvist antimuslimske holdninger og har ført til utilsigtede læk af persondata. En chatbot baseret på et alment AI-system har endda opfordret til selvmord.
På denne baggrund, og fordi de almene AI-systemer, på godt og ondt, med stor sandsynlighed er en del af fremtiden, må vi forvente, at vi kommer til at se flere af den slags hændelser.
Kravene til udbyderne af de almene AI-systemer bør primært lægges på udviklerne. Men i stedet for at anbefale at gøre udviklerne af almene AI-systemer juridisk ansvarlige for at sikre systemernes sikkerhed lægger Kommissionens lovforslag op til, at alt ansvar pålægges brugerne.
Hvis for eksempel en afdeling i den belgiske regering bruger et alment AI-system til at levere basale offentlige ydelser, er det ene og alene regeringen, der har ansvar for, hvad chatbotten gør, uanset at de nærmest ingen kontrol har over eventuelle fejl og bias (forudindtagethed) indbygget i systemet.
Dette medfører en række problemer. Mange af de databeskyttelseskrav, der findes, særligt med hensyn til overvågning, identificering og korrigering af bias, kræver adgang til de datasæt, som systemerne bag den kunstige intelligens er trænet i.
Disse datasæt ejes dog af udviklerne og er ikke tilgængelige for brugerne, som tager det almene AI-system i brug med et specifikt formål. Derfor vil det simpelthen ikke være muligt for brugerne af disse systemer at leve op til databeskyttelseskravene.
Desuden vil det være mere omkostningseffektivt og mindre belastende for små europæiske virksomheder, hvis det er udviklerne af de almene AI-systemer (hvoraf de fleste ligger uden for EU), der pålægges at leve op til de juridiske krav og overvåge deres systemer, efter at de er taget i brug. Kun få virksomheder har råd til at bruge milliarder af dollars eller euro på at udvikle almene AI-systemer, da det kræver meget omfattende computerberegninger.
Hundredvis af virksomheder (herunder mange SMV’er) bruger almene AI-systemer. At regulere specifikke use cases (brugsmønstre), når mange af dem er baseret på bare en håndfuld almene AI-systemer, er ikke omkostningssmart.
Udviklere af almene AI-systemer bør betragtes som udbydere i denne lovgivning, mens virksomhederne, der bruger disse systemer, bør betragtes som præcis det: brugere. I den seneste rapport fra de to ledende komiteer i Europa-Parlamentet bliver dette heller ikke belyst. Det er vores anbefaling, at EU entydigt lægger ansvaret over på udviklerne af de almene AI-systemer.
Alle almene AI-systemer bør vurderes grundigt, før de kommer på markedet
Bare en håndfuld almene AI-systemer vil kunne udgøre kilder til fejl og bias i hundredvis af specialiserede applikationer. Det skyldes, at et enkelt alment AI-system – for eksempel til sprogbehandling som det, Meta har produceret – kan bruges som basis for mange andre systemer, der skræddersys til kunden.
Fejl og bias i sådanne systemer kunne påvirke artikler udgivet i medierne, undervisningsmateriale, chatbots m.m., og de ville kun blive opdaget, når små europæiske virksomheder eksperimenterer med disse systemer. Af denne grund bør alle almene AI-systemer vurderes grundigt, før de kommer på markedet, ligesom de efterfølgende bør overvåges kontinuerligt.
Herudover har almene AI-systemer mange forskellige anvendelsesmuligheder, og man kan ikke sikre disse ved kun at regulere brugeren. Fejl og bias i systemet vil føre til væsentlige problemer, der bevæger sig nedad i systemet, fordi brugeren ikke har de nødvendige ressourcer, adgang og kvalifikationer til at opretholde sikkerheden. I vores tidligere eksempel ville det betyde, at en afdeling i den belgiske regering, som bruger et alment AI-system uden adgang til tilstrækkelige it-ressourcer, datasæt og forståelse for opbygningen af disse systemer, vil blive gjort ansvarlig for at opretholde sikkerheden i et system uden at have kompetencerne til det.
Først og fremmest anbefaler vi, at man i lovforslaget gør det til udviklernes opgave at sikre, at deres almene AI-systemer lever op til kravene for højrisiko-AI-systemer. Herudover bør udviklerne og brugerne jævnligt gennemføre en vurdering af, om disse AI-systemer kan medføre nye risici, inklusive dem, der opdages, når nye use cases undersøges. Udviklerne bør også pålægges at registrere deres almene AI-systemer sammen med listen over brugere i EU’s database.
Disse ændringer er nødvendige, hvis vi vil fremtidssikre AI-lovgivningen.
Indlægget er oprindeligt bragt hos EURACTIV. Oversat af Gitte Hou Olsen.
