EU's transparenskrav tvinger AI-feltet til at adressere dokumentationsgæld

Foto : smolaw, Bigstock

EU's transparenskrav tvinger AI-feltet til at adressere dokumentationsgæld

EU's krav til transparens går mest ud på at følge dokumentationsstandarder, der ligner dem, industrien selv har skabt.

Kravene til transparens, som de ser ud i EU-Kommissionens bud på fremtidens AI-regulering, kommer til at være meget skadelige for Europa. 

Sådan lød advarslen i sidste uge fra den tidligere Google-boss Eric Schmidt, da han gæstede Politicos virtuelle AI-konference. 

»ML-systemer kan i dag ikke fuldt ud forklare, hvordan de tager deres beslutninger,« sagde han i debat med den franske digitaliseringsminister Cédric O.

»Hvis forslaget som det ser ud i dag, bliver vedtaget, vil det være et meget stort tilbageslag for Europa.«

Schmidt er formand for en AI-kommission nedsat af USA's kongress, men understregede at han talte på egne vegne, da han bragte sin dystre analyse af, hvad han kalder Europas regulering først-tilgang. 

»Europa risikerer med regulering-først-tilgangen, at man ikke er en signifikant AI-spiller i de næste fem til ti år. Og derefter er det meget svært at indhente.«  

Tilstrækkelig transparens

Men hvad er det så egentlig, at kommissions forlag kræver, når det kommer til transparens. 

For det er ikke, som man ellers kunne få indtryk af ud fra Schmidts udlægning, en detaljeret beskrivelse af, hvordan hver neuron i det neurale netværk har bidraget til det givne output. 

Frem for explainability lægger forslaget vægt på at kræve »a certain degree of transparency« af systemer i højrisiko-kategorien. Tilstrækkelig med transparens til, at brugere af systemet kan fortolke systemets output og bruge det på en passende måde. 

I forslagets Artikel 13 kan man læse mere om, hvilken type information lovgivere forventer, at AI-systemet skal kunne levere. Her står der blandt andet at det skal specificeres, hvad systemet er bygget til, hvordan det er valideret, risici forbundet med systemet, begrænsninger og - hvis relevant - »specifications for the input data, or any other relevant information in terms of the training, validation and testing data sets used«.

Følger industriskabte dokumentationsmodeller

Hvis den liste af dokumentationskrav virker bekendt, kan det være fordi den ligger meget tæt op af den information man skal udfylde om sin model, hvis man bruge Model Card-metoden. 

Model Cards som dokumentation til ML-modeller blev først foreslået i 2018 - af blandt andre Timnit Gebru og Margaret Mitchell - og bliver stadig mere udbredt med Google som bannerfører. Selskabet lancerede sidste år et toolkit, der skal gøre det nemmere at dokumentere ML-modeller og har desuden udfyldt Model Cards for adskillige af de open source-modeller Google står bag. 

I dette Model Card, som dokumenterer en model til at analysere poseringer, kan man således blandt andet læse, at den ikke er egnet til nogen form for overvågningsopgaver eller til kritiske beslutninger, og at den klarer sig en smule bedre på mænd end på kvinder.  

Dokumentationsgæld skal betales

Explainability - eller mangel på samme - er på mange måder en teknologisk gæld for deep learning-feltet. Efter årtier med imponerende resultater, ser vi i dag explainability blive adresseret som en eftertanke. 

Men den form for transparens, som forslaget efterspørger, er mindre et spørgsmål om teknisk gæld og mere et spørgsmål om dokumentationsgæld. Den gæld, som ligger i at adskillige populære, åbne modeller er dårligt dokumenterede og derfor ikke fortæller evt. brugere, at de muligvis slet ikke er egnet til den givne use case. 

Det samme gælder i øvrigt datasæt. Også her kan man nævne Timnit Gebru og andres forsøg på at udbrede bedre datadokumentation med metoder som Datasheets. Ikke desto mindre er adskillige AI-modeller udviklet på enorme datasæt, hvor evt. problematisk bias er dårligt dokumenteret. Så sent som i maj kunne forskere dokumentere betydelige begrænsninger i datasættet BookCorpus, der er indgået i træning af sprogmodeller som GPT og BERT. 

Under EU's nye AI-regime kan det blive vanskeligt at lade dokumenationsgælden stå ubetalt. 

Vestager: Vi kan ikke bare give op

Eric Schmidts kritik af den europæiske plan var så tilpas hårdfør, at den blev bragt op da den danske EU-Kommissær Margrethe Vestager onsdag svarede på spørgsmål fra medlemmer af EU-parlamentet.

Her pegede kommissæren på at EU's platform-to-business-reguleringen allerede kræver en vis forklarlighed f.eks. når virksomheder forsøger at forstå, hvorfor en søgemaskine rangerer dem, som den gør. Et andet eksempel er muligheden for at få forklaret, hvorfor man ser en given reklame online. I begge tilfælde er der tale om generelle forklaringer af f.eks. de væsentligste parametre, som algoritmen vægter.

Margrethe Vestager slog dog også fast, at hun ikke ser det som et problem, hvis lovgivning tvinger virksomheder til at udvikle teknologien. 

»Det er virkelig vigtigt at være ambitiøs,« forklarede Vestager om kommissionens ræsonnement. 

»Hvis vi bare giver op, og siger, det bliver for kompliceret, så underminerer vi vores evne til at skabe tillid. Det er muligt, at nogle dele af explainability, skal komme fra andre teknologier. Men det er virkelig vigtigt, at vi bliver ved med at forske, bliver ved med at udvikle - også når det kommer til explainability.«

Vi må rykke selv

Eric Schmidt gjorde det klart, at han gerne havde set et stærkt partnerskab mellem EU og USA for at de sammen kan tage kampen op med Kina, der har gjort AI til en af landets absolut største investerings-prioriteter. Han gjorde det ligeledes klart, at han så ny regulering som hæmsko for det partnerskab.

Den udlægning skød Margrethe Vestager ned.

»Vi har taget nogle bilaterale skridt allerede. At være en leder og sætte standarder er ikke noget man gør alene. Det er noget man gør med ligesindede partnere. Men jeg tror den eneste måde, vi stadig kan inspirere hinanden, er ved også at tage skridt selv,« pointerede Vestager.

»Det er en måde at skabe tillid. At vores regulering passer med det, vi siger, så det ikke kun er snak.«

Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her
Regulering af AI
Europa Nævnet
Illustration: Europa Nævnet

DataTech har fået økonomisk støtte fra Europa-Nævnet til at sætte journalistisk fokus på arbejdet med at regulere AI

EU-Kommissionen har i år fremlagt et forslag til, hvordan AI skal tøjles. Forude venter således en afgørende offentlig debat, som skal være med til at sikre, at den endelige lovtekst rammer den rigtige blanding af sikkerheder og muligheder. Et fejlskud mod den ene af disse poler kan have alvorlige konsekvenser for Europas evne til succesfuldt at udnytte AI i dette årti. 

DataTech vil i en artikelserie gå i dybden med, hvordan EU konkret vil regulere AI, hvor der er behov for regulering, ligesom vi undersøger, hvordan de specifikke regler rammer ned i det praktiske arbejde med AI i europæiske virksomheder.