AI under corona: Systemer, der ville have været utænkelige for et år siden, bliver hastet igennem 

AI under corona: Systemer, der ville have været utænkelige for et år siden, bliver hastet igennem 
Illustration: SpicyTruffel, Bigstock. Se større version
Corona-pandemien har demonstreret behovet for AI-regulering. 
7. april kl. 10:14
errorÆldre end 30 dage

Corona-pandemien har sat turbo på AI-udvikling - det gælder også projekter, som for kort tid siden havde været fejet hurtigt ad vejen, hvis det blev foreslået, inden verden blev tvunget til at lukke ned. 

Det konstaterer den hollandske AI-ekspert Catelijne Muller i en rundbordssnak om fair AI arrangeret af IBM i sidste uge. 

Catelijne Muller er medstifter og leder af organisationen ALLAI, der er dedikeret til at fostre ansvarlig AI, og her er man lige nu i gang med at undersøge brugen af AI under corona.

»Vi ser mange projekter, som under normale omstændigheder slet ikke ville være diskuteret, som nu bliver hastet igennem ud fra ideen om no harm, no foul,« forklarer hun. 

Under dække af pandemien

De problematiske use cases, som ALLAI er stødt på, tæller blandt andet overvågning af ansatte, monitorering af adfærd og automatisk detektion af masker. Catelijne Muller fremhæver specifikt den britiske Ofqual-algoritme, der i sommer blev sat til at give skoleelever karakterer i mangel på egentlige eksamener. 

Modellens vurdering var blandt andet baseret på, hvordan elever fra en given skole historisk havde klaret sig, hvilket betød, at den automatiske karaktergivning gik ud over elever fra socialt belastede områder, og til gengæld hjalp elever fra privatskoler. 

Modellen fik i august hundredvis af elever til at demonstrere under parolen 'Fuck the algorithm', før myndighederne trak i land.  

Det er svært at forestille sig et bedre skolebogs-eksempel på, hvordan et AI-system kan undertrykke i forvejen udsatte grupper, men ifølge Catelijne Muller var de britiske myndigheder altså langtfra alene om at hasteimplementere tvivlsom AI under pres fra pandemien. 

»AI kan hjælpe os meget i den her pandemi, men vi skal være meget opmærksomme på AI- systemer, der ville have været utænkelige for et år siden, og nu foreslås under dække af pandemien,« siger hun. 

»Der er altid tid til at tage et skridt tilbage og se på det større billede. Og se på, om vi skal bruge teknologien under de her vilkår.«

Et nyt rammeværk

I praksis har ALLAI taget EU's retningslinjer for troværdig AI og oversat dem til et mere praktisk rammeværk, som organisationen kalder 'Framework for Responsible AI in Times of Corona'. Det rammeværk har organisationen efterfølgende brugt til at evaluere forskellige AI-applikationer, der er blevet udviklet og implementeret under pandemien.  

Mange af disse applikationer, skriver ALLAI om projektet, er udviklet gennem en hurtig beslutningscyklys og drevet af 'techno-solutionism' - troen på, at for alle komplekse problemer kan der udvikles en teknologisk løsning. 

»Even if basic elements such as effectiveness are often uncertain, there is a tendency to believe that in desperate times all possible avenues for solutions should be exhausted. This while it is well known that when powerful technologies such as AI are used unwisely, they can have serious unintended consequences.«

Det nye rammeværk skal gøre det lettere for virksomehder og myndigheder at lave en hurtig reflektion over, hvorvidt en pågældende AI-applikation virkelig er en god idé. Som eksempel har ALLAI her brugt rammeværket til at evaluere en AI-løsning til at detektere masker, som blev afprøvet på metrostationen Chatelet-Les Halles i Paris. Løsningen scorer lavt på stort set alle parametre, som har været mulige at evaluere. 

ALLAI
Illustration: ALLAI. Se større version

Industriens principper og guidelines virker ikke

Udviklingen under pandemien har ikke gjort meget for at demonstrere, at AI-feltet kan nøjes med selvregulering.

»Industridrevne guidelines eller best practice synes ikke at virke for at være ærlig. Nogle steder gør det, men mange steder gør det ikke,« bemærker Catelijne Muller, der ikke giver meget for argumentet om, at regulering skulle hæmme innovationen. 

»Først og fremmest, hvis noget hæmmes, så er det skadelig innovation. Dertil kommer, at selskaber skal huske, at regulering også kan hjælper dem, fordi det udligner spillebanen, og du ved at dine konkurrenter er bundet af de samme regler, som du er.«

Muller fremhæver som eksempel de standarder for kvalitetskontrol af pharmaceutiske produkter, som Council of Europe vedtog i 1964.

»Vi hører også argumenter for, at EU falder bagud ift. Kina og USA. Vi skal huske, at EU er trendsætter i det her felt. Vi har 500 millioner potentielle brugere, og hvis EU sætter de rigtige rammer, så skal resten af verden leve op til dem, hvis de vil have adgang til de brugere.« 

Game changer eller ej

Catelijne Muller fik ved rundbordssamtalen blandt andet selskab af danske Gry Hasselbach, der er medstifter af tænketanken DataEthics. Hun påpeger, at selvom EU har haft held med at sætte en standard med GDPR, er det ikke, fordi unionen er tidligt ude. 

»GDPR kom først da problemerne med en Big Tech digital infrastruktur allerede var der. Det er det samme med den nye AI-regulering,« siger Gry Hasselbach. 

»Det er et symptom på en hel proces, hvor EU forsøger at genvinde en form for selvbestemmelse over en digital infrastruktur, som basalt set har været besat af eksterne kræfter, hvis man vil bruge sådan en metafor.«

Direkte adspurgt til hendes forventinger til den kommende lovgivning, understreger Gry Hasselbach, at udspillet, der forventes 21. april, kun er et forslag, som skal forhandles. 

»Om det vil være en game changer, og for hvem det vil være en positiv game changer, vil vise sig.«

Catelijne Muller
CATELIJNE MULLER
Catelijne Muller er medstifter og forperson for organisationen ALLAI samt medlem af EU's High Level Expert Group on AI. Illustration: ALLAI. Se større version
Regulering af AI
Europa Nævnet
Illustration: Europa Nævnet. Se større version

DataTech har fået økonomisk støtte fra Europa-Nævnet til at sætte journalistisk fokus på arbejdet med at regulere AI. 

EU-Kommissionen vil i år fremlægge et forslag til, hvordan AI skal tøjles. Forude venter således en afgørende offentlig debat, som skal være med til at sikre, at den endelige lovtekst rammer den rigtige blanding af sikkerheder og muligheder. Et fejlskud mod den ene af disse poler kan have alvorlige konsekvenser for Europas evne til succesfuldt at udnytte AI i dette årti. 

DataTech vil i en artikelserie gå i dybden med, hvordan EU konkret vil regulere AI, hvor der er behov for regulering, ligesom vi undersøger, hvordan de specifikke regler rammer ned i det praktiske arbejde med AI i europæiske virksomheder. 

Ingen kommentarer endnu.  Start debatten
Debatten
Du har ikke tilladelse til at deltage i debatten. Kontakt support@ing.dk hvis du mener at dette er en fejl.
Forsiden