Teknologirådet: Drop etiske guidelines og stil tekniske krav til ordentlig AI

ai ethics
Illustration: Artmagination / Bigstock. Se større version
Det er realistisk, at EU ender med at indføre en strammere case-by-case-regulering af brugen af AI, mener direktøren for Teknologirådet.
Interview4. april 2019 kl. 02:44
errorÆldre end 30 dage

Hvis man virkelig vil bedrive etisk og ansvarlig AI-udvikling, er der ikke brug for etiske rettesnore, men for egentlig regulering og tekniske krav.

Det mener Lars Klüver, direktør i Fonden Teknologirådet, der for nylig afholdt et topmøde om samfundseffekten af AI.

I marts kom regeringen med en national AI-strategi, hvor man blandt andet oplister principper for, hvordan man kan udvikle etiske AI-løsninger. Men den tilgang er decideret uambitiøs, mener Teknologirådets direktør.

»Der er en egentlig risiko for, at de her pæne ord ikke bundfælder sig i systemet, Det er derfor, man er nødt til at kræve det og ikke bede om det. Det er et spørgsmål om at sætte grænser for de wild west-tilstande, der hersker på området i dag,« siger Lars Klüver.

Der er ikke noget galt med intentionerne i AI-strategien, vurderer han. Men hvis man virkelig skal skabe tillid til ansvarligheden og den etiske anvendelse af machine learning og AI, så bliver man nødt til at implementere det teknologisk.

»Der er et behov for at være meget mere håndfast med hensyn til, hvad man vil stille af krav. Og det er ikke bare guidelines,« siger Lars Klüver.

»Hvis vi virkelig gerne vil sælge ansvarlighed, skal det være meget dybere lejret ned i teknologien. Hvorfor er det ikke en lov? Hvorfor er det ikke en institution, der skal give lov i specifikke tilfælde? Jo mere ambitiøst man sætter ind her, desto bedre chance har man for også at få det økonomiske potentiale - både for samfundet og for dem, der udvikler systemerne.«

Consent-systemer og systematisk tjek for bias

Der er en række muligheder for at implementere krav om ansvarlighed i de tekniske systemer, påpeger Lars Klüver. Nogle er allerede teknisk mulige, mens andre indtil videre er teoretiske.

Man kan for eksempel udvikle systemer, der kan lære af sensitive data uden rent faktisk at have adgang til den data. Google og OpenAI har tidligere udgivet forskning på området, blandt andet med det formål at forhindre algoritmer i at blive reversed engineered på en måde, så persondata bliver lækket.

»Det kan man teknisk implementere ved at sætte servere op foran datasamlingerne. Så kan man sende en anmodning til den server, som så laver nogle beregninger og sender resultatet tilbage. På den måde bliver data aldrig delt,« siger Lars Klüver.

En anden mulighed er teknisk at implementere consent-systemer, som kontrollerer brugen af persondata, siger han.

»Så det ikke er op til den enkelte udviklers ansvarlighed og etik at bruge data, man ikke må. De får simpelthen ikke lov,« siger Lars Klüver.

»For eksempel kan du sætte et consent-system op, hvor borgere går ind og siger: Du må gerne bruge mine sundshedsdata til forskning i Danmark, men ikke i udlandet, eller hvad du nu ønsker.«

Det samme gør sig gældende med en anden udfordring i arbejdet med machine learning: bias. Danmarks nye AI-strategi rummer ganske vist et princip om, at uønsket bias skal forhindres, mens Lars Klüver savner noget mere konkret.

»Hvorfor laver vi ikke regler for, at hvis det offentlige f.eks skal indkøbe et AI-system, så skal de regelmæssigt undergå en audit for bias? Igen: Hvorfor strammer vi ikke skruen så meget, at vi er sikre på, at vi får det, vi vil have, i stedet for at lade det blive ved intentionen?« spørger han.

Adskil etik og økonomi

En del af regeringens pointe med at satse på etisk AI er ideen om at gøre etik til et konkurrenceparameter på det globale marked for AI-løsninger. Lars Klüver påpeger her, at han helst så diskussionen om en økonomisk fordel separaret fra debatten om etik.

»Det skal ikke være økonomien, der afgør, om man vil indføre noget etisk korrekt. Det er man nødt til at skille ad. Det her handler om ret alvorlige ting, som vores demokrati og magten mellem stat og borger.«

Når det er sagt, er Klüver ikke i tvivl om, at man kan tjene penge på at udvikle ansvarlige AI-systemer. Men det kræver altså, at der ikke alene investeres i AI - vi skal også investere i at lave de systemer, der sikrer ansvarlighed.

»Hvis vi virkelig gerne vil udvikle et særlig dansk aftryk, hvorfor er midlerne så ikke sat af til virksomheder, der gerne vil lave de teknologiske sikkerhedssystemer omkring AI? Det er langt mere elegant.«

Case-by-case-regulering

Lars Klüver forestiller sig, at AI-området i fremtiden vil blive reguleret på en case-by-case-basis, hvor en myndighed har ansvar for at godkende systemet. Det er f.eks. allerede tilfældet inden for EU's lovgivning om kemikalier og genteknologi, fordi det er meget svært at lave generelle retningslinjer for, hvilke risici der er ved et bestemt system.

»Det er et realistisk scenarie, at EU vil indføre en case-by-case-styring af det her område,« vurderer Lars Klüver.

»Det er umuligt at lave generelle regler for AI. Man bliver nødt til, hvis man vil sikre ansvarlighed, at have en eller anden form for godkendelsesordning.«

Lars Klüver forestiller sig som eksempel et system, der anvender en form for profilering af borgere.

»Hvis man vil regulere, hvordan det bør gøres, så kan en del af det ligge i teknologien selv, og noget kan implementeres gennem organisatoriske løsninger, f.eks. med en godkendelse fra en DPO. Alt det skal du have ind forbi en myndighed, som ser på, hvordan du implementerer det, og som giver lov eller ej.«

Netop fordi vi er med i EU, og fordi EU fungerer, som det gør, er der ifølge Lars Klüver en idé i at være først med denne form for regulering.

»Det her er et område, hvor et land kan gøre en kæmpe forskel. Hvis et land kan bevise, at det her kan man godt, så er det ret sikkert, at EU vil komme med en forordning, der implementerer det i hele unionen. Og så har du fordelen af at være first mover,« siger han og tilføjer:

»Det kan ende i et industrielt eventyr at lave ansvarlighedsteknologi.«

Lars Klüver
Lars Klüver
Illustration: Teknologirådet. Se større version

Lars Klüver er direktør i Fonden Teknologirådet - en nonprofit-fond, der rådgiver beslutningstagere om teknologiens muligheder og konsekvenser for mennesker, miljø og samfund.

Ingen kommentarer endnu.  Start debatten
Debatten
Log ind for at deltage i den videnskabelige debat.