Dette indlæg er alene udtryk for skribentens egen holdning.

Ansvarlig AI kræver øget samarbejde om udvikling og audit af algoritmer

AI
Illustration: Alexa Ma/Bigstock. Se større version
AI's indtog i vores liv og samfund fordrer ansvarlig udvikling og anvendelse, der sikrer AI-løsninger, der både skaber værdi og er til at forstå og forklare. Men det kræver øget samarbejdet mellem offentlige instanser, forskningsinstitutioner og private virksomheder, skriver Thomas T. Hildebrandt, Naja Holten Møller og Cathrine Seidelin fra Københavns Universitet, i dette indlæg.
Synspunkt16. december 2021 kl. 05:15
errorÆldre end 30 dage

Investeringer i forskning, der fremmer en ansvarlig tilgang til AI-udvikling, er kritisk. 

Udviklingen af kunstig intelligens (AI) går fortsat stærkt og får i stigende grad indflydelse på vores liv og samfund. Dette har medvirket til at mange lande har intensiveret deres udviklingsinitiativer af kunstig intelligens.

Det gælder også Danmark. Sidste år blev Digital Research Centre Denmark (DIREC) etableret med 100 mio. kroner i ryggen fra Innovationsfonden og flere AI-projekter skudt i gang med deltagelse fra både universiteter og virksomheder. I år startede først Velux og Villum fondens 100 mio. kroners forsknings- og oplysningsprojekt ved navn Algoritmer, Data og Demokrati (ADD), der skal lære os »som samfund og mennesker at leve med algoritmer og kunstig intelligens på den gode måde«.

Senere på året blev der taget hul på etableringen af det ambitiøse AI Pioneer Center, som har til formål at skabe verdensklasse forskning inden for kunstig intelligens, der kan være med til at løse store samfundsmæssige udfordringer. 

Disse eksempler på nationale udviklingsinitiativer afspejler også, at kunstig intelligens i stigende grad bliver en del af danskernes dagligdag. Det gælder eksempelvis, når vi anvender apps, søgemaskiner og ansigtsgenkendelse for at logge på vores iPhone. I et bredere perspektiv bliver vi mødt af automatiseret kundeservice, der bruges af danske virksomheder til at lette deres arbejdsgange og til at forbedre serviceleverancen.

Vi bliver orienteret og indkaldt til møder med det offentlige via en veletableret digital infrastruktur i form af eksempelvis Digital Post og MitID. På hospitalerne understøtter kunstig intelligens tidlig diagnostisk af nogle sygdomme, og på jobcentrene hjælpes sagsbehandlingen af algoritmer til at forudse langtidsledighed.

Kunstig intelligens er med andre ord allestedsnærværende, og det er lige netop derfor, at vi skal kunne gå det efter i sømmene i større omfang end nu. 

Samarbejde om audit og gennemsigtighed af algoritmer frem for aktindsigt 

Ansvarlig udvikling og brug af kunstig intelligens bør bygge på demokratiske principper, fokus på samfundskritiske udfordringer og grundforskning. Mediernes pressefrihed, forskningsfriheden og aktindsigt er demokratiske værktøjer, og dem skal vi bruge - også når det handler om kunstig intelligens. Men aktindsigt er omkostningsfuldt for alle parter og kommer ofte først på banen, når algoritmerne allerede er udviklet. 

Tidlig inddragelse af interessenter og samarbejde omkring audits af de algoritmer er en anden mulighed. Auditmethoder af algoritmer er stadig under udvikling, men vi i dansk forskning arbejder allerede nu med at se, hvordan denne tilgang kan bruges i den offentlige sektor. Vi mener, at Danmark kan blive førende indenfor ansvarlig udvikling af kunstig intelligens, hvis vi fremmer muligheden for at samarbejde om bl.a. audit af algoritmer i forbindelse med udviklingen og anvendelsen af kunstig intelligens.

På nuværende tidspunkt er det i høj grad op til de enkelte offentlige instanser og private virksomheder for eksempel at udarbejde dokumentation og vurdere datakvalitet og standarderne for, hvordan dette skal gøres er stadig ikke klar. Som også fremhævet i denne kommentar i Nature, er det derfor utrolig svært at tilgå og efterse at algoritmerne faktisk virker efter hensigten. Denne mangel på gennemsigtighed og reproducerbarhed er med til skabe usikkerhed omkring brug af kunstig intelligens.

Det er derfor helt essentielt at vi skal kunne tilgå, reproducere, forstå og forklare hvorfor algoritmer fungerer, som de gør, hvis deres brug er kritiske for vores liv og samfund.  

Flotte ord skal gå hånd-i-hånd med åbenhed

Danmark er med helt fremme i forhold til udvikling af europæiske standarder for AI, da Dansk Standard har fået ansvaret for sekretariatet for den nye europæiske standardiserings komite inden for AI.

Gennem indførelse af sådanne standarder, ønsker man at give en måde at leve op til regulativer om AI og hjælpe både private firmaer og offentlige instanser til at give klare og forståelige informationer om, hvordan de anvender kunstig intelligens og hvorfor den bruges.

Men standarder og regulativer er som udgangspunkt blot ord. I det nye forslag til AI regulering fra EU nævnes eksempelvis begrebet 'regulatorisk sandkasse' talrige gange. Men intet sted gøres konkret, hvad det vil sige at »lege med data og AI« i sådan en sandkasse.

Vi mener, at Danmark bør gå et skridt videre og etablere en ansvarlig praksis for, hvordan man anvender standarder og eksempelvis laver audit af både etablerede algoritmer og algoritmer under udvikling.

I Confronting Data Co-lab ved forskningssektionen for Software, Data, Personer og Samfund på Datalogisk Institut ved Københavns Universitet har de to af undertegnede forfattere, Cathrine Seidelin og Naja Holten Møller, konkret lavet en audit af Styrelsen for Arbejdsmarked og Rekrutterings (STAR) algoritme, der har til formål at profilere dagpengemodtagere således at folk med risiko for langtidsledighed identificeres. Vores audit kan læses her og er udarbejdet i samarbejde med vores kollega Irina Shklovski, Therese Moreau fra Zetland og STAR.

Gennemgangen synliggør, hvordan STAR-algoritmens profilering beror på få variabler - heriblandt en persons herkomst - til at beslutte, hvorvidt dagpengemodtageren er i risiko for at blive langtidsledig.

Samarbejdet med STAR i forbindelse med vores audit eksemplificerer, hvordan et samarbejde mellem forskere, medier og offentlige instanser kan foregå og skabe gode muligheder for at undersøge sammenhænge (og mangler på samme) mellem dokumentation, den implementerede algoritme og beslutningsprocesser. Disse former for samarbejder kan være med til at fremme forståelse for og forklaring af, hvorfor en algoritme eksempelvis profilerer, som den gør.

Det giver mulighed for at stille kritiske spørgsmål og forbedre fremtidig praksis for, hvordan man implementerer og formulerer dokumentation af algoritmer - ikke mindst i den offentlige sektor.

Reducer gabet mellem dokumentation og implementation

I forbindelse med vores audit har vi visualiseret STAR-algoritmens beslutningstræ. Vi har også lavet en demo, som er inspireret af algoritmens tilhørende spørgeskema.

Men både visualisering og demo er baseret på vores fortolkning af koden, vi fik fra STAR. Og netop dét, at vi har været nødt til at fortolke koden, som vi modtog fra STAR, peger på et sted, hvor praksis bør forbedres: Gabet mellem implementation og dokumentation bør reduceres, så man i højere grad undgår misforståelser og fejlfortolkninger på tværs af interessanter.

Hvis der er tale om regelbaserede AI-systemer, som STAR's algoritme i sidste instans er, kan dette gøres ved at lave et format for regler, som kan læses og forstås både af mennesker og maskiner.

Et sådant format er de såkaldte DCR-grafer, som blev udviklet i forskningsprojektet EcoKnow.org. Disse regler kan både anvendes til at beskrive beslutningsregler og digital lovgivning, som beskrevet for nyligt i dette synspunkt på ComplianceTech.

DCR formatet er også understøttet af simuleringsværktøjer, udviklet af DCRSolutions.net, som gør det muligt for de relevante aktører at simulere beslutningsstøtten inden algoritmen tages i brug.

Men selvom der blev forsket i forståeligheden af DCR-formatet, er der stadig brug for mere forskning i, hvordan man visualiserer eller på anden måde gør beslutningsstøtten forståelig og anvendelig. Dette er et af målene med et nyt forskningsprojekt om brug af AI til beslutningsstøtte i organisationer ved CBS, DIKU og DCR Solutions, der netop startet i regi af DIREC.

Kunstig intelligens indtog i vores liv og samfund fordrer ansvarlig udvikling og anvendelse, der sikrer AI-løsninger, der både skaber værdi og er til at forstå og forklare. 

Men dette kræver øget samarbejdet mellem offentlige instanser og forskningsinstitutioner, Ja, måske endda også private virksomheder.

Har du lyst til at skrive et synspunkt til et af Ingeniørens PRO-Medier? Send dit udkast til redaktionen på pro-sekretariat@ing.dk.

Ingen kommentarer endnu.  Start debatten
Debatten
Log ind for at deltage i den videnskabelige debat.