Ansvarlig brug af kunstig intelligens er afgørende for kundernes opbakning

PFA har udviklet et rammeværk, som sikrer systematisk tilsyn af modeller, der anvender kunstig intelligens (AI). Motivationen bag dette tiltag er at sikre moralsk og etisk forsvarlighed i anvendelsen af modeller ved at sætte højere krav til kunstig intelligens end de krav, der er specificeret i GDPR-lovgivningen.
Brødtekst

Udviklingen af kunstig intelligens har en stor effekt på stort set alle menneskers liv.

Teknologien er indbygget i vores telefoner og på sociale medier, den bliver brugt i medicinalindustrien til at opnå bedre behandling og diagnosticering, og politiet bliver bedre til at forudsige og bekæmpe kriminalitet.

Kunstig intelligens gør det muligt at skabe indsigter, der før var uopnåelige, men med anvendelsesmulighederne følger også store krav til, at AI-teknologien udvikles forsvarligt.

»With great power comes great responsibility«, og det ansvar hviler på virksomhederne i mangel af en officiel dataetisk lovgivning. 

Behovet for et officielt og fyldestgørende regelsæt for brugen af AI-løsninger er dog klart i Erhvervs- og Vækstministeriet, hvor Finanstilsynet den 10. juli i år udgav et notat vedrørende god praksis for superviseret machine learning.

Notatet fremlægger en række anbefalinger til virksomheder, der benytter machine learning, som blandt andet understreger vigtigheden af en risikobaseret tilgang til governance (modeludvikling, -anvendelse og -opdatering) samt forklaringsgraden i resultaterne.

Det er en tilgang, som PFA i meget høj grad er enig i. Hos PFA er flere AI-løsninger allerede produktionssat - blandt andet en e-mail-bot, der assisterer besvarelser af kundehenvendelser, samt intelligente rådgiverværktøjer til relevant og målrettet kundekontakt, der har skabt produktivitetsforbedringer og styrker dele af den samlede kundeoplevelse.

I PFA er vi overbeviste om, at kunstig intelligens kan udbredes langt mere i produkter, processer og services i pensionsbranchen samt via relevant og målrettet information hjælpe til at skabe interesse for et område, der ellers traditionelt er lav-interesse i befolkningen. Det ligger os på sinde at gøre dette på ansvarlig vis.

Tillid er afgørende for opbakning

Ifølge en ny befolkningsundersøgelse udført af Epinion for PFA blandt 2.000 danskere svarede syv ud af ti danskere, at det er positivt, at virksomheder i stigende grad bruger kunstig intelligens.

Lidt over halvdelen angiver i samme undersøgelse, at de har tillid til, at virksomhederne bruger kunstig intelligens på en ansvarlig måde, der er til gavn for brugerne.

Befolkningsundersøgelsen viser dermed, at danskerne generelt er åbne overfor brugen af kunstig intelligens og ønsker individualiseret og relevant service fra virksomhederne, men tilliden er skrøbelig, og virksomhederne skal bevise, at de er modne nok til at varetage opgaven.

Flere eksempler på umodne og uansvarlige kunstig intelligens-modeller har med god grund skadet tilliden – blandt andet Amazon AI’s rekrutteringsmodel, der gav kønsdiskriminerende anbefalinger, og Microsoft’s AI-chatbot, der udviklede sig til et mareridt, som skrev nazistsympatiserende beskeder.

Disse situationer kunne være undgået med et grundigt, løbende tilsyn med modellerne under udvikling og produktion kombineret med relevante 'model-explainers', der hjælper modeludvikleren med årsagsforklaringer på forudsigelserne.

Systematisk tilsyn med kunstig intelligens

Som et led i PFA’s arbejde med ansvarlige algoritmer har vi udviklet en risikomodel, der bliver brugt til at monitorere alle modeller og produkter, som bygger på kunstig intelligens.

Risikomodellen er en integreret del af dokumentationen for hver models udvikling og brug og bliver brugt til at skabe transparens og undgå fejl eller mangler.

Dokumentationen indeholder f.eks. en redegørelse for den anvendte data og dets opbevaring, sandsynligheden for, at ikke-tilsigtet bias kan opstå, konsekvensen, som modellens brug kan have for kunden, og måden, hvorpå vi kan opnå indsigt i beslutninger, som modellen tager.

Samtidig opfordrer rammeværket modeludviklere til aktivt at tage stilling til en række tiltag, der kan formindske risikoen for, at modellen er problematisk ift. etik eller GDPR.

Dette kan inkludere at vælge en model, der har højere forklaringsgrad (f.eks. regression frem for black-box-modeller), fravælge data baseret på følsomme kundedata samt bruge nye teknikker til at øge forklaringsgraden på den enkelte forudsigelse (se infoboks-tekst).

Alle disse aspekter danner grundlag for en samlet risikovurdering, der er visualiseret i en risikomatrice som vist nedenfor. På figuren ses risikoklassificeringen af én kunstig intelligens-model, hvor pilen angiver, hvordan risikominimerende tiltag har ændret den samlede risikobedømmelse.

Risikovurdering, analyse
Illustration: PFA

Samlet risikovurdering af model baseret på kunstig intelligens

PFA’s risikomatrice er inddelt i fire zoner – grøn, gul, orange og rød – og bliver brugt til at skabe retningslinjer for opsyn med modellen, dens anvendelse og løbende udvikling.

Kravene til udvikling og brug af modellen skærpes, når man for eksempel går fra grøn til gul risikozone, så relevante foranstaltninger og opsyn er sikret.

Målet med det systematiske tilsyn af kunstig intelligens er, at alle AI-løsninger skal designes og benyttes med langsigtet bæredygtighed for øje. 

Styrk tilliden

Der er et stigende fokus på ansvarlig udvikling og anvendelse af kunstig intelligens både nationalt og internationalt. EU-Kommissionen er gået ind i diskussionen om etik i brugen af kunstig intelligens, og også i Danmark er flere initiativer igangsat i blandt andet Dataetisk Råd og Finanstilsynet.

Debatten om etik og kunstig intelligens er dog ikke kun for de lovgivende anstalter. Det er en debat, som alle brugere og virksomheder må og skal deltage i for at sikre de bedste og mest konkrete principper for en ansvarlig fremtid med kunstig intelligens.

I PFA ønsker vi, at Danmark bliver et foregangsland for netop dén debat og udvikling. Alle værktøjer, der benytter kunstig intelligens, skal udvikles med udgangspunkt i brugerne og kunderne og til deres fordel - og derfor skal vi sikre både anstændighed og moralsk og etisk forsvarlighed. Ikke bare lokalt, men globalt.

Model-explainers

I takt med at black-box-modeller, som f.eks. gradient-boostede forklaringstræer og dybe neurale netværk, har fundet bred anvendelse inden for mange områder, er der opstået et behov for at øge forklaringsgraden af sådanne modeller.

Nye ”model-explainers” som SHAP og DALEX, baseret på permuteringsteknikker og spilteori, hjælper modeludvikleren med at forklare en black-box-model, både på modelniveau men også for den enkelte observation. I klassisk regressionsanalyse repræsenterer modellens koefficienter og konfidensintervaller forsimplet set forklaringsvægten for hver enkelt variabel.

”Model-explainers” giver via robuste matematiske metoder en tilsvarende forklaringsgrad for hvert enkelt prædiktion, og en anbefaling til en kunde kan således kobles til de af kundens stamdata, der har drevet beslutningen.