AI i sagsbehandling: Dataetik er ikke en stopklods, hvis det integreres i udviklingen

Dette synspunkt er det tredje i en tredelt føljeton, hvor de dataetiske udfordringer ved automatiseret beslutningsstøtte til sagsbehandling vendes. I denne tredje del er fokus på autonom informationsindsamling.
Brødtekst

Automatiseret beslutningsstøtte til gennemførelse af sagsforløb udgør et vigtigt bidrag til effektivisering af sagsbehandlingen i offentlig sektor. 

Men hvis offentlige myndigheder virkelig skal have en effekt ud af at anvende avanceret teknologi til understøttelse af sagsbehandlernes manuelle beslutninger, bliver vi nødt til at forholde os til, hvordan vi kan begrænse antallet af beslutninger, der er nødvendige i den manuelle proces.

Det er beslutningerne, der er dyre for processen, og derfor vil det have høj værdi, hvis vi kan identificere beslutninger, der er tilpas simple og éntydige til, at vi kan lade digitale assistenter overtage beslutningerne fra sagsbehandlerne. Men er det okay rent dataetisk at lade en robot tage del i beslutningsprocessen om en borgerrelateret sag?

Selvlærende modeller til procesanalyse

Avanceret processtøtte kan baseres på selvlærende modeller, som analyserer sagsgangen. Når sagerne gennemgår den nødvendige proces med godkendelser og gennemgange af forskellige delelementer, bliver progressiviteten registreret af en avanceret mønstergenkendende algoritme.

Hvis der er sagsforløb, der afviger fra normalen for den type af sager, vil sagsbehandleren blive advaret direkte af beslutningsstøtten.

Det kan fx anvendes i sagsforløb med forældelsesfrister – her vil advarslen gå på risiko for overskridelse af en konkret frist. Skulle det ske, vil beslutningsstøtten automatisk advisere teamlederen eller tildele flere ressourcer til opgaven, så den ikke kuldsejler.

Beslutningsstøtte til kontrolfunktioner

Avanceret analyse kan også indlejres i beslutningsstøtte til funktioner med kontrolformål og efterforskning af svindel.

I Sverige har Arbetsförmedlingen fx indført machine learning-algoritmer til at identificere uberettigede udbetalinger i sociale udbetalingsprogrammer for langtidsledige. Alene i 2018 fandt beslutningsstøtten 105 mio. SEK, som ikke burde være udbetalt. Sagerne udgjorde et ekstra sæt af sager i forhold til de sager, de manuelle kontroller allerede havde hjemtaget.

Interne chatbots som sparringspartnere

Augmented Reality, eller Augmented Government – hvor en intern chatbot hjælper sagsbehandlerne med at besvare konkrete spørgsmål om den aktuelle sag – kan bidrage til både hurtigere sagsbehandling og højere grad af ensartethed i sagsbehandlingen.

De informationer, sagsbehandlerne får ved at spørge tilsynets egen chatbot, vil være trukket fra en fælles opbygget erfaringsbase og dermed indeholde eksempler på best practices.

Alternativet er, at man som sagsbehandler spørger en af sine mere erfarne eller specialiserede kolleger, og i det tilfælde vil der være en risiko for, at vedkommende har en præference eller en bias i sine erfaringer, der gør, at svaret ikke følger best practice.

I et forsøg med automatiseret beslutningsstøtte til reservelæger på et hospital, blev en algoritme trænet til at foreslå diagnoser baseret på input givet af reservelæger ved stuegang. Modellen blev trænet af et team af meget kvalificerede læger på et hospital i Boston, og modellen formåede at give en høj svarprocent, når det kvalificerede ekspertteam vurderede, om den svarede rigtigt.

Desværre viste det sig, at diagnoserne ikke stemte overens med forholdene på det danske hospital. Dels var der behov for anden medicin – i Boston udskrev man ganske enkelt anden medicin til givne diagnoser end man gør i Danmark – og dels blev modellen trænet med en bias.

Lægerne i Boston havde for eksempel en anden oplevelse af, hvad der kunne betegnes som 'eksotiske' sygdomme, og derfor reagerede modellen uhensigtsmæssigt i forhold til oplysninger om, hvorvidt patienten havde været ude og flyve for nylig.

Et dataetisk krav er i den sammenhæng, at medarbejderne er vidende om, at chatbotten ikke er et menneske og at dens anbefalinger kan udfordres over for en ledelse. Et andet dataetisk krav er, at medarbejderne ved, hvilke læringsloops modellerne var igennem.

Integreret dataetik

I vores arbejde med at implementere avancerede teknikker til beslutningsstøtte er vi nået forbi stadiet, hvor vi måtte vælge teknologier fra på grund af dataetiske overvejelser. Vi skal ikke længere vælge enten/eller, men sikre gode løsninger der lever op til både/og.

Vi skal med andre ord have fokus på, at de positive effekter af anvendelse af AI til beslutningsstøtte kan opnås med respekt for de dataetiske fordringer. Det kan vi gøre ved at integrere dataetiske principper i arbejdet med AI til beslutningsstøtte.

Kan vi nå i mål med det, vil vi kunne understøtte en effektivisering og kvalitetssikring i den offentlige service på et niveau, hvor vi kan flytte flaskehalsen ved den digitale revolution væk fra de manuelle sagsbehandlere i tilsynsmyndighederne. Og samtidig sikre, at hensynet til, at menneskets – her borgerens - interesser er i centrum, når vi træffer beslutning om at anvende AI til beslutningsstøtte, når vi vælger teknologi, og når vi anvender de resultater, som teknologien foreslår.

De dataetiske krav er derfor ikke længere en gangbar løsning for ikke at bruge AI – de kan opfyldes af teknologien selv.

Dette synspunkt er tredje og sidste del af en tredelt føljeton. DataTech bragte det første synspunkt i serien den 12. november, mens anden del blev publiceret den 19. november

Nævnte firmaer

Den australske chatbot Roxy

I Australien har Socialstyrelsen implementeret en intern chatbot ved navn Roxy, som anvender avancerede algoritmer og ML-modeller til at besvare forespørgsler fra sagsbehandlere. Chatbotten svarer på omkring 85 pct. af de spørgsmål, den bliver stillet af sagsbehandlere.

Kilde: Zdnet