Dansk forskning: Urimeligt at stemple arbejdsløse med dataprofilering

Foto : STAR

Dansk forskning: Urimeligt at stemple arbejdsløse med dataprofilering

I stedet for at prøve at forudsige den enkeltes risici med algoritmer, bør vi hellere tilrettelægge bedre og gennemsigtige forløb på jobcenterområdet, mener Naja Holten Møller, der er adjunkt på Københavns Universitet og en af forskerne bag nyt studie.

Kontroversen om profilering af arbejdsløse med machine learning fortsætter. Som Datatechs søstermedie Version2 kunne afsløre sidste år, skal jobcentre og arbejdsløshedskasser udrustes med et landsdækkende digitalt afklarings- og dialogværktøj, der skal skabe profiler af arbejdsløse på baggrund af personoplysninger. Det er frivilligt for borgeren eller sagsbehandleren, om de vil benytte værktøjet.

Loven blev vedtaget allerede i 2014, men gik under radaren, også i forhold til Datatilsynet, som først sidste år fik kigget nærmere på tankerne bag værktøjet.

Værktøjet skal foretage en statistisk baseret analyse af borgerens risiko for at blive langtidsledig ud fra en række oplysninger om borgeren.

Version2 kunne også berette, at det ifølge forskningen er svært at få kunstig intelligens til at give et godt bud på, om en arbejdsløs borger er i risiko for langtidsledighed. I hvert fald hvis algoritmen også skal kunne give borgeren og sagsbehandleren en god forklaring på, hvorfor den pågældende er i risikogruppen, hvilket loven kræver.

Endeligt mente Institut for Menneskerettigheder, at det er lovstridigt, når etnicitet indgår i de oplysninger om borgeren, som benyttes af værktøjet.

Urimeligt at stemple arbejdsløse med dataprofilering

Men det overhovedet rimeligt at stemple den enkelte borger på baggrund af, hvad andre med en lignende baggrund har formået i forhold til jobsøgning? Nej, lyder det klare svar i et nyt studie fra Københavns Universitet.

»Man skal forstå, at mennesker er mennesker. Vi bliver ældre, syge og oplever tragedier og sejre. Så i stedet for at prøve at forudsige den enkeltes risici, bør vi hellere kigge på at tilrettelægge nogle bedre og mere gennemsigtige forløb på jobcenterområdet,« siger Naja Holten Møller, der er adjunkt på Datalogisk Institut og en af forskerne bag studiet, ifølge en pressemeddelelse.

Sammen med to kolleger fra samme institut, professor Thomas Hildebrandt og professor Irina Shklovski, har hun undersøgt de mulige alternativer til at bruge algoritmer i forbindelse med at forudsige jobparathed for den enkelte ledige og de etiske aspekter, der kan opstå her.

Læs også: Version2: Ingen snuptags-løsninger med kunstig intelligens i forvaltning og sundhedsvæsen

»Vi har undersøgt, hvordan man på en etisk og ansvarlig måde kan udvikle algoritmer, hvor de mål, som opstilles for algoritmen, også giver mening for jobkonsulenterne. Her er det afgørende at finde en balance, hvor den lediges situation både kan vurderes i nuet af jobkonsulenten, samtidig med at man kan lære af andre lignende forløb gennem algoritmen,« vurderer Naja Holten Møller.

Jobkonsulenter bekymres om algoritme-vurdering vil påvirke egen dømmekraft

 »Algoritmer, der bruges i det offentlige, må selvsagt ikke skade borgerne. Ved at udfordre scenariet og altså selve ideen om, at målet for en ledig i et jobcenter altid er et job, kan vi få bedre hold om de etiske udfordringer. Ledighed kan have mange årsager, og her kan en hurtig afklaring af tidsforløbet for de mest udsatte borgere være et bedre mål, viser dette studie. På den måde undgår vi, at algoritmer gør stor skade,« siger Naja Holten Møller.

De adspurgte jobkonsulenter i studiet udtrykker bekymring for, hvordan algoritmens vurdering vil påvirke deres egen dømmekraft netop i forhold til de udsatte borgere.

»Der skal sættes en ramme, hvor jobkonsulenter kan få reel indflydelse på de bagvedliggende mål, som er styrende for algoritmen. Det er svært, og det tager tid, men det er afgørende for resultatet. Samtidig skal man huske på, at algoritmer, der skal hjælpe med at træffe beslutninger, kan ændre jobkonsulenters arbejde væsentligt og en etisk tilgang indebærer derfor, at de tages med på råd,« forklarer Naja Holten Møller.

»En drøm at algoritmen kan se mønstre, som andre ikke kan se«

Selvom algoritmerne kan være gavnlige ved eksempelvis at give en idé om, hvor længe den enkelte borger kan forvente at gå ledig, betyder det ikke, at det uden videre er etisk forsvarligt at anvende sådanne forudsigelser lavet af algoritmer i jobcentret, påpeger Naja Holten Møller.

»Der er en drøm om, at algoritmen kan se nogle mønstre, som andre ikke kan se. Måske kan den se, at for dem, der har oplevet en personlig tragedie, er denne vej gennem systemet den bedste. Algoritmen kunne eksempelvis sige, at fordi du har været ledig på grund af sygdom eller en skilsmisse, så er din mulighed for at undgå langtidsledighed afhængig af sådan og sådan,« siger hun og slutter:

»Men hvad skal vi med de her oplysninger, og kan de bruges på en fornuftig måde til at træffe bedre beslutninger? Jobkonsulenter kan ofte selv vurdere, om en person ser ud til at kunne gå ledig i lang tid. De er formet af det menneskelige møde, deres faglighed og erfaring – og det er i dette møde, at den etiske udvikling af nye typer systemer til det offentlige bedst kan spire.«

Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her
Naja Holten Møller
Illustration: Søren Jul Lamberth

Naja Holten Møller er adjunkt på Datalogisk Institut, Københavns Universitet.