Dette indlæg er alene udtryk for skribentens egen holdning.

Algoritmer skal udvikles sammen med praksis

30. august 2022 kl. 05:104
Lisbeth Holten
Illustration: Lisbeth Holten.
Forestillingen om et tech eldorado, som kan gøre den offentlige sektor både billigere og mere effektiv, er en lavine, der de senere år har ramt det sociale område udefra. Men indtil videre har algoritmer og kunstig intelligens primært vist sig som en succes i det omfang, at man bruger det til at overtage rutineprægede opgaver.
Artiklen er ældre end 30 dage

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

Så snart vi bevæger os ind på områder, der handler om at forudsige, om børn vil have behov for en offentlig indsats, fordi de mistrives, eller om borgere er i risiko for langtidsledighed, så opstår der en stor risiko for at lave benspænd, der er mere til besvær end til gavn for borgerne og socialrådgiverne.

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
4 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
31. august 2022 kl. 08:46

Tak fordi du tager det vigtige emne op, Ditte!

Jeg er 100% enig i det du skriver, hvilket også et konklusionen af den forskning og undersøgelser vi har lavet de sidste 10 år. Undersøgelsen fra Lyngby-Tårbæk som du henviser til kan iøvrigt findes her https://www.confrontingdata.dk/s/Er-du-grn-Algoritmer-til-beslutningssttte-Flugge-et-al-2022.pdf

Derudover har vi udgivet en række forskningsartikler om emnet - særligt som del af EcoKnow.org projektet. Måske mere håndgribeligt kan man også finde specifikationen for brug af beslutningsstøttende AI i offentlig sagsbehandling som både bygger på vores forskning og retningslinjer fra bla EU og OECD. Her er det også gennemgående at inddragelse af alle relevante interessenter er vigtig, ikke mindst allerede i ide-fasen. Den kan findes her: https://www.ds.dk/da/nyhedsarkiv/2020/4/nye-specifikationer-fra-dansk-standard-skal-goere-kunstig-intelligens-tryg-og-sikker

2
30. august 2022 kl. 21:50

Spændende artikel. Læs nævnte Morten Ejrnæs' artikel om den overdeterminerede sociale arv:

https://socialpaedagogen.sl.dk/arkiv/2005/paedagogiske-dage-morten-ejrnaes-om-social-arv/

Der er jo klokkeklart tale om base rate fallacy hos de tobenede. Og den bliver ukritisk overført til en blackbox-algoritme, som for nogen måske får den til at stå som mere autoritativ.

Jeg er ligesom forfatteren heller ikke maskinstormer på området - potentialet er at udfordre fordomme hos de tobenede - ikke tage dem for gode varer.

Feature-engineering af mennesker er svært - bl.a. fordi de kan være så uforskammede at forandre sig undervejs.

Et minimumskrav kunne været at forlange Explainable AI, hvor det tydeliggøres hvilke features med hvilken vægt, der har bidraget til resultatet.

1
30. august 2022 kl. 09:49

Så er der lige det med kvaliteten af data. Den aktuelle sag omkring fejludbetaling af varmechecks pga. fejl i datagrundlaget bør vel mane til besindighed mht.det forsvarlige i at tage beslutninger med enorme konsekvenser for andre mennesker baseret på data i registre - og det vel endda et temmelig lidt komplekst område (de data man har valgt at lægge vægt på) ift. så meget andet.

4
31. august 2022 kl. 08:49

Netop - sagen om varmechecken var et meget tydeligt eksempel på hvad der kan ske, når man træffer beslutninger på baggrund af data der er registreret til et andet formål (og derfor ikke kan forventes at være egnede til det nye formål).