Institut for Menneskerettigheder: Myndigheder bør fortælle når de bruger AI

advarsel warning
Illustration: fillvector, Bigstock.
Risiko for diskrimination kræver gennemsigtighed, når det offentlige profilerer med kunstig intelligens. Det vil styrke borgernes retssikkerhed mener Institut for Menneskerettigheder, som kommer med konkrete forslag i ny analyse.
9. marts 2021 kl. 03:06
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

VERSION2: I en retsstat er det et grundlæggende princip, at borgere og offentlighed skal kunne kigge magthaverne i kortene og få indsigt i de processer, der ligger bag love og afgørelser.

Når dele af en afgørelse om borgere træffes af en algoritmisk profileringsmodel, bliver retsstatens principper udfordret, når det handler om mulighederne for at kigge magthaverne i kortene og få indsigt i de processer, der ligger bag.

Det konkluderer Institut for Menneskerettigheder i en ny analyse om brugen af kunstig intelligens i det offentlige.

Læs også: AI-professor kritiserer model bag børneprofilering: »En god illustration af forskellen på transparens og forklarlighed«

Konkret anbefaler Instituttet, at Social- og Ældreministeriet samt Beskæftigelsesministeriet fastsætter regler om brugen af profileringsmodeller på social- og beskæftigelsesområdet, blandt andet i forhold til risiko for diskrimination.

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik. Få tilsendt tilbud

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger