Rapport: Teknikker til at fjerne bias fra ML-modeller er ikke løsningen på AI-diskrimination

bias fairness
Illustration: hussainkin, Bigstock.
EU-Kommissionen sætter alt for meget lid til tekniske løsninger på politiske problemer, mener forskere. 
22. september 2021 kl. 16:37
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Teknikker til at fjerne bias fra data har en central rolle i arbejdet med at undgå diskriminerende AI, hvis man læser EU's politiske papirer om AI. Men EU-politikerne har lille begreb om, hvad man kan opnå med såkaldt debiasing, og forsøger at finde en teknisk løsning på et politisk problem. 

Sådan lyder vurderingen i en rapport, som rettighedsorganisationen EDRI har fået udarbejdet af Agathe Balayn og Seda Gürses, henholdsvis ph.d-studerende og lektor ved Technische Universiteit Delft.

»Debiasing locates the problems and solutions in algorithmic inputs and outputs, shifting political problems into the domain of design, dominated by commercial actors,« lyder kritikken fra de to forskere. 

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik. Få tilsendt tilbud

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger