Abeba Birhane kæmper for at fjerne vold og racisme fra AI's fundament

Abeba Birhane kæmper for at fjerne vold og racisme fra AI's fundament
Illustration: Abeba Birhane. Se større version
Det er et enormt belastende arbejde at rense ud i AI-forskeres gigantiske datasæt. Og arbejdet er ikke engang respekteret i feltet, fortæller Abeba Birhane. 
Interview 11. november kl. 04:06

Det er nemt at sammensætte bunker af data til brug for træning af AI-systemer. Men det er et kæmpe arbejde at fjerne den del af indholdet, som er racistisk, sexistisk eller på andre måder problematisk. 

Abeba Birhane er en af de forskere, der alligevel gør forsøget. 

Hun er ph.d.-studerende ved University of Dublin, forsker i machine learning og algoritmisk bias, og hun har været med til at afsløre enorme problemer med datasæt, der har været centrale for udvikling af en lang række AI-systemer. 

»Der er en asymmetri mellem arbejdet, det kræver at samle de her gigantiske datasæt, og så indsatsen, det kræver at gøre dem bedre og rense dem,« fortæller hun. 

»Folk glemmer ofte den her enorme asymmetri, og den mængde følelsesmæssige belastning, og kæmpe indsats, som det kræver at gøre de her datasæt respektable og equitable.«

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Du har ikke tilladelse til at deltage i debatten. Kontakt support@ing.dk hvis du mener at dette er en fejl.
Forsiden