»AI-etikken skal starte hos den enkelte data scientist«

3. september 2019 kl. 05:20
Carly Kind
Illustration: Ada Lovelace Institute.
Vi laver stadig teknologi, som da vi byggede biler i 50'erne og 60'erne - overbeviste om, at markedet vil fikse de problemer, der måtte være, siger jurist og institutleder Carly Kind.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Amazons nu skrottede rekrutteringssystem er et skoleeksempel på konsekvenserne af bias i machine learning. Systemet skulle hjælpe selskabet med at gennemgå jobsøgendes CV'er og finde de meste attraktive talenter, men endte med at blive droppet, fordi det uforvarende havde lært at foretrække mandlige frem for kvindelige kandidater. 

Spørger man menneskerettighedsadvokat Carly Kind, er problemet grundlæggende, at man troede, man kunne bygge systemet objektivt i første omgang. 

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger