»AI-etikken skal starte hos den enkelte data scientist«
Amazons nu skrottede rekrutteringssystem er et skoleeksempel på konsekvenserne af bias i machine learning. Systemet skulle hjælpe selskabet med at gennemgå jobsøgendes CV'er og finde de meste attraktive talenter, men endte med at blive droppet, fordi det uforvarende havde lært at foretrække mandlige frem for kvindelige kandidater.
Spørger man menneskerettighedsadvokat Carly Kind, er problemet grundlæggende, at man troede, man kunne bygge systemet objektivt i første omgang.
DataTech er til professionelle, der arbejder med data og analytics.
Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.
Du kan også få tilsendt et tilbud til dig.
