AI kryber ind i investerings-beslutninger, men vi overser de langsigtede effekter af bias, mener forsker Fairness8. december 2021
Kvindelige politikere i sprogmodeller er ’hysteriske’, mens mandlige er ’modige’. Brug bedre data, siger forsker Fairness23. november 2021
Twitters algoritmer forstærker højreorienterede, men udviklerne ved ikke, om det er et problem Dataetik27. oktober 20211
Rapport: Teknikker til at fjerne bias fra ML-modeller er ikke løsningen på AI-diskrimination Fairness22. september 2021
Forskere: ML-forskning skal fokusere mere på retfærdighed og mindre på performance Forskning21. september 2021
Dataetisk Råd: Offentlige AI-pilotprojekter bør bygge på frivillighed og valgfrihed Dataetik16. august 2021
Forskning: Adskillige fairness-tests for ML giver ingen garanti mod ulovlig diskrimination Regulering af AI25. marts 2021
Itelligence styrer AI med 80-punkts tjekliste og obligatoriske tests: »Få det med fra starten« Regulering af AI23. marts 2021
Twitter-algoritme diskriminerer, Microsoft indgår GPT-3 samarbejde og EU-Parlamentet nedsætter AI-komité Ugens data25. september 2020
Dansk forskningsprojekt skal finde bias i AI til diagnostik: En fair algoritme »dur simpelthen ikke til medicin« AI22. september 2020
ML-forsker hos Unicef: Alt for ofte er AI-modeller ubrugelige for samfundets svageste Fairness4. juni 2020
SynspunktHvordan bliver computeren en retfærdig superhelt? Aka lidt om fairness i maskinlæring Af Amalie Pauli Nyhagen6. maj 2020