Dette indlæg er alene udtryk for skribentens egen holdning.

Vi har brug for bias-resistent algoritmisk læring

Af Christina Lioma3. juni 2021 kl. 05:20
Algoritmer, Data og Demokrati-projektet skal forene datalogi, samfundsvidenskab og humaniora i udviklingen af ​​nye algoritmiske løsninger til gavn for borgere og samfund.
Artiklen er ældre end 30 dage

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

Vi mennesker lærer, hvordan man opfører sig, og hvordan man træffer beslutninger i overensstemmelse med vores opdragelse, de værdier og adfærdskodeks, vi lærer derhjemme, i skolen og i samfundet, så vi til sidst udvikler en moralsk rygrad, der styrer vores adfærd.

Algoritmer er maskiner. De har ingen moralsk rygrad. De lærer, hvordan man opfører sig, og hvordan man træffer beslutninger ved at observere adfærd og ved at imitere beslutninger, de ser i data. De »lærer af data«.

Få fuld adgang til DataTech

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 uger gratis prøve abonnement til DataTech. Betalingskort er ikke påkrævet, og du vil ikke blive flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger