Dræb en bjørn, hvis det gør dig glad: Forskeres forsøg på at lære AI moral har gabende huller

brun bjørn
Illustration: Lars Gejl/Scanpix Danmark. Se større version
Forskere har trænet en model til at prædiktere menneskelig moral. Det er gået omtrent lige så skidt, som man kunne forvente.
25. oktober 2021 kl. 14:33
errorÆldre end 30 dage

Amerikanske forskere har udviklet et AI-system til at ræsonnere sig frem til, hvad der er rigtigt og forkert i moralske dilemmaer. Men systemet, som forskerne ser som lovende, har vist sig både at være racistisk og moralsk korrumperet.

Delphi - som prototypen hedder - er trænet på et datasæt udviklet til formålet. I den såkaldte Commonsense Norm Bank har forskerne samlet 1,7 millioner moralske afgørelser foretaget af mennesker på Amazons MLTurk-platform. På den måde har de fået systemet til prædiktere den 'korrekte' afgørelse med en præcision på 92 procent. 

Men at lære en model generaliserbar moral er ikke overraskende langt mere komplekst end som så. 

Okay eller skræmmende

Forskerne fra Allen Institute of Artificial Intelligence og University of Washington har lavet en online demo af deres model, og her har alskens brugere kunne demonstrere, at der er rigelig plads til grelle fejl.

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik. Få tilsendt tilbud

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Log ind for at deltage i den videnskabelige debat.