Replik: Professionsetik for AI-udviklere løser ikke problemet
Den 18. januar bragte DataTech et synspunkt af Inga Strümke og Ishita Barua under overskriften 'AI-udviklere skal have, hvad læger har: En professionsetik'. I indlægget skriver forfatterne, at medicin »gennem århundreder har udviklet sig til et modent felt med evidensbaseret praksis og erfaring med etiske dilemmaer. Den lynhurtige udvikling af kunstig intelligens, der påvirker vores liv, giver os ikke tid til at prøve og fejle på vejen til en sikker praksis«.
Derfor mener Inga Strümke og Ishita Barua at AI-udviklere, som læger, skal have en bindende professionsetik, der eksempelvis beskytter dem mod fyring, hvis de af etiske grunde undslår sig at udføre opgaver som deres arbejdsgiver pålægger dem.
Som de skriver: »Så længe AI-udviklere ikke har en professionsetik, kan etisk forsvarlig udvikling af kunstig intelligens ikke garanteres«.
Naivt at tro, en professionsetik gør forskellen
Som udgangspunkt er det helt sikkert påkrævet med grundige etiske overvejelser i forhold til udvikling af AI - hvilket selvfølgelig også er et veludviklet forskningsfelt. Og det er uden for enhver tvivl, at der er behov for hurtig etablering af langt bedre sikkerhed og kontrol i forhold til udviklingen af AI-systemer.
Men det er desværre håbløst naivt at forestille sig, at en professionsetik vil gøre den afgørende forskel, ligesom det da bestemt heller ikke er professionsetikken, der gør medicin modent og evidensbaseret. Derudover har mange af de vigtigste etiske problematikker i medicin i virkeligheden ikke meget med lægeprofessionen at gøre.
Ideen bag lægefaglige etiske principper går angiveligt tilbage til den græske læge Hippokrates, der levede fra ca. 460-370 f.v.t.
Siden da har variationer over de etiske forpligtelser overfor patienter spillet en betydelig rolle i lægers uddannelse, ageren og selvforståelse — se eksempelvis Geneve-deklarationen fra 1948 eller den danske lægeforenings etiske principper senest opdateret i 2018.
Selv, hvis man ser bort fra, at lægefaglige etiske principper i høj grad handler om situationer med ret direkte patientkontakt, mens AI-udviklere sjældent har meget kontakt med ”brugerne” af deres produkter (dvs. de personer, hvis liv påvirkes af AI-systemerne), er der gode grunde til at tvivle på effekten af en AI-professionsetik.
Fokuser på godkendelsesprocedurer og -organer
Trods de gode hensigter har lægers sunde etiske principper jo desværre ikke forhindret alvorlige lægefaglige fejltagelser. Der er tusindvis af eksempler gennem historien - og bestemt også i nyere tid. Problemet er, at etiske principper overlader rigtig meget til den enkelte læges dømmekraft. Men det nytter jo ikke meget, hvis dømmekraften enten ikke er tilstrækkeligt værdimæssigt afstemt, eller hvis den enkelte læge simpelthen ikke har tilstrækkelig eller tilstrækkeligt god viden at lægge til grund for sine vurderinger.
Intet forhindrer, at problemer med både viden og værdier forekommer samtidig, og det er næsten uhyggeligt nemt at forestille sig lignende problemer med AI.
Men i virkeligheden minder AI-udvikling jo også væsentligt mere om medicinalindustri end om lægefaglig praksis. Og derfor kan man også med fordel lade sig inspirere af kontrolmekanismer for medicinalvareindustrien (flerfasede kliniske forsøg til afprøvning af lægemidler) i forhold til AI-sikkerhed og -kontrol.
I forhold til AI-udvikling bør man derfor snarere fokusere på at etablere godkendelsesprocedurer og -organer, hvor AI systemer skal godkendes - helst før de slippes løs i den virkelige verden.
Godkendelse bør involvere hele paletten af relevante perspektiver, inkl. human-, social- og computervidenskabelige tilgange. Derudover bør der etableres en systematisk indsamling af information om evt. utilsigtede effekter af anvendelsen af systemerne, så det godkendende organ kan trække en evt. godkendelse tilbage på et åbent tilgængeligt oplyst grundlag. Indsamlingen af information om utilsigtede effekter skal understøttes af passende incitament-strukturer, og bør eksempelvis ikke være et ansvar, der pålægges de virksomheder, der udvikler AI-systemerne.
Man kan ikke lade det være op til Amazon at vurdere, om mærkelige forslag fra Alexa er tilstrækkeligt alarmerende til at der skal reageres. Det ville svare til at lade tobaksindustrien vurdere, om incidensen af lungekræft bør give anledning til regulering eller forbud.
Hverken indenfor medicin eller AI-udvikling er professionsetik tilnærmelsesvist tilstrækkelig
Som Strümke og Barua skriver, kommer AI formentlig til at få kæmpe indflydelse på samfundet, og AI kommer sikkert til at være mindst lige så afgørende for det enkelte menneskes liv, som lægefaglighed gennem århundreder har udviklet sig til at være.
Men det vil gå langt hurtigere og vil brede sig langt ud over spørgsmål om sundhed. Netop derfor bør man hurtigst muligt også etablere kontrol- og sikkerhedsmekanismer, der er endnu mere finmaskede, end dem man anvender i forhold til lægevidenskabelige produkter.
Det er en alvorlig fejl at antage, at AI-udviklere har det nødvendige værdimæssige fundament eller tilstrækkelig indsigt i konsekvenserne af at applicere de systemer, de bidrager til at konstruere. Hverken indenfor medicin eller AI-udvikling er professionsetik tilnærmelsesvist tilstrækkelig. Og der er bestemt ikke grund til at antage, at det er bedst at overlade vurderingen af potentielle skadevirkninger af AI-systemer til den enkelte udvikler.
