Filosof: AI-beslutninger kan løfte et tungt moralsk ansvar fra vores skuldre

28. februar kl. 04:002
Kunstig Intelligens
Illustration: Ryzhi/Bigstock.
Algoritmiske beslutninger skaber etiske bekymringer om ansvarsplacering, bias og manglende gennemsigtighed. Men teknologien kan også fritage os fra moralske byrder, hvis vi bruger den klogt, siger den fremtrædende irske filosof John Danaher i dette interview.

Den irske filosof og forsker John Danaher har netop rundet afsnit nummer 100 i sin populære podcast Philosophical Disquisitions. Podcasten handler om etik og kunstig intelligens og har den lokkende undertitel Things hid and barr'd from common sense. Ting, der er gemt væk fra sund fornuft. Og det er netop derfor, vi gerne vil tale med ham. Fordi han undersøger noget af det, der ikke ligger lige for.

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
2 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
21. februar kl. 16:01

Hvis man kan fordele resourcer efter objektive kriterier, er det også muligt at implementere et it-system, der står for fordelingen. Problemet ligger i at definere de objektive kriterier. Hvilke objektive kriterier kan vi formulere for tildeling af respiratorer i en mangelsituation? Overlevelseschance, forventet livstidsforlængelse, risiko for komplikationer/død måske. For at et it-system (med eller uden AI) kan vægte disse parametre, kræver det at vi enten tager en beslutning, eller vi har et træningssæt, hvor vægtene kan afledes fra.

Hvis vi har en fast algoritme med de forskellige vægte, tvivler jeg på at der er særlig meget skyld forbundet med at udføre algoritmen, uanset om det er et menneske eller en computer, der gør det. Dog er der en ekstra kontrol bygget ind når mennesker udfører algoritmen, da vores menneskelige intuition kan fange nogle åbentlyse uretfærdigheder (mangler i algoritmen), som AI ikke ville studse over.

Hvis resourcerne fordeles af mennesker uden definerede kriterier, lægger det givet et ansvar på den, der skal stå for fordelingen. Det samme gør sig gældende, hvis der indgår et element af skøn i fordelingen. Såfremt der kan defineres objektive kriterier for fordelingen, kan dette ansvar flyttes, til dem, der definerer kriterierne. Men tanken om at overlade det til en AI at definere kriterier, er absurd. AI er bare et muligt værktøj til at implementere en algoritme, men det fratager på ingen måde mennesker for ansvaret med at definere kriterierne.

1
21. februar kl. 15:46

Der mangler diskussionen af den afbalancerende effekt af ansvar.

Vi så hvordan Boeing kortsluttede testprocedurerne for at få deres MAX-version hurtigt solgt.

Det kræver ikke den store fantasi at forestille sig hvor mange af den slags beslutninger vi vil se, hvis man kan få ansvarsfrihed ved at henvise til en maskine.