Hvordan vil fremtidens AI træffe etiske valg i selvkørende biler?
Kunstig intelligens træffer allerede et hav af beslutninger inden for områder som forretning, sundhed og fabrikation. Men teknologiens algoritmer har fortsat brug for en hjælpende hånd fra vi mennesker, når de afgørende beslutninger skal træffes.
Spørgsmålet er, hvad der ville ske, hvis AI på egen hånd skulle træffe beslutninger, der gjaldt liv eller død?
Popkulturen har længe bragt vores mistillid til kunstig intelligens frem i lyset. I sci-fi-filmen ‘I, Robot’ vokser detektiv Del Spooners (Will Smith) skepsis til robotter, efter hans eget liv blev sat før en 12-årig piges i en bilulykke.
»Jeg var det logiske valg. Robotten regnede ud, at jeg havde 45 procent chance for at overleve. Sarahs chance var kun på 11 procent. Hun var ens datter. 11 procent er mere end nok, og det havde et menneske været klar over,« lyder en af Will Smiths indledende replikker i den Alex Proyas-instruerede film fra 2004.
I modsætning til mennesker mangler robotter en moralsk samvittighed og følger den etik, der er programmeret ind i den. At træffe den mest etiske beslutning er en relativ størrelse. Definitionen på ’det rigtige valg’ vil afhænge af, hvem du spørger.
Hvis menneskeheden skal udnytte maskiners fulde potentiale, forudsætter det, at de retter sig efter et sæt grundlæggende etiske værdier. Derfor synes følgende spørgsmål at være presserende: Hvordan har den etik, der er indlejret i AI’s udviklere, indflydelse på de beslutninger, AI’en tager?
Den selvkørende fremtid
Forestil dig en fremtid, hvor biler kører af sig selv og uden behov for hænder på rattet. Hvis alt fungerede efter hensigten, ville morgenpendlernes rejse se markant anderledes ud. En orientering i sidespejlet ville være skiftet ud med et skim af avisforside og et vejbaneskift erstattet af forberedelse til et forretningsmøde.
Men hvad hvis det går galt? Hvad hvis bremserne går i stykker lige før et rødt lys, og det er op til computeren at beslutte, om den vil fortsætte ligeud og påkøre en fodgænger eller dreje af og sætte førerens liv i fare?
Bilens computer skal i så fald træffe beslutningen ud fra en begrænset mængde information, som dens sensorer har indsamlet. Uanset hvor dramatisk det end må lyde, er vi kun få år fra at skulle se sådanne dilemmaer i øjnene.
Selvkørende biler vil som udgangspunkt gøre bilkørsel sikrere – men ulykker vil alligevel være umulige at undgå. Især i den nære fremtid, når de skal dele vejene med gængse bilister.
Tesla har sat sig for at producere fuldt selvkørende biler, men er endnu ikke kommet i mål. I situationer, hvor der kan være fare for ulykke, overtager bilens computer ikke kontrollen over dens automatiske nødbremsefunktion, hvis et menneske sidder bag rattet.
Med andre ord bliver førernes kontrol over bilen ikke afbrudt – selv hvis ulykken er forårsaget af dem selv. Bilen sender blot en advarsel til føreren, når den registrerer en potentiel ulykke.
Er bilens autopilot-funktion slået til, er sagen dog en anden. I dén situation slår bilens computer automatisk bremserne i, når køleren nærmer sig fodgængere. Her taler nogle for, at bilen er moralsk forpligtet til altid at overtage kontrollen, hvis den registrerer, at en ulykke er på vej – uanset hvilken indstilling føreren har sat den til at operere efter. Og det er heri, et af debattens centrale spørgsmål ligger: Bør vi overlade så vigtig en beslutning til et autonomiseret stykke maskineri?
Hvad er prisen på et liv?
Hvad hvis en bils computer kunne sammenligne ‘værdien’ af førerens liv med fodgængerens? Hvis bilcomputeren tog en sådan sammenligning med i ligningen, når den skulle træffe en afgørende beslutning, kan man sige, at den i princippet bare ville udføre en cost-benefit-analyse.
Det lyder måske bekymrende, men der er faktisk allerede teknologier med den slags egenskaber på vej. Facebooks moderselskab, Meta, ligger for eksempel inde med højavanceret teknologi til ansigtsgenkendelse, som nemt kan skelne mellem og identificere mennesker på ulykkessteder.
Hvis disse data blev integreret i en selvkørende bils AI-system, ville den være i stand til at kunne måle ethvert menneskeliv i kroner og ører. Den mulighed dykkede et forskerhold fra Massachussetts Institute of Technology ned i, da de i 2018 udarbejdede undersøgelsen The Moral Machine Experiment.
I undersøgelsen opstillede forskerne forskellige ulykkesscenarier, der involverede selvkørende biler, og bad derefter deltagere beslutte, hvilket liv de helst ville ofre: En hjemløs’ liv eller en forretningsmands. Resultaterne viste, at deltagerne var mere tilbøjelige til at ofre den hjemløses liv, fordi de anså økonomisk ulighed for at være en vigtig faktor i samfundet. Selvom det ikke er lige så avanceret, finder man en lignende databrug i Kinas social credit-system, der ud fra borgernes sociale egenskaber bestemmer, hvilket samfundslag de tilhører.
Også på sundhedsområdet vil AI komme til at træffe beslutninger, der kan betyde liv eller død. Eksperter udvikler flere og flere systemer, der kan hjælpe læger med at prioritere patienter og opdage uregelmæssigheder i medicinsk billedbehandling.
Læger og fagfolk vil indtil videre få sagens sidste ord, men AI-teknologien vil kun blive mere avanceret og dets effektivitet i sundhedssektoren mere fremtrædende – så hvad vil der ske, når en læge og en AI-algoritme stiller to forskellige diagnoser?
Et andet eksempel er et system, der minder folk om, at de skal tage deres medicin. Men hvordan bør systemet reagere, hvis en patient nægter at sluge en pille? Og hvordan kan det påvirke patientens autonomi og systemets overordnede pålidelighed?
AI-styrede våben er også etisk bekymrende, fordi de på samme måde kan træffe beslutninger, der kan være fatale for menneskeliv. Hvorvidt sådan slags teknologier bør afskaffes eller forbydes, deler vandene hos eksperter. For eksempel kan AI-droner begrænses til kun at benyttes i forbindelse med overvågning.
Nogle har opfordret til, at militære robotter skal programmeres med etik for øje. Men i tilfældet af, at dronen dræber en civil ved en fejltagelse, rejser det spørgsmål i forbindelse med programmørens ansvar.
Filosofiske dilemmaer
På den filosofiske front har AI’s etiske beslutningstagen også været et emne til debat. Et klassisk eksempel herfra kendes som trolley-problemet.
Folk har ofte svært ved at tage beslutninger, der kan ændre deres liv. En undersøgelse har vist, at vi træffer den form for valg efter vores køn, alder og kulturelle baggrund.
Når det gælder AI-systemer, er træningen af dets algoritmer afgørende for, hvordan de vil fungere i den virkelige verden. Et system, der er udviklet i ét land, fungerer nødvendigvis ikke i et andet, fordi det kan påvirkes af dets oprindelige lands synspunkter, politik, etik og moralske værdier. Hvis et system for eksempel er udviklet til at skulle styre et luftvåben eller kontrollere et missil, er det vigtigt, at dets algoritmers træning er baseret på data, der er repræsentativt for det miljø, det anvendes i.
Eksempler på fejlslået AI-styret teknologi er blandt andet set med racistiske sæbedispensere og meget upassende, racistiske autotags.
AI er ikke god- eller ondsindet. De virkninger, det har på mennesker, afhænger af dets udvikleres etiske værdier og moralske forestillinger. Hvis vi skal have det meste ud af teknologien, bør vi derfor blive enige om, hvad vi anser for at være moralsk forkasteligt og etisk forsvarligt.
Mens private virksomheder, offentlige organisationer og forskningsinstitutioner har deres egne retningslinjer for etisk AI, har FN anbefalet at udvikle det, de kalder »et omfattende globalt standardsættende instrument« for at danne en global etisk AI-ramme – og sikre, at menneskerettighederne beskyttes.
Dette indlæg er oprindeligt bragt i The Conversation.
