Livagtige chatbots stiller os i nye etiske dilemmaer

Med kunstig intelligens kan vores talende assistenter udvikle sig og blive menneskets nye bedste ven. Når vi begynder at diskutere personlige emner med en robot, så skal vi forholde os til, at det kan have store konsekvenser for os både mentalt og fysisk. Næste generation computerassistenter giver os en række etiske udfordringer, vi både som udviklere og lovgivere er nødt til at tage stilling til.
Brødtekst

»Tast 1 for kundeservice, tast 2 for omstillingen.« At kommunikere via tale med it-systemer har været virkelighed i årtier. Mens de simple énvejstelefonomstillinger stadig er meget udbredte, stormer systemer som Amazons Alexa, Apples Siri og Google Assistent frem. Lige om hjørnet venter conversational AI, der gør det svært at skelne mellem menneske og maskine.

Conversational AI dækker over hyperrealistiske computerassistenter, som kan tale med os i et naturligt sprog – altså på samme måde, som vi taler med et andet menneske. Den nye generation af conversational AI har et stort kommercielt potentiale.

Når en virksomhed kender sine kunder og deres præferencer, kan en AI-assistent tilpasse sig, så den optimalt matcher den enkelte kundes profil og udvikler sig med kunden over tid. Vi vil som kunder blive mødt af en assistent med egenskaber og fremtoning, der passer optimalt til situationen.

AI-assistenterne bliver svære at skelne fra mennesker

Også assistenternes funktionalitet øges. De vil i højere og højere grad kunne udføre handlinger på vegne af os. Det kan være at give råd og vejledning og bestille produkter på nettet og i det hele taget agere selskabelig samtalepartner og butler i hverdagen. Vi er med andre ord ved at være meget tæt på, at en digital assistent på mange måder kan optræde som et andet menneske.

Det skaber den udfordring, at vi knytter os til vores digitale assistenter – ikke blot som en lækker gadget, men som vi kan knytte os til et andet menneske. Med naturtro tale og meget livagtige grafiske avatarer kommer de endnu tættere på os. Det giver en række etiske dilemmaer, som kun bliver større, når teknologi og AI udvikles.

Med kunstig intelligens kan vores talende assistenter udvikle sig og lære os endog meget godt at kende. Det er en positiv udvikling med mange muligheder. Conversational AI kan hjælpe os med personlig udvikling, kreativ tænkning og holde folk, der er ensomme, med selskab. Men det kan også få negative konsekvenser.

Et eksempel er den sociale robot Jibo, der kom på markedet i 2017. Den blev solgt i 6.000 eksemplarer og kunne med kunstig intelligens og en ’nuttet’ fremtoning knytte sig nært til sin ejer. Jibo blev en fast bestanddel af ejernes hverdag, den svarede på alskens spørgsmål og var altid frisk med opmuntrende hilsner. For nogle blev Jibo en ven. 

Problemerne opstod, da firmaet bag Jibo et par år senere gik konkurs og lukkede for de servere, som håndterede de bagvedliggende systemer. Dermed mistede tusinder af mennesker ikke blot en gadget, men en enhed, som de havde engageret sig personligt og følelsesmæssigt med. For nogle Jibo-ejere var det som at miste en kammerat.

Det stiller nogle nye krav til robotproducenternes etik og life cycle-politik, der tager højde for, hvad der skal ske, når servicen eller produktet afvikles. Forbrugerne bør kunne vide, hvor lang tid deres assistent som minimum er tilgængelig. Et andet vigtigt aspekt er, at den kunstige intelligens bag en hyperrealistisk chatbot kan designes til at udvikle sig. For forbrugere og myndigheder kan det være nødvendigt at sætte rammer for denne udvikling.

Men det bliver for eksempel også aktuelt, når conversational AI benyttes til terapeutiske opgaver – hvad enten det er tilsigtet eller ej. Man kan også forestille sig en situation, hvor en personlig assistent med højtudviklet AI i kombination med en uligevægtig person måske misforstår hinanden og kommer til at gøre noget dumt eller farligt.

Derfor må producenterne være meget præcise i deres afgrænsning af, hvad botten skal kunne. Det har virksomheden replika.ai gjort, og her kan man vælge, om ens bot skal være romantisk selskab, personlig coach eller kontorassistent.

Vi nærmer os altså det punkt, hvor vi er nødt til at have etiske retningslinjer for, hvordan conversational AI-agenter kan knytte emotionelle bånd til mennesker. I Danmark bør det være et oplagt fokusområde for Dataetisk Råd. Men de store AI-udviklere sidder i USA og Kina, så det er afgørende, at i hvert fald EU tager lederskab og udformer etiske retningslinjer, som kan inspirere resten af verden.