Er AI-udviklere blevet massemanipulatorer uden at vide det?
Kunstig intelligens vinder i stigende grad indpas i den teknologiske verden, og AI-udviklere har rygende travlt med at øge algoritmes informationsteknologiske potentiale - men hvis vi som brugere ikke angriber vores skræddersyede nyhedsfeeds med mere rationel og kritisk tænkning, kan AI påvirke vores beslutningskompetence direkte, og så kan man med rette opfatte AI-udviklere som massemanipulatorer. Sådan skriver stud.jur., Emilie Trier Larsen, og lektor ved Københavns Universitet, Hin-Yan Liu, i dette synspunkt.
En idé, der måske kan tilskrives Descartes, er idéen om, at kroppen eller hjernen reagerer på to måder: instinktivt og rationelt. Nobelprisvinderen Daniel Kahneman, der i høj grad gjorde denne idé populær, introducerede en model med system 1- og 2-tænkning. I system 1-tænkning foregår hjernens mere hurtige og instinktive reaktioner, hvorimod der i system 2-tænkning foregår mere langsomme analytiske og rationelle overvejelser. Mens disse to systemer nok sameksisterer og påvirker hinanden, er der en opfattelse af, at system 2-tænkning baseres på system 1-tænkning.
Facebooks omdiskuterede psykologiske forsøg i 2012 på mere end en halv million af deres brugere viste, at platformbrugere bliver følelsesmæssigt påvirket af de opslag, de ser og interagerer med. I forsøget blev der i brugernes news feed indsat enten negative eller positive kommentarer til de opslag, som brugerne blev eksponeret for med henblik på at finde ud af, om Facebook kunne ændre brugernes følelsesmæssige tilstand. Eksperimentet bekræftede tesen, da de brugere, der blev udsat for flere positive kommentarer, selv skrev flere positive kommentarer og omvendt med de, der blev udsat for flere negative kommentarer. Facebook er som konsekvens blevet beskyldt for at manipulere sine brugere.
Noget tyder altså på, at AI-drevne mekanismer eller platforme kan omgå hjernens logiske sans og gå direkte i følelsesregisteret, hvilket også kan tyde på, at system 2-tænkning omgås, og system 1-tænkning får den fremtrædende plads.
En metafor for informationsteknologi eller platforme er brugen af briller; brugeren registrerer ikke, at de aktivt bruger brillerne indtil de er beskidte, gået i stykker eller har mangler. Platforme og informationsteknologi er ligesom briller måske blevet et middel til at opnå noget andet, for eksempel adgang til nyheder, at se sjove kattevideoer eller få kontakt med andre. Selve platformen er usynlig, og det samme er vilkårene for at anvende den, da de færreste læser eller forstår dem.
Modsat briller er AI-drevet informationsteknologi dog langt fra gennemsigtig - som også illustreret af Facebook-forsøget - men snarere bedragende, desorienterende og forvrængende, netop fordi den opnår denne usynlighed, uden brugeren faktisk ved det eller forstår vilkårene. Endvidere kurateres disse platforme, hvormed de præsenterer et dynamisk, adaptivt og individualiseret beslutningsmiljø, der til tider er ret nøje tilpasset brugeren. Når brugeren samtidig bliver påvirket i sin system 1-tænkning ved anvendelsen af for eksempel Facebook, rejser det spørgsmål om, hvorvidt system 2-tænkning derved også påvirkes og yderligere sætter aftryk i brugerens valg fremover - eller med andre ord: Om brugeren de facto bliver manipuleret, før vedkommende får muligheden for at overveje platformens indhold ved system 2-tænkning.
Fokus bør være andetsteds
En anden facet af denne problemstilling er, at grænserne for, hvor ens viden kommer fra, ligeledes bliver usynlige eller forsvinder. Førhen vidste man, at man fik sine informationer i for eksempel Politiken eller Berlingske, men hvis man primært får sine nyheder fra Facebook, er der mange forskellige medier, der deler deres indhold. Mens en avis også er kurateret, bliver ens system 2-tænkning ved at læse nyheder på Facebook i langt højere grad baseret på system 1-tænkning eller viden, der er kurateret med det formål, at man interagerer med opslaget og ikke, at der er en vigtig historie, der skal bringes til offentlighedens kendskab.
Flere interesserer sig for AI-udvikleres etiske eller produktmæssige ansvar, men vi håber at kunne trække opmærksomheden hen mod noget lidt andet. Vi sætter ikke kun spørgsmålstegn ved, hvordan AI udvikles, anvendes og reguleres, men nærmere ved hvilken indvirkning og hvilke implikationer, udviklingen medfører, ikke mindst på længere sigt. Mens flere diskussioner om brugen af AI handler om, hvorvidt AI udgør en eksistentiel risiko for menneskeheden à la SkyNet, drejer knapt så mange sig om den mere filosofiske eller etiske eksistentielle risiko for, hvad AI betyder for det at være menneske. Måske er det tid til at skifte fokus?
Vi mener, der kan stilles spørgsmål til, om AI-drevne mekanismer ændrer eller har potentiale til at ændre vores beslutningsgrundlag ved at omgå vores logiske tænkning ved at gå direkte i system 1-tænkning og derved påvirke vores beslutningskompetence og ikke mindst, hvad dette kan komme til at betyde på længere sigt. De etiske aspekter af AI involverer subtile, strukturelle og langsigtede ændringer af menneskelige kapaciteter på befolkningsniveau og det lader til, at AI-udviklere er blevet massemanipulatorer, uden de selv eller vi andre ved det. Derfor kan vi ikke reagere på udviklingen.
