I dette holdningsstof udtrykker forfatteren sin personlige holdning om emnet.

Indflydelse, fordybelse, intensitet, integration, interaktion: Fem rammer for fremtidens AI-lovgivning og -politik

7. juni kl. 05:02
Morten Friis
Illustration: Københavns Universitet.
Nutidens AI-diskussioner har stagneret og giver os en farlig, falsk følelse af fremskridt og beredskab. Hvordan kan vi nytænke juridiske og politiske frameworks ind i en verden med Extended Reality, hvor menneskelig formgivning og manipulation fungerer helt anderledes? I dette synspunkt opsummerer Victoria Sobocki og Hin-Yan Liu deres forskningsartikel om, at vi bør gå væk fra ortodokse formodninger om AI’s uafhængighed, eksternalitet og artefaktiske kvaliteter, og i stedet lægge vægt på XR-verdener, der kan skabes digitalt, manipuleres og forvrænges samt giver anledning til anderledes former af skade.
Artiklen er ældre end 30 dage

I en ny forskningsartikel[1] i bogen Law and Artificial Intelligence[2] argumenterer vi, Hin-Yan Liu[3] og Victoria Sobocki[4] for, at de lovmæssige og politiske diskussioner om virkningen af ​​kunstig intelligens på samfundet har stagneret og herved giver os en farlig, falsk følelse af fremskridt og beredskab.

Nutidens juridiske og politiske diskussioner laver implicitte antagelser i deres tilgange til AI, hvor denne ofte behandles som nogen (set i forslag om at give AI personrettigheder); som noget andet (og derfor unødigt separat fra AI’s indflydelse på menneskelige beslutninger[5]); og som kunstig (alt for fokuseret på AI’s artefaktiske egenskaber). Selv betydningen af intelligens i AI-navnet er notorisk blevet diskuteret af forskere gennem årtier.[6]

Tilsammen danner disse antagelser en alt for snæver og stereotypisk model for AI og begrænser unødigt paletten af ​​juridiske og politiske svar på både de udfordringer og muligheder, som teknologien byder på.

Som et skridt i retning af en mere nuanceret lovgivning og politiske reaktioner samt større samfundsmæssigt beredskab over for teknologisk afledet disruption, foreslår vi en mere integreret, holistisk og fordomsfri tilgang til hvordan vores AI paradigmer bør være.[7] Som det er nu, virker mennesker generelt alt for selvsikre på dette område, selvom vi reelt famler i blinde og ikke får fat i helheden og dens uforudsete farer.[8]

Fem rammer for fremtidens AI-lovgivning og -politik

Tilgangen består af fem nye rammer at se AI igennem: indflydelse, hvor menneskelig adfærd styres og manipuleres; fordybelse, hvor skellene mellem fysiske og virtuelle virkeligheder forsvinder; intensitet, hvor virkeligheder og oplevelser kan skærpes, forlænges eller på anden måde ændres; integration, hvor grænserne mellem AI og menneske udviskes; og interaktion, hvor feedback-loops trodser lineære og kausale forestillinger. Disse omdrejningspunkter illustrerer anderledes typer af menneskelige relationer til AI, og kaster lys over juridiske og politiske konsekvenser ved at engagere sig i AI-prægede verdener.

Artiklen fortsætter efter annoncen

Rammerne forenes af udviskningen af ​​hidtil adskilte kategorier og af gensidigt, iterativt og dynamisk engagement. På det overfladiske niveau går vores rammer imod metaforiske juridiske svar, som er baseret på analogier til eller skel fra historisk præcedens.[9]
Men mere grundlæggende stiller rammerne imidlertid spørgsmålstegn ved selve naturen af menneskelig formgivning og manipulation, med de dybe politiske konsekvenser, som kan følge af et gennemrystet traditionelt juridisk fundament.[10] Det tyder på, at der kan være forskellige niveauer eller skalaer, hvor vores omdrejningspunkter kan igangsætte passende lovmæssige eller politiske reaktioner.

Skade set gennem en Extended Reality-linse

En nyttig heuristik til intuitivt at forstå vores fem rammer kan være at se AI-lovgivning og -politik gennem en Extended Reality (XR)-linse, som omfatter Augmented Reality (AR), Mixed Reality (MR) og Virtual Reality (VR). Gennem denne metaforiske linse vil vi understrege grænsefladen mellem AI og mennesket, samt fokusere på og bevæge os ud over ændringerne i det sociotekniske landskab[11] mellem menneske og maskine, specifikt med fokus på skade. Vi går væk fra ortodokse formodninger om AI’s uafhængighed, eksternalitet og artefaktiske kvaliteter, og lægger i stedet vægt på de XR-verdener, der kan skabes digitalt, manipuleres og forvrænges – AI er nemlig både en formidler og en skaber af disse nye virkeligheder.

Juridisk defineres skade som »enhver skade påført en person ved en andens handlinger eller undladelser«, og denne kan omfatte fysisk skade såvel som skade på omdømme eller værdighed, tab af en juridisk rettighed eller kontraktbrud.
Konceptet om skade er, ifølge os, ligeledes uforholdsmæssigt forudindtaget i forhold til at beskytte den kropslige integritet, og fraværet af en fysisk krop i XR-verdener kan sætte de juridiske begreber på spil. [12]

Er det overhovedet muligt at bruge det nuværende koncept om kropsskade inde i XR-verdener, og hvis dette er tilfældet, hvorfor er brugen så markant anderledes fra traditionelle 2D computer- og videospil? [13]

Vi opdeler skade i XR-verdener i fire kategorier: fysisk[13], psykologisk, diskret manipulation[15] og samfundsmæssige konsekvenser. Som følge af den fuldstændigt fordybende, intense og interaktive karakter af VR, viser studier og kunstudstillinger at vi bør være bekymrede for virkningerne af vold og seksuelle overgreb udøvet, bevidnet og oplevet i XR-verdener (og dette endda uden brug af haptic suits).[16] XR-verdener åbner også op for ondskabsfulde former for skade, som ikke er begrænset af fysikkens love og af menneskelig fysiologi. Se f.eks. Black Mirror-episoden Playtest, hvor en mand voldeligt konfronteres med sin araknofobi, sine forældre, ekskæreste og mobber fra gymnasiet, inde i en hæslig VR-verden.[17] Intensiteten af oplevelsen kan ændre tærsklen for traumatiske oplevelser og fordybelsen ville gøre modstand eller flugt forgæves.

Skade kan også udøves mere diskret, men ikke desto mindre meget ødelæggende, såsom at modificere deltagernes virkelighed blot en lille smule uden deres viden eller samtykke. Andre samfundsmæssige konsekvenser kan også være ændringer i sociale værdier[18] eller at folk 'dropper ud' af det normale samfund.[19] Både diskret manipulation og samfundsmæssige konsekvenser adskiller sig fra kategorierne fysisk og psykisk skade, fordi det ikke er klart, at disse overhovedet kan udgøre skade under den nutidige juridiske proces.

Forslag for fremtidens AI-lovgivning og -politik

XR-verdener kan give anledning til forskellige kategorier af skade, enten varianter af velkendte former for skade, eller nye typer skader, der sandsynligvis vil udvande eller unddrage sig juridisk beskyttelse og ansvar.[20] Konceptet om traditionel 'skade' ser ud til at have en aftagende rolle inden for ny teknologi, og en form for radikal juridisk udvikling[21] er nødvendig for at sikre, at der ikke mangler dækning, når AI-applikationer forbindes med andre nye teknologier for at skabe nye miljøer og avatars.

En interessant observation er alle fem rammer (bortset fra integration) omhandler forandring i individets følelse af handlefrihed og omgivelser, hvilket går imod en traditionel opfattelse af skade som påført af en ekstern aktør. Vores fem rammer agerer 'indeni' individet, med den konsekvens på nuværende tidspunkt, at skader tilsløres, og bliver vanskelige eller endda umulige at identificere, og derfor undgår juridisk anerkendelse.[22] F.eks. kan skader, ifm. rammen for samfundsmæssige konsekvenser, skjules i baggrunden af samfundet på måder, som gør dem de facto usynlige.[23]

Ifølge os kan der være dybt alvorlige konsekvenser af at skade ikke eksisterer som juridisk koncept på disse områder, samt at vi er for snæversynede ift. mulige risici ved teknologi – vi mangler komplementære koncepter i lovgivning og politik, som er i stand til at genkende og tøjle de nye problemer. Vi foreslår ligeledes at 'problemfindende bestræbelser' anvendes i stedet for de 'problemløsende' af slagsen, for at sikre os en mere robust og modstandsdygtig lovgivning og politiske svar på de udfordringer, som AI bringer med sig. [24]

Litteraturliste

[1]Hin-Yan Liu and Victoria Sobocki, ‘Research Output: Chapter in Book - Influence, Immersion, Intensity, Integration, Interaction: Five Frames for the Future of AI Law and Policy’ (University of Copenhagen, Faculty of Law, 1 May 2008) accessed 14 May 2022

[2]Bart Custers and Eduard Fosch-Villaronga (eds), Law and Artificial Intelligence: Regulating AI and Applying AI in Legal Practice (1st edn, TMC Asser Press The Hague) accessed 17 March 2022.

[3]Hin-Yan Liu, lektor ved Det Juridiske Fakultet, Københavns Universitet, Centre for European and Comparative Legal Studies samt koordinator for forskningsgruppen for Kunstig Intelligens og Juridisk Disruption accessed 17 March 2022 E-mail: hin-yan.liu@jur.ku.dk.

[4]Victoria Sobocki, Risk Advisory konsulent i Privacy hos Deloitte Danmark, cand.jur. (LL.M.) fra Det Juridiske Fakultet, Københavns Universitet med speciale inden for kunstig intelligens (AI) og jura samt grundlægger af bloggen KU Jura Tips & Tricks accessed 17 March 2022 E-mail: vsobocki@deloitte.dk.

[5]Se Daniel Susser, ‘Invisible Influence: Artificial Intelligence and the Ethics of Adaptive Choice Architectures’, Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (ACM 2019) accessed 14 May 2022.

[6]Intelligens er notorisk svært at definere – se en undersøgelse, der viser 70 forskellige definitioner. Shane Legg and Marcus Hutter, ‘A Collection of Definitions of Intelligence’ (arXiv 2007) arXiv:0706.3639 accessed 14 May 2022.

[7]Se Hin-Yan Liu and Matthijs M Maas, ‘“Solving for X?”: Towards a Problem-Finding Framework That Grounds Long-Term Governance Strategies for Artificial Intelligence’ (2021) 126 Futures 102672.

[8]John Godfrey Saxe, The Blind Men and the Elephant (J Osgood 1972) Fortællingen advarer mod at generalisere ud fra specifikke observationer af et fænomen, som at vi f.eks. ikke bør konkludere, at elefanter er pytonslanger, blot fordi vi tilfældigvis kun rører ved snablen.

[9]Ryan Calo, ‘Robots as Legal Metaphors’ [2016] Harvard Journal of Law & Technology 209; Ryan Calo, ‘Robotics and the Lessons of Cyberlaw’ (2015) 103 California Law Review 513.

[10]Hin-Yan Liu, ‘AI Challenges and the Inadequacy of Human Rights Protections’ (2021) 40 Criminal Justice Ethics 2.

[11]Lyria Bennett Moses, ‘Why Have a Theory of Law and Technological Change?’ (2007) 8 Minnesota Journal of Law, Science & Technology 589; Lyria Bennett Moses, ‘Regulating in the Face of Sociotechnical Change’ (The Oxford Handbook of Law, Regulation and Technology, 20 July 2017) accessed 25 May 2022.

[12]Se fokuset på fast ejendom fremfor kropslig og mental skade i kapitlet: F Gregory Lastowka and Dan Hunter, ‘Virtual Crime’ in Jack M Balkin (ed), The State of Play: Law, Games, and Virtual Worlds (NYU Press 2006) 122.

[13]Gennem årtier har videospil fået skylden for at forårsage vold, på trods af mangel på empiriske beviser. Gergana Mileva, ‘Can Virtual Reality Games Lead To Violent Behavior? | ARPost’ (28 October 2020) accessed 25 May 2022.

[14]Med forbehold for at XR-teknologier kan ændre individuel adfærd på måder, der fører til fysisk skade

[15]Fraværet af bevidsthed om manipulation eller (informeret) samtykke øger risikoen for skade.

[16]Patrícia Arriaga and others, ‘Are the Effects of Unreal Violent Video Games Pronounced When Playing with a Virtual Reality System?’ (2008) 34 Aggressive Behavior 521; Graham Wilson and Mark McGill, ‘Violent Video Games in Virtual Reality: Re-Evaluating the Impact and Rating of Interactive Experiences’, Proceedings of the 2018 Annual Symposium on Computer-Human Interaction in Play (Association for Computing Machinery 2018) accessed 25 May 2022; Raymond Lavoie and others, ‘Virtual Experience, Real Consequences: The Potential Negative Emotional Consequences of Virtual Reality Gameplay’ (2021) 25 Virtual Reality 69; Anil Ananthaswamy, ‘Virtual Reality Could Be an Ethical Minefield – Are We Ready?’ (New Scientist) accessed 25 May 2022; Jenny Valentish, ‘“Real” Violence: Coming to Grips with the Ethics of Virtual Reality Brutality’ The Guardian (21 June 2019) accessed 26 May 2022; Stuart Jeffries, ‘Jordan Wolfson: “This Is Real Abuse – Not a Simulation”’ The Guardian (3 May 2018) accessed 26 May 2022.

[17]‘Playtest’, Black Mirror (21 October 2016); Charlie Brooker, Annabel Jones and Jason Arnopp, Inside Black Mirror: The Illustrated Oral History (Random House 2018) 228–248.

[18]Se generelt: John Danaher, ‘Axiological Futurism: The Systematic Study of the Future of Human Values’.

[19]Se et kendt eksempel fra popkulturen: Ernest Cline, Ready Player One (Broadway Paperbacks 2011).

[20]Se sektion 4 i: Liu and Sobocki (n 1).

[21]Hin-Yan Liu and others, ‘Artificial Intelligence and Legal Disruption: A New Model for Analysis’ (2020) 12 Law, Innovation and Technology 205, 233–242.

[22]Sektion 5 i: Liu and Sobocki (n 1).

[23]Hvis ‘skade’ er indbygget i baggrunden af samfundet, så vil det være svært at identificere og isolere den, f.eks. i tider med slaveri, hvor nogle mennesker naturligt forventedes at blive behandlet værre end andre. Se sektion 4 i: Hin-Yan Liu and Victoria Sobocki, ‘Research Output: Chapter in Book - Influence, Immersion, Intensity, Integration, Interaction: Five Frames for the Future of AI Law and Policy’ (University of Copenhagen, Faculty of Law, 1 May 2008) accessed 14 May 2022.

[24]Liu and Maas (n 7).

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger