Robothunde, der gør, bider måske ikke

På robotfronten - som i livet - handler det om at se fremtiden i øjnene, arbejde på sagen og derfra sammen finde løsninger, der kan hjælpe os til at få lidt mere fremtidsoptimisme.
Brødtekst

Dette er første del af to sammenhængende synspunkter, hvor Simon Laub ved Erhvervsakademi Aarhus fortæller om robottens udvikling og nogle af de overvejelser, den bringer med sig. Du kan læse anden del på torsdag.

Fremtiden er farlig. Nye farer truer dagligt. Hvis det ikke er naturkatastrofer, der truer, så er der konsekvenserne af den teknologiske udvikling at være bange for.

Faktisk kan det være svært at holde fast i en entydigt positiv fortælling om fremtiden, når man dagligt og med store overskrifter bliver præsenteret for historier om mulige negative konsekvenser af automatisering - ofte suppleret med lettere mærkelige visioner for hvordan vores fremtid vil komme til at se ud.

Jo, fremtidige robotter styret af smarte AI-systemer vil ganske givet få vore dages robotter til at virke lettere tungnemme. Så selvfølgelig må vi håbe, at vi mest kommer til at møde flinke, »menneskevenlige« robotter i fremtiden. Og nej, det vil sikkert ikke altid være lige let at holde den rette kurs.

Ofte vil det sikkert være nødvendigt at se de forskellige versioner af fremtiden i øjnene, inklusiv alle de tænkelige og utænkelige farer og forhindringer vi kan risikere at møde på vejen ind i robot-fremtiden. Og så på den baggrund være med til at finde den bedste vej frem.

Computerens udvikling

I dag kan det være svært at forestille sig, men computere fyldte engang det meste af en flyhangar. Teenagere i 1950 voksede op - hvor utroligt det end lyder - uden 32" LED-skærme, mus og SSD harddiske på værelset. Personlige computere som Sinclairs ZX81 eller Commodore 64 var jo først noget, der kom ind i private hjem i 1980'erne.

Når man skulle registrere og opbevare data fra computere i tiden omkring 1950'erne, var det noget, der foregik på hulkort, hvor man ved hjælp af huller i papir kunne gemme koder for data og dataprogrammer.

IBM's præsident Thomas Watson blev dengang citeret for at sige, at der i hele verden alt i alt ville være brug for fem computere. Men o.k., ifølge IBM refererede Watson sikkert mere specifikt til supercomputeren IBM 701 fra 1952, som Watson havde forventet at sælge fem af, men hvor han så endte med at få ordre på 18 maskiner.

I takt med computernes udvikling blev det lettere at få data ind i computere, og alle tager det nu som en selvfølge, at output kan præsenteres i True Color med millioner af farvenuancer. Indtil for ganske nylig var det dog stadig mennesker, der manuelt skulle taste de data ind, som en computer skulle bruge.

Faktisk er det først indenfor de seneste cirka 10 år, at computere for alvor er begyndt selv at tage verden ind. Med talegenkendelse arbejdes der på at gøre det muligt at få computere til at forstå talte kommandoer. Computere kan naturligvis generere tale fra tekst, og naturligvis i langt bedre kvalitet end Stephen Hawkings »Speech Plus-synthesizer« fra 1988, som Hawking kun beholdt, fordi han ikke syntes, at nyere systemer »lød som ham«.

Man kan tale med Amazons digitale assistent Alexa, og Alexa kan både fortælle, hvem der synger en bestemt sang, og hvordan vejret bliver i morgen. Ofte er det endda helt korrekt, hvad Alexa fortæller.

Med computer vision arbejdes der på, at computere kan »se« verden. Og med touchscreens er computere allerede godt på vej til at »føle«. Kunstige smags- og lugte-sanser er for længst godt på vej med for eksempel sensorer, der kan opsnappe lugte relevante i forbindelse med flysikkerhed og sundhed.

En krop til computeren

IT har giver os nye måder at tænke på, og med IT har vi en præcis måde at beskrive eksisterende arbejdsregler på - en mere præcis måde at beskrive »hvordan« på. Men så længe computeren ikke har en »krop«, så er det stadig mennesker, der selv skal udføre det hårde, manuelle arbejdet ude i den virkelige verden. Der mangler stadig noget?

Så vi må give computerne en »krop«. Så de bliver til robotter, og kan arbejde for os?

Sikkert noget vi som menneskehed har drømt om, siden vi for sikkert mere end 11.000 år siden så den første spæde begyndelse til landbrug, og derefter igennem årtusinder har arbejdet på at få først dyr og siden maskiner til at hjælpe med arbejdet. Samtidig med at vi i over 5.000 år har haft skriftsprog til at fortælle hinanden om, hvordan det går med bestræbelserne.

Der har sikkert altid været tvivlere. Og tvivlerne har sikkert altid haft vind i sejlene, hver gang noget er gået galt. Hvilket jo unægtelig ofte er sket.

Efter menneskehedens selvskabte katastrofer i Første Verdenskrigs skyttegravskrig var der ikke noget at sige til, at mange så med skepsis ud i fremtiden. Og rædslerne var i hvert fald ikke glemt, da ordet robot blev introduceret af den tjekkiske forfatter Karel Čapek i 1921 i skuespillet R.U.R. (Rosumovi Univerzální Roboti). Hvor ordet robot iøvrigt er afledt af det tjekkiske ord for tvangsarbejder.

I Čapeks fremstilling er robotterne »kunstige mennesker«. Tvangsarbejdere, som ender med at gøre oprør mod menneskene og starte en ny verdensorden, hvor robotterne hersker.

Science Fiction-forfatteren Isaac Asimov var ikke meget bedre. Hos ham er robotterne kloge, men ofte med indbyggede katastrofale fejl. Når robotterne ikke snubler i egne fejl, er de travlt optaget af at planlægge fremtiden for menneskeheden, uden at lade sig distrahere af småting såsom at spørge mennesker til råds.

I Asimovs univers giver robotterne dog også menneskeheden de venner, vi aldrig kan få nok af (beskrevet for eksempel i »I, Robot« fra 1950: »There was a time when humanity faced the universe alone and without a friend. Now he has creatures to help him; stronger creatures than himself, more faithful, more useful, and absolutely devoted to him«).

Men alt i alt kan det jo nok ikke undre, at store dele af befolkningen er noget robot-skeptiske, når vores kultur i årtier har fortalt os, at disse robotter egentligt kun venter på at slå os ihjel.

Japansk robotforskning

Hvis man leder efter andre perspektiver på robotfremtiden, har japanske robotforskere ofte haft en helt særlig evne til at bringe nye aspekter ind i debatten om, hvor vi er på vej hen, og hvem vi selv er. Således også her under Corona-krisen.

Jo, vi kan være i kontakt med familie og venner på Zoom-videokonferencer her under pandemien. Men er det nok? Robotforskeren Hiroshi Ishiguro fra Osaka University har gjort opmærksom på, at »når mennesker føler sig ensomme og bekymrende, har de et stort behov for fysisk kontakt«.

Noget, vi kan føle og røre ved, virker mere ægte, end hvad vi oplever igennem en telefon eller på en videokonference. Med den noget »Ishiguro’ske« konklusion at robotter er en del af løsningen… Så, hvad er mere naturligt end at give børnehavebørn, der lider af corona-stress, en sød lille maskot-lignende »Lovot«-robot? Med 50 indbyggede sensorer og øjne der søger øjenkontakt, kan man vel dårligt forestille sig en bedre ven til at jage bekymringerne væk?

Som professor og leder for Intelligent Robotics Laboratory i Osaka har Ishiguro siden 2005 arbejdet på at gøre robotter mere menneskelignende. Ifølge Ishiguro er vi mennesker hardwired til at samarbejde med og have tiltro til andre mennesker, så jo mere menneskelige robotter kan fremstå, jo mere villige vil vi være til at dele vores liv med dem.

Robotten Erica er sidste skud på stammen. Og ligner, hvad en vesterlænding må tro er, Ishiguros forestilling om den perfekte japanske kvinde. Erica kan kommunikere ved hjælp af sin stemme, kropssprog, ansigtsudtryk og øjenkontakt.

Ishiguro har i forbindelse med lanceringen af en tidligere model - ReplieeQ2 - udtalt, at målet er, at hans robotter med tiden bliver så menneskelige, at det vil tage mennesker fem til 10 sekunder at afgøre, om de er robot eller menneske. I udvalgte situationer op til 10 minutter.

Robotforskeren Minoru Asada - også fra Osaka University - mener, at hvis robotterne for alvor skal kunne forstå os og arbejde sammen med os, må de have empati for os og forstå vores følelser. Man kan ikke rigtigt være en del af teamet, hvis man ikke kan vise empati, eller hvis man ikke forstår, at følelser »smitter« blandt mennesker. Mennesker kommunikerer med følelser.

Så langt, så godt. Men skal en robot, som er en del af teamet, have lov til at vise for eksempel vrede overfor andre menneskelige medlemmer af teamet? Hvem har lyst til at få skæld ud af en vred robot?

Og hvad med tvivlsomme menneskelige følelser såsom skadefryd? Skal robotter virkelig forstå den slags for at kunne forstå os og kunne arbejde nært sammen med os? Har vi virkelig lyst til at få en skadefro robot med på teamet?

Frygten for dræberrobotterne

Det er dog ikke kun i de japanske »uncanny valley«-omgivelser, at de ukomplicerede fortællinger om vores lykkelige fremtid med robotterne kan blive udfordret.

Det var den amerikanske præsident Eisenhower, der i sin »farewell address to the nation« i 1961 først advarede mod »the military-industrial complex«, der ifølge hans mening krævede megen modenhed og oplyste borgere at kunne håndtere. Nu advares der i stedet fra mange sider mod »the Military-AI complex«, hvor alle landes forsvar er skrækslagne for i fremtidige konflikter at stå overfor en fjende, der kan trække på »superior AI«.

Den australske robotforsker Toby Walsh er således en af initiativtagere til bevægelsen »Stop The Killer Robots«, som arbejder for et forbud mod alle »autonomous robotic weapons«. Med begrundelsen »You can’t have machines deciding whether humans live or die«. Maskiner har ikke et moralsk kompas.

Ifølge Walsh er det lettest at forbyde den slags systemer, før de er færdigudviklede, og mange lande har dem. Derudover mener Walsh, at sådanne våbensystemer potentielt er masseødelæggelsesvåben, og at det internationale samfund hidtil har været imod sådanne våben.

Indtil videre støttes Walsh af FN's generalsekretær, 26 Nobelprismodtagere og 30 lande (ud af de cirka 200 lande i verden). 

Det forhindrer dog ikke, at de første delvist automatiserede våbensystemer allerede er ved at blive stillet op rundt omkring i verden. På grænsen til den demilitariserede zone mellem Syd- og Nordkorea er der opstillet SGR-A1-robotter, der automatisk kan opdage indtrængende styrker og skyde på dem.

Da det i pressen blev omtalt som »killer robots«, bliver der nu i stedet tilkaldt en menneskelig operatør, hvis systemet opdager indtrængende soldater.

Det israelske »Iron Dome«-missilsystem er beregnet til at skyde fjendtlige raketter ned i den sydlige og nordlige del af landet, hvor systemet foreløbigt, ifølge israelske kilder, har skudt mere end 2400 raketter ned.

Indbygget i systemet er en AI-funktion, der analyserer de fjendtlige raketters projekttilbaner, men også her beroliges offentligheden med, at der foreløbigt er »a person in the kill loop«. Rygter, om at kinesiske hackere har haft adgang til netværker med oplysninger om systemet, har dog ikke gjort meget for helt at berolige offentligheden.

I august 2020 i en serie af simulerede air-to-air combat (»dogfights«) mellem to F16 fly - et fly styret af AI (fra det mindre amerikanske firma Heron Systems) og et andet styret af en erfaren F16-pilot (med kaldenavnet Banger) - vandt AI systemet i fem ud af fem dogfights.

Ifølge en flyinstruktør, der overværede duellerne, kan man ikke konkludere, at AI-systemer ville klare sig lige så godt i den virkelige verden, hvor man for eksempel langtfra har komplette statusinformationer på sit eget og modstanderens fly. Men det betyder jo ikke, at man ikke gerne vil have hjælp fra sådanne AI-systemer også ude i den virkelige verden.

Og med sådanne eksempler kan man jo godt komme noget i tvivl om, hvorvidt vi virkelig er på vej mod det forbud mod »autonomous robotic weapons systems«, som Toby Walsh, FN’s generalsekretær med flere arbejder på.

En situation, som Georgia Tech robotforskeren Ronald Arkin mener, vi lige så godt kan se i øjnene. Arkin siger, at han sådan set ikke er for nogen form for våben. Men vi har stadig krige, og hvis man skal have våben, er præcisionsvåben som disse robotsystemer måske bedre end menneskelige soldater?

Menneskelige soldater som måske i vrede eller frygt vil lave fejl? For slet ikke at tale om alle de menneskelige soldater der igennem historien har røvet, plyndret og voldtaget, noget der ikke er nogen grund til at tro at autonome robotsystemer (i.e. killer robots) vil gøre

Jo, etiske overvejelser i forbindelse med det, der er blevet kaldt den tredje revolution i menneskehedens måder at føre krig på (efter krudt og atombomber), er tydeligvis en speget affære.

Du kan læse anden del af synspunktet på torsdag, hvor Simon Laub ved Erhvervsakademi Aarhus fortsætter sin fortælling om robottens udvikling og nogle af de overvejelser, den bringer med sig.