Minister-samråd om AI endte i Terminator-snak: Måske skal vi bare lade EU styre det


Skoletasken på ryggen, kammen igennem det til lejligheden nyklippede hår og iklædt det pæne tøj, går det i gadedrengehop til Christiansborg.
Godt nok har både Digitaliseringsministeren og Folketingets udvalg for Digitalisering og IT været igang i omtrent et halvt år nu, men det føles stadig som voksenudgaven af første skoledag, når man spændt og lidt nervøs indfinder sig på tilhørerpladserne i det fine gamle Sønderjyllandsværelse på Christiansborg, hvor tidens største tech-spørgsmål debatteres af vores folkevalgte.
DataTech er til professionelle, der arbejder med data og analytics.
Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.
Du kan også få tilsendt et tilbud til dig.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Slå koldt vand i blodet
Hvad det så end betyder? (Tag det roligt!) Det er (her i 11. time) nok lidt sent til dens slags betragtninger, men ikke desto mindre et godt sted at begynde.
Dagens AI (DAI 2023) slår os ikke ihjel; det virkelig slræmmende ved teknologien er p.t. ikke dens formåen, men dens energiforbrug - igen ikke lige nu, en indenfor få år.
Det er nok desværre for sent, at uddanne "djøffer" (eller ingeniører/journalister) til at fatte, hvad der foregår - det tog "er afgået fra perronen". Det er derfor nogle ønsker en pause i offentlige eksperimenter. Det kan man kalde naivt - for afgangsfløjten lød for meget, meget længe siden. Med det ML-stade vi er på nu; er en tænkepause nu nok sidste chance.
Havde "sund fornuft" været mere udbredt end den er, havde vi måske tid nok, men ...
Nu er vi fanget i spiralen og vores eneste reelle håb er, at udviklingen af CPU-chips når at indhente AI udviklingen. Lad os på de to funktioner: CPU og AI. Det kan vi her og vi kan håbe på, at en af dem (AI) går langsommere end forventet.
- AI/ML: tidobling hvert 3. år.
- CPU: fordobling hvert andet år.
Tyg lidt på dem! Karma: havde man lyttet i stedet for at "latterliggøre" havde man haft en teknik til bedre udnyttelse af hardware (10-1000x). Man kan også håbe at CPU-udviklingen og den grønne omstilling kommer op i omdrejninger. KK vil nok komme for sent.
Mit håb er ungdommen og (STEM-)aktivering af "den anden halvdel".
/nis
Dagens AI (DAI 2023) slår os ikke ihjel; det virkelig slræmmende ved teknologien er p.t. ikke dens formåen, men dens energiforbrug - igen ikke lige nu, en indenfor få år.
Nis, når jeg ser videoen med Yudkowsky, så får jeg indtryk af, at hans bekymring er de uforudsigelige "kvantespring", som sker i AI-sprogmodellernes formåen, når man "lægger et nyt lag på" af transistorer, koder, data. At det har vist sig, at det ikke er til at forudsige, hvad systemet så pludseligt kan. At det bevæger sig mod en "egen vilje", som vi ikke kan forudsige.
Som vi "ved" fra fysikken foregår al udvikling (forandring) i "kvantespring" - og det har den gjort længe. Det kan lyde arrogant, men der er forskel på "youtubere" og professionelle. Der er bestemt grund til bekymring - det er ikke noget nyt.
Jeg synes det er godt, at du prøver at følge med (gid flere gad) og læser - sommetider med fornøjelse - dine kommentarer.
Hvis du kigger på de to funktioner i ovenstående [5], vil du forstå min bekymring - ikke mindst fordi jeg har udsigt til at "opleve" det.
Du må forklare mig, hvad ML står for, Nis.
Mht. youtubere så vil jeg foreslå dig at høre/se interviewet, og desuden læse wiki-en om de to herrer:
"Eliezer Shlomo Yudkowsky (/ˌɛliˈɛzər ˌjʌdˈkaʊski/ EH-lee-EH-zər YUD-KOW-skee;[1] born September 11, 1979) is an American artificial intelligence researcher[2] and writer on decision theory and ethics, best known for popularizing ideas related to friendly artificial intelligence.[3][4] He is a co-founder[5] and research fellow at the Machine Intelligence Research Institute (MIRI), a private research nonprofit based in Berkeley, California.[6] His work on the prospect of a runaway intelligence explosion influenced philosopher Nick Bostrom's 2014 book Superintelligence: Paths, Dangers, Strategies.[7] "
Jeg synes, han lyder ret solid... men hvad ved jeg...? (i hvert fald mere solid en digitaliseringsministeren).
Du må forklare mig, hvad ML står for, Nis.
Nå jo...Machine Learning...
Nu har jeg ( under madlavningen ) lyttet til samrådet, og jeg må indrømme, at jeg ikke kan følge Moreaus udlægning. I mine ører er det hele - bortset fra forslaget om en risikovurdering - en gang uforpligtende pligtsludder for en sladder. I mine ører har ingen af dem faktisk forstået alvoren. Og da slet ikke ministeren, som - på trods af gentagen omtale af sin "bekymring" - lyder mere optaget af ikke at spænde ben for konkurrenceevnen. Tonefaldet i samrådet er simpelthen for godmodigt, som om sagen blot er en af så mange rutinesager.
I mine ører og øjne siger ministeren én ting (alt det tilforladelige), men hun gør noget andet, og derved undergraver hun fuldstændigt sin troværdighed. Det, hun siger, ender med at være skåltale og bullshit-bingo uden bund i.
Og det lillebitte humoristiske indslag om "Terminator" - Herregud. Det er sjældent, at jeg føler trang til at forsvare DF, men det indslag er altså ikke en hånende overskrift værdigt.
Så jeg sidder nu med oplevelsen af, at Moreau - uden at argumentere - bare har affærdigt de alvorlige bekymringer og forslag om moratorier og tryk på knappen, som rejses af mange eksperter, som "Det er noget Terminator-pjat". Det er muligt, at hun har ret, men der savner jeg, at Moreau faktisk argumenterer for den holdning.
Det var faktisk dybt deprimerende, så lidt man kunne høre på politikerne, at de er opskræmte. De har ikke fattet alvoren, uanset hvad de siger.
PS: Jeg er åben for, at jeg kan have misforstået Moreaus hensigt.
Nu har jeg ikke fået set samrådet endnu - det vil jeg prøve at få tid til. Men:
"Her forsøgte særligt to folketingsmedlemmer, Liberal Alliances Alexander Ryle og SFs Lisbeth Beck Nielsen, at få ministeren til at forholde sig til spørgsmål om behovet for AI-kompetencer, regulatoriske sandkasser og informationssikkerhed. I den digitale tidsalder er det den slags debat, der tjener det danske repræsentative demokrati til ære."
Ja, måske. Og så alligevel måske ikke? For er det ikke, når det kommer til stykket, at skyde ved siden af/undervurdere AI-problematikken, som den ser ud lige nu? Førende eksperter har for kort tid siden opfordret til AI-pause/moratorium, fordi de er blevet bange. Og for et par uger siden fik jeg et chok, da jeg læste og så dette:
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/https://www.youtube.com/watch?v=AaTRHFaaPG8
Nu er jeg ikke fagmand, så jeg ved ikke, om de to herrer i videoen er kendte fjollehoveder/konspirationsteoretikere i AI-miljøet - men de lyder ikke umiddelbart sådan:
https://en.wikipedia.org/wiki/Eliezer_Yudkowskyhttps://en.wikipedia.org/wiki/Lex_Fridman
Hvis Yudkowsky (og en del andre førende forskere) har ret, at det ikke bare er muligt, men ligefrem sandsynligt, at AI-udviklingen fører til udslettelsen af alt liv på jorden. Og det er efter Yudkowskys mening ikke er nok at holde pause, vi er nødt til helt at trække stikket.
Er "AI-kompetencer, regulatoriske sandkasser og informationssikkerhed" så ikke i første omgang irrelevante ift. det bagvedliggende, fuldstændigt afgørende spørgsmål: Kan disse AI-modeller (regenerativ AI, sprogmodeller etc., sådan som jeg har forstået det) i løbet af kort tid tage magten, og føre til udslettelsen af alt liv på jorden? Og er den eneste måde at stoppe dem på helt at trække stikket?
Moreau skriver:"ChatGPT er nemlig særdeles sårbare over for alt fra jailbreaking over data poisoning til prompt injection, som risikerer at lade følsomme data og kontrol med alverdens it-systemer falde i de forkerte hænder. "
Men er det ikke igen at underspille den virkelige problematik, som jo muligvis ikke er, om følsomme ting kan falde i fjendens hænder, men om AI kan vælge at blive fjenden selv? En fjende, som er os - og vore trods alt menneskelige fjender - langt overlegen?
"Men nej, i stedet finder Marie Bjerre det »utrolig bekymrende, at vi kan udvikle teknologier, der selv kan tænke og tage kontrollen med menneskeheden. Det er også derfor, at vi er nødt til at sætte nogle hegnspæle op for, hvad det er, vi vil “fodre” de her teknologier med, .."
Så hvad er Bjerres indledende angiveligt saglige debatniveau værd, hvis den ikke forholder sig til det bagvedliggende, helt afgørende spørgsmål: Er det realistisk, at AI-modellerne indenfor kort tid kan "vælge" at udslette os?
Hvad er hendes bekymring værd, når hun alligevel ikke vil handle? I mine øjne bliver det tydeligt, at hun alligevel - på trods af den påståede indledende saglige debat - ikke har fattet sagens alvor, og i virkeligheden er, hvad jeg hele tiden har mistænkt: Et figenblad, en pyntebuket på den efterhånden kæmpestore, stinkende IT-mødding.
Og selv om jeg plejer at være glad for Moreaus gode artikler, så stiller jeg mig her det spørgsmål, om du, Moreau heller ikke helt har forstået alvoren? Eller om du bare har taget stilling, og afvist, at Yudkowskys scenarie er realistisk, så derfor kan vi bare fortsætte med at diskutere, hvordan vi kan udnytte AI på bedste måde, med regulatoriske sandkasser o.l., uden at være nødt til at sige "Fuldt stop"?
Kunne vi ikke få en artikelrække/debat i Version2 mellem fagfolk om, om det er et realistisk og overvejende sandsynligt scenarie, at AI hurtigt kan føre til udslettelsen af alt liv på jorden? Og helst på et niveau over "Det tror jeg" og "Det tror jeg ikke", sådan som de eksperter, man har trykt små interviews med, har nøjedes med at udtrykke sig. Hellere på et niveau som det i videoen med Lex Friedman og Yudkowsky, hvor emnet virkeligt bliver taget alvorligt (uden at jeg kan vurdere, om Yudkowsky har ret).
Det eneste af de fra samrådet refererede indspark, der er noget værd, er forslaget om en risikovurdering. Det må være hele fundamentet under den fremtidige debat om AI. Men det skal gå hulens stærkt, ellers har vi allerede tabt.
For vi bør i denne sag ikke tillade russisk roulette i form af, at "Det går nok". Det burde være indlysende.