Her mistænker jeg, at du har ladet chatGPT skrive dit var.
Er atombomber mere farlige end mennesker, Jens D Madsen? De er bygget af mennesker, så er det menneskene eller atombomben, der farligst?
Jeg synes, du bruger Erasmus Montanus-logik. Jeg tror ikke på, at du ikke kan gøre det bedre.
Lader du nogen gange chatGPT skrive dine svar?
Dette mener jeg vist er en trossag(?), som jeg ikke helt deler. Evt. når der er sket tilstrækkelig ophoben af selvlærende og stadig ekspanderende kunstig intelligens, vil den (eller snarere de) før eller siden opføre sig som generel intelligens, herunder opføre sig som om der er en art bevisthed.
Jamen, det er jeg enig i, Lone Bech. Udviklingen går den vej med stormskridt - jeg mener bare at have forstået, at vi ikke er der endnu. Men det er det, de to eksperter, jeg lige nu henviser til, er overbeviste om kommer til at ske inden længe. Og de er ikke alene:"350 førende tech-folk advarer om, at kunstig intelligens kan blive lige så dødbringende som atomvåben"https://www.dr.dk/nyheder/seneste/350-foerende-tech-folk-advarer-om-kunstig-intelligens-kan-blive-lige-saa
Jeg må jo bare give dette videre:https://www.dr.dk/nyheder/seneste/350-foerende-tech-folk-advarer-om-kunstig-intelligens-kan-blive-lige-saa
Bare fortsæt med benægt, benægt benægt-strategien. Den holder ikke i længden, den vil blive overhalet af virkeligheden. ..
Er Eliezer Yudkowsky og Connor Leahy bare fjolser, som ikke aner, hvad de taler om?
Det ville være rart, hvis der faktisk var nogen af "optimisterne", som ville gøre sig den ulejlighed at forholde sig til "pessimisternes" argumenter. Lige nu forekommer det mig, at vi er samme sted ift. AGI, som klimabenæterlobbyen var for 40 år siden: Benægt, benægt, benægt. Forvir, forvir, forvir.
At sammenligne generativ AI med klorin eller de ulykker, en båndsav kan afstedkomme, viser i mine øjne, at man absolut ikke har forstået problemstillingen.
Tak for var, Lasse lamvbertsen.
Fordi - som jeg siger - er som at give alle en udløserknap til atommissilerne, hvilket må siges at være ret idiotisk at gøre.
Jeg kan anbefale disse to videoer, som forklarer det meget bedre end mig:
"»Programmeringsbarrieren er utrolig lav. Vi har lukket den digitale kløft. Alle er programmører nu - du skal bare sige noget til computeren,« siger Jensen Huang på Computex-forummet i Taipei, Taiwan."
Det er jo som at give koden og knappen til atommissilerne til alle....
Hvor idiotisk dumme kan vi være i markedstilbedelsens hellige navn?
Vil en envejs-udtrækning af stikket i den situation medføre en indlysende mere sikker situation?
Tak for svar, Lone Bech.
Jeg kan ikke se, at vi i den nuværende situation har andet håb, end at vi kan lykkes med en global "nedrustning" i stil med den, som det trods alt lykkedes med atomvåben.
Det ser ganske rigtigt allerede meget sort ud, deraf den tydelige panik i stemmen hos nogle af dem, som forsøger at råbe os op (se link) - men jeg kan ikke se, at vi har andet håb. Med mindre der kommer troværdige argumenter for, at det det ikke vil gå så galt. Dem har jeg ikke hørt endnu, men jeg håber da, at pessimisterne faktisk tager fejl. Men at forsøge at tie dem ihjel, eller forsøge at pege på de positive sider som modvægt til katastrofen, sådan som det lige nu sker - det er i hvert fald ikke en troværdig måde at argumentere på.
Tak for en rigtigt god artikel omkring risiciene ved generativ AI. I mine ører er den logiske og uomgængelige konklusion, at dette kommer vi ikke til at kunne styre. Sikkerhedseksperten kommer med forslag og opfordringer, men det lyder altså meget som at vælge "håb som strategi" - og det er ikke nogen god strategi, når det potentielt i følge andre eksperter handler om alt livs udslettelse.
For som det også fremgår af artiklen, halter sikkerhedsaspektet allerede nu langt, langt bagefter, og AI udvikler sig med en hast, som ikke kan indhentes uden at trække stikket. Og da der er en udbredt modvilje mod for alvor at regulere og gribe ind i markedskræfterne, så kommer det ikke til at ske, at alle - private og statslige - aktører gør det, der er nødvendigt for at bevare kontrollen over sprogmodellerne.
At argumentere med, at "hvis bare mennesker er fornuftige og gode ved hinanden, og ikke bruger disse teknologier til onde/egoistiske formål, så skal det hele nok gå". Det er at argumentere mod bedre vidende, for menneskeheden har aldrig bestået af kun gode mennesker. Og selv hvis den gjorde det, så udvikler teknologierne sig nu så hurtigt, at den tager magten fra os.
I øvrigt har jeg forstået - andetsteds - at vi ikke på nuværende tidspunkt har egentlig generativ AI, dvs. AI, som besidder egentlig generel intelligens. Men udviklingen går allerede nu i den retning, og sprogmodellerne udvikler evner, som selv deres opfindere/udviklere ikke kan forudse eller forstå. Advarslerne fra stadig flere lyder på, at vi inden længe har AGI, som er langt smartere end os, og så kan vi ellers rende og hønse med vore helt utilstrækkelige sikkerhedstiltag - katastrofen er uafvendelig. Bare det, at det er så svært art få folk til overhovedet at overveje, om ikke vi er på vej mod selvdestruktion, viser jo, at menneskeheden ikke handler rationelt.
Tak for svar, Jens D Madsen.
Nej, jeg arbejder ikke en disse med AI, men jeg forsøger at lytte til kloge folk, som gør. Og så vælger jeg dem, hvis argumenter giver mest mening,at læne mig op ad. Og i øjeblikket kommer der stort set kun seriøse argumenter fra den ene side - dem, som spår katastrofe - mens den anden side (AI's tilhængere) ikke er i stand til at diske op med andet end salgstaler, for mig at se. Egentlige argumenter skal man lede længe efter. Jeg håber, at der er gode argumenter for, at det ikke går så galt.
Hvem læner du dig op ad, når du bliver ved med at argumentere med, at når/hvis AI er god til at undervise og andre rare ting, så må AI derfor være ufarlig? Det er jo Erasmus Montanus-logik, og jeg tror, du må kunne gøre det bedre.
Er det fordi, du bruger chatGPT til at skrive dine svar, at de bliver så ulogiske?
Ja, undskyld, nu blev jeg lige lidt grov, og det ærgrer mig, for du lyder da som en meget flink fyr. Men jeg tror simpelthen ikke på, at du ikke selv kan se, at du snakker udenom problematikken med, om sprogmodellerne kan blive menneskehedens - og måske endda alt livs - undergang.
Mener du virkeligt alvorligt, at hvis bare AI kan være en hjælp i undervisningen, så er AI derfor ufarlig? Hvad har de to ting med hinanden at gøre?
Tak for svar, Nis Schmidt.
Det er meget begrænset, hvad jeg ser af youtube. Jeg prøver så vidt muligt at undgå det, men lige omkring dette emne falder jeg hele tiden over links, som faktisk tager problematikken alvorligt, hvilket ikke sker ret mange andre steder. Så må man jo bie i det sure æble, og bruge youtube.
Ja, det er en form for sci-fi, Jens D madsen ofte skriver, og det er netop det, jeg forsøger at finde en god forklaring på. Når mennesker, som jeg antager er fornuftige, og måske endda kapaciteter indenfor deres felt, den ene gang efter den anden skriver svar på en problemstilling, som ikke har noget med problemstillingen at gøre, og i øvrigt argumenterer helt ulogisk, så er et af stederne man kan lede efter en forklaring, ofte, at de har en eller anden form for personlig - ofte økonomisk - interesse i sagen. A la olielobbyen. Så det er et spørgsmål fra min side i håb om t få en logisk forklaring på, hvorfor Jens D Madsen hele tiden argumenter ulogisk. Jeg sidder hele tiden tilbage med en fornemmelse af, at han ikke selv tror på, hvad han skriver - men ja, det er bare en synsning, ganske som mange af Jens D Madsens argumenter er synsninger.
Men det kan selvfølgelig være, at han lader chatGPT skrive sine svar - det har jeg også ind imellem mistanke om.
Også dine svar omkring dette emne begrænser sig jo mest til synsninger - ikke egentlig stillingtagen til, hvilke risici de nye teknologier indebærer. Der er det, at disse - meget lange - video-interviews faktisk forholder sig særdeles alvorligt til emnet, og fremlægger egentlige argumenter for, at det vil gå galt. Ofg dette fra folk, som - så vidt jeg forstår - oprindeligt har været positive overfor AI, og har troet, at vi bare skulle sørge for at udvikle "venlig" og empatisk AI, så ville AI kunne redde verden. Det tror de så ikke længere - tvært imod.
Jeg synes, de advarsler kræver mere seriøse svar end synsninger om, at AI vil kunne give bedre undervisning og den slags, som bare er krumspring for at undgå at tage stilling til risikoen. Ellers ser jeg for mig en fremtidig scene, som kunne være Peter Sellers, hvor den eneste overlevende efter the apocolyps triumferende konstaterer: "Ja, nu er alt liv (bortset fra mig) udslettet, men kors, hvor er AI god til at undervise"!
Umiddelbart opfatter jeg dit undvigende svar som en bekræftelse på, at du arbejder med Ai i dagligdagen, Jens D Madsen.
Men hvordan kan det en opremsning af mulige gode anvendelser af AI være et argument for, at AI ikke også kan være - og vil være - dødsensfarlig? De to ting har da ikke noget som helst med hinanden at gøre.
På hvad måde er det et bevis for, at AI ikke er dødsensfarlig, at mennesker i hele menneskehedens historie har slået hinanden ihjel?
Igen: Det er et komplet ulogisk argument, som ikke har noget at gøre med, om AI faktisk er så farlig, som flere og flere mener.
Du undviger at forholde dig til, hvad AI faktisk kan, og hvilke risici der er.
Jeg bliver nødt til at spørge, om du arbejder med AI i dagligdagen, Nis Schmidt?
Er atombomber heller ikke farlige, fordi det er mennesker, der har skabt dem, og mennesker slog hinanden ihjel længe før atombomben?
Det lyder godt nok som meget nærgående profilering. Meget nærgående. Og gade vide, hvilke data man satser på?
Parret med den aktuelle alarmerende udvikling i sprogmodellerne, som gør ting, ikke engang deres udviklere har forudset, kan man se mange mareridtsscenarier for sig...
Hvordan undgår man, at der går socialdarwinisme i sprogmodellerne?
Et større problem for demokratiet er dog, at vælgerne bliver ved at stemme på personer, der bare lover skattelettelser til de "overbetalte ansvarsløse". Det er langt farligere end AI, som den er nu. Husk det på næste valgdag!
Det er langt hen ad vejen de samme politikere som freder AI, som er på vej til at smadre verden:
Det er vist ikke rigtigt et område, hvor man kan nøjes med at tro, i stedet for at vide, Jens D Madsen.
Har du ikke fantasi til at forestille dig, at omfattende og organiseret misinformation, eller omfattende sabotage af infrastruktur, vil kunne føre til omfattende katastrofe for menneskeheden?
Det er ikke bare enkeltstående tosser, som der er ved at gå panik i:
https://www.youtube.com/watch?v=tYGMfd3_D1o
https://www.youtube.com/watch?v=_8q9bjNHeSo
Hvad hvis de har ret?
Vi er under alle omstændigheder nødt til at stoppe dem - trykke på knappen. Det giver kuldegysninger at høre flere og flere eksperter og tænkere indenfor området blive bange og tale om doomsday:
https://www.youtube.com/watch?v=tYGMfd3_D1o
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Sprogmodellernes skabere aner ikke længere selv, hvad de skaber.
Kære Henrik Sørensen.
Tak for dit venlige tip.
Jeg tror ikke, det vil gøre nogen forskel. I mine ører lyder det meget usandsynligt, at Kombit virkelig ikke har været opmærksomme på det problem, når de nu siger, at de burde have været opmærksomme på det. Enten har det fremgået forholdsvis tydeligt (sådan læser jeg artiklens forargede tonefald), og i så fald er mit gæt, at man har vidst det, og valgt at ignorere det - eller også har det ikke stået så tydeligt, og man har rent faktisk overset risikoen - i så fald synes jeg, at formuleringen i artiklen er misvisende.
Som jeg skriver: Kan det passe, at der kun er enkelt person, der står for gennemlæsningen af dette materiale? For hvis der har været flere kompetente personer, som har læst det, så lyder det ikke sandsynligt, at de alle har overset problemet.
Men det er da muligt, at der kun er en enkelt person, som har læst materialet. I så fald er det i mine øjne en selvstændigt skandale, men en god forklaring på, at det går galt gang på gang.
Det, jeg mener, er, om der f.eks. står noget i retning af, at der vil være en vis procentdel af afgørelserne, som vil blive truffet uden partshøring, men at man mener, at det vil være indenfor en rimelig fejlmargin?
Så blev det opklaret.
Det ville være rart at få oplyst, hvad det er, Kombit burde have bemærket?
Er det kun en enkelt i Kombit, som læser den slags? Jeg vil da forvente, at det er en hel gruppe, så det lyder mærkeligt, at ingen har opdaget dette.
Jeg må indrømme, at jeg ikke helt køber den forklaring.
- Forrige side
- Nuværende side
- Side
- Side
- Side
- Side
- …
- 456
- Næste side
Anne-Marie Krogsbøll