EU: Generativ AI skal omfattes af ophavsretsregler

28. april kl. 10:515
EU: Generativ AI skal omfattes af ophavsretsregler
Illustration: Europa-Parlamentet.
AI-firmaer skal lægge kortene på bordet, når det handler om ophavsretsligt beskyttet materiale i træningssæt. Det er ønsket i en foreløbig aftale mellem parlamentet og kommissionen.
Artiklen er ældre end 30 dage

Generative AI-værktøjer som OpenAI's ChatGPT skal offentliggøre ophavsretsbeskyttet materiale, der er brugt som træningsdata, fremgår det af en foreløbig aftale mellem Europa-Parlamentet og EU-Kommissionen.

Det skriver Reuters.

Læs også: Europæiske forbrugerråd opfordrer EU til at undersøge generative AI-systemer

Af aftalen fremgår det ligeledes at AI-værktøjer skal kategoriseres i et hierarki, der går fra værktøjer med risikoniveauer på minimalt, begrænset, højt og uacceptabelt. Højrisiko-systemer vurderes eksempelvis til at kunne påvirke EU-borgeres fundamentale rettigheder.

Artiklen fortsætter efter annoncen

»Mod konservative ønsker om mere overvågning på den ene side og venstreorienterede fantasier om overregulering på den anden fandt parlamentet et solidt kompromis, der ville regulere kunstig intelligens proportionalt, beskytte borgernes rettigheder samt fremme innovation og sætte gang i økonomien,« siger europaparlamentariker Svenja Hahn fra den liberale gruppe Renew Europe, der indeholder medlemmer fra Venstre, Det Radikale Venstre og Moderaterne.

Læs også: Irsk datatilsyn frygter forhastede AI-forbud: »Vi forsøger at forstå lidt mere om teknologien«

For nylig plæderede en af Europa-Parlamentets chefforhandlere på AI Act, Dragoş Tudorache, ligeledes fra Renew Europe, at ChatGPT ikke bør kategoriseres som 'høj risiko'.

5 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
2. maj kl. 14:52

Det er ikke brugen af AI, der er farlig. Det er folk, der stoler blindt på AIernes svar og bruger dem til at træffe beslutninger me store konsekvenser, der der problemet. Og, nej, det er ikke det samme som at sige "guns don't kill people, people kill people", som ellers er et yndet argument hos modstandere af våbenkontrol. Man kan generelt stole på våben: Hvis man bevidst peger på en person med en pistol og trykker på aftrækkeren, kan man være ret sikker på det ønskede udfald. Man kan ikke stole på, at man får et pålideligt resultat, hvis man stiller en AI et spørgsmål, men svaret i sig selv skader ikke nogen. Det er kun de handlinger, som mennesker foretager på baggrund af AIens svar, i den tro at svarene er korrekte, der kan være skadelige. Hvis f.eks. en patient får forkert behandling, hvis en selvkørende bil tørner direkte ind i en fodgænger, eller hvis en farlig person får våbentilladelse på grund af en AIs fejlagtige råd, så ligger den egentlige fejl ikke hos AIen, men hos den person, det firma, eller den myndighed, der uden tilstrækkelig verifikation af AIens svar træffer potentielt farlige beslutninger på baggrund af disse svar.

Så det giver ikke mening at standse forskning i eller udvikling af AI. Det, der giver mening, er at regulere brugen af AI til at træffe beslutninger om personer, uanset om det er om deres kreditværdighed, helbred, eller troværdighed. Det vil kræve, at AIen ikke alene giver et svar, men forklarer, hvordan den er nået frem til svaret på en sådan måde, at forklaringen kan verificeres af et menneske eller anden troværdig instans.

F.eks. skal man ikke spørge en AI "is 20996017 a prime?", men "give me a machine checkable proof or disproof of whether 20996017 is a prime". Et svar vil enten være beviseligt korrekt (og derfor brugbart) eller ikke (og derfor ikke brugbart), men man vil vide hvornår det er tilfældet. Hvis AIen bare siger "yes, 20996017 is a prime" eller "no, 20996017 is not a prime" har man ikke nogen chance for at vide om svaret er brugbart. At AIen er trænet på en milliard primtal og ikke-primtal er ikke nogen brugbar garanti for, at den generelt kan adskille primtal og ikke-primtal.

1
28. april kl. 11:58

Når vi selv skal sige det:"»Mod konservative ønsker om mere overvågning på den ene side og venstreorienterede fantasier om overregulering på den anden fandt parlamentet et solidt kompromis, der ville regulere kunstig intelligens proportionalt, beskytte borgernes rettigheder samt fremme innovation og sætte gang i økonomien,« siger europaparlamentariker Svenja Hahn fra den liberale gruppe Renew Europe, der indeholder medlemmer fra Venstre, Det Radikale Venstre og Moderaterne."

Det er klart, at den liberale gruppe er glade - de har fået deres vilje. I praksis freder man BigTechs videreudrulning af disse teknologier - dette er ikke andet end et pyntekirsebær på en kæmpemødding. Ikke et ord om advarslerne om AI's snarlige overherredømme.

Det er ikke nok - absolut ikke nok.

"Pausing AI Developments Isn't Enough. We Need to Shut it All Down."

"Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” It’s not that you can’t, in principle, survive creating something much smarter than you; it’s that it would require precision and preparation and new scientific insights, and probably not having AI systems composed of giant inscrutable arrays of fractional numbers."https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

2
29. april kl. 15:57

"Pausing AI Developments Isn't Enough. We Need to Shut it All Down."

Det er måske nok rigtigt, men at "sprogmodellen" i GPT har en fremtid i overherredømme pga BigTech eller fordi Trump vinder i '24 er at tage munden rigelig fuld! På den anden side ... for 30 år siden kaldte spøgefugle unix/AI-applikationen til kirurger for "Didley" (udtales: 'deadly').

Det er mulig modellen kan en masse, men trænet med netaffald???

3
29. april kl. 16:53

Jeg kan anbefale dette interview/diskussion, Nis:https://www.youtube.com/watch?v=AaTRHFaaPG8

Jeg ville normalt ikke have over tre timer til den slags, men jeg blev hængende, fordi et er så usædvanligt, spændende og uhyggeligt.

Det er ikke GPT3, der er problemet i sig selv - men det er et skridt ned ad en slidske, vi ikke kan styre, hvor ingen ved, hvor "the tipping point" faktisk er.

4
30. april kl. 09:28

Det er ikke GPT3, der er problemet i sig selv - men det er et skridt ned ad en slidske, vi ikke kan styre, hvor ingen ved, hvor "the tipping point" faktisk er.

"The tipping point" havde vi faktisk også diskussioner om dengang (i 1990); en hypotese var, at netværket af supercomputere en dag ville udvikle selvstændig "intelligens" - det skete så ikke - dengang, men det betyder ikke, at det ikke kan ske - engang i fremtiden. I den forbindelse kan jeg anbefale den skotske forfatter "Iain M Banks" og hans (sci-fi) romaner om "The Culture", hvor de har intelligente "droner" (autonome computere), der gør skræmmende ting.

Jeg klarede 6 min af "Lex", som interviewer en overvægtig person, som heller ikke ved, hvad han snakker om.

For at skære igennem: GPT(3/4) er trænet på ytringer fra nettet - af alle slags - men selv hvis den var trænet på "Ph.D.-afhandliger" ville den ikke være "bevidst" - det ville bare være endnu sværere for almindelige mennesker at skelne "skidt fra kanel".

Det er denne egenskab, som blandt andre gør, at jeg mener, "at man bør tage en pause med store offentlige AI-eksperimenter", indtil man har overvejet konsekvenserne grundigere. Det samme kan siges om kvantecomputere og hvad de faktisk kan bruges til. Menneskeheden har pt store problemer (udfordringer) og har brug for løse disse, før man går videre indenfor beskostelige forskningsområder, vi pt ved for lidt om - til at kunne skelne "skidt fra kanel".