IBM Danmark forbyder ChatGPT: Bange for, at data deles med andre

19. maj kl. 10:004
IBM
Illustration: Brendan Mcdermid/Reuters/Ritzau Scanpix.
»Vi mener, at hvis man skal anvende kunstig intelligens i en virksomhedssammenhæng, så skal der være ansvarlighed, der skal være transparens, og den værdi, der skabes, skal blive liggende hos virksomheden og ikke hos udbyderen,« lyder det fra administrerende direktør i IBM Danmark Thomas Kovsted.

IBM Danmark forbyder ansatte at bruge OpenAI's chatbot ChatGPT grundet manglende transparens, og ved samme lejlighed opfordrer administrerende direktør Thomas Kovsted til statslig regulering af kunstig intelligens.

Det sker i et interview med Børsen, hvor han samtidig pointerer, at forbuddet ikke skyldes, at OpenAI er en konkurrent til IBM.

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
4 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
19. maj kl. 18:04

Bortset fra det, har manden jo ret. Men det er ikke nok at regulere - vi er nødt til helt at stoppe disse systemer, hvis vi vil overleve:

Vi har haft dem i mange år, så det er ikke nyt. Og det er ikke AI som er problemet. Problemet er mennesker, og det er der intet nyt i.

Nu kommer så ChatGPT og ih, hvor er det frygteligt...

3
19. maj kl. 19:02

Vi har haft dem i mange år, så det er ikke nyt.

Det er ikke rigtigt - vi har ikke haft systemer af denne kaliber før for nylig..

"Problemet er mennesker, og det er der intet nyt i."

Vil du så afskaffe mennesker i stedet?

Argumentet er lige så dårligt, som det våbenlobbyen bruger i USA: "Det er ikke våbnene, der er problemet, det er sindssyge mennesker"...

Hvorfor mener du ikke, at AI-udviklingen kan føre til udslettelse af alt liv, sådan som Yudkowsky siger, Jens B Madsen?

4
21. maj kl. 05:55

Hvorfor mener du ikke, at AI-udviklingen kan føre til udslettelse af alt liv, sådan som Yudkowsky siger, Jens B Madsen?

Det kan det sikkert godt, hvis det programmeres og bruges til det. Som jeg tidligere har nævnt, er jeg også betænkeligt ved forsvaret og millitærets anvendelse af AI. Måske, så anbefaler AI at provokere og angribe Rusland. Så længe, at det går via en menneskelig instans, så er det måske ikke et problem, men hvis man udvikler AI'en til at selv kunne gøre det, fordi at man mener der ikke er tid til at præsidenten og mennesker involveres, så kan det måske gå galt. Der er flere realistiske film, hvor AI har rådgivet millitæret, og der er sket fejl, fordi man har taget efter computeren. Men, der er også film, hvor man har begået fejl, fordi man ikke har taget efter AI'en. Jeg er også nervøs ved, at AI bruges til at manipulere sandheden. Med AI kan man generere dokumentation og beviser, der er umulige at finde ud af er falske, og vi kunne forestille os, den slags blive anvendt til f.eks. at give soldater, politiet, og agenter i efterretningstjenesten, de oplysninger som de behøver, for at gøre det de skal gøre. Der er - som jeg ser det - mange farer ved brug af AI. Vi ved også at vi får meget sofistikeret disinformation fra Rusland og Russerne kunne måske anvende AI til at kvalitetsvurdere deres disinformation, således at morsomme stavefejl der kopieres i demonstranternes bannere ikke kopieres, når de bruges i flere lande. Det kan naturligvis også være bevist fra Ruslands side, at de gør det, fordi at fidusen er at vi skal tro, at det er USA som står bag påstanden om den russiske disinformation. Her kan de måske have anvendt AI modeller af befolkningen, for at vurdere resultatet af disinformationen. Førhen, har man haft paneler hvor man har samlet "normale mennesker", som man har præsenteret for information, og undersøgt deres reaktion. Det kan vi måske gøre i dag mere præcist med AI.

Igen, så er det altså ikke den AI, som vi kan chatte med på nettet der et et problem. Og det vil det aldrig blive. Men den vil måske kunne gives skylden, for handlinger som mennesker begår. Hvis jeg bestemte, så skulle vi lave en hotline som alle danskere kunne ringe til, og som besvares af AI. Her skal de kunne diskutere deres daglige problemer, politikere skal kunne diskutere dagsordenen, og systemet skal forebygge psygiske lidelser og måske kan det også være med til at forhindre kriminelle handlinger. Som eksempel vil teknologistormere kunne ringe til AI'en, og blive mindre bekymret.

Jeg er ikke bekymret ved AI, og specielt ikke chatGPT, og jeg mener at det kan bruges konstruktivt og positivt, blandt andet til indlæring og opdragelse af børn.

Men, naturligvis skal man ikke overlade magten til automatiske systemer. Der bør altid være mennesker indblandet, og det bør aldrig være AI der tager ansvar, men altid mennesker.

Jeg er også betænkelig ved AI til at køre biler. I den slags tilfælde, skal der også være mennesker eller virksomheder der tager ansvaret, f.eks. dem der har udviklet AI'en. Og jeg mener, at man bør kombinere AI med "dumme" nødsystemer, der kan gennemskue indlysende opgaver, f.eks. automatisk nødbremsning. Det er alt for farligt, hvis man kan programmere en computer eller en robot til at gøre noget, og fraskrive sig for ansvaret, for det var jo robotten som gjorde det. Dem, der udvikler AI tager også et ansvar for brugen.