Dette indlæg er alene udtryk for skribentens egen holdning.

Vi har brug for en global dataetik

Af Catharina Nes20. december 2018 kl. 03:53
data
Illustration: Bigstock.
Skal vi kontrollere udviklingen af ​​kunstig intelligens i den rigtige retning, har vi brug for et fælles etisk kompas, skriver fagdirektør i Norges datatilsyn Catharina Nes.
Artiklen er ældre end 30 dage

Brugen af ​​kunstig intelligens er i sin vorden, men påvirker allerede dit liv. Automatiserede, algoritmebaserede beslutninger er ansvarlige for 70 procent af alt indhold, du ser online. Måske kan du takke Tinders algoritmer for at finde kvinden eller manden i dit liv. Hvis du er bekymret for et modermærke, kan kunstig intelligens bruges til at opdage, om det er ondartet eller ej.

Kunstig intelligens kan forbedre vores liv og gøre samfundet bedre. Samtidig ser vi, at teknologien også bruges til at overvåge borgere, underminere demokratiske institutioner, cementere fordomme og bidrage til øget diskrimination.

Kampen om at tage lederskab i udviklingen af ​​kunstig intelligens foregår mellem nationer og mellem globale tech-selskaber. Disse nationer og selskaber har meget forskellige tilgange til, hvordan de udvikler og bruger kunstig intelligens. Hvis vi skal sikre, at udviklingen af ​​kunstig intelligens sikrer respekten for grundlæggende menneskerettigheder, er det vigtigt at etablere nogle fælles etiske retningslinjer.

Efter anden verdenskrig blev forskere fra hele verden samlet for at formulere etiske retningslinjer for medicinsk forskning. Baggrunden var de dramatiske brud på god medicinsk og forskningsetik, der havde fundet sted i tyske koncentrationslejre. Målet var at etablere en fælles etisk regel, der kunne forhindre lignende begivenheder i fremtiden. Resultatet var Nürnberg Codex, som siden har fungeret som en etisk ramme og et udgangspunkt for lovgivningen. Retsafgørelsen i Nürnberg markerede en milepæl for medicinsk etik og forskningsetik. Nu har vi brug for en Nürnberg kode for etisk brug af data i udviklingen af ​​kunstig intelligens.

Etisk brug af personoplysninger var diskussionsemnet, da privatlivsmyndigheder fra hele verden blev samlet til den årlige internationale privatlivskonference i oktober. Den internationale konference for databeskyttelsesmyndigheder vedtog en erklæring om etisk og privatlivsvenlig kunstig intelligens. Formålet med erklæringen er at bidrage til en global diskussion om emnet, samt at fremme behovet for internationale etiske styringsprincipper for kunstig intelligens. Erklæringen indeholder seks ledende principper:

Retfærdighedsprincippet

Kunstig intelligens skal udvikles og anvendes på en måde, der respekterer individets interesser. Det vil sige, det skal udvikles og bruges på en måde, der ikke krænker folks forventninger til, hvordan data indsamlet om dem bliver brugt.

Princippet om åbenhed og gennemsigtighed

Artiklen fortsætter efter annoncen

Løsninger baseret på kunstig intelligens skal være åbne og gennemsigtige. En bekymring for kunstig intelligens er, at du ikke altid ved, hvordan beslutningerne træffes. Ofte vil systemerne frembringe et svar uden nogen forklaring. Dette gør det svært for enkeltpersoner at reagere og eventuelt klage over de beslutninger, som systemerne tager.

Princippet om at beskytte individets rettigheder

Kunstig intelligens skal udvikles og bruges på en måde, som bygger på individets rettigheder. Folk bør bl.a. have adgang til de indsamlede data om dem og til oplysninger om, hvordan oplysningerne anvendes. Folk bør have ret til en forklaring på de beslutninger, maskinerne tager og at klage over dem.

Princippet om ansvarlighed

Virksomheder, som udvikler og bruger kunstig intelligens, skal vurdere virkningen af ​​systemerne. De skal sikre, at systemerne ikke producerer beslutninger, der fører til urimelig forskelsbehandling af enkeltpersoner.

Princippet om 'indbygget etik'

Systemer af kunstig intelligens skal bygges i overensstemmelse med principperne om integreret privatliv. Det betyder, at systemerne skal struktureres teknisk og organisatorisk på en måde, som sikrer individets interesser.

Princippet om ikke-forskelsbehandling

Kunstig intelligens skal udvikles og bruges på en måde, som forhindrer algoritmer i at blive uddannet til at tage diskriminerende og skadelige beslutninger. Dette kan f.eks. gøres ved at huske vigtigheden af ​​at have opdaterede, nøjagtige og repræsentative data.

I Europa har vi fået en opdateret privatlivspolitik med GDPR. Opdateringen kom i rette øjeblik. Forordningnen er den første i verden til at regulere udviklingen og brugen af ​​kunstig intelligens. »Etisk brug af data er ikke længere et valg, det er en forpligtelse,« sagde Isabelle Falque-Pierrotin, direktør for den franske databeskyttelsesmyndighed, efter afslutningen af ​​konferencen.

Kraftig håndhævelse af principperne om beskyttelse af privatlivets fred er vigtig i fremtiden. Uden effektiv håndhævelse af disse værdier og principper vil vores måde at organisere samfundet blive udsat for pres. Ud over en kraftig håndhævelse fra de europæiske databeskyttelsesmyndigheder skal vi være enige om fælles fælles etiske principper for kunstig intelligens. Kun sådan kan vi sikre, at udviklingen styres i en retning, der understøtter grundlæggende menneskerettigheder og et velfungerende demokrati - også uden for Europa.

Dette synspunkt er oprindeligt trykt i Dagens Næringsliv

Vil du bidrage til debatten med et synspunkt? Så skriv til vores PRO debatredaktion på pro-sekretariat@ing.dk

Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger