Nu melder eftertanken sig i det offentlige: »Der er desværre eksempler på, at tingene går galt med kunstig intelligens«

debat
På Folkemødets debat 'Bruges velfærdsstaten som digitalt eksperiment?' deltog (fra højre) Tanja Franck, direktør i Digitaliseringsstyrelsen, Christian Harsløf, direktør for digitalisering og teknologi i Kommunernes Landsforening, Johan Busse, Formand i Dataetisk Råd, og Louise Holck, direktør i Institut for Menneskerettigheder. Debatten blev modereret af Birgitte Arent Eiriksson, vicedirektør i Justitia. Illustration: Adam Fribo.
På årets Folkemøde blev der gjort status over, hvor etikken står, når det offentlige i stadigt stigende grad eksperimenterer med borgervendt kunstig intelligens. Selv den offentlige sektor accepterer nu præmissen om at der er brug for mere åbenhed.
21. juni kl. 07:54

Havde man for et halvt år siden spurgt Christian Harsløf, direktør for digitalisering og teknologi i Kommunernes Landsforening (KL), om hvorvidt velfærdsstaten bliver brugt som digitalt eksperiment i udrulningen af borgervendt kunstig intelligens, så havde svaret lydt klart og tydeligt “nej.”

Det gjorde det i hvert fald i Politiken i oktober, hvor Christian Harsløf kategorisk afviste at der overhovedet bliver anvendt kunstig intelligens i den kommunale forvaltning:

»Robotter, kunstig intelligens og algoritmer findes simpelthen ikke i kommunernes sagsbehandling« sagde Christian Harsløf, hvilket han da også lod forstå ærgrede ham fordi han mener at der er nærmest ingen grænser er for de gevinster, som det offentlige kan høste hvis der investeres massivt i kunstig intelligens.

Kommunaldirektørens udtalelser vakte dengang en del undren, blandt andet fra Dataetisk Råds formand, Johan Busse, der dengang skrev på sociale medier:

»KL er i Politiken i dag citeret for at sige, at “Robotter, kunstig intelligens og algoritmer findes simpelthen ikke i kommunernes sagsbehandling”. Det er forkert og det ved KL godt. De findes i stort antal, gode som dårlige. Hvorfor benægte det?«

Få fuld adgang til DataTech
DataTech er til professionelle, der arbejder med data og analytics. Få tilsendt tilbud
Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Fortsæt din læsning
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
1
21. juni kl. 11:29

Hvad med transparens i AI beslutninger ? Jeg ved der arbejdes på - og foreligger nogen løsninger - som skulle gøre det muligt at gennemskue for "almindelige dødelige" - hvordan AI fremkom til det den gjorde.. Uden det, så er det en black box - der er MEGET farlig at rulle ud - bare som beslutningsstøtte - da den oftest kommed med anbefalinger - vil som mennesker vil finde nemt at følge, og ignorere de <1% fejlrate.. og så bliver det rigtig svært for dem der ryger på fejlraten - og uden transparens og en tilgang til det her - som gør at man istedet hiver f.ex. "data ud" - og sammenligner med "lignende sager" - dvs. AI istedet leverer faktisk information - til at guide beslutninger - så bliver det en blacbox, der er umådelig farlig at benytte