Nu melder eftertanken sig i det offentlige: »Der er desværre eksempler på, at tingene går galt med kunstig intelligens«

21. juni 2022 kl. 07:541
debat
På Folkemødets debat 'Bruges velfærdsstaten som digitalt eksperiment?' deltog (fra højre) Tanja Franck, direktør i Digitaliseringsstyrelsen, Christian Harsløf, direktør for digitalisering og teknologi i Kommunernes Landsforening, Johan Busse, Formand i Dataetisk Råd, og Louise Holck, direktør i Institut for Menneskerettigheder. Debatten blev modereret af Birgitte Arent Eiriksson, vicedirektør i Justitia. Illustration: Adam Fribo.
På årets Folkemøde blev der gjort status over, hvor etikken står, når det offentlige i stadigt stigende grad eksperimenterer med borgervendt kunstig intelligens. Selv den offentlige sektor accepterer nu præmissen om at der er brug for mere åbenhed.
Artiklen er ældre end 30 dage

Havde man for et halvt år siden spurgt Christian Harsløf, direktør for digitalisering og teknologi i Kommunernes Landsforening (KL), om hvorvidt velfærdsstaten bliver brugt som digitalt eksperiment i udrulningen af borgervendt kunstig intelligens, så havde svaret lydt klart og tydeligt “nej.”

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
1 kommentar.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
1
21. juni 2022 kl. 11:29

Hvad med transparens i AI beslutninger ? Jeg ved der arbejdes på - og foreligger nogen løsninger - som skulle gøre det muligt at gennemskue for "almindelige dødelige" - hvordan AI fremkom til det den gjorde.. Uden det, så er det en black box - der er MEGET farlig at rulle ud - bare som beslutningsstøtte - da den oftest kommed med anbefalinger - vil som mennesker vil finde nemt at følge, og ignorere de <1% fejlrate.. og så bliver det rigtig svært for dem der ryger på fejlraten - og uden transparens og en tilgang til det her - som gør at man istedet hiver f.ex. "data ud" - og sammenligner med "lignende sager" - dvs. AI istedet leverer faktisk information - til at guide beslutninger - så bliver det en blacbox, der er umådelig farlig at benytte