Angreb mod AI: »Det bliver mere og mere alvorligt jo flere eksempler, du ser på«

Foto : 1STunningArt, bigstock

Angreb mod AI: »Det bliver mere og mere alvorligt jo flere eksempler, du ser på«

Angreb mod AI er ikke kun teoretiske og ikke kun en trussel mod selvkørende biler. ITU-professor vil have mere bevidsthed om sikkerhed hos virksomheder, der bruger AI.
Det vakte stor opsigt, da forskere i 2017 viste, at Googles vision-system kunne snydes til at kategorisere et billede af en skildpadde som en riffel.
Vil du have fuld adgang til DataTech?

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.

Husk at være logget ind med den e-mail, hvor du har dit abonnement tilknyttet. Oplever du fortsat udfordringer med din adgang, så skriv til support@ing.dk.

Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her
Carsten Schürmann
Schürmann
Illustration: ITU

Carsten Schürmann er professor ved IT-Universitetet København, hvor han leder Center for Information Security and Trust - herunder også arbejdsgruppen WG-AAI dedikeret til at forske i adversarial AI. 

Hør mere om AI-SIKKERHED

Sæt kryds i kalenderen 29. og 30. september, hvor DataTechs søstermedie Version2 afholder Infosecurity, Danmarks største it-sikkerhedsmesse. Infosecurity er spækket med interessante debatter, keynotes og seminarer, f.eks.

• Har Danmark håndteret Solarwinds-angrebet tilstrækkeligt professionelt – eller blev vi overrumplet?

• Har vi en national sikkerhedspolitik i forhold til IoT-udstyr og risikoen for angreb på data og systemer?

• Hvordan beskytter vi AI-baserede systemer mod kompromittering, f.eks. vindmøller, biler eller pacemakere?

• Kan persondata fra forsyningsinstallationer eller andre sensorbaserede systemer deles, samkøres og behandles i ‘overvågningsøjemed’?