Forskere vil bygge sikkerhedsskjold til ML-systemer med klassiske AI-metoder

Foto : evdoha, Bigstock

Forskere vil bygge sikkerhedsskjold til ML-systemer med klassiske AI-metoder

Det ultimative mål er at kunne lave matematisk bevisførelse af neurale netværk, fortæller professor.
Machine learning hastigt på vej til at blive en fast komponent i kritiske systemer, der styrer alt fra el-net og medicinsk udstyr til biler og vindmøller. Men deres uforklarlige natur udgør også en sikkerhedsrisiko i en verden, der har brug for absolutte garantier på, at systemer ikke fejler. 
Få fuld adgang til DataTech?
DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.
Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her
Kim Guldstrand Larsen
Kim Guldstrand Larsen
Illustration: AAU

 Kim Guldstrand Larsen er professor ved Institut for Datalogi på Aalborg Universitet og har for nyligt fået bevilliget 30 millioner kroner fra Villum-fonden til at styrke sikkerheden i cyber-fysiske systemer. 

HØR MERE OM AI-SIKKERHED

Sæt kryds i kalenderen 29. og 30. september, hvor DataTechs søstermedie Version2 afholder Infosecurity, Danmarks største it-sikkerhedsmesse. Infosecurity er spækket med interessante debatter, keynotes og seminarer, f.eks.

• Har Danmark håndteret Solarwinds-angrebet tilstrækkeligt professionelt – eller blev vi overrumplet?

• Har vi en national sikkerhedspolitik i forhold til IoT-udstyr og risikoen for angreb på data og systemer?

• Hvordan beskytter vi AI-baserede systemer mod kompromittering, f.eks. vindmøller, biler eller pacemakere?

• Kan persondata fra forsyningsinstallationer eller andre sensorbaserede systemer deles, samkøres og behandles i ‘overvågningsøjemed’?