Forskere vil bygge sikkerhedsskjold til ML-systemer med klassiske AI-metoder

Forskere vil bygge sikkerhedsskjold til ML-systemer med klassiske AI-metoder
Illustration: evdoha, Bigstock. Se større version
Det ultimative mål er at kunne lave matematisk bevisførelse af neurale netværk, fortæller professor.
Indblik 24. juni kl. 03:09
errorÆldre end 30 dage

Machine learning hastigt på vej til at blive en fast komponent i kritiske systemer, der styrer alt fra el-net og medicinsk udstyr til biler og vindmøller. Men deres uforklarlige natur udgør også en sikkerhedsrisiko i en verden, der har brug for absolutte garantier på, at systemer ikke fejler. 

Det mener professor Kim Guldstrand Larsen, der sammen med kollegerne på Institut for Datalogi på Aalborg Universitet sigter efter at udvikle et sikkerhedsskjold omkring de kritiske ML-komponenter. 

»Machine learning-systemerne virker jo fremragende. Også i biler, hvor vi har intelligente fartpiloter og lane assistants,« indleder Kim Guldstrand Larsen.

»Men når noget går galt, hvad det gør engang imellem, så er det meget svært at sætte fingeren på, hvad årsagen var. Der sidder et deep neuralt netværk, som har en masse neuroner, og det er meget vanskelig at se, hvor gik det lige galt. De her teknikker er meget sværere at analysere matematisk, og derfor udgør de en sikkerhedsbrist.«

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Du har ikke tilladelse til at deltage i debatten. Kontakt support@ing.dk hvis du mener at dette er en fejl.
Forsiden