Forskning: Medicinske AI-systemer er sårbare overfor adversarial attacks

A machine and human reader study on AI diagnosis model safety under attacks of adversarial images
De syntestiske billeder (nederst) får AI-modellen til at stille den forkerte diagnose. Illustration: Zhou et al, 2021. Se større version
Små modifikationer af medicinske billeder kan sabotere AI-systemers evne til at aflæse dem. Ofte er ændringer usynlige for menneskelige eksperter. 
Tech fokus15. december 2021 kl. 16:35
errorÆldre end 30 dage

Medicinske AI-systemer kan narres til at tage forkerte beslutninger med små modifikationer i inputdata, som ofte er vanskelig at spotte for selv menneskelige eksperter. 

Det konkluderer forskere fra University of Pittsburgh i et nyt studie, som blev udgivet tirsdag i tidsskriftet Nature. 

Forskerholdet brugte en GAN-model til at generere syntetiske mammografi-scanninger, hvor der enten blev indsat eller fjernet information, som er kritisk for at stille en kræft-diagnose. 

Næsten 70 procent af de modificerede billeder fik diagnose-modellen til at lave en ellers korrekt klassificering om til en forkert klassificering. 

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik. Få tilsendt tilbud

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Log ind for at deltage i den videnskabelige debat.