Forskning: Medicinske AI-systemer er sårbare overfor adversarial attacks

15. december 2021 kl. 16:35
A machine and human reader study on AI diagnosis model safety under attacks of adversarial images
De syntestiske billeder (nederst) får AI-modellen til at stille den forkerte diagnose. Illustration: Zhou et al, 2021.
Små modifikationer af medicinske billeder kan sabotere AI-systemers evne til at aflæse dem. Ofte er ændringer usynlige for menneskelige eksperter. 
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Medicinske AI-systemer kan narres til at tage forkerte beslutninger med små modifikationer i inputdata, som ofte er vanskelig at spotte for selv menneskelige eksperter. 

Læs hele artiklen

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 ugers gratis prøveabonnement. Betalingskort er ikke påkrævet, og du bliver ikke flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger