Forskere advarer: AI-forklaringsteknikker som SHAP og LIME kan snydes

Foto : Nito / Bigstock

Forskere advarer: AI-forklaringsteknikker som SHAP og LIME kan snydes

Et hold amerikanske forskere har demonstreret, at udbredte metoder til at åbne black box-modeller rent faktisk kan snydes, så indbygget bias kan skjules. 
I arbejdet med at gøre black box-machine learning til at forstå bliver frameworks som Shap og Lime brugt mere og mere. Men teknikkerne er faktisk ikke pålidelige, når det handler om at afsløre ellers skjult bias i ML-modellerne.  Det mener et hold amerikanske forskere fra Harvard University og University of California. 
Vil du have fuld adgang til DataTech?

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.