Transparens og præcision: SHAP-analyse åbner black box-modeller op

SHAP sørger for, at vi ikke skal vælge mellem transparens og præcision, mener data scientist.
Et nyt værktøj til arbejdet med komplekse machine learning-modeller gør det muligt at åbne den sorte kasse og forklare, hvordan modellen kom frem til en bestemt forudsigelse.  SHAP-værktøjet – SHapley Additive exPlanation – åbner for, at virksomheder ikke behøver at ofre præcision for at kunne forsvare algoritmens forudsigelse.
Vil du have fuld adgang til DataTech?

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.