Hvornår er kunstig intelligens forklaret tilstrækkeligt?

Vi anvender kunstig intelligens på stadig flere områder, og beslutninger baseret på kunstig intelligens kommer tættere på at påvirke vores privatliv. I den forbindelse er der dukket mange begreber op, som explainable (forklarlig) kunstig intelligens, interpretable (fortolkbar) maskinlæring, transparent kunstig intelligens og intelligible (forståelig) kunstig intelligens.
Vil du have fuld adgang til DataTech?

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.

Ansvarlig AI

Ansvarlig AI er en tværfaglige blog fra Alexandra Instituttet med både tekniske indlæg om forklarlig og fair maskinlæring, antropologiske indlæg om forståelse og anvendelse af teknologien, samt et standpunkt eller to til debat.

Med machine learning og deep learning kan vi udvikle modeller, der træner sig selv og løbende forbedrer sig på baggrund af data. I et projekt om Explainable AI undersøger vi konsekvenserne af, at en del af den udvikling nu foregår i en sort boks, så det ikke længere er gennemsigtigt, hvordan modeller kommer frem til et givent resultat. 

Læs med her og på Medium

Referencer

[1] F. Doshi-Velez og B. Kim, “Towards a rigorous science of interpretable Machine Learning”, arXiv:1702.08608 [stat.ML]2017.

​[2] Z. C. Lipton, ”The Mythos of Model Interpretability”, arXiv:1606.03490v3 [cs.LG]2017.

[3] ​G. Malgieri og G. Comandé, “Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation”, International Data Privacy Law, pp. 243–265, 2017.

[4] ​S. Wachter, B. Mittelstadt og L. Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation”, International Data Privacy Law, pp. 76–99, 2017.

​[5] A. Selbst og J. Powles, “Meaningful information and the right to explanation”, International Data Privacy Law, pp. 233–242, 2017.

​[6] B. Y. Lim og A. K. Dey, “Assessing demand for intelligibility in context-aware applications”, Proceedings of the UbiComp ’09, pp. 195–204, 2009.

[7] ​S. Lapuschkin, S. Wäldchen, A. Binder, G. Montavon, W. Samek og K.-R. Müller, “Unmasking Clever Hans predictors and assessing what machines really learn”, Nature Communications, 10, 2019.

[8] ​R. Caruana, Y. Lou, J. Gehrke, P. Koch, M. Sturm og N. Elhadad, “Intelligible models for healthcare: Predicting pneumonia risk and hospital 30-day readmission”, Proceedings of KDD ’15, pp. 1721–1730, 2015.

[9] ​U. Bhatt, A. Xiang, S. Sharma, A. Weller, A. Taly, Y. Jia, J. Ghosh, R. Puri, J. M. F. Moura og P. Eckersley, “Explainable machine learning in deployment”, Proceedings of FAT* ’20, pp. 648–657, 2020.

​[10] S. M. Lundberg, G. Erion, H. Chen, A. DeGrave, J. M. Prutkin, B. Nair, R. Katz, J. Himmelfarb, N. Bansal og S.-I. Lee, “From local explanations to global understanding with explainable AI for trees”, Nature Machine Intelligence, 2, pp. 56–67, 2020.

​[11] A. Weller, “Challenges for Transparency”, arXiv:1708.01870v1 [cs.CY]2017.

​[12] J. Chang, S. Gerrish, C. Wang, J. L. Boyd-Graber og D. M. Blei, “Reading Tea Leaves: How Humans Interpret Topic Models”, Advances in Neural Information Processing Systems 22, 2009.

​[13] T. Kulesza, M. Burnett, W.-K. Wong og S. Stumpf, “Principles of Explanatory Debugging to Personalize Interactive Machine Learning”, Proceedings of the IUI’15, pp. 126–137, 2015.

[14] F. Poursabzi-Sangdeh, D. G. Goldstein, J. M. Hofman, J. W. Vaughan og H. Wallach, “Manipulating and Measuring Model Interpretability”, arXiv:1802.07810v3 [cs.AI]2019.

​[15] M. T. Ribeiro, S. Singh og C. Guestrin, “Anchors: High-Precision Model-Agnostic Explanations”, Thirty-Second AAAI Conference on Artificial Intelligence, 2018.

[16] ​G. Montavon, W. Samek og K.-R. Müller, “Methods for interpreting and understanding deep neural networks”, Digital Signal Processing, pp. 1–15, 2018.

​[17] M. Ancona, E. Ceolini, C. Öytireli og M. Gross, “Towards better understanding of gradient-based attribution methods for Deep Neural Networks”, arXiv:1711.06104v4 [cs.LG]2018.

​[18] A. Shrikumar, P. Greenside og A. Kundaje, “Learning Important Features Through Propagating Activation Differences”, arXiv:1704.02685 [cs.CV]2017.

​[19] L. Bernardi, T. Mavridis og P. Estevez, “150 Successful Machine Learning Models: 6 Lessons Learned at Booking.com”, Proceedings of KDD ’19, pp. 1743–1751, 2019.

​[20] P. Jackson, “Introduction to Expert Systems”, Addison-Wesley Longman, Harlow, 1990.

[21] ​A. Kofod-Petersen, J. Cassens og A. Aamodt, “Explanatory Capabilities in the CREEK Knowledge-Intensive Case-Based Reasoner”, Proceedings of SCAI 2008 , pp. 28–35, 2008.