RC
Rich Caruana
Author with expertise in Learning with Noisy Labels in Machine Learning
Achievements
Cited Author
Key Stats
Upvotes received:
0
Publications:
17
(47% Open Access)
Cited by:
10,096
h-index:
61
/
i10-index:
119
Reputation
Biology
< 1%
Chemistry
< 1%
Economics
< 1%
Show more
How is this calculated?
Publications
0

Experience with a learning personal assistant

Tom Mitchell et al.Jul 1, 1994
article Free AccessExperience with a learning personal assistant Authors: Tom M. Mitchell Carnegie Mellon Univ., Pittsburgh, PA Carnegie Mellon Univ., Pittsburgh, PAView Profile , Rich Caruana Carnegie Mellon Univ., Pittsburgh, PA Carnegie Mellon Univ., Pittsburgh, PAView Profile , Dayne Freitag Carnegie Mellon Univ., Pittsburgh, PA Carnegie Mellon Univ., Pittsburgh, PAView Profile , John McDermott Digital Equipment Corp., Marlboro, MA Digital Equipment Corp., Marlboro, MAView Profile , David Zabowski Carnegie Mellon Univ., Pittsburgh, PA Carnegie Mellon Univ., Pittsburgh, PAView Profile Authors Info & Claims Communications of the ACMVolume 37Issue 7July 1994 pp 80–91https://doi.org/10.1145/176789.176798Published:01 July 1994Publication History 252citation1,610DownloadsMetricsTotal Citations252Total Downloads1,610Last 12 Months16Last 6 weeks3 Get Citation AlertsNew Citation Alert added!This alert has been successfully added and will be sent to:You will be notified whenever a record that you have chosen has been cited.To manage your alert preferences, click on the button below.Manage my AlertsNew Citation Alert!Please log in to your account Save to BinderSave to BinderCreate a New BinderNameCancelCreateExport CitationPublisher SiteeReaderPDF
0

Interpreting Interpretability: Understanding Data Scientists' Use of Interpretability Tools for Machine Learning

Harmanpreet Kaur et al.Apr 21, 2020
Machine learning (ML) models are now routinely deployed in domains ranging from criminal justice to healthcare. With this newfound ubiquity, ML has moved beyond academia and grown into an engineering discipline. To that end, interpretability tools have been designed to help data scientists and machine learning practitioners better understand how ML models work. However, there has been little evaluation of the extent to which these tools achieve this goal. We study data scientists' use of two existing interpretability tools, the InterpretML implementation of GAMs and the SHAP Python package. We conduct a contextual inquiry (N=11) and a survey (N=197) of data scientists to observe how they use interpretability tools to uncover common issues that arise when building and evaluating ML models. Our results indicate that data scientists over-trust and misuse interpretability tools. Furthermore, few of our participants were able to accurately describe the visualizations output by these tools. We highlight qualitative themes for data scientists' mental models of interpretability tools. We conclude with implications for researchers and tool designers, and contextualize our findings in the social science literature.
Load More