解释机器学习模型的统一方法:SHAP + LIME

下载幻灯片

对于那些解决现实问题并从数据科学产品中获得收入的公司来说,能够理解一个模型为什么会做出某种预测,与在许多应用中实现高预测精度一样重要。然而,随着数据科学家通过实现集成或深度学习模型等复杂算法来追求更高的准确性,算法本身就变成了一个黑箱,它在模型输出的准确性和可解释性之间产生了权衡。

为了解决这一问题,开发了一个统一的框架SHAP (SHapley Additive explanation)来帮助用户解释复杂模型的预测。在本节课中,我们将讨论如何将SHAP应用于各种建模方法(GLM, XGBoost, CNN),以解释每个特征如何从特定的预测中贡献和提取直观的见解。本讲座旨在介绍通用模型解释器的概念,并帮助实践者理解SHAP及其应用。



«回来
蕾拉杨
关于Layla Yang

我叫Layla Yang。我是Databricks的解决方案架构师。在进入数据行业之前,我在AdTech行业开始了我的职业生涯,专注于构建机器学习模型和数据产品。我在广告技术初创公司工作了几年,设计、构建和部署自动预测算法,用于插入主要Ad Exchange和ssp的实时竞价(RTB)。我的工作还包括MMM(媒体组合建模),DMP用户细分和客户推荐引擎。目前,我与纽约和波士顿地区的初创企业合作,利用Apache Spark技术扩展他们现有的数据工程和数据科学工作。我在大学学的是物理,我喜欢滑雪。