深度学习的持续部署

下载幻灯片

持续集成和部署已成为越来越多的软件开发标准和惯例。然而,这样做对于机器学习模型和应用程序引入了许多挑战。我们不仅需要考虑标准代码质量和集成测试,但是我们如何最好的说明模型性能指标的变化来自更改代码,部署框架或机制,预处理和后处理步骤,数据的变化,更不用说核心深度学习模型本身?

此外,深度学习提出了特别的挑战:
*模型大小往往是非常大的训练,把大量的时间和资源
*模型往往更难以理解和解释使它更难以调试的问题
*输入深度学习往往不同于所涉及的表格数据最传统的机器学习模型
*模型格式,框架和先进的模型和体系结构本身变化非常迅速
*通常许多不同的工具组合来创建完整的端到端管道培训和部署,使它更难塞在一起这些组件和跟踪问题。

我们还需要考虑变更的影响更广泛的方面,如模型的偏见,公平,健壮性和explainability。随着时间的推移,我们需要跟踪所有这些在一个标准的,可重复的方式。这个演讲探索最佳实践来处理这些无数的挑战创造一个标准化的、自动化的、可重复的管道深度学习的持续部署模型和管道。我将说明这个工作我们是免费和开源的IBM模型中进行资产交换。

试着砖
看到更多的火花+人工智能峰会欧洲2019个视频


«回来
关于尼克彭特里斯

IBM

尼克·彭特里斯首席工程师在IBM开源数据中心与人工智能技术(CODAIT),他工作在机器学习。以前,他创办了Graphflow,机器学习创业重点建议。他也曾在高盛(Goldman Sachs)、认知匹配,和Mxit公司——。他是一个Apache火花项目的提交者和PMC成员的作者与火花“机器学习”。尼克是热衷于商业重点结合机器学习和尖端技术构建智能系统,从数据中学习增加业务价值。
尼克已经在30多个会议、在线研讨会、聚会和世界各地的其他活动包括许多以前的火花峰会。