深度学习已经显示出巨大的成功,我们都知道,数据越多越好模型。然而,我们最终达到一个瓶颈多少数据我们可以处理在一个机器。这需要一个训练神经网络的新方法:在一个分布式的方式。
在这个网络研讨会,我们走过如何使用TensorFlow™和Horovod(一个开源的库从超级简化分布式模型训练)在砖建造更有效的推荐系统的规模。我们将介绍:
- 新砖运行时的ML,附带预装库Keras等Tensorflow, Horovod, XGBoost启用数据科学家开始使用分布式机器学习更快
- 新发布的HorovodEstimator API用于分布式,multi-GPU培训深度学习模型对数据在Apache引发™
- 如何在规模做出预测与深度学习管道