跳转到主要内容
工程的博客

应用你的卷积神经网络:按需网络研讨会和FAQ现在可用!

2018年11月13日 工程的博客

分享这篇文章

在砖试试这个笔记本

10月25日,我们举办了一个研讨会应用卷积神经网络——丹尼李,在砖技术产品营销经理。这是第三个免费的深度学习基本系列的研讨会从砖。

在这个网络研讨会,我们潜入更深的卷积神经网络(cnn),一种特殊的神经网络,假设输入的图像,并已被证明非常有效的图像分类和目标识别。

特别是,我们讨论过:

  • CNN的架构,与节点安排在3 d宽度、高度和深度允许应用卷积滤波器来提取特征。
  • 卷积内核(过滤器)如何工作包括如何选择滤波器的大小,进步,填充来提取特征区域的像素的输入图像。
  • 池、二次抽样技术来减少图像大小减少参数的数量因此过度拟合的风险。

我们演示了这些概念的一些使用Keras砖(TensorFlow端),这里是一个链接到我们的笔记本今天开始:

你仍然可以看下面的第1部分和第2部分:

如果你想免费获取砖统一分析平台bob体育亚洲版bob体育客户端下载并尝试我们的笔记本,你可以访问在这里免费试用

到最后,我们举行了一个问答,下面的问题和答案,按主题分组。

基本面

问:我真的需要了解背后的数学神经网络使用神经网络?

虽然不是完全必要了解背后的数学神经网络使用,重要的是要理解这些基本面选择合适的算法和了解如何优化,改善,建筑师你深度学习和机器学习模型。关于这一主题的一篇好文章是Wale Akinfaderin机器学习的数学

卷积神经网络

问:为什么使用cnn代替常规神经网络?和你如何使用cnn在现实生活中,你能分享的例子应用程序吗?

来源:https://cs231n.github.io/convolutional-networks/

更深入的讨论训练神经网络卷积神经网络(cnn)类似于普通人工神经网络但前者使明确假设的输入图像。问题是完全连接人工神经网络(如左边的图形可视化的)不规模与图像。例如,一个200 x 200像素扫描x 3颜色通道(例如RGB)将导致120000的重量。更大或更复杂的图像(wise)频道,需要更多的权重。在cnn的情况下,节点只连接到一个小区域前层组织在3 d(宽度、高度、深度)。随着节点完全连接,这减少了权重的数量(即基数)从而使网络更快地完成传递。

问:美国有线电视新闻网是一个网络层的大小和类型。我如何选择呢?基于什么?换句话说,我怎么设计我的架构?

正如介绍神经网络点播网络研讨会和FAQ,而你的起点上有一般的经验法则(如从一个隐藏层并相应地扩大,输入节点数等于的维数特征,等等),关键是,你需要测试。,训练你的模型,然后运行测试和/或验证违背模型来理解的准确性(更高更好)和损失(低更好)。架构的设计,最好开始更好的理解和研究架构(例如AlexNet, LeNet-5,《盗梦空间》,VGG, ResNet,等等)。从这里,您可以调整数量、大小和类型的层当你运行你的实验。

问:为什么使用softmax完全连接层?

当我们使用逻辑回归,这假定伯努利分布二元分类。当你需要申请两个多分类器(如MNIST分类问题,我们需要泛化的伯努利分布多项式分布。的回归类型应用于多项分布(multi-classifier)被称为softmax回归。MNIST,我们分类手写数字之间的一些价值0,…,9在完全连接层因此softmax的使用。

问:过滤器的大小总是奇数吗?

过滤器尺寸是常用的方法x f在哪里f是一个奇数。虽然没有明确喊道:幻灯片39的应用神经网络,f是一个奇数,因为目标是卷积源像素及其周围的像素。最少是一个3 x 3过滤器尺寸自源+ 1像素,在二维空间。

通过一个更f大小,这将导致卷积不到一半源周围的像素像素。下潜更深,所以可以在应对这个问题https://datascience.stackexchange.com/questions/23183/why-convolutions-always-use-odd-numbers-as-filter-size/23186

问:我怎样才能实现一个CNN与变量输入长度?也就是说,任何建议的训练数据变量大小的图片吗?

一般来说,你需要调整你的照片或在他们所有的输入图像为CNN是相同的大小。有一些方法涉及LSTMs RNNs或递归神经网络(特别是文本数据)可以处理变量大小的输入的注意,这通常是一项简单的任务。

毫升环境与资源

问:我是付费用户数据砖。我知道如何在自己的电脑上运行Keras,但尚未在砖。

当使用砖时,旋转了砖运行时机器学习集群,包括但不限于Keras TensorFlow, XGBoost Horovod, scikit-learn。有关更多信息,请参考宣布砖运行时机器学习

问:我们有一个类似的会话毫升?

有很多很好砖在线研讨会可用;那些专注于机器学习包括(但不限于):

资源

免费试着砖
看到所有工程的博客的帖子