深度学习中的「卷积层」如何深入理解?

频道:生活应用 日期: 浏览:12

「雷克世界」编译:嗯~阿童木呀 多啦A亮

最近深度学习非常热门,在这项技术中kaiyun官方网站登录入口,卷积网络是造成众多令人赞叹成就的关键因素。自2012年AlexNet首次发布以来,如今几乎找不到一个根本不采用卷积结构的、具有开创性的计算机视觉方案。

我们当前使用的深度学习体系中,卷积层通常由简短指令构成,其中蕴含着丰富的实现要素。不过,偶尔停下来审视一些隐藏的原理,往往能带来新的启发。本文着重揭示卷积层某个独特的构造方式,这一点在许多文献和交流中鲜有提及。

很多卷积结构以一个外部卷积模块为起点开yun体育app官网网页登录入口,该模块能够把RGB通道的输入图像转换成一系列内部滤波器。目前应用最广泛的深度学习体系中,实现这一功能的代码或许是这样写的:

out_1是经过卷积操作的结果,输入图像被32个滤波器处理,每个滤波器的尺寸为3x3,步长为1x1

relu_out=relu(out_1)

池化层接收relu层输出,以2x2的核大小进行下采样,步长为2

很多人明白,先前展示的成果其实是一套包含三十二重结构的筛选装置kaiyun.ccm,然而具体怎样才能把带有三个信号通道的图形精准地对应到这三十两次第,目前尚无定论!同样地,我们也不明确怎样实施最大池化这一处理步骤,譬如,是否需要将这个操作同时施加于所有筛选层级,以便高效地构建出一个统一的筛选映射结果?或者,能否让最大池化运算各自作用于各个过滤器,从而得到等价的32级池化模块?

如何做

一张图胜过万语千言,下方有一张图表,能够呈现前述代码片段里所有的步骤,十分清晰明了。

卷积在生活应用_卷积网络过滤器设计_卷积层工作原理

卷积层的应用

审视该图,能发现一个突出之处,步骤1里每个过滤器,例如过滤器-1、过滤器-2等,实际上由一组3个卷积核构成,分别是Wt-R、Wt-G和WT-B。这些核中的每一个,都分别储存了输入图像的红(R)、绿(G)和蓝(B)信道信息。

正向传播过程中,图像里红色、绿色和蓝色像素,各自同Wt-R、Wt-G、Wt-B这组滤波器相乘,从而得出一个暂时的激活图,这个图在图中没有显示。接着,把这三个滤波器的结果加在一起,为每个过滤器生成一个激活图。

接下来,每个激活都会经过ReLu函数处理,然后传递给最大池化层,这个层的主要作用是降低输出激活图的维度。最终,我们得到一组激活图,它们的维度通常是输入图像的一半,但现在这些信号被组织成了32个选定的过滤器作为二维张量。

卷积层的结果常常被当作下一层卷积层的起始数据,所以,假如我们的第二个卷积环节是:

conv_out_2, 是通过卷积层生成的, 该层以relu_out作为输入, 并配置了64个过滤器

框架必须创建64个过滤器,每个过滤器配置一组独特的32个核心,才能正常运作

为什么

我们为何为首个卷积层配置32个滤波器,这是一个微妙却关键的考量点,需要深入理解。在多数标准网络设计中,随着网络层数的增加,滤波器的数量会呈现增长趋势,比如第二层使用64个,第三层则增至128个,这种模式会持续下去。

本文中,Matt Zeiler借助一种逆向卷积方法,实现了对深度卷积网络各层神经元响应的观察,以便揭示它们在训练期间的变化情况。通常认为,经过充分训练的卷积模型,位于表层区域的特征提取器会对简单的边缘轮廓和基本纹理产生反应。而位于内部深处的特征提取器,则会对越来越复杂的几何图形和抽象模式表现出敏感性。这些现象在Matt论文的图表中得到了很好的总结:

卷积网络过滤器设计_卷积层工作原理_卷积在生活应用

在第一层和第二层(最外层)上过滤器激活的可视化

卷积网络过滤器设计_卷积层工作原理_卷积在生活应用

第三层过滤器激活的可视化

卷积网络过滤器设计_卷积在生活应用_卷积层工作原理

第4层和第5层的过滤器的可视化激活

另一个我反复思索的疑问是,为何众多过滤器,即便处在相同层级,其形态或样式也会趋于一致。毕竟,任何核函数的参数并无显著差异,这足以解释所见现象。关键在于:随机梯度下降(SGD)机制会主动修正参数,促使核函数形成前述特征。核心要素在于:

核函数初始时采用随机值,目的是让各个核函数都能寻找到一个与众不同的最优解区域,以此保证它们的独立性和多样性。

我们设定了相当数量的筛选器,目的是充分捕捉数据里各类特性,并且兼顾了运算开销的合理性。

最后,一些研究还指出,过滤器激活的可视化有助于揭示卷积结构的效能。表现均衡且效果出色的网络,往往呈现出前文描述的激活特征,其边缘和形状识别能力清晰可见。而那些存在过度拟合、欠拟合或泛化问题的网络,则通常难以呈现此类现象。所以,借助(2)里的方法来检验网络是个不错的主意,目的是观察实验性的卷积网络是否得出了理想的结果。

网友留言(0)

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。