《深度学习之图像识别:核心技术与案例实战》 ——1.2.2 卷积与权值共享

举报
华章计算机 发表于 2020/02/23 10:57:59 2020/02/23
【摘要】 本节书摘来自华章计算机《深度学习之图像识别:核心技术与案例实战》 —— 书中第1章,第1.2.2节,作者是言有三   。

1.2.2  卷积与权值共享

  卷积是CNN的核心,用卷积核作用于图像就可以得到相应的图像特征。

  在传统BP神经网络中,前后层之间的神经元是“全连接”的,即每个神经元都与前一层的所有神经元相连,而卷积中的神经元只与上一层中部分神经元相连。从仿生的角度来说,CNN在处理图像矩阵问题时会更加高效。例如,人的单个视觉神经元并不需要对全部图像进行感知,只需要对局部信息进行感知即可,若距离较远、相关性比较弱的元素则不在计算范围内。从计算的角度来说,卷积使得参数量与计算量大幅度降低。

  接下来将介绍卷积的具体操作。例如,原始图像大小是7×7,卷积核大小是3×3。首先将卷积核与原始图像左上角3×3对应位置的元素相乘求和,得到的数值作为结果矩阵第1行第1列的元素值,然后卷积核向右移动一个单位(即步长stride为1),与原始图像前3行第2、3、4列所对应位置的元素分别相乘并求和,得到的数值作为结果矩阵第1行第2列的元素值,以此类推。

  以上就是卷积核矩阵在一个原始矩阵上从上往下、从左往右扫描,每次扫描都得到一个结果,将所有结果组合到一起得到一个新的结果矩阵的过程。操作如图1.7所示。

 image.png

图1.7  二维卷积的实例

  如果将大量图片作为训练集,则最终卷积核会训练成待提取的特征,例如识别飞机,那么卷积核可以是机身或者飞机机翼的形状等。

  卷积核与原始图像做卷积操作,符合卷积核特征的部分得到的结果也比较大,经过激活函数往下一层传播;不符合卷积特征的区域,获得的数值比较小,往下传播的程度也会受到限制。卷积操作后的结果可以较好地表征该区域符合特征的程度,这也是卷积后得到的矩阵被称为特征平面的原因。

  从上面的表述中我们可以引出权值共享的概念,即将图像从一个局部区域学习到的信息应用到其他区域。

  图像的局部特征具有重复性(也称为位置无关性),即图像中存在某个基本特征图形可能出现在图片上的任意位置,于是为在数据的不同位置检测是否存在相同的模式,可以通过在不同位置共享相同的权值来实现。

  用一个相同的卷积核对整幅图像进行一个卷积操作,相当于对图像做一个全图滤波,选出图片上所有符合这个卷积核的特征。例如,如果一个卷积核对应的特征比是边缘,那么用该卷积核对图像做全图滤波,即将图像各个位置的边缘都选择出来(帮助实现不变性)。不同的特征可以通过不同的卷积核来实现。


【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。