《深度学习:卷积神经网络从入门到精通》——2.10 卷积面计算
2.10 卷积面计算
在卷积神经网络中,一个卷积层可以包含很多卷积面。卷积面又称为卷积特征图(con-
volutional feature map)或卷积图(convolutional map),有时也称为特征图(feature map)。每个卷积面都是根据输入、卷积核和激活函数来计算的。卷积面的输入通常是一幅或多幅图像。卷积核是一个矩阵(或张量),又称为卷积滤波器,简称滤波器。激活函数有很多不同的选择,但一般选为sigmoid函数或校正线性单元(ReLU)。
如果输入是一幅大小为M×N的图像,用矩阵x表示,卷积核是大小为m×n的矩阵w,偏置为b,那么卷积面的计算过程可表示为图2.4,或者表示为如下公式:
(2.88)
图2.4 单幅图像输入时卷积面的计算过程
如果输入是D个通道,即有D幅图像x1, x2, …, xD,相应的卷积核分别为w1, w2, …, wD,偏置为b,那么这时卷积面的计算过程可表示为图2.5a,或简化为图2.5b,或直接用公式表示:
(2.89)
此外,在输入多幅图像时,还可采用多组卷积核和偏置,每组产生一个卷积面。如果把这些卷积面按顺序拼接成一个立方体,可以得到多卷积面计算的简化表示,如图2.5c所示。
图2.5 多幅图像输入时卷积面的计算过程
最后,需要指出的是,在现代卷积网络中,卷积面的计算有时也采用非标准卷积代替卷积。非标准卷积是对卷积的推广,其基本思想在于将跨度引入卷积。跨度分为垂直跨度和水平跨度,分别用u和v表示。假设A和B为矩阵,大小分别为M×N和m×n,且M≥m,N≥n,则它们的非标准内卷积??的所有元素定义为
(2.90)
如果采用非标准卷积,单卷积面和多卷积面计算可以分别简化表示图2.6a和图2.6b。
图2.6 非标准卷积面计算的简化表示
图2.7 池化面计算的简化表示
- 点赞
- 收藏
- 关注作者
评论(0)