[深度学习]CNN网络架构

举报
内核笔记 发表于 2021/06/09 00:47:35 2021/06/09
【摘要】 系列内容深度学习CNN 文章目录 CNN网络架构图展示的卷积神经网络:卷积神经网络的层结构和全连接神经网络的层结构不同:卷积计算池化全连接 CNN网络架构 一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式 INPUT -> [[CONV]*N -> POOL?]*M ...
系列 内容
深度学习 CNN

CNN网络架构

一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式

INPUT -> [[CONV]*N -> POOL?]*M -> [FC]*K
也就是N个卷积层叠加,然后(可选)叠加一个Pooling层,重复这个结构M次,最后叠加K个全连接层。
在这里插入图片描述

图展示的卷积神经网络:

  • INPUT -> CONV -> POOL -> CONV -> POOL -> FC -> FC

按照上述模式可以表示为:

  • INPUT -> [[CONV]*1 -> POOL]*2 -> [FC]*2
    也就是:N=1, M=2, K=2。

卷积神经网络的层结构和全连接神经网络的层结构不同:

  • 全连接神经网络每层的神经元是按照一维排列的,也就是排成一条线的样子
  • 而卷积神经网络每层的神经元是按照三维排列的,也就是排成一个长方体的样子,有宽度、高度和深度

卷积计算

  • 输入层的宽度和高度对应于输入图像的宽度和高度,而它的深度为1。
  • 第一个卷积层对这幅图像进行了卷积操作,得到了三个Feature Map。这里的“3”是指这个卷积层包含三个Filter(也就是三套参数),每个Filter都可以把原始输入图像卷积得到一个Feature Map,三个Filter就可以得到三个Feature Map。
  • 至于一个卷积层可以有多少个Filter,那是可以自由设定的。也就是说,卷积层的Filter个数也是一个超参数。我们可以把Feature Map可以看做是通过卷积变换提取到的图像特征,三个Filter就对原始图像提取出三组不同的特征,也就是得到了三个Feature Map,也称做三个通道(channel)。

池化

  • 在第一个卷积层之后,Pooling层对三个Feature Map做了下采样,得到了三个更小的Feature Map。
  • 接着,是第二个卷积层,它有5个Filter。每个Fitler都把前面下采样之后的3个**Feature Map卷积在一起,得到一个新的Feature Map。这样,5个Filter就得到了5个Feature Map。
  • 接着,是第二个Pooling,继续对5个Feature Map进行下采样**,得到了5个更小的Feature Map。

全连接

图所示网络的最后两层是全连接层;

  • 第一个全连接层的每个神经元,和上一层5个Feature Map中的每个神经元相连;
  • 第二个全连接层(也就是输出层)的每个神经元,则和第一个全连接层的每个神经元相连,这样得到了整个网络的输出。

文章来源: xuesong.blog.csdn.net,作者:内核笔记,版权归原作者所有,如需转载,请联系作者。

原文链接:xuesong.blog.csdn.net/article/details/91355222

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。