TF之CNN:Tensorflow构建卷积神经网络CNN的简介、使用方法、应用之详细攻略
TF之CNN:Tensorflow构建卷积神经网络CNN的简介、使用方法、应用之详细攻略
目录
1、TF之CNN:Tensorflow构建卷积神经网络CNN
TensorFlow 中的卷积有关函数入门
TensorFlow 构建卷积网络之前,我们需要了解一下 TensorFlow 中的函数:conv_2d() 和 fully_connected() 函数分别构建了卷积层和全连接层。通过这些函数,层级的数量、滤波器的大小/深度、激活函数的类型等都可以明确地作为一个参数。权重矩阵和偏置向量能自动创建,附加激活函数和 dropout 正则化层同样也能轻松构建。
1、tf.nn.conv2d函数
tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
除去name参数用以指定该操作的name,与方法有关的一共五个参数:
第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一
第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维
第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4
第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式(后面会介绍)
第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true
结果返回一个Tensor,这个输出,就是我们常说的feature map,shape仍然是[batch, height, width, channels]这种形式。
案例应用
1、TF之CNN:Tensorflow构建卷积神经网络CNN
-
#TF之CNN:Tensorflow构建卷积神经网络CNN
-
#1、定义卷积层网络
-
import tensorflow as tf
-
w1 = tf. Variable (tf.truncated_normal([filter_size, filter_size, image_depth, filter_depth], stddev= 0.1 ))
-
b1 = tf. Variable (tf.zeros([filter_depth]))
-
-
layer1_conv = tf.nn.conv2d(data, w1, [ 1 , 1 , 1 , 1 ], padding= 'SAME' )
-
layer1_relu = tf.nn.relu(layer1_conv + b1)
-
layer1_pool = tf.nn.max_pool(layer1_pool, [ 1 , 2 , 2 , 1 ], [ 1 , 2 , 2 , 1 ], padding= 'SAME' )
2、使用简单的函数来替代上面的定义
-
-
#2、使用简单的函数来替代上面的定义
-
from tflearn.layers.conv import conv_2d, max_pool_2d
-
layer1_conv = conv_2d(data, filter_depth, filter_size, activation= 'relu' )
-
layer1_pool = max_pool_2d(layer1_conv_relu, 2 , strides= 2 )
文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。
原文链接:yunyaniu.blog.csdn.net/article/details/80279382
- 点赞
- 收藏
- 关注作者
评论(0)