[Python人工智能] 五.Tensorboard可视化基本用法及绘制整个神经网络 丨【百变AI秀】

举报
eastmount 发表于 2021/09/04 22:53:13 2021/09/04
【摘要】 从本篇文章开始,作者正式开始研究Python深度学习、神经网络及人工智能相关知识。本篇文章将详细讲解Tensorboard可视化的基本用法,并绘制整个神经网络及训练、学习的参数变化情况,后面随着深入会讲解具体的项目及应用。基础性文章,希望对您有所帮助,同时自己也是人工智能的菜鸟,希望大家能与我在这一笔一划的博客中成长起来。

从本篇文章开始,作者正式开始研究Python深度学习、神经网络及人工智能相关知识。前一篇文章讲解了TensorFlow创建回归神经网络及Optimizer优化器;本篇文章将详细讲解Tensorboard可视化的基本用法,并绘制整个神经网络及训练、学习的参数变化情况。本文主要结合作者之前的博客、"莫烦大神"的视频和AI经验介绍,后面随着深入会讲解更多的Python人工智能案例及应用。

基础性文章,希望对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作者作为人工智能的菜鸟,希望大家能与我在这一笔一划的博客中成长起来,共勉。写了这么多年博客,尝试第一个付费专栏,但更多博客尤其基础性文章,还是会继续免费分享,但该专栏也会用心撰写,望对得起读者。

在这里插入图片描述

在这里插入图片描述

代码下载地址(欢迎大家关注点赞):


一.tensorboard初识

TensorBoard是TensorFlow提供的实用工具,可以图形化的显示Graph,帮助开发者方便的理解、调试、优化TensorFlow程序。Tensorboard主要的面板如下图所示:

在这里插入图片描述

很多时候,我们编写了神经网络,却没有很好地进行可视化展示。本篇文章将分享如何可视化神经网络,通过TensorFlow自身提供的Tensorboard进行可视化操作,通过它能够直观地看到整个神经网络或TensorFlow的框架结构,如下图所示。

在这里插入图片描述

这个结构大概分成了输入层inputs、两个隐藏层layer和计算误差loss。

在这里插入图片描述

点击展开某一个隐藏层,可以看到权重Wights、偏差biases、计算方式Wx_plus_b和激励函数Relu等。我们可以很直观地看到TensorFlow的数据是如何流向神经网络的。

在这里插入图片描述

同时,inputs包括x_input和y_input两个值。

在这里插入图片描述

接下来,我们开始编写神经网络的可视化功能。这里,我们依旧使用上节课的代码,它通过TensorFlow实现了一个回归神经网络,通过不断学习拟合出一条接近散点的曲线。

# -*- coding: utf-8 -*-
"""
Created on Mon Dec 16 21:34:11 2019
@author: xiuzhang CSDN Eastmount
"""
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认None
def add_layer(inputs, in_size, out_size, activation_function=None):
    # 权重为随机变量矩阵
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))    #行*列
    # 定义偏置 初始值增加0.1 每次训练中有变化
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)             #1行多列
    # 定义计算矩阵乘法 预测值
    Wx_plus_b = tf.matmul(inputs, Weights) + biases
    # 激活操作
    if activation_function is None: 
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b)
    return outputs

#---------------------------------构造数据---------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis]   #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape)  #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 + noise

# 设置传入的值xs和ys
xs = tf.placeholder(tf.float32, [None, 1]) #x_data传入给xs
ys = tf.placeholder(tf.float32,[None, 1]) #y_data传入给ys

#---------------------------------定义神经网络---------------------------------
# 隐藏层
L1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #激励函数
# 输出层
prediction = add_layer(L1, 10, 1, activation_function=None)

#------------------------------定义loss和初始化-------------------------------
# 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), 
                     reduction_indices=[1]))
# 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #减小误差

# 初始化
init = tf.initialize_all_variables()
# 运行
sess = tf.Session()
sess.run(init)

#---------------------------------可视化分析---------------------------------
# 定义图片框
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
# 散点图
ax.scatter(x_data, y_data)
# 连续显示
plt.ion()
plt.show()

#---------------------------------神经网络学习---------------------------------
# 学习1000次
n = 1
for i in range(1000):
    # 训练
    sess.run(train_step, feed_dict={xs:x_data, ys:y_data}) #假设用全部数据x_data进行运算
    # 输出结果 只要通过place_holder运行就要传入参数
    if i % 50==0:
        #print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
        try:
            # 忽略第一次错误 后续移除lines的第一个线段
            ax.lines.remove(lines[0])
        except Exception:
            pass
        # 预测
        prediction_value = sess.run(prediction, feed_dict={xs:x_data})
        # 设置线宽度为5 红色
        lines = ax.plot(x_data, prediction_value, 'r-', lw=5) 
        # 暂停
        plt.pause(0.1)
        # 保存图片
        name = "test" + str(n) + ".png"
        plt.savefig(name)
        n =  n + 1

输出结果如下图所示,从最早不合理的图形到后面基本拟合,loss误差在不断减小,说明神经网络的真实值和预测值在不断更新接近,神经网络正常运行。

在这里插入图片描述


二.tensorboard绘制graph

接下来,我们用Tensorboard进行可视化训练,对上面的代码进行如下修改。

第一步,从input开始修改,调用tf.name_scope()设置输入层名称,并为传入的值xs和ys增加名字。整个inputs包括x_input和y_input。

# 输入inputs包括x_input和y_input
with tf.name_scope('inputs'):
    xs = tf.placeholder(tf.float32, [None, 1], name='x_input') #x_data传入给xs
    ys = tf.placeholder(tf.float32,[None, 1], name='y_input')  #y_data传入给ys

tf.name_scope()命名空间的实际作用如下:

  • 在某个tf.name_scope()指定的区域中定义所有对象及各种操作,他们的“name”属性上会增加该命名区的区域名,用以区别对象属于哪个区域;
  • 将不同的对象及操作放在由tf.name_scope()指定的区域中,便于在tensorboard中展示清晰的逻辑关系图,这点在复杂关系图中特别重要。

第二步,修改add_layer()函数,通过tf.name_scope()函数进行区域和变量命名。
这里通过with tf.name_scope(‘layer’)代码进行区域命名,我们把layer层当成一个框架,对应之前可视化图形的那一部分layer区域。注意,激励函数没有命名,是因为它默认会有名字,比如选择了“relu”,其名字就是“relu”。

# 定义神经层:输入变量 输入大小 输出大小 激励函数默认None
def add_layer(inputs, in_size, out_size, activation_function=None):
    # 命名层
    with tf.name_scope('layer'):
        with tf.name_scope('weights'):
            # 权重为随机变量矩阵
            Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')  #行*列
        with tf.name_scope('biases'):
            # 定义偏置 初始值增加0.1 每次训练中有变化
            biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='b')           #1行多列
        with tf.name_scope('Wx_plus_b'):
            # 定义计算矩阵乘法 预测值
            Wx_plus_b = tf.matmul(inputs, Weights) + biases
        # 激活操作
        if activation_function is None: 
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
        return outputs

第三步,定义好图层名称。每加一个图层,它都会增加一个对应的框架,就是第二步命名的layer。

# 隐藏层
L1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #激励函数
# 输出层
prediction = add_layer(L1, 10, 1, activation_function=None)

第四步,接着通过tf.name_scope()函数定义loss和train框架。

with tf.name_scope('loss'):
    # 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), 
                         reduction_indices=[1]))
with tf.name_scope('train'):
    # 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #减小误差

第五步,初始化和文件写操作。

# 定义Session
sess = tf.Session()
# 整个框架加载到文件中,才能从文件中加载出来至浏览器中查看
writer = tf.summary.FileWriter('logs/', sess.graph)
# 初始化
init = tf.global_variables_initializer()
sess.run(init)

此时的完整代码如下所示:

# -*- coding: utf-8 -*-
"""
Created on Tue Dec 17 10:51:40 2019
@author: xiuzhang CSDN Eastmount
"""
import tensorflow as tf

#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认None
def add_layer(inputs, in_size, out_size, activation_function=None):
    # 命名层
    with tf.name_scope('layer'):
        with tf.name_scope('weights'):
            # 权重为随机变量矩阵
            Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')  #行*列
        with tf.name_scope('biases'):
            # 定义偏置 初始值增加0.1 每次训练中有变化
            biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='b')           #1行多列
        with tf.name_scope('Wx_plus_b'):
            # 定义计算矩阵乘法 预测值
            Wx_plus_b = tf.matmul(inputs, Weights) + biases
        # 激活操作
        if activation_function is None: 
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
        return outputs

#-----------------------------设置传入的值xs和ys-------------------------------
# 输入inputs包括x_input和y_input
with tf.name_scope('inputs'):
    xs = tf.placeholder(tf.float32, [None, 1], name='x_input') #x_data传入给xs
    ys = tf.placeholder(tf.float32,[None, 1], name='y_input')  #y_data传入给ys

#---------------------------------定义神经网络---------------------------------
# 隐藏层
L1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #激励函数
# 输出层
prediction = add_layer(L1, 10, 1, activation_function=None)

#------------------------------定义loss和train-------------------------------
with tf.name_scope('loss'):
    # 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), 
                         reduction_indices=[1]))
with tf.name_scope('train'):
    # 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #减小误差

#------------------------------初始化和文件写操作-------------------------------
# 定义Session
sess = tf.Session()
# 整个框架加载到文件中,才能从文件中加载出来至浏览器中查看
writer = tf.summary.FileWriter('logs/', sess.graph)
# 初始化
init = tf.global_variables_initializer()
sess.run(init)

我们尝试运行代码,此时会在Python文件目录下新建一个“logs”文件夹和events的文件,如下图所示。

在这里插入图片描述

接下来尝试打开它。首先调出Anaconda Prompt,并激活TensorFlow,接着去到events文件的目录,调用命令“tensorboard --logdir=logs运行即可,如下图所示。注意,这里只需要指引到文件夹,它就会自动索引到你的文件。

activate tensorflow
cd\
cd C:\Users\xiuzhang\Desktop\TensorFlow
tensorboard --logdir=logs

在这里插入图片描述

此时访问网址“http://localhost:6006/”,选择“Graphs”,运行之后如下图所示,我们的神经网络就出现了。

在这里插入图片描述

双击每一个层,可以看到细节部分,比如layer层如下图所示,包括权重、偏置和计算函数。

在这里插入图片描述

再比如点击loss计算函数,其处理流程如下图所示。

在这里插入图片描述

通常我们会将train部分放置一边,选中“train”然后鼠标右键点击“Remove from main graph”。

在这里插入图片描述

此时的显示结果如下图所示,同时输入层inputs包括x_input和y_input。

在这里插入图片描述

PS:用tensorboard可视化的时候,显示“No graph definition files were found”,这很可能是路径错误,大家需要注意文件夹命名用英文、避免空格等问题。

在这里插入图片描述


三.tensorboard可视化神经网络学习过程

此时的神经网络只有Graph功能,接下来尝试可视化展现它的DISTRIBUTIONS、HISTOGRAMS、EVENTS等面板。

在这里插入图片描述

DISTRIBUTIONS是它的整个训练过程,显示了Layer1的Weights、outputs、biases的变化。

在这里插入图片描述

在EVENTS中,也可以把其误差loss显示出来。

在这里插入图片描述

接着开始讲解代码。


第一步,编写构造数据的代码。

首先导入扩展包numpy。

import numpy as np

然后构造输入、噪声和输出三个变量。

# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis]   #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape)  #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 + noise

第二步,在add_layer()函数中增加绘图显示的名称,如下图左上角所示。

在这里插入图片描述
修改如下:
1.自定义一个变量layer_name,其值为add_layer()函数传进来的参数n_layer。
2.函数add_layer(inputs, in_size, out_size, n_layer, activation_function=None)增加参数n_layer,为神经层名称。
3.修改tf.name_scope(layer_name),其传递值为layer_name。
4.通过tf.summary.histogram()函数定义图形的左上角名称,包括weights、biases、outputs。部分TensorFlow的版本是调用tf.histogram_summary()函数。

修改后的代码如下:

#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 神经层名称 激励函数默认None
def add_layer(inputs, in_size, out_size, n_layer, activation_function=None):
    # 定义神经层名称
    layer_name = 'layer%s' % n_layer
    # 命名层
    with tf.name_scope(layer_name):
        with tf.name_scope('weights'):
            # 权重为随机变量矩阵
            Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')  #行*列
            tf.summary.histogram(layer_name+'/weights', Weights)
        with tf.name_scope('biases'):
            # 定义偏置 初始值增加0.1 每次训练中有变化
            biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='b')           #1行多列
            tf.summary.histogram(layer_name+'/biases', biases)
        with tf.name_scope('Wx_plus_b'):
            # 定义计算矩阵乘法 预测值
            Wx_plus_b = tf.matmul(inputs, Weights) + biases
        # 激活操作
        if activation_function is None: 
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
            tf.summary.histogram(layer_name+'/outputs', outputs)
        return outputs

第三步,修改定义神经网络的代码,增加参数n_layer,并设置为第1层和第2层。

# 隐藏层
L1 = add_layer(xs, 1, 10, n_layer=1, activation_function=tf.nn.relu) #激励函数
# 输出层
prediction = add_layer(L1, 10, 1, n_layer=2, activation_function=None)

第四步,可视化loss的变化情况,它是以存量的形式在EVENTS\SCALARS中显示,调用tf.scalar_summary()函数实现。如果loss在不断减小,说明这个神经网络是学到东西的。

with tf.name_scope('loss'):
    # 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), 
                         reduction_indices=[1]))
    tf.summary.scalar('loss', loss)

第五步,将所有的Summary合并在一起。

# 合并所有summary
merged = tf.summary.merge_all()

第六步,编写神经网络学习的过程,并且每隔50步输出一次结果。

# 学习1000次
n = 1
for i in range(1000):
    # 训练 xs和ys是定义的变量 x_data和y_data是构造的数据
    sess.run(train_step, feed_dict={xs:x_data, ys:y_data})
    # 每隔50步输出结果
    if i % 50==0:
        result = sess.run(merged, feed_dict={xs:x_data, ys:y_data})
        writer.add_summary(result, i) # 每隔i步输出一个点

最终的完整代码如下所示:

# -*- coding: utf-8 -*-
"""
Created on Tue Dec 17 10:51:40 2019
@author: xiuzhang CSDN Eastmount
"""
import tensorflow as tf
import numpy as np

#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 神经层名称 激励函数默认None
def add_layer(inputs, in_size, out_size, n_layer, activation_function=None):
    # 定义神经层名称
    layer_name = 'layer%s' % n_layer
    # 命名层
    with tf.name_scope(layer_name):
        with tf.name_scope('weights'):
            # 权重为随机变量矩阵
            Weights = tf.Variable(tf.random_normal([in_size, out_size]), name='W')  #行*列
            tf.summary.histogram(layer_name+'/weights', Weights)
        with tf.name_scope('biases'):
            # 定义偏置 初始值增加0.1 每次训练中有变化
            biases = tf.Variable(tf.zeros([1, out_size]) + 0.1, name='b')           #1行多列
            tf.summary.histogram(layer_name+'/biases', biases)
        with tf.name_scope('Wx_plus_b'):
            # 定义计算矩阵乘法 预测值
            Wx_plus_b = tf.matmul(inputs, Weights) + biases
        # 激活操作
        if activation_function is None: 
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
            tf.summary.histogram(layer_name+'/outputs', outputs)
        return outputs

#---------------------------------构造数据-----------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis]   #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape)  #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 + noise

#-----------------------------设置传入的值xs和ys-------------------------------
# 输入inputs包括x_input和y_input
with tf.name_scope('inputs'):
    xs = tf.placeholder(tf.float32, [None, 1], name='x_input') #x_data传入给xs
    ys = tf.placeholder(tf.float32,[None, 1], name='y_input')  #y_data传入给ys

#---------------------------------定义神经网络---------------------------------
# 隐藏层
L1 = add_layer(xs, 1, 10, n_layer=1, activation_function=tf.nn.relu) #激励函数
# 输出层
prediction = add_layer(L1, 10, 1, n_layer=2, activation_function=None)

#------------------------------定义loss和train-------------------------------
with tf.name_scope('loss'):
    # 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), 
                         reduction_indices=[1]))
    tf.summary.scalar('loss', loss)
    
with tf.name_scope('train'):
    # 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #减小误差

#------------------------------初始化和文件写操作-------------------------------
# 定义Session
sess = tf.Session()
# 合并所有summary
merged = tf.summary.merge_all()

# 整个框架加载到文件中,才能从文件中加载出来至浏览器中查看
writer = tf.summary.FileWriter('logs/', sess.graph)
# 初始化
init = tf.global_variables_initializer()
sess.run(init)

#---------------------------------神经网络学习---------------------------------
# 学习1000次
n = 1
for i in range(1000):
    # 训练 xs和ys是定义的变量 x_data和y_data是构造的数据
    sess.run(train_step, feed_dict={xs:x_data, ys:y_data})
    # 每隔50步输出结果
    if i % 50==0:
        result = sess.run(merged, feed_dict={xs:x_data, ys:y_data})
        writer.add_summary(result, i) # 每隔i步输出一个点

运行代码,新生成一个输出文件。

在这里插入图片描述

在Anaconda Prompt中输入命令“tensorboard --logdir=logs”,再调用浏览器查看新生成的图形,如下图所示。

在这里插入图片描述

此时的SCALARS中会显示loss的可视化图形,发现其误差在不断减小,神经网络再不断学习,拟合曲线也在不断进步。

在这里插入图片描述

DISTRIBUTIONS显示的Layer1如下图所示,颜色越深的地方表示它所在的这个区域值越多,每隔50步会生成一个点,包括biases、weights、outputs。

在这里插入图片描述

DISTRIBUTIONS显示的Layer2如下图所示

在这里插入图片描述

HISTOGRAMS显示如下图所示:

在这里插入图片描述

Histograms面板和Distributions面板是显示模型参数随迭代次数的变化情况。Distributions面板用于展示网络中各参数随训练步数增加的变化情况,如权重的分布。Histograms面板和distributions是对同一数据不同方式的展现,它是频数直方图的堆叠。

随着文章分享的深入,后续会结合案例和评估指标讲解不同神经网络的可视化对比,如Accuracy、Precision、Recall、F-measure等。

在这里插入图片描述


四.总结

写到这里,这篇文章就结束了,主要内容是利用Tensorboard去观察我们的神经网络。真的非常忙碌,希望这篇基础性文章对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作为人工智能的菜鸟,我希望自己能不断进步并深入,后续将它应用于图像识别、网络安全、对抗样本等领域,一起加油!

感恩能与大家在华为云遇见!
希望能与大家一起在华为云社区共同成长。原文地址:https://blog.csdn.net/Eastmount/article/details/103410289
【百变AI秀】有奖征文火热进行中:https://bbs.huaweicloud.com/blogs/296704

(By:娜璋之家 Eastmount 2021-09-05 夜于武汉)


参考文献:

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。