强化学习笔记2-Python/OpenAI/TensorFlow/ROS-程序指令

举报
zhangrelay 发表于 2021/07/15 03:31:40 2021/07/15
【摘要】 TensorFlow TensorFlow是Google的一个开源软件库,广泛用于数值计算。它使用可在许多不同平台上共享和执行的数据流图。 它被广泛用于构建深度学习模型,这是机器学习的一个子集。张量只不过是一个多维数组,所以当我们说TensorFlow时,它实际上是计算图中的多维数组(张量)流。安装Anaconda后,安装TensorFlow变得非常简单,直接安装tens...

TensorFlow

TensorFlow是Google的一个开源软件库,广泛用于数值计算。它使用可在许多不同平台上共享和执行的数据流图。

它被广泛用于构建深度学习模型,这是机器学习的一个子集。张量只不过是一个多维数组,所以当我们说TensorFlow时,它实际上是计算图中的多维数组(张量)流。安装Anaconda后,安装TensorFlow变得非常简单,直接安装tensorflow也非常简单。无论您使用何种平台,都可以通过键入以下命令轻松安装tensorflow。

conda install -c conda-forge tensorflow

pip install --user tensorflow

pip3 install --user tensorflow

如需GPU支持,需要-gpu。

运行以下hello world程序即可检查成功的tensorflow安装。


  
  1. import warnings
  2. warnings.filterwarnings('ignore')
  3. import tensorflow as tf
  4. hello = tf.constant("Hello World")
  5. sess = tf.Session()
  6. print(sess.run(hello))

显示结果如下:

b'Hello World'

变量Variables、常量Constants、占位符Placeholders

变量,常量,占位符是TensorFlow的基本要素。 但是,这三者之间总是存在混淆。 让我们逐个看到每个元素,并了解它们之间的区别。

变量
变量是用于存储值的容器。 变量将用作计算图中其他几个操作的输入。 我们可以使用tf.Variable()函数创建tensorflow变量。 在下面的示例中,我们使用随机正态分布中的值定义变量,并将其命名为权重。

weights = tf.Variable(tf.random_normal([8, 9], stddev=0.1), name="weights")

但是,在定义变量之后,我们需要使用tf.global_variables_initializer()方法显式创建初始化操作,该方法将为变量分配资源。

常量

常量与变量不同,它们的值不能改变。
它们被分配了值,它们无法在整个过程中更改。 我们可以创建常量使用tf.constant()函数。

x = tf.constant(666)

占位符

将占位符视为一个变量,您只需定义类型和维度不分配价值。 占位符定义为没有值。 占位符的值将在运行时提供。 占位符有一个名为shape的可选参数指定数据的维度。 如果形状设置为none,那么我们可以提供任何数据运行时的大小。 可以使用tf.placeholder()函数定义占位符

x = tf.placeholder("float", shape=None)

简单来说,我们使用tf.variable来存储数据,使用tf.placeholder来提供外部数据。

计算图(ROS中也有这个概念)Computation Graph

TensorFlow中的所有内容都将表示为由节点和边组成的计算图,其中节点是数学运算,例如加法,乘法等。边是张量。 计算图在优化资源方面非常有效,并且还促进了分布式计算。

假设我们有节点B,其输入依赖于节点A的输出,这种类型的依赖性称为直接依赖:

A = tf.multiply(8,5)
B = tf.multiply(A,1)

当节点B不依赖于节点A进行输入时,它被称为间接依赖:

A = tf.multiply(8,5)
B = tf.multiply(4,3)

因此,如果我们能够理解这些依赖关系,我们就可以在可用资源中分配独立计算并减少计算时间。 每当我们导入tensorflow时,将自动生成默认图形,并且我们创建的所有节点都将与默认图形相关联。

会话Sessions
只会定义计算图,为了执行计算图,我们使用tensorflow会话。 sess = tf.Session()我们可以使用tf.Session()方法为我们的计算图创建会话,该方法将分配用于存储变量当前值的内存。 创建会话后,我们可以使用sess.run()方法执行我们的图形。 为了在tensorflow中运行任何东西,我们需要为一个实例启动tensorflow会话,看下面的代码:


  
  1. import tensorflow as tf
  2. a = tf.multiply(2,3)
  3. print(a)

输出:

Tensor("Mul_4:0", shape=(), dtype=int32)

 

它将打印tensorflow对象而不是6。因为如前所述,每当我们导入tensorflow时,将自动创建默认计算图,并且我们创建的所有节点将附加到图上。 为了执行图形,我们需要初始化tensorflow会话,如下所示:


  
  1. import tensorflow as tf
  2. a = tf.multiply(2,3)
  3. #create tensorflow session for executing the session
  4. with tf.Session() as sess:
  5.  #run the session
  6.  print(sess.run(a))

输出:

6
 

综合到一个示例中:


  
  1. import warnings
  2. warnings.filterwarnings('ignore')
  3. import tensorflow as tf
  4. hello = tf.constant("Hello World")
  5. sess = tf.Session()
  6. print(sess.run(hello))
  7. a = tf.multiply(6,8)
  8. print(a)
  9. #create tensorflow session for executing the session
  10. with tf.Session() as sess:
  11. #run the session
  12. print(sess.run(a))

b'Hello World'
Tensor("Mul:0", shape=(), dtype=int32)
48


TensorBoard

TensorBoard是tensorflow的可视化工具,可用于可视化计算图。 它还可用于绘制各种中间计算的各种定量指标和结果。 使用TensorBoard,我们可以轻松地可视化复杂的模型,这对于调试和共享非常有用。 现在让我们构建一个基本的计算图并在tensorboard中可视化。

首先,让我们导入库:

import tensorflow as tf

接下来,我们初始化变量:

a = tf.constant(5)
b = tf.constant(4)
c = tf.multiply(a,b)
d = tf.constant(2)
e = tf.constant(3)
f = tf.multiply(d,e)
g = tf.add(c,f)

现在,我们将创建一个tensorflow会话,我们将使用tf.summary.FileWriter()将我们的图形结果写入称为事件文件的文件:

with tf.Session() as sess:
    writer = tf.summary.FileWriter("logs", sess.graph)
    print(sess.run(g))
    writer.close()

输出:

26

要运行tensorboard,请转到终端,找到工作目录并键入:

tensorboard --logdir=logs --port=6003

添加范围Adding Scope

范围用于降低复杂性,并通过将相关节点分组在一起来帮助更好地理解模型。例如,在上面的示例中,我们可以将图分解为两个不同的组,称为计算和结果。 如果你看一下前面的例子,我们可以看到节点,a到e执行计算,节点g计算结果。 因此,我们可以使用范围单独对它们进行分组以便于理解。 可以使用tf.name_scope()函数创建范围。

with tf.name_scope("Computation"):
    a = tf.constant(5)
    b = tf.constant(4)
    c = tf.multiply(a,b)
    d = tf.constant(2)
    e = tf.constant(3)
    f = tf.multiply(d,e)

with tf.name_scope("Result"):
     g = tf.add(c,f)

如果您看到计算范围,我们可以进一步细分为单独的部分,以便更好地理解。 假设我们可以创建作为第1部分的范围,其具有节点a到c,范围作为第2部分,其具有节点d到e,因为第1部分和第2部分彼此独立。

with tf.name_scope("Computation"):
    with tf.name_scope("Part1"):
        a = tf.constant(5)
        b = tf.constant(4)
        c = tf.multiply(a,b)
    with tf.name_scope("Part2"):
        d = tf.constant(2)
        e = tf.constant(3)
        f = tf.multiply(d,e)

通过在tensorboard中对它们进行可视化,可以更好地理解范围。 完整代码如下所示:

with tf.name_scope("Computation"):
    with tf.name_scope("Part1"):
        a = tf.constant(5)
        b = tf.constant(4)
        c = tf.multiply(a,b)
    with tf.name_scope("Part2"):
        d = tf.constant(2)
        e = tf.constant(3)
        f = tf.multiply(d,e)
with tf.name_scope("Result"):
    g = tf.add(c,f)
with tf.Session() as sess:
    writer = tf.summary.FileWriter("logs", sess.graph)
    print(sess.run(g))
    writer.close()

全部示例如下:


  
  1. import tensorflow as tf
  2. with tf.name_scope("Computation"):
  3. with tf.name_scope("Part1"):
  4. a = tf.constant(5)
  5. b = tf.constant(4)
  6. c = tf.multiply(a,b)
  7. with tf.name_scope("Part2"):
  8. d = tf.constant(2)
  9. e = tf.constant(3)
  10. f = tf.multiply(d,e)
  11. with tf.name_scope("Result"):
  12. g = tf.add(c,f)
  13. with tf.Session() as sess:
  14. writer = tf.summary.FileWriter("logs", sess.graph)
  15. print(sess.run(g))
  16. writer.close()

使用:tensorboard --logdir=logs --port=6003

在浏览器复制如下地址:TensorBoard 1.13.1 at http://TPS2:6003 (Press CTRL+C to quit)

不同系统会有差异。

扩展阅读:

  • OpenAI博客
  • TensorFlow官网
  • Github 

 

 

文章来源: zhangrelay.blog.csdn.net,作者:zhangrelay,版权归原作者所有,如需转载,请联系作者。

原文链接:zhangrelay.blog.csdn.net/article/details/91414600

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。