【小白学习tensorflow教程】三、TF2新特性@tf.function和AutoGraph
@Author:Runsen
19年接触tensorflow1.X,看过1.X的官方文档、到19年暑假的时候,我记得tensorflow2的发布。tensorflow2抛弃了tf.seesion,tf.placeholder。
AutoGraph 是 Tensorflow 2.0 新功能之一。
function or seesion
在tensorflow1.X,计算任何东西,必须在会话中启动图。Tensorflow 最大的思想是将所有的数值计算都表达为一个计算图。
下面的代码在1.X更常用。唯一的区别是不需要在最后关闭会话,因为它会自动关闭。
with tf.Session() as sess: print(sess.run(c))
- 1
- 2
但是到了tensorflow2,没有了tf.seesion,
Tensorflow 2.0 的主要变化之一是删除了tf.Session对象。
这种变化迫使用户以更好的方式组织代码:不再tf.Session需要传递对象,而只是可以通过简单的修饰加速的 Python 函数。
请参考:官方文档 Functions,而不是 Sessions
为了在 Tensorflow 2.0 中定义图形,我们需要定义一个 Python 函数并用@tf.function.
import tensorflow as tf
@tf.function
def compute_z1(x, y):
return tf.add(x, y)
@tf.function
def compute_z0(x):
return compute_z1(x, tf.square(x))
z0 = compute_z0(2.)
z1 = compute_z1(2., 2.)
print(z0,z1)
# tf.Tensor(6.0, shape=(), dtype=float32) tf.Tensor(4.0, shape=(), dtype=float32)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
@tf.function是函数的装饰器。“TensorFlow 函数”将计算定义为 TensorFlow 操作图,具有命名参数和显式返回值。
AutoGraph
在TensorFlow 2.0中,默认情况下启用了eager 模式。 对于用户而言直观且灵活(运行一次性操作更容易,更快
AutoGraph主要是可以将一些常用的Python代码转化为TensorFlow支持的Graph代码
下面是官方代码
def square_if_positive(x): if x > 0: x = x * x else: x = 0.0 return x
# eager 模式
print('Eager results: %2.2f, %2.2f' % (square_if_positive(tf.constant(9.0)), square_if_positive(tf.constant(-9.0))))
# graph 模式
tf_square_if_positive = tf.autograph.to_graph(square_if_positive)
with tf.Graph().as_default():
# The result works like a regular op: takes tensors in, returns tensors.
# You can inspect the graph using tf.get_default_graph().as_graph_def() g_out1 = tf_square_if_positive(tf.constant( 9.0)) g_out2 = tf_square_if_positive(tf.constant(-9.0)) with tf.compat.v1.Session() as sess: print('Graph results: %2.2f, %2.2f' % (sess.run(g_out1), sess.run(g_out2)))
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
上面定义了一个square_if_positive函数,TensorFlow 2.0的eager先执行,
然而这是TensorFlow 1.x所不支持的eager模式,但是使用AutoGraph可以将这个函数转为Graph函数,其可以在Graph模式下运行(tf2 没有Session,Graph模式是tf1.x的特性,想使用tf1.x的话需要调用tf.compat.v1)。
在tensorflow中,Graph execution or eager execution ?
eager模式和Graph模式的结果是一样的,但是官方说明Graph模式更高效,并给出具体的示例:
def huber_loss(a):
if tf.abs(a) <= delta: loss = a * a / 2
else: loss = delta * (tf.abs(a) - delta / 2)
return loss
- 1
- 2
- 3
- 4
- 5
- 6
上面代码默认使用 Eager Execution,但是操作会比较慢。
为了给图执行做好准备,你需要重写代码,使用 tf.cond() 等语句,但是这很繁琐且难以实现。AutoGraph 可以自动完成该转换,保持 Eager 编程的简易性,同时还提升了计算图执行的性能。
@autograph.convert()
def huber_loss(a):
if tf.abs(a) <= delta: loss = a * a / 2
else: loss = delta * (tf.abs(a) - delta / 2)
return loss
- 1
- 2
- 3
- 4
- 5
- 6
- 7
对应官方链接:https://blog.tensorflow.org/2018/07/autograph-converts-python-into-tensorflow-graphs.html
文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。
原文链接:maoli.blog.csdn.net/article/details/119274472
- 点赞
- 收藏
- 关注作者
评论(0)