tf.identity的作用
发布日期:2021-06-29 16:00:06 浏览次数:2 分类:技术文章

本文共 1384 字,大约阅读时间需要 4 分钟。

还是从一个开始讲起

x = tf.Variable(0.0)x_plus_1 = tf.assign_add(x, 1)#对x进行加1操作#tf.control_dependencies的作用是:在执行y=x前,先执行x_plus_1with tf.control_dependencies([x_plus_1]):    y = xinit = tf.initialize_all_variables()with tf.Session() as session:    init.run()    for i in xrange(5):        print(y.eval())

这个代码的输出和我们想象的不一样,他的输出是0, 0, 0, 0, 0

x = tf.Variable(0.0)x_plus_1 = tf.assign_add(x, 1)with tf.control_dependencies([x_plus_1]):    y = tf.identity(x)init = tf.initialize_all_variables()with tf.Session() as session:    init.run()    for i in xrange(5):        print(y.eval())

这段代码的输出才是1, 2, 3, 4, 5

其实这里的tf.identity的作用相当于一个reference,也就是y仅仅是一个x的别名,这两个变量使用的是一块内存,而对于y=xxy在不同的内存中

这里举一个经典的例子

这里的swap1就相当于没有加tf.identity的做法,而swap2就相当于加了tf.identity的做法。

虽然y=x这样做了,但是这里的y可以了理解为上面swap1中的y,他仅仅是一个局部变量,函数结束,这块内存就释放了。如果添加了tf.identity,也就是说,y相当于一个全局变量xreference,修改x自然会修改y

上面的论述存在一些问题,谢谢的指出。我后来去查看了tensorflow的源码,发现

void TF_ImportGraphDefOptionsAddReturnOutput(TF_ImportGraphDefOptions* opts,…		  for (const tensorflow::Operation& op : control_deps) {
opts.control_dependencies.push_back(op.node()->name()); }

实际上,这里tf.control_dependencies在调用时,就是将tensorflow::Operation对象插入到opts链表里面。然而y = x操作不是一个tensorflow::Operation对象,所以第一个tf.control_dependencies并不会做插入操作。

tf.identity的作用实际上,是将CPU操作转化为GPU操作,也就是一个tensorflow::Operation对象。具体上是说,identity返回了一个Output类型,而Output又是一种Operation

当然这是我的理解,可能有不对之处,欢迎大家指出!

转载地址:https://coordinate.blog.csdn.net/article/details/78803357 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:目标检测中的IOU计算问题
下一篇:TensorBoard计算图可视化

发表评论

最新留言

逛到本站,mark一下
[***.202.152.39]2024年04月16日 10时31分49秒