python 反卷积(DeConv) tensorflow反卷积(DeConv)(实现原理+手写)

举报
风吹稻花香 发表于 2021/06/05 00:08:56 2021/06/05
【摘要】 Tensorflow反卷积(DeConv)实现原理+手写python代码实现反卷积(DeConv) 理解: https://www.zhihu.com/question/43609045/answer/130868981 上一篇文章已经介绍过卷积的实现,这篇文章我们学习反卷积原理,同样,在了解反卷积原理后,在后面手写python代码实现反卷积。 反卷积用途:上采样...
Tensorflow反卷积(DeConv)实现原理+手写python代码实现反卷积(DeConv)

理解:

https://www.zhihu.com/question/43609045/answer/130868981

上一篇文章已经介绍过卷积的实现,这篇文章我们学习反卷积原理,同样,在了解反卷积原理后,在后面手写python代码实现反卷积。

反卷积用途:
上采样,
gan,反卷积来生成图片

1 反卷积原理

反卷积原理不太好用文字描述,这里直接以一个简单例子描述反卷积过程。

假设输入如下:


   
  1. [[1,0,1],
  2. [0,2,1],
  3. [1,1,0]]
  • 1
  • 2
  • 3

反卷积卷积核如下:


   
  1. [[ 1, 0, 1],
  2. [-1, 1, 0],
  3. [ 0,-1, 0]]
  • 1
  • 2
  • 3
  • 4

现在通过stride=2来进行反卷积,使得尺寸由原来的3*3变为6*6.那么在Tensorflow框架中,反卷积的过程如下(不同框架在裁剪这步可能不一样):

反卷积实现例子
其实通过我绘制的这张图,就已经把原理讲的很清楚了。大致步奏就是,先填充0,然后进行卷积,卷积过程跟上一篇文章讲述的一致。最后一步还要进行裁剪。好了,原理讲完了,(#^.^#)….

2 代码实现

上一篇文章我们只针对了输出通道数为1进行代码实现,在这篇文章中,反卷积我们将输出通道设置为多个,这样更符合实际场景。

先定义输入和卷积核:


   
  1. input_data=[
  2. [[1,0,1],
  3. [0,2,1],
  4. [1,1,0]],
  5. [[2,0,2],
  6. [0,1,0],
  7. [1,0,0]],
  8. [[1,1,1],
  9. [2,2,0],
  10. [1,1,1]],
  11. [[1,1,2],
  12. [1,0,1],
  13. [0,2,2]]
  14. ]
  15. weights_data=[
  16. [[[ 1, 0, 1],
  17. [-1, 1, 0],
  18. [ 0,-1, 0]],
  19. [[-1, 0, 1],
  20. [ 0, 0, 1],
  21. [ 1, 1, 1]],
  22. [[ 0, 1, 1],
  23. [ 2, 0, 1],
  24. [ 1, 2, 1]],
  25. [[ 1, 1, 1],
  26. [ 0, 2, 1],
  27. [ 1, 0, 1]]],
  28. [[[ 1, 0, 2],
  29. [-2, 1, 1],
  30. [ 1,-1, 0]],
  31. [[-1, 0, 1],
  32. [-1, 2, 1],
  33. [ 1, 1, 1]],
  34. [[ 0, 0, 0],
  35. [ 2, 2, 1],
  36. [ 1,-1, 1]],
  37. [[ 2, 1, 1],
  38. [ 0,-1, 1],
  39. [ 1, 1, 1]]]
  40. ]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46

上面定义的输入和卷积核,在接下的运算过程如下图所示:

执行过程

可以看到实际上,反卷积和卷积基本一致,差别在于,反卷积需要填充过程,并在最后一步需要裁剪。具体实现代码如下:


   
  1. #根据输入map([h,w])和卷积核([k,k]),计算卷积后的feature map
  2. import numpy as np
  3. def compute_conv(fm,kernel):
  4. [h,w]=fm.shape
  5. [k,_]=kernel.shape
  6. r=int(k/2)
  7. #定义边界填充0后的map
  8. padding_fm=np.zeros([h+2,w+2],np.float32)
  9. #保存计算结果
  10. rs=np.zeros([h,w],np.float32)
  11. #将输入在指定该区域赋值,即除了4个边界后,剩下的区域
  12. padding_fm[1:h+1,1:w+1]=fm
  13. #对每个点为中心的区域遍历
  14. for i in range(1,h+1):
  15. for j in range(1,w+1):
  16. #取出当前点为中心的k*k区域
  17. roi=padding_fm[i-r:i+r+1,j-r:j+r+1]
  18. #计算当前点的卷积,对k*k个点点乘后求和
  19. rs[i-1][j-1]=np.sum(roi*kernel)
  20. return rs
  21. #填充0
  22. def fill_zeros(input):
  23. [c,h,w]=input.shape
  24. rs=np.zeros([c,h*2+1,w*2+1],np.float32)
  25. for i in range(c):
  26. for j in range(h):
  27. for k in range(w):
  28. rs[i,2*j+1,2*k+1]=input[i,j,k]
  29. return rs
  30. def my_deconv(input,weights):
  31. #weights shape=[out_c,in_c,h,w]
  32. [out_c,in_c,h,w]=weights.shape
  33. out_h=h*2
  34. out_w=w*2
  35. rs=[]
  36. for i in range(out_c):
  37. w=weights[i]
  38. tmp=np.zeros([out_h,out_w],np.float32)
  39. for j in range(in_c):
  40. conv=compute_conv(input[j],w[j])
  41. #注意裁剪,最后一行和最后一列去掉
  42. tmp=tmp+conv[0:out_h,0:out_w]
  43. rs.append(tmp)
  44. return rs
  45. def main():
  46. input=np.asarray(input_data,np.float32)
  47. input= fill_zeros(input)
  48. weights=np.asarray(weights_data,np.float32)
  49. deconv=my_deconv(input,weights)
  50. print(np.asarray(deconv))
  51. if __name__=='__main__':
  52. main()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61

计算卷积代码,跟上一篇文章一致。代码直接看注释,不再解释。运行结果如下:


   
  1. [[[ 4. 3. 6. 2. 7. 3.]
  2. [ 4. 3. 3. 2. 7. 5.]
  3. [ 8. 6. 8. 5. 11. 2.]
  4. [ 3. 2. 7. 2. 3. 3.]
  5. [ 5. 5. 11. 3. 9. 3.]
  6. [ 2. 1. 4. 5. 4. 4.]]
  7. [[ 4. 1. 7. 0. 7. 2.]
  8. [ 5. 6. 0. 1. 8. 5.]
  9. [ 8. 0. 8. -2. 14. 2.]
  10. [ 3. 3. 9. 8. 1. 0.]
  11. [ 3. 0. 13. 0. 11. 2.]
  12. [ 3. 5. 3. 1. 3. 0.]]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

为了验证实现的代码的正确性,我们使用tensorflow的conv2d_transpose函数执行相同的输入和卷积核,看看结果是否一致。验证代码如下:


   
  1. import tensorflow as tf
  2. import numpy as np
  3. def tf_conv2d_transpose(input,weights):
  4. #input_shape=[n,height,width,channel]
  5. input_shape = input.get_shape().as_list()
  6. #weights shape=[height,width,out_c,in_c]
  7. weights_shape=weights.get_shape().as_list()
  8. output_shape=[input_shape[0], input_shape[1]*2 , input_shape[2]*2 , weights_shape[2]]
  9. print("output_shape:",output_shape)
  10. deconv=tf.nn.conv2d_transpose(input,weights,output_shape=output_shape,
  11. strides=[1, 2, 2, 1], padding='SAME')
  12. return deconv
  13. def main():
  14. weights_np=np.asarray(weights_data,np.float32)
  15. #将输入的每个卷积核旋转180°
  16. weights_np=np.rot90(weights_np,2,(2,3))
  17. const_input = tf.constant(input_data , tf.float32)
  18. const_weights = tf.constant(weights_np , tf.float32 )
  19. input = tf.Variable(const_input,name="input")
  20. #[c,h,w]------>[h,w,c]
  21. input=tf.transpose(input,perm=(1,2,0))
  22. #[h,w,c]------>[n,h,w,c]
  23. input=tf.expand_dims(input,0)
  24. #weights shape=[out_c,in_c,h,w]
  25. weights = tf.Variable(const_weights,name="weights")
  26. #[out_c,in_c,h,w]------>[h,w,out_c,in_c]
  27. weights=tf.transpose(weights,perm=(2,3,0,1))
  28. #执行tensorflow的反卷积
  29. deconv=tf_conv2d_transpose(input,weights)
  30. init=tf.global_variables_initializer()
  31. sess=tf.Session()
  32. sess.run(init)
  33. deconv_val = sess.run(deconv)
  34. hwc=deconv_val[0]
  35. print(hwc)
  36. if __name__=='__main__':
  37. main()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50

上面代码中,有几点需要注意:

  1. 每个卷积核需要旋转180°后,再传入tf.nn.conv2d_transpose函数中,因为tf.nn.conv2d_transpose内部会旋转180°,所以提前旋转,再经过内部旋转后,能保证卷积核跟我们所使用的卷积核的数据排列一致。
  2. 我们定义的输入的shape为[c,h,w]需要转为tensorflow所使用的[n,h,w,c]。
  3. 我们定义的卷积核shape为[out_c,in_c,h,w],需要转为tensorflow反卷积中所使用的[h,w,out_c,in_c]

执行上面代码后,执行结果如下:


   
  1. [[ 4. 3. 6. 2. 7. 3.]
  2. [ 4. 3. 3. 2. 7. 5.]
  3. [ 8. 6. 8. 5. 11. 2.]
  4. [ 3. 2. 7. 2. 3. 3.]
  5. [ 5. 5. 11. 3. 9. 3.]
  6. [ 2. 1. 4. 5. 4. 4.]]
  7. [[ 4. 1. 7. 0. 7. 2.]
  8. [ 5. 6. 0. 1. 8. 5.]
  9. [ 8. 0. 8. -2. 14. 2.]
  10. [ 3. 3. 9. 8. 1. 0.]
  11. [ 3. 0. 13. 0. 11. 2.]
  12. [ 3. 5. 3. 1. 3. 0.]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

对比结果可以看到,数据是一致的,证明前面手写的python实现的反卷积代码是正确的。

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/jacke121/article/details/80208175

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。