DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、预测

举报
一个处女座的程序猿 发表于 2021/03/27 00:39:54 2021/03/27
【摘要】 DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、预测 导读           计算图在神经网络算法中的作用。计算图的节点是由局部计算构成的。局部计算构成全局计算。计算图的正向传播进行一般的计算。通过计算图的反向传播,可以计算各个节点的导数。     目录 输出结果 设计思路 核心代码   ...

DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、预测

导读
          计算图在神经网络算法中的作用。计算图的节点是由局部计算构成的。局部计算构成全局计算。计算图的正向传播进行一般的计算。通过计算图的反向传播,可以计算各个节点的导数。

 

 

目录

输出结果

设计思路

核心代码


 

 

 

输出结果


 

 

设计思路

 

 

核心代码


  
  1. class TwoLayerNet:
  2. def __init__(self, input_size, hidden_size, output_size, weight_init_std = 0.01):
  3. self.params = {}
  4. self.params['W1'] = weight_init_std * np.random.randn(input_size, hidden_size)
  5. self.params['b1'] = np.zeros(hidden_size)
  6. self.params['W2'] = weight_init_std * np.random.randn(hidden_size, output_size)
  7. self.params['b2'] = np.zeros(output_size)
  8. self.layers = OrderedDict()
  9. self.layers['Affine1'] = Affine(self.params['W1'], self.params['b1'])
  10. self.layers['Relu1'] = Relu()
  11. self.layers['Affine2'] = Affine(self.params['W2'], self.params['b2'])
  12. self.lastLayer = SoftmaxWithLoss()
  13. def predict(self, x):
  14. for layer in self.layers.values():
  15. x = layer.forward(x)
  16. return x
  17. # x:输入数据, t:监督数据
  18. def loss(self, x, t):
  19. y = self.predict(x)
  20. return self.lastLayer.forward(y, t)
  21. def accuracy(self, x, t):
  22. y = self.predict(x)
  23. y = np.argmax(y, axis=1)
  24. if t.ndim != 1 : t = np.argmax(t, axis=1)
  25. accuracy = np.sum(y == t) / float(x.shape[0])
  26. return accuracy
  27. def gradient(self, x, t):
  28. self.loss(x, t)
  29. dout = 1
  30. dout = self.lastLayer.backward(dout)
  31. layers = list(self.layers.values())
  32. layers.reverse()
  33. for layer in layers:
  34. dout = layer.backward(dout)
  35. grads = {}
  36. grads['W1'], grads['b1'] = self.layers['Affine1'].dW, self.layers['Affine1'].db
  37. grads['W2'], grads['b2'] = self.layers['Affine2'].dW, self.layers['Affine2'].db
  38. return grads

 

 

相关文章
DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、预测

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/88959569

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。