DL之DNN:基于神经网络(从1层~50层)DNN算法实现对非线性数据集点进行绘制决策边界

举报
一个处女座的程序猿 发表于 2021/03/31 01:17:06 2021/03/31
【摘要】 DL之DNN:基于神经网络(从1层~50层)DNN算法实现对非线性数据集点进行绘制决策边界     目录 输出结果 设计代码     输出结果     设计代码   首先查看数据集 import numpy as npfrom sklearn.datasets impo...

DL之DNN:基于神经网络(从1层~50层)DNN算法实现对非线性数据集点进行绘制决策边界

 

 

目录

输出结果

设计代码


 

 

输出结果

 

 

设计代码

 

首先查看数据集


  
  1. import numpy as np
  2. from sklearn.datasets import make_moons #make_moons数据集可以生成一些非线性数据点
  3. import matplotlib.pyplot as plt
  4. # 手动生成一个随机的平面点分布,并画出来
  5. np.random.seed(0)
  6. X, y = make_moons(200, noise=0.20)
  7. plt.scatter(X[:,0], X[:,1], s=40, c=y, cmap=plt.cm.Spectral)
  8. plt.title('make_moons generating nonlinear data points')
  9. plt.show()


  
  1. #设计一个简单的人工神经网络:输入两个值,输出0或1,即第一类还是第二类,但DNN其实获得是概率,如属于0的概率是42% 。只包含一层隐藏层,即只对样本点做交集而不做并集
  2. #激活函数选择tanh函数,采用softmax分类器(LR的多分类),并且用互熵损失作为损失函数。BP计算梯度采用SGD算法
  3. num_examples = len(X) # 样本数
  4. nn_input_dim = 2 # 输入的维度
  5. nn_output_dim = 2 # 输出的类别个数
  6. # 梯度下降参数
  7. epsilon = 0.01 # 学习率
  8. reg_lambda = 0.01 # 正则化参数
  9. # 定义损失函数,以便使用梯度下降算法
  10. def calculate_loss(model):
  11. W1, b1, W2, b2 = model['W1'], model['b1'], model['W2'], model['b2'] #因为隐藏层有500个神经元,故b1是500维
  12. # 向前推进,前向运算
  13. z1 = X.dot(W1) + b1
  14. a1 = np.tanh(z1)
  15. z2 = a1.dot(W2) + b2
  16. exp_scores = np.exp(z2)
  17. probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True) #计算的属于哪一类的是概率
  18. # 计算损失
  19. corect_logprobs = -np.log(probs[range(num_examples), y])
  20. data_loss = np.sum(corect_logprobs)
  21. # 也得加一下L2正则化项
  22. data_loss += reg_lambda/2 * (np.sum(np.square(W1)) + np.sum(np.square(W2)))
  23. return 1./num_examples * data_loss
  24. # 建立3个隐层的神经网络
  25. model = build_model(3, print_loss=True)
  26. # 然后再把决策/判定边界画出来
  27. plot_decision_boundary(lambda x: predict(model, x))
  28. plt.title("Decision Boundary for hidden layer size 3") #即是由500个神经元(段直线),去交集得出的曲线
  29. plt.show()

 


  
  1. # 然后观察不同的隐藏层个数(1, 2, 3, 4, 5, 20, 50)对结果的影响
  2. plt.figure(figsize=(16, 32))
  3. hidden_layer_dimensions = [1, 2, 3, 4, 5, 20, 50]
  4. for i, nn_hdim in enumerate(hidden_layer_dimensions):
  5. plt.subplot(5, 2, i+1)
  6. plt.title('Hidden Layer size %d' % nn_hdim)
  7. model = build_model(nn_hdim)
  8. plot_decision_boundary(lambda x: predict(model, x))
  9. plt.show()

 

 

相关文章推荐

DL之LoR&DNN:Neural_network_example绘制非线性数据集点的决策边界

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/82155789

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。