机器学习(二十八):灰狼优化算法对神经网络的优化
【摘要】
基础理论就在这里不讲解了,本文实战为主。相关理论与参考文献,请看以下部分:
https://www.mathworks.com/matlabcentral/fileexchange/44974-gr...
基础理论就在这里不讲解了,本文实战为主。相关理论与参考文献,请看以下部分:
- https://www.mathworks.com/matlabcentral/fileexchange/44974-grey-wolf-optimizer-gwo?s_tid=FX_rc3_behav
- https://www.sciencedirect.com/science/article/abs/pii/S0965997813001853?via%3Dihub
大家知道,使用反向传播对神经网络进行训练是非常有效的。但如果网络参数的初始值设得不好时,各位可能也有过训练十分缓慢的经历。这里提供一种加快反向传播的算法,目的是在训练神经网络时不使用反向传播以及梯度下降算法,而是用灰狼优化算法对网络参数进行初始化,之后可以再次使用反向传播对网络进行正式训练。
本文主要是用Python实践完成,在上述提供的讲解中有Matlab代码,感兴趣自己实践。
一、数据集
创建了一个小型网络来模拟 Pima Indians 糖尿病二元分类问题的发作。
数据下载地址:
https://www.kaggle.com/datasets/kumargh
文章来源: chuanchuan.blog.csdn.net,作者:川川菜鸟,版权归原作者所有,如需转载,请联系作者。
原文链接:chuanchuan.blog.csdn.net/article/details/126626541
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)