机器学习算法——线性回归
【摘要】
最近一直在学机器学习,但感觉学习效率低,理解不深入,所以想通过写博客总结来加深自己的理解,写一下我的理解过程, 也希望能帮到其他人。 现在过头来看,线性回归其实是机器学习最简单的算法了,所以大部...
最近一直在学机器学习,但感觉学习效率低,理解不深入,所以想通过写博客总结来加深自己的理解,写一下我的理解过程, 也希望能帮到其他人。
现在过头来看,线性回归其实是机器学习最简单的算法了,所以大部分机器学习的课程都拿它开刀。为什么之前一直都觉得机器学习算法比数据结构什么的那些算法难很多呢,我觉得是机器学习算法背后涉及的数学知识比较多,就比如线性回归,涉及到矩阵乘法、求逆,函数求导,其他算法再加上一个概率论。如果你觉得机器学习算法学起来比较吃力,建议还是回顾下数学。
线性回归的用途我就不再多说了,直接开始。其实整个算法都围绕下面这一个公式,我们其实是想用一条线来表示出X和y之间的变化关系。我们有测试数据X,和其对应的结果y,其实就是想知道theta。假设X,y不是一个向量,只是一个数,theta就很好求了,直接y/X就得到theta了。但在机器学习中,theta不是简单的一个值,而是由多个值组成的向量。
y=hθ(x)
J(θ)=∑i=1m(hθ(xi)−yi)2
y=θTX
错误
θT=y∗X−1
θ=(XTX)−1XTy
文章来源: xindoo.blog.csdn.net,作者:xindoo,版权归原作者所有,如需转载,请联系作者。
原文链接:xindoo.blog.csdn.net/article/details/54628829
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)