机器学习进阶 第二节 第五课
【摘要】
回归算法之回归
概述sklearn.linear_model.Ridge方法属性
概述
具有 L2 正则化的线性最小二乘法. 岭回归是一种专用于共线数据分析的有便估计回归方法, 实质上是一...
概述
具有 L2 正则化的线性最小二乘法. 岭回归是一种专用于共线数据分析的有便估计回归方法, 实质上是一种改良的最小二乘估计法, 通过放弃最小二乘法的无偏性, 以损失部分信息, 降低精度为代价获得回归系数更为符合实际, 更可靠的回归方法, 对病态数据的拟合要强于最小二乘法. 当数据集中存在共线性的时候, 岭回归就会有用.
sklearn.linear_model.Ridge
class sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0.001, solver='auto', random_state=None)**
"""
:param alpha:float类型,正规化的程度
"""
- 1
- 2
- 3
- 4
from sklearn.linear_model import Ridge
clf = Ridge(alpha=1.0)
clf.fit([[0, 0], [0, 0], [1, 1]], [0, .1, 1]))
- 1
- 2
- 3
方法
score(x, y, smple_weight=None)
clf.score()
- 1
属性
coef_
clf.coef_
array([ 0.34545455, 0.34545455])
- 1
- 2
intercept_
clf.intercept_
0.13636...
- 1
- 2
文章来源: iamarookie.blog.csdn.net,作者:我是小白呀,版权归原作者所有,如需转载,请联系作者。
原文链接:iamarookie.blog.csdn.net/article/details/111310392
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)