ML之ME/LF:机器学习中回归预测模型评估指标之“调整的R2”的简介、原理、代码实现之详细攻略
ML之ME/LF:机器学习中回归预测模型评估指标之“调整的R2”的简介、原理、代码实现之详细攻略
目录
回归预测模型中常用的评估指标“调整的R2”的简介
R2是回归平方和与总平方和的比值。根据定义,它就是反应了回归方程对y的解释能力。在它基础上,又派生出一个调整确定系数,是因为在多元线性回归方程中,自变量个数的增加会引起余差平方和的减少,R2增大;因此,尽管有的自变量与y线性关系不显著,将其引入方程后,也会使R2增大。也就是说,R2本身还受自变量个数的影响。
因此,为了剔除自变量个数对R2的影响,让R2的大小只反应回归方程的拟合优度,引入了调整的R2,从其可以看出,调整的R2随k的增加而减小,(n是样本个数,在调查之后分析时,是固定的),可以识别自变量个数对R2的影响。
经验上,一般当k:n大于1:5时,R2会高估实际的拟合优度,这时,宜用调整后的R2来说明方程的拟合优度,也就是自变量对y的解释能力。
以上解释说明随意添加变量不一定能让模型实际拟合度上升,这个好理解。但是我的模型自变量个数是定的,而且也满足k:n<1.5,而是改变模型本身,那就是通过R2最大选择最优模型么?
进行线行回归时,R²为回归平方和与总离差平方和的比值,这一比值越大,表示总离差平方和中可以由回归平方和解释的比例越大,模型越精确,回归效果越显著。从数值上说,R²介于0~1之间,越接近1,回归拟合效果越好,一般认为超过0.8的模型拟合优度比较高。
R2和Adjusted R2有何种区别?不断添加变量,使模型变得复杂,R²会变大(模型的拟合优度提升,而这种提升是虚假的),Adjusted R²则不一定变大(随意添加变量不一定能让模型拟合度上升)
R2很小得谨慎,说明你选的解释变量解释能力不足,有可能有其他重要变量被纳入到误差项。可尝试寻找其他相关变量进行多元回归。
其实,很正常我还见过高级期刊发表的论文中还有R2不到5%的呢!一般样本如果很大,R2超过10%就很不错了。
显著但是R值小,要考虑不同的专业背景。
有的专业确实比较小,楼主的例子,我觉得这个大小就能接受了。
态度与行为之间的影响因素非常多,态度能解释行为11-15%已经不小了。
回归预测模型中常用的评估指标“调整的R2”的原理
更新中……
回归预测模型中常用的评估指标“调整的R2”的代码实现
-
n = len(LiR_predict_real); p = 1
-
-
LiR_predict_real_Adj_r2_score = 1-( (1-LiR_predict_real_score)*(n-1) ) / (n-p-1)
-
Adj r2 = 1-(1-R2)*(n-1)/(n-p-1)
参考文章
https://www.cnblogs.com/ykit/p/12501816.html
回归分析中R方和调整R方的区别
文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。
原文链接:yunyaniu.blog.csdn.net/article/details/123469289
- 点赞
- 收藏
- 关注作者
评论(0)