Stacking集成学习挑战天池新人赛【工业蒸汽量预测 】 (3) 初级学习模型构建
【摘要】 本项目暂时选取RandomForestRegressor,GradientBoostingRegressor和xgboost三种模型作为初级学习模型。导入所需库from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressorimport xgboost as xgb设置参数# RandomForest...
本项目暂时选取RandomForestRegressor,GradientBoostingRegressor和xgboost三种模型作为初级学习模型。
导入所需库
from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressor import xgboost as xgb
设置参数
# RandomForest parameters rf_params = { 'n_estimators': 100, 'max_depth': 8 } # GradientBoosting parameters gb_params = { 'n_estimators': 100, 'max_depth': 8 } # xgboost parameters xgb_params = { 'n_estimators': 100, 'max_depth': 8, 'eval_metric': 'rmse' }
构建模型
rf_model = SklearnHelper(clf=RandomForestRegressor, seed=0, params=rf_params) gb_model = SklearnHelper(clf=GradientBoostingRegressor, seed=0, params=gb_params) # XGB分为原生接口和Sklearn接口,下面是基于Sklearn的接口, 方便后面GridSearchCV调参 xgb_model = SklearnHelper(clf=xgb.XGBRegressor, params=xgb_params)
通过交叉验证的方式训练并获取次级训练、测试的数据集
rf_oof_train, rf_oof_test = get_oof(rf_model, train_x, train_y, test_x) gb_oof_train, gb_oof_test = get_oof(gb_model, train_x, train_y, test_x) xgb_oof_train, xgb_oof_test = get_oof(xgb_model, train_x, train_y, test_x)
下一篇介绍次级学习模型的构建
【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)