ML之DT之CART:分类与回归树CART算法的简介、应用、经典案例之详细攻略

举报
一个处女座的程序猿 发表于 2021/03/31 01:09:16 2021/03/31
【摘要】 ML之DT之CART:分类与回归树CART算法的简介、应用、经典案例之详细攻略     目录 分类与回归树CART算法简介 1、CART原理—比较ID3、C4.5 2、CART算法描述 CART算法的案经典案例     分类与回归树CART算法简介        分类与回归树(Classification and Regression Trees, C...

ML之DT之CART:分类与回归树CART算法的简介、应用、经典案例之详细攻略

 

 

目录

分类与回归树CART算法简介

1、CART原理—比较ID3、C4.5

2、CART算法描述

CART算法的案经典案例


 

 

分类与回归树CART算法简介

       分类与回归树(Classification and Regression Trees, CART)是由Leo Breiman, Jerome Friedman, Richard Olshen与Charles Stone于1984年提出,既可用于分类也可用于回归。
       CART是决策树的一个实现方式,由ID3,C4.5演化而来,是许多基于树的bagging、boosting模型的基础。CART可用于分类与回归。

 

1、CART原理—比较ID3、C4.5

       CART是在给定输入随机变量x条件下输出随机变量y的条件概率分布。与ID3和C4.5的决策树所不同的是,ID3和C4.5生成的决策树可以是多叉的,每个节点下的叉数由该节点特征的取值种类而定,比如特征年龄分为(青年,中年,老年),那么该节点下可分为3叉。
       而CART为假设决策树为二叉树,内部结点特征取值为“是”和“否”。左分支取值为“是”,右分支取值为“否”。这样的决策树等价于递归地二分每一个特征,将输入空间划分为有限个单元,并在这些单元上预测概率分布,也就是在输入给定的条件下输出条件概率分布。

 

2、CART算法描述

其中T代表当前样本集,当前候选属性集用T_attributelist表示。

(1)创建根节点N
(2)为N分配类别
(3)if T都属于同一类别or T中只剩下 一个样本则返回N为叶节点,否则为其分配属性
(4)for each T_attributelist中属性执行该属性上的一个划分,计算此划分的GINI系数
(5)N的测试属性test_attribute=T_attributelist中最小GINI系数的属性
(6)划分T得到T1 T2子集
(7)对于T1重复(1)-(6)
(8)对于T2重复(1)-(6)

 

 

CART算法的案经典案例

ML之RF:利用Js语言设计随机森林算法【DT之CART算法(gain index)】&并应用随机森林算法

 

 

相关文章
人工智能之CART算法

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/89222341

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。