CART
发布日期:2021-05-09 14:26:28 浏览次数:19 分类:精选文章

本文共 384 字,大约阅读时间需要 1 分钟。

分为回归树和分类树

CART前提是采用的二叉树决策树,不论是回归还是分类都是是/否
1。回归树
假设把输入空间划分,每个空间单元有一个固定的输出值,模型表示为:
在这里插入图片描述
易知每个单元Rm熵的固定输出值Cm最优值为样本在此单元上输出的均值。
在确定模型中采用了平方误差来进行误差确定
在这里插入图片描述
j是特征j,s是特征j对应的一个取值(就是要确定怎样划分空间,用什么特征,特征中的那个值)
在这里插入图片描述[ ] 里面的就是二叉树的两部分,两部分最小化误差,那么根据求导可知:
c1 = R1中y的均值,c2同理
在这里插入图片描述这样得到两个划分,再对这两个继续划分,最后得到回归树
回归树本质在于采用平方损失,找到划分的特征和取值

2。分类树

注意区别,这里由于是二叉树,对于特征取值多的,采用特征 = 1是不是这样的方式进行分叉
特征划分标准:基尼指数

在这里插入图片描述在这里插入图片描述在这里插入图片描述生成分类树的方法就是:

在这里插入图片描述就看G(D,A)哪个小选择哪个作为分类特征

上一篇:提升树 & GBDT
下一篇:boosting&Adaboost

发表评论

最新留言

很好
[***.229.124.182]2025年04月19日 06时42分27秒