《统计学习方法》提升方法
发布日期:2022-02-27 02:37:59 浏览次数:56 分类:技术文章

本文共 452 字,大约阅读时间需要 1 分钟。

目录

一、提升方法

提升方法的 思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断好(“三个臭皮匠顶一个诸葛亮”)

那么,提升方法就有两个问题需要解决:

  1. 在每一轮训练中,如何改变训练数据的权值或概率分布?
  2. 如何将在训练集上学到的多个弱分类器组合成一个强分类器?

二、AdaBoost 算法

基于该思想,许多提升方法被提出,其中最具代表性的有 AdaBoost 算法,该算法针对这两个问题的做法是:

  1. 每一轮训练结束后,提高被错误分类样本的权值,降低被正确分类样本的权值;
  2. 加大分类误差率小的弱分类器的权值;减小分类误差率大的弱分类器的权值

AdaBoost 算法的三个基本要素满足下表时,可以被理解为二类分类学习方法

模型 策略 方法
加法模型 指数损失函数 L = exp (-y * f(x) ) 前向分步算法

三、提升树(boosting tree)

提升树是一种加法模型,将不同的决策树根据不同的权重组成,是 AdaBoost 算法的一种特殊情况

转载地址:https://blog.csdn.net/weixin_43399464/article/details/121195908 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:打印叶节点到根的路径
下一篇:[maven学习笔记(九)] 使用 eclipse 的 maven 插件

发表评论

最新留言

感谢大佬
[***.8.128.20]2024年04月09日 13时10分30秒