4 朴素贝叶斯法
发布日期:2021-06-29 18:40:47 浏览次数:3 分类:技术文章

本文共 1448 字,大约阅读时间需要 4 分钟。

文章目录

  • 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类
    方法
  • 对给定的训练数据集,先基于特征条件独立假设学习输入输出的联合
    概率分布;
    • 然后基于此模型,
    • 对给定输入 x x x,用贝叶斯定理求出后验概率最大的输出 y y y.
    • 朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种常用的方法

  • 本章朴素贝叶斯法,
    • 包括朴素贝叶斯法的学习与分类、朴素贝叶斯法的参数估计算法

4.1 朴素贝叶斯法的学习与分类

4.1.1 基本方法

  • 输入空间 X ⊆ R n \mathcal{X}\subseteq R^n XRn
  • 输出空间为类标记集合 Y = { c 1 , . . . , c K } \mathcal{Y}=\{c_1,...,c_K\} Y={
    c1,...,cK}
  • 特征向量 x ∈ X x\in\mathcal{X} xX,输出为类标记( class label) y ∈ Y y\in\mathcal{Y} yY
  • X X X是输入空间况上的随机向量, Y Y Y是输出空间上的随机变量
  • P ( X , Y ) P(X,Y) P(X,Y) X X X Y Y Y的联合概率分布,
    • 训练数据集

T = { ( x 1 , y 1 ) , . . . , ( x N , y N ) } T=\{(x_1,y_1),...,(x_N,y_N)\} T={

(x1,y1),...,(xN,yN)}

  • P ( X , Y ) P(X,Y) P(X,Y)独同产生

  • 朴素贝叶斯法通过训练数据集学习联合概率分布 P ( X , Y ) P(X,Y) P(X,Y)
  • 学习先验概率分布

在这里插入图片描述

  • 条件概率分布

在这里插入图片描述

  • 于是学到联合概率分布 P ( X , Y ) P(X,Y) P(X,Y)

  • 条件概率 P ( X = x ∣ Y = c k ) P(X=x|Y=c_k) P(X=xY=ck)有指数级数量的参数,
    • 其估计实际是不可行的
  • x ( j ) x^{(j)} x(j)可取值有 S j S_j Sj个, j = 1 , 2 , . . . , n j=1,2,...,n j=1,2,...,n,
    • Y Y Y可取 K K K个,
    • 那么参数个数 K ∏ j = 1 n S j K\prod_{j=1}^n S_j Kj=1nSj

  • 朴素贝叶斯法对条件概率分布作了条件独立性的假设.
  • 这是个较强假设,朴素贝叶斯法由此得名

在这里插入图片描述

  • 朴素贝叶斯法实际上学习到生成数据的机制,属生成模型.
  • 条件独立假设:
    • 用于分类的特征在类确定的条件下都是条件独立的.
    • 这一假设使朴素贝叶斯法变得简单,但牺牲分类准确率

  • 朴素贝叶斯法分类时,对输入 x x x,
    • 通过学习到的模型计算后验概率分布 P ( Y = c k ∣ X = x ) P(Y=c_k|X=x) P(Y=ckX=x)
    • 将后验概率最大的类作为 x x x的类输出
    • 后验概率根据贝叶斯定理

在这里插入图片描述

  • 于是,朴素贝叶斯分类器可表示为

在这里插入图片描述

4.1.2后验概率最大化的含义

  • 朴素贝叶斯法将实例分到后验概率最大的类中.
    • 这等价于期望风险最小化.
  • 设0-1损失函数

在这里插入图片描述

  • 这时,期望风险函数为

在这里插入图片描述

  • 期望是对联合分布 P ( X , Y ) P(X,Y) P(X,Y)取的,
    • 由此取条件期望

在这里插入图片描述

  • 为使期望风险最小化,只需对 X = x X=x X=x逐个极小化,
  • 由此得到:

在这里插入图片描述

  • 根据期望风险最小化准则就得到了后验概率最大化准则

在这里插入图片描述

  • 即朴素贝叶斯法所采用的原理

here

转载地址:https://cyj666.blog.csdn.net/article/details/104846197 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:8 提升方法
下一篇:9 前向NN

发表评论

最新留言

网站不错 人气很旺了 加油
[***.192.178.218]2024年04月19日 15时44分50秒