机器学习:支持向量机
发布日期:2021-07-01 04:10:24 浏览次数:2 分类:技术文章

本文共 596 字,大约阅读时间需要 1 分钟。

支持向量机

优化目标

与逻辑回归相似。

在这里插入图片描述

直观上对大间隔的理解

要想优化损失函数,不仅需要大于 0,更需要大于 1 才可以。

在这里插入图片描述

在这里插入图片描述

大间隔的数学原理

间隔越大,X 到 θ 的投影越大,损失函数越小。

在这里插入图片描述

核函数

  1. 选择标记点(样本)
  2. 高斯核函数

在这里插入图片描述

  1. 使用核函数的 SVM 的损失函数

在这里插入图片描述

偏差方差折中

C=1/λ

  • C 越大:高偏差,低方差(过拟合)
  • C 越小:低偏差,高方差(欠拟合)

σ^2

  • σ^2 越大,f 越平缓,高偏差,低方差(过拟合)
  • σ^2 越小,f 不平缓,低偏差,高方差(欠拟合)

使用 SVM

  • 选择 C
  • 选择核函数(符合默瑟定理,Mercer’s Theorem)
    • 高斯核函数
    • 线性核函数(无核函数)
    • 多项式核函数
    • 字符串核函数
    • 卡方核函数
    • 直方相交核函数

SVM 和逻辑回归的选择

N 个特征,M 个样本

  • N 对于 M 很大:逻辑回归或者无核 SVM
  • N 很小,M 适中:高斯核 SVM
  • N 很小,M 很大:增加更多的特征,然后使用逻辑回归或者无核 SVM

SVM 不需要解决局部最优的问题,神经网络可以解决几乎所有的问题,但是训练速度比 SVM 慢。

其他

  • 软间隔的 SVM

对于线性不完全可分的情况,引入软间隔的SVM,即允许某些样本不满足约束。

在这里插入图片描述

  • 支持向量回归 SVR

传统回归:f(x)与y完全相等时损失为0;

SVR: f(x)与y的差异大于一定值时才计算损失,落入间隔带中不计算损失。

在这里插入图片描述

转载地址:https://mortal.blog.csdn.net/article/details/91555822 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:机器学习:绪论
下一篇:机器学习:神经网络

发表评论

最新留言

留言是一种美德,欢迎回访!
[***.207.175.100]2024年04月24日 23时30分36秒

关于作者

    喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!

推荐文章