svr的理解
发布日期:2021-05-06 21:46:17 浏览次数:23 分类:精选文章

本文共 395 字,大约阅读时间需要 1 分钟。

昨天突然想到svm与svr的区别是啥呢?

一时突然答不上来,只想到支持向量,最大间隔,然后就很疑惑那条最大分类间隔线怎么起作用呢,怎么回归?

分析:回归的本质:就是分析特征变量与目标变量之间的关系的过程;比如说线性回归,就是在图形上画出一条线来尽可能拟合所有样本点;非线性回归,可以不用直线来尽可能拟合所有样本点,如果算法结构够强大,可以拟合到每一个点;说白了,回归就是让曲线穿越每一个点;

最简单的线性回归模型是要找出一条直线使得残差最小,最好的就是残差为0,完美拟合;对于高维的就是超平面,使得所有数据到这个超平面的距离最小,其实就是残差最小;一样的概念;

个人认为:svr也是回归问题,它的本质属性不再是原有的支持向量(最大间隔的方法)了,而是属于svm的独有损失函数,会用一个区域(虚线与实线合成的)来拟合,很粗的线条,再加上一些核函数;但最终结果是一个曲线函数,如下图中的实体线;

上一篇:svm的三层境界
下一篇:linux安装tf-gpu注意事项

发表评论

最新留言

感谢大佬
[***.8.128.20]2025年03月23日 12时31分20秒