支持向量机(Support Vector Machine, SVM)是一种基于统计学习的模式识别的分类方法,主要用于模式识别。所谓支持向量指的是在分割区域边缘的训练样本点,机是指算法。就是要找到具有最大间隔的分隔面。实际上解决的是一个最优分类器设计的问题。
问题
目的:找到一个最优分类器,即找到一个分类器,使得分类间隔最大。
优化的目标函数:分类间隔,需要使得分类间隔最大。
优化对象:分类超平面(决策平面),通过调整分类超平面的位置,使得间隔最大,实现优化目标。
超平面(Hyperplane),指n维欧氏空间中余维度等于1的线性子空间。二维空间中为一条直线,三维空间中为一个二维平面。
间隔:支持向量对应点到分类超平面的垂直距离的两倍。即W =2d。
现在要做的是,在所有的样本点中,找到合适的支持向量,在保证分类正确的前提下,让间隔W = 2d最大。
再往后就是具体的求解推导的过程了,听听就行了。
对于线性不可分的情况,考虑将样本映射到更高维的空间中去,希望在这个高维空间中其线性可分。
例:一条直线上的两个不同分类的点也许不可分,将其映射到二维平面里也许就可以区分了。
如果原始空间是有限维,即属性数有限,一定存在一个高维特征空间使样本线性可分。
这就引出了核函数的概念。K(x, x’) = φ(x)·φ(x’)
当后者不容易求时,可找到一个函数K,即为核函数。
推导看不懂。
选择核函数无明确的指导原则,常用RBF,其次是线性核。
异常点造成的非线性,SVM允许在一定程度上偏离一下超平面。
SVM多分类
直接法:将多分类面的参数求解合并到一个最优化问题中。
间接法:组合多个二分类SVM分类器
有一对一法和一对多法。
下面来实践,还是使用iris数据。参考https://blog.csdn.net/u012679707/article/details/80501358
1 | import matplotlib.pyplot as plt |
结果:
训练集: 0.8555555555555555
测试集: 0.7
训练集比测试集结果好。
再画图看看。
1 | # 绘图 |
试一下把四列数据都进行建模的结果:
四列数据都进行建模的结果
训练集: 1.0
测试集: 0.95
结果很好。
接下来用这个方法解决一下泰坦尼克号问题吧。下次。
本文代码:
https://github.com/zwdnet/MyQuant/tree/master/21
我发文章的四个地方,欢迎大家在朋友圈等地方分享,欢迎点“在看”。
我的个人博客地址:https://zwdnet.github.io
我的知乎文章地址: https://www.zhihu.com/people/zhao-you-min/posts
我的博客园博客地址: https://www.cnblogs.com/zwdnet/
我的微信个人订阅号:赵瑜敏的口腔医学学习园地