SVM(支持向量机)初探
这几天接触了一些关于图像分类的论文,发现其中大多都用到了SVM,于是上网找了一些SVM的资料,得出一些理解。
维基百科上用这句话来描述SVM:
支持向量机将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面。分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。
其实这句话不太完整:这是对于线
http://cyqdata.cn/cnblogs/article-detail-41737
Libsvm使用自定义核函数
Libsvm是是想了SVM算法的一个开源工具包(http://www.csie.ntu.edu.tw/~cjlin/libsvm/),我最近有一个实验要用到自定义核函数的Libsvm,其中网上有不少的matlab版本的使用自定义核函数矩阵的方法例如:http://www.shamoxia.com/html/y2011/3003.html。但是Java和C++版
http://cyqdata.cn/cnblogs/article-detail-40659
SVM学习——Sequential Minimal Optimization
1、前言 接触SVM也有一段时间了,从理论到实践都有了粗浅的认识,我认为SVM的发展可以划分为几个相对独立的部分,首先是SVM理论本身,包括寻找最大间隔分类超平面、引入核方法极大提高对非线性问题的处理能力、引入松弛变量的软间隔优化,用间隔定量的描述置信风险等等;其次是核方法理论的发展,它独立于SVM本身,这也同
http://cyqdata.cn/cnblogs/article-detail-38897
SVM学习——Coordinate Desent Method
前几篇侃了侃SVM的基本原理和一些相关知识,尤其是在SVM学习——软间隔优化这一篇,提到了SVM学习器的两种形式,常被叫做L1-SVM和L2-SVM,这两种形式的区别在损失函数的形式上,令训练样例为,取值为-1或+1, 软间隔优化的原始形式为: &n
http://cyqdata.cn/cnblogs/article-detail-3437