支持向量机采用结构风险最小化准则来代替经验风险最小化,在解决有限样本的数据分类问题时具有较强的推广能力,能有效解决神经网络的过学习现象;支持向量机的关键在于核函数,通过选择适当的核函数,将低维空间向量映射到高维空间,从而将非线性空间的问题转换到线性空间,降低了算法的复杂度,巧妙地解决了非线性分类问题和“维数灾难”问题,使得算法复杂度与样本维数无关;由于支持向量机将分类问题归结为一个凸二次规划问题,从理论上讲,可以得到全局最优解,避免了局部极值问题。
随着支持向量机理论的深入研究,出现了许多变形支持向量机[94,99]:如Suykens于1999年提出了最小二乘支持向量机(LS-SVM)[100],其模型中的优化指标采用了平方项,只有等式约束,从而简化了计算复杂性;Scholkopf于2000年提出了ν-SVM,其中ν参数具有实际的意义[101];为克服标准支持向量机对噪音敏感,Tsang等于2003年提出了模糊支持向量机(FSVM)[102];Tsujinishi和Shigeo Abe又于2003年给出了模糊最小二乘支持向量机(FLSSVM)[103];Strack,R等于2013年结合最小封闭球算法提出了球支持向量机,有效地加快了分类算法的速度[104];Hwang等人将主要应用于两分类问题的支持向量机扩展到多分类问题中,并提出了多分类拉格朗日支持向量机[105];Shao,YH等人提出了改进的广义特征值最接近的支持向量机(IGEPSVM),改进了广义特征值的分解,防止奇异点的产生[106]。
在应用方面,由于支持向量机建立在严格的数学理论基础之上,并较好地解决了非线性、高维数、局部极小点等问题,与其他方法相比具有明显的优势,在实际问题中得到了广泛的应用[107]。支持向量机不仅在文本识别[108]、图像处理[109]和语音识别[110]等模式识别领域表现出了较强的性能,与其他方法相比具有明显的优势,另外在经济、社会、工程等多领域也有不俗的表现,如商业分析[111]、生物医学[112]、工业工程[113]、经济预测[114]、航天科技[115]、能源预测[94]等,得到了较好的效果。(www.xing528.com)
支持向量机具有较完备的理论基础和较好的学习性能,在解决有限样本、非线性及高维模式识别问题中表现出许多特有的优势,同时具有简洁的数学形式和直观的几何解释,人为设定的参数少,便于理解和使用,成为近年来机器学习领域新的研究热点。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。