虽然对称支持向量机(Twin Support Vector Machine,TWSVM)比传统SVM的运行效率提高了大约4倍,但为进一步降低TWSVM的计算复杂度,学者们提出了不同的解决方案。Kumar等[149]提出了最小二乘对称支持向量机(LSTWSVM),该方法通过求解两个线性方程代替求解QPPs,提高了算法的效率,但该算法对噪声比较敏感;Wang等[150]为提高LSTWSVM算法的分类精度和计算效率在LSTWSVM中引入了流形正则项,提出了ManLSTWSVM算法,该方法的优点是通过直接求解两个线性方程得到两个超平面;Qi[151]为了利用数据的结构信息中隐含的先验领域知识,提出了结构化对称支持向量机,该方法与一般的利用数据结构的信息不一样,它只考虑一个类的结构化信息,与一般方法相比,该方法可充分利用数据结构信息中隐含的先验领域知识直接提升算法的泛化能力和效率;Shao等[161]在TWSVM基础上提出了边界对称支持向量机(Twin Bounded Support Vector Machines,BSVM),该方法也是通过求解两个较小的QPPs构建两个非平行的超平面,但该方法与TWSVM的不同之处在于TBSVM的原始问题中引入了正则项,同时也引入两个参数控制正则项和经验风险,并通过SOR算法对其求解,运算速度更快,泛化性能更好,然而,在TBSVM中需要确定4个参数,且它们对TBSVM的性能影响很大;Ding等[153]提出的多项式平滑对称支持向量机,该方法采用级数展开,并且多项式函数被用来将原始的带约束的二次规划问题转化为无约束的最小化问题;为了能够将对称支持向量机应用到大规模回归问题中,Singh等[154]提出了核减少的对称支持向量机回归机(Reduced twin support vector regression,RTSVR),该方法主要是通过核减少技术来提高算法的效率。(www.xing528.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。