该实验通过UCI数据集来对比提出的方法相对其他几种方法存在的性能优势。对于每一个数据集,随机选择一部分数据作为训练样本集,剩余的作为测试集。在实验中,TWSVM的对偶QPPs采用matlab mosek优化工具箱求解[160],该方法是基于快速内积运算的算法;传统的SVM求解采用LIBSVM工具箱[161]。每个算法的分类精度是由标准的10拆交叉验证方法进行测定。
表5.4 采用线性核函数的分类结果
Table 5.4 The classification results based on linear kernel
续表
表5.4展示了线性分类情况下,STWSVM和TWSVM,SSVM以及SVM在10个UCI数据集上的分类准确率和训练时间的对比。对于这些数据集,采用SVM的最优参数组合C/σ来评估其分类准确率,最优参数是在[2-10,210]中搜索而获得。对于TWSVM和STWSVM,对惩罚参数的优化采用网格搜索法,并且搜索的区间也是[2-10,210]。
表5.5给出了非线性分类情况下,STWSVM和TWSVM,SSVM以及SVM在5个UCI数据集上的分类准确率和训练时间的对比情况。最优惩罚参数,如在TWSVM和STWSVM中的ci(i=1,2),SSVM和SVM中的C,以及核函数的参数σ都是在区间[2-10,210]被调整为最优参数。在这里采用网格搜索方法。具体的实验结果列在表5.5中,其中,黑体字表示最优的结果。
表5.5 采用非线性核函数的分类结果
Table 5.5 The classification results based on Gaussian kernel
从表5.4和5.5可以发现TWSVM的性能要优于SVM,与文献[102]中的结果一致。在大部分数据集上,STWSVM和TWSVM的分类准确率要明显高于SSVM。并且SSVM比SVM的计算速度要快,具有更好的泛化性能。对比STWSVM和TWSVM,可以发现虽然对目标函数进行了稍微的修改,但是STWSVM的分类准确率和TWSVM几乎一样。实际上,在一些数据集上,STWSVM与TWSVM相比,要么是优于,要么是具有相当的泛化能力。
为了验证核减少的STWSVM(RSTWSVM)在处理大规模数据问题上的性能(包括计算时间和分类准确率),采用David Musicant生成的NDC数据集。对于实验中的NDC数据集,设定所有算法的惩罚参数都等于1(即C=1,c1=1和c2=1);高斯核函数的参数设定为δ=2-10。
表5.6 线性分类情况比较
Table 5.6 Comparison for linear kernel(www.xing528.com)
a Experiments ran out of memory
表5.6给出了在线性分类情况下,4种方法分类准确率和训练时间的对比情况。STWSVM的运行时间比TWSVM要快好几个数量级,且在大部分数据集上具有更高的分类准确率。STWSVM的运算速度要远快于TWSVM。当数据集的规模为10 000时,TWSVM出现了内存不足的情况。因为即使TWSVM采用的是线性核函数,它仍然需要求解两次逆矩阵,而STWSVM不需要,只需求解原始问题。
表5.7阐述了在非线性分类情况下,4种算法在5个NDC数据集上关于计算时间和分类准确率的比较情况。在计算时间方面,STWSVM,TWSVM和SSVM的计算时间几乎相当,且都快于SVM。因为SVM需要求解一个大的QPP,其时间复杂度不高于m3,而TWSVM求解的是两个小的QPPs,每一个的大小为m/2。进一步可以发现STWSVM需要的计算时间最少,然而获得的计算优势没有采用线性核函数情况下高。
表5.7 非线性分类情况比较
Table 5.7 Comparison for Gaussian kernel
表5.8阐述了在非线性分类情况下,STWSVM,TWSVM和SVM在4个NDC数据集上关于计算时间和分类准确率的比较情况,并将核减少技术应用了这3种方法中。其主要目的是降低非线性情况下的计算复杂度。在NDC-3k数据集上采用减少率10%的情况,STWSVM几乎比TWSVM快7倍;在NDC-5k数据集上采用减少率10%的情况,STWSVM几乎比TWSVM快8倍。对于NDC-10k和NDC-50k数据集,由于内存不足,所以没有对TWSVM和SVM的实验结果进行说明。实验结果表明STWSVM的泛化能力要比TWSVM更好,特别是在采用核减少技术后。同时,也表明,当采用核减少技术后,STWSVM比TWSVM的计算速度要快很多。原因是即使采用了核减少技术,TWSVM仍需求解两个QPPs。
表5.8 对比应用核减少技术
Table 5.8 Comparison for reduced Gaussian kernel
a Experiments ran out of memory
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。