【摘要】:基于核的算法包括核岭回归、支持向量机、核主成分分析等。在20世纪90年代,Vapnik等根据统计学习理论提出的支持向量机学习方法[6]。支持向量机的最大特点是针对结构风险最小化原则提出的,改变了传统的经验风险最小化原则,因此具有很好的泛化能力。
多层前馈网络提供了一种有效的处理非线性的方法,从而为复杂的非线性系统逼近问题提供了有效的解决途径。核方法(Kernel Methods)是另一种处理非线性的手段,由于基于核的学习机与其他前馈网络处理方式不同。
核方法的实质是通过将原始空间的问题通过某种非线性转换映射到特征空间,从而可在特征空间进行计算。在通过核函数产生隐含的特征空间中,利用线性技术可以设计出非线性的信息处理算法。实际上,在特征空间只要使用内积操作即可完成大部分工作,利用核函数的原因在于特征空间的内积可以通过核函数直接求取[5],也就是说并不需要实际求取内积。基于核的算法包括核岭回归、支持向量机、核主成分分析等。(www.xing528.com)
在20世纪90年代,Vapnik等根据统计学习理论提出的支持向量机学习方法[6]。非线性支持向量机是核方法和统计学习理论(Statistical Learning Theory,SLT)相结合的产物,近年来受到了国际学术界的重视,并且已经广泛用于解决分类和回归问题。将支持向量机应用于解决回归问题,即支持向量回归(Support Vector Regression,SVR)[7,8]。支持向量机的最大特点是针对结构风险最小化原则提出的,改变了传统的经验风险最小化原则,因此具有很好的泛化能力。另外,支持向量机是一种基于核的学习算法,它将非线性问题转化为高维空间中的线性问题,然后用一个核函数来代替高维空间中的内积运算,从而巧妙地解决了复杂计算问题,有效地克服了维数灾难及局部极小问题。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。