首页 理论教育 人机共驾智能车辆行为决策算法解决多分类问题

人机共驾智能车辆行为决策算法解决多分类问题

时间:2023-08-18 理论教育 版权反馈
【摘要】:图6-5多分类支持向量机原理由于本研究中需进行决策的驾驶模式包括人工驾驶、警示辅助驾驶和自动驾驶3 种,所以共需产生3 个子分类器即可解决该多分类问题。

人机共驾智能车辆行为决策算法解决多分类问题

6.4.1.1 二分类支持向量机(SVM)

支持向量机(Support Vector Machine,SVM)由Vapnik 等人于1995 年首次提出的一种用于分类识别和决策算法[101]。由于该方法相较于神经网络决策树和贝叶斯网络等具有更高的分类精度(尤其是对小样本数据)、建模原理简单等特点,自其被提出后就被广泛应用于数学、工程等多领域。而本研究中驾驶模式决策识别的数据量较小,且对模型的精度要求较高,所以拟采用该方法进行不同驾驶模式决策的识别[102]

SVM 算法的基本原理是通过建立一个最优分类超平面作为决策曲面,该平面能够使得样本中正例和反例之间的间隔边缘最大化。然后将分类问题转化成一个凸二次规划问题,对于小规模的凸二次规划问题,可以采用内点法、牛顿法等经典的优化方法便可以很好地求解。其数学表达方式如下[103]

给定一个训练样本集( xi , yi ), i=1,2, …, l ,x ∈R n ,y ∈{± 1},如果训练集是线性可分的,则存在一个这样的超平面,在二维的情况下,该超平面能够将训练集分为正负两类。同时,根据统计学理论可知,如果该超平面为最优的话,它不仅能够有效地将两类样本分开,还能够保证分类间隔达到最大[104]。其划分过程如图6-4 所示。

图6-4 中,圆形点和三角形点分别代表正负两类样本,H0 为分类线,对于给定的划分函数法向量ω,存在两条极端的直线H1 和H2,其中H1 是过各类中离H0 最近的样本的直线,H2 是平行于H0 的直线,H0 与H2 之间的距离或者H0 与H1 之间的距离称作为分类间隔。而最优分类直线不但要求其能够将两个不同的类分开,而且须使得分类间隔达到最大,则分类直线方程可表示为

图6-4 最优分类超平面示意图

经计算可知两极端直线间的距离为

,根据极大化间隔思想可以将上述问题转化为求解ω 和b 的最优化问题:,即分类间隔为

当存在分类平面使得取值最小时,我们称该分类平面为最优分类平面,而H1 和H2 上的样本点我们称之为支持向量。

考虑到分类器误差损失情况,需引入非负松弛变量ξi≥0, i=1,2, …,l ,则公式(6-4)可以转化为

式中,C 为惩罚因子;C 值越大表示进行错误分类时的惩罚将越大,因此该参数的选择对结果的优劣影响很大。

根据拉格朗日乘子法进行运算,优化的核心问题可以用公式(6-6)进行描述:

式中,L (α )为拉格朗日函数;α i和α j表示拉格朗日乘子;K ( xi , x j)为核函数。常用的核函数主要包括以下几种:

(1)线性内核函数:(www.xing528.com)

(2)多项式内核函数:

(3)径向基(RBF)内核函数:

本研究拟选用径向基函数作为核函数进行模型构建,最终得到优化函数:

根据式(6-10)可实现对预测样本所属类别进行判断。

6.4.1.2 多分类支持向量机(M-SVM)

SVM 最初是针对二分类问题而提出的,但是考虑到实际生活中的应用普遍多为多分类问题,如何使用SVM 解决多分类问题是近年来专家学者们研究的重点和难点问题。目前多分类支持向量机(Multi-class Support Vector Machine,M-SVM)算法的设计思路主要包括以下两种:

(1)在传统SVM 算法的基础上通过对目标函数的优化来构建多分类模型,进而解决多分类问题。这种算法为一次性求解方法,优点是结构简单,缺点是算法的计算复杂度很高,导致其运行效率较低,实用性不强。

(2)M-SVM 的另一种思路是将多分类问题分解为若干个二分类问题,然后对这些二分类问题进行优化求解。这种思路极大地减小了算法的复杂度,同时也能够充分发挥支持向量机在解决分类识别问题中的优越性。所以基于该思路进行算法设计和优化的算法得到了快速发展。目前,常用的算法包括一对一(One Against One)、一对多(One Against Rest)、导向无环图(the Directed Acyclic Graph,DAG)等。其中,当样本量较小时,一对一支持向量机分类法计算效率高,应用更为广泛[105],所以本研究采用一对一多分类支持向量机进行决策模型构建,则智能车驾驶模式决策支持向量机建模原理如图6-5 所示。

图6-5 多分类支持向量机原理

由于本研究中需进行决策的驾驶模式包括人工驾驶、警示辅助驾驶和自动驾驶3 种,所以共需产生3 个子分类器即可解决该多分类问题。所以,多分类问题可转化为在式(6-11)、(6-12)和(6-13)

的条件下,求解式(6-14)

的最小值。

通过对训练样本进行学习,形成一个能够用于对测试样本进行评价的投票策略,然后采用“投票法”确定测试样本所属类别。“投票法”的实现过程为:首先将待测样本输入所构建的二分类器中,计算sgn[(ω ij) TΦ( x ) + b],若测试样本x 的判定结果为i 类,则给i 类加一票。反之则给j 类加一票。待所有二分类器完成对测试样本的判别后,再对得票数进行比较,最后测试样本的类别属于得票较多的那一类。

此外,本研究使用遗传算法对M-SVM 模型中的惩罚系数C 和RBF 核函数参数σ 进行优化[106]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈