首页 理论教育 监督学习法的原理和应用

监督学习法的原理和应用

时间:2023-06-29 理论教育 版权反馈
【摘要】:基于学习样本集合,监督学习法可以生成一个将输入映射到目标输出的函数。监督学习的标准框架就是分类问题,学习者通过生成一个输出近似函数行为,其中输出值若是连续的,则称为回归;若是离散的,则称为分类。一旦特征选定,目标的不同外观可以通过监督学习方法学习得到。监督学习的方法通常需要一个预先标注的庞大训练样本集合。半监督学习成功地减少了在AdaBoost和支持向量机计算中人机交互的成本。

监督学习法的原理和应用

目标检测也可以通过监督学习机制从样本集合中自动学习到不同角度的目标特征实现。对目标不同角度的学习可以避免对一个完整的模板集合进行存储。基于学习样本集合,监督学习法可以生成一个将输入映射到目标输出的函数。监督学习的标准框架就是分类问题,学习者通过生成一个输出近似函数行为,其中输出值若是连续的,则称为回归;若是离散的,则称为分类。目标检测过程中,学习样本包含目标特征和相对应人工定义的标号。

特征选择在分类过程中至关重要。人们除了使用前面谈及的特征外,还使用如目标区域面积、目标方向、目标外观等其他的特征。一旦特征选定,目标的不同外观可以通过监督学习方法学习得到。这些学习方法包括神经网络、适应性Boosting、决策树、支持向量机等方法,它们用来计算一个超表面以在高维空间中把目标类同其他类分开。

监督学习的方法通常需要一个预先标注的庞大训练样本集合。半监督学习是一个减少人工标注的可能途径,其主要思想就是基于少量具有独立特征的标注数据训练两个分类器,每个分类器被用来给未标注的数据标注,作为其他分类器训练所用。因此,半监督学习可以从两个统计意义上特征独立的小数据集计算获得一个非常准确的分类规则。半监督学习成功地减少了在AdaBoost和支持向量机计算中人机交互的成本。

1)Adaptive Boosting

Boosting是一个将多个基本分类器合并迭代获得一个非常准确的分类器的方法。在训练阶段,第一步就是要构造出训练集合的权重分布。Boosting机制就是要选择一个具有最小错误的基分类器,满足错误和误分类数据的权重成正比。第二步就是通过被选择的基分类器将误分类数据的权重增加,选择在迭代中具有更好的误分类效果的其他分类器。目标检测环境中,弱分类器是简单的操作子,例如可以是应用在从图像中抽取的目标特征上的阈值集合。2003年,Viola等人使用AdaBoost框架检测行人,他们选择感知元作为弱分类器训练通过时空操作子组合抽取的图像特征。这些特征提取的操作子是以简单的矩形滤波器形式存在的。时域上的操作子以帧间差形式出现,它能够对动作信息进行编码。当使用了时域操作子的时候,帧间差可以在动作发生区域中对目标进行检测以减少误检数目。(www.xing528.com)

2)支持向量机

支持向量机是一种分类器,是用于把数据聚成两类力求边际超平面之间的距离最大。处于超平面边际上的数据点成为支撑向量。目标检测过程中,这些类对应于正例和负例。基于手动生成的训练样本和二次规划计算,可以从无限多的超平面中计算得到最优的超平面。尽管SVM是线性分类器,但是通过对输入的特征向量应用核化技术,它也能够被用于非线性的分类器中。核化技术适用于线性不可分的数据集上,把这些数据转换到更高维的空间中。这些核可以是多项式核或径向基函数,例如高斯核、Sigmoid函数的两层感知元。然而,核的选择目前不是很容易。一旦核确定了,人们必须在参数集合下测试分类的效果,也许新的观测数据被加到样本集合中会导致效果不是很好。

在目标检测相关领域,常见的方法是基于SVM检测图像中的行人和人脸,从正负两个训练样本中应用Haar小波变换提取用来分辨类间的特征。为了约减搜索空间,计算图像中的光流场获得时域信息。注意,光流场的不连续性被用于初始化对可能目标的搜索能够减少导致错误的正例的可能性。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈