首页 理论教育 相似性度量的优化策略

相似性度量的优化策略

时间:2023-06-26 理论教育 版权反馈
【摘要】:图像的相似性度量是根据距离模型搜索与查询图像距离最近的一组候选图像,并对相似集合进行排序的过程。传统的相似性度量方法基于向量空间进行,即将图像的视觉特征向量看作向量空间中的点,用两点之间的距离表示它们所对应的图像内容之间的语义相似性。此外,人们也提出了一些基于心理学的图像相似性度量模型。

相似性度量的优化策略

图像的相似性度量(即距离度量)是根据距离模型搜索与查询图像距离最近的一组候选图像,并对相似集合进行排序的过程。距离度量模型的选择会直接影响图像检索性能。对于相同的检索任务,不同的距离度量模型会产生不同的排序结果。传统的相似性度量方法基于向量空间进行,即将图像的视觉特征向量看作向量空间中的点,用两点之间的距离表示它们所对应的图像(查询图像和候选图像)内容之间的语义相似性。设x=(x1,x2,…,xn)和y=(y1,y2,…,yn)表示两幅图像的任意n维特征向量,以下介绍常用的距离度量函数。

一、Minkowski距离

Minkowski距离是基于Lp范数定义的,如下式所示:

当p=1时,L1(x,y)称为曼哈顿距离(Manhattan distance)或城区距离,如下式所示:

当p=2时,L2(x,y)称为欧氏距离(Euclidean distance),如下式所示:

欧氏距离是向量空间最常用的距离模型。欧氏距离可以进一步处理得到加权欧氏距离,如下式所示:

其中,wi表示特征分量的权重,可以看出,加权欧氏距离考虑了不同特征分量的重要性。

当p→∞时,L(x,y)称为切比雪夫距离(Chebyshev distance),如下式所示:

二、直方图

直方图交(histogram intersection)一般用于以直方图方式表示图像特征向量情况时的距离度量,具有计算简单快速且能较好抑制背景影响的优点。计算公式如下:

上式可进一步归一化:

三、χ2距离(www.xing528.com)

χ2距离指的是每两个个体间各个属性的差异性,值较大,说明个体与变量取值有显著关系,个体间变量取值差异较大。计算公式如下:

四、余弦距离

余弦距离(cosine similarity)是通过测量两个向量之间夹角的余弦值来衡量两个向量之间相似度的方法。余弦距离计算的是两个向量间的方向差异,计算公式如下:

五、K-L距离和Jeffrey散度

K-L距离(Kullback-Leibler divergence)也称K-L散度,用于计算两个概率分布之间的差异程度,是从信息论的角度定义的一种距离模型,以相对熵的形式度量真实概率分布与假定概率分布之间的距离。计算公式如下:

考虑到K-L距离具有非对称性,且对直方图柱值数敏感,研究者进一步提出了K-L散度的改进形式——Jeffrey散度(Jeffrey divergence)。Jeffrey散度具有对称性且噪声以及直方图柱值数更稳健,提高了距离的抗噪声能力。计算公式如下:

六、相关系数

相关系数可以用来衡量两个向量之间的线性关系紧密程度,计算公式如下:

其它距离度量函数包括:马氏距离(Mahalanobis distance)、地动距离(earth mover's distance,EMD)、Hausdorff距离、二次式距离、巴氏距离(Bhattacharyya distance)、中心矩(center moment)等。

计算出两幅图像之间的距离之后,即可获得二者之间的相似性:

除了选取合适的距离度量函数之外,也可以根据特定的检索任务,构造满足数据多样性要求的相似性度量模型。但是人工设计的距离度量模型存在效率低下和鲁棒性差等问题;而度量学习从训练样本中自动学习一个最大化类间差异和最小化类内差异的距离函数,能够克服人工设计的距离度量模型用于各类机器学习算法和计算机视觉任务时存在的不足,目前已经被广泛用在自然图像检索中。随着深度学习的兴起与发展,人们开始关注并研究如何将度量学习融入深度学习网络模型。此外,人们也提出了一些基于心理学的图像相似性度量模型。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈