近年来,哈希学习在遥感图像检索方面的研究受到越来越多的关注,主要研究工作包括:
B.Demir等人(2016)采用人工设计特征在核空间学习哈希函数,提出了两种基于核空间的哈希方法——无监督核方法(kernel-based unsupervised hashing LSH,KULSH)和有监督核方法(kernel-based supervised-hashing LSH,KSLSH),并分别在UCMD和海洋图像数据集(multispectral medium resolution image spectrometer,MERIS)上进行了验证。检索结果表明,KULSH和KSLSH与基于k-NN的方法和基于SVM的方法相比,能够在精度只有极小降低的同时,大幅度降低检索时间和存储空间。KULSH和KSLSH两种方法相比,KULSH在学习哈希函数的时候不需要训练数据,因此时间效率更高,而KSLSH由于利用了有限标签数据的语义相似性信息,因而具有更高的检索精度。在他们的后续研究中,考虑到一幅遥感图像通常包含多种土地覆盖类型,如果仅仅用一种全局特征描述子和单个哈希编码,可能无法表达遥感图像丰富的语义内容,从而导致检索结果不准确。基于此提出一种无监督多哈希编码的遥感图像检索方法,在UCMD数据集上的实验结果表明,多哈希编码比单哈希编码具有明显的性能提升[61]。
Y.Li等人(2018)对目前的几种深度哈希网络进行了总结,研究了影响检索性能的关键参数,并首次将深度哈希网络用于解决大规模遥感图像检索;分别对标记样本有限的数据集(如UCMD)和标记数据充足的数据集(如SAT4)进行实验的结果,验证了训练算法及调参策略的有效性。在Y.Li等(2018)的另一项工作中,针对目前大规模遥感图像检索都是基于单一数据源的问题,提出一种不依赖数据源的深度哈希网络(source-invariant deep hashing convolutional neural networks,SIDHCNNs),通过使用一系列设计好的优化约束端到端解决遥感图像检索的跨源问题,其有效性在双源数据集(多光谱影像和全色波段影像)上得到了验证。
S.Roy等人(2018,2020)针对遥感图像带标签数据有限的问题,提出一种基于度量学习的哈希网络用于大规模遥感图像检索方法——MiLaN。首先通过在ImageNet上预训练的深度神经网络获取遥感图像的中间表达,然后以此训练另一个网络,其最终的特征表达通过三种不同的损失函数进行优化,生成紧凑二进制码。MiLaN既避免了过拟合,又实现了相似度保持,其性能在UCMD和AID数据集上得到了验证。(www.xing528.com)
Peng Li等人(2017)针对目前数据独立哈希没有利用遥感图像特征的不足和数据依赖哈希应用于遥感图像应用时的高时间消耗问题,提出一种有效学习哈希函数的方法——部分随机哈希方法(partial randomness hashing,PRH),首先采用随机投影将遥感图像从原始空间映射到低维汉明空间,然后通过训练样本数据学习一个变换权值矩阵,以获得更准确的二值码。他们的实验数据为SAT-4和SAT-6航空数据集,分别包含了500000和405000图像块,并与LSH、Spectral Hashing、IsoHash、Manifold-Hashing、Iterative Quantization、SpH等方法进行了对比。他们的后续研究工作是提出一种新的基于量化的深度学习哈希框架(quantized deep learning to hash,QDLH)用于遥感图像检索,这是在量化深度神经网络用于遥感领域方面首次公开发表的研究工作,他们引入加权成对熵损失函数,目的是强化哈希码的类间cohesion从而提高检索效率。他们的实验数据是UCMD和AID数据集,对比算法包括LSH、KULSH、PRH、KSLSN、SDH、DHN、DPSN、DHNNs,并在多种卷积神经网络下(AlexNet,VGG,GoogLeNet和ResNet-18)进行了验证。
其它研究包括:Cheng Chen等人(2012)提出一种深度语义哈希(deep semantic hashing,DSH),可以不需要松弛直接学习离散哈希码,从而更好地描述遥感图像的语义内容,他们的实验数据来自GF-2卫星和Google Earth;Xu Tang等人(2019)提出一种基于对抗自编码器(adversarial autoencoder,AAE)的半监督深度哈希方法(semi-supervised deep hashing method based on AAE,SSHAAE)用于大规模遥感图像检索;Chao Liu等人(2019)提出一种GAN辅助的哈希学习方法(GAAH)用于遥感图像检索,并在UCMD数据集上进行了验证。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。