非对称迭代量化哈希学习.pdfVIP

  • 11
  • 0
  • 约11.04万字
  • 约 73页
  • 2020-11-11 发布于江苏
  • 举报
非对称迭代量化哈希学习 摘 要 随着互联网的蓬勃发展,数据规模越来越大,数据的检索时间也急剧增加。 近似最近邻检索旨在根据数据的相似性,从海量数据中,快速检索出与目标最相 似的数据。哈希学习技术是提高最近邻检索速度的主要方法之一,其具有占用空 间小、检索速度快等优点,近年来得到研究者的广泛关注。 传统的哈希学习方法大多是对称的,即学习到的二值码都是来源于同一个哈 希函数。随着相关研究的深入,有学者发现,非对称哈希学习方法的性能要优于 传统的哈希学习方法。非对称哈希方法通过联合优化多个哈希函数,有效地提高 二值码的质量。然而,当前的非对称哈希方法还存在一些问题。第一,由于大部 分非对称哈希方法都是采用计算二值码内积的方式实现非对称度量,在优化过程 中计算复杂度较高。常用的优化策略是直接丢弃二值约束,以将离散问题松弛成 连续问题,然后再将求得的实值特征量化成二值码。然而,这样生成的二值码信 息损失大,其检索性能也会受到影响。第二,现有的非对称哈希方法普遍通过采 样构造锚点图,仅利用到部分数据的监督信息,存在鉴别力不足的问题。虽然锚 点图的引入可以减少方法的计算复杂度,但与此同时会使学习到的二值码质量受 到影响,导致检索精度降低。 针对计算复杂度高和鉴别力不足这两个问题,本文提出了一个改进的非对称 哈希学习框架。所提出的框架通过构造一个二值码互相逼近的回归方程来代替计 算二值码内积,从而实现非对称学习。此外,该框架充分利用已有的训练数据, 使学习到的二值码尽可能地保持原始数据之间的相似性。本文的回归优化问题不 需要松弛离散约束就可以直接优化得到二值码,同时还可以减少信息损失。本文 以非对称哈希学习框架为基础,提出了三个方法:1)基于局部和全局结构信息 的非对称哈希方法同时学习原始数据中的局部几何结构信息和全局结构信息,以 此提高二值码和哈希函数的质量;2 )鲁棒正交旋转非对称哈希方法通过引入L 2,1 范数作为损失函数的基本度量,有效地缓解模型对数据噪声的敏感度,从而提高 算法的鲁棒性;3 )正交语义非对称哈希方法通过引入正交旋转矩阵来降低信息 损失,同时将标签矩阵直接投影成二值码,大大提高了模型的鉴别力。此外,本 I 非对称迭代量化哈希学习 文还给出了算法的收敛性分析。实验结果表明,本文提出的非对称哈希方法比现 有的哈希方法效果更好。 关键词:哈希学习;非对称哈希;迭代量化;最近邻检索 II Asymmetric Iteration Quantization Hash Learning Abstract With the development of the Internet, the search time increases rapidly with the volume of data. According to the similarity of data, approximate nearest neighbor (ANN) search method finds the point quickly which is closest to a query point in the data set. Hashing is one of the major methods solving the ANN problem and attracts considerable attention in recent years because of its low storage cost and retrieval efficiency. Most traditional hashing methods are symmetric which use the same strategy to

文档评论(0)

1亿VIP精品文档

相关文档