本文提出了一种新颖的用于局部图像特征匹配的方法。代替了传统的顺序执行图像特征检测,描述和匹配的步骤,本文提出首先在粗粒度上建立逐像素的密集匹配,然后在精粒度上完善精修匹配的算法。与使用cost volume搜索对应关系的稠密匹配方法相比,本文使用了Transformers中的使用自我和交叉注意力层(self and cross attention layers)来获取两个图像的特征描述符。Transformers提供的全局感受野使本文的方法能够在低纹理区域产生密集匹配(通常情况下在低纹理区域,特征检测器通常难以产生可重复的特征点)。在室内和室外数据集上进行的实验表明,LoFTR在很大程度上优于现有技术。

搭建transformer图像识别_计算机视觉

弱纹理条件与CVPR 2020的SuperGlue特征匹配对比:(上)LoFTR, (下)SuperGlue

LoFTR: Detector-Free Local Feature Matching with Transformers

搭建transformer图像识别_深度学习_02

本文作者来自浙大以及商汤科技,代码开源

论文:https://arxiv.org/abs/2104.00680

代码:https://github.com/zju3dv/LoFTR

项目地址: https://zju3dv.github.io/loftr

框架

搭建transformer图像识别_搭建transformer图像识别_03

LoFTR由四个部分组成:

  1. 局部特征提取网络从图像 以及 中提取粗略特征图 和 ,以及精细的特征图 和
  2. 将粗略特征图展平为一维向量,并添加位置编码;然后,将其喂给Local Feature TRansformer (LoFTR) 模块进行处理,得到 个self-attention 和 cross-attention层。
  3. 可微分匹配层用于匹配上述变换后的特征,最终得到置信矩阵 。根据置信度阈值和相互邻近标准选择匹配项,得到粗略的匹配预测 。
  4. 对于每个选定的粗略预测 ,我们会从精细特征图中裁剪出具有大小为 的局部窗口。粗匹配将在此局部窗口内进行细化为并达到亚像素匹配级别,作为最终的匹配预测。

实验

1. 弱纹理匹配效果

2. 与SuperGlue对比

搭建transformer图像识别_3d_04

3. 定量比较

搭建transformer图像识别_计算机视觉_05

HPatches上位姿解算AUC对比

搭建transformer图像识别_计算机视觉_06

室内ScanNet数据集上位姿解算AUC对比

搭建transformer图像识别_搭建transformer图像识别_07

室外MegaDepth数据集上位姿解算AUC对比

搭建transformer图像识别_人工智能_08

室外Aachen Day-Night数据集上视觉定位召回率对比

搭建transformer图像识别_计算机视觉_09

室内InLoc数据集上视觉定位召回率对比

4. 可视化

搭建transformer图像识别_搭建transformer图像识别_10

总结

本文提出了一种基于Transformers的无需特征提取的特征匹配器,提出的LoFTR利用self/cross attention层实现了将局部特征转换为与上下文和位置有关的量,这使得匹配器在稀疏纹理也能得到匹配。在实验部分,可以看到LoFTR能够分别在特征提取/位姿估计以及视觉定位任务中取得相当好的结果。

搭建transformer图像识别_人工智能_11