CINXE.COM

领先现有顶级算法,无地图也能实现高性能视觉重定位--技术前沿--论文--机器视觉网

 <!DOCTYPE html> <!--[if lt IE 7]><html class="ie ie6 lt8 lt9 lt10"><![endif]--> <!--[if IE 7]><html class="ie ie7 lt8 lt9 lt10"><![endif]--> <!--[if IE 8]><html class="ie ie8 lt9 lt10"><![endif]--> <!--[if IE 9]><html class="ie ie9 lt10"><![endif]--> <!--[if (gt IE 9) | !(IE)]><!--> <html> <!--<![endif]--> <head> <meta charset="utf-8"> <meta name="author" content="机器视觉网" /> <meta name="keywords" content="顶级算法,高性能视觉重定位" /> <meta name="description" content="本文介绍了一种基于实例知识和深度知识的无地图重定位方法。通过利用基于实例的匹配信息来改善全局匹配结果,大大降低了不同物体之间匹配错误的可能性。同时,我们使用单张图像的估计深度来减少度量误差,并提高尺度恢复精度。通过整合专门用于减轻大位移和旋转误差的方法,所提方法在无地图重定位技术中展现出卓越的性能。--机器视觉网(www.china-vision.org)是机器视觉领域颇具影响和实力的门户网站,其利用行业资源的优势,为从事机器视觉,图像处理技术等领域的科技人员,采购人员提供一个最新最快的信息平台。" /> <meta name="renderer" content="webkit" /> <meta http-equiv="X-UA-Compatible" content="IE=edge,chrome=1" /> <meta content="width=device-width, initial-scale=1, maximum-scale=1, minimum-scale=1" name="viewport" /> <meta content="email=no" name="format-detection"> <meta content="telephone=no" name="format-detection"> <meta name="baidu-site-verification" content="codeva-qgoWdOCvxm" /> <title>领先现有顶级算法,无地图也能实现高性能视觉重定位--技术前沿--论文--机器视觉网</title> <link rel="shortcut icon" href="/images/favicon.png" type="image/x-icon" /> <script>if (/*@cc_on!@*/false && document.documentMode === 10) document.documentElement.className += ' ie10';</script> <script>if (/*@cc_on!@*/false && document.documentMode === 11) document.documentElement.className += ' ie11';</script> <script>var controller = 'paper';</script> <!-- 添加IE10+Class --> <link href="/css/animate.css" rel="stylesheet" /> <link rel="stylesheet" href="/css/layui.css"> <link rel="stylesheet" href="/css/common.css"> <link rel="stylesheet" href="/js/swiper3/swiper.min.css"> <link type="text/css" rel="stylesheet" href="/css/public.css" /> <link type="text/css" rel="stylesheet" href="/css/news.css" /> <!--[if lt IE 9]> <script src="/js/html5.js"></script> <script src="/js/respond.src.js"></script> <![endif]--> <!--公用文件 END--> <script type="text/javascript" src="/js/jquery.js"></script> <script type="text/javascript" src="/js/layui.js"></script> </head> <body> <!--[if lt IE 9]> <p class="browserupgrade">您在使用&nbsp;<strong></strong>&nbsp;标准浏览本网站。请 <a href="http://browsehappy.com/" target="_blank">升级Internet Explorer浏览器</a> 来更好的体验本网站.</p> <![endif]--> <div class="wrapper fnt-16"> <!--page-header Begin--> <header class="page-header"> <div class="page-top cf"> <div class="page-wrap u-df u-ai-c u-fw u-jc-sb"> <div class="page-welcome fl">欢迎光临机器视觉网</div> <div class="page-rt"> <div class="page-login fr fnt-14"> <a href="/reg.html">免费注册</a><a href="/login.html">用户登录</a> </div> <div class="page-search fr fnt-14"> <form action="/search.html" method="get"> <div class="page-inp cf"><input name="keyword" class="fnt-14" placeholder="请输入关键词" type="text"></div> <div class="page-btn"><input name="" value="" class="fnt-14" type="submit"></div> </form> </div> </div> </div> </div> <div class="page-center"> <div class="page-wrap cf"> <div class="page-logo fl"><a href="/"><img src="/images/logo.jpg?v=222" title="机器视觉网" /></a></div> <div class="page-nav fr"> <!--pc 导航部分 Begin--> <nav class="nav phone_hide fnt-18 cf"> <ul class="fixed tac"><!--选中 样式 on,加到li上面--> <li> <a href="/">首页<em></em></a> </li> <li> <a href="/news.html">新闻<em></em></a> <div class="navlist"> <div class="page-wrap u-df u-fw u-jc-sb"> <ul class="cf wid01 fnt-20"> <li><a href="/news/14.html">企业动态</a></li> <li><a href="/news/2066.html">行业热点</a></li> <li><a href="/news/16.html">宏观报道</a></li> </ul> <div class="page-img"> <div class="bg_container bg_cover"><img src="/images/upload/page-header-navimg01.jpg" /></div> </div> </div> </div> </li> <li> <a href="/cases.html">案例<em></em></a> <div class="navlist"> <div class="page-wrap u-df u-fw u-jc-sb"> <ul class="cf wid02 fnt-20"> <li><a href="/cases/index/cate_id/128.html">镜头</a></li> <li><a href="/cases/index/cate_id/130.html">相机</a></li> <li><a href="/cases/index/cate_id/2129.html">传感器</a></li> <li><a href="/cases/index/cate_id/131.html">采集卡</a></li> <li><a href="/cases/index/cate_id/133.html">光源</a></li> <li><a href="/cases/index/cate_id/137.html">传输及线材</a></li> <li><a href="/cases/index/cate_id/780.html">系统产品</a></li> <li><a href="/cases/index/cate_id/135.html">智能设备</a></li> <li><a href="/cases/index/cate_id/134.html">解决方案</a></li> <li><a href="/cases/index/cate_id/2130.html">软件算法及深度学习</a></li> <li><a href="/cases/index/cate_id/2131.html">集成及工业计算机</a></li> <li><a href="/cases/index/cate_id/2132.html">机器人及机械臂</a></li> <li><a href="/cases/index/cate_id/2159.html">3D产品</a></li> <li><a href="/cases/index/cate_id/2158.html">行业综述</a></li> <li><a href="/cases/index/cate_id/23.html">其他</a></li> </ul> <div class="page-img"> <div class="bg_container bg_cover"><img src="/images/upload/page-header-navimg02.jpg" /></div> </div> </div> </div> </li> <li><a href="/product.html">产品<em></em></a></li> <li><a href="/interview.html">专访<em></em></a></li> <li><a href="/supply.html">供求<em></em></a></li> <li> <a href="/train.html">培训<em></em></a> <div class="navlist"> <div class="page-wrap u-df u-fw u-jc-sb"> <ul class="cf wid03 fnt-20"> <li><a href="/train-engineering.html">视觉工程师认证课程</a></li> <li><a href="/train-teachers.html">师资团队</a></li> <li><a href="/train-info.html">培训资讯</a></li> </ul> <div class="page-img"> <div class="bg_container bg_cover"><img src="/images/upload/page-header-navimg03.jpg" /></div> </div> </div> </div> </li> <li><a href="/download.html">下载<em></em></a></li> <li class="on"><a href="/paper.html">论文<em></em></a></li> <li><a href="/recruit.html">招聘<em></em></a></li> <li><a href="/book.html">书刊<em></em></a></li> <li><a href="/report.html">报告<em></em></a></li> <li><a href="/standard.html">标准<em></em></a></li> <li><a href="http://www.visionchinashow.net/" target="_blank">展会<em></em></a></li> <li> <a href="/member.html">会员<em></em></a> <div class="navlist"> <div class="page-wrap u-df u-fw u-jc-sb"> <ul class="cf wid04 fnt-20"> <li><a href="/member-introduction.html">联盟简介</a></li> <li><a href="/member-constitution.html">联盟章程</a></li> <li><a href="/member-upgrade-vip.html">联盟架构</a></li> <li><a href="/member-director.html">联盟理事</a></li> <li><a href="/member-membership-application.html">入会申请</a></li> <li><a href="/member-services.html">会员服务</a></li> <li><a href="/member-online-survey.html">在线调查</a></li> <li><a href="/member-party-building.html">联盟党建</a></li> <li><a href="/member-activities.html">联盟活动</a></li> <li><a href="/member-announcement.html">会员公告</a></li> <li><a href="/member-enterprises.html">会员企业</a></li> <li><a href="/member-video.html">在线视频</a></li> </ul> <div class="page-img"> <div class="bg_container bg_cover"><img src="/images/upload/page-header-navimg04.jpg" /></div> </div> </div> </div> </li> </ul> </nav> <!--pc 导航部分 End--> <!--手机端 导航部分 Begin--> <div class="nav_phone_btn page-nav-open"><span>Menu</span></div> <div class="nav_phone"> <div class="nav_phone_tit center"> <span class="fnt-30">导航</span> <div class="button"></div> </div> <div class="nav_phone_con cf"> <div class="phone-search cf"><form action="/search.html" method="get"><input name="keyword" class="fnt-24" placeholder="请输入关键词" type="text"><input type="submit" class="but fnt-16" value=""></form></div> <ul class="fnt-24"> <li><a href="/">首页</a></li> <li><a href="javascript:void(0);">新闻<div class="btn"><em></em></div></a> <ul> <li><a href="javascript:void(0);">返回</a></li> <li><a href="/news/14.html">企业动态</a></li> <li><a href="/news/2066.html">行业热点</a></li> <li><a href="/news/16.html">宏观报道</a></li> </ul> </li> <li><a href="javascript:void(0);">案例<div class="btn"><em></em></div></a> <ul> <li><a href="javascript:void(0);">返回</a></li> <li><a href="/cases/index/cate_id/128.html">镜头</a></li> <li><a href="/cases/index/cate_id/130.html">相机</a></li> <li><a href="/cases/index/cate_id/2129.html">传感器</a></li> <li><a href="/cases/index/cate_id/131.html">采集卡</a></li> <li><a href="/cases/index/cate_id/133.html">光源</a></li> <li><a href="/cases/index/cate_id/137.html">传输及线材</a></li> <li><a href="/cases/index/cate_id/780.html">系统产品</a></li> <li><a href="/cases/index/cate_id/135.html">智能设备</a></li> <li><a href="/cases/index/cate_id/134.html">解决方案</a></li> <li><a href="/cases/index/cate_id/2130.html">软件算法及深度学习</a></li> <li><a href="/cases/index/cate_id/2131.html">集成及工业计算机</a></li> <li><a href="/cases/index/cate_id/2132.html">机器人及机械臂</a></li> <li><a href="/cases/index/cate_id/2159.html">3D产品</a></li> <li><a href="/cases/index/cate_id/2158.html">行业综述</a></li> <li><a href="/cases/index/cate_id/23.html">其他</a></li> </ul> </li> <li><a href="/product.html">产品</a></li> <li><a href="/interview.html">专访</a></li> <li><a href="/supply.html">供求</a></li> <li><a href="javascript:void(0);">培训<div class="btn"><em></em></div></a> <ul> <li><a href="javascript:void(0);">返回</a></li> <li><a href="/train-engineering.html">视觉工程师认证课程</a></li> <li><a href="/train-teachers.html">师资团队</a></li> <li><a href="/train-info.html">培训资讯</a></li> </ul> </li> <li><a href="/download.html">下载</a></li> <li><a href="/paper.html">论文</a></li> <li><a href="/recruit.html">招聘</a></li> <li><a href="/book.html">书刊</a></li> <li><a href="/report.html">报告</a></li> <li><a href="/standard.html">标准</a></li> <li><a href="http://www.visionchinashow.net/">展会</a></li> <li><a href="javascript:void(0);">会员<div class="btn"><em></em></div></a> <ul> <li><a href="javascript:void(0);">返回</a></li> <li><a href="/member-introduction.html">联盟简介</a></li> <li><a href="/member-constitution.html">联盟章程</a></li> <li><a href="/member-upgrade-vip.html">联盟架构</a></li> <li><a href="/member-director.html">联盟理事</a></li> <li><a href="/member-membership-application.html">入会申请</a></li> <li><a href="/member-services.html">会员服务</a></li> <li><a href="/member-online-survey.html">在线调查</a></li> <li><a href="/member-party-building.html">联盟党建</a></li> <li><a href="/member-activities.html">联盟活动</a></li> <li><a href="/member-announcement.html">会员公告</a></li> <li><a href="/member-enterprises.html">会员企业</a></li> <li><a href="/member-video.html">在线视频</a></li> </ul> </li> </ul> </div> </div> <div class="phone-nav-bg"></div> <!--手机端 导航部分 End--> </div> </div> </div> </header> <!--page-header End--> <!--page-main Begin--> <section class="page-main cf"> <div class="page-current"> <div class="page-wrap"> <a href="/">首页</a><i class="song">&gt;</i><a href="/paper.html">论文</a><i class="song">&gt;</i><span>正文</span> </div> </div> <div class="page-wrap cf"> <div class="page-content-wrap cf"> <!--page-aside-detail-lf Begin--> <div class="page-aside-detail-lf cf"> <div class="page-time tac"> <div class="page-title tac"><span>日期</span></div> <dl> <dt class="fnt-26">11/19</dt><dd class="fnt-18">2024</dd> </dl> </div> <div class="page-share tac"> <div class="page-title tac"><span>咨询</span></div> <ul class="cf"> <li class="li01"> <div class="page-ico"><span></span></div> <div class="page-code-tc"> <p class="fnt-12">QQ扫一扫</p> <img src="/images/upload/ft-codeimg03.jpg" /> </div> </li> <li class="li02"> <div class="page-ico"><span></span></div> <!--<div class="bshare-custom icon-medium cf"> <div class="bsPromo bsPromo1"></div> <a title="分享到微信" class="bshare-weixin" href="javascript:void(0);"></a> </div> <script type="text/javascript" charset="utf-8" src="https://static.bshare.cn/b/buttonLite.js#style=-1&amp;uuid=&amp;pophcol=2&amp;lang=zh"></script> <script type="text/javascript" charset="utf-8" src="https://static.bshare.cn/b/bshareC0.js"></script>--> <div class="page-code-tc"> <p class="fnt-12">Vision小助手<br />(CMVU)</p> <img src="/images/upload/ft-codeimg01.jpg" /> <!--<p class="fnt-12">机器视觉产业<br>联盟二维码</p> <img src="/images/upload/ft-codeimg02.jpg" />--> </div> </li> </ul> </div> </div> <!--page-aside-detail-lf End--> <div class="ns-detail-wrap wid100 fl"> <div class="page-title f-b fnt-30">领先现有顶级算法,无地图也能实现高性能视觉重定位<div class="page-star fnt-16" rel="collect" data-id="227492">收藏</div></div> <div class="page-sub"><span>2024-11-19 14:05:46</span><span>来源: 中国机器视觉网</span></div> <div class="page-content"> <p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><span style="font-family: 微软雅黑;"></span>本文介绍了一种基于实例知识和深度知识的无地图重定位方法。通过利用基于实例的匹配信息来改善全局匹配结果,大大降低了不同物体之间匹配错误的可能性。同时,我们使用单张图像的估计深度来减少度量误差,并提高尺度恢复精度。通过整合专门用于减轻大位移和旋转误差的方法,所提方法在无地图重定位技术中展现出卓越的性能。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><strong>本文核心内容</strong><strong></strong></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">视觉重定位作为一种关键技术,在增强现实(AR)和机器人导航等领域展现出众多令人瞩目的应用。基于此项技术,我们能够于复杂环境中达成更精准的位置感知与导航,显著增强技术表现与用户体验。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">目前,视觉重定位技术有传统的基于地图的重定位方法,还有不依赖地图的无地图重定位方法。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">传统的基于地图的视觉重定位技术需借助大量图像及尺度校准,以构建场景的详尽3D地图。然而,构建详尽3D地图这一必要条件却对其应用形成了限制,尤其在对内存资源需求颇高的场景中。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">无地图重定位主要依据参考图像来明确查询图像的相机姿态,且无地图方法所需图像数量更少,不需要事先构建3D地图,相较于传统方法的局限性,无地图重定位方法正越来越被人们所关注。不过需要注意的是,多视图约束的缺失也会产生一定局限,因其在计算和重定位时完全依赖于从两张图像中提取的特征,这带来了巨大挑战。常见的应对策略是运用各种类型的技术以获取更优的匹配性能。然而,实现无地图重定位更优性能的底层机制仍需进一步探索。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">为了更深入地了解现有的无地图模型的性能,我们对《无地图视觉重定位》中提到的现有方法进行了详细分析。这些方法由三个组件组成:特征匹配、姿态估计模块和深度估计。我们在图1中展示了其中一些结果。基于这些实验结果,我们得出以下结论:</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/5073bf452cb2d59f.jpg" title="360截图20241119141047809.jpg" alt="360截图20241119141047809.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/8360039da94b2b10.jpg" title="360截图20241119141055098.jpg" alt="360截图20241119141055098.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">首先,如图1中的蓝色点所示,不同的特征点匹配方法会导致在平移和旋转误差上出现差异,这凸显了精确的特征点匹配的重要性。这是因为本质矩阵是从匹配的特征点坐标计算得出的。决定视觉重定位性能的旋转矩阵和平移向量直接从本质矩阵中导出。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">其次,如图1中的红色点所示,深度估计方法的差异会导致显著的平移误差变化,而旋转误差几乎不变。这是因为深度估计模块将2D特征点投影到3D空间中,使用的是深度估计结果。通过估计3D空间中特征点之间的距离,可以精确地恢复上一步中获得的平移向量的尺度。在无地图模型中,对特征匹配和深度估计之间相互作用的全面研究为提高整体性能提供了洞见。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">为提升无地图重定位的精度,我们构建了一种全新的框架,此框架不但提升了匹配精度,而且能够有效应对深度估计所面临的挑战。这种全方位的方法通过系统性地降低旋转和平移误差,极大地增强了视觉重定位的性能,这对于在没有预先存在的地图的情形下达成可靠定位具有关键意义。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">就旋转误差而言,我们的方法在实例对象内部提取匹配点加以利用。通过引导特征点匹配模型聚焦于特定的实例匹配,我们能够切实地减少通常出现在不同实例之间的错误匹配。这种具有针对性的方式不但降低了错误率,还增进了匹配过程的整体精确性和可靠性。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">针对平移误差,我们的框架运用了先进的深度估计技术。该技术借助标准的相机变换以及联合深度-法向量优化,从单张图像中处理深度估计问题。在此种状况下,精确的尺度恢复极其重要,因为它直接运用深度估计结果来计算尺度并恢复平移向量尺度。虽然该方法较为简便,然而在与《无地图视觉重定位》中提及的所有方法进行对比时,该方法于无地图验证集上取得了最优结果。更为关键的是,与提交给无地图视觉重定位挑战的其他方法相较,我们的模型在具有挑战性的测试集上展现出了相当的性能。这些指标充分显示了我们的方法在应对无地图视觉定位难题的有效性。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><strong>主要贡献</strong><strong></strong></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们提出了一种层次化匹配方法,将实例级和特征级方法相结合。该方法有效地结合了全局实例级实例匹配与局部特征点匹配的优点,从而提高了无地图环境下的重定位精度。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们在Mapfree数据集上对复杂场景进行了广泛的实验,其中包括空间和时间差异、不同摄像头之间的差异以及显著的视差。这些实验表明,我们的方法具有出色的泛化性能,优于现有的顶级算法。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><strong>方法架构</strong><strong></strong></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">方法的整体框架如图2所示。给定两个输入图像和,我们的方法首先利用特征点匹配建立一组对应点,以说明2D图像之间的关系。为了提高匹配精度,我们将实例分割知识融入其中,从图像中提取主要物体。具体来说,我们的特征点匹配算法在该掩码的范围内运行。接下来,我们使用本质矩阵从匹配的2D特征点计算旋转矩阵R和无尺度单位平移向量。最后,使用深度估计网络Metric3D估计输入图像的深度信息,并将其用于将2D匹配点投影到3D空间中,从而促进最终平移量的恢复。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/8d5d4ebaaaf68370.jpg" title="360截图20241119141111466.jpg" alt="360截图20241119141111466.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><strong>实验</strong><strong></strong></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">4.1数据集与指标</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们使用MapFree-Reloc数据集对本方法进行了评估,该数据集包含36,998帧用于验证和14,778帧用于测试。该数据集中的图像来自65个验证场景和130个测试场景,涵盖了各种地理位置。该数据集呈现了动态环境条件、显著的视点变化、显著的地理位置差异以及与参考图像的极小或无视觉重叠等困难场景。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">此外,在无地图的场景中,要求在由单个参考图像表示的场景中进行重定位,这使得任务更加具有挑战性。参照MapfreeRelocalization,我们使用以下指标来评估性能:平均姿态误差(平均中位旋转误差、平均中位平移误差)、AUC@VCRE&lt;90px等等。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">4.2性能比较</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们使用三个组件构建比较方法:特征匹配方法(SIFT、LoFTR和SuperGlue)、深度估计(PWC-Net、DepthFlow和DORN)和图像配准(FeatureNet、FeatureNet-Flow和FeatureNet-Flow-Net)。我们对DPT进行了微调,使用了KITTI和NYUv2的数据集,并进行了姿态估计(使用5点解算器,结合MAGSAC++、PNP和Procrustes)。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">此外,我们比较了各种端到端的方法,包括3D-3DRPR。通过结合这些组件和端到端方法,我们获得了13种比较方法。由于我们没有测试集的真值,我们在验证集上实现了这些方法。结果如表1所示。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">4.3主要成果</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">定量评估如表1所示,我们首先与现有方法进行了比较,我们的方法在平均中位姿态误差方面比当前的顶级方法有显著的降低。例如,在现有方法中表现最好的RPR[3D-3D]方法,其平均中位旋转误差为22.6°,而我们的方法为9.0°。这种改进归因于我们优越的特征点匹配技术。具体来说,我们保留全局匹配信息,同时利用实例知识将模型集中在实例内的匹配上。这种策略不仅减轻了显著匹配误差的影响,还允许进行更精确的局部匹配。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">此外,RPR[3D-3D]方法的平均中位平移误差为1.667米,而我们的方法为0.596米。这种改进归因于我们有效的特征点匹配和我们精确的深度估计。具体来说,我们的方法涵盖了对原始图像深度的精准预测与处理,这对于从无尺度平移向量恢复平移矩阵而言至关重要。这不但证实了我们深度估计方法的有效性,还凸显出我们的方法在特征点匹配和深度估计方面优于现有方法。我们的方法不仅验证了自身深度估计方法的有效性,还着重强调了精确深度估计对于准确恢复尺度的重要意义。此外,在平均中位投影误差(综合衡量旋转和平移精度的指标)方面,我们的方法显著优于所有基准方法,进一步佐证了我们方法的稳健性和有效性。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">通过计算所有场景下的姿态估计误差的累积分布函数(CDF)来评估我们的方法相对于基准的有效性(图4)。CDF通过按升序排序并确定每个阈值以下的比例来量化误差值的累积概率。性能良好的CDF在较低的误差幅度下迅速上升到1,表明低误差占主导地位。比较CDF曲线显示,我们的方法在较低的误差水平下表现更好,我们的曲线上升得更快。这表明我们的方法在各种场景下具有更一致的较低姿态估计误差,具有鲁棒性和准确性。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/95e2c0ad817694f0.jpg" title="360截图20241119141126207.jpg" alt="360截图20241119141126207.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们还将我们的方法与提交给Mapfree Visual Relocalization Challenge的闭源模型进行了比较,如表2所示。我们的方法在Median Reprojection、Median Translation和Median Rotation Error等方面表现优于大多数其他方法,这表明了我们方法的优越性。此外,我们的方法的性能与MASt3R(Ess.Mat + D.Scale)等当前最先进的方法相当,这凸显了我们方法的巨大潜力。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/dbadd3bf2f045426.jpg" title="360截图20241119141133883.jpg" alt="360截图20241119141133883.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">定性评价。我们将特定场景中某些帧的相机姿态在Mapfree验证集上以三角形的形式可视化出来,如图5所示。在这个可视化图中,水平轴表示x轴方向的位移,垂直轴表示y轴方向的位移。绿色三角形表示真实的值,蓝色三角形表示我们方法估计的相机姿态,红色三角形表示基线方法LoFTR(Ess.Mat+D.Scale)的估计值。与基线方法相比,我们的方法的估计值更接近真实值,说明在相机姿态估计方面具有更准确和可靠的表现。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们还可视化了同一场景中的相机轨迹。具体来说,我们将提交结果、基线方法LoFTR(Ess.Mat+D.Scale)和真实值在同一三维空间中进行展示,其中每个点代表提交结果中的一帧。在这些可视化图中,绿色圆圈表示真实值,蓝色三角形表示我们的方法,红色方块表示LoFTR(Ess.Mat+D.Scale)方法。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/cd4f730012eba8a8.jpg" title="360截图20241119141140826.jpg" alt="360截图20241119141140826.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/4731f427663451c8.jpg" title="360截图20241119141154111.jpg" alt="360截图20241119141154111.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">如图5所示,LoFTR(Ess.Mat +D.Scale)方法在某些情况下经常出现异常离群值,甚至完全失败。我们的方法在多个场景中始终优于基准方法,在各种条件下都表现出了应用的精度和鲁棒性。</span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em; text-align: center;"><span style="font-size: 16px;"><img src="/uploads/ueditor/image/20241119/8a840ae2fc40818a.jpg" title="360截图20241119141201786.jpg" alt="360截图20241119141201786.jpg"/></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;"><strong>总结</strong><strong></strong></span></p><p style="margin-top: 15px; margin-bottom: 15px; line-height: 1.75em;"><span style="font-size: 16px;">我们提出了一种新颖的无地图重定位方法,该方法通过参考和查询图像来估计查询帧的相对姿态。通过使用实例分割结果引导特征点匹配模型专注于实例对象内的匹配,我们的方法显著减少了错误匹配并提高了准确性。此外,我们通过深度估计优化三维空间点坐标以改善尺度恢复。广泛的实验证明了我们协同优化的有效性,为未来提高无地图重定位精度奠定了基础。</span></p><p style="text-align: right;"><span style="font-size: 14px; color: rgb(127, 127, 127);">文章:Map-Free Visual Relocalization Enhanced by Instance Knowledge and Depth Knowledge</span></p><p style="text-align: right;"><span style="font-size: 14px; color: rgb(127, 127, 127);">作者:Mingyu Xiao, Runze Chen, Haiyong Luo, Fang Zhao, Juan Wang, Xuepeng Ma</span></p><p style="text-align: right;"><span style="font-size: 14px; color: rgb(127, 127, 127);">论文链接:https://arxiv.org/pdf/2408.13085</span></p><p style="text-align: right;"><span style="font-size: 14px; color: rgb(127, 127, 127);">编译:INDEMIND</span></p> </div> <div class="page-ft"> <ul> <li class="ellipsis">上一条:<a href="/paper-detail/227316.html" target="_blank" title="光场成像中元素图像的不失真条件">光场成像中元素图像的不失真条件</a></li> <li class="ellipsis">下一条:<a href="/paper-detail/228082.html" target="_blank" title="一种轻量级深度学习模型,在IoT设备上的实时行人检测">一种轻量级深度学习模型,在IoT设备上的实时行人检测</a></li> </ul> <div class="page-back"><a href="/paper.html">返回列表</a></div> </div> </div> </div> </div> </section> <!--page-main End--> <!--page-footer Begin--> <footer class="page-footer fnt-14"> <div class="page-wrap u-df u-jc-sb u-ai-c u-fw"> <div class="page-lf flex-1"> <div class="ft-nav"> <ul> <li><a href="/">网站首页</a>|</li> <li><a href="/about.html">关于我们</a>|</li> <li><a href="/contact.html">联系我们</a>|</li> <li><a href="javascript:void(0);" onClick="SetHome(this,window.location);">设为首页</a></li> </ul> </div> <div class="page-ft-copy"> 地址:北京海淀区中关村南街四紫金数码园910房间  |  <span>邮编:100190</span><br> Copyright © 2013 - 2021 www.china-vision.org All Rights Reserved Design by bygw.net </div> <div class="page-share"> <ul> <li> <a href="javascript:void(0);"><img src="/images/page-share-ico01.png" /><br>公众号</a> <div class="page-code wid20"> <dl class="cf"> <dd> <img src="/images/upload/ft-codeimg01.jpg" /> <p>Vision<br>机器视觉展</p> </dd> <dd> <img src="/images/upload/ft-codeimg02.jpg" /> <p>机器视觉产业联盟(CMVU)</p> </dd> </dl> </div> </li> <li> <a href="javascript:void(0);"><img src="/images/page-share-ico02.png" /><br>QQ</a> <div class="page-code"> <dl class="cf"> <dd> <img src="/images/upload/ft-codeimg04.jpg" /> <p>机器视觉产业联盟(CMVU)</p> </dd> </dl> </div> </li> </ul> </div> </div> <div class="page-ft-tel fnt-18"> <p class="phone_hide"><a href="javascript:void(0);" title="yxj@china-image.cn"><img src="/images/ft-tel-ico01.png" />010-62650592</a></p> <p class="phone_show"><a href="tel:010-62650592" target="_blank" title="yxj@china-image.cn"><img src="/images/ft-tel-ico01.png" />010-62650592</a></p> <p><a href="mailto:visionchina@china-image.cn" target="_blank" title="visionchina@china-image.cn"><img src="/images/ft-email01.png" />visionchina@china-image.cn</a></p> <p class="fnt-14">机器视觉网 <a href="http://beian.miit.gov.cn/" target="_blank" title="京ICP备16034613号-1">京ICP备16034613号-1</a></p> </div> </div> </footer> <!--page-login-tc Begin--> <div class="page-login-tc" style="display: none"> <div class="page-login-wrap u-df u-ai-c u-jc-c"> <div class="page-login-con"> <div class="page-tips fnt-14">*&nbsp;&nbsp;&nbsp;请登录会员后进行操作</div> <div class="page-title fnt-24 tac">会员登录</div> <form class="layui-form" action=""> <div class="layui-form-item u-df u-ai-c u-fw"> <label class="layui-form-label">用户名</label> <div class="layui-input-block page-inp fnt-14 flex-1"> <input type="text" name="username" lay-verify="required" placeholder="请输入用户名" autocomplete="off" class="layui-input"> </div> </div> <div class="layui-form-item u-df u-ai-c u-fw"> <label class="layui-form-label">密码</label> <div class="layui-input-block flex-1 page-inp fnt-14"> <input type="password" name="password" lay-verify="required" placeholder="请输入密码" autocomplete="off" class="layui-input"> </div> </div> <div class="tar layui-word-aux fnt-14"><a href="/forget.html">忘记密码?</a></div> <div class="layui-form-item"> <div class="layui-input-block tac"> <button type="submit" class="layui-btn" lay-submit="" lay-filter="login" callback_url="">登录</button> </div> </div> <div class="page-reg tac fnt-14"><a href="/reg.html">新用户注册账号</a></div> </form> <div class="page-btn-close page-close"></div> </div> </div> </div> <script> $(document).on('click','.page-login-tc .page-close',function(){ $(".page-login-tc").hide(); }) $('[rel="public-login"]').bind('click', function(){ var _this = $(this); $.ajax({ url: "/index/api/is_login", type: 'post', dataType: 'json', data: {}, success: function (res) { if (res.code == 100) { $(".page-login-tc").show(); $('[lay-filter="login"]').attr('callback_url', _this.attr('url')) } else { document.location.href = _this.attr('url'); } } }) }) layui.use(['form'], function(){ var form = layui.form ,layer = layui.layer form.on('submit(login)', function(data){ $.ajax({ url: "/index/api/login", type: 'post', dataType: 'json', data: data.field, success: function (res) { if (res.code == 200) { if($('[lay-filter="login"]').attr('callback_url') != ''){ document.location.href = $('[lay-filter="login"]').attr('callback_url'); } else { document.location.reload(); } } else { return layer.msg(res.msg); } } }) return false; }); }); </script> <!--page-login-tc End--> <script> var _hmt = _hmt || []; (function() { var hm = document.createElement("script"); hm.src = "https://hm.baidu.com/hm.js?94cfb210596d6796b2c9ce168d0aa2a5"; var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(hm, s); })(); </script> <!--page-footer End--> </div> <script type="text/javascript" src="/js/base.js"></script> <script src="/js/wow.min2.js"></script> <script type="text/javascript" src="/js/public.js"></script> <script type="text/javascript" src="/js/swiper3/swiper.min.js"></script> <script type="text/javascript" src="/js/news.js"></script> <script type="text/javascript" src="/js/by.js"></script> </body> </html>

Pages: 1 2 3 4 5 6 7 8 9 10