今日应用
今日话题
CVPR 2024|多视角深度估计新SOTA!AFNet:自动驾驶单视图和多视图深度的自适应融合
文章摘要
本文介绍了一种新的多视角深度估计方法AFNet,旨在提高自动驾驶系统中深度估计的精度和鲁棒性。文章首先指出,在实际自动驾驶应用中,由于SLAM获得的位姿和相机内参存在噪声,以及可能的停车或掉头导致缺乏足够的平移,这些退化场景会影响多视角深度估计的精度。为了解决这些问题,作者提出了一种自适应融合单视角和多视角深度估计的方法,通过结合两者的优势,提高了系统在退化场景下的性能。
AFNet的网络架构由单视角分支、多视角分支和自适应融合模块组成。单视角分支利用语义理解和透视投影线索,而多视角分支则依赖于特征匹配。通过特征融合,两个分支的优势得以结合,提高了无纹理区域和边缘区域的性能。自适应融合模块基于重投影置信度,选择更可靠的深度估计分支,实现了高精度和高鲁棒性的融合深度。
实验结果表明,AFNet在DDAD和KITTI自动驾驶数据集上达到了SOTA,特别是在动态物体区域的表现显著提升。此外,AFNet在提出的鲁棒性基准测试中也表现出色,即使在pose噪声逐渐增大的情况下,仍能保持较高的精度。可视化结果显示,AFNet在边缘细节区域的性能更佳,具有更强的抗噪声干扰能力。
总之,AFNet通过自适应融合单视角和多视角深度估计,有效解决了多视角深度估计在退化场景下的难题,提升了精度和鲁棒性,实验验证了该方法的优越性和有效性。
文章来源
原文地址: 点我阅读全文
原文作者: 极市平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...