CVPR 2024|多视角深度估计新SOTA!AFNet:自动驾驶单视图和多视图深度的自适应融合

AI最新资讯6个月前发布 tree
68 0 0

今日应用


今日话题


CVPR 2024|多视角深度估计新SOTA!AFNet:自动驾驶单视图和多视图深度的自适应融合
CVPR 2024|多视角深度估计新SOTA!AFNet:自动驾驶单视图和多视图深度的自适应融合
 

重点标签 自动驾驶深度估计鲁棒性多视角自适应融合

文章摘要


本文介绍了一种新的多视角深度估计方法AFNet,旨在提高自动驾驶系统中深度估计的精度和鲁棒性。文章首先指出,在实际自动驾驶应用中,由于SLAM获得的位姿和相机内参存在噪声,以及可能的停车或掉头导致缺乏足够的平移,这些退化场景会影响多视角深度估计的精度。为了解决这些问题,作者提出了一种自适应融合单视角和多视角深度估计的方法,通过结合两者的优势,提高了系统在退化场景下的性能。

AFNet的网络架构由单视角分支、多视角分支和自适应融合模块组成。单视角分支利用语义理解和透视投影线索,而多视角分支则依赖于特征匹配。通过特征融合,两个分支的优势得以结合,提高了无纹理区域和边缘区域的性能。自适应融合模块基于重投影置信度,选择更可靠的深度估计分支,实现了高精度和高鲁棒性的融合深度。

实验结果表明,AFNet在DDAD和KITTI自动驾驶数据集上达到了SOTA,特别是在动态物体区域的表现显著提升。此外,AFNet在提出的鲁棒性基准测试中也表现出色,即使在pose噪声逐渐增大的情况下,仍能保持较高的精度。可视化结果显示,AFNet在边缘细节区域的性能更佳,具有更强的抗噪声干扰能力。

总之,AFNet通过自适应融合单视角和多视角深度估计,有效解决了多视角深度估计在退化场景下的难题,提升了精度和鲁棒性,实验验证了该方法的优越性和有效性。

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...