本次分享我们邀请到了悉尼科技大学ReLER Lab在读博士陈牧,为大家详细介绍他们中稿ACM Multimedia 2024 Oral的工作 :本次分享介绍一种新颖的多模态场景适应的探索方法:DCF, Transferring to Real-World Layouts: A Depth-aware Framework for Scene Adaptation,这项工作被ACM Multimedia 2024提名为口头报告(Oral Presentation,3.97%)。DCF通过手工设计基于深度感知的类别过滤器,手动将自动驾驶场景的物体分类为近景,中景,远景,并且将不符合预先定义分布的数据进行过滤,实现由虚拟到真实世界分布的转变。提出的方法显著提高了小物体类别的性能,并能灵活地迁移到不同模型,取得SOTA结果。本次分享对想了解视觉场景理解及领域自适应方向的同学会很有帮助。论文地址:https://arxiv.org/abs/2311.12682
代码地址:https://github.com/chen742/DCF
作者主页:https://chen742.github.io
极市直播预告|ACM Multimedia 2024 Oral-自动驾驶场景下面向真实世界布局的转变
➤回放视频在这里☟
https://www.bilibili.com/video/BV1wxyUY4EU8/


B站:http://space.bilibili.com/85300886#!/腾讯视频:http://v.qq.com/vplus/8be9a676d97c74ede37163dd964d600c极市平台专注分享计算机视觉前沿资讯和技术干货,特邀请行业内专业牛人嘉宾为大家分享视觉领域内的干货及经验,目前已成功举办130期线上分享。近期在线分享可点击以下合集查看:
– 极市直播合集
(http://bbs.cvmart.net/topics/149/cvshare),也可以点击阅读原文获取。备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)
即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~
觉得有用麻烦给个在看啦~ 