CVPR 2024|让模型关注你想要的任何属性!CPAL:弱监督语义分割新网络

AI最新资讯4个月前发布 tree
46 0 0

今日应用


今日话题


CVPR 2024|让模型关注你想要的任何属性!CPAL弱监督语义分割新网络
CVPR 2024|让模型关注你想要的任何属性!CPAL:弱监督语义分割新网络
 

重点标签 CPAL弱监督语义分割特征对齐实例上下文偏差

文章摘要


本文介绍了一种名为上下文原型感知学习(CPAL)的弱监督语义分割方法,旨在通过缓解实例与上下文之间的知识偏差来改善类激活图的完整性。CPAL方法通过上下文感知地捕捉对象特征的细微差异来深化对实例的理解,并利用特征分布对齐技术和一个创新的训练框架来优化原型的表征能力。该方法结合了传统的标签引导分类监督和新颖的原型引导自我监督,在PASCAL VOC 2012和MS COCO 2014两个标准数据集上的实验验证了其有效性,并展示了在提升模型性能方面的显著优势。

# 背景与动机
语义分割是计算机视觉中的重要任务,使得机器能够理解图像中的每一个细节。弱监督语义分割(WSSS)利用简单的标签,如图像级别的标签或大致的边界框,以较低的成本获得有效的图像理解能力。然而,现有的基于类激活映射(CAM)的方法往往只能标识出目标对象的局部区域,忽略了类内变异和实例与上下文之间的知识差异。

# 提出的方法
CPAL方法通过挖掘上下文中的有效特征属性,支持特定图像构建上下文原型,并利用类别记忆库打破对小批量的限制,观察类内特征多样性。此外,提出特征分布对齐技术,通过位移项减小实例特征与上下文特征分布的差异,提高对实例特征属性的精准感知。

# 实验与贡献
在PASCAL VOC训练集上的定性分析展示了CPAL方法增强了模型对图像内容的理解能力。实验结果表明,CPAL方法在PASCAL VOC 2012和MS COCO 2014数据集上取得了最先进的性能,验证了其有效性。该方法通过缓解实例与上下文之间的知识偏差,生成更准确和完整的定位图,提高了模型对实例属性的感知能力。

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...