NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法

未分类3周前发布 tree
16 0 0
↑ 点击蓝字 关注极市平台
NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
作者丨CVer粉丝投稿
来源丨CVer
编辑丨极市平台

极市导读

 

本文提出了一种面向模态缺失情形的提示学习方法,旨在解决多模态大模型在输入模态可能缺失时的问题,通过深度关联提示学习提高模型的鲁棒性和可扩展性,并在多个数据集上验证了其有效性。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法

作者:胡连宇,石同凯,冯伟,尚凡华,万亮(天津大学智算学部ViL实验室)

单位:天津大学

论文:https://arxiv.org/abs/2410.06558

https://github.com/hulianyuyy/Deep_Correlated_Prompting

论文概述

当前多模态大模型通常建设输入是模态齐全的。然而,由于隐私问题、传感器设置、信号传输等因素,现实中输入常常可能是模态缺失的。为解决这一问题,本文提出了面向视觉理解的深度关联提示学习。在MMIMDb、HatefulMemes以及Food101三个数据集上的广泛实验验证了模型的有效性。充足的消融实验验证了模型的鲁棒性及可扩展性。

前言

问题定义:给定一个拥有M个模态(如M=2, 对于图像和文本)的数据集 ,参考之前方法[1], 我们将 定义为完整数据, 以及 为模态缺失的数据, 其中只有一个模态是缺失的(比如文本或图像)。该情况可以推广到任意多模态。

回顾之前方法:MMP[1]首先提出使用提示学习策略解决模态缺失问题。对于M模态输入,它将 个提示向量赋给每种模态缺失情形(如3种提示向量,对于图像-文本任务,1种向量给模态齐全情形,1种向量给图像缺失情形,1种向量给文本缺失情形)。它直接将提示向量和输入进行拼接送入网络。在训练过程中, 只有提示向量和网络末端的分类器被训练, 其余部分均被冻结。

方法框架

虽然MMP[1]通过引入提示向量,相比于直接丢弃缺失模态的baseline能有效提示鲁棒性(如图1所示),但是它仅在输入层面简单将提示向量和输入拼接,忽略了以下方面:(1)忽略不同层之间提示向量的关联;(2)缺乏根据输入动态调整提示向量的能力;(3)忽略了不同模态间提示向量的互补性。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图1:MMP[1]与baseline对比

因此,我们提出多种不同提示向量,分别应对以上缺点,如图2所示。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图2:所提出的三种提示学习方法图示

Correlated prompting:前一层的提示向量可以为后一层提供指导。如图2(c)所示, 因此我们在第 J层之前使用函数 F(实例化为一个MLP)基于上一层的提示向量,生成下一层的提示向量。第一层的提示向量被随机初始化。为结合多模态互补信息,我们将多个模态中前一层的提示向量,送入 生成各模态下一层的提示向量。

Dynamic prompting: 不同输入往往需要不同类型的提示。我们提出根据输入在第一层网络之前动态生成提示向量。如图2(d)所示,我们使用函数 (实例化为一个attention layer)基于输入向量,为本模态动态生成提示向量。

Modal-common prompting: 不同模态间存在互补信息与共有信息。我们提出modal-common prompts, 存储模态间共有信息, 当某模态缺失时, 为其提供缺失信息。图2(f)所示, 我们随机初始化了一个modal-common prompt, 使用函数 将其转化为每个模态的提示向量。

我们将以上三种提示向量拼接,并进一步与输入拼接后,送入模型。在训练过程中,只有提示向量及其生成模块,以及模型末端的分类器被更新,其余部分被冻结,因此只需要训练整个模型约2.4%的参数。整个模型框架如图3所示。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图3:整个模型框架

实验部分

实验细节:我们使用CLIP ViT-B/16作为基础模型,输入大小为224×224,最大文本输入长度为77。提示向量总长度为36,在一个3090 GPU上完成训练。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图1:模型有效性展示

模块有效性:图1比较了我们的方法(Ours)与(1)Baseline,直接丢弃模态缺失特征;(2)Ours(A),只使用Correlated prompting;(3)Ours(B),使用Correlated prompting与Dynamic prompts在MMIMDb数据集上在不同模态缺失率下的性能。左图、中图和右图分别展示了在图文均可能缺失、图像缺失和文本缺失下的性能。从图中可以看出,相比于Baseline,每个提出的模块都能有效提高模型性能。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图2:模型鲁棒性展示

模型鲁棒性:在图2中,我们测试了模型在不同模态缺失下情况下的鲁棒性。图2(a):当训练时不同图文均可能缺失(missing-both),我们在不同缺失率下训练了模型,并在0-100%缺失率下在missing-both情况下进行测试,发现在缺失率较高情况下训练的模型,测试鲁棒性较好。图2(b):当训练时不同图文均可能缺失(missing-both)或图像可能缺失(missing-image)时,我们在不同缺失率下训练了模型,并在0-100%缺失率下在missing-image情况下进行测试,发现当训练和测试时图像可能缺失(missing-image)情况下训练的模型鲁棒性最好,但在不同图文均可能缺失(missing-both)情况下训练的模型也具有较好鲁棒性。图2(c):当训练时不同图文均可能缺失(missing-both)或文本可能缺失(missing-text)时,我们在不同缺失率下训练了模型,并在0-100%缺失率下在missing-text情况下进行测试,发现当训练和测试时图像可能缺失(missing-text)情况下训练的模型鲁棒性最好,但在不同图文均可能缺失(missing-both)情况下训练的模型也具有较好鲁棒性。结论:在训练时不同图文均可能缺失(missing-both)的情况下训练的模型,在不同测试情况包括不同图文均可能缺失(missing-both)、图像可能缺失(missing-image)和文本可能缺失(missing-text)时,均具有较高鲁棒性。

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法
图4:和SOTA模型在MMIMDb、HatefulMemes以及Food101三个数据集上对比。

和SOTA模型对比:图4在MMIMDb、HatefulMemes以及Food101三个数据集上对比了我们的模型和其他SOTA方法。在不同数据集、不同缺失率以及缺失模态的情况下,我们的模型都取得了最高的精度,展示了良好的鲁棒性和可扩展性。

[1] Yi-Lun Lee, Yi-Hsuan Tsai, Wei-Chen Chiu, and Chen-Yu Lee. Multimodal prompting with missing modalities for visual recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 14943–14952, 2023

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法

公众号后台回复“数据集”获取100+深度学习各方向资源整理

极市干货

技术专栏:多模态大模型超详细解读专栏搞懂Tranformer系列大视觉模型 (LVM) 解读扩散模型系列极市直播
技术综述:小目标检测那点事大模型面试八股含答案万字长文!人体姿态估计(HPE)入门教程

NeurIPS 2024|天津大学提出:面向模态缺失情形的提示学习方法

点击阅读原文进入CV社区

收获更多技术干货

© 版权声明

相关文章

暂无评论

暂无评论...