VideoMamba: State Space Model for Efficient Video Understanding

相关链接:arxiv github 关键字:Video UnderstandingState Space ModelEfficiencyLong-context ModelingSelf-Distillation

摘要

为了应对视频理解中局部冗余和全局依赖性的双重挑战,本项工作创新性地将Mamba模型适配到视频领域,提出了VideoMamba模型。该模型克服了现有3D卷积神经网络和视频Transformer的限制。其线性复杂度算子能有效进行长期建模,这一点对于高分辨率长视频理解至关重要。通过广泛的评估,VideoMamba展现了四大核心能力:(1)可扩展性:得益于新颖的自我蒸馏技术,在没有进行大规模数据集预训练的情况下,在视觉领域实现可扩展;(2)敏感性:能够识别具有细微动作差异的短期行动;(3)长视频理解能力上的优越性,展示了对比传统特征模型的显著进步;(4)与其他模态的兼容性,展示了在多模态环境中的鲁棒性。通过这些独特优点,VideoMamba为视频理解树立了新的标杆,为全面的视频理解提供了可伸缩且高效的解决方案。

核心方法

image.png

  • 选择性状态空间模型(SSM):结合了2D图像处理中百川Mamba和视觉Mamba所利用的多方向SSM。
  • 线性复杂度算子:有效进行视频长期建模。
  • 自我蒸馏技术:在模型和输入尺度增加时,通过简单有效的自我蒸馏策略实现显著性能提升,无需大规模数据集预训练。
  • 双向Mamba(B-Mamba)块:用于处理3D视频序列,提升空间敏感性。
  • 双向3D扫描:将原始2D扫描扩展为适用于时空输入的不同双向3D扫描方法。

实验说明

以下是VideoMamba与其他模型在短期视频数据集上比较的结果:

模型 K400(场景相关) SthSthV2(时间相关)
SlowFastR101 79.8% top-1 acc 63.1% top-1 acc
TimeSformer 80.7% top-1 acc 62.5% top-1 acc
ViViT 81.3% top-1 acc 65.4% top-1 acc
VideoMamba-Ti 80.3% top-1 acc 66.2% top-1 acc
VideoMamba-S 82.7% top-1 acc 68.1% top-1 acc
VideoMamba-M 83.3% top-1 acc 68.4% top-1 acc

在众多模型中,VideoMamba展示了优秀的性能。

结论

VideoMamba通过其独特的状态空间模型,在短期和长期视频内容理解上展现了巨大潜力。凭借效率和效果,VideoMamba有望成为长视频理解领域的基石。所有代码和模型均已开源,以促进未来研究工作。