基于场景理解的视频表征学习.pdfVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

摘要

信息时代的全面来临带动了视频数据的爆炸式增长,视频理解任务依托算法

和硬件的发展得到快速发展。视频数据包括时间和空间两种特征,利用好时空特征

进行视频理解可以为视频相关下游任务提供支撑。传统的视频理解主要基于动作

识别,忽略了语义信息丰富的场景信息。本文基于场景理解获取更为丰富的视频表

征信息。本文提出了一种基于Transformer结构的视频场景图生成模型。本文的主

要工作如下:

1.针对空间特征信息,传统的注意力机制可以很好地提取视频帧的全局空间

特征,但不能很好地提取局部特征。为了弥补传统注意力机制的不足,本文提出了

基于边界框和人体姿态特征关键点的局部空间可视矩阵,结合注意力机制形成局

部注意力模块,对局部空间特征信息进行提取。局部空间特征信息的提取是模型提

取全局和局部空间特征信息的基础;

2.针对时间特征信息,在提取全局时间特征信息时若考虑所有帧特征信息的

融合会导致计算复杂度过高。本文在兼顾计算复杂度的情况下提出了一种帧前随

机提取4帧的全局随机帧提取方案。全局时间特征的高效提取在不过多增加模型

复杂度的情况下实现了关系预测准确性的进一步提升;

3.针对特征融合,进一步引入姿态特征,提出了一种时空特征和姿态特征的

融合策略。模型在提取了时空特征信息的基础上,通过LightweightOpenPose模型

提取姿态特征,进一步利用自注意力和交叉注意力结合的策略进行特征融合,加强

了特征的语义信息,对于人-物关系的预测具有积极意义;

4.针对ActionGenome数据集物体类别和关系类别分布不均匀的问题,传统

的基于交叉熵损失函数的关系分类会产生长尾效应。本文提出了一个基于二部图

匹配和FocalLoss的损失函数。基于该损失函数进行关系预测模块的训练,提升了

关系预测的准确性,缓解了关系分类的长尾效应问题。

为了进一步引入姿态特征,模型对视频场景图任务中常用的ActionGenome数

据集中不包含人-物关系的帧和视频进行剔除。在处理后的数据集上进行了对几种

主流的视频场景图生成模型进行了对比实验。在相同实验环境下,本文相比当前最

优的GPS-Net模型在Recall@10上取得了0.1的提升,在Recall@20上取得了0.4

的提升,在Recall@50上取得了1.4的提升。

关键词:目标检测,场景图生成,注意力机制,姿态特征,二部图匹配

ABSTRACT

Theadventoftheinformationagehasledtotheexplosivegrowthofvideodata,and

videounderstandingtaskshavedevelopedrapidlyrelyingonthedevelopmentof

algorithmsandhardware.Videodataincludesbothtemporalandspatialfeatures.Using

spatial-temporalfeaturesforvideounderstandingcanprovidesupportforvideo-related

downstreamtasks.Traditionalvideounderstandingmainlybasedonactionrecognition,

whileneglectingsematicinformationfromscene.Morevideorepresentationinformation

isextractedbasedonsceneunderstandingbythesis.Avideoscenegraphgeneration

modelbasedontheTransformerstructureisproposedbythesis.Themainworkofthesis

isasfollows:

1.Forspatialfeature,thetraditionalattentionmechanismcanextractglobal

文档评论(0)

精品资料 + 关注
实名认证
文档贡献者

温馨提示:本站文档除原创文档外,其余文档均来自于网络转载或网友提供,仅供大家参考学习,版权仍归原作者所有,若有侵权,敬请原作者及时私信给我删除侵权文

1亿VIP精品文档

相关文档