- 1、本文档共12页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
您的注意力很重要:提高模型对噪声和虚假相关性的
鲁棒性
CamiloTamayo-RousseauYunjiaZhaoYiqunZhangRandallBalestriero
BrownUniversityBrownUniversityBrownUniversityBrownUniversity
Abstract
自注意力机制是Transformer架构的基础,支持其在广泛任务中的卓越成功。
本虽然存在许多自注意力变体,但它们对噪声和虚假相关性的鲁棒性尚未得
译到充分研究。本研究评估了VisionTransformers在不同数据损坏场景下Soft-
中max、Sigmoid、线性、双重随机和余弦注意机制的表现。通过在CIFAR-10、
CIFAR-100和Imagenette数据集上的测试,我们展示了双重随机注意力是最
1
v具鲁棒性的。我们的研究结果为具有不完整数据背景下的自注意力选择提
3供了指导。
5
4
0
2.1介绍
7
0
5变换器[37]已成为现代深度学习的基础,在自然语言处理[27,6,39]、计算机视觉[8,22,3]、
2音频建模[10,28]和多模式任务[17,30,1]中取得了最先进的成果。它们的成功很大程度上
:
v归功于自注意力机制,该机制通过计算所有输入元素之间的动态、内容相关的相互作用来模
i
x拟长距离依赖关系。这标志着从早期架构如卷积神经网络(CNNs)[21,19,12,32,34]的转
r
a变,后者依靠固定的局部感受野和参数共享来提取分层特征。
尽管由于局部性和平移等变性[19,21]等归纳偏置,CNNs传统上一直是视觉任务的首选模
型,但最近的研究表明,当在大规模数据集上进行训练时,VisionTransformers(ViTs)[8]可
以匹敌甚至超越CNNs。由于局部滤波器和平滑行为[9],CNNs可能对小扰动表现出一定
的鲁棒性,但它们仍然容易受到噪声、模糊和天气效应[13]等常见腐蚀的影响。相比之下,
ViTs使用全局自注意力机制并且没有内置的归纳偏置,这引发了关于其在分布变化下鲁棒
性的疑问。
鲁棒性在现实世界应用中变得越来越重要,因为输入可能会由于传感器噪声、遮挡、天气失
真甚至对抗性操作而退化。尽管许多关于鲁棒性的文献关注于训练时间的干预措施——例如
数据增强[5,40,7]、对抗性训练[11,23]或正则化技术[33,35,15]——架构选择仍然是一个
未充分探索但可能互补的研究方向。特别是,注意力机制本身在塑造鲁棒性方面的作用尚不
明确。
为了解决这一缺口,我们系统地研究了不同的注意力机制如何影响Transformer对噪声和损
坏输入的鲁棒性。我们将五种变体——Softmax注意力、Sigmoid注意力[29]、线性注意力
[38,16,4]、双重随机注意力[31]以及余弦注意力[24]——整合到VisionTransformer框架中
Preprint.
进行比较。我们的实验涵盖了多个复杂度和分辨率不同的计算机视觉基准测试。我们在训练
和测试分布中注入噪声,以评估在各种损坏情况下的泛化能力和韧性。
本工作提供了首个
文档评论(0)