DiffRate:Vision Transformer中的可微分token压缩率 DiffRate - Differentiable Compression Rate for Efficient Vision Transformers.docx

DiffRate:Vision Transformer中的可微分token压缩率 DiffRate - Differentiable Compression Rate for Efficient Vision Transformers.docx

  1. 1、本文档共39页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
本文主要介绍了不同的iabletoken压缩率在视觉级Transformer中的应用在传统的模型中,每层都有固定数量的参数需要预训练和缩放然而,在不同iabletoken压缩率下,这些参数可以自由调整,从而实现了更高的性能通过引入不同的iabletoken压缩率,我们可以扩展到更复杂的模型,如深度学习模型此外,本论文还讨论了如何将不同的iabletoken压缩率应用于迁移学习任务,并进行了实验验证最后,我们提出了迁移学习模型的拓展方案,有望在未来的大规模迁移学习中得到广泛应用

DiffRate:Differentiable

CompressionRatefor

EfficientVisionTransformers

MengzhaoChen1,2,WenqiShao2,PengXu2,3,MingbaoLin4,KaipengZhang2,FeiChao1,RongrongJi1,YuQiao2,PingLuo2,3

1XiamenUniversity,2ShanghaiAILaboratory,3TheUniversityofHongKong,4Tencent

Outline

?BackgroundofTokenCompressioninVisionTransformer?TokenPruning

?TokenMerging

?OurNovelSolution:DiffRate

?Method

?ExperimentResults

Outline

?BackgroundofTokenCompressioninVisionTransformer?TokenPruning

?TokenMerging

?OurNovelSolution:DiffRate

?Method

?ExperimentResults

Background

Animageisworth16x16words:Transformersforimagerecognitionatscale.ICLR2020

Background

?QuadraticallyComputationComplexity

D:embeddingdimension

Channelpruning

N:tokennumber

Tokencompression

Pruning

Merging

EfficientViT:EnhancedLinearAttentionforHigh-ResolutionLow-ComputationVisualRecognition.ICCV23

TokenPruning

Notallpatchesarewhatyouneed:Expeditingvisiontransformersviatokenreorganizations.ICLR22

TokenPruning

Key:Howtoidentifytheredundanttokens?

DynamicViT:EfficientVisionTransformerswithDynamicTokenSparsificatio.NeurIPS2021

TokenPruning

Attentionmapisanexcellentimportancemetric.

a∈R1?N

Notallpatchesarewhatyouneed:Expeditingvisiontransformersviatokenreorganizations.ICLR22

TokenMerging

Key:Combinesimilartokensinsteadofdroppingthem

TokenMerging:YourViTbutFaster.ICLR23

OurInsights

?Drawback:Regardlayer-wisetokencompressionratesashyper-parameters

?TokenPruning:prunep%tokensineveryslayers.

?TokenMerging:

tediousandsub-optimalperformance

?Oursolution:transfertokencompressionrateintodifferentiablemanner.

OurInsights

?Extension:Canweexpandthepotentialoftokencompression?

?TokenPruning:removesemanticirrelevanttokens

?TokenMerging:combinesemanticsimilartokens

Howcanwecombinepruningandmerging?

?Oursolution:Pruning+Mergi

文档评论(0)

我爱分享 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档