深入探索深度 ViT.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

深入探索深度ViT

SungraeHong

GraduateSchoolofDataScience

KAIST

DaeJeon,RepublicofKorea

sun.hong@kaist.ac.kr

Abstract

本已经有人尝试在类似LLM的视觉模型中创建大规模结构,如ViT-22B。虽然

译这项研究提供了大量的分析和见解,但我们对其实际效用的理解仍然不完

中整。因此,我们考察了该模型结构如何在本地环境中反应并训练。我们也强

调了训练中的不稳定,并对模型进行了一些修改以稳定它。从零开始训练的

1

vViT-22B模型,在相同参数规模下总体上优于ViT的表现。此外,我们还涉

1足图像生成任务,这在ViT-22B中尚未尝试过。我们提出了一种使用ViT的

81

图像生成架构,并研究了在图像生成方面ViT和ViT-22B哪个结构更合适。

1

4

0

.

8

01介绍

5

2

:“不,我告诉过你喜欢大的。我喜欢一切大的。”

v(崔慧静,《荣耀》(网飞系列),2022)

i

x

r最大大型语言模型(LLMs)[5,27]的出现为处理深度学习模型提供了新的视角。它通过首先

a

设计一个大规模基础模型,然后将其应用于下游任务来展示出卓越的性能,这与创建较小的

任务特定模型[22,29]形成对比。这一趋势在视觉研究中也日益突出。[31]提出了一种扩展

ViT模型的方法,展示了构建一个视觉基础模型的可能性。然而,这种尝试仅有15B的规模,

与拥有540B[5]规模的LLM模型相比仍然较小。因此,通过架构和配方修改,ViT-22B[6]

将可学习参数的数量提升到了22B。该模型不仅在众多可以量化的下游任务中取得了最先进

的或相当的表现,并且与多个视觉模型相比,在质量上也表现出更优的性能。

以这种方式,我们正在寻找与所有深度学习模型更大规模将有益的信念相一致的结果。然而,

一些研究对基础模型适用于所有任务这一信念提出警告,强调需要谨慎考虑[3]。这已经从

语言学的角度进行了分析,其中不同领域的专家对模型可靠性和发展潜力的看法存在差异。

由于视觉基础模型的进步速度慢于语言基础模型,很难具体指出问题所在。然而,可以确定

2

的是,ViT-22B是在一个庞大的私有数据集[26,19]上训练的,并且其训练参数并未公开,

使得我们难以从中受益。这意味着如果我们在本地或站点层面拥有可用的数据,我们需要自

1源代码可在/HongSungRae/ai602获得

文档评论(0)

专业Latex文档翻译 + 关注
实名认证
服务提供商

专业Latex文档翻译,完整保持文档排版,完美处理文档中的数学公式和图表等元素,并提供 arXiv Latex 论文中文翻译。

1亿VIP精品文档

相关文档