海外大模型:生成式AI加速创新,行业迎历史性机遇(2024年).docxVIP

海外大模型:生成式AI加速创新,行业迎历史性机遇(2024年).docx

  1. 1、本文档共94页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

计算机行业

投资评级推荐维持

生成式AI加速创新,行业迎历史性机遇

——生成式人工智能行业专题研究:海外大模型篇

证券研究报告2024年3月29日

分析师:耿军军

邮箱:gengjunjun@

SAC执业资格证书编码:S0020519070002

联系人:王朗

邮箱:wanglang2@

》》》目录

?

?第一部分:生成式AI快速发展,技术奇点有望到来

?第二部分:技术创新百花齐放,海外巨头引领创新

?第三部分:风险提示

请务必阅读正文之后的免责条款部分2

》》》1.1发展历程:算法模型持续迭代,AI行业快速发展

请务必阅读正文之后的免责条款部分

3资料来源:信通院《人工智能生成内容(AIGC)白皮书》,CSDN官网,阿里云开发者社区,NIHRecord官网,MIT官网,51CTO官网,机器之心官网,腾讯云开发者社区,科技行者官网,雷锋网,澎湃新闻网,winbuzzer官网,MBA百科,Geekwire官网,datamarketinglabs官网,安全客官网,AIGC开放社区公众号,IT之家官网,OpenAI官网,36氪官网,国元证券研究所

3

》》》1.1发展历程:算法模型持续迭代,AI行业快速发展

1基础的生成算法模型是驱动AI的关键

2014年,伊恩·古德费洛(lanGoodfellow)提出的生成对抗网络(GenerativeAdversarialNetwork,GAN)成为早期最为著名的生成模型。GAN使用合作的零和博弈框架来学习,被广泛用于生成图像、视频、语音和三维物体模型。随后,Transformer、基于流的生成模型(Flow-basedmodels)、扩散模型(DiffusionModel)等深度学习的生成算法相继涌现。

Transformer模型是一种采用自注意力机制的深度学习模型,这一机制可按输入数据各部分的重要性分配权重,可用于自然语言处理(NLP)、计算机视觉(CV)领域应用,后来出现的BERT、GPT-3、laMDA等预训练模型都是基于Transformer模型建立的。

图:AIGC技术累积融合

4请务必阅读正文之后的免责条款部分资料来源:腾讯研究院《AIGC发展趋势报告》,国元证券研究所

4

》》》1.1发展历程:算法模型持续迭代,AI行业快速发展

1基础的生成算法模型是驱动AI的关键

表:主流生成模型一览表

模型

提出时间

模型描述

变分自动编码(VariationalAutoencoders,VAE)

2014年

基于变分下界约束得到的Encoder-Decoder模型对。

生成对抗网络(GAN)

2014年

基于对抗的Generator-Discriminator模型对。

基于流的生成模型(Flow-basedmodels)

2015年

学习一个非线性双射转换(bijectivetransformation),其将训练数据映射到另一个空间,在该空间上分布是可以因子化的,整个模型架构依靠直接最大化log-likelihood来完成。

扩散模型(DiffusionModel)

2015年

扩散模型有两个过程,分别为扩散过程和逆扩散过程。在前向扩散阶段对图像逐步施加噪声,直至图像被破坏变成完全的高斯噪声,然后在逆向阶段学习从高斯噪声还原为原始图像的过程。经过训练,该模型可以应用这些去噪方法,从随机输入中合成新的“干净”数据。

Transformer模型

2017年

一种基于自注意力机制的神经网络模型,最初用来完成不同语言之间的文本翻译任务,主体包含Encoder和Decoder部分,分别负责对源语言文本进行编码和将编码信息转换为目标语言文本。

神经辐射场(NeuralRadianceField,NeRF)

2020年

提出了一种从一组输入图像中优化连续5D神经辐射场的表示(任何连续位置的体积密度和视角相关颜色)的方法,要解决的问题就是给定一些拍摄的图,如何生成新的视角下的图。

CLIP(ContrastiveLanguage-ImagePreTraining)模型

2021年

1)进行自然语言理解和计算机视觉分析;

2)使用已经标记好的“文字-图像”训练数据。一方面对文字进行模型训练,一方面对图像进行另一个模型的训练,不断调整两个模型的内部参数,使得模型分别输出的文字特征和图像特征值确认匹配。

DiT(Diffusion

文档评论(0)

186****0576 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档