可编辑培训课件-生成式人工智能行业市场前景及投资研究报告:海外大模型,生成式AI加速创新,行业历史性机遇,新质生产力,OpenAI,kimi,eVTOL.pptx

可编辑培训课件-生成式人工智能行业市场前景及投资研究报告:海外大模型,生成式AI加速创新,行业历史性机遇,新质生产力,OpenAI,kimi,eVTOL.pptx

  1. 1、本文档共44页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

投资评级推荐维持生成式AI加速创新,行业迎历史性机遇——生成式人工智能行业专题研究:海外大模型篇证券研究报告2024年3月29日

目录?第一部分:生成式AI快速发展,技术奇点有望到来?第二部分:技术创新百花齐放,海外巨头引领创新?第三部分:风险提示2

1.1发展历程:算法模型持续迭代,AI行业快速发展资料:信通院《人工智能生成内容(AIGC)白皮书》,CSDN官网,阿里云开发者社区,NIHRecord官网,MIT官网,51CTO官网,机器之心官网,腾讯云开发者社区,科技行者官网,雷锋网,澎湃新闻网,winbuzzer官网,MBA百科,Geekwire官网,datamarketinglabs官网,3安全客官网,AIGC开放社区公众号,IT之家官网,OpenAI官网,36氪官网,国元证券研究所

1.1发展历程:算法模型持续迭代,AI行业快速发展1基础的生成算法模型是驱动AI的关键?2014年,伊恩·古德费洛(lanGoodfellow)提出的生成对抗网络(GenerativeAdversarialNetwork,GAN)成为早期最为著名的生成模型。GAN使用合作的零和博弈框架来学习,被广泛用于生成图像、视频、语音和三维物体模型。随后,Transformer、基于流的生成模型(Flow-basedmodels)、扩散模型(DiffusionModel)等深度学习的生成算法相继涌现。?Transformer模型是一种采用自注意力机制的深度学习模型,这一机制可按输入数据各部分的重要性分配权重,可用于自然语言处理(NLP)、计算机视觉(CV)领域应用,后来出现的BERT、GPT-3、laMDA等预训练模型都是基于Transformer模型建立的。图:AIGC技术累积融合资料:腾讯研究院《AIGC发展趋势报告》,国元证券研究所4

1.1发展历程:算法模型持续迭代,AI行业快速发展1基础的生成算法模型是驱动AI的关键表:主流生成模型一览表模型提出时间2014年2014年模型描述基于变分下界约束得到的Encoder-Decoder模型对。基于对抗的Generator-Discriminator模型对。变分自动编码(VariationalAutoencoders,VAE)生成对抗网络(GAN)学习一个非线性双射转换(bijectivetransformation),其将训练数据映射到另一个空间,在该空间上分布是可以因子化的,整个模型架构依靠直接最大化log-likelihood来完成。基于流的生成模型(Flow-basedmodels)扩散模型(DiffusionModel)2015年2015年扩散模型有两个过程,分别为扩散过程和逆扩散过程。在前向扩散阶段对图像逐步施加噪声,直至图像被破坏变成完全的高斯噪声,然后在逆向阶段学习从高斯噪声还原为原始图像的过程。经过训练,该模型可以应用这些去噪方法,从随机输入中合成新的“干净”数据。一种基于自注意力机制的神经网络模型,最初用来完成不同语言之间的文本翻译任务,主体包含Encoder和Decoder部分,分别负责对源语言文本进行编码和将编码信息转换为目标语言文本。Transformer模型2017年2020年提出了一种从一组输入图像中优化连续5D神经辐射场的表示(任何连续位置的体积密度和视角相关颜色)的方法,要解决的问题就是给定一些拍摄的图,如何生成新的视角下的图。神经辐射场(NeuralRadianceField,NeRF)1)进行自然语言理解和计算机视觉分析;2)使用已经标记好的“文字-图像”训练数据。一方面对文字进行模型训练,一方面对图像进行另一个模型的训练,不断调整两个模型的内部参数,使得模型分别输出的文字特征和图像特征值确认匹配。CLIP(ContrastiveLanguage-ImagePreTraining)模型DiT(DiffusionTransformers)模型2021年2023年用Transformer替换了传统的U-Net主干,在潜在空间中对图像进行建模,并通过Transformer的注意力机制学习图像的全局依赖关系,具有良好的可扩展性,可以训练到更高的分辨率和更大的模型容量。资料:腾讯研究院《AIGC发展趋势报告》,经纬创投公众号,国元证券研究所5

1.1发展历程:算法模型持续迭代,AI行业快速发展1基础的生成算法模型是驱动AI的关键?通过梳理全球主流大语言模型(LLM)的发展脉络,2018年以来的GPT系列、LLaMA系列、BERT系列、Claude系列等多款大模型均发源于Transformer架构。6资料:虎嗅APP公众号,国元证券

文档评论(0)

anhuixingxing + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档