利用LLM一站式优化投研工作:从数据、文本到观点.pdfVIP

利用LLM一站式优化投研工作:从数据、文本到观点.pdf

  1. 1、本文档共61页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

内容要点:

•大语言模型(LLM)简介

•LLM模型优化日常工作效率

•LLM模型赋能金融投研

•风险提示

2请务必阅读正文之后的信息披露和法律声明

大大大大语言模型语语语言言言模模模型型型((((LarLLLaaarrrggggeeeeLLLLanguaaannnggguuuaaaagegggeeeMMMModooodddeeeel,lll,,,LLM)LLLLLLMMM)))

2018年Google和OpenAI分别提出了BERT和GPT-1模型,

开启预训练大语言模型时代。

表:语言模型的发展历程简介

语言模型模型简介与特点

•基于统计方法——单词序列的概率分布,如N-gram模型。

统计语言模型

•模型简单但受限于固定上下文长度。

神经网络语言模型•通过输入前面的n−1个词来预测当前词。

(2003)•词的独热编码被映射为一个低维稠密的实数向量。

Word2Vec•模型结构和NNLM基本一致,通过无监督方式学习语义知识。

(2013)•训练目标为获得WordEmbedding。

•使用LSTM作为编码器,自动地根据词语的上下文信息去动

ELMO态调整词语的词向量。

(2018)

•开启了语言模型预训练的大门。

•基于Transformer结构的模型,相比其它深度神经网络的参

BERT和GPT-1数量有数量级上提升。

(2018)

•通常采用预训练微调范式,开启了预训练语言模型时代。

资料来源:海通证券研究所3请务必阅读正文之后的信息披露和法律声明

大大大大语言模型语语语言言言模模模型型型((((LarLLLaaarrrggggeeeeLLLLanguaaannnggguuuaaaagegggeeeMMMModooodddeeeel,lll,,,LLM)LLLLLLMMM)))

2018年Google和OpenAI分别提出了BERT和GPT-1模型,

开启预训练大语言模型时代。

表:基于Transformer结构的语言模型分类

模型结构特征

全称:BidirectionalEncoder

RepresentationsfromTransformers

纯Encoder模型

训练:掩码语言模型

(BERT-Style)

模型类型:判别型

预训练任务:预测被掩盖的词

全称:GenerativePre-trainedTransformer

纯Decoder模型训练:自回归语言模型

(GPT-Style)模型类型:生成型

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档