- 1、本文档共23页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
1大语言模型的特点与功能
1.1LLM的基础原理
近期随着OpenAI的GPT-4模型发布、百度文心一言发布、微软Copilot
发布,大语言模型(LLM,LargeLanguageModel)成为市场关注焦点。对于
AI模型运用较多的量化金融领域,LLM将会带来怎样的改变?本报告将从各个角
度进行LLM在量化金融领域应用的展望。
在展望未来应用之前我们首先以GPT模型为例简要解释LLM的基础原理。
2023年3月16日,OpenAI发布了GPT-4的技术报告,其中用一句话来介绍
GPT-4即:GPT-4是一个基于预训练的Transformer模型,用于预测某一文本
的下一个字词(tokenk也就是说GPT-4是一个给定上文推测下文(单词)的神
经网络。同时,相比于GPT的早期版本,GPT-4的输入拓展到了图片。
图1:GPT-4的基本功能
资料来源:绘制
那么GPT-4是如何通过预测下个单词来达成回答一段话的功能的?主要是将
生成的单词重新加回到上文中作为新的输入,使得模型继续生成下一个单词,循
环往复达到回答一段话的功能(称为AutoregressiveLM,自回归语言模型),类
似我们在使用智能输入法的过程中,输入法给出的对下一个单词的不断预测。其
基础模型Transformer来自2017年谷歌在NIPS上提出的论文“Attentionisall
youneed”。其克服了传统序列推导模型(Sequencetransductionmodel)采
用RNN时面临的问题,成为了解决此类问题新的通用模型。
如果GPT-4仅仅是根据上文“猜”下文,其又是如何产生逻辑性的?我们知
道GPT-4模型不仅可以进行简单的对话聊天,还可以实现指令识别、总结、推断、
模仿等一系列更为高级的智能。甚至还可以在人类知识水平测试中达到与普通人
类似的水准。那么这些智能是如何通过大语言模型训练得到的?
图2:GPT模型在人类知识水平测试中的表现(分位数下限)
GPT-4TechnicalReport
图β:GPT-4的“看图做物理题”
UserAnswerquestionL.I.a.Thinkstep-by-step.
L.Mit
r-=
#
超学
GPT-4
ToanswerquestionL.Ia,weneedtoexpressthetemperatureT(r)ineverypointoftheconductivebar,whichischaracterizedbytheabscissax.WearegiventhatT(0)=TOandT(L)=Tb
Forastationary,regime,theheatequationfortheone-dimensionalheat
conductioninthebaris:
dT/dr2=0
Integratingonce,weget:
dT/dr=C
Integratingasecondtime:
T(x)=C?x+C
TodeterminetheconstantsC;andCz,weusetheboundaryconditions:T(0)=70,whichgivesC?=TO
T(L)=Tb,whichgivesC?=(Tb-T0)/L
Finally,theexpressionforT(x)is:
T(x)=(Tb-T0)·(x/L)+T0
Thisrepresentsalineartemperatureprofilealongtheconductivebar,withaslope
of(Tb-TO)/L.
GPT-4TechnicalReport,
第一个重要的原因在于超大量样本训练带来的智能涌现。语言是人类知识传
承的载体,语言中本身蕴含着人类指令识别、总结、推断、模仿的行为,通过大
规模样本的输入和训练,量变引起质变导致GPT学会了部分逻辑,称为Scaling
law,也被解读为“涌现”现象。“涌现
文档评论(0)