- 1、本文档共77页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
;;
ChatGPT给公众展现出来的是无所不能;;
语言模型(LanguageModel,LM)目标是构建词序列w1w2...wm的概率分布P(w1w2...wm),即计算给定的词序列w1w2...wm作为一个句子出现的可能性大小。;
GPT核心任务始终是生成一个“合理的延续”,即根据已有的文本,生成一个符合人类书写习惯的下一个合理内容。所谓“合理”,是指根据数十亿个网页、数字化书籍等人类撰写内容的统计规律,推测接下来可能出现的内容。;
GPT完成像写文章这样的任务时,它实际上只是一遍又一遍地询问:“在已有的文本的基础上,下一个词应该是什么?”——并且每次都会添加一个词。
在每一步中,它都会得到一个带有概率的单词列表。但是,它应该选择哪个单词;
GPT在做的事情—文字接龙;
ChatGPT真正做的事情—文字接龙;
语言模型概率空间是天文数字;
随着历史单词数量增多,绝大多数的历史并不会在训练数据中出现,这也意味着
P(wi|w1w2...wi?1)就很可能为0,使得概率估计失去了意义。为了解决上述问题,可以进一步假设任意单词wi出现的概率只与过去n?1个词相关;
尽管n元语言模型能缓解句子概率为0的问题,但语言是由人和时代创造的,具备
无穷的可能性,再庞大的训练语料也无法覆盖所有的n-gram,而训练语料中的零频率并不代表零概率。因此,需要使用平滑技术(Smoothing)来解决这一问题
平滑是指为了产生更合理的概率,对最大似然估计进行调整的一类方法,也称为数据平滑(DataSmoothing)。平滑处理的基本思想是提高低概率,降低高概率,使整体的概率分布趋于均匀。;
n元语言模型从整体上来看与训练语料规模和模型的阶数有较大的关系,不同的平滑
算法在不同情况下的表现有较大的差距。
平滑算法虽然较好解决了零概率问题,但是基于稀疏表示的n元语言模型仍然有三个较为明显的缺点:
(1)无法建模长度超过n的上下文;
(2)依赖人工设计规则的平滑技术;
(3)当n增大时,数据的稀疏性随之增大,模型的参数量更是指数级增加,并且模;
词的独热编码被映射为一个低维稠密的实数向量,称为词向量(Word
Embedding)。
循环神经网络、卷积神经网络、端到端记忆网络等神经网络方法都成功应用于语言模型建模。
相较于n元语言模型,神经网络方法可以在一定程度上避免数据稀疏问题,有些模型还可以避免对历史长度的限制,从而更好建模长距离依赖关系。这类方法通常称为;;
深度神经网络训练需要采用有监督方法,使用标注数据进行训练,因此,语言模型
的训练过程也不可避免需要构造训练语料。
但是由于训练目标可以通过无标注文本直接获得,从而使得模型的训练仅需要大规模无标注文本即可。语言模型也成为了典型的自监督学习(Self-supervisedLearning)任务。
互联网的发展,使得大规模文本非常容易获取,因此训练超大规模的基于神经网络的语言模型也成为了可能。;
语言模型训练完成仅是万里长征第一步;;
预训练阶段
1000+GPU
月级别训练时间
GPT3.0、LLaMa、PaLM;;
语言模型(LanguageModel,LM)目标是构建词序列w1w2...wm的概率分布P(w1w2...wm),即计算给定的词序列w1w2...wm作为一个句子出现的可能性大小。;
在预训练语料集方面,根据文献[40]中的报道,GPT-3中通过主要包含经过过滤的CommonCrawl
数据集、WebText2、Books1、Books2以及英文Wikipedia等数据集合。其中CommonCrawl的原始数据有45TB,进行过滤后仅保留了570GB的数据。通过子词方式对上述语料进行切分,大约一共包含5000亿子词。为了保证模型使用更多高质量数据进行训练,在GPT-3训练时,根据语料来源的不同,设置不同的采样权重。在完成3000亿子词训练时,英文Wikipedia的语料平均训练轮数为3.4次,而CommonCrawl和Books2仅有0.44次和0.43次。
由于CommonCrawl数据集合的过滤过程繁琐复杂,OPT则采用了混合RoBERTa、Pile和
PushShift.ioRedit数据的方法。由于这些数据集合中包含的绝大部分都是英文数据,因此OPT也从CommonCrawl数据集中抽取了部分非英文数据加入训练语料。;
由于模型参数量和所使用的数
您可能关注的文档
最近下载
- 汽车坡道玻璃雨棚施工方案.doc
- 抗精神病药长效针剂治疗精神分裂症的专家共识.pptx
- NB╱T 31112-2017 风电场工程招标设计技术规定.pdf
- 专升本退役士兵计算机考试试卷.docx VIP
- 2018人教版六年级美术上册教案.doc VIP
- 2022年捷昌驱动行测笔试题库.pdf
- 16-pf(卡特尔16种人格因素问卷及答案).pdf VIP
- 龙思思-新媒体产品设计与项目管理-第6章 新媒体产品竞争分析.pptx VIP
- 中华民族共同体概论课件专家版15第十五讲:新时代与中华民族共同体建设.pdf VIP
- 超长大体积混凝土结构跳仓法技术规程超长大体积混凝土结构跳仓法技术规程.pdf VIP
文档评论(0)