- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
人工智能行业专题报告:从RNN到ChatGPT,大模型的发展与应用
1.语言模型的原理和技术发展
1.1.引言——从RNN到ChatGPT
自然语言处理(NaturalLanguageProcessing,NLP)是计算机科学、人工智能和语言学领域的一个交叉学科,主要研究如何让计算机能够理解、处理、生成和模拟人类语言的能力,从而实现与人类进行自然对话的能力。通过自然语言处理技术,可以实现机器翻译、问答系统、情感分析、文本摘要等多种应用。随着深度学习技术的发展,人工神经网络和其他机器学习方法已经在自然语言处理领域取得了重要的进展。自然语言处理的发展可追溯到20世纪50年代,当时计算机科学家开始尝试通过计算机程序来实现对自然语言的理解和生成。早期研究主要关注规则和基于知识的方法,如编写语法规则和词典来进行句子分析。20世纪80年代,随着计算能力的提高和大量语料库的出现,统计方法在自然语言处理领域逐渐占据主导地位。这一时期,许多基于统计的机器翻译、分词、词性标注等方法相继出现。进入21世纪,尤其是近十几年,深度学习技术的发展极大地推动了自然语言处理的进步。
从2010年,TomasMikolov及其合作者提出了基于循环神经网络(RNN)的语言模型开始,自然语言处理进入了高速发展时期。2015年DzmitryBahdanau等人在论文《Neuralmachinetranslationbyjointlylearningtoalignandtranslate》中提出的注意力机制,使语言模型可以学习到词和词之间更深层次的依赖关系,从而更好地理解和生成语句。著名的Transformer结构就广泛采用了注意力机制,引领了后续自然语言处理技术的发展。以谷歌在2018年提出的BERT为代表的预训练语言模型,再次将自然语言处理的发展推进到了一个新的阶段。预训练语言模型利用无监督学习在大规模语料库上进行预训练,生成一个通用的语言模型,然后在特定任务上进行微调,在数据利用、任务泛化、模型性能方面都有显著提升。OpenAI发布的GPT-3模型,参数量达到1750亿,其智能涌现能力标志着人工智能模型的自然语言处理能力进入了下一个阶段。最新发布的GPT-4.0版本,参数规模达到了万亿以上,由单纯的语言模型进一步发展为可以处理来自不同模态(图像、语音、文本等)信息的多模态大模型。本章将按时间顺序介绍语言模型的各发展阶段,以及各阶段具有代表性的技术原理。
1.2.自回归语言模型
1.2.1.循环神经网络-RNN
1.2.1.1.循环神经网络
循环神经网络(RNN)于2010年被首次应用于语言模型的训练,其基本结构即为基本的隐变量自回归模型。RNN模型在每一个时间步都进行隐变量计算,并基于计算得到的隐变量对本时间步的输出进行预测。对于每一个时间步,RNN的隐变量与上一个时间步使用相同的定义,结合当前时间步的输入信息循环地计算新的隐变量。于是基于循环计算的隐状态神经网络被命名为循环神经网络。
1.2.2.长短期记忆网络-LSTM与门控循环单元-GRU
为了解决循环神经网络模型存在的长期依赖问题,研究人员先后提出了长短期记忆网络(longshort-termmemory,LSTM)以及其简化的变体——门控循环单元(gatedrecurrentunit,GRU)。相较于前文所介绍的循环神经网络,LSTM与GRU对于长序列问题的处理效果更佳,并在在自然语言处理、语音识别、时间序列预测等领域得到了更加广泛地应用。
1.2.2.1.长短期记忆网络-LSTM
LSTM是一种改进的RNN,旨在有效地处理和捕捉长期依赖关系的序列数据,它的核心思想是引入一种特殊的内部状态机制,以更好地处理长序列,并避免梯度消失问题。LSTM引入了记忆单元(memorycell)来管理隐状态中记录的信息,通过几个门结构对其进行控制:输出门(outputgate)用来从单元中输出条目;输入门(inputgate)用于控制数据的读入;遗忘门(forgetgate)用于重置记忆单元的内容。这三种门结构相配合的机制可以决定什么时候该对隐状态输入的信息作记忆,什么时候忽略。同为隐藏层的输出,记忆单元仅用于网络内部信息的维护,隐状态则会传递到输出层用于预测当前时间步的输出结果。
1.2.2.2.门控循环单元-GRU
相比于LSTM,门控循环单元(GRU)是一个稍微简化的变体。通常,GRU能够提供与LSTM同等的效果,且收敛的速度更快。
1.2.3.编码器-解码器架构
将输入序列转换成输出序列的序列
您可能关注的文档
- 汽车智能座舱行业深度报告.doc
- 浅析潮流电商独角兽——得物App.doc
- 区块链应用:供应链金融数字化.doc
- 全球电动汽车展望(2023年).doc
- 人工智能大模型赋能医疗健康产业白皮书(2023年).doc
- 人工智能行业深度报告:AI下半场,应用落地,赋能百业.doc
- 人工智能行业专题研究.doc
- 人形机器人上游扩产几何.doc
- 人形机器人行业深度报告.doc
- 人形机器人行业深度报告:AI风起,量产在即.doc
- 2025年事业单位工勤技能-安徽-安徽汽车驾驶与维修员三级(高级工)历年参考题典型考点含答案解析.docx
- 2025年事业单位工勤技能-河北-河北农业技术员二级(技师)历年参考题典型考点含答案解析.docx
- 2025及未来5年AGV激光导引车项目投资价值分析报告.docx
- 2025及未来5年尼龙浇铸制品项目投资价值分析报告.docx
- 2025及未来5年门铃讲话芯片项目投资价值分析报告.docx
- 2025及未来5-10年沙缸项目投资价值市场数据分析报告.docx
- 2025及未来5年山地车灯叉项目投资价值分析报告.docx
- 2025及未来5年电磁炉平底锅项目投资价值分析报告.docx
- 2025及未来5年路灯座项目投资价值分析报告.docx
- 2025及未来5年磁带存储设备项目投资价值分析报告.docx
原创力文档


文档评论(0)