- 1、本文档共22页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
2025年初,我国推出了—款开创性且高性价比的「大型语言模型」(Large
LanguageModel,LLM)——DeepSeek-R1,引发了Al领域的巨大变革。
本文回顾LLM的发展历程,以2017年具有革命性意义的Tranformer架构为起点。
s
大型语言模型简史
201720182018201920192020202120222022202320232024202420242025
JUNJUNOCTFEBOCTMAYSEPMARNOVFEBMARMARAPRDECJAN
TransformersGPT-3ChatGPTDeepSeek-Rl
1.什么是语言模型(LanguageModels)
一种「人工智能系统」,旨在处理、理解和生成类似人类的语言。它们
「语言模型」是
从大型数据集中学习模式和结构,使得能够产生连贯且上下文相关的文本,应用于翻
译、摘要、聊天机器人和内容生成等领域。
TextInputTextOutput
Language
WhatisthecapitalofChina?Beijing
Model
QuestionorProm优',Response
1.1大型语言模型(LLMs)
「语言模型」(LMs)和「大型语言模型」(LLMs)这两个术语虽然经常被互换使用,
但实际上它们基于规模、架构、训练数据和能力指代不同的概念。LLMs是LMs的一个
子集,其规模显著更大,通常包含数十亿个参数(例如,GPT-3拥有1750亿个参
数)。这种更大的规模使LLMs能够在广泛的任务中表现出卓越的性能。
”
“LLM这一术语在2018至2019年间随着基于Transformer架构的模型(如BERT和
GPT-1)的出现开始受到关注。然而,在2020年GPT-3发布后,这个词才被广泛使
用,展示了这些大规模模型的重大影响力和强大能力。
1.2自回归语言模型(AutoregressiveLanguageModels)
大多数LLMs以「自回归方式」{Autoregressive)操作,这意昧着它们根据前面的
「文本」预测下一个「字」(或token/sub-word)的「概率分布」(propability
distribution)。这种自回归特性使模型能够学习复杂的语言模式和依赖关系,从而善
千「文本生成」。
在数学上,LLM是一个概率模型(ProbabilisticModel),根据之前的输入文本
文档评论(0)