知识表示与处理(2025-第15次课 大语言模型技术前沿I).pdfVIP

知识表示与处理(2025-第15次课 大语言模型技术前沿I).pdf

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

扩展定律(Scalinglaw)

Ø扩展定律(ScalingLaws)是大语言模型(LLM)发展中最具指导意义的经验规律

之一,它揭示了模型性能如何随计算资源、数据量和模型规模的变化而系统性提升。

《ScalingLawsforNeuralLanguageModels》(OpenAI,2020)

•在标准自回归语言建模任务中,测试损失L(衡量模型预测准确性的指标)与模型

参数量N(Parameters)、训练数据量D(Tokens)、计算量C(FLOPs,C∝N·D

)三个因素呈幂律关系(PowerLaw):

其中,A,B,α,β:任务相关的常数

p存在最优计算分配:给定总计算预算C,存在最优的N∗和D∗使得损失最小

p数据量不足会严重限制大模型潜力

p,即计算量每增加10倍,损失下降约15%

大语言模型(LLM)

大语言模型(LLM)

AbriefillustrationforthetechnicalevolutionofGPT-seriesmodels.

Atimelineofexistinglargelanguage

models(havingasizelargerthan10B)

inrecentyears.

TheapplicationsofLLMs

TheapplicationsofLLMsinrepresentativeresearchdirectionsanddownstreamdomains.

LLM的定义

大语言模型(LargeLanguageModel,LLM)是指在海量无标注文本数据上进行训

练得到的大型预训练语言模型。

从任务解决能力的角度看,语言模型(LM)四代演进过程。

大语言模型(LargeLanguageModels,LLMs),是当前人工智能发展的核心驱动

力。它们之所以被称为“大”,不仅因为参数量庞大,更因为其展现出的通用性、涌

现能力与任务泛化性。

LLM的特点

规模宏大(Scale)

•参数量大:通常≥10亿(Billion)参数,主流模型如:

•训练数据海量:训练语料达TB级别,涵盖网页、书籍、代码、百科、论坛等(如

Llama3使用超15万亿tokens)。

•计算资源密集:训练需数千GPU日(如GPT-3训练成本约460万美元)。

•Llama3-70B(700亿)

•GPT-3(1750亿)

•混合专家模型(如Mixtral、Qwen-Max

)等效参数可达数千亿。

LLM的特点

通用性强(General-Purpose)

•单一模型,多任务胜任:无需为每个任务单独训练模型。

文档评论(0)

186****7161 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档