- 1、本文档共3页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
大模型(LLMs)基础面
来自:AiGC面试宝典
2023年09月28日21:50
1目前主流的开源模型体系有哪些?
目前主流的开源模型体系分三种:
•第一种:prefixDecoder系
•介绍:输入双向注意力,输出单向注意力
•代表模型:ChatGLM、ChatGLM2、U-PaLM
•第二种:causalDecoder系
•介绍:从左到右的单向注意力
•代表模型:LLaMA-7B、LLaMa衍生物
•第三种:Encoder-Decoder
•介绍:输入双向注意力,输出单向注意力
•代表模型:T5、Flan-T5、BART
2prefixDecoder和causalDecoder和Encoder-Decoder区别是什么?
prefixDecoder和causalDecoder和Encoder-Decoder区别在于attentionmask不同:
•Encoder-Decoder:
•在输入上采用双向注意力,对问题的编码理解更充分
•适用任务:在偏理解的NLP任务上效果好
•缺点:在长文本生成任务上效果差,训练效率低;
•causalDecoder:
•自回归语言模型,预训练和下游应用是完全一致的,严格遵守只有后面的token才能看到前面的
token的规则;
•适用任务:文本生成任务效果好
•优点:训练效率高,zero-shot能力更强,具有涌现能力
•prefixDecoder:
•特点:prefix部分的token互相能看到,causalDecoder和Encoder-Decoder折中;
•缺点:训练效率低
3大模型LLM的训练目标是什么?
1.语言模型
根据已有词预测下一个词,训练目标为最大似然函数:
训练效率:PrefixDecoderCausalDecoder
CausalDecoder结构会在所有token上计算损失,而PrefixDecoder只会在输出上计算损失。
1.去噪自编码器
随机替换掉一些文本段,训练语言模型去恢复被打乱的文本段。目标函数为:
去噪自编码器的实现难度更高。采用去噪自编码器作为训练目标的任务有GLM-130B、T5.
4涌现能力是啥原因?
根据前人分析和论文总结,大致是2个猜想:
•任务的评价指标不够平滑;
•复杂任务vs子任务,这个其实好理解,比如我们假设某个任务T有5个子任务Sub-T构成,每个sub-T随
着模型增长,指标从40%提升到60%,但是最终任务的指标只从1.1%提升到了7%,也就是说宏观上看到
了涌现现象,但是子任务效果其实是平滑增长的。
5为何现在的大模型大部分是Decoderonly结构?
因为decoder-only结构模型在没有任何微调数据的情况下,zero-shot的表现能力最好。而encoder-decoder则
需要在一定量的标注数据上做multitask-finetuning才能够激发最佳性能。
目前的LargeLM的训练范式还是在大规模语料shang做自监督学习,很显然zero-shot性能更好的decoder-only架
构才能更好的利用这些无标注的数据。
大模型使用decoder-only架构除了训练效率和工程实现上的优势外,在理论上因为Encoder的双向注意力会存在
低秩的问题,这可能会削弱模型的表达能力。就生成任务而言,引入双向注意力并无实质的好处。而Encoder-
decoder模型架构之所以能够在某些场景下表现更好,大概是因为它多了一倍参数。所以在同等参数量、同等推
理成本下,Decoder-only架构就是最优的选择了。
6简单介绍一下大模型【LLMs】?
大模型:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型
(LargeLanguageModel,LLM)是针对语言的大
您可能关注的文档
- 大模型面试题-5-transformers 操作篇.pdf
- 大模型面试题-4-Attention 升级面.pdf
- 大模型面试题-3-LLMs 激活函数篇.pdf
- 大模型面试题-2-Layer normalization 篇.pdf
- 大模型面试题-43-显存优化策略篇.pdf
- 大模型面试题-42-大模型(LLMs)显存问题面.pdf
- 大模型面试题-41-大模型(LLMs)LLM生成SFT数据方法面.pdf
- 大模型面试题-40-大模型(LLMs)训练集面.pdf
- 大模型面试题-39-强化学习在自然语言处理下的应用篇.pdf
- 大模型面试题-38-大模型(LLMs)强化学习—— PPO 面.pdf
- ds2-datalogic-用户操作说明书手册.pdf
- ifd9507-ethernet-ip-delta-electronics-用户操作说明书手册.pdf
- NICE1 操作说明书手册 v1.4.pdf
- diavh-ipc00j104-standard-type-ipc-delta-electronics-用户操作说明书手册.pdf
- ifd9506-ethernet-delta-electronics-用户操作说明书手册.pdf
- Galaxy_DX73V_使用说明书手册.pdf
- 单词级文本对抗攻击-程瑶.pdf
- Chattanooga PresSsion 652-8 使用操作说明书手册.pdf
- 多人协作开发Git使用介绍-李嘉玮.pdf
- zebra-mc3300x-rfid-用户操作说明书手册-QWY4wZkwRvtfYlztPnMXJg-31fc6ab9.pdf
最近下载
- 维修电工高级实操题库.pdf VIP
- 桥梁工程墩柱、盖梁模板支架专项施工方案.doc
- 2024-2025学年苏科版七年级数学下册 第9章 图形的变换 综合素质评价(含答案).pdf VIP
- 移动厕所投标方案(技术标 310页).doc
- 2023年江苏省普通高校单独招生统一考试电子电工单招试卷-B卷.docx
- 2025年成都市公共交通集团有限公司人员招聘笔试备考试题及答案解析.docx
- GB+30871-2022国家新标准规范.pdf
- 学生处处长述职报告范文.pdf VIP
- 国电乐东发电公司配煤掺烧全流程动态优化系统介绍(罗荣).pdf
- GB50433-2018 生产建设项目水土保持技术标准.docx
文档评论(0)