- 1、本文档共17页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
6.3利用大模型生成代码
目录页contents6.3.1大规模预训练模型概述6.3.2使用大模型进行代码生成6.3.3应用场景123
选题背景及意义ONE6.3.1大规模预训练模型概述
6.3.1大规模预训练模型概述1.大模型发展历程(1)早期探索(1950s-1980s)1950年:图灵测试艾伦·图灵提出图灵测试,为人工智能的发展奠定了基础。1956年:达特茅斯会议人工智能正式成为一门学科,开启了人工智能研究的序幕。1960s-1970s:感知机和专家系统感知机模型的提出引发了第一次神经网络热潮。专家系统在特定领域取得了一定成功,但局限性明显。
6.3.1大规模预训练模型概述1.大模型发展历程(2)神经网络复兴(1980s-1990s)1986年:反向传播算法反向传播算法的提出解决了多层神经网络训练难题,推动了神经网络的发展。1989年:卷积神经网络(CNN)YannLeCun提出卷积神经网络,为图像识别领域带来了突破。1997年:长短期记忆网络(LSTM)LSTM的提出解决了传统RNN的梯度消失问题,为序列建模奠定了基础。
6.3.1大规模预训练模型概述1.大模型发展历程(3)深度学习崛起(2000s-2010s)2006年:深度学习GeoffreyHinton提出深度学习概念,开启了深度学习的新时代。2012年:AlexNetAlexNet在ImageNet图像识别挑战赛中取得突破性成绩,深度学习引起广泛关注。2014年:生成对抗网络(GAN)IanGoodfellow提出生成对抗网络,为图像生成和风格迁移等领域带来了新的可能性。2017年:TransformerTransformer模型的提出彻底改变了自然语言处理领域,为后续大模型的发展奠定了基础。
6.3.1大规模预训练模型概述1.大模型发展历程(4)大模型时代(2018年-至今)2018年:GPTOpenAI发布GPT模型,开启了大规模预训练语言模型的时代。2019年:GPT-2GPT-2展现出强大的文本生成能力,引发了对大模型潜在风险的讨论。2020年:GPT-3GPT-3拥有1750亿参数,在多种自然语言处理任务上取得了令人惊叹的成绩。2022年:ChatGPTChatGPT的出现标志着大模型在对话式AI领域取得了重大突破,引发了全球范围内的关注和讨论。2023年:GPT-4GPT-4在性能和应用范围上进一步提升,推动了大模型在各行各业的应用。2024年:DeepSeek-V2DeepSeek-V2在保持高效训练和推理的同时,实现性能的进一步提升,推动大模型技术的实际应用落地。
2.模型架构模型核心架构核心机制优势典型应用Transformer编码器-解码器堆叠结构
(多头自注意力+前馈网络)自注意力机制
并行处理长序列全局依赖捕捉
高效并行计算机器翻译、文本生成BERTTransformer编码器堆叠双向上下文编码
(MLM掩码语言模型+NSP下一句预测)深层语义理解
适应多种NLP任务文本分类、问答、实体识别ERNIEBERT改进+知识增强知识驱动的掩码策略
(实体/短语级掩码+多任务持续学习)融合外部知识
提升语义推理能力知识问答、搜索、跨语言任务6.3.1大规模预训练模型概述
(1)预训练(Pre-training)在预训练阶段,模型通过大量的未标注数据学习通用的语言规律和知识。例如,模型可能会学习到词汇的语义、句法结构以及上下文关系等。这一阶段的目标是让模型具备广泛的语言理解能力,为后续的特定任务奠定基础。(2)微调(Fine-tuning)微调阶段,模型在预训练的基础上,使用特定任务的标注数据进行进一步训练。这使得模型能够适应特定的应用场景,如情感分析、机器翻译等。微调的过程通常需要较少的计算资源和时间,因为模型已经在预训练阶段积累了丰富的通用知识。3.训练过程6.3.1大规模预训练模型概述
选题背景及意义TWO6.3.2使用大模型进行代码生成
(1)输入指令内容示例:请编写一个冒泡排序算法,确保排序后的数值按照升序排序,要求:1.使用Python编程语言实现冒泡排序算法。2.算法应包含对数组的初始化、冒泡排序逻辑以及最终数组的输出。3.请确保代码简洁、易读,并包含必要的注释。1.文心一言使用步骤6.3.2使用大模型进行代码生成
(2)模型生成代码文心一言将按照提示词的要求输出符合要求的代码,以及对代码中关键处作出解释说明。将文心一言输出的代码复制到Python运行环境中。6.3.2使用大模型进行代码生成
2.调试运行代码6.3.2使用大模型进行代码生成
选题背景及意义THREE6.3.3大模型的应用场景
大模型的应用场
您可能关注的文档
- 《运动控制技术及应用》教材配套任务工单.doc
- 《运动控制技术及应用》课程标准.doc
- 《运动控制技术及应用》课件 项目1—任务1 变频器的认识.pptx
- 《运动控制技术及应用》课件 项目1—任务2 变频器的安装.pptx
- 《运动控制技术及应用》课件 项目1—任务3 变频器的面板操作.pptx
- 《运动控制技术及应用》课件 项目1—任务4 基于 PLC 的变频器多段速运行控制系统设计.pptx
- 《运动控制技术及应用》课件 项目1—任务5 基于 Modbus 通信的变频器调速系统设计.pptx
- 《运动控制技术及应用》课件 项目2—任务1 基于 PLC 的工作台控制系统设计.pptx
- 《运动控制技术及应用》课件 项目2—任务2 基于 PLC 的钻孔加工控制系统设计.pptx
- 《运动控制技术及应用》课件 项目3—任务1 伺服驱动器和伺服电机认识.pptx
文档评论(0)