网站大量收购独家精品文档,联系QQ:2885784924

DeepSeek大模型概念、技术与应用实践.pptx

DeepSeek大模型概念、技术与应用实践.pptx

  1. 1、本文档共135页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

DeepSeek

每个人都可以读懂的大模型科普文章

大模型概念、技术与应用实践;;

1.1图灵测试

1.2人工智能的诞生

1.3人工智能的发展阶段

1.4未来人工智能发展的五个阶段;

1950年,“计算机之父”和“人工智能之父”艾伦·图灵(AlanM.Turing)发表了论文《计算机器与智能》,这篇论文被誉为人工智能科学的开山之作。在论文的开篇,图灵提出了一个引人深思的问题:“机器能思考吗?”。这个问题激发了人们无尽的想象,同时也奠定了人工智能的基本概念和雏形;

人工智能的诞生可以追溯到20世纪50年代。当时,计算机科学刚刚起步,人们开始尝试通过计算机程序来模拟人类的思维和

行为。在这个背景下,一些杰出的科学家和工程师们开始研究如何使计算机具备更高级的功能

1956年8月,在美国达特茅斯学院举办的人工智能夏季研讨会,是人工智能领域具有里程碑意义的一次重要会议。这次会议汇聚了众多杰出的科学家和工程师,他们共同探讨和研究人工智能的发展和应用前景

这次会议的主题围绕着人工智能的定义、研究方法和应用场景展开。与会者们深入探讨了人工智能的基本概念、算法和技术,以及其在各个领域的应用潜力。他们共同认识到,人工智能的研究和发展将为人类带来巨大的变革和进步;

在这次会议上,“人工智能”这个词汇被约翰.麦卡锡(JohnMcCarthy)首次提出。与会者们不仅对人工智能的研究和应用

前景进行了深入探讨,还提出了许多重要的观点和思路,为人工智能的发展奠定了基础。这次会议的召开标志着人工智能作为一个独立学科的正式诞生,因此,达特茅斯会议被称为“人工智能的开端”,1956年也被称为“人工智能元年”。这次会议不仅为人工智能的研究和发展奠定了基础,还为人类带来了巨大的变革和进步;

1.3人工智能的发展阶段;

1.4未来人工智能发展5个阶段;;

拥有和人工智能协作的能力,

懂得如何运用人工智能;

3.7大模型分类

3.8大模型应用领域(在各个行业的应用)

3.9大模型对工作和生活的影响

3.10本地部署大模型

3.11基于大模型的智能体;

大模型通常指的是大规模的人工智能模型,是一种基于深度学习技术,具有海量参数、强大的学习能力和泛化能力,能够处

理和生成多种类型数据的人工智能模型

通常说的大模型的“大”的特点体现在:参数数量庞大、训练数据量大、计算资源需求高

2020年,OpenAI公司推出了GPT-3,模型参数规模达到了1750亿,2023年3月发布的GPT-4的参数规模是GPT-3的10倍以上,达到1.8万亿,2021年11月阿里推出的M6模型的参数量达10万亿;

大模型的设计和训练旨在提供更强大、更准确的模型性能,以应对更复杂、更庞大的数据集或任务。大模型通常能够学习到

更细微的模式和规律,具有更强的泛化能力和表达能力;

3.2大模型的发展历程;

这是一个以CNN(ConvolutionalNeuralNetworks,卷积神经网络)

为代表的传统神经网络模型阶段

n1956年,从计算机专家约翰·麦卡锡提出“人工智能”概念开始,AI发展由最开始基于小规模专家知识逐步发展为基于机器学习

n1980年,卷积神经网络的雏形CNN诞生

n1998年,现代卷积神经网络的基本结构LeNet-5诞生,机器学习方法由早期基于浅层机器学习的模型,变为了基于深度学习的模型,为自然语言生成、计算机视觉等领域的深入研究奠定了基础,对后续深度学习框架的迭代及大模型发展具有开创性的意义;

这是一个以Transformer为代表的全新神经网络模型阶段

2013年,自然语言处理模型Word2Vec诞生,首次提出将单词转换为向量的“词向量模型”,以便计算机更好地理解和处理文本数据。

2014年,被誉为21世纪最强大算法模型之一的GAN(Generative

AdversarialNetworks,对抗式生成网络)诞生,标志着深度学习进入了生成模型研究的新阶段

2017年,Google颠覆性地提出了基于自注意力机制的神经网络结构——Transformer架构,奠定了大模型预训练算法架构的基础

2018年,OpenAI基于Transformer架构发布了GPT-1大模型,意味着预训练大模型成为自然语言处理领域的主流,其中,GPT的英文全称是GenerativePre-TrainedTransformer,是一种基于互联网的、可

用数据来训练的、文本生成的深度学习模型

2019年,OpenAI发布了GPT-2

文档评论(0)

gayl22 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档