网站大量收购闲置独家精品文档,联系QQ:2885784924

AIGC人工智能大模型技术安全问题研究及对策.pdfVIP

AIGC人工智能大模型技术安全问题研究及对策.pdf

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AIGC人工智能大模型技术安全问题研究

及对策

摘要:AIGC(生成式人工智能)大模型技术开启了新一代信息技术

革命,将深刻改变人类社会的生产生活方式,既带来了前所未有的机遇,也潜藏

着大量未知的安全风险和挑战。该技术开辟了通往通用人工智能的可行路径,引

发了人机交互方式、知识传播方式、协同生产模式和互联网内容生态的持续变革,

由于人工智能技术依然存在局限性,因其迅速广泛和深入的融入了千行百业的应

用中,会在技术安全、社会安全和产业安全等方面带来诸多风险与挑战,需要围

绕法律法规、治理机制、安全技术领域开展关键技术攻关、工具研发和安全监管

工作,秉持以人为本的原则,构建人机共生、共融、共创可持续健康发展的人工

智能新时代。

关键字:AIGC人工智能大模型信息安全数据安全

一、序言

大规模算力提升与大规模数据集的积累让人工智能发展产生了质的飞跃,从

决策式人工智能进入到生成式人工智能(AIGC)阶段,自2020年起全球顶尖人

工智能团队就在尝试让人工智能理解人类语言和意图并具备文字、图片、音视频

等不同类型的内容生成能力,在这个过程里,人类对内容生产过程和传播过程的

掌控权逐步削弱,人工智能算法逐渐掌握了话语权和权力核心,生成式人工智能

的出现以及通往通用人工智能可行路径和关键技术有望逐一验证与攻破,人工智

能将发展到可以自行捕捉数据、寻找工具、生成内容并将内容转化为指令来影响

人类行为、推进协同和形成生产能力的阶段。自2022年11月30日OpenAI公司

发布ChatGPT,用户量和应用生态迅速铺开,生成式人工智能大模型驱动的对话式

交互方式大大降低了人类和数字世界沟通、掌握数字化工具的门槛,并催生了全

球生成式大模型的研发热潮,进一步显示了人类迈向通用人工智能(AGI)的可

能性。中国境内截至2023年8月就已经推出一百三十余个大模型,并积极开展

和各产业领域共建垂直领域人工智能大模型驱动产业数智化升级的探索。人工智

能的飞速发展虽然带来了前所未有的机遇,但也潜藏着大量未知的安全风险和挑

战,持续发现风险隐患苗头并配套安全风险解决方案和防范措施研究将是统筹人

工智能健康发展与安全可控的重要工作。

二、AIGC人工智能大模型发展进程

OpenAI公司的ChatGPT是基于GPT(GenerativePre-trainedTransformer)

系列大模型推出的AIGC应用,GPT系列是首次让全球用户感到人工智能的发展有

可能突破图灵测试、进入到新阶段的人工智能算法模型,验证了大规模数据、大

规模算力、大规模参数模型与人工指令微调相结合的通往通用人工智能的可行路

径。该大模型算法是一种基于Transformer模型的语言生成模型,自2018年发

布以来,GPT系列模型已经成为自然语言处理领域的重要研究方向之一。

其中GPT-1是最早的将Transformer以多层堆叠的方式构成语言模型的单任

务模型,有效证明了在自然语言处理领域上使用预训练和微调方式的有效性。由

于单任务模型缺乏泛化性,并且多任务学习需要大量有效训练对,GPT-2在GPT-

1的基础上进行了扩展和优化,去掉了有监督学习,通过自监督的模型来做监督

学习的任务,GPT-2采用了更大的文本数据和更强大的计算资源进行训练,参数

规模达到了15亿,远超过GPT-1的1.1亿参数,为零样本学习(zero-shot)奠

定了基础,即将预训练好的模型直接应用于诸多的下游任务,在多项自然语言处

理任务上表现出了卓越的性能,包括文本生成、文本分类、语言理解等。为了更

好的符合人类语言的意图,具备多任务处理能力,OpenAI进一步扩大了训练数据

量和模型参数量,提出Scaling-Law(大模型参数规模缩放法则),认为数据量

和模型参数量按一定比例增加到一定规模,大模型就会涌现出一种智能,可以解

决和生成以往没有接触和学习过的内容和任务,进一步优化模型in-context

learning(上下文学习)能力,形成的GPT3大模型参数两达1750亿参数。此后

为了使模型具备更加深入的理解能力、推理能力并能够准确地与人类需求意图相

匹配,在GPT3.5中加入了程序代码数据集的训练、

文档评论(0)

LLFF333 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档