- 1、本文档共12页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
学术探索
AcademicExploration2024年第7期(总第296期)
生成式人工智能虚假信息风险与治理研究
张素华,李凯
(武汉大学法学院,湖北武汉430072)
摘要:以ChatGPT为代表的生成式人工智能改变了人机交互、信息获取、信息传播的方式,但大语言模型的“幻
视”问题也给虚假信息治理带来了新的挑战。训练数据瑕疵、算法黑箱以及大语言模型的“涌现能力”等因素致
使虚假信息风险呈扩大趋势,对个人权益保护、社会稳定以及国家安全构成了严重威胁。《生成式人工智能服务
管理暂行办法》明确要求不得利用生成式人工智能生成虚假信息,但在虚假信息的监管主体、监管职责及法律责
任等方面缺乏具体规定,不足以有效应对生成式人工智能下的虚假信息风险。为破解当下困局,应当秉持包容审
慎的治理态度,立足我国法治实践现状,从规范体系、治理主体、责任承担和制度环境等维度构建生成式人工智能
虚假信息的治理框架。
关键词:生成式人工智能;ChatGPT;虚假信息风险;治理框架
中图分类号:DF01文献标识码:A文章编号:1006-723X(2024)7-0129-12
生成式人工智能(AIGC,AIGeneratedCon性,其在生成虚假信息上的弊端已经开始显现,
tent),是继专家生成内容(ProfessionallyGenerated其所带来的虚假信息风险不容忽视。2023年7
Content,PGC)、用户生成内容(User-Generated月10日,国家网信办联合多部门发布了《生成
Content,UGC)之后一种新的内容生产方式,可以式人工智能服务管理暂行办法》(以下简称
通过从预先存在数据中的学习模式来生成新内《AIGC管理暂行办法》),成为当下规制ChatG
①PT类生成式人工智能的纲领性文件。《AIGC
容(例如文本、图像和视频),也代表着内容自动
②
化生成的一类技术集合。ChatGPT作为生成式管理暂行办法》从生成内容、训练数据来源、生
人工智能的一个典型应用,凭借其大数据、强算成式人工智能服务提供者责任等方面对虚假信
法和大算力,极大地推动了AIGC在文本、图像、息的治理作出了宣示性的规定,但缺少精细化
音视频、
3D交互、数据合成(syntheticdata)等内配套措施,且与《网络信息内容生态治理规定》
容场景的全覆盖以及跨模态生成。随着ChatGPT(以下简称《信息内容治理规定》)、《互联网信
的火爆出圈,在人们对技术未来充满憧憬的同息服务算法推荐管理规定》(以下简称《算法推
时,“虚假信息”问题也接踵而至,因为ChatGPT荐管理规定》)、《互联网信息服务深度合成管理
有时会生成“看起来合理但实际上是错误或不合规定》(以下简称《深度合成管理规定》)等文件
③存在内容上的重叠。因此,应当从ChatGPT类
理的答案”。
由于ChatGPT生成内容的虚假性和模糊生成式人工智能的底层架构和技术特征出发,
基金项目:国家社科基金一般项目(21BFX016)
作者简介:张素华(1976—),女,湖北宜昌人,武汉大学法学院教授,法学博士,主要从事民商法、人工智能法研究;
李凯(1996—),男,湖南益阳人,武汉大学法学院博士研究生,主要从事民商法、人工智能法研究。
①AmericanCongressionalResearchService(CRS):GenerativeArtificialIntelligenceandDataPrivacy:APrimer[EB/OL].(2023-05-
23)[2023-09-29].https://crsreports.congress.gov/product/pdf/R/R47569.
②中国信息通信研究院,京东探索研究院.人工智能
- 乡村振兴、双碳、储能、绿色金融 + 关注
-
实名认证服务提供商
新能源知识科普(本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料)。
文档评论(0)