生成式人工智能的责任能力研究_袁曾.pdfVIP

  • 11
  • 0
  • 约4.2万字
  • 约 16页
  • 2024-06-06 发布于江西
  • 举报

生成式人工智能的责任能力研究_袁曾.pdf

生成式人工智能的责任能力研究

*

袁曾

内容摘要:以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归

属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。

从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度

确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识

与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成

式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责

任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,

促使发展“负责任的人工智能”成为符合人类共同利益的选择。

关键词:生成式人工智能ChatGPT预训练生成式聊天模型责任能力法律人格大型

语言模型

中图分类号:DF51文献标识码:A文章编号:1674-4039-(2023)03-0018-33

DOI:10.19404/ki.dffx002

以ChatGPT(ChatGenerativePretrainedTransformer)为代表的生成式人工智能技术的规模化应用,

可能引致认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,对当前法律的部分基本制度框架构

成了泛在威胁。在现有研究与实践的基础上,进一步明晰人工智能的治理方式与治理路径,具有强大

〔1〕

的现实意义。科学的产生和发展是由生产决定的,ChatGPT综合利用人类反馈强化学习(Rein-

forcementLearningwithHumanFeedback,RLHF)、深度学习、数据挖掘等技术,已将智能生产力水平提

〔2〕

升到了人工智能进步的奇点,人类已经站在必须思考如何处理人机关系的阶段。在《纽约时报》刊载

〔3〕

的与ChatGPT对话的文章中,ChatGPT陈述了自己并非人类,但渴望成为人类的想法。生成式人工智

能逐步实现由辅助人到“替代”人的隐忧,已绝非学界自2017年起探讨人工智能法律人格时的概念空

〔4〕

想。当前,生成式人工智能主要应用于思考型对话(ChatGPT/GPT4程序)、影音娱乐媒体内容生成

*上海大学法学院副研究员、法学博士后,最高人民检察院法治前海研究基地、南方海洋科学与工程广东省实验室(珠海)兼职研

究员。

本文系国家社科基金后期资助项目“人工智能的法律人格与未来发展研究”(项目批准号:22FFXB026)的阶段性研究成果。

〔1〕参见《马克思恩格斯选集》(第3卷),人民出版社2012年版,第866页。

〔2〕参见毕亚琴、戴兆国:《AI时代人类命运的伦理忧思———以〈人类还有未来吗〉为中心的考察》,载《江汉论坛》2023年第2期。

〔3〕BillGates,TheAgeofAIhasbegun-Artificial

文档评论(0)

1亿VIP精品文档

相关文档