从“可解释”到“可信任”:人工智能治理的逻辑重构.pdfVIP

  • 0
  • 0
  • 约4.26万字
  • 约 19页
  • 2026-01-21 发布于福建
  • 举报

从“可解释”到“可信任”:人工智能治理的逻辑重构.pdf

第25卷第6期北京工业大学学报(社会科学版)Vol.25No.6

2025年11月JOURNALOFBEIJINGUNIVERSITYOFTECHNOLOGY(SOCIALSCIENCESEDITION)Nov.2025

DOI:10.12120/bjutskxb202506117

从“可解释”到“可信任”:人工智能治理

的逻辑重构

郭小东

(浙江大学光华法学院,浙江杭州310008)

摘要:人工智能技术的迅猛发展,特别是大型语言模型的兴起,使得传统以“可解释”为核心的人工智

能治理范式面临严峻挑战。在技术层面,大模型参数规模庞大、架构复杂且具有涌现特性,难以实现全

面解释;在认知层面,专业术语与日常语言间存在极大差别,加之人类认知负荷有限,导致解释难以被有

效理解;在实践层面,解释往往被异化为形式化的合规工具,难以解决信任问题。基于此,从“可解释”到

“可信任”的人工智能治理逻辑重构成为必然。“可信任”范式通过多维度构建对人工智能系统的整体

信任。在技术维度,聚焦提升系统的稳健性、可验证性和安全性;在价值维度,致力于实现人工智能与社

会伦理价值对齐;在治理维度,注重构建分类分级监管、责任明确与多元协同的适应性治理框架。三个

维度相互支撑,共同形成可信任人工智能的治理体系。“可信任”范式并非完全取代“可解释”范式,而

是将后者置于更广阔的信任建构体系中,作为特定情境下的重要手段而非普适性目标。此种重构反映

了人工智能治理理论从单一技术导向到“技术-社会-制度”综合视角的深化演进,它既正视了复杂人工

智能系统“黑箱”特性的客观存在,又积极探索在此约束下建立多维信任的可行路径,为应对日益复杂

的人工智能系统提供了更为包容、灵活的治理思路。

关键词:生成式人工智能;人工智能治理;可解释性;可信任性;价值对齐

中图分类号:D992.17;TP18文献标志码:A文章编号:1671-0398(2025)06-0117-19

一、问题提出

人工智能技术的迅猛发展正在深刻重塑人类社会的诸多方面,从个人生活到产业结构、从科学

[1]

研究到公共治理,其影响无处不在且日益加深。然而,伴随着人工智能应用的广泛渗透,其潜在

风险与治理挑战也日益凸显。算法偏见、决策不透明、责任模糊、隐私侵犯及可能的失控风险等问

[2]

题引发了社会各界的广泛关注。如何有效治理人工智能,既能够充分释放其创新潜能,又妥善

防范相关风险,成为当前全球共同面临的重大议题。

在过去的十年中,“可解释性”(explainability)已经成为人工智能风险治理的核心范式之一。

这一核心范式假设,通过增强人工智能系统决策过程的透明度和可解释性,能够有效应对人工智能

[3]

的风险挑战。在法学研究中,学者们围绕算法可解释性、算法解释权的属性、算法透明实现机制

收稿日期:2025-03-21

基金项目:国家社会科学基金规划项目(23XFX004)

作者简介:郭小东(1994—),男,浙江大学光华法学院博士研究生。

117

2025年北京工业大学学报(社会科学版)

[4]

等议题,展开了激烈讨论。与此同时,产业界投入了大量资源发展可解释人工智能(Explainable

AI,XAI)技术,旨在揭示日益复杂的人工智能系统的内部运作机制,使其决策过程更加透明、可解

[5]

释和可理解。在人工智能治理实践中,各国政府和国际组织也纷纷在人工智能治理框架中强调

文档评论(0)

1亿VIP精品文档

相关文档