- 0
- 0
- 约4.26万字
- 约 19页
- 2026-01-21 发布于福建
- 举报
第25卷第6期北京工业大学学报(社会科学版)Vol.25No.6
2025年11月JOURNALOFBEIJINGUNIVERSITYOFTECHNOLOGY(SOCIALSCIENCESEDITION)Nov.2025
DOI:10.12120/bjutskxb202506117
从“可解释”到“可信任”:人工智能治理
的逻辑重构
郭小东
(浙江大学光华法学院,浙江杭州310008)
摘要:人工智能技术的迅猛发展,特别是大型语言模型的兴起,使得传统以“可解释”为核心的人工智
能治理范式面临严峻挑战。在技术层面,大模型参数规模庞大、架构复杂且具有涌现特性,难以实现全
面解释;在认知层面,专业术语与日常语言间存在极大差别,加之人类认知负荷有限,导致解释难以被有
效理解;在实践层面,解释往往被异化为形式化的合规工具,难以解决信任问题。基于此,从“可解释”到
“可信任”的人工智能治理逻辑重构成为必然。“可信任”范式通过多维度构建对人工智能系统的整体
信任。在技术维度,聚焦提升系统的稳健性、可验证性和安全性;在价值维度,致力于实现人工智能与社
会伦理价值对齐;在治理维度,注重构建分类分级监管、责任明确与多元协同的适应性治理框架。三个
维度相互支撑,共同形成可信任人工智能的治理体系。“可信任”范式并非完全取代“可解释”范式,而
是将后者置于更广阔的信任建构体系中,作为特定情境下的重要手段而非普适性目标。此种重构反映
了人工智能治理理论从单一技术导向到“技术-社会-制度”综合视角的深化演进,它既正视了复杂人工
智能系统“黑箱”特性的客观存在,又积极探索在此约束下建立多维信任的可行路径,为应对日益复杂
的人工智能系统提供了更为包容、灵活的治理思路。
关键词:生成式人工智能;人工智能治理;可解释性;可信任性;价值对齐
中图分类号:D992.17;TP18文献标志码:A文章编号:1671-0398(2025)06-0117-19
一、问题提出
人工智能技术的迅猛发展正在深刻重塑人类社会的诸多方面,从个人生活到产业结构、从科学
[1]
研究到公共治理,其影响无处不在且日益加深。然而,伴随着人工智能应用的广泛渗透,其潜在
风险与治理挑战也日益凸显。算法偏见、决策不透明、责任模糊、隐私侵犯及可能的失控风险等问
[2]
题引发了社会各界的广泛关注。如何有效治理人工智能,既能够充分释放其创新潜能,又妥善
防范相关风险,成为当前全球共同面临的重大议题。
在过去的十年中,“可解释性”(explainability)已经成为人工智能风险治理的核心范式之一。
这一核心范式假设,通过增强人工智能系统决策过程的透明度和可解释性,能够有效应对人工智能
[3]
的风险挑战。在法学研究中,学者们围绕算法可解释性、算法解释权的属性、算法透明实现机制
收稿日期:2025-03-21
基金项目:国家社会科学基金规划项目(23XFX004)
作者简介:郭小东(1994—),男,浙江大学光华法学院博士研究生。
117
2025年北京工业大学学报(社会科学版)
[4]
等议题,展开了激烈讨论。与此同时,产业界投入了大量资源发展可解释人工智能(Explainable
AI,XAI)技术,旨在揭示日益复杂的人工智能系统的内部运作机制,使其决策过程更加透明、可解
[5]
释和可理解。在人工智能治理实践中,各国政府和国际组织也纷纷在人工智能治理框架中强调
您可能关注的文档
最近下载
- 聚乙丙烯丙纶复合防水卷材防水专项施工的方案.doc VIP
- QC小组-提高外墙真石漆喷涂一次验收合格率.doc
- 参考攻略蚂蜂窝成都.pdf VIP
- 蚂蜂窝长沙攻略(第五版).pdf VIP
- 蚂蜂窝湖北武汉攻略(第七版)_20121022.pdf VIP
- 2024-2025学年重庆市大足区人教版四年级上册期末考试数学试卷(含答案).pdf VIP
- 附件5 设计制造及质量控制标准.docx
- 2025年化工工程师执业资格考试《化工工艺与技术知识》备考题库及答案解析.docx VIP
- 无人机装调检修工中级技能考核标准.docx VIP
- 重庆市大足区2024-2025学年统编版四年级上册期末考试语文试卷(含答案).pdf VIP
原创力文档

文档评论(0)