司法人工智能的透明缺失风险与法律控制.pdfVIP

  • 0
  • 0
  • 约2.79万字
  • 约 9页
  • 2026-01-23 发布于福建
  • 举报

司法人工智能的透明缺失风险与法律控制.pdf

2025年11月天津大学学报(社会科学版)第27卷第6期

Nov.2025JOURNALOFTIANJINUNIVERSITY(SOCIALSCIENCES)Vol.27No.6

司法人工智能的透明缺失风险与法律控制

叶茂

(中共辽宁省委党校法学教研部,沈阳110004)

摘要:算法裁判的核心基础是司法人工智能的模型搭建与应用,而算法技术固有的不可解释使得内嵌其的司法

人工智能呈现出透明缺失。此种透明缺失为算法裁判增添难以解读的神秘性,从而滋生其风险在数字法院的推进

实践中。基于权利审视司法人工智能透明缺失风险,具体呈现为减损获得公开审判的权利与知情权的行使瑕疵。

围绕算法、司法与制度3个维度,归因司法人工智能透明缺失风险为算法的不可解释、司法的核心数据及裁判的形

式冲突。或许凭借国家义务理论进行法律控制是消解神秘性的可行进路,即明确智能模型的公开主体、拓展审判权

力的公开范围、加强智能模型的可解释性与补强传统裁判逻辑推理,进而达致算法裁判的公开透明目的。

关键词:算法“黑箱”;权利保障;国家义务;审判公开;智能司法

中图分类号:D62文献标志码:A文章编号:1008-4339(2025)06-534-09

一、问题的提出关联。这种“黑箱”效应使得连接数据输入和结果输

出的逻辑链条变得模糊,进而影响了司法人工智能的

公开透明不仅是针对司法活动的要求,也是算法可解释性。换言之,司法人工智能因采用神经网络算

运作的准则。参照透明度的相关研究,算法透明应当法而陷入了可解释性难题[6]。司法人工智能所采用的

符合“鱼缸透明度”(fishbowltransparency)与“推理透算法导致了算法裁判的“黑箱”问题,从而使算法裁判

明度”(reasonedtransparency)两种层次要求。“鱼缸的流程和结果缺乏可理解性;同时,伴随生成式人工智

透明度”即以鱼缸为形似,指系统参与者与利益相关能的引入与庞大的数据参数量,使得其可解释性难题

者能够从内在、外在视角双向知悉活动全貌,解决外部愈加严峻。鉴于此,内嵌算法的司法人工智能在数字

性透明问题;“推理透明度”则要求说明活动主动列明法院场景中面临的关键挑战是其透明缺失风险。

充分理由,解决内部性透明问题[1]。与法律适用一样,实践中,司法人工智能的透明缺失风险具体体现

算法技术在设计、运行及决策等领域展现出难感知、难为算法偏技术性导致理解壁垒、算法决策过程的错误

解释的特征,尤其是与人类法官自由心证的过程高度难以被识别与算法裁判结果难以被当事人所信服或接

类似的算法决策过程表现出“黑箱”效应[2],“黑箱”顾受等。溯其原因,一是算法决策过程(人工智能裁判)

名思义,意为从外无法知悉箱内运行状况的封闭物体。存在不易披露的主动性,即算法逻辑主张商业秘密而

技术本身的未知总是存在的,因其内部复杂性产生不不能披露。实践中,算法裁判呈现出“司法机关+科

透明[3]。司法人工智能模型依赖于大量数据积累的相技公司”的合作模式,系统多由第三方科技公司进行

关性来构建认识规律的智能化算法模型,其输出结果系统架构、算法设计及程序运维,而司法机关仅提供基

难以解释且具有不确定性[4],加上算法缺乏逻辑上的础性司法数据。显然,科技公司会因算法核心程序涉

可解释性,无法达到论证对解释项与被解释项之间的及商业秘密而抗辩算法决策的披露诉求。此外,不易

关联目的[5],即无法解释数据之间的因果联系等逻辑

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档