- 16
- 0
- 约3.22千字
- 约 7页
- 2018-12-07 发布于福建
- 举报
涉及人工智能法律责任
涉及人工智能法律责任
书名:机器人是人吗? 作者:[美]约翰?弗兰克?韦弗 译者:刘海安 徐铁英 向秦 出版:上海人民出版社
编者按:2018世界人工智能大会上,与会的部分专家学者研究成果相继推出。本书为其中的一本,由上海交通大学凯原法学院副院长彭成信教授主编。
随着人工智能的使用变得越来越普遍,涉及人工智能的事故或事件的法律责任承担也变得越来越普遍。基本上,有如下四种情况将会发生:
一、使用或者监控人工智能的人承担法律责任。此类事故可能发生的情况非常多:
一个人工智能外科医生正在对病人进行手术,要给病人安装新的髋关节,手术过程中人工智能机器却出现了机械性的错误。负责监控手术的人类医生没能尽职地监控手术进程,并且无法中途介入以完成髋关节置换术,导致手术不得不提早结束,迫使患者必须进行第二次髋关节置换手术。
人工智能建筑工人错误地拆除了墙壁,导致整个建筑物倒塌,原因在于监控人工智能的人给出了不正确的拆除指令,指示人工智能机器应该拆除那堵墙。
负责监控人工智能客机的人没有注意到,两架客机给出重复相同的着陆指令,造成了两架客机空中相撞。
任何针对符合上述情境的人提起的诉讼,最有可能诉称“过失疏忽”(或失职行为,如果适用到专业领域中),作为被告应承担法律责任的理由。这类责任涉及人工智能时,说明仍然有需要人类监控人工智能的情形。但是,关于法律责任分配给人类,将会在“主要用于方便人类的人工智能”和“主要用于优化人类工作的人工智能”之间出现重大的分裂。也即是,把人工智能主要用作优化人本身的工作时,要求人对人工智能监控,如果人工智能造成了事故,此监控的人就要承担法律责任。把人工智能主要用作人类的便利时,不需要人对人工智能进行监控,对人工智能造成的事故损害负担更少的责任。
当然,有疑问的是人工智能可能同时具备上述两种功能。例如,90%的车祸都是由人的错误造成的,意味着无人驾驶汽车很有潜力能够大幅度降低车祸发生的次数。然而,正因为大多数司机都认为自己是好司机,无人驾驶汽车的安全性能并不会动摇消费者。相反,对于那些驾车是一种负担的人群(视力受损、身体受损、老年人等)来说,倾向于购买一辆无人驾驶汽车,因为他们喜欢就此带来的方便,或者对于部分年轻人来说,认为开车不是什么了不起的事(因为开车反而减少了他们和朋友发信息聊天的时间)。所以,尽管无人驾驶汽车可能会减少事故发生、伤害和死亡,但出于法律责任考虑,认为无人驾驶汽车的主要目的是降低伤亡是错误的。大多数人会使用无人驾驶汽车阅读、睡觉、聊天,玩游戏,或者做些事情来打发(或浪费)他们驾驶的时间;他们不会做的事就是仔细地监控人工智能。一旦无人驾驶汽车普遍存在,人们因为没有监控无人驾驶汽车而对其无人驾驶汽车承担法律责任,这似乎有些荒谬,因为人们根本不会去监控自动驾驶汽车。与此相反,人工智能外科医生并不会增加人类的自由时间,也不会让生活更方便。相反,人工智能外科医生的目的是改善并提高人类的手术结果,因为它们可以进行切割、进入身体,并以人类不可能的角度来伸缩弯曲。没有密切监测其人工智能外科医生的人类医生应该对由此发生的医疗事故承担责任。人工智能将不会被购买来为人类医生创造更多的自由时间。
出于同样的原因,法院在分配法律责任时会区分自动的机器和自主的机器(即人工智能)。自动的机器执行固定的功能,就像电梯或者工厂装配线上的机器人,但仅此而已;如果不进行进一步编程,自动的机器不会(或者不太会)自行调整其功能以对新信息做出反应。即使人类不站在自动的机器旁边监控它们,但最终会有人对机器导致的损害结果承担责任,比如程序员或维修人员,因为机器自己本身无法做出任何决定。如果一台自动的机器造成事故,而机器的设计或生产并没有任何瑕疵缺陷,那么在事故发生前就应该有相关人员发现机器出现了问题。然而,自主的机器能够自己做出决定,这也意味着相关的人员可能根本没有责任。
二、与人工智能相互作用的第三人承担法律责任。我们实际已经见过这样的例子。2010年,谷歌的工程师们报告称,谷歌无人驾驶汽车被一辆由人驾驶的汽车追尾。主张与人工智能因互动行为产生的第三人责任,将与当前任何一个人与机器或其他人之间因相互行为可能产生的责任基本相同。最大的区别可能在于保险理算员或陪审团成员的倾向,他们可能会(也可能不会)比起同情一台智能的机器更加同情人类。
三、分销链中的制造商、分销商或者另一方当事人承担法律责任。当涉及人工智能导致事故发生是由于其本身出现故障、错误的编程、粗制滥造、配送过程中受损,或者由于与产品本身出错相关的任何原因,事故责任将按比例适当地分配给分销链中的人:设计师、制造商、出售人工智能产品的商店等等。基本上,这种类型的索赔要么是一个标准的缺陷产品责任诉讼(人工智能
原创力文档

文档评论(0)