- 1、本文档共5页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
人工智能发展面临的法律挑战
人工智能发展面临的法律挑战
王新锐:监管部门和司法机关对透明性和举证责任的要求,与机器学习结果的
不确定性和算法保密要求之间,存在着一种结构性的紧张关系。
更新于2017年4月18日06:30北京市安理律师事务所高级合伙人王新锐为FT
中文网撰稿
观察一个概念是不是在公众视野中红了“”,有一个判断标准,就是看看在各大机场
的书店里有多少本关于这个主题的畅销书。以这个标准来看,人工智能现在无疑
红的发紫“”,也还会继续红下去。
然而,科技领域的每一个新概念,从产生到具体在各行业中落地,都需要面对很多
挑战,既有技术和商业层面的,也有法律和公共政策层面的。
在过去的一年之间,人工智能的发展已经引起了很多国家、国际组织的重视,联合
国、美国、欧洲议会、英国、法国、电气和电子工程师协会(IEEE)先后发布多
份关于人工智能的报告,讨论人工智能的影响和需要考虑的风险。这其中也包含了
对于法律问题的讨论。
笔者作为多家科技公司的顾问,也在业务实践中遇到了很多和人工智能技术应用
相关的法律问题,本文会结合实例讨论人工智能发展在法律问题上可能会遇到哪些
挑战。
数据的收集、使用和安全
尽管人工智能从法律上很难准确定义,但从技术上来说,目前人工智能基本都会涉
及机器学习技术(MachineLearning),这意味着需要收集、分析和使用大量数据,
其中很多信息由于具有身份的识别性(包括结合其他信息识别身份),属于个人信
息。按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备
的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使
用的范围等。
早在2011年,Facebook就曾因其人脸识别和标记功能未按伊利诺伊州《生物信
息隐私法案》(BIPA)要求告知用户收集面部识别信息的期限和方式被诉,随后
又因采集面部特征前未能明确提醒用户并征得用户同意而遭到爱尔兰和德国有关部
门的调查。尽管Facebook辩称默认开启该功能是因为用户通常不会拒绝进行人脸
识别,并且用户有权随时取消这一功能,但德国汉堡市数据保护与信息安全局坚持
Facebook的面部识别技术违反了欧洲和德国的数据保护法,Facebook应删除相关
数据。最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲
用户建立的人脸数据库。
当然也有对企业有利的案例。著名篮球游戏NBA2K提供了使用用户面部识别信息
建立角色模型的功能,部分用户以游戏制造者未征得其同意提起集体诉讼,法官认
为被告收集信息最多是抽象的违反了BIPA,而没有给原告造成具体而特定的损害,
因此原告主体身份不适格,驳回了原告的诉请。
除了需要按告知的方式和范围使用用户数据,人工智能应用的开发者还可能面临需
要配合政府部门提供数据的情况。2016年阿肯色州发生的一起谋杀案中,警方希
望获取Alexa语音助手收集的语音数据,该请求遭到了亚马逊公司的拒绝,理由是
警方没有出具有效的法律文件。但这种例子以后还会层出不穷。公权和私权的冲突,
也许会因为人工智能技术的引入,出现新的形式。
人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、
与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,保护个人信
息安全,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。
数据歧视和算法歧视
人工智能在应用中,往往需要利用数据训练算法。如果输入的数据代表性性不足或
存在偏差,训练出的结果将可能将偏差放大并呈现出某种歧视特征。根据国外报道,
卡内基•梅隆大学的研究显示,由谷歌(Google)创建的广告定位算法可能存在对
互联网用户的性别歧视。在搜索20万美元薪水的行政职位中,假冒男性用户组收
到1852个广告,而假冒女性用户组仅收到318个广告。而在2016年3月23日,
微软公司的人工智能聊天机器人Tay上线不到24小时,就在一些网友的恶意引导
和训练下,发表了各种富有攻击性和歧视性的言论。除此以外,因为数据存在偏差,
导致结果涉嫌歧视甚至攻击性的例子,已经大量出现。
这意味着开发者在人工智能的训练和设计过程中需要秉承广泛的包容性,充分考虑
女性、儿童、残疾人、少数族群等易被忽视群体的利益,并对道德和法律的极端情
况设置特别的判断规则。
由于人工智能系统并非表面那么看起来技术中“立”,在毫不知情的情况下,特定人
文档评论(0)