可解释人工智能医疗应用的伦理问题.pdfVIP

可解释人工智能医疗应用的伦理问题.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

可解释人工智能医疗应用的伦理问题*

江靖,曹东,鄢来均

(1广州中医药大马克思主义院,广东广州510006;2广州中

医药大医信息工程院,广东广州510006;3广州中医药大

研究生院,广东广州510006)

。引言

可解释人工智能已成为术界、产业界和政府部门研究的热门话题。

全世界范围内都在积极探索可解释性的人工智能,例如2022年美国

国防部高级计划署1DARPA)就启动了一项名为“可解释人工智能”的

大型项目(explainableartificialintelligence,XAI)2022年欧

o

盟委员会发布《人工智能道德准则》(EthicsGuidelinesfor

TrustworthyAI),强调要提高人工智能的透明度和实现可追溯性。

2022年我国也在《新一代人工智能发展规划》中,明确将“实现具

备高可解释性、强泛化能力的人工智能”作为未来我国人工智能布局

前沿基础理论研究c由于医领域的高风险性,人工智能在医疗领域

的可解释性受到了更加广泛的关注。在医疗领域,人工智能的可解释

性有助于提高模型的安全性和可靠性,增强目标用户的信任度等,但

是,可解释性方法可能引发的医疗伦理问题也日益凸显。

探究可解释人工智能医疗应用伦理问题的意义关乎用户的安全和公

平问题。伦理界从不同的角度对其进行了伦理辩护。其中有两种代

表性观点:一种观点认为,在医疗领域中,事后可解释人工智能有助

于增强用户信任、提高系统的安全性等。另一种观点认为,人们应该

警惕甚至是避免在医疗领域中使用事后可解释人工智能,因为事后解

释可能会引发潜在的风险。尽管伦理界对此不能取得一致意见,但

他们都认为探讨可解释人工智能医疗应用伦理问题对患者的安全和

公平具有重要意义C本试图从科技伦理视角审视可解释人工智能医

疗应用伦理问题的新挑战,以期寻求合理的解决之道。

1可解释人工智能医疗应用伦理问题的新挑战

由于考察视角的不同,可解释人工智能并没有一个标准的定义。可解

释人工智能来自英ExplainableArtificialIntelligence,该术

语由VanLent等于2022年首次创造,用来描述他们的系统在模拟游

戏应用中解释人工智能控制实体行为的能力[1]o自2022年DARPA启

动关于可解释人工智能的研究之后,该术语开始被普遍接受,DARPA

将可解释人工智能定义为一种系统,它可以向人类用户解释其基本原

理,描述其优缺点,并传达对其未来行为的理解2[]。Arrieta等3[]

认为,可解释人工智能指的是,针对特定的受众,通过给出细节和原

因,使模型运转更清楚和更容易,被受众所理解的一项技术。本认

为可解释人工智能可以定义为:针对不同背景知识的目标用户,以其

可以理解的方式,对模型决策过程的根据进行解释的一项技术。目的

就是帮助人类理解机器为什么会作出这样的决策以及决策是否可靠。

人工智能的可解释问题源于深度学习的“黑盒”属性。所谓“黑盒”

属性,指深度学习算法是不透明的。不同于传统算法输入和输出之间

的确定性,深度学习模型通过反向传播不断调整自己内部的参数和规

则,所以人类无法理解它们的内部工作机制。在某些应用领域,比如

说人脸识别、字翻译,可解释性并不是关键的要求,只要这些系统

的整体性能足够好,即使系统在运行过程中出现错误,也不会造成很

大的影响,因此,这些领对人工智能系统可解释性的要求相对比较

低。但是,医疗领则不同,医疗中的许多决策实际上是生死攸关的

问题,微小的错误都可能会威胁到患者的生命安全,这时缺乏可解释

性就成为人工智能走向临床应用的限制性因素。所以,越来越多的专

家学者将目光投向了人工智能在医疗领

文档评论(0)

专注于电脑软件的下载与安装,各种疑难问题的解决,office办公软件的咨询,文档格式转换,音视频下载等等,欢迎各位咨询!

1亿VIP精品文档

相关文档