可解释人工智能医疗应用的伦理问题.docxVIP

可解释人工智能医疗应用的伦理问题.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE2 / NUMPAGES2 可解释人工智能医疗应用的伦理问题 2023-02-2210:51 摘要 可解释人工智能推动医学发展的同时引发了不同以往的伦理挑战,这种新挑战表现在事前解释、事后解释两个方面。导致可解释人工智能医疗应用伦理问题的技术性根源是可解释性技术的负面效应,其社会性根源是相关道德原则和立法的缺失,主体性根源在于各利益相关方的利益多样性。因此,强化技术创新、可解释人工智能医疗应用伦理教育、对医护人员的培训和跨学科合作,完善相关道德原则和法律法规,实现个性化的交互式解释等对策是问题的解决之道。 引言 可解释人工智能已成为学术界、产业界和政府部门研究的热门话题。全世界范围内都在积极探索可解释性的人工智能,例如2016年美国国防部高级计划署(DARPA)就启动了一项名为“可解释人工智能”的大型项目(explainableartificialintelligence,XAI)。2019年欧盟委员会发布《人工智能道德准则》(EthicsGuidelinesforTrustworthyAI),强调要提高人工智能的透明度和实现可追溯性。2017年我国也在《新一代人工智能发展规划》中,明确将“实现具备高可解释性、强泛化能力的人工智能”作为未来我国人工智能布局前沿基础理论研究。由于医学领域的高风险性,人工智能在医疗领域的可解释性受到了更加广泛的关注。在医疗领域,人工智能的可解释性有助于提高模型的安全性和可靠性,增强目标用户的信任度等,但是,可解释性方法可能引发的医疗伦理问题也日益凸显。 探究可解释人工智能医疗应用伦理问题的意义关乎用户的安全和公平问题。伦理学界从不同的角度对其进行了伦理辩护。其中有两种代表性观点:一种观点认为,在医疗领域中,事后可解释人工智能有助于增强用户信任、提高系统的安全性等。另一种观点认为,人们应该警惕甚至是避免在医疗领域中使用事后可解释人工智能,因为事后解释可能会引发潜在的风险。尽管伦理学界对此不能取得一致意见,但他们都认为探讨可解释人工智能医疗应用伦理问题对患者的安全和公平具有重要意义。本文试图从科技伦理视角审视可解释人工智能医疗应用伦理问题的新挑战,以期寻求合理的解决之道。 可解释人工智能医疗应用伦理问题的新挑战 由于考察视角的不同,可解释人工智能并没有一个标准的定义。可解释人工智能来自英文ExplainableArtificialIntelligence,该术语由VanLent等于2004年首次创造,用来描述他们的系统在模拟游戏应用中解释人工智能控制实体行为的能力[1]。自2016年DARPA启动关于可解释人工智能的研究之后,该术语开始被普遍接受,DARPA将可解释人工智能定义为一种系统,它可以向人类用户解释其基本原理,描述其优缺点,并传达对其未来行为的理解[2]。Arrieta等[3]认为,可解释人工智能指的是,针对特定的受众,通过给出细节和原因,使模型运转更清楚和更容易,被受众所理解的一项技术。本文认为可解释人工智能可以定义为:针对不同背景知识的目标用户,以其可以理解的方式,对模型决策过程的根据进行解释的一项技术。目的就是帮助人类理解机器为什么会作出这样的决策以及决策是否可靠。 人工智能的可解释问题源于深度学习的“黑盒”属性。所谓“黑盒”属性,指深度学习算法是不透明的。不同于传统算法输入和输出之间的确定性,深度学习模型通过反向传播不断调整自己内部的参数和规则,所以人类无法理解它们的内部工作机制。在某些应用领域,比如说人脸识别、文字翻译,可解释性并不是关键的要求,只要这些系统的整体性能足够好,即使系统在运行过程中出现错误,也不会造成很大的影响,因此,这些领域对人工智能系统可解释性的要求相对比较低。但是,医疗领域则不同,医疗中的许多决策实际上是生死攸关的问题,微小的错误都可能会威胁到患者的生命安全,这时缺乏可解释性就成为人工智能走向临床应用的限制性因素。所以,越来越多的专家学者将目光投向了人工智能在医疗领域的可解释性,各种解释方法应运而生。目前,可解释人工智能在医学影像处理、疾病诊断、风险预测等方面都取得了不错的成绩。例如,Nafisah等[4]利用可解释人工智能处理胸部X光片检测结核病,Thimoteo等[5]研究出通过血液检测诊断COVID-19的可解释人工智能,Curia[6]利用可解释人工智能预测患宫颈癌的风险。通过给出决策依据,为临床医生提供有效的辅助信息,增加了用户的信任,改善了模型的性能。尽管可解释人工智能给医学带来了很多好处,但其在医疗应用中也引发了不同以往的伦理挑战,具体而言,可解释人工智能医疗应用引发的伦理新挑战主要表现在以下两个方面。 1、事前解释可能导致的医疗伦理问题 针对深度学习的“黑盒”属性,人工智能专家创建了不同的解释方法。根据不同的标准,这些方法又分为不同的类

文档评论(0)

千年硕鼠 + 关注
实名认证
文档贡献者

药学医师证持证人

10年深耕医疗器械、体外诊断试剂领域

版权声明书
用户编号:5014214200000130
领域认证该用户于2023年05月20日上传了药学医师证

1亿VIP精品文档

相关文档