“生命文化”视域中我国医疗人工智能伦理问题的思考.pdfVIP

“生命文化”视域中我国医疗人工智能伦理问题的思考.pdf

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

“生命文化”视域中我国医疗人工智能伦理问

题的思考

作者:谷硕

来源:《科技风》2020年第35期

摘要:医疗人工智能作为医疗健康领域一种新应用与研究类型,缺少必要的法律与伦理

的监控,所带来的隐患与风险日益凸显。因此,本文从医疗大数据、深度学习算法、知情同

意、监管体系、责任主体方面探讨医疗人工智能所带来的伦理问题,并从“生命文化”的角度思

考我国医疗人工智能伦理建设的启示,为今后处理相关的伦理问题提供参考,使医疗人工智能

更好地服务于民生与社会经济。

关键词:医疗人工智能;生命文化;伦理

随着“健康中国2030”战略计划的实施,我国医疗卫生事业迅猛发展,科学研究快速进

步,医学新技术和新领域层出不穷。2011年IBM的watson开启人工智能医疗的商业发展[1],

医疗人工智能进入了大众的视野,也开始影响了医疗健康领域的发展模式。我国已经意识到人

工智能产业将是促进产业变革和经济发展的关键。2017年国务院颁布的《新一代人工智能发

展规划》指出要“围绕教育、医疗、养老等迫切民生需求,加快人工智能创新应用”[2],这表明

人工智能已经开始进入各行各业,推动着生产生活方式和产业结构的变革。

医疗人工智能逐渐成为医疗健康领域所关注的核心问题,但对它缺少必要的法律与伦理的

监控,所带来的风险与问题也日益凸显。因此,本文旨在探讨医疗人工智能所带来的伦理问

题,并从“生命文化”的角度思考我国医疗人工智能伦理建设的启示,为今后处理相关的伦理问

题提供参考与借鉴。

一、医疗人工智能及其所带来的伦理问题

医疗人工智能是指人工智能(ArtificialIntelligence,AI)通过机器学习、表征学习、深度

学習和自然语言处理等各种技术,利用计算机算法从数据中获取信息,以协助制定临床决策为

目的,实现辅助诊断、疗法选择、风险预测、疾病分诊、减少医疗事故和提高效率等一系列功

能[3]。根据人工智能与人类智能的比拟程度,分为“强人工智能”与“弱人工智能”[4]。目前我国

医疗人工智能处在“弱人工智能”阶段,主要是辅助诊疗或是临床医学影像识别,不可直接服务

于病人。对于医疗人工智能的发展主要涉及以下几个伦理问题:

(一)医疗大数据背后的隐患

对于人工智能来说,灵魂是程序,基础是大数据,加速器是算法的不断改进[5]。目前,

多数医疗人工智能产品的样本资源都是来自医院的临床数据,缺乏统一、标准化的处理,因此

病人医疗信息的敏感性和隐秘性得不到保障。同时,医疗人工智能的发展需要数据的共享,所

追求的是公共利益[6],这就使得数据的安全性存在着更大隐患,在利益的驱逐下可能发生数

据泄露或非法提供、出售等违规情况。

(二)深度学习算法携带的偏见

医疗人工智能主要依靠深度学习算法,快速处理海量医疗数据与信息,为医生提供最优的

诊断建议和个性化治疗方案[7]。深度学习的算法是由人类设计与开发,当算法设计者存对某

种疾病、性别、种族存在偏见和歧视时,这将会导致人工智能在开发时的训练数据没有真实的

反映客观实际,这种差异与偏见也被AI所携带。

(三)知情同意潜在的风险

知情同意是临床研究受试者保护的重要措施之一。医疗人工智能的研发与应用需要海量的

临床医疗数据,并且一些信息是需要去标识化的。海量数据的处理带来了庞大的工作量,就会

导致一些研发公司或者提供数据的医院进行了不恰当的知情同意过程,没有真正的起到保护受

试者权益的作用。此外,由于临床数据应用风险的不同,知情同意过程也应该选择不同方式。

例如,知情同意的豁免、泛知情同意、知情选择退出等。非临床科研人员在对数据处理时忽视

了不同方式的选择,从而没有进行正确知情同意。

(四)监管体系的不健全

我国的人工智能尚处于建设初期,但面对飞速发展的智能科技,现有的法律法规和政策体

系已无法满足对AI的监管和约束。与发达国家相比,我国的人工智能技术与之同步,但法律

与伦理研究相对滞后[7],这给医疗人工智能的研发与应用带来很大的风险,也会制约AI产业

的健康发展。

(五)责任主体角色混乱

的AI责任划分是当前我国甚至全球不可回避的伦理和法律问题,开发者、生产者、使用

者对于责任的承担还未达成共识。由于不具备产生民事法律关系的主体资格,医疗人工智能仅

被认定为辅助医生诊断的医疗器械[7]。在使用AI时,一旦发生了医疗事故侵权责任难以界定

和划分,这不仅危及患者生命安全和公共利益,同时使得医疗行业人工智能发展举步维艰

您可能关注的文档

文档评论(0)

tttt1 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档