人工智能的道德判断及其伦理建议.docx

人工智能的道德判断及其伦理建议.docx

此“经济”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共13页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
人工智能的道德判断及其伦理建议 [摘 要] 学术界关于AI的道德判断主要存在三种不同的立场与观点。然而,对AI进行道德判断需要区分两个问题:其一是AI本身的道德评价问题;其二是AI研发与应用后果的善恶评价问题。二者既存在差别,又紧密相联。前者解决的关键在于AI道德判断的前提性规定,即AI是否真正意义上的人格实体与道德主体问题的讨论,而后者解决的关键仍在于人类自身。只有在人类与AI的关系等进行批判性反思的基础上才能对上述问题作出道德判断。具体而言,当前对AI应采取以下审慎态度:一是在大力研发和使用“弱AI”同时,应适当限制“强AI和超强AI”的研发和使用,尤其应当限制甚至禁止“杀人机器人”的研发与使用;二是国际社会、行业协会等应为不同发展阶段AI的研发与应用制定公约,确立行业发展伦理标准,并敦促相关法律法规出台,通过道德调整与法律规制引导AI健康发展;三是通过道德教育培养科技人员的道德自觉意识与社会责任意识。科技人员应当遵守科技伦理与职业道德,履行“通告和预防义务”。 [关键词] 人工智能;心灵能力;理解能力;科技伦理;道德判断。 目 录 TOC \o "1-3" \h \z \u 序言 3 一、学术界有关AI道德判断的争论 4 二、AI是否真正意义上的人格实体与道德主体 6 三、AI研发与应用的伦理建议 10 序言 2017 年8 月21 日,人工智能(Artificial Intelligence,以下简称AI)公司的116 位创始人和首席执行官们,给联合国写了一封公开信,希望禁止“杀手机器人(即自动化武器,如无人机、无人战车、哨 兵机器人、无人驾驶军舰等)”的研发与使用。他们认为,这些机器人有成为恐怖武器的可能。独裁者和恐怖分子有可能利用这些武器对无辜人群使用,或以其他不可取的方式使用。然而,2017 年10月15 日,英国政府在发布的《英国发展AI》报告中指出,AI具有改善教育医疗保健、提高生产力的巨大潜力,可为英国释放6300 亿英镑的经济活力,到2035 年,AI可为英国经济增加额外收入8140 亿美元(约合6300 亿英镑)。该报告从数据、技术、研究以及政策的开放与投入等方面,对AI发展提出了18 条建议,意欲使英国成为AI的世界领导者。那么,AI到底是造福人类的利器,还是毁掉世界的终极恶魔?对AI的善恶到底该如何评价?我们应当以何种态度对待AI的发展? PAGE 13 一、学术界有关AI道德判断的争论 AI的道德判断需要区分两个问题:其一,AI本身的道德评价问题;其二,AI研发与应用后果的善恶 评价问题。目前有关AI的善恶评价可谓此起彼伏,莫衷一是。总体而言,学术界主要存在以下三种立 场与观点: 第一种乐观主义立场。持此种立场的专家学者认为,AI只是一项手段与工具,本身无所谓“善与恶”“好与坏”,关键在于使用它的人类本身,对AI的未来发展前景持乐观主义态度,总体而言,AI的研发与广泛应用对人类发展利大于弊,能产生巨大的经济效益与社会效益。中科院自动化所复杂系统管 理与控制国家重点实验室主任王飞跃研究员是此种立场与观点的代表,他认为AI在未来会拥有自己的 第三个轴心时代。这个轴心时代是从哥德尔开始,现在是在哲学上突破,再是科学上突破,然后是技 术上的突破。针对当前AI的广泛应用所带来失业危机的担忧,他乐观地认为,人们当前的工作正是依 赖机器来提供的,人类向无用阶级的转变其实是社会的进步。一般而言,乐观主义立场大多是由一些 与AI研发与应用相关,或出于自身利益考虑的AI界人士,或出于对科学技术盲目崇拜的科学主义者所 坚持的,其缺陷在于片面地、孤立地看待AI的积极方面,比如能够产生巨大的经济与社会效益,重构包 括金融、医疗、教育、交通等几乎所有的行业,从而推动人类生活方式的整体变革。他们有意或无意地 忽视或者掩盖AI的消极作用,比如杀人机器人的诞生将会给人类带来安全威胁以及人类过度依赖AI文 明可能造成人类文明的退化问题,等等。 第二种中立主义立场。持此种立场的专家学者承认AI本身存在“作恶”的可能,它的研发与应用 对人类具有潜在威胁,可能带来严重后果,但基于一些理由仍大力支持发展AI技术。第一条支持理 由,AI目前尚处于发展的初级阶段,其危害远远不够强大,所以不必过分担忧。例如,AI领域的全球领 衔分析师汤姆·奥斯汀表示,霍金等“彻底开发AI会导致人类彻底毁灭”的警告是“非常愚蠢”的,其 理由在“现在AI还很低级”。第二条支持理由,认为“人造的东西不可能超过人”,这一观点源于某种 宗教情怀,即“造物主一定比所造之物高明”,所以不用杞人忧天。令人讽刺的是,本该最具无神论精神的科学主义者,却从宗教信念中寻求思想资源。第三条支持理由,认为“人类可

文档评论(0)

智慧IT + 关注
实名认证
内容提供者

微软售前技术专家持证人

生命在于奋斗,技术在于分享!

领域认证该用户于2023年09月10日上传了微软售前技术专家

1亿VIP精品文档

相关文档