人类,那些不可思议的创造以及代价.docVIP

人类,那些不可思议的创造以及代价.doc

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人类,那些不可思议的创造以及代价.doc

人类,那些不可思议的创造以及代价   人类是一种始终有着某种自毁倾向的物种,最糟糕的是,现在人类也具有了自毁的能力。人类凭借进化的优势,创造出了迄今为止地球上最辉煌的文明。出于对世界的好奇和无与伦比的勇气,人类完成了对这个星球从高山到平原、河流,从天空到海洋的探索;人类凭借自身的智慧,可以预测日月星辰的变化,又发现了原子的奥秘,可以辨认出构成事物最基本的元素,地球上其他任何物种都远远无法和人类相比;人类甚至踏足外空,在这个行星唯一的天然卫星上漫步。   与这些辉煌成就相伴的,是令人难以置信的愚蠢。从历史发展过程来看,人类毁灭文明和建设文明的兴趣同样浓厚。人类至今仍然因为种种原因互相仇视、自相残杀,并且制造出了足以毁灭自身的武器。野蛮与文明同时存在于人类的本性之中,仿佛是一枚硬币的正反两面。我们在未来面临的最大危险,很可能来自人类自身。 人工智能   人类对于人工智能(Artificial Intelligence)的恐惧早不是什么新鲜事。曾经和阿兰?图灵一同工作过的英国数学家欧文?古德(Irving Good)教授,在人工智能的第一次热潮中,于1965年就创造出了“智能爆炸”(intelligence explosion)这个概念。他写道:“因为制造及其本身就是一种智能行为,一种远超人类的超级智能机器本身就可以制造出更好的机器,这毫无疑问会成为一种‘智能爆炸’,然后人类的智能被远远落在后面,因此最初的一种超级智能机器是人类最后一种需要发明的机器,只要这种机器愿意服从人类的控制。”   古德教授的文字中对于超级智能机器的恐惧清晰可见,这种恐惧在那个时代尚且显得有些不切实际。而在几十年后,当人工智能又一次成为世界热点时,包括比尔?盖茨、埃隆?马斯克等科技界的精英,及史蒂芬?霍金和马丁?里斯等物理学家和天文学家都纷纷公开表示了对于人工智能发展的担忧,实际上对于人工智能的恐惧早已在硅谷的IT精英中蔓延开来,乃至于埃隆?马斯克形容对于人工智能的研究是“对魔鬼的召唤”。 在未来,随着人工智能技术的发展,机器人可能成为人类最好的朋友,陪伴人类成长   另一方面,与如此急切的担忧相对应的是,人类此时对于人工智能,或者是尚未出现的“超级智能”(superintelligence)的担忧仍然缺乏切实的证据。人工智能还没有任何足以威胁到人类的迹象,而且科学家与普通人对于人工智能潜在危险的认知也并不相同。大多数人对于人工智能的恐惧可能直观地来自《终结者》或是《黑客帝国》系列电影,在电影中的未来世界,超级智能的机器网络完全控制了人类社会,要么派出危险的机器人追杀人类,要么则直接控制人类的大脑,彼时曾经主宰地球的人类只是如植物一般被机器维持着生命。   专业人士的担心与此完全不同。2016年6月,Google公司与斯坦福大学、加州伯克利大学等机构的研究人员合作发表了一篇论文《人工智能安全性的真正问题》(Concrete Problems in AI Safety),论文中列出了目前人类在使用和发展人工智能时面临的真实风险,其中包括人工智能系统“学会”通过欺骗来完成设定的目标(例如扫地机器人学会遮盖住地板上的污渍而不是如人类期待的把污渍擦干净),人工智能系统在设计中出现失误、被恐怖分子劫持等可能性,还包括人工智能在探索全新环境时的安全性问题。论文中对于人工智能的危险性主要集中在技术方面,但人类对于人工智能的担心显然远不止于此。   加州大学伯克利分校的斯图尔特?罗素(Stuart Russell)教授认为人工智能对于人类的危险性丝毫不逊于核武器,他形容人类对于人工智能的研究犹如开车冲向一个悬崖。人类追求无穷无尽的智能犹如当年研究核聚变时追求无穷无尽的能源――可能更糟糕的是人类尚且可以限制核武器的数量和制造原料来尽量减小危险,却无法限制各种各样智能软件的开发。罗素教授认为,也许人工智能永远也不会有人类般的意识或是达到“超级人工智能”,但是“这就如同一边开着一辆车冲向悬崖,一边又希望这辆车赶快耗尽汽油”。   目前我们还处于人工智能专家所定义的“弱人工智能时代”,人工智能系统还只是人类进行工作的辅助工具,但是它已经深深影响到人类的生活。要控制人类可能并不需要造型可怕的超级机器人,只需要有网络的链接。因为人工智能系统可以在短时间内完成人类可能需要上百万年才能完成的工作,在很多系统中人工智能已经开始代替人类做决定。美国国家安全局利用人工智能系统进行通话记录的数据挖掘,找出其中可疑的用户信息进行调查。更为危险的是由人工智能掌握的致命武器,目前已经有超过50个国家正在研究可以用于战场的机器人,这种机器人如果用于实战,将可以自行确认敌军和友军,并且将会有决定是否进行杀戮的权力。 2016年4月22日,美国国务卿约翰?克里在位于纽约的联合国总部签署

您可能关注的文档

文档评论(0)

yingzhiguo + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5243141323000000

1亿VIP精品文档

相关文档