【推荐下载】人工智能智能机器人:世界的又一次“技术大爆炸”.doc

【推荐下载】人工智能智能机器人:世界的又一次“技术大爆炸”.doc

  1. 1、本文档共2页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

人工智能机器人:世界的又一次“技术大爆炸”

尽管网民们早在7月份就已经向这位科学家提出了这个问题,但霍金直到最近才对此进行了回复。在这次活动中网民们提出的问题五花八门,从人工智能一直到他个人最喜欢的歌曲曲目。

有网民向霍金教授提问:您觉得什么是生活中最大的谜?霍金回复道:女人。我的私人助理提醒我,尽管我拥有物理学博士学位,但应该让女人继续保持她们的神秘。

在回复提问时,霍金也再次重申了他此前所一直坚持的观点,那就是人工智能技术未来必将对人类构成威胁。但他也强调表示这其中最大的危险将不会是机器人们将有计划的摧毁人类,而是源自它们抛开人类自主决策的能力。

霍金认为,机器人不太可能对人类产生敌对意图,但最终将对人类利益造成损害的将会是它们开始追求自身设定的目标的行为。霍金表示:真正的风险不在于敌意,而在于能力。超级人工智能机器人将极善于达成自己所设定的目标,而如果它所设定的目标与我们的目标并不相互吻合,那么我们就有麻烦了。举个例子,你有时候踩死一些蚂蚁,但这并非出于你对蚂蚁们的主观恶意,但如果你恰好准备在某个地区修建一个水电

站,而那片地区正好有一个蚁穴对于蚂蚁们来说,这可真是个坏消息。他说:不要把我们人类自己放到那些蚂蚁的位置上去。

霍金教授目前担任英国剑桥大学应用数学与理论物理系研究主管,他表示,一台人工智能计算机最终将会进化出对生存的渴望。他说:未来一台高度先进的人工智能设备将逐渐发展出求生的本能,并将努力获取实现其自身所设定目标所需要的资源。因为生存下来并获取更多资源将能够增加其实现其他目标的机会。对于人类而言这将导致问题的发生,因为我们的资源将会被掠夺。

霍金指出,如果人工智能机器人获得了能够在不依赖人类而进行自我完善和升级的能力,那将导致一次机器人世界的技术大爆炸,最终机器人们的技术能力将远远超越人类,就如同我们的技术能力远远超越蜗牛一样。

在2012年庆祝霍金教授70岁生日的一次访谈活动中,他承认自己一天里的大部分时间都在想女人。他说:她们完全是个谜。这张照片是霍金与他的第一任妻子简在一起。

tips:感谢大家的阅读,本文由我司收集整编。仅供参阅!

文档评论(0)

180****4026 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档