- 4
- 0
- 约4.86千字
- 约 10页
- 2024-10-14 发布于山东
- 举报
人工智能可能会杀死我们所有人
【导读】:我们缺乏一种定义,人工智能是算法还是创造性,或
者说算法能否抵达创造性的彼岸。人类的智慧是否足以诞生另一种智
慧?我们对人工智能危机的忧虑其实恰恰源于我们自身智慧的缺陷。
关于世界末日的问题,大多数人尽量避免去思考;但是有一群人,
这却是他们的职业。英国牛津大学的人类未来研究学院,专门研究人
类种族的未来“大图景”,尤其是能彻底消灭我们的风险。
正如你可能想象的那样,所考虑的风险包括核战争和流星撞击,
还有一个一般人也许意想不到的领域,那就是研究人工智能构成的潜
在威胁。电脑会变得如此聪明,以至于成为我们的竞争对手,它们把
所有的工作都做了,最终会不会把人类全部消灭?这种“终结者”式
的场景过去似乎只存在于科幻小说,但现在它开始被那些研究人工智
能发展方向的人所认真对待。
斯图尔特·阿姆斯特朗是该研究学院的一名哲学家和研究员,他说:
“我认为现在发表的有关甲虫或星际旅行的学术论文远比关于研究实
际存在的风险的论文多。”最近他开始专注于人工智能领域。“世界
上很少有类似机构在研究这些大型风险.,相比其他小风险类型,如交
通安全之类的风险,这种大型风险的研究更是少得可怜。
摘自:太空漫游”(2001年)
“一件很可怕的事是,如果人工智能的发展出现偏差,它可能导
致人类灭绝的不多的几个原因之中的一个“。阿姆斯壮解释说:“其
他的风险的发生,其实很难导致人类灭绝”,“比如发生一次核战争,
这只会使杀死地球上很少比例的生物。就算辐射增强,核冬天的时间
延长,如果真的出现这种情况,甚至在更严酷更极端的情况下,地球
上的生物可能有90%,95%甚至99%的生物被杀死,但是却很难让人
类灭绝,同样,流行病也是如此,甚至更致命的流行病也是如此。
“问题是,如果人工智能(AI)出现偏差,95%的人类会被杀死,
然后剩下的5%不久也会被消灭。所以尽管有不确定性,但这种最可怕
的风险仍然可能出现。
当一个人类与人工智能(AI)在酒吧相遇...
那么,我们在这里谈论的是什么样的威胁?
“首先忘记终结者,”阿姆斯特朗说。“机器人基本上都有武器
装备,人类的进化的天性会让人类对此感到恐惧,但真正可怕的事是
人工智能比我们聪明,比我们更善交际。当一个人工智能机器人走进
一间酒,它手里抓着人类(男人或女人)走出来,那是一个什么恐怖
场景?当然他们也可能让人类社会在政治,经济,技术研究上变得更
好“。
阿姆斯特朗认为,人工智能(AI)的第一个影响是近乎全民失业。
“如果人工智能(AI)达到人类智力水平,你会要一个AI,复制它
100次,训练它,让它们有100种不同的职业技能,再重复这种方法
100次,你就有了在100个行业10000个高技能的员工。培养它们也
许只需要一周时间。然后你再复制更多的它们,你就可以拥有数百万
的员工如果他们是真正的超人,你会得到超出了我刚才所描述的超
级雇员。“
为什么AI想要杀死我们?
好吧,让他们夺走我们的工作吧,那些更优秀的AI想杀死我们似
乎不可思议。谷歌工程总监,瑞·古威尔持对经过有机和机械改造的生
命形式持乐观的态度,认为这种改造可以成为一个更有效的方式,超
级电脑天网没有成为现实,如果成为了现实,它不一定要转而反对它
的创造者。但是阿姆斯特朗认为我们应该意识到风险,并且应准备应
对将要到来的风险。
“争论的第一部分是他们可以变得非常聪明,因此很强大。争论
的第二部分是,要达到那种智能水平,无论它的构造还是编程都是非
常难设计的这样就有了一个安全边界。
“一个专门查杀邮件病毒的程序,它的任务是努力从收到的电子
邮件中把病毒过滤掉,程序要完成的这个最高任务,它必须是聪明
的”,阿姆斯特朗继续道“如果制造出这样的超级智能程序,那么它
就会认识到,如果杀死每个人,让每一台计算机关机,这样就没有电
子邮件被发送,那么邮件携带的病毒也就不可能被发送,这样它的任
务就能完美准确地完成。
“这也许是有点愚蠢的例子,但它说明的一点是,对于要被赋于
这么多的要求、任务的程序来说,“杀死所有的人类”是一个完美解
决方案”
难道我们不能设计出安全模式吗?一个具体的不要杀人类”的规
则?
“事实证明,这需要制定一个更复杂的规则,远远超过了我们最
初的设定。假如你真的成功地编写了一个程序,也
原创力文档

文档评论(0)