- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《技术进步为何会导致生存危机
技术进步为何会导致生存危机?
绵羊c 2012-04-24 19:40:28
人类科技发展带来的危险,很可能会导致人类的灭亡,牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆(Nick Bostrom)这样认为。本文中,博斯特罗姆谈到了未来几十年,甚至几百年里,人类可能碰到的,最有趣及最让人担忧的生存危机。
人类科技发展带来的危险,真的会导致人类的灭亡吗?
(文 / 罗斯·安德森)牛津大学人类未来研究院的院长、哲学教授,尼克·博斯特罗姆(Nick Bostrom)认为,人类科技发展带来的危险,很有可能会导致人类的灭亡。 在之前的讨论中 ,博斯特罗姆跟《大西洋月刊》的记者,罗斯·安德森(Ross Andersen)谈到了人类灭绝的风险,他认为,现今社会人们不仅对人类灭绝的风险知之甚少,更糟糕的是人们大大低估了这种风险。
尽管博斯特罗姆担心技术进步给人类带来的危险,但他并不是一个勒德分子(即反对工业化、自动化、数字化或一切新科技的人)。事实上,他本人一直以来都是 “超人主义”(transhumanism)的拥护者——主张通过技术手段,改善人类生存条件,甚至人类自身条件。
博斯特罗姆认为,从长远来看,技术就像一座桥梁,人类应当谨慎小心的通过这座桥,以到达更好更利于生存的彼岸。
为了避免人类毁于自己之手,一种可能的解决方法,就是放慢技术发展的速度,但您却批评了这种观点,认为如果发展先进技术的进程永久性受阻,这本身就可能成为另一种生存危机,能解释一下这是为什么吗?
博: 关于这个问题,我想再次说明一下 “生存危机” 的定义,这种危机并不仅仅指灭绝,还包括很多其他东西,比如永久性破坏人类创造美好未来的可能性。技术进步可以从根本上提高人类的生活质量,因此如果我们永久性地停止技术进步,就等于毁掉了更多美好未来的可能性,这本身就是一种 “生存灾难”。
我认为,我们人类能够过上比现在好得多的生活。从根本的生物性上来说,我们有许多局限性,因此在我们的人生中可以实现的事情很有限——我们的生命是有限的,我们的认知能力是有限的,我们的情绪特质决定了,即使在情势大好时,我们也不会完全的快乐。放眼今天这个世界,有很多悲剧、痛苦、贫困和疾病都是可以避免的,我认为这个世界可以更美好,无论是从超人主义的角度,还是从经济学的角度。如果永久性地放弃实现这些更美好生活方式的努力,绝对算得上是另一个 “生存危机”。
我不看重或者推崇,用放慢技术发展的方式,来缓解人类生存危机的另一个原因是,想要做到这一点非常难。有太多强大的力量推动着科学技术的发展,方方面面——经济压力,人类的好奇心,还有许多的机构和个人都投身于技术发展,所以要阻止技术进步太难了。
什么技术,或者未来可能出现的什么技术,是最让您担忧的呢?
博: 我可以举几个例子。从近期来讲,我觉得生物技术和合成生物学比较令人不安。我们正逐渐掌握设计和创造病原体的能力,各种致病生物的信息随处可见。现在你已经能从网上下载天花,或者 1918 年西班牙流感病毒的基因序列,但目前为止对普通人而言,你得到的也就只是电脑屏幕上的一串字符。可是如果我们的 DNA 合成仪越来越好用,输入网上下载的序列信息,你就可以得到真正的 RNA 或者 DNA 序列,那么不久之后这些仪器可能就强大到,可以直接制造出相应的病毒。这些病毒虽然危险,但至少还在可预知的范围内,如果接下来你能够改造这些生物体,就更不得了了,可以预见到,我们将面对一个全新的高科技的危险领域。
从长远来看,我认为人工智能——一旦它们获得人类甚至超人的能力——将会给我们带来很大的危机;还有各种操控人类的手段也让我很担心,比如监视人民和一些控制人类心智的药物。
【编者注】更多合成生物学的讨论: 会让流感病毒通过空气传播的研究,该不该发表?
您的一篇文章中提到,专家们估算了本世纪人类灭绝的几率大约有 10% ~ 20%,我想肯定不止我一个人会有 “这个几率未免也太高了吧” 这种想法,是什么因素导致了这个高几率的产生?
博: 我想之所以估算出的数值如此之高,是因为人类正在发展出极为强大的能力——我们正在进行着前人从未做过的事情,也有一定的风险会出错。比如说核武器,如果仔细回想一下你会发现,制造核武器需要一些非常罕见的材料,如浓缩铀或者钚,这些东西非常难弄到。但如果当初发现了某些技术,使得你只要用微波炉加热沙子,或者其他类似的简单手段就能制造核武器,你能想象我们现在会是什么样吗?我估计这一发现刚刚问世,我们的整个文明就已经被毁掉了。
每次当我们有了新的发现,就好像从一个大瓮中拿出了一个新球——目前为止我们拿出的都是白色或者灰色的球,但也许下一次我们拿出的就是一个黑球,一个带来灾难的发现。我们迄今还没办法把已经拿出来的球放回去,不管我们多不喜欢这个球,正如一旦一个发现公诸于
文档评论(0)