2013诺贝尔物理学奖背后的计算机技术.docVIP

2013诺贝尔物理学奖背后的计算机技术.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2013诺贝尔物理学奖背后的计算机技术

2013诺贝尔物理学奖背后的计算机技术   在《量子杂志》上刊登了一篇文章,讲述了量子物理学研究的过程中,各种计算机技术的变迁,作者是物理学的专栏作家,文中并没有谈及专业的计算机技术细节,但也提供给我们一个新的视角去看待近年来计算机技术的发展。以下为译文:   2013年诺贝尔物理学奖10月8日在瑞典揭晓,?比利时理论物理学家Fran?ois?Englert和英国理论物理学家Peter?W.?Higgs因希格斯玻色子的理论预言获奖,2012年这一预言在位于瑞士的CERN(欧洲核子中心)粒子物理实验室中得到了证实。   在CERN的?LHC(大型强子对撞机)中,亚原子颗粒不停高速碰撞,产生新的粒子,四个监视器在持续记录这些粒子的情况,每秒产生的数据量高达5TB,相当于全球图书馆数据量的总和。这些数据被滤波算法处理后,99%以上的数据都被过滤掉了,但是每年这个系统需要存储和处理的数据仍然高达25PB。研究组正是在这数以十亿计的粒子对撞结果中提取到了希格斯粒子存在的证据。支撑这些数据计算的是遍布全球的160个数据中心,这个分布式网络的数据传输速率最高可达10GB/S。LHC解决大数据问题的方法反映了近十年来计算本质的戏剧性变化。   从摩尔定律到多核技术   摩尔定律自1965年被Intel联合创始人Gordon?E.?Moore提出以来,就一直主导着计算机产业。根据摩尔定律,集成电路中的晶体管数量每隔两年会增加一倍,然而目前看来,这个速度是极具弹性的。麻省理工学院理论计算机科学家?Scott?Aaronson认为“摩尔定律已经基本失效”。   自2005年以来,许多计算能力的增长都来自多核技术带来的并发性上。更快的处理器固然重要,但已不再居首位。斯坦福大学电气工程师?Stephen?Boyd认为“5年来,处理器速度对于计算能力的提高已经不多了,解决问题的挑战并不在于如何利用一个超快的处理器,而是如何整合10万个较慢的处理器”。Aaronson指出简单地增加并行处理并不能充分解决大数据问题,这些问题更连续,有时可以分割成小任务分配给多个处理器,有时很难做到分割,并且这些处理器也很难得到充分利用。好比是20个人完成一项工作,通常情况下并不能达到20倍的速度。   数据传输的问题   研究人员在集成不同架构的数据集时也面临着挑战,同时在一个高度分布式的网络中有效传输数据也面临巨大困难。随着数据集的规模和复杂性不断增长,这个问题会变得愈发明显。据加州科技学会物理学家?Harvey?Newman(他的团队开发了LHC的网格数据中心和横跨大西洋的网络系统)。他估计照目前的形势发展,LHC数据处理系统的计算能力将不能再满足需求,甚至需要重新设计。   内存与数据传输   数据传输有时比处理延时更耗时,Aaronson说:“计算机运行慢的原因不一定是微处理器的问题,还有可能是微处理器在等从磁盘传来的数据。”大数据研究人员更喜欢数据传输时间尽可能的少,因为存储在分布式网络或云端的数据会使情况恶化。   分布式计算   解决这个问题的方案之一是使用新的模式:除了存储,分析数据也采用分布式的方法。LHC的方案就类似于这种模式,对撞机中的产生的原始数据被存储在瑞士的CERN研究设备中,另外还有一份备份数据被按批量划分并分布到世界各地的数据中心。每个数据中心对各自的数据块进行处理,然后在处理下一批数据前,将处理结果发送给各地区的计算机。   Boyd的系统基于所谓的?一致性算法,他介绍说:“这是一个数学优化问题,用以前的数据‘教育’这个系统来处理未来的数据。”这个算法在SPAM过滤器中也得到了很好的应用。   当问题变得太大时,一致性优化方法非常有效,数据集被分割成块,分布在1000个“代理”中分别处理,并产生一个数据模型。关键是要满足临界条件:每个“代理”的模型可以不同,但最后这些模型要达成一致。   在Boyd的系统中,这个过程是迭代的,创建一个反馈环路,所有的代理会共享初始情况的一致状态,继而根据新的信息更新各自的模型,并达到新的一致状态。这个过程不断重复,直到所有的代理都达成一致。采用这种分布优化的方法可以显著减小每次需要传输的数据量。   量子计算   去年的纳帕谷会议上,MIT的物理学家?Seth?Lloyd引起了Sergey?Brin和Larry?Page的关注。在演讲中Lloyd提出了一个量子版本的Google搜索引擎,Google在对用户的搜索关键词情况下,用户也可以做查询和收到结果。但是第二天Lloyd被告知这个方案和Google的商业计划有冲突。Lloyd开玩笑说:“Google想要对他们的每个用户做到了如指掌”。量子计算机可以提供强大的处理能力,对于某些复杂算法可大幅度提高速度。实际上,Google从一家加拿大公司D-Wave以15

文档评论(0)

2017ll + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档