计算复杂性回顾.docxVIP

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
计算复杂性回顾

计算复杂性的回顾 Stephen A.Cook 1早期的论文 算法复杂性问题的前史大概可以追溯到艾伦图灵在1937年的这篇论文,论文是论可计算数机器在判定问题中的应用。图灵介绍了他著名的图灵机,提出了使人信服的公式化观点,这个观点是有效的可计算函数。曾经这个想法正好被压制了,对于可计算的不可能证据出现了可能。在同一篇论文中,图灵提出了给定一个可预测的微积分的任意的一个公式,在有限的时间内没有任何一种算法可以证明这个公式是可满足的。 在解释什么样的问题能被计算机解决或不能解决这个理论很好的发展之后,很自然的想到可计算函数的相关计算难度在哪。这就是计算复杂性问题。Rabin是第一批详细的从事这类问题人之一:f比g更难计算是什么意思?Rabin提供了抽象复杂性理论的基础,这个理论被Blum和其他人所发展。 第二篇早期的有影响力的论文是J.Hartmanis和R.E.Stearns写的计算复杂性的算法。这篇论文被广泛阅读,给这个领域一个名字。这篇论文引入了复杂性度量的观点,复杂性度量被多图灵机在可计算时间内定义,层次理论被证明。这篇论文还提出了一个至今未解决的有趣的问题:任何无理数在实时内都是可计算的吗?也就是说,图灵机能永远按照每100步一个单位的速率把无理数扩展为十进制打印出来吗? 第三篇论文是Alan Cobham写的内在的计算难度。Alan Cobham强调“内在”,换句话说,他对独立机器理论感兴趣。他想知道乘法是否比加法难,并且他相信直到这个理论完全发展了,这个问题才能解决。Cobham也定义了和刻画了函数的重要的类:这些函数在自然数内和有限时间内是可计算的,时间限制是输入的十进制长度的多项式。 另外三篇论文影响着以上作者和其他研究复杂性的工作者,他们是Yamada,Bennett,Ritchie。有趣的是Rabin,Stearns,Bennett和Ritchie同时都是普林斯顿大学的学生。 2早期的观点和概念 几个早期的作者关心这个问题:什么是正确的复杂性度量?大多数人认为复杂性时间和空间是明显的选择,但是不能确定这些是唯一的或者正确的。比如,Cobham说和物理相关的概念的工作的一些测量可指导最满意的分析。Rabin引入了可以使复杂性度量可满足的公理。根据20多年的经验观点,我现在认为时间和空间,尤其是时间是最重要的复杂性度量。评价一个算法的效率,第一个能体现算法价值的应该是算法的运行时间。然而,近年来,并行时间和硬件资源越来越是度量复杂性的重要手段。 另一个重要的复杂性度量是组合复杂性。这里假定函数f是把有限的位字符串转化为有限的位字符串,对于所有长度为n的输入,f的复杂度C(n)是所有组合中最小的复杂度。这个普通的测量和计算时间紧紧相关,也发展成为理论。 Cobham提出的另外一个问题是在计算问题中,“步”由什么组成?对于度量一个算法的可计算时间,哪种计算机模型是正确的模型?多图灵机在这篇文献中经常被用到,但是他们被算法的执行效率所局限。比如,没有强制性的原因说存储介质必须是线性磁带。为什么不是平坦的矩阵或是树型?为什么不允许随机存储记忆? 事实上,自1960年来,好多计算模型被提出。因为真实的计算机有随机存储记忆,很自然的被用到这个模型中。但是怎么用是一个很棘手的问题。如果机器在一个步内能存储整型,对他们的大小必须要限制。(如果2被平方100次,结果将有2的100次方位,这些位能存储世界上所有已存在的存储介质。)我在文献19里面提出了RAM’s,每次logx的代价都能得到,x可以存储也可以查找。一个流行的随机存储模型是Aho,Hopcroft和Ullman在文献3里面提出的,每次涉及到整型的操作都有一个单元的代价,但是不能达到不合理的大小(比如,这些数字的大小被固定多项式限制,这些多项式是输入的长度)。或许最满意的计算模型是舍恩洛克的存储修正机器,这个机器可以被看成是图灵机,它有自己的存储机构,或者被看做一个单元代价RAM,它在每一个步只能复制,增加或存储或查找。舍恩洛克的机器。对于我来说意味着大多数机器都能在每一步做有限制的工作。困难是可能只有一点强大。(看第三部分的大数乘法)。 回到Cobham的问题,什么是“步”。我认为在最近的20年内没有一个明确的答案。幸运的是,完全的计算模型在可计算时间内都没有很大的区别。总的来说,每一个都能模仿另一个。(有些这方面的争论在文献37中)。在这些最主要的随机存取模型中,只有log计算时间这个重要因素正在被讨论。 这导致了在1965年形成的最终重要的概念:在输入的多项式时间内可以解决的问题的分类的定义。在多项式时间和指数时间的特征的算法早在1953年由von Neumann提出。然而,这个类别没有被正式定义和研究直到Cobham在1964年提出函数的类(看第一部分)。Cob

文档评论(0)

aicencen + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档