用随机算法求第k小项.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
用随机算法求第k小项

问题描述设A[1,n]是一个有n个数组成的无序数列,寻找其第k小元素就是将A按照非递减的顺序排列后,新序列中的第k个元素。寻找第k小元素最直接的方法就是直接将A进行排序,然后取出第k个元素,但是此类方法时间复杂度较高,至少需要Ω(nlogn)时间,因为基本所有已学的排序方法在最坏情况下都需要这么多时间。 在第三章中老师课上教导了利用分治法求第k小元素的算法,其时间复杂度为O(n)。其基本思想如下:在分治法递归调用的每一个划分步骤中都将舍弃一定比例的元素,而在剩余元素中寻找目标。故在我的理解中这种分治法的性能主要依赖于每次递归调用能舍去的元素的比例,以及为舍弃这些元素所花费的代价。在之后的学习中,我们又接触到了随机算法,不由思考,分治法中的划分可以不可以通过随机算法来随机选择一个位置,然后根据这个位置进行舍弃序列中的元素,有没有办法改进算法。随机选择算法Algorithm: RandomSelect (A[low, high], k)输入:数组A[low,...high]和整数k,1≤ k≤ high-low+1输出:A[low…high]中的第k小元素v ← random(low,high)x ←A[v]将A[low…high]分成三部分 A1={a|a x} A2={a|a = x} A3={a|a x}//Θ(n)case | A1 |≥ k : return RandomSelect(A1[1, |A1|], k) | A1 |+| A2 |≥ k : return x | A1 |+| A2 | k: return RandomSelect(A3[1,|A3|], k-|A1|-|A2|)end case该部分算法ppt与书上已经提到,其时间复杂度的期望比较次数C(n) ≤4n,此外每个元素与基准元素x至少比较一次。故C(n) ≥n及n≤C(n)≤4n,故时间复杂度为Θ(n)这部分书上与ppt上已有证明就不过多论述了对以上随机算法的一种思考改进分析以上算法不难发现,其先随机选择一个位置v,然后根据v进行对元素的舍弃,所以每次舍弃不同个元素的概率是相同的,我就思考可不可以让选中舍弃较多元素的位置的概率更大,让算法有更大几率舍弃掉较多的元素。 算法的想法如下:如果随机选择一个位置的元素进行比较,每个位置的可能性是均等的,取到的数值可能最大、最小,也可能中间,如果是最大最小的情况,每次舍弃的数值就只能有一个,只有尽可能的取大小排在中间的数值,才能舍去较大的元素,故我思考,不妨选择随机选择两个位置,v,j令x=(A[v]+A[j])/2,然后通过x进行分组,这样取到数值为中间大小的数比取到最大最小值的可能性更高,舍弃较多数的几率更大。进而进行了优化。 理论上,选择的随机位置越多,平均后,舍弃掉较多数的可能越大,但是这就退化近似成取中值进行分治法求第k小元素的方法,丧失了随机算法的优点,将直接随机到最优解和较优解的可能性也降低了,所以我尝试取2个随机位置的方法进行优化。 并且当选择两个随机位置时,序列长度小于等于2个时,没有执行随机算法的必要 先从一个特例分析其取到各位置的理论概率大小,令n=8,其取到不同位置的概率如下表(为表示清晰,v,j位置为A进行排序后的位置) 由表格数据可以发现,此时数组划分数据x可能处于不同的位置的概率分为别为:3/64,7/64,11/64,15/64,13/64,9/64,5/64,1/64 显然舍去较多数的几率更高。改进的随机算法:Algorithm: NewSelect (A[low, high], k)输入:数组A[low,...high]和整数k,1≤ k≤ high-low+1输出:A[low…high]中的第k小元素If(high-low≤2)thenIf(k==1) then return min(A[low],A[high])Else return max(A[low],A[high])End ifelsev ← random(low,high)j ← random(low,high)x ←(A[v]+A[j])/2将A[low…high]分成三部分 A1={a|a x} A2={a|a = x} A3={a|a x}//Θ(n)case | A1 |≥ k : return NewSelect(A1[1, |A1|], k) | A1 |+| A2 |≥ k : return x | A1 |+| A2 | k: return NewSelect (A3[1,|A3|], k-|A1|-|A2|)end case end if 该算法的最坏情况与最初算法是一致的,但是其舍弃较大数的可能性应该较大,下面进行时间复杂度的理论分析时间复杂度

文档评论(0)

docindpp + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档