2019上半年事业单位联考《综合应用能力》C类真题及答案.docxVIP

2019上半年事业单位联考《综合应用能力》C类真题及答案.docx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2019 上半年事业单位统考真题 C 类《综合应用能力》 2019 年上半年全国事业单位联考 C 类《综合应用能力》真题 材料一 1997 年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016 年,谷歌人工智能 AlphaGo 又战胜了 韩国棋手李世石,这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的 DeepMind 团队比预期提前了整整 10 年达到了既定目标。 对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单, 它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个 19×19 的正方形棋盘中,落下的棋子就不 能再移动了,只会在被对方棋子包围时被提走。到了棋局结束时,占据棋盘面积较多的一方为胜者。 围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能 下法也非常多。以国际象棋作对比,国际象棋每一步平均约有 35 种不同的可能走法,一般情况下,多数棋局会 在 80 步之内结束。围棋棋盘共有 361 个落子点,双方交替落子,整个棋局的总排列组合数共有约 10171 种可能 性,这远远超过了宇宙中的原子总数——1080! 对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找 对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈 树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上 来讲目前不可能做到。 “蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大 搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有 100 个苹 果,每次闭着眼拿出 1 个,最终要挑出最大的 1 个,于是先随机拿 1 个,再随机拿 1 个跟它比,留下大的,再 随机拿 1 个……每拿一次,留下的苹果都至少不比上次的小,拿的次数越多,挑出的苹果就越大。但除非拿 100 次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前 一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍 然存在相当大的缺陷,因为涉及的搜索树还是太大了。 AlphaGo 人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo 借助两个深度卷积 神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆 叠在一起,用于生成图片逐渐抽象的、局部的表征。对图像分析得越细,利用的神经网络层就越多。AlphaGo 也采取了类似的架构,将围棋模盘上的盘面视为 19×19 的图片输入,然后通过卷积层来表征盘面。这样,两个 深度卷积神经网络中的价值网络用于评估盘面,策略网络则用于采样动作。 在深度学习的第一阶段——策略网络的有监督学习(即从中 I 中学习)阶段,拥有 13 层神经网络的 AlphaGo 借助围棋数据库 KGS 中存储的 3000 万份对弈棋谱进行初步学习。这 3000 万份棋谱样本可以用 a、b 进 1 行统计。a 是一个二维棋局,把 a 输入到一个卷积神经网络进行分类,分类的目标就是落子向量 A。通过不断的 训练,尽可能让计算机得到的向量 A 接近人类高手的落子结果 b,这样就形成了一个模拟人类下围棋的神经网 络,然后得出一个下棋函数 F_go()。当盘面走到任何一种情形的时候,AlphaGo 都可以通过调用函数 F_go() 计算的结果来得到最佳的落子结果 b 可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段—— 策略网络的强化学习(即从 Ⅱ 中学习)阶段,AlphaGo 开始结合蒙特卡罗树搜索,不再机械地调用函数 库,而类似于一种人类进化的过程:AlphaGo 会和自己的老版本对弈。即,先使用 F_go(1)和 F_go(1)对弈, 得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的 F_go(2),再使用 F_go(2)和 F_go (1)对弈,以此类推,这样就可以得到胜率更高的 F_go(n)。这样,AlphaGo 就可以不断改善它在第一阶段 学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo 可以根据之前获得的学习经验得出估值函数 v (s),用于预测策略网络自我对抗时棋盘盘面 s 的结果。最后,则是将 F_ go()、v(s)以及蒙特卡罗树搜 索三者相互配合,使用 F_ go()作为初始分开局,每局选择分数最高的方案落子,同时调用 v(s)在比赛中 做出正确的判断。 这就是

文档评论(0)

江湖笑笑生 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档