- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2019 上半年事业单位统考真题 C 类《综合应用能力》
2019 年上半年全国事业单位联考 C 类《综合应用能力》真题
材料一
1997 年,国际象棋大师加里·卡斯帕罗夫败给了电脑“深蓝”;2016 年,谷歌人工智能 AlphaGo 又战胜了
韩国棋手李世石,这标志着人工智能终于征服了它在棋类比赛中最后的弱项——围棋,谷歌公司的 DeepMind
团队比预期提前了整整 10 年达到了既定目标。
对计算机来说,围棋并不是因为其规则比国际象棋复杂而难以征服——与此完全相反,围棋规则更简单,
它其实只有一种棋子,对弈的双方轮流把黑色和白色的棋子放到一个 19×19 的正方形棋盘中,落下的棋子就不
能再移动了,只会在被对方棋子包围时被提走。到了棋局结束时,占据棋盘面积较多的一方为胜者。
围棋的规则如此简单,但对于计算机来说却又异常复杂,原因在于围棋的步数非常多,而且每一步的可能
下法也非常多。以国际象棋作对比,国际象棋每一步平均约有 35 种不同的可能走法,一般情况下,多数棋局会
在 80 步之内结束。围棋棋盘共有 361 个落子点,双方交替落子,整个棋局的总排列组合数共有约 10171 种可能
性,这远远超过了宇宙中的原子总数——1080!
对于结构简单的棋类游戏,计算机程序开发人员可以使用所谓的“暴力”方法,再辅以一些技巧,来寻找
对弈策略,也就是对余下可能出现的所有盘面都进行尝试并给予评价,从而找出最优的走法。这种对整棵博弈
树进行穷举搜索的策略对计算能力要求很高,对围棋或者象棋程序来说是非常困难的,尤其是围棋,从技术上
来讲目前不可能做到。
“蒙特卡罗树搜索”是一种基于蒙特卡罗算法的启发式搜索策略,能够根据对搜索空间的随机抽样来扩大
搜索树,从而分析围棋这类游戏中每一步棋应该怎么走才能够创造最好机会。举例来说,假如筐里有 100 个苹
果,每次闭着眼拿出 1 个,最终要挑出最大的 1 个,于是先随机拿 1 个,再随机拿 1 个跟它比,留下大的,再
随机拿 1 个……每拿一次,留下的苹果都至少不比上次的小,拿的次数越多,挑出的苹果就越大。但除非拿 100
次,否则无法肯定挑出了最大的。这个挑苹果的方法,就属于蒙特卡罗算法。虽然“蒙特卡罗树搜索”在此前
一些弈棋程序中也有采用,在相对较小的棋盘中也能很好地发挥作用,但在正规的全尺寸棋盘上,这种方法仍
然存在相当大的缺陷,因为涉及的搜索树还是太大了。
AlphaGo 人工智能程序中最新颖的技术当属它获取知识的方式——深度学习。AlphaGo 借助两个深度卷积
神经网络(价值网络和策略网络)自主地进行新知识的学习。深度卷积神经网络使用很多层的神经元,将其堆
叠在一起,用于生成图片逐渐抽象的、局部的表征。对图像分析得越细,利用的神经网络层就越多。AlphaGo
也采取了类似的架构,将围棋模盘上的盘面视为 19×19 的图片输入,然后通过卷积层来表征盘面。这样,两个
深度卷积神经网络中的价值网络用于评估盘面,策略网络则用于采样动作。
在深度学习的第一阶段——策略网络的有监督学习(即从中
I
中学习)阶段,拥有 13 层神经网络的
AlphaGo 借助围棋数据库 KGS 中存储的 3000 万份对弈棋谱进行初步学习。这 3000 万份棋谱样本可以用 a、b 进
1
行统计。a 是一个二维棋局,把 a 输入到一个卷积神经网络进行分类,分类的目标就是落子向量 A。通过不断的
训练,尽可能让计算机得到的向量 A 接近人类高手的落子结果 b,这样就形成了一个模拟人类下围棋的神经网
络,然后得出一个下棋函数 F_go()。当盘面走到任何一种情形的时候,AlphaGo 都可以通过调用函数 F_go()
计算的结果来得到最佳的落子结果 b 可能的概率分布,并依据这个概率来挑选下一步的动作。在第二阶段——
策略网络的强化学习(即从
Ⅱ
中学习)阶段,AlphaGo 开始结合蒙特卡罗树搜索,不再机械地调用函数
库,而类似于一种人类进化的过程:AlphaGo 会和自己的老版本对弈。即,先使用 F_go(1)和 F_go(1)对弈,
得到了一定量的新棋谱,将这些新棋谱加入到训练集当中,训练出新的 F_go(2),再使用 F_go(2)和 F_go
(1)对弈,以此类推,这样就可以得到胜率更高的 F_go(n)。这样,AlphaGo 就可以不断改善它在第一阶段
学到的知识。在第三阶段——价值网络的强化学习阶段,AlphaGo 可以根据之前获得的学习经验得出估值函数 v
(s),用于预测策略网络自我对抗时棋盘盘面 s 的结果。最后,则是将 F_ go()、v(s)以及蒙特卡罗树搜
索三者相互配合,使用 F_ go()作为初始分开局,每局选择分数最高的方案落子,同时调用 v(s)在比赛中
做出正确的判断。
这就是
文档评论(0)