战胜人类顶尖棋手的AlphaGo究竟有多聪明?.docVIP

  • 1
  • 0
  • 约2.32千字
  • 约 4页
  • 2016-12-10 发布于北京
  • 举报

战胜人类顶尖棋手的AlphaGo究竟有多聪明?.doc

战胜人类顶尖棋手的AlphaGo究竟有多聪明?   2016年3月9日至15日,韩国九段棋手李世石与谷歌计算机AlphaGo在韩国首尔进行了一次举世瞩目的人机大战。经过5场艰难的对弈,AlphaGo以4∶1的比分取得胜利,而几个月前,它还只能战胜职业围棋二段选手樊麾。AlphaGo战胜了人类顶尖棋手,且进步速度如此之快,这不禁让人担心:这样下去,它岂不是要像《终结者》中的“天网”和《黑客帝国》中的“母体”一样,可以统治地球奴役人类了?   AlphaGo真的有这么无敌吗?它的出现,对人类而言究竟是福还是祸呢?   抛开所有高大上的描述,AlphaGo本质上只是一段很长很长的程序代码。人类眼中的下围棋,在它眼里只是不停地按照代码设定做计算。人类棋手下棋时要计算每一步棋该怎样走,走这一步是优势还是劣势,同样,AlphaGo也在做类似的计算。而支撑它进行计算的是四个程序设置:策略网络、估值网络、快速部署和蒙特卡洛树搜索。要想知道AlphaGo是怎样学棋、下棋的,我们就得好好说说这四个程序设置了。   AlphaGo的策略网络,由监督学习和强化学习两种机器学习方法搭建。听上去有些高深?别急,平时刷题不止、考试不断的你一定深有体会。   所谓的监督学习,是我们给程序一个训练集,其中一部分称为例子,相当于习题;一部分称为目标,相当于答案。然后设定一个函数模型,让程序不断把训练

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档