围棋⼈机对弈五⼗年:第⼀代围棋AI是中国教授发明
新闻背景
AlphaGo2.0来到中国,“⼈机⼤战第⼆季”激战正酣。
但事实上,AlphaGo已经是围棋⼈⼯智能的第三代。在开发围棋⼈⼯智能的道路上,⼈类已经艰难地探索了将近五⼗年。dnf女炮加点
第⼀代围棋⼈⼯智能是中国教授发明感恩教师节手抄报内容
中国各民族代码围棋的英译名Go是⽇语的发⾳译来的,围棋在⽇语⾥写成“碁”(即Go的发⾳),把围棋译成Go或者Thegameofgo⼤概是最蹩脚的翻译了,尤其是在互联⽹时代,把围棋译成Go⾮常不利于围棋的推⼴,但AlphaGo的出现或能改变这个事实。
棋类游戏是对⼈类智能的挑战,⾃然也成了⼈⼯智能的标志之⼀。⽽围棋⼀直被认为是⼈⼯智能领域⾥的⾮常困难的挑战。⼆战还没结束,图灵就研究计算机下棋,他于1947年编了第⼀个国际象棋下棋程序,但直到1968年,最早的电脑围棋程序才被编写出来。它是由阿尔伯特·索伯特开发的,引⼊了⼀个评估函数对棋局进⾏分析,来估算双⽅占空的⼤⼩。然⽽,在相当长的⼀段时间⾥,业界的普遍观点是电脑围棋只能达到业余棋⼿的⽔准。
真正意义上的第⼀代围棋AI(⼈⼯智能)——“⼿谈”,是由已故中⼭⼤学化学系教授陈志⾏研发的围棋程序,从1993年到2002年共10次获得电脑围棋世界冠军,⽽“⼿谈”这个名字也是围棋除“弈”之外的别称。
陈志⾏教授原本研究的是量⼦化学,但同时也是围棋业余⾼⼿。在1991年退休后,他才开始潜⼼研发电脑围棋软件,虽然当时的电脑软件技术⽔平还⾮常低,⽽围棋棋盘⼤(19×19,⼀共有361点),空间状态多,打劫、终局规则复杂,⼀般程序员⾄少需要设计⼀两年才可能让电脑学会下围棋。但量⼦化学专业出⾝的陈志⾏,使⽤速度快但不太常⽤的汇编程序语⾔搭建围棋框架和编写围棋对弈引擎,他潜⼼编写的“Alpha-Beta搜索引擎”速度⾮常快,在当时领先其他同⾏⼏个数量级,达到了13层搜索深度,
也就是说“⼿谈”可以算清后⾯的13步棋,⽽其他程序通常只能算七⼋步。陈志⾏编写的“模式识别”专家系统在当时也是⽆⼈能及。
陈志⾏潜⼼研发“⼿谈”3年后,终于在世界⽐赛中斩获⾸个围棋⼈⼯智能世界冠军。当时的“⼿谈”以战⽃⼒超强著称,智能⽔平遥遥领先国际同⾏。之后“⼿谈”对弈⽔平不断进步,在国际性的电脑围棋对弈⽐赛上连续夺冠,夺得了该时期⼤部分世界⽐赛的冠军。
当时个⼈电脑系统刚在世界范围内普及,许多围棋爱好者还专门购买电脑安装“⼿谈”软件,⽤作学习围棋和训练的⼯具,“⼿谈”软件在世界范围内销售量排名第⼀。可以说,“⼿谈”软件的成功在国内掀起了⼀波围棋⼈⼯智能研究的热潮。
“蒙特卡洛树”算法开启⼆代围棋⼈⼯智能
当如IBM深蓝那样的超级电脑,已经能够击败世界上最好的国际象棋棋⼿时,围棋软件却仍然⽆法击败业余围棋⾼⼿。
但是,从2006年开始,随着应⽤蒙特卡洛⽅法的树搜索即蒙特卡洛树搜索和机器学习在围棋上的应⽤,电脑围棋⽔平有了突飞猛进的增长,棋⼒普遍提升到业余⾼段的⽔准。
围棋的棋⼦多,组合可能性也多。蒙特卡洛算法是⼀种基于“随机数”的计算⽅法,这⼀⽅法源于美国
在⼆战中研制原⼦弹的“曼哈顿计划”。频率决定概率,围棋对弈软件将最常见的对弈定式及棋形输⼊其中,从⽽达到较短时间提⾼棋⼒的功效。⽤通俗的语⾔解释这种算法:“简单来说,⼈脑下围棋靠的是逻辑思维,⽽蒙特卡洛算法就是⼀个抽样调查的⽅法。其实就是⼀个赌博概率式的⽅法,如果电脑下100盘棋,⽤这种下法赢了60盘,⽤另⼀种下法只赢了50盘,那么,它就会认定第⼀种下法,⽽淘汰另⼀种下法。”
蒙特卡洛树搜索算法的出现,可以看作是⼈⼯智能取得突破性进展的标志:计算机的思考⽅式,已经有点接近⼈类的思维⽅式了。⽬前使⽤蒙特卡洛树搜索的围棋对弈软件有疯⽯围棋(CrazyStone)、银星围棋(SilverStar)、天顶围棋(ZEN)等,都取得了不错的成绩。
2011年8⽉欧洲围棋⼤会,电脑围棋软件ZEN在19路盘上被让五⼦击败⽇本职业棋⼿林耕三六段。2012年3⽉,ZEN被让四⼦击败了⽇本超⼀流棋⼿武宫正树九段,这是围棋程序⾸次在被让四⼦的情况下战胜第⼀流职业选⼿。2013
年,CrazyStone被让四⼦击败⽇本⽯⽥芳夫九段,2014年,CrazyStone被让四⼦击败⽇本依⽥纪基九段。可见围棋软件进步迅速,⾄少⽐起⼗年前对弈⽔平已经提⾼⼀⼤截,受让四⼦优势明显。
如何在电脑上安装打印机2015年10⽉,同样基于蒙特卡洛树搜索的Google旗下⼈⼯智能公司DeepMind开发的AlphaGo,在没有任何让⼦的情况下,以五战全胜的成绩击败了欧洲围棋冠军、职业围棋⼆段樊麾,这也是电脑围棋建党一百周年手抄报内容
程序⾸次击败围棋职业棋⼿,当然也意味着围棋AI新时代的来临。
AlphaGo、绝艺以及⼈机协作
围棋AI之难,难在这项运动本⾝的多重复杂性——“最简单的规则,最复杂的变化”。在AlphaGo及其开发团队DeepMind出现之前,⼏乎所有研究者都认为在⼗年内⼈⼯智能战胜围棋⼤师的机会是渺茫的。⽽在它出现以后,⼏乎所有⼈都在惊呼⼈⼯智能已破解了围棋这⼀历史难题,甚⾄在极短的时间内两次让研究成果上了《⾃然》杂志的封⾯。
据AlphaGo官⽅介绍,AlphaGo采⽤了⼀种更加“通⽤”的⼈⼯智能⽅法,即采⽤将改进的蒙特卡洛决策树算法与深度神经⽹络算法相结合的⽅法构建最终的学习系统。其包括两个部分:策略⽹络与价值⽹络。策略⽹络在当前给定的棋局中,负责预测下⼀步的⾛棋,并对下⼀步⾛棋的好坏进⾏打分,策略⽹络的作⽤好⽐“模仿”⼈类棋⼿的各种⾛法,以达到预测的效果。然⽽仅凭模仿⽆法击败最顶级的⼈类⾼⼿,AlphaGo⼜增加了价值⽹络来判断当前的局⾯到底对哪⼀⽅有利,但围棋程序的局势评估相当困难,只能通过深度学习⽹络之间⾃我训练的⽅法来达到良好的效果。
2016年3⽉,AlphaGo以4:1战胜世界围棋名将李世⽯,AlphaGo的实⼒⾸次被世⼈真正认可。AlphaGo2.0版本的升级亮点是——摒弃⼈类棋谱,即仅通过监督学习和强化学习,再度进化出新的“围棋机器⼈”。
事实上,除了AlphaGo,现在还有其他围棋AI程序也已被证明达到甚⾄超过了⼈类棋⼿的⼀流⽔平,⽐如腾讯AILab(腾讯⼈⼯智能实验室)研发的围棋⼈⼯智能程序“绝艺”(FineArt),它在今年⾸次参加UEC杯计算机围棋⼤赛,就以11连胜夺得了本届UEC杯冠军,在随后的⼈机⼤战中完胜⽇本先锋棋⼿⼀⼒辽。
屋面保温AI作为⼯具,被⼈类棋⼿“喂招”不断进化后,它也能“反哺”⼈类,棋⼿使⽤围棋AI开展⼈机协同,AI为⼈类棋⼿“蓄⼒”,1+1>2的进化成为了新看点。随着数据量的⾼速增长,AI可以分析总结、⾃我学习,⼈则可以通过善⽤AI、⼈机协作,开启智慧时代,改变现在以及未来的⼀切。
(作者为《机器⼈产业》杂志副总编)
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论