【PConline资讯】近日据外媒报道称,谷歌旗下的公司DeepMInd宣布谷歌在人工智能领域已经取得了重要进展,公司开发出一款能够在围棋比赛中击败职业选手的程序,这款被命名为AlphaGo的系统程序能够通过机器深度学习的技术结合高性能计算平台来随时掌握比赛的一系列技巧。
就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。
传统的人工智能方法是将所有可能的走法构建成一棵搜索树,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。
其中一个神经网络“决策网络”(policynetwork)负责选择下一步走法,另一个神经网络“值网络”(“valuenetwork)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcementlearning)。通过广泛使用Google云平台,完成了大量研究工作。
在具体的机器训练上,决策网络的方式是输入人类围棋专家的比赛,到系统可以预测57%人类行动为止,此前最好成绩是44%。此后AlphaGo通过在神经网络内部进行比赛的方式(可以简单理解成和自己下棋),开始学习自主探索新的围棋策略。目前AlphaGo的决策网络可以击败大多数具有庞大搜寻树的最先进的围棋程序。


