说几句真心话,我觉得现在AlphaGo对人类围棋理论的帮助暂时不多。
首先,AlphaGo被设定为只为提高赢棋概率为目的,通过对价值网络分析大量局面得到参数,记录了海量的数据,又有强大
说几句真心话,我觉得现在AlphaGo对人类围棋理论的帮助暂时不多。
首先,AlphaGo被设定为只为提高赢棋概率为目的,通过对价值网络分析大量局面得到参数,记录了海量的数据,又有强大的全局性计算力作为支撑,其计算能力是人类所不能模仿的。
其次,AlphaGo在Zero之前的版本里,前半盘的下法是非常单调的。比如在正解解集里,前50步赢棋的方式有100万种(举例),AlphaGo可能只取其中的1000种,余下的根本不管了。因为这个程序是为了赢棋而设计的,而非为了找到所有正解而设计的。直到AlphaGo Zero的论文,我才看到有提到为了保证开局多样性而做的程序设定。
所以,如果要充分利用AlphaGo模型,光和程序下棋是远远不够的。我觉得我们还有两件事要做:
1. 拿到后台数据,观察各种局面和棋型中,价值网络提取得到的结果。这对提高人类的常识积累、训练更准确的棋感很有帮助。
2. 拿程序来推演前半盘的布局定式。人类对布局定式的研究,都要回归到大量的实战中去验证,可是多大量的实战可以和AlphaGo的自对弈相比?人类职业对局一年能有多少盘?限于对胜负的追求,又有多少盘棋中敢尝试结论未定的新变化?但是如果我们用AlphaGo顺着一条路走下去,得到各个分支最终的胜率,就能更快速准确的找到一个布局或定式变化的正确方向。
在未来,如果我们能实现这两点,我觉得这对于人类研究围棋的意义可能会非常重大。我期待着国家队早日能有这样的超级AI程序辅佐研究训练,也期待着《围棋天地》上每一期都能讲解职业棋手利用程序进行研究的最新结论。