用半导体和铁块做成的人工智能是如何向进化了200万年的人类的大脑看齐的呢?
◇能够分析局势的AlphaGo
人工智能想要在围棋盘上打败人类需要新的能力。围棋盘共有361个点位,对决双方第一轮棋就有129960种可能性。如果下满棋盘就会有10的170次方的可能性。即使是超级电脑也需要几十亿年来计算这所有的可能性。人工智能还需要能够判断局面上谁更占优势,吃子之后再放入棋子的规则也很复杂。
谷歌为了解决这些问题,对AlphaGo进行了自我学习的训练。谷歌先给AlphaGo输入3000万个棋谱并教会它规则,之后每天让AlphaGo下3万盘棋。AlphaGo储存了每一手棋之后的结果,它还能通过176个图像处理装置分析局势,再决定下攻击型的棋还是防守型的棋。
AlphaGo越下越强。因为越到棋局收尾阶段,需要计算的变数就越少。韩国软件政策研究所所长金锡元(音)说:“AlphaGo在开局阶段只计算十手以内的可能性,前十手棋之后就会考虑所有棋着,通过这样的模拟能够分析10万种结果。”
AlphaGo的下一手会在10万种结果中选择胜率最高的一种。尤其到中后半段之后能够计算所有的可能性。因此李世乭如果不能在前期奠定胜局,或者在中后半段失误就有可能输掉整盘比赛。
AlphaGo在打败樊麾之后又进行了400万盘对决,实力很有可能又上了一个台阶。此次比赛的时间是对决樊麾二段时的2倍,这也对AlphaGo更有利。
金锡元说:“时间越长,AlphaGo能够计算和考虑的变数越多。即使这次失败,超越人类只是时间问题。”
(本文版权归朝鲜日报网所有,对于抄袭者将采取法律措施应对)