谷歌家的go可能是世界上最聪明的狗

自从做了铲屎官

每一天都元气满满

因为狗狗实在是太聪明了

直到2014年

世界上最聪明的“狗”诞生了,他叫做阿尔法狗

自从AlphaGo赢得围棋世界冠军之后(肯定很多人都好奇为什么要叫AlphaGo?其实“Go”为日文“碁”字发音转写,是围棋的西方名称,直译为阿尔法围棋,亦被音译为阿尔法狗、阿法狗等),AI
这个活跃于科幻电影中的词语开始被我们在现实生活中反复提起。很多公司都加入了AI研究的浪潮。

咱们先来看看国内

这几年百度一心要挑起国内AI的大旗,今年的百度可谓是忙的不亦乐乎,从四月的AI开发大会到昨天11.16的百度世界大会,反复提及的AI概念也印证百度想要在AI领域成就一番的决心。

李彦宏在会上表示,最早于2019年,江淮汽车便能生产基于Apollo的自动驾驶汽车。

在此之前就有一款很出名的无人驾驶汽车——Google Driverless Car

跟阿法狗一样同是谷歌家的,不过Google Driverless Car是由Google X(是谷歌公司最神秘的一个部门,位于美国旧金山的一处秘密地点,该实验室的机密程度堪比CIA,仅少数几位谷歌高层掌握
情况,几年前大火的谷歌眼镜也出自Google X)研发的。
在2012年5月8日,在美国内华达州允许无人驾驶汽车上路3个月后,机动车辆管理局(Department of Motor Vehicles)为Google的无人驾驶汽车颁发了一张合法车牌。

目前已测试驾驶了48万公里。

虽然无人驾驶汽车很炫酷,不过咱们今天的主角可不是他,当然也不是AlphaGo。

而是AlphaGo Zero(阿尔法元)
2016 年, AlphaGo 第一版发表在了自然杂志上, 这可是牛逼得不要不要的期刊, 如果有谁能发表一篇期刊去自然, 保证他下半生衣食无忧。

而如今刚过去一年, Google DeepMind 又在自然上发表了一篇 AlphaGo 的改进版, AlphaGo zero, 同样的围棋 AI, 竟然在自然上发表了两次!

如果说有些人还沉浸在因为AlphaGo打败人类而觉得机器可怕的恐惧中,那AlphaGo Zero的出现让人开始思考被贫穷限制想象力的人类是否限制了机器的想象。

阿尔法元没有录入人类棋谱数据,单纯通过自我对弈,依靠强化学习取得了现在的能力,依靠4个TPU(谷歌专为加速深层神经网络运算能力而研发的芯片)仅用了三天的时间就击败了原版阿尔法狗

要知道AlphaGo此前的版本,结合了数百万人类围棋专家的棋谱,以及强化学习的监督学习进行了自我训练。

在战胜人类围棋职业高手之前,它经过了好几个月的训练,依靠的是多台机器和48个TPU。

阿尔法元之所以震撼了整个业界,是因为当我们以为AlphaGoMaster已经封神时,它用三天的时间告诉人类,人类以为的最高水平,在机器面前不值一提。

AlphaGo Zero的水平已经超过之前所有版本的AlphaGo。在对阵曾赢下韩国棋手李世石那版AlphaGo时,AlphaGoZero取得了100:0的压倒性战绩。

动态针分割线
下面的讲解可能就比较“枯燥”了,大家可以选择性阅读

首先要提及一个概念

蒙特卡洛树搜索

AlphaGo Zero 为什么更厉害?-2

每一个树的分支就是一种可能的发展趋势

可是围棋的下棋趋势被公认比天上的星星还要多

目前的计算机无法在每一步都尝试这种数不尽的趋势

AlphaGo Zero 为什么更厉害?-3

因此所以采用了叫做蒙特卡洛树搜索(Monte Carlo Tree Search)的形式对未知方面进行探索

AlphaGo Zero 为什么更厉害?-4

种形式正是在国际象棋AI上所采取的方式,

当时IBM开发的国际象棋人工智能 Deep Blue,

通过这种树形搜索在1997年战胜人类的

可是同样树形结构在接下来的20年中却没有多大发展

不然围棋早就被攻克了

AlphaGo Zero 为什么更厉害?-5

这是当时用于国际象棋的搜索树结构

因为国际象棋中可能发生的情况要比围棋少太多

通过计算机广泛的搜索可行

但是在围棋中, 同样的套路并不适用

动态针分割线

因此决定采用神经网络

AlphaGo Zero 为什么更厉害?-6

使用正在飞速发展的神经网络结构

AlphaGo Zero 为什么更厉害?-7

一个简单的神经网络包括了三个方面:
接受外界的信息
将接收到的信息进行加工处理
最后将理解的东西输出
AlphaGo中就使用了两套神经网络系统
一个神经网络基于当前的状态给出下一步的动作
一个神经网络用来评估当前状态是否对我方有利
使用神经网络配合搜索树来提供好的下棋行为

使用强化学习的方法不断训练, 我们的神经网络就能不断的提升自己下棋的能力

这就是 AlphaGo 能够战胜人类的主要原因

到此AlphaGo Zero便诞生了

AlphaGo Zero 为什么更厉害?-8

可是 AlphaGo 新版本 AlphaGo Zero 为什么被提出, 而且提出后为什么又能引起轩然大波? 很显然, 它肯定比前几个 AlphaGo 好, 首先也是最重要的是, 它完全没有学习过任何人类棋谱。

AlphaGo Zero 为什么更厉害?-9

人类学习下棋, 学习前辈们留下来的优秀棋谱是必不可少的, 所以上几个版本的 AlphaGo 也继承了这个思想, 我要从人类那里学习下棋的原则, 有一个好老师, 将会比无师自通方便多了。

AlphaGo Zero 为什么更厉害?-10

如果你和这样一个有人类老师的 AlphaGo 交手, 那可能还会在它背后看到人类下棋的影子。

但是 AlphaGo Zero, 完全是一个无师自通的家伙, 和它下棋, 你可能闻到很浓烈的机械味。

从另一方面想, 这样的 AlphaGo 打破了数千年来人类下棋思维的限制, 探索了人类想不到的下棋境界, 学会了一个崭新的下棋方式。

AlphaGo Zero 为什么更厉害?-11

在技术层面来说, AlphaGo Zero 使用的不再是两套神经网络系统, 而是将它们融合成一个神经网络系统,。

这样做能更有效利用资源, 学习效果更好。

AlphaGo Zero 为什么更厉害?-12

而且它不再仅仅使用 GPU, 转而添加了自家的专门为机器学习打造的 TPU, 而且使用的硬件个数也在逐步降低, 然而学习的效果却不断上升。

在短短40天没有老师教的训练中, AlphaGo Zero 超越了他所有的前辈, 在这个时候, 相信它真正做到了在围棋场上无人能敌了。

最后, 正如 AlphaGo 之父 David Silver 所说, 一个无师自通 AlphaGo 的产生, 并不仅仅意味着我们的 AI 能在围棋场上战胜人类。

放眼未来, 它还意味着, 在更多方面, 我们能用这样的 AI 创造出更多人类历史上的新篇章。

人类经验成了阿尔法狗的累赘,甩掉这些,算法可以更快更好的完成任务。

分割线 gif 动图

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: