本篇文章3453字,读完约9分钟
编者按:伴随着谷歌io大会的东风,《连线》杂志发表了一篇深入分析人工智能向人类进化的全过程的文章,指出在这个过程中,虽然人类担心人工智能会取代人类,但事实上,人工智能不仅不会取代人类,还会促进人类的进步。以下是文章的主要内容:
在人机围棋的第二场比赛中,阿尔法围棋在空白区落到了37位,震惊了世界——李世石看到后离开了,远程观看并解释的雷德蒙也震惊了。西方唯一的九段棋手说:“我真的不知道这是好棋还是坏棋。”与此同时,美国围棋协会的交流副主席克里斯·加洛克说:“这是一个错误。”
在这一步中,李世石参加了大约二十分钟的考试,但四个多小时后他还是输了。后来,在这场人机战争中,分布在全球谷歌数据中心的数百个人工智能程序被连接起来,打败了人类设计的最复杂游戏中的最佳玩家。
同样对37手牌有所怀疑的范辉,不仅是以5-0输给阿尔法戈的欧洲围棋冠军,也是此后阿尔法戈的陪练。在与李世石开战前的五个多月里,范辉与阿尔法戈玩了数百场游戏。他看着阿尔法戈一天天长大。范辉越来越失败,但他是最了解阿尔法戈的人。看着阿尔法戈的第37只手,他知道一定有普通人难以理解的东西。数了10秒钟后,他说:“多棒的手啊。”。
是的,大多数人认为阿尔法戈的胜利是对计算能力的一次强有力的粉碎。然而,第37手证明了阿尔法围棋不仅是一种计算,而且在一定程度上显示了理解围棋的能力,就像人类棋手一样,有着棋感。因此,37只手具有历史意义,这表明机器和人类终于开始有一个真正的融合日。
阿尔法戈的创始人哈比比于1976年出生于伦敦。他4岁开始下棋,13岁成为象棋大师,在14岁以下的棋手中排名世界第二。阿尔法狼队的队长席尔瓦说:“我看到他出现在我们镇上,赢得比赛,然后离开。”他们俩在剑桥大学读本科时正式相识。为了理解人类的思维和研究机器能否变得智能,两个专业都是计算神经科学。在伦敦大学学院(ucl)攻读认知神经科学博士学位时,哈萨比斯专注于负责导航、记忆和想象的海马体,并为构建一台更像人类思维方式的计算机奠定了基础。他的新理论被《科学》杂志评为2007年十大科技突破之一。
当ibm深蓝计算机在1997年击败国际象棋冠军时,碰巧哈比比正在剑桥大学学习计算机科学。当时,他第一次接触到围棋,这是一种在剑桥已经有几千年历史的棋盘游戏,而刚刚接触到围棋的哈比比不禁会想:为什么机器从来没有破解过这种智力游戏?正因为如此,哈萨比斯决定制造一个电脑系统,可以玩得比人类更好。从博弈论的角度来看,围棋就像国际象棋和跳棋一样,是一个完全信息的游戏——完全没有运气,信息是完全开放的。一般来说,电脑应该能够轻松掌握它,但他们就是不能征服围棋。
哈萨比斯说,在围棋中,无论是人还是机器都无法计算出每一步的最终结果,顶尖棋手依靠的是直觉而不是硬计算——也就是棋感。"围棋布局注重美感,好的布局看起来充满美感."
1998年,他们毕业后共同创办了一家视频游戏公司。游戏是测试人工智能的好方法。但是在2005年,他们的游戏公司破产了。席尔瓦去阿尔伯塔大学学习人工智能的主要形式——强化学习。增强学习技术使机器能够重复同样的任务并找到最佳决策,从而实现自主学习。哈萨比斯去了英国伦敦大学学院,获得了神经科学博士学位。这两个专业都是计算神经科学,目的是研究机器能否变得智能。2010年,他们又见面了——哈萨比斯在伦敦创立了一家名为deepmind的人工智能公司,席尔瓦加入了他。
当谷歌首席执行官布林与哈萨比斯会面时,哈萨比斯说:“几年后,deepmind也许能够击败世界围棋冠军。”甚至有远见的布林也认为这是不可思议的,但他们做到了。
第二场人机大战后,席尔瓦进入阿尔法戈的控制室,监控它是否正常运行,并跟踪它如何预测每场比赛的结果。席尔瓦调出阿尔法戈在比赛中的决策记录,看看阿尔法戈打出第37局之前发生了什么。
在deepmind和alphago出现之前,国际象棋依靠蛮力,也就是ibm Deep Blue使用的耗尽。当时,深蓝也迈出了意想不到的一步,但暴力计算无法解决Go。围棋有如此多的变化,以至于计算机都无法计算出来。
因此,深层思维只能找到另一种方式——机器学习。
深度思维团队将人类玩的3000万步围棋输入到深度神经网络中。这个网络模拟了人脑中的神经网络,团队也希望它能像人脑一样思考,独立学习。例如,脸书的计算机视觉技术,谷歌的语音识别。观察足够多的猫,它能认出猫;输入足够的语言数据,就能理解自然语言;同样,如果你输入足够的国际象棋分数,你就可以学会如何下棋。然而,创造性关联和规则应用是两回事。例如,37只手不在3000万步之内,那么怎么做呢?事实上,阿尔法戈还计算出人类职业棋手迈出这一步的概率只有万分之一,但它还是选择了这一步。
席尔瓦解释说:“它知道一个职业棋手这样做的概率很低,但经过它自己的计算,它可以推翻原来的输入参考。”从某种意义上说,阿尔法戈开始独立思考。它的决定不是基于它的创造者在它的数字dna中编辑的规则,而是基于它的自学算法。
在让自己学会下棋后,席尔瓦让阿尔法去和自己对抗——这是一个与其版本不同的神经网络。在自我游戏训练的过程中,阿尔法戈记录了最好的行走方法——这是席尔瓦曾经研究过的强化学习技术。
给自己打分——这是提高你下棋技巧的有效方法,但这是技巧的一部分。仅仅知道如何分析形势和进行逻辑计算是不够的。在广阔的棋盘上找到最好的一手取决于直觉,即根据棋型的感性预测。在强化学习技术实施后,席尔瓦的团队将这些非人类围棋步法导入第二个神经网络,并教它预测深蓝等象棋游戏。在输入了许多游戏中与自己对战后收集的所有信息后,阿尔法戈可以开始预测围棋游戏将如何展开。这是直觉。例如,阿尔法戈的37只手。即使席尔瓦回到后台去检查这个过程,他也不知道阿尔法戈是如何得到这个结果的——也就是说,象棋意识的形成。
Alphago是deepmind进入人工智能领域的重要一步,但是Hassabis说没有必要担心“人工智能取代了人类”。在他看来,人工智能是一种工具,一种具有结构智慧的工具,它能让人类变得更好。虽然阿尔法戈目前拥有这样的能力,但它可能并不真正知道自己在做什么。那么,有了这样一个工具,Hassabis如何想象未来五年的人工智能世界?谷歌花了6.5亿美元收购了一家公司,而不仅仅是下棋。
凭借深厚的学习和独立思考能力,阿尔法戈今天可以下棋,明天可以学习设计。深度学习和神经网络支持谷歌提供的十几项服务,包括其无所不能的搜索引擎。阿尔法戈的另一个不那么秘密的武器“强化学习”一直在教该公司的实验室机器人拾取和移动各种物体。
然而,业务问题并不是最重要的。当他问哈比比看到李世石输掉比赛时的感受时,他指着自己的心说:“非常抱歉。”看到自己的成就,他很自豪,但出于人类的本能,他感到难过,他希望李诗诗能赢得下一场比赛。
然而,在第四场比赛中,阿尔法戈以同样神秘的方式控制了棋盘上的主导力量。当李世石猛攻棋盘上的某个特定区域时,阿尔法戈的反应显示出惊人的整体态势,这不仅阻止了李世石的局部绞杀,也为整个游戏奠定了基础。在第37手牌中,阿尔法戈将一枚黑色棋子放在旁边只有一枚白色棋子的地方,远离主战场。
然后,当阿尔法戈打出第77手牌时,李世石再次陷入了漫长的考试。在李世石走78手之前,阿尔法戈计算出他的胜率是70%。但此时,阿尔法戈成为了下一个卡斯帕罗夫。它不能相信一个人会产生78%的“上帝的一只手”——概率接近万分之一。但从另一个角度来看,这种想法更可怕:它挑战了人类的恐惧,而且是幸运的。它有人类思维的优点和缺点。
78手反转后,李世石向右侧发起进攻,阿尔法戈则专注于防守。在这个防守过程中,阿尔法戈一度似乎想“抢”右边,但失败了,却跑出了“死儿子”。在那之后,阿尔法戈平均每一次从中间和后面的盘子里掉下来都会思考3分钟以上。在“收尾”阶段,李世石依然小心翼翼,没有出错。最终,阿尔法戈认输,李世石赢得了第一场胜利。这也是阿尔法戈打败范辉后第一次向人类投降。
在第五场比赛中,虽然李世石仍然输了,但双方已经无视结果,这是一场原则性的较量。在人机战争开始之前,Hassabis将人工智能称为促进人类进步的工具。当时,这种说法是毫无根据的。然而,随着人工智能被投入到实际的生产和生活中,越来越多的人相信机器是可以人性化的,它们可以与人类相互合作,相互促进。在最简单的例子中,没有阿尔法戈的37只手,“上帝的一只手”78在哪里?
标题:AI的进阶:Google人工智能如何教你重新做人?
地址:http://www.j4f2.com/ydbxw/12709.html