AlphaGo的冷思考,如何怎么看待人工智能能的进步

如何看待AlphaGo重大胜利背后的人工智能进步_百度知道
如何看待AlphaGo重大胜利背后的人工智能进步
我有更好的答案
虽然整场对弈还没有结束,但是目前的情况显然有些让人出乎意料。有人认为,这是围棋冠军的一个挫败,但却是人类文明的胜利。因为人类是一个善于发明工具去协助自己变得更强大的生物。但是,这场人机对弈似乎有点被神话的意味。事实上,虽然人类在围棋项目输了,但这从本质上讲,仅仅意味着人类单项竞技智慧的颓败,并不代表人工智能已经全面超越人类。甚至,仅仅就围棋这一单行竞技中,人工智能能够对人类提供的帮助也是有限的。 在这场依旧正在进行中的人机博弈,结果依旧是难以预料的。但是不论最终结果如何,有一个事实是改变不了,那就是,围棋作为一项竞技项目,是有规则可寻的,而这些规则计算机的数据足够全面,其实也可以在这些数据的基础上找出规律,形成算法。而机器的算法早就已经超越了人类,即使是李世石处在围棋巅峰,其逻辑运算能力到了计算机面前也根本是难以逾越的。像之前的国际象棋早已经被计算机的逻辑运算完全打败,所以棋手都会和计算机下棋训练,如今看来,围棋这种人类竞技项目也难逃这种宿命。 真正的人工智能首先要有真正的分析推理能力,能够协助人类去提高分析和决策效率。虽然有别于传统计算机穷举计算方式,“阿尔法狗”采用的是利用“价值网络”去计算局面,用“策略网络”去选择下子。但是,阿尔法狗依旧处于一个弱人工智能的水平。什么是弱人工智能?简单的说,所谓弱人工智能就是仅在单个领域比较牛的人工智能程序。比如我们熟悉的苹果Siri,就是一个会卖萌的弱人工智能程序。而阿尔法狗根据这个标准,依旧在这个范围以内。充其量,最多是人类围棋的陪练。而这场人际对决,本质上更像是谷歌的一场科技秀。
传媒培训、投行培训、实习内推
主营:传媒行业培训、投行券商行业培训、实习内推、实习培训、测试
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。AlphaGo战胜李世石 我们应更好的理解人工智能_棋牌_新浪竞技风暴_新浪网
AlphaGo战胜李世石 我们应更好的理解人工智能
  来自微信公众号:机器之心
  作者:赵赛坡、赵云峰
  AlphaGo 与李世石的人机世纪大战落下帷幕,在最后一场比赛中,我们第一次见证了 AlphaGo 进入读秒阶段,最终 AlphaGo 战胜了李世石,在5局比赛中以4:1的绝对优势取得了胜利。在这样一个历史性时刻,已不再需要关注某一局比赛,而是应该从更加宏观的角度去思考人工智能。
  过去一周几乎所有的科技新闻都在讨论人工智能,从各个媒体、论坛、社区、微信公众号、专栏等等渠道发布出来的人工智能文章数不胜数,我们一遍遍地从各色文章里读到Alpha Go 独特的‘价值网络’、‘决策网络’如何‘碾压’人类的决策机制,或者从包括Facebook 人工智能实验室负责人 Yann LeCun 以及微软研究院机器学习专家 John Langford 等非谷歌人工智能专家的‘警告’:事实上,Alpha Go(离实现真正的人工智能)还差的十万八千里。
  更有趣的讨论还发生在上周一场名为‘不要相信人工智能的承诺(DON‘T TRUST THE PROMISE OF ARTIFICIAL INTELLIGENCE)’的座谈里,虚拟现实领域的先锋人物 Jaron Lanier 坦言:公众对人工智能存在片面认识‘一方面它(人工智能)是科学研究的术语,另一方面则由科幻小说家们掌控。’
  发明于1956的‘人工智能’一词就像其‘发明人’约翰·麦卡锡所言:‘一旦一样东西用人工智能实现了,人们就不再叫它人工智能了。’当我们理所当然地用搜索引擎搜索东西,通过 Siri、Cortana 询问未来天气和最近的行程,几乎没有人意识自己都在和人工智能打交道。
  人工智能之父约翰·麦卡锡
  而当看完电影《他(Her)》、《机器姬》之后,又不免陷入到对人工智能深深的恐惧中,这两部最新的科幻电影几乎触及到我们可以遇见的未来:情感外包、机器意识觉醒、杀死人类并成为社会的一员。
  上述所有的描述既正确又错误,原因就在于只看到人工智能的某个层面。根据科技博主 Tim Urban 在 Wait But Why 网站的分类,人工智能可以分为以下三类:
  首先是弱人工智能 Artificial Narrow Intelligence(ANI),这是一种只能够在某个特定领域处理问题的人工智能,比如只会下国际象棋的深蓝以及这次下围棋的 Alpha Go。1997年深蓝打败卡斯帕洛夫后,IBM 就宣布深蓝的退役,而Alpha Go 还未在其他方面展示出应有的能力,IBM认知科学专家,深蓝之父& Murray Campbell 也表示:‘如果能让这套算法不仅可以应付围棋还能延伸到其他棋类的话,我觉得会更令人激动。’
  更重要一点在于支持目前 Alpha Go 的计算机效率还很低。在 DeepMind 发布围棋论文后,机器学习教授 Neil Lawrence 表示:‘谷歌 DeepMind AlphaGo 的胜利来得比预期的更快,这一成就被赞誉为人工智能的突破,但计算机还远没有我们高效。’。
  DeepMind展示如何让人工智能玩游戏
  DeepMind 所开发的系统基于两个主要思路:机器学习和随机博弈树搜索(Random game-tree search)。博弈树搜索是一种探索和评估未来的可能行动的方法,是一种在游戏中规划未来的计划系统。机器学习是一种通过数据训练计算机的方法:在这里数据是指棋盘上的布局。通过训练计算机,可以让计算机学会识别棋盘上的好模式。
  这个计算机系统通过与自我对战获得训练,它可以从能够导向成功的棋盘布局中学习。当它与人类交手时,它玩过的围棋局数已经远远超过了任何人类一生可能完成的棋局数。这就意味着它从棋局中学习经验的速度远远慢于任何人类。对于 AlphaGo 的自我对战训练,国内机器学习专家周志华也表示:AlphaGo 的‘自我博弈’有理论上限突破不了,比如说‘就像轻功里的梯云纵,不断两脚互踩还能越飞越高?’在机器学习领域,这称作数据效率,也就是解决个别问题所需要的数据量。人类的数据效率要远远高于机器,人工智能领域的近期突破却远非如此。
  深度学习带来了弱人工智能的爆发式发展,最好的深度神经网络可以在无监督的情况下从大量例证中学习,具备了保持语义连贯的组织知识的能力。例如,深度学习系统‘学习’了大量文本信息之后,比如说整个维基百科,能够通过一些类比问题进行学习,比如说,国王-男人+女人=王后;或者,法国-巴黎+伦敦=英国。但是,不管这些系统的表现有多么令人印象深刻,这与人类凭借直觉来理解世界的方式还是存在天壤之别。
  机器的终极目标是能够以人类一样的认知方式来理解世界,因此我们就能按照我们使用自身直觉的方式来使用它们。搜索引擎就是个很好的例子,我们在搜寻信息时,往往是提取出关键词输入到搜索引擎的对话框,但我们却无法保证机器一定可以理解我们的真实意图。而当我们向人类询问同样信息时,我们就可以非常顺畅的与之交流,因为我们人类对外部世界有着共同的理解。
  主流搜索引擎正在将自然语言处理技术纳入其中,这将允许用户能够直接向计算机提出自己的需求,而不是输入一个个孤立的关键词。但是,就我们目前在这方面取得的进展而言,我们距离实现‘人机直觉交互’还有很长的路要走。
  其次则是强人工智能 Artificial General Intelligence(AGI),这是一种可以与人类大脑处理能力相对等的人工智能。换句话说,人类大脑能做的事情它都能做,比如思考、计划、抽象思维以及经验学习等。马文·明斯提出一个假设:人类与机器之间并没有真正的区别。人类实际上是一种机器,他们的大脑由许多半自治但很愚蠢的‘代理’组成,而‘不同的任务需要完全不同的机制。’
  马文·明斯基谈人工智能的发展
  从一开始,强人工智能可谓人工智能先驱们孜孜不倦的追求。1962年,也就是提出‘人工智能’六年后,时任卡内基梅隆大学教授 Herbert。 A。 Simon (也是诺奖经济学获得者) 断言:‘二十年内,计算机将能胜任人类可以做的一切工作。’
  但现实的残酷性远远超过人类的想象。尽管约翰·麦卡锡几乎把自己整个生命都贡献给了如何通过正规数学逻辑方法模拟人类大脑的事业,但依然毫无进展。2005年开始的欧洲的‘蓝脑’(Blue Brain)计划预计将在2023年之前搭建出一个基本等同于人脑模式的工作模型。不过这个计划成功的关键是,搞清楚人类大脑里的大约1000亿个神经元和1000万亿突触连接的运行机制,更何况这些连接都不是数字连接,它们依赖于具有互相关联的时序的电化学信号和模拟组件。
  从深度学习本身来说,深度神经网络只受到了人类大脑中生物神经网络的一点点启发。尽管深度学习使用的许多术语(例如神经元和激活)都借鉴自脑科学,但这两个系统的工作原理完全不一样。
  要理解这一不同可以用深度学习的‘大脑’与人类儿童的大脑做比较——至少是用我们目前所知的部分做对比(实际上我们知道得并不多)。二者最大的不同点在于,人类儿童能够探索周围世界,并能在无外部监督的情况下独自形成知识。有了这种无监督学习得来的知识,孩子们能够将所有任务分解成一个个子任务,并各个击破,从而完成任务。
  到目前为止,深度学习还不具备这种能力:人们需要把所有东西教给它们,包括这是什么东西、学习完成后应该做什么。研究者们正在探索如何改进这种模型,但现在离目标还很远。
  在此次人机大战的主角、DeepMind创始人 Hassabis 眼中,‘癌症、气候变迁、能源、基因组学、宏观经济学、金融系统、物理学等,太多我们想掌握的系统知识正变得极其复杂。’Hassabis指出:‘如此巨大的信息量让最聪明的人穷其一生也无法完全掌握。那么,我们如何才能从如此庞大的数据量中筛选出正确的见解呢?而一种通用人工智能思维的方式则是自动将非结构化信息转换为可使用知识的过程。我们所研究的东西可能是针对任何问题的元解决方法(meta-solution)。’
  虽然寻找‘元解决方法’也许要花费数十年时间,但它看起来正在迫近。2015年2月,世界顶级科学期刊《自然》将像素游戏《Space Invaders》作为其封面,右下角是‘自我教学软件在玩游戏上达到了人类般的表现’。在这一期,DeepMind的论文描述了首个成功的通用‘端对端’学习系统,他们的人工代理——一个针对于图像处理单元的Deep-Q网络算法——能够学习如何处理屏幕的输入值并理解其含义,并采取能实现所需结果的决策(在这种情况下,系统成为众多雅达利2600经典游戏,如太空侵略者、拳击、打砖块中的超级玩家)。这是一项让整个科技界都为之震撼的突破。
  第三层面的‘人工智能’就是所谓超人工智能 Artificial Super Intelligence (ASI)。按照牛津大学哲学教授尼克·波斯特洛姆的定义:‘在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。’而在波斯特洛姆的畅销书《超级智能》里,他又将这种智能定义为‘在几乎所有领域远远超过人类的认知能力。。。。。。’ 的智能。
  这个定义非常宽泛,然而却成为时下几乎所有反人工智能主义者心目中‘可能是最好的定义’,这些人不乏名人和科技大佬,包括特斯拉老板伊隆·马斯克、微软创始人比尔?盖茨、著名科学家斯蒂芬·霍金等,这些人无一例外地被一家位于华盛顿的智库机构‘信息技术及创新基金会’评为年度卢德奖提名,卢德奖顾名思义,源自于19世纪那个破坏机器的英国工人卢德,因此,该奖项致力于评选当年抗拒新技术实施的名人。
  伊隆·马斯克与霍金的人工智能威胁论
  还记得初版《侏罗纪公园》中有一个镜头,杰夫·高布伦饰演的科学家说出了一句经典台词:‘科学家太过于关注他们能做什么,而没有停下来想一想他们是否应该做这些事。’20多年后,特斯拉的CEO马斯克再一次提出了这种说法。他在麻省理工学院航空航天部的百周年纪念研讨会上警告说,人工智能为人类造成了有史以来最严重的威胁,并把我们对技术所做的事情比作‘召唤恶魔’。
  还有一些更温和的思想家(例如俄勒冈州立大学的AI专家Thomas G。 Dietterich)则同时强调对人工智能依赖所带来的利弊,以及未来可能出现哪些假设的情形。到底何时会出现与人相当的人工智能?关于这个问题,专家学者们已经争论了很长时间,这就像一场长期上演的统计学猜谜游戏。目前来看,普遍的预计是出现在2040年~2050年之间的某个时间。
  在论证时,你当然可以说:技术进步可能会因某一个事件而突然爆发,从而迅速将人类带入可怕的未知世界(有人也称为技术奇点)。你还可以对人类的任何方面做出同样的预测:人口爆炸,原材料和能量耗尽,瘟疫,自然灾害,债务,社会不平等,核战争等等。
  而辩论的对方则更积极乐观些。他们认为,深度学习已经赋予了我们处理上述问题的能力,比如拥有了获取信息的更好途径、更多设计药物的先进工具以及更精巧的模型来进行科学研究,这些研究几乎涉及到所有领域。
  不过,当我们决定将人工智能带入生活时,我们要知晓其中的利害关系并保持警戒心。目前,许多大公司都在‘偷偷摸摸’挖掘我们的搜索引擎数据,以便于向我们的邮箱或社交媒体中推送精准定向的广告。对此,人们的态度十分暧昧。这距离可怕的反乌托邦情境还很远,但它让人们开始对隐私和压制展开了严肃的讨论。对任何新技术,不管是生物技术、纳米还是无人驾驶,都必须考量其未来的潜在风险,并利用假设的情景设置新的讨论框架,对技术是否符合伦理进行严肃的辩论。
  同样的关于人工智能‘带来可怕未来’的讨论还存在于TechRada近期发表的一篇文章里:一个机器人通过了所谓的‘自我意识测试’。在测试中,纽约伦斯勒理工学院的机器人学家们为一组三个机器人进行了编程:一个机器人被赋予说话的能力,另外两个则设置成沉默状态。然后,研究者询问哪个机器人能够说话,测试目的在于考察这些机器人能否理解自身状态。其中的一个机器人试着回答,‘我不知道。’另外两个不能说话的机器人则无法回答。听到自己声音的那个机器人能够自我认定并回复道,‘对不起,我不知道!’
  一些读者对此项测试的来龙去脉缺乏深入了解,他们用测试结果来证明他们的观点——机器(意识)革命即将到来。但Facebook人工智能实验室负责人、深度学习开创者之——Yann LeCun 立刻表示:我们对这种不正常的兴奋应该不予理会,人工智能离拥有自我意识还有十万八千里,人类无需有任何疑虑。
  正如上文所言,人工智能的发展还停留在弱人工智能阶段,别说超越人类认知能力,甚至也达不到与人类匹配的认知能力。当科学家、计算机学家埋头苦干,进一步改进弱人工智能的性能时,一群人却以超人工智能的尺度呼吁社会要注意这种威胁,也难过‘信息技术及创新基金会’(IFIT)这样评价他们:‘当前的人工智能能否发展成为完全自主的系统仍是一个备受争议的问题,但无可争议的一点是,这种可能的未来距离我们还相当遥远(更有可能是1个世纪,而不是10年),因此担心人工智能形成自我意识只是杞人忧天。讨论这种富于科幻色彩的世界末日只会导致公众、决策者和科学家不愿投资支持人工智能的研究。’
  DeepMind 创始人 Demis Hassabis 日前在接受媒体采访时透露的两个细节值得反复咀嚼:Hassabis 前段时间拜会霍金,用4个小时的时间介绍人工智能的真实情况,Hassabis 表示,霍金再也没有在媒体上发表过‘关于人工智能的煽动性言论’。
  第二个是对话细节:
  记者:‘AlphaGo是否会休息?’
  ‘不,没有休息!甚至圣诞节也不休息。’
  ‘它是否需要偶尔停下?’
  ‘或许它会喜欢这样。’哈萨比斯说。
  这或许就是当下人工智能最好的描述了。
文章关键词:
收藏&&|&&&&|&&打印&&|&&关闭
您可通过新浪首页顶部 “我的收藏”, 查看所有收藏过的文章。
请用微博账号,推荐效果更好!后使用快捷导航没有帐号?
AlphaGo重大胜利后的冷静思考,如何看待人工智能的进步?
查看: 22773|
评论: 0|来自: 机器之心
摘要: 引言:AlphaGo战胜欧洲围棋冠军樊麾的消息引得了媒体的广泛关注,人工智能和围棋相关领域的专家们也普遍认为这是一个具有重要意义的里程碑。例如英国围棋协会主席Jon Diamond将这一次AlphaGo的胜利称作「棋力上重大 ...
引言:AlphaGo战胜欧洲围棋冠军樊麾的消息引得了媒体的广泛关注,和围棋相关领域的专家们也普遍认为这是一个具有重要意义的里程碑。例如英国围棋协会主席Jon Diamond将这一次AlphaGo的胜利称作「棋力上重大的突飞猛进」;人工智能研究者Francesca Rossi、Stuart Russell和Bart Selman分别将其描述为「重要的成就」、「了不起的成就」和「具有重大意义的成就」。AlphaGo的胜利到底有多重大,多了不起呢?本文中,在近来计算机围棋发展历史、通用人工智能领域进步和技术预测的大背景下,作者对这个问题进行简要地回答。简单来说,这确实是一个了不起的成就,但在更大的背景下审视它,能让我们对该成就的大小、突然性、重要性有更多了解,从而减少片面的判断。尽管如此,某种程度上这仍然是人工智能历史上的极具启发性的一页,除了新闻报道中的一致好评,它还值得拥有更多注解与分析。因此,除了对比事实与炒作,本文还将尝试从AlphaGo的第一次胜利中提取一些关于人工智能进步速度与本质的经验教训,并说明我们应该怎样看待三月份即将到来的它和李世石的比赛。发生了什么?谷歌DeepMind一个15-20人组成的团队设计的系统AlphaGo在正式围棋比赛中以5:0的成绩击败了曾三次获得欧洲围棋冠军的樊麾。在非正式比赛中樊麾曾以更少的每步用时在5场比赛中获胜2场(新闻报道中常常忽略了这些更多的有趣细节,相关情况也可查看《自然》论文)。AlphaGo程序比以往任何围棋程序更加强大(下面会介绍它到底有多强)。怎么办到的?相比于其它计算机围棋程序相关团队,AlphaGo由一个相对较大的团队研发发,显然使用了更多的计算资源(详见下文)。该程序使用了一种新颖的方式实现了和蒙特卡洛树搜索(Monte Carlo tree search,MCTS)的结合,并经过了包含监督学习和自我训练的多个阶段的训练。值得注意的是,从评估它与人工智能进步关系的角度来看,它并没有接受过端到端(end-to-end)的训练(尽管在AAAI 2016上Demis Hassabis表示他们可能会在未来这样做)。另外在MCTS组件中它还使用了一些手工开发的功能(这一点也常常被观察者忽略)。相关论文宣称的贡献是「评估与策略网络(value and policy networks)」的构想和他们整合MCTS的方式。论文中的数据表明,使用这些元素的系统比不使用它们的系统更为强大。整体AI性能VS特定的进步仔细研究《自然》 上关于AlphaGo的论文,可以得到许多观点,其中一个对评估该结果所拥有的更广泛意义尤其重要:硬件在提高AlphaGo性能上的关键作用。参考下面的数据,我将对其进行解释。该图表显示了计算机Go与樊麾在估测Elo评级和排名方面的些许不同(译者注:Elo评级系统是由美国物理学教授Arpad Elo提出的一种计算二人竞技游戏(如象棋、围棋)中选手相对水平的评级系统)。Elo评级表示了击败评级更高或更低对手的期望概率——比如,一个评分比对手多200分的选手预计获胜的概率为四分之三。现在我们可以通过图表了解一些有趣的信息。忽略粉红色数据条(表示在有额外棋子时的表现),我们可以发现AlphaGo(不管是不是分布式的)都比原来较好的围棋程序Crazy Stone和Zen强出许多。AlphaGo的等级是较低的专业级水平(图表右侧的p表示「专业段位」),而其它程序则处在较高的业余水平上(图表右侧的d表示「业余段位」)。另外,我们可以看到尽管分布式AlphaGo(AlphaGo Distributed)的评估水平略高于樊麾,但非分布式AlphaGo却并非如此(和樊麾比赛的是分布式AlphaGo)。看起来樊麾如果和非分布式AlphaGo对弈,可能他就算不获胜,至少也可以赢几局。后面我会谈更多关于这两种AlphaGo和其它变体之间的不同,但现在请注意一下上图遗漏的东西:的围棋程序。在AlphaGo的胜利之前的几周和几个月里,围棋界将显著的活动和热情(尽管团队小一些,比如Facebook就1-2个人)投入到了两个围棋引擎上:由Facebook研究人员开发的darkforest(及其变体,其中较好的是darkfmcts3)和评价很高的Zen程序的新实验版本Zen19X。请注意,在今年一月份,Zen19X在KGS服务器(用于人类和计算机围棋)中被简单地评级为「业余7段」,据报道这是因为结合使用了神经网络。darkfmcts3则获得了实打实的「业余5段」评级,这在前几个月的基础上实现了2-3个段位的进步,其背后的研究人员还在论文中表示还有各种现成的方法可以对其进行改进。事实上,按田渊栋和朱岩在其的论文中的说法,在的KGS计算机围棋赛中,如果不是因为出现了一个故障,他们本能够击败Zen(相反Hassabis说darkfmcts3输给了Zen——他可能没有看相关的注脚!)。总结来说,计算机围棋在AlphaGo之前就已经通过与的结合实现了很多进步,这能稍微减少上面图表中的差距(这份图表可能是几个月前的),但并不能完全消除。现在,回到硬件的问题上。DeepMind的David Silver和 Aja Huang等人对AlphaGo的许多变体版本进行了评估,并总结成了上面图表中的AlphaGo和分布式AlphaGo。但这没有给出由硬件差异所带来的变体版本的全貌,而你可以在下图(同样来自于那篇论文)中看到这个全貌。这张图表给出了不同AlphaGo变体版本所估测的Elo评级。其中11条淡蓝色数据来自「单台机器」变体,而蓝黑色数据则来自涉及多台机器的分布式AlphaGo。但这个机器到底是什么呢?图中的线程(Threads)表示了所使用的搜索线程数,而通过查阅论文后面的内容,我们可以发现其中计算最不密集的AlphaGo版本(图中最短数据条)使用了48个CPU和1个GPU。作为参考,Crazy Stone没有使用任何GPU,使用的CPU也稍微少一点。在简单搜索了不同的围棋程序目前所使用的计算集群之后,我没找到其它任何程序GPU的使用数量超过36个。Facebook的darkfmcts3是我所知确定使用了GPU的版本,其较大的版本使用了64个GPU和8个CPU(也就是说相比于单台机器版AlphaGo,GPU更多,CPU更少)。上图中基于40个搜索线程、48个CPU、8个GPU变体的单台机器版AlphaGo比前面提到的其它程序强大很多。但如果它是一个48个CPU、1个GPU版本,它可能只会比Crazy Stone和Zen强一点——甚至可能不会比1月份刚改进过的Zen19X版本更强。也许较好的比较是在同样硬件水平上对比AlphaGo和darkfmcts3,但它们使用了不同的CPU/GPU配置,而darkfmcts3在AlphaGo的胜利之后也已下线。如果将Crazy Stone和Zen19X扩展到与分布式AlphaGo同等的集群规模,进一步分析前面提到的硬件调整所带来的性能提升,那也会很有意思。总之,并不清楚在同等硬件水平上AlphaGo相对于之前的围棋程序有多少性能提升——也许有一些,但肯定没有之前使用小集群的围棋程序和使用大规模集群的AlphaGo之间的差距那样大。这是我们下面要讨论的。分布式AlphaGo较大的变体版本使用了280个GPU和1920个CPU。这样巨大的硬件数量所带来的算力显然远远超过之前任何被报道过的围棋程序。这一计算集群大小值得注意的原因有两个。第一,它让人疑问AlphaGo所代表的硬件适应算法(hardware-adjusted algorithmic)的进展程度,以及相关的评估和策略网络的重要性。正如我在的AAAI工作室论文《人工智能建模的进展》提到的,如果我们应该追踪人工智能领域内多个较先进的状况而不是单个较先进的状况,那么将分布式AlphaGo和Crazy Stone之类进行比较就是将两个较先进的进行比较——即在考虑小规模算力(和小团队)的性能和大规模算力(由十几位世界上最优秀的人工智能研究者所带来的)性能进行比较。第二,值得注意的是,光是硬件改进这一方面就让AlphaGo实现了非常大的棋力水平跨越(相对于人类而言)——从报道中较低的大约Elo评级2200分上涨到超过3000分,这是业余水平和专业水平之间的差距。这可能表明(后面我还会回过来讨论)在可能的技术水平区间中,人类水平只能处在相对较小的区间内。如果这个项目在10或20年前已经开始,看起来很可能在相同算法的基础上,仅靠硬件提升就能让机器的棋力水平一步实现从业余水平到超人水平(超过专业水平)的跨越。此外,10或20年前,即使采用相同的算法,因为硬件水平限制,也很可能没办法开发出超人水平的围棋程序。尽管近年来神经网络和MCTS等其它方面的进步也做出了很大贡献,但也许只有到现在,在硬件进步的基础上,AlphaGo项目才有意义。此外,同样在《人工智能建模的进展》中也简单讨论过,我们还应该考虑人工智能的性能和评估进展速率时用于训练的数据之间的关系。AlphaGo使用来自KGS服务器的大型游戏数据集帮助实现了AlphaGo的能力——我还没仔细看过过去其它相比的人工智能训练所用的数据,但看起来可能也是这个数据集。在AAAI上Hassabis表示DeepMind打算尝试完全使用自我对弈来训练AlphaGo。这是个更加了不起的想法,但在那之前,我们可能没法知道AlphaGo有多少性能来自于此数据库,这个数据库是DeepMind自己从KGS的服务器上收集的。最后,除了调整硬件和数据,我们还应该调整如何评估一个人工智能里程牌有多重要。以深蓝(DeepBlue)为例,打败Gary Kasparov的人工智能的开发中使用了明显的相关领域专业知识,它并不是通过从头开始学习而实现该领域内的通用智能。Hassabis在AAAI和其它地方说过AlphaGo比深蓝更代表了通用型人工智能进步,而且这一技术也是为通用的目的使用的。然而,这个项目中评估和策略网络的进展与使用的具体训练方案(监督学习和自我训练的序列,而不是端到端学习)本身是由研究人员在领域内特有的专业知识所确定的,其中包括David Silver和Aja Huang,他们拥有大量关于计算机围棋和围棋方面的专业知识。尽管AlphaGo的棋力最终超过这些研究者,但其中的算法搜索都是之前由这些特定领域确定的(而且之前也提到过,部分算法——即MCTS组件——编码了特定领域的知识)。另外,该团队非常大,有15-20人,超过我所知的之前的任何围棋引擎团队,简直能与深蓝或沃森(Watson)这样的大型项目相提并论,这在计算机围棋史上也是绝无仅有的。所以,如果我们要合理预期一个由特定领域内最聪明的较高级专家组成的团队在推动某个问题的发展,那么这个努力的规模表明我们应该稍微降低一点AlphaGo在我们印象中的里程碑意义。相反,如果例如DeepMind这样的项目只是简单地将现有的DQN算法应用到围棋上就取得了同样的成就,那就会具有更重大的意义。与此同时,由特定领域启发的创新也可能具有广泛的相关性,评估和策略网络可能就是这样的案例。现在说还有些言之过早。总之,虽然可能最后证明评估和策略网络确实是实现更通用和更强大人工智能系统的重大进展,但我们不能在不考虑硬件调整、数据和人员的基础上就仅从AlphaGo的优秀表现上推导出这一结论。另外,不管我们认为算法创新是否尤其重要,我们都应该将这些结果理解为深度强化学习扩展应用到更大硬件组合和更多数据上的标志,也是之前大量人工智能专家眼中解决困难问题的标志,这些标志本身就是我们将要了解的有关世界的重要事实。专家评论以及人工智能与围棋预测AlphaGo 击败樊麾后,评论普遍认为这一突然的胜利与围棋计算机预设程序相关。需特别指出的是,DeepMind内部人士表示原以为这要十年甚至更长时间才能实现。其中就包括CrazyStone设计者Remi Coulum,他在《连线》杂志一篇文章发表了类似观点。我无意深入探讨专家对围棋计算机未来的观点,专家们几乎不可能对这一里程碑意义达成共识。就在AlphaGo 此次胜利宣布之前,我和其他一些人在推特和其他地方表示Coulum的悲观看法并不成立。大概一年前,Alex Champandard在一次AI游戏专家的聚会上说在谷歌和其他公司的共同努力下,围棋计算机程序将实现飞跃;在去年的AAAI大会上,我也咨询了Michael Bowling(他对AI游戏也略知一二,研究了一款基本上解决了德州扑克双人限制的AI程序)having developed the AI that essentially solved limit heads-up Texas Hold Em),问他认为多少年后,围棋AI将超越人类,他回答说最多五年。所以,再次表明:这次胜利是否突然,在业内并未达成共识,那些声称该胜利意义深远的观点是基于不科学的专家调查,存在争议。尽管如此,这一胜利也确实让包括AI专家在内的一些人感到意外,Remi Coulum这类人也不可能不知道围棋 AI。 那么,该胜利出乎专家意料之外是否意味着AI本身实现了突破呢?答案是否定的,一直以来,专家对AI未来的看法都是不可靠的。为此,我在《人工智能建模的进展》中调研了相关文献,简而言之,我们早就知道基于模型的预测优于直觉判断,定量技术预测胜于定性技术预测,qualitative ones,还有其他的因素使得我们并不该把某种所谓的直觉判断(与正规模型及其推测相反)当真。等一系列其他事情,相对于zh正式的模型/推论,我们不该对围棋 AI的未来采取特定的直观判断。而且从少数确切的经验判断可以看出,该胜利的意义并非如此重大。从为数不多的真正实证性推测(计算围棋达到人类水平的日期)来看,其预测并没有很大的误差。Hiroshi Yamashita2011年起对围棋计算机的发展趋势进行预测,称四年后将出现围棋计算机超越人类的节点,现在看来,仅有一年的偏差。近年来,这一趋势放缓(基于KGS较高排名),如果Yamashita和其他人重新预测,也许会调整计算方式,如推迟一年。但也就在AlphaGo取得胜利的前几个星期,围棋计算机取得了突破性进展。我没有从各方面仔细看这些预测内容,但是我认为他们原本以为这个节点将在十年以后甚至更长时间才会出现,尤其是考虑到去年围棋计算机的发展。也许AlphaGo的胜利比预计早了几年,但我们也总是可以期待一些超越了(基于小团队,有限计算资源的)一般趋势的进步,因为有显著的更多投入、数据量和大量计算资源被用来攻克这一问题。AlphaGo的发展是否偏离合理调整趋势并不明显,特别是因为如今人们并没有在严格模拟这种趋势方面投入太多工作。在不同领域中,鉴于工作、数据、硬件水平的不同,在有效的预测方法被采用之前,所谓的「突破性」进步会看上去比实际上更让人惊讶。以上都表明我们至少应该对AlphaGo 的胜利略微淡定。虽谈不上震惊,但我也认为这是个了不起的成就。更多地,这是我们在人工智能领域取得的成就的另一标志,也展现了人工智能中使用各种方法的能力。神经网络在AlphaGo 中起到了关键作用。将神经网络运用在围棋计算机上并不稀奇,因为神经网络用途广泛——原则上,神经网络可实现任何可计算函数。但是在AlphaGo 的运用再次表明神经网络不仅能够学习一系列的事情,还能相对高效,即在和人类处理速度相似的时间范围内、现有的硬件条件下完成一些原本需要大量人类智慧的任务。而且,它们不仅能完成诸如「模式识别」这类普通(有时人类不屑)的任务,还能规划高级策略,如在围棋中胜出所需的谋略。神经网络的可扩展性(不仅在于更大的数据量和计算性能,还在于不同的认知领域)不仅仅通过AlphaGo来展现出来,最近其它各类AI成果也有所体现。诚然,即使没有蒙特卡洛树搜索(MCTS),AlphaGo 也优于现存所有配备蒙特卡洛树搜索的系统,这也是整件事最有趣的发现之一,而一些关于AlphaGo的胜利分析却遗漏了它。AlphaGo 并不是一个可展现神经网络在「认知」领域潜力的系统——近期一篇论文表明神经网络也被用于其它计划任务。AlphaGo 能否自我训练,其表现有多少可归结于特定的训练法?现在讨论还为时过早。但是论文中对硬件规格的研究使我们有理由相信只要有足够的硬件和数据,人工智能就能极大地超越人类。这点,我们早已从ImageNet (译者注:ImageNet 是一个计算机视觉系统识别项目, 是目前世界上图像识别较大的数据库)的视觉识别结果中得知,人工智能在某些评分、语音识别和其它一些结果已经超越了人类表现。但是AlphaGo 是一个重要的象征,表明「人类水平」并非AI的终点,现有的AI技术仍有很大的提升空间,尤其是DeepMind和其他公司不断扩大的技术研究团队已经深深打上了「深度强化学习(deep reinforcement learning)」的烙印。同时,我也深入了解了Atari 人工智能的发展细节(也许就是今后博文的主题),我也得出了相似的结论:Atari AI与人类智力大体相当只会维持非常短的一段时间,即年。目前,游戏中表现的中间值远在人类能力的100%以上,而平均值则达到600%左右。人工智能仅在一小部分游戏中未能达到人类水平,但是很快就会出现超人类的表现。除了从AlphaGo的胜利得到经验以外,还产生了一些其他的问题:例如:有哪些认知领域是无法通过海量计算机资源、数据和专家努力取得实质性成就的呢?经济中,关于什么是简单/困难的自动化的理论有很多,但是这些理论很少能越过人工智能所取得的成就这个表面问题,来探讨我们如何以原则性的方式定义一般而言的简单/困难认知这一更复杂的问题。另外,还有一个经验主义问题,在哪些领域已存在(超越)人类级别性能的足够数据/计算资源,或者说即将超越。比如,如果谷歌宣布开发出了语言能力高度发达的计算机个人助手,其中部分训练来自于谷歌海量数据和的深度(强化)学习技术,我们会感到惊讶吗?这个问题很难回答。在我看来,此类问题,包括AI安全性,对AI在认知/经济相关领域的发展提出了更严格的建模要求。李世石之战和其它未来发展本着基于模型的外推法胜于直觉判断的精神,我制作了以上图表,展现DeepMind尺度转换研究中CPU和Elo得分的直观联系。我将每步时长延长为相当于5分钟时间的计算,更接近于与李世石比赛的实际情况,而不是尺度转换研究中的每步2秒。这就假定在技巧水平更高的情况下,硬件运算次数不变(可能与真实情况不符,但是正如技术预测文章中写道的:初级模型也比没有模型好)。该预测指出只需提升硬件或延长AlphaGo的思考时间,AlphaGo有可能达到李世石的水平(如上图所示,3500分左右)。然而,DeepMind 几乎不可能寄希望于此——除了让AlphaGo用比研究中更长的时间进行计算较佳落子外,DeepMind还会进行大量的算法提升。Hassabis 在美国人工智能协会(AAAI)中表示他们正以各种当方式改进AlphaGo 。确实如此,他们还聘用了樊麾来帮助他们进行改进。基于Hassabis自信表现(他可以接触相关数据,如目前的AlphaGo 比去年10月的AlphaGo 提升了多少)等诸多考虑因素,都表明AlphaGo 有很大几率击败李世石。若真成功了,我们应该进一步提升对深度强化学习可扩展性的信心,可能还包括评估/策略网络(value/policy networks)。若失败,则表明我们所认为的深度加强学习和硬件规模还没有达到我们所认为的程度,尚无法触及认知的某些方面。同样,如果自我学习被证明足以使人工智能性能相当,抑或评估/策略网络能够在其他比赛中超越人类,我们同样也应该增加现代人工智能技术扩展性和通用性的评价。最后关于「通用AI(general AI)」(译者注:通用AI指具有对普遍问题的认知、解决能力的AI)。正如之前所提到的,Hassabis 更强调所谓的评估或策略网络的通用性,而不是深蓝(Deep Blue)的局限设计。然而事实更复杂,不能简单地一分为二(要记得,AlphaGo 为蒙特卡洛树搜索使用了某些手工开发的功能),仍然是以上所说的深度加强学习的通用性。自DeepMind 2013年发表关于Atari的重要论文以来,深度强化学习已经被广泛应用于现实世界机器人和人机对话中以完成各类任务。考虑到在算法略微甚至无手工调试的情况下,深度强化学习已经在很多领域有了成功应用,有理由认为这些技术已经十分通用。然而,我们这里所讨论的所有案例,目前所取得的进步大部分局限于展示建立狭窄系统所需的通用方法,而不是建立通用系统所需的通用方法。前者的取得的进展并不是后者取得实质性进展的必要条件。而后者要求将迁移到至其它重要领域,也许尤其是经济或安全相关的领域,而不是局限在Atari或AlphaGo这块。这表明严格的AI建模发展中一个重要的因素可能是确定人工智能操作系统中不同等级的通用性(而不是产生它们的通用方法,尽管这点也很重要)。这也是我感兴趣的地方,未来可能会在该领域入更多,我很好奇人们对于上述问题会怎么想。欢迎加入本站公开兴趣群商业智能与数据分析群兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识QQ群:
上一篇:下一篇:
dataguru.cn All Right Reserved.

我要回帖

更多关于 如何看待人工智能 的文章

 

随机推荐