谷歌人工智能围棋直播,是哪个国家的

谷歌人工智能破解围棋比赛:首次完胜欧洲冠军|谷歌|人工智能|机器学习_新浪科技_新浪网
谷歌人工智能破解围棋比赛:首次完胜欧洲冠军
  新浪科技讯 1月28日上午消息,谷歌今日宣布在人工智能领域的重要进展:开发出一款能够在围棋中击败职业选手的程序——AlphaGo,该程序能够通过机器学习的方式掌握比赛技巧。
  人工智能挑战围棋有多难?
  计算机和人类竞赛在棋类比赛中已不罕见,在三子棋、跳棋和国际象棋等棋类上,计算机都先后完成了对人类的挑战。但对拥有2500多年历史的围棋而言,计算机在此之前从未战胜过人类。围棋看起来棋盘简单、规则不难,纵横各19九条等距离、垂直交叉的平行线,共构成19×19(361)个交叉点。比赛双方交替落子,目的是在棋盘上占据尽可能大的空间。
  在极简主义的游戏表象之下,围棋具有令人难以置信的深度和微妙之处。当棋盘为空时,先手拥有361个可选方案。在游戏进行当中,它拥有远比国际象棋更多的选择空间,这也是为什么人工智能、机器学习的研发者们始终希望在此取得突破的原因。
  就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。
  “机器学习”预测人类行为
  传统的人工智能方法是将所有可能的走法构建成一棵搜索树 ,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。
  其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(“value network)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcement learning)。通过广泛使用Google云平台,完成了大量研究工作。
AlphaGo所使用的神经网络结构示意图
  征服围棋对于谷歌来说有重要意义。AlphaGo不仅是遵循人工规则的“专家”系统,它还通过“机器学习”自行掌握如何赢得围棋比赛。谷歌方面希望运用这些技术解决现实社会最严峻、最紧迫的问题——从气候建模到复杂的灾难分析。
  在具体的机器训练上,决策网络的方式是输入人类围棋专家的比赛,到系统可以预测57%人类行动为止,此前最好成绩是44%。此后AlphaGo通过在神经网络内部进行比赛的方式(可以简单理解成和自己下棋),开始学习自主探索新的围棋策略。目前AlphaGo的决策网络可以击败大多数具有庞大搜寻树的最先进的围棋程序。
  值网络也是通过自己和自己下棋的方式来训练。目前值网络可以评估每一步棋能够有多大胜算。这在此前被认为是不可能的。
  AlphaGo战绩惊人
  实际上,目前AlphaGo已经成为最优秀的人工智能围棋程序。在与其他程序的对弈中,AlphaGo用一台机器就取得了500场的胜利,甚至有过让对手4手后获胜的纪录。去年10月5日-10月9日,谷歌安排AlphaGo与欧洲围棋冠军Fan Hui(樊麾:法国国家围棋队总教练)闭门比赛,谷歌以5-0取胜。
AlphaGo与欧洲围棋冠军樊麾的5局较量
  公开的比赛将在今年三月举行,AlphaGo将在韩国首尔与韩国围棋选手李世石九段一决高下,李世石是近10年来获得世界第一头衔最多的棋手,谷歌为此提供了100万美元作为奖金。李世石表示很期待此次对决,并且有信心获得胜利。
  此外,AlphaGo的发布,也是Deep MInd在2014年1月被谷歌收购以来首次发声。在被收购之前,这家位于伦敦的人工智能领域的公司还获得了和SpaceX创始人马斯克的投资。
  人机对弈谁将胜?
  值得一提的是,上一次著名的人机对弈要追溯到1997年。当时IBM公司研发的超级计算机“深蓝”战胜了国际象棋冠军卡斯巴罗夫。不过国际象棋的算法要比围棋简单得多。国际象棋中取胜只需“杀死”国王,而围棋中则用数子或比目的方法计算胜负,并不是简单地杀死对方棋子。此前,“深蓝”计算机的设计人2007年发表文章指出,他相信十年内能有超级电脑在围棋上战胜人类。
  该项目并未给IBM带来可以销售的产品,但却让我们意识到:基础科学研究所面临的巨大挑战是值得我们去迎接的,虽然企业在这方面的收益还无法量化。
  随着顶级科技公司争相在产品中融入智能技术,谷歌并不是唯一一家研究围棋AI的公司,Facebook对围棋人工智能的研究整合此前也亮相最新的计算技术:深卷积神经网络(deep convolutional neural networks)和蒙特卡洛树搜索(Monte Carlo tree search),前者利用类似于大脑的算法来学习和识别棋盘上各种模式的重要性,而后者相当于一种超前思维,用于计算详细的战略步骤。
&&& Facebook和谷歌在围棋人工智能方面的研究具有极大的代表意义。与国际象棋相比,围棋更具深度。要让计算机掌握相关技巧,需要更多类似于人类的模式识别和直觉判断技巧,计算机象棋软件越来越优秀,已将揭开了这项游戏的神秘面纱;相比之下,围棋目前更加神秘。但将来,围棋的神秘色彩也可能不复存在。(李根 周峰 边策 郭祎 )
再拔高一点,从更宏大的格局上来讲,抄袭甚至可以是免费的学习机...
尽管本财季苹果,特别是营收和利润的核心iPhone趋于零增长让业内...
此刻已经转身成为资本公司的盛大网络,和它曾经投入亿万的泛娱乐...
乘客、司机双方通过中间号沟通,无需公开手机号码,从而保护乘客隐私。
刷单并非新鲜事,但是刷到名字、价格、销量和评价统统造假的情况,依旧让人吃惊。您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
Google人工智能击败欧洲围棋冠军, AlphaGo 究竟是怎么做到的?
编者按:本文由新智元原创翻译自Nature。如果觉得此文深奥,关于机器学习,还可看雷锋网早期文章:围棋一直被视为人工智能最难破解的游戏。就在今天,《Nature》杂志以封面论文的形式,介绍了 Google DeepMind 开发的人工智能程序 AlphaGo,它击败了欧洲围棋冠军樊麾,并将在 3 月和世界冠军李世乭对战!Google 特地为此准备了 100 万美元奖金。从国际象棋的经验看,1997 年人工智能第一次打败人类后,2006 年成为了人类在国际象棋的绝唱,自此之后人类没有战胜过最顶尖的人工智能国际象棋选手。在 AlphaGo 打败了欧洲围棋冠军后,世界冠军李世乭和 AlphaGo 的对弈,是否会成为人类在围棋领域的绝唱?Nature 封面论文:Mastering the game of Go with deep neural networks and tree search(通过深度和搜索树,学会围棋游戏)AlphaGo 给围棋带来了新方法,它背后主要的方法是 Value Networks(价值网络)和 Policy Networks(策略网络),其中 Value Networks 评估棋盘位置,Policy Networks 选择下棋步法。这些神经网络模型通过一种新的方法训练,结合人类专家比赛中学到的监督学习,以及在自己和自己下棋(Self-Play)中学到强化学习。这不需要任何前瞻式的 Lookahead Search,神经网络玩围棋游戏的能力,就达到了最先进的蒙特卡洛树搜索算法的级别(这种算法模拟了上千种随机自己和自己下棋的结果)。我们也引入了一种新搜索算法,这种算法将蒙特卡洛模拟和价值、策略网络结合起来。通过这种搜索算法,AlphaGo 在和其他围棋程序比赛的胜率达到了 99.8%,并以 5:0 的比分击败了人类欧洲围棋冠军樊麾。这是电脑程序第一次在全尺寸(19X19)的棋盘上击败了人类专业选手,这一成果过去认为至少需要 10 年才能实现。欧洲围棋冠军樊麾:2005 年樊麾被正式聘任为法国围棋队和少年围棋队的总教练,那一年的他才 24 岁。他是
和 2015 欧洲围棋赛冠军。通过将&Value Networks、Policy Networks&与树搜索结合起来,AlphaGo 达到了专业围棋水准,让我们看到了希望:在其他看起来无法完成的领域中,AI 也可以达到人类级别的表现!关于DeepMind 团队对围棋项目的介绍,可进入新智元查看。| 论文简介所有完全信息(perfect information)博弈都有一个最优值函数(optimal value function),它决定了在所有参与博弈的玩家都做出了完美表现的情况下,博弈的结果是什么:无论你在棋盘的哪个位置落子(或者说是状态s)。这些博弈游戏是可能通过在含有大约个bd可能行动序列(其中b是博弈的宽度,也就是在每个位置能够移动的步数,而d是博弈的深度)的搜索树(search tree)上反复计算最优值函数来解决的。在象棋(b≈35,d≈80)和围棋之类(b≈250,d≈150)的大型博弈游戏中,穷尽地搜索是不合适的,但是有效搜索空间是可以通过2种普遍规则得到降低的。首先,搜索的深度可能通过位置估计(position evaluation)来降低:在状态s时截取搜索树,将随后的子树部分(subtree)替换为根据状态s来预测结果的近似的值函数v(s)≈v*(s)。这种方法使程序在象棋、跳棋、翻转棋(Othello)的游戏中表现超越了人类,但人们认为它无法应用于围棋,因为围棋极其复杂。其次,搜索的宽度可能通过从策略概率p(a|&s)——一种在位置s时表示出所有可能的行动的概率分布——中抽样行动来降低。比如,蒙特卡洛法通过从策略概率p中为博弈游戏双方抽样长序列的行动来让搜索达到深度的极限、没有任何分支树。将这些模拟结果进行平均,能够提供有效的位置估计,让程序在西洋双陆棋(backgammon)和拼字棋(Scrabble)的游戏中展现出超越人类的表现,在围棋方面也能达到低级业余爱好者水平。围棋为何如此复杂?围棋有3361 种局面,而可观测到的宇宙,原子数量才1080。围棋难的地方在于它的估值函数非常不平滑,差一个子盘面就可能天翻地覆,同时状态空间大,也没有全局的结构。这两点加起来,迫使目前计算机只能用穷举法并且因此进展缓慢。但人能下得好,能在几百个选择中知道哪几个位置值得考虑,说明它的估值函数是有规律的。这些规律远远不是几条简单公式所能概括,但所需的信息量还是要比状态空间本身的数目要少得多(得多)。一句话,穷举状态并不是最终目标,就算以后超超级计算机能做到这一点,也不能说解决了人工智能。只有找到能学出规律的学习算法,才是解决问题的根本手段。By 田渊栋蒙特卡洛树搜索(MCTS)使用蒙特卡洛算法的模拟结果来估算一个搜索树中每一个状态(state)的值。随着进行了越来越多的模拟,搜索树会变得越来越庞大,而相关的值也会变得越来越精确。通过选取值更高的子树,用于选择行动的策略概率在搜索的过程中会一直随着时间而有所改进。目前最强大的围棋程序都是基于蒙特卡洛树搜索的,通过配置经训练后用于预测人类棋手行动的策略概率进行增强。这些策略概率用于将搜索范围缩小到一组概率很高的行动、以及在模拟中抽样行动。这种方法已经取得了高级业余爱好者水平的表现。然而,先前的工作仅局限于基于输入特征(input features)的线性组合的粗浅策略概率和值函数。近期,深度卷积神经网络在视觉领域有很多前所未有的表现:例如,图像分类、脸部识别、玩雅特丽游戏等。他们使用很多层神经元,每个被安排在交叠的区块(Tiles)中来构建越来越抽象和本地化的图片表示。我们在围棋游戏中采用了一个相似的构架。我们用19X19的图像来传递棋盘位置,使用卷积层来构建位置的表示。我们使用这些神经网络来减少搜索树的有效深度和宽度(breadth):使用一个Value Networks(价值网络)来估算位置,使用Policy Network(策略网络)来对动作进行抽样。我们使用由若干机器学习阶段(Stages)构成的流水线来训练神经网络(例1)。我们直接使用人类专家的步法来训练监督学习策略网络pσ。这为快速而有效的学习更新(Learning Updates)提供了高质量的梯度和即时反馈。与之前的工作相似,我们也训练了一个快速策略网络pπ,它可以快速地在模拟中对动作进行抽样。接下来,我们训练了强化学习(RL)策略网络pρ,这个网络通过优化“自己对抗自己”的最终结果来改善监督学习策略网络。这将策略调整到赢棋这一正确目标上,而非让预测精确率最大。最后,我们训练了价值网络vθ,它可以预测出RL策略网络通过模拟“自己对抗自己”而得出的策略中哪种是最佳策略。我们的程序AlphaGo高效地结合将策略和价值网络与蒙特卡洛树搜索结合起来。| 实现过程&为了评估AlphaGo,我们在诸多AlphaGo变体和一些其他围棋程序中进行了内部比赛,这其中包括了最强大的商业程序Crazy Stone和Zen,还有最大的开源程序Pachi和Fuego。所有这些程序都是基于高性能MCTS算法。此外,比赛也包含了开源程序GnuGo,这个程序使用了在MCTS之前出现的最先进的方法。规定所有程序每次落子有5秒的计算时间。比赛的结果表明单机AlphaGo领先任何之前的围棋程序很多段位,取得了495局比赛中494次胜利的成绩(99.8%)。为了给AlphaGo提出更大的挑战,我们也让AlphaGo让四子(让子,即对手自由落子)来比赛;AlphaGo让子竞赛中对阵Crazy Stone、Zen和Pachi时分别取得了77%、86%和99%的成绩。分布式AlphaGo明显更强大,对阵单机AlphaGo取得77%的成绩,完胜其他程序。详解:AlphaGo 如何在对弈中选择步法黑色棋子代表AlphaGo正处于下棋状态,对于下面的每一个统计,橙色圆圈代表的是最大值所处的位置。红色圆圈表示AlphaGo选择的步法;白方格表示樊麾作出的回应;樊麾赛后评论说:他特别欣赏AlphaGo预测的(标记为1)的步法。AlphaGo与樊麾的比赛结果以编号形式展示了AlphaGo和樊麾进行围棋比赛时各自的落子顺序。棋盘下方成对放置的棋子表示了相同交叉点处的重复落子。每对中的第一个棋子上的数字表示了何时发生重复落子,而落子位置由第二个棋子上的数字决定。(见补充信息 Supplementary Information)第一盘:AlphaGo&以 2 目半获胜第二盘:AlphaGo 中盘胜第三盘:AlphaGo 中盘胜第四盘:AlphaGo 中盘胜第五盘:AlphaGo 中盘胜最终,我们评估了分布式AlphaGo与樊麾的比赛,他是专业2段位选手,年欧洲围棋赛冠军。在日到9日,AlphaGo和樊麾正式比赛了5局。AlphaGo全部获胜。这是第一次一个电脑围棋程序,在没有让子、全尺寸(19X19)的情况下击败人类专业选手,这一成果过去认为至少需要 10 年才能实现。| 讨论在我们的工作中,我们开发了围棋程序,它将深度神经网络和树搜索结合起来。这个程序可以达到最强的人类选手的表现,因此完成了一个人工智能“伟大挑战”。我们也为围棋首创了高效步法选择和位置评估函数,这是通过具有创新性地将监督和强化学习两种方法结合起来从而训练深度神经网络。我们也引入了一个新搜索算法,这一算法成功的整合了神经网络评估和蒙特卡洛树模拟算法。我们的程序AlphaGo在高性能树搜索引擎中从一定规模上将这些成分整合在一起。在和樊麾的比赛中,AlphaGo在评估位置方面要比深蓝与Kasparov4比赛时所评估的位置少几千倍,这是由于我们使用了策略网络更智能地选择那些位置,还使用了价值网络更精确地评估它们,而价值网络更接近人类的下棋方式。另外,深蓝依靠手工设计评估方程,而AlphaGo的神经网络是直接通过纯比赛数据训练,也使用了通用监督和强化学习方法。围棋代表了很多人工智能所面临的困难:具有挑战性的决策制定任务、难以破解的查找空间问题和优化解决方案如此复杂以至于用一个策略或价值函数几乎无法直接得出。之前在电脑围棋方面的主要突破是引入MCTS,这导致了很多其他领域的相应进步:例如,通用博弈,经典的计划问题,计划只有部分可观测问题、日程安排问题和约束满足问题。通过将策略和价值网络与树搜索结合起来,AlphaGo终于达到了专业围棋水准,让我们看到了希望:在其他看起来无法完成的领域中,AI也可以达到人类级别的表现。| 新智元特约专家评论我认为AI技术征服人类不需要太长时间,可能就发生在今年,AI技术征服人类。——微软亚洲工程院院长刘震I thought AI won't beat human in Go for a long time... &It may be this year! &Google's AlphaGo beats European professional champion 5:0; next on deck: 李世石九段 in March for M Google prize.——陈雷,万同科技CEO,留德MBA,连续创业者,现致力于人工智能+围棋的互联网服务,围棋网络9段对于人而言,围棋竞技是智力、心理和灵性三个维度的综合比拼。根据Deep Mind现有的计算机围棋解决方案描述,可以判断程序在智力维度取得了很大的进展。在智力方面,计算机围棋研究领域中要解决的核心问题是如何对盘面做形势判断,即专家评估系统的解决方案,专家评估系统能力的显著提高会导致围棋AI水准的本质提升。Deep Mind的计算机围棋解决方案其实可归结为精确的专家评估系统(value network)、基于海量数据的深度神经网络(policy network),及传统的人工智能方法蒙特卡洛树搜索的组合。有理由相信这个程序已经达到与标准业余6段棋手或中国职业棋手等级分200位之后的棋手实力相当的地步。从经验上看,由于缺少心理和灵性维度的突破,AlphaGo战胜人类最顶尖的围棋高手尚需时日。| 关于 Google DeepMindGoogle DeepMind&是一家英国人工智能公司,创立于2010年,名为DeepMind Technologies,2014年被谷歌收购,更名为Google DeepMind。这家公司由Demis Hassabis、Shane Legg和Mustafa Suleyman创立。公司目标是“解决智能”,他们尝试通过合并机器学习最好的方法和系统神经科学来构建强大的通用学习算法。他们试图形式化智能,进而不仅在机器上实现它,还要理解人类大脑。当前公司的焦点在于研究能玩游戏的电脑系统,研究的游戏范围很广,从策略型游戏围棋到电玩游戏。创始人介绍Demis Hassabis,人工智能研究人员,神经科学家,电脑游戏设计者,毕业于剑桥大学,并在伦敦大学获得PhD,研究兴趣:机器学习、神经科学。Shane Legg,计算学习研究人员,DeepMind创始人,研究兴趣:人工智能、神经网络、人工进化、强化学习和学习理论。Mustafa Suleyman,英国企业家,DeepMind Technologies的共同创始人和产品运营主管,同时也是Reos Partners的共同创始人,被谷歌收购后,他成为Google DeepMind的应用AI部门主管。
关闭雷锋广告
同步到新浪微博
中国智能硬件第一媒体。
「新智元」深度锁定人工智能及机器人产业链,关注产业前沿资讯,聚集学术和产业领袖,共同建构智能 + 产业的新纪元。
扫描二维码,关注作者
当月热门文章
本栏目由提供
为了您的账户安全,请
您的邮箱还未验证,完成可获20积分哟!
您的账号已经绑定,现在您可以以方便用邮箱登录疾病带来的体力难支,有时让他只能跪在椅子上讲课。
冰雪云海交织一起的美景吸引了众多广东人上山赏雪。
声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
  在人工智能飞速发展的现在,很难说未来是否有一天计算机程序将赶超人类的大脑。
  据英国《自然》杂志当地时间1月27日发表公开论文:谷歌旗下人工智能公司Deep MInd的创始人戴密斯&哈萨比斯(Demis Hassabis)表示,谷歌在人工智能领域取得重要进展,开发出一款能够在围棋中击败职业选手的程序―AlphaGo(阿尔法围棋)。
  在日-10月9日的闭门比赛中,AlphaGo以5:0的成绩赢了出生在中国的华裔法国围棋队总教练、职业围棋二段樊麾,这是计算机程序在不让子的情况下,第一次在完整的围棋游戏中击败职业选手。在这之前人们总以为,至少要等到2025年人工智能才能达到这一成就。樊麾出生于中国,已经连续三年赢得欧洲围棋冠军的称号。
  AlphaGo与法国围棋队总教练樊麾的5局较量。
  虽然此前在三子棋、跳棋和国际象棋等棋类上,计算机程序都有曾打败过人类――从上世纪90年代中期战胜全世界跳棋顶尖高手的Chinook程序,到IBM公司研发的超级计算机“深蓝”在1997年第一次战胜了国际象棋冠军卡斯巴罗夫。
  但相比拥有2500多年历史的围棋而言,国际象棋的算法要简单的多。国际象棋中取胜只需“杀死”国王,而围棋中则用数子或比目的方法计算胜负,并不是简单地杀死对方棋子。在游戏进行当中,围棋拥有远比国际象棋更多的选择空间,这也是为什么人工智能、机器学习的研发者们始终希望在此取得突破的原因。
  在这之前,计算机程序对人类的挑战在围棋领域一直举步艰难,这样来看,谷歌此次的胜利对于人工智能领域来说有着深远的意义。
  据悉,此次谷歌推出的AlphaGo,将所有可能的走法构建成高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。
  其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(value network)则预测比赛胜利方。谷歌用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习。AlphaGo通过广泛使用谷歌云平台,完成了大量研究工作。
  值得注意的是,AlphaGo不仅能遵循人工规则的“专家”系统,它同时还可以通过“机器学习”自行掌握如何赢得围棋比赛。谷歌希望AlphaGo能够运用这些技术解决现实社会最严峻、最紧迫的问题,从气候建模到复杂的灾难分析。
  目前AlphaGo的决策网络可以击败大多数具有庞大搜寻树的最先进的围棋程序。据谷歌透露,AlphaGo还将于2016年3月在韩国首尔和韩国围棋选手李世石九段一决高下,李世石是近10年来获得世界第一头衔最多的棋手,谷歌为此提供了100万美元作为奖金。李世石表示很期待此次对决,并且有信心获得胜利。
  AlphaGo的发布,也是Deep MInd在2014年1月被谷歌收购以来首次发声。在被收购之前,这家位于伦敦的人工智能领域的公司还获得了特斯拉和SpaceX创始人埃隆&马斯克的投资。
  观财经走势,纵览财经大事,品个股深度解析,把脉理财人生。关注微信:xty565
欢迎举报抄袭、转载、暴力色情及含有欺诈和虚假信息的不良文章。
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
搜狐公众平台官方账号
生活时尚&搭配博主 /生活时尚自媒体 /时尚类书籍作者
搜狐网教育频道官方账号
全球最大华文占星网站-专业研究星座命理及测算服务机构
投资的魔方你我共同发现
主演:黄晓明/陈乔恩/乔任梁/谢君豪/吕佳容/戚迹
主演:陈晓/陈妍希/张馨予/杨明娜/毛晓彤/孙耀琦
主演:陈键锋/李依晓/张迪/郑亦桐/张明明/何彦霓
主演:尚格?云顿/乔?弗拉尼甘/Bianca Bree
主演:艾斯?库珀/ 查宁?塔图姆/ 乔纳?希尔
baby14岁写真曝光
李冰冰向成龙撒娇争宠
李湘遭闺蜜曝光旧爱
美女模特教老板走秀
曝搬砖男神奇葩择偶观
柳岩被迫成赚钱工具
大屁小P虐心恋
匆匆那年大结局
乔杉遭粉丝骚扰
男闺蜜的尴尬初夜
客服热线:86-10-
客服邮箱:当前位置: &
电脑再赢人机大战 谷歌人工智能击败欧洲围棋冠军(1)
扫描到手机
14:38:46 & & &
&&&&谷歌人工智能击败欧洲围棋冠军&&&&昨天谷歌宣布,其人工智能研究团队近期取得了一项重要突破:谷歌团队构建的AlphaGo系统通过计算机学习掌握了围棋这项古老的技艺,近期AlphaGo挑战了三度问鼎欧洲围棋桂冠的职业棋手樊麾二段,成绩是5比0。&&&&□事件 谷歌击败欧洲围棋冠军&&&&GoogleDeepMind团队在最新一期《Nature》上发表论文称,其名为AlphaGo(阿尔法围棋)的人工智能系统,在没有任何让子的情况下以5比0完胜欧洲围棋冠军、职业围棋二段樊麾。樊麾出生在中国,现籍法国,是现任法国国家围棋队总教练。&&&&谷歌的人工智能系统AlphaGo不仅知道围棋的规则,且棋力已有一定水平。DeepMind团队设计的这一人工智能系统是为了在围棋比赛中击败人类选手。这是软件首次在全尺寸棋盘对职业棋手的比赛中取得这样的成绩。&&&&在公布“打败欧洲围棋冠军”后,DeepMind团队已向全球最优秀的围棋选手之一、韩国世界冠军李世石九段发出挑战。这一比赛将于今年3月进行,谷歌将为此准备100万美元奖金。&&&&“这是第一次在公平比赛中向人类职业选手挑战。我自己也很荣幸将与它对弈。无论结果如何,这都将会是围棋史上极具意义的事件。”李世石认为,虽然听说了AlphaGo实力很强,而且正在变得更强,但他有自信至少这次能取得胜利。&&&&□释疑&&&&1 人工智能怎么取胜的? 神经网络运行数千局棋&&&&对于如何在围棋上击败人类,谷歌方面做出了一些解释。&&&&首先,谷歌用人类围棋高手的三千万步围棋走法训练神经网络,直至神经网络预测人类走法的准确率达到57%。但谷歌认为,他们的目标是击败最优秀的人类棋手,而不止是模仿他们。为了做到这一点,AlphaGo学习自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习。当然,这些都需要大量的计算能力,因此谷歌团队广泛使用了Google云平台,完成大量研究工作。&&&&接下来,系统完成训练后,谷歌对其进行测试。AlphaGo的系统和其他顶级计算机围棋程序之间进行了很多比赛,结果AlphaGo在全部500场比赛中只输了一场。去年10月份,信心满满的谷歌邀请樊麾来到该团队位于伦敦的办公室参加挑战赛,取得了这次的胜利。&&&&2 “手下败将”怎么说?“他”像奇怪又强大的人&&&&《自然》报道了谷歌研究者开发的新围棋AlphaGo战胜人类的消息后,其新闻团队对职业围棋二段樊麾做了采访。&&&&樊麾称,在中国,围棋不仅仅是游戏,还是生活的写照。人们常说,如果你的棋局有问题,也许你的生活也出现了问题。&&&&“在和AlphaGo下棋之前,我觉得我会赢。”樊麾说,第一局棋之后,他便改了策略,进攻得更多,但还是输了。他认为,人类的问题是,“我们有时会犯下大错,因为我们是人”。我们会疲劳,会因为太过想赢而承受压力。但程序不是这样的,程序很强大,很稳定,就像是一堵墙。“对我来说,这个区别很大。我知道AlphaGo是电脑,但如果没人告诉我,我或许会觉得对手是个有点奇怪、但非常强大的人,一个真实的人。”
用微信扫描二维码分享至好友和朋友圈
精彩高清图推荐:
书摘书评影视眼界考古

我要回帖

更多关于 人工智能围棋直播 的文章

 

随机推荐