如何评价谷歌人工智能打败围棋冠军击败欧洲围棋冠军?

【虎嗅】谷歌人工智能如何连赢人类围棋冠军五局 如何评价它?|界面新闻o科技图片来源:网络一石激起千层浪。当人工智能战胜人类&&这个原本看似遥远的事情真正的发生了,在日,全程没有让棋。
1月28日,《金融时报》援引《自然》杂志的报道,由谷歌伦敦子公司DeepMind开发的AlphaGo机器,以5:0的战绩击败了欧洲围棋三届冠军樊麾(出生于中国,现籍法国)。DeepMind是2014年被Google以4亿英镑的价格收购的人工智能团队。
在1月27日,DeepMind团队发表的《Mastering the game of Go with deep neural networks and tree search》作为《自然》(Nature)封面论文上线。团队创始人Demis Hassabis表示,他们开发的围棋程序AlphaGo融合了高级树状查找和深度神经网络。
同一天,Google在官方博客中表示:&我们很骄傲地公告天下,我们的科学家已经搞定了围棋,并攻克了人工智能领域的一项重大挑战。&
今年3月,AlphaGo将在首尔与过去十年全世界最顶级的围棋选手李世石对决。
谷歌AlphaGo是怎么赢的?&&双大脑工作
通过对神经网络进行的3000万步训练(所有棋谱均来自人类专业棋手的比赛),AlphaGo预测出人类对手下一步走法的正确率已经达到了57%,之前的纪录是44%。
AlphaGo使用两个不同的神经网络&大脑&,通过两者合作得出移棋决定。
根据微信公众号《人工智能学家》对上述论文的编译得知,AlphaGo的两个大脑分工如下:
大脑1:&监督学习(SL)政策网络&。着眼于棋盘中的位置,并试图决定最佳的下一步。实际上,它用来估计每个合法下一步行动为最好的一步的可能性,其顶层猜测就是具有最高概率的那步。该团队通过几百万个优秀的人类棋手在KGS上的下棋选择,训练这个大脑,其目的仅仅是复制优秀的人类棋手的移动选择。它一点也不关心赢得比赛,只下那步顶级人类棋手会下的那步棋。AlphaGo的下棋选择器有57%的概率可以正确匹配优秀的棋手下棋选择。
大脑2:&价值网络&。它不猜测具体的下一步怎么走,而是通过设想的棋盘分布,估计每个玩家赢得比赛的概率。它通过提供整体的位置判断来配合&监督学习(SL)政策网络&。这个判断只是近似的,但它对加快阅读速度非常有用。通过将未来可能的位置分为&好&或&坏&的分类,AlphaGo可以决定是否要沿着一个特定的变化进行更深的阅读。如果位置评估器说某个具体的变化看起来情况不妙,那么AI可以跳过阅读,不沿着那条线继续发挥。
据论文介绍,当只使用一个大脑时,AlphaGo大概和目前最好的电脑围棋AI实力相当,但结合两个大脑是,它可能达到人类职业棋手的水平。
专业围棋手是怎么看的?
年三度欧洲围棋冠军樊麾,也是本次人机大战的主角之一,他表示:
在中国,围棋不仅是一项比赛,它还是生活的一面镜子。我们说,假如你的棋下得有问题,那很可能是你心性的问题&&棋如其人。
输棋确实很难过。和AlphaGo对战之前,我觉得我能赢。在第一局失利后,我改变了战术,增强了进攻,但还是输了。问题是人类有时会犯致命的错误,因为我们是人。有时我们会疲惫,有时我们求胜心切,我们总有这样那样的压力。电脑程序不会这样,它非常强,也非常稳定,简直就像一堵墙一样。对我来说这是很大的差别。我知道AlphaGo是个电脑,但如果没人告诉的话,我可能会觉得它是个有点陌生却又非常强大的对手,是个真人。
当然,输掉比赛让我不太开心,不过作为职业选手,我们输过很多比赛。所以,失败了就从中学习,也许会有所收获。总之从长远来讲这是一件好事。
随后在一个微信群里,樊麾说:&一切都是真的,因为一直在保密中,所以大家都不知道。我没有放水,不过下得确实不好。只能告诉大家,这个系统确实很强!拭目以待和李世石的棋吧!这是去年10月下的,还有些条款在保密范围之内的,我不能告诉大家,不过我觉得跟李世石的棋会很精彩!&
曹大元九段:昨晚就看到了,所以睡不着觉了,压力很大啊!
孟泰龄:我认为樊麾布局有三盘占优,另两盘劣势。我觉得电脑确实有职业水准。感觉电脑棋风稳健,酷爱实地,如果后半盘它真的可以滴水不漏的话,那距离顶尖真的只有一层窗户纸的距离了。显然电脑大局观差一些,但局部棋型的感觉及计算已经有相当水准了。
业内人士怎么看?
DeepMind创始人Demis Hassabis:
AlphaGo正在突飞猛进,甚至会超越最棒的人类选手。能够看它在围棋规则内去创造新的东西,感觉很神奇。我们对自己创造的这个系统有种很密切的感情,特别是它被创造的方式&&它会学习,我们也会教它,它的风格就像人一样。和其他编出来的程序不同,你不知道它到底都会什么,因为它能够自己学习。
阿尔伯塔大学计算机科学家、Chinook设计师Jonathan Schaeffer:
我想这还不是围棋版的深蓝时刻。真正的成就是这个程序能作为选手在顶级比赛中较量的时候。深蓝从1989年开始就常常战胜各路大师,最后登顶则是八年之后的事情。但就目前情况来看,我认为AlphaGo和顶级人类选手之间的差距被大大缩短了。可能只需要再进行一点努力和改善,再提高一点计算能力,不出一两年,它就能打败人类。
就今年3月份的比赛来说,不是打击AlphaGo团队,我还是看好人类。我们可以把AlphaGo看成是少年天才。它突然学了一手好棋,进步神速,但毕竟还是经验有限。从国际象棋和西洋跳棋来看,经验还是很重要的。
国际围棋联合会秘书长Hajin Lee:
当我知道那个电脑要挑战职业顶尖棋手李世石的时候,真的很吃惊。我当时觉得这个挑战者绝对对顶级选手有多强完全没概念。但实际上,可能我才是那个不知道这个电脑有多强的人。现在我对这个比赛非常兴奋。
谁会赢呢?我不知道。李世石自己也觉得可能那电脑跟他一样强。可能是我听到了太多AlphaGo的消息,我现在惊讶于它的强大。同时我也非常了解李世石的水平,所以我认为他们双方五五开吧。
我觉得围棋是个很有内涵的竞技,我不觉得如果电脑AI击败了人类会对围棋造成什么伤害。我想人们会接受自己被电脑技术超越这件事。
最后,让我们通过下面五张GIF图回顾一下这五局棋,樊麾是怎么输给谷歌AlphaGo机器的(来自微信公众号:棋文弈事):
  第一局
  第二局
  第三局
  第四局
  第五局
本文参考了微信公众号:人工智能学家、棋文弈事,以及参考消息、雷锋网等网站的相关报道。
来源:虎嗅原标题:0相关文章乐趣热文您至少需输入5个字评论()新闻链接Nature原文
AlphaGo的发布,是一个伟大的里程碑,又一次让我兴奋地需要说一说。
先说我的断言一:AlphaGo在两个月后,将会完胜李世石。
留个关子,本文最后再说断言二。
从中学开始,我就着迷用算法来解决游戏的博弈问题,用搜索方法创新性完成过一些题目。这几年深度学习出现后,就感觉有机会能够突破围棋,和清华的联合实验室做过几次探讨,都认为这个方向可行,可惜限于气场和能力不足,没能组织进行这方面的投入。
而此次出手的,是Google旗下的DeepMind团队,在深度学习方面是最顶尖的,资源、能力、气场都没有问题,突破性的技术是基于深度学习进行估值和走棋。
看知乎里好多讨论,是从之前AlphaGo完成的棋局来判断其下棋风格,倒推这个算法的威力,有点刻舟求剑的感觉。我们核心还是要回到对这次AlphaGo用到的技术的深刻理解。为了便于讨论,我们对比以搜索剪枝为核心的深蓝下国际象棋,和以搜索剪枝+深度学习为核心的AlphaGo的三个区别:1. 围棋相对象棋,最大的区别是棋局的评价函数极难定义。象棋可以找到各种“特征”来计分,比如丢一个马扣多少分,兵往前拱到离底线近了加多少分,而围棋做不到,密密麻麻的黑白子挨着,互相之前又有关联,变化多,规律难以总结。这也是传统算法相对人最弱的几个问题之一。就像是我们人做人脸识别,看一眼就知道是张三李四,而机器算法难以下手。这个问题恰恰是最近几年深度学习最大的突破之处,深度学习不需要人来设计算法“找特征”,通过大量原始数据和标签的对于,机器就能够自动找特征,并且并不比人差。在几年前还有很多人认为机器在图像处理方面举步维艰,怎么定义和抽象鼻子?耳朵?眼睛?可就在这一两年深度学习突飞猛进,一举超过了人类。就在2015年,人脸识别方面,机器的识别能力已经超过了人了,这可是人进化了数千万年的核心能力之一呀。一个围棋棋局,可以理解为一张19*19的图片,其他的走棋规则和非常简单(很容易翻译成计算机规则),正好落入了深度学习擅长的事情。搜索+深度学习,这个算法完全可以覆盖围棋的规则,人下棋的思维过程和模式,只是AlphaGo的一个子集。这就决定了这个算法没有天花板,有机会在围棋领域“打通关”。2. 深蓝相对AlphaGo,AlphaGo最大的优势是“学习能力”。深蓝的开局更多依靠数据库棋谱的建立,但没有泛化能力(不懂得举一反三),对于没有见过的走棋方法就可能犯傻。而之后的核心能力是计算力,通过暴力的搜索(当然也有最优秀的剪枝,但还是暴力),力图走出10-20步棋来选择最优的路径。这个复杂度是指数级的,变成一个NP问题,受限于计算力。这个系统的算法是写死的,固定的参数下,就会有固定的表现。而调整参数和改变算法,都是工程师的事情。这个系统的天花板是计算机有多强,以及工程师有多聪明。而AlphaGo更多是数据驱动的,喂给他更多的棋局数据,他就能够优化“神经元网络”,同样的运算资源下变得更聪明,并且具有举一反三的能力,这一点非常接近于人(或者说本身就是模拟人的方式来设计的)。而且我们知道,机器处理数据的能力足够地快,以及没有情绪不会出错,这就决定了这个系统如果把今天互联网上能收集到的棋局都学一遍,就成为顶尖高手了。3. 最最最可怕的还不只是前面这两点,对于下棋博弈问题,AlphaGo还不只是从互联网上去收集数据进行学习,更可以自己和自己下,实现“自学习”。看过电影“超验骇客”没有?人工智能可以做到随着时间的推移就能更加聪明。金庸小说中老顽童让自己左手和右手打架“左右互搏”,成为天下无敌的武功,那个只是故事,在下棋这个领域,而AlphaGo有这样的设计,让这种武功成真了!往下还有两个月的时间,AlphaGo这样一台算法上没有天花板的机器,很有机会在“左右互搏”下登峰造极,成为不可超越的围棋高手。AlphaGo的技术问题讲完了。怎么来看Google背后的完整动作呢?有人觉得是过度解读了,实际系统挺糙的 -- 选的都是“欧洲冠军” -- 说明系统并不行,这是一种错误的理解。更有可能的原因是Google和Facebook在竞争下围棋,Facebook的员工缺心眼提前放了好多消息出来泄密了,结果Google就赶紧把Nature的文章发了抢了个先,然后卖个期货两个月后和人类对决,那会儿系统就足够好了,这是在竞争环境下合适的做法。事实上Google和Facebook两家都认识到了AI的重要性,以及就在最近几年会有大的突破。Google 4亿美金收购了DeepMind,当时只有20人,现在已经突破200人了,并且是不计代价的疯狂投入。下围棋只是体现人工智能进步绝佳的宣传点和切入点,从公开的文献可以看到,DeepMind做围棋研发是基于通用的技术进行,领域无关的(Domain independent)。这样的技术未来可以用到合适的其他领域里去。深度学习的魅力在于,只要一个领域里能够建模,能够有充足的数据,就能够在这个领域里做到超越人、取代人,短时间能从0分做到99分。如果我们依然是老观念,用渐进的方式来理解机器智能,比如之前某位大佬宣传他家的XX大脑做到了X岁的智力,这是很误(che)导(dan)的。我们同样也会错误地估计下围棋方面机器的能力,按照人类的理解1D-9D来评价它。一句话,不要用评价人的方法来评价机器的人工智能的能力,完全是不同的模式。老罗曾经评价过人工智能的一句话:“人工智能就像一列火车,它临近时你听到了轰隆隆的声音,你在不断期待着它的到来。他终于到了,一闪而过,随后便远远地把你抛在身后”。如果给这句话打上一个补丁,把人工智能的应用局限到一个一个的具体的封闭领域,这是一个很贴切的描述。我们不要过度自大,例如我们容易在自我优越感的驱使下,说动物不如人,比如人会直立行走、会说话、会实用工具,以区别于其他动物。事实证明,动物也会。面对机器也一样,就在几个月前还有人叫嚣机器十年内不能够玩转围棋,理由也都是人一眼就能看明白,机器只会计算。这些自大会让我们误判。也不用过于自卑,觉得围棋上机器上胜利了人类整个智力就被碾压了,到今天机器还是有很多领域完全无能,只能在局部领域。到结尾,再说断言二:除了围棋,人工智能在其他博弈类的封闭游戏里,也会横扫一切,完胜人类。
我感觉这事足够写一个专栏了。不过首先回答问题:如何评价这件事?应该说,谷歌有了一个大的突破,但就目前放出的消息来看,距离人类顶尖水平还是有一定差距的。所以说这件事的眼球效果是大过了其实际的效果。&br&&br&这场事件会成为一个里程碑一样的事件,很可能会挑起一次类似deep blue的竞赛。现在facebook和谷歌的牌已经相继打出来了,百度还在憋大招,但今年内肯定也会看到的。谷歌的这篇paper很可能就是本次竞赛的号角。&br&&br&从个人观点来看,谷歌ai还不足以在3月的比赛中获胜,虽然全世界可能都会看着谷歌失败,但收获了全世界目光的谷歌不会在意这些的。&br&&br&&br&从算法上来说,谷歌和facebook的大致思路是相同的,都放弃了单纯的神经网络,而是利用神经网络来优化传统的MCTS(蒙特卡罗树搜索)。&br&&br&MCTS是06年提出的,第一次使得围棋AI真正具有了可战斗力,在这个算法之前的围棋AI甚至连1d都达不到。但在之后的几年内,围棋AI再一次遇到了瓶颈;虽然ZEN和CRAZYSTONE都另外采用了一定的机器学习算法(由于他们不公开,个人推测是提取特征的贝叶斯学习),但大致框架并没有变化,而最终也止步4d-5d左右不前。&br&&br&在13年还是14年,爱丁堡学院发了一篇利用单纯的神经网络来制作围棋AI的paper,但效果并不理想。之后google也做过一次,效果同样不佳。那时候就有人在讨论如何结合神经网络和搜索了,但一个是硬件达不到(买不起),一个是这方向做的人毕竟太少,所以也没什么影响。facebook是第一个发表神经网络和mcts搜索结合的,但按照谷歌的说法,他们那时候也做了,只是没发出来而已。&br&&br&==========&br&&br&&br&&br&用一个比较简单的解释来说,谷歌和facebook都可以说是是利用神经网络从大量的局面中得到了一个对于局面的&评估函数&,并将其结合入搜索。&br&&br&首先先说什么是评估函数:假设将一个局面作为输入,而输出是一个量化的&分数&,那么这个函数就可以说是这个局面的评估函数。越有优势的局面分数就应该越高,而搜索就是遍历接下来所有可能的局面来找到己方可以达成的分数最高的局面。&br&&br&但对于围棋这样的棋种来说,一个子就有可能改变局面。传统的评估函数大都是人类通过自己的认知编写的,而直接编写围棋的评估围棋已经超越了人类的能力。这时候神经网络的作用就出来了,通过大量的训练,得到了一个&评估函数&。&br&&br&让我们来看看谷歌的两个网络:一个网络用于评价局面的好坏,发现坏的局面(得分低的局面)则不再在搜索中考虑这个局面及其后续。一个网络用来评价可行的招式,从所有招式中挑选出好的招式(会产生评价更高的局面)来进行后续的搜索,而分数低的招式就被直接抛弃了。很多媒体都说谷歌ai现在已经贴近人类思路,其实就是在这个地方。&br&&br&毫无疑问,谷歌这次提出的思路的确是里程碑式的,但在之后的研究上还有很长一段路要走。但直接的结果就是,像我们这样穷逼的ai研究者基本可以放弃围棋了,毕竟我们连凑够跑这个算法需要的gpu都不可能做到...&br&&br&PS:根据论文口算而得,谷歌这机器至少200W美刀以上......计算规模直接碾压了以前的围棋AI几千几万倍
我感觉这事足够写一个专栏了。不过首先回答问题:如何评价这件事?应该说,谷歌有了一个大的突破,但就目前放出的消息来看,距离人类顶尖水平还是有一定差距的。所以说这件事的眼球效果是大过了其实际的效果。这场事件会成为一个里程碑一样的事件,很可能会…
我擦,楼上某答案怎么写了那么长?&br&&br&“欧洲冠军”这个说法太有迷惑性了。。。外行大概不会知道欧洲冠军和世界冠军差距有多么大,尤其对于围棋,高手都在东亚。&br&&br&直接上论文里的图:&br&&img src=&/17cc0ea5ee78dd53c2e13b_b.png& data-rawwidth=&678& data-rawheight=&658& class=&origin_image zh-lightbox-thumb& width=&678& data-original=&/17cc0ea5ee78dd53c2e13b_r.png&&&br&(Fig. 4a [1])&br&&br&如上图,欧洲冠军Hui Fan的水平目测是二段左右,而最强的AlphaGo distributed大概是五段,这和“击败人类”的目标还有点距离(其他非随机类游戏,机器都能轻松击败最强的人类大师)。&br&所以还是等三月和李世石的五番棋吧。&br&&br&——————————————————————&br&&br&但不能否认的是,AlphaGo确实完秒其他围棋AI,比如之前Facebook的darkforest [2],貌似是业余5段的样子?职业五段和业余5段确实天差地别。&br&&br&浏览了一下论文,FB的文章只用了CNN来评估一步棋的好坏,这个内在是有问题的,因为一步棋好不好不仅仅由这个棋决定,而是由之前之后所有棋共同决定的。只用CNN的话一定程度上割裂了整个系统,即系统很难给当前这步棋一个权重,必然会造成一些performance的损失。&br&&br&而Google用了RNN,具体讲,AlphaGo和之前Atari [3]一脉相承,都使用了基于attention机制的RNN。对于围棋这类复杂游戏,RNN是更合适的,而attention让RNN的行为更“接近人类”,带来了更多的效果提升。所以AlphaGo棋力更高也就不奇怪了,而RNN也应该是之后围棋AI的发展方向。&br&&br&[1] Mastering the game of Go with deep neural networks and tree search, &a href=&///?target=http%3A///nature/journal/v529/n7587/full/nature16961.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/nature/journ&/span&&span class=&invisible&&al/v529/n7587/full/nature16961.html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[2] Better Computer Go Player with Neural Network and Long-term Prediction, &a href=&///?target=http%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[3] Human-level control through deep reinforcement learning, &a href=&///?target=http%3A///nature/journal/v518/n7540/full/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/nature/journ&/span&&span class=&invisible&&al/v518/n7540/full/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&--&br&&br&补充一下,AlphaGo官网:&a href=&///?target=http%3A///alpha-go.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&AlphaGo | Google DeepMind&i class=&icon-external&&&/i&&/a&。&br&其实我对AlphaGo还是很有信心的,即便现在赢不了,不远的将来也大概率会有突破。毕竟机器可以自己跟自己下棋来提高水平,有了正确的学习方法,超越人类就只是时间问题了。
我擦,楼上某答案怎么写了那么长?“欧洲冠军”这个说法太有迷惑性了。。。外行大概不会知道欧洲冠军和世界冠军差距有多么大,尤其对于围棋,高手都在东亚。直接上论文里的图:(Fig. 4a [1])如上图,欧洲冠军Hui Fan的水平目测是二段左右,而最强的AlphaG…
已有帐号?
无法登录?
社交帐号登录赌球网,赌球网站排名,赌球游戏,赌球开户_Google人工智能击败欧洲围棋冠军, AlphaGo 究竟是怎么做到的?
加入收藏 
赌球网-赌球网站排名-赌球游戏-赌球开户
Google人工智能击败欧洲围棋冠军, AlphaGo 究竟是怎么做到的?
时间: 18:33&&作者:管理员&&来源:查看:&&评论:
内容摘要:编者按:本文由新智元原创翻译自Nature。如果觉得此文深奥,关于机器学习,还可看雷锋网早期文章:《 为了评估AlphaGo,我们在诸多AlphaGo变体和一些其他围棋程序中进行了内部比赛,这其中包括了最强大的商业程序Crazy Stone和Zen,还有最大的开源程序Pachi
编者按:本文由新智元原创翻译自Nature。如果觉得此文深奥,关于机器学习,还可看雷锋网早期文章:《为了评估AlphaGo,我们在诸多AlphaGo变体和一些其他围棋程序中进行了内部比赛,这其中包括了最强大的商业程序Crazy Stone和Zen,还有最大的开源程序Pachi和Fuego。所有这些程序都是基于高性能MCTS算法。此外,比赛也包含了开源程序GnuGo,这个程序使用了在MCTS之前出现的最先进的方法。规定所有程序每次落子有5秒的计算时间。比赛的结果表明单机AlphaGo领先任何之前的围棋程序很多段位,取得了495局比赛中494次胜利的成绩(99.8%)。为了给AlphaGo提出更大的挑战,我们也让AlphaGo让四子(让子,即对手自由落子)来比赛;AlphaGo让子竞赛中对阵Crazy Stone、Zen和Pachi时分别取得了77%、86%和99%的成绩。分布式AlphaGo明显更强大,对阵单机AlphaGo取得77%的成绩,完胜其他程序。详解:AlphaGo 如何在对弈中选择步法黑色棋子代表AlphaGo正处于下棋状态,对于下面的每一个统计,橙色圆圈代表的是最大值所处的位置。红色圆圈表示AlphaGo选择的步法;白方格表示樊麾作出的回应;樊麾赛后评论说:他特别欣赏AlphaGo预测的(标记为1)的步法。AlphaGo与樊麾的比赛结果以编号形式展示了AlphaGo和樊麾进行围棋比赛时各自的落子顺序。棋盘下方成对放置的棋子表示了相同交叉点处的重复落子。每对中的第一个棋子上的数字表示了何时发生重复落子,而落子位置由第二个棋子上的数字决定。(见补充信息 Supplementary Information)我认为AI技术征服人类不需要太长时间,可能就发生在今年,AI技术征服人类。――微软亚洲工程院院长刘震I thought AI won't beat human in Go for a long time... &It may be this year! &Google's AlphaGo beats European professional champion 5:0; next on deck: 李世石九段 in March for M Google prize.――陈雷,万同科技CEO,留德MBA,连续创业者,现致力于人工智能+围棋的互联网服务,围棋网络9段对于人而言,围棋竞技是智力、心理和灵性三个维度的综合比拼。根据Deep Mind现有的计算机围棋解决方案描述,可以判断程序在智力维度取得了很大的进展。在智力方面,计算机围棋研究领域中要解决的核心问题是如何对盘面做形势判断,即专家评估系统的解决方案,专家评估系统能力的显著提高会导致围棋AI水准的本质提升。Deep Mind的计算机围棋解决方案其实可归结为精确的专家评估系统(value network)、基于海量数据的深度神经网络(policy network),及传统的人工智能方法蒙特卡洛树搜索的组合。有理由相信这个程序已经达到与标准业余6段棋手或中国职业棋手等级分200位之后的棋手实力相当的地步。从经验上看,由于缺少心理和灵性维度的突破,AlphaGo战胜人类最顶尖的围棋高手尚需时日。| 关于 Google DeepMindGoogle DeepMind&是一家英国人工智能公司,创立于2010年,名为DeepMind Technologies,2014年被谷歌收购,更名为Google DeepMind。这家公司由Demis Hassabis、Shane Legg和Mustafa Suleyman创立。公司目标是“解决智能”,他们尝试通过合并机器学习最好的方法和系统神经科学来构建强大的通用学习算法。他们试图形式化智能,进而不仅在机器上实现它,还要理解人类大脑。当前公司的焦点在于研究能玩游戏的电脑系统,研究的游戏范围很广,从策略型游戏围棋到电玩游戏。创始人介绍Demis Hassabis,人工智能研究人员,神经科学家,电脑游戏设计者,毕业于剑桥大学,并在伦敦大学获得PhD,研究兴趣:机器学习、神经科学。Shane Legg,计算学习研究人员,DeepMind创始人,研究兴趣:人工智能、神经网络、人工进化、强化学习和学习理论。Mustafa Suleyman,英国企业家,DeepMind Technologies的共同创始人和产品运营主管,同时也是Reos Partners的共同创始人,被谷歌收购后,他成为Google DeepMind的应用AI部门主管。
Google Cardboard VR眼镜 二代
已有百万用户尝试过的VR眼镜Cardboard也在今夜迎来了第二代产品,外型上它能够最大支持6英寸屏幕的机型,而且能够适配iOS,总体来看还是个简单的纸盒子,只是替换掉了上一代的磁力按钮。
查看投票详情&&
标签:Google,人工智能,击败,欧洲,围棋,冠军,AlphaG&
小S获胡歌广告超开心 揭胡歌独一

我要回帖

更多关于 人工智能击败围棋冠军 的文章

 

随机推荐