ai怎么做象棋下载

AI制作逼真的三维黑白国际象棋
互联网 & 发布时间: 15:13:48 & 作者:佚名 &
这篇教程是向脚本之家的朋友介绍AI制作逼真的三维黑白国际象棋方法,教程制作出来的象棋非常不错,而且难道不是很大,推荐到脚本之家,喜欢的朋友可以跟着教程来学习
这篇教程教脚本之家的朋友们用AI制作三维国际象棋,教程难度中等,介绍的是在AI里很重要的3D工具,教程真的很不错,很值得学习,推荐到脚本之家,喜欢的朋友可以跟着教程来学习!
下面我们先来看看最终的效果图:
具体的制作步骤如下:
1.开始绘制如下图的形状。这里重要的是想象一下棋子的轮廓形状。当然棋子有很多的式样和形状,选你喜欢的画,或者自己创造一个。
2.我们需要设置棋子的颜色,我选择白色。但是为了使棋子看上去有一些变化,所以不能使用亮白,我只有选择看上去有点脏脏的灰色。注意描边宽度设置为1pt。
3.选中形状,执行效果菜单&3D&绕转。应用如图设置。点击新建光源添加另一个高光。然后点击确定。
4.下一步添加投影,确认X位移和Y位移字段里的数值是相反的。选择混合模式为正片叠底。
5.制作3D形状的副本,把它躺倒放下。切到外观调板打开3D绕转效果,更改设置使它躺倒放下。再新增几个高光。
6.下一步添加投影。
7.绘制一个矩形作为背景幕,填充黑色,然后把它置于所有形状之后。
8.现在制作第1个棋子的副本,更改描边颜色为黑色。现在,切到外观调板打开3D绕转效果,再次更改放置位置,添加几个高光使这个棋子也是躺倒的。
9.现在添加另一个投影。
10.开始制作棋盘图案。使用矩形工具(M)绘制一个正方形。你可以按住Shift+Alt键绘制。
11.选中形状,执行对象菜单&路径&分割为网格,应用行和列上相等的设置。确认间距为0。
12.这是棋格。
13.然后选中棋格,执行对象菜单&实时上色&建立(Alt + Ctrl + X)。
14.然后选中实时上色工具(K),设置描边颜色:无,填色:黑。
15.使用实时上色工具移到正方形上面,这时你可以看到正方形为高光显示。
16.使用实时上色工具(K)在正方形上简单地单击,给棋格上色(每第2个正方形上黑色)。
17.其它正方形也使用实时上色工具,填充白色。再制作一个副本,以方便后面的操作。
18.现在选中棋格图案,把它置于棋子的后面,但位于黑色背景幕的上面。然后向上移,如图。
19.绘制一个大的矩形,然后填充黑白线性渐变,并且设置角度为-90度。
20.同时选中矩形和棋格图案,应用不透明蒙版。这将压暗场景。
21.使用棋格图案副本(第17步),把它放在其它图形的下面。然后选择自由变换工具(E)等比例地缩放,再点击控制角点,然后按住Ctrl + Shift + Alt键,朝相应的方向拖拉。你可能不得不拉的大一点以得到一个实际意义上的远景图。图示pull outwards:向外拉
22.应用另一个不透明蒙版,同第20步。
23.现在我们看下棋子的投影。你可能需要调整地板和墙体,以使它们无缝拼接。
24.我添加了前面棋子的倒影。你可以制作一个棋子的副本,然后扩展外观,然后应用不透明蒙版。确认倒影在可显见的棋子的下层。
25.没什么差错的话,我添加另一个棋子图形,与第1个有一点点的不同,比第1个大一点,上半部的形状有一点点的不同。然后再添加倒影,同第24步。我又复制了墙体,设置不透明蒙版上的渐变为径向渐变(这个渐变蒙版的目的是突出中间的棋子,中间高亮,四周压暗),堆栈顺序为棋子之后。最后,再添加正方形的剪切蒙版。好了,亲们!我希望你喜欢这个3D的小尝试。
尾声我删除背景幕和墙体,只是想看一看不同场景的选择。你也可以换个棋子颜色,选择棕色或者深红色。
教程结束,以上就是AI制作逼真的三维黑白国际象棋过程,大家学会了吗?希望这篇文章能对大家有所帮助!
大家感兴趣的内容
12345678910
最近更新的内容发布于 07/27 09:25
虽然哥也是一媒体人,但黑起自己的行业来是丝毫不会手软的,假设你现在是一家媒体的IT部门人员,这家媒体每天做的最多,最重要的工作就是从别的网站复制文章过来,然后加一些自己的记号上传到自己的网站上去,而你虽然是一介码农,但是却心怀天下,想要拯救公司里那些苦逼的编辑。于是你决定自己编写一个程序,帮助编辑们一键完成,甚至自动完成这些复制文章的事,你应该怎么做?
当然,用人工智能来复制粘贴看起来是有点大材小用了,但这活看起来很机械,倒也需要一定的应变,比如网站的页面里除了正文外还有很多乱七八糟的广告链接,只要网站的设计者不会太蠢,设计出来的结果应该是人一眼就能看出来哪个部分是正文哪些是无关信息。但一个算法要如何识别正文和广告/无关链接的区别呢?而且算法如何在网站的内容中寻找到哪些是值得Copy的内容呢?(是谓“热点”)
最关键的是,细细一想,这些要注意的事项还真挺多。你平时学的If else似乎不够用了,你该用什么语言来完成你的惊世算法呢?
说到这里,我们就面临了李开复提到的目前的深度学习面临的第一个挑战:没有平台
深度学习的挑战之一:平台
人工智能目前还没有一个统一的平台。在深度学习方面,现在的人懂就是懂,不懂就是不懂。这就是为什么Google最近花了重金不断在挖业界顶尖的人才,给年轻人开出的年薪甚至超过200万美元。这些人也就是二十来岁,博士刚毕业不久,怎么会这么值钱呢?
为什么这么贵呢?李开复老师有提到,这些人被投入到各个领域的AI研究中去后,可能很快就能创造出千万美元甚至上亿美元的价值了。但他可能没有表达出来的一个意思是,现在的AI开发真的很难,很难,之所以这么难,就是因为没有平台。
平台是一个比较玄乎的概念,因为现在人工智能的发展还处于一种摸着石头过河的状态,因此没有人能预测所谓的“平台”的准确形态是什么样,这话题铺开来讲可能能单独讲一篇文章,但简单来说,大概会是一种“统一标准”的状态。比如说现在一提神经网络算法人们就会想起很多种概念,CNN、RNN、DNN等等,而具体到应用实现的方法也千奇百怪。所有基于AI的编程,都是要从0开始编起,一点一点构筑起算法。但如果有一天有一个类似于iOS、安卓的东西,探索出了一种最优秀的算法(当然这只是打个比方,不一定有最优秀的算法。),并且将其集成进了某种程序中,后人如果想进行神经网络有关的开发,只需要调用它提供的API就能完成了。那样就能极大的简化深度学习开发的难度。
智搜(Giiso)信息成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时旗下研发产品包括、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
深度学习挑战之二:数据的收集和运算
当然作为一个心怀天下的码农,这点小事肯定是难不倒你的,你应该很快就找到了合适的语言系统,比如Tensorflow,比如Scikit,开开心心的编起了程序。不过接下来你要面对的问题可能就没有那么好解决了:它们都从两个方向分别决定着你的算法训练的效果:训练数据的量和训练的速度。李开复老师将这个问题拆成了两个问题,但我们认为,其实他们都是关于算法训练的问题,因此其实可以归于同一个问题。
深度学习的网络太大,需要海量的数据。
因为数据太多,所以计算特别的慢,所以需要非常大的计算量。
如何识别网站内的正文位置倒还是个比较好解决的问题,如果你心一横,决定只从几大(十几大)主流媒体内复制文章的话,用if else都是可以解决的,毕竟虽然每个网站之间正文部分的规律不同,但每个网站内部的文章还是基本遵循相同规律的。实在想做一个通用的算法来说,规律也不难找,比如正文部分的文字密度会突然变大而html代码的密度则会暴跌,比如正文的始终基本都是&p&&/p&。如果网站每天能更新四五百篇文章的话,估计训练个十天左右就能达到非常高的准确度了。
难点在于“追热点”啊!
智搜(Giiso)信息成立于2013年,是国内首家专注于资讯智能处理技术研发及核心软件开发和运营的高科技企业。公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
互联网的热点每天都在变化,你的算法怎么知道今天的热点是什么?又如何知道算法正在扫描的这篇文章是不是跟热点有关的文章,写的如何?要让算法训练出判断这些信息的能力,怎么说也要扫描个几千万上下篇文章来训练吧?作为一个终极发烧友码农,你第一次感觉到了你面前的那台电脑里的8核i7和GTX Titan是那么的无力,哎,写个爬虫慢慢爬着先吧。看改天能不能改天网络低峰期用公司的服务器偷偷跑一跑。
要让深度学习算法自己进化到一个比较高的水平,李开复老师估计至少要有10亿级别的数据,如此庞大的数据是相当难以收集的。而且,只有这些数据都是你自己的时候,他们在你手中才能发挥出真正的价值,并且由于数据量的庞大其需要的运算量也是相当庞大的,要在深度学习领域大展身手,最好有自己的计算设备,比如拥有自己的服务器机群。因此我们看到,初期在人工智能有所建树的都是世界级的、像微软、谷歌和Facebook这样的公司,他们不仅拥有更多的资金、更好的人才,最重要的是,他们拥有海量的数据。
深度学习挑战之三:没有反馈
“有点奇怪但也合理:机器无法用人的语言告知做事的动机和理由。即便机器训练做了很棒的深度学习,人脸识别、语音识别做的非常棒,但它不能和人一样,它讲不出来这是怎么做到的。虽然有人也在做这方面的研究,但是在今天,如果一个领域是不断需要告诉别人该怎么做,需要向别人去解释为什么的,那这个领域对于深度学习来讲还是比较困难的。比如Alpha Go打败李世石,你要问Alpha Go是为什么走这步棋,它是答不上来的。”
本文转载自:http://ai.ailab.cn/article-81913.html
人打赏支持
码字总数 16476
  自从DeepMind的AlphaGo在围棋赛场上一战成名之后,人类对AI的恐惧就突然出现于世。但自那以后,这家Google旗下的人工智能公司并没有停止前进的脚步,又推出了实力更强的AlphaGo Zero,而...
DeepTech深科技
【新智元导读】或许“智能爆炸”不会发生,但永远不要低估人工智能的发展。推出最强围棋AI AlphaGo Zero不到50天,DeepMind又一次超越了他们自己,也刷新了世人对人工智能的认知。12月5日,包...
  不久前,在北大承办ACM-ICPC(国际大学生程序设计竞赛)全球总决赛期间,上演了一场人机协作及人机对抗的《星际争霸》赛。   这是来自智能决策公司启元世界的一款基于《星际争霸Ⅱ》的...
中国机器人
这是一个围棋学习免费软件。 本软件具有人机对局、双人对局、对局演示、对局打谱等功能,可选择2-19路棋盘对局,目前已有三步推算的棋力,可作为围棋初学者的辅助学习工具,也可作为围棋爱好...
世界最强围棋AI AlphaGo Zero带给世人的震撼并没有想象中那么久——不是因为大家都去看谁(没)跟谁吃饭了,而是DeepMind再次迅速超越了他们自己,超越了我们剩下所有人的想象。 12月5日,距...
技术小能手
没有更多内容
加载失败,请刷新页面
作为一个践行Mouseless Programming的开发者,来谈谈自己在日常工作中是如何做到「几乎」不用鼠标的。 在说具体的「技巧」之前,先聊一聊纯键盘开发的几个原则: 动机, 动机要单纯,纯键盘开...
在之前的一篇文章 《TiDB 源码阅读系列文章(四)INSERT 语句概览》 中,我们已经介绍了 INSERT 语句的大体流程。为什么需要为 INSERT 单独再写一篇?因为在 TiDB 中,单纯插入一条数据是最简...
在这篇文章中,我将实现一个简单但完整的以太坊支付通道。支付通道使用密码签名,以安全、即时、无交易费用重复地传送Ether。 什么是支付通道? 以太坊交易提供了一种安全的方式来转账,但每...
人生苦短,我选Python”。那么,你真的掌握了Python吗? 1. 交换变量 有时候,当我们要交换两个变量的值时,一种常规的方法是创建一个临时变量,然后用它来进行交换。比如: # 输入 a = 5 b ...
IO NIO 面向流 面向缓冲 阻塞IO 非阻塞IO 无 选择器 1、面向流与面向缓冲 IO是面向流的,NIO是面向缓冲区的。 Java IO 每次从流中读一个或多个字节,直至读取所有字节,它们没有被缓存在任何...
Annabelle319
没有更多内容
加载失败,请刷新页面
文章删除后无法恢复,确定取消删除此文章吗?
亲,自荐的博客将通过私信方式通知管理员,优秀的博客文章审核通过后将在博客推荐列表中显示
确定推荐此文章吗?
确定推荐此博主吗?
聚合全网技术文章,根据你的阅读喜好进行个性推荐
指定官方社区
深圳市奥思网络科技有限公司版权所有阿尔法狗再进化!通用棋类AI AlphaZero 8小时完胜象棋、将棋顶级程序 _ 东方财富网
阿尔法狗再进化!通用棋类AI AlphaZero 8小时完胜象棋、将棋顶级程序
东方财富APP
方便,快捷
手机查看财经快讯
专业,丰富
一手掌握市场脉搏
手机上阅读文章
  在谷歌发起“寻找围棋小先锋”全国青少年围棋推广活动的2天之后,谷歌母公司旗下DeepMind团队再次取得突破性成果,人类在棋类游戏上或许已经无法挑战人工智能。
  继今年10月在《自然》杂志上发表论文正式推出人工智能围棋程序AlphaGo Zero后,Alphabet旗下机器学习子公司DeepMind团队近日又发表论文称,最新版本的 AlphaZero 在经过不到一天的训练后,“令人信服地”打败了国际象棋和日本将棋顶尖的计算机程序 。
  DeepMind称,AlphaGo Zero算法在围棋上实现了超人类的成绩,使用深度卷积神经网络,通过强化学习进行自我对弈训练。此前的的Alpha Go需要与人类进行数千次对弈,从中获取数据,但AlphaGo Zero从零开始,只有空白棋盘和游戏规则,达到了超人的性能,以100-0战胜了曾打败李世乭的Alpha Go。
  近日,该团队发文表示,在国际象棋和日本将棋上采用了AlphaGo Zero 的通用化版本AlphaZero(只输入游戏规则,没有输入任何特定领域的知识)。研究显示,通用的强化学习算法,可以实现从零开始,在许多具有挑战性的领域超越人类水平。
  该团队在上述三种棋类游戏使用相同的算法设置、网络架构和超参数,为每一种棋类游戏训练了独立的 AlphaZero。训练从随机初始化参数开始,进行了 70 万步(批尺寸为 4096),使用 5000 个第一代 TPU 生成自我对弈棋局和 64 个第二代 TPU 训练神经网络。
  结果显示,在国际象棋中,AlphaZero 仅仅用 4 小时(30 万步)就超过了 Stockfish。在日本将棋中,不到 2 小时(11 万步),AlphaZero 就超过了 Elmo;在围棋中,AlphaZero 用 8 小时(16.5 万步)超越 AlphaGo Lee((与李世乭对弈的版本)。
  Stockfish是2016 年 Top Chess Engine Championship(TCEC)世界冠军。Elmo是 Computer Shogi Association(CSA)世界冠军 Elmo。
  人工智能领域的标志性事件是 1997 年深蓝(Deep Blue)击败了人类世界冠军卡斯帕罗夫。在之后的 20 年内,国际象棋的计算机程序水平一直稳定处于人类之上。Deepmind团队称,当前国际象棋最好的程序都是基于强大的搜索引擎,能搜索数百万个位置,利用人类专家手动编写的函数和复杂的特定领域适应性。Stockfish和深蓝这种强大的国际象棋程序也使用了类似的架构。
  在计算复杂性方面,日本将棋比国际象棋要更难。将棋棋盘更大,任何被吃的棋子都可以改变立场,被放在棋盘的其他位置。之前,最强的将棋程序,如世界冠军 Elmo 也是到 2017 年才打败人类世界冠军。这些程序和计算机国际象棋程序采用了相似的算法,基于高度优化的α-β搜索引擎,并针对特定领域进行调整。
  AlphaZero则完全不同,使用了一个通用的蒙特卡罗树搜索(MCTS)算法,通过随机的对游戏进行推演来逐渐建立一棵不对称的搜索树。AlphaZero 是一个通用的强化学习算法——最初为围棋设计,在除了给定象棋规则之外没有任何领域知识的情况下,可以在几小时内达到更优的结果,少了几千倍的搜索量。此外,该算法不需要修改就可以应用到更具挑战性的日本将棋上,并再次在数小时内超过了当前最好的程序。
  谷歌大脑GoogleBrain负责人Jeff Dean也曾介绍过深蓝和AlphaGo的区别。他称,深蓝是通过蛮力搜索,知道接下来该怎么走。但围棋比象棋复杂,由于其复杂性很难穷尽算法,“如果没有足够的计算能力去探索围棋的世界,那么你需要帮助程序认识游戏过程中的规律以及怎么样才能够像人一样有本能的去思考如何走棋。”
  不过,Deepmind团队最新公布的Alpha Zero又在AlphaGo Zero上进行了升级。首先,AlphaGo Zero假设对弈的结果为胜/负两种, 会估计并最优化胜利的概率;而 AlphaZero 则会估计和优化期望的结果,会同时考虑平局或其它可能的结果。
  对于围棋而言,旋转棋盘和镜像映射都不会改变其规则。AlphaGo 和 AlphaGo Zero 都运用了这一事实。通过为每个位置生成8次对称,来增加训练数据。 但国际象棋和日本将棋是不对称的,因此AlphaZero不会增加训练数据,也不会在进行蒙特卡罗树搜索算法时转变棋盘位置。
  此外,AlphaZero的自我对弈由之前所有迭代过程中最优玩家生成。每次训练后,新玩家的性能与之前的最优玩家对比,如果新玩家以55%的胜率胜出,便取代之前的最优玩家。相反,AlphaZero 只是维护单个神经网络连续更新最优解,而不是等待一次迭代的完成。
  最后,AlphaGo Zero 通过贝叶斯优化(Bayesian optimisation)搜索超参数,而 Alpha Zero 对所有的对弈重复使用相同的超参数,无需进行针对特定某种游戏的调整。
  DeepMind评估了经充分训练的AlphaZero 在国际象棋、将棋和围棋上分别和与Stockfish、Elmo 和经过 3 天训练的 AlphaGo Zero 进行的 100 场比赛结果,比赛时间控制在一步一分钟。AlphaZero 和 AlphaGo Zero 使用 4 个 TPU 的单个机器进行比赛。Stockfish 和 Elmo 使用 64 个线程和 1GB 的哈希表进行比赛。AlphaZero “令人信服地”打败了所有的对手,没有输给 Stockfish 任何一场比赛,只输给了 Elmo 八场。
  除了继续强化AlphaGo的技能,谷歌也正推广着围棋教学。
  12月4日,谷歌宣布与聂卫平围棋道场共同发起“寻找围棋小先锋”全国青少年围棋推广活动,该活动将包含针对全国4—18岁小棋手的全国青少年围棋公开赛,公开赛将在全国6个城市举行分站赛并于北京举行总决赛。皮查伊和谷歌就是要在这些孩子当中发现最具潜力的“围棋先锋”,并用DeepMind发明的AlphaGo围棋教学方法培训他们。
  谷歌 CEO 桑达尔·皮查伊透露,DeepMind将会基于AlphaGo发明一套围棋教学工具,很快可以免费下载,让所有人学习AlphaGo如何下棋。他还表示,这套围棋教学工具中的数据是从20多万场人类棋手比赛,以及75场AlphaGo和人类的对抗中积累的。
(责任编辑:DF314)
[热门]&&&[关注]&&&
请下载东方财富产品,查看实时行情和更多数据
郑重声明:东方财富网发布此信息目的在于传播更多信息,与本网站立场无关。东方财富网不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。
扫一扫下载APP
东方财富产品
关注东方财富
扫一扫下载APP
关注天天基金
扫一扫下载APP面对谷歌围棋AI,人类最后的智力骄傲崩塌了……
责任编辑:
1997年,国际象棋AI第一次打败顶尖的人类;2006年,人类最后一次打败顶尖的国际象棋AI。欧美传统里的顶级人类智力试金石,在电脑面前终于一败涂地,应了四十多年前计算机科学家的预言。至少还有东方,人们自我安慰道。围棋AI长期以来举步维艰,顶级AI甚至不能打败稍强的业余选手。这似乎也合情合理:国际象棋中,平均每回合有35种可能,一盘棋可以有80回合;相比之下,围棋每回合有250种可能,一盘棋可以长达150回合。这一巨大的数目,足以令任何蛮力穷举者望而却步——而人类,我们相信,可以凭借某种难以复制的算法跳过蛮力,一眼看到棋盘的本质。但是,无论人怎么想,这样的局面当然不可能永远延续下去。就在今天,国际顶尖期刊《自然》报道了谷歌研究者开发的新围棋AI。这款名为“阿尔法围棋”(AlphaGo)的人工智能,在没有任何让子的情况下以5:0完胜欧洲冠军,职业围棋二段樊麾。AlphaGo与欧洲围棋冠军樊麾的5局较量。图片来源:参考文献[1]这是人类历史上,围棋AI第一次在公平比赛中战胜职业选手。AlphaGo的战绩如何?此次比赛和以往不同。之前的比赛中,由于AI棋力比人类弱,人类选手都会让子,而且AI主要和业余段位的棋手比赛。而AlphaGo 对战樊麾是完全公平的比赛,没有让子。职业二段樊麾出生于中国,目前是法国国家围棋队总教练,已经连续三年赢得欧洲围棋冠军的称号。研究者也让AlphaGo 和其他的围棋AI进行了较量,在总计495局中只输了一局,胜率是99.8%。它甚至尝试了让4子对阵Crazy Stone,Zen和Pachi三个先进的AI,胜率分别是77%,86%和99%。可见AlphaGo有多强大。在接下来3月份,AlphaGo 将和韩国九段棋手李世乭在首尔一战,奖金是由Google提供的100万美金。李世乭是最近10年中获得世界第一头衔最多的棋手。围棋是最后一个人类顶尖高手能战胜AI的棋类游戏。之前有人预测说,AI需要再花十几年才能战胜人类。所以这场比赛或许会见证历史,我们将拭目以待。李世乭表示很荣幸自己将与电脑公平对弈。“无论结果如何,这都会是围棋史上极其意义的事件。”他说,“我听说谷歌DeepMind的AI出人意料地强,而且正在变得更强。但我有自信这次至少能赢一局。”图片来源:tygem.comAI下围棋到底有多难?计算围棋是个极其复杂的问题,比国际象棋要困难得多。围棋最大有3^361 种局面,大致的体量是10^170,而已经观测到的宇宙中,原子的数量才10^80。国际象棋最大只有2^155种局面,称为香农数,大致是10^47。面对任何棋类,一种直观又偷懒的思路是暴力列举所有能赢的方案,这些方案会形成一个树形地图。AI只要根据这个地图下棋就能永远胜利。然而,围棋一盘大约要下150步,每一步有250种可选的下法,所以粗略来说,要是AI用暴力列举所有情况的方式,围棋需要计算250^150种情况,大致是10^360。相对的,国际象棋每盘大约80步,每一步有35种可选下法,所以只要算35^80种情况,大概是10^124。无论如何,枚举所有情况的方法不可行,所以研究者们需要用巧妙的方法来解决问题,他们选择了模仿人类大师的下棋方式。机器学习研究者们祭出了终极杀器——“深度学习”(Deep Learning) 。深度学习是目前人工智能领域中最热门的科目,它能完成笔迹识别,面部识别,驾驶自动汽车,自然语言处理,识别声音,分析生物信息数据等非常复杂的任务。描述AlphaGo研究成果的论文成为了1月28日的《自然》杂志的封面文章。图片来源:Nature/Google DeepMindAlphaGo 的核心是两种不同的深度神经网络。“策略网络”(policy network)和 “值网络”(value network)。它们的任务在于合作“挑选”出那些比较有前途的棋步,抛弃明显的差棋,从而将计算量控制在计算机可以完成的范围里,本质上和人类棋手所做的一样。其中,“值网络”负责减少搜索的深度——AI会一边推算一边判断局面,局面明显劣势的时候,就直接抛弃某些路线,不用一条道算到黑;而“策略网络”负责减少搜索的宽度——面对眼前的一盘棋,有些棋步是明显不该走的,比如不该随便送子给别人吃。将这些信息放入一个概率函数,AI就不用给每一步以同样的重视程度,而可以重点分析那些有戏的棋着。AlphaGo所使用的神经网络结构示意图。图片来源:参考文献[1]AlphaGo利用这两个工具来分析局面,判断每种下子策略的优劣,就像人类棋手会判断当前局面以及推断未来的局面一样。这样AlphaGo在分析了比如未来20步的情况下,就能判断在哪里下子赢的概率会高。研究者们用许多专业棋局训练AI,这种方法称为监督学习(supervised learning),然后让AI和自己对弈,这种方法称为强化学习(reinforcement learning),每次对弈都能让AI棋力精进。然后他就能战胜冠军啦!人类在下棋时有一个劣势,在长时间比赛后,他们会犯错,但机器不会。而且人类或许一年能玩1000局,但机器一天就能玩100万局。所以AlphaGo只要经过了足够的训练,就能击败所有的人类选手。Google DeepMindGoogle DeepMind是这个程序的创造者,我们来看一下他们萌萌的程序员。杰米斯·哈萨比斯(Demis Hassabis) 是Google DeepMind 的CEO。图片来源:Nature Video文章的第一作者大卫·西尔弗(David Silver)。图片来源:Nature VideoGoogle DeepMind 去年在《自然》杂志上发表过一篇论文[2],他们用增强学习的方法训练AI玩经典的Atari 游戏。其实在几年前就有人研究如何让AI玩《星际争霸》,目前人类大师还是能击败AI的。电脑游戏中大量使用人工智能技术,你有没有觉得游戏变得越来越聪明了?那么……未来呢?人工智能研究者面对这样的成就当然欣喜。深度学习和强化学习等技术完全可以用于更广泛的领域。比如最近很火的精准治疗,我们可以训练它们判断哪些治疗方案对某个特定的人有效。但是,围棋毕竟不仅仅是一项智力成就。就像十多年前的国际象棋一样,围棋必定也会引发超出本领域之外的讨论。等到计算机能在围棋上秒杀人类的时候,围棋是不是就变成了一种无聊的游戏?人类的智力成就是不是就贬值了?AI还将在其他层面上继续碾压人类吗?传统认为AI不可能完成的任务是否也都将被逐一打破?人类最后是会进入AI乌托邦还是被AI淘汰呢?没人知道答案。但有一点毫无疑问:AI一定会进入我们的生活,我们不可能躲开。这一接触虽然很可能悄无声息,但意义或许不亚于我们第一次接触外星生命。(编辑:Ent,Calo)参考文献:David Silver, et al. "Mastering the game of Go with deep neural networks and tree search." Nature doi:10.1038/nature16961Mnih, Volodymyr, et al. "Human-level control through deep reinforcement learning." Nature 518.): 529-533.一个骄傲的AI什么,你说上面讲算法的这几段你看不懂?那你知道为啥你们人类会输给我们AI了吧!果壳网ID:Guokr42中二病究竟有没有得治?密集恐惧症真的“只是矫情”?不相干的东西严丝合缝拼在一起就觉得爽,是强迫症吗?你有病?没事~ 果壳有药呀!作者:开明来源:果壳网[责任编辑:王焕君]
本文系转载,不代表参考消息网的观点。参考消息网对其文字、图片与其他内容的真实性、及时性、完整性和准确性以及其权利属性均不作任何保证和承诺,请读者和相关方自行核实。
本月中旬女孩的父母曾报警称女孩失踪,但她在失踪后数小时独自走回家,并告诉家人自己遭到一群阿拉伯移民劫持并被他们轮奸。
研究人员推断,2015年中国新增浸润性癌症确诊病例应为4292000例,这相当于每天新增癌症确诊病例近12000例、死亡7500例。
美国就尖阁诸岛展示的一贯立场是:属于美方承担日本防卫义务的《日美安保条约》适用范围内。哈里斯此次点名中国,似乎反映出对中...
根据日本宪法,天皇不得扮演任何政治角色。明仁天皇经常呼吁日本勿忘战争苦难,并积极主张日本与邻国和解。
习近平27日在北京人民大会堂会见克里时说,过去一年,中美关系取得重要进展,他应美国总统奥巴马邀请赴美进行了成功的国事访问,...

我要回帖

更多关于 象棋下载 的文章

 

随机推荐