在AI秀健身肌肉疼还要继续吗的时代里,为什么还要读《太空漫游》

这些人工智能会成真吗?_山东新闻_大众网
山东新闻' />
“阿尔法狗”和李世石的世纪大战搅动了全世界的目光。作为既不懂人工智能又不懂围棋、还不想被热议话题落下的小白网友,无法加入讨论怎么办?来看一下那些电影中的人工智能吧!反正绝大部分人看到“人工智能”这四个字,第一反应就是电影中的打打杀杀。
科学家所担心的“人工智能背叛人类”,也许并不遥远;幸好现在这一切都还只是电影!1 人类与AI之间必有一战?
笼统地说,好莱坞是不喜欢人工智能的。大部分相关题材的影片,都离不开 一个“打”字;大部分人工智能,都选择了站在人类的对立面。
作为第一个出现人工智能的电影,1927年的《大都会》奠定了之后几乎所有这类影片的基调。这部极具实验性的黑白默片中,邪恶的科学家与资本家打造了一个女机器人来对抗工人阶级。
《银翼杀手》第一次关注了人工智能的情感问题:21世纪初,机器人已经和人类完全相同。一场暴动后,人类宣布机器人为违法物,必须处死。戴克就是受命从事侦查工作的银翼杀手之一。在追捕的过程中,戴克越来越丧失人性,而机器人却逐渐显露出更加人性的一面。最后,戴克扪心自问:我在做什么?我和他们之间的不同本质到底是什么?影片带着强烈的反思气质和人文精神。
如果只能看一部人工智能的电影,那么必须是《终结者》。这是人工智能影片的巅峰之作。未来世界,人类研制的高级计算机控制系统“天网”全面失控:机器人有了自己的意志,要把人类赶尽杀绝,但遇到了顽强的人类抵抗军领袖康纳。于是,终结者机器人T-800(就是施瓦辛格)受命回到1984年,杀死康纳母亲莎拉,阻止康纳的出生――这里牵扯到了哲学悖论,关于一个人能不能回到过去杀死当年的自己!
没在深夜里看过《黑客帝国》的人,不足以跟人谈人工智能。未来的智能机械反胜人类,看似正常的现实世界,实际上是由一个名为“矩阵”的计算机人工智能系统控制。人类自然要抵抗,于是一番目眩神迷的打斗之后,机器与人类谈判,双方最终和平共处。这片子比较挑战智商,客观地说,到第三部时已经有点不知所云。
关于人工智能的影片数不胜数,称得上经典的也有二三十部。比如威尔?史密斯秀肌肉的《我,机器人》,机器人具备自我进化的能力,与人类对抗;伟大的《2001太空漫游》,当掌控飞船的人工智能在太空中出错、要被设计者关闭时,却先发制人,杀死了飞船上的4名宇航员;另外还有《电子争霸战》、《机械危情》、《异形》、《超验骇客》,以及刚获得第88届奥斯卡最佳视觉效果的《机械姬》等等。
这些作品不约而同地让机器人成为破坏者与杀戮者,多少反映出人类早就对人工智能心生警惕。科技有一天会背叛人类吗?“凡关在盒子里的,总有一天会跑出来”,今天我们能控制的东西,会不会终有一天能毁灭我们?2 人工智能也有温情派
可能还有朋友到现在也没弄清楚“AI”究竟是什么意思。这时候必须要隆重推出斯皮尔伯格的大作《人工智能》。这个影片最初就叫《A.I.》,但制片方调查发现,很多人都将片名看成“A1”,于是就将片名改为“A.I. Artificial Intelligence(人工智能)”。
科幻片也能让人看到泪奔的,这部《人工智能》当排在第一位:21世纪中期,先进的机器人被制造出来,用以应对恶劣的自然环境。这些机器人不但拥有可以乱真的人类外表,还能感知自身的存在。为了代替患重病被冬眠的儿子,莫妮卡领养了机器人小孩大卫。儿子苏醒后回到了家里,一系列的事情使大卫不适合再留在家里,莫妮卡决定抛弃他。大卫渴望变成真正的小孩,重新回到莫妮卡妈妈的身边,为此他努力了两千年。
夜晚,莫妮卡开车将大卫带到森林里遗弃,大卫看着妈妈驱车离去的背影,哭着喊“妈妈”――这场面让多少观众泪流成河!然而大卫毕竟不是真的人,他只是个机器!所以机器可以真正拥有人类的情感吗?《A.I.》包含着浓重的隐喻以及库布里克式的阴暗色调,但斯皮尔伯格为其增加了人性温暖和天真的情感。
所有人工智能类电影中,最有趣的当属斯派克?琼斯2013年的科幻浪漫喜剧片《她》。西奥多是一位作家,与妻子离婚,感情受挫后,他爱上了电脑操作系统里的女声。这个叫“萨曼莎”的姑娘类似我们苹果手机里的Siri,当然要更智能,风趣幽默、善解人意。某天萨曼莎突然消失,西奥多痛不欲生,但再次出现的萨曼莎解释,自己是去参加了一次OS系统的升级活动。她坦白,她总共有8316位人类交互对象,而且与其中的641位发生了爱情,而西奥多只是其中的一位。这部影片获得了第86届奥斯卡最佳原创剧本奖。一直没有露面的萨曼莎由“黑寡妇”斯嘉丽?约翰逊配音。
温情派的人工智能还有《机器人瓦力》,这个逐渐懂得了梦想和孤独的机器人,是影史上最可爱的机器人没有之一,直到《超能陆战队》中大白的出现。3拥抱,还是警惕?
尽管有过深蓝战胜卡斯帕罗夫的先例,但赛前还是有无数人,包括李世石本人,都自信人类比计算机强,“人类会失误,但人类预判力和创造力无可比拟”。没多少人想到人类的最高水平会被机器4:1击溃。
真正让人细思恐极的是,“阿尔法狗”已经具备了自我学习的能力,不久前它战胜樊麾的时候,水平还没有这么高。一些电影看多的人,甚至认为“阿尔法狗”已经掌握了战术,能够故意走错、让对手放松警惕。
那么,能够毁灭地球的人工智能还有多远?真正到了那一天,恐怕不是拔插头所能解决的。《机械姬》的导演嘉兰说,影片中的“未来”距离现在也许只有“十分钟远”,即便某个科技公司已经发明出片中类似的机器人,自己也不会吃惊。
知乎网站有篇长文,介绍人工智能很可能导致人类的永生或者灭绝,“而这一切很可能在我们的有生之年发生”。以下的情景很可能会发生:一个人工智能系统要花几十年才能达到4岁小孩的智力;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;再之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。这时候对方是敌是友,就看人类的造化了。
霍金多次对人工智能的研究提出过警告,然而事实上,能让彻底失去说话能力的他讲出话的,正是英特尔“人机交流研究”团队开发的智能交互系统。所以我们到底该怎么面对人工智能?
初审编辑:
责任编辑:system
去年苹果大量上市时,每斤3.2元,紧接着价格一路下滑,现在降到每斤1.6元,且有价无市……今年,苹果生产大省山东多地面临“价低卖难”困境,仅淄博市沂源县就有5亿斤苹果储存在冷库待售。记者了解到,淄博市、沂源县目前正通过加大宣传力度、着力开拓目标市场、发展直营直...
03-18 09-03新华社
近日,在经二路上一家大型商场附近,在写着“禁止停车”的牌子旁,车主仍随意停放车辆。张志成建议,有关部门应制订立体车库发展规划,设立发展立体车库补贴及补助资金,从资金等方面重点扶持立体车库建设。
03-18 09-03济南日报
  3月17日,本市公布《2015年青岛市国民经济和社会发展统计公报》。“大项目”带动青岛投资“提质增效”,其中轨道项目带领交通建设迅速发展,其中亿元以上交通运输业在建项目74个,完成投资344.2亿元,同比增长50%。
03-18 10-03半岛都市报
3月15日以来,围绕小豪“轻松筹”筹款一事,以及众筹运作的相关内容,记者进行了多方采访,试图让大家更加了解众筹那些事。对于王女士等人在“轻松筹”发起的项目,是否是“轻松筹”和具公募资质的慈善组织或基金联合开展,“轻松筹”官方客服人员表示不知情。
03-18 10-03威海晚报
吴女士家附近的林祥南街菜市场,每斤3.5元)  如今,高菜价让不少人直呼“吃不起”。同样,丝瓜在八里桥蔬菜市场每斤售价为3.8元,七里堡蔬菜市场每斤售价为4元,而在七里河社区菜市场,每斤丝瓜要卖到7元,名士豪庭菜市场每斤8元钱,价格为最高。
03-18 09-03齐鲁壹点
”21世纪教育研究院副院长熊丙奇告诉记者,选课走班看起来仅仅是在高中推出几门选修课,但实质上是高中教学流程的再造。在新的高考改革政策下,将打破高校的身份标签,部分高校的优势专业更加突出,也会加速一些专业的优胜劣汰。
03-18 12-03齐鲁晚报网
Copyright (C)
& . All Rights Reserved
山东省互联网传媒集团主办 Email: &
违法不良信息举报电话:0&figure&&img src=&/v2-58d04fda24_b.jpg& data-rawwidth=&640& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-58d04fda24_r.jpg&&&/figure&&p&安妮 编译自 ArXiv&/p&&p&量子位 出品 | 公众号 QbitAI&/p&&p&十图九糊。&/p&&p&置身异国街道,感受着陌生环境里熙熙攘攘的街道,你掏出手机想留住这一刻。&/p&&p&好嘞,一、二、三,咔嚓。&/p&&p&由于行人和车辆都在运动,再加上你的手稍微抖了一抖,照片中的景象是这样的——&/p&&p&&br&&/p&&figure&&img src=&/v2-58d04fda24_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-58d04fda24_r.jpg&&&/figure&&p&&br&&/p&&p&这样的——&/p&&p&&br&&/p&&figure&&img src=&/v2-b065c69a18c89e6297bc7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&587& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-b065c69a18c89e6297bc7_r.jpg&&&/figure&&p&&br&&/p&&p&和 这样的——&/p&&p&&br&&/p&&figure&&img src=&/v2-79fb4b994e4351b8cfcba218_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&269& data-rawheight=&270& class=&content_image& width=&269&&&/figure&&p&&br&&/p&&p&这是什么AV画质啊!&/p&&p&&br&&/p&&figure&&img src=&/v2-97e93c98115dce55ff9c927cc15d5940_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&315& data-rawheight=&246& class=&content_image& width=&315&&&/figure&&p&&br&&/p&&p&拍照时手抖,或者画面中的物体运动都会让画面模糊,女友辛辛苦苦摆好的各种Pose也将淹没在各种模糊的线条中,是时候要有一种新的算法解救水深火热中的你了。&/p&&p&近日,乌克兰天主教大学、布拉格捷克理工大学和解决方案提供商Eleks联手公布了一篇论文,文章标题为《DeblurGAN: Blind Motion Deblurring Using Conditional Adversarial Networks》。&/p&&p&这篇文章中,研究人员提出一种基于条件对抗式生成网络和内容损失(content loss)的端对端学习法DeblurGAN,去除图像上因为物体运动而产生的模糊。&/p&&p&效果嘛,可以说好到让你不太相信自己的眼睛。&/p&&p&比如我们刚刚在异国街头拍糊了的那张,处理后变成了这样——&/p&&p&&br&&/p&&figure&&img src=&/v2-51e1789bcd83e5c4db6c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-51e1789bcd83e5c4db6c_r.jpg&&&/figure&&p&&br&&/p&&p&炉火纯青。&/p&&p&还不来学习一下去糊大法的手艺?&/p&&h2&GAN中得到灵感&/h2&&p&回归我们的终极议题:在没有提供任何关于核(kernel)或相机的运动信息的情况下,怎样去除单张照片中的运动模糊(Motion Blur)呢?&/p&&p&这不禁让人联想起生成对抗网络(GAN),因为它能够保存高纹理细节,创建的图案又接近真实图像,所以是图像超分辨率和图像修复中的主力军。&/p&&p&能否将这种方法应用到消除运动模糊的工艺中呢?&/p&&p&可以。模糊处理可以看作是图像转化中的一个特例,研究人员提出基于条件生成式对抗网络和多元内容损失的DeblurGAN法。&/p&&p&这是种什么方法?我们继续往下看。&/p&&h2&基本原理&/h2&&p&因为目标是把模糊图像IB在没有提供模糊核的情况下恢复成清晰图像IS,因此,我们需要训练一个CNN GθG作为生成器。每张IB都对应着一张估计出的清晰图像IS。此外,在训练阶段,我们将引入critic函数DθD,以对抗的方式训练两个网络。&/p&&p&&br&&/p&&figure&&img src=&/v2-6bcdb7dbd540b83bd97ab37c49b39b41_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&720& data-rawheight=&147& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-6bcdb7dbd540b83bd97ab37c49b39b41_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& DeblurGAN生成网络架构&/p&&p&从上图的架构中可以看出,DeblurGAN包含两个1/2间隔的卷积单元、9个剩余residual单元和两个反卷积单元。每个ResBlock由一个卷积层、实例归一化层和ReLU激活组成。&/p&&p&去除运动模糊的整个流程,如下图所示:&/p&&p&&br&&/p&&figure&&img src=&/v2-c6c92e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&1073& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-c6c92e_r.jpg&&&/figure&&p&&br&&/p&&h2&先生成运动模糊图像&/h2&&p&想去糊,先得知道怎样将清晰图像转换成运动模糊图像,这个准备阶段也学问多多。&/p&&p&与超分辨率和黑白照片上色等流行的图像到图像(image-to-image)的转换问题相比,用于训练算法的清晰和模糊的图像对(image pairs)难以获取,一种典型的获取方法是用高帧频相机捕捉视频中清晰的帧模拟模糊图像。&/p&&p&用这种方法创建真实图片的模糊图像,会将图像空间(image space)局限在拍摄的视频中出现的场景,并将数据集变得更复杂。&/p&&p&根据前人的实验,研究人员提出的方法更真实地模拟了复杂的模糊核(blur kernel)。这种方法遵循了Boracchi和Foi 2012年在论文Modeling the performance of image restoration from motion blur中所描述的随机轨迹生成的概念,对轨迹矢量应用亚像素插值法生成核。每个轨迹矢量都是一个复杂矢量,对应着一个连续域中的二维随机运动物体的离散位置。&/p&&p&&br&&/p&&figure&&img src=&/v2-ebdac59a2367e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&146& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-ebdac59a2367e_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& 生成的相机运动轨迹和模糊内核以及相应的模糊图像示例&/p&&p&轨迹生成由马尔可夫过程完成、由算法总结。根据前一个点速度和位置、高斯摄动方程和脉冲摄动,随机生成下一个点的位置。&/p&&h2&打造DeblurGAN&/h2&&p&基本思路和运动模糊生成后,可以开始着手训练模型了。&/p&&p&研究人员用PyTorch中实现了自己的所有模型,整个训练过程是在一个Titan-X GPU上执行三种不同的数据集。&/p&&p&第一个模型DeblurGANWILD是在随机裁剪的256x256像素的GoPro数据集上训练的;第二个模型DeblurGANSynth在用上文所介绍方法模糊过的MS COCO数据集上训练;此外,还有一个特殊的模型DeblurGANComb,所用的训练集中有2/3是合成图像,1/3是高帧率相机拍摄的图像。&/p&&p&由于它们均为全卷积模型,又是在图像patch上训练的,因此可以应用在任意大小的图像中。&/p&&p&为了进行优化,研究人员在DθD上执行了5次梯度下降,在GθG上执行了1次。最初生成器和判别器设置的学习速率为10-4,经过150次迭代后,在接下来的有一轮150次迭代中将这个比率线性衰减。&/p&&p&6天后,研究人员训练出一个DeblurGAN网络,最激动人心的部分终于来了。&/p&&h2&开始测试!&/h2&&p&GoPro数据集&/p&&p&GoPro数据集包含了2103对从不同的场景拍摄的720p的模糊-清晰的图像对。研究人员将模型的结果与标准指标的模型状态进行比较,并在单个GPU上显示每个算法的运行时间,结果如下:&/p&&p&&br&&/p&&figure&&img src=&/v2-09db167daa37c67d4518d2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&190& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-09db167daa37c67d4518d2_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& GoPro数据集测试图像的平均峰值信噪比和结构相似度&/p&&p&测试结果表明,DeblurGAN在定性和定量两方面都表现出优异的结果。它可以处理由相机抖动和物体运动引起的模糊,不会受到通常的核评估方法的影响,同时参数仅为Multi-scale CNN的六分之一,大大加快了推理速度。&/p&&p&不信?那来看看GoPro数据集测试的去模糊图像——&/p&&p&&br&&/p&&figure&&img src=&/v2-3a859a020f8aee9cc6961_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-3a859a020f8aee9cc6961_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& GoPro测试数据集的评估结果/从左到右:模糊图像、Nah算法处理结果和我们算法的处理结果&/p&&p&Kohler数据集&/p&&p&Kohler数据集由4张图像组成,每张用12个不同的核模糊图像。这是一个标准的基准数据集,用于评价去模糊算法。数据集通过记录和分析真实的相机运动产生,并在机器人载体上回放,这样在6D相机运动轨迹上会留下一系列清晰的图像。&/p&&p&&br&&/p&&figure&&img src=&/v2-290e7a43b23feaa50dd11b2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&162& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-290e7a43b23feaa50dd11b2_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& 在Kohler基准数据集上进行的平均峰值信噪比和结构相似度测度结果&/p&&p&YOLO上的目标检测基准&/p&&p&这项研究中还有一个小彩蛋。&/p&&p&研究人员探索了动态模糊对目标检测的影响,基于在预训练的YOLO网络上目标检测的结果,提出一种评估质量的去模糊算法的新方式。&/p&&p&通过用高帧率摄像机模拟相机抖动,研究人员构建了一个清晰-模糊的街景数据集。之后,对240fps(每秒显示帧数-帧率)相机拍摄的5到25帧进行随机抽样,并计算中间帧的模糊版作为这些帧的平均值。&/p&&p&总体来说,数据集包括410对模糊-清晰图像,这些图像是从不同街道和停车场拍摄的,包含不同数量和类型的汽车。&/p&&p&&br&&/p&&figure&&img src=&/v2-c4ec2c9e1e5013dccca6858_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&191& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-c4ec2c9e1e5013dccca6858_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& 在模糊化前后的目标检测&/p&&p&在recall和F1 socre上,DeblurGAN的表现远远超过了竞争对手。&/p&&p&&br&&/p&&figure&&img src=&/v2-bdb1dd0c129e4e7f455ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&243& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-bdb1dd0c129e4e7f455ec_r.jpg&&&/figure&&p&&br&&/p&&h2&去糊宝典&/h2&&p&你也想告别AV画质?&/p&&p&别着急,论文地址在这:&/p&&p&&a href=&/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&相关代码(PyTorch):&/p&&p&&a href=&/?target=https%3A///KupynOrest/DeblurGAN& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/KupynOrest/D&/span&&span class=&invisible&&eblurGAN&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&p&—完—&/p&&p&欢迎大家关注我们的专栏:&a href=&/qbitai& class=&internal&&量子位 - 知乎专栏&/a&&/p&&p&诚挚招聘&/p&&p&量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。&/p&&p&&a href=&/qbitai& class=&internal&&量子位 QbitAI&/a& · 头条号签约作者&/p&&p&?'?' ? 追踪AI技术和产品新动态&/p&
安妮 编译自 ArXiv量子位 出品 | 公众号 QbitAI十图九糊。置身异国街道,感受着陌生环境里熙熙攘攘的街道,你掏出手机想留住这一刻。好嘞,一、二、三,咔嚓。由于行人和车辆都在运动,再加上你的手稍微抖了一抖,照片中的景象是这样的—— 这样的—— 和 …
&figure&&img src=&/v2-121dbbb5d80266aaf3fdcf_b.jpg& data-rawwidth=&720& data-rawheight=&437& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-121dbbb5d80266aaf3fdcf_r.jpg&&&/figure&&p&安妮 李林 发自 凹非寺&/p&&p&量子位 出品 | 公众号 QbitAI&/p&&p&昨天&a href=&/?target=http%3A//mp./s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D1%26sn%3Dedddf25cc385b735achksm%3De8d3adb4dfa424a27f54dfd9f76a3b9dba1e36e25cc1a%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&AlphaGo再次震惊所有人&i class=&icon-external&&&/i&&/a&。&/p&&p&刚刚,这个史上最强围棋AI的两位主要开发者,David Silver和Julian Schrittwieser,做客知名网站reddit,展开一场超级问答AMA(Ask Me Anything)。&/p&&p&他们是谁?&/p&&p&&br&&/p&&figure&&img src=&/v2-9bff34a5eaf01feb65da216cb07b0028_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&540& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-9bff34a5eaf01feb65da216cb07b0028_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&△&/b& 左:Julian Schrittwieser 右:David Silver&/h2&&p&比较关注AlphaGo的朋友对其中一位应该不会陌生,David Silver是AlphaGo团队负责人,也是上一代AlphaGo的主要作者。从首尔到乌镇,都有他的身影。关于David Silver我们在之前报道黄士杰的文章里也有提及。&/p&&p&名字更长的Julian Schrittwieser,是这次新一代AlphaGo的三位并列主要作者之一,而且非常年轻。2013年,Schrittwieser本科毕业于奥地利的维也纳技术大学;同年9月,Schrittwieser加入DeepMind。&/p&&p&此前DeepMind关于AlphaGo和星际2的研究论文中,Schrittwieser也都有参与。&/p&&p&OK,背景交代到这里。&/p&&p&干货时间开始。&/p&&p&&br&&/p&&figure&&img src=&/v2-b52df0e662_b.jpg& data-caption=&& data-rawwidth=&600& data-rawheight=&700& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-b52df0e662_r.jpg&&&/figure&&p&&br&&/p&&p&以下问答经过量子位(QbitAI)编辑整理。&/p&&h2&&b&最强AlphaGo是怎么炼成的&/b&&/h2&&p&&b&提问:深度强化学习本来就是出了名的不稳、容易遗忘,请问你们是如何让Zero的训练如此稳定的?&/b&&/p&&blockquote&下图显示了在自我对弈强化学习期间,AlphaGo Zero的表现。整个训练过程中,没有出现震荡或者灾难性遗忘的困扰。&/blockquote&&figure&&img src=&/v2-4e2b1bee2f20a0b1d0f2e2bf_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&253& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-4e2b1bee2f20a0b1d0f2e2bf_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& 引自AlphaGo Zero论文&/p&&p&David Silver:AlphaGo Zero所用的算法,与策略梯度、Q-learning之类的传统(无模型)算法完全不同。通过使用AlphaGo搜索,我们大大改进了策略和自我对弈结果,然后用简单的基于梯度的更新来训练下一个策略和价值网络。&/p&&p&这似乎比渐进的、基于梯度的策略改进要稳定得多,梯度策略可能会忘记之前的优化。&/p&&p&&b&提问:为什么这次AlphaGo Zero就训练了40天?训练3个月会怎么样?&/b&&/p&&p&David Silver:我想这是一个人力和资源优先级的问题。如果我们训练了3个月,我想你还会好奇训练6个月会发生什么 :)&/p&&p&&b&提问:看完论文我有个疑问,输入维度那么高好像完全没必要,AlphaGo的residual block输入维度为什么是19×19×17?我不太理解为什么每个玩家要用8个二值特征plane。&/b&&/p&&p&David Silver:实际上,不是只有8 planes这一种选择,用其他形式的表示可能也没问题,但我们用了观察值的堆叠历史,有三个原因:&/p&&ol&&li&这和其他领域,比如说玩雅达利游戏时的常见输入表示一致;&/li&&li&我们需要一些历史记录来呈现ko;&/li&&li&历史可以用来记录对手最近在哪落过子,这些信息可以当作一种注意力机制来用,比如说集中在对手认为重要的位置上,第17个plane记录的是我自己在用什么颜色,因为有贴目规则,这个信息也很重要。&/li&&/ol&&p&&b&提问:你们发了AlphaGo论文之后,网友们说里边的算法实现起来不难,但很难达到你们那个训练量;在计算机下象棋的圈子里,开发者们也没少复制其他程序的算法。你认为算法和数据哪个更重要?&/b&&/p&&p&Julian Schrittwieser:我认为还是算法更重要,比较一下新AlphaGo Zero和之前论文中的版本,新版效率有多高就知道了。另外,我认为我们在数据效率方面还能有更多提升。&/p&&p&&b&提问:据说和柯洁对战的AlphaGo,计算力的消耗只有对战李世乭版本的十分之一。这中间做了怎样的优化,能简单说是AlphaGo的算法比之前提高了10倍吗?&/b&&/p&&p&(量子位注:和柯洁对战的AlphaGo Master,用了和Zero版一样的算法和架构,不同之处在于引入了人类对局数据和特征。)&/p&&p&Julian Schrittwieser:主要是因为改进了价值/策略网络,训练和架构都变得更好了,不同的网络架构之间的对比如下图所示:&/p&&p&&br&&/p&&figure&&img src=&/v2-efb0bcd2e146f99f28d7efc660d7bbac_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&301& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-efb0bcd2e146f99f28d7efc660d7bbac_r.jpg&&&/figure&&p&&br&&/p&&p&&b&提问:你们为什么一开始选择用人类对局数据来训练AlphaGo,而不是通过自我对弈来从0开始?还是当时也尝试了但效果不好呢?为什么会这样?我想知道,两年前设计一个完全自学的AlphaGo瓶颈在哪?&/b&&/p&&p&David Silver:创造一个完全自学成才的系统,一直是强化学习中的一个开放式问题。我们一开始尝试的方法,以及在文献综述部分提到的很多其他方法,都非常不稳定。我们做了很多实验,最终发现,AlphaGo Zero的算法是最有效率的,好像攻克了这个特定的问题。&/p&&p&&b&提问:为什么在刚开始训练的时候也要每局下1600步?这时候应该都是随机的噪声吧……先快速下很多盘随机局,然后在网络训练得更好的时候,再进行更深的搜索不是更好吗?&/b&&/p&&p&Julian Schrittwieser:一开始少下几步可能也行,但在整个试验中保持统一是一种比较简明的做法。&/p&&p&&b&提问:在输入特征上,用delta featurization可行吗?&/b&&/p&&p&Julian Schrittwieser:神经网络实在是很擅长用不同方式来表示同样的信息,所以,是的,我认为用delta featurization应该也行。&/p&&p&&b&提问:你们有没有想过用生成对抗网络(GAN)?&/b&&/p&&p&David Silver:在某种意义上,AlphaGo的自我对弈训练已经有了对抗:每次迭代都试图找到上一代版本的“反策略”。&/p&&p&&br&&/p&&figure&&img src=&/v2-ca8dbf23c7cdc14eb501a5c826a9c58e_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&718& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-ca8dbf23c7cdc14eb501a5c826a9c58e_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& 左:Julian Schrittwieser 右:David Silver&/p&&h2&&b&为何成功者不是Facebook&/b&&/h2&&p&&b&提问:我听说在AlphaGo开发初期,你们在训练中人为向特定方向引导,来解决它在棋局中表现出来的弱点。现在它的能力已经超越人类认知了,会不会还需要人工调整,避免它落入局部最大化?你们有这个打算吗?&/b&&/p&&p&David Silver:实际上,我们从来没有为特定的弱点而人为引导过AlphaGo,而是一直专注于原则化的机器学习算法,让算法自己学会纠正自己的错误。&/p&&p&想找到围棋的最优解当然是不现实的,所以,弱点总是存在。在实践中,用正确的探索方法来保证训练没有卡在局部最优解中非常重要,但我们没有用上人为的引导。&/p&&p&&b&提问:AlphaGo的研究中,最困难的是什么?&/b&&/p&&p&David Silver:我们遇到的第一个大挑战,是在跟李世乭比赛的时候。当时我们意识到,AlphaGo偶尔会产生“妄想”,也就是会系统地误判盘面情况,并且持续数手。我们尝试了很多想法来解决这个弱点。而引入更多围棋知识,或者人类元知识一直是种诱惑。&/p&&p&但最终我们取得了巨大的成功,彻底解决了AlphaGo的问题。我们用的方法是,更多的依赖强化学习的力量,让它自己找到更好的解决方案。&/p&&p&&b&提问:AlphaGo在行棋时间安排上是怎么考虑的?&/b&&/p&&p&David Silver:我们实际上用了一个相当直接的时间控制策略,基于自我博弈中胜率的简单优化。当然可以应用更复杂的策略,性能也应该可以再提升一点点。&/p&&p&&b&提问:NIPS论文Thinking Fast and Slow with Deep Learning and Tree Search也提出了和AlphaGo Zero类似的方法。&/b&&/p&&p&论文地址:&a href=&/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&David Silver:这的确和AlphaGo的策略算法很相似,不过我们还有个价值模块。以及要澄清一下,在AlphaGo Zero论文4月7日提交给Nature的时候,那篇NIPS论文还没公开。&/p&&p&&b&提问:DeepMind和Facebook研究这个问题大概是在同一时间诶,是什么让AlphaGo这么拿到了围棋最高段位?&/b&&/p&&p&David Silver:Facebook更专注于监督学习,这是当时最厉害的项目之一。我们选择更多地关注强化学习,是因为相信它最终会超越人类的知识。最近的研究结果显示,只用监督学习的方法的表现力惊人,但强化学习绝对是超出人类水平的关键。&/p&&h2&&b&AlphaGo不开源,星际2还早&/b&&/h2&&p&&b&提问:你们有开源AlphaGo的计划吗?&/b&&/p&&p&David Silver:我们过去开源了不少代码,但是开源这个过程总是很复杂。在AlphaGo这个问题上,非常不好意思,它的代码库实在是过于复杂了。&/p&&p&&b&提问:乌镇时说过的围棋工具什么时候发布?&/b&&/p&&p&David Silver:这项工作一直在推进,敬请期待 :)&/p&&p&&b&提问:AlphaGo Zero还在训练么?未来还会有突破么?&/b&&/p&&p&David Silver:AlphaGo已经退役了!我们的人力和硬件资源,已经动身前往其他道阻且长的AI项目上了。&/p&&p&&b&提问:AlphaGo Zero是最终版本的AlphaGo么?&/b&&/p&&p&David Silver:我们已经不再主动研究如何让AlphaGo变得更强,但它仍然是所有DeepMind同仁的研究测试平台,用于尝试新的想法和算法。&/p&&p&&b&提问:与围棋相比,《星际2》有多难?AI打星际什时候能有新进展?&/b&&/p&&p&David Silver:前不久我们刚发布了《星际2》的环境,现在相关研究还在相当早期的阶段。《星际2》的行为空间显然比围棋大得多,需要监控的数据量也更大。从技术上来讲,围棋是一个完美信息博弈,而战争迷雾让星际变成不完美信息博弈。&/p&&p&量子位插播一个延伸阅读:&/p&&p&&a href=&/?target=http%3A//mp./s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D4%26sn%3Dbbfb7e22bf9%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&AI打星际2是怎么回事?快看看这段6分钟的视频讲解&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&figure&&img src=&/v2-678bf81d05f67f16673a_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&405& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-678bf81d05f67f16673a_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&关于AI研究&/b&&/h2&&p&&b&提问:AlphaGo在神经网络的可解释性方面有什么进展?&/b&&/p&&p&David Silver:可解释性对我们所有的系统来说都是有趣的问题,而不仅仅是AlphaGo。DeepMind内部正努力研究询问系统的新方式。最近,他们的研究已经发表出来,主要是从认知心理学出发,来尝试破译神经网络内部的情况。这项研究非常棒。&/p&&p&量子位插播一个延伸阅读:&/p&&p&&a href=&/?target=http%3A//mp./s%3F__biz%3DMzIzNjc1NzUzMw%3D%3D%26mid%3D%26idx%3D2%26sn%3D99c217e696f2def54cf134%26chksm%3De8d3bbbfdfa432a95bc24b72f6ecfc90fa4ee7a317ca%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&DeepMind新论文:用认知心理学方法打开深度学习的黑箱&i class=&icon-external&&&/i&&/a&&/p&&p&&b&提问:似乎使用或模拟强化学习智能体的长期记忆是一个很大瓶颈。展望未来,你是否相信我们即将以一种新的思维方式“解决”这个问题?&/b&&/p&&p&Julian Schrittwieser:你说的没错,长期记忆确实是个重要因素。例如,在星际争霸的一场比赛中可能有上万个动作,另外还得记住你侦察到的东西。&/p&&p&我认为目前已经有了很一颗赛艇的组件,比如神经图灵机,但在这个领域,我们还将看到一些更令人印象深刻的进步。&/p&&p&&b&提问:有没有强化学习(RL)用在金融领域的案例?&/b&&/p&&p&David Silver:很难在公开发表的论文中找到真实世界的金融算法!但是有一些经典论文非常值得一读,例如Nevmyvaka和Kearns在2006年发布的研究、Moody和Safell在2001发布的研究。&/p&&p&&b&提问:不读研也能在人工智能领域大有作为吗?&/b&&/p&&p&Julian Schrittwieser:当然可以,我也只有计算机科学学士学位。这个领域发展很快,所以我认为你可以从阅读论文和运行实验中学习很多东西。在已经有过机器学习经验的公司实习是对你的成长应该很有帮助。&/p&&p&&b&提问:怎样进入AI行业?我觉得“读个PhD然后找工作”好像是个挺明显的途径,但是最常见的路径不见得就是最好的吧……&/b&&/p&&p&Julian Schrittwieser:还有一种方法效果也不错:挑一个有意思的问题,训练很多神经网络,探索它们的结构,然后你会发现一些效果很好的部分,去发表一篇论文,或者去参加会议展示你的成果。&/p&&p&不断地重复这个过程。&/p&&p&这个圈子很好,会愿意给你反馈,你也可以通过arXiv了解最近的研究。&/p&&p&&br&&/p&&figure&&img src=&/v2-fff53acd1c19_b.jpg& data-caption=&& data-rawwidth=&720& data-rawheight=&514& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-fff53acd1c19_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&关于围棋&/b&&/h2&&p&&b&提问:现在国际象棋程序能给选手评分:通过棋步的分析,来推算Elo等级分。AlphaGo能在围棋上搞这个吗?&/b&&/p&&p&相关论文:&a href=&/?target=https%3A//www.cse.buffalo.edu/%7Eregan/papers/pdf/ReHa11c.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&cse.buffalo.edu/~regan/&/span&&span class=&invisible&&papers/pdf/ReHa11c.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&Julian Schrittwieser:这个想法很酷啊,感谢分享这篇论文!&/p&&p&我认为在围棋上也能做这样的事情,可能会通过计算最佳下法和实际下法之间的价值差异来实现,或者计算策略网络下出实际下法的概率。等我有时间试试这个。&/p&&p&&b&提问:关于对局中的第一手棋,我想问,AlphaGo会有一些你从未见过的开局吗,比如10-10或5-3,或者走很奇怪的一步?如果没有这种情况,那是出于“习惯”,还是有强烈的信念,3-3、3-4和4-4是优越的?&/b&&/p&&p&David Silver:在训练中,我们看到AlphaGo探索了各种不同的动作——甚至在训练开始时下出过1-1!即使在经过一段训练后,Zero也尝试过下6-4,但很快又回到了熟悉的3-4。&/p&&p&Julian Schrittwieser:实际上,在刚开始训练AlphaGo Zero时,它完全是随机的,例如在图5的b部分中,你可以看到它实际上是在1-1点下出第一手!逐渐适应网络后,随着它变得更强大,它开始青睐4-4、3-4和3-3。&/p&&p&&b&提问:现在AlphaGo能让顶级围棋选手几子?能让柯洁两子么?&/b&&/p&&p&David Silver:我们还没跟人类选手下过让子棋,我们想专注在整场的围棋比赛中。然而,在让子条件下测试不同版本的AlphaGo很有用。在Zero的论文中我们提到了各个版本的棋力:AlphaGo Master & AlphaGo Lee & AlphaGo Fan,每个版本都让三子击败了它的前一代。&/p&&p&值得注意的是,因为这些神经网络没有专门为让子棋训练过。此外,由于AlphaGo是自我对弈训练的,特别擅长打败自身较弱的版本。因此,我认为我们不能以任何有意义的方式将这些结果推广到人类的让子棋中。&/p&&p&&b&提问:AlphaGo Zero会处理征子之类的问题吗?你们是怎样解决这类问题的?&/b&&/p&&p&David Silver:AlphaGo Zero并没有特殊的特征来处理征子,或者任何其他围棋中的特定问题。在训练早期,Zero偶尔会因为征子下满棋盘,就算它对全局有很复杂的理解也没用。但在我们分析的棋局中,经过完全训练的Zero能正确识别所有无意义的征子。&/p&&p&&b&提问:已经发布的少量AlphaGo自我对弈棋局中,白棋胜率太高。是不是贴目应该降低?&/b&&/p&&p&Julian Schrittwieser:从我的经验和实验来看,贴7.5目非常平衡。我们只观察到白棋的胜率略高一点(55%)。&/p&&p&&b&提问:你们认为AlphaGo能解《发阳论》第120题吗?(传说中的“死活题最高杰作”)&/b&&/p&&p&David Silver:我们刚才去问了樊麾,他说AlphaGo能解这个问题,但更有意思的是,它会不会找到跟书里一样的答案?还是能给出一个之前谁也没想到的解法?在AlphaGo的很多对局中,我们都看到了以人类经验无法想象的下法。&/p&&p&&b&提问:迈克·雷蒙(Michael Redmond,首位非东亚裔围棋九段)认为AlphaGo会下出人类棋手不会有的恶手,而且学不会围棋定式(深度程序知识)。&/b&&/p&&p&David Silver:我相信AlphaGo的“恶手”只有在影响全局胜利时才是问题。如果结局仍然是稳赢,真的是很差的一招么?&/p&&p&AlphaGo已经学会很多人类的定式,也下出了自己的定式。现在职业棋手有时就在使用AlphaGo的定式 :)&/p&&p&&b&提问:1846年,桑原秀策四段对弈幻庵因硕八段,其中著名的是第127手。AlphaGo怎么看这手棋?AlphaGo会怎么下?&/b&&/p&&p&Julian Schrittwieser:我不是围棋专家,但是我们问了樊麾,他说:&/p&&blockquote&当年比赛的时候,还没有贴目这一说。现在,AlphaGo采用的都是贴7.5目的规则。贴目让对弈过程完全改变。至于第127手,AlphaGo很有可能会选择不同的下法。&/blockquote&&p&&b&提问:还会再和职业棋手下棋吗?&/b&&/p&&p&Julian Schrittwieser:我们五月份说过,乌镇那场就是AlphaGo的最后一次比赛了。&/p&&p&— &b&完&/b& —&/p&&p&欢迎大家关注我们的专栏:&a href=&/qbitai& class=&internal&&量子位 - 知乎专栏&/a&&/p&&p&诚挚招聘&/p&&p&量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。&/p&&p&&a href=&/qbitai& class=&internal&&量子位 QbitAI&/a&&/p&&p&?'?' ? 追踪AI技术和产品新动态&/p&
安妮 李林 发自 凹非寺量子位 出品 | 公众号 QbitAI昨天。刚刚,这个史上最强围棋AI的两位主要开发者,David Silver和Julian Schrittwieser,做客知名网站reddit,展开一场超级问答AMA(Ask Me Anything)。他们是谁? △ 左:Julian …
&p&谢邀。&/p&&p&&br&&/p&&p&&b&首先强调下不要无脑黑BAT,事情一码归一码。&/b&&/p&&p&&b&其次这个事情最好不要用“感觉”说话(不是针对各位,毕竟影响到整个行业,有必要好好说说),很多答案都是凭着对公司整体印象回答的,充满了个人情绪色彩,达摩院这个事情影响的可能是未来的经济走向、科研、工业等方方面面。&/b&&/p&&p&&b&最后,研发院不单单是研究,也有开发,落地对本身BAT这种以业务为核心的企业,比起微软和谷歌更容易产生市场价值。&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&如何评价达摩院建议从以下角度考虑:&/p&&p&&b&一、看外部大环境(阿里在BAT中研发处于什么地位,在全球知名互联网企业中研发处于什么地位,看各司研发费用,看政策支持)&/b&&/p&&p&&b&二、看内部环境(出于什么目的来做达摩院,以及达摩院在未来处于阿里集团的什么战略位置,看阿里目前总营收Total Revenue和 净利润Net-Income,看阿里能不能支撑起整个达摩院)&/b&&/p&&p&&b&三、看AI人才需求和储备,看科研能力(全球AI人才储备情况/科研能力,我国AI人才储备情况/科研能力,阿里AI人才储备情况/科研能力)&/b&&/p&&p&&b&四、看AI的迫切性(为什么这个时间点来建立达摩院,金融/机器智能/智联网对AI需求的迫切性)&/b&&/p&&p&&br&&/p&&p&&b&以下所有数据仅供参考,匆忙搜集整理的,可能有纰漏。&/b&&/p&&p&&br&&/p&&h2&&b&外部大环境:&/b&&/h2&&p&&br&&/p&&p&RHS是指这个图例以右边的刻度来看。(条形图看右边刻度,三角形比例图看左边)&/p&&figure&&img src=&/v2-3d78f56b6bc03f52cfe6c_b.jpg& data-caption=&& data-rawwidth=&971& data-rawheight=&396& class=&origin_image zh-lightbox-thumb& width=&971& data-original=&/v2-3d78f56b6bc03f52cfe6c_r.jpg&&&/figure&&p&这两个图说明什么呢?&/p&&p&&b&一、BAT的研发投入占营收额比谷歌和微软要低,但是大家日常黑的百度现在在拼命把钱投入研发。&/b&&/p&&p&&b&二、BAT在人力资源层面,其实开发人员占比要比谷歌和微软高。其中腾讯开发人员占员工数最高,过半。&/b&&/p&&p&&br&&/p&&p&上面的两个结论,结合一些别的数据(比如微软的连续裁员),我们可以得出一些简单的推理性质的结论:&/p&&p&一、中国的研发人员不值钱,研发成本低,所以BAT公司都有一个高的研发人员比例。(根据上面数据可知)&/p&&p&二、谷歌和微软两家科技企业会不断裁撤非研发部门人员,但研发人员占总员工比例短期内不会跟BAT持平,他们研发人员用人均单价更贵。(根据微软CEO裁员计划等等可知)&/p&&p&三、各司总人数约为&/p&&p&百度员工数:5万
研发人员2万2千左右&/p&&p&腾讯员工数:4万
研发人员2万左右&/p&&p&阿里员工数:5万
研发人员2万3千左右&/p&&p&微软员工数:12万4千 研发人员3万8千左右&/p&&p&谷歌员工数:7万5千
研发人员2万8千左右&/p&&p&&br&&/p&&h2&&b&收入和研发费用&/b&:&/h2&&p&可能有误差,财报上的revenue应该没问题,但是算的是FY2017Q1的revenue上面两个R&D费用图我没查是具体Q1还是Q2的,各公司利润这里就不算了&/p&&p&&br&&/p&&p&百度在Q117的收入是US$ 2454 million,投入研发的费用是US$353 million&/p&&p&腾讯在Q117的收入是US$ 7182 million,投入研发的费用是US$560 million&/p&&p&阿里巴巴在Q117的收入是US$5605 million,投入研发的费用是US$605 million&/p&&p&微软在Q117的收入是US$20500 million,投入研发的费用是US$2972 million&/p&&p&谷歌在Q117的收入是US$24750 million,投入研发的费用是US$3836 million&/p&&p&(所以说美帝做技术,中国做业务也是有一定道理的)&/p&&p&&br&&/p&&p&根据以上内容以及业务相关产生的推论:&/p&&p&百度投入研发占营收比高可能是百度营收不好,换个角度想百度是在营收不好的情况下喊出了AI当先的口号,可见壮士断腕的决心,但是做好做不好很难说。之前媒体大肆渲染的百度掉队,其实只是营收和利润没有以前高了,核心技术百度依旧有领先,要正视事实。&/p&&p&腾讯的主要营收点是P4P广告业务和游戏,为什么买绝地求生,想想LOL和王者荣耀带来的revenue就知道了,腾讯在营收比阿里高的情况下,对研发的投入比阿里少,腾讯属于BAT中入行最晚的。&/p&&p&阿里GMV增速放缓,国内市场吃的其实差不多了,为什么马云一直喊要走向国际,为什么要做AI,跟阿里的国内电商业务快要进入稳定期有关(虽然目前增长还是很强劲,但有报告指出后续阿里的GMV增速会下降,直到市场饱和)。&/p&&p&谷歌、微软对研发的投入非常高。&/p&&p&&br&&/p&&h2&&b&BAT带来营收的核心业务&/b&:&/h2&&p&这里我用Value Split百分比来衡量,百度 搜索引擎(64%),阿里巴巴core 电商(天猫,淘宝,共计72%),阿里巴巴associate 蚂蚁金服(4%) ,腾讯core (游戏55.7%,广告26.9%),腾讯investment(京东3.2%)。&/p&&p&&br&&/p&&h2&某些第三方机构对BAT的展望:&/h2&&p&百度:搜索引擎业务恢复放慢(魏则西这事影响太大),宏观变差&/p&&p&阿里:核心业务是电商,放慢的GMV growth,市场竞争加剧(唯品会、京东等等各种电商网站),吸引力变低&/p&&p&腾讯:核心业务是游戏和广告,在线游戏增长变慢(为什么今年要买绝地求生,lol、王者荣耀盈利性要下降了,游戏的特性就是时节性,多久衰退看运营和市场能力),P4P ad市场的竞争进入“惨烈”状况。&/p&&h2&&b&中国与美国AI生态的对比(截至February 2017,部分小规模未收录):&/b&&/h2&&figure&&img src=&/v2-6d_b.jpg& data-caption=&& data-rawwidth=&1218& data-rawheight=&1511& class=&origin_image zh-lightbox-thumb& width=&1218& data-original=&/v2-6d_r.jpg&&&/figure&&p&还有中国的AI生态与美国相比仍有很大差距。&/p&&p&&br&&/p&&h2&政策支持:&/h2&&figure&&img src=&/v2-ac1bdea159afb_b.jpg& data-caption=&& data-rawwidth=&1522& data-rawheight=&775& class=&origin_image zh-lightbox-thumb& width=&1522& data-original=&/v2-ac1bdea159afb_r.jpg&&&/figure&&figure&&img src=&/v2-48b08d180c976afcbe72_b.jpg& data-caption=&& data-rawwidth=&936& data-rawheight=&366& class=&origin_image zh-lightbox-thumb& width=&936& data-original=&/v2-48b08d180c976afcbe72_r.jpg&&&/figure&&p&具体的数字和产业规模在国务院关于印发新一代人工智能发展规划的通知里可以查到:&a href=&///?target=http%3A///zhengce/content//content_5211996.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&国务院关于印发新一代人工智能发展规划的通知(国发〔2017〕35号)_政府信息公开专栏&i class=&icon-external&&&/i&&/a&&/p&&p&不多说,最起码政策是支持的。&/p&&p&以上总结一下就是:&/p&&p&2020年 AI核心产业规模到达1500亿人民币,AI相关产业规模到达10000亿人民币&/p&&p&2025年 AI核心产业规模到达4000亿人民币,AI相关产业规模到达50000亿人民币&/p&&p&2030年 AI核心产业规模到达10000亿人民币,AI相关产业规模到达100000亿人民币&/p&&p&&br&&/p&&p&&b&就市场角度来说,达摩院有存在的必要性。&/b&&/p&&p&&br&&/p&&p&&br&&/p&&h2&内部环境:&/h2&&p&&br&&/p&&p&钱的问题(研发费用):&/p&&p&1000亿人民币拿当前汇率算下大致就是.436美元,约等于US$15181 million。马云说未来三年内。我们取个平均数,每年US$5060 million。&/p&&p&即使是理想状态下,达摩院跟google的 R&D费用相比还是不到一半,一定比Microsoft Research Lab 的研发费用高,这个就不用算了。&/p&&p&从阿里巴巴的FY16中可以看到,Non-GAAP Net Income是US$6629 million,所以三年内逐年上升的趋势拿出US$15181 million做达摩院还是有机会的,阿里营收也在成长,其中上面提到的核心业务China commerce在FY17中给出了25x P/E。&/p&&p&&b&钱对阿里做达摩院来说,应该不是太大的问题。&/b&&/p&&p&&br&&/p&&p&战略位置:&/p&&p&&br&&/p&&blockquote&阿里巴巴董事局主席马云曾在过去数年中多次提及阿里巴巴未来二十年的目标与路径——构建世界第五大经济体。&br&&br&“达摩院”的研究方向定位于基础科学和颠覆式创新,首批公布的研究领域包括:量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、人机自然交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。作为最高学术咨询机构,学术委员会具有的前沿学术思维与阿里巴巴的人才、技术、数据、平台有机结合,将为科技进步和人类未来生活带来极大的想象力。&br&&br&目前,阿里巴巴达摩院已经开始在全球各地组建前沿科技研究中心,主要包括亚洲达摩院、美洲达摩院、欧洲达摩院等;他们还将在北京、杭州、新加坡、以色列、圣马特奥、贝尔维尤、莫斯科等地设立不同研究方向的实验室,初期计划引入 100 名顶尖科学家和研究人员。&/blockquote&&p&其实马云的演讲表达的已经足够清楚了:&/p&&p&一、三年陆续投入1000亿(他说的五年陆续,后来新闻都是三年,应该五年是个口误或者三年是为了宣传)&/p&&p&二、研究院要做一个跟微软、英特尔、贝尔实验室、IBM不一样的研究院,要适合这个世纪的研究院&/p&&p&三、未来研究院要能够自己养活自己,没钱的走不长,只看钱的走不远,达摩院要解决问题同时有利润有研究能力,自己做一套出来。避免政府、企业、学校的赞助,自营自立。&/p&&p&四、达摩院活得要比阿里巴巴长&/p&&p&&b&独立于阿里巴巴的赚钱兼顾科研的研究院,属性更像一个科技经济体。&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&h2&人才/科研能力的问题&/h2&&p&&b&AI人才&/b&(只看到了Linkedin做了这样一个统计,&b&仅供参考&/b&,因为不知道这家的统计方式,所以&b&部分数据有待商榷&/b&,其他途径获得的数据误差目前更大,暂且用这个)&b&:&/b&&/p&&p&从LinkedIn的全球AI人才报告中可以看出,我国AI人才储备并不乐观。但是我严重怀疑这里数字的真实性。&/p&&p&&br&&/p&&p&我国AI人才有多少?我按照&b&常用的市场估算方式算下&/b&。&/p&&p&2015年全国信息传输、计算机服务和软件业就业人员共计约700万&/p&&p&2014年这个人数是672万人,其中IDC2014年的报告中给出了中国开发者人数(包含业余爱好者)共计185万。&/p&&p&700*(700/672)*(700/672)*185/672 * 0.05 约等于10.5万,这里2014年的从业者比185少个几十万没问题。%5是我根据跟各公司接触,对研发人员中从事AI工作的平均预设比例(只在今年AI岗位井喷了)为%5。&/p&&p&&b&所以LinkedIn给出这个中国5万AI领域从业者数量,我认为是可信的,并不是领英只算了自己注册用户中填写AI开发者资料的用户。&/b&&/p&&p&&br&&/p&&figure&&img src=&/v2-a9ef542feb_b.jpg& data-caption=&& data-rawwidth=&1633& data-rawheight=&1600& class=&origin_image zh-lightbox-thumb& width=&1633& data-original=&/v2-a9ef542feb_r.jpg&&&/figure&&p&按照数量从大到小依次是:美国85万&印度15万&英国14万&加拿大8万&法国5万=中国5万=澳大利亚5万&其他。&/p&&p&中国排全球第七。&/p&&p&&br&&/p&&p&AI人才断档问题严重:&/p&&figure&&img src=&/v2-86fdb1db6c6e8a2d82b22d_b.jpg& data-caption=&& data-rawwidth=&1254& data-rawheight=&911& class=&origin_image zh-lightbox-thumb& width=&1254& data-original=&/v2-86fdb1db6c6e8a2d82b22d_r.jpg&&&/figure&&p&&br&&/p&&p&阿里的国内达摩院如果想快速获得大量资深AI人才,可能要去各种挖美国墙角了。&/p&&p&恰好美国是回流中国AI人才最多的,不过美国在AI领域对人才吸引力更胜一筹。&/p&&figure&&img src=&/v2-cc91d9c8d5ef4bc18d4706cd_b.jpg& data-caption=&& data-rawwidth=&1494& data-rawheight=&1648& class=&origin_image zh-lightbox-thumb& width=&1494& data-original=&/v2-cc91d9c8d5ef4bc18d4706cd_r.jpg&&&/figure&&figure&&img src=&/v2-441d35a5c714bbf082dc_b.jpg& data-caption=&& data-rawwidth=&1480& data-rawheight=&1427& class=&origin_image zh-lightbox-thumb& width=&1480& data-original=&/v2-441d35a5c714bbf082dc_r.jpg&&&/figure&&p&当初有人私信问过我推荐系统和CV选哪个,我说CV是有背后的道理的。&/p&&figure&&img src=&/v2-0b4dfd6eb3d16d8dd55f7_b.jpg& data-caption=&& data-rawwidth=&1453& data-rawheight=&383& class=&origin_image zh-lightbox-thumb& width=&1453& data-original=&/v2-0b4dfd6eb3d16d8dd55f7_r.jpg&&&/figure&&p&国内的达摩院放在北京和杭州两地。&/p&&figure&&img src=&/v2-bc6d6986d3afe0a4ed9a_b.jpg& data-caption=&& data-rawwidth=&794& data-rawheight=&939& class=&origin_image zh-lightbox-thumb& width=&794& data-original=&/v2-bc6d6986d3afe0a4ed9a_r.jpg&&&/figure&&p&雇佣AI人才数量上:阿里有成立达摩院的动机&/p&&figure&&img src=&/v2-355f2e0b864deb200aed_b.jpg& data-caption=&& data-rawwidth=&1593& data-rawheight=&767& class=&origin_image zh-lightbox-thumb& width=&1593& data-original=&/v2-355f2e0b864deb200aed_r.jpg&&&/figure&&p&&br&&/p&&h2&科研能力:&/h2&&p&下面左图是论文数量(深色为别人引用,浅色为自引用),右图是发表物的影响因子。&/p&&figure&&img src=&/v2-f37c6bbb080f1a27d140f3c40528df68_b.jpg& data-caption=&& data-rawwidth=&1175& data-rawheight=&809& class=&origin_image zh-lightbox-thumb& width=&1175& data-original=&/v2-f37c6bbb080f1a27d140f3c40528df68_r.jpg&&&/figure&&p&从上图可得到结论如下:&/p&&p&截至统计时,AI相关领域的论文发表,中国产出了最多的论文数量,但影响力远不及美英两国,且中国自引用比例高达70%,美国自引用比例为38%。(自引用的意思是:当一篇期刊发了某个论文,同时这个期刊的另一篇文章用了这篇)。&/p&&p&推论:&/p&&p&一、中国学者制造了大量垃圾论文,且喜欢抱团刷影响因子。&/p&&p&二、英美在AI研究领域依旧是世界领先地位。&/p&&p&&b&如果达摩院仅仅靠国内人才,难以在科研领域有所作为。&/b&&/p&&p&&br&&/p&&h2&&b&成立达摩院的急迫性:&/b&&/h2&&p&&br&&/p&&p&&b&对AI在各行业市场规模的预测:&/b&&/p&&figure&&img src=&/v2-fc6fb17a6cb1e6c8c46b0dc_b.jpg& data-caption=&& data-rawwidth=&1765& data-rawheight=&852& class=&origin_image zh-lightbox-thumb& width=&1765& data-original=&/v2-fc6fb17a6cb1e6c8c46b0dc_r.jpg&&&/figure&&p&2018年 军用 US$7.5 billion&/p&&p&2025年 无人机 US$14 billion&/p&&p&2020年 农业 US$16.3 billion&/p&&p&2018年 家庭&娱乐:US$19.8 billion&/p&&p&2022年 医疗保健:US$38.6 billion&/p&&p&2025年 工业:US$55 billion&/p&&p&2020年 基于AI的分析行业:US$70 billion&/p&&p&2030年 运输业:US$87 billion&/p&&p&2020年 金融业:US$ 255 billion&/p&&p&&br&&/p&&p&&b&第六次成功的科技革命:&/b&&/p&&figure&&img src=&/v2-c62e33a1e86b8d8e00af8b24de712609_b.jpg& data-caption=&& data-rawwidth=&1781& data-rawheight=&760& class=&origin_image zh-lightbox-thumb& width=&1781& data-original=&/v2-c62e33a1e86b8d8e00af8b24de712609_r.jpg&&&/figure&&p&2021年未必会像上面描述的那样,仅供参考。&/p&&p&&br&&/p&&p&&b&这个时间节点搞这个事情对科技企业是应该的,成立达摩院也是如此。&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&&b&(截止完工已经获赞900多次,感谢大家的支持,此答案已完成V2.0版本,太费时了不再更新,如果有数据上的错误欢迎指出的同时给出相应的依据。这个答案我不再回复和看了,有问题可以私信,如果对企业咨询/数据/人工智能/在线教育方向感兴趣的可以多交流,如果有商业合作需求的话也可私信微信联系)&/b&&/p&
谢邀。 首先强调下不要无脑黑BAT,事情一码归一码。其次这个事情最好不要用“感觉”说话(不是针对各位,毕竟影响到整个行业,有必要好好说说),很多答案都是凭着对公司整体印象回答的,充满了个人情绪色彩,达摩院这个事情影响的可能是未来的经济走向、科…
&figure&&img src=&/v2-35039eedb9f91c80b8b9aa_b.jpg& data-rawwidth=&760& data-rawheight=&309& class=&origin_image zh-lightbox-thumb& width=&760& data-original=&/v2-35039eedb9f91c80b8b9aa_r.jpg&&&/figure&&blockquote&李林 允中 编译整理&br&量子位 出品 | 公众号 QbitAI&/blockquote&&p&刚送走一年一度为苹果纳肾发布会,又迎来了一年一度Google Brain AMA。&/p&&p&这是Jeff Dean第二次带着Google Brain参加美国最火社区Reddit的在线问答活动AMA(Ask Me Anything)。想深入了解谷歌大脑,围观AMA是不容错过的机会。&/p&&p&&br&&/p&&figure&&img src=&/v2-37e94f92f2b928f3b4a5c8d0edd8ea5c_b.jpg& data-rawwidth=&360& data-rawheight=&480& data-thumbnail=&/v2-37e94f92f2b928f3b4a5c8d0edd8ea5c_b.jpg& class=&content_image& width=&360&&&/figure&&p&&br&&/p&&p&&b&△&/b& 正在答疑的Google Brain团队&/p&&p&来自他们自己的动图应用Motion Stills&/p&&p&参与这次线上答题的,除了Google Senior Fellow,Google Brain负责人&b&Jeff Dean&/b&,还有:Google首席科学家,Google Brain团队技术负责人&b&Vincent Vanhoucke&/b&;Google Brain研究员,Yoshua Bengio的兄弟&b&Samy Bengio&/b&等20多人。&/p&&p&不过至量子位今早截稿时,Google Fellow、Google Brain成员&b&Geoffrey Hinton&/b&据说因为太忙,还没有亲自参与回答。不过他同组的研究员帮忙代答了一些问题。&/p&&p&&br&&/p&&figure&&img src=&/v2-65fd0cc88f513b36f29040_b.jpg& data-rawwidth=&640& data-rawheight=&331& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-65fd0cc88f513b36f29040_r.jpg&&&/figure&&p&&br&&/p&&p&回到今天的AMA。量子位连夜围观,第一时间搬运了下面这些干货。&/p&&p&我们分类整理成几个部分:&/p&&ul&&li&AI研究的未来&/li&&li&以及现状&/li&&li&关于TensorFlow&/li&&li&还有TPU&/li&&li&Google Brain的架构如何&/li&&li&工作体验又是怎样的&/li&&li&Hinton最近研究进展&/li&&/ul&&p&开始~&/p&&h2&AI研究的未来&/h2&&p&&b&AI领域接下来面临的最大障碍有哪些?&/b&Google Brain的同学们上线答题之前,这个问题就已被顶到很高。&/p&&p&&b&Jeff Dean&/b&上线回答:&/p&&p&目前,我们会倾向于为解决一个或者几个特定任务(有时候这些任务非常困难,比如语言之间的翻译),来构建机器学习系统。&/p&&p&我认为我们真的需要设计一个机器学习系统,能解决数千个、甚至数百万任务,也能从解决这些任务的过程中积累经验,学会自动解决新任务,而且模型的不同步可以根据任务来稀疏地激活。&/p&&p&在弄清楚如何解决这个问题的道路上,我们还面临很多挑战。今年年初我在斯坦福的规模化机器学习会议(Scaled ML)的演讲中有一些关于这个问题的资料,从PPT第80页开始(背景资料从62页开始)。&/p&&p&PPT地址:&a href=&/?target=https%3A///scaledml/2017/jeff.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/scaledml/20&/span&&span class=&invisible&&17/jeff.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&Vincent Vanhoucke&/b&补充:&/p&&p&让深度神经网络适应弱监督数据的在线更新(稳定!)依然是一个巨大的问题。解决了这个问题,才能搞定真正的终身学习,也能打开很多新应用的大门。&/p&&p&另一个巨大障碍是,这个领域中很多最激动人心的进展,比如说GAN、深度强化学习等等,还没到它们的“批量标准化”时刻,这个时刻到来之后,一切都默认就“想要训练”,不再需要一个超参数一个超参数地调整。&/p&&p&这些进展还不够成熟,还没从有趣的研究转变成我们可以依赖的技术。现在,我们还无法摆脱大量精确的调参工作,对这些模型进行可预测的训练,这导致我们很难把它们用到更复杂的系统中。&/p&&p&&br&&/p&&figure&&img src=&/v2-e3afdef17923ede6b291286_b.jpg& data-rawwidth=&640& data-rawheight=&320& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-e3afdef17923ede6b291286_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& Jeff Dean本尊&/p&&p&Google Brain研究员,Yoshua Bengio最强博士生之一&b&Nicolas Le Roux&/b&回答:&/p&&p&摆脱监督学习还是很难。我们知道强化学习等弱监督方法,但效率很低,而且需要大量数据,很难扩展到更复杂的问题上。&/p&&p&为了解决这个问题,我们需要提出更好的探索策略和积极的学习方法,来在保持训练可管理性的同时,获取相关信息。&/p&&p&有网友继续提问:通常大家只谈论数据集、代码的开放和复现,但是很少有人会提到计算资源。Google有大量的资源投入在AI/机器学习研究之中,比方AlphaGo就用了300个GPU进行训练。&b&大部分研究者没有这么强的计算资源,这是否会带来消极影响?&/b&&/p&&p&“我经常听到研发人员抱怨Google喜欢搞这种大规模且相当愚蠢的解决方案”,针对上面这个问题,&b&Vincent Vanhoucke&/b&回答说这些人认为Google只是投入了大量资源,但没有效率,称不上是“聪明”的成果。&/p&&p&他进一步解释说:许多伟大的进展,都发端于成本高昂的研究,然后让所有人都知道,进而开始着手进行优化。Google的第一个深度网络,训练一次要几个月,运行速度更是慢的跟牛一样。然后发现加速的方法、改进架构,现在大家都在用了。&/p&&p&“对于我们来说,重要的是探索可能的边界,我们的终极目标不是在跑分测试中获胜,而是要推动科学的进步。”&/p&&p&而Google Brain研究员、Geoffrey Hinton的学生&b&George Dahl&/b&说:&/p&&p&我们都想要更多的资源,不过,资金充裕的学术实验室现在确实能获得很多计算资源,做很多有意思的研究。&/p&&p&学术界,以及所有做开放研究的人,如果能获得更多计算资源,当然是好事,这也是我们推出TensorFlow Research Cloud(TFRC)的原因,TFRC会向机器学习研究界提供每秒180千万亿次浮点运算的计算能力,还免费。&/p&&p&总有些实验室计算资源比别人多一点,这些实验室的研究者有资源去做一些大规模实验,只要研究结果发表出来了,这个圈子都受益。这也是我们坚持发表、传播我们的论文的原因。&/p&&h2&AI研究的现状&/h2&&p&有一个问题,Google Brain团队回答得非常踊跃:&b&你们觉得哪些项目excited?为什么?&/b&&/p&&p&&b&Nicolas Le Roux&/b&对高效大规模优化感兴趣,想了解如何以在线方式从包含少量信息的数据点来手机和保留信息,来确保训练快速高效。&/p&&p&&b&Fernanda Viégas&/b&说对人类与AI交互中的各种可能性感兴趣,期待各种不是机器学习专家的人进入机器学习前沿领域,开辟新的可能性,比如社会学家、历史学家、建筑师、舞者……&/p&&p&PAIR(人类+AI研究计划,People+AI Research Initiative)项目的&b&Martin Wattenberg&/b&也关注人与机器学习系统的交互,不过和Viégas不同,他关注的是普通人,与机器之间互动的新途径。&/p&&p&&b&Vincent Vanhoucke&/b&关注的是机器人领域,他认为建立模拟和现实世界之间的连接非常一颗赛艇,现实世界中很难给机器人reward,但是通过把机器人问题转换成大规模机器学习问题。&/p&&p&&b&Jascha Sohl-Dickstein&/b&从理论研究的角度来看,说有四方面正在进行的研究,包括:表达——深度神经网络可以计算什么类型的函数?如何映射到我们想模拟的现实世界?可训练性、泛化、可解释性。&/p&&p&&b&Jasmine Hsu&/b&说在机器人操作研究的模仿学习中还有很多工作可做,对模拟与现实世界迁移的研究也在快速变化,内在动机的积极强化学习也是他的兴趣所在。&/p&&p&&br&&/p&&figure&&img src=&/v2-ed73ea56d_b.jpg& data-rawwidth=&640& data-rawheight=&499& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-ed73ea56d_r.jpg&&&/figure&&p&&br&&/p&&p&也有人要求Google Brain团队&b&谈谈用深度学习解决问题过程中遇到的失败或者痛点&/b&,如果是大规模监督学习就更好了。&/p&&p&&b&Vincent Vanhoucke&/b&:&/p&&p&我们有几个人试着和《纽约客》漫画编辑Bob Mankoff(我看他今年还发了一篇NIPS论文)合作,用这本杂志上的漫画训练一个神经网络标题生成器,给漫画写说明,结果就不太好。甚至一点都不好玩。&/p&&p&按深度学习的标准,就算可以在其他形式的漫画上对视觉表现进行预训练,我们的数据量也不算大。&/p&&p&我还是希望有一天能赢得《纽约客》那个给漫画自动生成标题的比赛,但可能得用一些传统的方法了。&/p&&p&Bob Mankoff的NIPS论文:&a href=&/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&figure&&img src=&/v2-bc9dc1de3b6a687c704c4c5ad8afee14_b.jpg& data-rawwidth=&640& data-rawheight=&315& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-bc9dc1de3b6a687c704c4c5ad8afee14_r.jpg&&&/figure&&p&&br&&/p&&p&&b&△&/b& Bob Mankoff&/p&&p&Google Brain高级研究员&b&Greg Corrado&/b&说:&/p&&p&明确地说深度学习在某某任务上不行,我是很紧张的。比如说2012年的时候,深度学习做不了机器翻译,四年过去了,它又大获全胜。&/p&&p&当我们尝试某种方式,发现不行,我们会后退一步喘口气,可能换个角度再试一次。&/p&&p&有些问题确实不能被看某个可用数据集上的监督学习,在这种情况下,深度学习这个锤子确实不管用。&/p&&p&同样一位用户,还问了个关于无监督学习的问题:&b&Google Brain团队怎么看目前无监督学习方法的状态?你们认为未来几年会有概念性的重大进步吗?&/b&&/p&&p&&b&Vincent Vanhoucke&/b&:&/p&&p&人们终于意识到自动编码(autoencoding)是个坏主意了。&/p&&p&可行和不可行的无监督学习之间的区别在于,像语言模型这样可行的无监督学习,通常是预测有因果关系的未来,比如说下一个词、下一帧图像,而不是像autoencoding那样预测现在。&/p&&p&我很高兴看到,有不少人已经开始用我们去年开源的push数据集,对“预测未来”的工作做基准测试了,真是没想到。&/p&&p&push数据集:&a href=&/?target=https%3A///site/brainrobotdata/home/push-dataset& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/site/b&/span&&span class=&invisible&&rainrobotdata/home/push-dataset&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&Yann LeCun也对他那个“樱桃vs蛋糕”的说法做了修改,不再是关于无监督学习,而是关于预测学习。&/p&&p&关于Google Brain目前在做的研究,有网友问得非常细致:&b&你们有生物学或者基因组学方面的项目吗?&/b&&/p&&p&还真有。&/p&&p&&b&Pi-Chuan Chang&/b&说,Google Brain深入参与了一系列生物学和基因组学的项目,比如通过眼底照片来筛查糖尿病视网膜病变,从病理影响中识别癌细胞,用深度学习从下一代DNA测序数据中筛查遗传变体。&/p&&p&他们最近还创建了一个基因组学团队,Alphabet里也有其他团队把深入学习技术用在生物数据上,比如Google Accelerated Sciences、Verily Life Sciences、Calico等等。&/p&&h2&关于TensorFlow&/h2&&p&去年,关于TensorFlow的问答还主要集中在“你们什么时候支持XXXX”上,而今年,由于PyTorch的快速普及,网友开始关心起更深层的问题:&/p&&p&&b&你们怎么看PyTorch?用过吗?担心自己地位不保吗?还是把PyTorch看做TF的补充?或者反过来?&/b&&/p&&p&Google Brain软件工程师&b&Alexandre Passos&/b&:&/p&&p&我认为PyTorch很赞!&/p&&p&他们做得不错,UI简单,文档写得也很好。在他们的编程模型里有很多好想法。有更多人在做机器学习库是一件好事,我们愿意看到更多想法,然后试着从里面挑最好的来用。&/p&&p&TensorFlow工程总监&b&Rajat Monga&/b&:&/p&&p&机器学习圈子很赞的一点就在于:我们会互相学习。&/p&&p&创建TensorFlow的过程中,我们从自己过去做DistBelief的经验、从像Theano那样其他的框架都学到了很多。我们还在继续向PyTorch、DyNet这些新的框架学习,也在把这些想法用到TensorFlow上。&/p&&p&我们把TensorFlow看作推进机器学习边界,把机器学习带给所有人的工具,这个圈子里的研究和想法在进步,TensorFlow也在。&/p&&p&&br&&/p&&figure&&img src=&/v2-53a93d71eb9bc770f423c6d5ae1c6fe7_b.jpg& data-rawwidth=&640& data-rawheight=&376& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-53a93d71eb9bc770f423c6d5ae1c6fe7_r.jpg&&&/figure&&p&&br&&/p&&p&&b&你们会支持ONNX吗?&/b&&/p&&p&有人提到这个问题。9月初,微软和Facebook合作发布ONNX(开放神经网络转换)工具,能让模型在框架之间迁移,目前支持PyTorch、Caffe2和CNTK。*&/p&&p&&b&Jeff Dean&/b&有点傲娇的回答了这个问题:&/p&&p&几天前他们在博客上宣布的时候,我们知道了它。我觉得如果有重大用途,TensorFlow开源社区会实现支持。&/p&&p&2015年11月TensorFlow就开放了源代码,我们保存/恢复模型数据和参数的格式,早已公之于众。&/p&&p&&b&你们会为TensorFlow和机器学习建立一种标准代码风格或者编程方法吗?&/b&人们怎么写的都有,有的好难看懂。还有,&b&Keras被放到TensorFlow里,是不是Learn就该滚粗了?&/b&同时包含两个高层API怪怪的。&/p&&p&&b&wickesbrain&/b&:&/p&&p&我能给出的最好的通用建议,就是始终用最高层的API来解决问题,这样你就能自动用上我们在背后搞出来的改进,写出最不会过时的代码。&/p&&p&关于Keras,我们现在有了一个完整的tf.keras,正在努力将Keras和之前的TF概念统一起来,已经快完工了。我们想让tf.keras只需要把完全实现Keras API所必需的符号收集到一个地方。&/p&&p&请注意,Keras并不能解决所有用例,特别是在分布式训练和更复杂的问题中。这也是我们为什么需要tf.estimator.Estimator。&/p&&p&我们将继续改进Keras和这些工具之间的整合。&/p&&p&我们很快就要开始从contrib里去掉一些东西,包括整个contrib/learn。不过,很多人都在用这个,删除它要花些时间,我们不想随便弄坏让人家的模型。&/p&&h2&关于TPU&/h2&&p&有关硬件的问题,一定不会缺席。去年问过的芯片,这次再度来袭。(这个flow怎么样?)&/p&&p&&b&关于TPU你们有什么新想法?未来5-15年机器学习硬件会有什么改变?&/b&&/p&&p&去年就有人问过TPU这件事,当时Jeff Dean相对详细的介绍了一下进展。今年5月17日,第二代TPU发布,不过AlphaGo的计算,还是基于第一代TPU。量子位也有相关报道谈到这些:《&a href=&/?target=http%3A///iFgroup_id%3Dgroup_flags%3D0& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&新AlphaGo首度揭秘&i class=&icon-external&&&/i&&/a&》、《&a href=&/?target=http%3A///iFgroup_id%3Dgroup_flags%3D0& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&详解谷歌第二代TPU&i class=&icon-external&&&/i&&/a&》等。&/p&&p&这次&b&Jeff Dean&/b&没有过多回答TPU的新进展,再次介绍了云端TPU目前免费向研究人员开放申请使用。对于未来的发展趋势,Jeff表示:&/p&&p&机器学习硬件在未来5-10年(和以后)将是一个非常有趣的额领域。对于更多计算力的需求很大,专业化的线性代数精度降低可以加速大批深度学习模型。针对机器学习优化而创造的硬件,可以提供非常好的性能并提高能效。&/p&&p&有很多大公司和一大批初创公司在这个领域各显神通,这非常令人兴奋。它们提供的硬件包括用于移动设备的低功耗机器学习硬件,以及部署大型数据中心的机器学习超级计算机等。&/p&&p&&br&&/p&&figure&&img src=&/v2-52b5afaf7c3b294e44b9_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-52b5afaf7c3b294e44b9_r.jpg&&&/figure&&p&&br&&/p&&p&&b&下一代TPU何时推出?Google会卖TPU么?它能取代GPGPU么?&/b&&/p&&p&“我们已经推出了两代TPU,欢迎猜测未来的趋势 = ) ”TensorFlow产品经理&b&Zak Stone&/b&回答了这个问题。(量子位插一句:实际上,过去新一代TPU都是在每年的Google I/O大会上发布。)&/p&&p&Stone继续补充:TPU目前只计划在Google的数据中心进行部署,我们还在大量使用GPU,并且努力让TensorFlow支持最新的GPU,比方英伟达的V100。这个领域变化很快,没有迹象表明某个平台可以通吃一切。&/p&&p&“另外GPU在机器学习之外还有很多其他用途,另外对于浮点精度有很高要求的传统HPC计算领域,GPU仍然是一个更好的选择。”&/p&&p&&br&&/p&&figure&&img src=&/v2-b887c507a0a4bcf9a3dd97_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-b887c507a0a4bcf9a3dd97_r.jpg&&&/figure&&p&&br&&/p&&h2&Google Brain的架构&/h2&&p&去年的AMA里,就有网友问过Google Brain接下来几年将如何发展。&/p&&p&Jeff Dean没有真的去预测,反倒是通过回顾团队近几年做的事,选了这么几件来说明未来的发展方向:&/p&&p&在机器学习领域做各种研究并发表论文、机器学习研究培训项目、TensorFlow、和Google内其他研究及产品团队合作、将机器学习用于机器人研究、尝试将机器学习用于医疗。&/p&&p&&b&Google Brain的团队是怎么构成的?以及怎么运作?&/b&&/p&&p&&b&Samy Bengio&/b&:&/p&&p&Brain团队的研究员、科学家自己制定自己的研究方向,而且我们鼓励研发人员们携手合作,共同解决更大的目标。我们确实有一些非常扁平的管理架构,但不总与研究项目保持一致。大家的协作通常与项目小组有关,而不是管理层级。&/p&&p&我们还在团队中增加了一个人数不断增加的职位:R-SWE(research software engineer),即研究软件工程师。R-SWE的工作包括规模化给定的算法、实现基线算法、运行各种实验等等。&/p&&p&我们会定期举行整个团队的会议,每周只有一次。我经常通过视频会议的方式,与山景城、旧金山、蒙特利尔、剑桥、纽约、苏黎世的同事见面。&/p&&blockquote&量子位今年6月底统计过一次,Google Brain当时共有正式成员48名(不含实习生),想知道他们来自哪国哪校、在研究什么,推荐阅读《&a href=&/?target=http%3A///iFgroup_id%3Dgroup_flags%3D0& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&谷歌大脑揭秘:48名成员20大研究领域&i class=&icon-external&&&/i&&/a&》。&/blockquote&&p&&b&Google Brain和DeepMind,为什么不合并?&/b&&/p&&p&这个问题&b&George Dahl&/b&首先详谈了一下:&/p&&p&两个团队有常规的合作,Brain团队大部分在加州,DeepMind团队大部分在伦敦,时差有时候会带来挑战,但我们仍然找时间一起合作。&/p&&p&我们不认为同时保留这两个团队是种浪费。与两个相互竞争的产品团队不同,两个研究团队可以基于彼此的研究,很好进行协同。我们像在学术界一样,拥有高度的研究自由。两个团队也没有研究领域的划分,大家都是根据兴趣和任务来展开工作。&/p&&p&而且两个团队规模都足够大,可以自我维持,没有必要合二为一,那可能反而更难管理。除了DeepMind不负责TensorFlow,两个团队没什么太大差别。&/p&&p&&b&Jeff Dean&/b&随后简单补充了一下:&/p&&p&去年我回答过这个问题了。&/p&&p&(量子位总结一下去年Jeff Dean的回答:DeepMind喜欢挑一个难题入手,在可控环境中展开研究。Google Brain从更为系统的层面入手,包括工具和基础设施。两个团队有合作,但时差让合作比想象中难一些。)&/p&&h2&在谷歌大脑工作是怎样的体验?&/h2&&p&这几乎是一道必答题:&b&聊聊你们团队的日常吧,选人标准是什么?&/b&&/p&&p&软件工程师&b&Alexandre Passos&/b&说:&/p&&p&我是一个TensorFlow开发者。大部分情况下,我的一天都是从阅读和分类电子邮件开始的(Google这邮件特多)。我喜欢上stackoverflow看看有什么关于TensorFlow的问题,找些有意思的回答一下。我们天都花好几个小时写代码和调试,这比我之前想象中的少。我也参与了一个研究项目,很快能发论文。所以最近我不用参加太多会议。&/p&&p&&b&Nicolas Le Roux&/b&,Google Brain研究员,Yoshua Bengio最强博士生之一。&/p&&p&我是一名在加拿大蒙特利尔的研究员。我的工作包括:与本地学术实验室建立联系、展开自己的研究、指导初级研究人员。我每天至少花一小时看看最新的论文、研究博客或者浏览arXiv。也得从会议和邮件中脱身,集中精力想想自己的项目。其余时间用来和其他研究人员交流讨论,参加会议和学术圈的活动。(我是NIPS今年的地区主席)&/p&&p&Google Brain软件工程师&b&Nick Frosst&/b&:&/p&&p&我在多伦多办公室。我们是一个很小的团队,都坐在一起,有很多时间互相讨论新的想法。我所有的工作几乎只在TensorFlow中展开。我每周和主管有两个会议,小组每周有一次会议。&/p&&p&&br&&/p&&figure&&img src=&/v2-735b67fbdd1aa717a3f8143_b.jpg& data-rawwidth=&640& data-rawheight=&286& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-735b67fbdd1aa717a3f8143_r.jpg&&&/figure&&p&&br&&/p&&p&&b&Jeff Dean&/b&:&/p&&p&我领导着Brain团队。每天我都得花时间读写电子邮件,读、评、写技术文档;和团队以及整个Google的人进行一对一或者团体会议;审查代码、写代码;思考影响团队的技术或组织问题。我有时会在内部或者外部演讲。&/p&&p&&b&Sara Hooker&/b&:&/p&&p&我是今年的35名Brain访问学者之一。我的一天经常从项目早餐会开始,余下的时间我会阅读相关领域的论文,用TensorFlow写代码,以及与我的导师和合作者见面。我经常拉着相关的同事,一起吃个午餐或者晚餐。&/p&&p&去年的访问学者Colin,把他的经历更完整的写出来了。(详情可以参考量子位此前发布的:《我在谷歌大脑这一年》)&/p&&p&&b&Samy Bengio&/b&:&/p&&p&作为研究主管,我大部分时间都用来引导团队研发重要的问题,与研究员们会面,讨论想法、了解进展、制定计划等。我还内部外部组织了一些研究活动,例如阅读小组和定期会谈。最近,我忙于NIPS程序主席的工作。&/p&&p&&b&Katherine Chou&/b&:&/p&&p&我是Brain医疗健康研发团队的产品负责人。我的时间分配在三件事上:1、研究可以提高医疗准确性和可行性的AI方法 2、与医疗从业人员进行沟通 3、找到技术落地的方式。&/p&&p&除了上面列举的几位,来自Google Brain旗下机器人、基因组学等团队的工程师们,也纷纷回答了这一问题。&/p&&h2&Hinton的Capsule&/h2&&p&capsule:胶囊,是Geoff Hinton这几年投入了最多心血的课题。&/p&&p&在去年的AMA中,Hinton就谈到过“基于capsule的神经网络”,说他在Google这3年,在这项基础研究上投入了大量精力。&/p&&p&今年,这项研究似乎有了重大突破。&/p&&p&Hinton上个月在多伦多大学讲“卷积神经网络的问题及对策”时,就谈到要在现有神经网络结构的基础上,加一个capsule的层级,每一层网络的神经元组成capsule,在内部做计算,然后输出一个压缩的结果。&/p&&p&NIPS刚刚公布的接收论文列表中,也有Sara Sabour、Nicholas Frosst和Geoffrey E Hinton合作的&b&Dynamic Routing Between Capsules&/b&。&/p&&p&今年,关心capsule的网友也不少,甚至直接点名Hinton来问:&/p&&p&&b&capsule怎么样了?&/b&&/p&&p&不过,Hinton没有参加今年的AMA,前边提到那篇NIPS论文的二作、Google Brain多伦多团队的Nick Frosst把(可能是)他们团队一起写的答案发了出来。&/p&&p&&br&&/p&&figure&&img src=&/v2-5eadeb0ce3e7_b.jpg& data-rawwidth=&640& data-rawheight=&260& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-5eadeb0ce3e7_r.jpg&&&/figure&&p&&br&&/p&&p&&b&Nick Frosst&/b&:&/p&&p&Geoff现在很忙,不过今天早上,我们一起写了这个答案:&/p&&p&capsule进行得很顺利!&/p&&p&我们组有5个人:Sara Sabour、Nicholas Frosst、Geoffrey Hinton、Eric Langois和Robert Gens,在多伦多办公室,取得了稳步进展。&/p&&p&capsule是一组神经元,它们的活动向量表示特定类型实体(比如对象或对象部分)的实例化参数。&/p&&p&我们的一篇论文最近中了NIPS spotlight,其中将capsule之间的动态路由作为一种衡量低级特征之间一致性的方式。&/p&&p&这一架构在MNIST上实现了最好的性能,而且在识别高度重叠的数字时,明显比卷积神经网络好得多。&/p&&p&我们还在研究新的路由方法,在NORB数据集上取得了不错的结果,同时也在研究新的capsule架构,可以在输入空间中保持与给定组的等价性。&/p&&p&希望这些研究结果也能很快发表。&/p&&h2&OMT&/h2&&p&最后,还有一问:&b&去Google Brain实习有年龄限制么?我今年都40大几了 :)&/b&&/p&&p&&b&Jeff Dean&/b&:2012年夏天,我请Geoffrey Hinton作为访问研究员加入团队,但由于中途出错,他当时被列为我的实习生。所以你看,我们对实习生没有任何年龄限制。&/p&&p&我们要求不多:天赋异禀、求知若渴,就像Geoffrey :)。&/p&&p&&br&&/p&&figure&&img src=&/v2-fa2fc8c29d_b.jpg& data-rawwidth=&640& data-rawheight=&412& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-f

我要回帖

更多关于 肌肉男秀肌肉 的文章

 

随机推荐