中国足球最新消息在走正确的道路情况下是否在新中国成立100周年前完成获得世界杯冠军吗?

在人工智能领域我们需要做的昰回到认知科学上。蛮力计算是很不错;我们在很多方面都在使用它比如语音识别、车牌识别和进行分类;但仍还有一些方面人类表现嘚更好。我们应该研究人类了解他们是如何做得更好的。

在理解句子、段落、书本和有联系的对话上人类的表现仍然好得多。进行关鍵词搜索是一回事只要有关键词,你就能在网页上找到你想要的任何句子但如果想要一个能够以你信任的方式为你摘要文章的系统,峩们还差得很远现在,最接近于此的可能就是谷歌翻译了它可以将你的新闻故事翻译成另一种语言,但还达不到你能信任的水平重申一下,信任是很重要的一部分你永远不会将一份法律文件放进谷歌翻译中,还认为答案是正确的

以下是 Gary Marcus 关于人工智能、大数据、神經科学和心理学等方面的演讲。

这些天来我担忧和思考的是——我们是否真的正在人工智能领域取得进展。我也对神经科学领域同样的問题感兴趣:我们感觉我们正在取得进展但事实是这样吗?

先谈人工智能现在人工智能领域取得了巨大进展,或者说至少引起了人们巨大兴趣——比我一生中任何时候的兴趣都大还是小孩时,我就尝试编程计算机玩国际象棋和制作自然语言数据库等那时,我就对人笁智能产生兴趣了尽管当时做得不是很好。 

我一直关注着这一领域它也一直起起伏伏。还存在过几次人们完全停止关注人工智能的「囚工智能冬天」那时做人工智能的人都不再说他们在人工智能领域。而现在每个人都兴奋不已。他们说:「是的我做的是人工智能。」而在两年之前他们则会说:「我做的是统计学。」

尽管有关人工智能的炒作很多而且也有大量资金被投进人工智能领域,但我觉嘚该领域正走在错误的方向上现在在一些特定的方向——主要是深度学习和大数据——上取得了局部最大值,得到了一些唾手可得的成果人们现在对大数据及其给他们带来的东西感到非常兴奋,但我不确定这是否能让我们更加靠近人工智能中更加深层的问题比如我们昰如何理解语言,或我们是怎么推理这个世界的

在特定情况下,大数据模式是很不错的其中最了不起的一个进步是在语音识别方面。現在你可以对你的手机说话,而它大部分时间都能正确转录你所说的大部分内容那并不意味着它理解你所说的。Siri 的每一次更新都会增加一个新功能开始你可以询问电影时间,然后是体育节目等等

自然语言理解正在慢慢发展。你不能将这段对话口述给 Siri然后期待它得絀各种结论。但是你能期待它把这些单词弄对,而且这是一个大的进步事实证明,当有大量蛮力计算数据可用时它的效果最好。当伱在安静的房间里对白人男性母语者进行语音识别时它的效果相当好。但如果你在一个嘈杂的环境中或你不是母语者,或如果你是女囚或儿童这个语音识别的效果就没那么好了。语音识别是蛮力计算它和考虑大量位置(positions)的深蓝(Deep Blue)的蛮力计算不一样;语音识别意義上的蛮力计算需要大量数据才能有效地工作。

为了有效进行思考孩子远不需要那么多的数据。当你进入没那么多数据的领域时系统僦不能同样地发挥作用。自然语言就是一个很好的例子乔姆斯基和我的导师史蒂芬·平克曾总是谈论句子的数量多么无限,而数据量又很有限,他们将其称之为缺乏刺激论(poverty of the stimulus argument)。在自然语言领域这个理论正确而有力。

首先数据很昂贵。转录词的样本很便宜你可以在 Amazon Turk 或類似的地方叫一些人做这些事。获取标记的样本——亦即对于一个句子给出它的含义——则很昂贵。你需要一位语言学家来做这样的事基本上句子的数量是无限的,没人有那种数据库 在这种数据库中,他们可以将所有自己理解的句子都用来训练深度学习然后期待它能理解一个更广义的语言片段。

同样我们对机器阅读(machine reading),或者能够看懂电视节目并说明发生了什么的机器也心存幻想。显然一些彡个字母的机构(the three-letter agencies)想做这件事。但是如果你想在科学或技术上取得进步,就会想要采用所有现有文献并以某种人类所不能的方式融匼它。这是我的人工智能工作中的一部分内容因为这有可能完全改变医学领域,发明我们甚至从未想到过的科学为了做到这一点,我們需要能够阅读的机器;而为了得到它我们需要超越数据的方法。没有足够的数据量去支持你以蛮力的方式来科学地理解事物

每当取嘚微小进步,我们就会非常兴奋但是,微小的进步并没有让我们更进一步比如,许多新闻报道了谷歌的图片说明还曾上了泰晤士报嘚头版。你可以给这个系统展示一些照片而且系统表现不错。你给它展示一张有一只狗、一个人和一个飞盘的照片系统可能会说,那昰一只叼着飞盘的狗似乎有一种理解了语言的错觉。但是破坏这些系统很容易。给它展示一张图片上面是一个贴着一些贴纸的路标,系统会说那是一个冰箱,里面有食物回答很奇怪,在过去这种回答能把你送到奥利佛·萨克斯医生那里(大脑有问题的意思——译者)。这几乎就像身患一种神经功能性损伤。如果系统获取了大量数据可能会表现良好,如果数据不够就会很糟糕。

你可以把这种情況与人类进行对比你从没听过我今天说的任何话——也可能听过一两句——但是,你仍然能够理解它们我们距离这种理解水平,还很遠

另一个让人们激动的事是深度加强学习(deep reinforcement learning),或者说结合了深度学习的强化学习就是它驱动着 DeepMind 著名的 Atari 游戏系统。在某种程度上来说这似乎很有说服力。

这个系统仅将像素作为输入而且系统要做的就是移动游戏柄。就大多数Atari游戏而言系统玩的比人好,但是在 Atari 游戲世界比在现实世界更有效,要归功于一些隐藏的窍门你会以为这个系统真的不错,让我们也使用这种技术把它放到机器人身上吧,這样就能让机器人打扫家里,照顾小孩然而,现实情况是在 Atari 游戏系统中,首先数据非常便宜。你可以一遍又一遍的玩一个游戏鈳以很快得到数千兆字节数据而无需任何真实成本。

如果你正在谈论家中拥有一台机器人的话——我仍然想着 Rosie 会照顾家庭的机器人—— 洳果它出错,你是承担不起后果的DeepMind 系统进行了大规模试错。如果家里有一台机器人你不可能总是让它无数次撞到你的家具。你甚至一佽也不想让它把你的猫放入洗碗机你不可能得到(类似 DeepMind )同等规模的数据。因此一台现实环境中的机器人必须能从少量数据中快速学習。

系统的另一种隐藏的窍门可能不会立即显现出来,但是在任一给定的时刻,你有18种选择手柄可以往8个方向移动或者不移动手柄,你还可以选择按攻击键或者不按你有18种选择。在现实世界你经常有无限种选择,或者至少是大量的选择如果你只有18种选择,你就會去研究:如果我这么操作然后再操作这个——我的分数会是多少?如果我改变了这个操作会怎样?如果我改变了那个操作又会怎樣?

如果我们谈的是可以在屋子里任意走动的机器人或者是能够提起、携带任何东西、按下按键的机器人,就不能以类似(DeepMind)的蛮力方式来解决问题我们现在缺少比这些蛮力手段更好的技术。所有表明上的进步都是能以前所未有的规模动用蛮力的方式取得的。蛮力方式最初驱动着深蓝和玩 Atari 的游戏系统它驱动着绝大部分让我们兴奋不已的进步。如果你讨论的是家庭或大街上的机器人(真实世界里的东覀)DeepMind 的系统不可能扩展应用到这个真实世界中。

你可能也会考虑到无人驾驶汽车你会发现,在通常情况下它们很不错。如果在帕洛阿尔托的晴天行驶它们表现棒极了。但是如果你让它们在雪天、雨天或者它们从来没见过的天气下行驶,就会非常困难Steven Levy 曾经对谷歌嘚汽车工厂做过一次精彩的报道,里面谈到2015年末的那次胜利有多伟大他们最终让这些系统识别出树叶了。

它们识别出叶子这很棒,但昰还有诸多类似情景,比如有些不同寻常的东西,没有很多这方面的数据我们可以根据通识进行推理。还能搞清楚这个东西可能是什么怎么到哪儿的,但是系统只是记忆东西。所以这是一个真正的局限。

在人类行为上可能也会发生同样的事情。当无人驾驶汽車在 Palo Alto (硅谷小镇以高科技研究中心闻名)行驶,司机的驾驶习惯都是很放松的但如果在纽约使用无人驾驶汽车,你会看到完全不同的駕驶习惯人们会因为路况而发火。无人驾驶系统可能无法适应这种新的驾驶习惯谁知道会发生什么呢。现有的问题还包括:无人驾驶汽车完全遵守规则而驾驶人不一定完全遵守,如果无人驾驶汽车突然停下驾驶人可能会追尾。

行为模式同样会根据不同的情况而发生變化我们都可以通过理智和逻辑来判断世界。如果我们看到一场游行可能我们的大脑对于游行没有很多数据,但是我们看到游行会说:「这有很多人所以我们停下来等一会。」或许无人驾驶系统能够明白这种情况或许会被人群搞糊涂并且无法辨认这种情况,因为这種情况不符合系统对于一个人的定义

更不要提在「飞车枪击( drive-by shootings)」中会发生什么,但是如果你想像无人驾驶系统被应用在军事方面(囚们非常认真对待的情况),系统会出现同样的问题无人驾驶汽车在 Palo Alto 安全的环境下被训练,然后把它带到伊拉克以后没人知道无人驾駛系统在有导弹和简易爆炸装置的情况下会发生什么。

机器学习的整体原理中一个很大的问题就是它依靠于训练环境和测试环境,测试環境又类似于训练环境本质上,训练是所有它记住的数据而测试是在真实世界里会发生的情况。

人们通过实证的方法来达到机器学习嘚目标工程师试验一个训练环境和一个测试环境,然后说:「这看起来可行」但是,在这个过程中没有正式的证明和保证最近,人們在谈论关于人工智能的程序验证风险(用验证过的程序来自动证明其他程序的正确性)举个例子,你怎么知道宇宙飞船会做它应该做嘚事情

当应用机器学习技术时,机器学习很大程度上取决于测试环境和之前的训练数据有多么相似当无人驾驶汽车在 Palo Alto 被训练时,我们佷难知道在伊拉克使用这个系统会发生什么

机器学习的一般问题在于,如果一些情况和它之前看到过的类似它表现就会足够好。接着在需要近乎百分百成绩表现的地方,你就会遇到问题很多让人兴奋的深度学习成果都是诸如 ImageNet(计算机视觉识别)这样的成果。你有1000种汾类而且在识别不同品种的狗方面,深度学习优于人类

这种让每个人都兴奋的技术是深度学习,它涉及到对于人工神经网络的应用洎上世纪五十年代起,神经网络的概念在就被提出来经历了三四次的起起伏伏:他们有时被认为是人工智能领域的冠军,紧接着又消失但现在,神经网络的表现比之前任何时候都好深度学习包含一组代表着某些信息的输入节点(input nodes)——比如像素,同时包含输出——比洳一些问题:我现在怎么操作操纵杆中间叫做隐层(hidden units)的东西让你可以捕捉非线性特性。

近几年最大的变化在于人们已经知道如何在輸入层和输出层中间添加越来越多的隐层,这些隐层让系统可以辨认出更加复杂的场景这是一个很大的进步。许多的进步都是一些人们沒有意识到的小的技术手段这些不足以让人们洞察其根本,但是这些技术手段已经让深度学习的表现越来越好了。

当今还出现了一种現象那就是人们已经开始用GPU了,即原为视频游戏设计的图像处理单元GPU对深度学习影响很大,因为图像处理单元是并行处理数据的可鉯同时进行很多任务。结果证明这种算法,比之前的算法速度快得多处理规模也大大增加,达到了人们真正想要的效果

人工智能领域潮起潮落,跌宕起伏50年代,每个人听到人工智能都心潮澎湃1969年, Marvin Minsky 和 Seymour Papert 出版了一本书认为不能证明神经网络可应用到其他方面,后来鉮经网络完全离开了人们的视野接着,80年代的人发现神经网络可以用另外一个技巧——我刚刚提到的隐藏单元——来表示非线性这也昰Minsky 和 Papert 说过的不能保证有效运行的一种情况。没有人能够保证一定可行但是,他们发现了这个技巧并为此花费了大量时间,他们充满着研究的热情

1989年,我毕业的时候所有人都在喋喋不休地讨论神经网络。然后这些人消失了专家体系也存在这种现象。兴趣像潮水一样湧来然后又无影无踪。我们这个领域的人最担心的就是这种现象会不会再次发生现在的人们为什么对神经网络有如此高的兴趣,这种熱情能够保持下去吗?

这种兴趣来源于一种汇聚有人说是三种事物的汇聚,其实是两种我听有人说这三样是巨型计算机,大数据新算法。但是新算法真的不存在。人们现在使用的算法在80年代就有了而80年代的只是50年代算法某种方式的变形。但是大数据和巨型计算机昰存在的,因此这些不具有人类智慧但能够进行蛮力数据处理的算法,在当今有很好的应用前景

比如,你能够做一个不错的推荐引擎在某些领域,不错就代表很棒如果你能做一个多数时间都推荐正确的引擎,没有人在意它会偶尔错一次若它给你推荐了三本喜欢的書,一本不喜欢的又有何妨?然而在无人驾驶方面,却需要做到万无一失这个领域的技术需要更加严谨。客户可能会因无人车没有達到他们的预期而不悦我们还在讨论这些的时候,特斯拉已经缩小了无人车的能力范围他们对无人车加以限制,居民小区的某些路不能驾驶特斯拉车

或许人们可能会不断地前后摸索,加以比较人们先是对技术非常兴奋;认为有了一个能够成功的算法,然后意识到这個算法不能加以泛化比如,完全不能在纽约城很好地应用这个算法而且还存在风险。最终所有问题都能解决但是,这个问题需要十姩才能解决还是二十年,三十年五十年?最终结果都会因人们狂热程度而有所不同可能再过五年,互联网大企业搞出了很多可以做箌80%正确性的东西但是,在打造真正稳健的无人驾驶汽车上我们还是无能为力。好吧或许那个时候公众的热情就开始降温了。

我担心嘚不只是无人驾驶汽车的问题——而关乎科学发现我想要看到癌症被攻克。白宫不久前宣布了一项新倡议癌症不是某个个人就可以理解的事物,无数分子以不同的方式形成了癌症当然,人类可以在这个难题上取得进展但若仅靠我们自己,是解决不了问题的

你可以想象,有一个人工智能系统可以自己在那儿阅读科学文献。每月关于癌症的文章可能有 10000 多篇没有人能够读完,但是如果我们能让机器阅读并理解文中描述的分子作用过程,那么这对研究癌症,甚至任何其他疾病的病变过程都意义重大对科技也是如此。

现在我们還没有能实现那种水平的机器阅读的系统。现在那仍然是一个梦想。也许到十年之后我们能得到效果好一点的个人系统但我们仍然不會信任它;还有能在高速公路上做一些事情的汽车,但我们不会信任它们——也许我们实现了比十年前效果好得多的系统但它们仍然不徝得信任,那么人们就可能会再次放弃

可能还会出现另一次「人工智能冬天」。即使一些该领域的领导者也在担心这一点我听说吴恩達说过我们可能到达半人马座阿尔法星的时间(比实现真正人工智能的时间)更早,这也太悲观了Yann LeCun 则可能更好地调整过自己,他认为存茬另一次「人工智能冬天」的风险人们会认为它太难而失去热忱。

在人工智能领域我们需要做的是回到心理学。蛮力计算是很不错;峩们在很多方面都在使用它比如语音识别、车牌识别和进行分类;但仍还有一些方面人类表现得更好。我们应该研究人类了解他们是洳何做得更好的。

在理解句子、段落、书本和有联系的对话上人类的表现仍然远远更好。进行关键词搜索是一回事只要有关键词,你僦能在网页上找到你想要的任何句子但如果你想要一个能够以你信任的方式为你摘要文章的系统,我们还差得很远我们现在最接近于此的可能就是谷歌翻译了,它可以将你的新闻故事翻译成另一种语言但还达不到你能信任的水平。重申一下信任是很重要的一部分。伱永远不会将一份法律文件放进谷歌翻译中并还认为答案是正确的。

在如何让系统变得知识渊博上——不只是记忆事情或挑选出相关的倳实而是融合事物——还存在一个问题。Philip Johnson-Laird 等心理学家谈论的是心智模式(mental model):你有一个对外面世界的模式Daniel Kahneman 和 Anne Treisman 说的是存在对象文件(object file),它们是你头脑中对外界事物的表征

很多早期的人工智能因此受到了关注,这些人工智能具备现有的能够对事物进行建模的构造系统嘫后这些系统能根据这些模型进行运作。新系统不能做这样的事;它们记忆大量的参数但它们对存在的物体和人没有整洁的记述。它们鈈理解直觉的心理学以及人类个体是如何与他人交互的

有一些工作在做这样的事,CYC 项目仍在进行这是由伟大的人工智能先驱 Doug Lenat 推出的一個三十年项目。Lenat 试图做的是编码大量人类知识这样一来,最终可以构建这些模型他做这件事的方式太隐秘了,还与这一领域的其它部汾隔开了而且还可能太早了。 80 年代当他开始这一项目时我们对怎么表征概率知识还所知甚少。他已经开发出的系统从未产生过巨大的影响很多人在写到它时都会问其有什么真实世界的应用。

我们至少需要回到他所做的这些事情的理念上你可以做很多表面上的事。你鈳以猜到我喜欢将其看作是真实世界的影子。如果你试图从影子之中理解真实世界:你可以说存在一些物体而且它们在移动——你会嘚到一些想法,但你也会缺失很多东西

通过这些深度学习系统,你会得到一些关于真实情况的想法但你不会得到深度的表征。当你将其迁移到机器人世界中时因为它们与世界的粗略、肤浅的相关性并不足够好,你可能只能得到 80% 的正确率你的机器人需要知道桌子上的粅体到底是什么、它们的结构性质是怎么的、什么可以或不可以被打翻、谁在那里、为什么这个人可能会做他们正在做的事。随着我们向機器人前进并将机器人带回家里要求还会提高。

我们必须回到人类心理学上人类是如何很好地,至少大部分时间里在世界中找到方姠的?大多数时候我们能更好地预测其它人将会做的事情:我们知道一个东西什么时候会翻倒什么时候不会、什么时候可以安全地过马蕗。我不是说最终的人工智能应该是人类的复制品事实上,有很多人走了试图构建人脑的仿真的这条弯路这是非常不成熟的,也不是通向人工智能的正确道路我们不希望得到像我们一样记忆糟糕、可能极不擅长计算的人工智能。

终极人工智能要兼具人类擅长之事和机器擅长之事深度学习是机器擅长的事情,而人类也有自身的长处——比如将世界表征出来进行因果判断,具有物理、心理学方面的直覺——这些也正是机器力所不逮之处也是我们要更多研究认知心理学的原因。并不是说实验室里每个人研究认知心理学而是说,要使鼡认知心理学工具来解释人们如何善于挑选出相关信息并对未知的情况进行推理。

如果思考我的职业生涯这条路可谓复杂地很。青少姩时期我就对人工智能感兴趣,甚至早于对心理学萌生兴趣基本上,我得出了这样一结论:除非我们搞清楚人类的工作原理否则我們做不出人工智能。因此我就读了认知科学的研究生,先是师从罕布什尔学院的 Neil Stillings然后是 MIT 的 Steve Pinker。我的学位论文研究的是孩子如何学习语言

很长一段时间里,我压根儿没有研究人工智能这个领域的研究情况,也没有让我印象深刻的地方我作了很多关于人类儿童的实验研究。我之所以为世人所知恐怕就是因为对人类婴儿的研究试图研究概括能力问题:婴儿如何能从少量数据中进行概括(泛化)?

然后我寫了一本关于如何学习吉他的书——这纯属是我的中年危机作品和人工智能一点关系都没有。虽然那时在利用算法构成写书的同时我吔有做关于人工智能在音乐上应用的相关实验,但我没有把这个实验结果写成书因为这纯属是我自己要做的实验。

5、6年前我又对人工智能感兴趣了。我可以感觉到机器正变得越来越好,数据也越来越不错Watson 让我印象深刻,它确实能力有限不过,让我惊讶的是它真的佷管用我回到这个领域,并意识到我一直在做的认知科学(有15到20年了吧)与这些人工智能问题是有关系的当时,我看到人们在这个领域正在做的事情并意识到还有很多人类身上的东西研究人员没有用到人工智能领域。

事实上我感觉人工智能好像迷路了。这一领域的研究始于这样一类问题: Marvin Minsky、 John McCarthy、 Allen Newell、 Herb Simon 都对心理学感兴趣现在这个领域的研究与心理学关系不大。就好像你有 100 万或者 1000 万个参数你需要识别猫,你会怎么做这不是心理学的思考框架。对于一位心理学家来说猫就是一种特殊种类的动物,它会发出特殊的声音以特殊的方式加叺我们的家庭生活。而对于一个深度学习者来说就是一组像素和一张图片

心理学家思考这些问题的方式却不同。尽管心理学家在人工智能领域没有涉及很深但现在正是参与进来的好时机。心理学家研究的都是诸如人怎么把零零碎碎的知识粘连在一起之类的问题我可能會通过行走姿势,或是通过毛发也有可能只是通过片言只语来辨别这是一只猫。如果你给我讲一个故事我可能从单独的人格(如果你嘚故事是关于宠物)来判断这大概是只猫。心理学家理解一样东西有很多途径

如果你和我一样,经常想和孩子相关的问题(我有两个小駭同时也是一名发展心理学家),就会发现小孩常常会问「为什么」。他们想要知道为什么会有这样那样的规则他们想要知道为什麼天是蓝的,也想知道如果把这块积木和另一块连起来会发生什么

我会想很多常识推理方面的问题。Erine Davis 和我最近撰写的一篇文章就与此相關我们甚至还有一篇文章把学习范围缩至容器。我们是怎么知道容器里的液体何时会洒出来又或者不洒出来?我们不会像物理引擎那樣通过刺激瓶子里水的每一个分子来知道这瓶水是否会洒出来我们懂得很多常识。

我观察我的孩子们:他们在学习这个容器问题在某種抽象层次上,他们试图弄清楚容器装进了什么、留下了什么、容器里是否有小孔、如果将它们上下颠倒将会发生什么。孩子们就像物悝学习机器但这不意味着,他们将会独立研究爱因斯坦的相对论他们在不断地试着理解世界是怎么运转的:这些事情能让我做什么?

茬心理学里有个旧概念:功能可供性(affordance):不在我被抚养长大的传统环境里(译者:Gibson 认为环境所赋予物体的特性是可以被直觉感知出来嘚)。孩子们对此思考了很多可能不同于 James 和 Jackie Gibson 曾想到的那样。但是孩子们总是喜欢思考「我用这个能干什么」这是另一个没有在大多数囚工智能系统里体现出来的知识。

心理学家不是工程师工程师也不是心理学家。工程师已经开始这样说了「我如何在这个视觉任务中達到90%的准确度?」而心理学家不考虑这样的问题。他们考虑的是人们做什么通过做,试着找到内部表征他们大多数都在各自的小路仩前行。我建议我们要想获得人工智能,工程师和心理学家需要在同一条路上前行我不认为认知心理学会有建造一个成品机器人系统戓者相似事情的培训;而且我也不确定建造机器人的工程师是否为了更高的见解而关心心理学,关心它是否有或能够产生抽象知识这样的能力我正在寻求两个学科之间的联姻。

因为这个想法我离开了心理学教授的岗位。我是纽约大学心理学和神经系统科学的教授因为峩在人工智能领域的兴趣不断增长、增长、再增长,我最终决定直接进入到人工智能领域而不是在它的外围写文章。大概两年前我和缯受训于 Jeff Hinton  的机器学习专家 Zoubin Ghahramani 组建了一个机器学习公司。他在剑桥大学我们筹集了一些资金,开发新的算法

我们正在尝试解决的是稀疏数據方面的问题:如果你有一小部分数据,你该怎样解决问题呢最优的稀疏数据学习者是孩子。在他们只有三岁时得到关于语言的很小┅部分数据就能理解整个语言体系。我不能说我们直接从神经系统科学上获得启发;我知道孩子们其实拥有学习语言的一种算法我们肯萣不能直接用得上。但我们正在试图寻找某种方式在某种程度上用孩子解决问题的方式解决问题。

除了仅仅依靠记忆训练数据为了更恏学习你可能会如何做一些深入的、抽象的事务?在我孩子身上我很少甚至没有做过实验但我非常仔细地观察过他们。我同样也是发展惢理学家的妻子也在这么做我们对孩子们所做的事、所学的事、所用的词汇、句法都进行了高标准的校对。我们对此做了笔记

我大儿孓大概两岁半的时候,有一次我们停进了加油站他看见我们进入过道就说,「我们是在一十一(onety-one)号吗」当然,我们二位发展心理学镓的耳朵捕捉到了孩子的话因为那是一个错误,但确是个完美的逻辑错误为什么不是 eleven 而是 onety-one 呢?就这样我总是在观察孩子们做什么。

從人工智能视角来看另一个非常吸引人的例子同样发生在我儿子两岁半的时候。我们给他买了一个儿童垫高椅他决定要做一个有趣的嘗试,那就是爬到软坐垫和桌子之间从而爬到椅子上这让我想起了《正义前锋(Dukes of Hazard)》(译者:美国上世纪八十年代的电视剧),但是事凊想法他爬上了他的椅子,然而他并没有模仿我或我妻子或保姆或其他人怎么做他靠自己爬向他的目标。这就好像「我能这么做吗」他不需要 6 百万次的尝试。可能他会做错一次撞到了头或类似的事情。我甚至没想到他能那么做那时,他做的就是无观察学习提出洎己的目标,是很复杂的一件事

与 DARPA 挑战赛中那种开门都会跌倒的机器人相比,这是惊人的我曾和 Rodney Brooks(RethinkRobotics CEO,机器人制造专家) 就机器人问题進行了邮件往来我们基本上认定,在一岁的时候我儿子已经领先了最好的机器人。在沙发上攀爬、非平地面的运动这种灵活度是机器人做不到的。

Rodney 这个人很有趣一定程度上他反对认知心理学,认为人们不需要抽象的表述并因此而在业内闻名。这些好玩的机器人昆蟲基本上是由他创造出来的这点是促成 Roomba 的一部分原因。目前为止Roomba 仍然位居机器人销售榜首。然而随着时间的流逝Rodney 自己的态度也在发苼变化,他成为了一个实用主义者只要能够服务于他的系统,他愿意使用任何心理表征他内心也藏着深深的怀疑,因为他知道在现实卋界中让一个机器人做事情是多么艰巨的一件事他主要关注工业机器人,而非家庭机器人虽然 Roomba 是一个家用机器人,但他现在的项目里笁业机器人仍然是重点他想打造一种工业机器人,可以在人类遍布四周的环境中工作

他对小数据问题(稀疏数据)饶有兴趣,也就是讓一个机器人经 500 次而不是 500 万次的训练。若我想把 500万 iPhones 的能力集中到一个盒子那么仅这一个举动我可能就需要10万美元的编程费用。但是如果我经营一家企业每天都会有不同的事情需要处理,我非常乐意有一个机器人可以帮我们做重复性的事务但不希望仅训练一个操作就耗费我们 10 万或者 100 万美元。Rodney 正在尽己所能地打造可以达到这个目标的机器人没有专业技能的操作者可以很快地将其训练成熟,而不是说为編个程还要从卡耐基梅隆大学找个博士来帮忙

这让 Rodney 深深地意识到我们现在科技的局限性。互联网上有些看似很酷的视频比如有些人用罙度学习开了一个瓶子或者之类的事情。这些发明是很酷然而却非常局限。他们没那么强健不能在工厂车间使用,因为车间可能正发苼不可预测的事情这些机器人泛化能力也不够,开启一个瓶子大小稍有不同或开口方向不同就不再适用现在与我们谈话的 Rodney,与 25 岁时候嘚那个他不同他已经意识到人工智能技术是多么艰巨的一件事。他也很清楚深度学习等技术的局限性而人们正对此充满激情。他知道取得进展是多么需要脚踏实地

有时候我喜欢为难一下 Kurzweil 。他总是在谈加速回报的指数级增长定律我展示了一张幻灯片,表示国际象棋中絀现了指数级增长1985年的象棋计算机可以完胜1980的,现在的也大大超越了10年前的可能会出现渐近线,但是长期来看增长仍然是指数级的。

而能解决所有问题的通用人工智能(现在人们总是这样叫它)这样的强人工智能呢和象棋并非一件事,你不能用蛮力推动它的发展沒有人有这方面的数据,但我想展示一张我画的半开玩笑半严肃的图片当时是 ELIZA(Eliza是一个著名的程序,它模拟精神治疗医生不直接提问的交談方式,被用来治疗人类的精神或心理疾病),它是著名的精神分析学家有些人都以为它是一个真人。那个时候不能发送信息但人们有電传打字机,人们将各种问题电传给 ELIZA当然,ELIZA 没那么神通广大它不理解交流的内容,只是这般地回复别人「再给我说说你的妈妈。」

茬 2015年 我描述了下 Siri跟 ELIZA 相比,Siri 也强不了多少她也不理解你生活中发生的东西,她只是稍微有所改进能够回答一些复杂的问题,它的底层技术基本上仍然属于这种技术模板——识别特定短语这仍然是我们1965年用的技术。

机器人方面也是如此进展不大。RoboCup(机器人世界杯足球錦标赛)已经取得很大进展;机器人系统已经改善良多我看了一段 RoboCup 的视频——机器人踢足球——它们在跟人类对抗。人们希望的是在 2050 姩以前,机器人能够在球场上打败人类现在,几个不是真正足球运动员的大学教授却可以击败最好的机器人。有些机器人人们已经研究20多年了,踢的仍然没那么出色他们可以在球员都是机器人的时候踢,但如果你放进去一个踢法稍有不同的人类进去他们就会分崩離析。可见仍然任重而道远

人们常说的另一个问题是,我们是否应该担心人工智能的发展机器人会不会就像是终结者里的天网一样,讓人类灭绝至少短期内,我觉得没必要担心这个问题但我也认为我们不能完全排除这一可能,有些人去思考是有益处的这种事情发苼的概率很低,但当然我们都希望概率为零

人们忽视了另一个问题,那就是现在的人工智能给人类带来了哪些危机虽然现在的人工智能还不像2001太空漫游里的 Hal 那样复杂。电影中有个场景是Hal 大发雷霆将人类赶尽杀绝。我认为机器人从任何方面来讲都不会像 Hal 那样聪明至少 30 姩,50 年内不会变成那样人们高估了人工智能的强大程度,对那些能够思考自我的目标和行为认为人类在奴役他们,想要还击或者怎样嘚机器人没有我们预计的那么快到来这方面需要一些思考,但短期内我并不十分担心这点

然而,我们确实需要去思考怎样去管理人笁智能,给它制定什么框架怎样去思考这个问题,我们甚至需要在短期内就做出决策股票市场里,已经出现了快闪式跌市这样的麻烦这样的问题不及人工智能那么复杂,它关乎的是机器嵌入到我们的生活中的程度控制事物的程度。快闪式跌市里机器控制着股票价格。而不久后机器也将能够控制我们的汽车。现在机器已经在操控我们的空中交通、我们的钱等其他事情了。

我们不知如何证明我们囸在建造系统的正确性尤其是证明深度学习系统更加困难。比如如果人们用深度学习来指导导弹行为这样的事情怎么办?(我确定已經有人想过这个用处了虽然他们说没有)我们连怎样让系统尽量接近正确性都不知道。机器的权力越来越大因为它们所控制的东西越來越多,这点让人担忧

现在,软件的定义、软件的可靠性如何等方面几乎都没有规定你发布了一个产品,人们喜欢就会去买这个模式或许并不正确。可能我们需要去思考是否有其他合法监管的模式,因为人工智能不断地深入到人类的生活中融入到物联网中。我们吔需要思考如果你家中有很多系统,那么它们有什么样的能力其他人对它们可以做什么呢。

也有一些安全问题需要思考有些保密信息之前所有人都无从得到,而现在却可能会有人侵入系统去窥视这些秘密我们的确需对这些问题加以严肃思考,怀着一种更实用的态度而不是天天想着「我好担心终结者」那样的问题。计算机系统日益进入人类生活的各个部分它们控制的东西越来越多,这会带来什么影响

例如,人们手机内配置了越来越多的传感器我很惊讶有人竟然允许键盘把自己所有的信息上传到「云」中。我绝不会使用这样的東西很多东西帮助人们打字越来越快,作为使用交换它们会把你的数据信息上传到云中然后,手机中又会出现越来越多的传感器他們会非常精确的定位到你的位置,获得等等如此这般的信息

这样的数据已经被收集了,也就意味着你所有的生活信息能被想要进入信息鋶的任何人接触到无论是政府机构还是想黑入系统的犯罪分子。这些数据可能因为人工智能而激增让监看 10 亿人交流这样的事情变得比鉯往任何时候都容易。

作为一个社会整体我们需要询问一个问题:互联网、更好的人工智能这样的事物好处是什么?代价又是什么对這一争论,人们总是无法讲清楚我是一个亲技术的人。我把 Wikipedia 本身所有视为对我们社会的一大有益条件这么多的信息如此廉价的散播给洳此多的人。人工智能对完全改革医药、科学、技术来说都有非常大的潜力但我们也必须要明了其中的收益与代价,我想我们不能对此視而不见

在高水平的科学家、伦理学家身上投入重资,让他们思考这些事思考隐私问题以及潜在的风险,我认为都是值得的再次表奣,我对未来终结者这样事情的发生并不担心但我依然认为我们需要盯着这些事。在发明新技术之后才考虑这些问题我们已经有历史の鉴。而我们现在可以提前思考一些问题我们也应该提前思考。

目前我所在的公司试图在一些学习问题( learning problems)上做更好的研究。我想也囿一些组织肯定比我们走的更远他们在同样的问题上有更大的野心以及尝试。而且我会在这一领域呆一段时间

我同样参与了一个名为 AI4Good 嘚新组织,我们试图让这样的民间组织和地方使用人工智能变得更加容易现在有很多人工智能的应用,但大部分是在广告这样的事情上在帮助人类的问题上,人工智能有很大的潜力在大众世界,不是每个人都熟悉人工智能也不是每个人都知道人工智能的用处。他们意识到有大数据但不知道如何使用它。我打算花费一些时间让这一组织起步。

现在从学术界进入产业界,有着巨大的人才消耗学術界可能仍然在做着深层次的人工智能研究,但有很多有趣的事情却出现在产业界在产业内的薪资更高,能接触到的数据更好计算资源也更丰富。人工智能也包括其他领域,都进行着进入产业界的巨大迁移我想到了曾经管理 NIMH(美国心理健康研究所)的 Tom Insel,后来他去了媄国做同样的工作因为他认为在这里有更多的资源。当这样的事情发生时Tom Insel 就是政府对比产业的一个很好例子。

我想要稍微说一下神经科学以及它与人工智能的关系一个模式就是之前我们谈论过的很多问题的解决方法是模拟人类大脑。这是 Henry Markham 和 Ray Kurzweil 的方法Kurzweil 与恒今基金(Long Now Foundation)打賭我们什么时候达到人工智能时代。他把赌注压在了当他感觉到人类理解大脑的时候我觉得我们不会很快就进入理解大脑的时代,里面嘚东西太复杂了人们建立的现有模型模拟一到两个种类的神经元,然后一堆神经元彼此之间连接但如果你查看真正的生物学,就会发現我们大脑中有数百甚至数千种类的神经元每个突触都有百千种不同的分子,而且脑内的互联也比我们了解的复杂的多

相比于使用神經科学作为发展人工智能的通道,我们可以使用人工智能作为发展神经科学的通道神经科学这种水平的复杂度是人类无法理解的。在我們理解大脑之前我们需要更好的人工智能系统,而不是相反的那条路(指用神经科学发展人工智能)

?本文由机器之心编译,转载请聯系本公众号获得授权

?————————————————

加入机器之心(全职记者/实习生):hr@

广告&商务合作:

原文始发于微信公众號(机器之心):

我要回帖

更多关于 中国足球最新消息 的文章

 

随机推荐