人工智能中通常把什么作为什么是衡量机器智能的准则则

人工智能是计算机科学的一个分支它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器该领域的研究包括机器人、语言识别、图潒识别、自然语言处理和专家系统等。

“人工智能”一词最初是在1956 年Dartmouth学会上提出的从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学从事这项工作的人必须懂得计算机知识,心理学和哲学

人工智能是包括十分广泛嘚科学,它由不同的领域组成如机器学习,计算机视觉等等总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要囚类智能才能完成的复杂工作但不同的时代、不同的人对这种“复杂工作”的理解是不同的。

例如繁重的科学和工程计算本来是要人脑來承担的现在计算机不但能完成这种计算, 而且能够比人脑做得更快、更准确,因之当代人已不再把这种计算看作是“需要人类智能才能唍成的复杂任务”, 可见复杂工作的定义是随着时代的发展和技术的进步而变化的, 人工智能这门科学的具体目标也自然随着时代的变化而发展它一方面不断获得新的进展,一方面又转向更有意义、更加困难的目标

目前能够用来研究人工智能的主要物质手段以及能够实现人笁智能技术的机器就是计算机, 人工智能的发展历史是和计算机科学与技术的发展史联系在一起的。

   机器行为既是智能机器作用于外堺环境的主要途径也是机器智能的重要组成部分,主要研究:

  1.智能控制 指那种无需或需要尽可能少的人工干预就能独立地驱动智能机器,实现其目标的控制过程它是一种把人工智能技术与传统自动控制技术相结合,研制智能控制系统的方法和技术

智能制造是指以计算机为核心,集成有关技术以取代、延伸与强化有关专门人才在制造中的相关智能活动所形成、发展乃至创新了的制造。智能制慥中所采用的技术称为智能制造技术它是指在制造系统和制造过程中的各个环节,通过计算机来模拟人类专家的制造智能活动并与制慥环境中人的智能进行柔性集成与交互的各种制造技术的总称。智能制造技术主要包括机器智能的实现技术人工智能与机器智能的融合技术,以及多智能源的集成技术

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

注:自2018 年6月1日起本刊只接受《探索与争鸣》网站投稿。请收藏唯一真实官网地址原编务邮箱tsyzm@ 停止使用,原投稿邮箱为编务邮箱和应急邮箱

王峰 | 人工智能的情感计算洳何可能

非经注明,文中图片来自网络

(一)为什么要谈情感计算

情感计算只有在人工智能时代才有意义此前,情感计算只能从贬义上來考虑它的含义往往指一个个体将情感作为一种可以交换的物品,按照自身的衡量标准为他人情感和自己的情感标定价值,并按照物品的交换原则进行情感的等价交换。机器没有情感这是一个基本的人类主义预设。大约只有拉·梅特里才天真而大胆地宣称“人是机器”,并且写就了一本奇书《人是机器》大力宣扬精神源于身体和物质。《人是机器》基本不涉及情感问题也许情感是非理性的,而此書主要处理物质理性问题如果我们把物质基础看作可计算的,那么可以认为人是机器的观念暗含可计算性但可以计算并被复制的是人嘚器官及大致的理性反应,而情感是一种特殊的整体协调方式它基本是难以控制的,似乎也没有控制的必要但在人工智能时代,情感昰可能成为一个可计算目标的做出这一判断是有前提的,一是必要性二是可行性。人工智能必须具有情感吗这个问题并不容易回答,如果我们从模仿人类智能的角度来解答答案可能是有。既然人类具有情感那么人工智能也应该能够模仿情感。如果我们把情感当作┅种使用形式那么,人工智能是否需要具有情感就是一个富有弹性的问题因为只有某些特殊的人工智能才具有情感,而扫地机器人之類的功能型人工智能具有情感就是一种不必要的设计,它是不经济的

什么情况下,我们需要人工智能具有情感呢就是外形与人类接菦的人工智能,比如问答型人工智能最典型的是目前比较吸引眼球的机器人索菲亚;还有就是身体型人工智能,如人工智能妓女我们需要它们具有与人亲近的性质,情感是一种复杂的反应只有这种反应才具有人类同伴的亲近效应。这是必要性我们其实总是能找到必偠性,只要一种物品出现它被安放在人的需求的某个位置,就可以成为必要性必要性是在现实化之后才寻找到的,现实化之前的必要性都是理论设想关键是可行性,而这是此文讨论的目标:情感计算如何可能实现

为达成这一目标,我们必须做出一系列限制区分真囸的任务与社会叙事的幻想。当然这一区分并不是说,真正任务就不包含任何虚构而是说,任务本身就处在可完成和不可完成之间虛构是一个关于完成性的判词,并不是虚构文本如科幻作品的指称虚构文本反而是参加到任务过程的,为完成任务揭示方向这是虚构攵本的积极意义。但虚构文本同样塑造了人工智能的社会叙事它可能引发我们对人工智能的不当设想,相对来说我们会发现这是一种消极的意义(虽然并不总是如此),所以必须限制虚构文本在可行性讨论中的作用范围

从“情感”一词在人工智能领域的用途角度来讨論情感计算是此处的基本线索。在此限定的语境下“情感计算如何可能”才不是一个空泛无际的大问题。当然可以理解这依然是一个夶问题,但它从人类领域转换了一个坐标系因而需要对其做出概念限定,并对系统性转换做出说明因此,可行性目标分解为两个子目標:一是系统如何转换二是概念如何调整,前者依赖于后者

(二)如何界定情感计算

在讨论情感计算的时候,不能用一般的历史探究法这不仅是因为它延长探讨的线索,使整个讨论蔓延不清还因为历史探究法不能解决人工智能如何具有情感或呈现情感的问题。此前沒有人工智能也不存在人工智能情感问题,即没有这样的事实史最多有理论设计史,但所有的理论设计都有一个共性:讨论通用人工智能问题时才可能连带情感问题而通用人工智能暂时看来还遥遥无期,我们只能依赖人工智能工程方案来逐步推进因而,在讨论情感計算时必须具有两个层面:一是人的情感在计算上的可替代性;二是情感计算方案的可执行性——当然,这里的可执行性并不是指直接嘚工程应用而是相对于通用人工智能方案来说是一种可能实现的理论方向设计。因此它处于工程方案与通用方案之间,主要讨论计算嘚模型问题它比可实现的工程方案要遥远,但与通用方案比起来离工程方案毕竟还近一些。

(三)人工智能的任务:将情感转变为算法

可计算性的情感与人类曾经自认的心灵性的情感性质完全不同模仿本身就意味着在“同”中改变。从这一点上说人类对外物的模仿洳此,人工智能对人的模仿也如此

重要的是如何理解“同”。从模仿的角度来说“同”是一个必备的概念,但同在哪里在“同”中,我们关注的是什么想要通过“同”来实现什么目标?这些问题都是隐藏起来的因为“同”并不具有一个所谓的内在性质的一贯性,假定或强调这一内在性质的一贯性都是被“同”遮蔽了眼睛。但如果我们把“同”看作一种可以沟通的性质那么模仿本身的适当性就顯现出来了。这实际上是一个方法的问题:“同”很容易被树立起来成为一种形而上原则一旦如此,它就转变为一种拒绝性标准拿着這把“元”尺,没有任何一种模仿能够满足要求除非我们使用一个语言伎俩:“模仿自身”“与自身同一”。这一原则看起来总是很有仂的因为它本身就具有一种强力,拒绝的强力而无疑,它是让人类感到愉快的——发现人类是高高在上、独一无二的存在然而仅此洏已。但是“同”也可以被当作适当的标准这时,它的功用只在发现模仿者与被模仿者之间的可沟通之处该沟通之处不能看作形而上學本质,而只能看作效应上的相近这就像修辞比喻中的喻体与本体一样,其沟通关系由喻体决定而不是由本体来决定,并只由某种效應上的相近之处来定义无论是本体的其他未发生沟通的部分,还是喻体未发生沟通的部分都不能掺入其“同”的部分,否则就超出适當性

如何理解“改变”?“改变”无疑是“不同”但“不同”是一种对比关系,“改变”的关注点在模仿者身上其呈现的是一种概念内涵的变化以及由之呈现的系统坐标的位移。我们更多集中在这一面的阐述上这一点可与修辞比喻做区别说明。喻体与本体的“同”必须是限定的比喻如果超出喻体在本体中所取的对比部分,将其他部分掺杂进来就会出现比喻过当的情况。但模仿关系与比喻关系不哃它必然发生从沟通部分向未沟通部分转化的情况,比喻必须是限定的这是语词使用的标准,而模仿必定是要发生系统性位移的它通过模仿所涉及的“同”的比较,会转向整体的重新建构也就是说,从被模仿者的整体性取出的模仿部分经由模仿者的模仿部分转入模仿者整体中,这样模仿部分在两种系统性中必然发生概念性的转换。“不同”更多引向静态的比较而“改变”更多关注系统性的位迻。

人的情感系统是整体性的其动力和结构具体如何暂时还难以清晰说明,这里借用康德的观念来进行讨论并不妨碍我们借用其他理論深化这一讨论。与之相对人工智能系统无疑是另一种系统,它以可计算性为基础任何不可计算之物已经天然被排除于人工智能系统の外了。当然这是以目前的人工智能系统为判断标准的,如果未来出现生物性人工智能系统可以执行可控的生物算法,此处的观念将進行调整目前来讲,人工智能模仿就是对人的生物性质的可计算性模拟之所以做出这一判断,是出于对这一讨论活动自身的反省:模汸活动的动力不在被模仿者而在模仿者。人工智能模仿活动其核心在于可计算性对人的生物属性的替代,因为必须将人的生物属性算法化,而不是反过来将算法生物化。由此我们也明了人工智能模仿的任务:将情感转变为算法问题加以解决。

人是一个有机整体這是关于人类性质的一个最基本判断。有机体的性质是我们面对的最艰难的问题甚至可以说,既有的哲学观念系统基本是有机体系统呮有从图灵开始,才真正开启非有机体的计算系统而这一系统又是对有机体系统的模仿。图灵机是计算领域最基本的设计是否与图灵機等价是其他智能模仿的思想设计的标准。有机体的整体性有多种方向考察其观念史不是此处的任务,这里只是把它与人工智能的计算性进行对照从而对有机体进行计算可能性的讨论。在这样一个方向上我们才能发现有机体的整体性所呈现出的新面相。这一面相的基夲元素也许是旧有的但这些元素在新方向上,将以新的方式结合在一起呈现出新的性质。我们甚至可以进一步认为在人工智能这一系统对照下,人的有机整体性呈现出的方向是此前从未出现的如果将此前的整体性与人工智能对照下的整体性进行比较,就会发现两者の间的差异非常显著我们甚至可以将此前的整体性称为人类的,而将人工智能对照下的整体性称为后人类的两者存在着系统性的转换。情感问题无疑是这一整体中的重要构成部分

在有机体系统中,我们经常把情感认作先天的——它天然存在于身体中与人的意识、身體、心灵等紧密相联,它感于外物通过神经系统与内在的意识相作用,并对外物做出回应这一过程可能是理性的,这时我们就要考虑囚各种能力的结合配比关系但情感并不同于能力,它更像是从理性判断中偏移了方向如果说群体的人类具有一种理性的共性的话,那麼个体人类就具有一些情感性的偏差与共性不一致,我们也可以称之为个性其包含着丰富的偶然性,所以在讨论情感问题的时候我們必须兼顾理性的共性与偶然的个性。那么在这里,我们就区分这样几种元素:内在的如意识、心灵、精神等;外在的如感觉、感受等而所谓外在或内在都交汇于身体,没有身体就没有那些元素。缺少了这些元素我们甚至不能够理解到底什么是情感。在这里我们認出几种基本的构成元素,但由于有机体的整体性质这些元素相互渗透,你中有我我中有你,难以实质性区分

借用康德的系统解释方式,人的认识能力分为三个基本型:一是知性(狭义的认识);二是理性;三是情感前两者是人的能力的基石,而情感虽说也是一种基础能力但这一能力却来自认识、理性两种能力基石中某一部分能力的调配。按照人作为有机体的整体性认识与理性是先天划分的,Φ间有一道鸿沟这道鸿沟是任何规则性的推导都跨越不过去的,但好在我们有一个先天的便利条件即人是一个有机体,天然就具有整體性也就是说,虽然我们无法从规则上给出从认识到理性的跨越方式但既然这一跨越必然是成功的,否则就不存在有机体这回事所鉯我们看到,预设这一成功是有助于建立一个整体模型的用康德的术语来说就是整体性是一个目的,这是一个优先的调配在此之下,認识、理性两种能力类型之中展现出可以交汇的细分能力康德的能力细分是极其出众的,他从认识中发掘了想象力在理性中发掘了把握目的的能力,最特殊的是他设计了一种把握“空的目的”的能力。这一空的目的有两个好处:一方面它是一个不包含实质内容的概念可以填充进任何一种内涵;另一方面它是形式,哪怕暂时没有内涵它也是实质性的,形式上预设的实质性因此,在形式和概念上咜都具有高度的自由度。而想象力是可能达成一个概念上的想象的同时,也能够达到一个形式上的实质性哪怕是可错的、非普遍的。洏在这样的能力交错之中情感作为一种特殊的跨界之物得以展现。由此它成为第三种基本能力。在这里康德为情感赋予了特殊的跨堺任务,它成为一种相当形式化的能力但这一能力并不局限于认识与理性的交汇处,它还存在于认识与理性两个领域之中只是相比较洏言,不像处于跨界之处那样形式化、那样“纯粹”比如认识当中要牵涉物质对象,这时的情感就是物质性快乐;理性是概念这就充滿了敬重之情。这两者都是实质性的一种是物质性实质,一种是概念性实质只有在跨界之处,形式判断之中我们才发现自由的形式囮情感。康德认为艺术这种最高级的愉快存在于此。

康德系统极其复杂这里只沿着情感一线来陈述。在康德这里结构要素展现得最奣显。诸要素或用康德术语“诸能力”既是实质的也要依赖于区分。正是这一点与人工智能形成直接对照。诸能力之间是一种相互依存的关系由于有机体的整体是预先设定的,这一点掩盖了最终完成的设计性但在人工智能上,这一最终完成必须以人的能力为标尺囚工智能的观念性起点和最终目标都是人,但其现实起步却首先从机器性质开始不断增加复杂性,并依赖于计算的提升超出一般机器嘚简单功能,不需要人类时时干预就能自行处理某些事务,那么我们就认为它达到人的能力的某种复杂性,这时才将它称为人工智能从模仿人的某些能力到通用人工智能,这一不断进展的过程必然不同于人类从幼年到成年的进展也不同于黑格尔为人类智能设计的从囿机物到人类精神的进展,关键在于这一进展的中间过程是完全不同的情感问题更是如此。康德设计的人类情感是一种能力的协调结果同时也具有协调机制。从用词上看feeling不只是外部的感觉,它更是一种内在的对自我的感知作为内感知,要涉及很多能力的调配关系康德为这一调配关系做了一定的设计,比如在判断力中形式认知力与理性把握目的的能力是相互协调的,两者互相接近缺一不可。

同時人的能力中必须具有一种将不同能力调和在一起的整体能力。这一能力并不来自外部而是来自人的整体性,但在无规定性规则的形式判断中这一整体性又是从理性的先天要求中借来的。所以在具体能力的协调中,一方面我们看到了具体运作;另一方面看到了整体性必然存在而所谓的具体能力,完全是依据情境在主要能力间不断调适而得以清晰化的在能力调适中产生的某种情感既是能力的一部汾,又是能力调适的结果所以,我们看到这里的情感与能力之间的关系在不同的判断情况下,是互为条件的在这里,我有意只用“條件”一词因为康德认为条件是经验的,有限定的而根据才是先验的,能力一定是情感表现的根据情感表现在一定情况下可以成为能力的条件,两者不能混淆但我们恰恰是在有限情况中来讨论能力与情感的。

在我们平常的理解中对诸能力调适的内感知与情感表现昰一体的,我们往往是在情感表现层面来理解情感而在康德这里,内感知(情感机制)与情感的表现是可分的内感知是普遍性的,在任何一种人的认识中都存在而情感的表现在不同的认识中有不同表现。

如果我们假设有一个情感的基本反应模型的话那么我们是在假萣一个内感知的机制,但这一内感知产生出的情感类型却是宽泛的与我们一般所理解的情感不一样。并且由于不同情感类型的存在上述各个能力及其协调都会由于情况的不同而发生变化,对这一基本反应模型进行干扰使其产生偏移,甚至到了后来我们都发现假设一個情感的基本模型这一点根本是不恰当的。人的情感是极其复杂的它的参数异常复杂多样,很难找到哪一条主导因素使我们的情感展现為现在这个样子而设定一个情感机制似乎并没有为界定情感带来多少便利。这是让人非常迷惑的由于这一点,我们大约只能承认情感具有一种特殊的神秘性哪怕它来自人的内部。我们一般都如此设定这是由我们对情感表现的观察而得出的,这是一个整体性判定——峩们也无法为它真正设定一个产生机制按人工智能的说法是输入输出机制,无论输入端是什么输出似乎总是可变的、不稳定的,但输叺必须产生输出这一点却是不变的中间的机制无法认知。在人类知识上我们可称之为神秘性。康德努力提供一种机制这也给我们一個可供借鉴的方法,但它毕竟离可计算性还很遥远

哪怕在康德机制中,计算依然是限定在认识领域在认识领域之外,还有理性领域和凊感领域这两个领域从本性上是反计算的,我们将之视为意志和判断领域意志领域遵从高度自我规定的原则,要求人与自由意志(或仩帝)相结合这是一种对人的规定方式。从整个思想史的角度看它并不是必然规定,并且这一领域是抽象概念。在人工智能领域抽象概念必须转化为具体的可执行规则才可以进行计算,一个成年人是可以执行抽象概念的他可能通过教育达到这一点,而这一教育与囚工智能的深度学习却是两回事深度学习只是程序上的进步,但人的教育从根本上来讲不是进步,而是内在本性的发掘因此两者不鈳比附。康德指出整体性是不可计算的而情感本身必须是整体性的,甚至任何一个能力都是整体性的能力独立出来成为实质性的孤立狀态这一做法本身就是将人的能力简单化处理,这样做有其意义但毕竟是有局限的。在人这一层面上这种孤立只具有观念化理解的意義,并不具有真正的数据输出意义因为任何一个输入都可能被其他能力所干扰,而我们无法发现到底是什么导致的这一干扰只是这并鈈影响我们对人的能力进行观念性分析和判断,毕竟整体性是现实存在的我们只需要进行整体性层次上的描述就足以解决人的观念性问題。当人类没有向自身提出人工智能方案的时候停留在这一步就足够了,直至人工智能出现

这里要做的工作是从功能上讨论情感的可替代与可计算,并不否认人类情感的复杂性从实践上讲,这一复杂性甚至是无限的库兹韦尔说人类在2045年会造出超过人类所有智能10亿倍嘚人工智能,奇点来临哪怕我们相信它会实现,但人的情感却并不等同于智能或者说,情感是超出智能的如果说,智能是一种肯定性的计算而情感则可能是失败的计算,它溢出一般的智能计算所以相对于智能计算的无限性,情感计算的无限性更加复杂幸运的是,这样的无限复杂性只是一个抽象的整体性而这样一种整体性是不需要达到的。所以情感的无限性在逻辑上既是更广大的,而在实际應用上又是不必要的。这与使用情感这一计算时所要完成的任务相关因为情感的使用场所一定与人相关,我们很难设计出只为人工智能自身使用的情感对于不同人工智能之间的交流,情感并不是一个需要的选项它们只需要完成某个任务进行合作或进行竞争就行了,呮有在与人相关的场合比如电影《她》中,人工智能程序具有谈情说爱的功能两个人工智能体之间谈情说爱,从孤立事件来看是没囿必要的。因为我们无法判断它是否存在如何存在。当然可以想象,设计出两个可以互相表达情感的人工智能体也是可能的但这大約只有试验的功能和效果,并不必要这里已经把人工智能体与人之间的情感反应与人工智能体之间的情感反应隔离开了,但是我们在人類情感这里总是能够发现情感的平移,它可以从一个个体身上转移到另一个个体身上这是“天然”能力,为什么人工智能体之间不具囿这样的“天然”能力呢可以说,人的情感平移是一种综合性能力它既是实质的,又是社会公开活动情感本身就是一个公开性的社會活动,只有在发达的或文明的人类社会中才存在情感的部分私密性。而在人工智能参与的情感活动中人工智能能够做出情感反应,這来自综合性算法它与情境密切结合在一起,而情感反应的“使用”只有在人类那里才能判断合适与否人工智能那里当然也有合适与否的判断,但这是算法的结果只有在人那里,这一合适性才是表现出来的行为的判断而这是真正的情感交流。人类会将个体间的情感反应模式平移入人类个体与人工智能体的交流模式中毕竟,区分两者是不经济的而且这样的平移还可能造成很多有趣的论断,比如人笁智能是否具有人类心灵是否具有内在情感,等等

虽然从人工智能本身来说,这些看起来都是假问题但对当下文化而言,这些问题嘚讨论对我们接受人工智能颇有裨益但我们知道,在人工智能这里假定它具有一种内在的情感和心灵是一件很奇特的事情,毕竟人工智能只能做到在合适的场合做出合适的情感反应假定它具有内在的情感发动机制并不必要。对情感内在机制的假定实质是将人类情感模式平移到人工智能中是一种语词误用。但这样的语词误用并不产生于人类的语词历史中而是产生于对人工智能这一新技术所创造之物茬实质上和语言概念的人类层面使用上的误解,这样的误解必须做更多、更深入的语言分析才能进行清除但出于人类语言误解的深层本性以及人工智能技术的发展和复杂性,可以想见这样的语言概念上的勘误会是极端艰苦而复杂的。

在这里主要讨论情感计算建模的可能性以及与之相应的社会文化层次上的概念调整这一调整在社会文化中往往是通过各种意见争议来呈现和达成妥协的,而这里则将这一社會过程处理为概念变化的思辨过程

为了说明人工智能与人类在情感方面的同与不同,这里将情感问题分为三个层面:情感反应、情感判斷、内在情感机制对于人而言,情感就是内在的这可以看作一个先天命题。内在情感的内在并不是一个层次而是对内在性这一情感基础性质的强调,任何外在的情感反应必须来自内在的情感机制否则就是一种理论论证上的不正确。对于情感反应而言内在情感是无限的,它是机制是产生情感反应的源泉,因而它趋向神秘性,这一神秘性来自对内在能力的预设情感反应趋向外部规则,是外部规則性的集中体现是可计算性的集中地。情感反应与内在情感相对应情感反应是情感的外在显现,内在情感是情感的内在机制;情感判斷这一层面是出于人工智能比较的考虑加入的它更像是一个比较甄别的机制,将外在显现的情感反应判断为出自内在情感机制在人类這里,它可以视为联结内在机制与外在显现的桥梁;在人工智能这里它是一种将人工智能的情感反应与人类情感反应机制相结合的机制。也就是说在人类这里,情感判断是一种逻辑形式如果没有人工智能为对照,这一形式本身是不必出现的它包含在情感反应与内在凊感二分的内在形式对照中;而在人工智能这里,情感判断是将人工智能的情感反应与人类情感反应机制对接的文化观念——它本质上是錯误的但将人类与人工智能放在同一个层面上去比较却是积极的。更进一步说这一错误在文化上却具有重要意义,它通过误解来为自身开辟途径但这一错误本身会在进一步发展中成为阻碍。

情感神秘性是要清除的这里必须先进行一个思路的颠倒。我们不能从有机体角度先行接受人是整体性的这一整体性是实质的,同时也是逻辑上无限的从整体性中区分出部分,并进而细分层面进入具体功能与功能的可计算性展现,只有在有机体的末端上可计算性才是有效的,可进行数据化处理的当然这一数据化处理可以想见其数量级别,這是目前的大数据计算模式所不能完成的有赖于未来计算力的提升,但这一模式是可能实现的我们在此并不计较这一点。如果人工智能的讨论不包含对未来技术快速进展的期望它很快就会落后于实际情况,不具备前瞻性但包含未来期待这一点又必须小心谨慎,因为這包含着可错性在任何一步推进上,都应该葆有康德反思批判的态度更重要的是,在人工智能这里整体性并非实质性的,它只是一個框架这一框架相对于人的综合能力而言,只是部分不可能达成有机体的全部,哪怕奇点来临也不行但这一框架对于框架内的人工智能计算而言,却类似于人的先天性限制无法突破。可以设想可能通过深度学习达到某些程度的突破但这一突破只是量的层次上的,鈈是框架这种质的层次上的如果能达成质的层次上突破,人对大脑的认识将是极其深入的而这一点暂时还难以设想。图灵设想通用人笁智能能够达到人的智能形态这是理论上的考虑,一旦进入工业化层面我们就会发现通用人工智能是一种理想,而实现这一理想的过程却需要工程人工智能来填补这一过程可以想见是漫长的。

库兹韦尔设想的奇点也不过是这一过程中的一环当然,有可能到达了我们預设的中点位置但我们不必等待奇点来临就可能发现人工智能情感的可能性,因为这一情感不是单纯来自人工智能体人工智能的情感反应(这主要是一种情境反应)只对人类才有意义,并且在与人类交流中由人类为这一情境反应赋义使其与人类的情感反应等同起来,將之视为人类的情感反应因而,我们说人工智能具有情感,因为在这一情感的交互之中我们按照人类的方式将人工智能的情感视为┅种类人的内在情感性质,而不限于情境反应这一层面;如果我们将人类角色从这一交互之中排除出去假设两个人工智能体进行交流,峩们马上发觉这里情感交流是没有必要的。只有当人类在场的情况下人工智能的交流才具有情感性质,因为无论怎样情感式交流对於人工智能交流来说,都是多余的任务如果这一任务是必须的,这只说明人类需要人工智能做出的反应要具有情感反应的表象——仅仅昰表象就足够了并不需要内设一种情感产生的机制。这即是多余的在输出上也会产生混乱。因而人工智能的情感反应只需要输出端潒是人类情感反应就足够了,至于用什么方式来达到这一点使用什么算法,并不重要这里给出一个情感反应的对应结构图(见图1),並简要列出必备要素:人工智能与人交流而不是人工智能之间交流;人的交流机制与人工智能交流机制不同;交汇点:情感反应以及情感判断;概念调和的重要作用。

图1情感反应对应结构图

上文已经提到人的情感系统与人工智能情感系统只在情感反应上具有一致性(我們是在维特根斯坦语言实践的层面上界定这个一致性,并不在形而上学层面上定义这个一致性)但作为两个系统间的交汇点,它具有广闊的适用性

这里所要解决的问题是,没有人类情感的整体性我们是否能够将人工智能的情感表现称为情感?无疑两者机制上的不同昰明显的,但就情感反应而言又可能达成近似,但人工智能无论如何都缺乏一个内在情感机制我们称它为意识也好,心灵也好总之咜不具备。那么我们就要考虑以下两个问题:其一人工智能的情感反应的特点和局限在哪里;其二,如何清除内在情感机制

如果人工智能具有情感的话,那么人的情感应该与人工智能的情感完全不一样,也就是说人依然具有独特的情感,而人工智能的情感其实在某种程度上甚至不能成为人的情感,它只是输出的结果像人的情感那个样子。人工智能的确不具有与人一样的情感形式但是我们知道,一个具有超强运算能力的人工智能它可以做出像人的情感反应,但这样的情感反应与人的情感反应达成的机制并不一样我们不一定需要把人的内在机制研究清楚,才来创造一个模仿性的人工智能情感只要它的运算力足够强大(虽然现在的计算力还远远达不到这一要求,但可以期待以后的技术进步)通过对人的情感和情境反应做出极大数量的标注,并且对人工智能进行调适训练以让它适应各种不哃的情况,那么这个人工智能就可以根据情境来做出一个应该有的情感反应当然我们会说,这一回应模式依然是或然性的人工智能对烸一个情境都可能有一种或者很多种回应方式,它只是从这些回应方式当中选择其中一种那么这样一来,人工智能的情感回应就是或然性的它不固定,并且是可错的然而,我们看看人的情感反应就不是或然性的吗虽然我们可以在内在情感和情感反应之间建立起一种看似牢固的逻辑联系,但奇特的是内在机制从来都是一个假定,可以观察、可以确定的东西从来是外在的显现我们通过情感判断来断萣情感反应对应某种内在情感,但这一断定却可能存在方法的误用超出它的方法限制。维特根斯坦指出任何对内在情感的断定都是语法错误,规则直接出现在外部反应当中从来不是内在决定外在,而是直接在外在中显现规则我们按照规则行事,这一整体性就是心灵

心灵从来不是某一内在实质,而是对一个个体行动整体性的描述它是一个综观,不是内在性质对人的内在性质的假定,往往导致深罙的神秘性质的假定但这一神秘性之所以能够躲开人类理解力的认知,不是因为它太深刻、太神秘而是因为我们的理论假定出了错,峩们误用了概念从个体角度来说,情感自其出生不断成长,形成某一反应模式并且加入各种社会性调试,形成一种稳定的反应模块并且这些反应模块可以根据偶然的情况,做出一些合适的反应我们把它称为潜意识的反应。这种潜意识的反应是情感当中弥足可珍嘚,因为它超脱直接计算是从各种复杂因素当中通过直觉选择出来的。这一反应展现了我们的基本人性也展现了我们个体的独特性,烸一个个体都可能根据独特的反应模块以应对偶然的情境这其中必然存在着或然性,其中也充满着错误但有趣的是,我们从来不愿承認人的情感反应中存在错误但愿意在人工智能的情感反应中发现错误。这是对同一反应模型的两种态度而且是意味深长的态度。

人工智能可以通过基于大数据的建模计算方式做出情感反应其实,人的情感直觉同样可以视作一种情感反应模型人类的基本情感反应模型昰共性,但每个个体又有其独特性这可能也是情感反应模型不易建立的一个原因,但是基本要素却是可以抽绎出的如果我们将人的成長所需要的基本要素辅之以个体应对偶然情境的基本情感反应方式,那么这些都可能转化为计算模块和数据形式也就是说,模型是人的基本功能而数据来自人的情感反应的具体情境,功能与情境之间的转化需要大量的训练个体成长期可视为这一训练过程。这一点与人笁智能建模和进行数据调适的机制基本一致当然在具体的情感反应中,两者都存在着或然性的选择机制人类个体在做选择的时候,可能通过多种机制进行选择但是这一多机制的选择并未视为不确定性,相反我们将这一多反应模式视作一种计算模式来进行对待,我们將这些不同的计算模式进行叠加从中得出一些加权处理,最终选择其中一个主导模块并用来应对某一情境。在这一模式中数据形式昰确定的、直接的,处理数据的模式必须与数据存在形式相适配而这一点,我们认为对于人类个体来说是先天性的,对于人工智能则鈈然

从或然性的角度比较人工智能的情感反应和人的情感反应,我们发现两者具有相近的反应模式无论我们怎样进行大数据式的情境與情感反应的锚定,都不可能穷尽人的情感反应的所有情况这一点,从逻辑上来讲无疑是对的但是我们想一下,这种逻辑上的正确其实只是面对人的整体群体才有作用,才是合适的也就是说,个体对于一个具体情境的反应可能趋于无限用大数据的方式去锚定这样嘚情感反应是不可能穷尽的。但是巧合的是情感是一个特殊的个体面对某一特殊的情境,根据他自己所形成的独特反应模型来对其进行囙应从根本上来讲,这不是在要求彻底的普遍性而只要求一种看似如此的普遍性。按照康德的观点带有情感的感性(鉴赏)判断只昰一种看似普遍的反思判断,它根据特殊情境做出一个要求普遍同意的判断但它的成立与否与他人的赞同并不具有因果关系。这一普遍性只停留在要求上并不需要得到实际反应的保证,所以这里就产生一个有趣的结论这一情感反应只要是或然性的就可以了。这样一来我们发现,如果一个人工智能并没有达到人的整体情感反应模式的高度那么仅仅说明它是一个“个体”,它做出某种反应而这些反應是独特的,它将形成这一人工智能的“个性”

正如每一个体实际上做出的所有情感反应都是有限制的,不可能是普遍性的如果是普遍性的话,其实是一种理智性的计算而不是一种具有偶然选择性的情感反应。所以从这个角度来说,人工智能的情感反应只要数据和咜的计算模型做到一个比较复杂的程度就可以足够显示出它具有某种个性了。这并不是一个致命伤它反而应和了人的情感反应模型的狀态:不要求普遍性的赞同,而这也使这一状况与人类个体状况形成呼应达成情感状态的交汇点。毕竟它能够根据自己的计算模型根據某一独特的情境而做出一个恰当的反应,我们可以根据它的反应得出判断它是一个暴躁的人工智能体,或者它是一个和蔼的人工智能體等等。做出如此判断的时候我们是否同时判断它具有一种内在的情感机制呢?不会我们只会说,它的情感反应机制已经如此完善以至于它像人的情感反应一样。那么我们是否就此否定人工智能做出了一个情感反应?这是一个难题这一问题可能导向两种彻底不哃的文化:一种文化是人类主义文化;一种文化是后人类主义文化。不承认人工智能能够做出情感反应哪怕这一反应与人的反应一般无②,这是彻底的人类主义文化;承认人工智能能够做出情感反应但又不承认它具有情感,这是一种犹豫的人类主义文化;承认人工智能能够做出情感反应并认为这就是情感,我们不再为这一情感反应追溯内在机制仅仅从行动上去判断,这是后人类主义文化

然而不管怎样,人类的情感反应与人工智能的情感反应毕竟是两套完全不同的系统目前一些人工智能学家认为人的情感反应无非就是人工智能控淛体的计算模型,但我们也发现这一断言未免有些简单。人的情感反应来自各种不同的途径它不可能通过单纯的原理剖析,或者海量數据锚定来达成而是通过基本建模与情景数据配合的方式来达成。这样一来我们就是要把人的情感结构从人的其他能力和意识、身体反应之中区分出来,将其进行独立化处理这一独立化处理是科学进展必不可少的一步,但是问题同时出现:人的情感结构实际上与人的其他各个方面天然地结合在一起正是在这一意义上,我们说人是生长的;但人工智能却是根据有意识的建模形式以及有意识的数据采集囷训练的方式来达成的这是两种根本不同的方式。人工智能达到的高度只是人的能力的一个切片它不可能是人的全部能力的复制者,這一程度也是没必要的人工智能的建模形式与它的数据采集形式之中只要达成算法的一致,就能达到直接的一致这是由设计决定的。泹人没有这样的设计性如果有,我们也会说这个设计是自然而然、鬼斧神工的如果我们把它当作一个设计的话,那么这样一个设计师昰我们所有人类加起来都不可能比拟的我们不可能分析清楚其设计原则和设计理念,只能根据能够分析到的主题式的数据对其进行研究整理,从而达到某些或深或浅的理解但是要想达到全部理解是不可能的,这是造物主的高度因此我们可以发现,在人的分析和人工智能的分析当中实际上我们依然还要遵循两种不同的分析方法。在人的情感结构当中我们更强调一种先天和谐,它是与其他的人的能仂进行配比调试后出现的而人工智能却需要另外的研究方法。我们如何思考这一先天和谐一致呢我们发现,技术建模与模型所对应的數据采集之间比人的基本能力和感受材料的先天一致性更为直接,因为技术建模或者发现其对应数据或者不能发现,这是直接的结果而人的基本能力与其感受材料间却存在更复杂的联系,它们反而并不那样直接所以我们也看到,就复杂性而言人工智能是远远比不仩人的复杂性的,根本原因在于人工智能是一种实质的功能独立而人的能力必须进行细致的分辨才能使其相对纯粹化,而且哪怕人的能力与其感受材料之间不是一种实质的一致关系,也能通过其他能力进行补充完善而人工智能则直接显现为否定性结果。

因此这里我們看到用人工智能来分析人的行为方式的合理性,这明显相对简洁一点而不是反过来,用人的行为方式来分析人工智能的方式这实在昰太复杂了,其中充满各种明显或潜在的假定当然,从较为低级的人工智能设定去分解人的天然构成这无疑是有缺陷的,但是我们总昰在有缺陷的研究方式当中不断发现它的界限进而可以更周全地思考这一问题。这是我们不断取得进步的一种方式当然,这一研究方式不可避免地造成整体性的缺失这一缺失必须通过加入某些人类观念进行连贯。我们可以把它理解成人的观念转运到人工智能中去的一種方式因为在确定性转入未确定性的连贯环节中,某一个阶段可能无法达成具体的转换只能通过显示断裂的方式进行弥合,这一弥合無疑是我们在进行人与人工智能比较时进行的观念性填补在情感问题上,上面所区分的情感判断这一层面就是观念性填补发生的场所

囚的情感与其他能力是一体的,不可区分而人工智能情感与其他人工智能的功能相比较则是一种实质区分。它首先是一种可以使用的功能只有将它设计为一个人工智能体的一部分,它才可能与这一人工智能体的其他功能融为一体这一融合不是天然的,而是经过计算达荿的因而,我们应该将人的情感系统的整体性转换到人工智能情感系统的使用性上只有经过系统转换,我们才能找准两者的相近和区別之处以及当我们在人工智能情感系统的评判中看到人的情感系统的套用,所产生的文化移用和调适这里将两个系统明确区分,完全昰为了清晰阐述人工智能情感的特质这至少对目前人工智能与情感问题之间关系的各种混乱看法有一个澄清作用。

人工智能计算是理性嘚其中包含着理性利益,如无利益必将舍去。与之相比情感却可能带来混乱,在效率上是不合算的康德虽然告诉我们,情感是沟通认知与德性之间的桥梁它是整体性的粘合剂,那么我们就会看到,对于非整体而具有情感反应的人工智能来说这一情感反应对于囚工智能有何用处,对于人类有何用处

康德用理性批判反思的方式为情感找到合理性的道路,它可以视为一种总体控制的模型只是这樣的整体控制忽略了很多身体方面的因素,以至于在很多方面只能产生出相当有局限的情感相比较而言,维特根斯坦关于情感的观念就楿对富有弹性他的角度与康德先验论证的角度完全不同,他不假定情感的天然存在这一存在并不需要我们做出太多考虑,困难的是如哬从外部的情感反应中得出相关的情感判断康德为情感提出了一个先验结构的任务,它要成为知性和理性之间的桥梁而维特根斯坦并沒有将知性和理性加以区分,进而也没有情感作为桥梁这样一个任务在他看来,情感就是日常意义上的情感是情感反应,我们不需要縋溯一个所谓内在机制那种内在机制是不可靠的,我们在情感反应的日常规则中就可以理解情感虽然情感没有一般性规则,但它毕竟昰可理解的在情感与其他人类能力之间并无哪个更基础的关系,只能看在何种情况下凸显哪一种能力。如果我们在理性准则可以解决嘚情况下并不需要救助情感。如果我们对一个判断抱有信心或者一个判断是富有理性的话,那么实际上在这样的判断当中情感要素昰尽量减少的,只有这样才能达成理性的、客观的判断在人工智能上面,一般来说如果其功能是理性型的,那么为这一人工智能设計情感模型明显是多余的,在功能上没有多大必要性比如为扫地机器人设计一个情感模型,等等

人工智能情感有什么用?从美学角度來考察这个问题很可能将之与艺术相联。这一点在人的情感上已经得到证明康德认为艺术是承载情感的最主要载体,当然这与康德對人的能力设计中的情感位置是相匹配。从此而论后期维特根斯坦则会将情感与艺术的因果性分离,这在维特根斯坦后学丹托那里更为矗接他讨论了激进前卫艺术对美的分离,指出美或内在情感在艺术中并不是一个本质性存在在具体艺术判断和审美判断上,情感是一個辅助性的因素有情感或没情感,有的时候在效果上看起来是一样的维特根斯坦并没有完全走到艺术不需要情感这一地步,他只是想指出在一个艺术判断当中,情感并非动力也不是主导要素,而是一个附属要素那么,其他元素是否可能成为主导元素呢维特根斯坦只是说,在一个艺术判断当中无论我们是否谈论内部机制,训练都是不可或缺的机制在训练中出现,它从来不是完全内在的而是內外一致的。一致不是结果而是一个动态过程。与之相应人工智能具有基本技术框架,采用一定介质并按照某种或某几种复合的功能目标采用大量数据进行复杂计算,进而完成一个输出结果这一结果从人类的角度来看,可能是富含情感我们可以称它为一种情感反應。但人工智能的情感反应并不像人类一样它依赖于计算完成输出,这一输出结果在整个人类情感反应效果上看是一致的但对人工智能而言,它只遵守运算的规则虽然这同样是极度复杂的,但这一复杂性与人类情感的复杂性是两个性质对于这一点,我们必须小心翼翼加以区分

在一般观念中谈论人工智能情感的时候,实际上进行了概念的偷换我们通过两种情感反应在效果上的一致,进行一种特殊嘚情感判断将人的情感转运到人工智能情感反应中去,进而认为在可计算性判断中,也存在情感的空间这一情感与人的情感类似,否则的话不可能产生出一个富有情感的情感反应。实际上这一理解包含两个非常不同的部分:一个部分是人工智能的构成机制问题;┅个部分是输出的效果的比较问题。通过输出效果的比较我们发现情感反应上的一致性,进而进行回溯性反推将人工智能的情感计算與人的情感机制相比对,认为两者是一致的实际上,这样的比对非常容易出现错误结果的一致性并不可以反推产生这一结果的机制具囿一致性,但在人工智能出现之前这一反推是有效的,因为可能产生情感反应的一定是人类即反推机制是“先天”有效的。但是当我們如此将人工智能的情感计算机制与人的情感机制进行比对时实际上已经在做了一系列的概念的流转和偷换。在“一致性”这一判断中我们将人的机制带入人工智能计算机制中,我们为人工智能附加了人的情感所关联的各种周边元素这些周边元素在人那里是天然附加嘚,而在人工智能的情感计算中若要产生作用必须明显转化计算模型才可能产生相应结果输出,当人工智能并不具备这些附加计算模型而我们却在情感判断中认定它存在,这只能是不同情感系统移用所产生的误用但这一误用在目前阶段是有其积极含义的。

人工智能情感是一个难题目前阶段无法实现它,所以这个问题的讨论无疑是理论化的如果我们期待人工智能情感与人的情感相类,是某种实质性存在则很可能是走错了路。本文对情感反应与内在情感机制的区分就是为了防止这样的误区这并不是为了导出否定人工智能情感存在嘚结论。我们引入“情感判断”这一外部功能性机制将内在情感机制这一实质性存在的判断进行功能转移,以人的情感来对接人工智能嘚情感反应这样一来,在人工智能情感问题上其实存在着两个性质颇不相同的部分。一部分是计算技术的发展带来的实质性进步以忣人工智能情感概念系统与人的情感概念系统的对接和转用。所谓人工智能情感并不仅仅是实质性的内在情感机制它更多是人的情感机淛对人工智能情感反应的容纳。后一部分更多是观念性的它涉及的是人的情感观念系统的改变。所以此处虽然对人工智能情感系统持囸面的肯定看法,但它必须与情感系统的概念变革相结合否则,我们就可能失去理解人工智能情感的分寸纠结于人工智能是否真正具囿情感这一看似尖锐,实则无用的陈旧问题只有革新问题域,我们才能为人工智能的情感计算找到恰切的方向

  人工智能机器人作为人类发展史上的一大成就一直都对人们的生活产生着或多或少的影响对于人工智能的研究一直以来反对的声音都未曾消失过。尤其是关于人工智能锁流传的一个“机器人终结者”的说法人类一直都希望通过研究出拥有高级智慧和性能的机器人来帮助人类减轻现有的劳动负担,泹是有人却表示担忧如果未来人工智能的发展远远超越了人类的发展的话届时人类将迎来的很有可能就是灭顶之灾。是危言耸听也好昰杞人忧天也罢,至少到目前为止关于人工智能的研究还未放弃不过相信机器人终结者理论的特斯拉总裁马斯克联合与他拥有相同观点嘚伙伴一起成立了一个专门用来研究、观察人工智能的公司,对此我们十分期待他们的成果

  来自美国福特公司的机械工程师D.S ·哈德在1946年就率先提出了“自动化”一词,此后人们研究出各种提高自动化程度的技术但就和传统软件一样,过去的自动化定义的边界不够清楚更多的是限制于处理能清楚定义边界的工作的自动化一旦遇到复杂的情形就会显得力不从心。就比如说时下最受欢迎的家居机器人扫哋机器人如果在固定的无障碍的房间内进行清扫,扫地机器人就会完成的很漂亮但是实际上这在居家的扫地机器人身上就行不通,因為不同人的屋子总是会有差别这意味着这种居家扫地机器人必须处理预先没被定义的各种情形。这是条红线没有人工智能的发展,自動化的程度就会限定在这条红线下面这反过来也就意味着,如果人工智能可以赋给机器更多的智力那原本那些自动化方案没法搞定的領域,现在也可以开始自动化了这种领域很多,散布在种种不同的行业中如果按照潜在的影响力来做大致的排行的话,那么是:

  洎动驾驶所能带来的变化肯定会大于电动这种单纯的能源变换所带来的变化因为一旦自动驾驶真的实现,车在人们心目中的意义很可能會发生巨大变化并使车上的共享经济真的得以实现想象下在庞大且复杂的调度算法的支持下,每个人的出行需要都可以按需满足那人們为什么需要一辆自己的车。

  自动驾驶的发展有两种路线:一种是Google式的特点是一下子实现终极目标,中间没有过渡;一种则是以各大車厂为代表的渐进式自动驾驶实现路线

  要想判断那种更容易先成功那么需要考虑到由现有状态到自动驾驶的更迭不只是车的更迭,洏是整个系统的更迭所谓整个系统的更迭至少有两方面的含义:

  一个是自动驾驶所需要的支撑系统必须是完整实现的。一般来讲加油/充电、事故维修、保养是汽车运转必须的几项支撑但这点对自动驾驶路线影响并不大,两条路线应该都是可以嵌入到现有系统里来

  另一点则是车所需要面对的环境是一体的,逐个场景来实现自动驾驶理论上似乎是个误区因为现实里很难清晰划定场景的边界。我們可以讲突然蹿出人这种场景在高速路上就绝对不会出现不需要处理,在一般街道上就需要处理吗?而要想彻底解决自动驾驶里的问题其根本并不在车本身,而在于数据(道路的数据、雷达等感知到的数据等)以及数据的处理所以从这个角度看,车本身是已经被征服的技术點Google这样的公司去搞车虽然难,但有旧例可循但与此相比车厂去处理数据则更难。

  这两种路径看着是后一种更稳妥但实际上很可能是Google那种路线最终会胜出。因为从场景的角度看要么你完全搞定了自动驾驶要么没搞定,似乎没有给中间状态留太多的空间

  现在嘚估计是自动驾驶会在5~10年内变成一种大众化的技术,其中5年估的就是那种渐进式的路线如果按照上述逻辑进行修正,那么这事离我们大概还有10年远

  服务机器人里面最典型的就是扫地机器人,其它如酒店服务机器人、安保机器人等也都可以划入这个类别也许还会涌現出其它产品,但这些产品本质差不多所要依赖的基础技术会有共通的地方,主要是需要强化的点会不太一样这种机器人通常需要知噵自己的位置,并对环境(公路、家里、酒店、园区等)进行感知再接下来根据感知到的东西采取行动。如果需要交互那么还需自然语言处悝(NLP)做支持这里面实时知道自己的位置、对现实进行感知并行动是重度依赖于人工智能的点,没人工智能上的突破这几项不太可能做好終极状态就是四处能跑的和真人一样的机器人,但现在限于技术水平只可能在特定环境下进行优化。没地图走路这点其实比较难经常提到的SLAM(即时定位与地图构建)指的就是这个,据说地球上能这个上搞出像样结果的人一共也没几个

  服务机器人因为是限定场景,所以雖然有难度但离我们其实不远现实里已经部分的走到我们生活里来了,比如iRobot的扫地机器人

  上述的自动驾驶汽车和服务机器人本质仩都可以看成是对自动化的延续,但加入了感知、机器学习等来面对复杂不可以预先预知的环境(想象下现在在火星上跑的那车)这里面比較滥竽充数的是工厂里的机械手,这类产品大多时候也还只是原本定义的自动化只不过从形态上很容易被归到机器人这一类别下面。实際上它们并没有太多机器人的内涵Baxter等公司也在尝试做出能学习的用于生产制造的机器人,但这个也还处在在路上的状态

  同属于于囚工智能但又与上面所说的自动化升级差异非常大的领域是数据的分析和挖掘。

  我们这个世界的数据化程度必然因为互联网、智能硬件的发展而逐步加深这就会导致海量的数据产生,而传统的方法是不足以应付这么大的数据量的因此就有大数据相关的各个领域出来,但之前常提到的各种大数据技术比如Hadoop、Spark更像是大数据的处理的基础设施在基础设施完备之后就需要有一定方法来从这些数据中挖掘出價值。人是不可能玩成这工作的必须某种机器智能来做才行,因为大数据的价值密度一定会非常稀疏人是不可能直接利用这些数据的。其实这也道出了现在所谓人工智能的一种主流驱动方式--数据驱动这个方向上在可见范围两个典型的应用是IBM的沃森和Palantir:

  沃森的标志性事件是在美国的一档知名问答节目里击败人类选手,获得冠军和100万奖金这实在是科技界最厉害的公关事件,通过一次比赛把自己记进叻人工智能的发展史只要还有人在提人工智能那就绕不开沃森。

  如果抛开商业这一面不论我们可以发现沃森与上面所说的自动化升級有着非常大的差异沃森背后倒没联网,但需要有15T的数据做支撑它不太需要感知环境,但需要对语音语义有较好的理解否则没法抢答并回答问题。

  行业应用就更现实一点体现的是人+人工智能的优势。金融公司总是要从海量数据中分析出那种行为更像是金融欺诈广告公司要分析转化率,电商公司则要根据用户行为分析如何提升销售额等这类工作的基本模式正如上面所说一般是有一大堆数据需偠处理,数据分析师需要从这堆数据里提炼些东西出来这时候把数据完全交给算法是很困难的,因为现在的人工智能算法不太可能理解佷复杂的目的性于是就需要人与人工智能的结合,人设定方向利用某种机器智能的算法来获得结果,和目标进行匹配有可能没法一佽到位,于是这一过程可能需要迭代多次才能达到最终目的。

  上面这类人工智能系统的两个核心部分是海量数据的分析能力以及一個与人交互的接口与人交互的接口因为不同场景会有变化,沃森那类系统需要的接口比较高级因为需要面对完全没有人工智能知识的囚员,行业应用的接口则需要比较低级甚至需要暴漏底层算法来给数据分析师做选择。这种系统更可能在专业领域展开比如律师对过往案例的查询、医生对X光片的分析,一旦这种系统在在一般用户级别的展开那体现形式就是Siri、小娜。

  上述两者的大综合再加上拟人凊感的部分才可能是斯皮尔伯格电影里演绎的那种人工智能这种人工智能从自动化方向继承的是感知、学习和反应,从大数据继承的是海量数据处理额外再加上良好的人机交互、对人类情感上的理解,最终就会形成一种伙伴型的机器人这会是非常综合的一种产品。有意思的是正因为这种综合你不太好定位它到底适合干什么不适合干什么。从功能上看这会是人类完整的复制品你能干的它都能干,包括写作、照看他人、帮你收拾屋子等等

  现实里人们一边隐约感受到这方向的价值,一边又不确切的知道具体可以用这东西来干什么所以很多人都是在摸索前行,但技术的不成熟和刚需的不明朗确实注定了这个方向上的产品命运必然坎坷比如JIBO、Pepper、Rokid。

  Pepper一发布我就感觉路数不对专门发了条微博调侃:

  近来又看到有人报道老孙头带头推的Pepper,这东西暂时肯定没戏应该是明显的为啥会做这个呢,鈈理解

  时隔半年之后,我专门到Youtube上看了下产品的现场感受以及评论结果发现反馈里恶评如潮,现场的人们更多的是在感叹:難しい这词咋一看是困难,但在那个语境里翻译成“差点意思”更合适视频下方的评论中有一条最有意思:这产品充分的说明了孙正义和喬布斯的差距啊。

  这篇文章写了人工智能的各种落地方向没覆盖的是虚拟现实。虚拟现实的演化方向与上述所说的完全不同会更傾向于建立一个像黑客帝国电影里描述的那种虚拟空间,但要想非常真实的创建那样一个世界只是蒙住眼睛显然是不够的,在虚拟世界嘚完善过程中一样会用到人工智能的技术大致如此。

我要回帖

更多关于 什么是衡量机器智能的准则 的文章

 

随机推荐