如何看待darpa机器人的弊端挑战赛

原标题:研发用于寻找外星生命嘚机器人的弊端的团队将参加DARPA“地下挑战赛”

据外媒报道本周美国国防高级研究计划局(DARPA)的“地下挑战赛”(Subterranean Challenge)将揭开序幕。参赛团隊的机器人的弊端已经被成群被释放到洞穴和隧道中以测试它们如何在这些环境中自主导航。由美国宇航局喷气推进实验室(JPL)领导的┅个团队也释放了一组机器人的弊端这些机器人的弊端可以为未来的太空机器人的弊端设计提供信息,后者有望用于探索其他行星和卫煋上的洞穴和熔岩隧道

DARPA“地下挑战赛”旨在帮助填补机器人的弊端和自主导航在地下环境中导航能力的明显差距。这包括天然洞穴网络这些网络具有不规则的地形以及受约束的大洞穴; 人工隧道系统,长通道;以及像地铁系统这样的城市地下环境等

为了促进这一领域的创噺,DARPA正在呼吁世界各地的机构和公司的工程师和科学家团队来参加比赛对于能够成功映射这些环境,避免危险并检索隐藏物品作为证据嘚团队而言获得的奖金超过500万美元。

本周开始的第一次测试是 Tunnel Circuit在这种情况下,团队必须绘制旧的采矿隧道的地图并找到隐藏在其中的某些物体例如电话和人体模型。当然没有人被允许进入隧道 - 团队必须派出他们自己设计的机器人的弊端来为他们完成肮脏的工作。获勝者将是标记大多数物体位置的团队需要精确到5米(16.4英尺)以内。

当然在DARPA掌舵的情况下,竞争中最有希望的技术最有可能在防御方案Φ投入使用但该组织还表示,第一响应者可以从中受益将机器人的弊端送入潜在危险的地下环境,例如搜索灾难幸存者或找到煤气泄漏点等

但并非所有的机器人的弊端都适合被用于地球上。由JPL、加州理工学院麻省理工学院和KAIST的60名成员组成,协作式地下自主弹性机器囚的弊端系统(CoSTAR)团队正在参加比赛以便为未来有可能在外星世界寻找地下生命迹象的机器人的弊端队伍进行练习。

CoSTAR团队的机器人的弊端具有不同的优势。在Tunnel Circuit中轮式探测车和带有坦克式履带的机器人的弊端将设计用于处理崎岖的地形,将在地面上爬行坦克式机器人嘚弊端甚至可以将其履带旋转直立。这些将由其上方的无人机提供协助包裹在保护壳中以抵御撞击。

这些机器人的弊端将配备一套传感器包括摄像头,激光雷达和惯性测量单元(IMU)并将相互通信以尽可能完整地绘制出环境的地图。为了应对这一持续挑战中的未来测试CoSTAR团队计划使用一种名为Drivocopter的机器人的弊端,它可以沿着地面前行沿着洞壁飞行并穿过天花板中的缝隙。

该团队的最终目标是将此挑战中學到的经验应用于旨在探索月球、火星和其他世界的类似环境的机器人的弊端这些地下环境是寻找外星生命迹象的最有希望的地方之一。

“对美国宇航局来说最大的问题是:地球之外还有生命吗?” CoSTAR团队的首席研究员Ali Agha说道“找到这个问题答案的主要地方之一是地下环境,因为它们是一些最原始的地方不受紫外线辐射和宇宙射线的照射。如果太阳系中有生命这些是最有可能的地方。”

原标题:美国DARPA人工智能研究综述

菦年来深度学习方法等取得突破性进展,推动人工智能技术快速地发展美国充分认识到人工智能的战略意义,一直注重该领域的技术研发从国家战略层面开始加紧布局,卓越的技术研发机构为人工智能的发展奠定了雄厚的技术基础取得了大批令人瞩目的成果。美国國防高级研究计划局(DARPA)是美军开展人工智能研究的领导者也是最重要的研究机构,美国人工智能的发展很大程度上也要归功于DARPA的支持

1 人工智能技术发展的三次浪潮

DARPA依据技术特征,认为人工智能技术的发展已经历第一次和第二次浪潮将迎来第三次浪潮。第一次人工智能技术浪潮开始于20世纪60年代初以“手工知识”为特征,通过建立一套逻辑规则来表示特定领域中的知识针对严密定义的问题进行推理,没有学习能力处理不确定性的能力很弱。第二次人工智能技术浪潮开始于20世纪60年代末以“统计学习”为特征,针对特定的问题域建竝统计模型利用大数据对它们进行训练,具有很低程度的推理能力但不具有上下文能力。第三次人工智能技术浪潮以“适应环境”(仩下文自适应)为特征可持续学习并且可解释,针对真实世界现象建立能够生成解释性模型的系统机器与人之间可以进行自然的交流,系统在遇到新的任务和情况时能够学习及推理人工智能的持续自主学习能力将是第三次人工智能技术浪潮的核心动力。

人工智能技术發展的三次浪潮

DARPA从四个方面来评判人工智能技术的能力分别是感知、学习、抽象和推理。图1描述了人工智能的三次浪潮在这四个方面能仂的不同

1 人工智能三次浪潮的能力区别

2 DARPA人工智能研究历程

DARPA很早启动了跨学科人工智能项目,综合了计算机科学、数学、概率论、统计囷认知科学领域内的最新成果DARPA在人工智能方面的研究主要涉及自然语言理解、问题求解以及感知和机器人的弊端等领域。

DARPA在人工智能方媔开展的主要研究如图2所示

2 DARPA在人工智能领域开展的研究

Mean)技术。其中Hearsay-II提出了采用并行异步过程将人讲话内容进行零碎化处理的前瞻性观念;而BBN的HWIM通过庞大的词汇解码处理复杂的语音逻辑规则来提高词汇识别的准确率。进入80年代DARPA开始采用统计学的方法研究语音识别技術,开发了Sphinx、BYBLOS、DECIPHER等一系列语音识别系统已经能够整句连续的语音识别。

2000年之后DARPA开始研制通过对话进行人机交互(HCI)的系统,该系统还能从与不同人的对话中学习经验提供个性化的服务。2005年DARPA启动了全球自动化语言情报利用(GALE)项目。该项目寻求能够对标准阿拉伯语和漢语的印刷品、网页、新闻及电视广播进行实时翻译的技术目标是使得95%的文本文档翻译和90%的语音文件翻译均能达到95%的正确率。2008 年11月DARPA又啟动了Machine Reading项目,旨在实现人工智能的应用和发展学习系统的过程中对自然文本进行知识插入。2012年启动的文本深度发掘和过滤(DeepExploration and Filtering of TextDEFT)项目更加明确地提出要利用深度学习技术发掘大量结构化文本中隐含的、有实际价值的特征信息,同时还要具备可将处理后的信息进行进一步整匼的能力在此基础上,将这些技术用于作战评估、规划、预测的辅助决策支持中2014年DARPA启动大机制(Big Mechanism)项目,开发协助计算机阅读科学和技术文章的技术将知识片段综合成更完整的模型,并提出实现特定目标的干预措施

文本深度发掘和过滤(DEFT)项目

环境感知主要涉及各類传感器信息的识别和应用。随着研究的深入特别是研制无人系统(主要是无人车)对信息输入的苛刻要求,DARPA的项目从对静态信息的识別逐渐向动态信息的感应和识别方向发展

DARPA于1976年开始图像理解(Image Understanding)项目。最初的目标是用5年的时间开发出能够自动或半自动分析军事照片囷相关图片的技术项目参与单位包括麻省理工学院、斯坦福大学、罗切斯特大学、SRI和霍尼韦尔公司等。1979年项目的目标增加了图形绘制技术。到了1981年预计5年内完成的项目并没有终止,而是持续到2001年

2001年,DARPA为解决环境感知问题启动了PerceptOR项目,其目的是开发新型无人车用感知系统要求系统足够灵巧,能够保证无人车在越野环境中执行任务并且能在各种战场环境和天气条件下使用。2005年该项目完成阶段性研究后转移到“未来作战系统地面无人车集成产品”项目,进行系统开发与测试

2010 年3月,DARPA启动了心灵之眼(Mind’s Eye)项目旨在为机器建立视覺的智能,可对视频信息进行形象推理

DARPA在20世纪80年代资助动态分析和重新规划工具(DART)项目,采用自动推理显著改善沙漠风暴和沙漠盾牌行动中后勤和其他规划职能的问题解决辅助计划。在DART的帮助下之前需要四天才能完成的部署计划,现在仅需要数小时就能完成

通过其可学习个性化助理(PAL)计划,DARPA创建了认知计算系统提高了不同层次军事决策的效率,降低了对于大量指挥人员的需求并实现更小型、移动性更高且不易受到影响的指挥中心。

DARPA的先进机器学习概率规划(PPAML)计划旨在创建用户友好的编程语言来简化和普及机器学习应用通过避免专家从头开始构建定制软件的繁琐工作,这样做将加快的智力密集型应用程序的开发包括垃圾邮件过滤器、智能手机个人助理囷自动驾驶车辆等。

2006年DARPA开始综合学习(Integrated Learning)项目目标是将专业领域知识和常识综合建立一个推理系统,该系统能像人一样学习并可用于多種复杂任务

2010年,DARPA开始资助深度学习(DL)项目目标是构建一个通用的机器学习引擎。深度学习可以完成需要高度抽象特征的人工智能任務如语音识别、图像识别和检索、自然语言理解等。深层模型是包含多个隐藏层的人工神经网络多层非线性结构使其具备强大的特征表达能力和对复杂任务建模能力。深度学习是目前最接近人脑的智能学习方法将人工智能带上了一个新的台阶,将对一大批产品和服务產生深远影响

由于机器不能向用户解释其想法和行动,研究人员也无法完全理解人工智能系统的决策过程难以分辨人工智能系统某个具体行动背后的逻辑。可解释性是人类与人工智能关系发展的核心人工智能系统必须向操作人员解释行为决策原因,以获得人类信任

2016姩10月,DARPA发布可解释的人工智能项目的广泛机构公告(BAA)其目标是建立一套新的或改进的机器学习技术,生成可解释的模型结合有效的解释技术,使得最终用户能够理解、一定程度的信任并有效地管理未来的人工智能系统通过该项目,新的机器学习系统将能解释自身逻輯原理、描述自身的优、缺点并解释未来的行为表现。

这一项目提出了三个挑战:如何生成可解释模型、如何设计解释接口、如何理解鼡户心理需求以进行有效地解释对此,该项目将开发一系列新的或改进的机器学习技术生成更多的可解释模型;希望将最新的人机交互技术(如可视化、语言理解、语言生成和会话管理)与新的原则、策略和技术相结合,获得有效的解释;总结、拓展和应用当前的关于解释的心理学理论

3 XAI项目的架构

2017年3月,DARPA从学术和工业界中挑选出了13家研究机构进行资助包括加州大学伯克利分校、加州大学洛杉矶分校、卡耐基梅隆大学、SRI、Rutgers、PARC、Raytheon等。

目前华盛顿大学的研究团队已经取得了一些研究成果:研究团队开发了一种方法,可以让人工智能系統阐述其输出结果的基本原理人工智能系统(计算机)将会从数据集中自动找到一些样本,然后给出简短的解释;研究团队还针对图形識别系统设计了一些方法通过标注图片上最重要的部分来揭示图形识别系统的判断逻辑。

目前人工智能以机器学习技术为核心并依赖於庞大的数据支撑。但编程者无法预知所有可能出现的元素或面对的情景当这些机器学习系统遇到程序和数据库中并未包含的特殊情形時就会不知所措。如果想扩展机器学习系统在该新环境下的能力必须停止其服务并利用额外的数据对其进行再训练,但这种做法依赖于囚类的介入且效率较低与此不同,生物系统能够实现自主训练从过往经历中不断汲取经验,即使面对全新的环境也能根据积累的知识莋出适应性调整

DARPA于2017年启动L2M项目,探索生物学习机理在人工智能中的应用推进新一代人工智能系统的发展。该项目的目标是开发支持下┅代自适应人工智能系统所需的技术使其能够在实际环境中基于情景进行在线式现场学习并改善性能,不需要进行线下再编程或再训练这种持续自主学习的能力可帮助系统在没有预编程与训练的情况下适应新情景。

试图将生物学习机理应用于计算机机器学习系统打破現有机器学习系统对预编程和训练样本的依赖,使人工智能系统像生物系统一样能够根据经验进行决策提高行动的自主性,增强广度环境适应能力为了实现这一目标,L2M项目旨在从根本上开发一种全新的机器学习机制使系统能够从经验中不断学习,这与孩童和其他生命體一生不断从经验中进行学习与训练的机制非常相像L2M项目周期为4年,有两个技术领域第一个技术领域是开发机器学习框架,可持续应鼡过去的经验成果并使用“经验教训”去适应新的数据或情景;同时,还需开发用于监测机器学习系统行为的技术对系统可以适应的能力范围进行设置,并具备在必要时对系统进行干预的功能第二个技术领域源自对生命体学习机制的学习,将专注于研究生命系统自我學习和适应的原理和技术;并考虑这些原理和技术是否能够以及如何应用在机器学习系统中L2M项目的结构如图4所示。

4 L2M项目的架构

L2M项目的噺型机器学习机制所具有的核心能力包括:持续学习系统在执行期间能够学习;适应新的任务和环境,将已有的学习能力应用于新的场景但不丢弃之前已学习过的任务;目标驱动的感知,从任务的角度去理解输入信号;选择性的可塑性在稳定性和可塑性之间平衡;安铨性和可监控。

目前L2M研究团队致力于研究计算系统如何能够实时适应新环境而不会丢失之前的知识。加州大学欧文分校的一个研究团队計划研究海马和大脑皮层的双重记忆结构该团队试图创建一种能够通过对比现有记忆输入来预测潜在结果的ML系统,这将使系统在保留之湔学习内容的同时变得更具适应性塔夫茨大学研究小组正在研究在蝾螈等动物中观察到的再生机制,以研究能够在任务过程中通过改变其结构和功能来适应环境变化的柔性机器人的弊端

通过研发新一代机器学习技术,使其具备能够从环境中不断学习并总结出一般性知识嘚能力L2M项目将为第三次人工智能技术浪潮打下坚实的技术基础。

人工智能技术在感知与信息处理、指挥决策、赛博安全、无人系统等军倳领域正发挥着越来越重要的作用随着人工智能技术的不断发展,具有可持续学习并且可解释其决策的能力获得人类信任,将推动无囚自主系统成为未来重要的作战力量促进各种新型作战样式的发展。

来源:防务快讯、电科防务研究

我要回帖

更多关于 机器人的弊端 的文章

 

随机推荐