如何评价ILSVRC2016的2016年欧洲杯比赛结果果

如何评价ILSVRC2016的比赛结果? - 知乎696被浏览29339分享邀请回答196 条评论分享收藏感谢收起如何评价今年的 ILSVRC 2014 结果? - 知乎785被浏览41331分享邀请回答winsty.net/talks/nonNN.pptx2. 正如yangqing所说,模型的优化是一个重要而又非常困难的问题。我们这次在这个方面进行了一些有益的尝试。不同优化方法对结果的影响,比我想像得要大。我希望在这方面做ML做优化的同学多来关注一些,而不是只盯着convex的问题。真实的世界总不是那么完美的。3. 尽信paper不如无paper,这世界上不work的paper远远多于work的paper,尤其是对于DL这种大坑。很多东西要自己亲自实现才会有感悟。除此之外,有一些有趣的观察和大家分享:1. 来自Oxford的VGG组一直是传统计算机视觉方法(非DL)的支持者,这可以在他们去年比赛提交中得到验证,然而今年确实使用DL最暴力的几个队之一。由此可见,DL现在在CV界的统治地位。2. 来自NUS颜水成老师组的队伍也很强悍!在detection比赛中,没有使用额外数据的情况下已经做到了mAP 37。如果使用他们的方法在classification数据上pretrain,鹿死谁手也不一定。3. 除此之外,MSRA的SPP以及CUHK的队伍也都很值得关注!4. 来自国内高校的队伍仍然与世界先进水平有显著的差距,大家要加油~另外一些不靠谱的预测:1. 计算能力仍然是目前制约着模型性能的关键,经过几年的努力GPGPU已经得到了大家的一致认可。下一步多GPU,以及GPU集群是一个不可避免的趋势。现在cuda-convnet2已经做出了一些很好的尝试。2. CNN虽然现在在CV领域里如日中天,但是开发新的deep learning结构仍然是一个open的问题。我个人一直觉得CNN并不是唯一的解决之路。3. 明年classification该换数据集或者评价标准了吧。。。大家已经把imagenet刷得比cifar还高了。。。4. Detection中可以改进的地方还有很多,很多细节问题处理得并不优美,而且没有一套统一的流程。估计detection的结果会在将来一年中继续有着惊人的提高。再来扯两句闲话。其实真正做了小半年,从只看过几篇CNN的paper到吃透caffe的code,跑起来一个很大的网络,再到找出真正work的东西,这其中的收获的点虽然不是很多,但是每一点都很充实,每一点都是血的教训换来的。在这个过程中对CNN对deep learning整个big picture的理解也在迭代加深,我想这对于以后的research是受益匪浅的。这也恰恰是我最初想参加这个比赛的一个初衷:去伪存真。在参加比赛的过程中也认识了很多很厉害的朋友。不管怎么说,这都是我PhD期间最珍贵的一份体验。以上,希望抛砖引玉,大家可以多讨论,去ECCV的同学们可以当面聊。10732 条评论分享收藏感谢收起如何评价ILSVRC2016的比赛结果? - 知乎696被浏览29339分享邀请回答1712 条评论分享收藏感谢收起版权声明:本文为博主原创文章,未经博主允许不得转载。
深度残差网络在2015的ILSVRC比赛中获得取得第一的成绩,ICLR2016上也是重点议题之一。
它主要思想很简单,就是在标准的前馈卷积网络 - zhuiqiuk的专栏 - CSDN博客
版权声明:本文为博主原创文章,未经博主允许不得转载。
深度残差网络在2015的ILSVRC比赛中获得取得第一的成绩,ICLR2016上也是重点议题之一。
它主要思想很简单,就是在标准的前馈卷积网络
版权声明:本文为博主原创文章,未经博主允许不得转载。
深度残差网络在2015的ILSVRC比赛中获得取得第一的成绩,ICLR2016上也是重点议题之一。
它主要思想很简单,就是在标准的前馈卷积网络上,加一个跳跃绕过一些层的连接。每绕过一层就产生一个残差块(residual block),卷积层预测加输入张量的残差。如下图所示:
普通的深度前馈网络难以优化。除了深度,所加层使得training和validation的错误率增加,即使用上了batch normalization也是如此。残差神经网络由于存在shorcut connections,网络间的数据流通更为顺畅。ResNet作者认为深度残差网络不太可能由于梯度消失而形成欠拟合,因为这在batch normalized network中就很难出现。残差网络结构的解决方案是,增加卷积层输出求和的捷径连接。
在facebook用Torch实现了ResNet,在github上面可以找到。
参考文献:
“Deep Residual Learning for Image Recognition”, authored by Kaiming He, Xiangyu Zhang, Shaoqing Ren and Jian Sun.
我的热门文章
即使是一小步也想与你分享CVPR&2016&深度视觉盛宴,从ImageNet比赛冠军到CVPR最佳论文
& &新智元推荐&&来源:微软研究院、WPDang作者:微软研究员、观察【新智元导读】计算机视觉和模式识别领域顶级会议CVPR 2016上月底在拉斯维加斯举行。微软亚洲研究院有多达15篇论文入选,并斩获最佳论文。本文中,微软亚洲研究院实习生张弛、张婷和张祥雨介绍了他们的参会体验。其中,CVPR'16 最佳论文作者之一的张祥雨分享了他写作论文的经验。后面,公众号 WPDang 的观察分析了微软研究院成功的原因。作者简介张弛张弛(论文:Joint Multiview Segmentation and Localization of RGB-D Images Using Depth-Induced Silhouette Consistency。 Chi Zhang, Zhiwei Li, Rui Cai, Hongyang Chao, Yong Rui)我叫张弛,是一名微软亚洲研究院实习生,本科毕业于中山大学,目前是中山大学和微软亚洲研究院联合培养博士生。曾在CVPR/ICCV/ECCV/TVCG等会议和期刊上发表论文,研究方向为立体视觉匹配和即时定位与地图构建(SLAM)。张婷张婷(论文:①Collaborative Quantization for Cross-Modal Similarity Search, Ting Zhang, Jingdong Wang. ②Supervised Quantization for Similarity Search, Xiaojuan Wang, Ting Zhang, Guo-Jun Qi, Jinhui Tang, Jingdong Wang)我叫张婷,本科毕业于中国科大少年班学院学习计算数学专业,曾参与微软亚洲研究院创新人才学院(Pre-PHD)培养项目,目前是中国科学技术大学和微软亚洲研究院联合培养博士生,在微软亚洲研究院实习。曾在ICML 2014/CVPR 2015/CVPR 2016发表论文,主要研究方向为近似最近邻搜索。张祥雨张祥雨(论文:Deep Residual Learning for Image Recognition, Kaiming He,Xiangyu Zhang, Shaoqing Ren, Jian Sun)我叫张祥雨,本科毕业于西安交通大学。三年前我参加了西安交通大学与微软亚洲研究院的联合培养博士生项目,一直实习至今。我的研究方向为深度学习与图像识别相关问题。顶级视觉盛会CVPR全称为International Conference on Computer Vision and Pattern Recognition,计算机视觉及模式识别大会。涵盖的问题包括但不限于:物体识别与检测、图像高级语义理解、人脸、优化方法、Correspondences求解、相机定位及三维地图构建(SLAM)。CVPR是计算机视觉的最大的年度聚会,今年收到投稿2,145份,接受论文643篇,接收率29.9%。与会人数也是惊人,达3,600人。去年是2800多人,今年有3609人,接近了30%的增长,这与计算机视觉在学术界和工业界得到越来越多的关注不无关系。毫无疑问,在这643篇接收文章中,深度学习再次占据了大半壁江山。主会中午就餐场景与往届不同的是,今年的CVPR增加了一种新的论文展现形式——Spotlights,有123篇优秀文章(Spotlights)拥有机会进行4分钟在听众面前宣讲他们的工作。在会议的Poster部分,所有文章的作者也可在自己的展板前与其他与会者进行面对面的交流。今年的CVPR还有许多精彩的创新之处:CVPR 2016展示了计算机视觉和深度学习领域最新的成就,包括像热门的大型视频理解和新兴的视觉问答领域问题。有史以来第一次,CVPR 2016举办了一个100个公司参加的工业展。同样有史以来第一次,CVPR 2016的组委会成员几乎全是女性。仍然有史以来第一次,CVPR 2016选出了每天的亮点,与报告者的互动提问,介绍女性研究者等等,然后每天以简报的形式推送给大家。会议现场如日中天的深度学习本次会议张祥雨同学分享的关注点主要在深度学习和图像识别方面。深度学习作为眼下最热门的机器学习框架,其在计算机视觉方面的研究和应用可谓是如日中天。据不完全统计本次会议60%以上的文章均与深度学习有关。在图像识别,尤其是图像(视频)分类、物体检测、图像语义分割等领域,深度学习已呈一统天下之势。即使是在如3D视觉、底层图像处理等传统方法相对主流的领域也有不少学者给出了自己的基于深度学习的解决方案。图像识别自从Ross Girshick等人提出基于深度卷积神经网络的物体检测方法“RCNN”以来,深度学习凭借着良好的精度逐渐成为物体检测的主流方法。之后的重要工作如“Fast RCNN”和“Faster RCNN”等更是将物体检查的准确度和速度均提升了一个档次。本次会议有5篇物体检测方面的工作进行了口头展示。其中,Abhinav Shrivastava等人在训练检测网络时通过添加困难样本,以一种非常简洁的方式取得了可观的性能提升,令人印象深刻;而在另一项工作“YOLO”(You Only Look Once: Unified, Real-Time Object Detection)中,演讲者Joseph Redmon通过幽默的语言和生动的现场展示,介绍了他们是如何设计算法框架以同时满足高精度和高实时性的要求。值得一提的是,Ross Girshick本人在这两个工作中均有贡献,足见其在物体检测领域“超级大牛”的地位。&“YOLO”系统的现场展示作为图像识别问题的重要分支,图像语义分割(Semantic Segmentation)同样吸引了一批顶尖科学家投入研究。张祥雨所在的微软亚洲研究院视觉计算组通过对图像分割问题中的多个目标函数进行级联式的联合训练,在MS COCO等数据集上取得了明显的性能提升。该项工作是去年ImageNet & MS COCO比赛中微软冠军团队技术体系中的重要一环。此外,视觉计算组的另一篇有关图像语义分割的文章Scribble Sup: Scribble-Supervised Convolutional Networks for Semantic Segmentation也在会议上做了口头展示。视觉问答(VQA)视觉问答是近年来迅速兴起的研究课题。该问题的一般提法为:给定一张图片,以及一句使用自然语言描述的和图像相关的问题,视觉问答系统需要对该问题做出回答。可见,该课题同时涉及了图像识别和自然语言理解,更具挑战。而近年来深度神经网络在图像识别和自然语言处理的迅猛发展,为解决视觉问答问题提供了重要的思路。本次会议上视觉问答相关的文章几乎都采用了深度学习的方法。&值得一提的是,今年年初的视觉问答挑战赛(VQA Challenge)的比赛结果也在本次会议的视觉问答专题会议上公布。Yuandong Tian (田渊栋)等一批著名科学家被邀请在讨论会上发言。本次比赛设有4个挑战项目,共有20多支队伍参加角逐。张祥雨表示:“颇感荣幸的是,本次比赛所有项目的前三名均使用了我们发表的152层深度残差网络作为图像特征的提取模型,再次表明了我们的方法在不同的应用场景下均具有较强的推广能力。”视觉问答专题讨论会灵感碰撞的专题研讨会今年的主讲嘉宾请来了神的平方级人物Amnon Shashua教授。Ammon是耶路撒冷大学的教授以及Mobileye公司的创始人。Ammon在会上给同学们分享了他对自动驾驶、深度学习、汽车市场的一些见解。神的平方级人物 Prof. Amnon ShashuaKeynote刚开始,Ammon老师就说出了这样一句话:It’s not going to be the kindof talk that I’ll tell you how things are done. I’ll tell you that something more interesting is what are the things that need to be done. I always tell my students that 80% of the work is knowing what to solve. The remaining 20%percent, if you don’t do it, somebody else will do it. Knowing what to solve isreally the big thing.&“找到需要去做的东西去做才是最重要的”,此话让人深有感触。计算机视觉经过磕磕碰碰几十年的发展来似乎终于找到了靠谱的落地方式:无人车。主题演讲中Ammon将自动驾驶中的技术分为三个支柱,分别是传感技术(Sensing),地图绘制(mapping)和驾驶策略(Driving Policy/Planning)。Ammon用一些例子说明了三个问题的发展状况,以及讨论了为何这三个问题必须同时发展并作为整体来考虑,以免一个问题对另一个问题产生分歧。在现在全世界一窝蜂想搞无人车的大环境下,AmmonShashua教授的演讲为想了解和想进入这个领域的同学们提供了一个很好的全局观,让大家理清了需要解决的问题,以及对这些问题的感性认识。&CVPR 2015曾有个专题研讨会:计算机视觉中的女性研究者(WiCV2015: Women in Computer Vision)。而今年CVPR 2016的组委会几乎全是女性,通过邀请在这个行业中的女性榜样研究员提高女性研究者的影响力和被关注程度。同时每天大会的简报还特意挑选出一两位女性研究者来分享她们关于研究兴趣、职场规划的宝贵经验,也给予年轻的女性研究者更多的机会去展示她们的成果。&张婷同学说:“在经过一周参会的思想碰撞后,我感觉计算机视觉在生活中几乎无处不在。引用第一天简报的话语:计算机视觉将会应用到我们的汽车,我们的家庭,我们的搜索引擎,我们的医院等等各种各样的领域中。它可以用来帮助那些有残疾的人士,可以分析社交关系,可以用来拯救垂危的生命,可以用来增加粮食的产量等等。而计算机视觉要实现这样的目标,需要来自于各个不同领域具有各种专业背景的研究员。”CVPR论文是如何写成的今年的最佳学生论文毫不意外也是关于深度学习的文章,来自康奈尔团队的关于Spatio-Temporal Graph上的深度学习工作:Structural-RNN:Deep Learning on Spatio-Temporal Graphs, Ashesh Jain, Amir R,Zamir, Silvio Savarese, Ashutosh Saxena。最佳论文第二名(Honorable Mention) 则颁给了慕尼黑科大(TUM)团队关于优化理论的文章:Sublabel-Accurate Relaxation of Nonconvex Energies, Thomas M?llenhoff, Emanuel Laude, Michael Moeller, Jan Lellmann, Daniel Cremers。 可见组委会在疯狂的深度学习热潮中依然保持着对传统能量优化问题的重视。其中一个重要原因可能是,尽管深度神经网络在中高层视觉中已所向披靡,但其在底层视觉的一些问题中仍未超越传统方法,例如去噪、光流、以及立体视觉匹配。该论文中TUM Cremers团队提出的优化方法正是针对低层视觉问题中的经典formulation:逐像素的非凸数据项+TV正则化约束。该方法的中心思想是对每一个像素而言,用一个高维向量(Lifted Representation)来表示原问题中要优化的标量(或低维)自变量,将原问题映射到一个更高维空间中的一个等价问题,从而可以对非凸能量项进行更好的凸近似,获得更高的解的质量。近似后得到的凸能量可以并行优化,且易于实现,可以高效地找到近似问题的全局最优解。论文重点讨论了该方法在立体视觉匹配中的应用,效果大大超过了传统的TV+非凸数据项的解法。会场外景张弛同学解释:“立体视觉匹配是我的研究重点之一,该问题的任务是从双目相机所获取的左眼图像和右眼图像中恢复出逐像素点的深度。由于双目相机中的平行极线约束,该问题又转化为左右眼图之间的逐像素匹配问题。”&受限于训练数据的数量,同时也因为可能未找到该问题下的最佳网络结构,深度学习中的端到端的训练方法在立体视觉匹配上的表现依然未超过传统方法。这里的端到端的训练方法指的是:直接对输入图片进行一些列卷积以及一些列反卷积来回归出输出图像。由于获得双目图像的ground truth深度数据本身就是一个难题,目前立体视觉匹配两个主要benchmark Middlebury和KITTI上也分别只有数十对和数百对的训练数据,对训练端到端的深度估计网络还远远不够。为了解决这个难题,TUMCremers团队在另一篇论文中讨论了如何生成足够且靠谱的训练数据用以训练深度估计网络:A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation, Nikolaus Mayer, Eddy Ilg, Philip H?usser, Philipp Fischer,Daniel Cremers, Alexey Dosovitskiy, Thomas Brox。该论文使用开源的3D Creation Suite Blender渲染出一系列带有复杂运动模式的物体的双目图片,由于渲染过程是从3D到2D且物体及场景的三维模型已知,生成ground truth的深度图变得非常容易。生成的训练数据集中包含35,000对训练样本,训练得到的深度估计网络在KITTI上的排名也比较靠前,但离第一名传统方法Displet仍有相当一段距离。这里值得一提的是,虽然该网络使用人工合成的数据集进行训练,它在真实数据集上似乎具有良好的泛化能力。随着训练数据的不断完善,深度网络在几个重要的低层视觉问题上是否会超越以及如何超越传统方法,又或者能给传统解法带来什么样的启发,我们拭目以待。张弛同学的海报展示张弛还分享了他们组关于物体扫描方面的工作——Joint Multiview Segmentation and Localization of RGB-D Images Using Depth-Induced Silhouette Consistency论文的准备历程。“CVPR的主会议程非常紧凑,被接收的600多篇论文被安排在短短四天里面完成展示。我们的工作在29号下午进行展示。该工作由中山大学智能信息处理实验室以及微软亚洲研究院多媒体搜索与挖掘组共同合作完成。论文的动机为利用物体的剪影信息来提高RGB-DSLAM中相机位置估计的精度。由于物体剪影难以获得,一般需要繁琐的用户输入,这大大阻碍了使用剪影信息的系统的实用性。针对这个问题,我们提出同时进行多视角物体分割以及相机定位的解决方案,使得物体剪影可以在优化过程中即时产生,并用于改进相机姿态估计。论文的实验中展示了所提出方法产生的更高质量的重建结果。”张弛说。从ImageNet比赛冠军到CVPR最佳论文微软亚洲研究院在深度舞台中继续扮演重要角色,2015年12月在ImageNet图像识别挑战赛上开创152层神话的Deep Residual Networks夺得了最佳论文奖!其实这一结果计算机视觉组的研究员们表示并没有感到十分意外,去年的ImageNet& Microsoft COCO比赛他们正是凭借着该方法获得了全部5个主要项目的冠军。在方法公布后至今的半年多的时间里,该方法在学术界和工业界受到了较大的关注,之后的许多成果从不同的侧面印证了该模型的有效性。这次获奖再次印证了学术界对这项工作的肯定。随着神经网络层数加深,神经网络会变得越来越难训练。论文提出了一种针对深度神经网络的残差训练框架,解决了这一当前具有迫切需求的难题。获奖证书张祥雨同学作为这篇文章的作者之一,他的研究方向主要为深度网络模型构建及其在图像分类问题上的应用。他认为:“由于该方向在深度视觉领域的基础性,优秀的工作往往会得到学术界的高度重视,当然也意味着相对较大的研究难度。”&张祥雨分享道:“作为该项工作的参与者之一,我从中学到了很多。该项研究始于去年5月左右。一次偶然的机会,我发现某些含有跨层结构的网络能够很大程度上提升网络的深度,同时模型的分类精度也有大幅提高。沿着这个思路走下去,我们得到了一系列结构复杂但是性能良好的模型。然而此时指导老师指出这条思路是不正确的,复杂的模型包含了太多的参数,使得我们很难在多个任务上公平地衡量模型的优劣;更重要的是,由于模型的复杂性,我们无法得知究竟是哪一块设计对最终结果起到了决定性的作用,从而难以对以后的工作产生有益的指导。因此老师建议对当前的模型结构进行简化,只保留对最终精度影响最大的结构成分。起初我对此十分不解,因为模型结构的简化通常是以损失精度为代价的,尤其是当时随着比赛日期的临近,“追求极致精度”似乎是更为合理的做法。然而事实证明指导老师是正确的,当我们对网络结构进行充分的简化和变形之后,我们发现模型中的残差结构对网络性能起到了决定性的影响,而跨层的设计则避免了传统深层网络中常见的梯度消失或膨胀的问题。至于简化模型所损失的精度,可以简单地通过增加网络深度来补偿。后来的实验表明,这种极简的网络设计在保证分类精度的同时,极大地方便了模型在物体定位、物体检测、图像分割等问题中的运用。这也使得我们在去年ImageNet& COCO比赛中在不同的项目上均取得了较大优势。”作者分享张弛:在微软亚洲研究院实习的过程中,不仅可以得到世界级水平的指导,还能接触到领域各路武林高手,快速地了解前沿科技的动态。研究院的各位老师和同学都非常nice,大家工作都非常认真,同时也玩得很认真。Work hard, play harder。在这里实习不仅开拓了计算机领域的眼界,也是生活中的难忘经历。张婷:在这里实习的过程中,在每一次讨论中,我都受益良多,感受到其正确对待科研的态度,对问题深刻的洞察力,以及始终保持对科研的好奇心。同时,在研究院还能接触到各种研究方向的大牛们,听到计算机领域里最前沿的讲座,参加各种各样好玩的Party,在收获知识、收获成长的同时也获得了快乐。张祥雨:我刚来到微软的时候恰逢我们深度视觉小组刚刚组建之时,我很荣幸地成为了这个小组的一员。三年来我亲身体会了我们小组的发展,从刚开始的一篇空白,逐渐发展为具有世界水平的研究团队,完成了诸如首次在图像分类问题上超越人类水平、获得ImageNet比赛冠军等一系列重大突破。身处微软亚洲研究院视觉计算组,我感受到了一种强大的学术精神,身边的所有人无论过去取得的成绩如何,面对深度学习这样一个快速发展的领域,他们每时每刻都在学习,都在进步。而导师们面对全新的领域仍然能保持敏锐的学术嗅觉,把握正确的科研方向,在紧随科研前沿的同时却不失学者的严谨与谦逊,所有这些均对我触动很大。25年!微软凭什么改变世界(来源/WPDang;文/观察)微软研究院成立25周年了!自1991年创立以来,微软研究院为微软贡献了不少研究成果,这也许是比尔·盖茨创立研究院之初也没能想到的。或许有些用户会问,微软研究院主要都研究什么呢?不妨由我们为你科普一下!目前,微软研究院拥有超过1000多名科学家、工程机以及设计师,他们每天都在通过创新的软件、系统和设计方法,研发出可改变用户生活的技术。值得一提的是,微软研究院中拥有大量图灵奖、麦克阿瑟奖、菲尔兹将以及Dijkstra Prize得主,他们为向微软贡献了众多奇思妙想。在过去25年,微软研究院发表了超23000篇论文。每年发表的论文数量,也从1992年的177篇,增长到现在每年超6300篇。微软一直是科技创新领域的领导者,并为软硬件产业提供了重要产品。微软全球资深副总裁沈向洋称,微软将保持创新传统,并致力于更好的为用户服务。在微软,研究人员是驱动创新的重要角色,他们帮助微软拓展下一代产品,并发展计算机科研项目。其成果几乎影响了微软每一个产品,包括Skype、Office、Cortana、Azure&ML、Xbox以及Windows等。研究领域微软研究院的研究领域集中在18个方面,包括运算法则、计算机视觉、计算机系统和网络、数据可视化和分析、人工智能和机器学习、图形和多媒体、量子计算、人本计算、数学、医疗和基因组学、自然语言处理、编程语言和软件工程、搜索和信息检索、安全和隐私、生态环境、经济学、社会科学、面向新兴市场的科技等。我们可以看到,这些研究几乎覆盖了用户能想到的所有内容,包括日常的计算机使用,个人健康以及诸如能源、环境等公众问题。截至目前为止,微软研究院已经进行了约395个项目,包括了、、,以及城市计算等众多研究项目。微软希望,借助这些研究项目,改变当前的人机交互方式和存储方式,并能够解决诸如重大疾病、环境污染以及城市生活等公众问题,这能让科技更自然地融入用户生活,并创造出更大的价值。七大研究院目前,微软拥有七大研究院,并分布于美国、中国、印度等地。其中微软雷蒙德研究院成立于1991年,目前拥有350多名研究人员,并由Eric Horvitz担任院长。微软雷蒙德研究院位于微软总部,其研究领域包括了人工智能、自然用户界面、社会科学以及健康等。微软剑桥研究院成立于1997年,目前拥有130多位研究人员。该研究院坐落于英国剑桥,主要从事生物计算、人工智能、机器学习、信息安全等项目。值得一提的是,微软剑桥研究院与剑桥大学和剑桥大学计算机实验室保持着非常密切的联系。微软亚洲研究院成立于1998年,位于中国北京,是微软在美国本土以外最大的基础研究机构。目前,微软亚洲研究院拥有20个研究及工程团队,主要从事自然用户界面、新一代多媒体、以数字为中心的计算、互联网搜索与在线广告以及计算机科学基础五大领域的研究。微软新英格兰研究院成立于2008年,位于英国剑桥。该研究院专注于跨学科工作,希望能整合数学、算法,社会学和生物学方面的成果。其研究领域包括经济学、社会化媒体、医疗卫生以及数学、密码学等理论研究。微软应用科学研究院成立于199年,主要从事两大领域的研究:新的显示技术和新的交互技术。该研究院希望能整合光、电、视觉、软件、材料以及声学等技术,创造出新奇的人机交互界面。这些研究将有助于孵化下一代科技,并提升Surface、Xbox、HoloLens等微软设备的体验。微软印度研究院成立于2005年,其研究项目涉及了信息安全、计算机等相关领域。微软印度研究院还与国内外研究机构和大学开展广泛合作,支持科技进步和创新。而微软纽约研究院成立于2012年,主要进行计算社会科学、算法经济学、市场预测、机器学习和信息检索领域的研究。事实上,我们已经接触了许多微软研究院出品的产品和技术,比如Skype Translator,这项实时翻译工具就是出自微软研究院机器翻译团队之手。而在Windows 10中大放光彩的语音助理Cortana,同样是微软研究院的成果。在纳德拉担任微软CEO后,微软研究院加强了技术与产品的联系,未来我们有望看到更多研究项目转换为实际应用或产品。我们希望微软能发挥增强现实、人工智能、计算机科学等领域的研究成果,彻底改变我们的未来生活方式,让科幻电影中的人机交互等早日成真。【说明】“25年!微软研究院凭什么改变世界” 标题及以下内容来自微信公众号“WPDang”(WPDang001),一个关注微软生态的万花筒,作者署名“观察”。原文链接:https://mp./s?__biz=MjM5MTAwMjgyMA==&mid=&idx=1&sn=30bb8f40fd5dcdc16735dcb0&scene=1&srcid=0715vMYEEMq9Djn92hp8cHBj&pass_ticket=0CtT6ZpBohmYo44%2FlwGFBJnCKj5aPmP%2Bwx%2BoRkism5IbIflbyS7w%2FpVN9Yfu5DUE#rd

我要回帖

更多关于 ti7比赛结果 的文章

 

随机推荐