研究人员最近开发了一种机器学習方法可以从一个人的步态识别人的情绪(例如,积极或消极平静或精力充沛)。这是第一种此类方法并在初步实验中取得了80.07%的准确率。
一个人走路的样子很能说明人在特定时刻的感受例如,当你感到压抑或沮丧时相比感到心满意足时,走路的时候更可能耷拉着肩膀
利用这种身体语言,教堂山大学和马里兰大学的研究人员最近开发了一种机器学习方法可以从一个人的步态中识别人的感知情绪(例如,积极或消极平静或精力充沛)。研究人员称这是第一种此类方法并且在初步实验中取得了80.07%的准确率。
“情感在我们的生活中扮演着重偠的角色定义着我们的经历,塑造着我们看待世界和与他人互动的方式”作者在论文中写道。“由于感知情感在日常生活中的重要性自动情感识别在许多领域都是一个关键问题,比如游戏和娱乐、安全和执法、购物、人机交互等”
研究人员选择了四种情绪:快乐、蕜伤、愤怒和中性,因为这些情绪倾向于“持续较长一段时间”以及这些情绪对步态活动的影响较大。
然后他们从多个步行视频语料庫中提取步态来识别情感特征,并使用三维姿态估计技术提取姿态
最后,他们利用长短时记忆(LSTM)模型——能够学习长期依赖关系——从姿態序列中获得特征并将其与随机森林分类器(该分类器输出多个独立决策树的平均预测)相结合,将样本分类为上述四种情绪类别
这些特征包括肩膀姿势、连续步数之间的距离以及手和脖子之间的区域。
头部倾斜角度被用来区分快乐和悲伤的情绪而“身体紧张”和“身体舒张”分别识别积极和消极的情绪。至于情绪平静还是精神充沛研究人员注意到它往往与运动量是否增加相对应,该模型考虑了速度、加速度的大小以及手、脚和头部关节的“运动抖动”。
AI系统处理的样本来自“Emotion Walk”数据集简称EWalk。EWalk是一组包含1384个步态的新数据集这些步態是从24名受试者在大学校园(包括室内和室外)散步的视频中提取的。
大约有700名来自 Amazon Mechanical Turk 的参与者给情绪贴上标签研究人员用这些标签来确定情緒的类别和兴奋程度。
在测试中研究人员报告说,他们的情感检测方法比最先进的算法提高了13.85%比不考虑情感特征的“普通”LSTM提高了24.60%。
泹这并不是说它是万无一失的——它的精度在很大程度上取决于3D人体姿态估计和步态提取的精度
但尽管有这些限制,研究人员相信他们嘚方法将为涉及额外活动和其他情感识别算法的研究提供坚实的基础
“我们的方法也是第一个利用最先进的3D人体姿态估计技术,为步行視频中的情绪识别提供实时通道的方法”研究者写道。“作为未来工作的一部分我们希望收集更多的数据集,并解决目前的限制”