- 07/05
- 2019
-
QQ扫一扫
-
Vision小助手
(CMVU)
人工智能可以做的事情很多,但它们能“读懂”人类的心情嘛?近日科学家们可能找到了一种让AI学会“读心”的方法。
你走路的样子很能说明你在任何时刻的心情。例如,当你感到压抑或沮丧时,你比开心时更有可能耷拉着肩膀。
查珀尔希尔大学(University of Chapel Hill)和马里兰大学(University of Maryland)的研究人员利用这一躯体词汇,最近研究了一种机器学习方法,这种方法可以从一个人的步态中识别出他所感知到的情绪(例如消极或积极)和唤起(冷静或充满活力)。
研究人员称,这种方法在初步实验中取得了80.07%的准确率。
“情感在我们的生活中扮演着重要的角色,定义着我们的经历,塑造着我们看待世界和与他人互动的方式,”合著者写道。
“由于感知情感在日常生活中的重要性,自动情感识别在许多领域都是一个关键问题,比如游戏和娱乐、安全和执法、购物和人机交互。”
研究人员选择了四种情绪——快乐、悲伤、愤怒和中性——作为他们“持续很长一段时间”的倾向和他们步行活动的“丰度”。
然后,他们从多个步行视频语料库中提取步态来识别情感特征,并使用三维姿态估算技术提取步行姿态。
最后,他们利用长短时记忆(LSTM)模型——能够学习长期相关性——从姿态序列中获得特征,并将其与随机森林分类器(该分类器输出多个独立决策树的平均预测)相结合,将例子分类为上述四种情绪类别。
这些特征包括肩膀姿势、连续步数之间的距离以及手和脖子之间的区域。
头部倾斜角被用来区分快乐和悲伤的情绪,而更收敛的姿势和“身体扩张”分别被用来识别消极和积极的情绪。
至于唤起度,科学家们注意到它往往与增加的运动相对应,该模型考虑了速度、加速度的大小,以及手、脚和头部关节的“运动抖动”。
人工智能系统处理了来自“情感漫步”(Emotion Walk,简称EWalk)的样本。EWalk是一组包含1384个步态的新数据集,这些步态是从24名受试者在大学校园(包括室内和室外)散步的视频中提取的。
大约有700名来自亚马逊土耳其机械公司的参与者给情绪贴上标签,研究人员用这些标签来确定情绪的种类和兴奋程度。
在测试中,研究小组报告说,他们的情感检测方法比最先进的算法提高了13.85%,比不考虑情感特征的“普通”LSTMs提高了24.60%。
这并不是说它是万无一失的——它的精度在很大程度上取决于三维人体姿态估计和步态提取的精度。
但尽管有这些限制,研究小组相信他们的方法将为涉及额外活动和其他情感识别算法的研究提供坚实的基础。
“我们的方法也是第一个利用最先进的3D人体姿态估算技术,为行走视频中的情绪识别提供实时通道的方法,”合著者写道。
“作为未来工作的一部分,我们希望收集更多的数据集,并解决(限制)。”
此前,也有不少AI能够做到自动情感识别。麻省理工学院媒体实验室的分支机构Affectiva的声联网系统就能在短短1.2秒内从音频数据中分辨出你的愤怒。
近日,亚马逊还被爆料正在开发一种语音激活的可穿戴设备,代号为“Dylan”,可以根据人们的声音判断人类的情绪并判断他们是生气还是悲伤。
但在2018年12月发布的纽约大学人工智能研究所的年度报告中,专家们警告,试图解读面部表情的人脸识别算法可能基于靠不住的科学。他们认为,人脸表达感情的方式可能比人们此前认为的更具背景性,一个假想中的情感解读机器人将需要大量知识和背景来猜测某人的情感。