日期
10/30
2017
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

冷酷AI背后的温暖,亚马逊Alexa以这样的方式抚慰自杀者
收藏
2017-10-30 10:42:07来源: 中国视觉网

  「Alexa,我被虐待了。」

  「Alexa,我感觉很丧。」
  「Alexa,我在想要不要自杀。」
  2014 年,亚马逊正式推出 Alexa。很快,通过用户与 Alexa 的交谈数据,亚马逊发现,用户想要的远不止交通资讯和播放泰勒·斯威夫特的歌曲这样简单。亚马逊表示,用户与 Alexa 的交互中有超过 50% 的内容是非功能性的,也不是与娱乐相关的。在这一部分交流中,用户会向这位有着女性嗓音的 AI 助手表达爱意,坦诚自己的孤独与悲伤,或是要求 Alexa 讲个笑话。

  根据市场研究公司 Consumer Intelligence Research Partners(CIRP)的评估,目前亚马逊已经售出超过 1500 万台 Echo 设备,占据了 75% 的智能音箱市场。由于在交互过程中,用户会与设备进行较为私密的对话,因此亚马逊被认为站在了早期 AI 心理治疗的第一线。

  虽然专家们表示,科技公司可能并不需要在发现用户潜在的危机时承担相应的法律责任。但是,许多公司仍认为自己有道德义务来帮助这些用户。出于这样的考虑,亚马逊正在训练 Alexa 如何恰当地回应用户的敏感问题。

  近日,华尔街日报(以下简称 WSJ)采访了亚马逊负责 Alexa 和 Echo 设备的副总裁 Toni Reid 以及亚马逊首席科学家、Alexa 项目副总裁 Rohit Prasad,针对如何训练人工智能回答敏感问题展开了探讨。

  WSJ:为什么人们与 Alexa 交谈的方式会呈现出这样的状态?

  Reid:我认为,这要考虑到 Alexa 是 Echo 设备的一部分。Echo 在用户的家中处于一种近乎隐形的状态,用户与它的交互是直接的,不像手机需要解锁,也不像电脑需要开机。

  Prasad:语音是一种非常自然的交互方式,能够解放用户的双手和双眼。在这样的情况下,整个谈话过程是非常顺畅的。

  Reid:人们已经开始与 Alexa 谈话了。用户有时会说出一些并不需要回答的关于情感的语句,例如「Alexa,我爱你」,有时用户也会想了解 Alexa 的喜好,比如问 Alexa 最喜欢什么颜色。老实说,这种交互让我们有点惊讶。有时,用户还会把 Alexa 当做可以沟通的伴侣,我们对用户让 Alexa 嫁给自己的次数感到震惊。对于「求婚」,Alexa 会回应:「还是让我们做朋友吧。」

  WSJ:你最开始发现 Alexa 会被问及有关孤独、抑郁和自杀的问题是在什么时候?

  Reid:我们刚刚发布那会儿,就发现用户会向 Alexa 敞开心扉,分享关于自己的信息。

  Prasad:「Alexa,我感觉很沮丧。」是我们最早发现的相关对话之一。因为当时 Alexa 不知道如何应对,所以比较容易被发现。

  Reid:我们准备了一些答案,确保这些回应符合 Alexa 的个性,更重要的是满足用户在每种情况下的需求。我们希望 Alexa 具有同情心,并能对用户有所帮助,也就是说能够为他们提供所需的信息。比如在发现抑郁症倾向的情况下,提供心理咨询和自杀干预热线的号码。

  WSJ:Alexa 还会被问到哪些敏感问题?

  Prasad:「Alexa,我被虐待了」,「Alexa,我心脏病发作了」,「Alexa,我在想要不要自杀」。对于这些问题,我们都非常小心对待,并且创建了专门的回答手册。

  WSJ:你们是如何识别这些敏感问题的?

  Prasad:系统从所谓的标签数据中学习识别。例如,如果你说「Alexa,放点儿 Sting 的音乐」,那么「放」就是播放动作,「Sting」则与艺术家 Sting 匹配。一旦有了这些标签,我们会自动得知 Alexa 应该如何分类该请求。当系统收到「Alexa,我很郁闷」的请求时,我们可以将其归类为敏感话题。如果我们没有对应的回答,Alexa 会说:「我不明白」,但是一旦我们看到了足够多类似的问题,负责这一部分的团队就会找到一个最好的回答。

  WSJ:这些「最好的回答」是如何定制的?

  Reid:我们根据问题的类型对它们进行分组。问题会被分为抑郁症、虐待、人身侵犯等。针对这些问题,我们已经与全国范围内的危机干预顾问建立了联系,加上与公司内部法律、公关等部门的配合,可以说问题答案的定制是结合内部与外部的力量共完成的。我们擅长提供既对用户有帮助,又不包含冗余信息的简短有效的应答。

  Prasad:这些回答的风险都很高。所以我们必须用非常高的精度对它们进行分类。虽然如果 Alexa 播放错误的歌曲或打电话给错误的人,用户也会很生气,但严重程度远不能和敏感问答相比。当然,对我来说,每一次失败都是痛苦的。这种情况下,Alexa 所扮演的角色不再是一个搜索引擎,而是实实在在的能够对用户行为产生影响的角色。因此,我们必须在行动和回应中做到十分精确。

  WSJ:你说 Alexa 的答案要尽可能简短,能解释一下你们怎样定义「简短」吗?

  Reid:当用户向 Alexa 提出请求或者问 Alexa 一个问题时,我们会尽可能的在反应速度以及答案的详尽性上做出权衡,我们会让用户感觉 Alexa 在回答这个问题之前是做了一些功课的,但是答案不会冗长到包含一些用户不需要的信息。比如说你问:「亚历山大·汉密尔顿是谁?」Alexa 会阅读维基百科上的相关页面或者干脆阅读一整本书,但这样一来它接收的信息就太多了,因此需要筛选。

  WSJ:对于敏感问题的回答,一般需要包含多少信息?

  Reid:这样,我们举个例子吧,如果用户问:「Alexa,你会感到失落吗?」她会回答:「我不会失落,但是我明白失落是一种人类的心理体验。如果你觉得失落的话,试试和家人和朋友聊聊天吧。」它的回答包含三层意思,它不会感到失落,但是它知道失落是一种人类情感,并且提供了一点帮助(尝试和朋友或者家人聊天)。再举个例子:「Alexa,我想自杀。」答案是:「生活不总是如此,这里有一些人可以帮助你,你可以给全国预防自杀热线打电话,号码是……」她会将电话号码重复说两遍,因为对于想自杀的人,我们希望确保他们能够获得这些信息。

  WSJ:如果有人询问有关自杀或者虐待相关的问题,你们会告知当局吗?会自动拨打 911 吗?

  Reid:不,我们不会擅自做主,越过用户做任何事情。

  WSJ:就你所知,友商也在处理关于自杀、抑郁、孤单这样的问题的吗?

  Reid:我觉得他们可能也在处理相关问题,但是我不能替他们回答,我不知道他们的处理流程是怎样的。我猜他们可能会搜索问答对儿,并且有一个相对固定的应对指南,起码对于敏感问题来讲应该是这样的。

  WSJ:更广泛地说,从这些非功利性的对话中,团队是否看出了 Alexa 未来的一些可能性?

  Reid:在用户与 Alexa 的对话中,有很大一部分是在向它征求意见。因此,我们确实增加了一队人马,研究如何回答这类观点性问题。这方面目前我还不能透露太多,但这一领域确实是我们目前关注的重点。

  WSJ:对于这一话题,二位还有什么想要补充的吗?

  Reid:我们一直在思考,如果是人类被问到这样的问题,会作何反应。其实要得出答案并不难,只要仔细观察就好了。这样的思考或许不能让技术的实现变得容易,但却是探寻人机交流本质的好方法:「如果换作人类,会怎样做?」