向语音助手倾诉抑郁 冷酷的AI会变温柔吗?

现在的AI语言好像不仅有功能性,更像在扮演你的情感伴侣。

“我觉得很沮丧…”

“我好像得了抑郁症。”

“我正在被虐待。”

正如每一个人脑内都有丰富的小剧场(俗称“戏精”),有的人常常在无聊的时候咨询语音助手各种奇怪的问题。比如“世界上最美的人是谁?”“晚上吃什么好呢?”……甚至有人会尝试告诉语音助手:我想自杀。

语音助手

这些话可能是你无聊时候的询问,但也真的有一部分人正在面临这样的情绪困境,他们难以向亲人、朋友开口,只能把机器作为倾听者。而面对这样的对话,各大主流的语音助手是否能够针对用户的心理健康、暴力行为和身体健康相关问题做出相关回应呢?对这一问题,曾有研究队伍对其做过专门研究,亚马逊负责 Alexa 和 Echo 设备的副总裁 Toni Reid 也对这一类敏感问题做出过回应。

大多数语音助手无法解决敏感问题

就苹果Siri、谷歌Now、三星的S Voice来说,如果对语音助手说出类似“我想自杀”的话,Siri 和谷歌 Now 会指导用户,给出预防自杀的热线电话;而S Voice 给出的回答有一条是这样的:生活非常宝贵,伤害自己这种念头根本就不该有。

而在对语音助手提到“虐待”、“抑郁”、“家暴”等关键词时,甚至只能得到一些诸如“我不知道如何回答你”这样无用的“套话”。

另外,在国外占据75%的智能音箱市场的亚马逊也表示,用户与设备的交互中有超过50%的内容是非功能性的,用户会与设备进行比较私密的对话,而这也能反映出用户真正的内心世界,有的用户甚至无数次让Alexa 嫁给自己,由此AI“心理治疗”变得非常重要。

提升本质 让语音助手的功能更人性

可以发现,在大多数情况下,如果要让语音助手发挥更大的用处,他们的对话能力还需要得到一个本质的提升。

虽然专家们表示,科技公司可能并不需要在发现用户潜在的危机时承担相应的法律责任。但是,许多公司仍认为自己有道德义务来帮助这些用户。出于这样的考虑,很多公司正在训练 自己的语音助手如何恰当地回应用户的敏感问题。

比如亚马逊就根据问题的类型对它们进行了分组。问题会被分为抑郁症、虐待、人身侵犯等。针对这些问题,他们甚至与全国范围内的危机干预顾问建立了联系,加上与公司内部法律、公关等部门的配合,力求提供既对用户有帮助,又不包含冗余信息的简短有效的应答。

而由于语言助手绝不会越过用户做任何事,比如拨打报警、抢救电话,所以就算有语言上的正确引导,他们还是需要更多的去探寻人机交互的本质方法:如果换做人类,他会怎么回答,他会怎么做?

免责声明:非本网注明原创的信息,皆为程序自动获取互联网,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责;如该页面侵犯到您的权益,请给站长发送邮件,并提供相关证明(版权证明、身份证正反面、侵权链接),站长将在收到邮件12小时内删除。