当Naika Venant在1月份杀死自己时,迈阿密地区青少年在Facebook上播出了两个小时的活动’S Facebook的流行视频直播功能。她的朋友看到​​了视频和警告警察,但援助没有及时到达,挽救了14岁的孩子’生活。其他年轻人最近还在社交媒体平台上发布了自杀信息,包括Twitter,Tumblr和Live.me.

在拯救生命的竞标中,Facebook和其他社交媒体巨头现在正在趟过自杀预防工作—创建新的警报系统,旨在更好地识别和帮助风险的个人。上周三Facebook 揭幕 新的工具套件包括公司’首先识别算法到现货用户,他们可能是自杀或越来越少的自我伤害。 Facebook表示,新的努力将有助于帖子的帖子并将用户与心理健康服务联系起来。它还代表了机器学习的新前沿。

自杀现在是这个国家的第10个导致的死亡原因以及青年中的第二名死亡原因,所以社交媒体可能是一个重要的干预点,心理学家Daniel Reidenberg说道 save.org.,Facebook之一’S合作伙伴心理健康组织。 Facebook目前报告更多 十亿日的用户 世界各地。在美国。 71% 十几岁之间的青少年和17之间 62% 根据PEW研究中心的两个2015年报告,18岁以上的成年人有一个存在的存在。

为了达到风险的用户,Facebook表示正在扩展其服务,允许朋友报告包含任何自杀或自残计划的迹象的帖子,并且为那些报告的人和朋友提供了一个选择的菜单。选择包括呼叫的热线,提示向朋友联系,并在危机时刻做什么。此工具现在将可用于Facebook Live Streams。类似的报告系统存在于许多社交媒体平台上,包括 推特, Pinterest.YouTube。 Facebook现在也驾驶了一个程序,让人们使用Messenger,其即时消息应用程序,直接与危机支持组织(包括危机)文本线条(包括危机 国家自杀预防生命线 (NSPL).

Facebook还计划使用模式识别算法来识别可能有自伤害的人,并为他们提供资源以帮助。该公司表示,其新的人工智能计划首先将在有限的基础上推出,将采用机器学习来识别建议自杀思想的帖子—即使Facebook上没有人报告过。

Facebook上的发言人威廉奈斯表示,机器学习算法将使用两个信号—一个来自与自杀或自我伤害的单词或短语中的一个来自用户’帖子和其他有关朋友添加的评论—确定有人是否有风险。如果模式识别程序识别有关帖子,则“report post” button 将在视觉上突出显示用户单击它。“希望是人工智能学习将从各个点的多个信号上拿起,[放置]一起,并激活可能存在风险的人以及[可以帮助]的人,”Reidenberg在一封电子邮件中写道。

如果这些提示信号较高的紧迫性,系统将自动提醒Facebook’S社区运营团队—一组提供技术支持和监控网站的一组员工,以获得欺凌或黑客账户等问题。该团队将迅速审查邮政并确定该人是否需要额外的支持。如果是这样,他们确保用户将看到资源页面出现在他或她的新闻之前。 (如果有关朋友报告帖子,则通常仅弹出该页面。)

为了帮助其人工智能学会旗帜有关帖子,Facebook开采“担心另一个朋友的朋友报告的成千上万的帖子,”NSPL项目总监John Draper解释说,也是Facebook伙伴组织。

虽然当前的算法仅限于文本,但Facebook可能最终使用AI识别令人担忧的照片和视频。首席执行官Mark Zuckerberg. 上个月宣布 公司一直在“研究可以查看照片和视频的系统,以旗帜内容我们的团队应该审查”作为评估报告内容的努力的一部分,包括自杀,欺凌和骚扰。“这仍然很早在发展中,但我们已经开始看看一些内容,它已经为团队中的所有报告中的三分之一提供了审查社区内容的内容,”扎克伯格写道。 Nevius没有提供有关这些额外工具应用的信息。

早期信号

一些心理健康专家表示,AI仍然有限通过单独识别自杀风险。“我认为[机器学习]是朝着正确方向的一步,” says 约瑟夫富兰克林,佛罗里达州立大学的心理学家研究自杀风险。富兰克林和他的同事最近进行了一个 荟萃分析 1965年至2014年的365项​​研究。他们发现,尽管研究了几十年的研究,专家’检测未来自杀企图的能力仍然没有比机会更好。“There’只是一个微小的预测信号,”富兰克林说。这些限制促使他和其他人在开发机器学习算法上,通过分析来自电子健康记录的数据来帮助评估风险。“健康记录的限制是…我们可以随时间准确预测[风险],但我们不’t know what day they’重新尝试自杀,”富兰克林说。他补充说,社交媒体对提供更清晰的时机感觉非常有帮助。但是,这也仍然有关键限制:“甚至使用文本中可以从文本中解释的很多,甚至使用更复杂的自然语言处理,因为人们可以使用这些词‘suicide’ or ‘kill myself’出于许多不同的原因—而且你不知道有人是否正在以特定的方式使用它。”

一些研究人员,如Glen Coppersmith,心理健康分析公司的创始人兼首席执行官 qntfy.,仅在语言中发现了有用的信号。在一个 最近的考试 公开可用的推特数据,Coppersmith和他的同事发现了帖子的情感内容—包括文字和表情符号—可能表明风险。他注意到,这些仍然是“拼图的小碎片,” adding, “它的另一侧,非载义信号的类型是定时。” “Facebook有关于你的信息’重新登录,当你’re chatting…你登录的时间是什么时间,[哪个是]真正有趣的信号,可能与您是否相关’在近端风险自杀。”

犹他大学的研究员Craig Bryan在退伍军人群体中调查了自杀风险,开始研究了自杀路径中的时序的重要性。“在我们的新研究中,我们’在他们出现时一直在看序列的时间模式—where [we find] it’不仅仅是有很多关于抑郁或酒精使用的帖子,例如[但]它’是你写它们的顺序,” he says.

另一个需要考虑的重要因素,特别是与青少年,他们的语言变化多久是梅根·莫雷诺,专门从事西雅图儿童青少年医学的儿科医生’s Hospital. In a 2016年研究 Moreno和同事发现,在Instagram(一个社交媒体平台分享照片和视频),一旦造成自我伤害–相关的Hashtag被禁止或标记为有害,许多分拆版本会出现。例如,当Instagram被阻止#Selfharm,替换替代拼写(#Selfharmmm和#Selfinjuryyy)或俚语(#blithe和#cat)出现。“我继续认为机器学习总是将在青少年沟通方式后面是几步之后,” Moreno says. “就像我钦佩这些努力一样,我想我们可以’依靠他们成为知道孩子是否正在努力的唯一途径。”

“底线是它’鉴于很多人与社交媒体联系,这一事实”Jessica Ribeiro说,一个在佛罗里达州的佛罗里达州自杀预防研究的心理学家。“与此同时,他们’根据这一领域的科学没有限制’t know—遗憾的是,尽管几十年的研究,但我们不太了解。”