您的位置:首页 >访谈 >

脸书将扩展人工智能,帮助检测和预防自杀

世界上最大的社交媒体网络脸书公司周一表示,该公司将在美国成功测试其模式识别软件,以检测有自杀意图的用户,并将其模式识别软件扩展到其他国家。今年3月,脸书开始在美国测试该软件,当时该公司开始扫描脸书帖子和评论的文本,寻找可能是即将自杀的信号的短语。

脸书没有透露该项目的许多技术细节,但该公司表示,其软件会搜索某些可能是线索的短语,比如“你没事吧?”和“我能帮忙吗?”如果该软件检测到潜在的自杀,它会提醒专门处理此类报告的脸书工作人员团队。该系统向用户或该人的朋友建议资源,例如电话帮助线。脸书的工作人员有时会打电话给地方当局进行干预。

脸书负责产品管理的副总裁盖伊·罗森(Guy Rosen)表示,该公司正开始在美国以外地区推出该软件,因为测试已经成功。他说,在过去的一个月里,在脸书软件检测到自杀意图后,第一反应者对人们进行了100多次检查。脸书表示,它试图让专业员工随时可用当地语言打电话给当局。“速度真的很重要。我们必须实时为人们提供帮助,“罗森说。

去年,当脸书推出视频直播时,包括自杀和谋杀在内的暴力行为视频激增,对公司的形象构成威胁。今年5月,脸书表示,将再雇佣3000人来监控视频和其他内容。罗森没有透露脸书部署该软件的国家,但他表示,由于敏感性,该软件最终将在全球范围内使用,但欧盟除外,他拒绝讨论这一点。

其他科技公司也试图防止自杀。谷歌的搜索引擎会显示自杀热线的电话号码,以回应某些搜索。脸书对其21亿用户了如指掌--这些数据是它用于定向广告的--但总的来说,该公司以前没有系统地扫描对话以寻找有害行为的模式。

一个例外是它努力发现儿童和成年性侵犯者之间的可疑对话。当脸书的自动屏幕发现不恰当的语言时,它有时会联系当局。华盛顿大学法学教授瑞安·卡洛(Ryan Calo)撰写了关于科技的文章,他说,科技公司可能更难在其他情况下证明扫描对话的合理性。

“一旦你打开门,你可能会想我们还会寻找什么其他种类的东西,”卡洛说。罗森拒绝透露脸书是否正在考虑在其他领域使用模式识别软件,如非性犯罪。

相关推荐

猜你喜欢

特别关注