您的位置:首页 >互联网 >

科技公司竞相发现视频暴力,然后再传播病毒

从新加坡到芬兰的公司都在竞相改进人工智能,以便软件可以在社交媒体上疯传之前自动发现和阻止凶杀和混乱的视频。到目前为止,没有人声称完全解决了这个问题。

一名泰国男子本周在Facebook上的实时视频中广播自己杀死了他11个月大的女儿,这是社交媒体公司现场直播的一系列暴力犯罪中的最新一例。这些事件引发了人们对Facebook报告系统如何工作以及如何更快地标记暴力内容的质疑。

<iframe src = "https://www.dailymotion.com/embed/video/ k6y9DOz5NvhBHdufeGJ" 宽度 = "100%" 高度 = "363"></iframe>

业内人士说,有十几家或更多的公司正在努力解决这个问题。谷歌 (其YouTube服务也面临类似问题) 和Facebook正在研究自己的解决方案。

大多数人都专注于深度学习: 一种利用计算机化神经网络的人工智能。总部位于巴黎的图像和视频分析公司Sightengine的创始人David Lissmyr说,这种方法可以追溯到20世纪50年代模仿神经元在大脑中的工作和交互方式的努力。

另一家视频分析公司位于纽约的Clarifai的创始人兼首席执行官Matt Zeiler说,在过去的几年中,教计算机使用深层人工神经元进行学习才真正开始。Zeiler说,直到最近,才有足够的计算能力和数据可用于教授这些系统,从而实现了 “机器学习的准确性和有效性的指数级飞跃”。

馈送图像

教学系统从通过计算机的神经层馈送的图像开始,然后 “学习” 以识别街道标志或视频中的暴力场景。

总部在新加坡的graymatics首席执行官Abhijit Shanbhag说,暴力行为可能包括黑客行为或血腥行为。如果他的工程师找不到合适的场景,他们会在办公室自己拍摄。Zeiler说,Clarifai的算法还可以识别视频中的物体,这些物体可能是暴力的前兆,例如刀或枪。但是有限制。

一是该软件仅与所训练的示例一样好。当有人决定将孩子吊死在建筑物上时,不一定是软件编程要注意的事情。Shanbhag说: “随着人们对这种可怕的活动有了更多的创新,系统需要对此进行培训。” Shanbhag的公司代表亚洲和其他地方的几个社交媒体客户过滤视频和图像内容。

另一个限制是暴力可以是主观的。总部位于法国的picpurive的研发负责人Junle Wang说,一个快速移动的场景应该很容易发现。但该公司仍在努力识别不涉及血液或武器的暴力场面。他的同事,首席执行官Yann Mareschal说,心理折磨也很难发现。

然后,有些内容可以被认为是令人反感的,而不会本质上是暴力的-例如,ISIS旗帜-Graymatics的Shanbhag说。这可能需要根据客户端对系统进行调整。

仍然需要人类

芬兰公司Valossa的创始人兼首席执行官Mika Rautiainen表示,尽管自动化可能会有所帮助,但仍必须参与验证被标记为令人反感或危险的内容的真实性,该公司发现媒体,娱乐和广告公司的不良内容。

实际上,可能的解决方案将涉及超越图像本身以结合其他线索。picpurify的Wang说,使用算法来监视观众的反应-例如,视频转发的急剧增加-可能是一个指标。

Kuznech首席执行官Michael pogrebnyak表示,他的俄罗斯-美国公司已将其色情图像识别算法 (主要集中在皮肤检测和相机运动上) 添加到其他检测工作室徽标和警告文本屏幕的方法中。

Facebook表示,它正在使用类似的技术来发现裸露,暴力或其他不符合其政策的主题。发言人没有回答有关该软件是否在泰国和其他近期案例中使用的问题。

一些公司表示,行业采用速度比可能的要慢,部分原因是增加了费用。他们说,这将会改变。Valossa的Rautiainen说,管理用户生成内容的公司可能会越来越受到监管压力。

Rautiainen说: “即使没有严格的监管,无法提供适当的策划也会越来越多地对在线品牌标识产生负面影响。”

相关推荐

猜你喜欢

特别关注