您的位置:首页 >互联网 >

Facebook表示,它删除了数百万关于儿童裸体、恐怖主义等的内容

Facebook在2019第二季度和第三季度删除了数百万条内容,原因是违反了其内容政策。这包括违反其自杀和自我伤害管制商品政策、儿童裸体和对儿童的性剥削、反对仇恨言论的政策等内容。

此举之际,Facebook首席执行官马克·扎克伯格 (Mark Zuckerberg) 面临着自己员工的批评,以及该公司在让政客躺在广告中的政治广告政策上的立场。

除此之外,Facebook首次分享了有关如何在Instagram上执行其内容政策的数据。 Facebook在其社区标准执行报告的2019年11月版中透露,Instagram的数据来自四个主要领域,包括儿童裸体和儿童性剥削; 受管制的商品,包括非法枪支和毒品销售; 自杀和自伤; 和恐怖主义宣传。

在第三季度,Facebook删除了近1160万条违反其儿童裸体和对儿童的性剥削政策的帖子,而在Instagram上,它分别754,000了内容。在第二季度,Instagram也删除了一些512,000帖子。

在Q2和Q3中,删除了450万条与自杀和自伤有关的内容。在Instagram上,170万此类帖子被删除。第三季度,近841,000条毒品销售内容和230万条枪支销售内容从Facebook上删除。在Instagram上,分别是150万条毒品销售内容和58,600条枪支销售内容。

Facebook的副总裁Integrity Guy Rosen在报告中表示,Facebook和Instagram上使用相同的检测系统来检测和删除有害内容,尽管两个平台使用了不同的指标。这家社交媒体公司主要依靠人工智能来解决有害内容的问题。

相关推荐

猜你喜欢

特别关注