您的位置:首页 >要闻 >

Facebook AI发现了比人类更多的令人反感的照片

为了打击仇恨言论,Facebook表示,其人工智能 (AI) 系统现在报告的攻击性照片比人类更多,这可以帮助删除此类内容,以免伤害人们的情绪。

当用户上传令人反感的东西来打扰人们时,通常必须至少由一个人看到和标记。

攻击性帖子包括仇恨言论、威胁或色情内容; 煽动暴力; 或包含裸体、图形或无端暴力。

例如,“技术crunch” 报道说,恶霸,被欺负的前情人,缠扰者,恐怖分子或巨魔可能会将令人反感的照片发布到某人的墙壁,团体,事件或提要上。

阅读更多

脸书门户网站为移动视频聊天设备创造市场,更多道歉: 在Facebook捍卫其imagepune的努力中: 从今天开始,由六部分组成的关于青年和心理健康的马拉地语短片系列facebook印度任命前IAS官员Rajiv Aggarwal为公共政策负责人数字隐私之战正在重塑互联网

当内容被标记为令人反感并被Facebook删除时,它可能已经造成了损害。

现在,AI通过让计算机在任何人看到之前扫描上传的每张图像来帮助Facebook大规模解锁主动审核。

Facebook应用机器学习工程总监华金·坎德拉 (Joaquin Candela) 表示: “今天,人工智能算法报道的攻击性照片比人们报道的还要多。”

Facebook表示,现在有多达25% 的工程师定期使用其内部AI平台来构建功能并开展业务。

此AI可帮助对新闻提要故事进行排名,大声朗读视力受损的照片内容,并自动为视频广告编写封闭式字幕,从而使观看时间增加12%。

人工智能最终可以帮助社交网站打击仇恨言论。Facebook以及Twitter,YouTube和微软昨天同意了新的仇恨言论规则。

相关推荐

猜你喜欢

特别关注