如何清理恐怖主义内容?Facebook用人工智能识别

2017年06月16日 09:23 新浪科技 微博

微博 微信 空间

添加喜爱

  新浪科技讯北京时间6月16日消息,如何在社交网络上清除恐怖主义内容?Facebook找到了一些好办法,人工智能(AI)就是其中一种。

  极端内容在Facebook泛滥为公司招来许多批评。周四时,Facebook介绍了自己工作,让我们深入幕后,看看它是怎样解决此问题的。

  Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)、反恐政策经理布莱恩·菲什曼(Brian Fishman)在博文中表示:“我们的立场非常简单:在Facebook没有恐怖分子的容身之地。我们删除恐怖主义内容以及支持恐怖主义的内容,一旦发现就会删除。当我们收到报告,说某些帖子可以涉及恐怖主义,我们马上会对帖子进行评估审查。”

  直到最近,Facebook才在反恐方面使用AI技术。其中使用的一种技术就是图像匹配。也就是说如果用户发布一张图片,上面出现了已知的恐怖分子,Facebook软件就会自动匹配,比如将图片与ISIS的宣传视频匹配,或者与Facebook上出现的其它极端图片和视频匹配,这些图片视频已经被删除。

  不只如此,Facebook还在做实验,对网站上恐怖分子可能使用的语言进行解析。Facebook还准备扩大技术的应用范围,用在其它App中,包括WhatsApp和Instagram。

  比科特和菲什曼说:“我们相信技术、Facebook可以成为解决方案的一部分。”

  随着规模和影响力的扩大,Facebook有一些问题需要解决,现在Facebook每月有用户20亿。在过去几个月里,Facebook受到了假新闻的困扰。一些人还用Facebook Live直播谋杀、暴力内容。

  问题在于:用户可以用Facebook发布各种内容(几乎是任何内容),网站必须对内容进行监管。

  在反恐问题上,Facebook认为技术并不是完美的“答案”,它还依赖人力来控制。Facebook反恐团队已经有150名成员,有些人之前是检查官,或者来自执法机构,或者是工程师。

  不只如此,Facebook还与其它一些机构和组织合作。Facebook说公司定期与执法机关和政府合作。去年12月,Facebook与其它科技企业合作,包括Twitter微软谷歌旗下YouTube,创建一个行业数据库,记录恐怖分子的数字指纹。

  博文称:“我们希望Facebook成为恐怖分子的‘敌对环境’。在线社区面临的挑战与真实世界的社区是一样的:及早发现,以免造成不可挽回的后果。”(星海)

推荐阅读
聚焦
关闭评论