科技魔方

Facebook发布透明度报告:过去半年删除32亿个虚假账户

魔方快报

2019年11月14日

  美国社交网络巨头Facebook,因为其平台上的违规和有害内容一直遭到舆论的批评,作为应对外界压力的一个措施,Facebook定期对外公布平台内容审核的报告。据外媒最新消息,11月13日,Facebook公布了一份最新的平台内容审核报告,据称,Facebook公司在今年4月至9月间删除了32亿个虚假账户,以及数百万条描述虐待儿童和自杀等现象的违规用户帖子。

  据国外媒体报道,根据该报告,这比去年同期被删除的虚假账户数量增加了一倍多,当时有15.5亿个虚假账户被删除。

  这家全球最大的社交网络还首次披露了它从流行的照片分享应用软件Instagram中删除了多少帖子,该应用程序已被虚假信息研究人员认定为一个越来越令人担忧的虚假新闻泛滥之地(Instagram全球活跃用户超过了十亿人)。

  该公司在其历史上第四份内容审核报告中称,在Instagram上,Facebook公司发现违规内容的频率低于Facebook应用,在Facebook平台上,该公司已经中实施了许多检测工具,其中包括许多基于人工智能的扫描监测技术。

  例如,该公司表示,在有关恐怖主义内容的扫描监测上,Facebook平台大约会在98.5%的时间内发现这些内容,而Instagram平台上的时间大约为92.2%。

  第三季度,该公司在Facebook平台上删除了1160多万条描述儿童裸体和对儿童性侵害的内容,在Instagram上删除了754000条用户帖子。

  不过,如今Facebook开始了社交产品的转型,从公开分享信息的Facebook平台模式,转向Messenger和WhatsApp为代表的私密性移动聊天模式,而且Facebook正在考虑扩大信息加密的措施,这样其他机构或者不良之徒无法窃听到用户之间的聊天内容。

  据报道,美国执法部门担心Facebook通过更多聊天加密服务用户提供更大隐私保护的计划会阻碍打击虐待儿童问题的努力。

  上个月,美国联邦调查局局长克里斯托弗·瑞说,这些变化将把Facebook的社交工具变成性攻击罪犯和儿童色情业者梦想的交流平台。

  Facebook还在这份透明度报告中首次添加了关于针对自我伤害内容采取的行动的数据。该公司表示,第三季度已经删除了约250万个描述或鼓励自杀或自残的用户帖子。

  该公司在一篇官方博客中称,三季度季度还删除了约440万件涉及药品销售的用户内容。

  周三晚间,Facebook股价下跌。

  在过去两年时间里,Facebook公众形象大跌,除了爆出不计其数侵犯消费者隐私权的新闻之外(尤其是最具代表性的“英国剑桥分析公司事件”),另外一个重要原因是对于违规内容缺乏有效的监管,从而导致负面内容大肆传播、加剧了社会撕裂、影响了青少年用户的身心健康。

  比如在今年年初,新西兰一个宗教场所发生了大规模枪击事件,导致几十人遇难,枪手通过Facebook的视频直播服务直播了疯狂的杀戮过程,在事件发生后,有上百万个有关枪击案的视频在Facebook平台上传播,外界指责Facebook以及谷歌旗下的YouTube没有能够及时删除视频或者用户帖子,这些内容加剧了受害者的痛苦。

  据报道,Facebook已经委托外包公司在全世界雇佣了1.5万人从事平台用户内容审核和删除的工作,其中一成工作人员分布在印度。(腾讯科技审校/承曦)

+1

来源:腾讯科技

推荐文章