Facebook和Twitter无法监管发布的内容
AI和人类似乎都无法适当地审核内容
最近更新时间 2021-02-20 11:25:16
我现在不想在社交媒体公司工作。随着人们对起义计划,阴谋论以及其他有害内容的关注,Facebook,Twitter和其他人将面临重新清理其行为的压力。然而,不管他们尝试什么,我所能看到的都是障碍。
我自己对内容审核的经验使我对公司的动机深表怀疑。我曾经拒绝在Google从事一项人工智能项目,该项目旨在解析YouTube著名的有害评论:投入这项工作的资金太少了,尤其是与YouTube的16.5亿美元估值相比,我得出的结论是,这不是很严肃,就是失败了。我在Twitter上的反骚扰项目也有类似的经历:试图雇用我的人在我们讲话后不久就辞职了。
从那以后,这个问题变得更加严重,很大程度上是设计使然。在大多数社交媒体公司中,内容审核包括两个部分:一个依赖于用户或AI的标记系统,以及一个人类可以参考既定策略的判断系统。要进行审查,通常需要标记并发现违规的内容。这为可疑内容提供了三种获取途径:可以将其标记为违例,但不能标记为违例,但可以将其标记为违例,也不能将其标记为违法。
创造和传播有毒内容的人们花了无数时间来弄清楚如何避免被人和AI标记,通常是确保仅覆盖那些认为它没有问题的用户。两家公司的政策还遗漏了很多不好的东西:例如,直到最近,Facebook才决定删除有关疫苗的错误信息。