Facebook:审核帖子,监管言论

有时候,表情符只是个表情符。有时候,它可能是个威胁。在短短几秒钟里,Facebook审核员必须要作出决定–即使和黄色笑脸一起出现的文字是一种陌生的语言。为了帮助作出此类决定,Facebook制定了一系列指南,用于指导20亿用户的言论。审核员之后会收到这些定期更新的规定。对Facebook来说,目标很明确。但对世界各地数以千计的审核员来说,在每天监控100多种语言、数十亿计的帖子时,面对错综复杂的规定,是很难做到清晰明确的。Facebook对规定手册的存在大体上持保密态度。但《纽约时报》(The New York Times)获取了该公司1,400页的指导方针,发现问题不仅在于这些规定的起草方式,也在于审核方式。这里是五大要点:

Facebook摸着石头过河
与Facebook加剧社会动荡的指控大相径庭的是,每隔一周周二在加利福尼亚州门洛帕克的一间会议室举行的早餐会上,Facebook都会讨论这些规定。尽管该公司确实会咨询外部团体,但这些规定主要是由年轻的律师和工程师们来制定,他们中的大部分人对于决定所涉及的地区毫无经验。他们制定的规定似乎是为讲英语、偶尔依赖谷歌翻译(Google Translate)的人所撰写的。这意味着缺乏拥有当地语言技能的审核员,而这种人可能会更好地理解当地背景。Facebook雇员表示,他们绝对尚未搞清楚什么样的帖子会导致出现暴力行为或政治动荡。这些规定手册只是可能性最大的猜测。

这些规定包含偏见、缺漏和错误
一些审核员收到的规定不正确、过时或未抓到重要的微妙细节。比如,在一份简报中,称波斯尼亚战犯拉特科·姆拉迪奇(Ratko Mladic)在逃,但他已于2011年被捕。另一份简报中,似乎包含关于印度法律的错误,它建议审核员,几乎所有对宗教的批评都应该被标记为可能违法。实际上,根据一名法律学者的说法,只有在意图煽动暴力时,批评宗教才是非法的。在缅甸,一处文书错误导致一个被控挑起种族大屠杀的著名极端组织在该平台上存在了好几个月。

审核员觉得不堪重负
Facebook将审核工作外包给了其他公司,这些公司会雇佣数以千计的工作人员执行这些规定。在这样的一些地方,审核员表示公司希望他们在8至10秒内审阅大量帖子。这项工作要求如此之高,许多审核员只能坚持短短几个月。审核员们表示,在审核过程中发现规定存在缺陷时,他们没有什么动力去联系Facebook。就其本身而言,Facebook主要让雇佣这些审核员的公司进行自我管束。

Facebook正在慢慢介入各国政治
对于禁止那些被认为会导致出现暴力行为的群组、人和言论类型,Facebook变得愈发独断。在那些极端主义和主流政治之间界限模糊的国家,这个社交网络封禁某些群组、放过另一些群组的权力,意味着它实际上在帮助挑选政治赢家和输家。有时候,它会移除政党,比如希腊的金色黎明党(Golden Dawn),还会移除亚洲和中东的主流宗教运动。一名专家认为,这类似于Facebook停掉了全国辩论中的一方。某些介入较为难以察觉。在巴基斯坦大选期间,Facebook告诉审核员要对某个政党进行特别细致的审核,但称另一个政党是“良性”的。此外,Facebook的决定往往会偏向能够对其进行罚款或监管的政府。

Facebook正在采取底线策略
即使Facebook试图在其平台上限制危险内容的时候,它也仍在努力在更多国家发展更多用户。这种紧张关系有时候可以在这些指导方针中体现出来。例如,在审核关于巴基斯坦的帖子时,审核员们得到警告,让他们不要做任何会“对Facebook的名声构成负面影响,甚至是让该公司面临法律风险”的事情,避免制造“公关火灾”。此外,通过依赖外包工作人员进行大部分审核工作,即使是在为20多亿用户制定规则,Facebook仍可将成本压低。(转载自纽约时报中文网)

发表回复