用户原创内容是电商和社区的生命线,但它在非法分子手中也会变成一个强大的作案工具。内容审查人员必须迅速响应,时刻严防侮辱性内容的传播。如果不这样做的话,这些内容就可能会对公司的品牌和影响力造成非常严重的损害。
内容安全架构师Kevin Lee和Jeff Sakasegawa在这方面有着相当丰富的经验,他们分享了有关内容审查方面的实践。
什么是内容审查?
内容审查就是审查你的平台上用户生成的任何内容(UGC)。如果是Yelp,那就意味着审查用户的评分和评论;如果是Facebook,则意味着要审查用户可能在网站上发布的任何内容。
哪些类型的网站、电商或者社区可能会得益于内容审查人员?
所有的UGC网站!任何UGC网站都必须时刻对用户体验保持一定的敏感度,电商和社区通过内容审查来培养用户的信任度,并为用户之间的交流建立一个安全的空间。
有哪些内容审查是主动的,有哪些是被动的?
大多数公司都缺少相关的基础设施和工具来主动审核侮辱性内容。这是因为这些公司在搭建UGC平台时不会在内容审查系统上投入太大的成本。
像Facebook、Yelp和Google这样的大公司采取了两种更主动的方式:第一种方法是使用机器学习,并让用户能够标记有问题的内容。第二种方法仍然是被动的,因为它依赖于用户上报侮辱性内容,但它更积极主动,因为内容管理系统可以利用上报的内容在未来剔除类似的内容。
反欺诈和风险团队如何将内容审查纳入到公司战略中,以提升公司的品牌和安全性?
例如,Facebook在曾经很长的一段时间内都不允许用户标记有问题的内容,他们的用户是一个巨大但尚未被开发的内容审查源。事实上,内容审查不一定来自内部团队,它也可以是外部团队。如果社区中的任何人被允许发布内容,那么任何人都应该能够上报不适当的内容。
内容审查人员必须小心谨慎:要清除彻底,但又不能误杀。在遇到有争议的内容时,内容审查人员在保证工作效率的基础上是如何处理的呢?
对于内容审查人员来说,根据制定的政策和程序进行判断可能非常困难。他们必须专注于服务条款,并将他们对用户的主观感受与现有的规则区分开来。
内容审查中可能出现哪些灰色案例?
KevinLee:假设你的平台不允许发表仇恨性言论。问题是仇恨性言论有几种不同的判断标准。在推特上,你不能针对某个特定的种族或宗教。但这个问题很快就会变得模糊起来:虽然你可能可以说“我讨厌美国人”,但你是否可以说“我讨厌白人”呢?恐怕是不行的。
一般来说,公司不允许用户对受保护的东西发表恶意观点。但是,受保护的东西可能因公司而异。大多数企业通过在表达观点和威胁行动之间画一条线来处理灰色地带。例如,“我讨厌凯文的发型”这句话与“每一个有着像凯文一样发型的人都欠揍”有着很大的区别。尽管两句话都对他的发型持否定态度,但第二句话崇尚暴力。
但是,许多在线社区都有自己的暗语。例如,Twitter不允许你对犹太人做出仇恨性评论,但社区可以开始使用暗语来指代犹太人,以绕过这些政策。
在线社区或电商网站上,内容审查人员该如何制定明确的指导政策来确定哪些内容可以接受,哪些不可接受?