安全产品之内容审核体系

不用怀疑,我们在网上创建和发布的任何信息都会被审核,包括实名信息、昵称头像、个人自拍、甚至自己设置私密的动态。

大多数情况下,只要我们遵纪守法,不会感知到自己被审核,但是审核不止决定发言会不会被封,还决定能不能发出去,获得多少曝光,后两种很多时候是不会察觉到的。

内容审核在互联网行业发展已经趋向成熟,建立内容审核体系无外乎这5个步骤:

  1. 盘点平台里可能会产生用户发布内容的渠道和量级
  2. 定义可能会产生的内容类别,并根据风险程度排序
  3. 根据风险情况及平台需要选择合适的审核方式和处理方式
  4. 搭建线上审核平台,选择自建或采购的机器审核工具
  5. 自建或外包人工审核团队,包括规则、培训、SOP

一、为什么需要审核?

用户发布的内容不受平台控制,而部分内容会给平台造成风险,审核是阻断内容风险的主要方式。有风险的内容粗略划分主要有两种:

不能接受的内容:谁也碰不得的红线内容,审核是为了避免用户发布违法不良内容,让平台承受整改关停风险。

主要是黄反等违法违规类,只有守住这条红线,才能让平台在国内正常运转。有关部门会时不时对平台内容进行抽查,一旦被查到轻则点名批评、重则关停封杀。这些内容出现的概率很低,但任何平台都不惜任何成本去来规避这类内容的出现,代价包括建立庞大的人工审核团队,牺牲一定用户体验,禁止发布任何沾边的内容,哪怕你不是这个意思,这是不得已而为之。

不合适、不鼓励的内容:审核是为了让平台内容有自己的调性。

比如在 @晖晖 。

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部