新华网 > > 正文

YouTube等国外主流视频网站的内容净化机制

2016年04月08日 17:10:21 来源: 《中国传媒科技》杂志

    特约撰稿人 | 梁嘉琳 詹琦

    随着互联网行业的不断发展, 视频技术的成熟,视频网站日益深入人们的生活,成为了大众娱乐,获取资讯,甚至是社交的一大平台。在国内,视频网站越来越流行,渐渐替代电视在人们心目中的位置,用户也越来越多地从单纯的围观和评论转向内容贡献。在国外,YouTube等视频网站不仅是个体用户或专业机构上传并分享自制视频内容的平台,同时也是每个个体进行政治参与、意见表达的重要工具。不管是在国内还是在国外,视频网站内容的审核和过滤始终是一个很棘手的问题。视频内容净化机制,既包括视频网站平台自身设定的规则和条款,也包括用户群体自发形成的公约。在不同地区不同平台上,视频内容的净化机制也各有其特质。

    1、UGC平台和PGC平台的差异

    UGC,全称为UserGenerated Content,也就是用户生成内容的意思。UGC的概念最早起源于互联网领域,即用户将自己原创的内容通过互联网平台进行展示或者提供给其他用户。国外广为流行的视频网站(YouTube、Vine)均基于UGC模式。PGC是指Professional GeneratedContent,指专业生产内容(视频网站)、专家生产内容(微博)。

    UGC模式特点在于用户可以自由上传内容,内容产出和传播的链条缩短,内容生产效率提高,品类极大丰富。然而,UGC内容质量良莠不齐,容易混入涉黄、涉暴、侵犯隐私等不良内容;而PGC模式下,内容相对稀缺,产出和传播的链条更长,但是内容质量更高,但参与门槛较高,用户活跃度相对不足。

    2、UGC平台内容层面的风险

    视频网站中YouTube是典型的UGC平台,Hulu则是典型的PGC平台。Hulu是由美国国家广播环球公司(NBC Universal)和福克斯广播公司(Fox)在2007年3月共同投资建立的。除了NBC与Fo x的内容,Hulu还与索尼、米高梅、华纳兄弟、狮门影业及NBA等80多家内容制作商合作。高度专业的内容来源保证了Hulu平台上的内容的质量。当视频节目准备在Hulu上进行分发时,已经经过了制片商的把关,其实已经不需要Hulu进行太多的审核工作了。

    而在全球最大的视频聚合平台YouTube,其内容来源于每一个用户个体,其中绝大部分是非专业的,无法做到人人自律严格自审,可能只是随手用手机拍摄了一段街景就上传到了YouTube上,而YouTube又是一个月独立访问用户数已超过 10 亿的平台,其审核工作的难度和量级可想而知。

    3、YouTube等主流视频网站的内容净化机制

    在国家层面的监管之外,视频网站自身也需要严格的内容净化机制,有的还会向第三方购买云审核服务。一般承担视频内容审核的主力工作的是各家视频网站自己的审核团队。以YouTube为例,他们建立了自家的从上传时的预防,到审查,到举报和删除的一系列机制。

    预防-社区准则 审查 举报和删除 提出基于共同愿景的号召;

    详细规定7类违规内容 根据七类内容的定义,利用各种技术和方法进行内容审查 用户举报及其之后的反馈和跟进机制

    3.1 YouTube

    1)社区准则

    本着“ 让每一个人都在社区享受安全和乐趣”的愿景,制定了一系列社区准则。包括对用户的号召,具体的违规内容的定义,违规内容的举报和删除机制。

    YouTube 的7类违规内容具体定义如下:

    ①骚扰和网络欺凌内容

    很多情况下,用户可能只是受到了轻微骚扰,通常用户会选择直接忽略。万一骚扰演变成了恶意攻击,用户则可以举报该视频。骚扰可能包括:滥用视频、评论和消息;泄露某人的个人信息;恶意记录某人的言行(未经其本人同意);等等。

    ②仇恨内容

    因种族或族裔、宗教信仰、残障、性别、年龄、国籍、退伍军人身份或性取向/性别认同等原因发布宣传或煽动针对个人或群体的暴力活动的内容,或主要目的是煽动仇恨具有这些核心特点的人的内容,是不被允许的。

    ③假冒内容

    复制其他用户的频道布局、使用类似用户名或以其他人的名义发表评论、发送电子邮件或发布视频等行为被视为骚扰。如果YouTube团队确定某个帐户是建立用于假冒其他频道或个人,则会删除该帐户。

    YouTube上可能出现的假冒情况有两种:

    假冒频道:

    用户复制某个频道的配置文件、背景或文本,并写入评论,使其看起来跟其他人的频道中发布的评论一样。如果您认为自己的频道被假冒,请访问我们的举报中心。

    冒充他人:

    某个用户使用其他人的真实姓名、图片或其他个人信息创建频道或视频,使他人将自己误认为是 YouTube 上的某人。如果您认为自己被冒充,请使用我们的网络表单进行举报。

    ④威胁内容

    与国内视频网站缺乏分级制度不同,向大众开放的Youtube将一些言语侵犯也列入禁止条款。恃强凌弱、跟踪、威胁、骚扰、胁迫、侵犯隐私、透露其他人的个人信息以及煽动他人从事暴力活动或违反“使用条款”等行为将受到严肃处理。

    ⑤危害儿童

    对儿童的保护线理应高于成年人,对侵犯儿童身心健康的侵犯也应受到更严厉的处罚。YouTube对于涉及未成年人的色情内容采取零容忍政策。如果用户上传或评论涉及未成年人的色情内容,或是参与涉及未成年人的色情活动,YouTube 将立即暂停其帐户。

    ⑥裸露和色情内容

    与国内部分视频聊天网站出现大量暴露女性身体视频甚至以此作为卖点,而YouTube不允许露骨内容,如色情描写。含有怪癖内容的视频将会被删除或施加年龄限制,具体取决于行为的严重程度。大多数情况下,YouTube上不允许展示暴力、露骨内容或可耻的怪癖。

    ⑦有危害性或危险性的内容

    视频中若有怂恿危险或违法活动的内容,包括自制炸弹说明、窒息游戏、致瘾性毒品使用或其他可能造成严重伤害的行为,YouTube会认为此类视频有害。事实上,YouTube对于涉及到未成年人的任何有危害性或危险性的内容都非常敏感。为保护未成年人,YouTube将对展示成年人参与伤害和死亡风险较高的活动的视频施加年龄限制。

    2)审查机制

    作为一家以搜索引擎著称的国际互联网巨头, 谷歌在搜索层面的内容过滤技术和方法上早就已经达到了炉火纯青的地步,收购YouTube之后,谷歌自然也会将其技术和方法直接应用到其子公司YouTube上。

    事实上,YouTube很难防御用户进行不良内容的上传,这并不妨碍内容净化机制的实施。关键在于,不要让这些见不得人的内容在视频网站上得到“露出”。如果只是沉没在海量视频的“池子”里,永远不会被人搜索、观看、转发,那么从实际结果上看,是不会有多少不良影响的。YouTube采取的做法是,一方面,关注长期上传有争议性的内容的账号,随时准备封号,即便他们上传的内容没有被任何人看到,也没有明显违背社区准则;另一方面,接近争议性的内容,都尽可能不被露出。这里既包括视频审核层面,也包括审核后的搜索关键词屏蔽层面,还包括视频展示层面(比如用户观看某视频时旁边的推荐视频)。

    就审核而言,依靠有以下手段:

    1)图像方面:对一些视频抽帧来做审核

    这里应用的主要是机器图片识别技术,目前主要有稀疏编码(sparsecoding)技术和深度学习(deeplearning)技术两种。这两种技术的特点在于能够更加“深入”地提取图片特征,增加对图片噪声的适应性,从而提高识别率。DNN(深度神经网络)是深度学习技术的一个重要代表。

    2)上传者方面:通过同一ID的上传记录,对用户进行用户画像,对于某些高危用户做重点审核。

    做用户画像的一种方法就是对用户上传的视频下面的评论做舆情分析(opinionmining),比如要看一个视频是否涉黄、涉暴,就看看它下面的评论怎么说,是不是会有涉及到敏感部位或者敏感描述的文字。

    3)文字方面:关键字排查

    关键字排查主要依靠的是机器的自然语言处理(NLP)技术。除了监管部门会有一个敏感词词库外,视频网站也会有自己的的敏感词词库,并且会在运营中不断扩充之。视频网站会在词库的基础上设定一系列的审查规则,具体制定流程为。

    机器会对视频标题,视频描述以及上传者的信息等文本进行识别和排查。

    4) 内容分级机制

    YouTube和Vimeo等网站都会要求用户对自己上传的内容进行分级,如YouTube设定了“裸露”,“暴力”,“滥用药物”等6个类别。

    5) 设立复审、QA环节保障审核准确率以及难以确认的视频审核。

    6)评论方面

    谷歌更新了YouTube的评论平台,引入了新的识别技术,旨在减少用户的垃圾评论。更新后的评论系统可以更好的监测不好的链接和虚假账号,还可以改变评论显示的长度。

    谷歌曾经表示,无论在什么情况下,是否将某一视频从移除的最终决定权都掌握在该公司手中。尽管如此,谷歌除了自审之外,有时也会给与其他一些机构进行内容审查标记的权力。2012年起,谷歌通过“超级标记者”项目赋予了参与标记者一次性“标记”审核20条视频的权限。据《金融时报》消息,英国伦敦警署互联网反恐部门已开始通过这一权限,审核并移除极端主义视频。据内部人士透露,“超级标记者”项目200名参与者中大部分为个人用户,涉及到的政府机构或公益性非政府组织(如反仇恨和儿童安全组织)只有不足10家。2014年3月,谷歌为包括英国警署在内的200名个人及组织下发了“标记”权限。“标记者”同样可以一次性标记20条违规视频,以便于YouTube相关部门及时处理并撤销违规敏感内容。

    3)举报机制

    YouTube的举报机制有三类。

    (1)举报内容

    YouTube 依靠社区成员来举报他们觉得不适当的内容。YouTube 员工会全天候审核遭到举报的视频,并从 YouTube 上删除违反社区准则的视频。不适合年龄较小的观众的视频会被施加年龄限制。

    值得一提的是,举报系统不会自动撤下遭到举报的视频。若被举报的视频没有违反YouTube社区准则,那么再多的举报也不会对其造成影响,YouTube仍会将它保留在网站上。

    (2)举报评论

    用户可以用“举报垃圾内容或滥用行为”链接举报其他人对其上传或观看过的视频发表的垃圾评论,从而维护社区中视频评论的质量。如果有足够多的用户将某条评论举报为垃圾评论,该评论就会被隐藏并替换为“垃圾评论”链接。点击“显示链接”才能再次看到该评论。

    使用“举报垃圾内容或滥用行为”功能时需要非常谨慎,因为滥用该功能的用户可能会被禁止使用该网站。视频上传者可以取消垃圾评论标记。

    (3)举报频道

    通过位于每个频道底部的举报流程,用户可以举报用户、不适当的背景图片或个人资料头像。

    3.2 Vimeo

    与Youtube不同, 另一大视频网站Vimeo则制定了更加严格的内容上传原则和内容分级制度。

    Vimeo是一个以视频为中心的社会化网络站点,由IAC/InterActiveCorp拥有并于2004年11月创立。Vimeo支持嵌入,分享,储存视频,也允许用户对视频作出评论。用户必须注册以上传内容,注册用户也可以创建一个资料页,上传头像,评论,以及“喜欢”一个视频。

    与内容更加宽松的Youtube不同,Vimeo不允许商业化视频、游戏视频,以及色情内容,或者上传任何非用户原创内容。

    Youtube并未将内容分级,而Vimeo的视频内容分级包含三个级别:“成人”,“大众”和“未分级”。用户在上传视频的时候,会被要求给自己的视频选择三个级别中的一个,当用户选择了“成人”这

    个级别时,该视频在网页上显示时其标题旁边会出现“成人”标记,选择“大众”级别时不会有任何标记,选择“未分级”时,只有上传者会看见其标题旁会有一个“未分级”标记,其他任何人都不会看

    见。

    据Vimeo的官方说明,强制要求用户对其上传内容进行分级是为了帮助观看者对视频内容有所预估,更好地决定是否要打开,并且帮助儿童过滤掉不适合他们的内容,同时也减少上传者可能会受到的不必要的批评和抱怨。总的来说其内容净化的规则制定是以用户体验为最终导向的,充分体现了“人人为我,我为人人”的社区精神。

    除了视频内容本身的监管之外, 围绕视频产生的相关内容,比如弹幕,评论,也会受到监管。其中一种方式就是实名登录。比如,2010年之前韩国视频网站用户在上传作品或者发表评论时需进行实名登录,提交其真实姓名和身份证号。在2010年4月韩国政府对唯一一个视频网站(YouTube)放开了这一限制。

    不管是国家层面的控制还是公司层面的控制,都会有其局限性。就像其他任何内容型的平台一样,一个视频网站的内容永远都会存在色情、暴力等恶性内容潜藏或露出的可能性。一个视频网站内容的净化和过滤,既需要外部的机制约束,也需要每一个用户自发的基于道德的自我控制。在不同的地区根据实际情况制定其最适宜的内容净化机制,既保障用户和平台的利益,又能让恶性内容得到最大程度的抑制,需要我们不断去摸索和试验,道阻且长。

【纠错】 [责任编辑: 高海英 ]
新华炫闻客户端下载

相关稿件

010020111200000000000000011199861352616861