国内 络 交平台色情信息的审查义务

根据《第 44 次中国互联 络发展状况统计 告》在 2019 年的权威统计:我国 19 岁以下的 民整体占比为 20.9%,如何引导未成年 民健康上 ,已上升为一个时代命题;自 2019 年 3 月起,“ 信办” 持续于各类 络平台深入试点并推进“青少年模式”,在该模式下关 闭站内搜索、弹幕评论、内容分享、私信聊天、拍摄发布、充值打赏等功能,仅推荐适合青少年观看的内容,确保“青少年模式”下的内容池更健康,使其免受不良信息侵袭,然而,截至目前,国内大型的 交平台中,微博已经上线了青少年模式,但微信却迟迟未推出该模式。在整个 会聚焦 络色情信息传播、色情犯罪的当下, 络色情信息管控工作变得更为紧迫和关键,尤其是 络 交平台的信息审查作为其中关键一环,面临着不小的压力。

一、色情信息审查的必要性

(一)防止色情泛滥

基于互联 的开放性,如果任由色情淫秽信息泛滥,任何人不费吹灰之力就可以获取大量色情淫秽信息的话,特别是对未成年人而言,因其更易受到色情信息的诱导,而对性产生不切实际的幻想,以致于耽溺其中、妨碍正常学习生活,而一旦处置不当最终将酿成恶果。

减少 络色情信息的传播,是 会良性发展的要求,也是保护未成年人身心健康的要求。纵观其他国家,美国设立了 络内容选择平台PICS、新加坡建立了SBA许可证制度、德国采用了 络内容标签制度,给 络内容贴上标签,帮助选择并回避不良信息;从服务商角度,全球范围内的高科技公司都纷纷开始构建自己的技术措施和信息数据库,通过人工智能方式追踪 络乱象行为并及时采取应对措施。

对互联 的色情规制是必要的,这是自由、开放和安全的互联 得以持续的条件。这不仅需要靠国家公权力机关不懈的围追堵截,更是 络 交平台在日常的 络服务运营中需要始终贯彻的宗旨。

(二)防控犯罪

制作色情物品背后少不了色情相关的犯罪,为了博取眼球,许多人将真实生活中发生的违法或犯罪事实录制成影片或制作图片,比如卖淫、强奸、强制猥亵、聚众淫乱等;尤其是儿童色情行业,更是存在着强奸儿童、猥亵儿童、拐卖儿童、收买被拐卖的儿童、强迫卖淫等上游犯罪。儿童色情淫秽制品会对被害儿童产生永久性伤害,不仅体现在因遭受性犯罪而导致的身体伤害上,也表现为因拍摄不雅视频和目睹不雅视频传播所引发的沉重强烈的精神压力和自卑情绪。除了制作色情物品外,走私、复制、贩卖、传播、组织播放色情物品或组织淫秽表演等,也是刑法所规制的犯罪,意在切断色情物品的传播链 条。

审查和阻断 络色情信息,从某种程度上可以抑制以传播淫秽物品为目的而引发的上游犯罪,减少对未成年人的伤害,直接遏制传播型犯罪,且可以降低犯罪影响,减少对受害人心理摧残,对于防控犯罪有着积极意义。

(三)破除“技术中立”迷思

技术中立原则常常被 络服务提供者用于为技术服务者未履行 4 必要的审查义务免责,如在“快播案”中的“菜刀理论”即是如此, 然而,也是在本案中,审理法院对此理论进行了驳斥:“正是快播公司提供的这种介入了缓存服务器的视频点播服务,以及设立的这种缓存技术规则,决定了其实质介入了淫秽视频的传播行列”,更确切地说,快播公司提供的缓存技术,正是构成了色情淫秽信息传播的一环。 其具有 络视频软件提供者和 络视频内容管理者的双重角色,明知用户制作、传播的是色情淫秽信息,却耽于承担安全管理责任,甚至提供传播便利,属于传播淫秽物品谋利罪和拒不履行 络安全管理义 务罪的想象竞合犯。

“快播案”论证了一点:在法律与科技存在强势管制关系的环境下,技术中立是一个伪命题,尤其是针对具有违法犯罪嫌疑的色情内容,向来是与现有法律体系、 会整体价值体系存在冲突,在明显的价值碾压的境地下,互联 技术应遵循对基本善、美的敏感性,不能再利用技术中立为借口,对 络内容不加区分对待。

二、 络 交平台色情信息的审查困境

(一)信息审查与审查动力的冲突

从 络诞生之初,色情便是相伴相随的,正是色情隐喻推动了互联 的发展。帕切·巴斯(Patchen Barss)在其著作——《色情引擎:从古腾堡到 Google,色情是如何激发大众传播的潜力?》一书 中表示:色情产业引领人类历史上无数次信息传播技术革命,并最终让我们拥有了现在这个快得让人惊叹的 络速度。

互联 推动色情产业结构升级,反过来,色情行业以惊人的消费潜力、丰厚利润以及对新技术和新商业模式的强烈需求刺激互联 产业不断发展。许多 络 交平台在成立之初,其服务产品内容都或多 或少打了些色情的灰色印记,待到整个 络运营体系成熟后,又逐渐 迈向更高要求的合法合规经营。有学者曾称:如果从一开始完全剥离 络的色情属性, 络本身会丧失一部分活性。故而, 络 交平台 出于运营成本和 络活性的考虑,缺乏追求最极致的色情审查的动力。

(二)信息审查与隐私保护的冲突

在大数据时代,隐私保护也是 络服务提供商的必修课之一。在 美国联邦层面即已有了数十部保护个人数据隐私的法律。2018 年 5 月,欧盟生效了《通用数据保护条例》,该条例面向的是所有需要收 集、处理、储存、管理欧盟公民个人数据的企业,限制了这些企业收集与处理用户个人信息的权限,旨在将个人信息的最终控制权交还给 6 用户本人;在我国,隐私保护可见于宪法、民法、刑法中,个人的隐 私权、通信秘密权受到保护,而《 络安全法》也明确要求 络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收 集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收 集者同意。正是在这样的法律制度背景下,即便是出现了“N 房” 事件,Telegram 仍坚称:用户的隐私保护是其最高宗旨,平台不会 随意侵入个人通信空间。

在国内,部分 交媒体在隐私保护政策里明言:收集个人信息仅限于提供服务之必须,尊重个人通信自由和通信秘密,不会保留用户的聊天记录,这一观点也在 2010 年“QQ 相约自杀案”中,被二审法院采纳并用来支持改判的依据,从而驳回了死者父母对腾讯公司的诉讼请求。

如果对私人 络通信领域进行色情信息审查,就可能会侵犯个人通信秘密和隐私权。在私人对话里,如果出现色情信息,鉴于受众有限,传播链条单一,并不会导致色情信息短时间大面积扩散的风险;同时,在信息爆炸的当下,如果对每一个私人通话、聊天记录进行事前审查才允许发送,这将极大提高 络 交平台的运营成本;但是,如果按照“QQ 相约自杀案”二审法院的观点:腾讯公司具有事后被动审查的义务,这就涉及一个审查限度和边界的问题,是否必须保留私人通信记录?在何种情况下可以进行审查?审查的范围在哪里?这都是私权和 会公益在博弈过程中不得不考虑的问题。

(三)信息审查与言论自由的冲突

言论自由不能以侵犯他人合法权益为代价, 交 络平台必须及时关注并清理平台上的暴力、恐怖、极端、仇恨和谣言。但在色情审查方面,何种言论会被视为具有色情内容?比如,根据“和讯科技” 的调查:微视的引流视频多以身体暴露的“美女视频”做封面,用“让 我来”、“长得漂亮”、“开放”、“尺度”这样的文案做广告词,故意引人“遐想”,打色情的擦边球,这样的俗称为“荤段子”的内容,是否属于色情信息而应遭到封禁呢,对此,正反两方面的观点不一,关键就在于对色情言论的认知上,不同年龄,不同文化水平、不同经历的人群差异很大,众口难调,难以做出令所有人满意的审查结果。

(四)信息审查与模糊法律义务的冲突

对于 络 交平台的具体信息审查义务,目前散见于政府有关部门的规范性文件,篇幅单薄,难以适应各种复杂的 络情境。刑法规定了“拒不履行 络安全管理义务罪”和“帮助信息 络犯罪活动罪”,向 络 交平台警示了拒不履行信息审查义务情况下可能面临的刑事处罚。但在实际处理上, 络 交平台的管理义务边界在何处,这是一个见仁见智,并没有明确统一标准的问题。 络 交平台时常夹杂在行政司法机关的强势要求,和用户的强力权利主张之间,进退两难。尤其是色情信息审查这一块,如果色情淫秽信息的定义不明晰, 络服务场景不明晰,义务主体不明晰,就必然会陷入被动的审查局面,难以同时巧妙地满足用户权利需求和公权力机关的监管期望。

三、审查困境的解脱路径

一是需要加强立法,提高 络监管的立法层级,丰富 络监管法律体系,此外在互联 信息发展行业和 络发展行业出台协会的规范和协议倡导,完善和补充相关立法的不足。从色情信息监管这一特定 角度来看,对于成年人色情信息和儿童色情信息需要区分监管,对于儿童色情信息更应从严管制,公私配合,对于持有、存储儿童色情图片、色情视频等淫秽制品的行为也要禁止和查处。

二是 络监管需要多管齐下,不能把审查压力全部积攒在 络 交平台之上。对于色情审查而言,除了“扫黄打非办”、“ 信办”、 公安等公权力机关的介入外,也要调动 络 交平台信息审查的积极 性,包括但不限于发动行业协会的力量,发动民间相关组织的力量(如 妇联、未成年人保护机构),发动 络自律组织, 民集合的力量进 行联合审查,形成有效联动应对。

三是明确审查技术边界。就色情信息审查而言,需要出台色情淫秽信息的标准界定,例如是否包括无实质侵害的色情言论,并就该标准研发相关的过滤审查技术和机制,在此范围之外,有漏查或异议的, 络 交平台可以主张免责。

五是明确义务边界,落实 络 交平台能采取的审查措施,有禁止发布、封 、删除相关内容、向公权力机关举 等,并完善异议解决途径。

六是实行合理的责任承担。区分 络 交平台审查错误、审查遗漏、故意放任、故意配合实施色情活动等情形,对应地建立有梯度的责任机制,包括但不限于警告、训诫、勒令改正、罚款、关停甚至追究刑责等。

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2020年3月3日
下一篇 2020年3月3日

相关推荐