风险预防视野下平台保护未成年人义务的证成与制度展开
文|苑宁宁(本文刊载于《中国应用法学》2025年第4期)
内容提要:网络空间显著放大了未成年人遭受伤害的可能性,内容、联系、行为、消费、个人信息与健康等六大类风险均会对其受保护权形成直接威胁。在线风险引发的伤害在科学上具有似然性,有悖于未成年人最大利益原则,是无法接受的道德滑坡和权利减损。根据风险预防原则,为切实保障未成年人的受保护权,应当秉持“谁提供、谁受益、谁举证、谁预防”的逻辑,强调平台在数字环境中的守门人角色。这一理念深刻影响了多国的相关立法,包括我国《未成年人保护法》中的网络保护专章与《未成年人网络保护条例》。在强调家庭、学校、社会、政府以及司法多方共治的同时,平台负有两项紧密结合的核心义务:一是对网络产品和服务进行未成年人权利影响评估;二是实施必要的干预措施,包括但不限于制定适龄方案、采取保护性限制、提供友好型家长控制工具及依法使用主动技术等。
关键词:未成年人 受保护权 网络空间 平台义务 风险预防原则
文 章 目 录
一、在线风险与未成年人的受保护权
(一)内容风险
(二)联系风险
(三)行为风险
(四)消费风险
(五)个人信息风险
(六)健康风险
二、线上保护未成年人与风险预防原则
(一)在线风险导致伤害具有似然性
(二)放任在线风险有悖于未成年人最大利益
三、平台保护未成年人义务的系统化展开
(一)评估义务
(二)干预义务
结语
伴随着以互联网为代表的信息通信技术不断发展,未成年人的生活受到深刻影响,其权利也经历了拓展与变革。一方面,网络空间为未成年人提供了前所未有的机会,为实现发展权和参与权带来了巨大潜力。另一方面,网络空间也放大了未成年人面临的伤害风险,使其受保护权遭遇严峻挑战。全球首个未成年人在线安全指数显示,在接受调查的群体中,近三分之二面临网络欺凌、接触暴力和色情信息、游戏障碍等一种或多种在线风险。随着我国网络的快速发展,隔空猥亵未成年人犯罪案件呈上升趋势,网络沉迷对未成年人身心健康造成难以忽视的负面影响。面对在线安全的严峻形势,如何在网络空间有效保护未成年人已成为全球共同关注的重大议题。基于“技术无罪”的观点,有人认为,使用网络所带来的收益或风险取决于使用者而非提供者,家长对未成年人访问和使用网络产品与服务应承担主要责任。然而,这种观点日益受到质疑,尤其不能作为消减平台义务的借口。就未成年人的受保护权而言,平台究竟应当承担哪些义务,域外立法正在积极探索。我国2020年修订的《中华人民共和国未成年人保护法》(以下简称《未成年人保护法》)增设了网络保护专章,2023年国务院公布施行出台的《未成年人网络保护条例》等规范也提供了系统回应,党的二十届三中全会通过的决议提出了健全未成年人网络保护工作体系的要求。然而,在贯彻落实以上法律政策过程中,对平台义务出现了不同认识,源于对相关制度的学理理解存在偏差。本文在梳理并分析未成年人所面临在线风险的基础上,阐明未成年人在网络空间中的受保护权内涵,并通过风险预防原则加以论证,系统化展开平台作为守门人保护未成年人的角色,为更科学地理解与适用我国现行法律规定提供理论支撑。
一、在线风险与未成年人的受保护权
联合国《儿童权利公约》于1989年通过,尽管当时无法预见当今网络的发达程度,但其所规定的各项权利依然适用于数字环境。联合国儿童权利委员会于2021年发布的《关于与数字环境有关的儿童权利的第25号一般性意见》(以下简称第25号一般性意见)对数字环境下未成年人权利的内涵与保障原则作出了全面、系统的解释。该意见指出,数字环境不断发展和扩展,涵盖所有信息通信技术,包括互联网、虚拟与增强现实、人工智能、自动化系统、算法分析、生物识别和植入技术等,并以广泛且彼此交织的方式影响着未成年人的生活、学习与权利。作为联合国《儿童权利公约》的缔约国,我国在2020年修订的《未成年人保护法》中增设了网络保护专章,系统规定了如何保障未成年人在网络空间中的生存发展权、受保护权和参与权等权利。在网络空间中,保障未成年人的生存发展权,就是确保他们能够接触并使用与其年龄和能力相适应的网络产品与服务,获得必需的数字技能与网络素养;保障未成年人的受保护权,就是确保他们的在线安全,避免遭受任何形式的心理和身体伤害,以及虐待与剥削;保障未成年人的参与权,就是让他们能够在安全、友好的网络环境中表达观点、发表意见,并有效参与社会生活与行使公民权利。
需要注意的是,网络空间对未成年人各项权利的影响程度并不均衡。一方面,受保护权面临的冲击最为明显。互联网的普及使不法分子更容易联系和接触未成年人,有害内容的传播、网络欺凌、网络性引诱、隐私泄露等问题更易对未成年人造成严重危害。另一方面,受保护权在很大程度上决定了未成年人其他权利在网络空间中的实现程度。比如,由于家长普遍担忧在线安全而倾向于严格限制未成年人上网,一些研究也更多关注风险而非机遇。虽然未成年人的各项权利存在不可分割性,但在数字环境下,受保护权无疑具有更为基础的地位。
未成年人处于一生中非常脆弱的阶段,身心未发育成熟,需要受到特别关注和保护,数字时代尤其需要保护他们免受任何形式的在线伤害。近些年来,联合国儿童基金会、国际电信联盟、经济合作与发展组织、欧洲委员会、欧盟儿童在线和其他机构或组织对未成年人在线风险作过类型化梳理。结合最新研究进展,本文将未成年人面临的在线风险概括为六类,具体如下。
(一)内容风险
当未成年人获取或接触到不利于其身心健康的信息时,即面临内容风险。例如宣扬恐怖主义、极端主义、种族歧视,或渲染仇恨、暴力、血腥、色情等内容,可能引起未成年人心理不适或诱导其模仿危险行为,乃至教唆自杀、自残、吸毒或滥用药物。由于各国的法律制度不尽相同,很难统一清晰划定风险内容的范围,但总体上可以分为非法内容、不适龄内容两大类。根据我国《未成年人保护法》网络保护专章以及《未成年人网络保护条例》第22条、第23条的规定,对未成年人造成风险的内容包括两类:一类是危害信息,即含有宣扬淫秽、色情、暴力、邪教、迷信、赌博、引诱自残自杀、恐怖主义、分裂主义、极端主义等危害未成年人身心健康内容的网络信息;另一类是不良信息,即含有可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等可能影响未成年人身心健康内容的网络信息。
(二)联系风险
网络空间中未成年人与他人进行社交互动时,容易引发联系风险。这种风险通常是由认识或者不认识的成年人操控,以未成年人为目标或者侵害对象。比如网络欺凌、网络暴力,网络性引诱、网络猥亵等线上性侵害,线上教唆怂恿未成年人参与不健康或者危险的行为,等等。其中,线上性侵害未成年人是最突出的联系风险之一,是当前国际社会广泛关切与研究讨论的问题。通常来说,线上性侵害包括生产、制作、买卖、共享、传播或持有性侵害未成年人的网络色情制品,以及通过信息通信技术将未成年人引入各种与性相关活动的行为。根据《卢森堡指南》,线上性侵害至少包括性引诱未成年人、直播性侵害未成年人、制作与传播性侵害未成年人的网络制品、在线对未成年人进行性胁迫和性勒索等形式。《未成年人保护法》第77条及《未成年人网络保护条例》第25条、第26条涉及两类常见的联系风险:一是对未成年人实施侮辱、诽谤、威胁或者恶意损害形象的网络欺凌行为;二是向未成年人发送、推送或者诱骗、强迫未成年人接触危害信息和不良信息。
(三)行为风险
网络空间中未成年人实施或者参与有害于自己或者他人的行为,即会引发行为风险。比如实施黑客攻击、参与赌博、制作色情制品、煽动自杀自残等有害行为。近年来,我国未成年人涉嫌帮助信息网络犯罪活动的违法犯罪行为明显上升。2020年至2022年,检察机关审结(含起诉、不起诉)未成年人涉嫌帮助信息网络犯罪活动罪犯罪人数分别为236人、3001人、5474人,2022年较2021年同比上升82.41%。中国互联网络信息中心发布的《2020年全国未成年人互联网使用情况研究报告》显示,我国未成年网民已达1.83亿,且有8%热衷于饭圈活动。畸形的饭圈文化非常容易诱发未成年人出现盲目参与网上粉丝应援活动、群体对立、互撕谩骂、人肉搜索、网络暴力等非理性行为。《未成年人保护法》第54条及《未成年人网络保护条例》第27条、第45条涉及以上两类常见的行为风险:一是通过网络以文字、图片、音视频等形式组织、教唆、胁迫、引诱、欺骗、帮助未成年人实施违法犯罪行为;二是诱导未成年人参与应援集资、投票打榜、刷量控评等网络活动。
(四)消费风险
网络空间是一个高度商业化的世界,未成年人在其中很有可能卷入他们无法完全理解、不能理性看待或者有害于他们身心健康的交易和消费。当前,消费风险主要有三种表现形式:一是营销风险,未成年人收到的不适合其年龄的网上营销信息。比如,烟草制品和酒精饮料的网络营销淡化了不健康或者危险生活方式的边界,使未成年人能够直接联系到在线供应商。二是商业分析风险。广告商在未经同意或者违反法律的情况下使用未成年人主动或者被动提供的数据,剖析未成年人的喜好、行为等特征,进而向其开展针对性营销或者推送有关内容。三是欺诈风险。利用未成年人不知情或者缺乏经验在交易中进行经济欺诈,比如诱导高消费、捆绑销售、订阅销售等。《未成年人保护法》第74条及《未成年人网络保护条例》第24条、第44条等涉及多项与未成年人相关的消费风险:以未成年人为服务对象的在线教育网络产品和服务中推送广告等与教学无关的信息,网络产品和服务提供者通过自动化决策方式向未成年人进行商业营销,网络游戏、网络直播、网络音视频、网络社交等网络服务提供者对未成年人在使用其服务中的消费数额不进行任何限制,向未成年人提供与其民事行为能力不符的付费服务等。
(五)个人信息风险
与传统认知相比,网络空间中的个人信息面临更多挑战。未成年人在线时三方面数据最容易引发风险:主动提供的数据(未成年人及其父母在使用网络时有意提供的数据)、在线参与留下的数据痕迹(通常是在用户不知情的情况下通过数据跟踪技术所捕获的数据)、算法数据(通过算法分析主动提供的数据和数据痕迹得出的数据)。比如,服务设计中的“黑暗模式”故意采取欺骗性、诱导性用户界面,让未成年人更容易受到影响,导致其难以改变隐私设置或删除信息,或者在诱导之下交出更多数据;网络服务提供商以及其他不法分子通过多重不正当手段和方式收集、存储和流转未成年人的数据,衍生出数字身份失控和隐私风险增加等问题;在人工智能、物联网、虚拟现实/增强现实、生物识别等先进技术的运用场景中,通常会配备拍摄未成年人、远程控制与通信、显示公开地理位置、记录分析活动与喜好、不透明算法推荐等服务与功能,无形中进一步放大未成年人个人信息被非法处理的风险。对此,在收集、存储、使用、加工、传输、提供、公开、删除未成年人个人信息的整个信息生命周期,均需要特殊规则和制度安排。《未成年人保护法》第72条及《未成年人网络保护条例》第32条、第34条涉及个人信息当前比较突出的风险:一是未征得未成年人父母同意的情形下进行违规处理;二是强制要求未成年人或者其父母同意非必要的个人信息处理行为;三是任意拒绝未成年人或者父母请求查阅、复制、更正、补充、删除未成年人个人信息的申请,或者设置不合理的、增加难度的限制。
(六)健康风险
除了可能会引发睡眠不足、身体肥胖、肌肉发育不良等身体方面的健康风险外,未成年人长时间使用网络,还通常会出现社会疏离等心理问题。英国皇家儿科与儿童健康学院进行的文献审查显示,使用互联网时间较多的未成年人往往有较高的能量摄入,健康饮食较少,肥胖指标更明显;每天使用时间超过两小时的未成年人,往往会伴有更多的抑郁症状。2015年,美国精神医学会将网络游戏障碍正式列入《精神疾病诊断与统计手册》(第五版)。无独有偶,世界卫生组织2017年将网络游戏障碍纳入最新版《国际疾病分类》的精神与行为障碍章节。总体来看,沉迷网络引发未成年人健康风险的证据在不断涌现。据此,2020年修订的《中华人民共和国预防未成年人犯罪法》第28条将沉迷网络列为一类不利于未成年人身心健康成长的不良行为。
综上所述,上述六类风险均可能直接威胁未成年人的在线安全,也是受保护权应当覆盖的核心问题。换言之,数字时代的受保护权应明确包括使未成年人免受内容、联系、行为、消费、个人信息以及健康等各种风险所导致的任何伤害。
二、线上保护未成年人与风险预防原则
风险可以被视为尚未发生的伤害,而伤害则是已经显现的风险。要完整证明在线风险对未成年人造成伤害往往难度较大,原因不仅在于伤害本身的衡量存在困难,还在于未成年人在使用网络过程中所承受的影响具有累积效应。换言之,当在线风险是否会导致伤害尚且存在不确定性时,社会应采取何种策略来保护未成年人,这不仅是一种公共政策的考量,更考验人类社会的法治智慧。
风险预防原则已成为当代风险社会中备受关注的基础性法律原则之一,其核心理念在于“预防为先,安全胜于遗憾”。该原则最早可追溯至1992年地球峰会通过的《里约宣言》第十五项原则。1998年《关于预防原则的展翼声明》进一步指出,当一项活动可能对人类健康或环境产生威胁,即使某些因果关系尚未在科学上得到完全证实,也应当采取预防措施,而在此情形下的举证责任应由活动支持者承担。2005年,联合国教育、科学及文化组织的世界科学知识与技术伦理委员会发布了适用预防原则的工作原理,基本奠定了国际社会的共识。然而,该原则的适用前提不应基于单纯的猜测或幻想,需要具备一定的科学依据或经过科学分析后具有较高的合理似然性。同时,这种潜在伤害在道德上必须被认定为不可接受,才能引发预防措施。未成年人在网络空间中面临的风险与伤害正符合这两个前提,风险预防原则因此成为保护他们的科学性选项。
(一)在线风险导致伤害具有似然性
在评估不同假设的似然性时,不能仅仅依赖发生概率的对比,而应关注其真实可能性。之所以认为在线风险导致未成年人伤害具有相当的似然性,主要在于日益增多的研究证据正表明:网络带给未成年人的潜在危害在逐步提升。事实上,任何个体都可能在网络空间中面临不同类型和程度的风险,但未成年人尚处于认知建构阶段,判断力和风险规避意识相对薄弱,其易感性、模仿性和脆弱性更易被数字环境的匿名性、即时性、虚拟性与开放性放大。因此,相较于成年人,未成年人在网络空间中受伤害的可能性要大得多。
多项文献回顾与荟萃分析表明,不同类型的在线风险所导致的伤害确实性虽然存在差异,甚至有些议题仍存在争议或研究不足,但均有一定证据显示可能对未成年人的心理、身体及社交等方面带来负面影响。例如,频繁接触不良内容会让未成年人逐渐产生脱敏效应,进而可能从根本上扭曲其对世界的认知;而色情制品对未成年人的性认知会产生长久且不利的影响。社交媒体的过度使用不仅减少了他们与家人、朋友面对面互动的机会,也易使其对日常生活感到疏离或厌倦,从而增加了吸毒、危险性行为以及轻微暴力行为在青春期出现的可能性。此外,线上性侵害等负面经历会导致持续性伤害,包括心理痛苦、自我厌恶、焦虑抑郁以及社会关系破裂等,影响其未来的生活与人际交往。网络欺凌在未成年人群体中也更易发生,而且其影响常常扩散到现实中的学校、家庭等领域;由于网络媒体资料(如图片、视频)难以彻底删除,对心理健康产生的负面后果更为深远,包括社会心理适应不良、精神障碍、反社会行为以及自杀念头等。不健康食品的数字营销或广告,则可能诱导未成年人形成不健康的饮食习惯。而网络沉迷不仅引发睡眠不足、肥胖、药物滥用及心理困扰等一系列身心健康问题,也有证据显示其会对未成年人脑部发育产生消极影响,包括注意力缺陷多动障碍加重、情绪和社交智力受损、功能发育受损和中断等。数字技术的高速发展还使未成年人更易卷入网络犯罪——既可能成为行为实施者,也更易成为被害人,从而过早介入司法系统,给其后续人生带来深远且负面的影响。虽然关于这些风险与伤害之间的因果关系仍有待更多研究证实,但其潜在危害已获得学界相对一致的关注与警示,具有似然性,因而要求利益相关方在网络空间采取审慎做法完全合理。
(二)放任在线风险有悖于未成年人最大利益
“未成年人最大利益”是家庭法和人权法中一项核心原则,其背后蕴含的理念是:童年时期格外脆弱,需要予以特别的关注与保护。虽然网络空间最初并非专为未成年人而设,但其在未成年人成长历程中不可或缺。联合国儿童权利委员会在第25号一般性意见中强调,数字环境中每位未成年人的权利都应当得到尊重、保护和实现,各国有义务在提供、监管、设计、管理和使用数字环境的所有行动中将未成年人的最大利益作为首要考虑。
在数字环境中,未成年人的最大利益是一个动态概念,旨在确保他们的身体、心理、道德和精神完整性,并推动人格尊严的充分实现。由于网络空间变化迅速,新型数字技术场景不断涌现,传统的监护人(如父母和教师)往往难以及时掌握与防范各种新兴的网络风险,而未成年人却常常已深度介入其中。技术的快速迭代与潜在威胁的多样性意味着传统决策流程和应对方式可能滞后。正如联合国儿童权利委员会在第14号一般性意见中所言,运用“最大利益”方法时需结合“预防原则”,评估未来风险及可能对未成年人的安全造成的影响。一旦有合理证据(而非仅凭猜测)表明某些具体做法可能损害未成年人的最大利益,则不能排除对该做法实施禁止或管制的必要性。
在线风险和伤害直接阻碍了未成年人最大利益的实现。国际电信联盟在其《保护上网儿童政策制定者指南(2020)》中明确呼吁,应建立完备的法律框架并采取预防性措施,禁止数字环境中各种形式的侵害未成年人的行为。经济合作与发展组织也建议通过研究、开发和应用隐私保护、可互操作且友好的技术,结合未成年人的年龄、成熟度以及具体情境限制其接触不适宜内容。我国自2016年《中华人民共和国网络安全法》颁布以来,也首次从法律层面提出保护未成年人网络安全的要求,强调支持研发有利于未成年人健康成长的网络产品与服务,并依法惩处危害未成年人身心健康的网络违法行为,为其提供安全、健康的网络环境。可见,坚持最高安全标准已成为数字时代维护未成年人最大利益的基本要求。联合国儿童权利委员会在第25号一般性意见中进一步强调,缔约国应对未成年人使用的网络服务和产品提出高标准的网络安全要求,并要求所有在网络空间中影响未成年人权利的企业严格遵守监管框架和行业守则,确保其产品与服务在伦理、隐私及安全等方面达到最高标准。
综上,遵循“未成年人最大利益”原则已成为国际社会在网络空间保护未成年人的基本共识。任何可能对未成年人权利产生影响的决策和行动,都应当将未成年人的最大利益置于优先地位。若对未成年人在线风险与伤害置若罔闻,或将未成年人在线安全置于次要考虑,则无异于道德滑坡与权利的减损。对此,相关各方必须基于风险预防原则,及时采取预防措施,以真正实现对未成年人的保护与促进。
三、平台保护未成年人义务的系统化展开
根据风险预防原则的核心要义,当有科学迹象表明数字产品与服务可能对未成年人安全构成潜在风险时,即便证据尚未完全确凿,也不能因不确定性而无所作为。平台作为提供和运营数字产品与服务的主要责任主体,应当在可能发生伤害之前采取行动,审慎行事。所谓“审慎行事”即要求平台在潜在伤害出现前,充分开展风险评估、采取相应干预措施,并进行持续监测,以最大程度降低风险并防止其演变为现实伤害。可见,贯彻风险预防原则的基本逻辑可概括为“谁提供、谁受益、谁举证、谁预防”,而平台保护未成年人的义务也主要围绕评估与干预两大方面展开。
(一)评估义务
风险预防原则下的举证责任倒置要求由活动的发起者或支持者(而非公众)承担举证责任,证明相关活动“无害”或“风险可控”。《联合国工商业与人权指导原则》与《儿童权利与企业原则》明确强调企业的尽职调查义务,要求其在开展商业活动、提供产品及服务时,通过权利影响评估等方式识别、预防、减轻并在必要时补救对未成年人权利的潜在或实际不利影响。联合国儿童权利委员会进一步指出,各国应督促企业对未成年人权利开展尽职调查,尤其在数字环境下对潜在危害进行评估,并将评估结果公开披露。这意味着平台应当引入未成年人权利影响评估。
未成年人权利影响评估是一类以未成年人为中心的人权评估,是将联合国《儿童权利公约》所列权利及未成年人最大利益以具体、有组织的方式转化为实践工具。未成年人权利影响评估起初是作为国家评估法律政策和行动对未成年人权利影响的工具,后来扩展到企业。根据联合国儿童权利委员会、联合国儿童基金会、国际电信联盟、可持续发展宽带委员会、欧洲委员会等国际组织的倡议,网络空间中开展未成年人权利影响评估,通常需遵循以下步骤:了解和掌握评估对象,即可能使用网络产品和服务的未成年人;确定评估范围,审视网络产品和服务对未成年人权利可能造成影响的范围;收集证据,建立风险管理系统,锁定可能引发的在线风险;咨询,听取包括未成年人在内的各方所持的意见;分析,发现不同种类在线风险的性质与程度;建议,针对性提出应对措施;发布,以通俗易懂的方式向公众和监管部门披露评估报告;监测,明确及时进行复审的程序、时间、方式。当前,部分国家和地区已在立法中对平台的评估义务进行了具体化。
例如,欧盟《数字服务法》要求超大型在线平台每年至少开展一次系统性风险评估并发布报告,重点分析自身运行及用户行为对未成年人权利造成的现实或潜在影响,特别是内容审核、算法推荐和广告投放系统可能带来的负面后果,并需针对评估结果制定合理有效的缓解措施。平台还应每年接受第三方独立审核,以检验其履行义务的成效。英国《在线安全法》则要求社交媒体、搜索引擎等平台在不同阶段持续动态地进行未成年人风险评估,包括针对不同年龄段未成年人用户数量、平台功能与算法等因素,分析可能造成的伤害性质与严重程度,并以书面形式予以记录与保存。美国联邦层面的《儿童在线安全法》也规定,平台每年至少进行一次独立第三方评估并发布评估报告,内容应包括:未成年人用户数量及特征、不同类型伤害的发生程度、成瘾行为风险、网络欺凌、网络骚扰及性剥削情况,以及各类防控措施的实际成效等。我国《未成年人网络保护条例》同样对平台的评估义务作出规定:其一,针对未成年人用户数量巨大或对未成年人群体具有显著影响的“头部平台”,应当在设计、研发、运营各阶段定期开展未成年人网络保护影响评估,并每年发布社会责任报告;其二,针对个人信息处理、网络沉迷等特定风险领域,平台需开展合规审计或防控评估,并每年公开相关工作情况。
分析以上立法例可以看出,平台的评估义务源于举证责任,具体样态包括事前预测评估、事后实效评估、自我评估、第三方评估等。事前预测评估是在网络产品与服务的设计研发过程中评估对未成年人潜在的影响,并采取相应的缓解措施,避免或者减轻风险;事后实效评估是在未成年人接触数字产品与服务后,对造成的实际影响以及事前采取的干预行动进行监测,提出还需要哪些调整与改变,以进一步保障未成年人权利;自我评估是指数字产品和服务提供者通过事前评估、运用风险管理系统、监测等手段注意未成年人在线风险,并对此采取应对措施;第三方评估是指由独立于平台的专业第三方定期对数字产品与服务给未成年人带来的影响进行核查。至于采取何种方式的评估,需要结合网络产品和服务的类型、未成年人使用和访问的普遍性、风险导致伤害的严重程度等情况来决定,以达到证明风险可防可控的标准为目的。
(二)干预义务
风险预防原则并非以“零风险”为目标,而是尽力将风险控制在未成年人可承受或可管理的范围内。数字时代的未成年人要想充分享受网络带来的益处(如数字技能培养、社会参与等),就无法彻底回避在线风险。因此,预防性政策的主要任务在于平衡“在线机遇”与“在线风险”,力求在保障未成年人正当权益和发展机遇的同时,将严重风险和伤害降到最低限度。联合国儿童权利委员会同样强调,政策的目的应是让未成年人在安全的前提下充分利用数字环境,而非简单地禁止或隔绝其接触互联网。基于风险预防原则可采取多种干预措施,包括禁止、限制、暂停、推迟以及替代技术研发等,并需要根据认知水平与危险后果的发展状况进行动态调整。结合各国法律和监管实践,平台层面的干预措施大体可归纳为以下四类。
1.制定适龄方案
所谓适龄方案,是在网络产品和服务的设计、开发、运行等多个环节符合未成年人身心发展的需求、规律与特点。根据宽带可持续发展委员会于2019年发布的一份专题报告,为尽可能保障未成年人在线安全,应为其提供与年龄相适应的软件、应用程序和系统,并满足下列要求:将未成年人的最大利益作为首要的设计原则;具有必要的年龄验证功能;具有保护未成年人免受伤害的政策、方案与行为标准;处理数据方面的具体规则是透明的,且只收集和保留履行职能所需的最少数据;将隐私保护的最高标准置于默认设置中;设置未成年人及其监护人对不适合内容和行为的反馈与报告机制。经济合作与发展组织颁布的《数字服务供应商准则》同样呼吁将此类适龄方案纳入网络产品和服务的全流程管理,并至少包含四方面:采用未成年人安全设计,在研发、部署和运行数字产品和服务时,提供者定期采取必要步骤和审查更新,防止未成年人接触可能损害其身心健康的服务和内容;通过清晰、朴素和适合年龄的语言,确保所提供信息的有效性和透明度;设置对未成年人隐私和个人信息的保护措施,并对此类数据的商业使用采取预防措施;制定保护未成年人的政策和程序,确保符合相应的法律政策。
英国、澳大利亚、法国、德国等国家的实践在此方面具有较强代表性。英国的《适龄设计准则》规定了15项标准,要求在线产品和服务在开发或运行过程中,应为可能接触的未成年人提供与其年龄相匹配的功能、默认设置以及数据保护方式。澳大利亚的电子安全专员制定了安全设计原则与指导框架,要求将未成年人安全内嵌到产品与服务的设计与运营环节。法国国家信息与自由委员会出台了《加强网上未成年人保护的八项建议》,倡导网络产品和服务提供者采用“未成年人友好”的设计,包括修改隐私政策及用户条款语言、默认停用高风险数据收集(如地理位置)等,并通过统一、易理解的格式发布保护未成年人个人信息的承诺清单。德国于2021年修订的《青少年保护法》在第24a条要求服务提供者以默认设置方式降低青少年使用风险,并向未成年人友好地展示服务条款等关键信息。此外,还须对用户生成的视听内容进行评级,并配合必要的年龄验证技术。
关于适龄方案的要求在我国法律制度中主要体现为未成年人模式(青少年模式)。《关于进一步压实网站平台信息内容管理主体责任的意见》《关于加强网络直播规范管理工作的指导意见》《关于规范网络直播打赏、加强未成年人保护的意见》《关于加强网络视听节目平台游戏直播管理的通知》等规范性文件强调在不同服务场景中平台应向未成年人用户提供青少年模式。2024年实施的《未成年人网络保护条例》更是将青少年模式升级为未成年人模式,并明确规定将其嵌入网络游戏、网络直播、网络音视频及网络社交等四大类网络服务,强调融合、友好、实用与有效原则,要求在使用时段、时长、功能与内容管理方面进行全方位的细化与调整。2024年11月,为进一步压实未成年人模式的建设责任,国家互联网信息办公室发布《移动互联网未成年人模式建设指南》,对未成年人模式建设予以具体指导。在模式应用方面,覆盖范围将进一步由应用程序(App)扩大到移动智能终端、应用程序、应用程序分发平台三方,对未成年人的保护变得更为全面。
2.采取保护性限制措施
所谓保护性限制措施,是指仅在具备正当或充分令人信服的理由时,方允许未成年人访问或使用相关产品和服务。联合国儿童权利委员会指出,随着自动化数据处理、特征分析、地理定位、即时通信、强制身份验证、信息过滤及大规模监控、端到端加密等数字化手段日趋普及,未成年人在线安全面临无法预估的潜在隐患与健康风险。对此,平台须采取相应限制措施,遵循合法、必要、相称、数据最小化以及最大限度保障未成年人利益等原则,严格控制上述技术或服务对未成年人的提供与使用。
例如,利用用户真实或推测特征进行商业化目标分析——包括神经营销学、情绪分析、沉浸式广告及虚拟/增强现实等广告模式——都可能带来不可控的隐私和消费风险。为此,欧盟的《数字服务法》《数字市场法》《人工智能法》、法国的《加强网上儿童保护的八项建议》、德国的《青少年保护法》等从各自领域出发,要求网络产品和服务提供者对相关商业活动作出限制,不得面向未成年人开展此类精准营销。我国《未成年人网络保护条例》也作出相应回应,其第24条规定不得通过自动化决策方式向未成年人进行商业营销。
再如,部分网络产品和服务的特定设置或功能会加大未成年人个人信息受侵害的风险,或诱发网络沉迷。对此,平台应当采取更为严格的限制性措施。美国《儿童在线安全法》第4条第1款规定,对于可能引发风险的网络产品与服务,提供者可向未成年人或其父母(监护人)提供易于访问与使用的保护性措施,并通过默认设置或技术手段保障未成年人在线安全,如限制非关联成年人主动搜索或联系未成年人的能力;防止他人查看或使用平台收集的未成年人个人数据;限制未成年人上网时长;禁止通过自动播放、在线时长奖励、自动通知提醒等方式诱导未成年人持续使用产品和服务;限制跟踪并共享未成年人的地理位置信息;允许用户以“自由退出”的方式限制平台对未成年人个人数据进行算法推荐。德国《青少年保护法》也提出了类似要求,并根据未成年人年龄设定默认限制:在未经明确同意的情况下,不允许搜索服务显示未成年人的个人资料,亦不得公开其地理位置信息和联系方式,交流活动仅限于预先选定的群组等。
我国相关的规范性文件要求平台采取一系列保护性限制措施:《未成年人网络保护条例》第31条规定不得向不符合法律规定情形的未成年人用户提供网络直播发布服务;第44条规定网络游戏、网络直播、网络音视频、网络社交等网络服务提供者应当采取措施,合理限制不同年龄阶段未成年人在使用其服务中的单次消费数额和单日累计消费数额,不得向未成年人提供与其民事行为能力不符的付费服务。《互联网弹窗信息推送服务管理规定》第5条要求不得利用算法针对未成年人用户进行画像,向其推送可能影响其身心健康的信息。《移动互联网未成年人模式建设指南》规定除即时通讯工具以外的应用程序,在未成年人模式下应关闭陌生人私信功能,等等。
3.提供未成年人友好的家长工具
无论线上线下,家长理应充当保护未成年人的第一道防线。然而,网络空间的高度虚拟化使家长在协助未成年人识别、规避风险方面面临更多挑战。除家长积极开展网络素养教育、与未成年人平等沟通外,平台亦应向家长提供操作简便且高效的各类支持性工具,以帮助未成年人隔离或减轻在线风险。此类由家长使用的功能、软件与应用,统称为家长工具,大致可分为四类:内容过滤器,过滤并阻止访问不适宜年龄的内容;时间管理,允许家长为不同类别的在线活动设置使用时限;功能管理,支持家长限制未成年人随意分享位置或使用摄像头等功能,并通过授权方式管理未成年人的在线消费与搜索功能;监控功能,可帮助家长掌握未成年人所使用的应用种类、频度与时长,并实时跟踪其位置等。
尽管研究显示家长工具在保护未成年人方面具有一定效果,但其也引发了隐私、休闲娱乐权及数字技能发展的争议。为缓解这些担忧,平台须在提供家长工具时平衡未成年人在线安全与受益之间的关系,坚持未成年人最大利益原则,并确保工具对未成年人具有“友好性”:在研发和运营阶段,倾听未成年人的意见;在家长工具启用过程中,确保未成年人知晓相关限制;家长工具应提醒家长尊重未成年人的隐私与其他合法权利;家长工具应按照年龄进行分级或调适,与未成年人不断增长的认知与发展能力相匹配。
近年来,多项国际倡议和立法同样关注家长控制与未成年人权利之间的平衡。国际电信联盟在《保护上网儿童业界指南》中提出,相关产业应结合数字产品与服务的实际特点,为父母或看护人提供家长监控软件等工具,并辅以使用指导,以避免对未成年人权利的侵害。美国《儿童在线安全法案》要求平台必须提供便于访问与操作的家长工具,使家长掌控未成年人的隐私设置、在线交易与使用时长,在平台确认或合理推定用户为未成年人时默认启用此类工具,并向未成年人发出清晰、明显的通知。德国的《青少年保护法》要求服务提供者向家长提供控制和监测技术手段,如停用应用内消费或广告接收、限制游戏时长、设置消费限制与个人信息保护等功能。法国的《加强网上儿童保护的八项建议》也强调家长工具应当在尊重相称性、透明度和数据安全的前提下切实保障未成年人隐私与利益。我国《未成年人网络保护条例》第19条、第43条分别从两个角度强调提供家长工具的必要性:对于专门用于未成年人保护的软件和硬件,应具备便于监护人履行监护职责的功能;对于所有网络服务提供者,应以醒目、便捷的方式为监护人提供时间管理、权限管理以及消费管理等支持,帮助家长更好地保护未成年人在网络环境下的合法权益。
4.依法使用主动技术
随着风险发现与防范的难度不断增加,以及数字技术的迅速发展,平台通过技术手段主动作为的必要性与可能性愈发凸显。当数字技术用于在线保护未成年人时,通常以人工智能的形式运行,表现出较强的主动性、预防性和监控性,因此此类应用于该场景的数字技术被称为“主动技术”。从国际视角来看,保护未成年人的主动技术种类多样,包括但不限于以下几种:拦截技术,识别并阻止对未成年人有害的网站或内容;启发式过滤技术,通过监测IP地址、内容和关键词等变量,自动检测可能包含有害内容的网站;哈希算法,用于自动识别和检测性侵害未成年人的色情制品,从而即时发现、阻止并报告相关线索;网络爬虫,通过搜索与过滤器设定变量(如关键词、性侵害未成年人的视频图像等)相符的内容,主动定位有害网站并向有关部门发出警报;面部识别技术,用于有效验证用户年龄,防止未成年人访问含年龄限制的敏感内容或服务,避免接触仅适用于成年人的内容。
前述技术的应用已在实践中得到验证,相关探索集中在以下几个领域:拦截不适合未成年人的内容与服务,发现并处置侵害未成年人的线索,以及引导未成年人在网络空间中安全行事。例如,Facebook借助照片匹配算法与视频匹配技术,检测并发现对儿童有害的信息;微软开发的PhotoDNA工具通过哈希算法实现即时屏蔽和报告涉未成年人的色情内容;Instagram推出人工智能驱动的工具,能够有效发现并防范早期阶段的网络骚扰行为;英国广播公司(BBC)推出的“Own IT”移动应用结合先进的机器学习技术,在不侵犯隐私的前提下,追踪未成年人在智能手机上的活动,并提供情绪状态自我评估功能,针对其行为偏离标准时给予友好的提示与支持。
在网络空间中强化对未成年人的保护已成为当务之急,而相关的有效实践也日益证明主动技术的可行性和必要性。不过,平台使用主动技术一定程度上会引发隐私担忧乃至技术滥用,需要经过法律或者监管机构的授权,且符合比例原则、知情原则。基于此,各国立法逐渐将依法使用主动技术视为平台的重要义务。国际电信联盟在《保护上网儿童业界指南》中提出了利用主动技术的倡议,主张企业应定期评估其服务器上托管的所有内容,采用已知性侵害未成年人图像哈希扫描、识别软件及URL禁用等工具,防止未成年人接触不当内容或服务;同时建议使用拦截/允许列表、过滤及审查、年龄认证等技术措施。欧盟在《更有效地打击儿童性虐待战略》中强调,立法要求网络服务提供者利用技术检测已知的性侵害未成年人信息,并履行报告义务。为落实该战略,欧盟《制定预防和打击儿童性虐待的规则》明确要求网络服务提供者在接到官方检测命令后,安装并运行符合法定要求的技术,以识别相关网络信息,同时保障技术的先进性、隐私影响最小化及准确性,并采取防止滥用的措施。英国的《在线安全法》在这方面作了更具前瞻性的规定,通信管理局依法可要求平台运用三类主动技术——内容审核技术、用户分析技术、行为分析技术,履行保护未成年人在线安全的义务。平台需证明所使用技术的必要性、透明性、合法性及有效性。我国《未成年人网络保护条例》对平台使用主动技术这一义务既有特定的明确规定,也为相关实践探索预留了足够空间。就前者来说,第26条明确要求网络产品和服务提供者建立健全网络欺凌信息特征库,优化相关算法模型,采用人工智能、大数据等技术手段加强对网络欺凌信息的识别监测。就后者来说,第29条要求采取有效措施防止制作、复制、发布、传播危害信息,第31条要求为未成年人提供信息发布、即时通讯等服务时依法要求提供未成年人真实身份信息,为网络产品和服务提供者通过主动技术落实相关规定提供了法律依据。
结语
网络空间中保护未成年人同样是各方的共同责任,家庭、学校、社会、政府、司法以及平台需要履行各自的义务。伴随着互联网技术的迅猛发展,在线风险与损害日益凸显,数字鸿沟不断扩大,单纯依赖平台事后补救义务已难以满足未成年人保护的现实需求。基于风险预防原则,遵循“谁提供、谁受益、谁举证、谁预防”的逻辑,作为数字环境的构建者、所有者、管理者和受益者,平台理应承担更加积极的保护义务,通过风险评估与干预措施预防并减少未成年人在网络空间中可能遭遇的、可以合理预见的侵害。值得注意的是,随着国内外立法逐渐认可平台在未成年人在线保护中的“守门人”角色,也需避免走向过度强调或无限放大平台义务而忽视监护人及其他相关责任主体的情况,否则同样无益于从根本上保障未成年人的数字权益。