法治号 手机版| 站内搜索

网上有害信息举报

涉未成年人新规:划定网络信息四大“红线”

2026-03-04 15:42:10 来源:法人杂志 -标准+

《法治日报》记者 辛红 《法人》见习记者 王茜

当前,互联网已深度嵌入未成年人的学习与生活,短视频、直播、社交平台、网络游戏等构筑起丰富多彩的数字世界,但也暗藏各种风险。对未成年人网络保护的重点,已从“要不要管”转向“如何管得更准、更细”。

教育部、工信部等八部门联合发布的《可能影响未成年人身心健康的网络信息分类办法》(以下简称“办法”),自2026年3月1日起施行。办法明确了可能影响未成年人身心健康的四种网络信息类型及具体表现形式,将不当使用未成年人形象等近年来出现的突出问题纳入治理范围,让网络监管和治理“清晰可判”。

四大维度界定风险

网络平台保护未成年人网络安全是一项需要多方协同的系统工程。而对于可能影响未成年人身心健康的网络信息,亟须明确列举,帮助平台识别并拦截潜在危害。

制图/宋逗

对可能影响未成年人身心健康的网络信息,办法首次从四个维度系统性地界定了风险信息,为平台内容审核、政府监管执法、家庭教育引导提供了明确的判断标准。包括:可能引发或者诱导未成年人模仿或者实施不良行为的信息;可能对未成年人价值观造成负面影响的信息;不当使用未成年人形象的信息;不当披露和使用未成年人个人信息。

“这四个维度的划分,不仅覆盖了传统风险,也回应了新型网络内容形态带来的挑战,如虚拟社交、算法推荐、生成式人工智能等新场景下的内容风险。”北京康达(海口)律师事务所合伙人袁芳在接受《法人》记者采访时表示。

映宇宙集团安全合规总监浦洋对记者表示:“对企业而言,办法正好满足了‘最需要明确规则’这一关键需求,让内容管理和风险防范更加精准、有章可循。”她认为,办法的出台是对我国现有未成年人网络保护法律体系的重要完善和有力补充,将“可能影响未成年人身心健康的网络信息”这一相对抽象的概念,从具体维度进行了明确界定,为企业提供了清晰的操作指引。

提示与处罚显著清晰

办法通过四大类十余项具体表现的列举,实际上形成了一份“负面清单”,使平台在内容审核、监管部门在行政执法时均有据可依,推动企业将未成年人保护从被动合规转向主动治理。清单涵盖内容审核、算法治理、提示标识、禁止呈现等多个环节,要求平台建立全链条防护体系。同时,办法第八条对可能影响未成年人身心健康的网络信息,设置了明确的提示要求,强调“显著提示”原则,并对不同载体形式,如文本内容、音频内容、图片内容、视频内容、虚拟场景的添加标识位置和方式提出具体操作指引。

去年,从最高人民法院和多地地方法院发布的涉未成年人网络保护与违法犯罪惩处典型案例来看,在专门服务领域依然存在多种可能侵害青少年身心健康的隐患。如某视频平台曾在少儿频道推荐页出现“经过标注”的动画片,因含有轻微暴力情节和暗含“擦边”内容被约谈整改;某品牌儿童手表曾因预装的应用商店可下载成人游戏被投诉。

值得注意的是,新规对专门服务实行“零容忍”标准。而各大视频平台的少儿频道、专门儿童教育App以及学校内网、教育专网,甚至儿童手表、学习机等智能设备,都属于专门服务范畴。

与一般服务“不得在醒目位置呈现”的要求不同,专门服务实行“完全不得出现”的零容忍标准。

办法第九条第一款规定,网络产品和服务提供者应当落实《未成年人网络保护条例》要求,不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。办法第九条第三款规定,任何组织和个人不得在专门以未成年人为服务对象的网络产品和服务中,制作、复制、发布、传播可能影响未成年人身心健康的网络信息。

“这意味着,即使经过提示标注的内容,也不能出现在少儿专区。”袁芳表示,这一条款将保护标准提升到了前所未有的高度,有望实现“少儿专区必须纯净无瑕”“未成年人模式不是摆设”“校园网络和儿童设备出厂即设防”的监管目的。

袁芳认为,专门服务必须建立独立内容池,所有内容需经过严格适龄审核,确保100%适合未成年人观看。平台还需对未成年人模式进行“重构式”升级,而非“修补式”改进。

建立全流程防护体系

未成年人个人信息保护是网络安全的重要环节。办法强化了监护人的同意权,强调平台和内容生产者需对涉及未成年人隐私的内容保持高度警惕。办法第六条规定了不当披露和使用未成年人个人信息的三种情形,即未经监护人同意不当展示不满十四周岁的未成年人学习、生活等可能暴露未成年人个人信息的;诱导未成年人发布可能泄露本人或者他人个人信息的;其他不当披露和使用未成年人个人信息的。

袁芳表示,这是四大维度中最容易被忽视但影响最深远的一项。她认为,未成年人个人信息被泄露的原因在于,有家长在社交平台“晒娃”时,无意中暴露了孩子的敏感信息,不法分子利用这些信息实施精准诈骗或跟踪骚扰。对此,必须禁止公开未成年人的真实姓名、住址、学校、班级等可识别身份的信息,这意味着无论是内容生产者还是平台,都需要对涉及未成年人的内容进行脱敏处理。

“在线教育平台收集的学习数据、智能设备获取的位置信息、社交平台记录的浏览行为,都属于个人信息范畴。”袁芳表示,平台不得以“默认同意”“一揽子授权”等方式规避监护人同意义务。

从实际案例来看,如果说“不良引导”是推手,那算法构建的单一审美则容易提供错误的模仿范本。一些平台将未成年人的个人信息用于精准营销、用户画像、数据交易等商业目的,严重侵害未成年人权益。

记者注意到,在“不当使用未成年人形象”类别中,“利用未成年人形象摆拍演绎含有不良价值观或者不当言行的剧情内容的”“通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的”等信息,以往可能仅被视为“不妥”,而今则明确纳入监管范畴,平台若放任传播将面临处罚。

斗鱼直播合规负责人谭玲菊在接受记者采访时介绍,作为一家国内知名的游戏直播平台,斗鱼在持续优化自动化审核系统方面具有一定经验:公司构建了“智能筛选+人工复核”的双重模式,依托阶梯式识别技术实时监测过滤涉未成年人内容;组建7×24小时专业审核团队,联动用户巡管队伍填补监控盲区,搭建涉未成年人敏感词专属词库并持续动态更新,通过技术升级提升审核处置效率,筑牢保护未成年人的防线。

“平台在官方页面开设直播间举报、自助服务举报、客服反馈等多渠道投诉举报入口,并专设未成年人保护独立自助投诉入口,便于及时响应。”谭玲菊对记者表示,针对投诉举报内容及巡查数据,由合规部门联合客服、审核等部门开展专项分析,同时联动运营、产品部门优化平台内容与产品功能,补齐管理漏洞,实现靶向整改、闭环治理。

针对算法推荐、生成式人工智能等新技术,办法第九条明确提出:“提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,不得向未成年人推送可能影响其身心健康的网络信息。”这实际上将算法治理纳入未成年人保护体系,强调平台须对推荐结果负责,不得以“技术中立”为由推卸责任。

浦洋认为,在具体实践层面,需要建立一套贯穿“事前预防、事中监控、事后处置”全流程的防护体系:一是严格的准入与实名认证,确保用户年龄真实,并对未成年人参与直播等业务设置监护人同意等前置门槛;二是多层内容审核与风险管控,结合技术过滤与人工巡查,对不良信息进行实时拦截;三是完善的消费保护机制,通过限制权限、建立便捷退款通道等方式,防止未成年人非理性消费;四是高效的客诉响应通道,确保涉及未成年人的问题能够优先、快速得到处理。这些措施共同构成平台履行保护责任的基础框架。

“关键是要将办法中具体的分类标准,融入到平台的内容审核资源库、风险识别模型和产品设计逻辑中去,特别是在首页首屏、弹窗、热搜等关键场景严格落实办法管理要求。”浦洋表示,这意味着平台需在内容分发环节建立分级过滤机制,避免不良信息通过流量入口大规模曝光。“只有将法律法规转化为企业内部实实在在的规则与技术能力,才能真正将未成年人保护义务落到实处,承担起我们应尽的社会责任。”

来源|《法人》杂志

审核|白馗 王婧 渠洋

校对|王茜 张雪慧 张波

编辑:张波