刘晓春
前不久,在工业和信息化部指导下,中国信息通信研究院联合电信终端产业协会发布《未成年人个人信息保护倡议》,提出要推动企业严格落实未成年人个人信息保护义务,研发具备一键启动、防绕过功能的未成年人模式,优化服务供给,健全保护体系等。
当前,我国已建立起较为完善的未成年人网络保护立法体系,相关工作机制和治理体系也在快速形成,并取得了令人瞩目的成果。其中,“未成年人模式”是我国未成年人网络保护制度中较为重要的实践。随着《移动互联网未成年人模式建设指南》等规范与标准的出台,这一模式不断迭代更新,已成为规范化、精细化、便利化的保护工具。然而,该模式在未成年人身份识别、内容池和功能建设、家长技能培育等方面仍存在诸多提升空间。特别是目前我国有近两亿未成年网民,如何有效识别其未成年人身份成为一大挑战,而这恰恰是对其实施特殊保护的前提。
未成年人的身份识别面临技术和制度上的双重挑战。从技术层面看,对于未主动披露自身年龄的未成年用户,需要平台根据其行为特征进行评估判断,以识别出“疑似”未成年人的用户。这就要求平台企业具备相应的数据积累和技术能力,开发相应的模型。但更大的困难来自制度层面。根据我国个人信息保护法的相关要求,未经未成年人及其监护人的明确授权同意,不得处理未成年人信息。这就导致了身份识别合规实践的悖论——平台企业需要识别出未成年人才有可能履行保护义务,但识别过程本身又可能违反个人信息保护法相关规定,这使得平台企业极易陷入两难境地。而如果不能有效识别出未成年人,就很难运用未成年人模式对未成年人实施特殊保护。
除了识别未成年人身份,在一些特殊场景下出于保护未成年人的目的,处理其个人信息并对其进行画像同样具有必要性。例如,面对网络性侵、隔空猥亵等侵害未成年人身心健康的高危情况,有必要通过开发技术模型来分析相关场景与用户,并及时进行预警和防范。在这些特殊场景中,如果能允许平台企业出于保护未成年人的目的处理个人信息、分析用户画像,而不拘泥于严格的授权规则,将有助于提高平台企业防范侵害的积极性,为未成年用户提供更有力的保护。当然,这些信息处理行为必须严格遵循目的限定原则,以避免对相关信息进行超出保护目的的处理和使用。
当前,人工智能领域的各种应用,如聊天工具、人工智能助手以及各种智能体,不仅拓展了未成年人获取信息和知识的途径,也增强了他们制作和传播内容的能力。然而,高度个性化、互动性的人工智能应用,由于其内容供给的私密性以及对未成年人更强的影响能力,需要建立专门的未成年人保护机制。例如,在人工智能聊天工具等场景中,可以借助人工智能强大的信息处理能力,结合未成年人的行为特征、兴趣爱好及价值观培育需求,进行个性化的内容定制和正向引导。在此过程中,收集个人信息和处理用户画像的价值不仅体现在身份识别、侵害防范等基础领域,还体现在可以为未成年人提供具有吸引力的优质内容、促进其身心健康发展等方面。这有助于我们在人工智能时代充分运用技术发展带来的便利,开展未成年人保护工作。
未成年人网络保护的愿景和目标要落到实处,笔者认为,必须承认并重视未成年人使用网络和人工智能工具的现状和特点。在技术上,要积极开发促进保护和发展的功能模块;在制度上,要明确规则,确认平台基于权益保护的未成年人个人信息和用户画像处理行为,属于履行保护未成年人义务的“法定义务”,该行为可以不经未成年人及其监护人的授权。当然,这些处理行为应当严格限定在上述目的的范围之内,并从监管层面和行业自律层面确立更加细化的规范,避免企业陷入两难合规境遇,为互联网行业探索未成年人保护创新实践提供重要制度保障。
(作者系中国社会科学院大学互联网法治研究中心主任)
编辑:林楠特