□ 专家点评
□ 张鸿巍
根据我国现行法律法规,网络平台在民事侵权领域通常须承担直接侵权责任或间接侵权责任,后者主要涉及网络平台对网络用户利用其网络服务所实施侵权行为而未采取必要措施所应承担的相应民事责任。
对于此类间接侵权责任,民法典第1194至1197条采用“通知—删除”规则要求网络平台承担责任,即权利人在向网络平台举报、发出侵权通知后,网络平台应及时删除、屏蔽、断开链接。适用上述法条时,难点之一即在于对第1197条“网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任”中“知道或者应当知道”内涵之厘定,以确定网络平台与用户承担连带责任。
北京互联网法院秉承“给予受害者靠前一步的保护”理念,明确网络平台应对涉未成年人隐私信息负有更高注意义务。该案中,法院认定涉案视频中的未成年人特征明显,涉案网络平台符合第1197条规定之网络服务提供者“知道”情形;但经案外人举报才于第二天删除视频,属“未采取必要措施”而应与相关网络用户承担连带责任。判决公平公正,有力维护了未成年人合法权益。
为避免此类网络欺凌侵权案件再度发生,平台亟待建立健全完善的网络治理体系,承担互联网企业/行业的社会责任,以确保对未成年人进行充分且持续的网络保护。
首先,网络平台对“未成年人应受特殊、优先保护”的责任意识须不断加强,尤其在承担审核及删除等特定注意义务方面更是责任重大。我国未成年人保护法强调未成年人享有生存权、发展权、受保护权、参与权等权利,而这些权利的充分与完整实现有待于包括网络平台在内各个社会主体的义务履行。未成年人保护法第四条明确“保护未成年人,应当坚持最有利于未成年人的原则”,该条特别强调处理涉及未成年人事项,应当给予未成年人特殊、优先保护。此处“特殊保护”“优先保护”,必须结合“最有利于未成年人的原则”统合考量,即面对侵害未成年人合法权益尤其是涉及未成年人人格尊严、隐私权之事件时,所提供保护力度应显著高于对成年人的保护。具体到本案中,民众与法律对网络平台审查涉侮辱、诽谤、威胁或者恶意损害形象等未成年人网络欺凌行为之义务有极高期待,因而须进一步提高网络平台的职业素养和责任意识。
其次,网络平台应当不断健全涉未黄谣预警预防与识别监测机制,进一步优化相关算法模型,以期内容审核和识别更加严格、精准。网络技术日新月异,信息存储、内容辅助生成、模板生成视频等技术不断成熟,在降低用户使用专业门槛的同时,亦可能造成技术被滥用。网络平台可采用基于人工智能的数据分析技术与人工审核相结合的方式加强对网络欺凌信息的识别监测,开发识别和分类涉及未成年人黄谣内容的算法,及时监测可疑的在线活动,尽早尽快识别文字、图片、音视频等多种形式的未成年人黄谣信息。
最后,网络平台应当建立健全便捷、合理、有效的投诉、举报渠道,以便及时处置和有效应对涉未黄谣传播。在接到用户举报或权利人通知后,网络平台应立即停止传输相关信息,采取删除、屏蔽、断开链接等有效措施,防止已确认的未成年人黄谣信息进一步传播扩散。同时,网络平台应及时处理制作、复制、发布、传播未成年人黄谣信息的网络平台账号,根据情节轻重采取警示、限制功能、暂停服务、关闭账号等处置措施,保存有关记录并及时向网信、公安等部门报告。
(作者系北京理工大学(珠海)长聘教授、博士生导师)
编辑:霍悦