北京外国语大学法学院郑曦在《法商研究》2025年第3期上发表题为《科技企业参与人工智能司法应用及其规制》的文章中指出:
科技企业对人工智能司法应用的参与,是在整个社会数字化浪潮的推动下展开的。人工智能技术的普遍运用塑造了社会生活的新形态,推进或裹挟着社会生活的数字化、智能化转型。从法院的视角看,允许、要求科技企业参与人工智能司法应用的最大内在驱动力源自沉重的案件数量压力。从科技企业的视角看,其积极参与人工智能司法应用的根本内在驱动力来自追求经济利益的商业本能。
在人工智能司法应用中,科技企业除了扮演产品研发者、系统维护者、平台运营者等技术角色外,还实质上担任数据处理者、程序控制者和裁判参与者等角色。这可能与审判基本原理发生冲突,导致诉讼模式改变,并带来其他外部政策性风险。针对这些风险,应当合理区分科技企业参与人工智能司法应用中的公私界限,明确“有限参与”的基本要求,并对其参与过程进行必要监管。
在此基础上,从制度层面规制科技企业在人工智能司法应用中的参与,应当从调适法院与科技企业的关系、确立技术标准、科以数据安全保护义务、保障审判权独立运行、保护公民诉讼权利等方面展开。第一,在人工智能司法应用中,妥善处理法院与科技企业的关系,是缓解或避免科技企业参与所带来的理念性和结构性风险,实现对科技企业的有效监管、防止腐败发生的必要前提。第二,从人工智能司法应用整体发展的角度看,确立技术标准亦有基础性意义,符合加强监督的基本理念要求。人工智能司法应用的技术标准具有科学性、灵活性、协商性。第三,科技企业在人工智能司法应用中扮演数据处理者的角色,应以数据处理者的身份,根据相关法律承担数据安全保护之义务。在数据处理前承担审查评估义务;在数据处理中承担安全控制义务;在数据处理后承担封存删除义务;发生数据安全事件时承担应急处置义务。第四,保障审判权独立运行和保护公民诉讼权利则是科技企业参与人工智能司法应用是否符合法治之要求的重要判断标准。
编辑:武卓立