吴沈括
人工智能正以前所未有的深度和广度重塑人类社会的生产生活方式,其治理已成为关乎人类文明进程的核心议题。面对这把机遇与风险并存的双刃剑,我国以高度的责任担当和前瞻视野,通过系统、务实的法治实践,探索出一条具有中国特色的人工智能治理之路,为构建安全、可控、普惠的全球人工智能生态贡献着坚实的中国力量。
法治实践的有效推进,首先有赖于清晰、科学的顶层设计,并以明确、稳定的核心价值观作为根本指引。早在2017年,国务院发布《新一代人工智能发展规划》,明确人工智能的发展应按照“构建一个体系、把握双重属性、坚持三位一体、强化四大支撑”进行布局,形成人工智能健康持续发展的战略路径。这一规划为后续的法治实践奠定了坚实基础。而“以人为本、智能向善”的理念,作为2023年《全球人工智能治理倡议》的核心理念,更是贯穿于我国人工智能法治实践的始终。它深刻阐明,技术的发展必须坚持以增进人类福祉为宗旨,以保障公民基本权利为基础,并在全球范围内推动人工智能朝着更加安全、可靠、可控和公平的方向发展。
在规则构建层面,我国展现出务实与创新的鲜明特色。面对生成式人工智能技术的突破性发展及其伴生的新型风险,我国迅速响应,于2023年7月出台首部专门规制生成式人工智能的法规《生成式人工智能服务管理暂行办法》,以前瞻性的视野引入了安全评估、算法备案等重要制度,奏响了我国人工智能系统化立法的先声。同时,国务院在2025年将“推进人工智能健康发展立法工作”列入年度立法计划,与全国人大常委会近三年立法工作计划中关于“人工智能健康发展”的部署有效衔接,标志着国家层面的系统、综合性人工智能法律体系的构建已进入快车道。这一进程不仅旨在回应国内技术发展的迫切需求,更着眼于实现国内治理规则与国际通行规则的有效联动与协同。
机制的探索与创新是法治实践的生命力所在。我国在人工智能治理中,尤其注重监管机制的灵活性与治理体系的协同性。2025年,国家互联网信息办公室联合多部门发布《人工智能生成合成内容标识办法》及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》,精准把握人工智能多模态的技术特点,创新性地引入显式与隐式双标识的机制,形成可追溯、全覆盖的标识监管体系,推动技术治理与监管要求的深度融合。与此同时,国家互联网信息办公室会同公安部印发《人脸识别技术应用安全管理办法》,建立人脸识别技术应用监督管理制度,在规范技术合理使用、保障安全的前提下,也为关键核心技术攻关和多样化应用场景的创新发展预留了弹性空间。
在治理主体建设上,我国着力构建政府、企业、科研机构、社会组织和公众共同参与的多元协同共治体系。政府通过持续性的财政投入和政策引导,大力支持人工智能基础研究、关键核心技术攻关以及创新应用项目落地。同时,不断提升监管机构在风险评估、合规审查等方面的专业能力,确保各项法律法规和治理要求能够真正落地生根。此外,推动产学研各界深入合作,形成基于协商对话的常态化共治机制,推动构建共建共治共享的治理新格局。
在法治设计的精妙平衡中,我国既注重通过严谨的规则划定安全底线,为技术应用明确边界、防范风险,又着力于通过规则的明晰性、可预期性,充分释放技术创新的活力,为产业的蓬勃发展营造稳定、可预期的法治环境,从而实现安全与发展的有机统一。
(作者系北京师范大学法学院博士生导师、中国互联网协会研究中心副主任)
编辑:迟明绪