人工智能技术作为引领新一轮科技革命和产业变革的通用性技术,正在深刻改变着全球经济格局、人类生产生活方式乃至国家治理模式。2025年8月,国务院印发《关于深入实施“人工智能+”行动的意见》,提出要“探索形成智能向善理论体系”。专业声音指出,坚持以人为本、智能向善的价值原则已成为人工智能治理的基本共识。我国要建立健全人工智能应用的风险识别体系和监管机制,推进人工智能立法,防范化解智能时代的安全隐患和风险挑战,引导人工智能朝着有利于人类文明进步的方向发展。

(来源:正观新闻)
人工智能技术发展给人类社会带来多维影响,但其也带来诸多风险与挑战,亟须法律的规制与回应。一是人工智能发展引发多重伦理风险。复旦大学马克思主义研究院副研究员李凌等人指出,人工智能伦理风险是指人工智能技术在开发、部署和应用过程中,因技术特性、使用方式或管理缺陷而引发的违背伦理原则、损害社会价值、冲击个人权益或破坏生态平衡的可能性。在智能经济领域,人工智能推动产业升级、“机器换人”带来的结构性失业风险和贫富差距拉大风险等,与数据泄漏或数据滥用带来的大数据杀熟、金融欺诈等风险并存。在智能生活领域,随着生成式人工智能大规模应用,深度伪造、虚假信息、数据失实、大模型幻觉等问题愈发凸显,极大地冲击社会诚信体系。在智能治理领域,“技术黑箱”带来的技术失控风险、网络马太效应导致的数字鸿沟风险、境外渗透带来的意识形态风险等凸显。现行的伦理准则在应对上述问题时偏具宏观性,规则的具体化、可操作化和可复制化有待增强。
二是现有法律监管体系应对人工智能风险与挑战仍有滞后性。中国计量大学马克思主义学院教授傅琳凯等人指出,目前,我国已出台网络安全法、数据安全法、个人信息保护法等相关法律,对人工智能发展涉及的部分领域有所规范,但面对人工智能技术快速迭代与复杂应用场景,现有法律监管体系仍存在空白与不足。此外,《生成式人工智能服务管理暂行办法》是我国现阶段促进生成式人工智能健康发展和规范应用的重要法规,但在面对生成式人工智能技术可能引发的公共风险具有复杂性、多样性、多变性特点时,目前还尚未做到系统化,各法律法规之间也在规范内容上有所交叉。
三是人工智能应用的技术向善仍需进一步引导。西南政法大学教授付子堂等人指出,当前,人工智能应用层出不穷。一方面,在设计开发环节,人工智能的算法、数据、算力三要素存在规制不足问题。算法作为人工智能的核心技术,具有自主学习、辅助决策、配置社会资源等作用,如果缺乏规制会出现新的权力滥用;算法的基础是大数据,在数据确权、数据安全、数据流通规则等方面需要完善;算力作为数字时代的新型生产力,其发展需要规则予以保障。另一方面,在部署应用环节,自动驾驶汽车、智能诊疗系统、人形机器人、生成式人工智能等具体应用不断出现,都对现行规则带来挑战。
专家建议,推进人工智能治理法治化,引导和规范人工智能技术的研发与应用,确保人工智能造福人类。一是推动完善人工智能伦理治理体系。对外经济贸易大学法学院教授熊光清指出,人工智能的迅猛发展迫切需要伦理原则的规范与约束。首先,应以科技向善原则引导立法工作,将科技向善原则融入人工智能法律规范体系。目前,我国已出台《人工智能伦理治理标准化指南》等法律法规和政策性文件,针对人工智能技术特性细化出人工智能伦理准则,未来还可具体到自动驾驶、智能医疗等人工智能应用的具体领域,确保其安全性和合法性。其次,以科技向善原则为基础建立伦理审查机制。建立专业化和制度化的伦理审查机制,包括技术开发前的伦理预评估、开发过程中的动态监督,以及应用阶段的效果评估,确保人工智能技术的研发和应用符合伦理道德标准。最后,在国际合作中推动以科技向善作为规范人工智能发展的伦理准则。我国要加强与各国政府、国际组织、科研机构及产业界的协同合作,建立统一或兼容的伦理共识与标准。
二是构建全面科学的人工智能法律制度体系。西南政法大学民商法学院院长张力等人建议,未来的人工智能立法工作需要积极探索创新路径:第一,坚持适应性治理理念,考虑前瞻性立法,适应技术迭代发展超出已有制度规范范围的客观形势。第二,坚持要素立法与场景立法相结合,在完善数据、算法等基础要素监管规则的同时,积极推进自动驾驶、智能医疗、智慧金融等典型应用场景的专门立法,实现精准治理;加快构建多层次规则体系,鼓励地方在权限范围内制定更具操作性的法规,加快制定配套标准规范,形成国家法律、行政法规、地方性法规、部门规章、技术标准相互支撑、有机统一的制度体系。第三,加紧完善生成式人工智能等前沿领域的发展与管理机制,增强人工智能立法的系统性、整体性、协同性,确保不同层级、不同领域法律法规协调一致,形成治理合力。
三是为推动安全可靠的人工智能应用落地提供制度保障。傅琳凯、中国政法大学数据法治研究院教授张凌寒等人建议,针对层出不穷的人工智能应用,第一,可建立覆盖全行业、全生命周期的统一的安全评估体系标准,实现对人工智能应用安全风险的精准测评,筛选、推广安全可靠的人工智能应用,以发挥技术向善作用;建立“动态复核”制度,对已认证应用形成安全闭环管理。第二,通过立改废释多种方式解决现有制度不适应人工智能技术产业发展的“时间差”“空白区”问题,以明确的制度规范为人工智能技术产业发展提供必需的数据资源与行为指引。人工智能产品与服务的法律责任设置,既需要考虑为社会治理目标划定红线底线,又需要衡量现阶段技术的发展水平。在个案裁判中,还应考虑将人工智能产品与服务提供者的透明度义务履行情况、主动报告与补救情况等作为其法律责任认定的考量因素。
参考资料:
1. “智能向善”:人工智能创新发展的理与路
2. 付子堂:新质生产力视野下的人工智能立法研究
3. “人工智能+”行动开展的伦理风险与法治保障
4. 以良法善治保障人工智能健康发展
5. 探索建立促进人工智能向善机制
6. 为人工智能高质量发展和高水平安全提供法治保障
舆情分析师 赵鸽
编辑:靳雪林