孙杰
随着生成式人工智能技术全面融入经济社会各领域,其输出内容可能偏离事实与逻辑的“幻觉”现象,正从单纯的技术特性演变为不容忽视的法律风险源。国家“十五五”规划明确要求“加强人工智能治理,完善相关法律法规”。习近平总书记指出,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。在此背景下,系统剖析“幻觉”可能触发的刑事风险,厘清传统归责原则面临的困境,进而构建精准、明晰的刑事责任分配框架,对统筹人工智能领域发展与安全具有紧迫的现实意义。
一、风险透视:生成式人工智能“幻觉”的刑事风险图谱
生成式人工智能的“幻觉”,指模型生成看似合理但背离事实或逻辑的内容。这一技术缺陷与特定意图和场景结合,便可能对刑法所保护的法益构成现实威胁。其刑事风险具体呈现于三大核心场景,且在各专业领域具有鲜明的危害形态。
一是作为犯罪工具的“恶意利用型”风险。行为人主动利用“幻觉”特性,将其作为实施犯罪的高效工具。例如,在金融领域,可生成虚假的企业财报、审计意见或内幕消息,用于证券诈骗或操纵市场;在司法领域,能编造逼真的证人证言、伪造鉴定意见或篡改裁判文书,严重妨害司法公正。此类行为主观恶意明显,完全符合诈骗、妨害作证、伪造公文等相关罪名构成要件,技术沦为犯罪的“精准推手”。
二是植根于研发环节的“定向滥用型”风险。此风险体现为研发行为本身恶意利用或塑造“幻觉”。例如,为特定商业竞争目的,通过数据投毒训练能系统性生成诋毁竞争对手产品或财务虚假信息的模型;或为非法牟利,研发能自动生成虚假医疗诊断报告、伪造药物疗效数据的专用模型。此类研发旨在制造“以假乱真”的犯罪工具,其行为本身可能触及破坏生产经营、侵犯著作权等罪名,具有源头违法性。
三是聚焦平台管理的“失职不作为型”风险。生成式AI服务提供者若未履行法定安全义务,其平台可能因“幻觉”成为大规模危害的放大器。例如,在医疗健康领域,平台若未对模型生成的诊断建议进行必要审核与风险提示,导致错误用药建议被广泛传播,可能因严重后果追究其刑事责任;在交通运输领域,对用于路况分析或调度的模型产生的“幻觉”数据(如虚构的拥堵或事故)未建立过滤机制,可能涉嫌危害公共安全。其归责基础在于对可预见的且具有控制力的风险未尽管理之责。
二、归责困境:传统刑法原则面对“幻觉”的结构性挑战
尽管风险已然清晰,但将传统刑法归责体系适用于“幻觉”引发的案件时,却面临源于技术特性的结构性挑战,主要体现在责任主体、主观方面与因果关系的认定上。
主体难定:责任主体多元与行为归属模糊。一项由“幻觉”导致的危害结果,其成因链涉及数据提供、算法设计、模型训练、服务运营及终端使用等多个环节。在技术“黑箱”与协同作业模式下,难以清晰、唯一地将危害后果归属于某一特定主体的独立“行为”,直接冲击了刑法“罪责自负”原则,易导致责任链条断裂与追责真空。
罪过难识:主观罪过标准模糊与适用困境。刑事归责以行为人存在故意或过失为前提。对于上游研发者,其目标在于提升模型通用性能,对于下游不可预见的无数具体危害,难以认定其具备刑法上的“预见可能性”与“避免可能性”。对于中游服务提供者,其主观心态是“基于技术认知的合理疏忽”还是“对明显风险的放任”,界限难以厘清。传统故意与过失理论植根于人类理性行为模式,难以直接适用于AI非意图性、概率性的输出过程。
因果难断:因果关系链条复杂与判断失准。刑法要求危害行为与结果间存在直接、实质的因果关系。在“幻觉”致害路径中,从有偏数据输入、缺陷算法运算,到随机性内容生成,再到用户的传播扩散,穿插着多重技术节点与人的意志介入。用户的恶意诱导是否中断了上游责任?模型的固有缺陷是危害发生的“条件”还是“原因”?这使得传统“条件说”或“相当因果关系说”的适用充满不确定性,客观归责理论中的风险实现判断也面临技术黑箱的阻碍。
三、路径构建:迈向阶梯式与精准化的刑事责任分配框架
为应对上述挑战,必须在坚守罪刑法定、责任主义等基石原则下,构建一个与各参与方实际角色、技术控制力及法定义务精准匹配的阶梯式、差异化刑事责任分配框架,实现打击犯罪与保障创新的平衡。
第一,明确打击核心:严惩利用“幻觉”的故意犯罪者。对于以实施犯罪为目的,故意利用或诱导AI生成违法内容的使用者,应作为刑事归责的首要目标。其行为模式清晰,主观恶意明显,社会危害直接,通过合理解释适用现有罪名即可有效规制。这彰显了“技术非无罪盾牌”的刑法立场,维护了刑法体系的稳定性与适应性。
第二,厘清平台责任:以“技术可控性”与“合规期待”界定作为义务。对于生成式AI服务提供者,刑事责任的认定应严格以其对生成内容的实际控制能力和法律法规设定的特定义务为基准,核心在于是否构成“不作为犯”。义务具体化:将《生成式人工智能服务管理暂行办法》等规范中的安全评估、内容管理、风险提示等要求,转化为判断其是否履行“信息网络安全管理义务”的客观标准。过错层次化:区分“技术局限性”与“管理不作为”。对于已采取业界合理措施(如显著风险提示、主流缓解技术)仍难以避免的底层“幻觉”,应排除刑事归责;对于未建立基本安全制度、对已知明显违法模式放任不管、经责令后拒不改正等情形,则应结合后果审慎评估其不作为犯罪责任。
第三,限缩源头责任:捍卫技术中立与创新空间。对于基础模型研发者,刑法应保持最大限度的谦抑,聚焦于前述第二类风险中的恶意研发行为。即,只有当有确凿证据证明研发者故意通过数据、算法等手段,旨在制造或系统性利用模型的“幻觉”特性以实施特定犯罪(如制造诽谤工具、生成诈骗模板),其行为才可能进入刑法规制的视野,视情况考虑是否构成相关犯罪的预备或帮助犯。对于因技术探索中数据使用不当引发的普通侵权风险,应主要通过民事、行政及行业自律渠道解决,避免刑事手段过度介入而扼杀技术创新的源头活水。
生成式人工智能“幻觉”伴生的刑事风险现实而具体,但刑法的回应贵在精准与审慎。面对技术之复杂,法律应秉持“最后手段”之定力,通过构建权责清晰、分层递进的归责体系,将规制锋芒精准指向怀有明确恶意的滥用者与严重失职的管理者,同时为技术创新划出安全的法治空间。未来,亟需深化司法与技术的对话,构建可审计、可解释的技术治理支撑机制,为刑事归责提供坚实的事实根基。唯有如此,方能筑牢人工智能时代发展与安全的法治屏障,护航其在法治轨道上行稳致远。
(作者系山东政法学院副教授,法学博士,本文系“山东省社科规划专项课题”《生成式人工智能“幻觉”的刑事归责困境及破解路径研究》阶段性成果)
编辑:霍悦