赵精武
近段时间以来,OpenClaw应用下载与使用情况火爆,其强大的自主决策功能吸引了不少用户安装体验。阿里、腾讯等互联网企业相继跟进部署服务,在社交平台上甚至出现了上门收费代装OpenClaw的服务,一场“养虾”热潮迅速升温。
与“豆包”“元宝”等公众熟知的人工智能产品不同,OpenClaw的突破在于电脑桌面端部署与开源生态:其接入基础模型应用程序编程接口,以系统权限调度本地与网络资源,并与移动端实时互联,从而打通了从指令到执行的闭环。在OpenClaw的帮助下,用户可通过自然语言指令让AI直接操作系统工具,实现文件整理、邮件发送、数据分析等全流程自动化,且可以在后台24小时运行,让智能体首次具备了真正意义上的“数字员工”属性。
然而,高度自主决策功能的实现,依赖用户开放足够的数据访问权限,这也意味着用户本地存储的文件、数据、密钥均处于风险不确定状态。从媒体公开报道看,部分用户已遭遇OpenClaw错误删除电子邮件、重要文档等技术故障。尤其需要注意的是,若用户未能正确卸载,残留文件仍会对用户的个人计算机产生安全威胁。这些风险的出现,也印证了技术创新背后机遇与风险并存的客观规律,人工智能技术也不例外。近期,国家互联网应急中心、中国互联网金融协会等部门也陆续发布风险提示,提醒公众重视安全风险,审慎安装。
2026年1月1日起施行的新修订的网络安全法明确提出,加强风险监测评估和安全监管,促进人工智能应用健康发展。当前智能体应用尚处于创新探索阶段,其存在的网络安全风险也确实为治理实践提出诸多新问题:一方面,智能体的功能定位是“私人定制”的专属服务,需要获取足够多的用户个人信息进行训练,进而形成符合用户使用习惯的信息服务模式,但这也让个人信息保护法中的“最小必要原则”面临被虚置的风险。由于智能体的作用是为用户提供全方位的便捷化服务,因此难以界定哪些信息属于实现其功能所“必要”的范畴。另一方面,以开源社区为依托的智能体应用技术更新周期极短,网络安全风险更为复杂。这既包括开源生态体系固有的技术漏洞、恶意代码植入等安全风险,也涉及高频率更新带来的质量不稳定、故障频发等问题。
人工智能技术的创新迭代,对现行网络安全法治体系提出了更高的延展性要求,即网络安全规范体系应当与人工智能技术保持同步规划、同步发展的状态。现行的网络安全法等法律法规已逐渐明确了核心治理逻辑和治理规则,因此当下的工作重点除了“立法”更要“释法”,即明确现有网络安全法律条款如何适用于智能体安全风险治理实践。
第一,网络安全法治体系需要延展网络安全风险的分级分类框架,为不同风险等级的智能体行为设置差异化的保护措施。例如,对于资金流出、安全配置修改等风险极高的行为,可一律禁止智能体自主执行;对于邮件回复等行为,则需要由人来进行最终确认。同时,要对不同领域的风险容忍度进行分级,在此基础上出台智能体技术应用的负面清单,并根据技术发展、产业动态等因素适时调整。如对涉及国家安全、金融安全及关键信息基础设施等高风险敏感领域,应明确禁止使用端侧智能体;对风险容忍度相对较高的领域,则可基于行业特征,明确不得使用智能体的具体场景。
第二,网络安全法治体系需要扩展智能体网络安全漏洞的专项治理措施。具体而言,可以考虑将提示词注入、视觉对抗攻击、数据“投毒”及其他针对多模态大模型感知、推理技术特征的攻击方式,纳入网络安全法所述的“恶意程序”和“安全缺陷、漏洞”范畴,从而将其纳入人工智能安全法律规制范围。
第三,网络安全法治体系需要囊括智能体开源社区与开源平台的主体责任。开源社区应当塑造开发者“技术向善”的伦理规范,防范开源社区和开源平台成为网络攻击的重灾区或中转站,通过社群规范等方式,强化安全风险提示与说明。
智能体应用的网络安全治理,既关系到人工智能产业的创新发展,也关系到我国现代化治理能力和治理水平的提升。面对智能体等人工智能技术难以预料的创新周期和发展方向,网络安全法治体系需以更灵活、全面的方式,预防相伴而行的风险,同时也要为技术创新预留探索空间,最终实现技术创新与法治体系的一体化发展。
(作者系北京航空航天大学法学院副教授、工业和信息化智慧法治工信部重点实验室执行主任)
编辑:林楠特