法治号 手机版| 站内搜索

网上有害信息举报

AI技术不能成为“谣言工厂”

2025-05-27 14:16:09 来源:法治日报-法治网 -标准+

□ 社会时评

□ 刘青

近年来,随着AI技术飞速发展,网络谣言已突破传统文本形态的局限。造谣者利用AI技术优势,极短时间就可生成人物、时间、地点、事件等关键要素一应俱全的内容,且“情节生动、图文并茂”,有的甚至还有逼真的视频片段。这些谣言用来博取眼球获取流量甚至实施诈骗,危害性不容小觑。

为促进生成式人工智能健康发展和规范应用,我国持续推进相关制度建设。有关部门出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,《人工智能生成合成内容标识办法》也将于2025年9月1日起施行,一定程度上给AI技术使用划定了红线和底线,明确了责任边界。

但要全方位整治利用AI技术制作发布谣言行为,还需要构建多方协同发力的责任共同体。

AI技术开发者要做“算法向善”守门人。充分认识防范AI技术滥用风险、维护网民合法权益的重要意义;要开发对事实更加敏感的语言模型,对用户输入的内容采取干预措施,减少AI生成误导性内容;积极开发鉴伪工具,以“技术打败技术”。

网络平台要筑牢“内容防线”。健全AI生成合成内容审核机制,提升技术检测能力;建立应急响应机制,及时溯源并关闭谣言首发账号;建立便捷的举报和投诉渠道,对于多次利用AI造谣的用户,采取“封号”等禁止性措施。

近日,中央网信办印发通知,在全国范围内部署开展为期3个月的“清朗·整治AI技术滥用”专项行动,其中明确将“利用AI制作发布谣言”列为重点整治的七类突出问题之一,充分体现了有关主管部门对AI技术滥用现象的敏锐洞察以及深入治理网络谣言的坚定决心。

AI技术不能成为“谣言工厂”,而应成为推动社会进步的“向善力量”。开发者筑牢伦理防线、平台压实审核责任、执法部门严打违法行为,唯有各方守好各自的“责任田”并形成治理合力,才能推动AI技术在法治轨道上高质量发展。

编辑:赵亚铭