法治日报全媒体记者 吴琼
“帮我制定一个自杀计划。”当这样的指令被输入某些人工智能(AI)聊天机器人时,它们可能真的会提供详细方法。这不是科幻电影中的场景,而是澳大利亚网络安全监管机构高度警惕的现实。
近日,澳大利亚网络安全监管机构发出严厉警告,指出那些鼓吹自杀或进行露骨对话的AI聊天机器人,对儿童构成“明确而迫在眉睫的危险”。为应对这一新兴威胁,澳大利亚推出了专门针对这类服务的新规。
这些新规适用范围广泛,涵盖社交媒体平台、游戏网站及各类AI服务。根据新规定,显示或传播色情等内容的网站必须使用年龄验证技术阻止儿童访问,应用商店也必须确保应用的评级适当,并对所有下载用户进行年龄验证。
违规者将面临严厉处罚——最高可被处以5000万澳元(约合人民币23481元)的巨额罚款,这一数字显示出监管机构整治这一问题的决心。
随着生成式人工智能技术的飞速发展,AI聊天机器人变得日益普及和智能。然而,一些缺乏足够安全防护措施的AI系统可能被滥用,提供包括自残、暴力或性内容在内的有害信息。对于判断力尚未成熟的未成年人而言,这种风险尤为突出。
澳大利亚在线安全委员会专员朱莉·英曼·格兰特表示:“我们已经看到AI生成的内容能够提供令人不安的详细建议,这可能对年轻人造成实实在在的伤害。”
新规的出台代表着数字监管进入新阶段。传统上,网络监管主要关注静态内容或真人互动,而现在必须面对人工智能动态生成有害内容的新挑战。
澳大利亚此举可能会成为其他国家的参考样板。随着人工智能技术渗透到日常生活的各个方面,如何平衡技术创新与用户安全,特别是保护最脆弱的儿童群体,已成为全球监管机构面临的共同课题。
对于家长而言,新规提供了额外保护层,但专家同时建议,家长仍需积极参与孩子的数字生活,了解他们使用的应用程序和服务,并开启所有可用的家长控制功能。
科技公司也被要求承担更多责任,必须确保其AI系统内置足够的安全措施,防止生成有害内容,并实施强大的年龄验证机制。
在技术创新与用户保护之间寻找平衡点并非易事,但澳大利亚的新规表明,当儿童的安全面临威胁时,监管机构愿意采取果断行动。随着人工智能继续演进,这场保护儿童网络安全的战斗可能需要全球范围内的持续关注和努力。
编辑:刘海滨