要闻

大模型市场迎来快速发展 面临新的安全风险挑战

2023全球数字经济大会人工智能高峰论坛在京举行

法治网见习记者 哈建伟

7月2日,由北京市人民政府联合工业和信息化部、国家网信办、商务部、中国科协共同主办的“2023全球数字经济大会人工智能高峰论坛”在京举行。与会嘉宾围绕当下最具热度的大模型技术发展路径及应用场景等话题展开讨论,并就如何应对大模型发展面临的安全风险挑战进行了探讨。

大模型火爆带动人工智能产业高速发展

随着ChatGPT掀起大模型的发展热潮,人工智能产业风头更劲,迄今已有80余个大模型公开发布。大模型产品正不断向政务、金融、文创、医疗等行业拓展,产业链上下游创业热潮不断高涨。

目前,包括北京市在内的全国多地正在以大模型作为人工智能发展突破口,抢占行业和市场发展新高点。“我们将不断加快优质资源要素配置,有效整合创新资源,积极营造创新生态,夯实人工智能产业的发展基础。”北京市经济和信息化局党组书记、局长姜广智表示,北京市已发布的通用人工智能产业创新伙伴名单中,有十余家算力伙伴计划提供不少于4000P的低成本优质算力,供北京市人工智能中小企业开展大模型训练和推理。共10个伙伴开放了18个将近500T的高质量数据集,供大模型企业训练使用,应用伙伴全面覆盖各行各业。

同时,北京市通用人工智能大模型应用场景需求榜单发布,共涉及32个项目,涵盖智慧政务、智慧办公等14类场景。

“北京市政务服务管理局将在场景推进、数据供给、模型训练、算力保障等方面积极推进,推动大模型技术在政务服务领域落地应用并尽快取得突破。”北京市政务服务管理局副局长朱琴表示。

大模型的快速发展面临着新的安全风险挑战

当下,大语言模型引领创新浪潮席卷全球。相比于传统人工智能模型,大语言模型掌握了更强的语言能力,能理解、有逻辑、会推理、有创作、有情感,具有更强的泛化和迁移能力。大语言模型在很多任务上已经达到甚至超过人类的水平,使得通用人工智能的市场前景更加明朗。但与此同时,伴随着大模型等人工智能产业的快速发展,也面临新的安全风险挑战。

360公司创始人周鸿祎认为,目前企业级场景落地大模型面临数据安全隐患、无法保障内容可信等问题。

清华大学人工智能研究院副院长朱军表示,AIGC特别是ChatGPT出现以后,数据泄露、利用AIGC技术进行诈骗、通过虚假内容进行黑产攻击、代码生成进行网络攻击等人工智能安全问题越来越严重。

中国政法大学互联网金融法律研究院院长李爱君表示,大模型、尤其是AIGC的快速发展,给人工智能安全、网络安全带来了新的挑战。“现在最大的问题难点在于对责任主体的认定难度越来越大”。

应多维施策加大安全风险防范治理力度

面对当下安全风险挑战,朱军认为,应针对算法原理、深度学习、深度神经网络等进行研究,发展更加安全可靠的人工智能框架。同时,提升对对抗攻击、角色扮演、误导欺骗的识别和防御、数据投毒等问题的安全评测能力。

周鸿祎表示,大模型产业化需要遵循“安全、可信、可控”三个原则。他表示,安全方面,要注意网络安全、数据安全、算法安全和生成内容安全。可信要做到搜索矫正、知识矫正、对齐训练,解决“幻觉”知识模糊等问题。可控方面,不能马上向大模型开放API、函数,要采取监控审计手段,把大模型“关在笼子里”。

“我们已启动金融、电信、教育、法律、电力、汽车、传媒、政务等行业大模型标准的编制工作,围绕技术能力、服务能力、应用场景等方面形成评价指标,全面评估行业大模型的综合水平。”中国信息通信研究院云计算与大数据研究所副所长魏凯说道。

李爱君认为,要客观评估大模型技术发展对人类生活的影响,进一步加强数据底座安全意识,在数据层面进行规范治理,强化责任主体意识,提升整体安全水平。“同时,进一步完善相关法律法规,为大模型等人工智能行业的健康发展保驾护航”。

编辑:迟明绪