法治号 手机版| 站内搜索

网上有害信息举报

傅宏宇:人工智能时代将改变国际仲裁的格局

2025-10-29 14:28:54 来源:中国国际经济贸易仲裁委员会 -标准+

9月17日,2025中国仲裁高峰论坛暨中国-拉丁美洲国际仲裁论坛在京成功举办。本次论坛由中国国际经济贸易仲裁委员会(以下简称贸仲)与联合国国际贸易法委员会(以下简称联合国贸法会)、环太平洋律师协会、中华全国律师协会共同主办。

来自近30名仲裁法律界、公司实务界、学术界中外专家围绕“智联全球:共筑国际仲裁数智协作新格局”“智赋新章:规范国际仲裁数智辅助新边界”“智序未来:擘画国际仲裁数智治理新图景”三个议题发表演讲。来自52个国家和地区近500人现场参会,包括51家国际组织及国外主要争议解决机构共119名负责人和代表,全球103个国家和地区超过510万人次在线关注或收看。

在“智序未来:擘画国际仲裁数智治理新图景”第三个议题中,研讨嘉宾聚焦金融科技、人工智能、跨境电商、电动汽车、航空航天等重点领域展开深入探讨。

以下内容是阿里研究院人工智能治理及数据经济研究中心主任傅宏宇在“智序未来:擘画国际仲裁数智治理新图景”议题环节发表演讲内容节选:

(阿里研究院人工智能治理及数据经济研究中心主任傅宏宇)

我想给大家分享一下我的想法。目前我们在这样一个人工智能非常国际化的时代,举个例子,开源AI(是以开放共享为核心的人工智能技术体系,强调代码、数据、算法及模型权重的开放),我们已经处于人工智能世界了,考虑一下人工智能是如何传播的,它的核心关键词就是比如说人工智能的战略,就是有关传播,是一个分布式技术架构,平台应用等等都是这样,都是扩散式的方式。几年之前中国有很多AI的开发人员,我们有基础的模型开发,机构像阿里巴巴还有DeepSeek等等,还有很多别的公司,当然我们还有很多的使用人工智能的公司。在中国和美国之间有这样一个差距,但是我们正在赶上,特别2025年,我们赶得很快,我们看到有一系列的开源的模型,他们将会改变国际人工智能的版图,他可能也会改变国际仲裁的格局。

所以我们看到有这样一种开源模型逐渐占据优势,人们越来越多对开源模型熟悉,比如DeepSeek,比如通义。我们在思考全球国际化人工智能格局,即便OpenAI的奥特曼对是否开源改变他的观点,幸运的是OpenAI最近发布了一个开源模型,所以我们看到的确有这样两组做法的比较,当我们看到封闭模型仍然是最强大的模型,但是越来越多的人模型都是逐渐走向开源,而且他们来自中国,这些开源模型可以说目前在市场上处于非常重要甚至支配的地位,他们改变了市场格局,改变了应用的格局,也改变了手机的格局,改变了电池、应用程序,你们所持续的这些应用都在被开源模型所改变,这是我想讲的一个要点。

也就是说,某种东西正在改变我们的格局,就是开源,而且让AI变得越来越国际化,而且越来越可用,而且降低人们使用AI的门槛。

另外,让AI更有用,在很多场景下都有用。我想应用会变得越来越快,AI智能体改变很多的行业,我相信很可能会改变发展行业。

毫无疑问我们谈了很多,我们要去看开源模型,因为它建立的信任,增加了整个的生态,建立了整个世界,增强了世界的包容性,弥补所谓的AI的鸿沟,我们也看到,它能够提高能力建设,能力建设就与未来的人工智能应用至关重要。

我们要谈一下法律方面的影响,因为我们是法律人士,强调两点我们可能面临的法律问题,在使用开源人工智能模型时候,第一个有关许可制度,实际上我们正在面对两个许可的制度,这个跟我们在软件时代的许可是不一样的,因为它也意味着所有的软件都是对下游用户免费下载的,但是在开源人工智能的制度下,我们看到许可则是比较随意的,有一种是开放模型仍然使用打包的许可,也就是市场没有限制这类许可,这是个好的想法吗?这样一种许可逐渐普及,一方面我们看到机器学习的行业,他们正在推动所谓负责任人工智能的许可,也就是实际的许可,也就是说,我们从这种随意的许可制度往回退一步,不仅仅是豁免模型构建者的责任,这点是大家所讨论的。

比如说阿联酋,他对于开源模型也采用豁免责任的做法,豁免是关键点,我们必须培育一种所谓负责任的使用,意味着我们必须增加一下限制在这个许可当中,也许未来很多仲裁中心可能会影响到什么样的许可对于人工智能使用是恰当的,要确保他们对人工智能模型的使用和应用是更加负责任的,这些许可将会成为未来的支配力量。

我们看到许可毫无疑问,他们正在发生变化,他们相应的责任也会发生变化,所以这是我要讲的第二点。

开源人工智能创建了一个生态系统,有多个参与方,多个利益合作方他们协作,他们相互竞争,这会带来很多传统的法律责任制度的麻烦,我们不能够这么容易地在利益相关方之间分割责任,主体之间分割责任,因为它并不是一种非常清晰的流程,它实际上把很多东西搅合在一起,人们要密切合作,所以我们当时可以确认某些用户,他们是开源的贡献者,他们是开源的开发人员或者服务提供商等等,但是我们看到在新兴的开源平台下,他们法律责任是什么?在这样的生态系统中,如何在他们之间分配责任?我觉得其中有一个是来自美国的例子,美国事实上做了一个标准的设定,也就是要提供一个建议,要将法律责任在人工智能开发的全生命周期进行分配,也就是把它分成7类主体,他们将责任分配给这些主体,包括对风险的规划,以及对风险的评估,如何去化解风险,如何做出调整,当然,让它尽可能透明,而且能够进行披露,这样一种责任不能只分配一种主体,必须公平地分配,并且合理地分配给不同的主体,毫无疑问,就是在整个生命周期的生态系统。

总结一下我的发言,人工智能变得越来越国际化了,因为开源AI降低了人们去获取使用AI的门槛,开源人工智能也创建了一个新的生态系统,这个许可制度也发生了变化,它也影响到了责任在不同主体之间的责任分配问题,他们都处在这个生态系统当中,所以我们持续这个对话和讨论,未来有这个机会我也非常期待跟大家进一步沟通。

编辑:刘海滨