法治号 手机版| 站内搜索

网上有害信息举报

Jean-Rémi de Maistre:数智化仲裁应以透明度构建信任

2025-10-29 13:49:43 来源:中国国际经济贸易仲裁委员会 -标准+

9月17日,2025中国仲裁高峰论坛暨中国-拉丁美洲国际仲裁论坛在京成功举办。本次论坛由中国国际经济贸易仲裁委员会(CIETAC,以下简称贸仲)与联合国国际贸易法委员会(UNCITRAL,简称联合国贸法会)、环太平洋律师协会(IPBA)、中华全国律师协会(ACLA)共同主办。

来自近30名仲裁法律界、公司实务界、学术界中外专家围绕“智联全球:共筑国际仲裁数智协作新格局”“智赋新章:规范国际仲裁数智辅助新边界”“智序未来:擘画国际仲裁数智治理新图景”三个议题发表演讲。来自52个国家和地区近500人现场参会,包括51家国际组织及国外主要争议解决机构共119名负责人和代表,全球103个国家和地区超过510万人次在线关注或收看。

以下内容是Jus Mundi国际法与仲裁检索数据库首席执行官及联合创始人Jean-Rémi de Maistre在第二个议题“智赋新章:规范国际仲裁数智辅助新边界”中的发言节选。

我们公司的业务涉及全球法务信息,涵盖全球仲裁等法律活动。我们人工智能的基础是数据。打个比方,你可能在生病时看医生,而在有法律问题时咨询人工智能。当然,如果你需要找专科医生做肝脏手术,就必须依赖专业医生;同样,对于涉及仲裁的法律问题,我们也希望有一个专门适用于仲裁的专业法律人工智能。

我关注的是人工智能带来的风险与挑战,即司法人工智能的人性化与独立性问题。

关于人工智能将在决策流程中使用并影响决策的问题,有一部分理论源于监管要求:不应让人工智能做决定。目前,我们有各种各样的人工智能指引,但这些指南存在一个问题,即人工智能仅被视为工具,只能被用作工具。我们可以选择仲裁员,可以确定仲裁地,但最终要让人来做决定。我们都同意这一原则应得到尊重,但现实中情况略有不同。

关于欧盟的人工智能法,我们开玩笑说,欧盟是在技术尚未完全开发出来之前就先立法了。我个人认为,欧盟的立法是正确的,某些人工智能的用途确实存在风险。我们也知道人工智能能够进行推理。欧盟认为,使用人工智能解释法律、认定事实、适用法律等,可能会产生较高风险的用法。如果人工智能影响到决策流程,它就构成了风险。全世界任何地方的人工智能公司,尤其是从事法律人工智能的公司,都可能主张欧盟的人工智能法应该废除。企业的基因可能与法务人员不同,但我们公司具有法律背景,因此我们更为审慎,更清楚地意识到法律中存在的风险。我们的客户中有许多律师事务所,同时许多用户本身就是仲裁员,我们的业务也处在欧盟人工智能法的规制范围内,所以我们必须谨言慎行。

另一方面,关于披露问题,我的立场是:如果仲裁员使用了人工智能,就应该进行披露。因此我们起草了一个人工智能使用披露条款,大家可以在我们的网站上查看。有些仲裁员已经开始使用这个条款。比如一位巴西的仲裁员,他使用人工智能进行分析,但所有内容都经过了他的控制和审核后才做出决策,并且他最终批准了该结果,因此他的裁决得到了执行。再举一个简单的例子:一个美国公司起诉一个中国公司,三位仲裁员进行分析时,如果使用了ChatGPT或DeepSeek,你认为客户是否会质疑人工智能对仲裁庭的影响呢?他们需要知道人工智能是否被使用,这样他们才能提出异议。因此,透明度至关重要。

这里有一个现实中已发生的例子:一个基于事实的法律问题,比如我将事实情况提交给人工智能,让它告诉我谁对谁错,推理过程是如何得出这个结论的。我们谈到,推理过程是非常必要的,人工智能会进行分析,并基于其法律信息和信息源得出结果,这些构成了它的法律信息基础。你知道它的推理过程,你知道它进行了严肃的分析,但最终如果你把人工智能的分析作为你自己的分析提交,你所得到的结果有时可能与最终产品非常接近。这是我们面临的关键风险:人工智能正变得越来越聪明,至少能够处理复杂任务并影响人们。那么我们如何解决这个风险呢?

首先,作为一家商业公司,我们有特定的DNA,我们有使命和一系列原则,这些已写入公司章程和内部准则中,我们也列出了核心目标,并在KPI中要求遵守这些规则。

此外,我们设有使命委员会,成员包括来自全球的专家,例如来自中国的合作伙伴,他们帮助公司实现使命。最重要的是,在原则层面要拥有这样一系列准则,例如我们的一些使命委员会成员。

问题在于,我们如何让人工智能具备具体的能力,交付值得我们信任的成果,使仲裁员能够信赖?人工智能需要量化评估。很明显,其所提交的结果可能非常复杂。例如,我们拥有超过15名工程师,花费两年时间共同开发,旨在让人工智能为仲裁提供高质量的结果。

第二点我们所强调的是透明度和控制,使用户能够理解人工智能的推理过程,并核准人工智能所提供的每一项援引的资料和信息源。也就是说,当你作为用户(例如仲裁员或律师)使用人工智能系统时,需要考察其基本内容,例如保密性、安全性,并确保其符合相关监管要求(如欧盟人工智能法)。你需要询问他们使用何种模型、何种数据、AI架构是什么,以及如何确认和核准这些模型的输出内容等核心要素。这些内容,作为律师也需要了解。

另外一点是偏见的缓解与消除。我想强调,所有人工智能系统都存在偏见,不存在绝对中立。这种偏见是国际性的,我们从全世界收集数据,使用来自中国的数据就会带有中国的偏见,使用来自美国的数据就会带有美国的偏见。全球的AI都有其偏见,不同人使用不同数据会带来不同偏见,包括律师生成的系统也会带有律师的偏见。我们仍在努力解决这个问题,我们知道它并不完美,这项技术才发展几年,我们仍在探索之中。


编辑:薛金丽