法治号 手机版| 站内搜索

网上有害信息举报

屠剑威:AI大模型与司法和仲裁的未来

2023-10-24 16:05:40 来源:法治日报-法治网
分享:
-标准+

9月6日,中国仲裁周期间最高规格的盛会——2023中国仲裁高峰论坛暨第三届“一带一路”仲裁机构高端论坛在北京隆重召开。本届论坛由中国国际经济贸易仲裁委员会(以下简称贸仲)与联合国国际贸易法委员会(以下简称联合国贸法会)共同主办,以“直面新一轮科技革命和产业变革浪潮的国际仲裁”为主题,就国际仲裁的实践经验和最新成果展开交流对话,展望国际争端解决的未来发展方向。

以下内容是阿里云智能集团副总裁屠剑威围绕论坛第三项议题“未来镜像:变革时代仲裁发展的新趋势”的主旨发言节选。

谈到未来和趋势,今年最火热的就是AI大模型。那么AI大模型连接司法和仲裁,我们会面临什么样的挑战?

我们先来简单回顾一下AI大模型的发展。从历史来看,AI诞生在1950年代,到现在只有70年的时间,但是经历了三个不同的阶段。第一个阶段从50年代到90年代,在这个期间,AI更多的是实验室里面一些小规模的试验性的场景;90年代开始,到2010年,AI逐渐走出实验室,开始在一些细分领域里有一些内容的生成;到2010年以后,AI逐渐投入大规模应用。特别是从2020年开始,如2022年年底,随着ChatGTP3.5的发布,整个AI大模型迎来了高峰,让人们意识到AI不只是算法和规则,还能生成文本和图形,以及未来在视频以及更多的领域里AI能够形成示范效益。

当前在法律领域里AI大模型的运用,一个例子是这个叫做“AI法律助手”的开源产品。它把中国法律文书作为知识库,将知识库embedding后存入向量数据库,然后向用户提供了完整界面,用户可以用自然语言提问,通过大模型结合知识库的现有知识进行自然语言的回答。因此它实现了在大模型的底座上,可以基于法律领域的专业知识进行优化训练,快速搭建法律领域大模型应用。

在司法系统,浙江法院得益于浙江整个数字经济的引领地位,早在2018年年底,浙江省高级人民法院就和阿里巴巴合作搭建凤凰智审的平台化智能审理的平台,助力解决中国案多人少的问题,树立在司法领域人工智能探索的标杆示范作用。经过这几年的经验积累,推动办案效果非常明显。当前,在金融案件领域,智能审判当庭宣判率超过90%,裁判文书的完整率能够达到96.5%,平均的审理时间下降了36%,当事人的诉讼成本下降了31.2%。所以,通过这些数据我们能够看到,通过这样一个数据化、数字化的大模型和司法的实践相结合,能够极大地降低司法的成本,提升司法的效力,而且,能够更好助力法官将精力集中在更需要的地方。

同样,在刚刚过去的8月份,浙江大学联合阿里云以及华院计算,推出了面向司法领域开源的法律大模型,叫做“智海-录问”,已经发布。同样也是借助于基础模型,把相应的中国的3000多部法律,5万多部法规注入进去,形成自身的知识库进行预训练,不断调优提升逻辑训练、逻辑学习的能力。它可以通过一问一答的形式,甚至是多问多答的形式,来解决法律方面的咨询问题。

然而,不容忽视的问题是,AI大模型在司法领域和仲裁领域运用面临着一系列挑战,也需要我们秉承一定的原则。1、公平公正原则。在美国的一个案例是,加州法院引入基于AI的刑事司法风险评估工具,代替保释金制度,来决定被告在候审期间可以被释放、或是被关押。但是由苹果、亚马逊、谷歌、Facebook、IBM 和微软六大科技公司发起成立PAI(Partnership on AI)在报告中指出,目前的算法旨在帮助确定谁可以获准保释、假释或缓刑,并帮助法官作出判决决定,但这些算法可能存在偏见、不透明,甚至可能无效。在我国,去年年底最高人民法院在《关于规范和加强人工智能司法应用的意见》中,也明确指出要需要遵循公平公正原则,要求保证人工智能产品和服务无歧视、无偏见,不因技术介入、数据或模型偏差影响审判过程和结果的公正。

工具本身的准确性和有效性的方面会存在疑虑,如果数据本身输入就存在着偏差的话,那么它的结果也会形成偏见。算法是否透明,是否具有可解释性,会造成法官和算法的交互存在相应的影响。再者,是透明度和问责制的问题。如果基于这些算法和模型来作出决策,那么,法官被追究责任的可能性就会大大下降。

2、辅助裁判原则。最高院在《关于规范和加强人工智能司法应用的意见》中明确,最终的司法裁判必须是由法官作出,人工智能只是起到一个辅助的作用,人工智能不能代替法官来进行相应的裁决,这样也才能确保司法责任最终由裁判者承担,而不是让AI来背锅。所以,AI工具是释放司法裁判者或者是仲裁员的时间和精力,使人能够更好地去聚焦在需要人去解决的复杂性以及具有价值观和情感方面的问题。基于AI辅助性的定位,需要法律工作者不断更新自身知识,拓宽知识领域和视野,提升专业技能更好地掌握AI工具,而不是被工具左右。

3、公序良俗原则。即AI真实性、准确性问题对公序良俗的挑战。比如美国已发生这样的案例,有律师把通过AI生成的判例给到法官,其实这些案例是莫须有的。所以,美国的一些州已经明确要求,律师要证明他们没有使用生成式人工智能,或者如果他们使用了,则需要人工验证其文件的准确性。

以上,是目前在司法和仲裁领域中应用AI所面临挑战的一部分。为在AI应用过程中处理好科技伦理问题,阿里巴巴集团去年成立了科技伦理委员会,提出了“以人为本、普惠正直、安全可靠、隐私保护、可信可控、开放共治”六大原则。应对在司法和仲裁领域中应用AI所面临的这些科技伦理问题和挑战,我们需要回到人类自身最需要去坚守的道德标准,因为每个裁判的背后,考验的不仅仅是法理,更是人性。数字时代需要技术的担当和责任,AI大模型在司法仲裁领域的应用,应当坚持让技术在“可用、可靠、可信、可控”的体系里发展,为人类社会创造更多的社会价值。

编辑:李兆娣