商事仲裁领域人工智能应用的挑战与因应: 数据与算法面向的分析
人工智能,被称为计算机智能,其可以经由技术手段模拟并通过机器输出与自然人大脑功能相关的智能行为,使得计算机一定程度上具备“记忆、判断、推理、求解、决策”等能力。在此基础上,人工智能凭借数据挖掘、算法预测等优势积极影响商事仲裁这一争议解决方式:一方面,人工智能可以从海量仲裁文件中迅速筛选有效信息,推行包含“立案申请、核查身份、接送材料、安排庭审”等仲裁流程的自动化处理,减轻事务性工作负担,从而实现仲裁效率提升效果;另一方面,人工智能运用深度学习,有利于更为通盘的证据审查和更为客观的判例评估,为仲裁庭提供法律分析层面支持,促进仲裁裁决的预见性和稳定性。故在“数据驱动型”算法范式指引下,人工智能应用于商事仲裁能够彰显“经济”和“公正”的双重价值。然而,技术的发展从来都是一把“双刃剑”,人工智能的仲裁应用蕴含着风险和困境。那么,商事仲裁在“拥抱”人工智能的同时,仍需要关注其间挑战及因应。
仲裁数据依赖衍生风险的治理逻辑
数据是人工智能技术发展的“地基”。人工智能往往通过对海量数据或数据集合的学习来生成并不断优化训练模型,数据处理将决定人工智能系统作出的决策结果。在商事仲裁领域,国内头部仲裁机构尝试仲裁数据化做法,整合形成一定体量的仲裁数据库,借助人工智能模型推进商事纠纷解决效果。但数据库等智能建设目前集中于数量有限的一部分仲裁机构,数据化技术红利并未在我国大多数仲裁机构内部得到释放。并且,仲裁机构之间“互不隶属”导致仲裁数据的分散存储,也不利于数据信息被即时调取和联结。这些造成了仲裁机构数据样本代表性有限,若数据集本身不完备甚至以偏概全,将导致人工智能系统模型生成偏见决策、错误决策。同时,商事仲裁遵循“保密性”要求,数据集除了涵盖相关法律法规、以往仲裁案例、仲裁文书,还会涉及隐私信息、敏感案情、当事人选择未公开的知识产权内容、商业秘密等。人工智能基于模型训练来收集并处理仲裁数据,人工智能系统漏洞可能导致保密数据泄露,损害数据安全性,针对人工智能模型数据训练的外部审查过程或许加剧该风险。
可用的人工智能决策模型离不开大量、完整、明确、多样、客观的仲裁数据,才得以生成“可靠”结果来辅助商事仲裁裁决,这彰显仲裁数据质量建设的必要性。那么,人工智能应用的设计将如何实现优质仲裁数据?
就宏观层面而言,我国需要提升仲裁数据化规模,构建仲裁数据的“大平台”。当前商事仲裁数据存量主要通过东部发达地区仲裁机构、头部仲裁机构等内部数据库表现,并且仲裁机构之间就各自数据集信息内容缺乏互通共享,不利于商事仲裁数据资源在我国范围内被有效整合与协同衔接,使得人工智能基于仲裁数据的收集学习、融通分析过程会存在偏差,最终影响人工智能决策的精准度。仲裁机构之间相互独立地开展市场竞争导致“数据壁垒”,故仲裁数据“大平台”可以探索基于顶层设计的规划、自上而下地来构建。“大平台”将引导全国范围内更多仲裁机构建设数据库、向“大平台”共享商事仲裁数据资源或衔接各仲裁机构数据接口,方便仲裁机构内人工智能决策系统根据商事纠纷类型、案情需要等接触、学习、分析“大平台”数据资源、生成更周全的结果。同时,“大平台”统筹来自各仲裁机构的数据不应减损商事仲裁制度的“保密性”,平台对数据的收集、存储、共享等处理环节须尊重各仲裁机构的专属性,平台数据资源仅向各仲裁机构内部的人工智能系统开放,且限于辅助商事仲裁时被使用。
就中观层面而言,仲裁数据化的高质量发展应匹配数据监管方面的要求与实践,尤其需要发挥仲裁协会的引导性和仲裁机构的自主性。一直以来,我国仲裁管理体制改革致力于“市场化”“社会化”等导向,仲裁机构独立于政府、与行政机关不存在“上级—下级”的隶属关系。因此,商事仲裁数据监管的规制思路需要从行政机关“家长主义”的介入监管转向行政机关、仲裁协会、仲裁机构之间的“合作监管”。一方面,行政机关基于本部门法定监管职责保留介入商事仲裁的必要空间,但仲裁协会务必突显行业引领角色,仲裁协会应积极将数据监管有关法律、行政法规、国家强制性标准等内化为行业规范、行业标准,并通过行业管理来指引各仲裁机构对内部商事仲裁数据的监管。另一方面,仲裁机构内部、各仲裁机构之间要主动探索有益的商事仲裁数据监管方案以维持、促进仲裁数据质量。仲裁机构内部数据集的标准化措施和合规化审查应被大力推行并落地实施。标准化措施旨在明确商事仲裁数据内容收集的类型(如庭审笔录、审讯视听记录、仲裁文书、仲裁员名册或相关信息、涉及承认执行仲裁裁决的司法判决、与仲裁案件有关的法律法规、司法解释、条约、备忘录或学术评论文章等),以及制定包含采集、训练、建构(模型)、评估、生成(决策)、优化(模型)等环节人工智能处理商事仲裁数据的操作流程要求,从而增进仲裁机构人工智能决策系统生成结果的稳定性并促成仲裁机构之间就类案商事纠纷解决的人工智能辅助结果进行比较分析的可行性。仲裁机构针对商事仲裁数据开展合规审查,则须重点审查被人工智能用来训练数据的来源合法与否,如汇入数据集前初始数据的后续使用是否需要获得授权、是否存在例外或保留、是否符合机密信息保护义务等,以便经由这些仲裁数据训练的人工智能模型生成结果的可用性、真实性。同时,仲裁数据的“大平台”建设会推动各仲裁机构之间商事仲裁数据的互联、共享,则维护数据正常流动而不被非法泄露成为仲裁数据监管的又一重要关切。商事仲裁的保密性使得仲裁数据涵盖了敏感的、隐私的、当事人非公开的那些信息,人工智能基于模型训练可能不经意将这些数据信息置于公共领域。那么,仲裁机构结合数据内容标准化分类设想,仍要进一步思考就具体商事仲裁数据各自保密要求设定分级监管标准,讨论差异化、针对性管控方案的细化设计,并可尝试就人工智能处理特定种类商事仲裁数据的权利与义务达成机构之间协议,确保“大平台”架构下各仲裁机构间数据流动的安全秩序。
算法“黑箱”引致“程序正义”困境的纾解进路
算法表现为人工智能技术运作的标准化程序、公式规则等,其经由计算机在深度学习和自主训练海量数据的过程中被挖掘、提取出来。算法具备天生的复杂性,在输入数据和输出结果之间无法彰显决策过程的完全可解释性,导致被决策者、开发设计者等难以清晰地洞察算法作出决策的逻辑过程。这是算法的“黑箱”属性。在高度批量化、类型化争议关系的商事仲裁案件解决实践中,尤其强调裁判结果达成的便捷性,而不太过问当事方和裁决方的说理分析,从而积极引入人工智能决策模型。即便如此,人工智能生成的“可靠”结果并不是决策作出的“客观”规律,则人工智能决策在实现商事仲裁“程序正义”这点上是存疑的。因为,“正当程序”中“正义”应该以看得见的方式实现。在商事仲裁领域,“正当程序”要求仲裁员作出裁决的价值判断和选择等行为合法、合理。仲裁员、当事人一般需要借由“辩论”或“对话”在决策者和被决策者之间构筑起沟通桥梁,确保决策过程的透明度并为被决策者知情权、质证权、抗辩权、陈述权等行使预留空间,这是商事仲裁中的“程序正义”。然而,算法“黑箱”的存在使得商事仲裁当事人难以知晓人工智能模型生成决策的依据和逻辑、无从追踪仲裁裁决的实现细节和步骤、不能够合理预测算法行为以及己方诉请、主张、申辩等是否被算法充分考量,人工智能技术应用于商事仲裁过程的“程序正义”面临侵蚀。司法机关可以基于“违反正当程序”不予承认甚至撤销商事仲裁裁决。从这一意义上讲,算法“黑箱”引致“程序正义”困境将威胁商事仲裁裁决的执行效果。为推动人工智能系统辅助商事仲裁的裁决合法、有效,仲裁当事人正当程序权利要在人工智能应用过程中被赋予并保有行使空间。算法“黑箱”应允许在一定情势或范围内向仲裁当事人开启。
首先,研发算法技术的人工智能科技公司至少需向使用模型辅助仲裁的参与各方提供算法工具及其运作的代码、数据、原理、缺陷、风险等基础信息,营造一个相对透明的算法决策过程。算法的“可公开”将保障商事仲裁当事人知情权,进而其监督仲裁机构、仲裁员应用人工智能的行为和方式。当然,完全程度的算法公开是不现实的,算法持有主体基于知识产权或商业秘密保护而限制披露部分内容的可行性要被保障。再者,目前商事仲裁当事人较多缺乏相关程度的人工智能教育背景,尚难以直接理解、领会公开的算法内容,则公开的人工智能算法之于仲裁当事人还应是可解释的。由此,处于商事仲裁各阶段的当事人应既能够通过仲裁机构、仲裁员向算法持有公司寻求解释,又可以要求仲裁机构、仲裁员澄清其作出仲裁裁决时就人工智能算法决策的考量和认定过程。基于算法的可解释,仲裁当事人将促进自身对算法决策的识别和理解并就算法决策表达诉求、进行质询等,当事人将实现陈述、质证、抗辩等权利。最后,商事仲裁当事人就损害主张救济权利不应被妨碍。人工智能算法决策在介入商事仲裁案件过程中,若科技公司研发的算法产品本身及其运行逻辑不符合仲裁机构约定的技术应用初衷、标准或者仲裁机构、仲裁员未合理、安全、适当地使用算法决策,导致仲裁当事人正当程序权益的损害,算法的设计者、开发者、使用者等理应被追究责任。总之,算法的“可公开”“可解释”“可问责”能够作为纾解算法“黑箱”下“程序正义”困境的有效路径,并为我国补齐商事仲裁领域人工智能算法技术应用制度的缺位提供一种思路。
(作者单位:华东政法大学国际法学院;上海交通大学法学院)