您现在的位置是:首页法商研究法商研究问答

法商研究杂志论文格式要求是什么?

来源:月期刊咨询网汇总

法商研究杂志近十年出版发文量:

法商研究杂志论文格式要求

  一、中文引证体例

  (一)一般规定

  1.注释为WORD自动生成脚注,每页重新编号。文中标注于标点符号外。

  2.图书中的信息顺序为:作者、文献名称、出版社及出版年份、页码。

  3.连续出版物的信息顺序:作者、文章篇名、出版物名称年份、卷(期)次。

  4.出版社出版的文集或“以书代刊”连续出版物(如CSSCI来源集刊)所载单篇文章的信息顺序为:作者、文章篇名、主编者、出版物名称、出版社及出版年份、页码。

  5.引文作者为外国人者,信息顺序为:国籍,外加方括号;作者、文献名称、译者、出版社及出版年份,页码。

  6.学位论文的信息顺序为:作者、文献名称、(硕士或博士)学位论文、所属单位、年份、页码。

  7.图书页码后用“第N页”或“第N~N页”字样;引用论文一律不注页码;报纸一律不注版号。

  8.引用之作品,书、刊物、报纸及法律文件,皆用书名号。

  9.非引用原文者,注释前加“参见”;非引自原始出处者,注释前加“转引自”。

  10.除文集或以书代刊出版物外,期刊、报纸等所引文献一律不要“载”“载于”字样。

  11.引用古籍的,参照有关专业部门发布之规范。

  12.网上资料非属正式出版物,学术可信度较低,原则上禁止引用。个别例外。

  13.引用港澳台地区出版或发行的文献,可在出版或发行机构前加注地区名。

  14. 人大决定一律附“(X年X月X日第X届XX人民代表大会第X次会议通过)”字样;正文中,法律文件第一次出现一律用全称,出现两次以上的在第一次使用后用简称(以下简称《XXXX法》);

  15. 引用司法判例,以判决书原文或北大法宝为准。例如:(1)一般中级、基层法院,XX省XX市XX区XX法院XXXX(2010)XXXXXX号XX判决书。(2)直辖市、较大市的法院,XX市XX区XX法院XXXX(2010)XXXXXX号XX判决书。

  16. 除个别需要说明特定概念的情形外,正文中一般不出现外文。

  17.标点符号的使用规则严格遵照《标点符号用法》(GB/T 15834―2011)。注意:(1)引号与引号之间相邻连结的,中间不加顿号(、);(2)书名号与书名号之间相邻连结的,中间不加顿号(、);(3)标示时间、地域的起止,用一字线(―)(4)标识页码等数值范围(由阿拉伯数字或汉字数字构成)的起止,用浪纹线(~)。 (5)此标点符号用法不适用于外文。

  (二)范例

  1.著作:(1)方世荣:《论行政相对人》,中国政法大学出版社2000年版,第55页。

  非引用原文者,注释前加“参见”。

  2.论文:(2)吴汉东:《知识产权国际保护制度的变革与发展》,《法学研究》2005年第3期;

  非引用原文者,注释前加“参见”。

  3.文集或以书代刊出版物:(3)[德]莱纳·沃尔夫:《风险法的风险》,陈霄译,载刘刚编:《风险规制:德国的理论与实践》,法律出版社2012年版,第96~97页; 张明楷:《论教唆犯的性质》,载陈兴良主编:《刑事法评论》(第21卷),北京大学出版社2007年版,第76~90页。

  4.译作:(4)[德]马克斯·韦伯:《社会科学方法论》,杨富斌译,华夏出版社1999年版,第282页。

  5.学位论文:(5)陈柏峰:《乡村混混与农村社会灰色化——两湖平原,1980-2008》,博士学位论文,华中科技大学,2008年,第101页。

  6.报纸类:(6)姜明安:《多些民主形式少些形式民主》,《法制日报》2007年7月8日。

  7.港台类:(7)胡鸿烈、钟期荣:《香港的婚姻与继承法》,香港南天书业公司1957年版,第115页。

  8.网络资料:(8)杨雪冬:《当代中国地方政府激励机制简论》,http://www.chinainnovations.org/03/07/2006, 2016-03-20。

  9.法条类:(9)《中华人民共和国立法法》《中华人民共和国政府信息公开条例》;(10)《全国人民代表大会常务委员会关于在沿海港口城市设立海事法院的决定》(1984年11月14日第六届全国人民代表大会常务委员会第八次会议通过)。

  10.判例类:(11)河南省荥阳市人民法院(2013)荥行初字第14号行政判决书。(12)上海市长宁区人民法院(2014)长行初字第84号行政判决书。

  11.常见标点符号用法:(13)新行政诉讼法将“滥用行政权力排除或者限制竞争的”“违法集资、摊派费用”“没有依法支付抚恤金、最低生活保障待遇”等行为纳入了受案范围;(14)李教授在《中国法学》《法学研究》《法商研究》等期刊上发表论文20余篇;(15)2011年 2月3日―10 日,北京―上海特别旅客快车;(16)参见张文显:《法哲学范畴研究》,中国政法大学出版社2001年版,第360~371页。

  二、英文引证体例

  1. 论文:作者、论文题目,卷册号、期刊名称、页码、年份[例如:Richard A. Posner, The Decline of Law as an Autonomous Discipline: 1962-1987, 100 Harvard Law Review, 761 (1987).] 注意:论文所在的期刊名不要用简写。

  2. 专著或教科书:作者、书名、出版社、出版年份、页码(例如:Robert J. Sampson, John H. Laub, Crime in the Making, Harvard University Press, 1995, p. 19.)

  3. 文集:作者、论文题目、编者或者编辑机构、文集名称、出版社、出版年份、页码(例如:Michael Foucault, What is an Author, in Donald F. Bouchard ed., Language, Counter-Memory, Practice: Selected Essays and Interviews, Cornell University Press, 1977, pp. 113-118.)

  4. 法典与判例:请遵循各英语国家或国际组织通常的引证体例。

  三、德文引证体例

  1. 教科书:作者、书名、版次、出版年份、章名、边码或页码(例如:Jescheck/Weigend, Lehrbuch des Strafrechts Allgemeiner Teil, 5. Aufl., 1996, § 6, Rdn. 371/S. 651ff.)

  2. 专著:作者、书名、版次、出版年份、页码(例如:Roxin, Täterschaft und Tatherrschaft, 7. Aufl., 2000, S. 431.)

  3. 评注:作者、评注名称、版次、出版年份、条名、边码(例如:Crame/Heine, in: Schönke/Schröder, 27. Aufl., 2006, § 13, Rdn. 601ff.)

  4. 论文:作者、论文题目、刊物名称、卷册号、出版年份、首页码、所引页码(例如:Schaffstein, Soziale Adäquanz und Tatbestandslehre, ZStW 72 (1960), 369, 369.)

  5. 祝贺文集:作者、论文题目、文集名称、出版年份、页码(例如:Roxin, Der Anfang des beendeten Versuchs, FS-Maurach, 1972, S. 213.)

  6. 一般文集:作者、论文题目、编者、文集名称,出版年份、页码(例如:Hass, Kritik der Tatherrschaftslehre, in: Kaufmann/Renzikowski (Hrsg.), Zurechnung als Operationalisierung von Verantwortung, 2004, S. 197.)

  7. 判例:判例集名称或者发布判例机构名称、卷册号、首页码、所引页码[例如:BGHSt 17, 359 (360); BGH NJW 1991, 1543 (1544).]

  四、日文引证体例

  1.论文:作者、论文题目、期刊名称、卷册号、年份、页码[例如:阿部泰隆「予防接種禍をめぐる国の補償責任」判例タイムズ604号(1986年)7頁。]

  论文所在的期刊名称不要用简写。

  非引用原文者,注释末尾加“参照”。

  2.专著:作者、书名、出版社、出版年份、页码[例如:西埜章『国家賠償法コンメンタール』(勁草書房、2014年)99頁。]

  非引用原文者,注释末尾加“参照”。

  3.文集:作者、论文题目、编者、文集名称、出版社、出版年份、页码[例如:稲葉馨「公権力の行使にかかわる賠償責任」雄川一郎ほか編『現代行政法大系6(国家補償)』(有斐閣、1983年)28頁。]

  非引用原文者,注释末尾加“参照”。

  4.判例:判决、判例集名称、卷册号、页码[例如:最判昭和56.11.13『判例時報』1028号45頁。]

  判例所在的判例集名称不要用简写。

  非引用原文者,注释末尾加“参照”。

  五、其他外文引证体例

  请遵循该种外文通常的引证体例。

进入期刊首页

法商研究杂志已发表格式范文参考


1.科技企业参与人工智能司法应用及其规制

作者:郑曦

作者单位:北京外国语大学

关键词:科技企业;人工智能;审判权;数据安全

  摘 要:科技企业参与人工智能司法应用,是在法院沉重的案件数量压力和企业追求商业利 益本能这两方面驱动力作用下的必然现象。在人工智能司法应用中,科技企业除了扮演产品研 发者、系统维护者、平台运营者等技术角色外,还实质上担任数据处理者、程序控制者和裁判参与 者等角色。这可能与审判基本原理发生冲突,导致诉讼模式改变,并带来其他外部政策性风险。 针对这些风险,应当合理区分科技企业参与人工智能司法应用中的公私界限,明确“有限参与”的 基本要求,并对其参与过程进行必要监管。据此,可以通过调适法院与科技企业的关系、确立相 应的技术标准、科以数据安全保护义务等措施,合理规制科技企业在人工智能司法应用中的参与 程度,使其参与符合法治的基本要求。  

  一、问题的提出

  在数字时代,人类生活的改变既是主观需要,又是客观事实。在司法领域,为适应此种社会 变革,数字司法建设成为重要主题,其中尤以法院对人工智能司法应用之热忱为典型。例如,上 海的“206系统”、北京的“睿法官”、江苏的“法务云”、河北的“智审”、重庆的“法治云”等办案辅助 系统,均是人工智能司法应用的重要产品。2022年11月,随着 ChatGPT 等生成式人工智能的 问世,“司法+人工智能”得到了进一步深化和应用。例如,广东省珠海市香洲区人民法院在全流 程无纸化办案的基础上,深耕“人工智能+场景运用”,于2024年9月29日正式启用“香法 AI· 云上智审”平台。该平台所使用的人工智能大模型是全国首个由基层人民法院研发训练的人工智能司法大模型,能够完成“法律你问我答”“提纲生成”“裁判文书书写”等司法任务。① 再如,上 海市第二中级人民法院所使用的“小至数字助手”辅助办案系统,在法律领域大语言模型应用的 基础上,通过学习法官智能辅助办案系统(C2J)积累的法律法规库、裁判文书库、企业信息库、案 例库等9大数据库实现了知识增强,能够对原审文书、案涉合同、起诉状、答辩状等进行智能解析 和归纳,实现笔录规整归纳、案件事实比对确认、诉辩争议内容归纳等功能。②

  由于法律人与人工智能技术之间存在疏离,③法院无法独立完成人工智能司法应用工作,因 此向科技企业借力成为最佳的、几乎也是唯一的选择。对于科技企业参与人工智能司法应用的 做法,中央从“推动大数据、人工智能等科技创新成果同司法工作深度融合”④的要求出发予以肯 认。然而,在人工智能司法应用中开展“公私合作”,⑤属“私”的科技企业以技术为接口进入司法 领域,必然会对属“公”的审判制度带来一定影响。就此问题,已有学者敏锐地察觉并进行了分析 和反思。例如,马长山教授发现科技企业在参与包括人工智能司法应用在内的公共服务平台建 设过程中缺少民众参与和对社会诉求的吸纳,公民始终“不在场”;⑥左卫民教授认为科技企业对 于法律人工智能等技术的投入仍有限、技术水平也不高;⑦刘艳红教授提出在将人工智能技术运 用于司法时,应限定法院与科技企业的合作限度;⑧张凌寒教授指出科技企业的参与可能导致法 院对企业的技术依赖;⑨王禄生教授发现人工智能司法应用中存在技术话语与司法话语的冲 突;笔者也曾对科技企业参与人工智能司法应用可能削弱法院的审判权并带来腐败风险表达 过担忧。但当前这些分析和反思尚显零散,缺少系统性研究。事实上,针对科技企业参与人工 智能司法应用,有必要思考以下问题:科技企业参与人工智能司法应用的驱动力何在?科技企业 在其中扮演何种角色、发挥什么作用?此种参与会带来哪些问题和风险?此种参与应遵循何种 思路?有无对此种参与进行有效规制的制度或手段?只有对这些问题予以认真关注、充分考虑, 才能有效发挥科技企业在人工智能司法应用中的积极作用,并尽量降低其负面影响,实现良性的 “公”“私”互动与合作。

  二、科技企业参与人工智能司法应用的驱动力及角色

  人工智能司法应用中借力科技企业的技术已然常见,但科技企业如此积极参与的动力何在? 因何而成?其在人工智能司法应用过程及后续的运作中究竟扮演何种角色?这些问题都值得思考。若不回答这些问题,则对科技企业参与所带来的问题或风险进而如何对其进行规制等后续 问题的研究都将难以为继。

  (一)科技企业参与人工智能司法应用的驱动力

  科技企业对人工智能司法应用的参与,是在整个社会数字化浪潮的推动下展开的。人工智 能技术的普遍运用塑造了社会生活的新形态,推进或裹挟着社会生活的数字化、智能化转型。在 我国,“数字中国”建设甚至成为国民经济和社会发展的重要主题,被政府发展规划反复强调。① 这样的外部环境促成了作为人类社会生活不可分割部分的司法领域的智能化变革,科技企业参 与人工智能司法应用的外在驱动力由此而来。相较于此种宏观的、显见的外部驱动力,源自法院 系统和科技企业这两方主体的内在需求对科技企业积极投身于人工智能司法建设起到了更为显 著的激励作用。这两方面的内在需求促使法院与科技企业的视线交汇,并驱动人工智能司法应 用的进程以公私合作的样态向前推进。

  从法院的视角看,允许、要求科技企业参与人工智能司法应用的最大内在驱动力源自沉重的 案件数量压力。现代社会正处于诉讼爆炸的时代,法院面临着案件数量过多的巨大压力。2023 年我国各级人民法院收案4 557.4万件,结案4 526.8万件,同比分别增长15.6%、13.4%。② 面对 如此重压,法院增加办案人员数量的空间又十分有限,于是只剩下两个选择:一是适当压缩甚至 部分放弃对程序公正的追求,将案件进行分流处理,如认罪协商制度;二是寄希望于现代技术,期 冀通过人工智能等新技术的运用提高司法效率。基于此种提高司法效率的价值追求,法院将人 工智能司法应用的产品研发、系统维护、平台运营等技术性工作外包给科技企业,既不必大幅增 加相应的人力资源和技术成本投入,又能在较短时间内取得明显可见的成效。因此,从法院的角 度看,在人工智能司法应用中向科技企业“引援”,无疑是最符合其利益的选择,法院自然愿意将 此种技术性工作转交给科技企业处理。在这个意义上,案件数量压力客观上成为促使法院开展 人工智能司法应用并将其中的技术性工作外包给科技企业的内在驱动力。

  从科技企业的视角看,其积极参与人工智能司法应用的根本内在驱动力来自追求经济利益 的商业本能。以获取经济利益为根本目标,对于科技企业而言乃是天经地义之事,至于其社会责 任、良善信念等则是获得经济利益以保证企业生存和发展前提之下的副产品,这一点无可厚非。 就科技企业而言,开展技术研发亦需要首先考虑经济利益,其中最主要的是两方面的问题:一是 技术研发需要投入多少资金成本,二是研发出的产品是否能够“变现”并覆盖成本,获得尽可能高 的回报率。人工智能司法应用恰好在成本和利润两方面均为科技企业提供了较好的选择:一方 面,人工智能司法应用作为“数字中国”建设宏观规划图景的重要组成部分,国家通过财政拨款、 设立科研招标项目的方式为其提供了巨额资金。科技企业通过与法院合作申请此类课题项目, 可以有效解决相关研发中的资金投入难题。另一方面,科技企业参与人工智能司法应用最终确 实也能够获得较为丰厚的利润回报。以科大讯飞公司为例,2023年其智慧政法行业应用的营业收入达7.28亿元。① 如此一来,科技企业投身于人工智能司法应用项目建设,既可以从国家财政 获得研发经费支持,又可以在后续运营过程中获得巨大的利润回报,这自然使得科技企业的积极 参与具有了强大的内在驱动力。

  (二)科技企业在人工智能司法应用中的角色

  在前述因素的驱动下,科技企业积极参与人工智能司法应用,其内容主要包括实现司法行政 管理智能化、开发智能化审判辅助工具等,②承担着由法院外包的人工智能司法应用中的技术性 司法辅助工作。针对这些工作内容,从表面看,这些科技企业的角色是一目了然、显而易见的,即 它们主要扮演着产品研发者、系统维护者、平台运营者等技术角色。然而,由于司法辅助工作与 司法工作之间并不存在“楚河汉界”般清晰的边界,因此参与人工智能司法应用的科技企业可能 超越这些表面意义上的角色和职能而实际扮演以下3种实质性角色。

  第一,数据处理者。数据是人工智能的基础性原料。参与人工智能司法应用的科技企业在 产品研发、系统维护或平台运营的过程中,必然会对海量数据进行收集、存储、使用、加工、传输、 提供和公开,因而具有数据处理者的身份。③ 例如,北京华宇信息技术有限公司为全国法院建设 了5 000余个科技法庭,每天处理的庭审音视频时长超过2万小时,成为人工智能司法应用中的 重要数据处理者。④ 需要注意的是,人工智能司法应用中所使用的数据有相当部分来源于法院 以往的司法行政和案件审理工作。从数据分级的角度看,这些数据既包括一般数据,也涵盖《中 华人民共和国数据安全法》(以下简称《数据安全法》)第21条所指的重要数据,甚至还包含关系 国家安全、国民经济命脉、重要民生以及重大公共利益的国家核心数据;从数据分类的角度看,既 有政府数据,也有个人数据,其中个人数据又分为一般数据与敏感个人数据。⑤ 科技企业参与人 工智能司法应用需以数据为底料,除收集使用一般数据外,极有可能处理各类重要数据,如合议 庭秘密评议的相关数据、案件分配相关数据、公民指纹或脱氧核糖核酸(DNA)等生物识别数据 等,甚至可能接触到某些特殊案件中包含的国家核心数据。作为数据处理者,无论出于故意还是 过失,科技企业一旦因非法获取或非法使用这些数据而导致数据被篡改或泄露等,则都可能给国 家利益、公共利益和公民个人的合法利益造成严重损失。因此,对于科技企业在人工智能司法应 用中所扮演的数据处理者角色,应当予以充分重视。

  第二,程序控制者。智能化司法要求将一部分司法行政工作交由人工智能工具来处理。在 欧盟,绝大多数国家的法院均有企业资源规划(ERP)一类的案件管理系统,负责案件分配、过程 管理等工作。⑥ 在我国,对于法官的案件审理工作,也可通过人工智能工具予以督促、评估和考核。如此一来,这些人工智能工具对于案件分配、繁简分流、审理时长、执行流程等程序性事项就 掌握了相当强的控制权,在一定程度上能够影响案件的进程。而在这些对程序具有控制力的人 工智能工具背后,是参与人工智能司法应用的科技企业。例如,安徽省合肥高新技术产业开发区 人民法院与科大讯飞公司合作成立了司法辅助事务集约中心,设置电子送达专员、排期专员、速 录员等多个岗位,使原来分散进行的各案件节点程序性事项实现集约化运行。① 从这个意义上 看,科技企业参与人工智能司法应用在某种程度上扮演了程序控制者的角色。

  第三,裁判参与者。当前法院使用的人工智能工具虽然仍处于“弱人工智能”阶段,在中短期 内仍难以全面、深刻地推行 AI法官,②但人工智能应用已对司法裁判产生实质影响。这些人工 智能工具通过类案推送、证据审查、社会危险性评估等方式参与法官心证过程,从而影响案件的 事实认定与法律适用。例如,哥伦比亚有法官参考 ChatGPT 的意见做出判决,并在裁判文书中 引用其与 ChatGPT 的对话作为裁判依据;③印度亦有法官依据 ChatGPT 的意见对是否给予被 告人保释做出决定。④ 在我国,人工智能工具参与裁判的情形亦不鲜见,法院虽然将人工智能定 位为司法辅助工具,并不要求法官必然遵循其所提出的意见,但由于人工智能工具具有科学化外 观及形式理性品格,⑤因此法官在做出相反裁判时也难免承受巨大压力,不得不再三考虑,甚至 屈从于人工智能工具之结论。因此,人工智能工具实质地对案件裁判工作产生影响,其即便对于 案件的裁判结果不具有完全、最终的决定权,也至少参与并深刻作用于法官的裁判过程。由此, 研发此种人工智能工具的科技企业也扮演了裁判参与者的角色。

  三、科技企业参与人工智能司法应用可能带来的风险

  参与人工智能司法应用的科技企业不但在形式上发挥产品研发者、系统维护者与平台运营 者的作用,而且在实质上扮演数据处理者、程序控制者、裁判参与者等角色。这可能与传统诉讼 理念产生冲突,带来诉讼结构的改变,甚至产生外部政策性风险,对此应有充分认识。

  (一)理念性风险:与审判原理的冲突

  科技企业所扮演的数据处理者、程序控制者和裁判参与者角色,是传统诉讼中所未见的。其 固然源自法院数字化转型的必然需求,但也可能与传统的审判原理不合,甚至发生冲突与抵触, 具体体现在以下两个方面。 一方面,对法院而言,科技企业参与人工智能司法应用可能会干预法官的审判权。法院行使 审判权的核心要义在于,审判权由法院独占行使,其他任何人不得分享此种权力。这是审判权独立运行的基本要求,是国家权力配置原理的体现,对于保证审判公正、维护司法权威均具有重要 意义。因而,联合国《公民权利和政治权利国际公约》第14条第1款要求审判由“依法设立的合 格的、独立的和无偏倚的法庭”负责,《中华人民共和国刑事诉讼法》(以下简称《刑事诉讼法》)第 3条、《中华人民共和国民事诉讼法》第6条、《中华人民共和国行政诉讼法》第4条亦要求审判权 由人民法院行使,其他任何机关、团体和个人均无权行使审判权。然而,科技企业所扮演的角色, 尤其是其对程序的控制和对裁判的参与,都实际地从法院审判权中“分一杯羹”,可能干预法院在 案件分配、程序分流、对“裁判时机”①的把握等方面的程序性权力,以及在证据审查判断、事实认 定、量刑适用等方面的实体性权力,甚至可能出现从“法官的审判”变成“机器的审判”或“技术人 员的审判”的现象。此种风险已非想象,司法实践中已经出现机器审判带来公正价值严重偏差的 案例。②

  另一方面,对公民而言,科技企业参与人工智能司法应用可能侵犯公民的诉讼权利。诉讼权 利保障是现代法治的产物和要求,直接影响到公民享有公平正义的机会,同时也是建设法治社会 的重要体现,既符合诉讼中人权保障的基本价值追求,也有利于对公权力的运行进行监督制约。 然而,科技企业以数据处理者、程序控制者、裁判参与者等身份介入诉讼,可能对公民诉讼权利特 别是被告人质证权的保障造成障碍。被告人质证权的核心是围绕不利于己的证据进行辩论、质 疑和反驳,其基本前提是有明确的质证对象以及有出庭的、可与之进行质证的对手。而科技企业 在人工智能司法应用中扮演的角色,特别是其对裁判结果的实质影响,则可能削弱了这两方面的 前提。③ 科技企业对案件裁判结果的影响,是以一种“隐身”的方式借由其开发的人工智能产品 而实现的。而人工智能产品提出意见或做出结论所依据的算法、数据均不公开,于是被告人即便 对其意见或结论有异议,也无法就其依据进行质证,也不知该与何人质证,从而阻碍了质证权的 行使。此外,科技企业作为数据处理者亦可能对公民的数据权利造成损害。公民因参与诉讼而 主动或被动地向法院呈交数据,并期待这些数据只为法院等公权力机构所掌握,且仅被用于诉讼 目的,并在法定条件成就时被封存或删除。然而,科技企业在人工智能司法应用中充当实际的数 据处理者,使得掌握公民数据的主体数量增加,其作为商业机构的逐利性本能也增大了数据被不 当处理的可能性,进而增加了数据失控的风险和公民数据权利保护的难度。

  (二)结构性风险:对诉讼模式的改变

  科技企业参与人工智能司法应用而处理数据、控制程序并参与审判,改变了原有的诉讼模 式,给已然稳定的诉讼结构带来了新的冲击,从而可能产生以下风险。

  首先,审判结构因科技企业的参与而可能发生变化。所谓结构,即为各方之间的关系。审判 通常应当呈现出两造具备、法官居中的正三角结构,以使得控辩审三方的关系稳定,进而保证平 等对抗和审判中立,以维护审判的权威性。此种三角审判结构存在的必要性已成为共识。然而, 科技企业以裁判参与者的身份加入,可能干预甚至分享法官的审判权力,改变原有三角审判结构。如此一来,原本控辩审三方关系中又增加了科技企业这一隐性的裁判参与者,使得控辩审三 方关系中又增加了更多不稳定的因素。三角审判结构的改变虽然可能提升诉讼便利性和效率, 但对于其可能带来的司法公正风险,也需保持足够的警惕。一是依据排除价值判断的人工智能 工具之意见做出的裁判,是否符合人类基于价值判断而形成的一般社会公正观念的要求,从而能 否为公众所接受?二是是否存在科技企业出于逐利之本能或技术人员基于其某种固有观念,而 在人工智能工具中“夹带私货”之可能?如企业在研发相关产品时,可能会设计有利于己之算法; 持有歧视观念的技术人员亦可能将对某少数群体的敌对情绪注入相关程序。

  其次,科技企业参与人工智能司法应用可能导致审判对技术的过度依赖。审判本应由法官 “本着诚实之良心去寻找针对被告人提出的证据以及被告人提出的辩护理由在他们理智上产生 的印象”,①但是在人工智能司法应用中,人工智能技术以科学之名介入审判,导致法官的权威降 低,②进而可能形成审判的技术依赖。例如,许多法院运用的人工智能系统不但能向法官进行类 案推送,促使法官对类似案件做出近似判决,还会在法官的裁判结果与其预测性判断发生重大偏 离时自动预警,触发法院领导对该案的关注。③ 这使得法官在做出与人工智能系统不一致的裁 判时必然背负巨大压力,技术中性无偏的理念迫使法官依赖于其提出的意见或结论。长此以往, 在强势的人工智能技术面前,法官的自信心和判断力都会受到冲击。为逃避压力和责任,法官可 能倾向于采纳人工智能工具的裁判意见而放弃独立判断,于是技术依赖不但会侵蚀法官在审判 中的决策权力,也将削弱法官的裁判能力。需要注意的是,人工智能司法应用中法官对技术的依 赖,实质是对研发和运营相应人工智能技术的科技企业的依赖。此种依赖一旦形成,倘若不予以 严格监管,那么其后果将极为严重。

  最后,对科技企业在诉讼中的实质参与进行监管和追责极为困难。对审判活动的监督管理, 包括案件程序和流程监控、案件质量评查与司法绩效评估乃至个案监督等,④是保证审判活动依 法进行的必要措施。科技企业参与人工智能司法应用而处理数据、控制程序、参与裁判,同样应 受此种监管。然而,此种监管却难以实施。原因在于:(1)参与人工智能司法应用的科技企业具 有技术垄断优势,这使得来自外部的监管存在技术障碍。法院及其他监管机构对于技术的疏离, 导致其在面对科技企业时往往如同“技术盲”一般存在专业知识的鸿沟。加之出于保护商业秘密 和知识产权的需要,科技企业的技术具有高度保密性、算法不公开等已经引起普遍关注的问题, 使得对科技企业的监管亦难以进行。(2)来自外部的监管缺少明确的标准和规范,使得由外部机 构进行监管缺乏制度依据。由于人工智能技术的变革异常迅速,而技术本身以一定的容错率为 发展前提,因此很难制定一套明确的标准来判断某项技术的科学性。目前,此种监管规范的缺失 使得由外部机构对参与人工智能司法应用的科技企业实施监管的工作难以落实。(3)科技企业 的自我监管既缺乏动力又无足够可信度,使得自我监管容易流于形式。⑤ 科技企业进行严格的自我监管需要付出大量的金钱、人力和技术成本,这与其追求经济利益的商业目标不符。加之自 我监管本身存在缺陷,此种监管的实际效果值得怀疑。监管难以施行,通过监管去发现并追究科 技企业因主观故意或技术缺陷而造成的不当行为责任也就无从谈起。在如此缺乏监管和追责机 制的现状下,仅依靠科技企业自身的道德观念和企业责任的约束就保证其依法、合理地参与人工 智能司法应用,不免风险过高。

  (三)外部政策性风险:在审判之外的影响

  科技企业对人工智能司法应用的参与,不但可能带来前述的理念性风险和结构性风险,而且 在实践操作中也可能存在一些其他风险。这些风险不像前两者那样直接指向审判本身,而是会 对审判之外的其他价值追求造成影响。借用美国法学家威格摩尔在对证据规则进行分类时所使 用的概念,可将此种风险暂称为“外部政策性风险”。①

  1.数据滥用风险。如前所述,科技企业在人工智能司法应用中扮演数据处理者的角色,一 旦非法处理数据就可能带来严重危害。然而,此种可能性却是现实存在的。尽管已有预防数据 滥用的法律法规,企业通常也有数据合规制度,但出于获取经济利益的商业本能,此种数据滥用 风险依然存在。更重要的是,相较于作为企业行为的数据滥用,因企业中某一或若干员工的不当 行为而导致的数据滥用则更为常见。由“内鬼”所导致的数据泄露是数据滥用的重要原因。科技 企业因参与人工智能司法应用所处理的数据可能包括重要数据甚至国家核心数据,这些数据一 旦被泄露、篡改等非法处理,后果将不堪设想。

  2.“以次充好”风险。此种风险是指科技企业因觊觎参与人工智能司法应用的巨大经济利益 或其他原因,在技术水平尚不成熟时为降低成本,利用前述法律人与技术的疏离关系,以低水平 的人工智能产品甚至“伪”人工智能产品滥竽充数。该现象可能带来两方面的严重后果:一是致 使国帑枉费。一些企业在获得国家立项和拨款之后,在项目的研究过程中马马虎虎,最终以质量 极低的成果交差了事;在与基层法官们的交流中,也有许多法官抱怨法院的智慧系统智能化程度 低、使用体验差,以致法官们不愿甚至拒绝使用。如此,国家对于人工智能司法应用所投入的经 费就无法获得与其预期相匹配的产出。二是低技术含量特别是安全技术水平较低的人工智能产 品接入法院系统后,其所存在的潜在安全漏洞可能给针对法院系统的外部攻击提供路径和机会, 从而带来网络和数据安全隐患。

  3.腐败风险。法院在选择科技企业参与人工智能司法应用开发时需要考虑众多因素,如技 术能力、实践经验等,并经过招投标等程序。国家投资项目的招投标环节容易出现腐败风险,② 企业与公职人员在此环节易发生利益勾结、捆绑现象,③而此现象在科技企业参与人工智能司法 应用中同样可能发生。此外,在人工智能司法应用的系统维护、平台运营、软硬件采购等过程中 亦有滋生腐败的空间。科技企业参与人工智能司法应用可能导致的腐败风险,与其他领域的腐 败风险在本质上并无区别,可能导致民众对法院丧失信任、破坏社会伦理道德基础等严重后果,因此应当给予高度重视。对此,最高人民法院网络安全和信息化领导小组会议要求坚持不懈抓 好信息化建设领域党风廉政建设,严格落实廉政风险防控制度,确保建设廉洁工程。① 一些法院 也已有深刻认识,如江苏省常州市钟楼区人民法院曾召开信息化建设领域集体廉政谈话会,强调 在信息化建设中应规范采购流程、严守廉洁底线。②

  四、规制科技企业参与人工智能司法应用的基本思路

  针对上述风险,应对科技企业参与人工智能司法应用予以必要规制。可以从合理区分公私 界限、明确要求科技企业“有限参与”并对其参与过程进行必要监管着手,提出规制科技企业参与 人工智能司法应用的基本思路。

  (一)公私界限的合理区分

  人工智能司法应用中的科技企业参与、公私合作确有现实必要性,但应以明确公私界限为前 提,划分各自的“势力范围”,防止相互间权责越界。为此,应当再次明确并强调科技企业在人工 智能司法应用中作为技术提供者的这一辅助性身份。引入科技企业参与人工智能司法应用的初 衷是弥补法院在智能技术方面的短板。然而,科技企业在实践中逐步形成的程序控制者和审判 参与者等角色,实际上不符合人工智能司法应用的最初设定。为正本清源,应在人工智能司法应 用中强调对法院审判权的维护,明确案件的审判工作,无论程序之推进、证据之审查、事实之认定 还是法律之适用,都属于审判权之内容,应由法官行使。科技企业研发运营的人工智能工具原则 上只能提供提醒、建议、参考等服务,不应越界而实质地影响甚至干预审判。对于这一点,2022 年《最高人民法院关于规范和加强人工智能司法应用的意见》第5条已经作出明确规定。③

  基于审判权由法院行使的理念和科技企业作为技术提供者的辅助性职责定位,法官独立行 使审判权并承担责任的原则在人工智能司法应用中仍应严格适用,即法官独立行使审判权,不受 “其他任何机关、团体和个人”等外来力量的干预。在人工智能司法应用的背景下,还应当排除运 用于数字法院建设的人工智能技术及其背后科技企业的影响,确保法官不受干扰地、超越工具理 性地④独立行使审判权,如此方能满足“让审理者裁判”的前提,进而要求“由裁判者负责”,让法 官承担错案裁判的司法责任。若非如此,法官的裁判既然是在人工智能技术及其背后的科技企 业的影响甚至干预下做出的,那么在追究责任时不免出现各方互相推诿、“甩锅”的现象,司法责 任的追究也就失去了实际操作的合理性根据。

  为确保审判权独立行使,在人工智能司法应用背景下,对法官心理认知方面的引导、调适亦值得重视。如前所述,法院在人工智能工具面前容易形成技术依赖,此种依赖亦影响法官的心理 认知。尤其当此种身着“科学”外衣的人工智能工具给出某种信息或指出某种方向时,法官会不 自觉地接受此种信息并沿着其方向做出决策,这就是心理学上的“锚定效应”。① 为防止法官的 决策即案件的裁判结果向最初“锚定值”方向偏移而导致认识偏差,应对法官做心理认知方面的 教育和培训,帮助其准确理解人工智能工具所提供的信息在审判工作中的价值和意义,正视“锚 定效应”的存在,并分析人工智能工具的表面权威性及其固有缺陷,从而为突破此种“锚定效应” 提供心理认知上的准备和宽松的裁判环境。②

  (二)“有限参与”的明确要求

  科技企业在人工智能司法应用中的参与应当受到必要限制,这是因为其参与的原初目的仅 仅是给法院提供技术方面的支持,而非对诉讼程序和法官裁判形成制约。基于此种有限目的,科 技企业参与人工智能司法应用的内容、行为方式等也应当受限,以保证与其参与目的相一致。

  一方面,科技企业在人工智能司法应用中的参与事项应有限。原则上,科技企业的参与工作 应当限定于技术层面,如应法院之需求研发符合要求的人工智能产品,在产品使用的过程中开展 人工智能系统维护、故障排除工作,在发生网络安全或数据泄露事件时采取相应的应急措施等。 明确法院工作中的某些关键事项只能由法院完成,并将其排除在科技企业的参与范围之外。这 些事项包括:(1)法官创制规则的过程应当排除科技企业的参与。即便在我国这样的成文法国 家,也存在通过裁判创制规则的空间,这些规则具有多样性特征,又可能升格为较高位阶的规 则,③甚至面临“究竟是依照法律抑或是参酌情理来裁判”④的抉择。这需要法官协调情理与法 理、做出价值判断,该过程需要极高的法理专业技能,不宜有外力的干预。(2)审判中的一些最重 要事项应当排除科技企业的参与。例如,刑事案件审判中的定罪问题、行政案件中行政行为的合 法性判断问题,不但事关重大,而且是判断是否出现错案、明确司法责任承担的关键问题,因此应 由法官独立做出裁判。

  另一方面,科技企业在人工智能司法应用中对数据的处理应有限度。科技企业在人工智能 司法应用中处理数据,是法院将部分公权力外包的结果。根据比例原则的要求,其数据处理行为 不得超出为人工智能司法应用提供技术支持的目的,并以最小侵害的方式进行。这一要求也符 合数据安全保护领域的“数据最小化原则”,即数据的处理应充分、相关,并以数据处理目的之必 要为限度。⑤ 具体而言,应当根据数据分类分级的规则,分别设置科技企业的处理权限。(1)对 于国家核心数据,由于其关系“国家安全、国民经济命脉、重要民生、重大公共利益”,⑥因此不应由作为私主体的科技企业处理。(2)对于重要数据,虽然可以允许科技企业基于人工智能司法应 用之目的而处理,但需要有相关的严格监督制约,如制定数据处理的合规计划、在数据处理前进 行安全评估、建立数据处理过程中的监测预警机制等。(3)对司法数据和个人数据设置不同的处 理方案。针对司法数据的处理,其重点应聚焦于相关数据的安全保障问题;针对个人数据的处 理,特别是在处理其中经作为数据主体的公民个人同意而取得的数据时,应当注重对公民个人数 据权利的必要保护。限制科技企业的数据处理权限,有助于防止科技企业参与人工智能司法应 用时的“越轨”行为。

  (三)参与过程的必要监管

  尽管存在前述种种困境,但科技企业参与人工智能司法应用所涉法益重大,若不加以监管则 可能带来严重后果。为对其在人工智能司法应用中的参与过程进行监管,有以下3个方面问题 需要解决。

  第一,监管途径。对于科技企业在人工智能司法应用中的参与过程,可以有两方面的监管路 径。(1)来自公权力机构的监管。我国已有较为完备的监督系统,纪检监察部门对于人工智能司 法应用中科技企业的参与可能带来的贪腐、渎职等违法犯罪行为有调查监督的权责,检察机关作 为法定的法律监督机关亦有监督审判权行使合法性的职责,此外,与科技企业进行人工智能司法 应用方面合作的法院应对科技企业的参与依法进行监管。(2)来自公民的监督。公民通过行使 权利可以实现对科技企业依法行事的制约,如因科技企业控制程序、参与裁判而受到权利侵害的 诉讼参与人,可以根据《刑事诉讼法》第49、117条等条文的规定提出申诉、控告;若科技企业在人 工智能司法应用的目的之外非法处理数据,导致公民个人数据被滥用、受到其他权利侵害或遭受 损失的,相关公民可以向数据监管机构投诉或举报。

  第二,技术公开。出于保护商业秘密和知识产权等的考虑,科技企业不公开其技术特别是核 心技术固然有其合理性,但此种技术的封闭性和秘密性加大了对参与人工智能司法应用的科技 企业的监管难度。例如,算法不公开扩大了算法歧视的空间、带来了算法黑箱的忧虑,因此有学 者主张增加算法披露环节,①以满足公开公正的监管需求。为兼顾监管需求与合理的商业利益, 科技企业的技术公开应有限度:一方面,公开的技术内容应与其所涉法益平衡,只有当其对司法 公正、公民核心权利保障产生重大影响时才应当公开;另一方面,技术公开可以仅在有限范围内 进行,如可以采取在法院、科技企业与受其影响的公民个人之间签署保密协议的方式,规范被公 开技术的使用方式及其违约后果,同时限制技术公开的范围。

  第三,保障机制。(1)竞争机制。独家经营往往会妨碍数据产品的多样化,可能导致不当提 高数据产品的定价。② 因此,为防止科技企业用低技术水平的产品“以次充好”,应当引入竞争机 制,避免在人工智能司法应用中对某一家科技企业的排他性授权。(2)退出机制。规定科技企业 在人工智能司法应用中的权利和义务,对于未能提供合格人工智能产品、存在不当行为或自身经 营出现困难的科技企业,设置主动或被动退出人工智能司法应用工作的相应机制,以防止人工智 能司法应用的公私合作协议变成“铁券丹书”,从而保证国家财政经费得到合理使用。(3)追责机制。当科技企业不当行为导致严重后果或者涉及违法犯罪时,应当有相应的追责机制。例如,科 技企业在运营平台、处理数据中因疏忽大意导致发生网络安全和数据泄露事件的,应当按照《中 华人民共和国网络安全法》《数据安全法》《中华人民共和国个人信息保护法》等相关法律法规承 担责任。

  五、规制科技企业参与人工智能司法应用的制度展开

  在上述讨论的基础上,从制度层面规制科技企业在人工智能司法应用中的参与,应当从调适 法院与科技企业的关系、确立技术标准、科以数据安全保护义务、保障审判权独立运行、保护公民 诉讼权利等方面展开。其中,法院与科技企业关系的调整是规范科技企业参与人工智能司法应 用的基本前提,确立技术标准与科以数据安全保护义务是实现对科技企业参与行为有效规制的 具体手段,而保障审判权独立运行和保护公民诉讼权利则是科技企业参与人工智能司法应用是 否符合法治之要求的重要判断标准。

  (一)法院与科技企业关系的具体调适

  在人工智能司法应用中,妥善处理法院与科技企业的关系,是缓解或避免科技企业参与所带 来的理念性和结构性风险,实现对科技企业的有效监管、防止腐败发生的必要前提。此种调适符 合前文所述的公私权限划分及科技企业“有限参与”的基本理念。为处理好二者的关系,应设置 以下两方面的具体要求。

  1.公私合作下的各司其职。人工智能司法应用中法院与科技企业的公私合作以技术为接 口,此种在技术层面展开的合作并不影响二者各司其职。科技企业本质上是技术的提供者和维 护者,其对数据的处理、程序的控制和裁判的参与,只不过是其通过技术参与人工智能司法应用 后的客观的甚至是不得已的结果,应当予以限制乃至避免。而法院应当依法独立行使审判权,在 审判过程中发现其在技术方面的需要后,向参与人工智能司法应用的科技企业提出需求,由科技 企业提出解决方案。在此过程中,法院既是需求的提出者,又是人工智能技术的运用者,其主导 者的地位十分明确。法院的核心权力即审判权不应受到科技企业的干预,同时法院在人工智能 司法应用中还应对科技企业的技术提供行为进行指导和监管。而科技企业在通过提供技术承担 “司法辅助职能”时,其明显超越界限的行为应当得到有效制止。

  2.双方交往的适度隔离。法院与科技企业、法院工作人员与科技企业工作人员“过从甚密” 不但可能带来职司混淆的风险,还为腐败的发生提供了空间和机会。因此,在双方的交往中进行 适度的隔离,无论从保证双方职司分离还是从预防贪腐的角度看都有重要价值。此种适度隔离 尤其应在招投标和技术运用两个环节得到充分重视。(1)在招投标环节,评标专家需要与作为投 标人的科技企业保持足够距离,从而保证中立客观立场,防止其间发生经济利益的勾连而导致腐 败。目前实践中通常以随机性评审的方式来保证评审专家的中立性。以上海市为例,人工智能 司法应用的招投标是政府采购部门从既有的专家库中随机抽取评标专家进行评审的。这种做法 虽然能够奠定招投标公正性的基石,但仍应注意两方面的问题:一是要保证专家库数量足够、轮 换及时,二是要防止法院作为委托方在招投标环节以倾向性意见影响专家评审。(2)在技术运用 环节,法官们在使用人工智能技术产品时难免遇到技术障碍,需要向参与人工智能司法应用的科 技企业寻求技术支持。在此种情形下,为避免因二者直接接触而导致科技企业及其技术人员对案件审理产生影响,法官的相关技术需求宜通过法院的行政装备管理、技术管理等部门提出,并 由这些部门与科技企业联系而统一协调安排,从而在审理案件的法官与科技企业之间设置屏障 以限制其直接交往。

  (二)技术标准之确立

  人工智能司法应用中技术标准的缺失不但令针对参与人工智能司法应用的科技企业的监管 缺少依据,而且存在前述“以次充好”、侵吞国帑、贪污腐败等风险。此外,人工智能司法应用“基 础设施技术标准的空白使各系统和平台缺乏整体性规划、互操作性受限,诉讼服务数据标准、资 源分类标准、开放式继承模型与集成标准的缺失致使标准化、规范化、集约化受限,司法审判场景 下算法可解释性标准的缺失可能引发决策偏误和正当性隐忧”,①从人工智能司法应用整体发展 的角度看,确立技术标准亦有基础性意义,符合加强监督的基本理念要求。 1.人工智能司法应用的技术标准应有科学性。尽管目前人工智能、大数据等技术都处在快 速变革、迅猛发展的阶段,制定完全统一、规范的技术标准的难度极大,但业界对某些基本原理和 核心原则已达成共识。这些共识为构建人工智能司法应用技术标准的科学基础提供了可靠支 撑。例如,目前科学界的共识是人工智能技术仍处在低智能水平阶段,因而将其运用于司法领域 就应更为审慎,特别是在其技术水平仍不足以满足案件审理的正当化要求时,不应将其用于证据 审查判断、案件事实认定等审判的核心事项。又如,人工智能技术的研发需要允许一定的容错 率,这是科学研究的基本常识。相关容错率标准的制定只要符合技术发展的客观现状,就可以作 为科技企业参与人工智能司法应用的免责理由。

  2.人工智能司法应用的技术标准还应有一定的灵活性。根据《中华人民共和国标准化法》 第2条的规定,标准按照制定主体可以分为国家标准、行业标准、地方标准和团体标准、企业标 准,按照强制效力可以分为强制性标准与推荐性标准。从目前人工智能司法应用相关技术发展 的现实情况看,制定统一的强制性国家标准的难度较大,可以考虑在企业标准的基础上逐步制定 行业的推荐性标准,以此作为判断科技企业提供的人工智能产品技术水平的依据。此外,可以在 企业技术研发的不同阶段,针对响应需求、复制需求和创造需求等不同目的,制定多元技术标 准,②以促进科技企业对法院技术需求的响应。

  3.人工智能司法应用技术标准的制定要有充分的协商性,并体现各方利益。我国目前在制 定人工智能技术标准时,常通过全国信息技术标准化技术委员会网站、电子信息技术标准化平台 等网站公示以及纸质文件和电子邮件的定向分发等方式征询意见,③参与面过于狭窄。作为公 共产品,人工智能司法应用中的技术标准制定应当充分听取法院、科技企业、社会公众等各方意 见,并在协商的基础上体现各方利益。尤其此种技术标准将用于对参与人工智能司法应用的科 技企业的评价,因而对于其提出的意见应当给予足够重视,以保证其合法利益。

  (三)数据安全保护义务之履行

  科技企业在人工智能司法应用中扮演数据处理者的角色,应以数据处理者的身份,根据《数据安全法》等相关法律承担数据安全保护之义务。根据前文所述,必要监管之基本理念中亦有监 管科技企业履行数据安全保护义务的内容。具体而言,在数据处理前、数据处理中、数据处理后 以及发生数据安全事件时这四种场景下,分别需要承担以下义务。

  1.数据处理前的审查评估义务。处理数据之前应根据数据分类分级方式,审查不同类型数 据的属性和处理后果,以针对不同类型的数据做好相应的安全风险防范。需要注意的是,此种数 据处理前的审查评估工作究竟应由法院来做还是科技企业来做,值得思考。根据数据分级的要 求,科技企业本就不应“染指”国家核心数据,因此法院有筛除国家核心数据的初步义务,以尽量 避免科技企业接触此类数据。完成此种初步义务后,评估审查工作可以交由科技企业完成,由其 根据重要数据与一般数据的不同分级以及不同数据的内容和属性,采取不同的处理方式。

  2.数据处理中的安全控制义务。科技企业在数据处理中的安全控制义务主要体现在3个 方面:(1)建立数据处理的安全监测规范和制度,如设置加密、记录处理日志、开展安全巡查等,以 保证数据处理常规化地符合数据安全保护的要求;(2)针对数据安全风险应有预警机制,对系统 中存在的安全漏洞、补丁后门、病毒木马等,设置警报装置,以便及时发现和处理;(3)按照数据本 地化原则,要求科技企业将人工智能司法应用中所处理的数据存储于国内,并根据《数据安全法》 第36条之“封阻”规定,严格限制数据出境,即非经有权之主管机关批准,不得向境外提供相关 数据。

  3.数据处理后的封存删除义务。科技企业参与人工智能司法应用而处理数据,应适用国家 机关处理数据的相关规定,不得超出处理目的所必需的范围和限度。① 在目的达成之后,科技企 业应立即停止对相关数据的处理行为,并在法定的情形下,根据法院的指令封存或删除相关数 据,以消除相关数据被泄露或滥用的风险。目前《刑事诉讼法》和相关法律法规对于未成年人的 犯罪记录封存已有相关规定,可以以此为基础,再结合数据安全保护相关法律关于删除权的规 定,明确科技企业在数据处理完成后的封存删除义务。

  4.发生数据安全事件时的应急处置义务。即便采取严格的数据安全保护手段,数据安全事 件仍不可能杜绝。在发生数据安全事件时,作为数据处理者的科技企业应采取紧急措施,尽可能 减少损失、降低危害。一方面,科技企业应在数据安全事件发生后的第一时间,依照规定向数据 安全监管机构报告,在必要时亦需要根据法律规定向作为数据主体的公民通报,以避免因该事件 给其带来人身安全等方面的重大威胁;另一方面,科技企业应根据应急流程立即采取措施,如关 闭系统权限、更换硬件设备、查杀病毒木马、隔离感染数据等,通过实施相关危机处理机制以控制 损害后果。 六、结 语 人工智能技术的迅猛发展使得“现在已是未来”。② 在数字时代的浪潮中,原本“各行其是、分为两枝”①的科技企业与法院进行公私合作,已然成为人工智能司法应用的常规模式。科技企 业通过以技术为接口的参与,塑造了数字法院的基本样态,极大提升了法院数字化的速度和水 平,但也必然带来挑战。在客观看待科技企业参与人工智能司法应用必要性的前提下,直面其引 发的问题,非但不会导致对科技企业参与的排斥,反而有助于以“相对合理”②的思路趋利避害, 实现此种参与在法治化的框架内良性运行。面对科技企业在人工智能司法应用中日益重要的作 用,通过制定与实施具体规则,厘清公私之间的界限,限定科技企业参与的范围和方式,并对其参 与予以适当监管,人工智能的司法应用仍然能够遵循诉讼中审判权独立运行、公民权利保障等维 护司法公正的基本原理,也能够应对数据安全、技术依赖、职务廉洁性等方面的新挑战,从而使得 科技企业的参与和人工智能司法应用朝着“服务人民群众、服务法官办案”③的最初目的同向 而行。