中外法学杂志近十年出版发文量:
作者:窦海阳
作者单位:中国社会科学院法学研究所研究员
关键词:人工智能产品;产品责任;危险责任;无过错责任
摘 要:人工智能产品侵权的归责是适用产品责任,还是新设责任类型,比较法和国内法 都无定论。基于受害者保护及促进产品安全的规范目的,当人工智能产品能满足产品责任中 产品及相关规则的隐含要求时,产品责任能容纳该部分侵权的归责。因人工智能技术内在的 不可控,人工智能产品侵权必然会超出产品责任的容纳范围。对于超出部分的归责,需在危险 事由中确证其特殊性,即从抽象的一般性危险中具体界定符合人工智能产品致害特性的危险, 从而有别于产品责任的危险和高度危险。这种人工智能产品致害危险源于生产者,基于非相 互性风险理论,应由其承担无过错责任。在体系建构上,宜采以单行法新设责任类型与改进产 品责任并行的方式。建构归责事由合理、规则完善的人工智能产品侵权责任体系,既能对受害 者提供充足保护,也能为人工智能技术的发展与运用留有宝贵空间。
一、问题的提出
随着科技的发展,在家居、出行、医疗等产品上装载人工智能系统已成新的趋势。所谓 人工智能系统,是设计用于以不同程度的自主性运行,在部署后表现出适应性的机器系统, 并且为了明确或隐含的目标,根据其接收的输入,推断出如何生成可以影响物理或虚拟环境的输出。〔1〕 这种系统增强了产品的安全和功用,方便了消费者,但新产生的致害风险也不 容忽视。对于这类人工智能产品侵权的归责,流行的观点认为它们脱离不了产品责任的范 畴。〔2〕 其论证大致包括,这些新产品符合法律界定的产品样态,且致害原因是系统本身存在 缺陷,应由生产者承担产品责任。这有利于激励他们持续完善系统,增强产品的安全。当然, 产品责任要根据人工智能的特点在举证责任等方面进行修正。 但是,将产品责任适用于人工智能产品侵权的归责并非没有争论。从比较法来看,指出产 品责任无法完全解决此类问题的研究并不少见。〔3〕 欧盟法关于如何规定人工智能侵权责任 以及如何处理其与产品责任之间的关系,都未有定论。从教义学来看,产品责任能否承担调整 人工智能产品侵权归责的任务,应考虑其规范目的及其对产品和相关规则的隐含要求。若仅 在表征上符合产品的界定而实质背离了相应规范目的和要求,则适用产品责任的效果可能南 辕北辙。尽管可以对相关规则进行改进,但仍受制于其本身的修正限度及实际效果。〔4〕 本文试图对人工智能产品侵权的归责问题作系统讨论:一方面基于产品责任的教义解释, 考察该责任对人工智能产品侵权归责的容纳空间;另一方面讨论当超出产品责任的调整限度 时,何为人工智能产品侵权的合理归责事由,并且如何以此建构相应的规则体系。
二、产品责任对人工智能产品侵权归责的容纳空间
(一)容纳依据:技术分级还是责任目的?
1.技术分级不能作为产品责任的容纳依据
目前讨论大多提及自动技术的分级,常见的如引用汽车驾驶自动化分级,以此判断是否适 用产品责任。但是,以自动化技术分级为标准存在很大缺点,最突出的是过于复杂多变。实际 上,技术领域对自动化的分级远不止于此,既有研究只用了其中较为简单的一种。衡量某个系 统的行动自主或取代人类的能力,技术上所需考虑的要素很多,其结果并不完全一致。即使是 采用相同技术的系统,在不同情况下,由人完成的任务和由系统完成任务的划分也不尽相同。对于检查系统适应环境变化的能力,除了简单测试,即机器是否仅限于在预编程选项中选择, 还有复杂的是否满足自主性的测试,包括人机互动的频率、机器对环境不确定性的承受度和机 器的自行确定能力等,而每项测试还必须考虑观察、定位、决定和行动等具体的决策阶段。若 在判断是否适用产品责任时依赖这些衡量因素,就要制定非常复杂的矩阵去说明自主性的各 个方面。〔5〕
更重要的是,从适用法律责任的角度看,系统自动化在技术上究竟处于何种等级与法律责 任并不完全适配。法律责任的适用要依其设定的规范目的,尽管可以对技术发展所导致的规 则变化予以考虑,但不应被技术牵着鼻子走。产品责任能否适用于加装人工智能系统的产品 侵权归责的根本在于能否实现其规范目的,相关规则能否妥当运用,即使对其修正也不应当使 规则本身丧失原有的意义。
2.产品责任的规范目的及隐含要求
产品责任的规范目的之一在于对缺陷产品的受害者进行救济,由于受害者通常获得消费 者保护规范的特殊保护,因此在责任构成上偏向于对生产者做更多要求。产品责任的另一个 规范目的在于鼓励生产者提高产品的安全性,因为生产者最有能力通过一定措施消除或减少 与其产品相关的风险。产品越安全,致害可能性越小,其承担责任的可能性也就越小。
这两方面的规范目的实际上是在生产者与受害者之间作利益平衡。虽然对受害者提供倾 向性保护,但并非绝对的无条件救济,而是以保证生产者利益为前提,即生产者仅有责任掌握 设计、制造各个环节且最终不产生不合理危险的产品。其背景正是在大工业发展下生产者事 先设计并以规模化流水线生产大量同类产品。与此相关,在生产者能对其生产的绝大多数产 品进行把控的前提下,责任的压力才可实现整体提高产品安全的目的。保险人也才愿意以相 应的保费进行承保,从而实现分散损失的效果。在此规范目的下,对于产品界定及相关规则都 有往往被既有研究所忽视的隐含要求。
第一,产品的界定对照《产品质量法》第2条,“加工、制作”用于区分人工产品和天然产品, “销售”用于区分是否流通,以列举方式确认是否属于产品。〔6〕 这种对照隐含着前提要求,即 产品能被生产者全面把控,从设计定型、材料选用再到制造检验都掌握在生产者手里,并在使 用期限内,只要产品合格且使用者按照使用规范操作,产品的功能都是按照生产者的预设发挥 作用,通常不会出现设计与运行偏离的情况。正因为如此,未经加工、制作的产品,比如初级农 产品等,因其质量并非由生产者把控,所以被排除在产品之外。〔7〕
第二,相关规则也隐含了相应的要求。以最具代表的设计缺陷规则为例,风险—效用标准认为当产品的可预见风险能通过使用可行的更安全的替代办法而最小化时,就存在设计缺 陷。〔8〕 该标准在于促使生产者提高产品的安全性,但只有在对产品的改进是可行且经济的 情况下才奏效。这是因为它并不要求使用最安全的设计,而要求安全只需达到特定程度,即成 本不会超过相应的安全效益。因此,对生产者的要求是在设计产品时达到最佳程度的注意,而 不要求其尽一切可能去达到绝对安全。实际上,这也是在平衡生产者利益与消费者保护。对 消费者而言,虽然更为苛刻的缺陷规则更有利,却会导致生产者在推陈出新时疑虑重重。
总之,生产者将产品交给消费者使用,不会出现产品的安全、功用超出生产者在设计、制造 阶段的预设。只有在此前提下才能妥当做出产品的界定及相关规则的设置。反之,如果该前 提不存在,那么产品责任的规范目的就难以实现,适用效果也随之存疑。检验人工智能产品侵 权的归责能否适用产品责任,也应从上述方面展开。
(二)人工智能产品侵权被产品责任容纳的考量
1.人工智能产品是否符合产品责任中产品的要求
人工智能产品侵权的归责能否被产品责任容纳,要考虑人工智能产品是否符合该责任对 产品 的 要 求。流 行 的 观 点 是 将 人 工 智 能 产 品 与 传 统 产 品 一 样 以 《产 品 质 量 法》第 2 条 统 摄,〔9〕即人工智能产品属于软件或动产,且经过加工、制造和销售,符合产品责任中产品的界 定。这种形式性对照对于传统产品而言通常不会产生问题,却并不完全适用于人工智能产品 的判断。
人工智能产品装载的系统与传统程序是迥然不同的技术路径,它进化为机器学习的新算 法,与传统的人力设计不同,拥有独立学习和决策的自主能力。〔10〕 这意味着虽然人类设计、 制造并部署了它们,却并非完全受人类指令约束,而是基于其所获信息的分析和判断展开,深 度学习使智能机器能依自身通过数据训练而构建起来的决策逻辑,结合对环境的感知和交互, 对活动作出具体指令。因此,自主能力带来的问题主要是人类对智能机器控制的下降,智能机 器的行为具有一定程度的不可预测性,无法预见其将如何运行,更无法预测与第三方互动学习 的结果。〔11〕 对于生产者而言,人工智能产品能进行后天学习,不仅完全可以预料,而且这种 能力正是生产者追求的。也就是说,人工智能产品当然地被设计成具有不可预测性。欧洲议 会和理事会《关于人工智能的统一规则并修订第300/2008号条例》[(EU)2024/1689](以下简 称《欧 盟 人 工 智 能 条 例》)指 出,从 设 计 来 看 人 工 智 能 系 统 意 味 着 在 一 定 程 度 上 不 受 人 类 控制。〔12〕
较之产品责任对产品的界定,人工智能产品虽然符合动产及加工、制作等表征,但在实质可能会脱离产品的范围。生产者在设计、制造人工智能产品的过程中并不能准确预知该产 品交付消费者后的运行情况,随着用户的持续使用,人工智能系统不断进行自主学习,其活动 会越来越难判断。若产品缺乏可预测性,生产者很难提高其安全性能。在此情况下,通过让生 产者负担产品责任并不能实现提高安全的规范目的。
因此,按照产品责任的产品界定,人工智能产品能否被容纳至少取决于两个方面:
一方面是人工智能技术的发展。随着算力不断增强、数据收集与训练趋向全面化、模型逐 渐完善,尤其 是 可 解 释 人 工 智 能 技 术 的 发 展,算 法 透 明 的 技 术 障 碍 在 一 定 程 度 上 将 被 克 服。〔13〕 计算机学界研发了多种方法对模型进行事后解释,〔14〕为补全人工智能产品欠缺的透 明度提供技术支持。这些技术越能使生产者在设计、制造乃至运行中对人工智能产品进行把 控,人工智能产品就越可以落入产品责任的产品范围。另外,还有人机转换技术的发展,技术 能实现随时退出与人工智能系统的交互,其存在也会使人工智能产品得以在转换后处于生产 者所预设的被控制状态,那么产品责任也能对此予以规制。
另一方面是规范的管制。目前对于人工智能系统的运用有不断加强的各类管制。在基本 原则层面,比如我国《新一代人工智能伦理规范》第3条第4项确立了人工智能活动遵循“确保 可控可信”的伦理规范。在具体规则层面体现为各类特别义务的设置,比如《欧盟人工智能条 例》第9条的与高风险人工智能系统风险管理相关的义务,第13条的高风险人工智能系统运 营商的透明度义务等。另外还有某阶段对特定产品的定位,比如我国《全国公共卫生信息化建 设标准与规范(试行)》确立了人工智能辅助诊疗的定位。由此可见,人工智能产品能否归入产 品责任的范畴,也受制于规范的管制力度,对其做出限制和约束越大,就越能使生产者在与之 相应的程度上对人工智能产品有所把控,人工智能产品也就越能受到产品责任的调整。
2.相关规则及修正是否超出产品责任本身的限度
既有研究对产品缺陷的判断标准是否适用多有讨论,尤其是聚焦于美国法中判断设计缺 陷的消费者合理期待标准和风险—效用标准,同时也指出这些标准对于人工智能产品侵权的 判断需作修正。〔15〕 实际上,学者的争论都是围绕某个抽象概念的弹性空间展开。这种弹性 可以根据具体情况灵活扩展,使标准与新问题在个案中达致融洽,在一定程度上解决了因人工 智能系统远超普通人的理解或优于传统产品功能而产生的原有规则的应用困难。
然而,这种弹性的另一面是边界的模糊不清,容易为了适用某项标准而忽略其原本的目的 和要求,以致超出极限而破坏原有的平衡。若按照上述标准进行检验,很容易认定人工智能产 品不具有缺陷,或以当时的科技水平不能发现为抗辩。但是,超出生产者的预设而不为其控制 在人工智能产品中是常见情况,而且这种情况是人工智能系统必然存在的。人工智能产品当 然被设计成具有不可预测性,这与其优越的功能是一体两面的。在此背景下,这些规则的运用 必然会导致产品责任中受害者保护这一规范目的无法实现。而若为了保护受害者而过度扩张 上述标准,比如笼统将安全作为消费者的期待,所有不安全的情况都属于缺陷,这就破坏判断 规则的原有功能,实质放弃了以缺陷为基础的构成要件,从而背离了产品责任。
(三)小结:产品责任无法完全容纳人工智能产品侵权的归责
产品责任并非不能满足人工智能产品侵权归责的需求,基于人工智能技术的发展及规范 管制的要求,一部分人工智能产品实质上可归入产品责任的产品范畴。同时,对于相关缺陷、 抗辩规则的修正,也能使其在个案中融洽地解决人工智能产品的侵权事件。〔16〕
但是,从人工智能技术的发展事实来看,必须承认产品责任无法完全容纳人工智能产品侵 权的归责。多层级神经网络计算导致认识的不透明是难以克服的。算法黑箱是由算法的技术 性造成的,而非人为。〔17〕 虽然人们试图以解释来解决透明问题,但正如《人工智能安全标准 白皮书(2023年版)》所言,“算法模型日趋复杂,可解释性目标难实现:……由于深度型算法的 复杂结构是黑盒,人工智能模型天然缺乏呈现决策逻辑进而使人相信决策准确性的能力。为 提升可解释性,技术上也出现了降低模型复杂度、突破神经网络知识表达瓶颈等方法,但现实 中效果有限。主要是因为当前模型参数越来越多、结构越来越复杂,解释模型、让人类理解模 型的难度变得极大……人工智能是否具备可解释性一直缺乏统一认知”。〔18〕 有学者则直接 指出人工智能的透明度并非万能,透明度是一个理想目标,它在本质上与机器人应用的优势相 悖。〔19〕 可见,生产者对人工智能产品在一定程度上不可控制是必然存在的。
由此,应认识到产品责任在这部分人工智能产品侵权归责上对受害者保护与技术发展面 临的两难境地。如果按照既有的缺陷及风险抗辩规则,生产者很容易规避侵权责任,受害者很 难得到保护。若是为了保护受害者对这些规则进行过度修正,则会使得规则形同虚设。产品责任的设置应能促使责任人不断提高产品的安全,否则就偏离了责任宗旨,而变为以产品责任 之名,行“深口袋”的兜底救济之实。当然,为提高人工智能产品的安全,可以采取保守方式。 比如装载人工智能系统的放射治疗机,若系统能自行决定寻找信息并覆盖各种信息源,从而自 主根据不同情况确定辐射量,其信息源越动态,机器的智能性越高,生产者对其预见和控制的 能力就会越低。生产者也可强化控制,以封闭数据库用于训练,这样就能保持对信息获取的预 见和控制。这看似安全,却大大牺牲了人工智能机器的效能。〔20〕 对于人工智能技术的发展, 人类不应对自己的监管过于自信,人工智能的发展显然会超出监管的步伐,尤其是技术发展初 期,严格禁止或过度要求技术完备才能适用,实际上会阻碍我国人工智能技术的创新。
正如有学者指出,人工智能显然会因软件自主性及代码不透明性而使缺陷的识别越来越 困难,这意味着受害者可能无法根据产品责任获得赔偿,产品的缺陷责任并非令人满意的对 策。〔21〕 那么,对于超出产品责任容纳空间的人工智能产品侵权的归责事由就需继续探讨。
三、人工智能产品侵权责任体系的建构
产品责任不能完全应对人工智能产品的侵权问题,那么可行路径就是两方面:一是修正产 品责任,二是对产品责任无法调整的人工智能产品侵权问题单独予以规定。对于前者,可基于 《民法典》侵权责任编的产品责任作出完善。产品责任在人工智能发展情况下的修正,既有研 究已有论述,本文不再展开。对于后者,当下契机是人工智能单行法的制定。〔22〕 我国对于此 类单行法的设置,通常包含法律责任的规定,其往往设置《民法典》无法容纳的特殊民事责任。 那么,在此部分可针对人工智能产品侵权的归责做特别规定。这里的核心是对其归责事由的 探究以及基于此事由所确定的相关规则。
(一)归责事由的争议与选择
1.欧盟法的争议与共识
由于欧盟在立法上关于人工智能的进展是领先的,因此笔者在此重点介绍欧盟的探索。 欧盟目前至少先后形成了两份代表性的官方草案,由此可以看出不同的进路:〔23〕一个是欧洲议会的草案,《向欧盟委员会提出关于人工智能民事责任的建议》[2020/2014(INL)],并附上 《人工智能系统运行责任条例》(Regulation on Liability for the Operation of Artificial Intelligence-Systems)的全文。〔24〕 另一个是欧盟委员会的草案,欧盟委员会发布了两项旨在应对数 字化挑战的立法提案,其中一项是《对欧洲议会和欧洲理事会关于使非合同民事责任规则适应 人工智能指令的建议》[2022/0303(COD)](以下简称《人工智能责任指令》),该提案针对人工 智能系统提供了具体的责任规则。〔25〕
就欧洲议会的草案而言,其内容较为丰富,其中一条主线内容是对责任类型的规定。与 《欧盟人工智能条例》相对应,《人工智能系统运行责任条例》以高风险人工智能系统和其他人 工智能系统的区分为基础。对于前者,其运营者将他人置于高风险之下,根据该条例第4条第 1款承担严格责任。与《产品责任指令》的产品责任不同,这种责任是真正的严格责任,不依赖 于缺陷证明,无需证明人工智能系统存在《产品责任指令》中的缺陷。而对于不会造成高风险 的人工智能运营者来说,则根据该条例第8条第1款适用过错责任。对于上述区分规定的原 因,《向欧盟委员会提出关于人工智能民事责任的建议》的序言第14项强调,不同的人工智能 系统是确定责任的决定因素。当人工智能系统具有高风险并自主行事时,可能对现有民事责 任制度提出实质挑战,为这些高风险的人工智能系统建立共同的严格责任制度是合理的。
《人工智能系统运行责任条例》的另一主线内容是责任对象。该条例认为人工智能系统的 不透明性、自主性会使人们在实践中很难将具体侵害行为追溯到人类的某项设计,因此宜侧重 于针对人工智能系统运营者的民事责任。由于该条例所提出的责任主体与《产品责任指令》不 同,也存在如何处理产品责任与人工智能责任之间的关系。根据《人工智能系统运行责任条 例》序言第10项、第3条第d款以及第11条的规定,如果前端运营者也是人工智能系统的生 产者,该条例优先于《产品责任指令》。如果后端运营者也属于《产品责任指令》第3条的生产 者,则该指令应适用;如果后端运营者不在《产品责任指令》的覆盖范围,则适用条例。如果只 有一个运营者,而该运营者也是人工智能系统的生产者,则该条例优先于《产品责任指令》。虽 然条例做了复杂的规定,《产品责任指令》是否排除了根据《人工智能系统运行责任条例》对生 产者提出的索赔,或《产品责任指令》只是优先适用,仍存在争议。〔26〕
就欧盟委员会的草案而言,《人工智能责任指令》主要规定了举证责任等事项,即赋予潜在 原告请求披露证据的权利,并设立了因果关系推定等规则。对于责任类别及其他规则,根据第 1条第4款的规定,各成员国可通过或维持更有利于原告就人工智能侵权主张赔偿的规则,从 而保留了制定比该指令更细化规则的权力。虽然该指令仅简单规定了证据规则,但需注意的是对原告所赋予的针对被告披露其掌握证据的权利,前提是被告必须制造、销售或使用了高风 险人工智能系统,且根据第2条第2款,该概念与《欧盟人工智能条例》中的概念一致。由此可 见,普通人工智能系统和高风险人工智能系统之间的区别也被《人工智能责任指令》沿用。在 侵权责任上,高风险人工智能系统同样受到更严格的制度约束。
至于《人工智能责任指令》如何处理产品责任与人工智能责任之间的关系,该指令第1条 第3款b项指出,这不影响受害者根据执行《产品责任指令》可能享有的任何权利。但有学者 指出,关于产品责任和人工智能责任的两项指令之间存在重叠,比如这两项指令都针对相同的 行为人,即人工智能系统的生产者,获取证据的权利也与《产品责任指令》第9、10条一致。因 此,《人工智能责任指令》的实际意义在于补充修正后《产品责任指令》无法涉及的领域。受《产 品责任指令》第6条的限制,产品责任的保护范围限于对生命、身体、健康和私有财产等基本利 益的侵犯。那么,《人工智能责任指令》在于补充这些基本权益之外如一般人格权、纯粹经济损 失等领域的损害赔偿,这些范围取决于成员国法的规定。〔27〕
从上述梳理可以看出,欧盟对于如何规定人工智能责任存在较大争议,针对如何处理人工 智能责任与产品责任之间关系也没有一致意见。但无论如何,仍可从中得到基本共识:
一是独立设置人工智能侵权责任。在明确了要对原有的《产品责任指令》进行适应数字时 代的修改之后,两份草案并未将人工智能产品侵权的归责完全交由产品责任来调整。即使是 较为简略的欧盟委员会草案,也明确了单独发展责任法的意向。早在2020年2月欧盟委员会 就发表了关于人工智能监管的白皮书,其中包含了进一步发展人工智能责任法的考虑。〔28〕 欧盟委员会对《产品责任指令》改革提案做积极评价的同时还增加了对要求制定《人工智能责 任指令》提案的压力。〔29〕 欧洲议会则直接提出了内容丰富的人工智能责任的细则。由此可 引申出,产品责任并不能涵盖所有人工智能产品侵权的归责,仍有必要在产品责任之外单独确 立人工智能侵权责任。
二是对人工智能侵权的责任在规则设置上作区分,基础在于不同类型的风险。两份草案, 或在责任类型上,或在证据规则上,都接受了人工智能系统对高风险、普通风险的区分。这种 欧盟共同法层面的风险概念与分类,反映了德国法上危险责任的传统。〔30〕 当然,如何与成员 国侵权法体系相融合,值得进一步考虑。但不管如何,由此可引申出,人工智能侵权责任规则 所基于的风险应区别对待乃至具体化,不能一概而论。
总体来看,比较法资料显示出对产品责任涵盖人工智能产品侵权归责的存疑,且对于人工 智能产品所产生的风险及其特殊性已有充分的关注,这为产品责任之外新类型的人工智能产品责任进一步讨论提供了契机。在案例方面,欧盟在立法层面的发展无疑是具有高度前瞻性 的,在实务中受制于欧盟立法的漫长过程,新责任类型的具体案例有待时日。在美国以及其他 国家的比较法上,扩展产品责任乃至运用新类型的案例也同样值得期待。
2.我国法的选择
我国的流行观点认为人工智能产品侵权的归责完全可以由产品责任调整,其归责事由是 产品的危险。也有少数主张认为可参照高度危险责任,比如高度自动驾驶交通事故适用《民法 典》第1236条的高度危险责任。〔31〕 如前所述,产品责任不能完全容纳人工智能产品侵权的 归责,在传统产品的危险之外仍需寻找合理的归责事由。至于高度危险责任的观点,似乎与欧 盟法中调整“高风险”的严格责任类似,但实际上却相差不少,比较法概念与我国法类比需作细 致斟酌。更重要的是,若运用高度危险责任,能否将第1236条解释为高度危险责任的一般条 款,从而运用到人工智能产品侵权的归责?
将人工智能产品的致害危险作为归责事由,无论是比较法还是我国法,都已有相当共识。 但对于我国而言,问题是如何在民法典体系下妥当处理。侵权责任编的第四章产品责任已经 处理了一部分人工智能产品侵权问题,剩余部分的归责是交由第八章高度危险责任,即通过将 第1236条视为一般条款或通过扩张(或类推)解释来解决,还是以第1166条为基础在单行法 中规定新的具体危险事由,并区别于其他危险事由?
根据一般法理,危险责任是以特定危险为归责事由。持有或经营具有特定危险的物品、设 施或活动的人在其所具有的危险实现而致害时,应承担赔偿责任。〔32〕 比较法上曾有观点建 议以一般条 款 规 定 危 险 责 任。〔33〕 但 目 前 来 看,关 于 设 置 类 似 一 般 条 款 的 建 议 已 并 非 主 流。〔34〕 我国台湾地区“民法”第191条之3为危险工作或活动在侵权法上提供了概括条款, 但这一规定被认为是一个不精确、无用的条文。我国台湾地区法院本着立法意旨和理由做严 格解释适用,并未遁入概括条款而松弛侵权法体系。〔35〕
之所以如此,通说认为,虽然一般条款模式可以灵活应对各种新型风险,并能达到整合具 体类型的体系化效果,但法律上所规定的各种危险情形在细节上是不同的,由此无法确定应将 何者作为一般化处理的范式。同时,作为例外情况,以列举方式规定危险责任确保了法律的可 预测性和确定性。责任人可以事先知道自己是否要承担严格责任,由立法者为每一类危险活 动确立特定的赔偿责任范围和限度,可以通过对相关风险事先购买保险的方式为可能的责任做好准备。由此,对于危险责任,法典和各特别法都终结性规定了限定性的归责事由。〔36〕 这 显然影响了欧洲议会的草案。〔37〕 根据《人工智能系统运行责任条例》第4条第2款的规定, 受严格责任调整的高风险系统将在法规的附件中予以列举。如果某人工智能系统没有被列入 法规附件,法院不得追究这些系统运营者的严格责任。
在《侵权责任法》立法过程中,曾有设置危险责任一般条款的主张。〔38〕 但《侵权责任法》 并未采纳这种观点,而是以无过错法定的一般要求限定了这些责任类型必须由法律明确规定。 这种做法延续到了《民法典》第1166条。
在现行法中,较为特殊的是关于高度危险责任的解释。有观点认为从事高度危险作业致 害而承担侵权责任的规定具有与过错责任一般条款相似的特点,在范围上有一定程度的宽泛 性,法官可以将其作为一般条款适用,从而适应社会发展和避免具体列举模式的弊端。〔39〕 这 种观点也被官方用于《民法典》第1236条的解释,即该条规定了高度危险责任的一般条款,为 司法实践处理尚无法律明确规范的高度危险行为提供了指导性原则。〔40〕 但有学者持否定态 度:高度危险责任一般条款只是为单行立法确立新的高度危险责任类型提供基本的法律依据, 并非意味着法官可据此决定哪些行为属于高度危险责任,进而适用无过错责任。〔41〕
实际上,与前述比较法上对危险责任一般条款的担忧一样,把第1236条解释为一般条款 的弊端同样存在。以该条为一般条款将人工智能致害危险纳入高度危险范畴面临重大障碍, 可能导致因一时解释的便宜而破坏整个侵权法的稳固结构。即使在美国法上,虽然可以根据 多因素对异常危险作灵活解释,针对此危险活动的严格责任仍是相当受限的,认定异常危险活 动的数量极少,而且权力在法院而非陪审团。也就是说,虽然《侵权法重述》提供了包含各种因 素的灵活评估,但并没有扩展的可能。〔42〕 即使要在解释上对这类责任作扩张,也应符合谦抑 原则:对于个别责任类型规定未尽周延者,只能进行非常有限的类推适用,如航空责任,仅限于 在该责任类型内做类推,即涉及飞机降落前后事项的解释;对于立法没有涉及的危险事故,只 能在性质类似的情况中类推适用,如立法详尽规定了空气污染,若遇到土壤污染,可类推适用 空气污染责任的规定。〔43〕 这种对于扩展解释的谨慎也值得我国法借鉴。
我国法的可行选择应是,在现有责任类型无法完全容纳人工智能产品侵权归责的情况下, 以《民法典》第1166条为基础,寻找适合此类侵权归责的新事由。将所有的危险情况都以拼凑 起来的共性予以勉强概括,不利于法律规范的精密建构和准确适用。在人工智能产品侵权上, 有学者就主张要具体区分不同的危险,并适用不同规则。〔44〕 与笔者前述主张相一致,同样 作为人工智能产品的致害危险,可能有的危险在产品责任中即可调整,而有的则超出此限 度,需另外对待。这里就要对不能被产品责任所容纳的人工智能产品的致害危险的具体内 核予以厘清。
3.作为人工智能产品侵权归责事由的危险
一般认为,危险责任是对许可从事一种危险行为的补偿。现代社会需要某些危险活动的 开展,这对科技进步尤为重要,因此危险的存在是被法律容许的。而对于危险的发生,如果受 害者难以获得赔偿机会,实属社会不公平现象。〔45〕 因此,要解决此类不公平问题,应合理分 配不幸的损害后果。对此,在学理上主要有四种理由:一是危险开启;二是危险控制;三是危险 报偿;四是危险分散。〔46〕
就危险开启而言,开启“特殊危险”的人,应就此种危险给他人造成的损害承担赔偿责任。 对这种理由,以乔治·弗莱彻(George P. Fletcher)的“非相互性风险”(the nonreciprocity of risk)理论进行解释更为清楚:如果从被告处产生了一种“较受害者的风险制造活动而言不相 称的、过高的损害风险”,那么被告将被认定负有法律责任。弗莱彻认为这是一种源于公平的 理念,因为所有的社会成员都有权获得“与风险程度大致相当的安全保护”。非相互性风险理 论的核心是,侵权责任的重要部分并非不法行为,而是我们彼此施加的风险。技术作为现代生 活的一部分,会给社会带来固有的风险。一些技术的进步会产生意想不到的损害,起初人们可 能担心这些损害。随着社会对这些新技术的适应,也会有相应的防御措施将这些新技术带来 的风险降到最低。社会可以利用这些防御措施,直到社会至少可以接受非相互性风险所带来 的后果。由于这些风险不可能被完全消除,社会必须决定在什么地方设置门槛,让我们仍愿意 将这种技术融入生活。〔47〕 当然,弗莱彻提出的理论在于反思整个侵权法的构成模式。〔48〕 但 正如有学者指出,人工智能问题为弗莱彻理论提供了新的机会,非相互性风险范式的应用有其 独特和新颖之处。因为当今网络社会具有全新的交流方式以及与之相伴的新伤害方式,普遍存在的连通及不断提高的连通水平,使得一个人可能对他人造成的潜在损害大大增加,更强大 的参与者有能力对大量受害者造成更大的伤害,这让我们能更好地理解自身行为所产生的影 响,以及这些行为在整个互联生态系统中可能造成的危害。弗莱彻理论使我们能够通过研究 事故网络的相互影响来衡量和理解这些事故。〔49〕
弗莱彻对非相互性风险的考虑主要从“施加了什么风险”与“什么样的人施加了风险”两个 问题展开。就第一个问题而言,较之传统的人类社会,人工智能产品具有同时横跨多平台并以 重复方式进行高速交流的能力。这促使我们聚焦于人工智能的活动水平(AI??s level of activity),其明显高于传统人际活动的水平,因而可以引发更多的风险。〔50〕 即便已尽到相当的注 意,如此多数量、高频率的活动,加之人工智能系统本身的重复性、普遍性,也必然促使非相互 性风险的产生。直接受害者可能知道人工智能产品的致害风险,且对其操作系统有一定了解, 但并不能反过来对人工智能产品的生产者产生危险。在这些情况下,人工智能产品的致害危 险可被视为造成了“与受害者的风险活动不相称的、过度的伤害风险”。就第二个问题而言,人 工智能产品的生产者与用户之间的关系本质上是固定的,涉及的是特定类别的人群而非单个 个体。在人工智能领域运营的公司数量虽少但规模大,这些公司作为一个群体拥有更多的财 富。由于在此领域内的垄断地位,少数人工智能公司所拥有的巨大力量使得人工智能产品所 造成的事故不同于传统侵权事件。因此,要在群体层面而非个体层面考虑分配性因素,这一实 质将引发危险者的身份纳入考量,而不是以简单抽象的“平等”涵盖各类主体,这更好地说明了 非相互性风险理论的合理性。
危险开启这一理由也被欧洲议会草案所采纳。《向欧盟委员会提出关于人工智能民事责 任的建议》第8项明确指出,无论是谁创建了人工智能系统,都应该对该活动、设备或程序所造 成的损害负责。这源于被广泛接受的责任概念,即为公众创造风险的人,如果该风险造成了损 害,就应承担责任,而且,应事前尽量减少或事后补偿该风险。这种解释也被学者运用到《人工 智能系统运行责任条例》第4条的解释上:责任是对管理者无法以完全安全的方式运行系统所 要求作出的补偿。如果损害的技术风险在社会上分布不均等,那么责任的实施就要在赔偿层 面实现公平。任何创造对他人合法利益构成高风险的技术系统的人都必须对这种系统所造成 的损害进行补偿。〔51〕
同时,该理由也能很好地解释何种主体应承担危险致害的后果,即如何确定开启人工智能 产品致害危险的生产者。欧洲议会《人工智能系统运行责任条例》草案区分了前台运营者和后 台运营者。我国也有学者借鉴了这种做法。〔52〕 而格哈特·瓦格纳(Gerhard Wagner)却认为生产者是决定人工智能系统安全特性的核心行为者。〔53〕 同时,让生产者承担责任并不意味 着用户可以免于承担责任,用户仍要承担与技术无关的过错责任;而通过对人工智能系统施加 严格责任来收紧用户的责任则完全没有道理。〔54〕 对于人工智能产品侵权的责任主体,笔者 认为用户的过错致害与生产者的致害是有必要区分的,但不能将用户与生产者列于同一位置, 因为从技术来看,关于人工智能产品的出厂、运行,生产者仍处于引发危险的关键位置,且交付 用户后的维护也是从生产者处获得。〔55〕 而对于用户而言,与传统产品使用一样,其就使用不 当而产生的损害仍要负责,只不过需要考虑在此新情况下的过错应如何判断。至于人工智能 产品在使用过程中与外在环境的交互以及用户的指令,则并不能对人工智能系统的安全产生 实质影响。
其他三种理由对人工智能产品侵权的解释并不有力。就危险控制而言,传统教义学中责 任理论的控制支配思想要求只有控制危险的人方可承担责任。若以此解释人工智能产品责任 中的生产者,抑或所谓的运营者,都不妥当,因为人类的有限参与极大弱化甚至架空了人类对 算法决策过程的控制,无论哪个主体都无法达到传统理论中的控制程度,自主性无疑对基于控 制理由的归责造成冲击。就危险报偿而言,其强调“利益之所在,风险之所归”,享有其利益者, 承受其风险。这种理由虽然能提供一种解释角度,但并不贴合,反而通过对获益做各种扩大解 释,无论宏观还是微观的情况都能囊括进去,无法作针对性回应。危险分散理由也同样如此, 因危险责任而生的损害赔偿,可以通过价格机制和保险制度分散风险,从而实现风险承担的社 会化。这是可以用于各类损害救济机制的共同理由,无法针对性地解释人工智能产品侵权的 归责。
接下来需要对人工智能危险做准确界定,对此可以先看一下欧盟法的规定。欧洲议会《人 工智能系统运行责任条例》第3条第c项规定,如果人工智能系统具有以随机和超出合理预期 的方式对一人或多人造成损害的重大可能性,则该系统具有高风险。该草案中侵权责任制度 的核心特征是区分对他人利益造成高风险的系统和非高风险系统。在高风险的界定上,瓦格 纳运用弗莱彻的非相互性风险理论,对第3条第c项的解释是人工智能系统的运行所造成的 风险,若可以通过适当的安全措施减轻,并且不会对身体完整性或个人财产造成重大风险,则 为一般风险,即“不高”的风险。对此可适用相互性原则,即可以假定每个人对他人造成的伤害 风险与该受害者对其造成的风险相当。在这种情况下,如果通过适当的注意就可以或多或少 地消除风险,那就没有必要控制侵权人的活动水平。相反,如果人工智能系统在其运行过程中 出现重大致害风险,侵权人所带来的风险属于不相称风险,则该系统属于高风险系统。〔56〕
这里提供了几项考量因素,包括可能造成损害的严重性、致害可能性以及系统的自主程度 和使用方式。在解析之前,应先区分构成侵权责任的危险与监管机制下的风险。监管机制所规制的高风险对象与侵权责任所调整的并不一致。《欧盟人工智能条例》第6条第2款所述的 高风险人工智能系统包括生物识别、关键基础设施、教育和职业培训、就业管理、执法等。《人 工智能系统运行责任条例》中的高风险人工智能系统清单是否可以与《欧盟人工智能条例》中 的完全相同? 有学者认为,在相关产品导致重大损害的情况下,施加严格责任的理由与对不安 全产品施加特定监管措施的理由并不相同。虽然在侵权责任中的人工智能系统可能是采取强 化监管措施的人工智能系统的一个子集,但并非所有后一类人工智能系统都应被纳入侵权责 任制度,因为并非所有符合《欧盟人工智能条例》规定的高风险产品都能满足严格责任的要求。 所以,即使欧洲议会提案的思路成为法律,也必须起草一个专门针对侵权责任的附件,为责任 目的而特别界定高风险人工智能系统。〔57〕
若从侵权责任角度考虑人工智能产品的致害危险,不应包括执法等公法领域的事项,也可 以排除与社会保障及福利有关的基本权利,该危险所危及的对象应限于人身权等民事权益。 当然,并非所有的民事权益都与这种危险相关,还要考虑其危害程度。如果此类危险状态事实 上得以实现,其引发的损害结果将非常严重。这里的严重性要考虑被侵害的民事权益的位阶, 生命、健康、身体等位阶高的民事权利构成这类危险的可能性大。除此之外,损害后果的严重 性还要考虑其影响范围。这种危险实现所造成的损害可能不仅是个体性事故,也不只是事故 发生地受影响,而是跨越了特定区域、人群成为普遍性危险,这尤其见于人工智能产品用于基 础设施以及通用人工智能的情形。
关于损害后果严重性与致害可能性大对于界定危险是否必要,有学者认为两者都是必要 的,即危险必须特别巨大、特别频繁。〔58〕 但也有学者指出危险可以表现为高发生率,也可以 表现为巨大损害范围与数额,这两种严重结果表现其一即可。〔59〕 有学者则明确指出,损害的 量值是表明行为具有异常危险性的主要因素,其他则不是。〔60〕 所有的人工智能本质上并非 极端危险。〔61〕 相反,只有当人工智能技术以比人类更安全的方式实现其目标,从而使其危险 性低于先前,使用人工智能技术才是有意义的。基于人工智能产品所具有的更安全目标,其致 害可能性应更低,而且通过不断完善,这种可能性还会不断降低。不能将人类对不可完全把控 的未知恐惧等同于高概率的致害事件。因此,致害可能性大并不能用于人工智能产品致害危 险的界定。
人工智能的自主程度和使用方式也可作为考量因素之一。实际上这可以用于区分产品责 任中的危险与这里讨论的人工智能产品的危险。如前所述,自主程度越低,使用方式越受管 制,生产者就越能对人工智能产品进行控制,那么就越贴近产品责任中的危险。这里对自主程 度和使用方式的考虑需区分控制和影响。《人工智能系统运行责任条例》第3条第g项对控制的界定是指操作者对人工智能系统的运行产生影响的任何行为,它会影响操作者将第三方暴 露于与人工智能系统的运行和功能相关的潜在风险的程度;这种行为可以通过输入、输出或结 果在任何阶段对运行产生影响;人工智能系统运行的这些方面由行为决定的程度取决于操作者 对与人工智能系统的运行和功能相关的风险的影响程度。这里的控制实质上仅是对运行产生某 种程度的影响,并非如传统产品生产者那样的完全掌控。产品责任之外的人工智能产品致害危 险是因黑箱而必然存在的,人们尽最大限度的注意也无法将其彻底消除,已超出了主体的控制 能力。
另外,人工智能产品致害危险还要与高度危险相区分。如前所述,人工智能产品本身是为 了更安全、更有用而设计的,其危险性质更多来源于民众的忧虑。因为只要黑箱问题存在,民 众就会认为人工智能产品本质上是不可预测的,其存在会自动产生新的风险。这种对人工智 能致害可能性的朴素假设,尤其是在已经发生了某种损害并围绕这类损害作未来预测的情况 下,通常是不可避免的。〔62〕 这与高度危险的性质是完全不同的。高度危险作业是高空、高压 等危险活动,高度危险物涉及易燃、易爆、剧毒、高放射性、强腐蚀性、高致病性等物品。这些物 品或活动有其固有危险,也就是说高度危险源于物品或活动本身的特质。〔63〕 正因为如此, 《民法典》才会规定第1241条遗失、抛弃高度危险物致害的责任,第1242条非法占有高度危险 物致害责任以及第1243条所涉及的高度危险活动区域或高度危险物存放区域。而这些规定 完全不能适用于人工智能产品的情况。由此可见,人工智能产品的致害危险无法被视为高度 危险作业或高度危险物责任类型内的未尽周延事项,更无法将两者视为性质类似的情况进行 类推。
(二)基于人工智能产品致害危险特质的规则
1.关于过错及相关问题的讨论
关于是否需要过错作为此类责任的构成要件,存在争议。有观点认为,以过错责任而非严 格责任作为人工智能产品责任归责原则,能最大化人工智能发展阶段的资源配置效率。事故 本身难以解释或不能合理追溯到设计缺陷,或损害是因人工智能系统难以为生产者所预测到 的特殊经历造成,让生产者承担责任将会导致不公平。〔64〕 有观点则认为对人工智能致害的 侵权责任应适用无过错责任。〔65〕 主张过错的观点仍然完全以传统产品责任为路径,当然无 法合理解释人工智能情况下所存在的多层次致害危险。笔者认为对于产品责任之外的人工智 能产品侵权归责,无需以责任人的过错为要件。
首先,这是人工智能产品致害危险的必然要求。尽管危险的归责并不必然导致过错不能作为构成要件,但从人工智能产品的致害危险来看,其高于传统产品的致害危险,可影响的范 围不容小觑。由于生产者无法把控,对其要求不应比产品责任下的要求更低,因此在构成要件 的层级上,应比产品责任基于缺陷要件的归责更为严格。有学者指出对非相互性风险的关注 在辨别无过错责任时十分有用。〔66〕 按照非相互性风险的解释,针对他人造成非正常风险的 行为,无过错责任的正当性可以清晰显露出来。这是因为在彼此施加的风险中,生产者对消费 者产生了不相称的、过高的损害风险,超出了与风险程度大致相当的安全保护,基于公平理念 就应予以赔偿,其中机理并不考虑行为人过错。因此,非相互性风险概念与无过错责任的正当 性尤为相关。〔67〕
其次,并无必要担忧无过错责任会阻碍创新。无过错责任对于行为人的影响之一是在研 究和开发方面进行投入,以产出新的安全技术。〔68〕 如前所述,有一些最初看来不同寻常、具 有危险的活动,最终会在我们的选择下成为社会生活的一部分。它们出现时所施加的风险,虽 被认为具有非相互性,却能更好地被社会理解和接纳。一开始通过非相互性风险概念接受,用 严格责任调整,比绝对禁止更好、更符合创新。否则,社会对这些人工智能系统的接受可能会 受到阻碍,导致人们对使用这些系统犹豫不决。无过错责任可以减少风险活动的频率和数量, 而不一定完全禁止有害但有时是可取的活动。〔69〕 而过错责任在判断一个人是否存在侵权行 为时,不是完全考虑其活动水平,而是聚焦于注意水平。〔70〕 无过错责任制度可以更好地激励 人们减少这些危险致害活动,因为在此责任之下,责任人必须考虑其活动水平,且清楚地知道 其将为可能发生的损害承担责任。以这种方式减少活动频率是无过错责任制度相对于过错责 任制度最突出的好处。通过无过错责任制度控制活动水平将有助于规范人工智能产品,从而确 保将人工智能产品的生产者在某些情况下对整个社会所造成的非相互性风险进行内部化处理。
第三,可以更有利于对受害者提供保护。加装人工智能系统后的产品不应使得消费者的 境况变得更糟,尤其是人工智能产品侵权的受害者不应面临比产品责任更低水平的保护。受 害者所获损害救济是基于生产者开启危险,而非生产者生产缺陷产品,这在实体层面足以为受 害者确立赔偿权利。同时,过错责任制度在人工智能情况下的实施效率低,〔71〕在诉讼层面可 能不如无过错责任制度,尤其是在过错等要件难以证明的情况下,诉讼成本将会非常高昂。无 过错责任制度可以节约所有相关的成本,这对受害者主张赔偿更有利。
与无过错责任相关联的是损害权益的范围及其救济。对生命权、身体权、健康权乃至隐私权等人格权及财产权的损害,纳入责任的保护范围并无异议。对于其他民事权益,尤其是人工 智能产品可能导致人格歧视等权益的损害以及纯粹经济损失,能否纳入保护范围并进行救济 则存疑。欧盟委员会《人工智能责任指令》将其交由各成员国来决定。有学者指出,至少在现 阶段,必须拒绝将纯粹经济损失及对一些人格权的侵犯(如歧视)纳入责任的保护范围。就这 些损失而言,没有进一步过滤的过错责任的统一规则已经走得太远,对此类损失的严格责任更 是不可接受。〔72〕 笔者认为,在我国法上对于人工智能产品侵权的归责,若要严格其责任,相 应地就要缩小其受保护权益的范围,由此对于纯粹经济损失及人格歧视之类的权益侵害,不应 作为构成要件的损害后果以及救济范围,而只能在行为人过错的情况下才能考虑是否对其进 行救济。这本质上仍是行为自由项下人工智能产品发展与运用的维护。 另外,对于损害后果的救济是否要设置赔偿限额,欧洲议会《向欧盟委员会提出关于人工 智能民事责任的建议》确立了责任赔偿应有上限并建议了相应额度。应否限制其赔偿数额,系 立法政策的重大问题。〔73〕 “风险归责”使现代侵权法中针对此类责任普遍规定了最高限额的赔 偿,这也是弥补无过错责任严苛后果的重要措施,我国法律法规针对一些危险责任也规定了最高 限额。本文认为对于人工智能产品侵权责任也可在涉及重大损害的情况下设定最高赔偿限额。
2.是否设置特殊的证明规则
是否要在立法中对证明负担设置特殊规则,笔者认为至少目前并无必要。因为举证责任 的倒置规则对责任人过于不利,在我国现行法中仅有环境侵权因果关系等极少数的规定,而且 这已有几十年的实践。即便如此,仍存有很大争议。对此能否用于人工智能产品侵权领域,尚 待观察。对于推定规则,《最高人民法院关于民事诉讼证据的若干规定》第10条规定了两种推 定:一是第3项根据法律规定推定的事实;二是第4项根据已知的事实和日常生活经验法则推 定出的另一事实。前者主要用于违法事实而对过错进行推定,这并不适用于无过错责任,而后 者在司法中个案适用,立法并无必要规定。〔74〕
另需说明,本文所主张的人工智能产品致害在责任类型上存在两种情况:一种是产品责 任,另一种是新的人工智能产品侵权责任。相应,个案当事人的主张也存在特殊之处。如果生 产者能证明其对人工智能产品的设计、制造乃至运营进行把控,尤其是能使用完备的训练数 据、遵守透明度要求、确保人工监督、达到准确性、稳健性和网络安全标准,那么就适用产品责 任,这对于生产者而言是有利的,因为他可以通过缺陷证明或者风险抗辩来减免责任,在个案中 生产者会主动进行证明。如果生产者无法对此证明,则适用新的人工智能产品侵权责任。
四、结 论
回答本文标题所提出的问题:人工智能产品侵权,当这类产品符合产品责任的产品特征,且相关规则及修正未超出本身的限度,应由产品责任来规制,这样可以实现受害者保护和促进 产品安全的规范目的。但是人工智能技术具有不可控制的特性,其必然会超出产品责任的容 纳范围。对于超出部分的产品侵权的归责,需在危险事由中确证其特殊性,从抽象的一般性危 险中具体抽取出符合人工智能产品致害特性的危险,它区别于传统产品责任中的危险及高度 危险。这种人工智能产品致害危险源于生产者,基于非相互性风险理论,应由生产者承担无过 错责任。只有基于这种合理的归责理由并进行相应的规则建构,人工智能产品侵权归责方可 脱离产品责任,成为一种新的侵权责任类型。
对于人工智能技术的发展和运用,促进创新而不轻言加强监管,是目前应有的态度。妥当 建构并充分运用合理的侵权责任赔偿制度,而非过度依赖监管禁止机制,既可以对受害者提供 充足保护,也可以为人工智能技术的发展与运用留有宝贵的空间。