法学杂志杂志近十年出版发文量:
作者:周建军
作者单位:云南师范大学
关键词: 人工智能;刑事法律风险;奇点;治理
内容提要: 面向未来的人工智能技术严重威胁人类社会安全与福祉,具有人类社 会务必整体防卫的重大性质,引发了基于自然政治的人工智能刑事法律风险的未来性 质问题。根据类人属性和通用性质的变化,可以将面向未来的人工智能刑事法律风险 划分为弱人工智能工具刑事法律风险和强人工智能“奇点变数”刑事法律风险。结合 人工智能刑事法律风险防卫的信息刑法界面,形成了面向未来的人工智能刑事法律风 险治理的理念和方法,包括人类的人工智能刑事法律风险治理理念、弱人工智能刑事 法律风险协同治理和强人工智能刑事法律风险跨界治理的方法体系等。总的来说,就 是要从“人是自然界的一部分”的理念出发,在人工智能刑法未来性质及其刑事法律 风险防卫的根本任务的基础上,通过包括人类的人工智能刑事法律风险治理消除人机 对立的因素,以奇点政治理性消解人工智能反控人类社会的重大危机。
一、问题的提出: 人工智能刑事法律风险的未来性质
人工智能刑事法律风险,是指因人工智能技术严重威胁人类社会安全与福祉,不得不以刑 事法律进行防卫的性质和状态。面向未来,人机关系奇点变数的颠覆性风险是人类社会务必整体防卫的重大问题,具有突出的未来性质。因此,人工智能刑事法律风险的未来性质,是指 人工智能技术的革命性地位及其引发的人类安全问题共同决定的,人类社会基于自然维存的 本性,统筹人类安全与社会发展,并以自然反应及其刑法方法实施整体防卫的性质。相应地, 人工智能刑事法律具有了在未来社会条件下,有别于传统社会的条件及其刑法方法,基于人类 社会自然维存本性,以自然反应及其刑法方法实施整体防卫的任务和要求。
相对于传统社会的条件及其刑法方法,人工智能刑事法律风险的未来性质具有显而易见 的自然政治特性。自然政治是指自然而然的政治,包括人类社会的自然维存( 需求) 的本性及 其美好生活追求的目的,生产、分配、交换和消费的自然逻辑,自然法引人为善的决定性理由, 国家权力的自然控制,人与自然的交往合作与发展,等等。根据自然政治学的研究,自然政治 具有决定性的理由,它是国家权力的自然边界,为法律和行动提供决定性抑或不得违反的要 求。① 结合我们此前对人工智能刑事法律风险发生与存在的专门研究,面向未来的人机关系拥 有客观、现实的科学基础,伴随着极其强大的自然逻辑,具有充分运用自然法则的决定性理 由。② 因此,基于自然政治的人工智能刑事法律风险的未来性质问题包括三个方面的基本内 涵: 一是现在对未来的决定性作用( 因果链条) ———依据人工智能技术发展的现状和逻辑,推导 出未来社会的人机关系问题; 二是未来对现在的反作用———根据未来社会的人机关系问题,提 出人类得以维存和发展的根本方法; 三是基于未来社会人机关系问题,启动自然政治及其罪刑 反应的必然性。在未来学的视野中,现在对未来的决定性作用与未来对现在的反作用共同组 成未来学的基本作用结构,二者的矛盾也是人工智能未来社会化的基本矛盾。与此同时,未来 学的基本作用结构和基本矛盾也是启动自然政治及其罪刑反应的根本依据。受人工智能未来 社会化基本矛盾的决定性作用影响,人工智能刑事法律风险的未来性质也取决于前述三个方 面问题和要求。
未来才是哲学的准星。③ 然而,未来学不是玄学,是立足于现在及其客观实际,着眼于未来 的重大关键问题的专门知识。为此,面向未来的人工智能哲学需要进一步阐释自然政治的人 工智能刑事法律风险未来性质问题。首先,关于人工智能现状对未来社会的决定性作用问题: 人工智能技术及其适用的现状和逻辑已经表明,人工智能技术的颠覆性作用及其重大安全风 险势必引发人机关系的革命性变化———尤其在人工智能获取通用能力、具有类人属性( humanoid attributes) 以后,人机关系不仅面临主体地位、性质、作用等方面的不确定性,还要面临人类 ( 也将是与人工智能相结合的人) 如何与之相处,对抗还是合作、续存还是灭亡等方面的问题。 未来社会条件下的人机关系问题既是客观、重大且关键的,也是刑事法律无法回避,务必尽早 防卫的。其次,关于未来社会对现在的人工智能的反作用问题: 从未来社会条件下人机关系的 革命性变化及其人类整体安全的重大风险出发,人类社会及其刑事法律应当如何尽早防卫? 一方面,人工智能科技革命引发的主体地位不确定性问题的本质就是主体地位及其关系的斗 争。人们注意到人工智能刑事法律风险源于人类社会科学技术的重大发展招致的人类安全风险,具有典型的自反性,④ 要以人类的自我革命应对人工智能的科技革命,以自身的革命性发展 抗制主体地位不确定的自反性问题。另一方面,要以未来社会的人类安全法益风险倒逼人工 智能刑事法律防卫的理念和方法,以刑事法律的自然反应和规则推动人工智能刑法变革,“把 人从‘物’的奴役中解放出来”,⑤ 消解人工智能工具理性的逻辑和力量。最后,关于启动人工智 能自然政治及其罪刑反应的必然性问题: 以自然政治及其罪刑反应规制人工智能的刑事法律 风险,既要立足现实,充分回应人工智能工具法律风险的重大危害,也要着眼于未来,综合人工 智能刑事法律风险的未来作用结构( 关键是因果关系链条) 和基本矛盾,以人工智能刑法的专 门反应防卫人类安全法益日渐复杂、紧迫的危险。因此,启动自然政治及其罪刑反应的必然性 包括两个方面的内容: 一是以罪刑反应防卫人类安全法益紧迫性维系的必然性,二是以人工智 能刑法的专门反应开展面向未来的人工智能刑事法律风险日渐复杂的专门防卫。
二、面向未来的人工智能刑事法律风险类型
面向未来的人工智能刑事法律风险专门防卫的关键在于该类人工智能的类人属性和通用 性质( general nature) 引发的犯罪能力变化和主体地位问题。以生成式人工智能( generative artificial intelligence) 为例: 该类人工智能的类人属性及其唾手可得的通用性质不仅带来了犯罪 能力和风险的极大变化,还存在主体地位、性质、作用等方面的不确定性。根据谷歌机器翻译 团队 2017 年发表的论文,该团队的神经网络通过注意机制( attention mechanism) 连接编码器和 解码器,提出了一种“质量更优、并行性更强、训练时间更少”却很简单的网络架构( transformer) ,在自然语言处理( NLP) 领域取得了巨大的成功。⑥ ChatGPT 官网提出,基于 GPT - 4 的“全 能型机器人”是“地表最强大的语言模型”,适用于解决复杂问题。⑦ 这是一种极其接近人类神 经系统、语言文化、思维方式的技术和能力,已经具有了显而易见的类人属性。人工智能伦理 的研究进一步指出: “当机器智能超过人类之时,一个崭新的文明———机器文明( machine civilization) 便诞生了。它将继承和发展人类的文明,并把它扩展至更广袤无垠的宇宙之中。或许, 这才是人类最高尚的自我救赎。”⑧ 结合人工智能刑事法律风险的未来性质,可以将人工智能的 刑事法律风险分为两类: 一是弱人工智能作为人工智能工具的刑事法律风险; 二是强人工智能 “奇点变数”刑事法律风险,即作为通用人工智能( Artificial General Intelligence,AGI) 及其主体 地位和性质不确定性的刑事法律风险。
人工智能抑或生成式人工智能的工具属性日渐突出。论及生成式人工智能工具的法律风 险,刘艳红教授指出: “当前生成式人工智能亟须法律规制的安全风险分别是准备阶段的数据 安全风险、运算阶段的算法偏见风险与生成阶段的知识产权风险。”⑨ 这是基于生成式人工智能或者人工智能必然的网络( 数据) 本质及其“亟须法律规制的安全风险”实际提出的,以数据安 全治理为核心的法律风险,属应激性( 现实性) 人工智能法律风险防卫的范畴。总的来说,应激 性法律风险防卫,是指对现实或者紧迫性法律风险的防范。源于法律制度的现实基础和保守 特性,法律风险主要是指现实( 实际) 风险引起的法律危机或者要求,必要时可以扩大到紧迫性 风险引起的法律危机和要求。结合各国围绕网络空间数据安全竞相斗争的重大实际,算法偏 见及其治理关乎数据品格和网络空间正义根本,具有重大战略价值,属于紧迫而现实的法律风 险。相对来说,紧迫的法律风险往往具有更强的未来向度,可以补足现实法律风险的理性 关照。
面向未来,人工智能技术处于由弱而强的重要节点,具有通用性质暴发、主体地位颠覆的 不确定性风险,进而对人工智能的心智本质及其人机关系提出了挑战。为此,通用人工智能刑 事法律风险是以人工智能心智本质及其人机关系为根本,不得不以刑事法律进行防卫的性质 和状态。相应地,对通用人工智能刑事法律风险的介绍,需要优先回应以下两个方面的问题: 第一,人工智能心智本质及其自我意识的产生问题。人工智能的心智本质主要是指人工智能 基于学习或者深度学习能力( 以深度学习算法为标志) 是否可以形成自我意识( 自我心智) 及 其心智的发展和样态。从人具有智能但不能垄断智能的要义出发,人工智能基于不同凡响的 深度学习能力形成了突出的“有意识的人工智能”问题。耶鲁大学的 Drew McDermott 进一步 提出: 意识是一种利用自身模式获取感觉、作出自己决定的系统特性。这得到了一大批著名学 者的支持。但反对论者提出,人工智能在找到充分破解视力、语言、运动等难题的计算方案之 前,还不算拥有了自己的意识。这是人工智能自我意识存在的基本态势和主要分歧。第二, 人工智能心智本质及其自我意识对人机关系的影响问题。人工智能的心智本质对人机关系的 影响是根本性的,具有突出的不确定性。如表 1 所示,根据人工智能能力( 主要取决于算法能 力) 强弱、心智本质有无的情况,人机关系可能出现四种类型: 弱工具关系、强工具关系、依附关 系和平行关系。其中,人机弱工具关系是指人工智能不具备自主意识,因视觉、语音、运动等关 键技术( 技能) 的不足,与人类相比还存在较大差距,通用于人类的性质有限,依然处于类人化 的初级阶段,仅能充当人类工具的模式或者形态。在依然不具备自主意识的条件下,随着算法 能力的提升,人工智能执行人类特定智能任务的能力不断提高,弱工具关系也将转变为强工具 关系。结合人工智能技术( 尤其人机融合) 的专门研究,人工智能的强弱是以人工智能是否具 有人类通常能力为标准。具有人类通常能力的,为强人工智能; 反之,为弱人工智能。以此为标准,人工智能技术依然处于“弱人工智能”阶段,通用人工智能时代即将到来,但还没有正式 出现。尽管如此,仅将人工智能看作“一个集合了人类世界过往思想的人工智能”,否定人工 智能的创新发展和重大变数是非常危险的。
毋庸讳言,在人工智能关键技术取得突破的条件下,人工智能具有获取自主意识的重大可 能,进而推动人机关系重大变革,即类人而人的根本变化。严格来说,人工智能类人而人的根 本变化源自人工智能自我意识抑或自我心智的产生,是类人属性向人类的转化( 未必是人形 的) ,是人类世及其共同体的异化或者升华( 暂且这么认为) 。亦如人和猿的区分,马克思主义 从不认为人的本质在于它的外在形态,马克思明确提出: “一个种的整体特性、种的类特性就在 于生命的活动的性质,而自由的有意识的活动恰恰就是人的类特性。”因此,人工智能自我意 识的获得及其“自由的有意识的活动”在推动类人而人进程,形成独立地位的同时,将引发人机 关系的革命性变化。基于人工智能的独立地位,人机关系会发生根本性调整,将从工具地位转 向依附或者平行的合作关系。这是人工智能刑事法律风险的重中之重,它所引发的政治问题 和法律危机都还在发酵。概言之,人工智能心智能力及其人机关系的变化具有很大的不确定 性———它具有革命性的地位和作用,既是面向未来的重大机会,也是颠覆性风险( 涉及人的地 位和安全) 的根源所在,理应成为刑事法律风险研究的重要对象; 它能引起主体地位的重大调 整和变化,造成刑事政策防卫的困难局面,包括但不限于防卫对象抑或反应主体的先决性问 题、防卫关系的诠释与防卫方式的构筑等。
三、面向未来的人工智能刑事法律防卫界面
鉴于未来社会条件下人工智能风险问题的严重性质及其自然反应范式,刑事法律依然是 面向未来的人工智能风险防卫的主要手段。但是,面向未来的人工智能刑事法律防卫存在一 个从传统刑法到现代刑法或者信息刑法的转向。尽管传统刑法学研究早就意识到形势( 包括 科学技术形势) “在客观上确实影响定罪量刑”、“刑法必须敏感地应对网络时代的各种变化”等方面的问题,但更倾向于从规范刑法学及其谦抑、保障的性质对风险社会作出“不一定是真 实状态,而是文化或者治理的产物”的判断。当然,这和刑事政策学的研究范式是有区别的。 刑事政策学是犯罪治理决策的科学,具有突出的科学性和系统性要求。从“治尽其理,事尽其 应”的角度,不仅需要考虑到犯罪的已然危害,还要从未来之罪的角度开展犯罪预测、防卫等方 面的研究。相对来说,规范刑法学容易出现未来指引不足的问题,它和刑事政策学的融通既是 犯罪抗制实际的基本要求,更是系统科学的应有之义。为此,德国的埃里克·希尔根多夫教授 指出: 现代信息法既要承担政治指导的任务,也要防范刑法过度规制的危险。综合人工智能 既已存在的工具性危害和发展、面向未来的主体问题和风险,人工智能刑事法律风险的系统研 究务必要以未来法治的理性应对人工智能主体地位和性质不确定性的刑事法律风险,在守护 人类权益的同时不能因噎废食、墨守成规,忽视了刑法的民生根本。就此而言,人工智能发展 引发主体地位、性质及其人机关系不确定性的刑事法律风险是人的地位属性及其安全价值共 同决定的重大社会防卫问题。一方面,它是被称为“第四次技术革命”的数据技术革命引发的 重大安全问题,涉及人类社会存在和发展的根本,具有酝酿重大危机的重要因素。另一方面, 为防范人工智能引发“灾难性风险”,系统检视人工智能的工具作用及其主体地位和性质的不 确定性,研究人工智能刑事法律风险的自然、伦理基础,谋求人类及其未来社会的安宁和福祉 增进,亦属“敏感地应对网络时代的各种变化”的应有之义。
在传统刑法到现代刑法或者信息刑法的转向界面,敏感地应对网络时代的各种变化,需要 着重注意以下两个方面的问题: 第一,准确把握人工智能刑法的未来性质; 第二,深入研究人工 智能刑事法律风险防卫的根本范式。人工智能刑法的未来性质是由人工智能技术的革命性地 位及其人类安全问题的重大性质共同决定,在未来社会条件下,明显区别于传统社会及其刑法 规定的性质。准确把握人工智能刑法的未来性质,仅认识到人类安全风险防卫的任务是不够 的,还要从未来社会条件下的人机关系问题出发,系统审视人工智能刑法的主体、法益( 客体) 、 方法、边界等方面的问题。工业革命以降,“人类之世”( the anthropocene) 及其传统刑法早已 形成了俯视苍生的习惯,为此动物不犯罪,而人类不得不常以罪刑约束自己。然而,动物也有 罪行。只不过人类拥有远胜于它们( 也是他们) 的能力和地位,确有从实力出发,将它们无伤根 本却能体现人类品性,侵犯人类法益的行为看作它们的本能,因而准允出罪。这也是“东北虎 吃人”只是新闻,而人吃老虎构成犯罪的根本原因。面向未来,人类既没有远胜于人工智能的 能力和地位,也没有准允它们侵犯人类安全法益的可能。因此,未来社会条件下的人机关系, 最好莫过于人机的共生共存。这也是人工智能刑法未来性质的根本旨趣———要在防卫人类整 体安全的本能之上,进一步承担起人机关系指引的功能。在此基础上,人工智能刑事法律风险防卫的范式势必出现以下几个方面的变化: 第一,承认人工智能的刑事法律责任主体地位。在 看得见的未来社会条件下,人工智能不仅拥有独立于人类的主体地位( 人格) ,还具有相当的能 力和不被允许的危险,确有作为刑事法律关系主体,承担刑事法律责任的必要性。第二,人工 智能刑法要在维护人与人工智能共同存在的基础上,确保人类的整体安全,防范人机关系的破 裂和消亡。第三,指引人机关系的融通发展: 要以人的自身革命应对科技革命及其人机关系的 重大风险。人的自身革命包括但不限于人的自然存在形态的修正、人类世观念的调整、人与智 能技术的融合( 以脑机接口技术为例) 。人的自身革命不仅意味着人类自身势必存在形态和思 维方式的全新变化,还将在智能化水平的提升中,消除人机对立的因素,消解人工智能反而控 制人类的重大危机。这绝不是一个异想天开,甚至危言耸听的问题。以关乎人的本质的 DNA 问题为例: 生命科学的研究已经注意到,要从承载着遗传信息的 DNA 与蛋白质的相互作用中 探寻生命及其基因信息传递、有序表达的本质。现存于人机关系的重大的不确定性是生命本 质及其信息传递的混沌状态造成的。因此,也要通过人的生命信息的自我传递、交往范式( 人 与人工智能的信息交往) 的革命性变化获取人机信息交往及其关系的有序发展。人工智能刑 法的观念、任务和方法都将发生革命性的变化。综合人工智能刑事法律风险的未来性质及其 主要类型,敏感地应对网络时代的各种变化,人工智能刑法需要优先开展弱人工智能刑事法律 风险的协同治理、强人工智能刑事法律风险的跨界治理研究。
四、弱人工智能刑事法律风险的协同治理
诸如 ChatGPT 类生成式人工智能,因视觉、语音、运动等关键技术( 技能) 不足,尚未形成通 用于人类的智能和能力之前,基于人机弱工具关系,人类和人工智能之间仅存在工具层面的合 作关系。尽管如此,这个阶段的人工智能依然带来了严峻的刑事法律风险问题———ChatGPT 的 语言知识使之获得了相当出色的角色扮演能力,以此煽动、引诱犯意,培养、锻炼犯罪能力的案 件时有发生; 黑客可以利用 ChatGPT 迅速编写软件,侵入电脑系统、窃取个人信息; 借助发达的 电信网络手段,人工智能骗取钱财的案例更是层出不穷、花样翻新,令人防不胜防。在东南亚 某些治理特别薄弱的地区,甚至发生了军事、司法等强力部门涉利卷入网络电信犯罪,引发军 事冲突,造成灾难性后果的事例。此外,利用 ChatGPT 技术、暗网等信息网络方法组织生产、扩 大销售毒品的态势日渐突出。尽管如此,弱工具刑事法律风险依然显示出以下两个方面的重 要特征: 一是单方面的人类行为特性。单方面的人类行为特性源于这个阶段的人工智能仅具 有哲学层面、隐性的工具主体属性,尚未形成显性或者理性的交往主体地位,因此产生的行为 依然可以整体归入人类社会( 而不是更大层面的自然或社会) 行为范畴,因此招致的风险亦属 人类社会自我招致的风险,具有突出的单方面行为特征。二是极致的人类行为招致的极端物 化问题。在人是人( 不能是物) ,而人工智能只是物或者工具的条件下,尽管智能工具扩大了人 类的心智,但因此犯下的罪行依然属于人类行为之罪。针对人类行为之罪,亦需确立以人为对 象的法律治理范式,这是人工智能弱工具刑事法律风险治理的基础和依据。但是,人类借助智 能工具实现了能力的急剧增长,因此招致的物化问题日趋严重,产生了弱人工智能条件下的极端物化问题。譬如,人工智能及其网络技术无孔不入,占据了人类生活的方方面面; 人们从来 没有如此依赖一种技术,国家无不以此为最优先的事业。相对于人和劳动的异化,人工智能在 物化社会的同时加剧了对人类社会的压制和威胁。毋庸讳言,这是人类社会历史上从未出现 过的情况。因此,弱工具刑事法律风险治理也要从极端的物化问题出发,逐步承认人工智能的 主体地位及其对人的影响,紧扣人和人工智能的交往活动和理性,以系统的人机关系治理修正 单一、片面的人类主体思维,系统应对因此招致的极端物化问题,改善人工智能刑事法律风险 治理的机理。
尽管现行法律并不缺乏应对智能工具违法、犯罪行为的办法,但普遍缺乏系统应对工具风 险的意识和能力。这是由人类社会自我认识的不足造成的。仍以“动物为什么不犯罪”的问题 为例,相关研究认为: “‘罪的本身’( crime of itself) 就在大脑内。动物世界没有大脑,所以动物 不犯罪。人脑是犯罪世界的黑窝点,是‘罪的本身’藏身地。”其实,人也是动物,动物不仅有 “大脑”( 各有侧重和适应) ,也会犯罪。譬如,在保安处分制度的理论和实践中,可以处决伤人 的恶犬,应当消除有害之物的危险。若不是单一的人类主体思想作祟,就应当注意到其他物质 的主体地位。又如独立的生态法益理论———单一的人类主体思想难以解释生态法益的独立 性,不利于生态法益的系统保护。严格来说,这是我们存在于自然、社会、科学等层面的自我认 识问题。从马克思“人是自然界的一部分”、“科学只有从自然界出发,才是现实的科学”的观 点出发,自然是包括人类的自然,社会也是人与自然的共同社会,科学更是基于自然、包括人类 的科学。因此,工具引发的法律风险是人与自然共同的法律风险,工具风险的法律治理也该是 基于自然、包括人类的法律治理。
包括人类的法律治理原本是指人类参与其中,且通过法律的治理。人类参与其中不仅是 指人类基于自身保存必然具有的决定性地位和作用,也涵括了人类主体及其法律治理的相对 性和局限性。在包括人类的法律治理理念中,人工智能具有不可避免的自然存在性,并对人类 整体安全形成了自然而然的总体风险。因此,要以基于自然的法律治理优先防范它的总体风 险。考虑到风险的未来面向,弱人工智能自然而然的总体风险治理就是以面向未来的人类整 体安全的自然保全为基础的自然法益体系的总体保护———优先关注人类的整体安全,然后是 人的尊严、人和其他智能主体交往秩序的合理化,等等。相应地,强人工智能类人而人的运动 及其人机关系危险才是人工智能弱工具刑事法律风险防卫的根本旨趣。综合“人是自然界的 一部分”的理念和智能主体的科学实际,包括人类的人工智能刑事法律风险治理,是指人类要 在对人工智能刑事法律风险负责的基础上,遵循自然存在的理性,和其他智能主体共同形成人 工智能刑事法律风险的治理性反应体系,适应人工智能主体诞生的要求,以人类的自我建设和 批判促进智能主体之间的交往理性建设,消解其他智能主体的反抗,最大限度地维护和塑造人类社会福祉。不得不说,这是人类社会存在和发展的根本问题。即便如此,任何事物都有两面 性。生命科学的研究表明: “我们面临严重的问题,其后果可能是灾难性的。如果不加阻止,它 们会给地球上许多地方带来痛苦和毁灭,而且我们并没有解决它们的手段———目前还没有。 不过,当我眺望科学前沿,我看到的却是一个出人意料的光明未来……我们即将进入一个前所 未有的革新和繁荣的时代,前景是美好的,也是使人无比振奋的。”毋庸讳言,没有人类可以独 立处置人工智能风险的法律和方法,应激性的刑事法律风险防卫也不过是面向生命安全保障 的底线思维。但是,基于人类的根本利益,倡导智能主体共治的理念及其包括人类的法律治理 方法会有更好的前景。
结合刑事法律风险治理的基本原理,包括人类的法律治理理念下的人工智能弱工具刑事 风险治理包含以下三个方面的性质或要求: 第一,人类整体安全自然保全的先决性。这是人性 的基本要求,也是风险问题的安全本质及其治理目的的根本所在。人工智能风险的刑事法律 治理要以人类整体安全的保障为前提维护和塑造人工智能伦理的底线要求,统筹生命法益保 护的自然法则和人工智能立法,系统介入人类安全重大风险的整体预防和生命法益的优先保 障。根据自然法法理学“决定性的服从理由”,人工智能伦理需要优先关注人的安全,然后才是 人的尊严和人机交往的基本秩序。在弱人工智能及其工具作用条件下,刑事法律对人类安全 的总体保护具有两个方面的含义: 一方面,在弱人工智能条件下,人类具有保护人类整体安全 的总体条件。换言之,在强人工智能条件下,人类未必还具有独立保障人类整体安全的能力。 另一方面,人类的整体安全面临重大风险,需要得到最优先的保护。然而,现行立法对此毫无 准备。第二,基于自然法的理性,优先适用刑法保护人类安全的必然性。基于自然法法理学 “决定性的服从理由”,人类安全的整体保护具有跳过其他法律优先适用刑法的合理性。这是 人类安全法益的重大、优先性质决定的,也是拟定、适用人类整体安全保障刑法规范的超级事 由。第三,基于自然的人工智能弱工具刑事风险治理的不完整特性。自然理性和人类立法的 对接具有不可能完整的性质,跳过其他法律优先保护人类整体安全的范式进一步加剧了人工 智能刑事法律风险治理的非完整形态。人工智能刑事法律风险治理的非完整形态是由人工智 能技术及其人机关系的不确定性造成的,包括但不限于人工智能伦理、目的、规划及其行政立 法理念和方法的模糊、含混,甚至背离问题。尽管如此,人工智能弱工具刑事法律风险的治理 也要在服从自然、保全生命的基础上,尽快确立“防止作为人活动产物的技术变成支配和统治 人类的异己力量的法治之道”,优先切入人类的安全问题,以人工智能技术的伦理控制指引人 机共同、共生的交往理性,以基于自然的自觉批判倡导包括人类的法律治理理念和方法。
五、强人工智能刑事法律风险的跨界治理
面向未来,强人工智能及其奇点引发的风险是人工智能刑事法律风险防卫的根本所在。 如前文所述,它引发的人机关系问题及其对人类整体安全与命运的重大威胁尽管还在发酵,却 是人类社会不得不尽早采取跨界治理措施才有存续可能的重大风险问题。因此,它是制约人类共同命运的重大风险,也是人类命运共同体及其共同生活( 人类世) 的分水岭———终结抑或 更新,一切皆有可能。“力不若牛,走不若马,而牛马为用”的人类依仗着自以为“能群”的本性 和远超其他物种的“智慧”建构起人类之世,过上了人类主导、主治的共同体生活。随着人工智 能奇点及其自主意识的产生,人类既不是唯一的高阶智慧存在,也不再具有从实力出发的绝对 优势,无法仅从怜悯和同情( 曾被视为自然犯罪的本质) 的角度独立决定其他物种的存续和关 系问题。这也是人机共同体存续的未来性质,兼有终结人类之世及其共同体生活、开启人机融 合共同体界面的使命。结合人机融合共同体的研究,强人工智能刑事法律风险的治理具有突 出的跨界性质,需要从包括人类的人工智能刑事法律风险治理理念出发,确立强人工智能刑事 法律风险跨界治理的方法论。
统筹人类社会的安全与发展,强人工智能刑事法律风险跨界治理的方法论包括奇点政治 ( politics of singularity) 理性、工具主体化、人类安全共生共治、智能主体交往程序治理等方面的 内容。首先,奇点政治理性是指颠覆性风险引发的重大变数及其类属维存的规律和要求。譬 如,雷·库兹韦尔与彼得·戴曼迪斯基于技术奇点理念建立了旨在研究“人类面临的重大挑 战”的“奇点大学”( Singularity University) 。相对于“人类终结”抑或“怪物之世”的奇点理论, 奇点政治探寻奇点条件下的共同体存续问题,具有显而易见的善治旨趣,是人类社会维存的必 然路径。其次,强人工智能及其奇点的出现,也是一个工具主体化的进程。从工具理性批判的 角度,强人工智能及其工具属性既是工具属性及其物化能力增强的结果,也伴随着主体交往规 律和要求的提升。如前文所言,在弱工具形态下,人类以一边倒的主体地位和作用掩盖了工具 交往的属性和规律,造成了突出的物化问题。在强工具形态下,结合物化问题治理及其对象 ( 工具) 化的反作用,工具势必也存在对象化的交往和过程。实际上,工具对象化的交往和过程 也是工具主体地位的彰显。工具主体地位的彰显是强人工智能时代的标志性事件,是通用人 工智能条件下制约人类整体安全、尊严和交往秩序的关键所在,还因此衍生出人工智能强工具 刑事法律风险存在的三个要素: 工具主体化、人类安全法益保全和交往秩序治理。这三个要素 构成了人工智能强工具刑事法律风险治理的主要内容,也决定了该类刑事法律风险治理的基 本要求。最后,强人工智能刑事法律风险治理也是一个智能主体交往秩序合理化的过程。在 此过程中,要以刑事法律风险治理程序理性消除人机对立的因素,消解人工智能反控人类社会 的重大危机,塑造稳定、可靠的人机共同体。这是非交往秩序绝难实现的。概言之,基于强人 工智能的自我意识和主体地位,强人工智能刑事法律风险治理是跨及人类之世和奇点变数,迈 向人机共同体的跨界治理。就此而言,存在四个方面的根本要求:
第一,奇点政治论的根本要求。在人类之世即将终结时,奇点政治是人类维存的根本愿景 和方法理论。毋庸讳言,奇点政治势必包含人类维存的愿景。这是一个方法决定目的的道理: 没有人类维存的方法,也不会有强人工智能发生和发展的道理。说到底,奇点政治就是要从人 与机器彼此构成重大危险的客观实际出发,为“正在到来的共同体”( the coming community) 指出一条所有的行动者都可以接受的方案。在此之中,人类维存既是人类之世的根本性质,也是 未来共同体的必然要求。然而,奇点政治远非未来共同体的全部。它侧重于奇点变数的主体 化进程和智能主体交往的过程治理,是未来社会建构的方法论。有别于未来共同体本身及其 稳定性的根本要求,奇点政治具有也仅具有未来共同体秩序指引的作用。
第二,工具主体化的自然要求。工具主体化是强人工智能刑事法律风险存在和治理的关 键问题。具体说来,工具主体化是物化问题决定的,在物化治理中彰显出来,并通过人工智能 强工具作用( 对人类安全法益的颠覆性影响) 制约人工智能强工具刑事法律风险治理的主体、 目的和方法,形成了关键性的地位和作用。区别于弱工具形态下的人工智能工具主体地位的 隐性存在,强工具形态下的人工智能工具不仅具有主体化的必然要求和强劲动力,还将在主体 化的过程中维护和塑造智能主体存在维系、交流合作、交叉融合的共生形态,创造更高类型的 文明格局。因此,人工智能强工具刑事法律风险的研究需要在打破人类中心主义思想的基础 上,以人工智能强工具地位和作用为先导,以人类安全法益的保障为核心,构建符合自然理性 和人类利益要求的刑事法律反应体系,实现自然意义上的智能主体共生共治。
第三,人类安全法益共生共治的要求。人类安全法益的共生共治特性决定了刑事法律风 险治理的协同性要求———统筹人类的自身发展和法律保护,综合利用生命科学手段和人工智 能技术共同维护生命法益的系统存在。在人工智能强工具形态下,工具主体化的重大实际与 智能主体共生共治的理念决定了人类安全保障的系统性地位: 它是人类自我维系、存续的先决 性问题,但从智能主体共生共治系统的角度看,它只是智能共同体自我保全、存续的根本法益 的一部分。有别于弱工具形态下人类整体安全自然保全的先决性,强工具形态下的人类安全 法益不再是共同体的先决性生命法益。这是由人工智能强、弱工具形态条件的差异造成的,人 类安全法益的系统性差别。换言之,人工智能的主体地位及其自我维系的本性势必要对人类 的主体地位和利益造成相当程度的威胁。这是一种具有现实毁灭性的危险,因此带来了强工 具刑事法律风险治理的根本要求: 要以人类自身发展和革命的自然理性防卫人类毁灭的重大 风险。随着人工智能通用能力和性质的实现,人类和人工智能主体之间将出现关键功能相通、 能力极其接近的状态。这是人工智能技术和能力的革命性发展,势必带来人类自身发展的革 命性要求。以脑机接口技术为例: 多诺霍是全球皮层内脑机接口( Intracortical Brain - Computer Interfer,IBCI) 技术的开拓者。2017 年,多诺霍和他的团队通过皮层内脑机接口技术和安装在 大脑内部的传感器、芯片等感知神经信号、读取人的意图,让一个叫比尔的“手臂残疾者”移动 了他自己的手臂。然而,稍后也发生了某医生因修改“一个基因”健康诞生了“世界首例免疫 艾滋病的基因编辑婴儿”被判处“三年有期徒刑”的事件。人类社会长期存在自为主体、自我尊 崇的嗜好,人不得为对象的观念颇为盛行,但生命科学的研究已经表明,和人工智能技术非常 相似,人类的生命存在、知识积累、神经系统、行动能力都具有可人工的性质。为此,刑事法律 需要在系统审视人类存在的本质和伦理的基础上,破除人类社会自为主体、自我尊崇的嗜好,鼓励生命科学和人工智能技术的综合运用,引导人类自身的革命性发展。归根到底,非这样不 足以应对通用人工智能技术带来的人类安全危险。
第四,智能主体交往秩序治理的要求。以智能主体的交往秩序治理塑造刑事法律风险治 理的程序理性。强人工智能的生命本质、主体地位和能力突破带来了智能主体的刑事法律交 往秩序问题。如前文所言,在弱人工智能条件下,人类自为主体、自我尊崇,其余皆物,忽视了 人类与自然、人类与技术的交往理性,带来了日趋严重的物化问题。通用人工智能颠覆了我们 长期引以为傲、自以为卓尔不凡的地位和能力,揭开了人类自以为是的面纱,真正奠定了尊崇 自然、主体平等的基础,铺设了人与自然、人与技术理性交往的通道。这也是立足于自我维系, 着眼于福祉增进的交往,需要在人与自然共生、人与技术共治的基础上,通过违反自然罪立法 承认独立的自然法益,确立人类安全法益、技术安全法益的超法规地位,阻却人类自身创新发 展技术的违法性,等等。尽管如此,智能主体交往秩序的理性治理依然排除不了人类安全保障 的不确定性———那是源于人类的自我竞争天性、势必自反的未知态势。此外,智能主体之间未 必理性的交往还隐藏着无尽的未知性质和风险。