西安交通大学学报(社会科学版)杂志论文格式要求
1.文章题目:要能够准确地反映文章主题,符合语法逻辑、简明扼要,并为检索提供必要的信息量。一般不应超过20个字,且尽量不要使用“基于”“研究”等虚词及副标题,尽量不要使用带有“是否、可以、能。。。吗?”等词语以及等同意思的结论明显的问句作为题目。(主标题:小二黑体,段前、段后2行,居中;副标题:四号宋体,段前段后0行,居中)
2.作者及作者单位:作者姓名按顺序列示,作者之间用“,”隔开。作者姓名和顺序(含投稿界面)一经确定,不得修改。作者属于不同单位,依次在姓名右上角标示单位序号,另起行按序列示作者单位。作者单位须包括单位名称(应写至二级单位)、所在省份、城市、邮编。(作者:小四号宋体居中;作者单位:五号宋体居中)
示例:
孙天琦1,2,袁静文3
1.西北大学 中国西部经济发展研究中心,陕西 西安 710069;
2.中国人民银行西安分行 金融研究处,陕西 西安 710075;
3.西安交通大学 经济与金融学院,陕西 西安 710061
3.摘要:须客观地反映文章的重要内容,一般需包括研究目的、方法、结果与结论,避免占用笔墨交代一般性的内容,避免写成指示性的摘要,如提出了什么,分析了什么,比较了什么等等,重点是要将研究内容、创新性成果、主要结论交代清楚,最大限度地增加摘要的信息量,拥有与全文等量的主要信息。摘要中不能出现“我国”等不确指的称谓。篇幅一般为300字以内。(“摘要”二字:五号黑体;内容:五号楷体)
4.关键词:是反映文章(不是题目)最主要内容的术语词,每篇文章选3~8个为宜。(“关键词”三字:五号黑体;内容:五号楷体)
5.英文:文章题目、作者及作者单位、摘要及关键词均应译出英文,并将英文内容放于参考文献之后。其中,作者姓名应姓前名后,区分大小写(示例:SUN Tianqi1,2,YUAN Jingwen3)。要注重英文摘要的书写,本刊目前拥有一定数量的海外订户,英文摘要的优劣在一定程度上代表着文章的质量和水平。(英文标题:五号Times New Roman,加粗;作者和单位:五号Times New Roman;Abstract,Key words:五号Times New Roman,加粗;内容:五号Times New Roman)
6.作者简介:以文章题目的脚注形式置于文章首页,包括姓名(出生年— )、性别、单位,职务、职称、邮箱、联系方式。(“作者简介”四字:小五号黑体;内容:小五号宋体)
7.基金项目:也以文章题目的脚注形式与作者简介一起置于文章首页。省级以上立项的课题(项目),需注明项目全称与编号。(“基金项目”四字:小五号黑体;内容:小五号宋体)
8.文内标题层次序号:依次为“一、 (一) 1. (1)”。“引言”无需标题标示;“1.”以下层次标题无需单列成行。
(一级标题:四号黑体,居左,段前段后0.5;二级标题:五号楷体,开头空两格;三级标题:五号宋体)
9.注释:采用脚注形式。(六号宋体)
10.中文译名:文中出现的国外机构外文简写等须先注出中文译名。国外人名,不必翻译成中文。
示例:国际货币基金组织(IMF)
11.图:需有标号及名称;需设置为黑白图,无需外框及底色,图例应有明显区分,纵横坐标应注明名称(及单位);需与文中表述相对应,不能独立存在。(图题:五号宋体;图注:六号宋体)
12.表:需有标号及名称;表的第一行为表头,需用中文准确概括相应每一列的属性、内容等;需与文中表述相对应,不能独立存在。(三线表,六号宋体,单倍行距)(表中如有小数,尽量保留小数点后三位)
13.公式、变量:公式中的运算符号、数字需用正体字,变量需用斜体字。文字表述变量时,应首先列示中文名称。公式均使用公式编辑器生成。
示例:
“自主创新效应(
)的系数为……”
14. 参考文献:采用顺序编码制,用方括号加数字标示,置于适当位置的上角标处,且需与文后参考文献一一对应。文中无需再出现“(***,2010)”或“***(2010)”的标注格式。文后参考文献按照在文中出现的先后次序排列。同一文献出现多次,按第一次出现的序号标注。(“参考文献”四字:五号黑体,居中,段前段后0.5;中文文献:小五号宋体;英文文献:小五号Times New Roman)
在文中的标注需注意:
(1)顺序编码一般置于文献主要责任者姓名的上角标处,主要责任者超过1人时,只标注第一作者的姓名(国内作者)或姓(国外作者),后加“等”。
示例:“孙彪等[16]认为……”;“Miller等[25]认为……”
(2)引用以引号括起的一段完整的文字时,顺序编码置于引号的上角标处。
示例:“学术期刊必须坚持以马列主义、毛泽东思想为指导,贯彻为国民经济发展服务,理论与实践相结合,普及与提高相结合,‘百花齐放,百家争鸣’的方针。” [4]
其中,对主要责任者的要求:
(1)欧美著者的姓名和中国著者的汉语拼音姓名采用姓在前名在后的形式,要求全部大写、姓用全称、名用首字母缩写且不带缩写点。
示例:GRANGER C W J(欧美著者的姓名);LIN Y F(中国著者“林毅夫”的汉语拼音姓名)
(2)主要责任者不超过3个时,全部照录;超过3个时,只著录前3人,用逗号隔开,其后加“ ,等”(中文文献)或“ , et al.”(外文文献)。
示例:[1] 王建宇,樊治平,姜艳萍,等.合作知识创新中基于Stackelberg博弈的资源分享决策模型[J].中国管理科学, 2005(3): 84-88.
[1] LIU C,LIANG T,RAJAGOPALAN B,et al. Knowledge sharing as social exchange: evidence from a Meta-Analysis[J]. Pacific Asia Journal of the Association for Information Systems, 2011, 3(4): 21-47.(英文文献的题目第一个单词的首字母大写,其他单词首字母不用大写)
(3)著者的责任、国籍、朝代等要素不必著录。
在文末的标注需遵循以下格式:
(1)图书:[序号]主要责任者.文献题名[M].出版地:出版社,出版年:引文页码.
示例:[1]张志建.严复思想研究[M].桂林:广西师范大学出版社,1989:20.
(2)译著:[序号]主要责任者.文献题名[M].译者.出版地:出版社,出版年:引文页码.
示例:[1]迈克尔·波特.竞争战略[M].陈晓悦,译.北京:华夏出版社,1999:20.
(3)论文集:[序号]主要责任者.文献题名[C].出版地:出版社,出版年:引文页码.
示例:[1]伍蠡甫.西方论文选:下册[C].上海:上海译文出版社,1979:20.
(图书、译著、论文集的引文页码同时在正文参考文献序号后标注,如孙彪等[16]20)
(4)析出文献:[序号]析出文献主要责任者.析出文献题名[原文献类型标识]//原文献主要责任者.原文献题名.出版地:出版者,出版年:析出文献起止页码.
示例:[1]钟文发.非线性规划在可燃毒物配置中的应用[C]//赵玮.运筹学的理论与应用:中国运筹学会第五届大会论文集.西安:西安电子科技大学出版社,1996:468-471.
(5)期刊文章:[序号]主要责任者.文献题名[J].刊名,年(期):起止页码.
示例:[1]余永定.财政稳定问题研究的一个理论框架[J].世界经济,2000(6):28-31.
(6)报纸文章:[序号]主要责任者.文献题名[N].报纸名,出版日期(版次).
示例:[1]谢希德.创造学习的新思路[N].人民日报,1998-12-25(10).
(7)学位论文:[序号] 主要责任者. 题名[D]. 授予地: 授予单位, 授予年:引文页码.
示例:[1]樊英. 经济增长中系统演化的复杂性研究[D].北京: 北京师范大学, 2005: 51-52.
(8)电子文献:[序号]主要责任者.电子文献题名[EB/OL].(发表或更新日期)[引用日期].文献出处或可获得地址.
示例:[1]王明亮.关于中国学术期刊标准数据库系统工程的进展[EB/OL].(1998-08-16)[1998-10-04].http:// www.cajcd.edu.cn/pub/wml.txt/980810-2.ntml.(电子文献不列入文末参考文献中,如实在需保留,请以引用当页的脚注的形式出现)
15.正文与字数:请特别注意文章的理论性、思想性、创新性、可读性,尤其是经管类、实证类文章。语言表达上要求文字精炼、重点突出,特别要避免基本知识等的阐述,突出文章的独到之处。尽量简化模型推演过程。总字数控制在15000至20000字。(正文:单栏通排,五号宋体,行距固定值18)
进入期刊首页作者:陆卫明;张文;王 明
作者单位:西安交通大学;东北财经大学
关键词:全球人工智能治理;负责任人工智能;人工智能技术;囚徒困境;合作博弈;“共治”机制
【摘要】以生成式人工智能为标志的新一代人工智能技术应用诱发的风险具有新生性、复杂性、跨 境性等多重属性,加强全球人工智能治理、推动其向善且负责任发展已成为“共识”。这一“共识” 的形成受多重动力驱使:各国政府前瞻布局以规避科技伦理潜在风险、人工智能企业亟须平衡风 险治理与商业价值最优配置、国际组织聚焦地缘博弈与全球稳定、学界聚焦人工智能可持续性发 展。“共识”的形成为构建全球人工智能“共治”机制提供了前提。全球人工智能治理从“共识”到 “共治”面临着“囚徒困境”恶化引发的协作瓦解与零和博弈危机的根本性挑战、技术异步发展与治 理标准不统一引发的双重性阻碍、文化价值冲突与伦理排序差异引发的适应性挑战、技术博弈与 利益分配矛盾导致的协同性阻碍挑战。未来还需构建全球人工智能“共治”机制作为保障性路径, 具体包括整合技术与价值的平衡机制、打造利益相关者协同治理生态、构建动态调整治理机制。
全球化趋势引发了全球性危害[1]7。随着数字化浪 潮席卷全球,人工智能正以前所未有的速度和规模影响 着人类的生产生活方式。人工智能的数据开发及应用 具有全球性特征。一方面,“世界各地领导人都已认识 到,人工智能是经济增长、国家安全和社区安全的关键 技术”[2]213;另一方面,人工智能技术应用风险的新生性、 复杂性和跨境性使得对其治理成为一项跨地区、跨领域 的综合任务,不能仅仅依靠单一国家和地区或市场力量 完成,而需要全球范围内利益相关者的合作协调。基于 此,亟须构建全面、包容、高效的全球人工智能“共治”机 制。因此,全球人工智能治理概念应运而生①。
2024年3月21日,联合国大会就监管人工智能这 一新 兴 领 域 通 过 决 议,呼 吁 抓 住“安 全、可 靠 和 值 得 信 赖”的人工智能系统带来的机遇,并以此促进可持续发 展。该决议为人工智能治理确立了全球共识②。微软集 团发布的《人工智能全球治理:2024年的目标和经验》报 告提出,当前人工智能治理框架依然处于起步阶段,然 而全球已经达成了关于核心风险管理、标准互操性及包 容性发展的“共识”。2024年9月18日,在第三届国际 人工智能安全对话论坛上,图灵奖得主约书亚·本吉奥 和清华大学姚期智等学者共同发布的《威尼斯共识》认 为人工智能带来的风险具有全球性,人类必须将人工智 能安全视为全球公共产品,并为实现这些风险的全球治 理而努力③。2024年11月18日,国家主席在二十国集团领导人第十九届峰会上强调:“要加强人工智 能国际治理和合作,确保人工智能向善、造福全人类,避 免其成为‘富国和富人的游戏’。”①基于此,各国政府、国 际组织、人工智能企业、学界等初步形成了全球人工智 能需要“共治”的“共识”。但是,弥漫全球的人工智能应 用风险能否得到善治,并非取决于“共识”的初步形成, 而取决于 能 否 在 形 成“共 识”的 基 础 上 构 建 有 效 的“共 治”机制。因此,全球人工智能治理“共识”形成的动力 是什么? 全球人工智能治理从“共识”到“共治”的挑战 是什么? 如何实现“共识”到“共治”这关键一步的跨越? 未来如何构建全球人工智能“共治”机制? 这一系列问 题构成了本研究的关键议题。 一、全球人工智能治理“共识”形成的动力 全球人工智能治理初步形成以国家为中心、多元主 体参与的治理格局[3],这表明利益相关者从各自立场出 发已经形成了推动全球人工智能治理的“共识”。其形 成受多重动力驱使:各国政府前瞻布局以规避科技伦理 潜在风险、人工智能企业亟须平衡风险治理与商业价值 最优配置、国际组织聚焦地缘博弈与全球稳定、学界聚 焦人工智能可持续性发展,等等。这是全球人工智能治 理处于“弱共识—强共识”的形成期。
(一)各国政府前瞻布局以规避科技伦理潜在风险
多边治理是全球人工智能治理的主要渠道②,各国 政府前瞻布局以规避科技伦理潜在风险是推动全球人 工智能治理“共识”形成的根本动力。
1.伦理责任与人类福祉的多维价值权衡
2024年11月20日,国家主席在向世界互联 网大会乌镇峰会致辞中指出:“当前,新一轮科技革命和 产业变革迅猛发展,人工智能等新技术方兴未艾,大幅 提升了人类认识世界和改造世界的能力,同时也带来了 一系列难以预知的风险挑战。”③人工智能技术在应用中 广泛涉及隐私保护、弱势群体权益及公平性等高敏感伦 理领域。未来生命研究所创始人 MaxTermark在其著 作《生命3.0》中认为,“我们宇宙中的生命会实现还是消 费它的潜力? 这在很大程度上取决于在世的人们在有 生之年会做出什么样的选择”[4]327。毫无疑问,人类对人 工智能技术发展的目标始终应是为自身谋求更多福祉。 尤其是科技伦理学界强烈呼吁政府应当构建以“透明、 问责、公平”为核心的人工智能治理框架,确保人工智能 技术发展始终与人类目标深度耦合,从而防范和治理在 应用人工智能技术中诱发的诸如隐私泄露、算法偏见、 技术滥用等一系列风险,进而构建起可信度高的人工智 能技术信任体系,最终推动人工智能技术从“工具属性” 向“人本属性”价值的跃升。因此,各国政府更加注重人 工智能风险治理的前瞻性与敏捷性,强化政策、法规、伦 理多元共治形成的共振效应,旨在推动实现人工智能技 术的创新性发展与人类福祉的协调共生。2024年8月1 日,正式生效的欧盟《人工智能法案》限制在自动驾驶汽 车或医疗保健等高风险领域中使用人工智能④。
2.公众信任与社会共识的协同建构
人类从本质上喜欢确定性[5]184,而人工智能技术的 出现及迭代创新加速了这个时代的不确定性。人工智 能技术尤 其 是 新 一 代 生 成 式 人 工 智 能 技 术,在 金 融 决 策、自动驾驶、辅助医疗诊断等人类生产生活的重要领 域与人类深度融合,使得公众对这种技术的解释性、透 明性以及安全性要求更高。满足公众更高要求的核心 问题是消除公众对人工智能技术的不信任感,增强公众 对这种新兴技术的接受度。例如,生成式人工智能技术 的“黑箱”问题导致此类技术的决策系统非透明,甚至在 事关公众权益保护方面问责机制缺失,这加剧了公众对 此类技术的不信任,甚至可能会引发技术焦虑,若未加 干预治理可能会形成公众对人工智能技术的集体抵制 情绪。基于此,促使各国政府强化对人工智能技术可解 释性、透明度的治理,以此提升公众对这种技术的接受 度,成为加强全球人工智能治理的重要驱动力。当下, 各国政府已积极部署发展“负责任的人工智能”[6],致力 于推进人工智能责任问题透明明确。例 如,2024 年 11 月12日,中国发布 了 关 于 开 展“清 朗 · 网 络 平 台 算 法 典型问 题 治 理”专 项 行 动 的 通 知,强 调 “算 法 向 上 向 善,应是互联网时 代 的 基 本 共 识 和 规则标准”⑤。中国 的这一举措不仅有助于缓解公众对技术的焦虑情绪,而 且也有助于构建人工智能技术与社会协同发展的长效 机制。
(二)人工智能企业亟须平衡风险治理与商业价值
最优配置 风险必然会带来威胁,人工智能技术的应用风险会 加剧人工智能企业所捆绑的利益受损。在人工智能技术创新发展前期,“引领人工智能革命的人工智能企业 往往都不会循规蹈矩地遵循一般性的公司规则,这通常 会引发伦理风险问题”[7]45,而这些风险问题会对这些公 司后续发展造成负面影响。前期发展的人工智能企业 通常在追求技术创新与遵循技术发展规则二者间不容 易做到有效平衡。一方面,如果这些人工智能企业不能 有效管控技术应用风险,可能会导致公众对其提供的技 术、产品与服务产生不信任,从而导致商业机会流失;另 一方面,如果这些公司过度受到规则限制可能会减缓技 术创新迭代速度,降低其市场竞争优势。当下,中国深 度求索公司的 DeepSeek-R1与美国 xAI公司的 Grok-3 大语言模型接续面世,人类已经进入人工智能技术发展 竞速时代。基于此,人工智能企业亟须在平衡风险治理 与商业价值追求之间寻求最优配置,这成为推动全球人 工智能治理“共识”形成的动力来源之一。
1.技术风险与市场竞争压力增大
一方面,人工智能技术竞速发展以及应用扩展加剧 了人工智能企业间的竞争强度,迫使其必须抢占技术制 高点与市场份额;另一方面,人工智能技术应用领域不 断拓展,早期人工智能技术主要应用于图像识别和自然 语言处理,随着以 ChatGPT为标志的生成式人工智能技 术的问世,人机交互更加灵活,DeepSeek以更低成本算 力和开源模式“破圈”,人类距离共享智能普惠红利时代 越来越近,人机融合逐渐成为新常态。然而,人机融合 诱发的不确定性应用风险逐渐凸显,正在引爆公众的技 术焦虑情绪。例如,人工智能技术应用中的隐私泄露等 已成为全球问题。美国社会评论家 NeilPostman在其 著作《技术垄断:文化向技术投降》中认为,“随着技术统 治文化的兴起,信息成为前所未有的严重问题”[8]70。尤 其在事关保护用户隐私问题上,若人工智能企业忽视对 公众权益保护与利益诉求的回应,可能会导致公众反对 情绪上升,影响这些企业技术和产品的市场份额,进而 阻碍其技术创新。所以,人工智能企业正在积极通过技 术应用风险治理来增强社会责任感、提升公众信任,实 现技术创新与风险规避间的动态平衡,以期实现商业价 值最大化。
2.外部政策与监管环境趋严
确保人工智能安全、可靠、可控,有利于人类文明进 步,是人工智能发展必须解决的重要课题[9]。全球人工 智能治理在政策层面呈现出监管趋严态势。欧盟出台 的《人工智能法案》以严格著称。该法案依据人工智能 技术的潜在社会风险,将风险划分为不可接受风险、高 风险、有限 风 险 和 最 小 风 险,从 而 对 其 展 开 分 层 监 管。 其中,高风险人工智能技术成为监管的重点,包括辅助 性医疗诊断技术、生物识别技术以及信用评估算法等。 例如,该法案要求人工智能技术部署在高风险领域中必 须遵守透明性、数据质量保障、监控与问责、合规评估等 原则。具体来讲,要求这些技术部署前,须通过第三方 机构独立审核技术是否合规,确保符合法规要求。尽管 《人工智能法案》对人工智能技术风险进行分类、对监管 要求以及人工智能企业责任构建了清晰框架,然而其也 因监管严格等原因招致部分反对。部分批评人士认为, 该法案会对人工智能企业的技术创新与商业推广施加 显著压力。如西班牙数字化和人工智能 负 责 人 Carme Artigas认为,《人工智能法案》监管程序相对分散,影响 了欧洲在数字领域的竞争力①。此外,党的二十届三中 全会通过的《中共中央关于进一步全面深化改革 推进中 国式现代化 的 决 定》作 出 了 建 立 人 工 智 能 安 全 监 管 制 度、完善生成式人工智能发展和管理机制等重要部署。 由此观之,全球人工智能治理政策整体向严,但具体治 理标准缺 乏 统 一。在 此 背 景 下,为 实 现 商 业 利 益 最 大 化,人工智能企业不得不在平衡风险治理与商业价值追 求之间寻求最优配置。
(三)国际组织聚焦地缘博弈与全球稳定
人工智能技术竞速发展正在改变国家间竞争格局, 同时也对全球稳定提出了新挑战。长期以来,国际组织 在全球治理中扮演着重要角色。在全球人工智能治理 领域,国际组织聚焦地缘博弈与全球稳定,通过构建多 边对话机制、促进人工智能资源共享、加强具有全球普 适性的治理规则制定,积极致力于推动人工智能技术发 展与全球安全间的平衡,这构成了全球人工智能治理动 力的重要来源。例如,2024年9月19日,联合国发布了 FinalReport:GoverningAIforHumanity,强调全球人 工智能治理的重要性与紧迫性,呼吁各国政府摒弃零和 博弈思维,携手应对人工智能技术带来的机遇与挑战②。
1.人工智能的地缘政治意义
生成式人工智能处理数据的能力巨大,且面对复杂 任务时自动化程度高,这样的技术在事关国家和地区经 济发展、国防安全等关键领域应用潜力巨大。因此,各 国都在积 极 发 展 此 类 技 术,并 将 其 部 署 在 上 述 关 键 领 域,使之 成 为 增 强 国 家 综 合 实 力 的 重 要 战 略 资 源。然 而,生成式人工智能技术的迭代创新取决于大语言模型 能否训练 成 功,这 要 求 人 工 智 能 企 业 拥 有 更 高 质 量 数 据、更多的计算资源以及不断对算法进行优化,这些均 具有明显的门槛特性,使得少数人工智能技术强国联合 本国和本地区的人工智能巨头企业,基本上垄断了全球数据和强大算力,确保其在人工智能竞速发展的浪潮中 掌握优先主导权。这样的技术垄断,在一定程度上加剧 了国家和地区间不对称的技术竞争,尤其在网络安全、 军事等重 要 领 域,人 工 智 能 已 经 成 为 地 缘 博 弈 的 新 工 具。美国亚利桑那州立大学社会创新未来学院 Andrew Maynard教授在接受《中国社会科学报》采访时表示,人 工智能发展很少受到经济边界的限制,由此带来了地缘 政治方面的挑战①。
2.人工智能对全球稳定造成潜在威胁
一方面,人工智能技术发展催生了新经济业态,这 些新经济业态反过来也重塑全球经济格局,尤其是“数 字化 生 产 模 式 将 对 传 统 国 际 分 工 机 制 产 生 重 大 冲 击”[10]。抓住人工智能技术发展机遇的国家和地区,不 但可能会率先提升国内生产效率,而且可能会通过技术 垄断与治理规则制定等进一步巩固其经济主导权。荷 兰乌得勒支大学伦理研究所研究 人 员 ArthurGwagwa 认为,“如果大国主导人工智能发展,可能会带来一种新 形式的数字殖民主义,尤其对于非洲和‘全球南方’的其 他地区”②。由此发现,人工智能技术与经济双向交互促 进,且在技术垄断背景下,会对全球稳定造成潜在威胁, 这推动国际组织加快全球人工智能治理的进程。另一 方面,人工智能技术的开源使得其研发与应用成本不断 降低,这为以恶意为目的使用人工智能技术的个人或组 织提供了“便利”,特别是 deepfake(深度伪造)和以提升 用户黏性为目的设计的推荐算法,可能会被用于虚假或 恶意信息的传播,进而进行舆论操控。此外,人工智能 技术在军事领域中的应用,包括情报分析、无人机部署、 自动武器研发等,在提升战争精准性的同时,可能会因 “决策外包”给人工智能决策系统,消减国家主体在战争 决策中的慎重性,从而增加因人工智能误判引发冲突的 概率,进而对地区乃至全球安全造成巨大威胁[11],这也 是国际组织积极推进全球人工智能治理的重要原因。
(四)学界聚焦人工智能技术可持续性发展
人工智能技术可持续发展的观点,是可持续发展理 论在技术领域的具体体现。这一观点强调人工智能技 术创新不仅要满足当前人类发展需求,还应避免对生态 环境造成破坏以及对资源的过度消耗。近年来,学界聚 焦人工智 能 可 持 续 发 展 面 临 的 关 键 问 题 进 行 了 研 究。 中国科学院自动化研究所研究员曾毅提出,探索新一代 人工智能,特别是不同类型的高等智能,需建立对其技 术与社会风险的持续战略性前瞻研究,以降低、避免潜 在风险带来的负面影响。
1.人工智能技术可持续发展面临的关键问题
人工智能技术能否可持续发展,事关其能否持续服 务于人类 社 会 发 展 以 及 为 人 类 创 造 福 祉 的 可 持 续 性。 当下,人工智能技术可持续发展面临的关键问题是计算 成本过大、能源消耗过多、算力垄断以及诱发的技术焦 虑。一方面,训练大语言模型如 ChatGPT,需要处理海 量数据、进行大规模计算,这种传统技术架构要求大算 力。例如,OpenAI公司训练 ChatGPT 消耗总算力大约 为3640PF-days③。此外,根据马萨诸塞大学阿 默 斯 特 分校的最新研究,训练一个大语言模型产生的碳排放量 高达62.6万磅,相当于5辆汽车从生产到报废的全生命 周期碳排放总和④。另一方面,人工智能技术迭代创新, 主要依赖高质量数据和庞大算力资源,而这些资源往往 被美国等 少 数 发 达 国 家 和 人 工 智 能 巨 头 企 业 所 垄 断。 这样的垄断会导致人工智能技术发展全球环境恶化,尤 其使得人工智能技术发展起步晚、基础薄弱的发展中国 家和欠发达地区处于不利境地,从而可能加剧全球化的 人工智能技术鸿沟,进而阻碍全球人工智能技术发展的 整体进程。此外,人工智能技术决策系统的自动化已经 引发了技术焦虑,特别是“监管不足的自动化决策可能 令社会陷入‘算法暴政’和‘数据霸权’的泥沼之中”⑤。
2.学界对人工智能技术可持续发展的研究
清华大学梁正认为,“人工智能技术在助力实现联 合国可持续发展目标的同时,其自身的可持续性发展问 题日益凸显”[12]。2017年6月7日,在由联合国专门机 构国际电信联盟倡导的“人工智能造福人类全球峰会” 上,国际电信联盟前秘书长赵厚麟表示人工智能应当用 以改善人类生活,人类应该共同努力,使其成为一个造 福全人类的积极力量⑥。人工智能技术的可持续发展已 经成为学界关心的重大问题。其不仅关乎技术的当下 发展应用,更为未来的人机和谐共生寻求路径,这是学 界形成全球人工智能治理“共识”的重要动力来源。学 界正在探索新的算法优化策略与硬件架构,寻求降低训 练大语言模型能源消耗的路径。2023年1月3日,9位 院士及12位专家在Science 合作期刊IntelligentComputing 发表题为《智能计算的最新进展、挑战和未来》的 论文,指出要通过模型压缩、分布式计算和量子计算等 方法提升计算效率,减少传统模型在训练和推理过程中 的资源浪费,以实现人工智能的碳中和目标[13]。
二、全球人工智能治理从“共识”到“共治”的 挑战
全球人工智能“共识”已基本形成,而“共治”机制尚 未建成。因此,全球人工智能治理处于“强共识—弱共 治”阶段。新加坡国立大学陈西文在其著作《我们:机器 人? ———人工智能监管及其法律局限》中认为,“在这个 人工智能技术快速迭代、应用场景不断拓展的时代,人 类社会正站在一个前所未有的历史节点上,面临前所未 有的挑战和机遇”[14]1。全球人工智能治理从“共识”到 “共治”,既面临根本性挑战,也面临重要性挑战。其中, 根本性挑战指“囚徒困境”恶化引发协作瓦解与零和博 弈的危机;重要性挑战指技术异步发展与治理标准不统 一引发的双重性阻碍、文化价值冲突与伦理排序差异引 发的适应性挑战、技术博弈与利益分配矛盾导致的协同 性阻碍。
(一)“囚徒困境”恶化引发的协作瓦解与零和博弈
危机 “囚徒困境”恶化引发的协作瓦解与零和博弈危机, 是全球人工智能从“共识”到“共治”的根本性挑战。人 工智能技术发展一日千里,各国纷纷部署发展和应用人 工智能技术,抢占技术优势与经济红利。此进程中,“囚 徒困境”效应逐渐显现:各国在人工智能技术监管与伦 理约束方面缺乏统一性,导致合作成本高昂,个别国家 采取单边行动,阻碍全球人工智能治理统一框架形成, 对推动人工智能技术朝着包容、可持续方向发展,推动 人类共享智能普惠红利造成威胁。“囚徒困境”本质上 是一种博弈论模型,其表现了个体在追求自身利益最大 化时可能导致集体利益受损的局面。在全球人工智能 治理领域,作为治理主体的国家和地区正在面临类似困 境,这对建成全球人工智能“共治”机制构成了根本性挑 战。受人工智能技术竞争、文化差异、制度设计等多种 因素影响,全球人工智能治理形成了短期利益与长期风 险的权衡、治理主体间相互不信任的博弈格局。
1.短期利益与长期风险的权衡
短期利益与长期风险的权衡是促成“囚徒困境”的 重要方面。一方面,部分国家和地区从鼓励技术发展、 吸引资本注入、帮助其抢占市场先机的目的出发,选择 制定较为宽松的人工智能治理政策。例如,TheTragedyofAIGovernance明确指出,“尽管有数百种指南框 架和原则旨在使人工智能具有‘道德’或‘负责任’,然而 当越来越强多的应用程序越来越快地发布时,安全和保 障团队正在缩减,这样做的目的是快速地将人工智能产 品推向市场”①。另一方面,部分国家和地区出于安全考 虑,选择制定较为严格的人工智能监管政策。例如,《人 工智能与人类未来:探索人工智能的道德边界》一书认 为,“相较于其他任何地区,在确保负责任地使用人工智 能方面,欧盟一直走在最前面”[7]141。然而,严格监管可 能会使其在技术竞争中处于劣势。由于欧盟的《人工智 能法案》选择了“基于风险”的监管方法,导致其正在面 临标准制 定 与 市 场 主 体 成 本 增 加、实 施 成 本 高 昂 等 问 题。值得强调的是,选择制定相对宽松的监管政策,可 能会招致人工智能技术滥用风险上升从而引发安全问 题。尤其是当自动化程度高的人工智能系统被部署在 军备武器研发和应用中时,其诱发的危险时常被忽视。
2.相互不信任的博弈格局
人工智能技术被视为未来国家实力的重要组成部 分,与经济 增 长、国 防 能 力 和 社 会 治 理 能 力 密 切 相 关。 当下,部分国家和地区间缺乏信任,尤其是美国担心对 本土人工智能企业采取严格监管措施,可能会使它们丧 失技术竞争优势,从而被其他国家和地区尤其是中国所 赶超。因此,各国在人工智能技术领域的财政投入逐年 增加,形成技术竞赛格局,这种竞争正在强化国家和地 区间的零和思维,使得全球人工智能治理问题被置于次 要地位。特别是美国正在加强对人工智能技术出口管 制,限制这一领域敏感技术的国际合作。美国这样的做 法不但削弱了全球人工智能技术创新能力,而且加剧了 技术分裂的风险。
3.集体行动的复杂性
全球人工 智 能 治 理 需 要 协 调 利 益 相 关 者 的 利 益。 政府、国际组织、人工智能企业之间存在目标分歧与治 理能力差异,这进一步加剧了利益协调难度。尽管联合 国、欧盟等 国 际 组 织 正 在 积 极 尝 试 构 建 全 球 人 工 智 能 “共治”机制,但是由于利益相关者诉求不相一致,这些 机制在约束力和执行力上显得薄弱。例 如,2023 年 10 月5日,联合国秘书长古特雷斯和红十字国际委员会主 席埃格发出联合呼吁,敦促政治领导人紧急制定新的自 主武器系统国际规则,更好地保护人类②。自2014年以 来,国际组织在联合国《特定常规武器公约》框架下,针 对以致命性自主武器为代表的人工智能军事化的挑战 和治理问 题 进 行 了 多 次 讨 论 谈 判,但 谈 判 多 次 陷 入 僵局,这反 映 了 国 家 和 地 区 间 在 此 问 题 上 仍 缺 乏 合 作 意愿。
(二)技术异步发展与治理标准不统一引发的双重
阻碍 技术异步发展与治理标准不统一引发的双重阻碍, 是全球人工智能从“共识”到“共治”的重要挑战之一,具 体包括技术异步发展引发的阻碍和治理标准不统一引 发的阻碍。
1.技术异步发展引发的阻碍
技术异步发展对构建全球人工智能“共治”机制造 成了阻碍。一 方 面,发 达 国 家 和 地 区 凭 借 技 术 先 发 优 势、充足的人才资源、相对完备的监管体系等,获取了人 工智能技术的优先发展权,这使得其在全球人工智能技 术前沿探索、监管治理中占据主导地位,可以迅速推动 先进人工智能技术的创新应用。另一方面,发展中国家 和欠发达地区则因人工智能技术基础薄弱、专业人才匮 乏和监管机制尚未完善,在人工智能技术创新与治理方 面遭遇诸多挑战。因此,这种技术成熟度和监管体系的 显著差距,直接影响了跨国跨地区间统一技术治理标准 的制定与实施。
2.治理标准不统一引发的阻碍
不同国家和地区因技术发展基础、发展诉求和文化 差异等多重因素影响,制定了不一致的人工智能监管治 理政策。例如,现在全球人工智能治理标准多达200多 个①。一方面,以美国为首的发达国家和地区对人工智 能治理的诉求是强化美式的自由开放,着手构建一套由 自己主导的“自由主义”治理规则,旨在维护自身人工智 能技术先发优势的同时,还要助力美国人工智能企业占 领更多其他国家和地区的市场,从而进一步掌控人工智 能技术发展在全球的主导权。另一方面,发展中国家和 欠发达地区更关注人工智能监管治理政策的可操作性 及适应性,在推动人工智能技术创新发展与满足本国本 地区发展需求二者间寻求平衡点。发达国家和地区、发 展中国家和欠发达地区对于人工智能监管治理的利益 诉求不一致,加剧了全球人工智能治理“普遍性”与“特 殊性”二者之间的张力,从而加大了全球治理“共治”框 架设计 的 复 杂 性。因 此,搭 建 全 球 人 工 智 能“共 治”框 架,构建全球人工智能“共治”机制,需要解决“如何制定 共享的伦理准则和技术标准”[15]的难题。
(三)文化价值冲突与伦理排序差异引发的适应性挑战
文化价值冲突与伦理排序差异引发的适应性挑战, 是全球人工智能治理从“共识”到“共治”的重要挑战之 二,具体包括多元文化价值冲突引发的适应性障碍以及 伦理排序差异引发的适应性挑战。
1.多元文化价值冲突引发的适应性障碍
价值观分化诱发的多元文化价值冲突引发的适应 性障碍,是全球人工智能治理面临的最严峻挑战。尤其 是各国文化价值差异以及治理规则主导权之争等复杂 因素,使得 全 球 人 工 智 能 治 理 未 能 取 得 实 质 性 进 展②。 价值观分化直接塑造了不同国家和地区对于技术发展 政策制定以及法律法规制定的优先议程。具体而言,具 有不同文化背景和宗教信仰的人群,赋予人工智能伦理 议题不同解释与权重。“对于长期将算法视为主导目标 的人来 说,让 他 们 接 受 以 人 为 中 心 的 思 想 将 是 困 难 的。”[2]156 同时,西方国家和地区的主流文化基调强调个 人主义,使得这些国家和地区在人工智能治理中更强调 数据自主权与个人隐私权保护,且将其视为不可侵犯的 伦理底线。而部分东亚国家和地区在以集体主义和建 设和谐社会为核心的文化背景下,更倾向于优先考虑集 体利益以及技术创新对整体社会福祉的促进作用。
多元文化价值冲突不但对全球人工智能治理造成 挑战,而且可能加剧国家和地区间的不信任与对抗。德 国著名社会学家贝克在其著作《风险社会:新的现代之 路》中认为,“在应对风险的过程中,各种新的社会分化 和社会冲突形成了”[1]43。人工智能应用风险具有跨境 性,在治理过程中,部分发达国家和地区可能以自身文 化为基准,试图通过文化输出来强化其在全球治理中的 主导地位。长期以来,“美国以渗透着美国自由民主等 价值观念的电视节目、电影、通俗音乐等全球流行,推动 了其全球文化霸权的实现”[16]。现在,美国又企图主导 人工智能全球发展和治理的主导权,这在某种程度上已 经成为美国试图二次建立全球霸权的延伸,分裂了全球 人工智能治 理 的“共 识”,阻 碍 构 建 全 球 人 工 智 能 治 理 “共治”机制。因此,构建全球人工智能“共治”机制,需 要采取更加多元、更加包容的方式。
2.伦理排序差异引发的适应性挑战
伦理排序 差 异 引 发 的 适 应 性 挑 战 包 含 三 个 方 面。 首先,当涉及伦理议题的优先级排序问题时,不同文化 间形成的共识较弱,导致无法进行统一行动,这是影响 全球人工智能治理实现从“共识”到“共治”这关键一步 跨越的重要因素。例如,在如何平衡隐私保护与数据共 享的关系问题上,目前尚未形成具有全球适用性的统一 标准。其次,不同文化和社会制度差异,也是影响制定 人工智能监管治理政策的重要因素。例如,对于注重市 场自由的国家和地区而言,其可能更倾向于制定灵活的 监管治理政策,以给予本国本地区人工智能企业更多发展自主权。而对于国家政策强干预市场的国家和地区 而言,则 更 倾 向 于 制 定 较 为 严 格 的 监 管 治 理 政 策。最 后,不同国家和地区采用人工智能治理工具也存在显著 差异。例如,技术领先国家和地区更倾向于采用较为复 杂的治理工具。总之,受多元文化价值影响形成的人工 智能治理伦理优先级排序、监管治理的政策制定与治理 工具使用的显著差异,对全球人工智能治理从“共识”到 “共治”造成挑战。
(四)技术博弈与利益分配矛盾导致的协同性阻碍
技术博弈与利益分配矛盾导致的协同性阻碍,是全 球人工智能治理从“共识”到“共治”的重要挑战之三,具 体包括技术主导权争夺导致的治理分歧、收益与成本分 配的明显不对称以及技术与地缘政治博弈的复杂化。
1.技术主导权争夺导致的治理分歧
全球治理话语权既体现为参与治理的权利,也体现 为贯穿治理过程的权利[17]。复旦大学美国研究中心教 授蔡翠红认为,“当前的世界秩序在一定程度上是以技 术为中心的,而且世界秩序以科学技术为核心而重新组 合的趋势也日益凸显”[18]。基于此现实,各国近两年来 均积极部署发展人工智能技术。一方面,技术领先国家 和地区正在试图通过制定符合自身利益的技术标准、加 强人工智能技术知识产权保护以及设定有利于它们的 市场准入规则,进一步巩固其在人工智能领域的主导地 位。美国和欧盟积极制定技术标准,企图通过推动这些 标准外溢,试图将其国内或地区内的利益嵌入全球人工 智能治理框架中,进一步谋求强化在全球的主导权。例 如,2025年于法国巴黎举办的人工智能行动峰会上,美 国明确表明其对于人工智能的监管态度就是削减监管, 强调美国领导和美国优先①。另一方面,技术追赶型国 家和地区正在尝试突破由技术领先国家和地区制造的 技术壁垒,努力创新技术以提升自身竞争力。诸如以上 的技术博弈导致全球人工智能治理模式、话语权与规则 优先权掌握的冲突,直接消减了搭建全球人工智能“共 治”框架的可操作性。
2.成本与收益分配的明显不对称
戚聿东认为,“人工智能技术作为当今世界最前沿 的技术,其最具代替性和颠覆性,在现代工程技术群中 发挥着主导作用”[19]。一方面,人工智能技术创新及应 用具有明显经济外溢效应。例如,发达国家和地区通过 人工智能技术创新及转移,建立全球产业价值链,意图 控制经济收益的主导权;而发展中国家和欠发达地区则 在技术转移中处于被动地位,难以充分参与全球产业价 值链。“与其他技术领先国家对比,中国当前仍存在一 些不足,包括技术原创性不够、创新支撑链建设不足、产 业链供应链创新链失衡等。”[20]另一方面,技术垄断加剧 了全球技术鸿沟。例如,人工智能巨头企业通过技术垄 断集中市场,削弱新兴国家人工智能企业竞争力,可能 会进一步导致全球产业链利益分配失衡。这种失衡以 收益和技术垄断的形式反映在全球人工智能治理实践 中,可能会诱发全球人工智能治理生态碎片化的风险。
3.技术与地缘政治博弈的复杂化
作为经济社会发展重要驱动力量的人工智能技术, 具有重要战略地位[21]。围绕人工智能技术展开的芯片 出口管制、数据主权争端等,已经成为大国博弈的重要 场域。因此,人工智能技术成为地缘政治博弈的关键性 工具。以美国对中国高端芯片的出口管制为例,2024年 11月21日,据中国美国商会向会员企业发出的电子邮 件信息披露,美国商务部工业与安全局(BIS)将于“感恩 节假期前”公布扩大对华半导体企业的出口限制,限制 大多数美国供应商向目标公司发货,这会影响中国200 家芯片公司,涉及范围包括高带宽内存(HBM)芯片以及 人工智能、半导体等相关产品②。即使美国加强出口管 制,企图进 一 步 遏 制 中 国 人 工 智 能 技 术 发 展 的 迅 猛 势 头,但是中国作为人工智能技术大国,其影响力已经辐 射全球。美国对华以芯片出口管制为核心展开的一系 列技术封锁,对芯片全球供应链稳定与全球人工智能治 理的国际合作均造成负面影响。因此,这种基于地缘政 治逻辑的技术对抗,可能会进一步加剧国家间不信任, 从而阻碍构建全球人工智能“共治”机制。
三、全球人工智能治理从“共识”到“共治”的 关键跨越
全球人工智能治理从“共识”到“共治”的关键跨越, 使得这一 阶 段 的 全 球 人 工 智 能 治 理 处 于 “弱 共 治—共 治”的跃升阶段。而如何实现从“共识”到“共治”这关键 一步的跨越,是全球人工智能治理的决定性路径。其需 要解决这一阶段的根本性挑战———“囚徒困境”,而“合 作博弈”能 为 此 提 供 答 案。全 球 人 工 智 能 治 理 领 域 的 “合作博弈”指参与博弈的利益相关者基于共同利益,通 过协作而非对抗,突破以“囚徒困境”为标志的零和博弈 局限,构建全球人工智能“共治”机制,推动人工智能技 术朝着包容和可持续方向发展,为进一步建成共享智能 红利的 社 会 提 供 制 度 保 障。“合 作 博 弈”强 调 信 任、沟 通、资源共享、互惠共赢。但是,参与博弈的利益相关者 可能基于某种或多种复杂原因未必做出合作行为。因此,需要强 有 力 的 全 球 性 国 际 协 调 机 制 及 统 一 治 理 工 具,对非合作者实施有力监管甚至惩罚,从而打破“囚徒 困境”,进而助推全球人工智能治理从“共识”到“共治” 的实现。
(一)构建多层次国际合作框架,形成全球性协调机制
1.由联合国主导构建全球人工智能治理的协调机制
Azeem Azhar在其著作《指数型技术重塑世界》中认 为,“我们不再只是生活在一个技术呈指数型增长的时 代,而是生活在一个这些技术及其影响将成为社会决定 力量的时代”[22]30。2025年1月30日,Nature发布的题 为China’sCheap,OpenAI ModelDeepSeekThrills Scientists的文章称:“中国深度求索公司的 DeepSeek-R1 模型便宜、开放,这让科学家们兴奋不已”[23]。2025年2 月20日,美国人工智能公司 xAI宣布开放旗下的人工 智能模型 Grok3供用户免费使用,直至服务器崩溃①。 一方面,这表明这些对生产力能够产生颠覆性的人工智 能技术正在决定人类未来走向;另一方面,技术开源可 能会加剧隐私泄露、数据不安全、算法公平性不足、模型 滥用等诸多风险,这意味着人类正生活在人工智能技术 应用风险呈指数型增长的时代。然而,面对呈指数型增 长的风险时,一国或地区无法独自操作快速有效的风险 善治。当下,责任共担与共同治理协调机制缺失是阻碍 全球人工智能治理从“共识”向“共治”关键跨越的重要 影响因素。因此,亟须在联合国主导下构建多层次国际 合作框架。
构建多层次国际合作框架,可以为塑造多边参与的 全球人工智能治理模式奠定基础。多边参与的治理模 式,旨在确保发展中国家和欠发达地区的平等参与权、 规避全球人工智能治理规则被少数技术强国主导,致力 于推动 构 建 真 正 的 全 球 人 工 智 能“共 治”机 制。例 如, 2025年2月18日,中国外交部长王毅在联合国安全理 事会“践行多边主义,改革完善全球治理”高级别会议上 发表讲话指出,“以联合国为核心的国际体系是人类进 步事业的重要保障,以协调合作为基石的多边主义理念 是解决全球问题的最佳方案”②。联合国是开展全球治 理的关键机构,是具有全球性质的多边主义平台,其兼 具强大组织性与中立性。截至目前,联合国主导下的全 球治理框架已覆盖人权保护、环境保护、可持续发展等 关切人类福祉的重要领域,这可以为全球人工智能治理 跨领域合作提供天然契合点。例如,可以在联合国主导 下设立全球人工智能治理理事会,其功能在于为各国政 府、人工智 能 企 业、学 界 以 及 公 众 搭 建 对 话 协 商 平 台。 具体需要该理事会定期举办全球人工智能治理相关会 议,组织利益相关者就人工智能新生风险提出治理建议 或制定政策。
2.构建区域性补充机制
在全球人工智能“共治”机制尚未建立的背景下,区 域性补充机制可以根据区域特性制定适合本区域的人 工智能治理方案。作为一种灵活且具有实践导向的治 理方式,区域性补充机制能够更好地平衡人工智能技术 创新与规则遵循二者间的平衡,及时有效地填补全球人 工智能治理“真空”。构建区域性补充机制需要做好两 方面工作。其一,在区域内试验更严格的人工智能治理 标准。尤其在涉及用户隐私保护和数据治理方面,此做 法具有重要意义。例如,欧盟《通用数据保护条例》严格 的数据隐私保护,不仅要求本土人工智能企业要符合数 据保护条例的相关要求,而且促使进入欧洲市场的人工 智能企业不得不适应这一标准。《通用数据保护条例》 已成为全球数据治理的标杆,这一经验表明,区域性治 理标准可 以 通 过 外 溢 效 应 提 升 其 他 区 域 的 治 理 水 平。 其二,构建全球性的人工智能技术共享机制。这是缩小 区域间技术鸿沟的关键一环,尤其在南北方国家和地区 间差距显著的背景下,其重要性更加突出。例如,非洲 数字能力建设滞后[24],中国通过共建“一带一路”机制向 这些国家和地区分享人工智能技术、分享数字基础设施 的建设经验,不仅提升了合作伙伴国的技术发展能力, 而且促进了国际社会对技术共享模式以及人工智能技 术转移与能力建设在缩小国家和地区间技术鸿沟中潜 力的认可。
(二)构建全球可信的人工智能认证体系,形成统一 治理工具
1.推动建立“全球人工智能认证联盟”
推动建立“全球人工智能认证联盟”,为人工智能技 术和产品设定统一伦理与技术合规标准。人工智能技 术跨国应用及诱发的风险,要求制定全球统一的伦理与 技术合规 标 准,这 对 于 推 动 实 现 全 球 人 工 智 能 治 理 从 “共识”到“共治”必不可缺。然而,当前人工智能治理环 境因各国政策和监管标准不一致导致复杂性与合规成 本上升。因此,可以尝试构建全球人工智能认证联盟, 推动人工智能伦理与技术标准全球统一,帮助提升人工 智能技术和产品在全球市场中的信任度与接受度,从而 为人工智能技术流通、合作治理提供强有力支撑。这要 求该联盟构建多维度的认证标准。一方面,该联盟应强 制要求人工智能企业提供的技术与产品符合伦理标准, 如要求其必须满足不侵犯用户隐私、决策系统可解释、算法公平不歧视等基本伦理原则。2021年9月25日, 中国国家新一代人工智能治理专业委员会发布了《新一 代人工智能伦理规范》,提出增进人类福祉、促进公平公 正、保护隐私安全、确保可控可信、强化责任担当、提升 伦理素养6项基本伦理要求①。另一方面,人工智能技 术标准作为重要的“软性”治理工具,有助于在技术开发 早期嵌入伦理和价值要求。因此,该联盟应要求人工智 能企业在技术开发与部署早期阶段就确定技术标准,这 些技术标准应包括数据安全性、算法鲁棒性和误差容忍 度等多个层面。此外,该联盟要构建明确的责任机制, 确保当人工智能技术和产品发生故障甚至对用户造成 伤害时,可以基于区块链技术构建的追溯机制,快速明 确地追溯至责任主体使之对用户负责,这有助于增强公 众对人工智能技术和产品的信任度和接受度。值得注 意的是,能否建成全球人工智能认证联盟,取决于全球 人工智能企业能否广泛参与。这就要求该联盟通过与 如联合国教育、科学及文化组织,欧盟,电气电子工程师 学会(IEEE)这样的机构合作,推动人工智能企业采纳已 被认证的框架,并鼓励这些企业自愿加入。
2.建立全球人工智能技术标准认证机制
建立全球人工智能技术标准认证机制,有助于为人 工智能的全球商业贸易与跨国技术互认提供保障。世 界领先的国际标准制定者,诸如国际电工委员会(IEC)、 国际标准化组织(ISO)和国际电信联盟(ITU),均为各 国政府、工业界、学术界和民间社会之间的数字合作提 供了值得信赖的平台②。借鉴该模式,建立全球人工智 能技术标准、统一国际认证,为全球商业贸易与跨国技 术互认提供统一标准,有助于减少技术壁垒,增强市场 互信。因此,建立全球人工智能技术标准认证机制需覆 盖安全、技术、伦理三大关键维度。安全维度方面,建立 这样的机制需要制定人工智能技术应用于医疗、交通等 高风险领域时,务必要设置前端测试与应用中进行监管 的流程,防止人工智能技术失控。技术维度方面,建立 这样的机制要求对训练大语言模型的数据质量、算法的 鲁棒性以及模型的可解释性等设置适当技术指标,以增 强人工智能技术的安全性与可靠性。伦理维度方面,建 立这样的机制需要制定用于保护用户隐私、提升大语言 模型系统透明性、加强算法公平性的国际通用准则。
四、构建全球人工智能“共治”机制
实现从“弱共治”到“共治”这关键一步的跨越,是全 球人工智能治理从“共识”到“共治”的决定性路径。完 成跨越后,全球人工智能治理进入“共治”阶段。未来, 应在上一阶段以“合作博弈”突破以“囚徒困境”为标志 的“零和博弈”基础上,从“共识”到“共治”的重要挑战出 发,构建全球人工智能“共治”机制。
(一)整合技术与价值的平衡机制:构建全球人工智能
“共治”机制的科学决策框架 人工智能技术的非中立性,使得其在推动社会进步 的同时,也引发了一系列科技伦理问题,如隐私泄露、算 法歧视、社会控制等。对于这些问题的治理,传统治理 模式导向“技术优先”,鼓励技术创新为优先项,这容易 导致“价值真空”,易诱发因过度重视技术创新而忽视科 技伦理问 题 的 解 决,可 能 会 削 弱 人 工 智 能 治 理 的 有 效 性。因此,构建全球人工智能“共治”机制,需要整合技 术与价值,将伦理预设深度嵌入人工智能技术开发过程 中,共塑伦理价值与技术标准的动态平衡机制。
1.设计嵌入式伦理
人工智能的某些风险可以提前规避,并不必然会发 生[25]。嵌入式伦理设计旨在平衡技术和价值的动态关 系,将伦理价值深度嵌入人工智能技术创新、部署和应 用全过程,期望降低人工智能技术不确定性,以增强人 工智能技术创新的情景适配性与伦理合法性,从而推动 构建技术与价值的动态平衡机制,进而为发展负责任的 人工智能提供理论支持与实践路径。设计嵌入式伦理 包括技术架构层面的伦理映射和伦理评估工具的应用。 例如,从2016年开始麻省理工学院的 MoralMachine在 线实验平台利用道德机器框架已经收集了来自200多个 国家和地区的伦理偏好数据,用来优化自动驾驶算法的 决策逻辑③。
2.共塑伦理价值与技术标准的动态平衡机制
人工智能技术的竞速发展推动人类进入人机融合 时代。与此同时,人工智能技术应用诱发的风险呈指数 级增长,导致人机矛盾更加凸显。一方面,发展负责任 的人工智能、构建与人和谐共生的人工智能已经成为这 一时代的重要任务。文化的差异性以及伦理价值的情 境性,均要求人工智能技术标准能够动态调整,以满足 来自不同文化背景人群的多样伦理需求,推动人工智能 朝着技术可及和智能普惠方向发展。例如,在自动驾驶 领域,“生命至上”与“效率优先”价值冲突,要求算法能 够在特定情境下在二者之间进行优先级调整。另一方 面,共塑伦理价值与技术标准的动态平衡机制,还要求 不断完善伦理价值体系,为制定技术标准提供动态数据支持。共塑伦理价值与技术标准的动态机制,应从三方 面着手。首先,借助情境感知技术,分析人工智能在应 用场景中的动态伦理需求,从而为其设定情境感知与价 值优先级。例如,当自动驾驶汽车的传感器检测到高风 险时,“生命至上”权重应该被提高;而当传感器检测到 低风险时,“效率优先”应该占据更高优先级。其次,通 过多目标优化算法将伦理价值作为关键参数嵌入人工 智能自主决策框架中。例如,可以对辅助医疗诊断的机 器人嵌入多目标优化算法,持续性地在优化诊断效率与 保护患者隐私之间实时权衡。最后,需要引入伦理权重 调整的反馈数据。这要求人工智能系统根据实时数据 更新伦理参数权重,及时调整算法优先级,确保算法决 策满足情景适配性与伦理合法性。例如,与传统应急救 援形式比 较,无 人 机 救 援 体 积 小、飞 行 能 力 强、定 位 准 确,这使得其成为现代应急救援的重要工具。因此,可 以将优先考虑生命救援设置为灾难救援无人机的场景 化需求。
(二)打造利益相关者协同治理生态:构建全球人工 智能“共治”机制的关键路径
《2024中国“百模大战”竞争格局分析报告》指出,截 至2024年3月,中国公布的大模型数量已超过300个, 大模型行业呈现出“百模大战”的竞争格局①。“人工智 能发展已经进入大模型时代。”[26]人工智能技术应用范 围更广,人机融合进一步加深,人工智能技术应用风险 的新生性、复杂性与跨境性更加突出。基于此,单一主 体或单一维度的治理模式已无法满足人工智能风险治 理的紧迫需求。例如,尤瓦尔·赫拉利在《智人之上:从 石器时代到 AI时代的信息网络简史》中指出,“随着时 间推移,特别是谈到人工智能危险时,大家的语调变得 越来越急迫”[27]341,这足以证明构建以多元主体共治为 核心的全球人工智能“共治”机制已刻不容缓,需要通过 明晰各国政府、人工智能企业、社会组织以及学者的角 色定位与责任,打造利益相关者协同治理生态,推动人 工智能朝着包容、可持续方向发展。
1.共商:构建利益相关者对话机制 共商共治旨在解决人工智能治理话语权的不平等 问题[28]。一方面,现有人工智能治理格局中,发达国家 和地区占据了主导地位,而发展中国家和欠发达地区由 于人工智能技术起步晚、基础薄弱,加之遭受技术霸权 等,在全球人工智能进程中处于更加不利位置,这容易 进一步诱发“技术鸿沟”扩大化风险。另一方面,当下的 全球人工智能治理对话机制存在多点分散、缺乏系统协 调等突出问题,难以有效整合不同利益相关者意见,导 致治理效能相对不足。因此,应将各国政府、人工智能 企业、社会组织、学界及公众意见纳入治理讨论范围,构 建利益相关者对话机制,打造共商“生态”。
打造共商“生态”具体包括四方面内容。其一,构建 多层次、平台化的对话机制。这要求各国政府、人工智 能企业、社会组织、学界及公众通过“线上 + 线下”的混 合方式,广泛参与到全球人工智能治理对话中来。相关 国际组织或政府可通过举办区域性的人工智能治理论 坛或全球性峰会,为加强利益相关者对话搭建平台,推 动形成更广泛的全球人工智能治理“共识”。例如,2025 年2月10日至11日,在法国巴黎举办的人工智能行动 峰会,吸引了来自全球100多个国家的领导人和科技巨 头代表参加②。此外,在此次峰会上,包括中国、法国、德 国和印度在内的61个国家共同签署了《关于发展包容、 可持续的人工智能造福人类与地球的声明》。其二,构 建更加包容的决策框架。早在在生成式人工智能技术 被发明以前,“AI教母”李飞飞已经发出了警告:“人工智 能正在成为一种特权,一种排他性极强的特权。”[29]372 全 球人工智能治理对话,不应是某些人工智能强国或人工 智能巨头企业的“独角戏”,应是不同利益相关者的“大 合唱”,这要求构建更加包容的决策框架。为此,可以设 立利益相关者委员会,增强对话主体多元性。尤其对于 发展中国家和欠发达地区而言,需要邀请其政府和公众 代表参与对话。其三,增强决策透明性、构建问责机制。 决策透明与问责对于增强不同利益相关者之间的信任 十分关键。因此,构建利益相关者对话的“共商”机制, 应引入透 明 决 策 过 程、开 放 的 政 策 讨 论 和 责 任 追 溯 机 制。其四,推动跨领域合作。在全球化时代,独木 不 成 林,任何一个国家都无法独自研发人工智能全部技术③。 跨领域合作的优势在于能够推动政策制定者、人工智能 专家、法律、科技伦理、心理学、社会学等专家学者在多 领域和多学科间知识共享和经验交流,促进形成多领域 协同、多学科交叉融合效应。
2.共建:多维度协作网络
构建全球人工智能“共治”机制,不仅需要构建利益 相关者“共商”对话机制,而且需要构建多维度协作网络 “共建”机制。一方面,多维度协作网络强调治理主体间 开放式协商、快速式反馈与动态式调整。例如,2019年 12月,经济合作与发展组织(OECD)发布的《确定 OECD 的人工智能发展原则》,要求为人工智能提供一个敏捷、可控的政策环境①。另一方面,与传统科层式治理模式 对比,多维度协作网络治理兼具创新性与灵活性,可以 有效应对快速变化的人工智能技术环境。因此,构建多 维度协作网络的“共建”机制,应满足横向与纵向相结合 复合结构的要求。在横向层面上,这样的机制可以确保 不同领域利益相关者通过跨行业联盟、跨区域合作机制 形成协同效应;在纵向层面上,这样的机制可以确保不 同层级的治理主体通过信息共享、政策协同实现上下联 动。例如,欧盟出台“数字单一市场”战略,旨在打造一 个完全联网的欧洲。作为其标志性成果,自2017年6月 15日起,欧盟28个成员国全面取消手机漫游费用[30]。
构建多维度协作网络共建机制,需要做好两方面工 作。其一,推动技术标准化。技术标准化是全球人工智 能治理协作网络高效运作的基础。推动技术标准化,需 要构建全球性技术标准数据库,帮助减少不同国家因信 息不对称造成的技术壁垒。以IEEE 为例,此协会通过 制定国际 通 用 的 技 术 标 准,促 进 各 国 在 技 术 标 准 上 统 一。其二,搭建开放性技术与知识共享平台,推动人工 智能技术可及性发展。知识共享行为在重大工程项目 中的重要性已获得广泛认识[31]。因此,不同利益相关者 可以在人工智能技术标准统一的前提下进行技术与知 识共享,这有助于推动人工智能技术朝着可及性方向发 展,推动人类进入共享智能普惠红利时代。
(三)构建动态调整的治理机制:重塑与人和谐共生
人工智能的关键桥梁 贝克的“风险社会”理论认为,现代性发展到今天已 经发生断裂,现在已经形成一种新的社会形式———风险 社会。2025年初,中国深度求索公司 DeepSeek-R1大语 言模型开创了“低成本算力+技术完全开源”的先河,这 意味着未来人工智能技术创新成本更低、周期更短,人 工智能正在从生成式向通用人工智能大步迈进。而人 工智能诱发的应用风险的新生性、复杂性、跨境性可能 会呈现周期更短、复杂程度更高、范围更广的特性。但 是,传统的人工智能治理机制侧重“事后响应”,难以有 效应对这些风险。基于此,需要治理机制从“事后响应” 转向“事前预防”,重点关注治理规则的前瞻性设计及构 建动态调整治理机制。
1.构建实时监测机制
实时监测机制不仅可以为构建动态的人工智能治 理机制提供数据支持,而且能提升其风险感知能力。通 过全方位监测人工智能技术应用造成的显性负面影响, 实时监测机制能够有效地捕捉隐藏在这些显性负面影 响背后的潜在风险,从而为制定科学、规范的全球人工 智能治理政策提供依据。因此,需要构建技术、社会、国 际三个层面的监测机制。
构建技术层面的监测机制,要求做好三方面工作。 其一,构建技术研发阶段的监测机制。技术研发阶段是 潜在风险的萌芽期,这一阶段不仅要求训练大语言模型 的数据采集来源多样且渠道合法,而且要求算法设计不 携带偏见,符合科技伦理规范。这需要借助大数据分析 和机器学习模型,实时跟踪在技术研发进程中可能出现 的异常状况,如数据采集偏差、算法歧视等。其二,构建 技术应用阶段的监测机制。应用阶段是人工智能风险 爆发阶段,这一阶段构建风险监测机制对于人工智能风 险治理尤为关键,特别是对高风险场景(自动驾驶、辅助 医疗诊断、金融分析等领域)的应用监测。其三,构建技 术“后应用”阶段的监测机制。人工智能使现代技术在 “可控”与“失控”两极之间进一步向“失控”偏移[32]。人 工智能技术的“后应用”阶段是验证这种技术“可控”或 “失控”的阶段,对这一阶段的风险监测需关注技术应用 引发的社会影响,包括技术焦虑、产业结构调整、就业模 式改变等。
构建社会层面的监测机制,需要做好两方面工作。 其一,构建对公众认知的监测机制。公众是人工智能技 术和产品的消费主体,同时也是受人工智能应用风险影 响最直接的利益主体。公众对人工智能技术和产品应 用风险的感知、评价与接受度,最终决定人工智能技术 的发展进程。当下,推动发展包容、可持续的人工智能, 亟须构建对公众认知的检测机制。例如,使用自然语言 处理(NLP)技术,有效分析社交媒体上的公众对人工智 能技术的情感倾向,追踪其讨论热点,从而分析他们的 态度变化。其二,构建“技术焦虑”的动态感知机制。一 方面,人 工 智 能 技 术 发 展 导 致 部 分 人 群 产 生 “技 术 焦 虑”;另一方面,这样的“技术焦虑”反过来阻碍人工智能 技术创新。因此,监测“技术焦虑”是社会监测的关键维 度。例如,可以采用心理学与数据科学相结合的方法, 基于公众言论构建“技术焦虑”指数,帮助政府制定有效 应对政策。与此同时,还需要依据“技术焦虑”指数,及 时帮助政府搭建与公众沟通的平台。此外,政府需要为 公众提供相关职业培训,帮助容易被或已经被人工智能 技术取代工作岗位的群体重新进行职业规划或顺利转 型,缓解这部分群体焦虑情绪,提升公众对人工智能技 术的接受度。
构建国际层面的监测机制,需要从两方面发力。其 一,构建监测全球性人工智能应用风险的机制。人工智 能技术应用风险的跨界性,要求必须建立全球性的风险 监测机制,以应对风险外溢。这要求国际组织,诸如联合国教育、科学、文化组织和 OECD 等机构进行人工智 能全球风险的监测。值得注意的是,建立这样的机制需 要进行前期的区域性试点。例如,欧盟的《人工智能法 案》为全球性人工智能应用风险监测机制的构建提供了 经验。《人工智能法案》标志着创建监管框架的重要一 步,其成功实施可能会影响未来欧盟内部乃至全球对于 人工智能监管付出的努力①。其二,构建人工智能技术 不均衡发展的跟踪机制。人工智能技术在发达国家和 地区、发展中国家和欠发达地区在技术创新、部署速度、 应用规模方面存在显著差异。基于此,需要构建相应监 测机制,以监测技术转移和技术鸿沟问题,为致力于解 决技术发展不均衡带来的地区性不平等问题提供依据。
2.构建快速反馈机制
在全球人工智能治理实践中,快速反馈机制在监测 与政策制定之间架起了桥梁。此机制通过对监测到的 异常情况进行及时响应,动态化地调整人工智能治理政 策。构建快速反馈机制,不仅能够有效提升治理主体的 应变能力,还能有效预防潜在风险的扩散与升级,引导 人工智能技术发展与社会需求同步协调,增强全球人工 智能治理机制的适应性与敏捷性。
一是构建数据监 测 与 预 警 机 制。中 国 工 程 院 外 籍 院士张亚 勤 认 为,数 据 是 新 一 代 人 工 智 能 深 度 学 习 的 “石油”,这就使得确保数据安全是推动人工智能技术发 展的前提。因此,构建数据监测与预警机制,确保数据 安全,是构建全球人工智能“共治”机制的基础模块,其 直接影响人工智能技术的透明性、可靠性和安全性。构 建数据监测与预警机制通过两个步骤实现。其一,实时 采集与共享数据。这需要通过分布式传感器网络以及 区块链技术等手段,在全球范围内实现数据实时采集与 共享。其二,搭建数据异常检测模型。需要利用机器学 习技术,如深度学习和自适应神经 网络等,自动识别数 据存在的潜在风险,如采集数据多样性不足或不具代表 性,甚至是泄露敏感数据、侵犯个人隐私等风险。
二是构建多层次 反 馈 机 制。多 层 次 反 馈 机 制 对 于 推动构建全球人工智能“共治”机制具有重要意义,其不 仅能够提升治理的及时性、灵活性与协同性,而且可以 通过纵向横向反馈流动,在不同利益相关者之间推动信 息共享,为 人 工 智 能 技 术 普 惠、可 持 续 发 展 提 供 前 提。 构建多层次反馈机制可从两个方面实现。其一,构建纵 向反馈机制。这需要构建从基层技术执行者到高层政 策制定者的信息流动机制。例如,设立专门的人工智能 技术风险管理委员会,汇集从地方到国家再到国际的人 工智能治理信息。其二,构建横向反馈机制。这需要在 政府、国际组织、人工智能企业、学界与公众等不同利益 相关者之间建立信息互动机制。例如,可以设立专门的 科技伦理委员会或人工智能技术公众意见咨询委员会, 多渠道地收集来自多元化视角的人工智能治理信息。
3.构建灵活修订机制
尤瓦尔·赫拉利指出:“随着人工智能技术越来越 强大,自我修正机制也会越来越必要。”[27]347 在2025年 的人工智能行动峰会上,联合国秘书长古特雷斯呼吁共 建包容、公正的人工智能未来②。推动人工智能包容、可 持续发展应逐渐成为人类共识。因此,人类审视人工智 能的态度、应用人工智能的目的应不断修正,努力避免 人工智能技术“失控”,确保人工智能技术“可控”。
一是构建模块化规则设计机制。人工智能技术迅 猛发展,人机融合已成为现代社会不可逆转的趋势。与 此同时,人机交互中的社会需求更加多元,传统的人工 智能静态性、整体性治理模式逐渐暴露出适应性不足等 问题。为了有效应对这些挑战,需要构建模块化规则设 计机制。模块化规则设计机制通过将治理规则划分为 若干独立、功能明确的模块,使得规则的局部调整不影 响整体结 构,有 利 于 提 升 治 理 规 则 的 适 应 性、灵 活 性。 构建模块化规则设计,具体需要做好规则体系模块化拆 解、构建模块管理与协调机制、推动模块化规则的技术 支撑、开展试点与逐步推广四方面工作。
二是构建定期评估与修订机制。在全球人工智能 治理背景下,各国治理政策与标准设定的动态调整需要 统一的协调机制。因此,构建定期评估与修订机制,有 助于推动各国共同调整治理框架,推动跨国协同治理。 构建定期 评 估 与 修 订 机 制,需 要 做 好 两 方 面 工 作。其 一,推进 公 众 参 与 治 理。各 国 政 府 要 广 泛 征 求 公 众 意 见,收集关于人工智能治理的相关问题。例如,2024年9 月14日,中国国家互联网信息办公室起草了关于《人工 智能生成合成内容标识办法(征求意见稿)》,向社会公 开征求意 见③。其 二,构 建 快 速 响 应 与 动 态 调 整 机 制。 首先要构建应急评估机制,即在人工智能应用诱发突发 事件时,能够快速启动应急评估机制,迅速进行政策审 查与调整,以避免风险扩大;其次要构建动态调整机制, 这需要设定“调整触发点”。例如,当算法出现大规模偏 见、技术应用诱发重大科技伦理争议时,此机制能够快 速反应并进行快速调整。