核动力工程杂志近十年出版发文量:
作者:刘东;田文喜;刘晓晶;郝琛;彭航;于洋;肖聪
作者单位:中国核动力研究设计院;中国核工业集团有限公司科技委员会;西安交通大学;哈尔滨工程大学;上海交通大学
关键词:核工业;人工智能;科学计算;数据驱动;智能计算方法
摘要:科学计算在核工业整个技术体系中发挥着至关重要的作用,从核基础数据库的建立,到核能工程 的设计、分析、验证、运行,乃至燃料后处理与反应堆退役,科学计算扮演着关键角色。传统上,工业领域 的科学计算范式主要是基于实验测量数据建模的统计学方法,以及求解微/积分方程为代表的数值计算方法。 随着新一代人工智能技术的发展,利用人工智能方法进行科学计算,正在逐渐发展成为一种新的科学计算范 式。本文介绍了这一新兴技术领域的基本原理与主要特征,重点围绕核工业的特点,总结了当前已有研究工 作的情况,并对照传统方法,分析了人工智能科学计算方法的优缺点。最后,展望了这种智能计算方法未来 在核工业领域的技术发展趋势与潜在应用模式,给出了推动核工业人工智能科学计算新范式发展的建议。
0 引 言
科学计算是利用数学模型和先进的计算能力 来分析和解决复杂问题的研究工具 [1]。科学计算 在核工业整个技术体系中发挥至关重要的作用, 从核基础数据获取及核数据库的建立,到核能工 程的设计、分析、验证,以及运行过程的燃料管 理、安全评价,直至燃料的后处理与反应堆退役, 科学计算无不扮演着关键角色。核工业领域的科 学计算涉及反应堆物理屏蔽、热工水力、结构力 学、计算数学、统计学、计算机等多学科的交叉 融合,其技术特征是将现实问题抽象成为形式化 的数学模型,通过具有合适精度与效率的计算算 法,实现对已知客观世界现象的解释,以及对未 知物质系统行为的预测。当前,在核工业界开展 的核能工程设计与科研中,关键重要的科学计算 工作通常是在大规模高性能计算设施支持下,依 托科学计算软件,以及一定的实验数据来实现。
传统上,科学计算主要存在两种范式 [2],一 是基于数据驱动的统计学方法,二是以求解微/ 积分方程为代表的数值计算方法。基于数据驱动 的方法进行实验测量数据建模与科学计算,不需 要给出客观世界微观物理学基本原理,通过宏观 参数的统计学分析,建立数学模型,便可获得客 观世界的统计学规律,并能做出相似未知现象及 系统行为的预测。与之形成对比的是,基于微/ 积分方程的科学计算方法,首先需要根据描述客 观世界第一性原理的基本规律,得到形式化、完 备的数学物理方程,然后通过数值计算方法逼近 方程的解,从而实现对已知系统行为的合理解释 以及对未知问题特性的预测。同理,核工业领域 的设计、研发与运行支持等环节涉及的科学计算 也遵守上述基本范式。通常情况下,在核数据的 测量与模型建立、燃料组件辐照性能评价、临界 热流密度(CHF)关系式建立、材料的疲劳腐蚀 磨损性能分析等众多领域,广泛采用了基于数据 驱动的统计学计算方法;而在反应堆堆芯设计与 燃料管理、热工与安全分析、屏蔽与源项计算、 系统瞬态过程模拟、设备及厂房结构强度分析等 领域,则主要采用基于微/积分方程的数值计算 方法,这两种计算范式在核工业领域均得到了广 泛应用 [3]。
近年来,以深度学习为代表的新一代人工智 能技术,在图形图像识别、智能机器人、对抗竞 技、文字翻译,生成式大语言模型等关键领域取 得巨大成功的同时,也迅速地融入到科学研究领 域。AI for Science 的技术潮流正深刻地影响到广 大的学术与工业界的学者、研究人员的研究工作, 对科学计算方法的发展也带来了历史性的重大发 展机遇 [2]。基于新一代人工智能技术的科学计算 方法逐渐崭露头角,并正在迅猛地发展,有望成 为一种全新的科学计算新范式。
当前,以美国为代表的人工智能科学计算前 沿技术研究等发达国家和学术界已经开展了大量 研究工作 [4-5],在基础的微/积分方程求解、数据 融合与模型同化等基础数学领域,以及流体/固 体力学、反应堆物理、空气动力学等科学计算应 用领域,均取得了一系列突破性研究成果。同时, 政府及工业界也积极推动这一领域的技术进步。 有代表性的是 2023 年美国能源部发布《面向科 学、能源与安全的人工智能前沿研究方向》报 告 [6],认为人工智能将为基础科学、能源与国家 安全领域的科学研究带来颠覆性影响。报告提出 了重点关注的六大智能技术领域,首先强调的就 是服务于科学计算的人工智能,认为基于数据驱 动与物理模型的融合,以深度机器学习为基础, 能够针对物理、化学或生物过程进行数值模拟科 学计算,未来可广泛应用于各种高性能计算模拟、 工业装备数字孪生系统等众多领域。为此,报告建议制定专门计划,大力发展人工智能科学计算 技术,加大基于人工智能的专用科学计算算力基 础设施建设,推动这种新的计算模式快速发展, 加强美国在上述领域的领先地位。
与此同时,我国的学术界与工业界也在迅速 跟踪与发展这种新的科学计算模式。以北京大学 鄂维南院士为代表的学者 [7],在计算方法、优化 理论、神经网络架构等基础研究领域已取得了显 著的进展,国内航天、航空、核能等应用领域也 获得了初步的研究成果,业界正在积极地拥抱这 种科学计算新范式。近年来,国家科学技术部、 自然科学基金委员会等部委机构和各级省市地方 政府积极出台引导政策,发布重要科技创新项目, 支持 AI for Science 的研究,智能科学计算是其 核心内容。有代表性的是:2022 年以来,国家 自然科学基金委员会交叉科学部连续三年推出 “可解释、可通用的下一代人工智能重大研究计 划”,研究指南覆盖了人工智能科学计算的各个 关键环节 [2];2023 年四川省政府揭榜挂帅重大科 技专项“工业软件智能数值求解器及其核工业示 范应用”,在工业 CAE 软件的关键数值求解器研 发及其面向核工业应用示范上,精准支持智能科 学计算领域创新研究工作。近几年,国内外该领 域的科技成果不断涌现,文献、专利呈大幅上升 的趋势 [4-5]。
可以说,新一代的人工智能技术正在助力科 学计算领域迎来新的研究范式。作为面向国家重 大需求与世界科技创新前沿的核工业,应该积极 顺应与拥抱这一技术发展历史潮流,瞄准核行业 独特的需求与特点,在技术创新与工程应用领域 均做出自身独特的贡献。本文介绍这一技术领域 基本原理与主要特征,总结核工业已有研究工作 现状,分析智能科学计算方法的优缺点,并展望 其技术发展趋势与潜在应用模式,给出推动核工 业 人工智能科学计算新范式发展的建议。
1 人工智能科学计算方法的基本思想
人工智能科学计算方法早期技术出现在 20 世纪 90 年代末 [8-9],伴随着深度神经网络机器学 习技术快速发展,图形处理器(GPU)等智能计 算硬件普及,以及自动微分 [10] 等技术日益成熟, 在 21 世纪得到了迅速的发展 [11]。其主要特点是 利用深度神经网络,通过机器学习优化方法求解 微分方程,以及融合小样本数据和物理方程信息 进行数据建模。这种方法关键技术途径是构建深 度神经网络,将其映射为一类由神经元连接权重 和偏置参数线性组合而成的特殊函数;将实验测 试数据集合映射为该函数的输入输出变量,从而 形成数据驱动的机器学习损失函数项,或者将神 经网络函数作为微/积分方程的试探函数,代入 这些数理方程及其边界/初始条件形成对应的机 器学习损失函数项;然后,利用神经网络的“万 能逼近”性质,通过反向传播、随机梯度下降等 机器学习方法,调整神经网络连接权重及偏置等 参数,逐渐减小损失函数,无限逼近实验数据对 应的变量映射关系或者数理方程的数值解,从而 获得基于深度神经网络的科学计算模型;最后, 利用深度神经网络模型的泛化计算能力实现高效 的科学计算。技术途径简介如下 [11] 。
1.1 深度神经网络的函数表达
如图 1 所示,将一个生物神经元抽象为一个 简单的单神经元数学函数模型 [12]。其函数形式表 示为:
式中,xg 表示神经元的输入;y 表示神经元的输 出;h 表示神经元的输入个数总数;wg 表示第 g 个输入参数的权重;b 表示该神经元的偏置;f 为激活函数。式(1)使得神经元具有函数输入 输出非线性映射表达能力。
更为复杂的大型的深度神经网络是由一定数 量基本的神经元,按照一定的层次结构连接而 成 [12]。图 2 是一个典型的 L 层的全连接神经网络 示例,第一层为输入层,c 为神经元的输出,a为经过激活函数作用后的输出,中间为隐藏层, 最后一层为输出层,中间的每一层输出经过神经 元的转换变为下一层的输入,这种更高级、更抽 象的函数表示,大幅度提高了神经网络函数的非 线性表达能力。
1.2 深度神经网络机器学习损失函数构建
在开展深度学习训练前,需要针对不同科学 计算类型的特点,建立相应的机器学习损失函数。
(1)数据驱动模型表示的损失函数 x m dataY m data FLoss_data 用 表示实验数据样本点 m 的因变量输入 向量,用 表示其相应输出变量值向量,数据 点 m 可来自实验测量、传统方法数值计算等方式, 则数据驱动模型表示的损失函数 可表示为:
(2)数学物理方程残差表示的损失函数 表示客观世界的数理方程有多种,典型的有 代数方程、微分方程、积分方程等,由于常规的 代数方程可以看成特殊的“0 阶”微分方程,积分 方程中的积分项可以通过有限和、高斯求积等方 式表达 [13],以下仅针对微分方程进行说明,其他 方程形式可据此类推。
任意的微分方程可表示成如下形式 [14]:
式中,ϕ(x) 是未知的待求函数。
ϕ(x) = N(x) x x ϕ(x) 令式(4)中的 ,其中,神经网络 向量 表示方程输入变量向量, 可根据不同未 知方程的未知函数 输入维度做适应性调整,则将式(2)代入式(4),得到控制方程的损失
式中,i 为机器学习所需要的样本点数。
(3)边界/初始条件约束损失函数 ϕ(x) xb,i ∈ Γb,i x j b,i Kb, j(x j b, j ) FLoss_b,i 在微分方程求解过程中,通常是需要处理边 界或者初始条件,设 定义域中, 为方 程的几何边界/初始域,用 表示边界/初始上样 本点 j 几何向量, 表示方程实际定义的边 界/初始条件,则得神经网络函数表示的边界/初
(4)数据驱动与物理方程融合的统一损失函数 FLoss_all 在针对既有数据信息、又有物理方程信息的 条件下,可将上述各项损失函数加权,得到数据
式中,Pdata、Pf和 Pb分别为数据表示、控制方程和 边界条件约束的损失函数权重。根据具体应用情 况及可投入机器学习的数据数量与质量进行选取。
由上可知,完整形式的损失函数式(7)完 整体现融合了物理模型与数据驱动融合的人工智 能科学计算新范式独特的性质。当不存在方程及 其边界/初始条件损失函数,即 、 为 0 时,式 (7)蜕变为数据驱动的损失函数式(3);当没 有真实数据存在,即 为 0 时,式(7)蜕变为 全物理方程残差损失形式,其损失函数由式(5) 和式(6)确定。这种损失函数确定机制,使得 人工智能科学计算方法能够将小样本数据与数理 方 程信息紧密融合起来。
1.3 深度机器学习过程
FLoss_all 后续的机器学习过程是利用神经网络反向传 播算法、牛顿迭代算法等各种优化方法算法 [11-12], 不断修正神经网络参数,即优化调整式(2)中 的 w L 与 b L,使得各种损失函数趋近于 0,此时 神经网络泛化计算输出就是数据驱动问题的代理 模型,或者物理方程的数值解。实践中设定合理 的阈值 ε,当 小于 ε 时,停止学习迭代。基 于机器学习损失函数式(5)和式(6),正向求 解微分方程的典型流程如图 3 所示 [11,15]。
理论上讲,支持深度学习的多层人工神经网 络是个“万能”的函数逼近器 [12],可以通过调整 神经网络权值无限减小损失函数,从而逼近任意 函数,这是深度人工神经网络的核心特点与优势, 也是新一代人工智能技术的典型标志。
由上可知,这种智能科学计算方法与传统构 建统计学计算模型、基于微分方程网格离散的矩 阵求解技术路径有着显著不同,其实质是针对深 度神经网络函数进行的多参数优化数学问题。
值得注意的是,上述人工智能科学计算模式 具有天然的数据融合与模型同化修正能力,可直 接利用测量得到的数据形成机器学习损失函数项, 与控制方程、边界/初始条件损失项加权后进行 机器学习,从而很好地实现物理模型与数据驱动 技术的融合。这样获得的深度学习模型理论上可 无限逼近中子输运等反应堆各种复杂控制方程, 得到高精度数值计算模型,并能通过实验数据同 化进一步提升精度。同时,利用深度神经网络本 身具有的泛化计算高效性,能实现在统一的深度 学习框架下,计算方法高精度与高效率性能的统 一,具有既算得准、又算得快的潜力,这为核工 业 的科学计算方法呈现了一种极具潜力的新范式。
2 核工业智能科学计算方法研究现状
近年来,人工智能技术与核工业全产业链各 环节科研与生产工作结合日益深入 [16-17]。针对人 工智能科学计算方法的研究与应用,自 21 世纪 以来,大量学者也开展了研究与探索,有关该领 域的文献研究报道大量涌现 [18-19],以下按照其技 术 特点针对智能计算领域典型案例进行介绍。
2.1 数据驱动的智能科学计算模式
这种方法的主要技术特征是:利用科学计算 方法进行建模的基础是一系列的数据,类似传统 统计方法进行数据回归建模技术路线,以及高斯 模型、决策树、支持向量机等经典机器学习方法, 构建数据集中各参数之间的量化关系。不同的是 新一代智能科学计算利用深度神经网络函数作为 数据建模的本构模型,采用式(3)构造的损失 函数,通过改变神经网络的权重和偏置,使得神 经网络损失函数趋近于极小值,从而建立数据参 数之间的关系。通过这种数据驱动方法得到的模 型常常也被称“代理模型”。
核工业界在此领域开展了大量的研究工作。 在核数据研究领域,文献 [20] 利用深度神经网络 学习快中子截面,采用评价核数据库中快中子区 的中子截面作为数据集,训练全连接神经网络模 型并进行测试和验证。通过训练,神经网络模型 能够较好地反映评价库中截面数据随核素、入射 中子能量的变化规律,对未知核素的中子截面数 据表现出很强的预测能力。在反应堆工程堆芯参 数智能计算方面,文献 [21] 利用已有高精度的计 算软件,获得关于反应堆功率、有效增殖系数等 关键参数的小样本数据,通过神经网络的机器学 习,获得了具有较高精度且泛化计算速度迅速的 代理计算样本,用于快速的堆芯关键参数预测, 从而助力实现大规模的方案设计优化。在反应堆 运行支持领域,文献 [22] 利用堆外一定量的中子 探测器获得的数据,构建了浅层神经网络进行机 器学习,重构了秦山一期核电厂堆芯三维功率分 布。文献 [23] 基于神经网络算法提出了换料方案 中堆芯关键参数的预测方法,通过学习基于换料 经验生成的大量堆芯换料方案,拟合得到换料方 案与堆芯关键参数之间的映射关系,神经网络的 强泛化能力为换料方案优化提供了一种快速评价 的方法。在热工水力与安全分析领域,深度学习 计算技术在堆芯流动传热模型构建、沸腾换热系 数预测、蒸汽发生器热工参数估计、CHF 关系式 预测、破前漏(LBB)泄漏检测等方向也开展了 大量研究工作,取得了一系列研究成果 [24-28]。
目前,在已经开展的研究工作中,通过神经 网络深度学习建立代理模型,提高工程设计分析所需科学计算精度与效率的研究成果,在核工业 智 能计算领域中占有主要的份额。
2.2 正向求解物理方程的科学计算模式
这种方法的主要技术特征是:研究在没有已 知解空间集合及实验数据条件下,完全基于物理 方程数理形式、边界/初始条件以及方程的参数, 将神经网络函数作为控制方程的试探函数,代入 物理方程及边界条件;采用式(4)构造方程的 损失函数及式(5)构造边界/初始条件损失函数, 通过深度学习方法不断进行优化迭代,持续减小 损失函数至极小值,使得神经网络函数逼近物理 方程的数值解。
当前深度学习方法求解中子扩散/输运方程、 热工水力基础方程等领域已经取得实质性的进展。 基于物理信息神经网络(PINN) [11] 及其改进方 法 [29],已经实现压水反应堆相关基础流体力学方 程的求解,给出了正向求解微分方程的一般方法。 文献 [30-31] 实现了核反应堆物理固定源问题的 稳态及瞬态的两维中子扩散方程问题求解,在基 础 PINN 方法上,提出了将中子扩散方程的边界 “吸收”到神经网络函数的构造中,让作为试探 函数的神经网络函数形式上满足边界条件的要求, 从而提升了深度学习求解扩散方程的精度。文 献 [32] 实现了少群高维非临界中子扩散方程的求 解,并提出了求解非临界系统的有效增殖系数的 两种方法,分别为利用中子注量率随时间变化是 否达到平衡来判断方程是否临界的间接求解方法, 以及将有效增殖系数与神经网络参数同时作为优 化变量的直接搜索方法。文献 [33] 针对深度学习 技术求解输运方程因定积分项带来的困难,提出 了微分变阶理论,将具有微积分形式的输运方程 转换为高阶微分方程进行深度学习求解,得到原 输运方程角注量率的数值解,该理论已经在少群 多材料的规则几何中子输运方程求解上得到了验 证。图 4 展示了平板几何、球几何的中子输运方 程角注量率的数值计算结果 [33],可知神经网络函 数给出了关于角注量率的连续解,这是其他传统 方法所不具有的特点。此外,文献 [34-35] 给出 了多材料不连续截面区域条件下的中子扩散方程 的求解关键技术,并进行了多种案例的验证。
相关基础理论与关键技术的建立,为进一步 求解具有更加复杂几何形式、更多种材料组成、 更多能群结构的反应堆物理、热工方程求解奠定 了 良好的技术基础。
2.3 数据驱动与物理方程融合的智能计算模式
这种方法的主要技术特征是:已知物理方程 的近似解或者具有一定数量的数据条件,同时也 具有完备或者部分缺失的物理方程信息(包括方 程的形式和边界/初始条件)的条件下,采用式 (7)构造的损失函数进行深度机器学习,不断 调整神经网络的权重和偏置参数以减小损失函数 到极小值,从而利用深度神经网络建立了融合数 据信息与物理方程的数学模型。
最早提出 PINN 的经典文献 [11],针对流体 力学方程,给出在有少量数据驱动下,进行矩形 流道流体方程求解与数据建模方法,分别进行了 连续方程、离散时间方程形式的微分方程求解, 并通过深度机器学习,实现了方程中带有误差的参数修正估计。在核工业领域,这种技术路线研 究工作方兴未艾,典型的工作有文献 [36-37] 提 出了融合小样本数据与中子扩散方程的神经网络 模型 IPMNN 和 PC-GIPMNN,用于解决中子扩 散方程特征值问题。通过将部分观测值(参考解) 引入损失项,来提高训练效率和准确性,该研究 通过近似真实堆芯的数值计算案例,给出了这种 方法在核反应堆物理实际工程应用中的可能性。 研究 [38-39] 通过堆芯探测器小样本数据,结合中子 扩散方程形式,逆向求解方程获得两群中子注量 率,仿真重构了三代核电压水堆堆芯功率三维分 布,如图 5 所示。同时,提出了在探测器出现故 障、反射层边界缺失、测量数据出现不同误差等 极端条件的功率重构方法;此外,也给出了在部 分截面数据有误差的情况下,进行修正的技术思 路。数值实验表明这种基于深度学习的堆芯功率 重构方法具有良好的精度与鲁棒性,仿真计算结 果 见图 5。
3 技术优缺点分析
人工智能科学计算方法与传统数据驱动统计 学方法以及数理方程数值计算方法相比,按照面 对现实科学问题的需求与特点,分别存在各自优 势与劣势领域。图 6 根据科学计算问题面对的空 间维度、数据与物理方程的信息差异给出了各自 优劣势领域分布示意图。
传统数值计算方法的优势区域是在具有少量 数据,或者没有实验样本数据情况下,面向较低 维度计算空间计算问题,且具有完善的物理方程 相关信息条件的计算问题。传统统计学方法的优 势区域是在具有大量已知测量数据情况下,面向 计算维度不高,且数据集合内在的物理规律不清 晰的计算问题。智能计算方法的优势区域是面对 高维的计算问题,具有部分数据及部分物理方程 信息的情况。在计算问题具有小样本数据情况下, 即使部分物理方程的参数或者边界条件不全,智 能 计算方法仍然具有优良的性能。
3.1 人工智能科技计算方法的潜在优势
(1)高维复杂空间与多物理场方程耦合求解
具有天然的优势 深度学习已经在图形处理、自然语言理解、 生成式大模型等领域验证了其在高维数学问题上 取得的成功,神经网络函数可能是逼近高维函数 更有效的工具 [2]。传统基于网络离散的数值计算 方法,随着维度的增加,同样精度科学计算所需 要的网格大小呈指数增长,计算性能大幅下降。 与之形成对比,利用神经网络函数来逼近高维的 数据集合,或者是求解高维度的物理方程,在一 定的前提条件下,其精度不会随着维度的增加而 急剧恶化,这种特性在具有上亿学习参数的超大 规模神经网络大模型应用问题上得到了充分印证。 深度神经网络作为新型高维函数逼近工具,有助 于解决传统数值方法倍受困扰的维度灾难问题。
同时,神经网络函数是一个非网格化的计算 模型,它通过构造数据集或者求解域的机器学习 样本点来描述计算问题空间,不受几何形状的限 制,理论上它又可以以任意精度逼近任意形状的 连续函数。这种特点使得智能计算方法非常适合复杂的几何空间描述,而且,可以用同样的样本 点映射不同物理场的几何空间,使得多个物理场 的耦合求解在几何空间映射上天然一致,避免了 传统计算方法多物理场耦合计算常常会遇到的不 同网格映射带来误差的难题。
(2)具有良好的数据驱动与物理模型融合及 数据同化能力
人工智能科学计算方法基于深度学习框架建 立了多源数据融合与数值模型有效同化机制,能 够针对现实问题中碰到的计算大空间、小样本、 多来源数据特点,利用深度神经网络作为物理方 程与数据融合同化框架,神经网络优化算法作为 数值模型同化算法,实现数据驱动与物理方程信 息的融合与同化。这是一种非常优秀的信息获取 特性,它可以尽可能地利用客观世界的已知规律 和信息,提升科学计算的精度。即使在只有小样 本数据,或者物理方程的形式、参数不全,甚至 边界/初始条件缺乏的情况下,也可能基于已有 的信息,获得良好的计算精度,而这种特性是传 统统计学方法以及数值计算方法所不擅长的。
(3)流程规范简洁,计算框架可重用性强
人工智能科学计算方法将数据驱动模型建立, 以及数理方程的求解,转化为了针对深度神经网 络损失函数为对象的机器学习优化问题。神经网 络的建立与深度学习流程均具有很强的规范性, 无论是构造数据驱动模型,还是求解椭圆、抛物、 双曲等不同类型的微分方程 [14],以及 Fredholm、 Volterra 等积分方程 [13],均可采用相似的神经网 络结构与深度学习框架,损失函数的构造与科学 计算流程非常规范、简洁。针对不同专业领域数 据建模与方程求解,使用的深度学习基础框架基 本相似,智能软件开发的可重用性很高,可以开 发共性的智能数值求解器,进行不同领域科学计 算。这种特性也使得无论是在科学计算建模、深 度学习求解与支撑软件研发过程,还是在不同专 业领域计算系统使用环节,相应的学习曲线比较 平缓,数值软件的可重用率很高,易于被各种专 业 背景层次的用户学习掌握。
3.2 人工智能科技计算方法面临的技术挑战
(1)训练时间较长、耗费计算资源较多,软 硬件国产化程度有待提高
相对于传统方法,在求解同样规模及精度的 科学计算任务,深度学习的计算方法往往需要更 多的训练时间,尽管学习后的泛化计算时间用时 很少,但机器学习所需要的时间难以被忽略。同 时,机器学习过程往往需要大量的硬件资源支持, 对 GPU 等特定资源的需求远远超过传统科学计 算方法,其耗费的算力资源成本是较大的。那些 具有复杂性的科学计算任务往往需要大规模的专 用智能计算硬件资源及专门的深度学习框架,而 当前进行这些智能计算所必须的软硬件资源 国产化程度并不高,存在一定的受制于人的技术 风险。
(2)在部分特殊情况下计算性能受限
深度学习科学计算流程是基于神经网络权重 的多参数优化过程,计算目标是让优化损失函数 趋于极小值。然而,很多客观世界真实问题是 “非凸”的复杂问题,解空间存在多个局部极小 值,当前的各种优化算法并不能绝对保证优化到 极小值,要找到全局上的最优解是比较困难的; 同时,对于求解稳态中子输运/扩散方程等特征 值方程问题,由于特征方程的解无穷,而且特征 值也不是唯一的,意味着使得方程的残差损失函 数趋近极小值的可能性很大,优化过程面临不收 敛或者难收敛的风险;此外,由于神经网络函数 对低频信号的逼近性能远远高于高频信号,基于 当前的各种深度学习方法,针对反应堆共振自屏 计算等存在截面参数及中子注量率发生剧烈变化 的问题,计算误差较大。最后,在线性代数方程、 规则几何低阶微分方程等简单方程求解上,由于 深度神经网络激活函数作用范围、优化算法、自动微分技术 [10] 本身具有一定系统误差等因素,相 对传统方法,这些情况下目前的智能计算方法不 具有明显优势。
(3)深度学习神经网络具有一定的不可解 释性
学界普遍共识,深度神经网络及相应的机器 学习过程存在一定的不可解释性,神经网络结构、 机器学习参数选择、机器学习样本点选择等一系 列因素都对深度学习的最终精度、效率等性能产 生很大的影响。目前,这些参数对科学计算性能 的敏感性缺乏完备的理论依据,参数的选择与优 化策略主要基于实验实测及人为经验获得。同时, 实践中也发现神经网络输出在局部特殊点上泛化 计算误差存在“畸点”现象,这给科学计算的验 证与确认工作带来了很大的挑战。同时,当前核 安全监管部门关于核安全相关科学计算工业软件 的开发与验证管理导则,还没有将智能计算方法 纳入评审范围。智能科学计算数值模型与工业软 件因存在不可解释性,导致非常大的认知和偶然 不确定性,会造成不可预计的安全偏差,还不能 直接应用于核安全相关的反应堆工程研究、设计 与 运行支持环节。
4 未来技术与潜在应用展望
核工业领域的人工智能科学计算方法正在迅 猛发展之中,尽管目前已经取得的一列成果,但 主要还是集中在基础研究领域,还存在大量理论 与关键技术尚待突破。同时,也有一系列潜在的 工程领域值得深入研究智能计算方法的应用模式, 具 体情况如下。
4.1 未来需要重点研究的关键技术领域
(1)针对核工业科学计算的特点,发展专用 的智能计算方法
瞄准核工业数据驱动、物理方程的特点,通 过数理方法的研究,创新数据驱动或者物理方程 形式,发展专用的深度学习计算方法。例如,针 对具有微积分形式中子输运方程的,改变积分方 程形式,使得其便于深度学习求解;发展反应堆 堆芯基于深度学习的有效增殖系数搜索方法;利 用堆内堆外探测器数据,结合反应堆物理方程, 发展专门用于三维堆芯功率实时监测算法;结 合 CHF 测量数据,加入流体传热方程物理信息, 提高 CHF 关系式的预测精度并拓展参数预测范 围;面向断裂力学的应用,发展超奇异方程求解 等专用智能计算方法。
(2)开发能进行数据驱动与物理方程融合的 统一智能科学计算平台
鉴于智能科学计算方法对数据驱动建模、微 分方程、积分方程的求解流程十分规范,且在相 似流程下,也能实现不同专业领域数据驱动与物 理方程融合的科学计算。为此,非常有必要开发 具有统一框架、开放接口的智能科学计算平台, 并对其包含的样本空间生成、神经网络构建、深 度机器学习引擎、求解过程监控、后处理与泛化 计算等组成部分功能与接口实现标准化,促进建 立开放、兼容的智能科学计算生态。统一的智能 科学计算平台框架系统体系架构如图 7 所示。
(3)研究性能更好的神经网络结构、参数与 优化算法
神经网络结构与机器学习的参数对深度学习 的计算效率与精度均发挥着重要的影响。未来技 术发展的重要研究领域是探索更为先进的深度神 经网络结构,优化与之匹配的机器学习参数,开 发相关的神经网络优化算法,以及完善相关的深 度学习支持框架,大幅度提升深度学习计算的精 度与效率,满足反应堆物理共振计算等高频信号 函数逼近、特征值输运方程计算等复杂问题的 求解。
(4)大规模并行计算
实际工程中的问题通常具有大规模数据集、 高维几何空间、复杂方程参数等特点,利用单个 神经网络串行开展深度学习,往往难以满足实际 需求。未来有必要针对大型科学计算问题,发展 大规模复杂结构深度网络,或者分区域、多输出 的神经网络,并对大量神经网络进行并行训练。 同时,考虑在并行训练计算环境下的软硬件资源 调度,以及多线程、进程数据交互处理方法,以 支持大规模的并行深度学习,解决当前智能计算 方法面临的训练时间过长技术瓶颈。
(5)智能数值计算模型的验证
持续跟踪计算机科学界最新研究成果,提升 神经网络智能计算系统可解释性,深入开展智能 计算模型的验证与不确定量化分析方法研究,发 展神经网络泛化计算误差的包络估计量化方法;
同时,针对现有政府监管机构发布的核安全相关 的数值计算软件开发与验证导则,分析对人工智 能科学计算方法的适用性,提出科学合理的修改 建议,从而推动核安全相关领域智能数值计算工 业 软件认证与应用推广。
4.2 潜在的工程应用领域展望
如前所述,人工智能科学计算范式有自己独 特的优势,未来在核工业全生命周期内的众多环 节,有着广阔的潜在应用前景。然而,作为新兴 的技术方向,其发展道路不会一帆风顺,亟待业 界积极而理性的推进。总体来说,智能科学计算 方法宜与传统方法扬长避短、相互结合、互为补 充,各自发挥自身优势,逐步实现推广应用。潜 在的重点应用范例列举如下:
(1)基础核数据处理:针对低能重离子碰撞 中的物理问题,利用神经网络及深度学习技术对 质子、中子有效质量劈裂现象进行分析,提高分 辨有效质量劈裂的精度 [40];通过机器学习发现已 有核数据库截面数据随核数类型、入射中子能量 的变化规律,进而预测未知核素的中子截面数据; 利用数据驱动的深度学习方法,建立基于神经网 络的共振截面降阶模型,实现超精细群能谱快速 重构等。
(2)设计计算:瞄准反应堆工程物理、热工、 燃料等专业的高精度计算,结合传统计算方法的 流程和初步计算结果,可以给出局部更加精细的 连续性数值求解结果,描述反应堆堆芯等关键部 件物理热工详细特性;针对复杂的不规则几何结构进行多专业物理场耦合数值计算;从微观分子 动力学的角度,利用深度学习方法,分析材料的 晶体结构和辐射损伤数据来提供更准确的性能预 测等。
(3)科研实验:深度学习科学计算方法一方 面可以直接拟合大量测试数据,如材料疲劳、腐 蚀、老化等宏观数据驱动模型,更为有价值的是 通过小样本的实验数据,给出融合数据驱动与物 理方程的数据模型,如利用主管道少量的测量点, 结合热工水力方程,给出管道内热分层模型;通 过不同条件下的堆芯热工参数测量,构建 CHF 关系式模型等众多实验领域。这些方法是对现有 实验技术“内插”分析数据模型的拓展,使得通 过局部实验得到的测试结果可以“外推”到测试 数据范围外成为可能。
(4)反应堆运行:智能科学计算方法可以用 于实时监控反应堆的运行,通过堆内及堆外的监 测点,逆向求解反应堆物理方程,高精度地重构 反应堆堆芯三维功率分布,提升堆芯安全分析能 力;通过分析传感器数据,智能识别中子噪声的 不同模式,结合正常运行与理论计算获得的数据, 定位潜在的燃料组件故障位置,达到提高反应堆 运行安全性和经济性的目的。
(5)乏燃料后处理:利用深度学习方法,结 合实测数据与物理理论模型,给出乏燃料后处理 相关设施及操作流程场所的辐照通量三维空间分 布,进行辐射剂量计算分析,支撑后处理设施工 程方案优化设计、专用设备研发及模拟验证、后 处 理方案评估以及退役过程模拟。
5 结束语
当前,我国正处于从核电大国迈向核电强国 的上升期,核电的在建机组、装机容量已经处于 世界前列,“华龙一号”等自主创新核电工程的 成功运行夯实了核能技术进一步发展的基础。随 着人工智能技术热潮正在全世界范围持续推进, AI for Science 已成为业界的共识 [2],利用人工智 能技术发展新的科学计算范式受到了国家和各级 地方政府的高度重视,核工业界如何顺应这种历 史趋势,让整个行业走在人工智能科技创新与技 术变革的前沿,在全世界范围内实现核工业技术 并跑甚至局部领跑,本文提出以下 4 个方面的 建议:
第一,瞄准核工业智能科学计算核心领域进 行基础科研集中攻关。当前,智能计算尽管在一 些局部技术上已经取得突破,但在复杂中子输运 方程求解、大规模热工水力计算、多尺度多物理 场耦合、燃料/材料的辐照性能评价等核工业核 心科学计算领域尚未取得关键技术进展,尚不具 备工程应用所需的科学计算能力,亟需首先从基 础科研角度加大投入,集中科研资源攻关,尽快 取得决定性技术突破。
第二,要找出自身的比较技术优势,与传统 科学计算方法融合发展。传统科学计算方法在众 多领域具有坚实的理论基础与实践经验,开发智 能计算方法应充分借鉴这些成熟的技术成果,找 出自身比较优势发力攻关。在数据本构方程构造、 高维空间问题求解、多物理场耦合、局部精细化 特性获取等领域寻求另辟蹊径的创新方法,而针 对众多广泛领域的工程问题,应与传统计算技术 方法结合,在局部计算流程任务上精准发挥自身 独特作用。
第三,要加大投入建设支持人工智能科学计 算的计算机软硬件设施。相对于传统科学计算方 法,人工智能科学计算任务更加依赖于高性能算 力资源。支撑这种算力的基础设施是以 GPU 为 代表的新一代智能硬件计算设备,以及高效率、 高置信、自主可控的深度机器学习共性支撑软件 框架。目前,这些关键的软硬件基础设施在核工 业领域还未形成规模,未来应作为培养人工智能 科学计算新质生产力的大科学装置加以积极建设。
第四,要营造严谨务实的学风,积极谨慎地 推进科研攻关与工程应用。核安全意识是核工业 开展科技攻关与工程应用所必须考虑的重要因素。 一方面,要从技术创新角度大胆尝试人工智能技 术与科学计算方法的紧密融合,研究独树一帜的 创新成果;另外一方面,在涉及核安全的工程应 用领域,必须小心求证,充分验证、评估新方法 对核安全管理存在的潜在风险,积极稳妥地推进 人工智能科学新计算范式的健康发展。