内嵌物理知识神经网络(PINN)是个坑吗?

发布时间:2022-08-19 12:44

内嵌物理知识神经网络(PINN)是个坑吗?_第1张图片

©PaperWeekly 原创 · 作者 | zwqwo

单位 | 某知名券商计算机行业研究员

研究方向 | 关注国产CAD、CAE等工业软件发展

b5512055850621fb48fb48710add80e3.png

从无网格方法到内嵌物理知识的神经网络

内嵌物理知识神经网络 (Physics Informed Neural Network,简称 PINN) 是一种科学机器在传统数值领域的应用方法,特别是用于解决与偏微分方程 (PDE) 相关的各种问题,包括方程求解、参数反演、模型发现、控制与优化等。

先简单概括,PINN 的原理就是通过训练神经网络来最小化损失函数来近似 PDE 的求解,所谓的损失函数项包括初始和边界条件的残差项,以及区域中选定点(按传统应该称为“配点”)处的偏微分方程残差。训练完成后进行推断(Inference)就可以得到时空点上的值了。

这个想法也不是很新奇,通常而言,数值分析类教材中接触得更多的是有限差分法、有限元、有限体积法等的基于网格的方法。还存在与基于网格方法相对的一类方法,也就是所谓无网格方法,在其中不难发现 PINN 的原型(Prototype),比如一种最简单的基于强形式径向基函数的无网格方法 Kansa 法。下面先简单介绍这个方法的原理,考虑这样一个两点边值问题:

内嵌物理知识神经网络(PINN)是个坑吗?_第2张图片

Kansa 法直接假设 有以下的形式:

内嵌物理知识神经网络(PINN)是个坑吗?_第3张图片

其中 是基函数,通常会选取某个径向基函数(Radial Basis Function,RBF 函数)的平移。那么在 区间上选取 个不同的配点 ,这些点并不需要处于特定位置。分别得到关于系数 的方程:

内嵌物理知识神经网络(PINN)是个坑吗?_第4张图片

边值上的两点满足:

内嵌物理知识神经网络(PINN)是个坑吗?_第5张图片

这样,一共得到了 个关于  个待定系数  的线性方程组,通过求解线性组,就可以逼近方程的逼近解了。定义 为 RBF,当选取 时,其实已经用到了一种浅层神经网络,也就是 RBF-net。

当然了,结果大家都知道,浅层神经网络在学习复杂的特征时可能会力不从心,网络宽度的增加也可能会使线性系统变得非常病态,基函数的超参选取是个问题,配点的选择当然也有讲究,无网格法有无网格法的解决方式。但如果要从神经网络,也就是 PINN 这条路子上走的话,将单层的 RBF-net 增加为多层感知机(MLP)就是件非常自然的事情了。

上面的基展开方法也可以延伸至一般伪谱方法。从数据的角度看,所谓的基就是特征,既然这种线性表征是可行的,那么利用神经网络来进行非线性表征也挺合理。

下面开始正式介绍 PINN,写得稍微正式一点,对于微分方程:

内嵌物理知识神经网络(PINN)是个坑吗?_第6张图片

其中:

  • 是包含了空间和时间的坐标;

  • 表示方程的解;

  • 是方程所在的区域;

  • 算子描述了控制方程;

  • 是控制方程的参数;

  • 算子描述了初值或者边界条件;

  • 算子描述了观测数据的方式;

  • 是观测数据指标集。

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号