弱对抗神经推前映射用于 Fokker-Planck 方程.pdfVIP

  • 0
  • 0
  • 约1.29万字
  • 约 10页
  • 2026-02-26 发布于北京
  • 举报

弱对抗神经推前映射用于 Fokker-Planck 方程.pdf

弱对抗神经推前映射用于Fokker-Planck方程

AndrewQingHeWeiCai

DepartmentofMathematicsDepartmentofMathematics

SouthernMethodistUniversitySouthernMethodistUniversity

andrewho@cai@

本2025年9月20日

1摘要

v

5

7本文提出了一种通过弱对抗框架学习神经采样器来求解福克-普朗克方程的新

5方法。我们通过一个神经推前映射来表示解决方案分布,从而绕过了基于密度的

4

1方法的局限性。关键创新在于使用计算高效的平面波检验函数,其导数是显式计

.

9算的——这种处理方式与先前的工作有所不同。该方法能够处理没有密度的分

0

5布,并自然地强制执行概率守恒。

2

:

v

i美国数学学会主题分类:65N75,68T07,35Q84

x

r

a

1介绍

近年来,大量注意力集中在使用深度学习技术解决微分和积分方程上,如物理信

息神经网络(PINNs)[1]、深层里兹方法[8]、弱对抗网络(WAN)[6]等。这些框架

的共同点是通过一个逐点评估神经网络来表示解,这是一种深度神经网络,它将空间

或时空坐标作为输入,并输出该点处解值的估计。这提供了一种自然直观的方式来表

示函数。

1

弱对抗神经正向映射2

然而,这种方法并不总是最优的。解决方案的本质有时会暗示更合适的表示方

法。本文研究了其中一种情况:当解是一个概率密度函数(PDF)时。在这里,点评

估网络通常因两个主要原因次优:

1.解可能不是关于上的勒贝格测度绝对连续的(例如,一个狄拉克分布),

在这种情况下,经典概率密度函数不存在。

2.这个概率守恒(一个体积保持性质)极其难以保证,因为精确计算任意域上神

经网络的积分通常是不可行的。

在这种情况下,更自然的策略是直接表示解分布。我们建议通过一个由参数化

的神经前向映射来表示该解,这将一个简单的参考分布(如标准高斯分布)通过

前推操作转化为目标解分布。

类似的的方法被用于[9,10,11,12]中。然而,这些工作通常采用了一种需要概率

密度函数存在且规则化的PINN风格的损失函数。这反过来限制了网络需要具有

可逆性和雅可比友好性(例如RealNVP[13],如归一化流中所使用的),并因计算密

度的二阶导数(涉及雅可比行列式计算)而带来了较高的计算成本。相比之下,我们

的方法基于运输方程和福克-普朗克方程的弱形式化表述。这使我们可以使用更一般

的深度神经网络来实现映射。我们采用了弱对抗框架[6,5],该框架重新定义了方

程的弱形式。在此公式中,测试函数被参数化为一个对抗网络(充当“鉴别器”,类

似于GANs[14]),并且前推映射通过对抗训练来满足该方程。

在我们的框架中,可以是任何输出维度与目标空间匹配的神经网络。训练后

的网络作为从解分布中高效采样的工具。虽然该框架本身并不提供概率密度函数的显

式表达式,但需要这一表达式的用户——并且能够确保其存在性——仍可将实例

化为一种可逆且易于雅可比计算的网络,如RealNVP。然而,这仅是我们在框架内

的一项可选方案,并非强制要求。

对抗测试函数以一种独特的方式进行处理。遵循弱形式的数学哲学,测试函数应

表现出更大的规则性,并

文档评论(0)

1亿VIP精品文档

相关文档