用于相同库默方程的神经网络:架构考虑与性能评估.pdfVIP

  • 0
  • 0
  • 约2.09万字
  • 约 7页
  • 2026-02-26 发布于北京
  • 举报

用于相同库默方程的神经网络:架构考虑与性能评估.pdf

用于相同库默方程的神经网络:架构考虑与

性能评估

st

1NishantakPanigrahi

SchoolofComputerScienceandEngineering(SCOPE)

VelloreInstituteofTechnology(VIT)

Vellore,India

nishantak09@,

nishantak.panigrahi2022@vitstudent.ac.in

nd

2MayankPatwal

本SchoolofComputerScienceandEngineering(SCOPE)

译VelloreInstituteofTechnology(VIT)

中Vellore,India

mayanksingh4370@,

1

vmayanksingh.patwal2022@vitstudent.ac.in

4

8

3

4I.介绍

1

9.偏微分方程(PDEs)在建模过程中及其从广泛多

0摘要—在本文中,我们研究了深度神经网络(DNNs)逼近样领域中产生的性质方面无处不在,例如实时工程问

5

2从同相振子库尔莫特定律模型推导出的非局部守恒定律解的效题、不同的物理现象、化学和生物事件以及社会经济理

:率,重点关注架构选择及其基于能量范数和计算时间对解精度的

v论[1][2]。高效准确地解决此类复杂动力系统在这些应

i影响。通过系统实验,我们证明网络配置参数——特别是激活函

x用的广泛范围内变得至关重要。经典数值方法,如有限

r数的选择(tanh与sin与ReLU)、网络深度(4-8个隐藏层)、

a宽度(64-256个神经元)以及训练方法(配点法、迭代次数)显体积方案可以提供准确性,但以长时间运行为代价,特

著影响收敛特性。我们观察到,tanh激活在各种配置中均能实别是对于高分辨率模拟[3]。深度神经网络(DNNs)通

现稳定收敛,而正弦激活则可以在孤立案例中达到边缘较低的误过直接从关于过程的数据中学习连续解提供了无网格

差和训练时间,但偶尔会产生非物理特征。与传统数值方法的比的选择,例如PDE。我们通过将PDE残差和边界/初

较分析表明,优化配置的DNNs提供了具有明显不同计算权衡

始条件约束嵌入到网络的损失函数中来增强DNN,这

的竞争性精度。此外,我们识别出标准前馈架构在处理奇异或分

一范式此后称为物理信息神经网络(PINN)[4]。因此,

段常数解时的基本限制,提供实证证据表明此类网络由于标准激

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档