基于Transformer和图卷积神经网络的结构动力响应计算方法.pdfVIP

基于Transformer和图卷积神经网络的结构动力响应计算方法.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

摘要

近年来,物理实体与数字模型之间实时同步与智能交互的数字孪生技术成为

了研究热点。传统有限单元法采用细网格与多积分点单元精细计算时,涉及大规模

线性代数方程组求解,导致其计算效率较低,不足以满足数字孪生等智能技术高效

计算的需求。基于机器学习的智能计算为数字孪生技术计算效率难题提供了新的

解决途径,本文分别考虑振型分解法与Transformer多头注意力机制、刚度矩阵与

图卷积神经网络(Graphconvolutionalnetwork,GCN)邻接矩阵之间的计算关联性,

融合Transformer与GCN,研究出结构动力响应快速计算的深度学习方法。

本文主要研究内容包括:

根据Transformer多头注意力机制的各头相互独立性与全局特征提取能力,推

导了多头注意力机制与振型分解法的关联“加权求和”计算过程。基于GCN邻接

矩阵与刚度矩阵的相似非欧拓扑表达能力,并考虑到结构刚度矩阵的节点力学关

系表征能力,研究了两者的可替代性。最后,采用5层框架结构作为数值算例,提

取结构模态振型、刚度矩阵、外部激励及结构动力响应建立数据集。

提出基于Transformer的结构动力响应计算方法。基于各阶模态振型的线性不

变性与线性无关性,并考虑到多头注意力机制与振型分解法之间存在相似计算原

理,提出将模态振型作为力学先验嵌入到多头注意力机制作为其基向量组,形成具

有动力响应线性解耦能力的振型注意力计算层。根据Transformer多头注意力的各

头相互独立性,模型只需组合学习对应振型叠加系数即可得到近似结构动力响应。

采用5层框架结构作为数值算例,验证了所提方法有效性。

提出基于Transformer-GCN的结构动力响应计算方法。基于结构刚度矩阵相邻

节点力学关系表征能力与强大非欧结构拓扑关系表征能力,并考虑到刚度矩阵与

邻接矩阵之间存在高度一致的矩阵分布,提出将邻接矩阵替换为刚度矩阵,形成具

有自适应调整动力响应整体分布能力的刚度图卷积层,用于进一步优化

Transformer振型注意力层计算得到的近似结构动力响应,使其满足全局变形协调

条件。对比分析了所提方法与ANSYS计算准确性与效率,并从Transformer、GCN

模型结合,力学机制嵌入两个方面进行了消融实验研究。

关键词:结构动力计算;Transformer;图卷积神经网络;力学知识增强;数字孪生

Abstract

Inrecentyears,thedigitaltwinhasemergedasasignificantareaofresearch,

particularlyfocusingonefficientcomputationandreal-timeinteraction.Traditional

methods,suchasthefiniteelementmethod(FEM)oftenstrugglewithcomputational

efficiency,whichposeschallengesformeetingtherequirementsofintelligent

technologiessuchasdigitaltwins.Machinelearning-basedintelligentcomputationoffers

apromisingsolutiontoenhancingtheefficiencyofdigitaltwins.Thisstudyconsidersthe

computationalcorrelationbetweenthemode-decompositionmethodandthemulti-head

attentionofTransformer,aswellastheadjacencymatrixofGCNandthestiffnessmatrix.

BycombiningtheTransformerwithGCN,adeeplearningalg

文档评论(0)

精品资料 + 关注
实名认证
文档贡献者

温馨提示:本站文档除原创文档外,其余文档均来自于网络转载或网友提供,仅供大家参考学习,版权仍归原作者所有,若有侵权,敬请原作者及时私信给我删除侵权文

1亿VIP精品文档

相关文档