利用变分卷积推断局部拓扑结构的图表示方法.pdfVIP

利用变分卷积推断局部拓扑结构的图表示方法.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

工程科学学报,第

45

卷,第

10

期:1750−1758,2023

10

Chinese

Journal

of

Engineering,

Vol.

45,

No.

10:

1750−1758,

October

2023

/10.13374/j.issn2095-9389.2022.07.24.005;

利用变分卷积推断局部拓扑结构的图表示方法

1,2,3)1,2,3)1,2,3)1,2,3)✉

侯静怡,唐宇鑫,于欣波,刘志杰

1)

北京科技大学智能科学与技术学院,北京

100083

2)

北京科技大学人工智能研究院,北京

100083

3)

北京科技大学智能仿生无人系统

教育部重点实验室,北京

100083

✉通信作者,

E-mail:

liuzhijie2012@

深度学习技术的长足发展与数据算力的快速提升,极大地增加了各种结构图神经网络优化和实现的可行性,使得图

结构数据的表示研究工作取得极大进展.

已有的图神经网络方法主要关注图节点之间全局信息的传递,理论上可证明其强

大的信息表示能力.

然而,面向局部拓扑具有特殊语义的图结构数据表示时,这些通用方法缺乏灵活的局部结构表示机制,

例如化学反应中组成分子的局部结构—官能团,其通常能够决定化学分子性质并且参与化学反应过程.

进一步挖掘这些局

部结构的信息对基于图表示的各类任务都是非常重要的,为此提出一个利用变分卷积推断局部拓扑结构的图表示方法,不仅

考虑图节点在全局结构上的关系推理与信息传递,还基于变分推断自适应地学习图数据的局部拓扑结构,利用卷积操作对局

部结构进行编码,从而进一步提高图神经网络的表达能力.

本文工作在多个图结构数据集上进行实验,实验结果表明利用局

部结构信息可以有效提升图神经网络在基于图的相关任务上的性能.

关键词

图注意力网络;局部拓扑结构;变分推断;卷积神经网络;混合结构神经网络

分类号

TP391.4

Inferring

local

topology

via

variational

convolution

for

graph

representation

HOUJingyi1,2,3),TANGYuxin1,2,3),YUXinbo1,2,3),LIUZhijie1,2,3)✉

1)

School

of

Intelligence

Science

and

Technology,

University

of

Science

and

Technology

Beijing,

Beijing

100083,

China

2)

Institute

of

Artificial

Intelligence,

University

of

Science

and

Technology

Beijing,

Beijing

100083,

China

3)

Key

Laboratory

of

Perception

and

Control

of

Intelligent

Bionic

Unmanned

Systems

(Ministry

of

Education),

University

of

Science

and

Technology

Beijing,

Beijing

100083,

China

✉Corresponding

author,

E-mail:

liuzhijie2012@

ABSTRACT

The

development

of

deep

learning

techniques

and

support

of

big

data

computing

power

have

revolutionized

graph

representation

research

by

facilitating

the

implementation

of

the

learning

of

different

graph

neural

network

structures.

Existing

methods,

such

as

graph

attention

networks,

mainly

focus

on

global

information

propagation

in

graph

neural

networks,

which

have

theoretically

proven

their

strong

representation

capability.

However,

these

general

methods

lack

flexible

r

文档评论(0)

新能源知识科普(本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料)。

1亿VIP精品文档

相关文档