基于 Shapley 值的图稀疏化用于 GNN 推理-计算机科学-图稀疏化-图神经网络.pdfVIP

基于 Shapley 值的图稀疏化用于 GNN 推理-计算机科学-图稀疏化-图神经网络.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于Shapley值的图稀疏化用于GNN推理

SelahattinAkkasArifulAzad

DepartmentofIntelligentSystemsDepartmentofComputerScience

EngineeringEngineering

IndianaUniversityBloomingtonTexasAMUniversity

Bloomington,Indiana,USACollegeStation,Texas,USA

sakkas@ariful@

摘要上进行GNN推理的可扩展性和可行性变得越来越具

有挑战性。为了解决这一问题,文献中引入了各种图

图稀疏化是通过移除对预测影响最小的边来提高图神

形稀疏化技术[3,7,28,38,41]。大多数这些方法都受

经网络推理效率的关键技术。GNN可解释性方法生

本到了彩票假设的启发,该假设表明一个由参数、层、

成局部重要性得分,这些得分可以聚合成全局得分用

译节点和/或边的一个子集组成的GNN子网络可以被

于图稀疏化。然而,许多可解释性方法仅产生非负得

中分,限制了它们在稀疏化中的应用。相比之下,基于训练以达到与完整模型相当的表现。因此,这些方法

1Shapley值的方法为节点预测分配正负贡献,通过评重点在于识别并剪枝冗余边来减少图的复杂性,降低

v资源消耗,并加速推理。

0估许多子图集提供了理论上稳健且公平的重要性分配。

6第二种方法也旨在识别无信息节点和边,但目标

4与基于梯度或扰动的解释器不同,Shapley值使更好

0地修剪策略成为可能,这些策略保留有影响力的边同是解释GNN模型的预测[5,14,32,37]。GNN解释方

2.法旨在识别对预测贡献更大的关键子图。保真度[39]指

7时移除误导性或对抗性的连接。我们的方法表明,基标常用于评估GNN解释方法的成功与否。它衡量的

0于Shapley值的图稀疏化在显著减少图复杂性的同时

5是当移除某些边时,模型预测的变化情况。具体而言,

2保持预测性能,增强了GNN推理的可解释性和效率。

:衡量移除重要边时模型预测的变化,而

v

i衡量移除最不重要边时模型预测的变化。识别对GNN

x1介绍

r解释方法最重要和最不重要的边的能力促使我们应用

a

图神经网络(GNNs)在机器学习领域变得非常流行,解释分数进行图稀疏化。使用解释分数进行图稀疏化

特别是在处理图形结构数据[35]方面。与传统神经网具有多个优势:(1)在稀疏化后无需重新训练模型,

络不同,GNNs利用了图数据中的隐藏关系,使其成为(2)避免了反复重新计算边的得分以确定最

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档