- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
基于Shapley值的图稀疏化用于GNN推理
SelahattinAkkasArifulAzad
DepartmentofIntelligentSystemsDepartmentofComputerScience
EngineeringEngineering
IndianaUniversityBloomingtonTexasAMUniversity
Bloomington,Indiana,USACollegeStation,Texas,USA
sakkas@ariful@
摘要上进行GNN推理的可扩展性和可行性变得越来越具
有挑战性。为了解决这一问题,文献中引入了各种图
图稀疏化是通过移除对预测影响最小的边来提高图神
形稀疏化技术[3,7,28,38,41]。大多数这些方法都受
经网络推理效率的关键技术。GNN可解释性方法生
本到了彩票假设的启发,该假设表明一个由参数、层、
成局部重要性得分,这些得分可以聚合成全局得分用
译节点和/或边的一个子集组成的GNN子网络可以被
于图稀疏化。然而,许多可解释性方法仅产生非负得
中分,限制了它们在稀疏化中的应用。相比之下,基于训练以达到与完整模型相当的表现。因此,这些方法
1Shapley值的方法为节点预测分配正负贡献,通过评重点在于识别并剪枝冗余边来减少图的复杂性,降低
v资源消耗,并加速推理。
0估许多子图集提供了理论上稳健且公平的重要性分配。
6第二种方法也旨在识别无信息节点和边,但目标
4与基于梯度或扰动的解释器不同,Shapley值使更好
0地修剪策略成为可能,这些策略保留有影响力的边同是解释GNN模型的预测[5,14,32,37]。GNN解释方
2.法旨在识别对预测贡献更大的关键子图。保真度[39]指
7时移除误导性或对抗性的连接。我们的方法表明,基标常用于评估GNN解释方法的成功与否。它衡量的
0于Shapley值的图稀疏化在显著减少图复杂性的同时
5是当移除某些边时,模型预测的变化情况。具体而言,
2保持预测性能,增强了GNN推理的可解释性和效率。
:衡量移除重要边时模型预测的变化,而
v
i衡量移除最不重要边时模型预测的变化。识别对GNN
x1介绍
r解释方法最重要和最不重要的边的能力促使我们应用
a
图神经网络(GNNs)在机器学习领域变得非常流行,解释分数进行图稀疏化。使用解释分数进行图稀疏化
特别是在处理图形结构数据[35]方面。与传统神经网具有多个优势:(1)在稀疏化后无需重新训练模型,
络不同,GNNs利用了图数据中的隐藏关系,使其成为(2)避免了反复重新计算边的得分以确定最
文档评论(0)