知识表示与处理(2025-第14次课 图表示学习).pdfVIP

知识表示与处理(2025-第14次课 图表示学习).pdf

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

NetworkedWorld

基本概念

图表示学习(GraphRepresentationLearning),又称图嵌入(GraphEmbedding)

,是指将图中的节点(顶点)、边或整个图映射到低维连续向量空间中的技术,使得向量

之间的几何关系(如距离、内积)能够反映原始图中的结构和语义关系。其目标是为下游

任务(如节点分类、链接预测、图分类、聚类等)提供高效、可计算的表示。

OriginofRepresentationLearning

Network

Embedding

GraphNeural

Networks

基于矩阵分解的方法

基本思想:利用图的全局结构信息,通过分解邻接矩阵或其变换形式得到节点嵌入。

•给定图,其邻接矩阵为,其中:

•表示节点i与j之间有边;

•表示无边(可扩展为带权图)。

•目标:寻找两个低秩矩阵通常d≪n),使得:

其中,Z的第i行即为节点i的嵌入向量。

典型方法

1.LaplacianEigenmaps(拉普拉斯特征映射)

保持局部邻域结构不变:在图中相近的节点,嵌入后也应相近。

2.GraphFactorization(GF)

直接将邻接矩阵分解为低秩近似。✅优点:理论清晰、可解释;

❌缺点:计算复杂度高(O(n3)),难以扩展到大图。

基于随机游走的方法

基本思想:通过在图上采样局部路径(walks),将图结构转化为“句子”,再用词

嵌入方法(如Word2Vec)学习嵌入。

•DeepWalk•[KDD2014]DeepWalk:OnlineLearningofSocialRepresentations

•在无权无向图上运行随机游走生成序列;

•用Skip-gram模型训练节点向量;

•假设:在游走中频繁共现的节点应嵌入相近。

基于随机游走的方法

B.Perozzi,R.Al-Rfou,andS.Skiena.2014.Deepwalk:Onlinelearningofsocialrepresentations.KDD,701–710.

基于随机游走的方法

基本思想:通过在图上采样局部路径(walks),将图结构转化为“句子”,再用词

嵌入方法(如Word2Vec)学习嵌入。

•node2vec•引入有偏随机游走(biasedrandomwalk);

ü通过参数p(返回概率)、q(向外探索概率)

控制游走策略:

pq1:倾向于BFS(捕捉局部社区);

pq1:倾向于DFS(捕捉全局结构)

文档评论(0)

186****7161 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档