• 论文解读(SelfGNN)《Self-supervised Graph Neural Networks without explicit negative sampling》


    论文信息

    论文标题:Self-supervised Graph Neural Networks without explicit negative sampling
    论文作者:Zekarias T. Kefato, Sarunas Girdzijauskas
    论文来源:2021, WWW
    论文地址:download 
    论文代码:download 

    1 介绍

      本文核心贡献:

      • 使用孪生网络隐式实现对比学习;
      • 本文提出四种特征增强方式(FA); 

    2 相关工作

    Graph Neural Networks

      GCN 和 GAT 存在的一个问题:GCN 和 GAT 需要全批处理训练,也就是说,整个图(H)应该被加载到内存中,这使得它们是可转换的,不能扩展到大型网络。

    3 方法

    3.1 数据增强

      拓扑结构:

      • 基于随机游走的 PageRank 算法:

          HPPR=α(I(1α)˜A)1(2)
          HHK=exp(tAD1t)(3)

             其中 α 是心灵传输概率 ,t 是扩散时间

      • 基于 Katz 指标的算法:

          Hkatz=(Iβ˜A)1β˜A(4)

          Katz-index是一对节点之间所有路径集的加权和,路径根据其长度进行惩罚。衰减系数(β)决定了处罚过程。

      特征增强:

      • Split:特征 X 拆分成两部分 X=X[:,:F/2]  和  X=X[:,F/2:] ,然后分别用于生成两个视图。
      • Standardize:特征矩阵进行  z-score standardization :

          X=(XTˉxs)T

          其中 ˉxRF×1 和  sRF×1  是与每个特征相关联的均值向量标准差向量

      • Local Degree Profile (LDP):提出了一种基于节点局部度轮廓计算出的五个统计量的节点特征构建机制 XRN×5 ,然后使用零填充 XRN×F 使其维度与 X 一致。 
      • Paste:是一种功能增强技术,它简单地结合了 X 和 LDP 功能,如增强功能 XRN×(F+5)。在这种情况下,在原始特征矩阵 X 上应用了一个零填充,例如 XRN×(F+5)

    3.2 框架

      总体框架如下:

        

      组成部分:

      • 组件一:生成视图,any(G) 是对原始图 G 从拓扑或特征层面进行数据增强;
      • 组件二:图自编码器 fθfϕ,一种堆叠架构,如 Figure 2 (A) 所示。概括为:X1=fθ(G1), X2=fϕ(G2)
      • 组件三:孪生网络(Siamese Network,用于评估两个输入样本的相似性)是一个投影头,类似gθ的架构,如 Figure 2 (B) 所示。本文在这发现使用这个投影头对性能没有多大提升,所以实际上并没有使用;
      • 组件四:预测块(prediction block),对学生网络(左边)使用,这个预测块可以是 MLP ,也可以是  gθ,架构如Figure 2 (B) 所示。学生网络用于从教师网络(右边)中学到有用的信息;【gθ(X1)X2

        

      须知:

      只对学生网络的参数通过梯度更新(SG),学生网络使用的损失函数如下:

        Lθ=22gθ(X1),X2gθ(X1)FX2F(5)

      教师网络参数通过学生网络使用指数移动平均(EMA,exponential moving average)进行更新。指数移动平均如下:

        ϕτϕ+(1τ)θ(6)

      这里 τ 是衰减率。

    4 实验

      数据集:

      • citation networks (Cora, Citeseer, Pubmed)
      • author collaboration networks (CS, Physics)
      • co-purchased products network (Photo, Computers)

          

      实验设置:

      • 70/10/20–train/validation/test
      • α=0.15, t=3, β=0.1

      与原始 GNN 的比较:

        

      与自监督 GNN 的比较:

        

      消融实验:

        

       Split 策略的有效性:

        

    5 结论

      本研究提出了一种新的对比自监督方法SelfGNN,它不需要显式的对比项,负样本。虽然负样本对对比学习的成功至关重要,但我们采用了批量归一化,以引入隐式负样本。此外,我们还介绍了四种与拓扑节点特征增强技术一样有效的节点特征增强技术。我们使用7个真实数据集进行了广泛的实验,结果表明SelfGNN获得了与监督GNNs相当的性能,同时明显优于半监督和自监督方法。SelfGNN依赖于两个并行的gnn同时加载到内存中,这给大型网络造成了一个主要的瓶颈。虽然本研究提出了基于聚类的改进,但需要做仔细和有原则的工作来适当地解决这个问题。这是我们未来工作的目标。

    相关论文

    Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks
    GraphSAINT: Graph Sampling Based Inductive Learning Method
    Minimal Variance Sampling with Provable Guarantees for Fast Training of Graph Neural Networks.
    GraphSAINT: Graph Sampling Based Inductive Learning Method
    MVS-GNN [9]: Minimal Variance Sampling with Provable Guarantees for Fast Training of Graph Neural Networks
    BERT[10]: Pre-training of Deep Bidirectional Transformers for Language Understanding.
    GPT [2]:Language Models are Few-Shot Learners
    A simple yet effective baseline for non-attributed graph classification
    Strategies for Pre-training Graph Neural Networks
    GPT-GNN: Generative Pre-Training of Graph Neural Networks
    GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training
    Contrastive Multi-View Representation Learning on Graphs
    Deep Graph Infomax
    Diffusion Improves Graph Learning

    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16146288.html
  • 关于博主: 评论和私信会在第一时间回复。或者直接私信我。
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    js基础笔记学习200正则表达式语法1
    去除数组中的重复数据
    信创需求激增,国产服务器操作系统赋能数字化转型
    数字孪生扫除智慧城市“盲点”,赋能社会数字发展
    Redis学习记录------Redis6常用五大数据类型(三)
    矩阵快速幂
    ARM课程发送一个字符,接收一个字符
    c-raft分布式存储方案
    亚马逊云科技的AI新引擎,如何助力企业应对“乌卡时代”?
    2-35 基于matlab的四足液压机器人设计程序
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16146288.html