• GCN 翻译 - 1


    ABSTRACT

    我们提出了一种可扩展的在以图结构为基础的数据上的半监督学习,这种方法直接作用在图数据上,可以看做是卷积神经网络的变种。我们选择了图谱理论里面的一阶近似作为我们的卷积结构。我们的模型能够随着图的规模线性伸缩,并且隐藏层的表示能够将图的局部结构和节点的特征都编码进来。在一系列的引用网络和知识图谱数据集的实验中,我们证明了我们的方法在很大的幅度超过相关方法。

    INTRODUCTION

    我们考虑在一个图结构(例如引用网络)来给节点分类的问题,只有少量的节点有label数据。这个问题可以被定义为以图为基础的半监督学习,label信息能够通过凭借图为基础的规则平滑过渡。使用图Laplacian 正则项的loss function :

    L =L _{0} + \lambda L_{reg}, with \, L_{reg} = \sum_{i,j}A_{ij}||f(X_{i}) - f(X_j) ||^{2} = f(X)^{T}\Delta f(X). \quad (1)

    这里L_{0}表示关于图上有label部分的节点的监督损失函数。f(.)是一个像神经网络一样的可微函数。\lambda是权重因子, X是节点特征向量的矩阵X_i。对于一个无向图g = (\nu ,\varepsilon ),N个结点v_{i} \in \nu,边(v_i, v_j) \in \varepsilon,邻接矩阵A\in R^{N*N}(0-1或带权重的邻接矩阵)、度数矩阵D_{ii} = \Sigma_jA_{ij}\Delta = D- A表示非归一化的图拉普拉斯矩阵。公式(1) 依赖于图中连接的节点更有可能共享相同的节点label的假设。然而,这个假设可能限制模型的能力,因为图的边可以包含其他信息,不仅仅只是编码依赖编码点的相似性。

    在这篇工作中,我们直接将图结构编码到神经网络模型f(X,A)并且对于所有有label的节点进行监督学习训练,这样可以避免特意在损失函数里面进行正则化。函数f(.)作用在邻接矩阵上能够让模型将梯度信息从监督损失L_0传播,能够让有label和没有label的节点都学习到表征。

    我们的贡献分为2部分。第一,我们提出了一个简单但是有效的layer-wise传播的规则的神经网络模型,这个模型能够直接作用在图结构上,同时在理论上能够推导出它是谱域图卷积的一阶近似。第二,我们实践说明了这种基于图的神经网络能够快速的规模化的应用于图中节点的半监督分类。在一系列数据集上的实验说明我们的模型相比于目前最好的半监督分类方法在分类准确性和效率上都有优势。

  • 相关阅读:
    第8章_瑞萨MCU零基础入门系列教程之SCI SPI
    如何在Qt Creator 中开启OpenMP
    时序预测 | MATLAB实现TCN-LSTM时间卷积长短期记忆神经网络时间序列预测
    洛谷P3065 First G
    2. Spring源码篇之Reader与Scanner
    玫瑰通行证发放中!
    连锁零食店明查暗访
    HM5080E带平衡功能、5V USB输入、8.4V/1.5A两节锂电池充电IC
    Apple pencil跟电容笔有什么区别?ipad电容笔性价比高品牌推荐
    Mathorcup数学建模竞赛第四届-【妈妈杯】C题:家庭暑假旅游套餐的设计(附MATLAB和SAS代码)
  • 原文地址:https://blog.csdn.net/zhangsj1007/article/details/136256124