GCN Note

参考:

PAPER:SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS. ICLR 2017

图卷积神经网络(GCN)的数学原理详解——谱图理论和傅立叶变换初探_哔哩哔哩_bilibili

直观理解:GCN详解 - mathor (wmathor.com)

  • 我们的每一层GCN的输入都是邻接矩阵A和node的特征H,那么我们直接做一个内积,再乘一个参数矩阵W,然后激活一下,就相当于一个简单的神经网络层嘛,是不是也可以呢?

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图3%7D%3D%5Csigma(AH%5E%7B(l)%7D%5Ctheta)%0A#card=math&code=H%5E%7B%28l%2B1%29%7D%3D%5Csigma%28AH%5E%7B%28l%29%7D%5Ctheta%29%0A&id=ZMdum)

  • 实验证明,即使就这么简单的神经网络层,就已经很强大了。这个简单模型应该大家都能理解吧,这就是正常的神经网络操作。
    但是这个简单模型有几个局限性:
    1. 只使用A的话,由于A的对角线上都是0,所以在和特征矩阵H相乘的时候,只会计算一个node的所有邻居的特征的加权和,该node自己的特征却被忽略了。因此,我们可以做一个小小的改动,给A加上一个单位矩阵 I ,这样就让对角线元素变成1了。
    2. A是没有经过归一化的矩阵,这样与特征矩阵相乘会改变特征原本的分布,产生一些不可预测的问题。所以我们对A做一个标准化处理。首先让A的每一行加起来为1,我们可以乘以一个D的逆,D就是度矩阵。我们可以进一步把D的拆开与A相乘,得到一个对称且归一化的矩阵 :。
  • 通过对上面两个局限的改进,我们便得到了最终的层特征传播公式

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图4%7D%3D%5Csigma(%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Ctilde%7BA%7D%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DH%5E%7B(l)%7D%5Ctheta)%0A#card=math&code=H%5E%7B%28l%2B1%29%7D%3D%5Csigma%28%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Ctilde%7BA%7D%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DH%5E%7B%28l%29%7D%5Ctheta%29%0A&id=FBPZm)

Basic of GCN

  • 图image是图graph的一种特例
  • GNN [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图5%7D%3Df(A%2CH%5E%7B(l)%7D)%0A#card=math&code=H%5E%7B%28l%2B1%29%7D%3Df%28A%2CH%5E%7B%28l%29%7D%29%0A&id=DCXxC)
    不同的GNN模型都是在探究不同[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图6的形式
  • GCN(只考虑无向简单图) [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图7%7D%3D%5Csigma(%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Ctilde%7BA%7D%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DH%5E%7B(l)%7D%5Ctheta)%0A#card=math&code=H%5E%7B%28l%2B1%29%7D%3D%5Csigma%28%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Ctilde%7BA%7D%5Ctilde%7BD%7D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DH%5E%7B%28l%29%7D%5Ctheta%29%0A&id=WE4el)
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图8:adjacency matrix :邻接矩阵
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图9 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图10是单位矩阵
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图11: degree matrix :度矩阵
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图12
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图13: 可训练的参数,对输入的feature进行线性变换
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图14: 激活函数sigma()

对于只有对角线上有非零元素的矩阵来说,求幂就是对对角线上的元素求对应次幂。例如:

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图15#card=math&code=%5Cleft%28%5Cbegin%7Bmatrix%7D4%260%260%5C%5C0%262%260%5C%5C0%260%262%5Cend%7Bmatrix%7D%5Cright%29&id=DpH92) 求[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图16次方幂: [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图17#card=math&code=%5Cleft%28%5Cbegin%7Bmatrix%7D4%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%260%260%5C%5C0%262%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%260%5C%5C0%260%262%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cend%7Bmatrix%7D%5Cright%29&id=mzCmr)

  • GCN实际就是先对图的[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图18邻接矩阵加了一个自环,再进行对称归一化(左右分别乘以[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图19[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图20次方),然后将得到的矩阵对输入的特征矩阵进行聚合得到自己和邻居的加权平均的feature信息。

Spectral Graph Theory

附加:linear algebra recap.

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图21:adjacency matrix :邻接矩阵
  • 邻接矩阵表示顶点间关系,是n阶方阵(n为顶点数量)。
  • 邻接矩阵分为有向图邻接矩阵和无向图邻接矩阵。
  • 无向图邻接矩阵是对称矩阵,而有向图的邻接矩阵不一定对称。

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图22: degree matrix :度矩阵
  • 度矩阵是对角阵,对角上的元素为各个顶点的度。
  • 顶点[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图23的度表示和该顶点相关联的边的数量。
  • 无向图中顶点[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图24的度[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图25%3DN(i)#card=math&code=d%28v_i%29%3DN%28i%29&id=coPKP)。([论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图26#card=math&code=N%28i%29&id=p9nET)表示顶点[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图27的邻居)

eigenvalue (特征值) eigenvector(特征向量)
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图28 则说[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图29是矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图30的特征值,[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图31是其特征向量
  • 如果一个矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图32是实对称矩阵(real symmefric matrix),那它一定有n个特征值,并且这n个特征值对应着n个互相正交的特征向量。
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图33 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图34 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图35#card=math&code=%5CLambda%3D%5Cleft%28%5Cbegin%7Bmatrix%7D%5Clambda_1%5C%5C%26%5Clambda_2%5C%5C%26%26%5Cddots%5C%5C%26%26%26%5Clambda_n%5Cend%7Bmatrix%7D%5Cright%29&id=ZRc1J)

半正定矩阵(positive semi-definite matrix)
  • 所有特征值都大于等于0的矩阵

二次型(quadratic form)
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图36 称为 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图37对于矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图38的二次型

瑞利商Rayleigh quotient
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图39关于矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图40的二次型与[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图41关于单位矩阵的二次型的比值,即[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图42
  • 假如[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图43[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图44的一个特征向量,那么可以证明对应瑞利商是[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图45相应的特征值

证明如下:

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图46%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%3D%5Cfrac%7B%5Clambda(%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D)%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%3D%5Clambda%0A#card=math&code=%5Cfrac%7B%5Cvec%7Bx%7D%5E%7BT%7DA%5Cvec%7Bx%7D%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%3D%5Cfrac%7B%5Cvec%7Bx%7D%5E%7BT%7D%28%5Clambda%5Cvec%7Bx%7D%29%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%3D%5Cfrac%7B%5Clambda%28%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%29%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%3D%5Clambda%0A&id=weGD5)

spectral graph theory

  • 谱图理论是研究和图邻接矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图47相关的一些性质。

研究和GCN主要相关的矩阵
  • 拉普拉斯矩阵 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图48
  • 拉普拉斯矩阵的对称规范化 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图49
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图50[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图51都是实对称矩阵(positive semi-definite),都具有n个特征值和n个特征向量,都可以分解为[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图52的形式。
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图53[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图54都是半正定矩阵,所以他们的特征值都是大于等于0的。

    证明[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图55[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图56都是半正定的:

    • 证明思路:证明矩阵瑞利商[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图57都是大于等于0的。
    • 对于[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图58 :
      1. 分母[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图59[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图60的模长,所以衡大于等于0
      2. 构造辅助矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图61%7D#card=math&code=G%7B%28i%2Cj%29%7D&id=kiAHo)(除了![](https://g.yuque.com/gr/latex?g%7B(i%2Ci)%7D#card=math&code=g%7B%28i%2Ci%29%7D&id=iH1sz)和![](https://g.yuque.com/gr/latex?g%7B(j%2Cj)%7D#card=math&code=g%7B%28j%2Cj%29%7D&id=MPjdY)是1,![](https://g.yuque.com/gr/latex?g%7B(i%2Cj)%7D#card=math&code=g%7B%28i%2Cj%29%7D&id=t41AW)和![](https://g.yuque.com/gr/latex?g%7B(j%2Ci)%7D#card=math&code=g%7B%28j%2Ci%29%7D&id=andKc)是-1,其他位置都是0)
        ![](https://g.yuque.com/gr/latex?G
        %7B(i%2Cj)%7D%3D%5Cleft(%5Cbegin%7Bmatrix%7D%5Cddots%5C%5C%261%26%26-1%5C%5C%26%26%5Cddots%26%5C%5C%26-1%26%261%26%5C%5C%26%26%26%26%5Cddots%5Cend%7Bmatrix%7D%5Cright)#card=math&code=G%7B%28i%2Cj%29%7D%3D%5Cleft%28%5Cbegin%7Bmatrix%7D%5Cddots%5C%5C%261%26%26-1%5C%5C%26%26%5Cddots%26%5C%5C%26-1%26%261%26%5C%5C%26%26%26%26%5Cddots%5Cend%7Bmatrix%7D%5Cright%29&id=wKxFp)
        则![](https://g.yuque.com/gr/latex?L%3D%5Csum
        %7B(i%2Cj)%5Cin%20E%7DG%7B(i%2Cj)%7D#card=math&code=L%3D%5Csum%7B%28i%2Cj%29%5Cin%20E%7DG%7B%28i%2Cj%29%7D&id=R81yD) (即所有边的G矩阵之和为拉普拉斯矩阵)
        而([论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图62的二次型)![](https://g.yuque.com/gr/latex?%5Cvec%7Bx%7D%5ET%20G
        %7B(i%2Cj)%7D%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%7B%5Cleft(%5Cbegin%7Bmatrix%7D%5Cvdots%5C%5Cxi-x_j%5C%5C%5Cvdots%5C%5Cx_j-x_i%5C%5C%5Cvdots%5Cend%7Bmatrix%7D%5Cright)%7D%3Dx_i(x_i-x_j)%2Bx_j(x_j-x_i)%3D(x_i-x_j)%5E2#card=math&code=%5Cvec%7Bx%7D%5ET%20G%7B%28i%2Cj%29%7D%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%7B%5Cleft%28%5Cbegin%7Bmatrix%7D%5Cvdots%5C%5Cxi-x_j%5C%5C%5Cvdots%5C%5Cx_j-x_i%5C%5C%5Cvdots%5Cend%7Bmatrix%7D%5Cright%29%7D%3Dx_i%28x_i-x_j%29%2Bx_j%28x_j-x_i%29%3D%28x_i-x_j%29%5E2&id=tn1JF)
        [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图63的二次型(即分子): ![](https://g.yuque.com/gr/latex?%5Cvec%7Bx%7D%5E%7BT%7DL%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D(%5Csum%20G
        %7B(i%2Cj)%7D)%5Cvec%7Bx%7D%3D%5Csum%7B(i%2Cj)%5Cin%20E%7D%7B(x_i-x_j)%5E2%7D%5Cgeq0#card=math&code=%5Cvec%7Bx%7D%5E%7BT%7DL%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%28%5Csum%20G%7B%28i%2Cj%29%7D%29%5Cvec%7Bx%7D%3D%5Csum_%7B%28i%2Cj%29%5Cin%20E%7D%7B%28x_i-x_j%29%5E2%7D%5Cgeq0&id=zcQjt)
  • 对于[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图64
    1. 分母同上
    2. 分子:
      [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图65L(D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D)%3D%5Csum(%5Cfrac%7Bxi%7D%7B%5Csqrt%7Bd_i%7D%7D-%5Cfrac%7Bx_j%7D%7B%5Csqrt%7Bd_j%7D%7D)%5E2%5Cgeq%200#card=math&code=%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%3D%28%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%29L%28D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%29%3D%5Csum%28%5Cfrac%7Bx_i%7D%7B%5Csqrt%7Bd_i%7D%7D-%5Cfrac%7Bx_j%7D%7B%5Csqrt%7Bd_j%7D%7D%29%5E2%5Cgeq%200&id=dF4Ys)
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图66 的特征值大于等于0并且小于等于2

证明如下:

  1. 辅助矩阵G:[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图67%7D%5E%7Bpos%7D%3D%5Cleft(%5Cbegin%7Bmatrix%7D%5Cddots%5C%5C%261%26%261%5C%5C%26%26%5Cddots%26%5C%5C%261%26%261%26%5C%5C%26%26%26%26%5Cddots%5Cend%7Bmatrix%7D%5Cright)#card=math&code=G%7B%28i%2Cj%29%7D%5E%7Bpos%7D%3D%5Cleft%28%5Cbegin%7Bmatrix%7D%5Cddots%5C%5C%261%26%261%5C%5C%26%26%5Cddots%26%5C%5C%261%26%261%26%5C%5C%26%26%26%26%5Cddots%5Cend%7Bmatrix%7D%5Cright%29&id=p7yhg)
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图68的二次型:![](https://g.yuque.com/gr/latex?%5Cvec%7Bx%7D%5ET%20G
    %7B(i%2Cj)%7D%5E%7Bpos%7D%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%7B%5Cleft(%5Cbegin%7Bmatrix%7D%5Cvdots%5C%5Cxi%2Bx_j%5C%5C%5Cvdots%5C%5Cx_j%2Bx_i%5C%5C%5Cvdots%5Cend%7Bmatrix%7D%5Cright)%7D%3Dx_i(x_i%2Bx_j)%2Bx_j(x_j%2Bx_i)%3D(x_i%2Bx_j)%5E2#card=math&code=%5Cvec%7Bx%7D%5ET%20G%7B%28i%2Cj%29%7D%5E%7Bpos%7D%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%7B%5Cleft%28%5Cbegin%7Bmatrix%7D%5Cvdots%5C%5Cxi%2Bx_j%5C%5C%5Cvdots%5C%5Cx_j%2Bx_i%5C%5C%5Cvdots%5Cend%7Bmatrix%7D%5Cright%29%7D%3Dx_i%28x_i%2Bx_j%29%2Bx_j%28x_j%2Bx_i%29%3D%28x_i%2Bx_j%29%5E2&id=SeXAv)
    定义 ![](https://g.yuque.com/gr/latex?L%5E%7Bpos%7D%3DD%2BA%3D%5Csum
    %7B(i%2Cj)%5Cin%20E%7D%20G%7B(i%2Cj)%7D%5E%7Bpos%7D#card=math&code=L%5E%7Bpos%7D%3DD%2BA%3D%5Csum%7B%28i%2Cj%29%5Cin%20E%7D%20G%7B%28i%2Cj%29%7D%5E%7Bpos%7D&id=VcONB)
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图69的二次型:
    ![](https://g.yuque.com/gr/latex?%5Cvec%7Bx%7D%5E%7BT%7DL%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D(%5Csum%20G
    %7B(i%2Cj)%7D)%5Cvec%7Bx%7D%3D%5Csum%7B(i%2Cj)%5Cin%20E%7D%7B(x_i%2Bx_j)%5E2%7D%5Cgeq0#card=math&code=%5Cvec%7Bx%7D%5E%7BT%7DL%5Cvec%7Bx%7D%3D%5Cvec%7Bx%7D%5E%7BT%7D%28%5Csum%20G%7B%28i%2Cj%29%7D%29%5Cvec%7Bx%7D%3D%5Csum%7B%28i%2Cj%29%5Cin%20E%7D%7B%28x_i%2Bx_j%29%5E2%7D%5Cgeq0&id=tgYw9)
    同理![](https://g.yuque.com/gr/latex?L%5E%7Bpos%7D
    %7Bsym%7D%3DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DL%5E%7Bpos%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D#card=math&code=L%5E%7Bpos%7D%7Bsym%7D%3DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DL%5E%7Bpos%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D&id=JinZm)的二次型:
    ![](https://g.yuque.com/gr/latex?%5Cvec%7Bx%7D%5E%7BT%7DL
    %7Bsym%7D%5Cvec%7Bx%7D%3D%5Csum(%5Cfrac%7Bxi%7D%7B%5Csqrt%7Bd_i%7D%7D%2B%5Cfrac%7Bx_j%7D%7B%5Csqrt%7Bd_j%7D%7D)%5E2%5Cgeq%200#card=math&code=%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%3D%5Csum%28%5Cfrac%7Bx_i%7D%7B%5Csqrt%7Bd_i%7D%7D%2B%5Cfrac%7Bx_j%7D%7B%5Csqrt%7Bd_j%7D%7D%29%5E2%5Cgeq%200&id=YKKJN)
  2. 然后对[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图70展开:
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图71
    代入到[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图72中: [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图73%5Cvec%7Bx%7D%5Cgeq0%20%5CRightarrow%20%5C%5C%0A%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%2B%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%5Cgeq0%20%5CRightarrow%20%5C%5C%0A%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20-%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D-%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7D(I-D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D)%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D(D-A)D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cgeq%20%5Cfrac%7B%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%0A#card=math&code=%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%5Cgeq0%20%5CRightarrow%20%5C%5C%20%0A%5Cvec%7Bx%7D%5E%7BT%7D%28I%2BD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%29%5Cvec%7Bx%7D%5Cgeq0%20%5CRightarrow%20%5C%5C%0A%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%2B%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%5Cgeq0%20%5CRightarrow%20%5C%5C%0A%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20-%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D-%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7D%28I-D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%29%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%28D-A%29D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%5Cgeq%20%5Cvec%7Bx%7D%5E%7BT%7DL%7Bsym%7D%5Cvec%7Bx%7D%20%5CRightarrow%20%5C%5C%0A2%5Cgeq%20%5Cfrac%7B%5Cvec%7Bx%7D%5E%7BT%7DL_%7Bsym%7D%5Cvec%7Bx%7D%7D%7B%5Cvec%7Bx%7D%5E%7BT%7D%5Cvec%7Bx%7D%7D%0A&id=q3UbR)

Fourier Transform(傅里叶变换)

  • 傅里叶变换:研究同一个事物在不同的域不同的视角是怎么样的,以及在不同的域之间进行变换
  • 由傅里叶变换可以知道,任何周期函数,都可以看作是不同振幅,不同相位正弦波的叠加。
  • 由傅里叶变换,可以将函数从时域转换为频域;同时由傅里叶逆变换可以将频域再转换为时域。转换是无损的。
  • 为什么进行傅里叶变换?
    • 时域内不好处理的函数,转换为频域中的函数,可能就变得比较好操作。
  • 注:傅里叶变换是一种思想,基底不一定必须是正弦波函数,也可以是其他函数。

    例如:FFT算法

    • 已知[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图74%3Da_0%2Ba_1x%2B…%2Ba_nx%5En%2C%20%5C%5C%20g(x)%3Db_0%2Bb_1x%2B…%2Bb_nx%5En#card=math&code=f%28x%29%3Da_0%2Ba_1x%2B…%2Ba_nx%5En%2C%20%5C%5C%20g%28x%29%3Db_0%2Bb_1x%2B…%2Bb_nx%5En&id=TR5Ft) 求解:[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图75g(x)#card=math&code=f%28x%29g%28x%29&id=FmfUZ)
    • 即确定[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图76g(x)%3Dc0%2Bc_1x%2B…c%7B2n%7Dx%5E%7B2n%7D#card=math&code=f%28x%29g%28x%29%3Dc0%2Bc_1x%2B…c%7B2n%7Dx%5E%7B2n%7D&id=Focbd)中[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图77的值。
    • 采用傅里叶变换思想:(转换为点域)
      由傅里叶快速变换通过复杂度O(nlogn)可确定:
      [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图78%5CLeftrightarrow%20(x1%2Cf(x_1))%2C%20(x_2%2Cf(x_2))%2C…(x%7Bn%2B1%7D%2Cf(x%7Bn%2B1%7D))%5C%5Cg(x)%5CLeftrightarrow%20(x_1%2Cg(x_1))%2C%20(x_2%2Cg(x_2))%2C…(x%7Bn%2B1%7D%2Cg(x%7Bn%2B1%7D))#card=math&code=f%28x%29%5CLeftrightarrow%20%28x_1%2Cf%28x_1%29%29%2C%20%28x_2%2Cf%28x_2%29%29%2C…%28x%7Bn%2B1%7D%2Cf%28x%7Bn%2B1%7D%29%29%5C%5Cg%28x%29%5CLeftrightarrow%20%28x_1%2Cg%28x_1%29%29%2C%20%28x_2%2Cg%28x_2%29%29%2C…%28x%7Bn%2B1%7D%2Cg%28x%7Bn%2B1%7D%29%29&id=zg9cA)
      由复杂度O(n)可确定:
      [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图79g(x)%5CLeftrightarrow%20(x_1%2Cf(x_1)g(x_1))%2C%20(x_2%2Cf(x_2)g(x_2))%2C…(x
      %7Bn%2B1%7D%2Cf(x%7Bn%2B1%7D)g(x%7Bn%2B1%7D))#card=math&code=f%28x%29g%28x%29%5CLeftrightarrow%20%28x1%2Cf%28x_1%29g%28x_1%29%29%2C%20%28x_2%2Cf%28x_2%29g%28x_2%29%29%2C…%28x%7Bn%2B1%7D%2Cf%28x%7Bn%2B1%7D%29g%28x%7Bn%2B1%7D%29%29&id=GrtfX)

n次多项式,可以由n+1个不同的点唯一的确定

Graph上的傅里叶变换

  • 图像Image具有比较规则的拓扑结构,所以可以给定确定的kernel进行卷积。而图Graph的拓扑结构比较复杂,没办法给定确定的kernel进行卷积。
  • [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图80
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图81:拉普拉斯矩阵
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图82:某个点的feature向量 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图83%5Cin%20E%7D(x1-x_j)%5C%5C%5Csum%7B(2%2Cj)%5Cin%20E%7D(x2-x_j)%5C%5C%5Cvdots%5C%5C%5Csum%7B(n%2Cj)%5Cin%20E%7D(xn-x_j)%5Cend%7Bmatrix%7D%5Cright)%0A#card=math&code=L%5Cvec%20x%3D%5Cleft%28%5Cbegin%7Bmatrix%7D%5Csum%7B%281%2Cj%29%5Cin%20E%7D%28x1-x_j%29%5C%5C%5Csum%7B%282%2Cj%29%5Cin%20E%7D%28x2-x_j%29%5C%5C%5Cvdots%5C%5C%5Csum%7B%28n%2Cj%29%5Cin%20E%7D%28x_n-x_j%29%5Cend%7Bmatrix%7D%5Cright%29%0A&id=qoYKC)

    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图84相当于对该点与其附近的点做了类似卷积的操作

    • 根据[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图85是一个实对称且半正定的矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图86 这样在新的域内,卷积操作类似于:对[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图87乘以[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图88进行变换,然后再乘以[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图89进行不同维度的放缩,最后再进行逆变换[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图90,这将使得卷积操作变得简单很多。
  • 对于Graph的拉普拉斯矩阵[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图91进行特征分解的复杂度过高[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图92#card=math&code=O%28n%5E2%29&id=awEJL),所以GCN对图Graph进行限制,不需要再进行求解特征矩阵来实现图卷积,以此减少复杂度

GCN

  • 假设已经有函数[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图93%5Crightarrow%20L#card=math&code=F%28A%29%5Crightarrow%20L&id=HwJpI)或者[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图94%5Crightarrow%20L%7Bsym%7D#card=math&code=F%28A%29%5Crightarrow%20L%7Bsym%7D&id=mTdOe)或者[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图95%5Crightarrow%20%E5%AE%9E%E5%AF%B9%E7%A7%B0%E7%9F%A9%E9%98%B5#card=math&code=F%28A%29%5Crightarrow%20%E5%AE%9E%E5%AF%B9%E7%A7%B0%E7%9F%A9%E9%98%B5&id=hVRLh)

    • 那么[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图96%3DU%5CLambda%20U%5ET#card=math&code=F%28A%29%3DU%5CLambda%20U%5ET&id=S52Z5)
    • 则图上的卷积操作可以定义为[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图97U%5ET%20%5Cvec%20x#card=math&code=g%7B%5Ctheta%7D%5Cstar%5Cvec%7Bx%7D%3D%5Ctheta%20L%5Cvec%20x%3D%5Ctheta%20U%5CLambda%20U%5ET%20%5Cvec%20x%3DUg%7B%5Ctheta%7D%28%5CLambda%29U%5ET%20%5Cvec%20x&id=Izj3k)

      即对于[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图98先乘以[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图99转换为频域上操作,再进行不同维度的缩放(缩放函数[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图100#card=math&code=g_%7B%5Ctheta%7D%28%5CLambda%29&id=tjgGx)即为训练的目标函数),最后再乘以[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图101转换回原来的域,即完成了对周围点的卷积。

    • 为了不再求特征分解,我们对[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图102#card=math&code=g%7B%5Ctheta%7D%28%5CLambda%29&id=eGiNq)进行限制:
      限制![](https://g.yuque.com/gr/latex?g
      %7B%5Ctheta%7D(%5CLambda)#card=math&code=g%7B%5Ctheta%7D%28%5CLambda%29&id=z7w9Q)可以用多项式进行表示,即:
      ![](https://g.yuque.com/gr/latex?g
      %7B%5Ctheta%7D(%5CLambda)%3D%5Ctheta0%5CLambda%5E0%2B%5Ctheta_1%5CLambda%5E1%2B…%2B%5Ctheta_n%5CLambda%5En%2B…#card=math&code=g%7B%5Ctheta%7D%28%5CLambda%29%3D%5Ctheta0%5CLambda%5E0%2B%5Ctheta_1%5CLambda%5E1%2B…%2B%5Ctheta_n%5CLambda%5En%2B…&id=zFgkj)
      那么![](https://g.yuque.com/gr/latex?Ug
      %7B%5Ctheta%7D(%5CLambda)U%5ET%3Dg%7B%5Ctheta%7D(U%5CLambda%20U%5ET)%3Dg%7B%5Ctheta%7D(F(A))#card=math&code=Ug%7B%5Ctheta%7D%28%5CLambda%29U%5ET%3Dg%7B%5Ctheta%7D%28U%5CLambda%20U%5ET%29%3Dg_%7B%5Ctheta%7D%28F%28A%29%29&id=DFLcP)

      等式成立原因:[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图103%5Ek%3DU%5CLambda%20U%5ETU%5CLambda%20U%5ET…U%5CLambda%20U%5ET%3DU%5CLambda%20%5Ek%20U%5ET#card=math&code=%28U%5CLambda%20U%5ET%29%5Ek%3DU%5CLambda%20U%5ETU%5CLambda%20U%5ET…U%5CLambda%20U%5ET%3DU%5CLambda%20%5Ek%20U%5ET&id=DE2gA)

实际操作时,并不会采用线性函数来拟合[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图104%3D%5Ctheta0%5CLambda%5E0%2B%5Ctheta_1%5CLambda%5E1%2B…%2B%5Ctheta_n%5CLambda%5En%2B…#card=math&code=g%7B%5Ctheta%7D%28%5CLambda%29%3D%5Ctheta_0%5CLambda%5E0%2B%5Ctheta_1%5CLambda%5E1%2B…%2B%5Ctheta_n%5CLambda%5En%2B…&id=i0g9B),因为可能会产生梯度消失或梯度爆炸的情况,所以往往采用切比雪夫多项式

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图105%3D2xT%7Bn-1%7D-T%7Bn-2%7D(x)%5C%5CT0(x)%3D1%2CT_1(x)%3Dx%0A#card=math&code=T_n%28x%29%3D2xT%7Bn-1%7D-T_%7Bn-2%7D%28x%29%5C%5CT_0%28x%29%3D1%2CT_1%28x%29%3Dx%0A&id=NOSYA)

  • 切比雪夫多项式不会发生梯度消失或梯度爆炸的情况,因为它满足性质:
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图106%3D%5Ccos%20n%5Ctheta#card=math&code=T_n%28%5Ccos%20%5Ctheta%29%3D%5Ccos%20n%5Ctheta&id=d9yp5)
    即自变量取值[-1,1]时,无论n多大,函数都有一个规律的波动。
  • 所以我们只需要保证输入的x的取值在[-1,1]之间即可,前文已经证明过[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图107的特征值的取值范围为[0,2],所以只要将其转换到[-1,1]之间即可。
    [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图108%3DL%7Bsym%7D-I#card=math&code=F%28A%29%3DL%7Bsym%7D-I&id=vsvbn)
  • 则图上的卷积操作可以定义为 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图109U%5ET%20%5Cvec%20x%3DU(%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5Ctheta_kT_k(%5CLambda))U%5ET%5Cvec%7Bx%7D%5C%5C%3D%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5CthetakT_k(U%5CLambda%20U%5ET)%5Cvec%20x%3D%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5CthetakT_k(L%7Bsym%7D-I)%5Cvec%20x%0A#card=math&code=g%7B%5Ctheta%7D%5Cstar%20%5Cvec%7Bx%7D%3DUg%7B%5Ctheta%7D%28%5CLambda%29U%5ET%20%5Cvec%20x%3DU%28%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5Ctheta_kT_k%28%5CLambda%29%29U%5ET%5Cvec%7Bx%7D%5C%5C%3D%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5CthetakT_k%28U%5CLambda%20U%5ET%29%5Cvec%20x%3D%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5CthetakT_k%28L%7Bsym%7D-I%29%5Cvec%20x%0A&id=T0zN3)
    • 为了进一步缩小计算量,GCN只考虑k<2的情况

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图110%5Cvec%20x%5Capprox(%5Ctheta0T_0(L%7Bsym%7D-I)%2B%5Ctheta1T_1(L%7Bsym%7D-I))%5Cvec%7Bx%7D%5C%5C%3D%5Ctheta0%5Cvec%20x%2B%5Ctheta_1(L%7Bsym%7D-I)%5Cvec%20x%0A#card=math&code=g%7B%5Ctheta%7D%5Cstar%5Cvec%7Bx%7D%3D%5Csum%7Bk%3D0%7D%5E%7Bk%7D%5CthetakT_k%28L%7Bsym%7D-I%29%5Cvec%20x%5Capprox%28%5Ctheta0T_0%28L%7Bsym%7D-I%29%2B%5Ctheta1T_1%28L%7Bsym%7D-I%29%29%5Cvec%7Bx%7D%5C%5C%3D%5Ctheta0%5Cvec%20x%2B%5Ctheta_1%28L%7Bsym%7D-I%29%5Cvec%20x%0A&id=mE5QS)
又由:
[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图111D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%3DI-D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%0A#card=math&code=L%7Bsym%7D%3DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DLD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%3DD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%28D-A%29D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%3DI-D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%0A&id=usG1t)
所以:
![](https://g.yuque.com/gr/latex?g
%7B%5Ctheta%7D%5Cstar%5Cvec%7Bx%7D%3D%5Ctheta0%5Cvec%20x-%5Ctheta_1D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%20x%0A#card=math&code=g%7B%5Ctheta%7D%5Cstar%5Cvec%7Bx%7D%3D%5Ctheta_0%5Cvec%20x-%5Ctheta_1D%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%5Cvec%20x%0A&id=QkrGz)

  • 然后GCN在推导过程中使用了一些正则化和trick:
    • 正则化:[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图112[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图113共享参数 [论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图114

[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图115%5Cvec%20x%0A#card=math&code=g_%7B%5Ctheta%7D%5Cstar%5Cvec%7Bx%7D%3D%5Ctheta%28I%2BD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7DAD%5E%7B-%5Cfrac%7B1%7D%7B2%7D%7D%29%5Cvec%20x%0A&id=ZvEg7)

  • 变化:[论文笔记]Graph Convolutional Network(GCN) 图卷积网络原理 - 图116