简介
在图神经网络中,我们用 表示图顶点上的特征向量,通过上文的介绍,我们知道特征 与滤波 的谱卷积定义为:
%26%20%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%5C%5C%20%20%20%20%26%20%20%20%20%20%20%20%5Cddots%26%20%20%20%20%20%5C%5C%20%20%5Cmathbf%7B0%7D%26%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cwidehat%7Bg%7D%5Cleft(%20%5Clambda%20_n%20%5Cright)%5C%5C%20%5Cend%7Bmatrix%7D%20%5Cright%5D%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%0A#card=math&code=%5Cmathbf%7Bx%7D%5Cstar%20%5Cmathbf%7Bg%7D%3D%5Cmathbf%7BU%7D%5Cleft%5B%20%5Cbegin%7Bmatrix%7D%20%20%5Cwidehat%7Bg%7D%5Cleft%28%20%5Clambda%20_1%20%5Cright%29%26%20%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%5C%5C%20%20%20%20%26%20%20%20%20%20%20%20%5Cddots%26%20%20%20%20%20%5C%5C%20%20%5Cmathbf%7B0%7D%26%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cwidehat%7Bg%7D%5Cleft%28%20%5Clambda%20_n%20%5Cright%29%5C%5C%20%5Cend%7Bmatrix%7D%20%5Cright%5D%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%0A&id=qjdMs)
我们记 %20%3D%5Cmathbf%7BU%7D%5Cmathrm%7Bdiag%7D%5Cleft(%20%5Chat%7Bg%7D%5Cleft(%20%5Clambda%201%20%5Cright)%20%2C…%2C%5Chat%7Bg%7D%5Cleft(%20%5Clambda%20_n%20%5Cright)%20%5Cright)%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D#card=math&code=g%7B%5Ctheta%7D%5Cleft%28%20%5Cmathbf%7BL%7D%20%5Cright%29%20%3D%5Cmathbf%7BU%7D%5Cmathrm%7Bdiag%7D%5Cleft%28%20%5Chat%7Bg%7D%5Cleft%28%20%5Clambda%20_1%20%5Cright%29%20%2C…%2C%5Chat%7Bg%7D%5Cleft%28%20%5Clambda%20_n%20%5Cright%29%20%5Cright%29%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D&id=Pzke2),这里使用 下标,表示这些元素都是神经网络中需要学习的参数。这样的话,图神经网络上的卷积操作可写作:
%20%5Cmathbf%7Bx%7D%3D%5Cmathbf%7BU%7Dg%7B%5Ctheta%7D%5Cleft(%20%5Cmathbf%7B%5CLambda%20%7D%20%5Cright)%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%0A#card=math&code=%5Cmathbf%7Bg%7D%7B%5Ctheta%7D%5Cstar%20%5Cmathbf%7Bx%7D%3Dg%7B%5Ctheta%7D%5Cleft%28%20%5Cmathbf%7BL%7D%20%5Cright%29%20%5Cmathbf%7Bx%7D%3D%5Cmathbf%7BU%7Dg%7B%5Ctheta%7D%5Cleft%28%20%5Cmathbf%7B%5CLambda%20%7D%20%5Cright%29%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%0A&id=ZyyNx)
[@bruna_spectral_2014] 将 %20%2C%5Chat%7Bg%7D%5Cleft(%20%5Clambda%20_2%20%5Cright)%20%2C…%2C%5Chat%7Bg%7D%5Cleft(%20%5Clambda%20_n%20%5Cright)#card=math&code=%5Chat%7Bg%7D%5Cleft%28%20%5Clambda%20_1%20%5Cright%29%20%2C%5Chat%7Bg%7D%5Cleft%28%20%5Clambda%20_2%20%5Cright%29%20%2C…%2C%5Chat%7Bg%7D%5Cleft%28%20%5Clambda%20_n%20%5Cright%29&id=dbFuj) 看作可学习的参数 ,即:
%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%5C%5C%0A%20%20%20%20%20%20%20%20%26%3D%5Cmathbf%7BU%7D%5Cleft%5B%20%5Cbegin%7Bmatrix%7D%0A%20%20%20%20%20%20%20%20%5Ctheta%201%26%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%5C%5C%0A%20%20%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cddots%26%20%20%20%20%20%5C%5C%0A%20%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%26%20%20%20%20%20%26%20%20%20%20%20%20%20%5Ctheta%20_n%5C%5C%0A%20%20%20%20%5Cend%7Bmatrix%7D%20%5Cright%5D%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%5C%5C%0A%20%20%20%20%5Cend%7Baligned%7D%0A#card=math&code=%5Cbegin%7Baligned%7D%0A%20%20%20%20%20%20%20%20%5Cmathbf%7Bg%7D%7B%5Ctheta%7D%5Cstar%20%5Cmathbf%7Bx%7D%26%3D%5Cmathbf%7BU%7Dg_%7B%5Ctheta%7D%5Cleft%28%20%5Cmathbf%7B%5CLambda%20%7D%20%5Cright%29%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%5C%5C%0A%20%20%20%20%20%20%20%20%26%3D%5Cmathbf%7BU%7D%5Cleft%5B%20%5Cbegin%7Bmatrix%7D%0A%20%20%20%20%20%20%20%20%5Ctheta%20_1%26%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%5C%5C%0A%20%20%20%20%20%20%20%20%26%20%20%20%20%20%20%20%5Cddots%26%20%20%20%20%20%5C%5C%0A%20%20%20%20%20%20%20%20%5Cmathbf%7B0%7D%26%20%20%20%20%20%26%20%20%20%20%20%20%20%5Ctheta%20_n%5C%5C%0A%20%20%20%20%5Cend%7Bmatrix%7D%20%5Cright%5D%20%5Cmathbf%7BU%7D%5E%7B%5Cmathrm%7BT%7D%7D%5Cmathbf%7Bx%7D%5C%5C%0A%20%20%20%20%5Cend%7Baligned%7D%0A&id=Y0S3S)
然而这样定义的神经网络有不少缺陷:
- 泛化能力差: 这样学到的参数 与基 的相关性很强,在不同的图上,由于 不一样,生成的基 也不一样;此外,训练参数的数量还和顶点数 相关,因此该模型迁移到在其他图上时不一定适用。
- 计算量大:每次卷积操作都要乘 和 ,复杂度为 #card=math&code=%5Cmathcal%7BO%7D%28n%5E2%29&id=FmSTt);此外还需要对 进行显式的特征分解,其复杂度为 #card=math&code=%5Cmathcal%7BO%7D%28n%5E3%29&id=apvlL)。
- 不具备空间局部性:传统 CNN 上的卷积都具有空间局部性(Spatial localization):目标节点的输出是其邻域节点输入的线性组合,既能保障空间结构的学习,又能减少参数量。然而 Spectral CNN 模型中将所有的节点都参与计算,相当于一个全连接层,不具备空间局部性。
参考
论文:《SpectralNetworksandLocallyConnectedNetworksonGraphs》