Introduction
和上一篇文章很类似。文章认为目前的网络表示学习工作都是针对特性任务,且要在不同的数据集上分别训练模型,无法实现不同数据集上的迁移工作。因此,文章提出了GCC算法,利用图对比学习来进行图神经网络的预训练,用这种方法学习得到的对图和节点的编码器,可以直接应用到未训练数据集上,只需要进行简单微调。
(1)如何定义图中的子图结构? 给出一个节点,规定最大长度,就可以得到以该节点为中心的EGO网络。在该网路中进行随机游走,就能够得到关于该节点的子图结构。 (2)如何定义子图结构的相似性? 文章认为属于同一EGO网络的即为相似的子图结构,不同网络则不相似。此处应当注意的是,在进行随机游走后,要对游走序列中的节点重新编号,这样是为了避免在比较子图结构时,仅仅简单地比较了节点的原始编号来判断相似性。 (3)如何定义编码器? 能够将子图结构变为低维向量,并且能够对相似的结构生成相似嵌入,不相似结构生成不相似嵌入,就是合适的编码器。
Model


图中graph_q为源节点,则分子计算的就是graph_q和graph_0的相似性,它们是属于同一结构的。而在分母中,除了计算属于同一结构的graph_0,属于不同结构的graph_1和graph_2也要和graph_q进行计算并将最终结果加和。
左侧的红色节点为输入节点。以某一节点进行r层的广度搜索所生成的图即为r-ego network。在r-ego network的限制下,从输入节点做RWR(Random Walk with Restart),可以生成一系列的子图,这些子图可以作为正例。从其他节点在r-ego network做RWR,生成的一系列子图则可以当作是负例。
GCC:图上的Contrastive Coding | 作者带你读论文 (KDD 2020):链接
