Spacial based convolution
术语
Aggregation
用Neighbor’s hidden states 来更新next step 中当前节点的hidden state。 
上图中,用layer i 里黄圈内的h3的邻接节点来更新layer i+1 中的h3。
Readout
把所有nodes的feature集合起来代表整个graph。
Models
NN4G(Neural Network for Graph)

首先hidden layer 0 将nodes进行embedding,类似于word embedding的操作;
hidden layer 1 使用aggregation操作来将neighbor的信息作用于当前节点,并加上当前节点的embedding,得到下一层当前节点的hidden state。 
使用readout得到各个layer的表征,再将所有layers的表征相加得到最后的输出,即预测的结果。
DCNN(Diffusion Convolution Neural Network)

DCNN的作法是除了第0层是embedding外,其它层均是取第0层中与当前节点路径是k(layer num)的节点相加求平均。 
通过上一步骤的计算后,每层会得到一个hidden states 矩阵,其维度是num_nodes hidden_dim,将每个节点的所有层的hidden states按layer轴进行拼接得到节点的hidden state,得到每个节点的hidden state 的维度是num_layers hidden_dim,最后乘一个权值矩阵得到该节点的prediction。
DGC(Diffussion Graph Convolution)
它其实是把DCNN中layer concat这一步换成了layer add。即:
MoNET(Mixture Model Network)

它解决其它模型的一个问题,即在aggrege时无差别的对待所有邻接结点,本模型则是给每个邻接结点定义了一个权重,在aggreate时给节点施以权重。
Q:这是权重是咋计算的?
GraphSAGE
Graph Attention Network


即在MoNET的基础上,将权重值变成自己要去学(MoNET上是用节点的度来计算的权重)。
GIN(Graph IsoIsomorphism Network)
该模型建议hidden state应这样设计: 
不建议使用mean和max两种polling方式,以下给出一些直观的原因: 
如果取mean,则第一个对比的两个图被认为是一样的,如果取max,则第二个对比的两个图被认为是一样的。
未完。。。
