SIGIR 2020
场景:搜索

Model

image.png
整个模型分为三步:

  • representation
  • Encoding
  • Ranking

    Representation

    该层除了对每一个文档进行特征表示,对图输入的文档列表既可以是有序的可以是无序的。

    Document Representation

    在文中的实验,直接使用数据集提供的特征表示。

    ordinal embedding

    这里提出了一个ordinal嵌入函数P,该函数以文档的绝对排序位置作为输入,将该位置编码为与特征表示同纬度的向量。
    其中提到的“绝对排序位置”是指由排序模型生成的序列中的位置。
    该嵌入函数的存在,使得模型能够接受多种排序算法生成的不同的序列。P函数能将相同的item在不同序列中的位置信息整合到一起。

    表示层输出

    image.png

Encoding

在该步骤中利用多头SA去获取文档之间的相关信息。
image.png

Induced MSAB

MSAB对输入集合的大小比较敏感。具体来说,就是测试集的匹配集合大于训练集的大小时,模型就会失效。
故使用了Set Transformer中的IMSAB,该模块的整体过程就是将输入X投影到低维空间H,然后再重构高维输出。
image.png
这里MAB中的三个参数分别表示Q、K、V。即Q=I,K=X,V=X。
在Set Transformer里面当对集合内部进行SA的时候,设置成Q=K=V=X,这样就能不使用残差模块了。

Ranking

在该步中,将多层SA的最终输出通过一个row-wise feed-forward(rFF) Function 得到最终的评分。rFF就是就是将每一个文档表达投影到一个实数,作为其最终的评分。

Loss

attention rank loss function。计算label的注意力分布和预测分数的注意力分布的距离。

image.png