做多标签分类的时候,如果标签是关联的,用nn.CrossEntropyLoss,会自动在该层前加上softmax。
    CrossEntropyLoss用于多类别分类,输出和目标的维度是(batch,C),batch是样本数量,C是类别数量,每一个C之间是互斥的,相互关联的,对于每一个batch的C个值,一起求每个C的softmax,所以每个batch的所有C个值之和是1,哪个值大,代表其属于哪一类。如果用于二分类,那输出和目标的维度是(batch,2)。
    交叉熵损失函数公式如下。其中x表示模型输出的结果,y表示真实结果。
    BCELoss vs CrossEntropyLoss - 图1

    如果标签是不关联的,用nn.BCEWithLogitsLoss,会自动在该层前面加上sigmoid。
    (BCELoss)BCEWithLogitsLoss用于单标签二分类或者多标签二分类,输出和目标的维度是(batch,C),batch是样本数量,C是类别数量,对于每一个batch的C个值,对每个值求sigmoid到0-1之间,所以每个batch的C个值之间是没有关系的,相互独立的,所以之和不一定为1。每个C值代表属于一类标签的概率。如果是单标签二分类,那输出和目标的维度是(batch,1)即可。
    BCELoss公式如下。其中x表示模型输出的结果,y表示真实结果。
    BCELoss vs CrossEntropyLoss - 图2