loss = nn.MSELoss(size_average=False, reduce=False)

    • size_average=True,将计算 mini batch 中每个样本的平均误差

    • reduce=False,会分别计算每个样本的误差,如果 mini batch 的大小是 10,将会返回一个 10 个值的向量。一般都会设置 reduce=True

    center loss
    https://blog.csdn.net/sinat_37787331/article/details/80296964
    在评论中有人提问:02-损失函数 - 图1
    对于这些损失函数的解释:https://blog.csdn.net/hao5335156/article/details/80607732
    NLLLoss 的 输入 是一个对数概率向量和一个目标标签. 它不会为我们计算对数概率. 适合网络的最后一层是log_softmax. 损失函数 nn.CrossEntropyLoss() 与 NLLLoss() 相同, 唯一的不同是它为我们去做 softmax.