参考: 总结-深度学习中的正则化方法
L1和L2正则化
原理
使复杂模型简单化。而通常来说,模型中参数数值越小,模型就越趋于简单。所以在损失函数中将模型参数大小考虑其中,希望通过损失函数来限制模型参数,从而简化模型。
L1正则化
其中:是一个超参数,通过人为设定。(应该也能通过验证集验证进行自动调整)
这使得模型训练之后,参数最终可能是0;L2正则化
Dropout
原理
特点
参考: 总结-深度学习中的正则化方法
L1和L2正则化
原理
使复杂模型简单化。而通常来说,模型中参数数值越小,模型就越趋于简单。所以在损失函数中将模型参数大小考虑其中,希望通过损失函数来限制模型参数,从而简化模型。
L1正则化
其中:是一个超参数,通过人为设定。(应该也能通过验证集验证进行自动调整)
这使得模型训练之后,参数最终可能是0;L2正则化
Dropout
原理
特点
让时间为你证明