[toc]

卷积

数学函数 - 图1

数学函数 - 图2

利用一点性质,即两函数的傅里叶变换的乘积等于它们卷积后的傅里叶变换,能使傅里叶分析中许多问题的处理得到简化。

卷积得到的函数f*g一般要比f和g都光滑

激活函数

https://blog.csdn.net/tyhj_sf/article/details/79932893

https://zhuanlan.zhihu.com/p/32610035

sigmoid

将实数压缩为[0,1]

数学函数 - 图3

数学函数 - 图4

softmax:

将一个含任意实数的K维向量 “压缩”到另一个K维实向量 中,使得每一个元素的范围都在[0,1]之间,并且所有元素的和为1

数学函数 - 图5

ReLU线性整流函数(Rectified Linear Unit)

f(x) = max(0, x)

f(x) = max(0, wx+b)

Maxout

数学函数 - 图6

数学函数 - 图7

tan h 双曲正切

数学函数 - 图8

过原点,奇函数,定义域:R,值域:(-1,1)

范数(norm)

数学函数 - 图9

L1范数又称稀疏规则算子”(Lasso regularization)

L0范数是向量中非0的元素的个数

矩阵范数

https://zhuanlan.zhihu.com/p/35897775

数学函数 - 图10

常用损失函数

1. 0-1损失函数

数学函数 - 图11

2. 绝对值损失函数

数学函数 - 图12

3. 平方损失函数 (MSE)

数学函数 - 图13

4. 指数损失函数

数学函数 - 图14

5. 对数损失函数

数学函数 - 图15

6. 合页损失函数

数学函数 - 图16

7. 交叉熵损失函数(cross_entropy)

参考:https://zhuanlan.zhihu.com/p/38241764

二分类
0-1分类的交叉熵损失函数

数学函数 - 图17
其中数学函数 - 图18是神经网络的输出(sigmoid的输出),是极大似然估计的参数Θ,代表模型当前样本的y为1的概率,具体值由输入x决定,每个样本都有自己的数学函数 - 图19
y是观测值,样本的真实类。

多分类

数学函数 - 图20

数学函数 - 图21

sigmoid(softmax)+cross-entropy loss 擅长于学习类间的信息,因为它采用了类间竞争机制,它只关心对于正确标签预测概率的准确性,忽略了其他非正确标签的差异,导致学习到的特征比较散。基于这个问题的优化有很多,比如对softmax进行改进,如L-Softmax、SM-Softmax、AM-Softmax等。