深度学习符号

此笔记中使用的数学符号参考自《深度学习》和 Deep learning specialization

常用的定义

  • 原版符号定义中,Notation - 图1%7D#card=math&code=x%5E%7B%28i%29%7D&id=ZXyjL) 与 Notation - 图2 存在混用的情况,请注意识别

数据标记与上下标

  • 上标 Notation - 图3%7D#card=math&code=%5E%7B%28i%29%7D&id=Mt2A1) 代表第 Notation - 图4 个训练样本
  • 上标 Notation - 图5 代表第 Notation - 图6
  • Notation - 图7 数据集的样本数
  • 下标 Notation - 图8 输入数据
  • 下标 Notation - 图9 输出数据
  • Notation - 图10 输入大小
  • Notation - 图11 输出大小 (或者类别数)
  • Notation - 图12Notation - 图13 层的隐藏单元数
  • Notation - 图14 神经网络的层数
  • 在循环中
    • Notation - 图15
    • Notation - 图16

神经网络模型

  • Notation - 图17 代表输入的矩阵
  • Notation - 图18%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bn_x%7D#card=math&code=x%5E%7B%28i%29%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bn_x%7D&id=fzHdB) 代表第 Notation - 图19 个样本的列向量
  • Notation - 图20 是标记矩阵
  • Notation - 图21%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bn_y%7D#card=math&code=y%5E%7B%28i%29%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bn_y%7D&id=urbMh) 是第 Notation - 图22样本的输出标签
  • Notation - 图23%7D#card=math&code=W%5E%7B%5Bl%5D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bl%20%5Ctimes%20%28l-1%29%7D&id=yXocH) 代表第 Notation - 图24 层的权重矩阵
  • Notation - 图25 代表第 Notation - 图26 层的偏差矩阵
  • Notation - 图27 是预测输出向量
    • 也可以用 Notation - 图28 表示

正向传播方程示例

  • Notation - 图29%7D%20%2B%20b_1)%20%3D%20g%5E%7B%5Bl%5D%7D(z_1)#card=math&code=a%20%3D%20g%5E%7B%5Bl%5D%7D%28W_x%20x%5E%7B%28i%29%7D%20%2B%20b_1%29%20%3D%20g%5E%7B%5Bl%5D%7D%28z_1%29&id=eY4Lo)
    • 其中, Notation - 图30 代表第 Notation - 图31 层的激活函数
  • Notation - 图32#card=math&code=%5Chat%7By%7D%20%3D%20softmax%28W_h%20h%20%2B%20b_2%29&id=QYfNT)

通用激活公式

  • Notation - 图33%20%3D%20g%5E%7B%5Bl%5D%7D(%5Csumk%20w%7Bjk%7D%5E%7B%5Bl%5D%7Dak%5E%7B%5Bl-1%5D%7D%20%2B%20b_j%5E%7B%5Bl%5D%7D)#card=math&code=a_j%5E%7B%5Bl%5D%7D%20%3D%20g%5E%7B%5Bl%5D%7D%28z_j%5E%7B%5Bl%5D%7D%29%20%3D%20g%5E%7B%5Bl%5D%7D%28%5Csum_k%20w%7Bjk%7D%5E%7B%5Bl%5D%7Da_k%5E%7B%5Bl-1%5D%7D%20%2B%20b_j%5E%7B%5Bl%5D%7D%29&id=OmIIW)
    • Notation - 图34 当前层的维度
    • Notation - 图35 上一层的维度

损失函数

  • Notation - 图36#card=math&code=J%28x%2C%20W%2C%20b%2C%20y%29&id=QgY2T) 或者 Notation - 图37#card=math&code=J%28%5Chat%7By%7D%2C%20y%29&id=IaBc3)
  • 常见损失函数示例
    • Notation - 图38%20%3D%20-%5Csum%7Bi%3D0%7D%5Em%20y%5E%7B(i)%7Dlog%5Chat%7By%7D%5E%7B(i)%7D#card=math&code=J%7BCE%7D%28%5Chat%7By%7D%2C%20y%29%20%3D%20-%5Csum_%7Bi%3D0%7D%5Em%20y%5E%7B%28i%29%7Dlog%5Chat%7By%7D%5E%7B%28i%29%7D&id=e4DWs)
    • Notation - 图39%20%3D%20-%5Csum%7Bi%3D0%7D%5Em%20%7Cy%5E%7B(i)%7D%20-%20%5Chat%7By%7D%5E%7B(i)%7D%7C#card=math&code=J_1%28%5Chat%7By%7D%2C%20y%29%20%3D%20-%5Csum%7Bi%3D0%7D%5Em%20%7Cy%5E%7B%28i%29%7D%20-%20%5Chat%7By%7D%5E%7B%28i%29%7D%7C&id=oE2bH)

深度学习图示

  • 节点:代表输入、激活或者输出
  • 边:代表权重或者误差

提供两种等效的示意图

详细的网络

截屏2022-07-12 16.20.44.png

常用于神经网络的表示,为了更好的审美,我们省略了一些在边上的参数的细节(如Notation - 图41Notation - 图42等)。

简化网络

截屏2022-07-12 16.20.48.png

两层神经网络的更简单的表示。