Neural Network Representation(神经网络的表示)

输入层:我们有输入特征𝑥1、𝑥2、𝑥3,(nx =3)它们被竖直地堆叠起来,这叫做神经网络的输入层
我们将输入层的激活值称为𝑎[0],下一层即隐藏层也同样会产生一些激活值,那么我将其记作𝑎[1],这里的第一个单元或结点我们将其表示为𝑎[1],第二个结点的值我们记为𝑎[1]以此类推。左上标[]对应层数,右下标对应结点,输入层的结点个数等于输入特征的维度nx , 隐藏层的结点数个人定义。
Computing a Neural Network’s output(神经网络的计算)
->
->
首先计算出𝑧(线性),然后在计算激活函数得出𝑎(非线形),一个神经网络只是这样子做了好多次重复计算。
Vectorizing across multiple examples(多样本向量化)
上述公式加上第 i 个样本的含义之后,公署表示如下:
第一层:
第二层:

这种符号其中一个作用就是,可以通过训练样本来进行索引。这就是水平索引对应于不同的训练样本的原因,这些训练样本是从左到右扫描训练集而得到的。在垂直方向,这个垂直索引对应于神经网络中的不同节点。可以用理解为𝐴[1]中间结点的输出结果,它的维度取决于当前隐藏层的结点个数(HiddenSize)。
