神经网络图

image.png
输入层——隐藏层——输出层

激活函数

目的:加入非线性因素,因为线性模型的表达力不够。
没有激活函数的每层都仅相当于矩阵相乘,叠加了再多层也还是矩阵相乘,那么网络的逼近能力就很有限。
image.png

ReLU函数

image.png
ReLU函数把所有的负值都变为0,而正值不变,这种操作被称为单侧抑制。
在输入是负值的情况下,它会输出0,那么神经元就不会被激活。这意味着同一时间只有部分神经元会被激活,从而使得网络很稀疏,进而对计算来说是非常有效率的。

image.png
image.png
构建模型的本质也就是构建计算图。计算图的单元就是张量。

卷积神经网络

CNN(Convolutional Nerual Network).
三大参数:卷积核大小、填充、步长

  • kernel(filter):一般有33或55,实际上是一个权重矩阵。
  • padding:最外圈补0,便于提取图像边缘特征。
  • stride:步长。

pooling:池化,也可以理解为汇聚。一般有取平均取最大两种。
image.png
normalization:常用ReLUs,把负数变成0
image.png
Full connected:全连接(FC)。全连接层一般是作为最后的输出层使用,卷积的作用是提取图像的特征,最后的全连接层就是要通过这些特征来进行计算,输出我们所要的结果。每一层的每个神经元都与下一层的每个神经元相连。我们的特征都是使用矩阵表示的,所以再传入全连接层之前还需要对特征进行压扁,将这些特征变成一维的向量。
Channel:通道,不仅是灰度图,更是RGB。
image.png
Multiple Filters:多过滤器。多个卷积核会产生多个结果。
image.png
计算卷积输出大小:
设输入图像大小为nn,卷积核为ff,填充为p,步长为s,则输出o为: