5.1 神经元模型

机器学习中谈论神经网络指“神经网络学习”。神经网络基本成分是神经元模型。
QQ截图20200413153621.png
image.png

  • 理想激活函数是阶跃函数,0 表示抑制神经元而 1 表示激活神经元
  • 阶跃函数具有不连续、不光滑等不好的性质,常用的是Sigmoid函数,可微连续
  • 把许多个这样的神经元按一定的层次结构连接起来,就得到了神经网络.

    5.2 感知机与多层网络

    感知机

    感知机( Perceptron)由两层神经元组成,如图5.3所示,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”( threshold logic unit)
    QQ截图20200413154107.png
    感知机可实现与、或、非运算,image.png
    QQ截图20200413154648.png
    image.png
    更一般的,给定数据集,权重image.png,阈值 θ,可通过学习得到。θ 可看作,输入永远是-1
    对于训练样例image.png若当前感知机输出为image.png,感知机权重调整
    image.png学习率image.png
    单层感知机只能“与”“或”“非”,非线性“异或”解决不了。
    两层感知机可解决“异或”,引出多层前馈神经网络

image.png
image.png
image.png
image.png

多层感知机

image.png

  • 输出层与输入层之间的一层神经元,被称之为隐层或隐含层,隐含层和输出层神经元都是具有激活函数的功能神经元

多层前馈神经网络

定义:每层神经元与下一层神经元全互联,神经元之间不存在同层连接也不存在跨层连接。 前馈:输入层接受外界输入,隐含层与输出层神经元对信号进行加工,最终结果由输出层神经元输出。 学习:根据训练数据来调整神经元之间的“连接权”以及每个功能神经元的“阈值”。 多层网络:包含隐层的网络。

image.png

5.3 误差逆传播算法

  • 误差逆传播(Error Back Propagation,简称BP)算法就是其中最杰出的代表。
  • 通常说“BP网络”一般指用BP算法训练多层前馈神经网络。
  • 给定训练集image.pngimage.png给定d个输入神经元,l个输出神经元,q个隐层神经元的多层前向前馈网络结构。(q为超参数)

image.pngimage.pngimage.png
对于样例image.png假设网络的实际输出为image.png
image.png(均方误差)
参数优化

  • BP是一个迭代学习算法,在迭代的每一轮中采用广义的感知机学习规则对参数进行更新估计,任意的参数第五章 神经网络🧠 - 图26的更新估计式为image.png
  • BP算法基于梯度下降策略,以目标的负梯度方向对参数进行调整。对误差第五章 神经网络🧠 - 图28,给定学习率 η

image.png
image.png
image.png
image.png
image.png
image.png
image.png

5.4 全局最小与局部最小

image.png

5.5 其他常见神经网络

image.png