咕咕咕
    实验 0:用多层全连接拟合一条二次曲线
    问题一:什么是激励函数
    解构一个大脑并注入神经网络 - 图1
    在一个神经网络中,会有很多层,第一层为输出层,最后一层为输出层,中间的都为隐藏层。在神经网络中,上一层的(从输出层开始)神经元节点的值会作为输入属性值传递给下一层(直至输出层),那么在传递的过程中上一层与下一层应该有一个对应的函数关系,这个函数被称为激励函数。默认情况下激励函数为f(x)=x,这不就自己吗?(bushi。可以看出,在这种情况下,后面每一个隐藏层,甚至输出层的数值都是输入层数值的线性组合,这样的话隐藏层就失去了意义,就会使网络的逼能力相当有限。因此,要想网络的逼近能力比较强大,必须引入非线性的激励函数来作用。
    常见的激励函数有Sigmoid函数image.png,这个函数离散老师提起过,说是可以让整个实数域与(0,1)对应,在计算机领域上有着相当重要的地位。
    果不其然,它长这样解构一个大脑并注入神经网络 - 图3定义域(-∞,+∞),值域(0,1)
    问题二:为什么不加激活函数多层全连接的输出一直是直线?
    因为下一层的值是前一层的线性组合,然后无限套娃,输出值是输入值的线性组合
    探索一:梯度下降在神经网络里是怎么工作的?

    实验 1:帮忙!帮帮外星人,帮帮小L!
    帮不了啊
    等我学会了就帮你