【經典算法必讀】圖片分類
    image.png
    ResNet
    架構圖:(左)
    image.pngimage.png
    特性:利用恆等映射,增加網路層數,但訓練誤差不增加。
    核心理念:殘差塊使用bottleneck形式(右),將一個3x3卷積核拆分成一組(1x1,3x3,1x1)卷積核,可減少模型參數使用量。
    優點:
    1.ResNet在VGG的基礎上,新增直連通路(skip connection),不會新增任何參數,
    但是可以解決梯度消失的問題
    2.直連通路與卷積層進行元素點(element-wise)相加,而非直接連接。
    3.這使某一層模型只需要學習輸入與輸出之間的殘差(residual),大幅度降低了模型學習的難度。
    ResNet保障了深度神經網路的可訓練性,並且在深度模型上也可以避免使用過多參數量。
    image.pngimage.png

    VGGNet
    架構圖:
    image.pngimage.png
    特性:使用小卷積核,增加非線性映射,能夠很好減少參數。
    核心理念:保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果。
    優點:
    1. VGGNet的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。
    2. 几个小滤波器(3x3)卷积层的组合比一个大滤波器(5x5或7x7)卷积层好:
    3. 验证了通过不断加深网络结构可以提升性能。

    DenseNet
    核心理念:DenseNet采用的是一种更密集的连接方式,是一个密集卷积神经网络,以前向传播方式,将每一层与其余层密集连接。这样做的目的是可以确保各层之间的信息流动达到最大,将所有层(特征图大小匹配)直接连接在一起
    image.png
    image.png
    【Densely Connected Convolutional Networks】

    image.png
    ResNet和DenseNet

    SENet
    【Squeeze-and-Excitation Networks】
    SE block并不是一个完整的网络结构,而是一个子结构,可以嵌入到其他分类或检测模型中。
    核心思想:通过网络根据 loss 去学习特征权重,使得有效的 feature map 权重大,无效或效果小的 feature map 权重小的方式训练模型达到更好的结果。