论文地址:https://arxiv.org/abs/1312.4400

简介

Network In Network 是发表于 2014 年 ICLR 的一篇 paper。当前被引了 3298 次。这篇文章采用较少参数就取得了 Alexnet 的效果,Alexnet 参数大小为 230M,而 Network In Network 仅为 29M,这篇 paper 主要两大亮点:mlpconv (multilayer perceptron,MLP,多层感知机)作为 “micro network”和 Global Average Pooling(全局平均池化)。

创新点

(1) mlpconv Layer

在介绍 mlpconv Layer 之前,我们先看看经典的 Linear Convolutional Layer(线性卷积层)是怎么进行操作的,

卷积神经网络之-NiN网络(Network In Network) - 图1
Linear Convolutional Layer 结构

卷积神经网络之-NiN网络(Network In Network) - 图2

(i, j) 是特征图中像素的位置索引,x_ij 表示像素值,而 k 用于特征图通道的索引,W 是参数,经过 WX 计算以后经过一个 relu 激活进行特征的抽象表示。

下面就介绍 mlpconv Layer 结构


卷积神经网络之-NiN网络(Network In Network) - 图3
mlpconv Layer 结构

卷积神经网络之-NiN网络(Network In Network) - 图4

i, j 表示像素下标,xi,j 表示像素值,wk,n 表示第 n 层卷积卷积参数。 以上结构可以进行跨通道的信息融合。MLP 的参数也可以使用 BP 算法训练,与 CNN 高度整合;同时,1×1 卷积可以实现通道数的降维或者升维,11n,如果 n 小于之前通道数,则实现了降维,如果 n 大于之前通道数,则实现了升维。

(2) Global Average Pooling Layer

之前的卷积神经网络的最后会加一层全连接来进行分类,但是,全连接层具有非常大的参数量,导致模型非常容易过拟合。因此,全局平均池化的出现替代了全连接层。我们在最后一层 mlpconv 得到的特征图使用全局平均池化(也就是取每个特征图的平均值)进而将结果输入到 softmax 层中。

全局平均池化的优点

  • 全局平均池化没有参数,可以避免过拟合产生。
  • 全局平均池可以对空间信息进行汇总,因此对输入的空间转换具有更强的鲁棒性。

下图是全连接层和全局平均池化的一个对比图

卷积神经网络之-NiN网络(Network In Network) - 图5

整体网络架构

image.png

NiN 网络由三个 mlpconv 块组成,最后一个mlpconv 后使用全局平均池化。用 Pytorch 代码实现如下:假设输入是 32×32×3 (即 3 通道,32 高宽大小的图片)

  1. import torch
  2. import torch.nn as nn
  3. class NiN(nn.Module):
  4. def __init__(self, num_classes):
  5. super(NiN, self).__init__()
  6. self.num_classes = num_classes
  7. self.classifier = nn.Sequential(
  8. nn.Conv2d(3, 192, kernel_size=5, stride=1, padding=2),
  9. nn.ReLU(inplace=True),
  10. nn.Conv2d(192, 160, kernel_size=1, stride=1, padding=0),
  11. nn.ReLU(inplace=True),
  12. nn.Conv2d(160, 96, kernel_size=1, stride=1, padding=0),
  13. nn.ReLU(inplace=True),
  14. nn.MaxPool2d(kernel_size=3, stride=2, padding=1),
  15. nn.Dropout(0.5),
  16. nn.Conv2d(96, 192, kernel_size=5, stride=1, padding=2),
  17. nn.ReLU(inplace=True),
  18. nn.Conv2d(192, 192, kernel_size=1, stride=1, padding=0),
  19. nn.ReLU(inplace=True),
  20. nn.Conv2d(192, 192, kernel_size=1, stride=1, padding=0),
  21. nn.ReLU(inplace=True),
  22. nn.AvgPool2d(kernel_size=3, stride=2, padding=1),
  23. nn.Dropout(0.5),
  24. nn.Conv2d(192, 192, kernel_size=3, stride=1, padding=1),
  25. nn.ReLU(inplace=True),
  26. nn.Conv2d(192, 192, kernel_size=1, stride=1, padding=0),
  27. nn.ReLU(inplace=True),
  28. nn.Conv2d(192, 10, kernel_size=1, stride=1, padding=0),
  29. nn.ReLU(inplace=True),
  30. nn.AvgPool2d(kernel_size=8, stride=1, padding=0),
  31. )
  32. def forward(self, x):
  33. x = self.classifier(x)
  34. logits = x.view(x.size(0), self.num_classes)
  35. probas = torch.softmax(logits, dim=1)
  36. return logits, probas


结果分析

  • CIFAR-10 测试数据集

卷积神经网络之-NiN网络(Network In Network) - 图7

NIN + Dropout 得到 10.41% 的错误率,加上数据增强(平移和水平翻转)错误率降到了 8.81%

image.png
以上曲线对比了有无 Dropout 机制前200 epoch 的错误率,实验结果表明,引入Dropout机制,可以降低测试集 20% 的错误率

在 CIFAR-10 测试数据集上对比了全连接层和全局平均池化的效果

image.png

  • CIFAR-100

image.png

上面对比方法时提到了 maxout,这是是蒙特利尔大学信息与信息技术学院的几位大牛 2013 年在 ICML 上发表的一篇论文,有兴趣的可以看:https://arxiv.org/abs/1302.4389

  • Street View House Numbers (SVHN) 街景门牌号码数据集

image.png

  • MNIST

image.png

NiN + Dropout 效果在 MNIST 上效果比 maxout +Dropout 逊色了点


总结


Network In Network 通过创新的创建 MLP 卷积层,提高了网络的非线性表达同时降低了参数量,用全局均值池化代替全连接层,极大的降低了参数量。

参考:

image.png

NiN块是NiN中的基础块。它由⼀个卷积层加两个充当全连接层的 1×1 卷积层串联⽽成。其中第⼀个卷积层的超参数可以⾃⾏设置,⽽第⼆和第三个卷积层的超参数⼀般是固定的。

  • NiN 重复使⽤由卷积层和代替全连接层的 1×1 卷积层构成的NiN块来构建深层⽹络。
  • NiN去除了容易造成过拟合的全连接输出层,⽽是将其替换成输出通道数等于标签类别数的NiN块和全局平均池化层(输出数等于通道数)。

卷积神经网络之-NiN网络(Network In Network) - 图14