# 机器之心GitHub项目:从零开始用TensorFlow搭建卷积神经网络 机器之心基于 Ahmet Taspinar 的博文使用 TensorFlow 手动搭建卷积神经网络,并提供所有代码和注释的 Jupyter Notebook 文档。我们将不仅描述训练情况,同时还将提供各种背景知识和分析。所有的代码和运行结果都已上传至 Github,机器之心希望通过我们的试验提供精确的代码和运行经验,我们将持续试验这一类高质量的教程和代码。 机器之心项目地址:https://github.com/jiqizhixin/ML-Tutorial-Experiment
本文的重点是实现,并不会从理论和概念上详细解释深度神经网络、卷积神经网络、最优化方法等基本内容。但是机器之心发过许多详细解释的入门文章或教程,因此,我们希望读者能先了解以下基本概念和理论。当然,本文注重实现,即使对深度学习的基本算法理解不那么深同样还是能实现本文所述的内容。
卷积神经网络:
TensorFlow 入门:
优化方法:
首先是安装TensorFlow,我们可以直接按照 TensorFlow 官方教程安装。机器之心在 Jupyter Notebook 上运行和测试本文所有代码,但是 TensorFlow 在 Windows 上只支持 Python 3.5x,而我们现在安装的 Anaconda,支持的是 Python 3.6。所以如果需要在 Windows 上用 Jupyter Notebook 加载 TensorFlow,还需要另外一些操作。
TensorFlow 官方安装教程:https://www.tensorflow.org/install/
现在假定我们已经安装了最新的 Anaconda 4.4.0,如果希望在 Jupyter notebook 中导入 TensorFlow 需要以下步骤。
在 Anaconda Prompt(CMD 命令行中也行)中键入以下命令以创建名为 tensorflow 的 conda 环境: conda create -n tensorflow python=3.5 然后再运行以下命令行激活 conda 环境: activate tensorflow 运行后会变为「(tensorflow) C:\Users\用户名>」,然后我们就可以继续在该 conda 环境内安装 TensorFlow(本文只使用 CPU 进行训练,所以可以只安装 CPU 版): pip>
install —ignore-installed —upgrade >
> https://storage.googleapis.com/tensorflow/windows/cpu/tensorflow-1.3.0-cp35-cp35m-win_amd64.whl 现在已经成功安装了 TensorFlow,但是在 Jupyter Notebook 中并不能导入 TensorFlow,所以我们需要使用命令行在 TensorFlow 环境中安装 Jupyter 和 Ipython: conda install ipython conda install jupyter 最后,运行以下命令就能完成安装,并在 Jupyter Notebook 中导入 TensorFlow: ipython kernelspec install-self —user

TensorFlow 基础

下面我们首先需要了解TensorFlow 的基本用法,这样我们才能开始构建神经网络。本小节将从张量与图、常数与变量还有占位符等基本概念出发简要介绍 TensorFlow,熟悉 TensorFlow 的读者可以直接阅读下一节。需要进一步了解 TensorFlow 的读者最好可以阅读谷歌TensorFlow 的文档,当然也可以阅读其他中文教程或书籍,例如《TensorFlow:实战 Google
深度学习框架》和《TensorFlow 实战》等。
TensorFlow 文档地址:https://www.tensorflow.org/get_started/
1.1 张量和图
TensorFlow是一种采用数据流图(data flow graphs),用于数值计算的开源软件库。其中 Tensor 代表传递的数据为张量(多维数组),Flow 代表使用计算图进行运算。数据流图用「结点」(nodes)和「边」(edges)组成的有向图来描述数学运算。「结点」一般用来表示施加的数学操作,但也可以表示数据输入的起点和输出的终点,或者是读取/写入持久变量(persistent variable)的终点。边表示结点之间的输入/输出关系。这些数据边可以传送维度可动态调整的多维数据数组,即张量(tensor)。 机器之心GitHub项目:从零开始用TensorFlow搭建卷积神经网络 - 图1下面代码是使用计算图的案例:

  1. a = tf.constant(2, tf.int16)
  2. b = tf.constant(4, tf.float32)
  3. graph = tf.Graph()
  4. with graph.as_default():
  5. a = tf.Variable(8, tf.float32)
  6. b = tf.Variable(tf.zeros([2,2], tf.float32))
  7. with tf.Session(graph=graph) as session:
  8. tf.global_variables_initializer().run()
  9. print(f)
  10. print(session.run(a))
  11. print(session.run(b))
  12. #输出:
  13. >>> <tf.Variable 'Variable_2:0' shape=() dtype=int32_ref>
  14. >>> 8
  15. >>> [[ 0. 0.]
  16. >>> [ 0. 0.]]

在 Tensorflow 中,所有不同的变量和运算都是储存在计算图。所以在我们构建完模型所需要的图之后,还需要打开一个会话(Session)来运行整个计算图。在会话中,我们可以将所有计算分配到可用的 CPU 和 GPU 资源中。
如下所示代码,我们声明两个常量 a 和 b,并且定义一个加法运算。但它并不会输出计算结果,因为我们只是定义了一张图,而没有运行它:

  1. a=tf.constant([1,2],name=”a”)
  2. b=tf.constant([2,4],name=”b”)
  3. result = a+b
  4. print(result)

输出:Tensor(“add:0”, shape=(2,), dtype=int32)
下面的代码才会输出计算结果,因为我们需要创建一个会话才能管理 TensorFlow 运行时的所有资源。但计算完毕后需要关闭会话来帮助系统回收资源,不然就会出现资源泄漏的问题。下面提供了使用会话的两种方式:

  1. a=tf.constant([1,2,3,4])
  2. b=tf.constant([1,2,3,4])
  3. result=a+b
  4. sess=tf.Session()
  5. print(sess.run(result))
  6. sess.close
  7. #输出 [2 4 6 8]
  8. with tf.Session() as sess:
  9. a=tf.constant([1,2,3,4])
  10. b=tf.constant([1,2,3,4])
  11. result=a+b
  12. print(sess.run(result))
  13. #输出 [2 4 6 8]

1.2 常量和变量
TensorFlow 中最基本的单位是常量(Constant)、变量(Variable)和占位符(Placeholder)。常量定义后值和维度不可变,变量定义后值可变而维度不可变。在神经网络中,变量一般可作为储存权重和其他信息的矩阵,而常量可作为储存超参数或其他结构信息的变量。下面我们分别定义了常量与变量:

  1. a = tf.constant(2, tf.int16)
  2. b = tf.constant(4, tf.float32)
  3. c = tf.constant(8, tf.float32)
  4. d = tf.Variable(2, tf.int16)
  5. e = tf.Variable(4, tf.float32)
  6. f = tf.Variable(8, tf.float32)
  7. g = tf.constant(np.zeros(shape=(2,2), dtype=np.float32))
  8. h = tf.zeros([11], tf.int16)
  9. i = tf.ones([2,2], tf.float32)
  10. j = tf.zeros([1000,4,3], tf.float64)
  11. k = tf.Variable(tf.zeros([2,2], tf.float32))
  12. l = tf.Variable(tf.zeros([5,6,5], tf.float32))

在上面代码中,我们分别声明了不同的常量(tf.constant())和变量(tf.Variable()),其中
tf.float 和 http://tf.int 分别声明了不同的浮点型和整数型数据。而 tf.ones() 和 tf.zeros() 分别产生全是
1、全是 0 的矩阵。我们注意到常量 g,它的声明结合了 TensorFlow 和 Numpy,这也是可执行的。

  1. w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))

以上语句声明一个2 行 3 列的变量矩阵,该变量的值服从标准差为 1 的正态分布,并随机生成。TensorFlow 还有 tf.truncated_normal() 函数,即截断正态分布随机数,它只保留 [mean-2stddev,mean+2stddev] 范围内的随机数。
现在,我们可以应用变量来定义神经网络中的权重矩阵和偏置项向量:

  1. weights = tf.Variable(tf.truncated_normal([256 * 256, 10]))
  2. biases = tf.Variable(tf.zeros([10]))
  3. print(weights.get_shape().as_list())
  4. print(biases.get_shape().as_list())
  5. #输出
  6. >>>[65536, 10]
  7. >>>[10]

1.3 占位符和 feed_dict
我们已经创建了各种形式的常量和变量,但 TensorFlow 同样还支持占位符。占位符并没有初始值,它只会分配必要的内存。在会话中,占位符可以使用 feed_dict 馈送数据。
feed_dict是一个字典,在字典中需要给出每一个用到的占位符的取值。在训练神经网络时需要每次提供一个批量的训练样本,如果每次迭代选取的数据要通过常量表示,那么TensorFlow 的计算图会非常大。因为每增加一个常量,TensorFlow 都会在计算图中增加一个结点。所以说拥有几百万次迭代的神经网络会拥有极其庞大的计算图,而占位符却可以解决这一点,它只会拥有占位符这一个结点。
下面一段代码分别展示了使用常量和占位符进行计算:

  1. w1=tf.Variable(tf.random_normal([1,2],stddev=1,seed=1))
  2. #因为需要重复输入x,而每建一个x就会生成一个结点,计算图的效率会低。所以使用占位符
  3. x=tf.placeholder(tf.float32,shape=(1,2))
  4. x1=tf.constant([[0.7,0.9]])
  5. a=x+w1
  6. b=x1+w1
  7. sess=tf.Session()
  8. sess.run(tf.global_variables_initializer())
  9. #运行y时将占位符填上,feed_dict为字典,变量名不可变
  10. y_1=sess.run(a,feed_dict={x:[[0.7,0.9]]})
  11. y_2=sess.run(b)
  12. print(y_1)
  13. print(y_2)
  14. sess.close

其中 y_1 的计算过程使用占位符,而 y_2 的计算过程使用常量。
下面是使用占位符的案例:

  1. list_of_points1_ = [[1,2], [3,4], [5,6], [7,8]]
  2. list_of_points2_ = [[15,16], [13,14], [11,12], [9,10]]
  3. list_of_points1 = np.array([np.array(elem).reshape(1,2) for elem in list_of_points1_])
  4. list_of_points2 = np.array([np.array(elem).reshape(1,2) for elem in list_of_points2_])
  5. graph = tf.Graph()
  6. with graph.as_default():
  7. #我们使用 tf.placeholder() 创建占位符 ,在 session.run() 过程中再投递数据
  8. point1 = tf.placeholder(tf.float32, shape=(1, 2))
  9. point2 = tf.placeholder(tf.float32, shape=(1, 2))
  10. def calculate_eucledian_distance(point1, point2):
  11. difference = tf.subtract(point1, point2)
  12. power2 = tf.pow(difference, tf.constant(2.0, shape=(1,2)))
  13. add = tf.reduce_sum(power2)
  14. eucledian_distance = tf.sqrt(add)
  15. return eucledian_distance
  16. dist = calculate_eucledian_distance(point1, point2)
  17. with tf.Session(graph=graph) as session:
  18. tf.global_variables_initializer().run()
  19. for ii in range(len(list_of_points1)):
  20. point1_ = list_of_points1[ii]
  21. point2_ = list_of_points2[ii]
  22. #使用feed_dict将数据投入到[dist]中
  23. feed_dict = {point1 : point1_, point2 : point2_}
  24. distance = session.run([dist], feed_dict=feed_dict)
  25. print("the distance between {} and {} -> {}".format(point1_, point2_, distance))
  26. #输出:
  27. >>> the distance between [[1 2]] and [[15 16]] -> [19.79899]
  28. >>> the distance between [[3 4]] and [[13 14]] -> [14.142136]
  29. >>> the distance between [[5 6]] and [[11 12]] -> [8.485281]
  30. >>> the distance between [[7 8]] and [[ 9 10]] -> [2.8284271]

Ahmet
Taspinar 在第二部分就直接开始构建深度神经网络了,虽然我们在前一章增加了许多代码段以帮助读者了解 TensorFlow 的基本法则,但上面是远远不够的。所以如果我们能先解析一部分神经网络代码,那么将有助于入门读者巩固以上的 TensorFlow 基本知识。下面,我们将先解析一段构建了三层全连接神经网络的代码。

  1. import tensorflow as tf
  2. from numpy.random import RandomState
  3. batch_size=10
  4. w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))
  5. w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))
  6. # None 可以根据batch 大小确定维度,在shape的一个维度上使用None
  7. x=tf.placeholder(tf.float32,shape=(None,2))
  8. y=tf.placeholder(tf.float32,shape=(None,1))
  9. #激活函数使用ReLU
  10. a=tf.nn.relu(tf.matmul(x,w1))
  11. yhat=tf.nn.relu(tf.matmul(a,w2))
  12. #定义交叉熵为损失函数,训练过程使用Adam算法最小化交叉熵
  13. cross_entropy=-tf.reduce_mean(y*tf.log(tf.clip_by_value(yhat,1e-10,1.0)))
  14. train_step=tf.train.AdamOptimizer(0.001).minimize(cross_entropy)
  15. rdm=RandomState(1)
  16. data_size=516
  17. #生成两个特征,共data_size个样本
  18. X=rdm.rand(data_size,2)
  19. #定义规则给出样本标签,所有x1+x2<1的样本认为是正样本,其他为负样本。Y,1为正样本
  20. Y = [[int(x1+x2 < 1)] for (x1, x2) in X]
  21. with tf.Session() as sess:
  22. sess.run(tf.global_variables_initializer())
  23. print(sess.run(w1))
  24. print(sess.run(w2))
  25. steps=11000
  26. for i in range(steps):
  27. #选定每一个批量读取的首尾位置,确保在1个epoch内采样训练
  28. start = i * batch_size % data_size
  29. end = min(start + batch_size,data_size)
  30. sess.run(train_step,feed_dict={x:X[start:end],y:Y[start:end]})
  31. if i % 1000 == 0:
  32. training_loss= sess.run(cross_entropy,feed_dict={x:X,y:Y})
  33. print("在迭代 %d 次后,训练损失为 %g"%(i,training_loss))

上面的代码定义了一个简单的三层全连接网络(输入层、隐藏层和输出层分别为
2、3 和 2 个神经元),隐藏层和输出层的激活函数使用的是 ReLU 函数。该模型训练的样本总数为 512,每次迭代读取的批量为 10。这个简单的全连接网络以交叉熵为损失函数,并使用 Adam 优化算法进行权重更新。
其中需要注意的几个函数如:tf.nn.relu() 代表调用 ReLU 激活函数,tf.matmul() 为矩阵乘法等。tf.clip_by_value(yhat,1e-10,1.0) 这一语句代表的是截断 yhat 的值,因为这一语句是嵌套在 tf.log() 函数内的,所以我们需要确保 yhat 的取值不会导致对数无穷大。
tf.train.AdamOptimizer(learning_rate).minimize(cost_function)是进行训练的函数,其中我们采用的是 Adam 优化算法更新权重,并且需要提供学习速率和损失函数这两个参数。后面就是生成训练数据,X=rdm.rand(512,2) 表示随机生成 512 个样本,每个样本有两个特征值。最后就是迭代运行了,这里我们计算出每一次迭代抽取数据的起始位置(start)和结束位(end),并且每一次抽取的数据量为前面我们定义的批量,如果一个epoch 最后剩余的数据少于批量大小,那就只是用剩余的数据进行训练。最后两句代码是为了计算训练损失并迭代一些次数后输出训练损失。这一部分代码运行的结果如下:

TensorFlow 中的神经网络

2.1 简介
上图所描述的图像识别流程需要包含以下几步:

  • 输入数据集,数据集分为训练数据集和标注、测试数据集和标注(包括验证数据集和标注)。测试和验证集能赋值到 tf.constant() 中,而训练集可以导入 tf.placeholder() 中,训练集只有导入占位符我们才能在随机梯度下降中成批量地进行训练。
  • 确定神经网络模型,该模型可以是简单的一层全连接网络或 9 层、16 层的复杂卷积网络组成。
  • 网络定义的权重矩阵和偏置向量后需要执行初始化,每一层需要一个权重矩阵和一个偏置向量。
  • 构建损失函数,并计算训练损失。模型会输出一个预测向量,我们可以比较预测标签和真实标签并使用交叉熵函数和 softmax 回归来确定损失值。训练损失衡量预测值和真实值之间差距,并用于更新权重矩阵。
  • 优化器,优化器将使用计算的损失值和反向传播算法更新权重和偏置项参数。

2.2 加载数据
首先我们需要加载数据,加载的数据用来训练和测试神经网络。在Ahmet Taspinar 的博客中,他用的是 MNIST 和 CIFAR-10 数据集。其中 MNIST 数据集包含 6 万张手写数字图片,每一张图片的大小都是 28 x 28 x 1(灰度图)。而 CIFAR-10 数据集包含 6 万张彩色(3
通道)图片,每张图片的大小为 32 x 32 x 3,该数据集有 10 种不同的物体(飞机、摩托车、鸟、猫、狗、青蛙、马、羊和卡车)。
首先,让我们定义一些函数,它们能帮助我们加载和预处理图像数据。

  1. def randomize(dataset, labels):
  2. permutation = np.random.permutation(labels.shape[0])
  3. shuffled_dataset = dataset[permutation, :, :]
  4. shuffled_labels = labels[permutation]
  5. return shuffled_dataset, shuffled_labels
  6. def one_hot_encode(np_array):
  7. return (np.arange(10) == np_array[:,None]).astype(np.float32)
  8. def reformat_data(dataset, labels, image_width, image_height, image_depth):
  9. np_dataset_ = np.array([np.array(image_data).reshape(image_width, image_height, image_depth) for image_data in dataset])
  10. np_labels_ = one_hot_encode(np.array(labels, dtype=np.float32))
  11. np_dataset, np_labels = randomize(np_dataset_, np_labels_)
  12. return np_dataset, np_labels
  13. def flatten_tf_array(array):
  14. shape = array.get_shape().as_list()
  15. return tf.reshape(array, [shape[0], shape[1] * shape[2] * shape[3]])
  16. def accuracy(predictions, labels):
  17. return (100.0 * np.sum(np.argmax(predictions, 1) == np.argmax(labels, 1)) / predictions.shape[0])def randomize(dataset, labels):
  18. permutation = np.random.permutation(labels.shape[0])
  19. shuffled_dataset = dataset[permutation, :, :]
  20. shuffled_labels = labels[permutation]
  21. return shuffled_dataset, shuffled_labels
  22. def one_hot_encode(np_array):
  23. return (np.arange(10) == np_array[:,None]).astype(np.float32)
  24. def reformat_data(dataset, labels, image_width, image_height, image_depth):
  25. np_dataset_ = np.array([np.array(image_data).reshape(image_width, image_height, image_depth) for image_data in dataset])
  26. np_labels_ = one_hot_encode(np.array(labels, dtype=np.float32))
  27. np_dataset, np_labels = randomize(np_dataset_, np_labels_)
  28. return np_dataset, np_labels
  29. def flatten_tf_array(array):
  30. shape = array.get_shape().as_list()
  31. return tf.reshape(array, [shape[0], shape[1] * shape[2] * shape[3]])
  32. def accuracy(predictions, labels):
  33. return (100.0 * np.sum(np.argmax(predictions, 1) == np.argmax(labels, 1)) / predictions.shape[0])

图像的标签使用 one-hot 编码,并且将数据加载到随机数组中。在定义这些函数后,我们可以加载数据:
我们能从 Yann LeCun 的网站下载 MNIST 数据集,下载并解压后就能使用 python-mnist 工具加载该数据集。
在Ahmet Taspinar 提供的上述代码中,我们运行会出错,因为「MNIST」并没有定义,而我们机器之心在安装完 python-mnist,并加上「from mnist import MNIST」语句后,仍然不能导入。所以我们可以修改以上代码,使用 TensorFlow 官方教程中自带的 MNIST 加载工具加载 MNIST。
如下所示,我们可以使用这种方法成功地导入 MNIST 数据集:
我们需要再次导入 CIFAR-10 数据集,这一段代码也会出错,原因是有变量没有定义。下面代码将导入数据集:

  1. cifar10_folder = './data/cifar10/'
  2. train_datasets = ['data_batch_1', 'data_batch_2', 'data_batch_3', 'data_batch_4', 'data_batch_5', ]
  3. test_dataset = ['test_batch']
  4. c10_image_height = 32
  5. c10_image_width = 32
  6. c10_image_depth = 3
  7. c10_num_labels = 10
  8. c10_image_size = 32 #Ahmet Taspinar的代码缺少了这一语句
  9. with open(cifar10_folder + test_dataset[0], 'rb') as f0:
  10. c10_test_dict = pickle.load(f0, encoding='bytes')
  11. c10_test_dataset, c10_test_labels = c10_test_dict[b'data'], c10_test_dict[b'labels']
  12. test_dataset_cifar10, test_labels_cifar10 = reformat_data(c10_test_dataset, c10_test_labels, c10_image_size, c10_image_size, c10_image_depth)
  13. c10_train_dataset, c10_train_labels = [], []
  14. for train_dataset in train_datasets:
  15. with open(cifar10_folder + train_dataset, 'rb') as f0:
  16. c10_train_dict = pickle.load(f0, encoding='bytes')
  17. c10_train_dataset_, c10_train_labels_ = c10_train_dict[b'data'], c10_train_dict[b'labels']
  18. c10_train_dataset.append(c10_train_dataset_)
  19. c10_train_labels += c10_train_labels_
  20. c10_train_dataset = np.concatenate(c10_train_dataset, axis=0)
  21. train_dataset_cifar10, train_labels_cifar10 = reformat_data(c10_train_dataset, c10_train_labels, c10_image_size, c10_image_size, c10_image_depth)
  22. del c10_train_dataset
  23. del c10_train_labels

print(“训练集包含以下标签: {}”.format(np.unique(c10_train_dict[b’labels’])))
print(‘训练集维度’, train_dataset_cifar10.shape, train_labels_cifar10.shape)
print(‘测试集维度’, test_dataset_cifar10.shape, test_labels_cifar10.shape)
在试验中,我们需要注意放置数据集的地址。MNIST

可以自动检测指定的目录下是否有数据集,如果没有就自动下载数据集至该目录下。在上面的两段代码中,「./data/MNIST/」就代表着我们放置数据集的地址,它表示在
Python 根目录下「data」文件夹下的「MNIST」文件夹内。CIFAR-10 同样也是这样,只不过它不会自动下载数据集。
2.3 创建简单的多层全连接神经网络
Ahmet Taspinar 后面创建了一个单隐藏层全连接网络,不过我们还是报错了。他在博客中给出了以下训练准确度,我们看到该模型在 MNIST 数据集效果并不是很好。所以我们另外使用一个全连接神经网络来实现这一过程。
下面我们实现的神经网络共有三层,输入层有784 个神经元,隐藏层与输出层分别有 500 和 10 个神经元。这所以这样设计是因为 MNIST 的像素为 28×28=784,所以每一个输入神经元对应于一个灰度像素点。机器之心执行该模型得到的效果非常好,该模型在批量大小为 100,并使用学习率衰减的情况下迭代 10000 步能得到 98.34% 的测试集准确度,以下是该模型代码:

  1. import tensorflow as tf
  2. from tensorflow.examples.tutorials.mnist import input_data
  3. #加载MNIST数据集
  4. mnist = input_data.read_data_sets("./data/MNIST/", one_hot=True)
  5. INPUT_NODE = 784
  6. OUTPUT_NODE = 10
  7. LAYER1_NODE = 500
  8. BATCH_SIZE = 100
  9. # 模型相关的参数
  10. LEARNING_RATE_BASE = 0.8
  11. LEARNING_RATE_DECAY = 0.99
  12. REGULARAZTION_RATE = 0.0001
  13. TRAINING_STEPS = 10000
  14. MOVING_AVERAGE_DECAY = 0.99
  15. def inference(input_tensor, avg_class, weights1, biases1, weights2, biases2):
  16. # 使用滑动平均类
  17. if avg_class == None:
  18. layer1 = tf.nn.relu(tf.matmul(input_tensor, weights1) + biases1)
  19. return tf.matmul(layer1, weights2) + biases2
  20. else:
  21. layer1 = tf.nn.relu(tf.matmul(input_tensor, avg_class.average(weights1)) + avg_class.average(biases1))
  22. return tf.matmul(layer1, avg_class.average(weights2)) + avg_class.average(biases2)
  23. def train(mnist):
  24. x = tf.placeholder(tf.float32, [None, INPUT_NODE], name='x-input')
  25. y_ = tf.placeholder(tf.float32, [None, OUTPUT_NODE], name='y-input')
  26. # 生成隐藏层的参数。
  27. weights1 = tf.Variable(tf.truncated_normal([INPUT_NODE, LAYER1_NODE], stddev=0.1))
  28. biases1 = tf.Variable(tf.constant(0.1, shape=[LAYER1_NODE]))
  29. # 生成输出层的参数。
  30. weights2 = tf.Variable(tf.truncated_normal([LAYER1_NODE, OUTPUT_NODE], stddev=0.1))
  31. biases2 = tf.Variable(tf.constant(0.1, shape=[OUTPUT_NODE]))
  32. # 计算不含滑动平均类的前向传播结果
  33. y = inference(x, None, weights1, biases1, weights2, biases2)
  34. # 定义训练轮数及相关的滑动平均类
  35. global_step = tf.Variable(0, trainable=False)
  36. variable_averages = tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)
  37. variables_averages_op = variable_averages.apply(tf.trainable_variables())
  38. average_y = inference(x, variable_averages, weights1, biases1, weights2, biases2)
  39. # 计算交叉熵及其平均值
  40. cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y, labels=tf.argmax(y_, 1))
  41. cross_entropy_mean = tf.reduce_mean(cross_entropy)
  42. # 定义交叉熵损失函数加上正则项为模型损失函数
  43. regularizer = tf.contrib.layers.l2_regularizer(REGULARAZTION_RATE)
  44. regularaztion = regularizer(weights1) + regularizer(weights2)
  45. loss = cross_entropy_mean + regularaztion
  46. # 设置指数衰减的学习率。
  47. learning_rate = tf.train.exponential_decay(
  48. LEARNING_RATE_BASE,
  49. global_step,
  50. mnist.train.num_examples / BATCH_SIZE,
  51. LEARNING_RATE_DECAY,
  52. staircase=True)
  53. # 随机梯度下降优化器优化损失函数
  54. train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
  55. # 反向传播更新参数和更新每一个参数的滑动平均值
  56. with tf.control_dependencies([train_step, variables_averages_op]):
  57. train_op = tf.no_op(name='train')
  58. # 计算准确度
  59. correct_prediction = tf.equal(tf.argmax(average_y, 1), tf.argmax(y_, 1))
  60. accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
  61. # 初始化会话并开始训练过程。
  62. with tf.Session() as sess:
  63. tf.global_variables_initializer().run()
  64. validate_feed = {x: mnist.validation.images, y_: mnist.validation.labels}
  65. test_feed = {x: mnist.test.images, y_: mnist.test.labels}
  66. # 循环地训练神经网络。
  67. for i in range(TRAINING_STEPS):
  68. if i % 1000 == 0:
  69. validate_acc = sess.run(accuracy, feed_dict=validate_feed)
  70. print("After %d training step(s), validation accuracy using average model is %g " % (i, validate_acc))
  71. xs,ys=mnist.train.next_batch(BATCH_SIZE)
  72. sess.run(train_op,feed_dict={x:xs,y_:ys})
  73. test_acc=sess.run(accuracy,feed_dict=test_feed)
  74. print(("After %d training step(s), test accuracy using average model is %g" %(TRAINING_STEPS, test_acc)))

该模型运行的结果如下:
在上面定义的整个计算图中,我们先加载数据并定义权重矩阵和模型,然后在计算损失值并传递给优化器来优化权重。模型在迭代次数设定之内会一直循环地计算损失函数的梯度以更新权重。在上面的全连接神经网络中,我们使用梯度下降优化器来优化权重。然而,TensorFlow
中还有很多优化器,最常用的是 GradientDescentOptimizer、AdamOptimizer 和
AdaGradOptimizer。
下面我们就需要构建卷积神经网络了,不过在使用 TensorFlow 构建卷积网络之前,我们需要了解一下 TensorFlow 中的函数。
TensorFlow包含很多操作和函数,很多我们需要花费大量精力完成的过程可以直接调用已封装的函数,比如说「logits = tf.matmul(tf_train_dataset, weights) + biases」可以由函数「logits = tf.nn.xw_plus_b(train_dataset, weights, biases)」代替。
还有很多函数可以让构建不同层级的神经网络变得十分简单。例如conv_2d() 和 fully_connected() 函数分别构建了卷积层和全连接层。通过这些函数,层级的数量、滤波器的大小/深度、激活函数的类型等都可以明确地作为一个参数。权重矩阵和偏置向量能自动创建,附加激活函数和dropout 正则化层同样也能轻松构建。
如下所示为定义卷积层网络的代码:

  1. import tensorflow as tf
  2. w1 = tf.Variable(tf.truncated_normal([filter_size, filter_size, image_depth, filter_depth], stddev=0.1))
  3. b1 = tf.Variable(tf.zeros([filter_depth]))
  4. layer1_conv = tf.nn.conv2d(data, w1, [1, 1, 1, 1], padding='SAME')
  5. layer1_relu = tf.nn.relu(layer1_conv + b1)
  6. layer1_pool = tf.nn.max_pool(layer1_pool, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')

它们可以使用简单的函数来替代上面的定义:

  1. from tflearn.layers.conv import conv_2d, max_pool_2d
  2. layer1_conv = conv_2d(data, filter_depth, filter_size, activation='relu')
  3. layer1_pool = max_pool_2d(layer1_conv_relu, 2, strides=2)

正如我们前面所说的,我们并不需要定义权重、偏置和激活函数,特别是在定义多层神经网络的时候,这一点让我们的代码可以看起来十分整洁。
2.4 创建 LeNet5 卷积网络
LeNet5卷积网络架构最早是 Yann LeCun 提出来的,它是早期的一种卷积神经网络,并且可以用来识别手写数字。虽然它在 MNIST 数据集上执行地非常好,但在其它高分辨率和大数据集上性能有所降低。对于这些大数据集,像 AlexNet、VGGNet 或 ResNet 那样的深度卷积网络才执行地十分优秀。
因为 LeNet5 只由 5 层网络,所以它是学习如何构建卷积网络的最佳起点。LeNet5 的架构如下:
LeNet5 包含 5 层网络:

  • 第一层:卷积层,该卷积层使用 Sigmoid 激活函数,并且在后面带有平均池化层。
  • 第二层:卷积层,该卷积层使用 Sigmoid 激活函数,并且在后面带有平均池化层。
  • 第三层:全连接层(使用 Sigmoid 激活函数)。
  • 第四层:全连接层(使用 Sigmoid 激活函数)。
  • 第五层:输出层。

上面的 LeNet5 架构意味着我们需要构建 5 个权重和偏置项矩阵,我们模型的主体大概需要 12 行代码完成(5 个神经网络层级、2 个池化层、4 个激活函数还有 1 个 flatten 层)。因为代码比较多,所以我们最好在计算图之外就定义好独立的函数:

  1. LENET5_BATCH_SIZE = 32
  2. LENET5_PATCH_SIZE = 5
  3. LENET5_PATCH_DEPTH_1 = 6
  4. LENET5_PATCH_DEPTH_2 = 16
  5. LENET5_NUM_HIDDEN_1 = 120
  6. LENET5_NUM_HIDDEN_2 = 84
  7. def variables_lenet5(patch_size = LENET5_PATCH_SIZE, patch_depth1 = LENET5_PATCH_DEPTH_1,
  8. patch_depth2 = LENET5_PATCH_DEPTH_2,
  9. num_hidden1 = LENET5_NUM_HIDDEN_1, num_hidden2 = LENET5_NUM_HIDDEN_2,
  10. image_depth = 1, num_labels = 10):
  11. w1 = tf.Variable(tf.truncated_normal([patch_size, patch_size, image_depth, patch_depth1], stddev=0.1))
  12. b1 = tf.Variable(tf.zeros([patch_depth1]))
  13. w2 = tf.Variable(tf.truncated_normal([patch_size, patch_size, patch_depth1, patch_depth2], stddev=0.1))
  14. b2 = tf.Variable(tf.constant(1.0, shape=[patch_depth2]))
  15. w3 = tf.Variable(tf.truncated_normal([5*5*patch_depth2, num_hidden1], stddev=0.1))
  16. b3 = tf.Variable(tf.constant(1.0, shape = [num_hidden1]))
  17. w4 = tf.Variable(tf.truncated_normal([num_hidden1, num_hidden2], stddev=0.1))
  18. b4 = tf.Variable(tf.constant(1.0, shape = [num_hidden2]))
  19. w5 = tf.Variable(tf.truncated_normal([num_hidden2, num_labels], stddev=0.1))
  20. b5 = tf.Variable(tf.constant(1.0, shape = [num_labels]))
  21. variables = {
  22. 'w1': w1, 'w2': w2, 'w3': w3, 'w4': w4, 'w5': w5,
  23. 'b1': b1, 'b2': b2, 'b3': b3, 'b4': b4, 'b5': b5
  24. }
  25. return variables
  26. def model_lenet5(data, variables):
  27. layer1_conv = tf.nn.conv2d(data, variables['w1'], [1, 1, 1, 1], padding='SAME')
  28. layer1_actv = tf.sigmoid(layer1_conv + variables['b1'])
  29. layer1_pool = tf.nn.avg_pool(layer1_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  30. layer2_conv = tf.nn.conv2d(layer1_pool, variables['w2'], [1, 1, 1, 1], padding='VALID')
  31. layer2_actv = tf.sigmoid(layer2_conv + variables['b2'])
  32. layer2_pool = tf.nn.avg_pool(layer2_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  33. flat_layer = flatten_tf_array(layer2_pool)
  34. layer3_fccd = tf.matmul(flat_layer, variables['w3']) + variables['b3']
  35. layer3_actv = tf.nn.sigmoid(layer3_fccd)
  36. layer4_fccd = tf.matmul(layer3_actv, variables['w4']) + variables['b4']
  37. layer4_actv = tf.nn.sigmoid(layer4_fccd)
  38. logits = tf.matmul(layer4_actv, variables['w5']) + variables['b5']
  39. return logits

通过上面独立定义的变量和模型,我们可以一点点调整数据流图而不像前面的全连接网络那样。

  1. #parameters determining the model size
  2. image_size = mnist_image_size
  3. num_labels = mnist_num_labels
  4. #the datasets
  5. train_dataset = mnist_train_dataset
  6. train_labels = mnist_train_labels
  7. test_dataset = mnist_test_dataset
  8. test_labels = mnist_test_labels
  9. #number of iterations and learning rate
  10. num_steps = 10001
  11. display_step = 1000
  12. learning_rate = 0.001
  13. graph = tf.Graph()
  14. with graph.as_default():
  15. #1) First we put the input data in a tensorflow friendly form.
  16. tf_train_dataset = tf.placeholder(tf.float32, shape=(batch_size, image_width, image_height, image_depth))
  17. tf_train_labels = tf.placeholder(tf.float32, shape = (batch_size, num_labels))
  18. tf_test_dataset = tf.constant(test_dataset, tf.float32)
  19. #2) Then, the weight matrices and bias vectors are initialized
  20. <strong>variables = variables_lenet5(image_depth = image_depth, num_labels = num_labels)</strong>
  21. #3. The model used to calculate the logits (predicted labels)
  22. <strong>model = model_lenet5</strong>
  23. <strong>logits = model(tf_train_dataset, variables)</strong>
  24. #4. then we compute the softmax cross entropy between the logits and the (actual) labels
  25. loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=tf_train_labels))
  26. #5. The optimizer is used to calculate the gradients of the loss function
  27. optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
  28. # Predictions for the training, validation, and test data.
  29. train_prediction = tf.nn.softmax(logits)
  30. test_prediction = tf.nn.softmax(model(tf_test_dataset, variables))
  31. with tf.Session(graph=graph) as session:
  32. tf.global_variables_initializer().run()
  33. print('Initialized with learning_rate', learning_rate)
  34. for step in range(num_steps):
  35. #Since we are using stochastic gradient descent, we are selecting small batches from the training dataset,
  36. #and training the convolutional neural network each time with a batch.
  37. offset = (step * batch_size) % (train_labels.shape[0] - batch_size)
  38. batch_data = train_dataset[offset:(offset + batch_size), :, :, :]
  39. batch_labels = train_labels[offset:(offset + batch_size), :]
  40. feed_dict = {tf_train_dataset : batch_data, tf_train_labels : batch_labels}
  41. _, l, predictions = session.run([optimizer, loss, train_prediction], feed_dict=feed_dict)
  42. if step % display_step == 0:
  43. train_accuracy = accuracy(predictions, batch_labels)
  44. test_accuracy = accuracy(test_prediction.eval(), test_labels)
  45. message = "step {:04d} : loss is {:06.2f}, accuracy on training set {:02.2f} %, accuracy on test set {:02.2f} %".format(step, l, train_accuracy, test_accuracy)
  46. print(message)

我们看到Ahmet Taspinar 构建的 LeNet5 网络要比他所训练的全连接网络在 MNIST 数据集上有更好的性能。但是在我们所训练的全连接神经网络中,因为使用了 ReLU、学习率指数衰减、滑动平均类和正则化等机制,我们的准确度达到了 98% 以上。
2.5 超参数如何影响一层网络的输出尺寸
一般来说,确实是层级越多神经网络的性能就越好。我们可以添加更多的层级、更改激活函数和池化层、改变学习率并查看每一步对性能的影响。因为层级 i 的输出是层级 i+1 的输入,所以我们需要知道第 i 层神经网络的超参数如何影响其输出尺寸。
为了理解这一点我们需要讨论一下 conv2d() 函数。
该函数有四个参数:

  • 输入图像,即一个四维张量 [batch size, image_width, image_height, image_depth]
  • 权重矩阵,即一个四维张量 [filter_size, filter_size, image_depth, filter_depth]
  • 每一个维度的步幅数
  • Padding (= ‘SAME’ / ‘VALID’)

这四个参数决定了输出图像的尺寸。前面两个参数都是四维张量,其包括了批量输入图像的信息和卷积滤波器的权值。第三个参数为卷积的步幅(stride),即卷积滤波器在4 个维度中的每一次移动的距离。四个中间的第一个维度代表着图像的批量数,这个维度肯定每次只能移动一张图片。最后一个维度为图片深度(即色彩通道数,1 代表灰度图片,而 3 代表 RGB 图片),因为我们通常并不想跳过任何一个通道,所以这一个值也通常为 1。第二个和第三个维度代表 X 和 Y 方向(图片宽度和高度)的步幅。如果我们希望能应用步幅参数,我们需要设定每个维度的移动步幅。例如设定步幅为 1,那么步幅参数就需要设定为 [1, 1, 1, 1],如果我们希望在图像上移动的步幅设定为 2,步幅参数为 [1, 2, 2, 1]。
最后一个参数表明TensorFlow 是否需要使用 0 来填补图像周边,这样以确保图像输出尺寸在步幅参数设定为 1 的情况下保持不变。通过设置 padding = ‘SAME’,图像会只使用 0 来填补周边(输出尺寸不变),而 padding = ‘VALID’则不会使用 0。在下图中,我们将看到两个使用卷积滤波器在图像上扫描的案例,其中滤波器的大小为5 x 5、图像的大小为 28 x 28。左边的 Padding 参数设置为’SAME’,并且最后四行/列的信息也会包含在输出图像中。而右边padding 设置为 ‘VALID’,最后四行/列是不包括在输出图像内的。
没有 padding 的图片,最后四个像素点是无法包含在内的,因为卷积滤波器已经移动到了图片的边缘。这就意味着输入 28 x 28 尺寸的图片,输出尺寸只有 24 x 24。如果 padding = ‘SAME’,那么输出尺寸就是 28 x 28。
如果我们输入图片尺寸是 28 x 28、滤波器尺寸为 5 x 5,步幅分别设置为 1 到 4,那么就能得到下表
对于任意给定的步幅 S、滤波器尺寸 K、图像尺寸 W、padding 尺寸 P,输出的图像尺寸可以总结上表的规则如下:
2.6 调整 LeNet5 架构
LeNet5 架构在原论文中使用的是 Sigmoid 激活函数和平均池化。然而如今神经网络使用 ReLU 激活函数更为常见。所以我们可以修改一下 LeNet5 架构,并看看是否能获得性能上的提升,我们可以称这种修改的架构为类 LeNet5 架构。
最大的不同是我们使用ReLU 激活函数代替 Sigmoid 激活函数。除了激活函数意外,我们还修改了优化器,因为我们可以看到不同优化器对识别准确度的影响。在这里,机器之心在CIFAR-10 上使用该修正的 LeNet 进行了训练,详细代码如下。机器之心训练的准确度并不高,可能是学习率、批量数或者其他设置有些问题,也可能是 LeNet对于三通道的图太简单了。该运行结果展现在机器之心该项目的 Github 中,感兴趣的读者可以进一步修正该模型以期望达到更好的效果。

  1. LENET5_LIKE_BATCH_SIZE = 32
  2. LENET5_LIKE_FILTER_SIZE = 5
  3. LENET5_LIKE_FILTER_DEPTH = 16
  4. LENET5_LIKE_NUM_HIDDEN = 120
  5. def variables_lenet5_like(filter_size = LENET5_LIKE_FILTER_SIZE,
  6. filter_depth = LENET5_LIKE_FILTER_DEPTH,
  7. num_hidden = LENET5_LIKE_NUM_HIDDEN,
  8. image_width = 32, image_height = 32, image_depth = 3, num_labels = 10):
  9. w1 = tf.Variable(tf.truncated_normal([filter_size, filter_size, image_depth, filter_depth], stddev=0.1))
  10. b1 = tf.Variable(tf.zeros([filter_depth]))
  11. w2 = tf.Variable(tf.truncated_normal([filter_size, filter_size, filter_depth, filter_depth], stddev=0.1))
  12. b2 = tf.Variable(tf.constant(1.0, shape=[filter_depth]))
  13. w3 = tf.Variable(tf.truncated_normal([(image_width // 4)*(image_height // 4)*filter_depth , num_hidden], stddev=0.1))
  14. b3 = tf.Variable(tf.constant(1.0, shape = [num_hidden]))
  15. w4 = tf.Variable(tf.truncated_normal([num_hidden, num_hidden], stddev=0.1))
  16. b4 = tf.Variable(tf.constant(1.0, shape = [num_hidden]))
  17. w5 = tf.Variable(tf.truncated_normal([num_hidden, num_labels], stddev=0.1))
  18. b5 = tf.Variable(tf.constant(1.0, shape = [num_labels]))
  19. variables = {
  20. 'w1': w1, 'w2': w2, 'w3': w3, 'w4': w4, 'w5': w5,
  21. 'b1': b1, 'b2': b2, 'b3': b3, 'b4': b4, 'b5': b5
  22. }
  23. return variables
  24. def model_lenet5_like(data, variables):
  25. layer1_conv = tf.nn.conv2d(data, variables['w1'], [1, 1, 1, 1], padding='SAME')
  26. layer1_actv = tf.nn.relu(layer1_conv + variables['b1'])
  27. layer1_pool = tf.nn.avg_pool(layer1_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  28. layer2_conv = tf.nn.conv2d(layer1_pool, variables['w2'], [1, 1, 1, 1], padding='SAME')
  29. layer2_actv = tf.nn.relu(layer2_conv + variables['b2'])
  30. layer2_pool = tf.nn.avg_pool(layer2_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  31. flat_layer = flatten_tf_array(layer2_pool)
  32. layer3_fccd = tf.matmul(flat_layer, variables['w3']) + variables['b3']
  33. layer3_actv = tf.nn.relu(layer3_fccd)
  34. layer3_drop = tf.nn.dropout(layer3_actv, 0.5)
  35. layer4_fccd = tf.matmul(layer3_actv, variables['w4']) + variables['b4']
  36. layer4_actv = tf.nn.relu(layer4_fccd)
  37. layer4_drop = tf.nn.dropout(layer4_actv, 0.5)
  38. logits = tf.matmul(layer4_actv, variables['w5']) + variables['b5']
  39. return logits
  40. num_steps = 10001
  41. display_step = 1000
  42. learning_rate = 0.001
  43. batch_size = 16
  44. #定义数据的基本信息,传入变量
  45. image_width = 32
  46. image_height = 32
  47. image_depth = 3
  48. num_labels = 10
  49. test_dataset = test_dataset_cifar10
  50. test_labels = test_labels_cifar10
  51. train_dataset = train_dataset_cifar10
  52. train_labels = train_labels_cifar10
  53. graph = tf.Graph()
  54. with graph.as_default():
  55. #1 首先使用占位符定义数据变量的维度
  56. tf_train_dataset = tf.placeholder(tf.float32, shape=(batch_size, image_width, image_height, image_depth))
  57. tf_train_labels = tf.placeholder(tf.float32, shape = (batch_size, num_labels))
  58. tf_test_dataset = tf.constant(test_dataset, tf.float32)
  59. #2 然后初始化权重矩阵和偏置向量
  60. variables = variables_lenet5_like(image_width = image_width, image_height=image_height, image_depth = image_depth, num_labels = num_labels)
  61. #3 使用模型计算分类
  62. logits = model_lenet5_like(tf_train_dataset, variables)
  63. #4 使用带softmax的交叉熵函数计算预测标签和真实标签之间的损失函数
  64. loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=tf_train_labels))
  65. #5 采用Adam优化算法优化上一步定义的损失函数,给定学习率
  66. optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss
  67. # 执行预测推断
  68. train_prediction = tf.nn.softmax(logits)
  69. test_prediction = tf.nn.softmax(model_lenet5_like(tf_test_dataset, variables))
  70. with tf.Session(graph=graph) as session:
  71. #初始化全部变量
  72. tf.global_variables_initializer().run()
  73. print('Initialized with learning_rate', learning_rate)
  74. for step in range(num_steps):
  75. offset = (step * batch_size) % (train_labels.shape[0] - batch_size)
  76. batch_data = train_dataset[offset:(offset + batch_size), :, :, :]
  77. batch_labels = train_labels[offset:(offset + batch_size), :]
  78. #在每一次批量中,获取当前的训练数据,并传入feed_dict以馈送到占位符中
  79. feed_dict = {tf_train_dataset : batch_data, tf_train_labels : batch_labels}
  80. _, l, predictions = session.run([optimizer, loss, train_prediction], feed_dict=feed_dict)
  81. train_accuracy = accuracy(predictions, batch_labels)
  82. if step % display_step == 0:
  83. test_accuracy = accuracy(test_prediction.eval(), test_labels)
  84. message = "step {:04d} : loss is {:06.2f}, accuracy on training set {:02.2f} %, accuracy on test set {:02.2f} %".format(step, l, train_accuracy, test_accuracy)
  85. print(message)

2.7 学习率和优化器的影响
我们可以在下图看到这些 CNN 在 MNIST 和 CIFAR-10 数据集上的性能。
上图展示了模型在两个测试集上的准确度和迭代次数,其代表的模型从左至右分别为全连接神经网络、LeNet5 和 改进后的 LeNet5。不过由于 MNIST 太简单,全连接网络也能做得挺好。不过在 CIFAR-10 数据集中,全连接网络的性能明显下降了不少。
上图展示了三种神经网络在 CIFAR-10 数据集上使用不同的优化器而得出的性能。可能 L2 正则化和指数衰减学习率能进一步提高模型的性能,不过要获得更大的提升,我们需要使用深度神经网络。

TensorFlow 中的深度神经网络

LeNet5 由两个卷积层加上三个全连接层组成,因此它是一种浅层神经网络。下面我们将了解其它卷积神经网络,它们的层级更多,所以可以称为深度神经网络。下面介绍的深度卷积神经网络我们并没有根据Ahmet Taspinar 提供的代码进行实践,因为我们暂时安装的是 TensorFlow 的 CPU 版,而使用 CPU 训练前面的 LeNet 就已经十分吃力了,所以我们暂时没有实现这几个深度 CNN。我们将会在后面实现它们,并将修改的代码上传到机器之心的Github 中。
卷积神经网络最出名的就是2012 年所提出的 AlexNet、2013 年的 7 层 ZF-Net 和 2014 年提出的 16 层 VGGNet。到了 2015 年,谷歌通过 Inception 模块开发出 22 层的卷积神经网络(GoogLeNet),而微软亚洲研究院创造出了 152 层的卷积神经网络:ResNet。下面,我们将学习如何使用 TensofFlow 构建 AlexNet 和 VGGNet16。
3.1 AlexNet
AlexNet是由 Alex Krizhevsky 和 Geoffrey Hinton 等人提出来的,虽然相对于现在的卷积神经网络来说它的架构十分简单,但当时它是十分成功的一个模型。它赢得了当年的 ImageNet
挑战赛,并开启了深度学习和 AI 的变革。下面是 AlexNet 的基本架构:
AlexNet 包含 5 个卷积层(带有 ReLU 激活函数)、3 个最大池化层、3 个全连接层和两个 dropout 层。该神经网络的架构概览如下:

  • 层级 0:规格为 224 x 224 x 3 的输入图片。
  • 层级 1:带有 96 个滤波器(filter_depth_1 = 96)的卷积层,滤波器的尺寸为 11 x 11(filter_size_1 = 11)、步幅为 4。该层的神经网络使用 ReLU 激活函数,并且后面带有最大池化层和局部响应归一化层。
  • 层级 2:带有 256 个滤波器(filter_depth_2 = 256)的卷积层,滤波器的尺寸为 5 x 5(filter_size_2 = 5)、步幅为 1。该层的神经网络使用 ReLU 激活函数,并且后面带有最大池化层和局部响应归一化层。
  • 层级 3:带有 384 个滤波器(filter_depth_3 = 384)的卷积层,滤波器的尺寸为 3 x 3(filter_size_3 = 3)、步幅为 1。该层的神经网络使用 ReLU 激活函数。
  • 层级 4 和层级 3 的结构是一样的。
  • 层级 5:带有 256 个滤波器(filter_depth_4 = 256)的卷积层,滤波器的尺寸为 3 x 3(filter_size_4 = 3)、步幅为 1。该层的神经网络使用 ReLU 激活函数。
  • 层级 6-8:这几个卷积层每一个后面跟着一个全连接层,每一层有 4096 个神经元。在原论文中,他们是为了 1000 个类别的分类,当我们这边并不需要这么多。

注意AlexNet 或其他深度 CNN 并不能使用 MNIST 或者 CIFAR-10 数据集,因为这些图片的分辨率太小。正如我们所看到的,池化层(或者步幅为 2 的卷积层)减少了两倍的图像大小。AlexNet 有 3 个最大池化层和一个步幅为 4 的卷积层,这就意味着原图片会被缩小很多倍,而 MNIST 数据集的图像尺寸太小而不能进行着一系列操作。
因此,我们需要加载有更高像素图像的数据集,最好是和原论文一样采用 224 x 224 x 3。aka oxflower17 数据集可能是比较理想的数据集,它含有 17 种花的图片,并且像素正好是我们所需要的:

  1. ox17_image_width = 224
  2. ox17_image_height = 224
  3. ox17_image_depth = 3
  4. ox17_num_labels = 17
  5. import tflearn.datasets.oxflower17 as oxflower17
  6. train_dataset_, train_labels_ = oxflower17.load_data(one_hot=True)
  7. train_dataset_ox17, train_labels_ox17 = train_dataset_[:1000,:,:,:], train_labels_[:1000,:]
  8. test_dataset_ox17, test_labels_ox17 = train_dataset_[1000:,:,:,:], train_labels_[1000:,:]
  9. print('Training set', train_dataset_ox17.shape, train_labels_ox17.shape)
  10. print('Test set', test_dataset_ox17.shape, test_labels_ox17.shape)

下面,我们可以定义 AlexNet 中的权重矩阵和不同的层级。正如我们前面所看到的,我们需要定义很多权重矩阵和偏置向量,并且它们还需要和每一层的滤波器尺寸保持一致。

  1. ALEX_PATCH_DEPTH_1, ALEX_PATCH_DEPTH_2, ALEX_PATCH_DEPTH_3, ALEX_PATCH_DEPTH_4 = 96, 256, 384, 256
  2. ALEX_PATCH_SIZE_1, ALEX_PATCH_SIZE_2, ALEX_PATCH_SIZE_3, ALEX_PATCH_SIZE_4 = 11, 5, 3, 3
  3. ALEX_NUM_HIDDEN_1, ALEX_NUM_HIDDEN_2 = 4096, 4096
  4. def variables_alexnet(patch_size1 = ALEX_PATCH_SIZE_1, patch_size2 = ALEX_PATCH_SIZE_2,
  5. patch_size3 = ALEX_PATCH_SIZE_3, patch_size4 = ALEX_PATCH_SIZE_4,
  6. patch_depth1 = ALEX_PATCH_DEPTH_1, patch_depth2 = ALEX_PATCH_DEPTH_2,
  7. patch_depth3 = ALEX_PATCH_DEPTH_3, patch_depth4 = ALEX_PATCH_DEPTH_4,
  8. num_hidden1 = ALEX_NUM_HIDDEN_1, num_hidden2 = ALEX_NUM_HIDDEN_2,
  9. image_width = 224, image_height = 224, image_depth = 3, num_labels = 17):
  10. w1 = tf.Variable(tf.truncated_normal([patch_size1, patch_size1, image_depth, patch_depth1], stddev=0.1))
  11. b1 = tf.Variable(tf.zeros([patch_depth1]))
  12. w2 = tf.Variable(tf.truncated_normal([patch_size2, patch_size2, patch_depth1, patch_depth2], stddev=0.1))
  13. b2 = tf.Variable(tf.constant(1.0, shape=[patch_depth2]))
  14. w3 = tf.Variable(tf.truncated_normal([patch_size3, patch_size3, patch_depth2, patch_depth3], stddev=0.1))
  15. b3 = tf.Variable(tf.zeros([patch_depth3]))
  16. w4 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth3, patch_depth3], stddev=0.1))
  17. b4 = tf.Variable(tf.constant(1.0, shape=[patch_depth3]))
  18. w5 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth3, patch_depth3], stddev=0.1))
  19. b5 = tf.Variable(tf.zeros([patch_depth3]))
  20. pool_reductions = 3
  21. conv_reductions = 2
  22. no_reductions = pool_reductions + conv_reductions
  23. w6 = tf.Variable(tf.truncated_normal([(image_width // 2**no_reductions)*(image_height // 2**no_reductions)*patch_depth3, num_hidden1], stddev=0.1))
  24. b6 = tf.Variable(tf.constant(1.0, shape = [num_hidden1]))
  25. w7 = tf.Variable(tf.truncated_normal([num_hidden1, num_hidden2], stddev=0.1))
  26. b7 = tf.Variable(tf.constant(1.0, shape = [num_hidden2]))
  27. w8 = tf.Variable(tf.truncated_normal([num_hidden2, num_labels], stddev=0.1))
  28. b8 = tf.Variable(tf.constant(1.0, shape = [num_labels]))
  29. variables = {
  30. 'w1': w1, 'w2': w2, 'w3': w3, 'w4': w4, 'w5': w5, 'w6': w6, 'w7': w7, 'w8': w8,
  31. 'b1': b1, 'b2': b2, 'b3': b3, 'b4': b4, 'b5': b5, 'b6': b6, 'b7': b7, 'b8': b8
  32. }
  33. return variables
  34. def model_alexnet(data, variables):
  35. layer1_conv = tf.nn.conv2d(data, variables['w1'], [1, 4, 4, 1], padding='SAME')
  36. layer1_relu = tf.nn.relu(layer1_conv + variables['b1'])
  37. layer1_pool = tf.nn.max_pool(layer1_relu, [1, 3, 3, 1], [1, 2, 2, 1], padding='SAME')
  38. layer1_norm = tf.nn.local_response_normalization(layer1_pool)
  39. layer2_conv = tf.nn.conv2d(layer1_norm, variables['w2'], [1, 1, 1, 1], padding='SAME')
  40. layer2_relu = tf.nn.relu(layer2_conv + variables['b2'])
  41. layer2_pool = tf.nn.max_pool(layer2_relu, [1, 3, 3, 1], [1, 2, 2, 1], padding='SAME')
  42. layer2_norm = tf.nn.local_response_normalization(layer2_pool)
  43. layer3_conv = tf.nn.conv2d(layer2_norm, variables['w3'], [1, 1, 1, 1], padding='SAME')
  44. layer3_relu = tf.nn.relu(layer3_conv + variables['b3'])
  45. layer4_conv = tf.nn.conv2d(layer3_relu, variables['w4'], [1, 1, 1, 1], padding='SAME')
  46. layer4_relu = tf.nn.relu(layer4_conv + variables['b4'])
  47. layer5_conv = tf.nn.conv2d(layer4_relu, variables['w5'], [1, 1, 1, 1], padding='SAME')
  48. layer5_relu = tf.nn.relu(layer5_conv + variables['b5'])
  49. layer5_pool = tf.nn.max_pool(layer4_relu, [1, 3, 3, 1], [1, 2, 2, 1], padding='SAME')
  50. layer5_norm = tf.nn.local_response_normalization(layer5_pool)
  51. flat_layer = flatten_tf_array(layer5_norm)
  52. layer6_fccd = tf.matmul(flat_layer, variables['w6']) + variables['b6']
  53. layer6_tanh = tf.tanh(layer6_fccd)
  54. layer6_drop = tf.nn.dropout(layer6_tanh, 0.5)
  55. layer7_fccd = tf.matmul(layer6_drop, variables['w7']) + variables['b7']
  56. layer7_tanh = tf.tanh(layer7_fccd)
  57. layer7_drop = tf.nn.dropout(layer7_tanh, 0.5)
  58. logits = tf.matmul(layer7_drop, variables['w8']) + variables['b8']
  59. return logits

3.2 VGGNet-16
VGGNet 比 AlexNet 拥有的层级更多(16-19 层),但是每一层的设计都简单了许多,所有层的滤波器大小都是 3 x 3、步幅都是 1,而所有的最大池化层的步幅都是 2。所以它虽然是一种深度 CNN,但结构比较简单。
VGGNet 有 16 层或 19 层两种配置,如下所示,这两种配置的不同之处在于它在第二个、第三个和第四个最大池化层后面到底是采用三个卷积层还是四个卷积层。

  1. #The VGGNET Neural Network
  2. VGG16_PATCH_SIZE_1, VGG16_PATCH_SIZE_2, VGG16_PATCH_SIZE_3, VGG16_PATCH_SIZE_4 = 3, 3, 3, 3
  3. VGG16_PATCH_DEPTH_1, VGG16_PATCH_DEPTH_2, VGG16_PATCH_DEPTH_3, VGG16_PATCH_DEPTH_4 = 64, 128, 256, 512
  4. VGG16_NUM_HIDDEN_1, VGG16_NUM_HIDDEN_2 = 4096, 1000
  5. def variables_vggnet16(patch_size1 = VGG16_PATCH_SIZE_1, patch_size2 = VGG16_PATCH_SIZE_2,
  6. patch_size3 = VGG16_PATCH_SIZE_3, patch_size4 = VGG16_PATCH_SIZE_4,
  7. patch_depth1 = VGG16_PATCH_DEPTH_1, patch_depth2 = VGG16_PATCH_DEPTH_2,
  8. patch_depth3 = VGG16_PATCH_DEPTH_3, patch_depth4 = VGG16_PATCH_DEPTH_4,
  9. num_hidden1 = VGG16_NUM_HIDDEN_1, num_hidden2 = VGG16_NUM_HIDDEN_2,
  10. image_width = 224, image_height = 224, image_depth = 3, num_labels = 17):
  11. w1 = tf.Variable(tf.truncated_normal([patch_size1, patch_size1, image_depth, patch_depth1], stddev=0.1))
  12. b1 = tf.Variable(tf.zeros([patch_depth1]))
  13. w2 = tf.Variable(tf.truncated_normal([patch_size1, patch_size1, patch_depth1, patch_depth1], stddev=0.1))
  14. b2 = tf.Variable(tf.constant(1.0, shape=[patch_depth1]))
  15. w3 = tf.Variable(tf.truncated_normal([patch_size2, patch_size2, patch_depth1, patch_depth2], stddev=0.1))
  16. b3 = tf.Variable(tf.constant(1.0, shape = [patch_depth2]))
  17. w4 = tf.Variable(tf.truncated_normal([patch_size2, patch_size2, patch_depth2, patch_depth2], stddev=0.1))
  18. b4 = tf.Variable(tf.constant(1.0, shape = [patch_depth2]))
  19. w5 = tf.Variable(tf.truncated_normal([patch_size3, patch_size3, patch_depth2, patch_depth3], stddev=0.1))
  20. b5 = tf.Variable(tf.constant(1.0, shape = [patch_depth3]))
  21. w6 = tf.Variable(tf.truncated_normal([patch_size3, patch_size3, patch_depth3, patch_depth3], stddev=0.1))
  22. b6 = tf.Variable(tf.constant(1.0, shape = [patch_depth3]))
  23. w7 = tf.Variable(tf.truncated_normal([patch_size3, patch_size3, patch_depth3, patch_depth3], stddev=0.1))
  24. b7 = tf.Variable(tf.constant(1.0, shape=[patch_depth3]))
  25. w8 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth3, patch_depth4], stddev=0.1))
  26. b8 = tf.Variable(tf.constant(1.0, shape = [patch_depth4]))
  27. w9 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth4, patch_depth4], stddev=0.1))
  28. b9 = tf.Variable(tf.constant(1.0, shape = [patch_depth4]))
  29. w10 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth4, patch_depth4], stddev=0.1))
  30. b10 = tf.Variable(tf.constant(1.0, shape = [patch_depth4]))
  31. w11 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth4, patch_depth4], stddev=0.1))
  32. b11 = tf.Variable(tf.constant(1.0, shape = [patch_depth4]))
  33. w12 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth4, patch_depth4], stddev=0.1))
  34. b12 = tf.Variable(tf.constant(1.0, shape=[patch_depth4]))
  35. w13 = tf.Variable(tf.truncated_normal([patch_size4, patch_size4, patch_depth4, patch_depth4], stddev=0.1))
  36. b13 = tf.Variable(tf.constant(1.0, shape = [patch_depth4]))
  37. no_pooling_layers = 5
  38. w14 = tf.Variable(tf.truncated_normal([(image_width // (2**no_pooling_layers))*(image_height // (2**no_pooling_layers))*patch_depth4 , num_hidden1], stddev=0.1))
  39. b14 = tf.Variable(tf.constant(1.0, shape = [num_hidden1]))
  40. w15 = tf.Variable(tf.truncated_normal([num_hidden1, num_hidden2], stddev=0.1))
  41. b15 = tf.Variable(tf.constant(1.0, shape = [num_hidden2]))
  42. w16 = tf.Variable(tf.truncated_normal([num_hidden2, num_labels], stddev=0.1))
  43. b16 = tf.Variable(tf.constant(1.0, shape = [num_labels]))
  44. variables = {
  45. 'w1': w1, 'w2': w2, 'w3': w3, 'w4': w4, 'w5': w5, 'w6': w6, 'w7': w7, 'w8': w8, 'w9': w9, 'w10': w10,
  46. 'w11': w11, 'w12': w12, 'w13': w13, 'w14': w14, 'w15': w15, 'w16': w16,
  47. 'b1': b1, 'b2': b2, 'b3': b3, 'b4': b4, 'b5': b5, 'b6': b6, 'b7': b7, 'b8': b8, 'b9': b9, 'b10': b10,
  48. 'b11': b11, 'b12': b12, 'b13': b13, 'b14': b14, 'b15': b15, 'b16': b16
  49. }
  50. return variables
  51. def model_vggnet16(data, variables):
  52. layer1_conv = tf.nn.conv2d(data, variables['w1'], [1, 1, 1, 1], padding='SAME')
  53. layer1_actv = tf.nn.relu(layer1_conv + variables['b1'])
  54. layer2_conv = tf.nn.conv2d(layer1_actv, variables['w2'], [1, 1, 1, 1], padding='SAME')
  55. layer2_actv = tf.nn.relu(layer2_conv + variables['b2'])
  56. layer2_pool = tf.nn.max_pool(layer2_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  57. layer3_conv = tf.nn.conv2d(layer2_pool, variables['w3'], [1, 1, 1, 1], padding='SAME')
  58. layer3_actv = tf.nn.relu(layer3_conv + variables['b3'])
  59. layer4_conv = tf.nn.conv2d(layer3_actv, variables['w4'], [1, 1, 1, 1], padding='SAME')
  60. layer4_actv = tf.nn.relu(layer4_conv + variables['b4'])
  61. layer4_pool = tf.nn.max_pool(layer4_pool, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  62. layer5_conv = tf.nn.conv2d(layer4_pool, variables['w5'], [1, 1, 1, 1], padding='SAME')
  63. layer5_actv = tf.nn.relu(layer5_conv + variables['b5'])
  64. layer6_conv = tf.nn.conv2d(layer5_actv, variables['w6'], [1, 1, 1, 1], padding='SAME')
  65. layer6_actv = tf.nn.relu(layer6_conv + variables['b6'])
  66. layer7_conv = tf.nn.conv2d(layer6_actv, variables['w7'], [1, 1, 1, 1], padding='SAME')
  67. layer7_actv = tf.nn.relu(layer7_conv + variables['b7'])
  68. layer7_pool = tf.nn.max_pool(layer7_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  69. layer8_conv = tf.nn.conv2d(layer7_pool, variables['w8'], [1, 1, 1, 1], padding='SAME')
  70. layer8_actv = tf.nn.relu(layer8_conv + variables['b8'])
  71. layer9_conv = tf.nn.conv2d(layer8_actv, variables['w9'], [1, 1, 1, 1], padding='SAME')
  72. layer9_actv = tf.nn.relu(layer9_conv + variables['b9'])
  73. layer10_conv = tf.nn.conv2d(layer9_actv, variables['w10'], [1, 1, 1, 1], padding='SAME')
  74. layer10_actv = tf.nn.relu(layer10_conv + variables['b10'])
  75. layer10_pool = tf.nn.max_pool(layer10_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  76. layer11_conv = tf.nn.conv2d(layer10_pool, variables['w11'], [1, 1, 1, 1], padding='SAME')
  77. layer11_actv = tf.nn.relu(layer11_conv + variables['b11'])
  78. layer12_conv = tf.nn.conv2d(layer11_actv, variables['w12'], [1, 1, 1, 1], padding='SAME')
  79. layer12_actv = tf.nn.relu(layer12_conv + variables['b12'])
  80. layer13_conv = tf.nn.conv2d(layer12_actv, variables['w13'], [1, 1, 1, 1], padding='SAME')
  81. layer13_actv = tf.nn.relu(layer13_conv + variables['b13'])
  82. layer13_pool = tf.nn.max_pool(layer13_actv, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')
  83. flat_layer = flatten_tf_array(layer13_pool)
  84. layer14_fccd = tf.matmul(flat_layer, variables['w14']) + variables['b14']
  85. layer14_actv = tf.nn.relu(layer14_fccd)
  86. layer14_drop = tf.nn.dropout(layer14_actv, 0.5)
  87. layer15_fccd = tf.matmul(layer14_drop, variables['w15']) + variables['b15']
  88. layer15_actv = tf.nn.relu(layer15_fccd)
  89. layer15_drop = tf.nn.dropout(layer15_actv, 0.5)
  90. logits = tf.matmul(layer15_drop, variables['w16']) + variables['b16']
  91. return logits

上面已经为大家介绍了卷积神经网络,我们从TensorFlow 的安装与基础概念、简单的全连接神经网络、数据的下载与导入、在 MNIST 上训练全连接神经网络、在 CIFAR-10 上训练经过修正的 LeNet 还有深度卷积神经网络等方面向大家介绍了神经网络,机器之心本文所有实验的代码、结果以及代码注释都将在 Github 上开放,这也是机器之心第一次试验性地向大家介绍教程以及实现。我们希望在为读者提供教程的同时也提供实际操作的经验,希望能为大家学习该教程起到积极的作用。
参考博客:http://ataspinar.com/2017/08/15/building-convolutional-neural-networks-with-tensorflow/