卷积神经网络原理

7374 字 · 684 阅读 · 2023 年 05 月 28 日

本文已更新,你可以访问 AI By Doing 以获得更好的阅读体验。
本篇文章需 特别授权许可,内容版权归作者所有,未经授权,禁止转载。

介绍

深度学习在计算机视觉等领域有广泛的应用,其中最核心的模型来源于卷积神经网络的突破性发展。这篇文章中,我们将了解并学习深度学习里的卷积神经网络(Convolutional Neural Networks,简称:CNN)。

知识点

  • 卷积核 Kernel
  • 卷积步长 Stride
  • 边距扩展 Padding
  • 高维多卷积核过程
  • 卷积神经网络的发展史

提到人工智能,人们都会希望自己的智能机器具备「听说读写」这样像人一样的基本感知表达能力,计算机视觉就是研究如何让机器学会「看」的学科。如今,借助深度学习的推动,计算机视觉已经来到了一个飞速发展的时代。人脸识别,自动驾驶,医学图像分析,计算机视觉的成熟让这一切变得可能甚至远高于我们人类的工作效率。


Waymo 无人驾驶汽车

卷积神经网络概述

在计算机视觉领域,卷积神经网络 发挥了重要价值。其实它的思想来源很简单,就像神经网络通过模拟生物神经元工作的思路创建,卷积神经网络也在模拟我们的视觉。

1959 年,Hubel 和 Wiesel 的实验表明,生物的视觉处理是从简单的形状开始的,比如边缘、直线、曲线。凭借这一发现,Hubel 和 Wiesel 获得了 1981 年的诺贝尔生理学或医学奖。

卷积神经网络在逐层学习过程中,也模拟着这个过程,第一层学习比较低层的图片结构,第二层学习依据第一层的结果学习高一级的特征,这样最后一层依据前一层学到的高级特征就能完成我们的学习任务。

比如识别人脸,第一层可能学到了简单的线条,第二层学到了轮廓,倒数第二层学到了双眼皮和耳垂,最后一层识别出了她是你的高中班主任。可以说,卷积神经网络现在主宰了计算机视觉领域,通过灵活运用卷积神经网络的结构,会让我们的机器「看」得更多、更清楚。

卷积神经网络一般是由卷积层、池化层和全连接层堆叠而成的前馈神经网络结构。与前面讲到的前馈神经网络相似,卷积神经网络同样使用反向传播算法进行训练。

上图展示了一个基础的卷积神经网络结构。当然,我们通常使用到的网络结构更深、更复杂,一般是由许多卷积层、池化层和全连接层交叉堆叠而成,并包含防止过拟合等更多额外的组件。

现在我们来逐步深入了解卷积神经网络。首先,你需要了解一张图片在计算机眼中的样子。

下图表述了像素矩阵的概念。具体来讲,我们可能看到的是一张图的整体视觉效果,但从计算机中读取图片,图片是通过像素矩阵标识的。每一个像素具有一个数值(0-255),代表图片在该信道像素点位置的大小。

信道这个概念,大家可以理解为颜色。我们常用的 RGB 信道分别代表红绿蓝三种。通过把三个信道的像素矩阵叠加起来,就可以组成我们看到的色彩斑斓的图片了。

所以在计算机中,图片是一个 $m\times n\times k$ 的三维矩阵,其中 $m$ 是矩阵的高度,$n$ 是矩阵的宽度,$k$ 是矩阵的深度。基于这样的数据结构,接下来可以进行卷积运算了。

卷积核 Kernel

我们首先需要了解卷积核的概念。如下图所示,左边是示例图像矩阵,右边同时定义了一个卷积核(权值矩阵)。

其中,卷积核的作用就是从输入矩阵(图像)中提取一定的特征。动画如下:

上面的动画过程,其实就是一个卷积的过程,不知你是否能一眼就看明白?

简单来讲,我们将卷积核沿着图像矩阵的左上角开始移动,不断运算得到右边的矩阵。卷积计算的过程非常简单,就是乘法和加法的运算。例如,当我们第一次把卷积核置于图像矩阵的左上角时:

$$ 1 \times 0 + 2 \times 1 + 2 \times 1 + 1 \times 2 = 6$$

通过不断平移卷积核,同时与输入矩阵进行卷积操作,就可以得到卷积后矩阵。

如何理解卷积的过程,最简单的就是把卷积核看作是一片滤镜,原矩阵通过滤镜之后就得到了新的特征矩阵。

如果你想形象一点了解卷积核究竟在做一件什么事情,就可以把卷积后的图片与原图对比呈现。下图就是一张图片通过不同卷积核做卷积操作后的结果,我们可以明显察觉到不同的卷积核可以帮助我们分解出原图片不同层次的特征。

所以,如果卷积核能够帮助分解图片特征并运用到机器学习的过程中,例如识别一辆车能看到四个轮子以及车窗的细节,你可以想象这将会对提升准确率有极大帮助。

卷积步长 Stride

上面的卷积过程相信你已经看明白了。这时候有一个问题,如果我们在对图片卷积时都依次移动,效率会不会比较低?

是的,对于一些很大的图片,每次只移动一步运算效率会很低下,同时分解得到的特征也很容易冗余。于是,可以引入一个超参数能对每一次移动的步数进行调节,我们把它称之为卷积步长 Stride。

同样,我们通过一组动图来查看不同卷积步长 Stride 的移动效果:

当卷积步长为 1 时,也就是和上面相同的移动过程:

此时,输出矩阵大小为:

$$ \text{output} = (\text{input} - \text{kernel}) + 1$$

如果我们将卷积步长设为 2,就是下面的效果:

可以发现,当 Stride=2 横向移动以及纵向移动时,每一步都跳过了一个单元格。也就是从移动 1 步变成了 2 步。

此时,输出矩阵大小为(向下取整):

$$ \text{output} = \lfloor \frac{\text{input} - \text{kernel}}{\text{stride}} \rfloor + 1$$

边距扩展 Padding

介绍了步长的概念,接下来再介绍一个卷积操作过程中的重要概念:Padding。Padding 也就是边距,当然我们一般都直接使用英文。步长解决了卷积效率低的问题,但又造成了新的问题。你会发现,随着步长的增大,卷积输出的矩阵将持续变小。但是,在构建网络的时候我们往往希望输出矩阵的大小为指定大小,而不完全由卷积步长的变换而左右。于是,就有了 Padding 的操作。

一旦我们确定了原矩阵的大小和步长的大小,得到的卷积矩阵大小将是确定的。假如我们希望卷积得到的矩阵大小变大,在不改变卷积核大小和步长的前提下,唯一的方法就是调整原矩阵的大小。于是,我们就通过对原矩阵进行 Padding 操作(扩大边距)达到目的。

Padding 比较常见的操作是在输入矩阵最外围补上一圈 0 之后,再参与卷积运算。这样,我们就可以自行控制输出矩阵的大小。下面列举几个常见的 Padding 方式:

Arbitrary Padding 在输入图像周围填充 0,使输出矩阵尺寸大于输入尺寸。例如,下图对 $5\times5$ 的输入矩阵外围补上 2 圈 0 后(虚线方格),与 $4\times4$ 的卷积核做卷积运算,最终得到 $6\times6$ 的输出矩阵的过程。


此时,输出矩阵大小为:

$$ \text{output} = (\text{input} - \text{kernel}) + 2 * \text{padding} + 1$$

Half Padding 也叫 Same Padding,它希望得到的输出矩阵尺寸与输入尺寸一致。下图即为我们对 $5\times5$ 的输入矩阵外围补上一圈 0 后,与 $3\times3$ 的卷积核做卷积运算,最终依然得到 $5\times5$ 的输出矩阵的过程。


还有一种是 Full Padding,卷积核从输入矩阵左角第一个方块开始,依次移动到右下角的最后一个方块。


其实,Padding 并不是说只有这几种,还有其他的一些形式,包括 Padding 和 Stride 结合在一起的一些卷积形式,甚至你可以自定义 Padding 和 Stride 的规则,这里也就不再一一介绍了。

高维多卷积核过程

前面,我们已经介绍了矩阵通过单个卷积核的过程,相信你已经对卷积核、步长、Padding 等概念非常熟悉了。

一张黑白图片形成了单个像素矩阵,但如果是一张用 RGB 通道的彩色图片,将会形成 3 维的像素矩阵。这该怎么办呢?

对于一个 $m\times n\times k$ 的三维矩阵,它是如何在这种二维结构的卷积下操作的呢?其实,在卷积神经网络设计上有一个重要原则,就是:卷积核也是一个三维 $a\times b \times k$ 的矩阵(通常 $a=b$,且常取 1,3,5,7 这样的数)。更重要的是,一定要保证输入矩阵大小与卷积核大小在第三个维度上值相等。

这样,我们在第三个维度上对相同深度的输入矩阵与卷积核做如上的卷积运算时,最后叠加所有深度的值得到一个二维的输出矩阵。也就是说,对 $m\times n\times k$ 的输入矩阵与 $a\times a \times k$ 的卷积核,我们如果做一个 $\text{stride}=s$,$\text{padding}=p$ 的卷积操作,那么将会得到一个 $[(m+2p-a)/s+1]\times [(n+2p-a)/s+1]$ 的二维矩阵。

那么如何保证输出矩阵依然是一个三维矩阵呢?其实,只需要每一层都由多个卷积核来实现操作就行了,最后把得到的所有二维矩阵叠起来,就得到了一个 $[(m+2p-a)/s+1]\times [(n+2p-a)/s+1]\times c$,$c$ 为卷积核的个数的输出矩阵。

整个过程可以由下图更直观地表示,一个 $5\times5\times3$ 的输入矩阵被两个 $3\times3\times3$ 的卷积核执行 $\text{stride} = 2$,$\text{padding} = 1$ 卷积后,得到了 $3\times3\times2$ 的输出矩阵:


以上就是一个高维矩阵通过多卷积核的执行过程。

上面介绍了卷积层,接着介绍卷积神经网络中另一个非常重要的层,也就是池化层。池化操作其实就是降采样操作过程。我们都知道,图片是一个非常大的训练数据,所以想达到很好的训练性能,只有卷积层是不够的。池化层通过降采样的方式,在不影响图像质量的情况下,压缩图片,达到减少训练参数的目的。

需要注意的是,往往在几个卷积层之后我们就会引入池化层,池化层没有需要学习的参数,且池化层在每一个深度上独立完成,就是说池化后图像的纵深保持不变。下面介绍两种常用的池化方式。

最大值池化

对于池化操作,我们需要界定一个过滤器和步长。最大值池化,取输入矩阵在过滤器大小上矩阵块的最大值作为输出矩阵对应位置输出。如下图:

平均值池化

除了最大值池化,另一个常用的池化方法是平均值池化。顾名思义,这是取输入矩阵在过滤器大小上矩阵块的平均值作为输出矩阵对应位置输出。如下图:

相比于卷积,池化的过程就更加简单了。相信你通过上面的示意图能很清楚的看出最大池化和平均池化的过程。

深度学习领域有很多的技巧需要大量的探索与实践。比如对于一个人脸识别任务,我们搭建的网络具有很强的多样性。大量数据集和多次实验结果下,有些经典的神经网络孕育而生。这些网络从诞生时到现在都有着独特的优越性能和革命性的创新思想。所以,建议大家在深度学习的领域学习中,熟悉这些经典神经网络的架构,这将进一步深化我们对深度神经网络的理解。

实际上,在对神经网络的理论探索中,尚不具有十分充分的理论证明为什么一些经典网络有如此强大的性能。当然,深度学习还有很多未得到解释的地方,包括神经网络每一步究竟在学习什么,每个参数是如何影响学习性能或者迭代收敛过程,这些问题都有待进一步探寻。所以说,深度神经网络的调参过程充满了「玄学」的感觉,这需要大量的实践积累。

LeNet 神经网络

LeNet-5 是一个很早的经典卷积神经网络。Yann LeCun 大牛(被称作卷积神经网络之父)在 1998 年搭建了 LeNet,并且在手写识别网络(MNIST)上广泛使用。LeNet 神经网络的架构如下图:

其中,网络中的下采样采用了平均值池化。前面各层都由 tanh 激活,最后一层由 RBF 激活。经过测试,LeNet 在 6 万张原始图片的数据集中,错误率能降低到 0.95%。

LeNet 一经发布就带来了一波卷积神经网络潮流。很可惜,由于那个年代计算能力不强,使得卷积神经网络的多样性受到严重限制,研究者都不愿意将网络深化,卷积神经网络只掀起了一波热潮后又几乎无人问津。

AlexNet 神经网络

2012 年 ImageNet 比赛上,一个卷积神经网络的表现力大放异彩,这就是 AlexNet。经过了十几年的硬件发展,计算机运算能力大幅增强,我们可运用的数据也大幅增加,AlexNet 由此孕育而生。

AlexNet 的结构很像 LeNet-5,但是网络变得更大更深。同时,AlexNet 是第一个将卷积层叠层后再叠上池化层的网络。不仅如此,AlexNet 运用上 Dropout(训练时,按照一定的概率将神经元暂时从网络中丢弃)和数据增强两种方法降低过拟合,以及 LRN(local responce normalization) 做为规划层来促使神经元学到更加广泛的特征。可以说,AlexNet 的出色表现,让计算机视觉领域开始逐渐由卷积神经网络主宰。

下面就是 AlexNet 的网络结构图:

原作者在训练 AlexNet 时,一个 GPU 负责图中顶层部分,一个 GPU 运行图中底层部分,GPU 之间仅在某些层互相通信。5 个卷积层,5 个池化层,3 个全连接层,大约 5000 万个可调参数组成了这个经典的卷积神经网络。最后的全连接层输出到 1000 维的 softmax 层,产生一个覆盖 1000 类标记的分布。最终完成了对 ImageNet 的分类任务。

VGG 神经网络

VGG Net可以看成是 Alex Net 的加深版本,同样运用 Alex Net 所带来的思路。VGG Net 拥有 5 个卷积组,2 层全图像连接特征和 1 层全连接分类特征。另外,Alex Net 只有 8 层,但是 VGG Net 通常有 16 到 19 层。

VGG Net 的革命性在于,它在论文中给出了不同的卷积层配置方法,而且从论文实验结果可以看出,随着卷积层从 8 到 16 一步步加深,通过加深卷积层数准确率已经达到了瓶颈数值。这项研究表明了单纯添加卷积层往往并不能起到更好的效果,这将促使以后的卷积神经网络朝向增强卷积层功能的思路发展。

下图描述了一种配置的 VGG 网络结构:

Google Net 神经网络

自 VGG Net 之后,卷积神经网络朝向另一个方向演化,那就是增强卷积模块的功能。

谷歌公司提出的 Google Net 可以说带来了革命性的成果。虽然乍一看好像是因为它将网络变深了,实际上是其中的一个小模块的设计技巧加强了所有卷积层的学习性能。谷歌公司把它称作 Inception,灵感来源于当时同时期的电影 Inception(盗梦空间)。Inception 模块如下图所示:

这个多层感知卷积层的引入,来源于一个很直观的思想,就是一个卷积网络里面的局部稀疏最优结构往往可以由简单可复用的密集组合来近似或者替代。就像上图里面 $1\times1$,$3\times3$,$5\times5$ 的卷积层,与 $3\times3$ 的池化层的组合一个 Inception。这样做是出于以下几点考虑:

  1. 不同尺寸的卷积核可以提取不同尺度的信息。
  2. 采用 $1\times1$,$3\times3$,$5\times5$ 可以方便对齐,Padding 分别为 0,1,2 就可以对齐。
  3. 由于池化层在 CNN 网络里面的成功运用,也把池化层当做组合的一部分,在 GoogleNet 论文里也说明了它的有效性。

由于 Google Net 是好几个 Inception 模块的堆叠,而且往往越后面的 Inception 模块能够提取到更加高级抽象的特征。

前一层经过 $ 1\times 1$ 或者池化层降维后,在全连接层过滤器将 $1\times1$,$3\times3$,$5\times5$ 的卷积结果连接起来,使网络的深度和宽度均可以扩大。论文显示,Inception 模块使整个网络的训练过程有 2 到 3 倍的加速,且更容易捕捉到关键特征用以学习。同时,由于网络很深,为了避免梯度消失的问题,Google Net 还巧妙地在不同深度增加了两个损失函数来训练。

整个 Google Net 结构如下图:

可以看出 Google Net 已经是非常深的网络了,你可以通过新标签页打开图片查看细节。Google Net 所依赖的训练时间与运算成本都上了一个台阶,Inception 这个创意性的设计,极大地优化了卷积神经网络的学习过程。

ResNet 神经网络

如果把网络加深和增强卷积模块功能两个演化方向相结合,就形成了 ResNet。2015 年何凯明团队发布的 ResNet 可以说影响了整个深度学习界。首先让我们看看这个网络有多么震撼:


ResNet 的训练深度达到了 152 层,上图(最右)仅是一个迷你型的 34 层 ResNet 结构。左图是 VGG-19,中间是不具备 Residual 结构的深度神经网络。

可以很明显的看出,ResNet 将部分网络进行了一个跳层传递的操作。网络在深化的过程中,可能会出现一种叫网络退化的问题,ResNet 通过引入这个跳层传递,将前面某层的结果与这一层的卷积结果相加,去优化一个残差来规避这些问题。

ResNet 将我们的网络深度倍数化增加,从最多 20 层一下子拉到了 100 层以上,而且网络也不再是平常的层数堆叠,最终模型预测准确率已经达到了一个巨大的量变提高。

这些经典的神经网络都有它的开创性和典型性,我们可以像上面实现 AlexNet 一样,用 Tensorflow 实现其他网络。但后面的网络结构都太复杂,实验就不再动手搭建。如果你有兴趣,可以依据网络结构,仔细研读该网络的论文 arXiv:1512.03385,试着动手搭建这些网络。

卷积神经网络的发展史

最后,我们通过一张图来总结卷积神经网络的发展史:

你可能在之前有这样的疑问,那就是:为什么要使用卷积神经网络?

之前的神经网络像全连接网络这样,让每个神经元互相连接然后激活,已经可以达到不错的学习效果,也可以拟合去学习各种复杂的过程。那么,经过以上对卷积神经网络的深入了解后,你能否简要回答这个问题呢?

形象地来讲,卷积神经网络保留了图像的空间信息。

19 世纪 60 年代,科学家通过对猫的视觉皮层细胞研究发现,每一个视觉神经元只会处理一小块区域的视觉图像,即感受野。我们也看到在卷积神经网络中,一个卷积层可以有多个不同的卷积核(权值),而每个卷积核在输入图像上滑动且每次只处理一小块图像。

这样,输入端的卷积层可以提取到图像中最基础的特征,比如不同方向的直线或者拐角;接着再组合成高阶特征,比如三角形、正方形等;再继续抽象组合,得到眼睛、鼻子和嘴等五官;最后再将五官组合成一张脸,完成匹配识别。过程中,每个卷积层提取的特征,在后面的层中都会抽象组合成更高阶的特征,最终习得足够多足够关键的特征,完成学习任务。

从运算上讲,卷积层具有两个关键优势,分别是局部连接和权值共享。

每个神经元只与上一层的一个局部区域连接,该连接的空间大小可视为神经网络神经元的感受野。权值共享的意义在于,当前层在深度方向上每层神经元都使用同样的权重和偏差。

这里作了一个合理的假设:如果一个特征在计算某个空间位置 $(x,y)$ 的时候有用,那么它在计算另一个不同位置 $(x_2,y_2)$ 的时候也有用。我们将局部连接和权值共享结合,就降低了参数量,使训练复杂度大大下降。这样的操作还能减轻过拟合,权值共享同时还赋予了卷积网络对平移的容忍性。

试想,如果我们用全连接神经网络来做图像识别任务,图片是由像素点组成的,用矩阵表示的,$28\times28$ 的矩阵,我们得把它「拍平」后,变成一个 $784$ 的一列向量。如果该列向量和隐含层的 $15$ 个神经元连接,就有 $784\times15=11760$ 个权重 $w$。如果,隐含层和最后的输出层的 $10$ 个神经元连接,就有 $150\times10=1500$ 个权重 $w$ 。最后,再加上隐含层的偏置项 $15$ 个和输出层的偏置项 $10$ 个,就得到了 $11760+150+15+10=11935$ 个参数。这是多么恐怖。

下图表示一个三层全连接网络的结构,输入为图片即 $784$ 个神经元,隐藏层 $15$ 个神经元,输出层 $10$ 个神经元:


那么,试想我们如果用卷积神经网络来解决。卷积层里,我们只需要学习卷积核(权值),池化层不需要学习任何参数,所需要学习的参数相比上面的三层全连接层大幅减少。这就是卷积神经网络的好处。

小结

这篇文章中,我们了解并学习了卷积神经网络的结构,尤其是卷积层和池化层的原理和工作方式。相比于全连接神经网络,卷积神经网络引入了仿生学中的感受野,通过卷积操作实现了对图像的多层特征提取。除此之外,权值共享减少了神经网络所需训练参数,大大提升了深度神经网络的计算效率。

本篇文章需 特别授权许可,内容版权归作者所有,未经授权,禁止转载。

系列文章