机器学习-神经网络(反向传播算法)学习总结

5/17/2017 mlreview

今天下午完成了Andrew Ng的机器学习课程第五周的课程,完成了自己实现一个基本神经网络的编程作业,不得不说神经网络的运算量真大啊,我的CPU温度都快上100了……

第四周与第五周共两周的内容讲了神经网络的由来和表示方法以及实现方法。

# 为什么要使用神经网络

与之前学过的逻辑回归相比,在逻辑回归的假设函数 hθ(x)h_\theta(x) 中:

g(z)=11+ez g(z) = \frac{1}{1+e^{-z}}
z=θTx z = \theta^Tx

可以看到,zz 的形式是线性的,这意味着你只能拟合这样的数据:

即: 决策边界只用一次方程就可以表示

或者是这样的数据:

即: 特征数量不多,可以通过添加高次项的方法形成不规则的决策边界。

但是如果你需要识别一张图片中是否有车辆出现:

假设用作样本的图片只有 50×5050\times50 像素大小,这样的话你可能输入的特征数量就是 50×50=250050\times50=2500 个(只用灰度值,如果用RGB表示的话特征数量会变成 2500×3=75002500\times3=7500 个),这还只是全部是一次方项的情况,但如果需要的决策边界是形如这样的:

你需要一个不规则的决策边界表示方法,这时你可能会引入高次项,即使只增加二次项:

xixj x_ix_j

这样的话特征数量就会变成:

(1+2500)×250023,000,000 \frac{(1+2500)\times2500}{2} \approx 3,000,000

用这个数量级的特征去做逻辑回归,计算量是非常恐怖的。因此需要一种能够降低运算量的模型来避免这种问题的出现。

**神经网络(Neural Network)**受启发于人类大脑。我们知道,人类的大脑就是通过无数的神经元之间互相传递信息来工作的。**神经元(Neuron)**是这其中的信号传递单元,形如下图:

可以看到,神经元可以接收与其相连接的神经元的信号,自身对其进行处理,然后将信号再发送给其他与自己相连的神经元。受此启发,我们得到了工作方式类似的神经元模型:

可以看到,橙色的节点接受左边三个节点的输入,并计算出我们需要的输出值 hθ(x)h_\theta(x)。其中 x0x_0 是所谓的偏置单元(bias unit)。我们把输入表示为:

x=[x0x1x2x3]θ=[θ0θ1θ2θ3] x = \begin{bmatrix} x_0 \\ x_1 \\ x_2 \\ x_3 \end{bmatrix} \qquad \theta = \begin{bmatrix} \theta_0 \\ \theta_1 \\ \theta_2 \\ \theta_3 \end{bmatrix}

其中,xx 代表左侧四个单元的值,用于输入到下一个单元中,而 θ\theta 代表每个输入值进行输入时的 权重(weight) ,即上图中的线条,你可以简单地理解为每个输入值进行传递时的重要性/优先级/影响力;对于输出 hθ(x)h_\theta(x),即神经元自身的计算方式,我们依然使用之前的激活函数(Sigmoid)。

有了神经元的模型后,我们就可以以此为基础,对其进行复制和组合,就得到了我们现在使用的分层神经网络(三层):

左边的第一层依然是用于输入特征xx的单元组合;中间的第二层叫做隐含层(hidden layer),这一层接受上一层的输入,经过计算(激活函数),并将计算结果传递给下一层;右边的第三层用于计算出最终结果 hθ(x)h_\theta(x)。从图上可以看出,前两层的偏执单元只有在当作输入进行下一层的计算时才会使用,从图上可以看出,x0x_0 与第二层并没有线(权值)相连,意味着当第一层在计算时,只会输出 a1,a2,a3a_1, a_2, a_3,而并没有 a0a_0

有了这样的神经网络模型,我们就可以通过这样的计算来获取假设函数 hθ(x)h_\theta(x) 的值:

a1(2)=g(Θ10(1)x0+Θ11(1)x1+Θ12(1)x2+Θ13(1)x3)a2(2)=g(Θ20(1)x0+Θ21(1)x1+Θ22(1)x2+Θ23(1)x3)a3(2)=g(Θ30(1)x0+Θ21(1)x1+Θ32(1)x2+Θ33(1)x3)hΘ(x)=a1(3)=g(Θ10(2)a0(2)+Θ11(2)a1(2)+Θ12(2)a2(2)+Θ13(2)a0(3)) \begin{aligned} a^{(2)}_1 &=& g(\Theta^{(1)}_{10} x_0 + \Theta^{(1)}_{11} x_1 + \Theta^{(1)}_{12} x_2 + \Theta^{(1)}_{13} x_3) \\ a^{(2)}_2 &=& g(\Theta^{(1)}_{20} x_0 + \Theta^{(1)}_{21} x_1 + \Theta^{(1)}_{22} x_2 + \Theta^{(1)}_{23} x_3) \\ a^{(2)}_3 &=& g(\Theta^{(1)}_{30} x_0 + \Theta^{(1)}_{21} x_1 + \Theta^{(1)}_{32} x_2 + \Theta^{(1)}_{33} x_3) \\ h_\Theta(x) &=& a^{(3)}_1 = g(\Theta^{(2)}_{10} a^{(2)}_0 + \Theta^{(2)}_{11} a^{(2)}_1 + \Theta^{(2)}_{12} a^{(2)}_2 + \Theta^{(2)}_{13} a^{(3)}_0) \end{aligned}

其中:g(z)g(z) 就是我们的激活函数Sigmoid, ai(l)a^{(l)}_i 为网络中第 ll 层中第 ii 个节点的激活值(Activation)Θ(l)\Theta^{(l)} 为网络中第 ll 层的节点值向第 l+1l+1 层节点变换时的权值矩阵。如果在第 ll层有 SlS_l 个节点,在第 l+1l+1 层有 Sl+1S_{l+1} 个节点,那么第 ll 层的权值矩阵 Θ\Theta 的大小为 Sj+1×Sj+1S_{j+1} \times S_j + 1,即:行数代表 j+1j+1 层的节点个数,列数代表 ll 层的节点个数,列数**+1**的原因是在计算 l+1l+1 层时,ll层增加了一个偏置单元 x0x_0

我们进一步对上面的公式向量化:

z(2)=Θ(1)a(1)(a(1)=x)a(2)=g(z(2))(a3×1(2))Adda0(2)=1(a4×1(2))z(3)=Θ(2)a(2)hΘ(x)=a(3)=g(z(3)) \begin{aligned} z^{(2)} &= \Theta^{(1)} a^{(1)} & (a^{(1)} = x) \\ a^{(2)} &= g(z^{(2)}) & (a^{(2)}_{3 \times 1}) \\ Add \ a^{(2)}_0 &= 1 & (a^{(2)}_{4 \times 1}) \\ z^{(3)} &= \Theta^{(2)} a^{(2)} \\ h_\Theta(x) &= a^{(3)} = g(z^{(3)}) \end{aligned}

需要注意的是,上面的例子只是神经网络中最简单的结构,只有一层 隐含层 ,一个 输出单元 ,而这些包括 输入层的节点数量 都可以根据问题的不同而变得更复杂,比如下面这个:

可以看到,这里面有2个隐含层,每层5个节点,输出层有4个节点。在这里,如果我们是在拟合一个多分类问题,那么输出层的每个节点就可以看作是一个目标分类,节点的值(Sigmoid)看作输入样例属于这个分类的概率,那么我们最终得到的假设函数就是这样的:

hΘ(x)[1000],hΘ(x)[0100],hΘ(x)[0010],hΘ(x)[0001],etc. h_\Theta(x) \approx \begin{bmatrix} 1 \\ 0 \\ 0 \\ 0 \end{bmatrix}, \quad h_\Theta(x) \approx \begin{bmatrix} 0 \\ 1 \\ 0 \\ 0 \end{bmatrix}, \quad h_\Theta(x) \approx \begin{bmatrix} 0 \\ 0 \\ 1 \\ 0 \end{bmatrix}, \quad h_\Theta(x) \approx \begin{bmatrix} 0 \\ 0 \\ 0 \\ 1 \end{bmatrix}, etc.

其表示为一个列向量,为1的位置就是最终得到的所属分类。

设样本集为:

(x(1),y(1)),(x(1),y(1)),,(x(m),y(m)) {(x^{(1)}, y^{(1)}), (x^{(1)}, y^{(1)}), \ldots, (x^{(m)}, y^{(m)})}

其中,mm 为样本数量。我们再设 LL 为神经网络的总层数,SlS_l 为第 ll 层包含的节点数量 (不包括偏执单元)。 对于输出层 yy,如果只有一个节点,即 只将样本分为两类 ,那么有 y=0y=1y=0 \parallel y=1;如果有多个节点,即最终要将样本分入多个类别中的一个 ,那么就有 yRKy \in \mathbb{R}^K (KK 为总分类数),即上图中的 hΘ(x)h_\Theta(x)

根据逻辑回归中的代价函数:

J(θ)=1m[i=1my(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]+λ2mj=1nθj2 J(\theta) = -\frac{1}{m} \left[\sum_{i=1}^{m} y^{(i)} \log h_\theta(x^{(i)}) + (1 - y^{(i)}) \log (1 - h_\theta(x^{(i)}))\right] + \frac{\lambda}{2m} \sum_{j=1}^{n} \theta^2_j

类似地,神经网络的代价函数(正规化后)为:

J(Θ)=1m[i=1mk=1Kyk(i)log(hΘ(x(i)))k+(1yk(i))log(1(hΘ(x(i)))k)]+λ2ml=1L1i=1Slj=1Sl+1(Θji(l))2 \begin{aligned} J(\Theta) = -&\frac{1}{m} \left[ \sum_{i=1}^{m} \sum_{k=1}^{K} y_k^{(i)} \log (h_\Theta(x^{(i)}))_k + (1 - y_k^{(i)}) \log (1 - (h_\Theta(x^{(i)}))_k) \right] \\ +& \frac{\lambda}{2m} \sum_{l=1}^{L-1} \sum_{i=1}^{S_l} \sum_{j=1}^{S_{l+1}} (\Theta_{ji}^{(l)})^2 \end{aligned}

其中,在前一部分(非正规化的代价函数)中,mm 为样本数量,KK 为输出层的节点数(即总共的类别数);在后一部分(正规化项)中,ii 为第 ll 层的节点数量,jj 为第 l+1l+1 层的节点数量。注意:此处的正规化项中的 Θ\Theta 不包含每层和偏置单元相连的权值,即 Θ(l)\Theta^{(l)} 矩阵中的第一列。

可以看出,两个代价函数的形式基本一致。 不同的地方在于 ,由于神经网络的代价函数针对多个分类的情况一般化了,所以在公式中多一个求和的符号(即 k=1K\sum_{k=1}^{K}),意味着需要将最终得出的概率向量 yy 的各分量进行求和。

有了代价函数,为了利用梯度下降等方法对 Θ\Theta 进行更新,我们还需要求得各个 Θ\Theta 分量的偏导数,即:

Θij(l)J(Θ) \frac{\partial}{\partial \ \Theta_{ij}^{(l)}} J(\Theta)

要想计算偏导数,给定下面的神经网络:

给定一条训练样本 (x,y)(x, y),首先需要计算 hΘ(x)h_\Theta(x) (即 前向传播(Forward propagation) ):

a(1)=xz(2)=Θ(1)a(1)a(2)=g(z(2))(adda0(2))z(3)=Θ(2)a(2)a(3)=g(z(3))(adda0(3))z(4)=Θ(3)a(3)a(4)=hΘ(x)=g(z(4)) \begin{aligned} a^{(1)} &= x \\ z^{(2)} &= \Theta^{(1)}a^{(1)} \\ a^{(2)} &= g(z^{(2)}) \quad (add \ a_0^{(2)}) \\ z^{(3)} &= \Theta^{(2)}a^{(2)} \\ a^{(3)} &= g(z^{(3)}) \quad (add \ a_0^{(3)}) \\ z^{(4)} &= \Theta^{(3)}a^{(3)} \\ a^{(4)} &= h_\Theta(x) = g(z^{(4)}) \end{aligned}

计算出 hΘ(x)h_\Theta(x) 后,我们就可以使用 反向传播算法(Back propagation) 来计算偏导数了。在这里我们引入一个 误差值(error) 的概念,顾名思义,就是我们计算得出的结果与实际样本中给定的结果之间的误差。例如对于上面的网络结构中的输出层来说,误差值的计算方法为:

δ(4)=a(4)y \delta^{(4)} = a^{(4)} - y

依此类推,向输入层的方向计算各层的误差值:

δ(3)=(Θ(3))Tδ(4).g(z(3)),g(z(3))=a(3).(1a(3))δ(2)=(Θ(2))Tδ(3).g(z(2)) \begin{aligned} \delta^{(3)} &= (\Theta^{(3)})^T \delta^{(4)} \ .* \ g'(z^{(3)}), \qquad g'(z^{(3)}) = a^{(3)} \ .* \ (1 - a^{(3)}) \\ \delta^{(2)} &= (\Theta^{(2)})^T \delta^{(3)} \ .* \ g'(z^{(2)}) \end{aligned}

对于每个样例 (x,y)(x, y),反向传播算法的流程如下:

  • Δij(l)=0\Delta^{(l)}_{ij} = 0
  • a(1)=xa^{(1)} = x
  • 利用前向传播为后面的每一层 l=2,3,,Ll = 2, 3, \ldots, L 计算 a(l)a^{(l)}
  • 计算输出层的误差值 δ(L)=a(L)y\delta^{(L)} = a^{(L)} - y
  • 计算前面 除了输入层 外每一层的误差值 δ(l)(l=2,3,,L1)\delta^{(l)} \ (l = 2, 3, \ldots, L-1)
  • Δij(l)=Δij(l)+aj(l)δi(l+1)\Delta^{(l)}_{ij} = \Delta^{(l)}_{ij} + a^{(l)}_j \delta^{(l+1)}_i

此时的 1mΔij(l)\frac{1}{m} \Delta^{(l)}_{ij} 就是偏导数 Θij(l)J(Θ)\frac{\partial}{\partial \ \Theta_{ij}^{(l)}} J(\Theta)(未正规化)。

对其进行正规化后的形式为:

{Dij(l)=1mΔij(l)+λΘij(l)ifj0Dij(l)=1mΔij(l)ifj=0 \begin{aligned} \left\{ \begin{array}{l} D^{(l)}_{ij} &=& \frac{1}{m} \Delta^{(l)}_{ij} + \lambda \Theta^{(l)}_{ij} \quad & if \ j \neq 0& \\[3ex] D^{(l)}_{ij} &=& \frac{1}{m} \Delta^{(l)}_{ij} & if \ j = 0& \end{array} \right. \end{aligned}

最终偏导数为:

Θij(l)J(Θ)=Dij(l) \frac{\partial}{\partial \ \Theta_{ij}^{(l)}} J(\Theta) = D^{(l)}_{ij}

至此,神经网络的训练及使用方法就讲完了。在用 Matlab 实现的过程中,由于其自带的迭代函数fminunc(@costFun, initialTheta, options)中的initialTheta,以及需要的代价函数function [jval, gradientVec] = costFun(thetaVec)中的gradientVec被要求是向量(Vector)形式,但是在神经网络计算的 Θ\ThetaD(l)D^{(l)}都是矩阵,因此需要将其转换为一维形式,在需要的时候再将其转换回矩阵:

% 转换为一维向量
thetaVec = [Theta1(:); Theta2(:); Theta3(:)];
DVec = [D1(:); D2(:); D3(:)];

% 转换回矩阵形式
Theta1 = reshape(thetaVec(1:x1*y1), row1, col1);
Theta1 = reshape(thetaVec(x1*y1+1:x2*y2), row2, col2);
Theta1 = reshape(thetaVec(x2*y2+1:x3*y3), row3, col3);
1
2
3
4
5
6
7
8

为了保证你实现的反向传播算法(即求偏导)是对的,我们可以将实现的算法计算出的偏导数同用从定义实现的偏导数结果进行比较,如果两者非常接近,那么说明你的实现就是正确的。导数的定义公式为:

θJ(θ)=J(θ+ε)J(θε)2ε \frac{\partial}{\partial \theta} J(\theta) = \frac{J(\theta+\varepsilon) - J(\theta-\varepsilon)}{2\varepsilon}

对于 θ=[θ1,θ2,,θn]\theta = [\theta_1, \theta_2, \ldots, \theta_n],你需要计算每个 θn\theta_n的偏导数:

θ1J(θ)=J(θ1+ε,θ2,,θn)J(θ1ε,θ2,,θn)2εθ2J(θ)=J(θ1,θ2+ε,,θn)J(θ1,θ2ε,,θn)2εθnJ(θ)=J(θ1,θ2,,θn+ε)J(θ1,θ2,,θnε)2ε \begin{aligned} \frac{\partial}{\partial \theta_1} J(\theta) &=& \frac{J(\theta_1+\varepsilon, \theta_2, \ldots, \theta_n) - J(\theta_1-\varepsilon, \theta_2, \ldots, \theta_n)}{2\varepsilon} \\ \frac{\partial}{\partial \theta_2} J(\theta) &=& \frac{J(\theta_1, \theta_2+\varepsilon, \ldots, \theta_n) - J(\theta_1, \theta_2-\varepsilon, \ldots, \theta_n)}{2\varepsilon} \\ \vdots \\ \frac{\partial}{\partial \theta_n} J(\theta) &=& \frac{J(\theta_1, \theta_2, \ldots, \theta_n+\varepsilon) - J(\theta_1, \theta_2, \ldots, \theta_n-\varepsilon)}{2\varepsilon} \end{aligned}

之后将其与由反向传播计算出的偏导数相比较,两者应非常接近。这个方法叫做 梯度检测(Gradient checking)

在神经网络中,我们要优化的参数 Θ(l)\Theta^{(l)} 是不能全部初始化为0的。原因在于如果初始权值全部为0,则隐含层的所有节点的激活值 ai(l)a^{(l)}_i 将全部相等,在进行反向传播时将同步更新,不会出现差异,此时隐含层的节点数量虽然有多个,但是并没有起到相应的作用,相当于浪费了。因此,在初始化权值矩阵时,需要对每个单一的权值 Θij(l)\Theta^{(l)}_{ij}进行 随机赋值(Random initialization) ,使得每个权值都不会相同,避免有同一层多个节点同步更新的问题(Symmetry breaking)。

具体的方法,是将每个 Θij(l)\Theta^{(l)}_{ij} 随机赋值到 [ε,ε][-\varepsilon, \varepsilon] 区间内,在Matlab中实现如下:

Theta1 = rand(row1, col1)*(2*INIT_EPSILON) - INIT_EPSILON
Theta2 = rand(row2, col2)*(2*INIT_EPSILON) - INIT_EPSILON
1
2

总结一下,实现一个神经网络的步骤是:

  1. 随机初始化权值矩阵 Θ\Theta
  2. 实现前向传播来计算假设函数 hΘ(x)h_\Theta(x)
  3. 实现函数计算代价函数 J(Θ)J(\Theta)
  4. 实现反向传播来计算偏导数 Θij(l)J(Θ)\frac{\partial}{\partial \Theta^{(l)}_{ij}} J(\Theta)
  5. 使用梯度检测方法验证自己实现的反向传播算法是否正确
  6. 使用梯度下降等算法最小化代价函数 J(Θ)J(\Theta) 的值(即训练 Θ\Theta)
Last Updated: 5/6/2021, 3:44:21 AM