原文-LSTM的反向传播:深度学习(6)-长短期网路;此处仅摘抄一小段,建议拜访全文。

LSTM的参数训练:https://www.jianshu.com/p/dcec3f07d3b5;LSTM的参数训练和前向计算比RNNs还是稍微复杂一些。

长短时记忆网络的前向计算

前面描述的开关是怎样在算法中实现的呢?这就用到了门(gate)的概念。门实际上就是一层全连接层,它的输入是一个向量,输出是一个0到1之间的实数向量。假设W是门的权重向量,b是偏置项,那么门可以表示为:

LSTM 参数权重_权重

门的使用,就是用门的输出向量按元素乘以我们需要控制的那个向量。因为门的输出是0到1之间的实数向量,那么,当门输出为0时,任何向量与之相乘都会得到0向量,这就相当于啥都不能通过;输出为1时,任何向量与之相乘都不会有任何改变,这就相当于啥都可以通过。因为LSTM 参数权重_权重_02(也就是sigmoid函数)的值域是(0,1),所以门的状态都是半开半闭的。

LSTM用两个门来控制单元状态c的内容,一个是遗忘门(forget gate),它决定了上一时刻的单元状态

LSTM 参数权重_权重_03

有多少保留到当前时刻LSTM 参数权重_激活函数_04;另一个是输入门(input gate),它决定了当前时刻网络的输入有多少保存到单元状态LSTM 参数权重_激活函数_05。LSTM用输出门(output gate)来控制单元状态LSTM 参数权重_激活函数_06有多少输出到LSTM的当前输出值LSTM 参数权重_权重_07

我们先来看一下遗忘门:

LSTM 参数权重_反向传播_08

上式中,

LSTM 参数权重_激活函数_09

是遗忘门的权重矩阵,

LSTM 参数权重_权重_10

表示把两个向量连接成一个更长的向量,LSTM 参数权重_反向传播_11是遗忘门的偏置项,LSTM 参数权重_LSTM 参数权重_12是sigmoid函数。如果输入的维度是LSTM 参数权重_激活函数_13,隐藏层的维度是LSTM 参数权重_反向传播_14,单元状态的维度是LSTM 参数权重_激活函数_15(通常

LSTM 参数权重_反向传播_16

),则遗忘门的权重矩阵LSTM 参数权重_激活函数_17维度是

LSTM 参数权重_权重_18

。事实上,权重矩阵LSTM 参数权重_激活函数_17都是两个矩阵拼接而成的:一个是

LSTM 参数权重_权重_20

,它对应着输入项

LSTM 参数权重_反向传播_21

,其维度为

LSTM 参数权重_权重_22

;一个是

LSTM 参数权重_LSTM 参数权重_23

,它对应着输入项LSTM 参数权重_反向传播_24,其维度为

LSTM 参数权重_反向传播_25

。可以写为:

LSTM 参数权重_反向传播_26

下图显示了遗忘门的计算:

LSTM 参数权重_权重_27

接下来看看输入门:

LSTM 参数权重_LSTM 参数权重_28

上式中,LSTM 参数权重_LSTM 参数权重_29是输入门的权重矩阵,LSTM 参数权重_权重_30是输入门的偏置项。下图表示了输入门的计算:

LSTM 参数权重_LSTM 参数权重_31

接下来,我们计算用于描述当前输入的单元状态LSTM 参数权重_权重_32,它是根据上一次的输出和本次输入来计算的:

LSTM 参数权重_反向传播_33

下图是的计算:

LSTM 参数权重_LSTM 参数权重_34

现在,我们计算当前时刻的单元状态LSTM 参数权重_LSTM 参数权重_35。它是由上一次的单元状态

LSTM 参数权重_激活函数_36

按元素乘以遗忘门LSTM 参数权重_激活函数_37,再用当前输入的单元状态LSTM 参数权重_LSTM 参数权重_38按元素乘以输入门LSTM 参数权重_LSTM 参数权重_39,再将两个积加和产生的:

LSTM 参数权重_LSTM 参数权重_40

符号o表示按元素乘。下图是LSTM 参数权重_权重_41的计算:

LSTM 参数权重_LSTM 参数权重_42

这样,我们就把LSTM关于当前的记忆和长期的记忆组合在一起,形成了新的单元状态。由于遗忘门的控制,它可以保存很久很久之前的信息,由于输入门的控制,它又可以避免当前无关紧要的内容进入记忆。下面,我们要看看输出门,它控制了长期记忆对当前输出的影响:

LSTM 参数权重_激活函数_43

下图表示输出门的计算:

LSTM 参数权重_反向传播_44

LSTM最终的输出,是由输出门和单元状态共同确定的:

LSTM 参数权重_反向传播_45

下图表示LSTM最终输出的计算:

LSTM 参数权重_LSTM 参数权重_46

式1式6就是LSTM前向计算的全部公式。至此,我们就把LSTM前向计算讲完了。

 

长短时记忆网络的训练

熟悉我们这个系列文章的同学都清楚,训练部分往往比前向计算部分复杂多了。LSTM的前向计算都这么复杂,那么,可想而知,它的训练算法一定是非常非常复杂的。现在只有做几次深呼吸,再一头扎进公式海洋吧。

LSTM训练算法框架

LSTM的训练算法仍然是反向传播算法,对于这个算法,我们已经非常熟悉了。主要有下面三个步骤:

  1. 前向计算每个神经元的输出值,对于LSTM来说,即五个向量的值。计算方法已经在上一节中描述过了。
  2. 反向计算每个神经元的误差项值。与循环神经网络一样,LSTM误差项的反向传播也是包括两个方向:一个是沿时间的反向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播。
  3. 根据相应的误差项,计算每个权重的梯度。

关于公式和符号的说明

首先,我们对推导中用到的一些公式、符号做一下必要的说明。

接下来的推导中,我们设定gate的激活函数为sigmoid函数,输出的激活函数为tanh函数。他们的导数分别为:

LSTM 参数权重_LSTM 参数权重_47

从上面可以看出,sigmoid和tanh函数的导数都是原函数的函数。这样,我们一旦计算原函数的值,就可以用它来计算出导数的值。

LSTM需要学习的参数共有8组,分别是:遗忘门的权重矩阵LSTM 参数权重_反向传播_48和偏置项LSTM 参数权重_反向传播_49、输入门的权重矩阵LSTM 参数权重_反向传播_50和偏置项LSTM 参数权重_反向传播_51、输出门的权重矩阵LSTM 参数权重_激活函数_52和偏置项LSTM 参数权重_反向传播_53,以及计算单元状态的权重矩阵LSTM 参数权重_激活函数_54和偏置项LSTM 参数权重_LSTM 参数权重_55。因为权重矩阵的两部分在反向传播中使用不同的公式,因此在后续的推导中,权重矩阵

LSTM 参数权重_反向传播_56

都将被写为分开的两个矩阵:

LSTM 参数权重_激活函数_57


LSTM 参数权重_反向传播_58


我们解释一下按元素乘符号o。当o作用于两个向量时,运算如下:

LSTM 参数权重_激活函数_59

当o作用于一个向量和一个矩阵时,运算如下:

LSTM 参数权重_权重_60

当o作用于两个矩阵时,两个矩阵对应位置的元素相乘。按元素乘可以在某些情况下简化矩阵和向量运算。例如,当一个对角矩阵右乘一个矩阵时,相当于用对角矩阵的对角线组成的向量按元素乘那个矩阵:

LSTM 参数权重_激活函数_61

当一个行向量右乘一个对角矩阵时,相当于这个行向量按元素乘那个矩阵对角线组成的向量:

LSTM 参数权重_反向传播_62

上面这两点,在我们后续推导中会多次用到。

在t时刻,LSTM的输出值为LSTM 参数权重_权重_63。我们定义t时刻的误差项LSTM 参数权重_反向传播_64为:

LSTM 参数权重_反向传播_65

注意,和前面几篇文章不同,我们这里假设误差项是损失函数对输出值的导数,而不是对加权输入

LSTM 参数权重_权重_66

的导数。因为LSTM有四个加权输入,分别对应

LSTM 参数权重_激活函数_67

,我们希望往上一层传递一个误差项而不是四个。但我们仍然需要定义出这四个加权输入,以及他们对应的误差项。

LSTM 参数权重_激活函数_68

误差项沿时间的反向传递

沿时间反向传递误差项,就是要计算出t-1时刻的误差项

LSTM 参数权重_激活函数_69


LSTM 参数权重_权重_70

我们知道,

LSTM 参数权重_权重_71

是一个Jacobian矩阵。如果隐藏层h的维度是N的话,那么它就是一个

LSTM 参数权重_权重_72

矩阵。为了求出它,我们列出LSTM 参数权重_LSTM 参数权重_73的计算公式,即前面的式6式4

LSTM 参数权重_激活函数_74

显然,

LSTM 参数权重_权重_75

都是

LSTM 参数权重_激活函数_76

的函数,那么,利用全导数公式可得:

LSTM 参数权重_反向传播_77

下面,我们要把式7中的每个偏导数都求出来。根据式6,我们可以求出:

LSTM 参数权重_反向传播_78

根据式4,我们可以求出:

LSTM 参数权重_激活函数_79

因为:

LSTM 参数权重_LSTM 参数权重_80

我们很容易得出:

LSTM 参数权重_LSTM 参数权重_81

将上述偏导数带入到式7,我们得到:

LSTM 参数权重_激活函数_82

根据

LSTM 参数权重_权重_83

的定义,可知:

LSTM 参数权重_反向传播_84

式8式12就是将误差沿时间反向传播一个时刻的公式。有了它,我们可以写出将误差项向前传递到任意k时刻的公式:

LSTM 参数权重_权重_85

将误差项传递到上一层

我们假设当前为第l层,定义l-1层的误差项是误差函数对l-1层加权输入的导数,即:

LSTM 参数权重_权重_86

 

本次LSTM的输入LSTM 参数权重_权重_87由下面的公式计算:

LSTM 参数权重_反向传播_88

上式中,

LSTM 参数权重_激活函数_89

表示第l-1层的激活函数。因为

LSTM 参数权重_LSTM 参数权重_90

都是LSTM 参数权重_权重_91的函数,LSTM 参数权重_LSTM 参数权重_92又是

LSTM 参数权重_激活函数_93

的函数,因此,要求出E对

LSTM 参数权重_权重_94

的导数,就需要使用全导数公式:

LSTM 参数权重_激活函数_95

式14就是将误差传递到上一层的公式。

 

权重梯度的计算

对于

LSTM 参数权重_权重_96

的权重梯度,我们知道它的梯度是各个时刻梯度之和(证明过程请参考文章零基础入门深度学习(5) - 循环神经网络),我们首先求出它们在t时刻的梯度,然后再求出他们最终的梯度。我们已经求得了误差项

LSTM 参数权重_权重_97

,很容易求出t时刻的

LSTM 参数权重_权重_98


LSTM 参数权重_激活函数_99

将各个时刻的梯度加在一起,就能得到最终的梯度:

LSTM 参数权重_激活函数_100

对于偏置项

LSTM 参数权重_反向传播_101

的梯度,也是将各个时刻的梯度加在一起。下面是各个时刻的偏置项梯度:

LSTM 参数权重_激活函数_102

下面是最终的偏置项梯度,即将各个时刻的偏置项梯度加在一起:

LSTM 参数权重_LSTM 参数权重_103

对于

LSTM 参数权重_LSTM 参数权重_104

的权重梯度,只需要根据相应的误差项直接计算即可:

LSTM 参数权重_权重_105

以上就是LSTM的训练算法的全部公式。因为这里面存在很多重复的模式,仔细看看,会发觉并不是太复杂。

当然,LSTM存在着相当多的变体,读者可以在互联网上找到很多资料。因为大家已经熟悉了基本LSTM的算法,因此理解这些变体比较容易,因此本文就不再赘述了。

 

长短时记忆网络的实现

完整代码请参考GitHub: https://github.com/hanbt/learn_dl/blob/master/lstm.py (python2.7)

在下面的实现中,LSTMLayer的参数包括输入维度、输出维度、隐藏层维度,单元状态维度等于隐藏层维度。gate的激活函数为sigmoid函数,输出的激活函数为tanh。

激活函数的实现

我们先实现两个激活函数:sigmoid和tanh。

class SigmoidActivator(object):
    def forward(self, weighted_input):
        return 1.0 / (1.0 + np.exp(-weighted_input))
    def backward(self, output):
        return output * (1 - output)
class TanhActivator(object):
    def forward(self, weighted_input):
        return 2.0 / (1.0 + np.exp(-2 * weighted_input)) - 1.0
    def backward(self, output):
        return 1 - output * output

LSTM初始化、前向计算、反向传播(误差项、梯度项)、梯度下降法、梯度检查Python代码的实现;