循环神经网络recurrent neural network:RNN
:用于处理序列数据 的神经网络,其中 表示第 个样本。 是一个序列 ,序列的长度可以是固定的、也可以是变化的。
循环神经网络是一种共享参数的网络:参数在每个时间点上共享。
传统的前馈神经网络在每个时间点上分配一个独立的参数,因此网络需要学习每个时间点上的权重。而循环神经网络在每个时间点上共享相同的权重。
循环网络中使用参数共享的前提是:相同参数可以用于不同的时间步。即:前一个时间步和后一个时间步之间的关系与时刻 无关。
就像几乎所有函数都可以被认为是前馈神经网络,几乎任何涉及循环的函数都可以被认为是循环神经网络。
考虑动态系统的经典形式: 。其中: 称作系统的状态, 为参数。
对于有限的时间步 ,应用 次定义可以展开这个图:
利用有向无环图来表述:
假设 为 时刻系统的外部驱动信号,则动态系统的状态修改为: 。
当训练RNN
根据过去预测未来时,网络通常要将 作为过去序列信息的一个有损的representation
。
representation
一般是有损的,因为它使用一个固定长度的向量 来表达任意长的序列 。representation
可能会有选择地保留过去序列的某些部分。如 attention
机制。网络的初始状态 的设置有两种方式:
固定为全零。这种方式比较简单实用。
这种情况下,模型的反向梯度计算不需要考虑 ,因为 全零导致对应参数的梯度贡献也为 0 。
使用上一个样本的最后一个状态,即: 。
这种场景通常是样本之间存在连续的关系(如:样本分别代表一篇小说中的每个句子),并且样本之间没有发生混洗的情况。此时,后一个样本的初始状态和前一个样本的最后状态可以认为保持连续性。
另外注意:模型更新过程中
展开图的两个主要优点:
这些优点直接导致了:
基于图展开和参数共享的思想,可以设计不同模式的循环神经网络。根据输入序列的长度,RNN
网络模式可以划分为:输入序列长度为0
、输入序列长度为1
、输入序列长度为 。
设样本集合为 ,其中每个样本为:
设样本对应的真实标记集合为 ,其中每个样本的标记为:
对于输出序列长度为1的样本, 。对应的网络输出为: 。
对于输出序列长度大于1的样本, ,其中 为第 个样本的序列长度。
对应的网络输出为: 。
设真实标记 为真实类别标签,网络的输出 为预测为各类别的概率分布(经过 softmax
归一化的概率)。则该样本的损失函数为:
其中 为第 个时间步的损失函数。通常采用负的对数似然作为损失函数,则有:
其中 为类别的数量, 为 的第 个分量, 为示性函数:
如果将真实类别 标记扩充为概率分布 ,其中真实的类别 位置上其分量为 1,而其它位置上的分量为 0。则 就是真实分布 和预测分布 的交叉熵:
数据集的经验损失函数为:
.
输入序列长度为0
:此时网络没有外部输入,网络将当前时刻的输出作为下一个时刻的输入(需要提供一个初始的输出作为种子)。
如文本生成算法:首先给定 作为种子,然后通过 时刻为止的单词序列来预测 时刻的单词;如果遇到某个输出为停止符,或者句子长度达到给定阈值则停止生成。
在这个任务中,任何早期输出的单词都会对它后面的单词产生影响。
在零长度输入序列的RNN
网络中,过去的输出序列 通过影响 来影响当前的输出 ,从而解耦 和 。
该模型的数学表示为:
其中 表示模型第 步输出 的第 个分量。
单个样本的损失为:
更新方程:
其中输出到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
输入序列长度为1
:模型包含单个 作为输入。此时有三种输入方式:输入 作为每个时间步的输入、输入 作为初始状态 、以及这两种方式的结合。
输入 作为每个时间步的输入:
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,输出到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
输入 作为初始状态 :
模型的数学表示:
单个样本的损失:
更新方程:
.
在图注任务中,单个图像作为模型输入,模型生成描述图像的单词序列。图像就是输入 ,它为每个时间步提供了一个输入。通过图像和 时刻为止的单词序列来预测 时刻的单词。
输出 有两个作用:用作 时刻的输入来预测 ;用于 时刻计算损失函数 。
当输入 作为初始状态 时,每个时间步也没有额外的输入。它与零输入RNN
网络的区别在于:
零输入RNN
的初始输出 是需要给定的,而这里的初始状态 是给定的。
多长度输入序列的RNN
包含了多输出&隐-隐连接RNN
、多输出&输出-隐连接RNN
、单输出&隐-隐连接RNN
等网络类型。
多输出&隐-隐连接
循环网络:每个时间步都有输出,并且隐单元之间有循环连接。
该网络将一个输入序列映射到相同长度的输出序列。
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
多输出&输出-隐连接
循环网络:每个时间步都有输出,只有当前时刻的输出和下个时刻的隐单元之间有循环连接。
该网络将一个输入序列映射到相同长度的输出序列。
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,隐状态到输出的权重为 ,输出到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
单输出&隐-隐连接
循环网络:隐单元之间存在循环连接,但是读取整个序列之后产生单个输出。
单输出&隐-隐连接RNN
将一个输入序列映射到单个输出。
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
多输出&输出-隐连接
循环网络比较于多输出&隐-隐连接
循环网络,该网络的表达能力更小。
多输出&隐-隐连接
循环网络可以选择将其想要的关于过去的任何信息放入隐状态 中,并且通过 传播到未来。多输出&输出-隐连接
循环网络中只有输出 会被传播信息到未来。通常 的维度远小于 ,并且缺乏过去的重要信息。多输出&输出-隐连接
循环网络虽然表达能力不强,但是更容易训练:通过使用前一个时间步的真实标记 来代替输出 ,使得每个时间步可以与其他时间步分离训练,从而允许训练期间更多的并行化。
对于输入序列长度为零或者为1
的RNN
模型,必须有某种办法来确定输出序列的长度。有三种方法来确定输出序列的长度:
当输出是单词时,可以添加一个特殊的标记符。当输出遇到该标记符时,输出序列终止。
此时需要改造训练集,对训练数据的每个输出序列末尾手工添加这个标记符。
在模型中引入一个额外的二元输出单元,该输出单元用于指示:当前时间步是继续生成输出序列,还是停止生成。
RNN
。sigmoid
单元,被训练为最大化正确地预测到每个序列结束的对数似然。在模型中引入一个额外的输出单元,该输出单元预测输出序列的长度 本身。
以 多输出&隐-隐RNN
为例,设:输入到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量;激活函数为双曲正切激活函数 。
设网络从特定的初始状态 开始前向传播,从 到 的每个时间步,则有更新方程:
多输出&隐-隐RNN
的单个样本损失函数为: 。该损失函数的梯度计算代价较高:
tanh
激活函数而不是 ReLU
激活函数的原因是为了缓解长期依赖。back-propagation through time:BPTT
:通过时间反向传播算法,其算法复杂度为 。
由 BPTT
计算得到梯度,再结合任何通用的、基于梯度的技术就可以训练 RNN
。
计算图的节点包括参数 ,以及以 为索引的节点序列 以及 。
根据 ,则有: 。
令节点 ,则有: 。则有:
其中 表示 的第 个分量。
则有:
表示梯度 的第 个分量, 为示性函数。写成向量形式为:
其中 为真实标签 扩充得到的概率分布,其真实的类别 位置上的分量为 1,而其它位置上的分量为 0。
根据定义 ,得到:
根据导数: ,则有:
设隐向量长度为 ,定义:
则有: 。
根据定义 ,即 ,则有: ,记作:
因此得到隐单元的梯度:
当 时, 只有一个后续结点 (从而只有一个后继节点 ) ,因此有:
当 时, 同时具有 两个后续节点,因此有:
由于 依赖于 ,因此求解隐单元的梯度时,从末尾开始反向计算。
一旦获得了隐单元及输出单元的梯度,则可以获取参数节点的梯度。
注意:由于参数在多个时间步共享,因此在参数节点的微分操作时必须谨慎对待。
微分中的算子 在计算 对于 的贡献时,将计算图的所有边都考虑进去了。但是事实上:有一条边是 时间步的 ,还有一条边是 时间步的 ,.... 。
为了消除歧义,使用虚拟变量 作为 的副本。用 表示参数 在时间步 对于梯度的贡献。将所有时间步上的梯度相加,即可得到 。
根据定义 ,即 。则有:
考虑到 对于每个输出 都有贡献,因此有:
记:
考虑到 对于每个输出 都有贡献,因此有:
其中 表示 的第 个分量。
根据定义 ,即:
则有:
考虑到 对于每个隐向量 都有贡献,因此有:
记:
考虑到每个 都对 有贡献,则:
其中 表示 的第 个分量。
记:
考虑到每个 都对 有贡献,则:
其中 表示 的第 个分量。
因为任何参数都不是训练数据 的父节点,因此不需要计算 。
多输出&输出-隐连接RNN
模型可以使用 teacher forcing
算法进行训练。
teacher forcing
训练的本质原因是:当前隐状态与早期隐状态没有直接连接。虽然有间接连接,但是由于 已知,因此这种连接被切断。
BPTT
算法。teacher forcing
和BPTT
算法。长期依赖的问题是深度学习中的一个主要挑战,其产生的根本问题是:经过许多阶段传播之后,梯度趋向于消失或者爆炸。
RNN
涉及到许多相同函数的多次复合作用,每个时间步一次。这种复合作用可以导致极端的非线性行为。因此在RNN
中,长期依赖问题表现得尤为突出。考虑一个没有非线性、没有偏置非常简单的循环结构: 。则有:
设 可以正交分解时: 。其中 为正交矩阵, 为特征值组成的三角阵。则:
前向传播:
反向传播:
若考虑非线性和偏置,即: ,有:
前向传播:
由于每一级的 的幅度被 函数限制在 (-1,1)
之间,因此前向传播并不会指数级增长。
这也是为什么 RNN
使用 tanh
激活函数,而不使用 relu
的原因。
反向传播:
由于隐状态的幅度被 函数限制在 (-1,1)
之间,因此 对 进行了一定程度上的缩小。 越大,结果越小。
对于非循环神经网络,长期依赖的情况稍好。
缓解长期依赖的一个策略是:设计多个时间尺度的模型:在细粒度的时间尺度上处理近期信息、在粗粒度时间尺度上处理远期的信息。
得到粗粒度时间尺度的一种方法是跳跃连接:增加从远期的隐变量到当前隐变量的直接连接。
普通的RNN
中循环从时刻 隐变量连接到了时刻 隐变量,跳跃连接会增加一条从时刻 到时刻 隐变量的连接。
注意:是增加而不是替代。
引入了 延时的循环连接可以减轻梯度消失的问题。
现在梯度指数降低的速度与 相关,而不是与 相关。这允许算法捕捉到更长时间的依赖性。但是这种做法无法缓解梯度指数级爆炸的问题。
得到粗粒度时间尺度的另一种方法是删除连接:主动删除时间跨度为 1 的连接,并用更长的连接替换。
删除连接与跳跃连接的区别:
缓解梯度爆炸和梯度消失的一个方案是:尽可能的使得梯度接近1。这可以通过线性自连接单元来实现。
如:(其中 为隐单元, 为输入)
拥有类似行为的隐单元称作渗漏单元。
渗漏单元与跳跃连接的区别:
渗漏单元和跳跃连接的 参数有两种设置方式:
可以使得不同的循环单元在不同时间尺度上工作:
对于长期依赖问题中的梯度爆炸,最常用的解决方案是梯度截断。
梯度截断有两种方案,设梯度 :
在更新参数之前,逐元素的截断参数梯度,其中 为 的上界:
在更新参数之前,截断梯度的范数,其中 是梯度范数的上界:
第二种方案可以确保截断后的梯度仍然是在正确的梯度方向上。但是实践表明:两种方式的效果相近。因为逐元素的梯度截断时,梯度更新的方向不仅不再是真实梯度方向,甚至也不是mini-batch
的梯度方向。但是它仍然是一个使得目标值下降的方向。
当梯度大小超过了阈值时,即使采用简单的随机步骤,效果往往也非常好。即:随机采用大小为 的向量来作为梯度。因为这样通常会使得梯度离开数值不稳定的状态。
如果在mini-batch
梯度下降中应用了梯度范数截断,则真实梯度的方向不再等于所有mini-batch
梯度的平均。
对于一个mini-batch
,梯度范数截断不会改变它的梯度方向。对于许多个mini-batch
,使用梯度范数截断之后,它们的平均值并不等同于真实梯度的范数截断。
因此使用范数截断的mini-batch
梯度下降,引入了额外的梯度误差。这种误差有助于随机梯度下降算法逃离局部极小值。
梯度截断有助于解决梯度爆炸,但是无助于解决梯度消失。为解决梯度消失,有两种思路:
LSTM
及其他门控机制。正则化引导信息流:希望梯度向量 在反向传播时能维持其幅度。即:希望 与 尽可能一样大。
考虑到
Pascanu et al.
给出了以下正则项:
Pascanu et al.
提出:可以将反向传播梯度 考虑作为恒值来近似。RNN
可以学习的依赖跨度。LSTM
一样有效 。前面介绍的RNN
网络隐含了一个假设:时刻 的状态只能由过去的输入序列 ,以及当前的输入 来决定。
实际应用中,网络输出 可能依赖于整个输入序列。如:语音识别任务中,当前语音对应的单词不仅取决于前面的单词,也取决于后面的单词。因为词与词之间存在语义依赖。
双向 RNN
就是为了解决这种双向依赖问题,它在需要双向信息的应用中非常成功。如:手写识别、语音识别等。
典型的双向 RNN
具有两条子RNN
:
代表通过时间向未来移动的子 RNN
的状态,向右传播信息; 代表通过时间向过去移动的子 RNN
的状态,向左传播信息。
时刻的输出 同时依赖于过去、未来、以及时刻 的输入 。
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
如果输入是 2 维的(如图像),则双向 RNN
可以扩展到4个方向:上、下、左、右。
每个子 RNN
负责一个时间移动方向, 时刻的输出 同时依赖于四个方向、以及时刻 的输入 。
与CNN
相比:
RNN
可以捕捉到大多数局部信息,还可以捕捉到依赖于远处的信息;CNN
只能捕捉到卷积窗所在的局部信息。RNN
计算成本通常更高,而CNN
的计算成本较低。前述RNN
中的计算都可以分解为三种变换:从输入 到隐状态 的变换、从前一个隐状态 到下一个隐状态 的变换、从隐状态 到输出 的变换。这三个变换都是浅层的,即:由一个仿射变换加一个激活函数组成。
事实上,可以对这三种变换中引入深度。实验表明:引入深度会带来好处。
RNN
的隐状态分为多层来引入深度。MLP
(可能是较浅的,也可能是较深的)。ResNet
的思想,在 “隐状态-隐状态” 的路径中引入跳跃连接。通过将RNN
的隐状态分为多层来引入深度:如下所示,隐状态有两层: 和 。隐状态层中层次越高,对输入提取的概念越抽象。
模型的数学表示:
单个样本的损失:
更新方程:
其中输入到隐状态的权重为 ,隐状态到输出的权重为 ,隐状态到隐状态的权重为 , 为输入偏置向量和输出偏置向量。
在这三种变换中,各自使用一个独立的MLP
(可能是深度的),如下图所示。
该方法有一个主要问题:额外深度将导致从时间步 到时间步 的最短路径变得更长,这可能导致优化困难而破坏学习效果。
在第二种方式的基础上,类似ResNet
的思想,在 “隐状态-隐状态” 的路径中引入跳跃连接,从而缓解最短路径变得更长的问题。
目前实际应用中最有效的序列模型是门控RNN
,包括基于LSTM: long short-term memory
的循环网络,和基于门控循环单元GRU: gated recurrent unit
的循环网络。
围绕门控RNN
这一主题可以设计更多的变种。然而一些调查发现:这些 LSTM
和GRU
架构的变种,在广泛的任务中难以明显的同时击败这两个原始架构。
门控RNN
的思路和渗漏单元一样:生成通过时间的快捷路径,使得梯度既不消失也不爆炸。
RNN
将其推广为:连接权重在每个时间步都可能改变。权重是样本和时间的函数,随时间改变。渗漏单元允许网络在较长持续时间内积累信息,但它有个缺点:有时候希望一旦某个信息被使用(即:被消费掉了),那么这个信息就要被遗忘(丢掉它,使得它不再继续传递)。
门控RNN
能够学会何时清除信息,而不需要手动决定。
LSTM
在手写识别、语音识别、机器翻译、为图像生成标题等领域获得重大成功。
LSTM
循环网络除了外部的 RNN
循环之外,还有内部的 LSTM cell
循环(自环)。LSTM
的cell
代替了普通 RNN
的隐单元,而LSTM
的 是cell
的一个输出。
LSTM
引入cell
循环以保持梯度长时间持续流动。其中一个关键是:cell
循环的权重视上下文而定,而不是固定的。
具体做法是:通过gate
来控制这个cell
循环的权重,而这个gate
由上下文决定。
cell
输出是 ,而不是整个RNN
单元的输出 。cell
之间的连接是通过 来连接的。LSTM
最重要的就是cell
状态 ,它以水平线在图上方贯穿运行。
sigmoid
函数 () 的输出在 0
到1
之间,描述每个部分有多少量可以通过。它起到门gate
的作用:0
表示不允许通过,1
表示允许全部通过,0~1
之间表示部分通过。
LSTM
拥有三个门:遗忘门、输入门、输出门。
遗忘门:控制了cell
上一个状态 中,有多少信息进入当前状态 。
与渗漏单元类似,LSTM cell
也有线性自环。遗忘门 控制了自环的权重,而不再是常数 :
写成向量形式为:( 为逐元素的sigmoid
函数)
其中: 为遗忘门的偏置, 为遗忘门的输入权重, 为遗忘门的循环权重。
输入门:控制了输入 中,有多少信息进入cell
当前状态 。
输入门 的方程:
写成向量的形式为:( 为逐元素的sigmoid
函数)
其中: 为输入门的偏置, 为输入门的输入权重, 为输入门的循环权重。
图中的 就是
输出门:控制了cell
状态 中,有多少会进入cell
的输出 。
输出门 的更新方程:
写成向量的形式: ( 为逐元素的sigmoid
函数)
其中: 为输出门的偏置, 为输出门的输入权重, 为输出门的循环权重。
cell
状态更新:cell
状态 由两部分组成:
因此cell
状态更新方程为:
写成向量的形式为: ( 为逐元素的函数, 为逐元素的向量乘积)
其中: 为cell
的偏置, 为cell
的输入权重, 为cell
的循环权重。
cell
输出更新:cell
输出就是 ,它是将cell
状态经过了 非线性层之后,再通过输出门 控制输出的流量。
写成向量的形式: ( 为逐元素的函数, 为逐元素的向量乘积)
一旦得到了cell
的输出 ,则获取整个RNN
单元的输出 就和普通的 RNN
相同。
令节点 ,根据激活函数的性质: ,,则有:
考虑到 的后续节点为:当 为最后一个节点时,后续节点为 ;当 不是最后一个节点时,后续节点为 。因此有:
考虑到:
因此有:
LSTM
可以缓解梯度消失。考虑到 的后续节点为:当 为最后一个节点时,后续节点为 ;当 不是最后一个节点时,后续节点为 。因此有:
考虑到 对于每个输出 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个状态 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个遗忘门 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个输入门 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个输出门 都有贡献,则有:
其中 表示 的第 个分量。
也可以选择使用cell
状态 作为这些门的额外输入。此时 就多了额外的权重参数,这些参数对应于 的权重和偏置。
门控循环单元GRU
比 LSTM
模型更简单:
GRU
的单个门控单元同时作为遗忘门和输入门,整个 GRU
模型只有两个门:更新门、复位门。GRU
不再区分cell
的状态 和cell
的输出 。更新门:控制了新的信息 ( 由 生成)、旧的信息 中各有多少信息进入了 。
更新门 的更新方程:
写成向量的形式为:( 为逐元素的sigmoid
函数)
其中: 为更新门的偏置, 为更新门的输入权重, 为更新门的循环权重。
复位门:控制了新的信息 中, 之间的比例。它表示在新的信息中,旧的信息多大程度上影响新的信息。如果 ,则旧的信息不影响新的信息,可以理解为复位。
复位门 的更新方程:
写成向量的形式为:( 为逐元素的sigmoid
函数)
其中: 为复位门的偏置, 为复位门的输入权重, 为复位门的循环权重。
cell
输出:cell
输出就是 。
cell
更新方程:
写成向量的形式:(其中 为逐元素的向量乘积; 为逐元素的函数)
令 ,它刻画了本次的更新。于是cell
的输出更新方程为:
其中: 为cell
的偏置, 为cell
的输入权重, 为cell
的循环权重。
一旦得到了cell
的输出 ,则获取整个RNN
单元的输出 就和普通的 RNN
相同。
令节点 ,根据激活函数的性质: ,,则有:
考虑到 的后续节点为:当 为最后一个节点时,后续节点为 ;当 不是最后一个节点时,后续节点为 。记 ,因此有:
考虑到:
因此有:
GRU
可以缓解梯度消失。考虑到 对于每个输出 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个状态 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个复位门 都有贡献,则有:
其中 表示 的第 个分量。
考虑到 对于每个更新门 都有贡献,则有:
其中 表示 的第 个分量。
在LSTM
与 GRU
中有两种非线性函数: sigmoid
与 tanh
。
sigmoid
用于各种门,是因为它的阈值为 0~1
,可以很好的模拟开关的关闭程度。
tanh
用于激活函数,是因为它的阈值为 -1~1,它的梯度的阈值为 0~1。
如果使用sigmoid
作为激活函数,则其梯度范围为 0~0.5,容易发生梯度消失。
如果使用relu
作为激活函数,则前向传播时,信息容易爆炸性增长。
另外relu
激活函数也会使得输出只有大于等于0
的部分。
前面给出的 LSTM
和 GRU
中, 是通过 feature map
直接相加,如 LSTM
中的状态更新方程:
事实上,也可以通过 feature map
进行拼接,如:
其中 表示将两个向量进行拼接。
前面介绍的多长度输入序列的模式中,输出序列和输入序列长度相同。实际任务中,如:语音识别、机器翻译、知识问答等任务,输出序列和输入序列长度不相等。
编码-解码
架构就是为了解决这类问题。设输入序列为 ,输出序列为 。长度 。
设 C
为输入的一个表达representation
,包含了输入序列的有效信息。
C
是一个向量序列,则它和输入序列的区别在于:序列C
是定长的、较短的;而输入序列是不定长的、较长的。整个编码-解码
结构分为:编码器,解码器。
编码器(也叫作读取器,或者输入RNN
):处理输入序列。
编码器的最后一个状态 通常就是输入序列的表达C
, 并且作为解码器的输入向量。
解码器(也叫作写入器,或者输出RNN
):处理输入的表达C
。
解码器有三种处理C
的方式:输入 C
作为每个时间步的输入、输入 C
作为初始状态 且每个时间步没有额外的输入、结合上述两种方式。
训练时,编码器和解码器并不是单独训练,而是共同训练以最大化 :
编码-解码架构中:
编码-解码架构的主要缺点:编码器RNN
输出的上下文C
的维度太小,难以恰当的概括一个长的输入序列的完整信息。
可以通过引入attention
机制来缓解该问题。
attention
是一种提升 encoder - decoder
模型效果的机制,一般称作 attention mechanism
。
attention
被广泛用于机器翻译、语音识别、图像标注Image Caption
等领域。如:机器翻译中,为句子中的每个词赋予不同的权重。
attention
本身可以理解为一种对齐关系,给出了模型输入、输出之间的对齐关系,解释了模型到底学到了什么知识。
在机器翻译中,解释了输入序列的不同位置对输出序列的影响程度。如下图所示为机器翻译中,输入-输出的 attention
矩阵。
在图像标注中,解释了图片不同区域对输出文本序列的影响程度。如下图所示为图像标注中,影响输出单词的图像块。
设输入序列为 ,输出序列为 ,长度 。设encoder
的隐向量为 ,decoder
的隐向量为 。
对于传统的 encoder-decoder
模型,decoder
的输入只有一个向量,该向量就是输入序列经过encoder
编码的上下文向量 。
通常将 encoder
的最后一个隐单元的隐向量 作为上下文向量。
对于 attention encoder-decoder
模型,decoder
的输入是一个向量序列,序列长度为 。
decoder
位置 的输入是采用了 attention
机制的上下文向量 ,不同位置的上下文向量不同。
上下文向量 由 encoder
的所有隐向量加权得到: 。
其中 。
权重 刻画了:在对第 个输出进行解码时,第 个输入的重要程度。
一个直觉上的方法是:首先计算 与 的相关性,然后对所有的 归一化即可得到权重系数。即:
其中 score
由多种计算方式,不同的计算方式代表不同的 attention
模型( 为待学习的参数,n
为向量的维度):
上述的 attention
机制中为了计算上下文向量 , 需要考虑 encoder
的所有隐向量。当输入序列较长时(如一段话或一篇文章),计算效率较低。
local attention
在计算上下文向量 时只需要考虑 encoder
的部分隐向量:首选预测encoder
端对齐的位置 ,然后基于位置 选择一个窗口来计算上下文向量 。
其中 为待学习的参数, 为人工指定的固定常量。
虽然 local attention
可以提高计算效率,但是会带来两个问题:
encoder
的输入序列长度 并不是很长时,计算量并没有显著减小。attention
的准确性。`
传统的 attention
是基于encoder
端和 decoder
端的隐向量来计算 attention
的,得到的是输入序列的每个 input
和输出序列的每个 output
之间的依赖关系。
self attention
计算三种 attention
:
encoder
端计算自身的 attention
,捕捉input
之间的依赖关系。decoder
端计算自身的 attention
,捕捉output
之间的依赖关系。encoder
端得到的 self attention
加入到 decoder
端得到的 attention
中,捕捉输入序列的每个 input
和输出序列的每个 output
之间的依赖关系。设输入序列为 ,输出序列为 ,长度 。
encoder
端的 self attention
:
首先经过 映射得到 key
向量序列 、经过 映射得到 query
向量序列 。
然后计算归一化的 self attention
:
其中 表示各输入与第 个输入的相关因子,。
最后得到经过加权的 encoder
输出向量: 。
decoder
端的 self attention
:考虑到解码时 时刻不知道 时刻及其之后的结果,因此仅考虑 时刻之前的 attention
,这被称作 masked attention
。因此对于时刻 :
首先经过 映射得到 key
向量序列 、经过 映射得到 query
向量序列 。
然后计算归一化的 self attention
:
其中 表示各输入与第 个输入的相关因子,。
最后得到经过加权的 encoder
输出向量: 。
encoder
和 decoder
的 attention
:
计算归一化的 self attention
:
其中 表示各输入与第 个输出的相关因子, 。
最后得到经过加权的 attention
上下文向量: 。
最后将上下文向量 作为一个前馈神经网络的输入,其输出就是 。
上述 self attention
机制完全抛弃了 RNN
的架构,著名的 Transformer
架构就是基于它来构建的。
self attention
未能考虑到输入序列的先后顺序,因此 Transformer
架构中引入了位置 embedding
来解决该问题。
理论上序列的 的 self attention
只需要简单计算:
引入两个映射矩阵是为了更好的泛化:attention
并不仅仅考虑序列的原始信息,而是考虑了从序列中抽取的信息。
在论文《Hierarchical Attention Networks for Document Classification》
中提出了分层 attention
用于文档分类。论文提出了两个层次的 attention
:
attention
,即 word attention
。attention
,即 sentence attention
。层次 attention
涉及到四个部分:
word encoder
:(对于句子 )
word embedding
: 。
GRU
隐向量(原始论文中采用双向 GRU
):
word attention
:
其中 表示这个单词序列的总信息,称作单词上下文。它是随机初始化并从网络训练得到。
sentence encoder
:
sentence attention
:
其中 表示这个句子序列的总信息,称作句子上下文。它是随机初始化并从网络训练得到。