[论文阅读] Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention

之前的工作证明了多头自注意力只要有足够的注意力头数就可以表示任意的卷积层。但是,本文反向表明,用自回归目标训练的自注意力层可以被看作是一个RNN,可以显著加快自回归transformer模型的推理时间。

Transformer

xRN×F,NF维的特征向量。Transformer即一个函数T:RN×FRN×F,由L个transformer层T1(),,TL()组成: Tl(x)=fl(Al(x)+x). Al()代表自注意力函数。输入序列x由三个矩阵WQRF×DWKRF×D,WvRF×M映射到Q,K,VAl(x)=V Q=xWQ,K=xWK,V=xWV,Al(x)=V=softmax(QKTD)V. softmax函数按行应用于QKT,Q,K,V分别表示queries、keys和values。

式2表示了一种特定形式的注意力,称为softmax注意力,其中相似性是由QK的点积的指数表示的。给定一个下标i,返回一个矩阵的第i行作为一个向量,对于任意相似性函数,可以写出一个广义的注意力方程: Vi=j=1Nsim(Qi,Kj)Vjj=1Nsim(Qi,Kj) 将式3中的相似性函数sim(q,k)替代为exp(qTkD),则与式2等价。

Linearized Attention

式2中注意力的定义具有一般性,可以用来定义一些其他的注意力,如多项式注意力和RBF核注意力。为了使式3定义一个注意力函数,需要对sim()施加一个非负的约束。k(x,y):R2×FR+

给定一个特征表示核函数ϕ(x),则可以将式2重写为: Vi=j=1Nϕ(Qi)Tϕ(Kj)Vjj=1Nϕ(Qi)Tϕ(Kj) 根据矩阵乘法的结合律,进一步简化: Vi=ϕ(Qi)Tj=1Nϕ(Kj)VjTϕ(Qi)Tj=1Nϕ(Kj) 当分子写成向量形式时,式5可以更简化 (ϕ(Q)ϕ(K)T)V=ϕ(Q)(ϕ(K)TV) 特征映射ϕ()逐行应用于矩阵Q,K

对于式2,softmax注意力的计算复杂度式的,表示序列长度。空间复杂度也是相同的,因为要保存完整的注意力矩阵来计算的梯度。

对于式5,linear transformer的时间复杂度、空间复杂度都是的,因为我们可以一次计算出并且在每个查询中重复使用。

对于softmax注意力,乘法和加法的总复杂度为的维度,的维度。

对于线性注意力,首先计算维度为的特征图,然后计算新值的加法和乘法的复杂度为

先前的分析中并没有考虑到核函数和特征函数的选择。与指数核对应的特征函数是无穷维的,这导致不能精确地线性化softmax注意力。而另一方面,多项式核具有精确的、有限维的特征映射,并且已被证明与指数核或RBF核同样有效。计算一个2次线性化多项式transformer的复杂度为

对于小序列,使用一个特征映射得到正的相似度 相较于可以避免x为负时将梯度设置为0。这样的特征映射产生的注意力计算复杂度为

Causal Masking

利用transformer框架可以通过掩盖注意力高效地训练自回归模型,使得第个位置只能受到第个位置的影响,当且仅当,即一个位置不能受到后续位置的影响。由此将式3改写为: 又由之前的推理,将掩蔽注意力线性化如下: 引入如下:

将式9仅一步简化: 是可以由连续计算得到的,因而使得带有因果掩码的linear transformer的计算复杂度与序列长度称线性关系。

gradient computation

在任何深度学习框架中,式12的朴素实现都需要存储所有的中间值以计算梯度,这使得内存的消耗量最大增加倍,影响了对长序列或者深度模型的适用性。为解决这一问题,导出式9中的分子的梯度作为累加和。这使得我们可以在线性时间和固定的内存空间同时计算causal linear attention的前向和后向传播。

给定分子和标量损失函数对于分子的梯度,导出如下:

式9、式13-15的累加和是在线性时间内、仅需关于序列长度线性比的内存空间内计算得到的。给定一个维的特征图,算法的时间复杂度为,空间复杂度为

Summary

这篇文章实现了线性复杂度的transformer,后续尝试把线性的transformer加到DETR类模型里跑一下,先从original DETR开始改。Facebook有后续的工作,Hydra Attention,但是还没有开源,先挖个坑后面再看。


[论文阅读] Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention
http://k0145vin.xyz/2022/10/29/论文阅读-Transformers-are-RNNs-Fast-Autoregressive-Transformers-with-Linear-Attention/
作者
一瓶AD钙
发布于
2022年10月29日
许可协议