注意力和Softmax的两点有趣发现:鲁棒性和信息量
By 苏剑林 | 2023-04-25 | 28642位读者 |最近几周笔者一直都在思考注意力机制的相关性质,在这个过程中对注意力及Softmax有了更深刻的理解。在这篇文章中,笔者简单分享其中的两点:
1、Softmax注意力天然能够抵御一定的噪声扰动;
2、从信息熵角度也可以对初始化问题形成直观理解。
鲁棒性 #
基于Softmax归一化的注意力机制,可以写为
\begin{equation}o = \frac{\sum\limits_{i=1}^n e^{s_i} v_i}{\sum\limits_{i=1}^n e^{s_i}}\end{equation}
有一天笔者突然想到一个问题:如果往$s_i$中加入独立同分布的噪声会怎样?为此,我们考虑
\begin{equation}\tilde{o} = \frac{\sum\limits_{i=1}^n e^{s_i+\varepsilon_i} v_i}{\sum\limits_{i=1}^n e^{s_i+\varepsilon_i}}\end{equation}
其中$\varepsilon_i$是独立同分布的噪声。然而,简单分析后笔者发现结论是“不怎么样”,注意力机制天然能抵御这类噪声,即$\tilde{o}\approx o$。
为了理解这一点,只需要意识到:
\begin{equation}\tilde{o} = \frac{\frac{1}{n}\sum\limits_{i=1}^n e^{s_i+\varepsilon_i} v_i}{\frac{1}{n}\sum\limits_{i=1}^n e^{s_i+\varepsilon_i}}=\frac{\mathbb{E}_i[e^{s_i+\varepsilon_i} v_i]}{\mathbb{E}_i[e^{s_i+\varepsilon_i}]}\approx \frac{\mathbb{E}_i[e^{s_i}v_i]\mathbb{E}[e^{\varepsilon}]}{\mathbb{E}_i[e^{s_i}]\mathbb{E}[e^{\varepsilon}]}=\frac{\mathbb{E}_i[e^{s_i}v_i]}{\mathbb{E}_i[e^{s_i}]}=o\end{equation}
约等号是利用了$\varepsilon_i$跟$s_i,v_i$相互独立,所以积的期望等于期望的积。
信息量 #
如果我们记$p_i = e^{s_i}\left/\sum\limits_{i=1}^n e^{s_i}\right.$,那么$p_i$描述了一个离散型概率分布,我们可以算信息熵
\begin{equation}H = -\sum_{i=1}^n p_i\log p_i\quad\in[0,\log n]\end{equation}
在《“熵”不起:从熵、最大熵原理到最大熵模型(一)》中我们讨论过,熵是不确定性的度量,也是信息量的度量。怎么理解两者的联系呢?熵本质上是均匀度的度量,越均匀越不确定,所以熵是不确定性的度量,熵的下界是0,所以不确定性也意味着它是我们从“不确定”到“完全确定”所能获得的最大信息量。
我们知道,如果将$s_i$初始化得非常大,那么$p_i$就会接近一个one hot分布,此时就会由于梯度消失而无法训练(参考《浅谈Transformer的初始化、参数化与标准化》)。笔者发现从信息量的角度也可以很直观理解这一点:模型训练本身就是从不确定(随机模型)到确定(训练模型)的过程,优化器负责从随机模型中“榨取”信息,而one hot分布的信息量为0,优化器“无利可图”,说不准还要“倒贴”,自然也就没法优化好了。所以我们要将模型初始化得尽量均匀,以保证可以“榨取”的信息量最大。
当然,除了要保证信息量的上界足够大外,还要保证信息量的下界足够小,才能保证可以“榨取”的信息量尽量大。之前在介绍对比学习中,有读者不理解温度参数的意义,其实也可以从信息量来理解。记
\begin{equation}p_i = \frac{e^{(\cos\theta_i) / \tau}}{\sum\limits_{i=1}^n e^{(\cos\theta_i)/\tau}}\end{equation}
如果$\tau=1$,那么信息熵的上界为$\log n$,但是下界约为$\log n - 0.33$(请读者自行证明一下),能获得的信息量太少,所以我们要缩小$\tau$,使得信息熵的下界接近0,从而增加能够获得的信息量。
简言之 #
简单水了一篇博客。可以看出,最终的结论还是——《听说Attention与Softmax更配哦~》。
转载到请包括本文地址:https://spaces.ac.cn/archives/9593
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Apr. 25, 2023). 《注意力和Softmax的两点有趣发现:鲁棒性和信息量 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/9593
@online{kexuefm-9593,
title={注意力和Softmax的两点有趣发现:鲁棒性和信息量},
author={苏剑林},
year={2023},
month={Apr},
url={\url{https://spaces.ac.cn/archives/9593}},
}
April 25th, 2023
受益匪浅
April 26th, 2023
作者您好,请问0.33是怎么得出的,我推了半天,感觉n趋向无穷时,下界也是logn?
简单来说,方差越大,熵越小。方差最大的时候,一半$\cos\theta_i$取$1$,另一半$\cos\theta_i$取$-1$。
代入熵的定义
$$H = \log\left[\frac{n}{2}(e+e^{-1})\right]-\frac{(n/2)(e-e^{-1})}{(n/2)(e+e^{-1})}=\log n - 0.3278133\cdots$$
May 5th, 2023
vi和o是啥??
May 17th, 2023
On the Properties of the Softmax Function with Application in Game Theory and Reinforcement Learning 這篇論文對 Softmax 的性質總結得滿好的。
Softmax 是一個 1-Lipschitz non-negative activation function,由於其良好的性質,對於 self-attention 的變種,其實沒必要把它換掉。反而,如果把 softmax 換成 square ReLU,由於後者不是 1-Lipschitz constant,會加速 Transformer 及其變種的 over-smoothing 程度。
关于没必要换掉softmax这点我认同,后面我用GAU时都是用softmax的,并没有用square relu。事实上我个人的实验结果也是softmax优于square relu,跟原论文的不一致。
由於 softmax bottleneck (https://aclanthology.org/2022.acl-long.554/),在 self-attention 中還是存在改進 $\mathrm{softmax}$ 的可能性的。
bottleneck或者才是泛化能力的关键也尚未可知。
June 13th, 2023
注意力对独立同分布噪声鲁棒,但是似乎高斯增强还是可以提升vit的效果,如何解释呢?
嗯,因为根据极限定律,只有当$n\to\infty$才能取等号,所以在有限的$n$时,加上独立同分布噪声的训练还是有机会提升效果的。
另外,本文说的是注意力矩阵可以抵御独立同分布噪声,我查了查VIT的做法,是将高斯噪声加到输入图像中,跟本文说的不是同一概念。
November 18th, 2024
看看permute-and-flip
https://arxiv.org/abs/2010.12603
https://arxiv.org/abs/2402.05864
November 18th, 2024
看看permute-and-flip
https://arxiv.org/abs/2010.12603
https://arxiv.org/abs/2402.05864