随着算力的飞速进步,有越多越多的场景希望能够实现“算力换时间”,即通过堆砌算力来缩短模型训练时间。理想情况下,我们希望投入n倍的算力,那么达到同样效果的时间则缩短为1/n,此时总的算力成本是一致的。这个“希望”看上去很合理和自然,但实际上并不平凡,即便我们不考虑通信之类的瓶颈,当算力超过一定规模或者模型小于一定规模时,增加算力往往只能增大Batch Size。然而,增大Batch Size一定可以缩短训练时间并保持效果不变吗?

这就是接下来我们要讨论的话题:当Batch Size增大时,各种超参数尤其是学习率该如何调整,才能保持原本的训练效果并最大化训练效率?我们也可以称之为Batch Size与学习率之间的Scaling Law。

方差视角 #

直觉上,当Batch Size增大时,每个Batch的梯度将会更准,所以步子就可以迈大一点,也就是增大学习率,以求更快达到终点,缩短训练时间,这一点大体上都能想到。问题就是,增大多少才是最合适的呢?

二次方根 #

这个问题最早的答案可能是平方根缩放,即Batch Size扩大到n倍,则学习率扩大到n倍,出自2014年的《One weird trick for parallelizing convolutional neural networks》,推导原理是让SGD增量的方差保持不变。具体来说,我们将随机采样一个样本的梯度记为˜g,其均值和协方差分别记为gΣ,这里的g就是全体样本的梯度。当我们将采样数目增加到B个时,有
˜gB1BBi=1˜g(i),E[˜gB]=g,E[(˜gBg)(˜gBg)]=ΣB
即增加采样数目不改变均值,而协方差则缩小到1/B。对于SGD优化器来说,增量为η˜gB,其协方差正比于η2/B,而我们认为优化过程中适量的(不多不少的)噪声是有必要的,所以当Batch Size B变化时,我们通过调整学习率η让增量的噪声强度即协方差矩阵保持不变,从得出
η2B=常数ηB
这就得到了学习率与Batch Size的平方根缩放定律,后来的《Train longer, generalize better: closing the generalization gap in large batch training of neural networks》也认同这个选择。

线性缩放 #

有意思的是,线性缩放即ηB在实践中的表现往往更好,甚至刚才说的最早提出平方根缩放的《One weird trick for parallelizing convolutional neural networks》作者也在论文中指出了这一点,并表示他也无法给出合理的解释。

某种程度上来说,线性缩放更符合我们的直观认知,尤其是像《Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour》那样,假设连续的n个Batch的梯度方向变化不大的话,那么线性缩放几乎是显然成立的。不过,这个假设显然过强,放宽这个假设则需要将SGD跟SDE(随机微分方程)联系起来,这由《Stochastic Modified Equations and Dynamics of Stochastic Gradient Algorithms I: Mathematical Foundations》完成,但首先用于指出学习率与Batch Size的缩放关系的论文应该是《On the Generalization Benefit of Noise in Stochastic Gradient Descent》

事后来看,这个联系的建立其实并不难理解,设模型参数为θ,那么SGD的更新规则可以改写成
θt+1=θtη˜gB,t=θtηgtη(˜gB,tgt)
其中˜gB,tgt即为梯度的噪声,到目前为止,我们还没有对这个噪声的分布做任何假设,只知道它的均值为0,协方差为Σt/B。接下来我们假设这个噪声的分布是正态分布N(0,Σt/B),那么上述迭代可以进一步改写成
θt+1=θtηgtη(˜gB,tgt)=θtηgtηΣtBz,zN(0,I)=θtηgtηηΣtBz,zN(0,I)
这就意味着SGD的迭代格式θt+1=θtη˜gB,t实际上在近似地求解SDE:
dθ=gtdtηΣtBdw
因此,要想在B发生变化时,运行结果不产生明显变化,上述SDE的形式应该不变,这就得到了线性缩放ηB。这个过程中最关键的一步是,SDE的噪声项步长是非噪声项的平方根,从而分离出一项η来。这一点我们在《生成扩散模型漫谈(五):一般框架之SDE篇》也有过评析,简单来说就是零均值的高斯噪声长期会有一定的抵消作用,所以必须增大步长才能将噪声效应体现出来。

以上结论都是基于SGD优化器得出的,论文《On the SDEs and Scaling Rules for Adaptive Gradient Algorithms》将它推广到了RMSProp、Adam等优化器上,结果是平方根缩放。无独有偶,稍早一点的《Large Batch Optimization for Deep Learning: Training BERT in 76 minutes》在测试Adam及其变体LAMB时,也应用了平方根缩放。更多内容还可以参考博客《How to Scale Hyperparameters as Batch Size Increases》

直面损失 #

可以肯定的是,不管是平方根缩放还是线性缩放,它们都只能在局部范围内近似成立,因为它们都包含了“只要Batch Size足够大,那么学习率就可以任意大”的结论,这显然是不可能的。此外,前面两节的工作都围绕着方差做文章,但我们的根本任务是降低损失函数,因此以损失函数为导向或许更为本质。

单调有界 #

这个视角下的经典工作是OpenAI的《An Empirical Model of Large-Batch Training》,它通过损失函数的二阶近似来分析SGD的最优学习率,得出“学习率随着Batch Size的增加而单调递增但有上界”的结论。同样的思路在稍早的《Dissecting Adam: The Sign, Magnitude and Variance of Stochastic Gradients》也出现了,不过那篇论文并不是用来分析Batch Size的作用。

整个推导过程最关键的思想是将学习率也视作优化参数:设损失函数是L(θ),当前Batch的梯度是˜gB,那么SGD后的损失函数则是L(θη˜gB),我们将最优学习率的求解视为优化问题
η=argminηE[L(θη˜gB)]
这个目标显然很直观,就是选择学习率使得平均而言训练效率最高(损失函数下降得最快)。为了求解这个问题,我们将损失函数近似地展开到二阶:
L(θη˜gB)L(θ)η˜gBL(θ)θ就是g+12η2˜gB2L(θ)θ2记为H˜gB=L(θ)η˜gBg+12η2˜gBH˜gB
这里的H就是Hessian矩阵,而L(θ)θ是损失函数的梯度,理想的目标函数是基于全量样本来求的,这也就是为什么它的梯度就是˜gB的均值g。接着求期望,我们得到
E[L(θη˜gB)]E[L(θ)η˜gBg+12η2˜gBH˜gB]=L(θ)ηgg+12η2E[˜gBH˜gB]
最后一项有少许技巧:
E[˜gBH˜gB]=E[Tr(˜gBH˜gB)]=E[Tr(˜gB˜gBH)]=Tr(E[˜gB˜gB]H)=Tr((gg+Σ/B)H)=gHg+Tr(ΣH)/B
变换过程主要利用到了Tr(AB)=Tr(BA)。现在只要假定H的正定性,那么问题就变成了二次函数的最小值,容易解得
ηgggHg+Tr(ΣH)/B=ηmax
这就得出了“随着B单调递增有上界“的结果,其中
\begin{equation}\eta_{\max} = \frac{\boldsymbol{g}^{\top}\boldsymbol{g}}{\boldsymbol{g}^{\top}\boldsymbol{H}\boldsymbol{g}},\qquad\mathcal{B}_{\text{noise}} = \frac{\text{Tr}(\boldsymbol{\Sigma}\boldsymbol{H})}{\boldsymbol{g}^{\top}\boldsymbol{H}\boldsymbol{g}}\end{equation}

实践分析 #

B \ll \mathcal{B}_{\text{noise}}时,1 + \mathcal{B}_{\text{noise}}/B\approx \mathcal{B}_{\text{noise}}/B,所以\eta^* \approx \eta_{\max}B/\mathcal{B}_{\text{noise}}\propto B,即线性缩放,这再次体现了线性缩放只是小Batch Size时的局部近似;当B > \mathcal{B}_{\text{noise}}时,\eta^*逐渐趋于饱和值\eta_{\max},这意味着训练成本的增加远大于训练效率的提升。所以,\mathcal{B}_{\text{noise}}相当于一个分水岭,当Batch Size超过这个数值时,就没必要继续投入算力去增大Batch Size了。

对于实践来说,最关键的问题无疑就是如何估计\eta_{\max}\mathcal{B}_{\text{noise}}了,尤其是\mathcal{B}_{\text{noise}}直接关系到学习率的缩放规律和训练效率的饱和问题,二者的直接计算涉及到Hessian矩阵\boldsymbol{H},其计算量正比于参数量的平方,在数亿参数量都算小模型的今天,计算Hessian矩阵显然是不现实的事情,所以必须寻找更有效的计算方式。

我们先来看\mathcal{B}_{\text{noise}},它的式子是\frac{\text{Tr}(\boldsymbol{\Sigma}\boldsymbol{H})}{\boldsymbol{g}^{\top}\boldsymbol{H}\boldsymbol{g}},分子分母都有一个\boldsymbol{H},这无疑有一种让我们将它们“约掉”的冲动。事实上简化的思路也是如此,假设\boldsymbol{H}近似于单位阵的若干倍,那么得到
\begin{equation}\mathcal{B}_{\text{noise}} = \frac{\text{Tr}(\boldsymbol{\Sigma}\boldsymbol{H})}{\boldsymbol{g}^{\top}\boldsymbol{H}\boldsymbol{g}}\approx \frac{\text{Tr}(\boldsymbol{\Sigma})}{\boldsymbol{g}^{\top}\boldsymbol{g}}\triangleq \mathcal{B}_{\text{simple}}\end{equation}
\mathcal{B}_{\text{simple}}在计算上更为可行,并且实验发现它通常是\mathcal{B}_{\text{noise}}的一个良好近似,因此我们选择估计\mathcal{B}_{\text{simple}}而不是\mathcal{B}_{\text{noise}}。注意\text{Tr}(\boldsymbol{\Sigma})只需要对角线上的元素,因此不用算出完整的协方差矩阵,只需要将每个梯度分量单独算方差然后求和。在数据并行场景,可以直接利用每个设备上算出来梯度来估计梯度方差。

需要指出的是,式\eqref{eq:eta-opt}等结果实际上是动态的,也就是说理论上每一步训练的\eta_{\max}\mathcal{B}_{\text{noise}}\mathcal{B}_{\text{simple}}都是不同的,所以如果我们希望得到一个静态的规律,需要持续训练一段时间,等到模型的训练进入“正轨”后计算的\mathcal{B}_{\text{simple}}才可靠的,或者也可以在训练过程中持续监控\mathcal{B}_{\text{simple}},以便判断当前设置与最优的差距。

至于\eta_{\max},其实就没必要根据公式来估计了,直接在某个小Batch Size下对学习率进行网格搜索,搜出一个近似的\eta^*,然后结合估计的\mathcal{B}_{\text{simple}}就可以反推出\eta_{\max}了。

数据效率 #

从上述结果出发,我们还可以推导关于训练数据量和训练步数的一个渐近关系。推导过程也很简单,将\eqref{eq:eta-opt}代入到损失函数中可以算得,在最优学习率下每一步迭代带来的损失函数减少量是:
\begin{equation}\Delta\mathcal{L} = \mathcal{L}(\boldsymbol{\theta}) - \mathbb{E}[\mathcal{L}(\boldsymbol{\theta} - \eta^*\tilde{\boldsymbol{g}}_B)] \approx \frac{\Delta\mathcal{L}_{\max}}{1 + \mathcal{B}_{\text{noise}}/B}\label{eq:Delta-L-sgd}\end{equation}
其中\Delta\mathcal{L}_{\max} = \frac{(\boldsymbol{g}^{\top}\boldsymbol{g})^2}{2\boldsymbol{g}^{\top}\boldsymbol{H}\boldsymbol{g}}。接下来的重点是对这个结果的解读。

B\to\infty也就是全量SGD时,每一步损失函数减少量达到了最大的\Delta\mathcal{L}_{\max},这时候可以用最少的训练步数(记为S_{\min})达到目标点。当B有限时,每一步的损失下降量平均只有\Delta\mathcal{L},这意味我们需要1 + \mathcal{B}_{\text{noise}}/B步才能达到全量SGD单步的下降量,所以训练的总步数大致上就是S = (1 + \mathcal{B}_{\text{noise}}/B)S_{\min}

由于Batch Size为B,所以训练过程消耗的样本总数则是E = BS = (B + \mathcal{B}_{\text{noise}})S_{\min},这是B的增函数,且当B\to 0时,E_{\min} = \mathcal{B}_{\text{noise}}S_{\min},这表明只要我们使用足够小的Batch Size去训练模型,那么所需要的总训练样本数E也会相应地减少,代价是训练步数S非常多。进一步地,利用这些记号我们可以写出它们之间的关系是:
\begin{equation}\left(\frac{S}{S_{\min}} - 1\right)\left(\frac{E}{E_{\min}} - 1\right) = 1\label{eq:E-S}\end{equation}
这就是训练数据量和训练步数之间的缩放规律,表明数据量越小,那么应该缩小Batch Size,让训练步数更多,才能更有机会达到更优的解。这里的推导是经过笔者简化的,假设了\mathcal{B}_{\text{noise}}\Delta\mathcal{L}_{\max}在整个训练过程的不变性,如果有必要也可以按照原论文附录用积分更精细地处理动态变化的情形(但需要引入假设B = \sqrt{r\mathcal{B}_{\text{noise}}}),这里就不展开了。

此外,由于\mathcal{B}_{\text{noise}} = E_{\min}/S_{\min},所以上式也提供了估计\mathcal{B}_{\text{noise}}的另一个方案:通过多次实验加网格搜索得到多个(S,E)对,然后拟合上式就可以估计出E_{\min},S_{\min},继而计算\mathcal{B}_{\text{noise}}

自适应版 #

不得不说,OpenAI不愧为各种Scaling Law的先驱之一,前述分析可谓相当精彩,并且结果也相当丰富,更难得的是,整个推导过程并不复杂,给人一种大道至简的本质感。不过,目前的结论都是基于SGD来推的,对于Adam等自适应学习率优化器的适用性还不明朗,这部分内容由《Surge Phenomenon in Optimal Learning Rate and Batch Size Scaling》完成。

符号近似 #

分析Adam的思路跟SGD一样,都是基于二阶展开,不同的是方向向量由\tilde{\boldsymbol{g}}_B换成了一般的向量\tilde{\boldsymbol{u}}_B,此时我们有
\begin{equation}\mathbb{E}[\mathcal{L}(\boldsymbol{\theta} - \eta\tilde{\boldsymbol{u}}_B)] \approx \mathcal{L}(\boldsymbol{\theta}) - \eta\mathbb{E}[\tilde{\boldsymbol{u}}_B]^{\top}\boldsymbol{g} + \frac{1}{2}\eta^2 \text{Tr}(\mathbb{E}[\tilde{\boldsymbol{u}}_B\tilde{\boldsymbol{u}}_B^{\top}]\boldsymbol{H})\end{equation}
现在需要确定\tilde{\boldsymbol{u}}_B以及计算相应的\mathbb{E}[\tilde{\boldsymbol{u}}_B]\mathbb{E}[\tilde{\boldsymbol{u}}_B\tilde{\boldsymbol{u}}_B^{\top}]。由于只需要一个渐近关系,所以跟《配置不同的学习率,LoRA还能再涨一点?》一样,我们选择SignSGD即\tilde{\boldsymbol{u}}_B = \text{sign}(\tilde{\boldsymbol{g}}_B)作为Adam的近似,这个做法最早的出处可能是《Dissecting Adam: The Sign, Magnitude and Variance of Stochastic Gradients》。这个近似的合理性体现在两点:

1、无论\beta_1,\beta_2取何值,Adam第一步的更新向量都是\text{sign}(\tilde{\boldsymbol{g}}_B)

2、当\beta_1=\beta_2=0时,Adam的更新向量始终为\text{sign}(\tilde{\boldsymbol{g}}_B)

为了计算\mathbb{E}[\tilde{\boldsymbol{u}}_B]\mathbb{E}[\tilde{\boldsymbol{u}}_B\tilde{\boldsymbol{u}}_B^{\top}],我们还需要跟“线性缩放”一节一样,假设\tilde{\boldsymbol{g}}_B服从分布\mathcal{N}(\boldsymbol{g},\boldsymbol{\Sigma}/B),而为了简化计算,我们还要进一步假设\boldsymbol{\Sigma}是对角阵\text{diag}(\sigma_1^2,\sigma_2^2,\sigma_3^2,\cdots),即假设分量之间是相互独立的,这样一来我们可以独立地处理每一个分量。由重参数得\tilde{g}_B\sim \mathcal{N}(g, \sigma^2/B)等价于\tilde{g}_B=g + \sigma z/\sqrt{B},z\sim\mathcal{N}(0,1),因此
\begin{equation}\begin{aligned} \mathbb{E}[\tilde{u}_B] =&\, \mathbb{E}[\text{sign}(g + \sigma z/\sqrt{B})] = \mathbb{E}[\text{sign}(g\sqrt{B}/\sigma + z)] \\[5pt] =&\,\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty} \text{sign}(g\sqrt{B}/\sigma + z) e^{-z^2/2}dz \\[5pt] =&\,\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{-g\sqrt{B}/\sigma} (-1)\times e^{-z^2/2}dz + \frac{1}{\sqrt{2\pi}}\int_{-g\sqrt{B}/\sigma}^{\infty} 1\times e^{-z^2/2}dz \\[5pt] =&\,\text{erf}\left(\frac{g}{\sigma}\sqrt{\frac{B}{2}}\right) \end{aligned}\end{equation}
这里的\text{erf}误差函数,它是跟\tanh类似的值域为(-1,1)的S型函数,可以作为\text{sign}的光滑近似。但\text{erf}本身没有初等函数表达式,所以我们最好找一个初等函数近似,才能更直观地观察变化规律,之前我们在《GELU的两个初等函数近似是怎么来的》就讨论过这个话题,不过那里的近似还是太复杂了(都涉及到指数运算),这里我们整个简单点的:
\begin{equation}\text{erf}(x)\approx \text{sign}(x) = \frac{x}{|x|} = \frac{x}{\sqrt{x^2}}\approx \frac{x}{\sqrt{x^2+c}}\end{equation}
我们选择c=\pi/4,使得这个近似在x=0处的一阶近似跟\text{erf}的一阶近似相等。当然,都做了这么多重近似了,这个c的值其实已经不大重要,我们只需要知道存在这么个c > 0就行了。基于这个近似,我们得到
\begin{equation}\mathbb{E}[\tilde{u}_B] \approx \frac{g/\sigma}{\sqrt{\pi/2B+(g/\sigma)^2}}\quad\Rightarrow\quad\mathbb{E}[\tilde{\boldsymbol{u}}_B]_i \approx \frac{g_i/\sigma_i}{\sqrt{\pi/2B+(g_i/\sigma_i)^2}}\triangleq \mu_i\end{equation}
可以发现,Adam跟SGD的一个明显区别是\mathbb{E}[\tilde{\boldsymbol{u}}_B]这一步就已经跟B相关了。不过好在,此时的二阶矩更简单了,因为\text{sign}(x)的平方必然是1,所以
\begin{equation}\mathbb{E}[\tilde{u}_B^2] = 1\quad\Rightarrow\quad\mathbb{E}[\tilde{\boldsymbol{u}}_B\tilde{\boldsymbol{u}}_B^{\top}]_{i,j} \to\left\{\begin{aligned}&=1, & i = j \\ &\approx\mu_i \mu_j,&\,i\neq j\end{aligned}\right.\end{equation}
利用这些结果,我们就可以求得
\begin{gather}\eta^* \approx \frac{\mathbb{E}[\tilde{\boldsymbol{u}}_B]^{\top}\boldsymbol{g}}{\text{Tr}(\mathbb{E}[\tilde{\boldsymbol{u}}_B\tilde{\boldsymbol{u}}_B^{\top}]\boldsymbol{H})} \approx \frac{\sum_i \mu_i g_i}{\sum_i H_{i,i} + \sum_{i\neq j} \mu_i \mu_j H_{i,j}}\label{eq:eta-opt-sign} \\[5pt] \Delta \mathcal{L} = \mathcal{L}(\boldsymbol{\theta}) - \mathbb{E}[\mathcal{L}(\boldsymbol{\theta} - \eta^*\tilde{\boldsymbol{u}}_B)] \approx \frac{1}{2}\frac{(\sum_i \mu_i g_i)^2}{\sum_i H_{i,i} + \sum_{i\neq j} \mu_i \mu_j H_{i,j}}\label{eq:Delta-L-sign}\end{gather}

两个特例 #

相比SGD的式\eqref{eq:eta-opt} ,Adam的式\eqref{eq:eta-opt-sign}更为复杂,以至于无法直观看出它对B的依赖规律,所以我们从几个特殊例子入手。

首先考虑B\to\infty,此时\mu_i = \text{sign}(g_i),所以
\begin{equation}\eta^* \approx \frac{\sum_i |g_i|}{\sum_i H_{i,i} + \sum_{i\neq j} \text{sign}(g_i g_j) H_{i,j}}\end{equation}
它跟SGD的\eta_{\max}的区别是它关于梯度并不是齐次的,而是正比于梯度的scale。

接着我们考虑\boldsymbol{H}是对角阵的例子,即i\neq jH_{i,j}=0,此时
\begin{equation}\eta^* \approx \frac{\sum_i \mu_i g_i}{\sum_i H_{i,i}}=\frac{1}{\sum_i H_{i,i}}\sum_i \frac{g_i^2/\sigma_i}{\sqrt{\pi/2B+(g_i/\sigma_i)^2}}\end{equation}
这里求和的每一项关于B都是单调递增有上界的,所以总的结果也是如此。为了捕捉最本质的规律,我们可以考虑进一步简化\mu_i(这里开始跟原论文不一样):
\begin{equation}\mu_i = \frac{g_i/\sigma_i}{\sqrt{\pi/2B+(g_i/\sigma_i)^2}} = \frac{\text{sign}(g_i)}{\sqrt{1 + \pi(\sigma_i/g_i)^2/2B}} \approx \frac{\text{sign}(g_i)}{\sqrt{1 + \pi\kappa^2/2B}}\label{eq:mu-approx}\end{equation}
这里的假设是存在某个跟i无关的常数\kappa^2【比如可以考虑取全体(\sigma_i/g_i)^2的某种均值,其实这里的\kappa^2类似前面的\mathcal{B}_{\text{simple}},按照\mathcal{B}_{\text{simple}}的定义来估计也可以】,使得对任意i来说把(\sigma_i/g_i)^2换成\kappa^2都是一个良好近似,于是
\begin{equation}\eta^* \approx \frac{\sum_i \mu_i g_i}{\sum_i H_{i,i}}\approx \frac{\sum_i |g_i|}{\sum_i H_{i,i}}\frac{1}{\sqrt{1 + \pi\kappa^2/2B}}\label{eq:eta-opt-sign-diag}\end{equation}
\pi\kappa^2\gg 2BB \ll \pi\kappa^2/2时,可以进一步写出近似
\begin{equation}\eta^* \approx \frac{\sum_i \sigma_i}{\kappa\sum_i H_{i,i}}\sqrt{\frac{2B}{\pi}} \propto \sqrt{B}\end{equation}
这表明在Batch Size本身较小时,Adam确实适用于平方根缩放定律。

涌现行为 #

如果我们将近似\eqref{eq:mu-approx}应用到原始的式\eqref{eq:eta-opt-sign},会发现它存在一些全新的特性,具体来说我们有
\begin{equation}\eta^* \approx \frac{\sum_i \mu_i g_i}{\sum_i H_{i,i} + \sum_{i\neq j} \mu_i \mu_j H_{i,j}} \approx \frac{\eta_{\max}}{\frac{1}{2}\left(\frac{\beta_{\text{noise}}}{\beta} + \frac{\beta}{\beta_{\text{noise}}}\right)}\label{eq:eta-opt-beta}\end{equation}
其中\beta = (1 + \pi\kappa^2/2B)^{-1/2},以及
\begin{equation}\beta_{\text{noise}} = \sqrt{\frac{\sum_i H_{i,i}}{\sum_{i\neq j}\text{sign}(g_i g_j) H_{i,j}}},\quad \eta_{\max} = \frac{\sum_i |g_i|}{2\sqrt{\left(\sum_i H_{i,i}\right)\left(\sum_{i\neq j} \text{sign}(g_i g_j) H_{i,j}\right)}}\end{equation}
注意\betaB的单调递增函数,但式\eqref{eq:eta-opt-beta}最后的近似并不是\beta的单调递增函数,它是先增后减的,最大值在\beta=\beta_{\text{noise}}取到。这意味着存在一个相应的\mathcal{B}_{\text{noise}},当Batch Size超过这个\mathcal{B}_{\text{noise}}后,最佳学习率不应该增大反而要减小!这便是原论文标题所说的“Surge现象”。(当然这里还有一个限制,\beta是始终小于1的,如果\beta_{\text{noise}} \geq 1,那么最优学习率与Batch Size的关系依旧是单调递增的。)

关于Adam的\eta^*,其实OpenAI在论文附录中曾不加证明地“猜测”Adam的最优学习率应该是
\begin{equation}\eta^* \approx \frac{\eta_{\max}}{(1 + \mathcal{B}_{\text{noise}}/B)^{\alpha}}\label{eq:openai-adam}\end{equation}
其中0.5 < \alpha < 1。现在看来,这个形式只是Hessian矩阵对角线元素占主导时的近似结果,当非对角线元素的作用不可忽略时,则有可能涌现出“Batch Size足够大时学习率反而应该减小”的Surge现象。

如何直观地理解Surge现象呢?笔者认为,这本质上是自适应学习率策略的次优性的体现。仍以近似\tilde{\boldsymbol{u}}_B = \text{sign}(\tilde{\boldsymbol{g}}_B)为例,B越大\tilde{\boldsymbol{g}}_B就越准,B\to \infty则是\text{sign}(\boldsymbol{g}),然而\text{sign}(\boldsymbol{g})是最科学的更新方向吗?不一定,尤其是训练后期这种自适应策略可能还有负面作用。因此,当B取适当值时,\text{sign}(\tilde{\boldsymbol{g}}_B)的噪声反而可能修正这种次优性,而B继续增大时噪声减少,反而减少了修正的机会,从而需要更谨慎地降低学习率。

效率关系 #

同SGD的分析一样,最后我们还可以考虑\Delta\mathcal{L},将式\eqref{eq:eta-opt-beta}代入式\eqref{eq:Delta-L-sign},恢复记号B然后化简(化简过程不需要任何近似)得到
\begin{equation}\Delta \mathcal{L} \approx \frac{\Delta \mathcal{L}_{\max}}{1 + \mathcal{B}_{\text{noise-2}}/B}\label{eq:Delta-L-sign-2}\end{equation}
其中
\begin{equation}\Delta \mathcal{L}_{\max} = \frac{\beta_{\text{noise}}\eta_{\max}\sum_i|g_i|}{1 + \beta_{\text{noise}}^2},\quad \mathcal{B}_{\text{noise-2}} = \frac{\pi\kappa^2\beta_{\text{noise}}^2}{2(1 + \beta_{\text{noise}}^2)}\label{eq:beta-B-noise}\end{equation}
注意这里\mathcal{B}_{\text{noise-2}}是一个新的记号,它不是\mathcal{B}_{\text{noise}},后者是由\beta=\beta_{\text{noise}}反解出来的理论最优Batch Size,结果是
\begin{equation}\mathcal{B}_{\text{noise}} = \frac{\pi\kappa^2\beta_{\text{noise}}^2}{2(1 - \beta_{\text{noise}}^2)}\end{equation}
它们之间的关系是
\begin{equation}\frac{1}{\mathcal{B}_{\text{noise-2}}} - \frac{1}{\mathcal{B}_{\text{noise}}} = \frac{4}{\pi\kappa^2}\quad\Rightarrow\quad \mathcal{B}_{\text{noise}} = \left(\frac{1}{\mathcal{B}_{\text{noise-2}}} - \frac{4}{\pi\kappa^2}\right)^{-1}\label{eq:B-1-2}\end{equation}
由于式\eqref{eq:Delta-L-sign-2}形式上跟SGD的式\eqref{eq:Delta-L-sgd}是一样的,所以那一节的分析同样适用,因此同样可以导出式\eqref{eq:E-S}
\begin{equation}\left(\frac{S}{S_{\min}} - 1\right)\left(\frac{E}{E_{\min}} - 1\right) = 1\end{equation}
只不过现在E_{\min}/S_{\min} = \mathcal{B}_{\text{noise-2}}。这样一来,我们就有得到一种估计\beta_{\text{noise}}\mathcal{B}_{\text{noise}}的方案:通过多次实验得到多个(S,E)对,实验过程中还可以顺便估计\kappa^2,然后拟合上式得到E_{\min},S_{\min},继而估计\mathcal{B}_{\text{noise-2}},最后由\eqref{eq:beta-B-noise}式解出\beta_{\text{noise}}

如果\beta_{\text{noise}} \geq 1,那么不存在最优的\mathcal{B}_{\text{noise}},如果\beta_{\text{noise}} \gg 1则说明Hessian矩阵对角线元素占主导,此时适用于缩放规律\eqref{eq:eta-opt-sign-diag},增大Batch Size总可以适当增大学习率;当\beta_{\text{noise}} < 1时,可以由\eqref{eq:B-1-2}解出最优的\mathcal{B}_{\text{noise}},Batch Size超出这个值学习率反而应该下降。

补充说明 #

需要指出的是,上面几节分析的出发点和最终结论,其实跟原论文《Surge Phenomenon in Optimal Learning Rate and Batch Size Scaling》大同小异,但中间过程的近似处理有所不同。

原论文得到的大部分结论,都是在B \ll \pi(\sigma_i/g_i)^2/2假设下的近似结果,所以得到Surge现象几乎总会出现的结论,这其实是不大科学的。最明显的是B \ll \pi(\sigma_i/g_i)^2/2这个假设的形式本身就有点问题,它右端是跟i相关的,我们总不能给每个分量都配一个单独的Batch Size,所以为了得到一个全局的结果就只能是B \ll \min_i \pi(\sigma_i/g_i)^2/2,但这未免有点苛刻了。

本文的做法则是引入近似\eqref{eq:mu-approx},这可以看成是平均场近似,直觉上比逐点的假设B \ll \pi(\sigma_i/g_i)^2/2更为合理一些,所以原则上结论会更为精准,比如可以得到“即使Hessian矩阵的非对角线元素不可忽略,Surge现象也不一定会出现”的结论(取决于\beta_{\text{noise}})。特别地,这种精准性并没有牺牲简洁性,比如式\eqref{eq:eta-opt-beta}同样很简明清晰,式\eqref{eq:Delta-L-sign-2}形式也跟原论文一致,并且不需要额外的近似假设,等等。

最后,稍微感慨一下,OpenAI对SGD的分析其实已经是2018年的工作了,而Surge现象这篇论文则是今年中才发布的,从SGD到Adam居然花了6年时间,这是让人比较意外的,大体是OpenAI的“威望”以及猜测\eqref{eq:openai-adam},让大家觉得Adam已经没什么好做了,没想到Adam可能会有一些新的特性。当然,\tilde{\boldsymbol{u}}_B = \text{sign}(\tilde{\boldsymbol{g}}_B)作为Adam的近似究竟有多合理、能多大程度上代表实际情况等问题,笔者认为还值得进一步思考。

文章小结 #

本文从多个视角讨论了“Batch Size与学习率之间的Scaling Law”这一经典炼丹问题,其中着重介绍了OpenAI基于损失函数的二阶近似的推导和结论,以及后续利用同样的思想来分析Adam优化器的工作。

转载到请包括本文地址:https://spaces.ac.cn/archives/10542

更详细的转载事宜请参考:《科学空间FAQ》

如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。

如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!

如果您需要引用本文,请参考:

苏剑林. (Nov. 14, 2024). 《当Batch Size增大时,学习率该如何随之变化? 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/10542

@online{kexuefm-10542,
        title={当Batch Size增大时,学习率该如何随之变化?},
        author={苏剑林},
        year={2024},
        month={Nov},
        url={\url{https://spaces.ac.cn/archives/10542}},
}