多任务学习漫谈(三):分主次之序
By 苏剑林 | 2022-02-14 | 39672位读者 |多任务学习是一个很宽泛的命题,不同场景下多任务学习的目标不尽相同。在《多任务学习漫谈(一):以损失之名》和《多任务学习漫谈(二):行梯度之事》中,我们将多任务学习的目标理解为“做好每一个任务”,具体表现是“尽量平等地处理每一个任务”,我们可以称之为“平行型多任务学习”。然而,并不是所有多任务学习的目标都是如此,在很多场景下,我们主要还是想学好某一个主任务,其余任务都只是辅助,希望通过增加其他任务的学习来提升主任务的效果罢了,此类场景我们可以称为“主次型多任务学习”。
在这个背景下,如果还是沿用平行型多任务学习的“做好每一个任务”的学习方案,那么就可能会明显降低主任务的效果了。所以本文继续沿着“行梯度之事”的想法,探索主次型多任务学习的训练方案。
目标形式 #
在这篇文章中,我们假设读者已经阅读并且基本理解《多任务学习漫谈(二):行梯度之事》里边的思想和方法,那么在梯度视角下,让某个损失函数保持下降的必要条件是更新量与其梯度夹角至少大于90度,这是贯穿全文的设计思想。
约束优化 #
现在假设主次型多任务学习场景下,我们有n+1个任务的损失函数,分别为L0,L1,⋯,Ln,其中L0是主任务损失,我们希望它越小越好;而L1,⋯,Ln是辅助损失,相当于正则项,我们只希望它在训练过程中不要往上升的方向走,但不一定要“拼了命地变小”。
沿用《多任务学习漫谈(二):行梯度之事》的记号,我们记每一步的更新量为Δθ=−ηu,既然我们以L0为主任务,那么自然希望最大化u与g0的内积,可以设计优化目标为
maxu⟨u,g0⟩−12‖u‖2
这里gi=∇θLi是对应损失的梯度。如果没有其他约束,那么将会解得u=g0,这就是普通的梯度下降。但事实上我们还有辅助任务L1,⋯,Ln,我们希望它们不要往上升的方向走,所以至少还要保证⟨u,g1⟩≥0,⋯,⟨u,gn⟩≥0,它们是优化的约束条件,从而总的目标是
maxu⟨u,g0⟩−12‖u‖2s.t.⟨u,g1⟩≥0,⋯,⟨u,gn⟩≥0
求解这个约束优化问题,就可以得到满足条件的更新量。
拉氏乘子 #
求解这种带约束优化问题的标准方案是拉格朗日乘子法,简称“拉氏乘子”,它将约束条件整合到目标函数中,转化为一个min-max问题:
maxuminλi≥0⟨u,g0⟩−12‖u‖2+∑iλi⟨u,gi⟩
这里约定对i的求和是从1到n。怎么理解这个转换呢?假如⟨u,gi⟩>0,那么minλi≥0这一步就只能得到λi=0,因为只有λi=0能使得它取最小,此时λi⟨u,gi⟩=0;如果⟨u,gi⟩=0,那么自然地λi⟨u,gi⟩=0;如果⟨u,gi⟩<0,那么minλi≥0这一步就会得到λi→∞,此时λi⟨u,gi⟩→−∞。但是别忘了,u的优化是取max的,所以在0与−∞之间,它自然会选择0,也就是完成该min-max优化后,必然自动地有⟨u,gi⟩≥0以及λi⟨u,gi⟩=0。这意味着min-max的优化结果跟原来带约束的max优化完全等价。
为了方便后面的推导,这里引入跟上一篇文章类似的记号:
Qn={(λ1,⋯,λn)|λ1,⋯,λn≥0},˜g(λ)=∑iλigi
那么式(3)可以记为
maxuminλ∈Qn⟨u,g0+˜g(λ)⟩−12‖u‖2
求解算法 #
至此,我们将主次型多任务学习的更新方向求解转化为了一个min-max问题(5)。接下来,跟上一篇文章的方式类似,我们先通过Minimax定理来交换max和min的次序,然后进一步通过Frank-Wolfe算法给出求解方式,最后我们会比较它跟它跟上一篇文章结果的异同。
交换次序 #
注意到问题(5)的max和min是有次序的,正常来说必须要先完成min这一步后才能再做max这一步,贸然交换次序可能会得到错误的结果。然而,min这一步是有约束的优化,而max这一步是无约束的,因此相对来说max确实简单一些。如果我们能交换次序,先进行max这一步,那么问题就可以得到简化。
所以,我们需要先判断两者的次序能否交换。幸运的是,冯·诺依曼提出了美妙的Minimax定理,它告诉我们如果min和max的参数可行域都是一个凸集,并且目标函数关于min的参数是凸的、关于max的参数是凹的,那么min和max的次序就可以交换。更幸运的是,容易看出问题(5)满足Minimax定理的条件,从而它等价于
minλ∈Qnmaxu⟨u,g0+˜g(λ)⟩−12‖u‖2=minλ∈Qn12‖g0+˜g(λ)‖2
这样我们就将问题简化为只有min操作了,其中等号右边是因为左边的目标函数只是关于u的二次函数,它的最大值在u∗=g0+˜g(λ)取到,代入即得等号右边结果。
简单情形 #
现在问题变成了求g0与g1,⋯,gn的最小模长的加权叠加。按照惯例,我们先试着解决最简单的情形,即n=1时的minγ≥0‖g0+γg1‖2,它有着形象的几何意义和简单的解析解。
如上图所示,共有两种情形:第一种情形是⟨g0,g1⟩≥0,这说明g0与g1本就不冲突,所以直接取γ=0就行;第二种情形是⟨g0,g1⟩<0,从上面右图可以看出,‖g0+γg1‖2的最小值在g0+γg1与g1垂直时取到,于是由⟨g0+γg1,g1⟩=0解得γ=−⟨g0,g1⟩‖g1‖2。最后,当‖g1‖≠0时,也可以统一写成
γ=relu(−⟨g0,g1⟩)‖g1‖2
迭代求解 #
接下来我们处理一般情形,其思想依然源自Frank-Wolfe算法。
首先,我们通过τ=argmini⟨gi,g0+˜g(λ(k))⟩找出下一步更新的可行方向eτ。接着,我们进行一维搜索,但跟之前不同的是,这次不是在λ(k)与eτ之间插值搜索,而是直接重新确定gτ对应的系数,也就是说,我们直接在˜g(λ(k))中把gτ部分删掉,然后重新用n=1情形的算法重新计算gτ对应的系数。
由此,我们得到下述迭代过程:
{τ=argmini⟨gi,g0+˜g(λ(k))⟩γ=argminγ‖g0+˜g(λ(k)−λ(k)τeτ+γeτ)‖2=argminγ‖g0+˜g(λ(k))−λ(k)τgτ+γgτ‖2λ(k+1)=λ(k)−λ(k)τeτ+γeτ
两相比较 #
至此,我们完成了本文所探究的主次型多任务学习的求解。对于认真推导过两篇文章的数学结果的同学来说,定然会感觉到平行型和主次型的方法和结果都非常相似。事实上确实如此,它们有诸多相似之处,但细微之处又有不同。
为了加深大家的理解,我们可以将这两种多任务学习的异同对比如下:
平行型多任务学习(前文)主次型多任务学习(本文)目标概述学好每一个任务学好主任务,但不让辅任务变差增量格式Δθ=−ηuΔθ=−ηu数学定义maxumini⟨gi,u⟩−12‖u‖2maxu⟨u,g0⟩−12‖u‖2s.t.⟨u,g1⟩≥0,⋯,⟨u,gn⟩≥0对偶结果minα∈Pn‖˜g(α)‖2minλ∈Qn‖g0+˜g(λ)‖2方向向量u=˜g(α)=∑iαigiu=g0+˜g(λ)=g0+∑iλigi可行空间Pn={(α1,⋯,αn)|∀αi≥0,∑iαi=1}Qn={(λ1,⋯,λn)|∀λi≥0}迭代步骤{τ=argmini⟨gi,˜g(α(k))⟩γ=argminγ‖(1−γ)˜g(α(k))+γgτ‖2α(k+1)=(1−γ)α(k)+γeτ{τ=argmini⟨gi,g0+˜g(λ(k))⟩γ=argminγ‖g0+˜g(λ(k))−λ(k)τgτ+γgτ‖2λ(k+1)=λ(k)−λ(k)τeτ+γeτ
经过这样对比,我们也不难将结果推广到有n个主任务、m个辅任务的混合型多任务学习,其对偶结果是:
minα∈Pn,λ∈Qm‖˜g(α)+˜g(λ)‖2
至于具体的迭代算法,请大家自行思考~
应用思考 #
在这一节中,我们通过几个例子说明,很多常见的问题都可以对应到这种有主次之分的多任务学习中,某种意义上来说,主次型多任务学习可能比平行型多任务学习更为常见。
正则损失 #
最常见的例子可能是往任务损失函数里边加入的正则项,比如L2正则:
L(θ)+λ2‖θ‖2
如果我们将L(θ)和12‖θ‖2看成是两个任务的损失,那么这也可以视为一个多任务学习问题。很显然,我们并没有想要12‖θ‖2越小越好,而只是希望12‖θ‖2的加入能够提高L(θ)的泛化性能,所以这就无法对应上平行型多任务学习,而更贴近主次型多任务学习了。
L2正则项12‖θ‖2的梯度比较简单,就是θ。那么,套用本文的结果(7),我们可以修改优化器,将梯度项改为
g+relu(−⟨g,θ⟩)‖θ‖2
这样就可以实现往模型里边加入L2正则但又不用调正则项系数λ了。当然,也可以像AdamW那样直接对原本的更新量进行处理,实现解耦形式的权重衰减(Decoupled Weight Decay)。
当然,除了这种对参数的直接正则外,还有很多其他形式的辅助损失,比如有往分类模型加入对比学习损失的、有往生成模型加入长度惩罚的,等等。这些做法多多少少都可以对应上主次型多任务学习中,因此可以尝试套用本文的结果。如果觉得完整梯度的计算量较大,那么也可以跟上一篇文章一样,对“共享编码”的情形进行近似来降低计算量。
带噪学习 #
此外,有一种常见的训练场景,大家可能没意识到它是一个多任务学习问题,但它本质上确实也可以视为多任务学习问题来理解,那就是“带噪学习”。
假设对于同一种任务,我们只有少量精标的干净数据,但同时有大量的噪声数据。由于噪声数据较多,所以我们倾向于以噪声数据为主进行学习,假设对应的损失为L0。然而,由于数据中存在噪声,因此纯粹最小化L0未必能得到理想的模型,它可能把错误的标注也背下来了。这时,干净数据就可以派上用场了,我们可以用干净数据算一个损失L1。由于干净数据的噪声较少,可以认为L1比L0更能反映模型的真实性能,那么我们就可以增加一个限制:
不管怎么最小化L0,都不能让L1上升。换句话说,你可以用噪声数据训练,但不能让干净数据的效果变差。
这刚好就是以L0为主、L1为辅的主次型多任务学习问题!
无独有偶,去年Google的一篇论文《Gradient-guided Loss Masking for Neural Machine Translation》也给出了类似做法,但细节略有不同。它是通过算每个噪声样本对参数的梯度,只保留与干净数据梯度∇θL1夹角小于90度(内积大于0)的样本。也就是说,大家都是以与干净数据梯度的内积为判断依据,不同的是,主次型多任务中,如果内积小于0,则对更新量做一个修正,而在Google的文章中,则是直接删掉对应的样本。
本文小结 #
本文将前一篇文章的平行型多任务学习的结果推广到了“主次型”多任务学习,即多任务学习的目标不再是做好所有的任务,而是以某个任务为主、其余任务为辅,其结果跟原来的平行型多任务学习有不少相似之处,但细微之处又不尽相同,最后介绍了主次型多任务学习的一些经典例子,如正则项、带噪学习等。
转载到请包括本文地址:https://spaces.ac.cn/archives/8907
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Feb. 14, 2022). 《多任务学习漫谈(三):分主次之序 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/8907
@online{kexuefm-8907,
title={多任务学习漫谈(三):分主次之序},
author={苏剑林},
year={2022},
month={Feb},
url={\url{https://spaces.ac.cn/archives/8907}},
}
February 14th, 2022
苏神这个系列太厉害了
February 14th, 2022
苏神请问有交流群吗
PC访问博客首页,然后看右侧边栏
February 14th, 2022
苏神,文中公式(6)等号左边的加号后面是不是缺了个˜g(λ)?
是的,感谢指出,已经修正。
July 5th, 2022
苏神,我想问一下有没有类似的实现代码可以学习一下?
这个没有,因为不大可能实现得很灵活,一般都是按照自己的场景根据公式实现的。