多任务学习
ML design的排序部分经常需要考虑到多任务学习,有多个loss的其实就算多任务学习
模型
shared bottom
pro: 互相补充学习,任务相关性越高,模型的loss可以降低到更低
con: 任务没有好的相关性时,这种Hard parameter sharing会损害效果
MOE
Soft parameter sharing
con: MMOE中所有的Expert是被所有任务所共享的,这可能无法捕捉到任务之间更复杂的关系,从而给部分任务带来一定的噪声; 不同的Expert之间没有交互,联合优化的效果有所折扣
MMOE
k个任务则适用k个门控网络
ESMM
PLE
Reference
Last updated