多任务学习

ML design的排序部分经常需要考虑到多任务学习,有多个loss的其实就算多任务学习

模型

shared bottom

  • pro: 互相补充学习,任务相关性越高,模型的loss可以降低到更低

  • con: 任务没有好的相关性时,这种Hard parameter sharing会损害效果

MOE

  • Soft parameter sharing

  • con: MMOE中所有的Expert是被所有任务所共享的,这可能无法捕捉到任务之间更复杂的关系,从而给部分任务带来一定的噪声; 不同的Expert之间没有交互,联合优化的效果有所折扣

MMOE

  • k个任务则适用k个门控网络

ESMM

PLE

Reference

Last updated