• 精选
  • 会员

里程碑五:2008多任务学习(Multi-task learning)

2018年11月15日  来源:量子位 作者: 提供人:t.call.p@126.c......

2.5 里程碑五:2008多任务学习(Multi-task learning)

多任务学习是在多个任务下训练的模型之间共享参数的方法,在神经网络中通过捆绑不同层的权重轻松实现。多任务学习思想1993年Rich Caruana首次提出,并应用于道路追踪和肺炎预测。多任务学习鼓励模型学习对多个任务有效的表征描述。这对于学习一般的、低级的描述形式、集中模型的注意力或在训练数据有限的环境中特别有用。

多任务学习2008年被Collobert和Weston等人首次在自然语言处理领域应用于神经网络。在他们的模型中,词嵌入矩阵被两个在不同任务下训练的模型共享,如图4所示。

??2????????oNLP??¥èˉ?é??????????¥èˉ??????????????±?????¨?????ˉ??????????

词嵌入矩阵共享

共享的词嵌入矩阵使模型可以相互协作,共享矩阵中的低层级信息,而词嵌入矩阵往往构成了模型中需要训练的绝大部分参数。

Collobert和Weston发表于2008年的论文,影响远远超过了它在多任务学习中的应用。它开创的诸如预训练词嵌入和使用卷积神经网络处理文本的方法,在接下来的几年被广泛应用。他们也因此获得2018年机器学习国际会议(ICML)的test-of-time奖。

如今,多任务学习在自然语言处理领域广泛使用,而利用现有或“人工”任务已经成为NLP指令库中的一个有用工具。

虽然参数的共享是预先定义好的,但在优化的过程中却可以学习不同的共享模式。当模型越来越多地在多个任务上进行测评以评估其泛化能力时,多任务学习就变得愈加重要,近年来也涌现出更多针对多任务学习的评估基准。

自然语言处理 / NLP

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000