基于多任务学习的平衡图像数据与不平衡时序数据的分类算法研究.pdfVIP

  • 3
  • 0
  • 约6.21万字
  • 约 45页
  • 2024-04-02 发布于江西
  • 举报

基于多任务学习的平衡图像数据与不平衡时序数据的分类算法研究.pdf

摘要

在深度学习时代,受人类学习能力的启发,在机器学习的范畴,学者们提出

了多任务学习,以提高所有目标任务的泛化能力为目标。但研究发现多任务学习

的学习任务之间的信息交互所带来影响并不都是正向的,当多任务的相似度低的

时候,这种任务间的信息交互所带来的影响便是负效应,称之为负迁移,负迁移

影响多任务学习效率的提高。同时,基于参数共享的多任务学习算法,通常需要

构建一个较大参数量的模型或者为每一个任务都设计一个参数模型才能实现多任

务的参数共享,导致参数的总体效率较低。此外,多任务数据分布的平衡与不平

衡性特点也会对现有的多任务学习算法产生影响,甚至会导致算法失效。

本文将从改善负迁移,提升参数利用率和克服多任务数据不平衡场景下算法

失效,这三方面改进多任务学习的算法。我们对每个任务都使用了由可训练参数

控制的二进制掩码,在训练中使用标准的反向传播法同时更新掩码和网络权重重

Fine-grainedSharingNetwork

塑子网,构建了一个动态细粒度共享网络(,简称为

FSNstep

)模型。从单个网络权重的角度来看,对于网络反向传播的一个,在反向

01

传播过程中,不仅更新了它的值,而且还通过将相应的掩码元素调整为或来

改变它所服务的任务,实现了以动态的方式对多任务细粒度的共享子网进行更新。

在没有任务关联性的先验知识的情况下,该模型可以为密切相关的任务自适应地

分享更多的参数,为相关度低的任务分享更少的参数,具备任务敏感的特点。此

外,考虑到任务的难度,该模型还可以通过学习来调整子网的稀疏程度,这有助

于抑制负迁移,以及将参数效率提升到极限。由于提出的模型具有任务敏感的特

点,这个方法可以不受任务数据不平衡带来的多任务学习算法失效的问题。在平

衡图像数据上的实验表明动态细粒度共享网络模型可以有效克服负迁移和提升参

数利用率,同时在不平衡时序数据上的实验表明该方法在抑制负迁移的同时,不

会因多任务数据分布不平衡而失效。

此外,将此法应用到多任务迁移学习的框架上,提出了基于细粒度共享网络

的自适应迁移学习(AdaptiveTransferLearningviaFine-grainedMulti-task

Pre-training,简称为ATL)。该法在预训练阶段使用上文提出的对任务具备敏感性

III

FSN

的动态细粒度共享网络(),除了网络权重外,还为每个任务训练了一个子网

掩码;在微调阶段,为每个下游任务选择最合适的子网。因此,不同的下游任务

可以根据不同的网络结构进行微调,并使其从最密切相关的预训练任务的结果中

获益。根据我们的实验,APT优于传统的预训练基线。此外,实验表明,即使没

有子网适应,仅由动态细粒度共享网络预训练的网络权重的质量也要高很多,并

且可以在传统预训练的框架内使用,以提高性能。

关键词:任务数据不平衡;深度学习;多任务学习;迁移学习

IV

Abstract

Abstract

YanbaoMa

AppliedStatistics

DirectedbyJunzhouHe

Intheeraofdeeplearning,inspiredbythishumanlearningcapability,multitask

learning

文档评论(0)

1亿VIP精品文档

相关文档