• 论文解读(CBL)《CNN-Based Broad Learning for Cross-Domain Emotion Classification》


    Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]

    论文信息

    论文标题:CNN-Based Broad Learning for Cross-Domain Emotion Classification
    论文作者:Rong Zeng, Hongzhan Liu , Sancheng Peng , Lihong Cao, Aimin Yang, Chengqing Zong,Guodong Zhou
    论文来源:2023 aRxiv
    论文地址:download 
    论文代码:download
    视屏讲解:click

    1 介绍 

      出发点:许多研究者关注的是传统的跨域情感分类,即粗粒度情绪分类。然而,跨领域的情绪分类问题却很少被涉及到。

      摘要:在本文中,提出了一种基于卷积神经网络(CNN)的广泛学习方法,通过结合 CNN 和广泛学习的强度来进行跨域情感分类。首先利用 CNN 同时提取领域不变和领域特定特征,通过广泛学习来训练两个更有效的分类器。然后,为了利用这两个分类器,设计了一个共同训练模型来为它们进行提升。

      贡献

      • 提出了一种结合深度学习和广泛学习的模型,即基于卷积神经网络(CNN)的广泛学习(CBL);
      • 开发了四个真实世界的数据集,涉及四个不同领域;
      • 结果表明,该方法比基线方法能更有效地提高情绪分类的性能;

    2 方法

    模型框架:

      

    2.1 Maximum mean discrepancy

      MMD 公式:

        MMD(Xs,Xt)=1NsNsi=1ϕ(xis)1NtNti=1ϕ(xit)2H(1)

    2.2 Feature extraction

      本小节,为了同时提取 DIF(域不变特征) 和 DSF (域特定特征),先使用两个不同的映射器将数据映射到一个域不变的空间和一个域特定的空间中。

      首先使用 BERT 来生成 XsXtl 的词向量,其描述如下:

        Wsinv=BERTinv(Xs;θBERTinv)R(Nsl)×768Wtlinv=BERTinv(Xtl;θBERTinv)R(Ntll)×768Wsspec=BERTspec(Xs;θBERTspec )R(Nsl)×768Wtlspec=BERTspec(Xtl;θBERTspec )R(Ntll)×768(2)

      基于此,使用 CNN 和 最大池化 ,提取 n-gram feature 和 salient feature,可以描述如下:

        Fsinv=CNNinv(Wsinv;θCNNinv)RNs×qFtlinv=CNNinv(Wtlinv;θCNNinv)RNtl×qFsspec=CNNspec(Wsspec;θCNNspec )RNs×qFtlspec =CNNspec (Wtlspec ;θCNNspec )RNtl×q(3)

      对于 DIF,希望它能够编码源域和目标域共享的特性:

        Lsim=MMD(Fsinv,Ftlinv)(4)

      对于 DSF,希望它只从目标域中提取特征,这些特性通常应该出现在目标域中,而很少出现在源域中:

        Ldiff=MMD(Fsspec ,Ftlspec )(5)

    2.3 BL-Based classifier

      为增强节点语义特征,设计了基于 DIF 的域不变分类器(DIC)和基于 DSF 的域特定分类器(DSC)两种分类器。

      对于 DIC,第 i 组增强节点可以表示如下:

        Eiinv=φ(θiinv[Fsinv,Ftlinv]+βiinv)i=1,2,,ninv(6)

      增强的节点特征:Einv[E1inv,E2inv,,Eninvinv]

      因此,DIC 的输出可以表示如下:

        ˆYinv=[Fsinv,Ftlinv,Einv]θBLinv=AinvθBLinv(7)

      由于 DSC 只需要对目标域数据进行分类,因此我们对 Ftl spec  到增强节点的 nspec  组进行了非线性映射。因此,第 j 组增强节点可以表示如下:

        Ejspec=φ(θjspecFtlspec+βjspec)j=1,2,,nspec(8)

      增强的节点特征:Espec [E1spec ,E2spec ,,Enspec spec ]

      因此,DSC的输出可以表示如下:

        ˆYspec=[Ftlspec,Espec]θBLspec=AspecθBLspec(9)

    2.4 Co-training

      至于DIF,训练的目的是尽量减少以下损失:

        Linv=Lsim(θBERTinv,θCNNinv)+αLc(θBERTinv,θCNNinv)(10)

        Lc=1Ns+NtlNsi=1yislnP(yisFsiinv)+1Ns+NtlNtlj=1yjtllnP(yjtlFtljinv)(11)

      在到DSF时,训练的目的是尽量减少下面的损失:

        Lspec =Ldiff (θBERTspec ,θCNNspec )+γLt(θBERTspec ,θCNNspec )(12)
        Lt=1NtlNtli=1Yitllogfc(yitlFtlispec)(13)
      对于 DIC,我们需要求解一个合适的 θBERTinv,使 YinvˆYinv 之间的差异尽可能小,其中 Yinv 表示标记源数据和标记目标数据的地面真实标签。因此,采用岭回归作为目标函数,其表示如下:

        argminθBLinv(YinvˆYinv22+λ1θBLinv22)(14)

      对于 DSC,同样,目标函数表示如下:

        argminθBLspec (Yspec ˆYspec 22+λ2θBLspec 22)(15)

      Yspec  表示已标记的目标数据的地面真实标签。

      因此,采用岭回归作为目标函数,得到最优解 θBLinv,表示如下:

        θBLinv=(λ1I+AinvATinv)1ATinvYinv(16)

      其中,I 表示单位矩阵。

      同样,得到最优解 θBLspec  规范,表示如下:

        θBLspec =(λ2I+Aspec ATspec )1ATspec Yspec (17)

    2.5 完整算法

        

    3 实验结果

    数据集

      

    情感分类

      


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/17589407.html
  • 关于博主: I am a good person
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    嵌入式开发:2022年5大嵌入式GUI趋势
    苹果曝出严重安全漏洞,黑客可全面接管设备!!!
    计算点在线上的投影坐标
    查找算法【二叉查找树】 - 原理
    DETR:End-to-End Object Detection with Transformers
    7 LayUI
    【奇想星球】重磅!我们的AIGC共创社区平台上线了!
    Linux多进程(二)进程通信方式一 管道
    ucontext 上下文
    C++二要素认证,游戏实名认证接口、金融实名认证
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/17589407.html