• 谣言检测(RDEA)《Rumor Detection on Social Media with Event Augmentations》


    论文信息

    论文标题:Rumor Detection on Social Media with Event Augmentations
    论文作者:Zhenyu He, Ce Li, Fan Zhou, Yi Yang
    论文来源:2021,SIGIR
    论文地址:download
    论文代码:download

    1 Introduction

      现有的深度学习方法取得了巨大的成功,但是这些方法需要大量可靠的标记数据集来训练,这是耗时和数据低效的。为此,本文提出了 RDEA ,通过事件增强在社交媒体上的谣言检测(RDEA),该方案创新地集成了三种增强策略,通过修改回复属性和事件结构,提取有意义的谣言传播模式,并学习用户参与的内在表示。

      贡献:

      • 涉及了三种可解释的数据增强策略,这在谣言时间图数据中没有得到充分的探索;
      • 在谣言数据集中使用对比自监督的方法进行预训练;
      • REDA 远高于其他监督学习方法;

    2 Methodology

      总体框架如下:

      

      主要包括三个模块:

      • event graph data augmentation
      • contrastive pre-training
      • model fne-tuning

    2.1 Event Augmentation

      谣言事件中存在两种用户:

      • malicious users
      • naive users

      malicious users 故意传播虚假信息,nvaive users 无意中帮助了 malicious users 传播虚假信息,所以 mask node 是可行的。

      给定除 root node 的节点特征矩阵 ErR(|V|1)×d,以及一个 mask rate pm,mask 后的节点特征矩阵为:

        Ermask =MEr

      其中,M{0,1}(|V|1)×d 代表着 mask matrix,随机删除 (|V|1)×pm 行节点特征矩阵。

    2.2 Subgraph

      用户在早期阶段通常是支持真实谣言的,所以,在模型训练时,如果过多的访问谣言事件的整个生命周期,将阻碍早期谣言检测的准确性,所以本文采取随机游走生成谣言事件的子图 Gisub

    2.3 Edge dropping

      形式上,给定一个邻接矩阵 ANe 条边和丢弃率 pd,应用 DropEdge 后的邻接矩阵 Adrop,其计算方法如下:

        Adrop=AA

      其中,A 是随机采样 Ne×pd 条边的邻接矩阵。

    2.2 Contrastive Pre-training

      在本节将介绍如何通过在输入事件和增强事件之间的对比预训练来获得互信息。

      形式上,对于 node j 和 event graph G,self-supervised learning 过程如下:

        h(k)j=GCL(h(k1)j)hj=CONCAT({h(k)j}Kk=1)H(G)=READOUT({hj}|V|j=1)

      其中,h(k)j 是节点在第 k 层的特征向量。GCL 是 graph convolutional encoder ,hj 是通过将 GCL 所有层的特征向量汇总为一个特征向量,该特征向量捕获以每个节点为中心的不同尺度信息,H(G) 是应用 READOUT 函数的给定事件图的全局表示。本文并选择 GIN 作为 GCL 和 mean 作为 READOUT 函数 。对比预训练的目标是使谣言传播图数据集上的互信息(MI)最大化,其计算方法为:

        Iψ(hj(G);H(G)):=E[sp(Tψ(hj(Gpos i),H(Gi)))]E[sp(Tψ(hj(Gnegi),H(Gi)))]

      其中,Iψ 为互信息估计器,Tψ 为鉴别器(discriminator),Gi 是输入 event 的 graph,Gpos iGi 的 positive sample,Gneg iGi 的负样本,sp(z)=log(1+ez) 是 softplus function。对于正样本,可以是 Gi(Ermask ),$G_{i_{-} s u bG_{i}\left(A_{d r o p}\right)$,负样本是 一个 batch 中其他 event graph 的局部表示。

      在对 event graph 进行对比预训练后,我们得到了 input event graph Gi 的预训练的向量 H(Gi)。然后,对于一个 event Ci=[ri,xi1,xi2,,xi|Vi|1,Gi],通过平均所有相关的回复帖子和源帖子的原始特征 oi=1ni(|Vi|1j=1xij+ri),我们得到了文本图向量 oi。为了强调 source post,将 contrastive vector、textual graph vector 和source post features 合并为:

        Si=CONCAT(H(Gi),oi,ri)

    2.3 Fine tuning

      预训练使用了文本特征,得到了预训练的 event representation,并包含了原始特征和 source post 信息,在 fine-tune 阶段,使用预训练的参数初始化参数,并使用标签训练模型:

      将上述生成的 si 通过全连接层进行分类:

        ˆyi=softmax(FC(Si))

      最后采用交叉熵损失:

        L(Y,ˆY)=|C|i=1yilogˆyi+λΘ22

      其中,Θ22 代表 L2 正则化,Θ 代表模型参数,λ 是 trade-off 系数。

    3 Experiments 

    3.1 Baselines
      • DTC [3]: A rumor detection approach applying decision tree that utilizes tweet features to obtain information credibility.
      • SVM-TS [10]: A linear SVM-based time-series model that leverages handcrafted features to make predictions.
      • RvNN [11]: A recursive tree-structured model with GRU units that learn rumor representations via the tree structure.
      • PPC_RNN+CNN [8]: A rumor detection model combining RNN and CNN for early-stage rumor detection, which learns the rumor representations by modeling user and source tweets.
      • Bi-GCN [2]: using directed GCN, which learns the rumor representations through Bi-directional propagation structure.

    3.2 Performance Comparison

      

    3.3 Ablation study

      

      -R represent our model without root feature enhancement
      -T represent our model without textual graph
      -A represent our model without event augmentation
      -M represent our model without mutual information

    3.4 Limited labeled data

      Figure 3 显示了当标签分数变化时的性能:

      

      我们观察到,RDEA 对这两个数据集都比 Bi-GCN 更具有标签敏感性。此外,标签越少,改进幅度越大,说明RDEA的鲁棒性和数据有效性。

    3.5 Early Rumor Detection

      


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16776829.html
  • 关于博主: I am a good person
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    JavaScript进阶知识汇总~
    BLIP2模型加载在不同设备上
    pytorch 中遇到的问题
    Word处理控件Aspose.Words功能演示:使用C#分割MS Word文档
    互联网Java工程师面试题·Java 总结篇·第九弹
    密码技术 (3) - 单向散列函数
    鸿蒙开发实例 | 鸿蒙操作系统的前世今生
    前端定义了全局变量后,再定义一个同名的局部变量
    三、部署kafka
    软件系统开发安全指南-word
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16776829.html