author:魏静崎
2024年4月22日
研究方向:虚假信息检测
本周工作内容:
1、阅读论文[1] Yang S H , Chen C C , Huang H H ,et al.Entity-Aware Dual Co-Attention Network for Fake News Detection[J]. 2023.
提出了一个多视图共同注意网络MVCAN:联合建模了用户和新闻来源的特定新闻主题信誉以进行检测。将新闻的主题观点,决定用户在转发时的观点的用户SC偏差和新闻来源的政治偏见编码为向量,然后使用一种多头共同注意机制的变体对不同视图进行联合交互编码以进行虚假新闻检测。
![[1711953872749.png]]
MVCAN包含五个组件:
新闻内容编码器:
为考虑主题和政治相关性,利用KG嵌入中的新闻实体表示和新闻来源的政治偏见,对新闻主题和政治意思形态进行建模。
社会认知意识用户表示:
根据用户的SC偏差代表用户,将用户-用户、用户-新闻当做一个异构图以生成用户表示,依赖用户转发的新闻内容来推断用户的意识形态和主题偏好。使用BERT对文本内容和用户偏好进行编码,每个新闻节点都由BERT-Large模型相关联的文本特征,每个用户节点对其所有转发文章标题平均获得用户偏好。
新闻来源表示:
任何两新闻源的共同受众越多,偏见方面越相似,由此计算新闻来源的同质性。每个新闻来源节点都与其所涵盖的文章特征相关联,对每个来源用BERT表示其中所有文章,取均值构建来源节点特征。
交互编码器:
在文章和来源之间进行交互,获得源相关新闻文档表示,并将结果传递给用户-新闻双向协同注意机制。
双向协同注意力:双重MHCA(多头自注意力)用于用户和新闻交互建模,使用针对用户和新闻的两个注意力系数向量。
新闻分类器:
全连接层进行分类。
实验结果:
![[1711955736541.png]]
2、阅读论文[1] Alghamdi J , Lin Y , Luo S .Towards COVID-19 fake news detection using transformer-based models[J].Knowledge-based systems, 2023.
文章比较了在COVID19数据集中一组不同的模型使用不同的下游神经网络的有效性。
BERT+CNN、BERT+LSTM、BERT+GRU、BERT+CNN-BiLSTM、BERT+CNN-BiGRU、BERT+mCNN、BERT+mCNN-BiLSTM、RoBERTa、CT-BERT
![[1712649059571 1.png]]
![[1712649082663.png]]
3、阅读论文Ahmed H, Traore I, Saad S, et al. Effect of Text Augmentation and Adversarial Training on Fake News Detection[J]. IEEE Transactions on Computational Social Systems, 2024.
该论文提出了一种用于文本增强和对抗性攻击的方法用于提升虚假新闻检测任务的性能。
文章首先研究了用于分类的一般特征,例如虚假文章包含不寻常的用词,并且没有提供实际证据支持文章中的信息,虚假新闻常有偏见or倾向,并且可能存在语法错误且可读性较差,或者其来源并不是正常渠道。
对抗性攻击:
白盒攻击:能完全访问模型及其架构,黑河攻击与其相反。
在自然语言处理背景下:
字符级:修改字符输入队列,白盒攻击会用TF-IDF识别最重要单词进行干扰。
词级:扰乱整个单词。
句子级:认为是对一组单词的操纵,但是不会影响输入的原始标签。
多级:操纵多个级别的行为。
改文章使用AMR图进行抽象意义表达,并使用共指消解准确表达AMR图中的关系。
文章利用AMR图进行文本增强:
焦点突变:AMR图是一个有根节点的图,根节点表示句子的主要概念。焦点突变方法修改根节点,导致主题发生变化。
概念突变:用具有相似含义的节点替换当前AMR图的节点
关系突变:随机替换现有关系
常数突变:更改常数
word注入:以AMR图和一个新概念为输入,使用编码器确定其在AMR图中的位置和兼容性。
常量注入:以一个单词代替AMR中的一个常量。
增强后的数据集以及效果:
![[1713861968712.png]]
使用前后攻击成功率:
![[1713862000301.png]]
- 本文作者: 魏静崎
- 本文链接: https://slightwjq.github.io/2024/09/26/周报21/
- 版权声明: 该文章来源及最终解释权归作者所有