author:魏静崎
2024年3月11日
研究方向:虚假信息检测
本周工作内容:
1、阅读论文Chang Q, Li X, Duan Z. Graph global attention network with memory: A deep learning approach for fake news detection[J]. Neural Networks, 2024, 172: 106115.
![[1710167078446.png]]
论文提出了一个端到端的神经网络GANN:
第一个模块对节点和图进行嵌入,并进行全局池化生成总结为特定大小的特征向量。
然后使用了两个关键方法:全局关注和部分关键消息学习
1、由于同时将所有图同时输入网络不可行,因此采用全局关注机制,增加了一种类似时间序列网络中使用的记忆策略。其利用GRU模型来建模全局信息的时间动态在编码输入图中的相互依赖关系方面非常有效。这种方法巧妙地捕捉了随时间推移输入图的动态演变。
2、将从注意力机制得出的信息与当前图中的关键节点或核心节点的相关数据结合。使用两个可学习的权重矩阵来聚合整体特征向量和节点特征向量。该层中的权重矩阵被设计为学习特征向量维度上的注意力机制,以强调被认为对分类更具信息量的某些维度。
实验结果:
![[1710231527706.png]]
收获:可以分别使用全局关注机制和注意力机制关注传播图的动态变化信息和图中的关键信息。
- 本文作者: 魏静崎
- 本文链接: https://slightwjq.github.io/2024/09/26/周报18/
- 版权声明: 该文章来源及最终解释权归作者所有