author:魏静崎
2023年10月23日
研究方向:虚假信息检测
本周研究内容:
1、阅读论文Prompt and-Align: Prompt-Based Social Alignment for Few-Shot Fake News Detection. In Proceedings of the 32nd ACM International Conference on Information and Knowledge Management (CIKM ’23), October 21–25, 2023, Birmingham, United Kingdom. ACM, New York, NY, USA, 11 pages. 论文通过将新闻文章封装在文本提示中来缓解在小样本下标签的稀缺性。
文章之间构建文章的接近度图来获取文章的一致真实性,以置信度沿图边对提示预测进行对齐,来补充PLM社交上下文信息。
形成一个新的数据集:
(1)纯文本T
(2)用户U(转发过T的用户)
(3)转发次数与参与度
主要模块P&A(Prompt and Align):
Prompt:从预训练模型中引出特定的知识来预测真伪。
提出一个MASK,虚假新闻检测问题重定义为对标记MASK的预测问题,预训练模型通过提示给出MASK的内容。通过在输入之前与任务相关的文本模版,并询问预训练模型是否将文本与A相关联融入任务的特定语义知识,有助于引出模型任务的特定知识,以此减少学习所需的数据量。
目的是最大化正确标记并对错误标记惩罚,因此用二院交叉熵作为损失函数。
Align:利用信息丰富的读者,通过置信度来增强预测。
GNN训练不可行,因为消息传递过程中,未标记节点的参与度严重受限。基于接近图的对齐弥补了预训练模型训练和之后预测任务之间的差距。利用的是训练集的标签和小部分拥有较高置信度的未标记的样本。
ps:深度学习任务中的图对齐(Graph Alignment)是指将来自不同源数据的图结构(Graph Structure)或图表示(Graph Representation)进行对齐或匹配的过程。这种对齐通常是为了在跨数据集或跨任务之间比较和迁移知识。
下周研究内容:
1、尝试复现论文《Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News Detection》的源码。
- 本文作者: 魏静崎
- 本文链接: https://slightwjq.github.io/2023/10/30/周报05/
- 版权声明: 该文章来源及最终解释权归作者所有