大型语言模型(LLM)可以协助检测错误信息,但其有效性取决于上下文、设计和实施。 LLM 分析文本模式,并将声明与已知事实或数据集进行比较,以识别不一致之处。例如,如果某个陈述与模型训练数据中的已验证信息相矛盾(例如,“地球是平的”),则该模型可能会将其标记为潜在的错误信息。然而,LLM 本身并不是“真相检测器”——它们依赖于它们所训练的数据,这些数据可能包含偏差、过时的事实,甚至是错误信息本身。这意味着它们的准确性因它们的微调方式以及它们与哪些外部工具配对而异。
一个挑战是 LLM 根据统计可能性生成文本,而不是事实的正确性。例如,如果其训练数据中存在类似的模式,则模型可能会产生听起来合理但错误的声明,例如“研究表明巧克力可以治愈 COVID-19”。为了解决这个问题,开发人员经常将 LLM 与外部事实核查数据库或实时数据源结合起来。诸如 Google Fact Check Explorer 之类的工具或 API 可以对照可信来源(例如,WHO 报告)交叉引用声明,从而提高可靠性。此外,一些系统使用立场检测——训练模型来识别声明和支持证据之间的矛盾。例如,LLM 可以分析一篇新闻文章并突出显示与已建立的科学共识相冲突的陈述。
尽管有这些技术,但仅靠 LLM 不足以进行强大的错误信息检测。它们缺乏实时上下文(例如,根据截至 2023 年的数据训练的模型无法评估关于 2024 年事件的声明),并且难以处理细微或不断发展的主题。开发人员可以通过构建混合系统来缓解这种情况:使用 LLM 标记潜在的错误信息,然后将其路由给人工审核员或专门的验证工具。例如,社交媒体平台可能会使用 LLM 扫描帖子中已知的阴谋论,然后使用 ClaimBuster 之类的辅助服务来优先审查高风险内容。虽然 LLM 提供可扩展的初始筛选,但人工监督仍然对于处理极端情况和适应新的错误信息策略至关重要。