DeepResearch 和许多 AI 系统一样,可能难以区分权威信息与谣言,主要有三个原因:训练数据限制、缺乏实时验证以及用户查询的歧义性。首先,这些系统是在包含可信来源和不可靠来源的庞大数据集上训练的。例如,如果模型在社交媒体帖子、新闻文章和论坛上训练,它本身无法辨别来自病毒式推文的说法是否比同行评审的研究更可信或更不可信。在 COVID-19 大流行等事件期间,这可能导致将世卫组织指南与网上分享的未经证实的家庭疗法混淆。其次,AI 模型通常无法访问实时数据或对照最新来源验证事实。如果模型的训练数据早于纠正日期,昨天已被证伪的说法可能仍然显得可信。第三,模糊的查询(例如,“是什么导致了 X 疾病?”)如果模型无法推断用户对严谨来源信息的需求,可能会返回相互矛盾的答案。
用户可以通过主动验证来源和优化查询来缓解这一问题。当 DeepResearch 提供信息时,将其与官方政府网站、学术期刊或事实核查组织(例如 Snopes 或世卫组织)等可信平台进行交叉比对至关重要。例如,如果模型引用了关于疫苗有效性的统计数据,检查原始研究或 CDC 指南可以确认其有效性。用户还应优化提示,明确要求提供权威来源。开发人员不应问“药物 X 的副作用是什么?”,而应具体说明“请提供关于药物 X 副作用的同行评审研究。” 此外,使用浏览器扩展程序(例如 NewsGuard)或 API(例如 Google Scholar 的搜索)等工具可以帮助自动化来源可信度检查。培养怀疑精神——例如检查发布日期、作者资质或相互矛盾的说法——可以减少对模型原始输出的依赖。
开发人员可以实施技术策略来改进结果。集成检索增强生成(RAG)使模型能够从精选的最新数据库(例如 PubMed 或 arXiv)中提取数据,而不是完全依赖预训练知识。例如,开发人员可以构建一个流程,让 DeepResearch 在生成响应之前首先查询一个可信 API 获取最新研究。还可以整合像 InVID(用于视频验证)这样的浏览器工具或用于标记可信度得分较低域名的自定义脚本。最后,建立反馈循环(用户报告不准确之处)有助于随着时间的推移微调模型的输出。通过结合用户的勤勉和技术保障,可以显著降低错误信息的风险。