在提示中列出多个检索到的文档,并附带标题或来源,通常可以通过提供结构化的上下文来提高 LLM 生成准确和相关答案的能力。当文档被清晰地标记时,模型可以识别并优先处理来自权威或相关来源的信息。例如,一个关于 JavaScript 性能优化的问题可能包括标题为“MDN Web Docs:内存管理”和“2023 年浏览器基准报告”的文档。这些标题可以帮助模型识别 MDN 文档是可信来源,从而使其专注于经过验证的最佳实践,而不是不太可靠的博客文章。这种结构还可以减少歧义,因为模型可以通过引用来源的上下文来区分重叠或冲突的信息。
然而,包含过多的文档或组织不良的参考文献可能会阻碍性能。 LLM 具有有限的上下文窗口,过多的信息可能会迫使模型截断或忽略关键细节。 例如,如果一个提示包含 20 篇关于机器学习的研究论文,但没有明确的标题,那么模型可能很难确定哪些论文涉及诸如“transformers vs. RNNs”之类的特定技术。 此外,不相关的文档会引入噪声。 如果提示中包含有关 GUI 框架的不相关文章,则关于 Python 线程的查询可能会受到影响,从而导致模型混淆概念。如果没有明确的标题,模型就无法有效地将信息映射到问题的要求,从而增加了产生切题或不正确答案的风险。
有效性还取决于来源的呈现方式。 诸如“来源:AWS 文档 (2024)”之类的明确标签使模型能够优先考虑最新的官方指南,而未命名的片段可能会被同等对待。 例如,在回答云存储问题时,该模型可以自信地引用 AWS 文档,而不是 2018 年的教程。 但是,如果来源缺乏日期或可信度指标,则该模型可能会无意中依赖过时或不太准确的材料。 保持平衡——包括 3-5 个标记良好且相关的文档——通常可以通过为模型提供足够的上下文来综合答案,而又不会使其难以专注于关键细节来优化结果。