大型语言模型 (LLM) 通过依赖训练过程中学到的模式来处理习语和隐喻。 这些模型分析短语周围的上下文,以推断是否具有非字面意义。 例如,当遇到像“kick the bucket”这样的习语时,该模型会使用其训练数据中的统计关联(例如,“died”或“passed away”等共现词)来确定该短语指的是死亡而不是字面上的动作。 类似地,像“时间是小偷”这样的隐喻通过将“小偷”与时间背景下的损失或隐身等概念联系起来进行解释。 这个过程不是基于明确的规则,而是基于模型识别单词和短语在相似上下文中通常如何一起使用的能力。
为了实现这一点,LLM 将输入文本分解为 tokens,并使用注意力机制来衡量单词之间的关系。 例如,在句子“She spilled the beans about the surprise party”中,该模型可能会关注与“surprise party”相关的“spilled”和“beans”。 通过将其与训练数据中的模式进行比较(例如,“spilled the beans”通常出现在“secret”或“revealed”附近),该模型可以推断出习语的含义。 对于像“the world is a stage”这样的隐喻,该模型根据这些术语在其他上下文中的使用方式,将“stage”映射到诸如表演、角色或可见性等概念。 这种上下文映射允许模型生成或解释与预期比喻意义对齐的文本,即使没有明确理解抽象概念。
但是,LLM 可能会难以处理罕见或模棱两可的习语和隐喻。 例如,如果上下文不清楚,像“chew the fat”(随意聊天)这样不太常见的习语可能会被误解。 类似地,如果周围的文本没有提供足够的线索,像“his heart was a furnace”这样的隐喻可能会被误读为字面意义。 开发人员可以通过在特定领域的数据上微调模型或使用提示工程等技术(例如,在输入之前添加“解释这个隐喻:”)来提高准确性。 虽然 LLM 可以有效地处理许多比喻表达,但它们的性能最终取决于训练数据的多样性和质量,以及用户提供的输入上下文的清晰度。