NLP 中的零样本学习指的是模型在没有明确训练的情况下,无需特定于任务的示例就能执行任务的能力。 与传统的监督学习不同,在传统的监督学习中,模型针对每个特定的用例在标记数据上进行微调,而零样本模型则使用其预先存在的知识来推广到新任务。 这种方法依赖于模型在大型数据集(如书籍、文章或 Web 内容)上进行预训练期间获得的对语言模式、关系和语义的基本理解。 例如,一个经过训练来回答问题的模型,也可以在没有额外训练的情况下对文本情感进行分类或翻译语言,前提是通过提示或说明正确地构建了任务。
零样本学习的机制通常涉及提示或语义映射。 像 GPT 或 BERT 这样的模型使用其内部的语言表示来推断如何处理未见过的任务。 例如,如果您要求模型“确定这条推文是愤怒的、悲伤的还是快乐的”,它会利用其对情感语言线索的理解(例如,“沮丧”或“兴奋”等词语选择)来分配标签,即使它没有接受过情感分类的训练。 另一个例子是文本摘要:当指示模型“将这篇文章浓缩成三个句子”时,它可以利用其从先前的训练中掌握的关键信息提取能力来生成摘要。 这些能力源于模型将输入和任务描述映射到共享语义空间的能力,从而将新任务与其已经理解的概念联系起来。
但是,零样本学习也有局限性。 性能在很大程度上取决于任务的表达方式以及模型先前对相关概念的接触程度。 例如,如果模型的训练数据缺乏相关的术语,它可能会难以处理利基任务,如法律文件分析。 开发人员必须设计清晰、明确的提示,并严格测试输出。 虽然零样本减少了对标记数据的需求,但对于专门的用例,它可能无法达到微调模型的准确性。 平衡这种权衡需要了解模型的优势(例如,广泛的语言理解)和弱点(例如,开放式任务中的歧义),以确定何时零样本足够,以及何时需要特定于任务的训练。