迁移学习在零样本学习中发挥着关键作用,它使模型能够利用从一项任务或数据集获得的知识,以便在全新的、未见过的任务上表现良好。在零样本学习中,模型必须对它从未明确训练过的类别或场景进行预测。迁移学习提供了基础知识——例如特征表示或语义关系——使模型能够推广到这些新情况。例如,在像 ImageNet 这样的大型图像数据集上预训练的模型可以通过迁移其对形状、纹理和模式的理解来识别新类别中的对象,即使这些特定对象不是其训练数据的一部分。
迁移学习支持零样本场景的一个关键方式是通过共享表示。在广泛的数据集上训练的模型通常会学习捕获一般模式的高级特征或嵌入。这些嵌入充当已知类别和未知类别之间的桥梁。例如,在自然语言处理中,像 BERT 这样的语言模型,在大量的文本语料库上进行预训练,将单词和短语编码为上下文嵌入。在零样本文本分类中,这些嵌入可以将输入文本映射到语义空间,在该空间中可以推断出已知和未知标签之间的关系。同样,像 CLIP(对比语言-图像预训练)这样的模型使用迁移学习来对齐图像和文本嵌入,通过将视觉输入与未见类别的文本描述进行比较,从而实现零样本图像分类。
然而,迁移学习在零样本设置中的有效性取决于源域和目标域之间的对齐。如果预训练数据没有捕获相关的特征或关系,模型可能会遇到困难。开发人员可以通过选择具有广泛适用性的预训练模型或在相关的辅助任务上对其进行微调来解决这个问题。例如,零样本推荐系统可以使用在跨多个领域的用户-项目交互上训练的预训练模型,然后通过共享属性(如类别或标签)将用户偏好链接起来,将其应用于新领域。虽然并不完美,但迁移学习减少了对大量标记数据的需求,并在收集特定任务的训练数据不切实际的情况下实现了实用的零样本解决方案。