零样本学习 (ZSL) 使模型能够通过利用已见类别和未见类别之间的语义关系来预测其未明确训练的类别的输出。 ZSL 模型不是仅仅依赖于每个可能的类别的标记示例,而是使用辅助信息(例如文本描述、属性或嵌入)来泛化到新类别。 这种方法的工作原理是将输入数据(例如,图像或文本)与已知和未知类别的语义表示对齐,从而即使在没有直接训练数据的情况下,模型也能推断出连接。
在训练期间,ZSL 模型学习输入特征(例如图像像素或单词标记)与描述类的语义空间之间的映射。 例如,经过训练以识别动物的模型可能会学习到“条纹”和“四条腿”是与老虎相关的属性。 这些属性通常被编码为向量,例如来自 Word2Vec 等工具的词嵌入或手动定义的属性列表。 该模型经过优化,可将输入特征与这些语义向量对齐。 重要的是,语义空间还包括未见类别的描述符(例如,“斑马”),即使它们没有特定的输入示例。 这种设置迫使模型通过理解特征如何与语义属性相关联而不是记忆特定于类的模式来进行泛化。
在推理时,模型将输入数据投影到相同的语义空间,并将其与所有可能的类别的向量进行比较,包括未见类别。 例如,如果模型遇到斑马(一个未见类别)的图像,它可能会在输入特征中检测到“条纹”和“四条腿”。 通过将这些特征与“斑马”的语义向量(它与“老虎”共享属性但在颜色或栖息地方面有所不同)相匹配,该模型可以正确地对输入进行分类。 类似地,在文本分类中,经过训练以处理“体育”和“政治”等新闻主题的 ZSL 模型可以通过将其内容与“环境”或“科学”的嵌入相关联来对有关“气候变化”的文章进行分类。 这种语义对齐与结构良好的特征空间相结合,使 ZSL 模型能够有效地处理未见类别,而无需重新训练。