零样本学习(ZSL)使机器学习模型能够识别或分类从未明确训练过的类别中的数据。这种方法依赖于利用辅助信息(例如类别之间的语义关系)来泛化到未见过的类别。例如,一个经过训练能够识别狗和猫的模型,可以通过使用与已知类别共享的文本描述或基于属性的特征(例如,“有毛发”、“尖耳朵”)来推断出“狼”是什么。这减少了为每个可能的类别都需要详尽的标记数据集的需求,使得零样本学习在获取新类别的训练数据不切实际的场景中特别有用。
零样本学习的一个主要优势是它能够处理动态或不断扩展的分类任务而无需重新训练。在传统的监督学习中,添加一个新类别需要收集标记数据并重新训练整个模型,这既耗时又耗资源。使用零样本学习,开发人员只需提供新类别的语义描述或将其嵌入到共享特征空间中即可集成新类别。例如,在电子商务产品分类系统中,添加像“智能眼镜”这样的新商品类型,可以通过属性或知识图谱将其链接到现有类别(例如,“可穿戴技术”或“眼镜”),从而绕过额外的训练过程。这种灵活性在类别频繁演变的快速变化环境中尤为宝贵。
另一个优势是零样本学习在跨领域或跨语言方面的泛化能力提升潜力。通过将输入映射到共享语义空间,模型可以在不同的上下文之间迁移知识。例如,一个在英语和德语数据上训练的多语言文本分类器,可以通过使用跨语言嵌入将西班牙语单词与其英语对应词对齐来对西班牙语文本进行分类。同样,在医学影像领域,一个在一家医院的 X 光片上训练的模型,可以通过利用共享解剖特征来适应使用不同设备的另一家机构的 X 光片。虽然零样本学习并非在所有情况下都能替代微调,但它在性能和适应性之间提供了一种实用的平衡,特别是在标记数据稀缺或获取成本高昂的情况下。