在可解释性人工智能 (XAI) 中,基于示例的解释是一种通过显示具体的实例或数据点来阐明机器学习模型如何做出决策的方法。 这些解释通过突出模型认为相似的示例(原型)、小的更改会改变结果的案例(反事实)或影响模型行为的有影响力的训练样本来工作。 其目标是通过将解释建立在具体数据之上来使复杂的模型行为变得有形,开发人员可以检查这些数据并将其与现实世界的场景联系起来。
例如,考虑一个贷款审批模型。 基于原型的解释可能会显示被批准的申请人的平均资料,例如信用评分 700 分、收入 6 万美元且没有违约记录的人。 反事实解释可以证明,如果信用评分 680 分且收入 5.8 万美元的被拒绝申请人的收入增加 5000 美元,则会被批准。 有影响力的例子可能会揭示该模型严重依赖来自特定地区申请人的历史数据。 这些示例帮助开发人员验证模型的逻辑是否与领域期望一致(例如收入门槛是否合理),或者发现偏差,例如过度依赖地理数据。
实施基于示例的解释需要诸如聚类(以找到原型)或优化方法(以生成反事实)等技术。 例如,使用 k 近邻 (KNN),开发人员可以检索与预测最相似的案例以显示原型。 为了创建反事实,诸如对抗性扰动或遗传算法之类的工具可以调整输入特征,直到模型的输出发生变化。 然而,挑战包括大型数据集的计算成本以及确保示例有意义(例如,“+5k 美元收入”反事实对于贷款申请人来说必须是可操作的)。 尽管存在这些障碍,但基于示例的方法是实用的,因为它们与人类的推理方式一致——使用具体案例而不是抽象规则——这使得它们对于调试模型或向利益相关者传达结果特别有用。