AutoML 工具可以解释它们的结果,但解释的深度和清晰度取决于具体的工具和底层算法。大多数现代 AutoML 平台都包含基本的解释性功能,例如特征重要性得分,这些得分显示哪些输入变量对预测的影响最大。例如,像 Google 的 AutoML Tables 或 H2O.ai 的 Driverless AI 这样的工具会自动生成图表和指标,突出显示模型决策中的关键因素。这些解释通常通过简单的可视化来呈现,例如条形图,按影响程度对特征进行排序。然而,这些工具可能无法提供关于如何做出个别预测的详细信息,特别是对于像神经网络这样的复杂模型。
解释性的水平也因模型类型而异。使用固有可解释算法(如线性回归或决策树)的 AutoML 系统可以更容易地生成人类可读的规则或系数。例如,基于决策树的 AutoML 工具可能会输出一个流程图式的结构,显示输入值如何在每个节点上分割以达到结论。相比之下,像梯度提升集成或深度学习模型这样的模型,虽然通常更准确,但更难解释。像 Auto-sklearn 或 TPOT 这样的工具可能会提供偏依赖图或 SHAP (SHapley Additive exPlanations) 值来近似特征效应,但这些是事后解释,而不是直接解释模型的逻辑。
开发者可以通过集成外部库或自定义代码来增强 AutoML 的可解释性。例如,将 LIME(Local Interpretable Model-agnostic Explanations,局部可解释模型无关解释)与 AutoML 生成的模型一起使用,可以通过用更简单的局部模型近似复杂模型来帮助解释个别预测。 一些 AutoML 框架,如 DataRobot,允许用户在不同的模型类型之间切换,以平衡准确性和可解释性。 然而,验证解释并确保它们与领域知识相符的责任通常落在用户身上。虽然 AutoML 减少了模型构建中的手动工作,但从业者仍然必须批判性地评估所提供的解释是否足以满足他们的用例,特别是在需要可审计性的受监管行业中。