AutoML 通过平衡模型性能、资源约束和预定义的限制来确定训练的停止标准。 主要目标是一旦进一步的迭代不太可能产生有意义的改进或达到资源阈值时,就停止训练。 常见的标准包括性能平台期、时间或计算预算以及提前停止机制。 例如,如果模型的验证准确性在几个训练回合后停止提高,则 AutoML 可能会得出结论,认为额外的训练是不必要的。 同样,用户可能会设置最长训练时间(例如,1 小时),之后系统将终止,无论进度如何。 这些标准可以防止过度拟合、节省资源并确保实际可用性。
一个具体的例子是基于验证指标的提前停止。 AutoML 工具通常在训练期间监控验证损失或准确性,如果在设定的 epoch 数(“耐心”参数)后没有改进,则停止。 例如,如果验证损失连续 10 个 epoch 未能减少,则训练停止。 另一个例子是超参数优化:像 Google 的 Vertex AI 或 Auto-Sklearn 这样的框架可能会限制测试的超参数配置的数量(例如,50 次试验),以避免过多的计算。 资源约束也起作用——GPU 内存限制或最大 CPU 使用率可能会强制终止。 在分布式系统中,当分配的云积分或节点小时耗尽时,AutoML 可能会停止,优先考虑成本效率。
AutoML 系统还使用自适应策略来平衡探索(尝试新的配置)和利用(改进现有模型)。 例如,贝叶斯优化算法会动态评估基于收益递减是否值得进一步的超参数调整。 如果最近 10 次试验仅略微提高了性能,则系统可能会提前终止。 同样,当集成预测达到平台期时,基于集成的算法可能会停止添加基本模型。 开发人员通常可以自定义这些标准:设置最小准确性目标(一旦达到 95% 的准确性就停止)或组合多个规则(2 小时后或当验证准确性稳定时停止)。 这种灵活性确保了 AutoML 能够适应不同的用例,同时保持效率和实用性。