少量样本学习应用于时间序列预测,使模型即使在历史数据有限的情况下也能做出准确预测。传统的如 ARIMA 的时间序列方法或如 LSTMs 的深度学习模型需要大量数据集才能捕获趋势、季节性和噪声。 少量样本学习通过训练模型以概括来自小数据集的模式来解决此限制,通常利用来自相关任务的知识。这在诸如预测新产品的需求、监视新的传感器安装或处理极少历史数据存在的罕见事件之类的场景中特别有用。
一种常见的方法是元学习,其中模型学习使用各种训练时间序列快速适应新任务。 例如,可以训练模型来识别来自不同域(例如,建筑物中的能源使用、网站流量模式)的多个短序列中的共享时间特征。 当提供新的时间序列(例如,新商店的每周销售额)时,该模型仅使用几个数据点即可使用这些预先学习的模式进行预测。 像模型无关元学习 (MAML) 这样的技术可以优化模型以在新任务上快速进行微调。 另一种方法是迁移学习,其中在大型相关数据集(例如,城市中的用电量)上预训练的模型使用最少的示例在目标数据集(例如,单个家庭的每小时用量)上进行微调。
挑战包括避免过度拟合到有限的数据以及处理时间序列特征(如季节性或噪声)的可变性。数据增强——例如添加合成噪声、移动时间戳或缩放值——可以人为地扩展训练样本。 例如,预测新应用程序服务器负载的模型可以使用增强的数据来模拟流量高峰。 但是,开发人员必须验证增强是否保留了原始数据的统计属性。 诸如平均绝对比例误差 (MASE) 之类的评估指标可用于比较少量样本学习的性能与朴素基线。 虽然很有前途,但少量样本学习方法需要仔细设计以平衡适应性和鲁棒性,从而确保它们可以在没有特定于域的调整的情况下跨各种时间模式进行泛化。