前言
我目前正在研究机器学习问题,我们的任务是使用过去的产品销售数据来预测未来的销量(以便商店可以更好地计划他们的库存)。我们基本上有时间序列数据,对于每一个产品,我们知道在哪几天销售了多少单位。我们还提供有关天气如何,是否有公众假期,是否有任何产品销售等信息。
我们已经能够使用具有密集层的MLP取得一些成功,并且仅使用滑动窗口方法来包括周围几天的销售量。但是,我们相信,通过LSTM等时间序列方法,我们将能够获得更好的结果。
数据
我们的数据基本如下:
(编辑:为清楚起见,上图中的“时间”列不正确。我们每天输入一次,而不是每月一次。但结构是相同的!)
所以X数据的形状如下:
(numProducts, numTimesteps, numFeatures) = (50 products, 1096 days, 90 features)
并且Y数据的形状如下:
(numProducts, numTimesteps, numTargets) = (50 products, 1096 days, 3 binary targets)
因此,我们有三年的数据(2014年,2015年,2016年),并希望对此进行培训,以便对2017年进行预测。(当然,这不是100%正确,因为我们实际上有数据截至2017年10月,但我们只是现在忽略它)
问题
我想在Keras建立一个LSTM,允许我做出这些预测。有几个地方我被卡住了。所以我有六个具体问题(我知道应该尝试将Stackoverflow帖子限制为一个问题,但这些问题都是交织在一起的)。
首先,我如何为批次切割数据?由于我有三年的时间,所以只需按顺序推进三批,每次大小一年是否合理?或者更小的批次(比如30天)以及使用滑动窗口更有意义吗?即而不是36个批次,每个30天,我使用36 * 6批次,每个30天,每次滑动5天?或者这不是真的应该使用LSTM的方式吗? (请注意,数据中存在相当多的季节性,我需要捕捉这种长期趋势)。
其次,在这里使用return_sequences=True
是否有意义?换句话说,我将我的Y数据保持为(50, 1096, 3)
,以便(据我所知),每个时间步都有一个预测,可以针对目标数据计算损失?或者我会更好地使用return_sequences=False
,以便只使用每批的最终价值来评估损失(即,如果使用年度批次,那么在2016年产品1,我们将根据2016年12月的(1,1,1)
值进行评估)。
第三,我该如何处理50种不同的产品?它们是不同的,但仍然强相关,我们已经看到其他方法(例如具有简单时间窗的MLP),当所有产品被考虑在同一模型中时,结果更好。目前摆在桌面上的一些想法是:
第四,我如何处理验证数据?通常我会随机选择一个随机选择的样本进行验证,但在这里我们需要保持时间顺序。所以我想最好只是暂时搁置几个月?
第五,这是我可能最不清楚的部分 - 我如何使用实际结果来执行预测?假设我使用了return_sequences=False
,我分三批训练了三年(每次都是11月),目的是训练模型以预测下一个值(2014年12月,2015年12月,2016年12月)。如果我想在2017年使用这些结果,这实际上是如何工作的?如果我理解正确的话,我在这个例子中唯一可以做的就是为2017年1月到11月的所有数据点提供模型,它会给我回到2017年12月的预测。这是正确的吗?但是,如果我使用return_sequences=True
,然后对截至2016年12月的所有数据进行培训,那么我是否可以通过给出模型在2017年1月观察到的特征来获得2017年1月的预测?或者我需要在2017年1月之前的12个月内给它吗?那么2017年2月,我是否需要在2017年之前再提供11个月的价值? (如果听起来我很困惑,那是因为我!)
最后,根据我应该使用的结构,我如何在Keras中这样做?我现在想到的是以下几点:(虽然这只适用于一种产品,因此不能解决所有产品都在同一型号中):
硬编码
trainX = trainingDataReshaped #Data for Product 1, Jan 2014 to Dec 2016
trainY = trainingTargetReshaped
validX = validDataReshaped #Data for Product 1, for ??? Maybe for a few months?
validY = validTargetReshaped
numSequences = trainX.shape[0]
numTimeSteps = trainX.shape[1]
numFeatures = trainX.shape[2]
numTargets = trainY.shape[2]
model = Sequential()
model.add(LSTM(100, input_shape=(None, numFeatures), return_sequences=True))
model.add(Dense(numTargets, activation="softmax"))
model.compile(loss=stackEntry.params["loss"],
optimizer="adam",
metrics=['accuracy'])
history = model.fit(trainX, trainY,
batch_size=30,
epochs=20,
verbose=1,
validation_data=(validX, validY))
predictX = predictionDataReshaped #Data for Product 1, Jan 2017 to Dec 2017
prediction=model.predict(predictX)
所以:
首先,我如何为批次切割数据?由于我有三年的时间,所以只需按顺序推进三批,每次大小一年是否合理?或者更小的批次(比如30天)以及使用滑动窗口更有意义吗?即而不是36个批次,每个30天,我使用36 * 6批次,每个30天,每次滑动5天?或者这不是真的应该使用LSTM的方式吗? (请注意,数据中存在相当多的季节性,我需要捕捉这种长期趋势)。
老实说 - 建模这样的数据真的很难。首先 - 我不建议你使用LSTM
s,因为它们设计用于捕获一些不同类型的数据(例如NLP或语音,其中模拟长期依赖性非常重要 - 而不是季节性)并且它们需要大量的数据才能被学习。我宁愿建议你使用GRU
或SimpleRNN
,它们更容易学习,应该更适合你的任务。
当谈到批处理时 - 我肯定会建议你使用固定窗口技术,因为它最终会产生比整年或整整一个月更多的数据点。尝试将天数设置为元参数,这也将通过在训练中使用不同的值并选择最合适的值来进行优化。
谈到季节性 - 当然,这是一个案例,但是:
我建议你做的是:
其次,在这里使用return_sequences = True是否有意义?换句话说,我保持我的Y数据不变(50,1096,3),以便(据我所知),每个时间步都有一个预测,可以针对目标数据计算损失?或者我最好使用return_sequences = False,这样只使用每批次的最终值来评估损失(即如果使用年度批次,那么在2016年对于产品1,我们将评估2016年12月的价值(1) ,1,1))。
使用return_sequences=True
可能很有用,但仅限于以下情况:
LSTM
(或另一个复发层)后面还会有另一个复发层。第二点中描述的方式可能是一种有趣的方法,但请记住,它可能有点难以实现,因为您需要重写模型才能获得生产结果。还有一点可能更难的是你需要针对许多类型的时间不稳定性来测试你的模型 - 而这种方法可能会使这完全不可行。
第三,我该如何处理50种不同的产品?它们是不同的,但仍然强相关,我们已经看到其他方法(例如具有简单时间窗的MLP),当所有产品被考虑在同一模型中时,结果更好。目前摆在桌面上的一些想法是:
- 将目标变量更改为不仅仅是3个变量,而是3 * 50 = 150;即,对于每个产品,有三个目标,所有目标都是同时训练的。
- 将LSTM层之后的结果分成50个密集网络,将LSTM的输出作为输入,加上每个产品特有的一些功能 - 即我们得到一个具有50个丢失函数的多任务网络,然后我们优化一起。那会疯了吗?
- 将产品视为单一观察,并在LSTM层中包含产品特定功能。仅使用这一层,然后使用大小为3的输出层(对于三个目标)。在单独的批次中推送每个产品。
我肯定会选择第一选择,但在提供详细解释之前,我将讨论第二和第三的缺点:
在做出选择之前 - 让我们讨论另一个问题 - 数据集中的冗余。我想你有3种功能:
现在你有了(timesteps, m * n, products)
大小的表格。我会将其转换为形状表(timesteps, products * m + n)
,因为所有产品的一般特征都是相同的。这将为您节省大量内存,并且还可以提供给经常性网络(请记住,keras
中的重复层只有一个特征维度 - 而您有两个 - product
和feature
)。
那么为什么第一种方法在我看来是最好的呢?因此,它利用了数据中许多有趣的依赖关系。当然 - 这可能会损害培训过程 - 但是有一个简单的方法可以克服这个问题:减少维数。你可以,例如在您的150维向量上训练PCA
并将其大小缩小到更小的一个 - 多亏了你的PCA
模拟你的依赖关系,你的输出有一个更可行的大小。
第四,我如何处理验证数据?通常我会随机选择一个随机选择的样本进行验证,但在这里我们需要保持时间顺序。所以我想最好只是暂时搁置几个月?
这是一个非常重要的问题。根据我的经验 - 您需要针对许多类型的不稳定性测试您的解决方案,以确保它正常工作。所以你应该记住一些规则:
最后一点可能有点模糊 - 所以为您提供一些例子:
当然 - 你可以再试一次。
第五,这是我可能最不清楚的部分 - 我如何使用实际结果来执行预测?假设我使用了return_sequences = False,我分三批训练了这三年(每次都是11月),目的是训练模型以预测下一个值(2014年12月,2015年12月,2016年12月)。如果我想在2017年使用这些结果,这实际上是如何工作的?如果我理解正确的话,我在这个例子中唯一可以做的就是为2017年1月到11月的所有数据点提供模型,它会给我回到2017年12月的预测。这是正确的吗?但是,如果我使用return_sequences = True,然后对截至2016年12月的所有数据进行过培训,那么我是否可以通过给出模型在2017年1月观察到的特征来获得2017年1月的预测?或者我需要在2017年1月之前的12个月内给它吗?那么2017年2月,我是否需要在2017年之前再提供11个月的价值? (如果听起来我很困惑,那是因为我!)
这取决于您如何构建模型:
return_sequences=True
,您需要重写它以获得return_sequence=False
或只是获取输出并仅考虑结果的最后一步,在这里 - 需要更多关于您选择何种模型的信息。
这个问题有几种方法。你提议的那个似乎是一个滑动窗口。
但实际上你不需要切片时间维度,你可以一次输入所有3年。您可以对产品维度进行切片,以防您的批次对于内存和速度而言太大。
您可以使用形状为(products, time, features)
的单个数组
是的,使用return_sequences=True
是有道理的。
如果我正确理解你的问题,你每天都有y
的预测,对吗?
这真是一个悬而未决的问题。所有方法都有其优点。
但是,如果您正在考虑将所有产品功能放在一起,具有不同性质的这些功能,您应该扩展所有可能的功能,就好像有一个考虑所有产品的所有功能的大热门向量。
如果每个产品都具有仅适用于自身的独立功能,那么为每个产品创建单独模型的想法对我来说似乎并不疯狂。
您也可以将产品ID作为单热矢量输入,并使用单个模型。
根据您选择的方法,您可以:
可能还有很多方法。
有些方法可以使用滑动窗口。您训练模型的固定时间长度。
还有一些方法可以训练LSTM层的整个长度。在这种情况下,您首先预测整个已知部分,然后开始预测未知部分。
我的问题:你必须预测
X
期间的Y
数据是否已知?X
在这个时期也是未知的,所以你还要预测X
?
我建议你看看这个问题及其答案:How to deal with multi-step time series forecasting in multivariate LSTM in keras
另见这款笔记本能够展示这个想法:https://github.com/danmoller/TestRepo/blob/master/TestBookLSTM.ipynb
不过,在这款笔记本中,我使用了一种将X和Y作为输入的方法。我们预测未来的X和Y.
你可以尝试创建一个模型(如果是这种情况)只是为了预测X.然后是第二个模型从X预测Y.
在另一种情况下(如果您已经拥有所有X数据,不需要预测X),您可以创建一个仅从X预测Y的模型。(您仍然可以在笔记本中按照部分方法进行预测,首先预测已经知道Y只是为了让你的模型调整到序列中的位置,然后你预测未知的Y) - 这可以在一个单一的全长X输入中完成(其中包含训练X的开头和最后测试X)。
知道选择哪种方法和哪种模式可能是赢得比赛的确切答案......所以,对于这个问题没有最佳答案,每个竞争对手都试图找出这个答案。
根据已经提供的两个答案,我认为你应该看一下亚马逊研究院关于使用LSTM进行销售预测的这篇文章,看看他们如何处理你提到的问题:
https://arxiv.org/abs/1704.04110
此外,我还应该指出,在使用循环网络时,适当的正规化非常重要,因为它们的过度拟合能力可能非常引人注目。您可能希望查看本文所述的“变化的重复丢失”
https://arxiv.org/abs/1512.05287
注意:这已经在Tensorflow中实现了!