是具有参数单位的LSTM = N等于具有单位= 1的N个并行LSTM吗?

问题描述 投票:0回答:1

我目前从神经网络开始,尤其是针对时间序列模型的LSTM。

我读了一篇论文(convex based LSTM),其中有人使用并行LSTM,然后将其输出合并。现在我想知道如何实现这种类型的网络。我知道,由于最后的元素逐个乘法,因此Keras的LSTM构造函数中的参数“单位”是输出的大小。但是,我不确定具有N个单位的Keras-LSTM-Layer是否与具有N个LSTM(每个都有1个单位)的层相同。

换句话说:假设有两个LSTM(一个具有N个单位,一个具有1个单位),它们获得相同的输入并产生output1(长度N)和output2(长度1)。如果相应地分配了权重,一个单位为N + 1且输入相同的LSTM是否会产生输出y = [y_1,y_2]?

如果不是这种情况,如何使用Sequential模型在Keras的一层中使用多个LSTM?仅功能API可以吗?

tensorflow keras parameters lstm recurrent-neural-network
1个回答
0
投票

在本文中,他实质上是合并了k层LSTM的输出,每个LSTM都有n_k个单元。要复制这是keras,请在每层中写入k层lstms和n_k个单元。仅一个单元的LSTM层是无用的,因为内存在LSTM的单元中传播以进行顺序输入。一个单位的LSTM仅处理一个输入值,而其他值保持不变。所以,回答您的问题,不。两者不一样。实际上,对于所有输入,具有1个单位的N层与第一个输入上的一个像元一样好。

© www.soinside.com 2019 - 2024. All rights reserved.