为什么LSTM会忘记门输入新的输入?

问题描述 投票:0回答:1

我正在遵循LSTMs的解释

在门的所示示例中,它们显示了忘记门采用旧的单元状态值(等于先前的隐藏状态?)以及新的输入。

我的问题有两个方面:

1)如果忘记门应该调节先前单元状态的存储,为什么需要输入新的输入?不应该只在输入门中处理吗?

2)如果输入门决定将哪些新信息添加到单元状态,为什么我们还要在输入门中输入先前的单元状态?难道不应该在忘记门口发生过这种规定吗?

总体上似乎这里正在进行一些冗余处理。

machine-learning deep-learning neural-network lstm recurrent-neural-network
1个回答
0
投票
这里是LSTM方程:

enter image description here

© www.soinside.com 2019 - 2024. All rights reserved.