缩放LSTM权重是否有意义?

问题描述 投票:1回答:1

我想将隐藏状态从多个LSTM网络转移到新网络中。在将隐藏状态输入新网络之前,将隐藏状态扩展或标准化是否有意义?

machine-learning neural-network lstm recurrent-neural-network transfer
1个回答
1
投票

以这种方式破坏网络是相当可能的。看看下面的LSTM方程:

LSTM

根据输入序列x,缩放WiWc可以使相应的偏差成为主导,这将基本上形成一个全新的网络。相同的输入序列x将导致不同的长期和短期状态,并且没有理由认为它们更好。缩放权重和偏差也很奇怪,因为它会改变整个线性层的比例。

如果您对体重正规化感兴趣,最好将其合并到原始网络中,而不是修补训练模型。

© www.soinside.com 2019 - 2024. All rights reserved.