TensorFlow 2:从弃用的 RNNCellDropoutWrapper 到 keras.layers.RNN

问题描述 投票:0回答:0

我正在尝试将代码迁移到 tensorflow 2。我有这行代码:

cell = SimpleRNNCell(self.num_hidden)
cell = tf.nn.RNNCellDropoutWrapper(cell, output_keep_prob=0.2)

在 TF2 文档中,

RNNCellDropoutWrapper
据说已被弃用,唯一的说明是使用
keras.layers.RNN
.

我没找到如何使用这个模块来模仿

RNNCellDropoutWrapper
的效果。据我了解,在训练期间,构成我的 RNN 单元(层)的每个 RNN 单元(神经元)的最终输出(激活)将以等于
output_keep_prob
的概率保持(否则设置为 0)。我知道这是为了避免过拟合。所以我希望我对
output_keep_prob

的作用有一个清晰的认识

任何人都可以向我解释如何使用

keras.layers.RNN
来进行这种辍学吗?

谢谢和问候。

tensorflow2.0 recurrent-neural-network deprecated
© www.soinside.com 2019 - 2024. All rights reserved.