任何keras层中的dropout层和dropout参数之间有什么区别,两者都可以用于相同目的或不同。
像:model.add(LSTM(100,dropout = 0.2,recurrent_dropout = 0.2))
model.add(Dropout(0.2))
提前致谢。
是的,它们具有相同的功能,作为参数的丢失在该层的线性变换之前使用(权重的乘法和偏差的加法)。作为层的丢失也可以在激活层之前使用。
recurrent_dropout也具有相同的功能但方向不同(通常是输入和输出之间的丢失,它位于时间戳之间)