除了使用Tanh()函数之外,还有什么规则可以将嵌入向量约束在(-1,1)范围内吗?

问题描述 投票:0回答:1

我发现我的想法的性能很差,嵌入维度很高。我认为这个问题与激活函数有关。你能帮我么? 我尝试用 arctan() 替换 tanh() 但效果仍然很差,有什么好的策略吗? enter image description here

deep-learning neural-network loss-function
1个回答
0
投票

您可以使用多种类型的激活函数,激活函数的选择取决于您的目标任务。

在很多情况下,常用ReLU或Leaky ReLU函数。有关激活函数的更多详细信息和基准,您可以参考论文:深度学习中的激活函数:综合调查和基准

要实现这些激活函数,您可以导航至 PyTorch nn 模块中的“非线性激活”部分。

© www.soinside.com 2019 - 2024. All rights reserved.