为什么 e 在神经网络中使用得如此之多?

问题描述 投票:0回答:1

我不明白为什么我们在神经网络中如此频繁地使用“e”,可能是 sigmoid 函数或 softmax 函数。

在 sigmoid 函数中,我们本质上是将值 y=mx+b 压缩到 0-1 范围内,所以为什么我们专门使用“e”。如果我们凭直觉,使用“2”而不是“e”是有意义的,我的意思是我们要进行二元分类,这样才有意义,对吗?

另外,在 softmax 函数中,我们采用 e^x / sum(e^x) 为什么我们需要这样做,我的意思是我们试图获得 x 属于哪个类的概率,所以为什么我们不能直接这样做你知道像这样 x/sum(abs(x)) 吗?

deep-learning logistic-regression ml
1个回答
0
投票
  1. 反向传播的可微性由 e 给出。
  2. 映射到 0-1 范围并给出 0-100% 值。
  3. 夸大差异 => 关注最大的增量,忽略最小的。
  4. 通过均匀处理最小+最大值来保持稳定性。 (考虑一下浮点数舍入误差,现在我们只使用彼此更接近的浮点数)
  5. softmax 做同样的事情,但又是针对 n 类
© www.soinside.com 2019 - 2024. All rights reserved.