为什么word2vec胜过其他神经网络方法?
Word2vec比其他神经网络方法(NNLM,RNNLM等)更浅。
可以解释一下吗?
我想知道它是否有任何缺点,因为word2vec模型不包含隐藏层(激活函数像sigmoid等)?
从我到目前为止所理解的,隐藏层的移除确实会影响准确性。然而,它导致了高计算增益,我们可以使用该模型来训练比以前更大的数据集。该模型的主要观点是,与数据集较小的更昂贵的模型相比,在更多数据上训练简单模型可以获得更好的结果。