Tensorflow中的虚拟可变陷阱和交叉熵

问题描述 投票:0回答:1

我在训练中使用了交叉熵和单热真值标签的Tensorflow分类器。这是否容易受到虚拟变量陷阱的影响?如果是这样,我应该删除其中一个类?如果没有,那么tf.nn.softmax_cross_entropy_with_logits对虚拟变量陷阱有免疫力吗?码:

batch_size = tf.shape(truthLabels_placeholder)[0]
indices = tf.expand_dims(tf.range(0, batch_size), 1)
labels = tf.expand_dims(truthLabels_placeholder, 1)
concated = tf.concat(axis=1, values=[indices, labels])
onehot_labels = tf.sparse_to_dense(concated, tf.stack([batch_size,shared.nClasses]), 1.0, 0.0)
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=onehot_labels)
loss = tf.reduce_mean(cross_entropy)
tensorflow neural-network regression
1个回答
1
投票

不,它不受虚拟变量陷阱的影响。这些注释激发了使用交叉熵和softmax函数创建分类的损失函数:http://cs231n.github.io/linear-classify/#softmax

© www.soinside.com 2019 - 2024. All rights reserved.