我正在尝试用python实现一个Softmax Cross-Entropy loss。所以,我在GitHub Tensorflow仓库中看了Softmax Cross-Entropy loss的实现。我正试图理解它,但我遇到了三个函数的循环,我不明白函数中的哪一行代码在计算Loss?
函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
返回函数 softmax_cross_entropy_with_logits_v2_helper(labels=labels, logits=logits, axis=axis, name=name)
,进而返回 softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
.
现在,该函数 softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
返回函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
.
这让我陷入了一个函数循环,而不知道计算的代码在哪里。cost
的Softmax函数是。谁能指出Tensorflow GitHub Repository中Softmax Cross-Entropy的代码在哪里实现?
我所指的 GitHub 仓库的链接是 此处. 它包含上述三个函数的定义。
如果万一是 cost
需要很多函数,理解起来很麻烦,能不能也解释一下这几行代码?谢谢。