我在文档和文章的帮助下实现了原始 Unet 模型。并调整其超参数以提供最佳结果(dice_loss 和准确度)。现在我正在尝试实现 GAN,但我得到了非常荒谬的结果,例如非常高的生成器损失和非常低的鉴别器损失。我认为我错误地实现了生成器,或者错误地实现了 GAN 的训练循环。我该怎么弄清楚?
我尝试探索网络上的不同文章,尝试探索一些 git 官方 git 存储库,但我无法解决问题。
当尝试实现或了解 GAN 模型的实现时,我强烈建议您查看可用的高质量研究出版物代码。掌握 GAN 的训练艺术绝非易事。因此,深入研究较小的 GAN 模型的实现并适应现有的代码库至关重要。此外,全面理解损失函数的正确配置对于这一努力取得成功至关重要。
看一下: