张量流量损失已经很低

问题描述 投票:1回答:1

我正在进行强化学习的AI,我得到了奇怪的结果,这样的损失显示:Tensorflow损失:https://imgur.com/a/Twacm

虽然它是训练,但是在每场比赛之后,它会在一个随机玩家和一个加权矩阵的玩家之后进行比赛,但是它会上下移动:结果:https://imgur.com/a/iGuu2

基本上我正在做一个学习演奏奥赛罗的强化学习代理人。使用E-greedy,使用Keras over Tensorflow体验重播和深度网络。尝试了不同的架构,如sigmoid,relu和上面显示的图像,tanh。所有这些都有类似的损失,但结果有点不同。在这个例子中,代理人正在学习100k专业游戏。这是架构,默认学习率为0.005:

model.add(Dense(units=200,activation='tanh',input_shape=(64,)))
model.add(Dense(units=150,activation='tanh'))
model.add(Dense(units=100,activation='tanh'))
model.add(Dense(units=64,activation='tanh'))
optimizer = Adam(lr=lr, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
model.compile(loss=LOSS,optimizer=optimizer)

原始代码:https://github.com/JordiMD92/thellia/tree/keras

那么,为什么我得到这些结果呢?现在我的输入是64个神经元(8 * 8矩阵),0个空方块,1个黑色方块和-1个白色方块。使用负输入是不是很糟糕?

python tensorflow keras reinforcement-learning othello
1个回答
1
投票

这可能是你的激活功能的问题。尝试使用relu而不是tanh,如果你正在使用深度q学习,你可能不需要任何激活函数或关注重置权重的优化器。

© www.soinside.com 2019 - 2024. All rights reserved.