强化学习是机器学习和计算机科学的一个领域,涉及如何在最大化特定环境中的数字奖励的状态中选择动作。
Open AI Gym, Agent 不按照冰湖模拟中的指定动作
我有一个 agent 在 Open AI Gym 的 Frozen Lake 模拟上受过训练。根据 Frozen Lake 代码,我看到操作对应于以下数字: 左 = 0 向下 = 1 右 = 2 向上 = 3...
有没有办法使用ns3-gym进行模糊测试? ns3-gym 用于网络,但最近人们也将其用于认知无线电和其他用途。我正在尝试使用 RL 来改进代码
有没有办法使用ns3-gym进行模糊测试?这用于网络,但最近人们也将其用于认知无线电和其他用途。我正在尝试使用 RL 来改进代码 cov...
我对 keras rl2 DQAgent 模型有问题,它出于某种原因给我的状态增加了另一个暗淡,我得到了值错误
在最后一天,我试图处理我在 DQNAGENT 拟合函数中遇到的错误。 我收到以下错误: ValueError:检查输入时出错:预期 dense_input 具有 2 个维度,但是......
我的 pytorch 代码无法使用 DQN 解决 cartpole?
我正在尝试让 DQN 的 PyTorch 实现在 CartPole-v1 上运行,但是,它不会解决问题,我无法弄清楚错误可能是什么。 代码运行,然而,没有学习/
所以我正在尝试使用 DQN 代理,但是当我尝试构建 QNetwork 时,它会发出形状为 (50,50,7500) 而不是 (7500,) 的输出张量。我需要它成为后者。 我的输入规格(observation_spe ...
我想知道 DQN 模型中的奖励政策。我正在学习如何使用 DQN 来解决问题。所以,我在一个我已经知道答案的确定性案例中应用 DQN。 我正在开发 DQN
如何更新我的 q-network (deeplearning4j) 中的权重
我想用 deeplearning4j 创建一个深度 q 网络,但不知道如何使用计算出的损失来更新我的神经网络的权重。 (我主要关注这篇文章) 公共...
有没有人试过用线性系统解决冰冻湖?我不知道如何将 MDP 问题转换为线性系统。
作为 OpenAI gymnasium 的初学者,我的目标是从头开始构建 SAC,并用它来训练代理解决 Bipedalwalker 问题。我尝试使用 gym.vector.SyncVectorEn 以使用多处理 ...
我正在考虑如何在我的 RL 问题中定义动作空间。目标是尝试许多不同的 RL 算法(基于价值、基于策略和混合),以便比较它们的性能,跨
我正在尝试从 suite_gym() 修改 MountainCarContinuous-v0 环境,但它陷入了局部最小值,因为奖励函数会惩罚
我制作了一个自定义健身房环境,其中代理的目标是保持在我指定的目标状态附近。我设计了我的奖励系统,如果它在特定范围内,就给
Lunar Lander-v2 中使用 RL 算法 PPO 的问题
在算法 PPO 中,需要计算一个比率 ratios = torch.exp(new_probs-old_probs) 这是当前策略下动作的概率除以概率之间的比率 ...
我正在考虑如何在我的 RL 问题中定义动作空间。目标是尝试许多不同的 RL 算法(基于价值、基于策略和混合),以便比较它们的性能,跨
\[测试 1\] success_example.py: 追溯(最近一次通话): 文件“/opt/simple_rl/tests/../examples/success_example.py”,第 8 行,在 \ 从 simple_rl.planning 导入
尝试运行代码 https://juliareinforcementlearning.org/docs/How_to_write_a_customized_environment/ 在我的环境中出现以下错误: LoadError: MethodError: 没有方法匹配...
Atari 游戏的 Gymnasium 框架中的 Step 函数产生 game_over() 错误
我尝试在 python Gymnasium 中加载并运行用于强化学习的 atari 游戏。 每当调用 env.step(action) 函数时,它都会产生以下错误 我的代码是 game_name = 'VideoPinb...
ValueError:维度必须是 2 但对于 '{{node lambda/transpose}} 是 3
我试图在 dqn 模型中包含多头注意通信层。 这是代码: def _create_model(自我,lr): 头数 =2 input1 = 输入(形状=(self.input_dims,)) ...
OpenAI gym 自定义环境 Ray ray.rllib actor 因创建任务中出现错误而死亡。为什么会这样
我正在使用作为 Gym 和 ray[rllib] 导入的 OpenAI 体育馆 Python 版本 3.9(谷歌协作) enter image description here 自定义环境的快照,它引用了这个 github 链接 h...