openai-gym 相关问题

OpenAI Gym是一个强化学习研究平台,旨在为各种环境提供通用智能基准。

使用keras和openai gym的深度强化学习项目中的多个错误

我已经从有关深度 q-learning 的源代码中复制了代码以尝试从中学习,但它是一个较旧的源代码,因此 keras 和 openai gym 都有很多问题。我试过了

回答 0 投票 0

在车杆问题中运行 q 学习后 Q_table 没有更新

我尝试使用 Q-learning 算法解决车杆问题。然而,在实施和执行算法之后,q-table 与执行程序之前相同。应该...

回答 0 投票 0

为什么我的 PPO 和 DQN 每集的平均奖励会随着时间的推移而减少?

我正在训练一个 RL 智能体来优化作业车间制造系统中的调度。我的方法基于以下代码:https://github.com/AndreasKuhnle/SimRLFab。它将环境迁移到

回答 0 投票 0

为什么我的 RL 训练代码会引发 OSerror:handle is closed

我在这里附上我的代码 定义火车(选择): 如果 torch.cuda.is_available(): 火炬.cuda.manual_seed(123) 别的: 火炬.manual_seed(123) 如果 os.path.isdir(opt.log_path):

回答 0 投票 0

OpenAI 健身房环境 pygame 渲染窗口在 MacOS 上使用 Jupyter Notebook Python3.9 Pygame 2.1.3 不响应

当我尝试渲染 openAI gym 环境时,渲染窗口无法正常退出。弹出一个窗口,它成功显示了运动但是当步骤完成时,窗口显示 &...

回答 0 投票 0

A2C 和 stable_baselines3

我正在尝试使用 GitHub (https://github.com/nicknochnack/Reinforcement-Learning-for-Trading-Custom-Signals/blob/main/Custom%20Signals.ipynb) 中的代码第 3 点: 模型 = A2C('

回答 1 投票 0

DQN, TF, nested spcaes.Dict : 如何处理可变大小的观察空间?

我对 RL 和 DQN 很陌生。并尝试为我的问题陈述编写代理程序。我正在使用 Replay Buffer 概念并尝试学习手动编写此代理的代码。我的观察空间是Dictio...

回答 2 投票 0

使用稳定基线的模仿学习预训练模型3

我一直在尝试找出一种使用 Stable-baselines3 预训练模型的方法。 在 Stable-baseline(在 Tensorflow 1.X 上运行的版本)的原始文档中,这似乎是...

回答 1 投票 0

使用keras RL搭建agent玩太空侵略者,遇到“AttributeError: 'int' object has no attribute 'shape'”错误

正如标题所说,在按照教程使用 keras RL 制作强化学习代理时,我一直遇到错误。其代码如下: 进口健身房 随机导入 进口新...

回答 1 投票 0

将 Mujoco 环境重置为给定状态

目标: 例如,对于 mujoco 环境(我正在使用 Metaworld)——“Sweep-into”,我想这样做: 重置环境: 采取一些行动... sim_state = 保存当前状态 来点

回答 1 投票 0

gym env.render() 第 N 步

我正在使用 gym==0.26.0,我试图让我的环境只在第 N 步渲染。这样我的 nn 就可以快速学习,但我也可以看到图像的一些进步,而不仅仅是 rew...

回答 1 投票 0

Gym环境动作空间定义

我有以下情况: 我的代理应该在每个步骤中执行以下三个操作之一: 不下单 下达指定连续交易量的市价订单 以指定的连续...下限价订单

回答 0 投票 0

健身房:无法设置观察空间

我正在尝试在 gym-duckietown 的 Gym 环境中训练强化学习代理。我一直在使用他们的 github 存储库中的模板实现时遇到问题。 那个

回答 0 投票 0

Cartpole 健身房环境的 PPO 算法中的属性错误

我正在尝试从这里运行代码(此页面上的 Github 链接):https://keras.io/examples/rl/ppo_cartpole/ 我在训练部分从 observation = observation.res 得到一个属性错误...

回答 1 投票 0

Stable Baselines 3:默认参数

我正在使用来自 Stablebaselines3 的 PPO 和 A2C 算法与 openai-gym 运行一些模拟。 我知道我可以自定义所有这些,但我想知道哪些是默认参数。 规格...

回答 1 投票 0

将Cpp代码与Python集成的最佳方法

我准备做一个机器人模拟器。除了控制器部分,模拟器大部分是用Python做的。控制器是用Cpp制作的。对于每个时间步,在模拟器中,机器人模型发送它的状态(电机...

回答 1 投票 0

使用OpenAI自定义环境

我有一个rb.py文件,大致结构如下: import gym def main(): env = gym.make('ComplexMiniGolf-v0')问题是,如果我创建另一个文件,然后做: from rb import main ...

回答 1 投票 2

PyTorch DQN代码不能解决OpenAI CartPole问题。

该代码来自DeepLizard教程;它显示,代理只能实现100集移动平均80-120秒,然后再重置下一集。OpenAI健身房认为195的平均数是 ...

回答 1 投票 1

RL-Coach简单行为克隆示例

我想用RL-Coach和一个自定义的健身房环境做一个简单的BC实验。基于这个想法,我试图根据f_1,f_2和f_3来预测目标变量。Gym ...

回答 1 投票 0

在openai gym中从图像中学习:渲染函数的内存泄漏或离屏glfw问题。

我正试图从openai gym中的图像中学习一个控制策略。我的代码非常简单,但是由于某些原因,我产生了巨大的内存需求,并且随着代码的运行而不断增加。

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.