OpenAI Gym是一个强化学习研究平台,旨在为各种环境提供通用智能基准。
我在代码中使用的是基于像素的健身环境。由于某些原因,我需要修改渲染功能。使用pyglet,我使用渲染器和关闭函数创建了自己的类ShowRender:...
我创建了一个自定义的openai体育馆环境,其中包含离散的动作空间和稍微复杂的状态空间。状态空间已定义为元组,因为它组合了一些维,这些维......>
Openai Baselines使用以下命令保存训练的模型,python -m基线.run --alg = ppo2 --env = PongNoFrameskip-v4 --num_timesteps = 2e7 --save_path =〜/ models / pong_20M_ppo2但是保存的.. 。
我目前正在研究强化学习模块,该模块需要在Python 2.7中从ROS接收和发送状态,动作和奖励信息。由于......>
我正在尝试通过在pytorch中训练一个简单的2层NN解决openAI体育馆中的CartPole问题。使用的方法是DQN,但结果收敛在大约8或9的最大分数上,因此看不到...
我目前在Anaconda 3下运行Spyder Python编辑器。我已按照下面的链接说明创建了我的测试健身房环境。 https://github.com/openai/gym/tree/master/gym/envs#how -...
因此,我刚刚开始使用OpenAI的Gym,我正在尝试在控制台中渲染环境。具体来说,这是Taxi-v2环境。而应该显示颜色的地方只会显示...
我正在尝试在gridworld环境中执行强化学习算法,但是我找不到找到它的方法。我已经成功安装了Gym和gridworld 0.14.0,然后执行了此命令...
我们开始基于cartpole-v0建立环境。我们正在尝试实现极点的类似行为,因此它不会在中心点旋转,而是在底部旋转。我们正在使用set_rotation ...
首先,这是为了进行实践和比较,我知道比线性网格更有效的方式来平铺状态空间。要运行一些强化学习算法,我想...
Mujoco_py缺少路径LD_LIBRARY_PATH的,Ubuntu 16.04
我试图让mujoco_py运行。当我做进口mujoco_py我得到这个错误:异常:缺少路径环境变量。当前值LD_LIBRARY_PATH =请添加以下...
我正在尝试在新的Ubuntu 16VM上安装openai健身房。我正在按照文档来安装Atari软件包,但我一直遇到问题:当我运行ipython> v2.7.12> import ...
我试图在openAI的健身房解决cartpole问题。通过Q学习。我认为我误解了Q-learning的工作原理,因为我的模型没有改进。我使用字典作为我的Q表。所以我 ”...
接收TypeError:未找到必需参数'object'(pos 1)
我正在尝试创建一个可以移动鼠标的健身房环境(显然是在虚拟机中)......我对课程知之甚少,但是应该为自己或其他东西辩护吗?还有,任何......
我在Windows 10 x64上使用openAI健身房,通过Windows远程桌面使用python 3.6.7并且我成功安装了atari-py和mujoco-py,但是当我尝试运行此代码时。进口健身房env = ...
我正在阅读本教程并看到以下代码:#Calculate score以确定环境何时解决得分。时间(时间)mean_score = np ....
我想在Python中尝试强化学习。但我想用自己的州和奖励创建一个自定义环境。可能我想在这里使用时间序列数据(没有像股票......
除了openAI的文档,我还没有找到更详细的文档。我需要知道正确的创建方式:一个具有1..n可能动作的动作空间。 (目前使用...
我正在使用Open AI Gym开展Space Invaders并通过Pygame进行展示。但我不知道如何用操纵杆轴移动并同时用操纵杆按钮拍摄,即使我......
我有一个简单的pytorch神经网络,我从openai复制,我修改了一定程度(主要是输入)。当我运行我的代码时,网络的输出在每一集都保持不变,因为......