• Stable Baselines/用户向导/开始

  • Stable Baselines官方文档中文版 Github CSDN

    大多数强化学习算法包都试图采用sklearn风格语法。

    下面是一个简单的案例,展示如何在Cartpole环境中训练和运行PPO2.

    1. import gym
    2. from stable_baselines.common.policies import MlpPolicy
    3. from stable_baselines.common.vec_env import DummyVecEnv
    4. from stable_baselines import PPO2
    5. env = gym.make('CartPole-v1')
    6. env = DummyVecEnv([lambda: env]) # The algorithms require a vectorized environment to run
    7. model = PPO2(MlpPolicy, env, verbose=1)
    8. model.learn(total_timesteps=10000)
    9. obs = env.reset()
    10. for i in range(1000):
    11. action, _states = model.predict(obs)
    12. obs, rewards, dones, info = env.step(action)
    13. env.render()

    或者,如果环境已在Gym注册、策略也已注册,仅仅用liner训练一个模型:

    1. # 用一行代码定义并训练一个RL agent
    2. from stable_baselines import PPO2
    3. model = PPO2('MlpPolicy', 'CartPole-v1').learn(10000)

    Stable Baselines/用户向导/开始 - 图1