文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

强化学习环境升级 - 从gym到Gymnasium

2023-09-20 20:25

关注

作为强化学习最常用的工具,gym一直在不停地升级和折腾,比如gym[atari]变成需要要安装接受协议的包啦,atari环境不支持Windows环境啦之类的,另外比较大的变化就是2021年接口从gym库变成了gymnasium库。让大量的讲强化学习的书中介绍环境的部分变得需要跟进升级了。

不过,不管如何变,gym[nasium]作为强化学习的代理库的总的设计思想没有变化,变的都是接口的细节。

step和观察结果

总体来说,对于gymnasium我们只需要做两件事情:一个是初始化环境,另一个就是通过step函数不停地给环境做输入,然后观察对应的结果。

初始化环境分为两步。
第一步是创建gymnasium工厂中所支持的子环境,比如我们使用经典的让一个杆子不倒的CartPole环境:

import gymnasium as gymenv = gym.make("CartPole-v1")

第二步,我们就可以通过env的reset函数来进行环境的初始化:

observation, info = env.reset(seed=42)

我们可以将observation打印出来,它一个4元组,4个数值分别表示:

如果角度大于12度,或者小车位置超出了2.4,就意味着失败了,直接结束。

小车的输入就是一个力,要么是向左的力,要么是向右的力。0是向左推小车,1是向右推小车。

下面我们让代码跑起来。

首先我们通过pip来安装gymnasium的包:

pip install gymnasium -U

安装成功之后,

import gymnasium as gymenv = gym.make("CartPole-v1")print(env.action_space)observation, info = env.reset(seed=42)steps = 0for _ in range(1000):    action = env.action_space.sample()    observation, reward, terminated, truncated, info = env.step(action)    print(observation)    if terminated or truncated:        print("Episode finished after {} steps".format(steps))        observation, info = env.reset()        steps = 0    else:        steps += 1        env.close()

env.action_space输出是Discrete(2)。也就是两个离散的值0和1。前面我们介绍了,这分别代表向左和向右推动小车。

observation输出的4元组,我们前面也讲过了,像这样:
[ 0.0273956 -0.00611216 0.03585979 0.0197368 ]

下面就是关键的step一步:

    action = env.action_space.sample()    observation, reward, terminated, truncated, info = env.step(action)

刚才我们介绍了,CartPole的输入只有0和1两个值。我们采用随机让其左右动的方式来试图让小车不倒。

如果你觉得还是不容易懂的话,我们可以来个更无脑的,管它是什么情况,我们都一直往左推:

observation, reward, terminated, truncated, info = env.step(0)

基本上几步就完了:

[ 0.02699083 -0.16518621 -0.00058549  0.3023946 ] 1.0 False False {}[ 0.0236871  -0.36029983  0.0054624   0.5948928 ] 1.0 False False {}[ 0.01648111 -0.5554978   0.01736026  0.88929135] 1.0 False False {}[ 0.00537115 -0.750851    0.03514608  1.1873806 ] 1.0 False False {}[-0.00964587 -0.94641054  0.0588937   1.4908696 ] 1.0 False False {}[-0.02857408 -1.1421978   0.08871109  1.8013463 ] 1.0 False False {}[-0.05141804 -1.3381925   0.12473802  2.1202288 ] 1.0 False False {}[-0.07818189 -1.534317    0.16714258  2.4487078 ] 1.0 False False {}[-0.10886823 -1.7304213   0.21611674  2.7876763 ] 1.0 True False {}Episode finished after 8 steps

下面我们解释下返回的5元组,observation就是位置4元组,reward是用于强化学习的奖励,在本例中只要是不死就是1. terminated就是是否游戏结束了。
Truncated在官方定义中用于处理比如超时等特殊结束的情况。
truncated, info对于CartPole来说没有用到。

搭建好了gymnasium环境之后,我们就可以进行策略的升级与迭代了。
比如我们写死一个策略,如果位置小于0则向右推,反之则向左推:

def action_pos(status):     pos, v, ang, va = status    #print(status)    if pos <= 0:         return 1    else:         return 0 

或者我们根据角度来判断,如果角度大于0则左推,反之则右推:

def action_angle(status):     pos, v, ang, va = status    #print(status)    if ang > 0:         return 1    else:         return 0

角度策略的完整代码如下:

import gymnasium as gymenv = gym.make("CartPole-v1")#env = gym.make("CartPole-v1",render_mode="human")print(env.action_space)#print(env.get_action_meanings())observation, info = env.reset(seed=42)print(observation,info)def action_pos(status):     pos, v, ang, va = status    #print(status)    if pos <= 0:         return 1    else:         return 0 def action_angle(status):     pos, v, ang, va = status    #print(status)    if ang > 0:         return 1    else:         return 0steps = 0for _ in range(1000):    action = env.action_space.sample()    observation, reward, terminated, truncated, info = env.step(action_angle(observation))    print(observation, reward, terminated, truncated, info)    if terminated or truncated:        print("Episode finished after {} steps".format(steps))        observation, info = env.reset()        steps = 0    else:        steps += 1        env.close()

与老gym的主要区别

目前版本与之前gym的最主要区别在于step返回值从原来的4元组变成了5元组。
原来是observation, reward, done, info,而现在done变成了 terminated增加了truncated。

老版本的:

 status, reward, done, info = env.step(0)

新版的:

observation, reward, terminated, truncated, info = env.step(0)

Atari游戏

我们通过gymnasium[atari]包来安装atari游戏的gymnasium支持。

pip install gymnasium[atari]

通过get_action_meanings来获取游戏支持的操作

之前的CartPole只知道是离散的两个值。而Atari游戏则可支持获取游戏支持的操作的含义:

['NOOP', 'FIRE', 'RIGHT', 'LEFT', 'RIGHTFIRE', 'LEFTFIRE']

rendor_mode

另外,针对于Atari游戏,render_mode现在是必选项了。要指定是显示成人类可看的human模式,还是只输出rgb_array的模式。

完整例子

我们以乒乓球游戏为例,组装让其运行起来:

import gymnasium as gymenv = gym.make("ALE/Pong-v5", render_mode="human")observation, info = env.reset()print(env.get_action_meanings())scores = 0for _ in range(1000):    action = env.action_space.sample()  # agent policy that uses the observation and info    observation, reward, terminated, truncated, info = env.step(action)    #print(observation, reward, terminated, truncated, info)    if terminated or truncated:        print("Episode finished after {} steps".format(scores))        observation, info = env.reset()        scores = 0    else:        scores +=1env.close()

完整的游戏支持列表可以在https://gymnasium.farama.org/environments/atari/ 官方文档中查到。

来源地址:https://blog.csdn.net/lusing/article/details/129272794

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯