我的编程空间,编程开发者的网络收藏夹
学习永远不晚

PyTorch策略梯度算法怎么使用

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

PyTorch策略梯度算法怎么使用

这篇文章主要介绍“PyTorch策略梯度算法怎么使用”,在日常操作中,相信很多人在PyTorch策略梯度算法怎么使用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”PyTorch策略梯度算法怎么使用”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

1. 策略梯度算法

策略梯度算法通过记录回合中的所有时间步并基于回合结束时与这些时间步相关联的奖励来更新权重训练智能体。使智能体遍历整个回合然后基于获得的奖励更新策略的技术称为蒙特卡洛策略梯度。

在策略梯度算法中,模型权重在每个回合结束时沿梯度方向移动。关于梯度的计算,我们将在下一节中详细解释。此外,在每一时间步中,基于当前状态和权重计算的概率得到策略,并从中采样一个动作。与随机搜索和爬山算法(通过采取确定性动作以获得更高的得分)相反,它不再确定地采取动作。因此,策略从确定性转变为随机性。例如,如果向左的动作和向右的动作的概率为 [0.8,0.2],则表示有 80% 的概率选择向左的动作,但这并不意味着一定会选择向左的动作。

2. 使用策略梯度算法解决CartPole问题

在本节中,我们将学习使用 PyTorch 实现策略梯度算法了。 导入所需的库,创建 CartPole 环境实例,并计算状态空间和动作空间的尺寸:

import gymimport torchimport matplotlib.pyplot as pltenv = gym.make('CartPole-v0')n_state = env.observation_space.shape[0]print(n_state)n_action = env.action_space.nprint(n_action)

定义 run_episode 函数,在此函数中,根据给定输入权重的情况下模拟一回合 CartPole 游戏,并返回奖励和计算出的梯度。在每个时间步中执行以下操作:

  • 根据当前状态和输入权重计算两个动作的概率 probs

  • 根据结果概率采样一个动作 action

  • 以概率作为输入计算 softmax 函数的导数 d_softmax,由于只需要计算与选定动作相关的导数,因此:

\frac {\partial p_i} {\partial z_j} = p_i(1-p_j), i=j∂zj∂pi=pi(1−pj),i=j

  • 将所得的导数 d_softmax 除以概率 probs,以得与策略相关的对数导数 d_log

  • 根据链式法则计算权重的梯度 grad

\frac {dy}{dx}=\frac{dy}{du}\cdot\frac{du}{dx}dxdy=dudy⋅dxdu

  • 记录得到的梯度 grad

  • 执行动作,累积奖励并更新状态

def run_episode(env, weight):    state = env.reset()    grads = []    total_reward = 0    is_done = False    while not is_done:        state = torch.from_numpy(state).float()        # 根据当前状态和输入权重计算两个动作的概率 probs        z = torch.matmul(state, weight)        probs = torch.nn.Softmax(dim=0)(z)        # 根据结果概率采样一个动作 action        action = int(torch.bernoulli(probs[1]).item())        # 以概率作为输入计算 softmax 函数的导数 d_softmax        d_softmax = torch.diag(probs) - probs.view(-1, 1) * probs        # 计算与策略相关的对数导数d_log        d_log = d_softmax[action] / probs[action]        # 计算权重的梯度grad        grad = state.view(-1, 1) * d_log        grads.append(grad)        state, reward, is_done, _ = env.step(action)        total_reward += reward        if is_done:            break    return total_reward, grads

回合完成后,返回在此回合中获得的总奖励以及在各个时间步中计算的梯度信息,用于之后更新权重。

接下来,定义要运行的回合数,在每个回合中调用 run_episode 函数,并初始化权重以及用于记录每个回合总奖励的变量:

n_episode = 1000weight = torch.rand(n_state, n_action)total_rewards = []

在每个回合结束后,使用计算出的梯度来更新权重。对于回合中的每个时间步,权重都根据学习率、计算出的梯度和智能体在剩余时间步中的获得的总奖励进行更新。

我们知道在回合终止之前,每一时间步的奖励都是 1。因此,我们用于计算每个时间步策略梯度的未来奖励是剩余的时间步数。在每个回合之后,我们使用随机梯度上升方法将梯度乘以未来奖励来更新权重。这样,一个回合中经历的时间步越长,权重的更新幅度就越大,这将增加获得更大总奖励的机会。我们设定学习率为 0.001

learning_rate = 0.001for e in range(n_episode):    total_reward, gradients = run_episode(env, weight)    print('Episode {}: {}'.format(e + 1, total_reward))    for i, gradient in enumerate(gradients):        weight += learning_rate * gradient * (total_reward - i)    total_rewards.append(total_reward)

然后,我们计算通过策略梯度算法获得的平均总奖励:

print('Average total reward over {} episode: {}'.format(n_episode, sum(total_rewards)/n_episode))

我们可以绘制每个回合的总奖励变化情况,如下所示:

plt.plot(total_rewards)plt.xlabel('Episode')plt.ylabel('Reward')plt.show()

PyTorch策略梯度算法怎么使用

在上图中,我们可以看到奖励会随着训练回合的增加呈现出上升趋势,然后能够在最大值处稳定。我们还可以看到,即使在收敛之后,奖励也会振荡,这是由于策略梯度算法是一种随机策略算法。

最后,我们查看学习到策略在 1000 个新回合中的性能表现,并计算平均奖励:

n_episode_eval = 1000total_rewards_eval = []for e in range(n_episode_eval):    total_reward, _ = run_episode(env, weight)    print('Episode {}: {}'.format(e+1, total_reward))    total_rewards_eval.append(total_reward)print('Average total reward over {} episode: {}'.format(n_episode_eval, sum(total_rewards_eval)/n_episode_eval))# Average total reward over 1000 episode: 200

进行测试后,可以看到回合的平均奖励接近最大值 200。可以多次测试训练后的模型,得到的平均奖励较为稳定。正如我们一开始所说的那样,对于诸如 CartPole 之类的简单环境,策略梯度算法可能大材小用,但它为我们解决更加复杂的问题奠定了基础。

到此,关于“PyTorch策略梯度算法怎么使用”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注编程网网站,小编会继续努力为大家带来更多实用的文章!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

PyTorch策略梯度算法怎么使用

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

PyTorch策略梯度算法怎么使用

这篇文章主要介绍“PyTorch策略梯度算法怎么使用”,在日常操作中,相信很多人在PyTorch策略梯度算法怎么使用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”PyTorch策略梯度算法怎么使用”的疑惑有所
2023-07-02

PyTorch怎么如何自动计算梯度

小编给大家分享一下PyTorch怎么如何自动计算梯度,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!在PyTorch中,torch.Tensor类是存储和变换数据的
2023-06-15

怎么用pytorch中backward()方法自动求梯度

本篇内容介绍了“怎么用pytorch中backward()方法自动求梯度”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!pytorch bac
2023-07-05

OpenCV图像梯度算子方法怎么使用

本篇内容介绍了“OpenCV图像梯度算子方法怎么使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1.Sobel算子Sobel算子是一种图像
2023-07-05

怎么使用PyTorch实现随机搜索策略

本篇内容主要讲解“怎么使用PyTorch实现随机搜索策略”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么使用PyTorch实现随机搜索策略”吧!1. 随机搜索策略一种简单但有效的方法是将智能体
2023-07-02

使用pytorch怎么计算 kl散度

使用pytorch怎么计算 kl散度 ?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。如果现在想用Y指导X,第一个参数要传X,第二个要传Y。就是被指导的放在前面,
2023-06-15

mybatis-plus怎么使用雪花算法ID生成策略

本篇内容介绍了“mybatis-plus怎么使用雪花算法ID生成策略”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!mybatis-plus
2023-06-21

使用Python在实现一个梯度下降算法

这期内容当中小编将会给大家带来有关使用Python在实现一个梯度下降算法,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Python主要用来做什么Python主要应用于:1、Web开发;2、数据科学研究;3
2023-06-06

k8s NetworkPolicy网络策略怎么使用

本篇内容主要讲解“k8s NetworkPolicy网络策略怎么使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“k8s NetworkPolicy网络策略怎么使用”吧!NetworkPolic
2023-07-06

Java线程池怎么使用AbortPolicy策略

本篇内容介绍了“Java线程池怎么使用AbortPolicy策略”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!线程池ThreadPoolEx
2023-07-02

redis延迟双删策略怎么使用

这篇文章主要讲解了“redis延迟双删策略怎么使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“redis延迟双删策略怎么使用”吧!在当前环境下,通常我们会首选redis缓存来减轻我们数据库
2023-07-06

怎么使用批处理禁用组策略

小编给大家分享一下怎么使用批处理禁用组策略,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!利用批处理禁用(启用)组策略 regsvr32 /s /u gpedit.
2023-06-08

MyBatisPlus之id生成策略怎么使用

这篇文章主要介绍“MyBatisPlus之id生成策略怎么使用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“MyBatisPlus之id生成策略怎么使用”文章能帮助大家解决问题。一、为什么需要选择不
2023-07-05

使用Python实现小批量梯度下降算法的代码逻辑

让theta=模型参数和max_iters=时期数。对于itr=1,2,3,...,max_iters:对于mini_batch(X_mini,y_mini):批量X_mini的前向传递:1、对小批量进行预测2、使用参数的当前值计算预
使用Python实现小批量梯度下降算法的代码逻辑
2024-01-22

Redis中怎么使用缓存替换策略

Redis中怎么使用缓存替换策略,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1 概述在操作系统的页面管理中,内存会维护一部分数据以备进程使用,但是由于内存的大小必然是远远
2023-06-20

Java怎么优雅的使用策略模式

本篇内容介绍了“Java怎么优雅的使用策略模式”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!什么是策略模式策略模式是一种行为型模式,它将对象
2023-07-05

怎么使用semanage管理SELinux安全策略

这篇文章给大家分享的是有关怎么使用semanage管理SELinux安全策略的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。semanage命令 是用来查询与修改SELinux默认目录的安全上下文。SELinux的
2023-06-28

Kubernetes调度算法是怎么使用的

Kubernetes调度算法是怎么使用的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。调度流程调度器就是一个独立的进程,负责不断从apiserver拉取还没有被调度的pod
2023-06-19

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录