news 2026/5/1 6:12:26

强化学习REINFORCE求最优策略的代码实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
强化学习REINFORCE求最优策略的代码实现

理论基础:

注意:

1. 策略的输出要加对数,因此net输出必须softmax,将输出限制为正数。

2. 这里选择action不是greedy地选择最优action,而是按照概率分布选择action->exploration。

3. 策略更新使用的是梯度上升,因此loss取负。

4. 这里使用step一步步收集episode,而不是像之前一样直接使用generate_episode函数生成完成的path,是因为在generate_episode中是使用greedy的方法选择action的(见2)。

5. num_episodes大一些。

代码可运行:

import numpy as np import torch from torch import nn from env import GridWorldEnv from utils import drow_policy ''' policy gradient by Monte Carlo ''' class Reinforce(object): def __init__(self, env: GridWorldEnv, gamma=0.9, lr=1e-2): ''' :param env: :param gamma: discount rate :param lr: learning rate of optimizer ''' self.env = env self.action_space_size = self.env.num_actions self.state_space_size = self.env.num_states self.gamma = gamma self.net = nn.Sequential( nn.Linear(2, 16), nn.ReLU(), nn.Linear(16, self.action_space_size) ) self.policy = np.zeros((self.state_space_size, self.action_space_size)) self.q_value = np.zeros((self.state_space_size, self.action_space_size)) self.optimizer = torch.optim.Adam(self.net.parameters(), lr=lr) def decode_state(self, state): ''' :param state: int :return: 归一化后的元组 ''' i = state // self.env.size j = state % self.env.size return torch.tensor((i / (self.env.size - 1), j / (self.env.size - 1)), dtype=torch.float32) def solve(self, num_episodes): for _ in range(num_episodes): state_int = self.env.reset() state = self.decode_state(state_int) done = False episode = [] # [[state_tensor,reward,done]...[...]] while not done: logits = self.net(state) action_probs = torch.softmax(logits, dim=0) action_dist = torch.distributions.Categorical(action_probs) # 按分布采样 action = action_dist.sample().item() next_state, reward, done = self.env.step(state_int, action) episode.append((state, action, reward)) state_int = next_state state = self.decode_state(next_state) # value update returns = [] G = 0 for _, _, reward in reversed(episode): G = reward + self.gamma * G returns.insert(0, G) # policy update self.optimizer.zero_grad() loss = 0 for (state, action, _), G in zip(episode, returns): logits = self.net(state) action_probs = torch.softmax(logits, dim=0) action_dist = torch.distributions.Categorical(action_probs) log_prob = action_dist.log_prob(torch.tensor(action)) # In Π(a_t|s_t, θ) loss -= log_prob * G # 负号是因为最小化 loss->最大化 J(θ),梯度上升更新参数 loss.backward() self.optimizer.step() def get_policy(self): for s in range(self.state_space_size): a = np.argmax(self.q_value[s]) self.policy[s, a] = 1 return self.policy def get_qvalues(self): for s in range(self.state_space_size): s_t = self.decode_state(s) logits = self.net(s_t) action_probs = torch.softmax(logits, dim=0) self.q_value[s,:] = action_probs.detach().numpy() # q_value是numpy类型,action_probs是tensor,必须转换 return self.q_value if __name__ == '__main__': env = GridWorldEnv( size=5, forbidden=[(1, 2), (3, 3)], terminal=[(4, 4)], r_boundary=-1, r_other=-0.04, r_terminal=1, r_forbidden=-1, r_stay=-0.1 ) vi = Reinforce(env=env) vi.solve(num_episodes=200) print("\n state value: ") print(vi.get_qvalues()) drow_policy(vi.get_policy(), env)

运行结果:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 18:51:58

Java 的现实主义哲学:一门为“失败必然发生”而设计的工程语言

在很多技术宣传中,系统总是被描述得近乎完美:高可用、高性能、可无限扩展。 但真正做过工程的人都知道: 失败不是例外,而是常态。系统会超载、依赖会失效、数据会异常、人为失误一定会发生。 区别只在于——系统是否为失败做好了准…

作者头像 李华
网站建设 2026/4/16 12:12:28

串练习--------首字母大写HDOJ2026

题目&#xff1a;HDOJ 2026 代码 /* HDOJ 2026 https://acm.hdu.edu.cn/showproblem.php?pid2026 首字母大写 */ #include<iostream> #include<cstring> using namespace std; char a[105]; int main() {while (fgets(a, sizeof(a), stdin)) {//getchar();这里不…

作者头像 李华
网站建设 2026/4/18 16:43:18

等保测评全流程实操手册:从自查到验收,一步不踩坑

2025年3月20日起&#xff0c;新版《网络安全等级测评报告模板》正式启用&#xff0c;标志着等保测评进入“精准防控”新阶段。对企业而言&#xff0c;合规不再是简单满足条款&#xff0c;而是要应对云原生、物联网等新增场景的防护要求&#xff0c;这让不少运维人员在测评中频频…

作者头像 李华
网站建设 2026/5/1 5:04:36

第十七篇:Day49-51 前端工程化进阶——从“手动”到“自动化”(对标职场“提效降本”需求)

一、前置认知&#xff1a;前端工程化的核心价值与职场痛点 在掌握性能优化和安全防护能力后&#xff0c;我们能打造“快、稳、安”的产品&#xff0c;但当面对“团队10人协作开发”“每日3次版本迭代”“多环境部署”等职场场景时&#xff0c;手动复制文件、人工测试、线下传输…

作者头像 李华