Files
easy-rl/codes/PolicyGradient/README.md
johnjim0816 442e307b01 update codes
2021-11-17 14:36:51 +08:00

1.3 KiB
Raw Blame History

Policy Gradient

Policy-based方法是强化学习中与Value-based(比如Q-learning)相对的方法,其目的是对策略本身进行梯度下降,相关基础知识参考Datawhale-Policy Gradient。 其中REINFORCE是一个最基本的Policy Gradient方法主要解决策略梯度无法直接计算的问题具体原理参考CSDN-REINFORCE和Reparameterization Trick

伪代码

结合REINFORCE原理其伪代码如下

image-20211016004808604

https://pytorch.org/docs/stable/distributions.html

加负号的原因是在公式中应该是实现的梯度上升算法而loss一般使用随机梯度下降的所以加个负号保持一致性。

img

实现

参考

REINFORCE和Reparameterization Trick

Policy Gradient paper

REINFORCE