update ch5

This commit is contained in:
qiwang067
2022-10-23 20:36:07 +08:00
parent aa88ce64fb
commit 62ba722f3e

View File

@@ -1,5 +1,5 @@
# 第5章 PPO 算法
## 5.1 从同策略到异策略
## 5.1 重要性采样
在介绍**近端策略优化proximal policy optimizationPPO** 之前,我们先回顾同策略和异策略这两种训练方法的区别。在强化学习里面,要学习的是一个智能体。如果要学习的智能体和与环境交互的智能体是相同的,我们称之为同策略。如果要学习的智能体和与环境交互的智能体不是相同的,我们称之为异策略。
为什么我们会想要考虑异策略?让我们回忆一下策略梯度。策略梯度是同策略的算法,因为在策略梯度中,我们需要一个智能体、一个策略和一个演员。演员去与环境交互搜集数据,搜集很多的轨迹 $\tau$根据搜集到的数据按照策略梯度的公式更新策略的参数所以策略梯度是一个同策略的算法。PPO是策略梯度的变形它是现在 OpenAI 默认的强化学习算法。