update errata

This commit is contained in:
qiwang067
2024-06-14 01:35:51 +08:00
parent 00e91b53a2
commit 75ffda1954

View File

@@ -3,6 +3,8 @@
**如何使用勘误?首先找到你的书的印次,接下来对着下表索引印次,该印次之后所有的勘误都是你的书中所要注意的勘误,印次前的所有勘误在当印次和之后印次均已印刷修正。为方便读者,所有修订内容都列举在此。其中部分修订是为了更便于读者理解,并非原文有误。**
## 第1版第9次印刷2024.01
* 17页第一段倒数第4行有 Q 学习Q-learning、Sarsa 等 → 有 Q 学习Q-learning、Sarsa 、深度Q网络deep Q-networkDQN
* 17页第一段倒数第3行价值评估 → 价值函数
* 135页第一段1~2行我们来看一下 **PPO1** 算法,即近端策略优化惩罚算法。它先初始化一个策略的参数 $\theta^{0}$。在每一个迭代中 → 我们先看一下近端策略优化惩罚算法,其先初始化一个策略的参数 $\theta^{0}$,在每一个迭代中
* 135页第二段第2行这里会遇到一个问题就即 $\beta$ 要设置为多少?→ 这里会有一个问题:$\beta$ 要设置为多少。
* 135页倒数第一段如果我们觉得计算 KL 散度很复杂,那么还有一个 PPO2 算法PPO2 即近端策略优化裁剪算法。→ 如果我们觉得计算 KL 散度很复杂,可以使用近端策略优化裁剪算法。
@@ -17,6 +19,9 @@ J_{\mathrm{PPO}}^{\theta^k}(\theta) \approx \sum_{\left(s_t, a_t\right)} \min &
\tag{5.19}
$$
* 140页第一段最前面加上本章介绍基于价值的典型强化学习算法——**深度Q网络deep Q-networkDQN**。
* 140页第三段第一行深度 Q 网络deep Q-networkDQN→ 深度 Q 网络。
## 第1版第8次印刷2023.11
* 封面(后)推荐辞:李宏毅老师职称改为:台湾大学教授