update errata
This commit is contained in:
@@ -2,14 +2,19 @@
|
||||
|
||||
**如何使用勘误?首先找到你的书的印次,接下来对着下表索引印次,该印次之后所有的勘误都是你的书中所要注意的勘误,印次前的所有勘误在当印次和之后印次均已印刷修正。为方便读者,所有修订内容都列举在此。其中部分修订是为了更便于读者理解,并非原文有误。**
|
||||
|
||||
## 第1版第2次印刷(2022.06)
|
||||
* 24页,第一段下面的代码下面加入注解:
|
||||
|
||||
> 上面这段代码只是示例,其目的是让读者了解强化学习算法代码实现的框架,并非完整代码,`load_agent` 函数并未定义,所以运行这段代码会报错。
|
||||
|
||||
* 151页,第2段的倒数第1行:均方误差(mean square error)→ 均方误差(mean square error,MSE)
|
||||
* 201页,第3段的倒数第2行:均方误差(mean squared error,MSE)→ 均方误差
|
||||
* 241页,第1段的第3行和第4行:均方误差(mean square error,MSE)→ 均方误差
|
||||
|
||||
## 第1版第1次印刷(2022.03)
|
||||
|
||||
* 2页,2.1.2节的标题:马尔可夫过程/马尔可夫链 → 马尔可夫链
|
||||
* 17页,第一段的倒数第4行:策略梯度 → 策略梯度(policy gradient,PG)
|
||||
* 24页,第一段下面的代码下面加入注解:
|
||||
|
||||
> 上面这段代码只是示例,其目的是让读者了解强化学习算法代码实现的框架,并非完整代码,`load_agent` 函数并未定义,所以运行这段代码会报错。
|
||||
|
||||
* 34页,2.1.2节的标题:马尔可夫过程/马尔可夫链 → 马尔可夫链
|
||||
* 34页,2.1.2节的第2段的第1行:也称为**马尔可夫链(Markov chain)**。 → 也称为**马尔可夫链(Markov chain)**。马尔可夫链是最简单的马尔可夫过程,其状态是有限的。
|
||||
* 35页的图2.2 和 41页的图2.5(a)替换成下图:
|
||||
|
||||
Reference in New Issue
Block a user