diff --git a/docs/chapter2/chapter2.md b/docs/chapter2/chapter2.md index edd8b8e..dc9248e 100644 --- a/docs/chapter2/chapter2.md +++ b/docs/chapter2/chapter2.md @@ -623,7 +623,7 @@ A: 当取得最佳的价值函数过后,我们可以通过对这个 Q 函数 最简单的策略搜索办法就是`穷举`。假设状态和动作都是有限的,那么每个状态我们可以采取这个 A 种动作的策略,那么总共就是 $|A|^{|S|}$ 个可能的 policy。那我们可以把策略都穷举一遍,然后算出每种策略的 value function,对比一下就可以得到最佳策略。 -但是穷举非常没有效率,所以我们要采取其他方法。**搜索最佳策略有两种常用的方法:`policy iteration` 和 `value iteration` **。 +但是穷举非常没有效率,所以我们要采取其他方法。**搜索最佳策略有两种常用的方法:policy iteration 和 value iteration**。 ![](img/2.44.png)