From 98427838f80a670f6533b3e6c1e24a5e38e78a69 Mon Sep 17 00:00:00 2001 From: qiwang067 Date: Mon, 25 Apr 2022 22:56:23 +0800 Subject: [PATCH] update --- docs/errata.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/errata.md b/docs/errata.md index b814af8..23414f6 100644 --- a/docs/errata.md +++ b/docs/errata.md @@ -54,7 +54,7 @@ for i_ep in range(cfg.train_eps): * 103页,图3.37上面一段:具体可以查看 GitHub 上的源码 → 具体可以查看本书配套代码 * 140页,6.1节上面添加以下文字: -​ 深度 Q 网络算法的核心是维护 Q 函数并使用其进行决策。$Q_{\pi}(s,a)$ 为在该策略 $\pi$ 下的动作价值函数,每次到达一个状态 $s_t$ 之后,遍历整个动作空间,使用让 $Q_{\pi}(s,a)$ 最大的动作作为策略: +  深度 Q 网络算法的核心是维护 Q 函数并使用其进行决策。$Q_{\pi}(s,a)$ 为在该策略 $\pi$ 下的动作价值函数,每次到达一个状态 $s_t$ 之后,遍历整个动作空间,使用让 $Q_{\pi}(s,a)$ 最大的动作作为策略: $$ a_{t}=\underset{a}{\arg \max } ~Q_{\pi}\left(s_{t}, a\right) $$