From 0d02fe5a555e7223983d454e926c8c25fb1eb22d Mon Sep 17 00:00:00 2001 From: qiwang067 Date: Tue, 3 Nov 2020 16:40:04 +0800 Subject: [PATCH] fix some typos --- docs/chapter4/chapter4.md | 18 ++---------------- 1 file changed, 2 insertions(+), 16 deletions(-) diff --git a/docs/chapter4/chapter4.md b/docs/chapter4/chapter4.md index f69e9ce..100673f 100644 --- a/docs/chapter4/chapter4.md +++ b/docs/chapter4/chapter4.md @@ -242,23 +242,9 @@ Advantage function 的意义就是,假设我们在某一个 state $s_t$ 执行 ![](img/4.20.png) -蒙特卡洛可以理解为算法完成一个 episode 之后,再拿这个 episode 的数据来去 learn 一下,做一次更新。因为我们已经拿到了一整个 episode 的数据的话,也能够拿到每一个 step 的 reward,我们可以很方便地去计算每个 step 的未来总收益,就是我们的期望,就是我们的回报 $G_t$ 。$G_t$ 是我们的未来总收益,$G_t$ 代表是从这个 step 后面,我能拿到的收益之和是多少。$G_1$是说我从第一步开始,往后能够拿到多少的收益。$G_2$ 是说从第二步开始,往后一共能够拿到多少的收益。 - -相比蒙特卡洛还是一个 episode 更新一次这样子的方式,时序差分就是每个 step 都更新一下。每走一步,我就更新下,这样的更新频率会更高一点。它拿的是 Q-function 来去近似地表示我的未来总收益 $G_t$。 - -**举个例子来解释时序差分强化学习和蒙特卡洛强化学习的区别,** - -* 时序差分强化学习是指在不清楚马尔可夫状态转移概率的情况下,以采样的方式得到不完整的状态序列,估计某状态在该状态序列完整后可能得到的收益,并通过不断地采样持续更新价值。 -* 蒙特卡洛强化学习则需要经历完整的状态序列后,再来更新状态的真实价值。 - -例如,你想获得开车去公司的时间,每天上班开车的经历就是一次采样。假设今天在路口 A 遇到了堵车, - -* 时序差分强化学习会在路口 A 就开始更新预计到达路口 B、路口 C $\cdots \cdots$, 以及到达公司的时间; -* 而蒙特卡洛强化学习并不会立即更新时间,而是在到达公司后,再修改到达每个路口和公司的时间。 - -**时序差分强化学习能够在知道结果之前就开始学习,相比蒙特卡洛强化学习,其更快速、灵活。** - +MC 可以理解为算法完成一个 episode 之后,再拿这个 episode 的数据来去 learn 一下,做一次更新。因为我们已经拿到了一整个 episode 的数据的话,也能够拿到每一个 step 的 reward,我们可以很方便地去计算每个 step 的未来总收益,就是我们的期望,就是我们的回报 $G_t$ 。$G_t$ 是我们的未来总收益,$G_t$ 代表是从这个 step 后面,我能拿到的收益之和是多少。$G_1$是说我从第一步开始,往后能够拿到多少的收益。$G_2$ 是说从第二步开始,往后一共能够拿到多少的收益。 +相比 MC 还是一个 episode 更新一次这样子的方式,TD 就是每个 step 都更新一下。每走一步,我就更新下,这样的更新频率会更高一点。它拿的是 Q-function 来去近似地表示我的未来总收益 $G_t$。 ![](img/4.21.png)