fix ch1 typos
This commit is contained in:
@@ -150,7 +150,7 @@
|
||||
|
||||
### Sequential Decision Making
|
||||
|
||||

|
||||

|
||||
|
||||
在一个强化学习环境里面,agent 的目的就是选取一系列的动作来极大化它的奖励,所以这些采取的动作必须有长期的影响。但在这个过程里面,它的奖励其实是被延迟了,就是说你现在采取的某一步决策可能要等到时间很久过后才知道这一步到底产生了什么样的影响。
|
||||
|
||||
@@ -167,15 +167,16 @@ S_{t}=f\left(H_{t}\right)
|
||||
$$
|
||||
Q: 状态和观测有什么关系?
|
||||
|
||||
A: `状态(state)` $s$ 是对世界的完整描述,不会隐藏世界的信息。`观测(observation)` $o$ 是对状态的部分描述,可能会遗漏一些信息。
|
||||
A: `状态(state)` $s$ 是对世界的完整描述,不会隐藏世界的信息。`观测(observation)` $o$ 是对状态的部分描述,可能会遗漏一些信息。在 deep RL 中,我们几乎总是用一个实值的向量、矩阵或者更高阶的张量来表示状态和观测。举个例子,我们可以用 RGB 像素值的矩阵来表示一个视觉的观测,我们可以用机器人关节的角度和速度来表示一个机器人的状态。
|
||||
|
||||
在 deep RL 中,我们几乎总是用一个实值的向量、矩阵或者更高阶的张量来表示状态和观测。举个例子,我们可以用 RGB 像素值的矩阵来表示一个视觉的观测,我们可以用机器人关节的角度和速度来表示一个机器人的状态。
|
||||
环境有自己的函数 $S_{t}^{e}=f^{e}\left(H_{t}\right)$ 来更新状态,在 agent 的内部也有一个函数 $S_{t}^{a}=f^{a}\left(H_{t}\right)$ 来更新状态。当 agent 的状态跟环境的状态等价的时候,我们就说这个环境是 `full observability`,就是全部可以观测。换句话说,当 agent 能够观察到环境的所有状态时,我们称这个环境是`完全可观测的(fully observed)`。在这种情况下面,强化学习通常被建模成一个 Markov decision process(MDP)的问题。在 MDP 中, $O_{t}=S_{t}^{e}=S_{t}^{a}$。
|
||||
|
||||

|
||||
在 agent 的内部也有一个函数来更新这个状态。当 agent 的状态跟环境的状态等价的时候,我们就说这个环境是 `full observability`,就是全部可以观测。换句话说,当 agent 能够观察到环境的所有状态时,我们称这个环境是`完全可观测的(fully observed)`。
|
||||
但是有一种情况是 agent 得到的观测并不能包含环境运作的所有状态,因为在这个强化学习的设定里面,环境的状态才是真正的所有状态。
|
||||
|
||||

|
||||
但是有一种情况是 agent 得到的观测并不能包含所有环境运作的状态,因为在这个强化学习的设定里面,环境的状态才是真正的所有状态。比如 agent 在玩这个 black jack 这个游戏,它能看到的其实是牌面上的牌。或者在玩雅达利游戏的时候,观测到的只是当前电视上面这一帧的信息,你并没有得到游戏内部里面所有的运作状态。也就是说当 agent 只能看到部分的观测,我们就称这个环境是`部分可观测的(partially observed)`。在这种情况下面,强化学习通常被建模成一个 POMDP 的问题。
|
||||
* 比如 agent 在玩这个 black jack 这个游戏,它能看到的其实是牌面上的牌。
|
||||
* 或者在玩雅达利游戏的时候,观测到的只是当前电视上面这一帧的信息,你并没有得到游戏内部里面所有的运作状态。
|
||||
|
||||
也就是说当 agent 只能看到部分的观测,我们就称这个环境是`部分可观测的(partially observed)`。在这种情况下面,强化学习通常被建模成一个 POMDP 的问题。
|
||||
|
||||
`部分可观测马尔可夫决策过程(Partially Observable Markov Decision Processes, POMDP)`是一个马尔可夫决策过程的泛化。POMDP 依然具有马尔可夫性质,但是假设智能体无法感知环境的状态 $s$,只能知道部分观测值 $o$。比如在自动驾驶中,智能体只能感知传感器采集的有限的环境信息。
|
||||
|
||||
@@ -284,7 +285,6 @@ A: 对于一个状态转移概率已知的马尔可夫决策过程,我们可
|
||||
|
||||
基于价值迭代的强化学习算法有 Q-learning、 Sarsa 等,而基于策略迭代的强化学习算法有策略梯度算法等。此外, Actor-Critic 算法同时使用策略和价值评估来做出决策,其中,智能体会根据策略做出动作,而价值函数会对做出的动作给出价值,这样可以在原有的策略梯度算法的基础上加速学习过程,取得更好的效果。
|
||||
|
||||

|
||||
**另外,我们是可以通过 agent 到底有没有学习这个环境模型来分类。**
|
||||
|
||||
* 第一种是 `model-based(有模型)` RL agent,它通过学习这个状态的转移来采取动作。
|
||||
|
||||
Binary file not shown.
|
Before Width: | Height: | Size: 171 KiB After Width: | Height: | Size: 140 KiB |
Binary file not shown.
|
Before Width: | Height: | Size: 458 KiB After Width: | Height: | Size: 129 KiB |
Reference in New Issue
Block a user