Update chapter5_questions&keywords.md

This commit is contained in:
David Young
2021-02-07 21:46:02 +08:00
committed by GitHub
parent 6af7c3775e
commit 11eae2ab1a

View File

@@ -29,3 +29,21 @@
本质来说KL divergence是一个function其度量的是两个action (对应的参数分别为$\theta$ 和 $\theta'$ 间的行为上的差距而不是参数上的差距。这里行为上的差距behavior distance可以理解为在相同的state的情况下输出的action的差距他们的概率分布上的差距这里的概率分布即为KL divergence。
## 3 Something About Interview
- 高冷的面试官:请问什么是重要性采样呀?
答:使用另外一种数据分布,来逼近所求分布的一种方法,算是一种期望修正的方法,公式是:
$$
\int f(x) p(x) d x=\int f(x) \frac{p(x)}{q(x)} q(x) d x=E_{x \sim q}[f(x){\frac{p(x)}{q(x)}}]=E_{x \sim p}[f(x)]
$$
我们在已知 $q$ 的分布后,可以使用上述公式计算出从 $p$ 分布的期望值。也就可以使用 $q$ 来对于 $p$ 进行采样了,即为重要性采样。
- 高冷的面试官请问on-policy跟off-policy的区别是什么
on-policy生成样本的policyvalue function跟网络更新参数时使用的policyvalue function相同。典型为SARAS算法基于当前的policy直接执行一次动作选择然后用这个样本更新当前的policy因此生成样本的policy和学习时的policy相同算法为on-policy算法。该方法会遭遇探索-利用的矛盾光利用目前已知的最优选择可能学不到最优解收敛到局部最优而加入探索又降低了学习效率。epsilon-greedy 算法是这种矛盾下的折衷。优点是直接了当,速度快,劣势是不一定找到最优策略。
- 高冷的面试官请简述下PPO算法。其与TRPO算法有何关系呢?
PPO算法的提出旨在借鉴TRPO算法使用一阶优化在采样效率、算法表现以及实现和调试的复杂度之间取得了新的平衡。这是因为PPO会在每一次迭代中尝试计算新的策略让损失函数最小化并且保证每一次新计算出的策略能够和原策略相差不大。具体来说在避免使用important sampling时由于在 $\theta$ 下的 $p_{\theta}\left(a_{t} | s_{t}\right)$ 跟 在 $\theta'$ 下的 $ p_{\theta'}\left(a_{t} | s_{t}\right) $ 差太多导致important sampling结果偏差较大而采取的算法。