Update chapter10_questions&keywords.md

This commit is contained in:
David Young
2020-09-11 10:08:25 +08:00
committed by GitHub
parent e050b7b5d8
commit 7606fa1f20

View File

@@ -1,6 +1,6 @@
## Chapter10 Sparse Reward
# Chapter10 Sparse Reward
#### 1 关键词
## 1 关键词
- **reward shaping** 在我们的agent与environment进行交互时我们人为的设计一些reward从而“指挥”agent告诉其采取哪一个action是最优的而这个reward并不是environment对应的reward这样可以提高我们estimate Q-function时的准确性。
- **ICMintrinsic curiosity module** 其代表着curiosity driven这个技术中的增加新的reward function以后的reward function。
@@ -8,7 +8,7 @@
- **reverse curriculum learning** 相较于上面的curriculum learning其为更general的方法。其从最终最理想的state我们称之为gold state开始依次去寻找距离gold state最近的state作为想让agent达到的阶段性的“理想”的state当然我们应该在此过程中有意的去掉一些极端的case太简单、太难的case。综上reverse curriculum learning 是从 gold state 去反推,就是说你原来的目标是长这个样子,我们从我们的目标去反推,所以这个叫做 reverse curriculum learning。
- **hierarchical (分层) reinforcement learning** 将一个大型的task横向或者纵向的拆解成多个 agent去执行。其中有一些agent 负责比较high level 的东西,负责订目标,然后它订完目标以后,再分配给其他的 agent把它执行完成。看教程的 hierarchical reinforcement learning部分的示例就会比较明了
#### 2 思考题
## 2 思考题
- 解决sparse reward的方法有哪些
@@ -24,4 +24,4 @@
对于如何设计ICMICM的input就像前面所说的一样包括三部分input 现在的 state $s_1$input 在这个 state 采取的 action $a_1$,然后接 input 下一个 state $s_{t+1}$对应的output就是reward $r_1^i$input到output的映射是通过network构建的其使用 $s_1$ 和 $a_1$ 去预测 $\hat{s}_{t+1}$ ,然后继续评判预测的$\hat{s}_{t+1}$和真实的$s_{t+1}$像不像越不相同得到的reward就越大。通俗来说这个reward就是如果未来的状态越难被预测的话那么得到的reward就越大。这也就是curiosity的机制倾向于让agent做一些风险比较大的action从而增加其machine exploration的能力。
同时为了进一步增强network的表达能力我们通常讲ICM的input优化为feature extractor这个feature extractor模型的input就是stateoutput是一个特征向量其可以表示这个state最主要、重要的特征把没有意义的东西过滤掉。
同时为了进一步增强network的表达能力我们通常讲ICM的input优化为feature extractor这个feature extractor模型的input就是stateoutput是一个特征向量其可以表示这个state最主要、重要的特征把没有意义的东西过滤掉。