update ch1
This commit is contained in:
@@ -402,9 +402,8 @@ A:针对是否需要对真实环境建模,强化学习可以分为有模型
|
|||||||
|
|
||||||
想要最大化单步奖励需考虑两个方面:一是需知道每个动作带来的奖励,二是要执行奖励最大的动作。若每个动作对应的奖励是一个确定值,那么尝试遍所有的动作便能找出奖励最大的动作。然而,更一般的情形是,一个动作的奖励值是来自一个概率分布,仅通过一次尝试并不能确切地获得平均奖励值。
|
想要最大化单步奖励需考虑两个方面:一是需知道每个动作带来的奖励,二是要执行奖励最大的动作。若每个动作对应的奖励是一个确定值,那么尝试遍所有的动作便能找出奖励最大的动作。然而,更一般的情形是,一个动作的奖励值是来自一个概率分布,仅通过一次尝试并不能确切地获得平均奖励值。
|
||||||
|
|
||||||
实际上,单步强化学习任务对应于一个理论模型,即***K*-臂赌博机(*K*-armed bandit)**。*K*-臂赌博机也被称为**多臂赌博机(multi-armed bandit)** 。如图 1.23 所示,*K*-臂赌博机有 *K* 个摇臂,赌徒在投入一个硬币后可选择按下其中一个摇臂,每个摇臂以一定的概率吐出硬币,但这个概率赌徒并不知道。赌徒的目标是通过一定的策略最大化自己的奖励,即获得最多的硬币。
|
实际上,单步强化学习任务对应于一个理论模型,即**$K$-臂赌博机($K$-armed bandit)**。 $K$-臂赌博机也被称为**多臂赌博机(multi-armed bandit)** 。如图 1.23 所示,$K$-臂赌博机有 $K$ 个摇臂,赌徒在投入一个硬币后可选择按下其中一个摇臂,每个摇臂以一定的概率吐出硬币,但这个概率赌徒并不知道。赌徒的目标是通过一定的策略最大化自己的奖励,即获得最多的硬币。
|
||||||
若仅为获知每个摇臂的期望奖励,则可采用**仅探索(exploration-only)法**:将所有的尝试机会平均分配给每个摇臂(即轮流按下每个摇臂),最后以每个摇臂各自的平均吐币概率作为其奖励期望的近似估计。
|
若仅为获知每个摇臂的期望奖励,则可采用**仅探索(exploration-only)法**:将所有的尝试机会平均分配给每个摇臂(即轮流按下每个摇臂),最后以每个摇臂各自的平均吐币概率作为其奖励期望的近似估计。若仅为执行奖励最大的动作,则可采用**仅利用(exploitation-only)法**:按下目前最优的(即到目前为止平均奖励最大的)摇臂,若有多个摇臂同为最优,则从中随机选取一个。
|
||||||
若仅为执行奖励最大的动作,则可采用**仅利用(exploitation-only)法**:按下目前最优的(即到目前为止平均奖励最大的)摇臂,若有多个摇臂同为最优,则从中随机选取一个。
|
|
||||||
|
|
||||||
显然,仅探索法能很好地估计每个摇臂的奖励,却会失去很多选择最优摇臂的机会;仅利用法则相反,它没有很好地估计摇臂期望奖励,很可能经常选不到最优摇臂。因此,这两种方法都难以使最终的累积奖励最大化。
|
显然,仅探索法能很好地估计每个摇臂的奖励,却会失去很多选择最优摇臂的机会;仅利用法则相反,它没有很好地估计摇臂期望奖励,很可能经常选不到最优摇臂。因此,这两种方法都难以使最终的累积奖励最大化。
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user