From 81d6159f9d934d4e85ed5671d092dc4cd35c323e Mon Sep 17 00:00:00 2001 From: qiwang067 Date: Tue, 8 Sep 2020 14:12:01 +0800 Subject: [PATCH] update sidebar and readme --- README.md | 2 +- docs/README.md | 2 +- docs/_sidebar.md | 3 ++- 3 files changed, 4 insertions(+), 3 deletions(-) diff --git a/README.md b/README.md index 30b568d..fdffdc4 100644 --- a/README.md +++ b/README.md @@ -24,7 +24,7 @@ |[第四章 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) | [第四章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4_questions&keywords) | | |[第五章 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) | [第五章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5_questions&keywords) | | | [第六章 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6)| [第六章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6_questions&keywords) | | -|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | [第七章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7_questions&keywords) | | +|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | [第七章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7_questions&keywords) | [项目二 使用 DQN 实现 CartPole-v0](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/project2) | |[第八章 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) | [第八章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8_questions&keywords) | | |[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | |[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | diff --git a/docs/README.md b/docs/README.md index f3e17fb..9dad546 100644 --- a/docs/README.md +++ b/docs/README.md @@ -21,7 +21,7 @@ |[第四章 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) | [第四章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4_questions&keywords) | | |[第五章 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) | [第五章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5_questions&keywords) | | | [第六章 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6)| [第六章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6_questions&keywords) | | -|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | [第七章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7_questions&keywords) | | +|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | [第七章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7_questions&keywords) | [项目二 使用 DQN 实现 CartPole-v0](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/project2) | |[第八章 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) | [第八章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8_questions&keywords) | | |[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | |[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | diff --git a/docs/_sidebar.md b/docs/_sidebar.md index a3806fa..b7f59f1 100755 --- a/docs/_sidebar.md +++ b/docs/_sidebar.md @@ -13,13 +13,14 @@ - [第六章习题](chapter6/chapter6_questions&keywords) - [第七章 Q 学习 (进阶技巧)](chapter7/chapter7) - [第七章习题](chapter7/chapter7_questions&keywords) +- [项目二 使用 DQN 实现 CartPole-v0](chapter7/project2) - [第八章 Q 学习 (连续动作)](chapter8/chapter8) - [第八章习题](chapter8/chapter8_questions&keywords) - [第九章 演员-评论员算法](chapter9/chapter9) - [第十章 稀疏奖励](chapter10/chapter10) - [第十一章 模仿学习](chapter11/chapter11) - [第十二章 深度确定性策略梯度 (DDPG) 算法](chapter12/chapter12) -- [项目三](chapter12/project3) +- [项目三 使用 Policy-Based 方法实现 Pendulum-v0](chapter12/project3)