From d2b4027c3a30143d4c1ac9c8da0505748891b921 Mon Sep 17 00:00:00 2001 From: qiwang067 Date: Thu, 3 Sep 2020 11:18:17 +0800 Subject: [PATCH] update readme and sidebar --- README.md | 34 ++++++++++++++++++---------------- docs/README.md | 34 ++++++++++++++++++---------------- docs/_sidebar.md | 25 +++++++++++++------------ 3 files changed, 49 insertions(+), 44 deletions(-) diff --git a/README.md b/README.md index 5fb0442..a4e48c0 100644 --- a/README.md +++ b/README.md @@ -15,26 +15,28 @@ ## 课程在线观看地址 - bilibili:[李宏毅《深度强化学习》](https://www.bilibili.com/video/BV1MW411w79n) -## 目录 -- [P1 强化学习概述](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1) -- [P2 马尔科夫决策过程 (MDP)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2) -- [P3 表格型方法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3) -- [P4 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) -- [P5 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) -- [P6 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6) -- [P7 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) -- [P8 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) -- [P9 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) -- [P10 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) -- [P11 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) -- [P12 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) - +## 内容导航 +| 章节 | 习题 | 项目 | +|------|------|------| +|[第一章 强化学习概述](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1) | [第一章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1_questions&keywords) | | +|[第二章 马尔科夫决策过程 (MDP)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2) | [第二章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2_questions&keywords) | | +|[第三章 表格型方法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3) | [第三章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3_questions&keywords) | | +|[第四章 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) | [第四章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4_questions&keywords) | | +|[第五章 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) | [第五章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5_questions&keywords) | | +| [第六章 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6)| | | +|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | | | +|[第八章 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) | | | +|[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | +|[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | +|[第十一章 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) | | | +|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | | ## 主要贡献者 | 作者 | 贡献 | |------|------| -| [@qiwang067](https://github.com/qiwang067) | 撰写笔记、传统 RL 代码 | -| [@JohnJim0816](https://github.com/JohnJim0816) | DRL 代码 | +| [@qiwang067](https://github.com/qiwang067) | 教程设计 | +| [@yyysjz1997](https://github.com/yyysjz1997) | 习题设计 | +| [@JohnJim0816](https://github.com/JohnJim0816) | 项目设计| ## 关注我们 diff --git a/docs/README.md b/docs/README.md index caa3ce6..5d1b0e0 100644 --- a/docs/README.md +++ b/docs/README.md @@ -12,26 +12,28 @@ ## 课程在线观看地址 - bilibili:[李宏毅《深度强化学习》](https://www.bilibili.com/video/BV1MW411w79n) -## 目录 -- [P1 强化学习概述](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1) -- [P2 马尔科夫决策过程 (MDP)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2) -- [P3 表格型方法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3) -- [P4 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) -- [P5 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) -- [P6 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6) -- [P7 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) -- [P8 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) -- [P9 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) -- [P10 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) -- [P11 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) -- [P12 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) - +## 内容导航 +| 章节 | 习题 | 项目 | +|------|------|------| +|[第一章 强化学习概述](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1) | [第一章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1_questions&keywords) | | +|[第二章 马尔科夫决策过程 (MDP)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2) | [第二章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2_questions&keywords) | | +|[第三章 表格型方法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3) | [第三章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3_questions&keywords) | | +|[第四章 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) | [第四章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4_questions&keywords) | | +|[第五章 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) | [第五章习题](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5_questions&keywords) | | +| [第六章 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6)| | | +|[第七章 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) | | | +|[第八章 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) | | | +|[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | +|[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | +|[第十一章 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) | | | +|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | | ## 主要贡献者 | 作者 | 贡献 | |------|------| -| [@qiwang067](https://github.com/qiwang067) | 撰写笔记、传统 RL 代码 | -| [@JohnJim0816](https://github.com/JohnJim0816) | DRL 代码 | +| [@qiwang067](https://github.com/qiwang067) | 教程设计 | +| [@yyysjz1997](https://github.com/yyysjz1997) | 习题设计 | +| [@JohnJim0816](https://github.com/JohnJim0816) | 项目设计| ## 关注我们 diff --git a/docs/_sidebar.md b/docs/_sidebar.md index f5b5867..f3fbeec 100755 --- a/docs/_sidebar.md +++ b/docs/_sidebar.md @@ -1,16 +1,17 @@ - 目录 -- [P1 强化学习概述](chapter1/chapter1) -- [P2 马尔可夫决策过程 (MDP)](chapter2/chapter2) -- [P3 表格型方法](chapter3/chapter3) -- [P4 策略梯度](chapter4/chapter4) -- [P5 近端策略优化 (PPO) 算法](chapter5/chapter5) -- [P6 Q 学习 (基本概念)](chapter6/chapter6) -- [P7 Q 学习 (进阶技巧)](chapter7/chapter7) -- [P8 Q 学习 (连续动作)](chapter8/chapter8) -- [P9 演员-评论员算法](chapter9/chapter9) -- [P10 稀疏奖励](chapter10/chapter10) -- [P11 模仿学习](chapter11/chapter11) -- [P12 深度确定性策略梯度 (DDPG) 算法](chapter12/chapter12) +- [第一章 强化学习概述](chapter1/chapter1) +- [第一章习题](chapter1/chapter1_questions&keywords) +- [第二章 马尔可夫决策过程 (MDP)](chapter2/chapter2) +- [第三章 表格型方法](chapter3/chapter3) +- [第四章 策略梯度](chapter4/chapter4) +- [第五章 近端策略优化 (PPO) 算法](chapter5/chapter5) +- [第六章 Q 学习 (基本概念)](chapter6/chapter6) +- [第七章 Q 学习 (进阶技巧)](chapter7/chapter7) +- [第八章 Q 学习 (连续动作)](chapter8/chapter8) +- [第九章 演员-评论员算法](chapter9/chapter9) +- [第十章 稀疏奖励](chapter10/chapter10) +- [第十一章 模仿学习](chapter11/chapter11) +- [第十二章 深度确定性策略梯度 (DDPG) 算法](chapter12/chapter12)