diff --git a/README.md b/README.md index d62b705..5b04e9d 100644 --- a/README.md +++ b/README.md @@ -29,7 +29,7 @@ |[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | |[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | |[第十一章 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) | | | -|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | | +|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | [项目三 使用Policy-Based方法实现Pendulum-v0](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/project3) | ## 主要贡献者 | 作者 | 贡献 | diff --git a/docs/README.md b/docs/README.md index fc98ffb..a2f4a36 100644 --- a/docs/README.md +++ b/docs/README.md @@ -26,7 +26,7 @@ |[第九章 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) | | | |[第十章 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) | | | |[第十一章 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) | | | -|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | | +|[第十二章 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) | | [项目三 使用Policy-Based方法实现Pendulum-v0](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/project3) | ## 主要贡献者 | 作者 | 贡献 | diff --git a/docs/_sidebar.md b/docs/_sidebar.md index 5731c53..83a3701 100755 --- a/docs/_sidebar.md +++ b/docs/_sidebar.md @@ -17,6 +17,7 @@ - [第十章 稀疏奖励](chapter10/chapter10) - [第十一章 模仿学习](chapter11/chapter11) - [第十二章 深度确定性策略梯度 (DDPG) 算法](chapter12/chapter12) +- [项目三](chapter12/project3)