# 李宏毅深度强化学习笔记(LeeDeepRL-Notes) 李宏毅老师的《深度强化学习》是强化学习领域经典的中文视频之一。李老师幽默风趣的上课风格让晦涩难懂的强化学习理论变得轻松易懂,他会通过很多有趣的例子来讲解强化学习理论。比如老师经常会用玩 Atari 游戏的例子来讲解强化学习算法。此外,为了课程的完整性,我们整理了周博磊老师的《强化学习纲要》以及李科浇老师的《百度强化学习》的部分内容作为补充。对于想入门强化学习又想看中文讲解的人来说绝对是非常推荐的。 ## 使用说明 * 第 3 章到第 10 章为李宏毅《深度强化学习》课程的部分; * 第 1 章和第 2 章根据[《强化学习纲要》](https://github.com/zhoubolei/introRL)整理而来; * 第 3 章和第 12 章根据[《百度强化学习》](https://aistudio.baidu.com/aistudio/education/group/info/1335) 整理而来。 ## 笔记在线阅读地址(内容实时更新) 在线阅读地址:https://datawhalechina.github.io/leedeeprl-notes/ ## 课程在线观看地址 - bilibili:[李宏毅《深度强化学习》](https://www.bilibili.com/video/BV1MW411w79n) ## 目录 - [P1 强化学习概述](https://datawhalechina.github.io/leedeeprl-notes/#/chapter1/chapter1) - [P2 马尔科夫决策过程 (MDP)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter2/chapter2) - [P3 表格型方法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter3/chapter3) - [P4 策略梯度](https://datawhalechina.github.io/leedeeprl-notes/#/chapter4/chapter4) - [P5 近端策略优化 (PPO) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter5/chapter5) - [P6 Q 学习 (基本概念)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter6/chapter6) - [P7 Q 学习 (进阶技巧)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter7/chapter7) - [P8 Q 学习 (连续动作)](https://datawhalechina.github.io/leedeeprl-notes/#/chapter8/chapter8) - [P9 演员-评论员算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter9/chapter9) - [P10 稀疏奖励](https://datawhalechina.github.io/leedeeprl-notes/#/chapter10/chapter10) - [P11 模仿学习](https://datawhalechina.github.io/leedeeprl-notes/#/chapter11/chapter11) - [P12 深度确定性策略梯度 (DDPG) 算法](https://datawhalechina.github.io/leedeeprl-notes/#/chapter12/chapter12) ## 主要贡献者 | 作者 | 贡献 | |------|------| | [@qiwang067](https://github.com/qiwang067) | 撰写笔记、传统 RL 代码 | | [@JohnJim0816](https://github.com/JohnJim0816) | DRL 代码 | ## 关注我们
Datawhale是一个专注AI领域的开源组织,以“for the learner,和学习者一起成长”为愿景,构建对学习者最有价值的开源学习社区。关注我们,一起学习成长。
## LICENSE 知识共享许可协议
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。