Merge branch 'master' of github.com:datawhalechina/easy-rl

This commit is contained in:
qiwang067
2022-11-23 20:54:39 +08:00
107 changed files with 3232 additions and 45 deletions

View File

@@ -64,20 +64,6 @@ for i_ep in range(cfg.train_eps): # train_eps: 训练的最大episodes数
![moving_average_rewards](assets/moving_average_rewards.png)
## 主要代码清单
**main.py****task_train.py**:保存强化学习基本接口,以及相应的超参数
**agent.py**: 保存算法模型主要包含choose_action(预测动作)和update两个函数有时会多一个predict_action函数此时choose_action使用了epsilon-greedy策略便于训练的探索而测试时用predict_action单纯贪心地选择网络的值输出动作
**model.py**保存神经网络比如全连接网络等等对于一些算法分为Actor和Critic两个类
**memory.py**保存replay buffer根据算法的不同replay buffer功能有所不同因此会改写
**plot.py**:保存相关绘制函数
[参考代码](https://github.com/datawhalechina/easy-rl/tree/master/projects/codes/QLearning)
## 备注
* 注意 $\varepsilon$-greedy 策略的使用,以及相应的参数$\varepsilon$如何衰减