更新项目

This commit is contained in:
johnjim0816
2022-11-17 23:19:22 +08:00
parent 3a9f0fcd28
commit 614ed89808
3 changed files with 0 additions and 43 deletions

View File

@@ -77,19 +77,4 @@ for i_episode in range(1, cfg.max_episodes+1): # cfg.max_episodes为最大训练
2. 由于本次环境为惯性系统建议增加Ornstein-Uhlenbeck噪声提高探索率可参考[知乎文章](https://zhuanlan.zhihu.com/p/96720878)
3. 推荐多次试验保存rewards然后使用searborn绘制可参考[CSDN](https://blog.csdn.net/JohnJim0/article/details/106715402)
### 代码清单
**main.py**保存强化学习基本接口以及相应的超参数可使用argparse
**model.py**:保存神经网络,比如全链接网络
**ddpg.py**: 保存算法模型主要包含select_action和update两个函数
**memory.py**保存Replay Buffer
**plot.py**:保存相关绘制函数
**noise.py**:保存噪声相关
[参考代码](https://github.com/datawhalechina/easy-rl/tree/master/codes/DDPG)

View File

@@ -64,20 +64,6 @@ for i_ep in range(cfg.train_eps): # train_eps: 训练的最大episodes数
![moving_average_rewards](assets/moving_average_rewards.png)
## 主要代码清单
**main.py****task_train.py**:保存强化学习基本接口,以及相应的超参数
**agent.py**: 保存算法模型主要包含choose_action(预测动作)和update两个函数有时会多一个predict_action函数此时choose_action使用了epsilon-greedy策略便于训练的探索而测试时用predict_action单纯贪心地选择网络的值输出动作
**model.py**保存神经网络比如全连接网络等等对于一些算法分为Actor和Critic两个类
**memory.py**保存replay buffer根据算法的不同replay buffer功能有所不同因此会改写
**plot.py**:保存相关绘制函数
[参考代码](https://github.com/datawhalechina/easy-rl/tree/master/projects/codes/QLearning)
## 备注
* 注意 $\varepsilon$-greedy 策略的使用,以及相应的参数$\varepsilon$如何衰减

View File

@@ -73,17 +73,3 @@ for i_episode in range(1, cfg.max_episodes+1): # cfg.max_episodes为最大训练
也可以[tensorboard](https://pytorch.org/docs/stable/tensorboard.html)查看结果,如下:
![image-20201015221032985](assets/image-20201015221032985.png)
### 代码清单
**main.py**保存强化学习基本接口以及相应的超参数可使用argparse
**model.py**:保存神经网络,比如全链接网络
**dqn.py**: 保存算法模型主要包含select_action和update两个函数
**memory.py**保存Replay Buffer
**plot.py**:保存相关绘制函数,可选
[参考代码](https://github.com/datawhalechina/easy-rl/tree/master/codes/DQN)