一、概述

二、强化学习Reinforcement Learning

RL的方法分成两部分:

  • Policy-based:学习到一个Actor
  • Value-based:学习到一个Critic

 记录一些自己的疑问:

1.RL的缺陷是什么?继续学习,探究DNN,DQL等相关关系。

2.github上有很多关于TD3的资料,在论文撰写的时候可以做一些算法性能的比较,是一个加分项。

3.如何定义reward?谁来给予这个反馈?

4.随机Actor是训练的机器人随机吗?

5.是否因为神经网络有好多层,因此是酸度强化学习?所以当Actor时一个Neural Network的时候,做的是DRL。

6.监督学习计算的是最小化损失函数,强化学习计算的是最大化奖励函数?

7.期望奖励值计算中第三步梯度上升计算的时候,w代表什么参数?我们要找到的θ到底代表着什么?为什么可以控制R最大化?梯度上升的计算如何理解? 

暂时以上。周末进行解答修改。

转载于:https://www.cnblogs.com/serenelian/p/10696970.html

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐