第五篇:深度Q学习的四种新策略

深度强化学习

第五篇:深度Q学习的四种新策略

提纲

  • 前言
  • fixed Q-targets
  • double DQNs
  • duelingDQN(DDQN)
  • prioritized experience replay(PDE)

内容

🙋 前言

深度Q学习是2014年提出的,后来进行了许多改进,下面就是四种新策略可以显著改善训练和DQN智能体的结果。

🙋 fixed Q-targets

🍄 理论

在之前我们学到TD(时序差分)误差(损失)的公式为:

但真实的目标值我们其实是并不知道的,我们需要估计它。使用Bellman方程,我们TD目标只是在该状态下采取该行动的奖励加上下一个状态的折扣率下的最高Q值。

然而,问题是我们使用相同的参数来估计目标和Q值,结果是,这个目标与我们正在改变的参数(w)之间存在着很大的相关性。

这意味着在训练的每一步,Q值都会发生变化,目标值都会发生变化,我们在越来越接近目标,目标也在不断变化,这就导致了训练的振荡。

这就是“Q_estimation追逐Q_target"的问题。

💪 我们使用DeepMind引入的固定Q-targets的方法。

  1. 使用具有固定参数的单独往来来估计TD目标
  2. 在每个(定义的一个参数),从DQN网络复制参数来更新target网络。

此时,损失公式为

每过T步,有

这样,我们就有了更稳定的学习过程。

🍄 实现

  1. 创建2个网络(DQN网络和Target网络)
  2. 创建一个函数,它将获取DQN网络参数并将其复制到Target网络
  3. 训练期间,使用目标网络计算TD目标,使用DQN网络每一步更新目标网络。

🙋 Double DQNs

🍄 理论

💪 该方案是为了解决Q值估计过高的问题。

💪Q值估计过高问题:在训练开始时,agent没有足够信息来了解最佳动作,因此,将有噪声的最大Q值作为最佳动作会导致“false positive”,如果未优化的动作经常给出比所求得的最优化动作更高的Q值,学习将变得困难。

🍄 解决方案

  1. 使用DQN网络,选择对下一个状态采取的最佳动作(具有最高Q值)
  2. 使用目标网络计算在下一个状态执行该操作的目标Q值。

🍄 实现

Set target if the episode ends at +1,

otherwise set

🙋 基于竞争构架Q网络 DuelingDQN(DDQN)

🍄 理论

Q值表示状态s下采取行动a有多好。

可以将Q(s,a)分解为

  1. V(s):处于该状态s的值
  2. A(s,a):在该状态下采取该行动a的优势(相比于其他动作)

在DDQN中,我们希望通过两个streams得到V(s),A(s,a)这两个参数的估计量。

💪 为什么分别计算这两个参数呢?

通过解耦估计,DDQN可以直观的了解那些状态是有价值的,而不必了解每个状态下每个动作的效果。因此需要计算V(s)

原来的DQN,需要计算某个状态下每个动作的值,但如果该状态本身不好(导致死亡等),这样做就没有意义。

通过解耦计算V(s),可以找出那些任何行为都不会被影响的状态,有风险的状态的动作才被关注。

💪公式

其中,为common network 参数,为优势流参数,为价值流参数

🍄 实现

🙋 优先经验回放 prioritized experience replay

🍄 l理论

对于训练,某些经验可能比其他经验更重要,但不那么频繁出现。对于随机选择抽样来说,某些重要的经验可能没有机会被选中。使用PER,通过使用一个标准来定义每个经验元组的优先级来改变采样分布。当预测值和TD目标差异较大时,设置优先获得该经验,这也意味着模型需要更多了解该经验信息。

使用TD误差幅度的绝对值:

其中表示TD误差幅度值,表示常数,保证没有经验被选中的概率为0

将优先级放在每个回放缓冲区的经验中。

💭 但也不能只做贪婪的优先次序,这样会过度拟合。因此引入随机优先级的概念,产生被选择中用于回放的概率。

img

当然,这样会像高优先级样本引入偏差,为了纠正这种偏差,可使用重要度采样(IS)通过减少常见样本的权重来调整更新模型。

img

🍄 实现

这里的实现比较复杂,需要采用二叉树SumTree,每个节点最多两个子节点,每个叶子存储每个样本的优先级p,每个树枝节点只有两个分叉,节点的值是两个分叉的和。

这种结果在更新优先级参数和采样时将非常有效率。

创建sumtree和data的内存对象后,采样得到大小为k的小批量样本,将[0,total_priority]划分为k个范围,从每个范围均匀采样。最终从sumtree中检索对应于这些采样值中的每一个的经验experience。