![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-N9thAlzj-1660527359275)(https://i.imgur.com/LNoCeZo.png)]](https://1000bd.com/contentImg/2022/08/17/101149479.png)
论文原文: https://offline-rl-neurips.github.io/2021/pdf/33.pdf
我们知道在强化学习中,不同的样本选择对算法的影响比较大,最典型的莫过于使用优先级经验回放(PER)技术提高算法对采样样本的选择效率,那么在完全依赖于采样样本学习的OfflineRL中,如何高效的从dataset中通过采样数据进行高效学习呢?
本文作者根据各种启发式优先级指标(6种指标)对比实验,指标侧重于离线学习设置的不同方面(包括temporal-difference error, n-step return, self-imitation learning objective, pseudo-count, uncertainty, and likelihood),结果表明(1)non-uniform sampling仍然是最有效的采样方式。(2)没有任何一个metric适合于所有场景。(3)仅通过改变采样方案来避免Offline中的bootstrapping error是不够的。
然而,目前还不清楚在OfflineRL中首选哪一种样本选择策略,因此需要更多的研究,下面我们说说本论文提出的Non-uniform Sampling with Experience Replay方法
一个值得注意的例子是优先体验回放(PER),其中采样某个transition( s t s_{t} st, a t a_{t} at, s t + 1 s_{t+1} st+1)的概率与绝对TD误差成正比。然而,哪个优先级度量是评估样本重要性的最优仍然是一个悬而未决的问题
关于优先级经验方法,大家可以参考我之前的博客深度强化学习系列(8): Prioritized Experience Replay(PER-DQN)原理及实现
这里作者提出了关于PER中使用绝对TD误差 ∣ δ ( i ) ∣ |\delta(i)| ∣δ(i)∣作为优先级度量,并对第 i i i次过渡进行采样的概率 p ( i ) p(i) p(i)为:
p ( i ) = p i α ∑ j p j α , p i = ∣ δ ( i ) ∣ + ϵ or p i = 1 rank ( i ) , p(i)=\frac{p_{i}^{\alpha}}{\sum_{j} p_{j}^{\alpha}}, \quad p_{i}=|\delta(i)|+\epsilon \quad \text { or } \quad p_{i}=\frac{1}{\operatorname{rank}(i)}, p(i)=∑jpjαpiα,pi=∣δ(i)∣+ϵ or pi=rank(i)1,
关于PER算法的几种变体
Hindsight Experience Replay (HER):提出将访问状态重新标记为目标状态,以克服稀疏奖励的困难探索问题。
Competitive Experience Replay (CER):通过制定两个主体之间的探索性竞争,引入了一个自动的探索性课程(curriculum)
Remember and Forget Experience Replay (ReF-ER):通过当前策略 p i pi pi和行为策略 μ \mu μ之间的重要性权重 ρ = π ( a ∣ s ) / μ ( a ∣ s ) \rho=\pi(a \mid s) / \mu(a \mid s) ρ=π(a∣s)/μ(a∣s)(将样本分类为“近策略”和“远策略”,并且仅使用近策略样本计算梯度。
Attentive Experience Replay (AER): 根据Transition状态和当前状态之间的相似性来选择样本。
Loss-Adjusted Prioritized (LAP) experience replay:建立了PER中的非均匀采样方案与损失函数之间的联系,这里应该可以说是作者论文的启发点吧,方法结果表明,任何用均匀采样计算
(
i
∼
D
1
)
\left(i \sim \mathcal{D}_{1}\right)
(i∼D1)的损失函数
L
1
\mathcal{L}_{1}
L1都等价于另一个用非均匀采样数据
(
i
∼
D
2
)
\left(i \sim \mathcal{D}_{2}\right)
(i∼D2)计算的损失函数
L
2
\mathcal{L}_{2}
L2:
E
i
∼
D
1
[
∇
Q
L
1
(
δ
(
i
)
)
]
=
E
i
∼
D
2
[
p
D
1
(
i
)
p
D
2
(
i
)
∇
Q
L
1
(
δ
(
i
)
)
]
=
E
i
∼
D
2
[
∇
Q
L
2
(
δ
(
i
)
)
,
]
\mathbb{E}_{i \sim \mathcal{D}_{1}}\left[\nabla_{Q} \mathcal{L}_{1}(\delta(i))\right]=\mathbb{E}_{i \sim \mathcal{D}_{2}}\left[\frac{p_{\mathcal{D}_{1}}(i)}{p_{\mathcal{D}_{2}}(i)} \nabla_{Q} \mathcal{L}_{1}(\delta(i))\right]=\mathbb{E}_{i \sim \mathcal{D}_{2}}\left[\nabla_{Q} \mathcal{L}_{2}(\delta(i)),\right]
Ei∼D1[∇QL1(δ(i))]=Ei∼D2[pD2(i)pD1(i)∇QL1(δ(i))]=Ei∼D2[∇QL2(δ(i)),]

Valuable Experience Replay (VER):证明了绝对TD误差 ∣ δ ( i ) ∣ |\delta(i)| ∣δ(i)∣是 Q Q Q学习中的不同经验价值度量的上界。
在本项工作中,作者选择TD3BC【离线强化学习(Offline RL)系列3: (算法篇) TD3+BC 算法详解与实现(经验篇)】和PER作为批量RL中样本选择策略的基准测试的骨干算法。

下面是作者实验中对比的6种不同的优先级度量
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gZWdgIO4-1660527359278)(https://i.imgur.com/swuRFcm.png)]](https://1000bd.com/contentImg/2022/08/17/101149938.png)
关于每种度量的具体介绍如下:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-viFH8B7R-1660527359280)(https://i.imgur.com/EwsEBXt.png)]](https://1000bd.com/contentImg/2022/08/17/101150406.png)
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eAvHQrDm-1660527359281)(https://i.imgur.com/XEjJ3Ln.png)]](https://1000bd.com/contentImg/2022/08/17/101150534.png)
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Vq0EdpSQ-1660527359288)(https://i.imgur.com/BjrCwQr.png)]](https://1000bd.com/contentImg/2022/08/17/101150698.png)
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EoU6oEfK-1660527359289)(https://i.imgur.com/iAwbEPt.png)]](https://1000bd.com/contentImg/2022/08/17/101150884.png)
离线强化学习(Offline RL)系列5: (模型参数) 离线强化学习中的超参数选择(Offline Hyperparameters Selection)
离线强化学习(Offline RL)系列4:(数据集) 经验样本复杂度(Sample Complexity)对模型收敛的影响分析
离线强化学习(Offline RL)系列4:(数据集)Offline数据集特征及对离线强化学习算法的影响
离线强化学习(Offline RL)系列3: (算法篇) AWAC算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇) AWR(Advantage-Weighted Regression)算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇) Onestep 算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇) IQL(Implicit Q-learning)算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇) CQL 算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇) TD3+BC 算法详解与实现(经验篇)
离线强化学习(Offline RL)系列3: (算法篇) REM(Random Ensemble Mixture)算法详解与实现
离线强化学习(Offline RL)系列3: (算法篇)策略约束 - BRAC算法原理详解与实现(经验篇)
离线强化学习(Offline RL)系列3: (算法篇)策略约束 - BEAR算法原理详解与实现
离线强化学习(Offline RL)系列3: (算法篇)策略约束 - BCQ算法详解与实现
离线强化学习(Offline RL)系列2: (环境篇)D4RL数据集简介、安装及错误解决
离线强化学习(Offline RL)系列1:离线强化学习原理入门