参考链接
多智能体深度强化学习综述与批判.2019
万字长文:详解多智能体强化学习的基础和应用
多智能体强化学习的难点:

💡将其他智能体考虑为环境的一部分是否可行?
不可行,模型的不是稳态的,模型之间是策略是相互影响的。
【回顾】Q-Learning:价值学习算法, Q ( s , a ) Q(s,a) Q(s,a)是在某一时刻的 s 状态下(s∈S),采取 动作a (a∈A)动作能够获得收益的期望,主要思想是将State与Action构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。

多智能体强化学习属于随机博弈

通过数学工具进行描述


minimax Q-Learning 零和随机博弈

用于合作任务

计算量指数级增长,计算难度太大




鸵鸟算法


注:PPO:大概类似actor-critic方法

类似于:训练的时候场上有教练指导大家,告诉大家什么动作是对的什么是不对的,真正比赛的时候,教练离场





