问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

IJCAI 2024 | 多智能体强化学习新范式:个性化训练与蒸馏执行

创作时间:
作者:
@小白创作中心

IJCAI 2024 | 多智能体强化学习新范式:个性化训练与蒸馏执行

引用
CSDN
1.
https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/139015237

多智能体强化学习(MARL)是人工智能领域的一个重要研究方向,特别是在需要多个智能体协同工作的场景中,如多机器人导航、无人机路径规划等。本文介绍了一种新的训练范式PTDE(Personalized Training with Distilled Execution),通过个性化训练和知识蒸馏来提升多智能体系统的协作性能。

论文标题:
PTDE: Personalized Training with Distilled Execution for Multi-Agent Reinforcement Learning

论文链接:
https://arxiv.org/pdf/2210.08872

代码链接:
https://github.com/AntNLP/nope_head_scale

研究背景与挑战

在现实世界的许多任务中,如多机器人导航、避障、无人机路径规划等,都可以建模为多智能体系统的决策问题。这些场景通常受到局部可观测和分散式执行的约束。

最常见的范式是集中式训练分散式执行(Centralized Training with Decentralized Execution, CTDE),这种范式在训练时利用全局信息促进各个智能体实现协作行为,在执行时只使用局部信息,是观测信息受限情况下的一种很好的训练 & 执行范式。

但如何在满足 CTDE 范式的前提下,还能在分散式决策过程中充分受益于全局信息,进而提升多智能体的协作表现呢?本文提出了一种新颖的范式(Personalized Training with Distilled Execution, PTDE)来实现这一目标。

PTDE的核心思想

PTDE 范式符合 CTDE 的要求,但与传统 CTDE 不同的是 PTDE 强调为每个智能体提供个性化的全局信息,并通过知识蒸馏将这些个性化的全局信息通过智能体的局部信息预测得到。这种方法不仅大大提升了智能体集中式执行的性能,而且转变为分散式执行时的性能下降也是在可接受范围内的。

研究方法

PTDE 包含两个训练阶段。

第一阶段,通过全局信息个性化(GIP)模块为每个智能体提供个性化的全局信息 。(Figure 2)

第二阶段,使用知识蒸馏技术,将个性化的全局信息 蒸馏到仅依赖于智能体局部信息的学生网络中,即学生网络根据局部信息生成个性化全局信息的替代品 。(Figure 4)

经过两阶段的训练后,在执行阶段用 替代 ,就可以实现完全分散式的执行并且受益于特定化的全局信息。

实验结果

我们在 StarCraft II、Google Research Football 和搜索排序(LTR)等不同的测试平台上进行了广泛的实验。

实验结果表明:

  • unified 的全局信息对多智能体的协作不一定起到积极作用。
  • 个性化的全局信息相比于 unified 的全局信息来说,一般更有利于多智能体的协作。
  • 知识蒸馏后,由集中式执行转变为分散式执行的性能下降是在可接受范围内的。
  • 基于 PTDE 范式的算法可以在不同类型的环境 & 任务中取得不错的性能。
  • PTDE 范式可以很好地适配现有的 MARL 算法,如基于值分解的 QMIX、VDN,以及基于 Actor-Critic 架构的 MAPPO 等。

以下是本文实验部分的一些基本数据,分别是在 StarCraft II、Google Research Football 和搜索排序(LTR)多个任务上的结果:

文章的实验部分展示了更多充分且详细的实验曲线&结果分析,具体可进一步参考原文(http://arxiv.org/pdf/2210.08872)。

结论与展望

PTDE 作为一种新的多智能体强化学习范式,通过个性化的全局信息和知识蒸馏技术,有效地提升了多智能体系统的协作决策能力。

以上就是对 PTDE: Personalized Training with Distilled Execution for Multi-Agent Reinforcement Learning(http://arxiv.org/pdf/2210.08872)这篇文章的分享,如果感兴趣的话推荐阅读原文(http://arxiv.org/pdf/2210.08872)。如果想要讨论任何问题或者有任何建议,欢迎交流!

此外,还要宣传一下我们将 MARL 应用于搜索结果多样性排序(Search Result Diversification, SRD)的文章,探索 MARL 在更多场景应用的可能性:

MA4DIV: Multi-Agent Reinforcement Learning for Search Result Diversification(https://arxiv.org/pdf/2403.17421.pdf)

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号