摘要

传统的Q学习算法是基于单奖惩标准的。基于单奖惩标准的Q学习算法往往不能适应multi-agent system(MAS)面对的复杂变化的环境与状态,相反可能还会制约学习效率。提出的基于多奖惩标准的Q学习算法能够较好地适应复杂变化的状态与环境,分阶段完成任务,不同阶段使用不同的奖惩标准,能够快速地完成阶段目标。以三维世界中的围捕问题为仿真平台,增加了围捕的难度和状态环境的复杂性。仿真实验表明,基于多奖惩标准的Q学习算法能够灵活地适应复杂变化的环境与状态,高效地完成学习任务。