计算机工程与应用 ›› 2019, Vol. 55 ›› Issue (7): 157-161.DOI: 10.3778/j.issn.1002-8331.1712-0280
徐志雄,曹 雷,张永亮,陈希亮,李晨溪
XU Zhixiong, CAO Lei, ZHANG Yongliang, CHEN Xiliang, LI Chenxi
摘要: 针对深度强化学习算法中存在的过估计问题,提出了一种目标动态融合机制,在Deep [Q] Networks(DQN)算法基础上进行改进,通过融合Sarsa算法的在线更新目标,来减少DQN算法存在的过估计影响,动态地结合了DQN算法和Sarsa算法各自优点,提出了DTDQN(Dynamic Target Deep [Q] Network)算法。利用公测平台OpenAI Gym上Cart-Pole控制问题进行仿真对比实验,结果表明DTDQN算法能够有效地减少值函数过估计,具有更好的学习性能,训练稳定性有明显提升。