计算机工程与应用 ›› 2021, Vol. 57 ›› Issue (2): 170-176.DOI: 10.3778/j.issn.1002-8331.1910-0299
李浩,宁浩宇,康雁,梁文韬,霍雯
LI Hao, NING Haoyu, KANG Yan, LIANG Wentao, HUO Wen
摘要:
文本情感转换的任务需要调整文本的情感并保留与情感无关的内容。但是由于缺乏并行数据,很难提取独立于情感的内容并以无监督学习的方式对情感进行转换,并且由于GAN处理文本类的离散数据效果不如处理连续数据,为此使用了强化学习(Reinforcement Learning)的方法来解决GAN处理离散数据的问题。强化学习的奖励机制来自完整序列上的GAN的判别器,并且用蒙特卡罗搜索方法对生成器进行优化,从而提高生成文本的准确性。为了将源文本中的情感词的极性进行转换,在长短记忆神经网络(LSTM)中增加了自注意力机制(self-attention),再通过情感记忆模块(sentiment-memory)结合上下文来生成情感词极性反转后的文本作为SMRFGAN(Self-attention Memory Reinforcement learning GAN)预训练的真实数据。实验结果表明,该模型较好地解决了独立于情感内容进行情感转换的问题,BLEU评分有较好的提升。