信息科学与工程
王兵 叶娜 蔡东风
2023, 40(2): 74-82.
已有工作证明使用翻译记忆(TM)可以提高神经机器翻译(NMT)的性能。与以往使用双语语料库作为TM并采用源端相似度搜索进行记忆检索,进而将检索到的相似句对与NMT模型融合的这种分阶段进行的方法不同,该文提出了一种新的融合框架,即基于跨语言注意力记忆网络的神经机器翻译模型,该模型使用单语翻译记忆即目标语言句子作为TM,并以跨语言的方式执行可学习的检索。该框架具有一定的优势:第一,跨语言注意力记忆网络允许单语数据作为TM,适合于双语语料缺乏的低资源场景;第二,跨语言注意力记忆网络和NMT模型可以为最终的翻译目标进行联合优化,实现一体化训练。实验表明,所提出的方法在四个翻译任务上取得了较好的效果,在双语资源稀缺的专业领域中的实验结果也证明了其在低资源场景下的有效性。