一群来自阿里巴巴集团(阿里巴巴在线商店alibaba.com和aliexpress.com背后的中国公司)的研究人员进行了实验,测试了经过特定培训的神经机器翻译(MT)模型行为和基于大型语言模型(LLM)的电子商务内容机翻行为。结果发表于2024年3月6日发表。
阿里巴巴的研究人员高德宏、戴黄宇等人在他们的出版物中认为,现有的机器翻译模型忽略了专门写作的领域,包括电子商务和法律文件。为了提高模型性能,研究人员开始测试一种模型多步训练方法,该方法专门针对电子商务文本的形态学、词汇和句法特征。这些包括关键字堆叠和长短产品描述。
电子商务特性
根据研究人员的说法,传统的机器翻译方法可能会在电子商务内容翻译中产生问题,如准确性低、关键字遗漏和重复。相比之下,他们认为,他们的“一般到特定”(G2ST)模型训练方法获得了更好的结果。G2ST方法使用两阶段微调和对比增强步骤来增强结果(对比增强是一种比较不同候选翻译并且模型学习选择更好的翻译的方法)。它的工作原理是将一般的MT模型“转移”到特定于电子商务的MT模型。
为了提高模型的翻译性能,研究人员首先收集了与领域相关的资源。其中包括对齐的汉英术语和一个专门为电子商务注释的平行语料库。研究人员解释说,第一项准备任务包括扩大模型词汇量,特别是与领域相关的词对。汉英对齐的术语对来自Alibaba.com和ChatGPT 2,并用于第一个模型微调任务。得到的并行语料库又被注释用于第二个微调阶段。下一步,对比增强,使研究人员能够提高模型的词汇表征能力。在他们的实验中,阿里巴巴的研究人员在SOTA NMT和LLM模型上使用了他们新策划的汉英语料库,包括LLaMA、Qwen、GPT-3.5和GPT-4。结果表明,使用G2ST方法,LLaMA2优于LLaMA。研究人员使用SacreBLEU、Rouge-1、Rouge-2和Rouge-L指标进行测试,并发现其他模型的性能具有可比性。然而,Qwen-14B模型提供了最好的翻译分数。研究人员打算在多语言机器翻译上进一步测试他们的方法。
(机器翻译,轻度译后编辑,仅供参考)编辑:陈驭格