在2024年6月22日的一篇论文中,来自浙江大学的冯昭鹏、陈瑞哲、孟子杰和刘佐珠,以及来自腾讯的张严,介绍了“Ladder”,这是一种模型不可知和成本效益高的工具,旨在提高大型语言模型(LLMs)在机器翻译(MT)中的性能。
与需要大量计算资源、大量数据和人工注释的传统方法不同,Ladder利用有限责任公司创建的所谓“伪精化三元组”,减少了对额外人工努力的需求。
伪精化三元组是一个源句子、一个由LLM生成的中间翻译和一个参考翻译(精化翻译)。
这种方法允许以自动化的方式为MT精炼创建培训数据,并且“不需要额外的劳动力成本”。
研究人员指出,这些三元组共享类似于自动后编辑(APE)三元组的格式,后者通常由源句子、带错误的翻译和后编辑组成。然而,APE注释过程需要大量的人力资源来完成评估、错误识别和后期编辑等任务。
然后,三元组被分为三个层次:简单、中等和困难。简单的翻译与参考文献有显著的差异,允许进一步改进。另一方面,困难翻译几乎是完美的,这使得它们很难精炼,而中等翻译则介于这两类之间。这个分类是基于分配给每个三元组的COMET分数。
接下来是层次微调,包括以渐进的方式训练阶梯模型,从简单的例子开始,逐渐移动到中等和困难的例子。这种分层微调方法允许模型学习和逐步提高其微调性能。
研究人员说:“我们不是直接微调目标LLM,而是训练LLM使用精炼数据集来精炼翻译,而不需要人工评估或后期编辑,而是使用指令精炼任务。”
提高翻译
Ladder可以与任何通用LLMs集成,以提高翻译性能,而无需对现有模型结构进行重大更改。这种灵活性使Ladder成为各种LLMs的通用工具。
研究人员用两种方式测试了Ladder。首先,他们检查了Ladder对不同类型语言模型的改善程度,包括专门为翻译任务设计的语言模型,包括BigTranslateNLLB和ALMA,以及更通用的语言模型,包括GPT-3.5和GPT-4。其次,我们将Ladder与最著名的翻译或后期编辑方法进行了比较,包括Unbabel’s和TowerInstruct。
他们发现,Ladder可以显著提高大多数翻译专用和通用LLMs的整体翻译质量。他们说,Ladder可以“将原始翻译提升到顶级开源模型的水平”。
相关论文和代码可以在GitHub上找到。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:陈驭格