“伪精化三元组”如何改进翻译中的大型语言模型

分享

其他推荐

翻译和人工智能

人工智能在翻译中的作用         人工智能(AI)已成为翻译的重要组成部分。了解人工智能和机器翻译(MT

阅读更多»

在2024年6月22日的一篇论文中,来自浙江大学的冯昭鹏、陈瑞哲、孟子杰和刘佐珠,以及来自腾讯的张严,介绍了“Ladder”,这是一种模型不可知和成本效益高的工具,旨在提高大型语言模型(LLMs)机器翻译(MT)中的性能。

与需要大量计算资源、大量数据和人工注释的传统方法不同,Ladder利用有限责任公司创建的所谓“伪精化三元组”,减少了对额外人工努力的需求。

伪精化三元组是一个源句子、一个由LLM生成的中间翻译和一个参考翻译(精化翻译)。

这种方法允许以自动化的方式为MT精炼创建培训数据,并且“不需要额外的劳动力成本”。

研究人员指出,这些三元组共享类似于自动后编辑(APE)三元组的格式,后者通常由源句子、带错误的翻译和后编辑组成。然而,APE注释过程需要大量的人力资源来完成评估、错误识别和后期编辑等任务。

然后,三元组被分为三个层次:简单中等困难简单的翻译与参考文献有显著的差异,允许进一步改进。另一方面,困难翻译几乎是完美的,这使得它们很难精炼,而中等翻译则介于这两类之间。这个分类是基于分配给每个三元组的COMET分数。

接下来是层次微调,包括以渐进的方式训练阶梯模型,从简单的例子开始,逐渐移动到中等困难的例子。这种分层微调方法允许模型学习和逐步提高其微调性能。

研究人员说:“我们不是直接微调目标LLM,而是训练LLM使用精炼数据集来精炼翻译,而不需要人工评估或后期编辑,而是使用指令精炼任务。”

提高翻译

Ladder可以与任何通用LLMs集成,以提高翻译性能,而无需对现有模型结构进行重大更改。这种灵活性使Ladder成为各种LLMs的通用工具。

研究人员用两种方式测试了Ladder。首先,他们检查了Ladder对不同类型语言模型的改善程度,包括专门为翻译任务设计的语言模型,包括BigTranslateNLLBALMA,以及更通用的语言模型,包括GPT-3.5和GPT-4。其次,我们将Ladder与最著名的翻译或后期编辑方法进行了比较,包括Unbabel’sTowerInstruct

他们发现,Ladder可以显著提高大多数翻译专用和通用LLMs的整体翻译质量。他们说,Ladder可以“将原始翻译提升到顶级开源模型的水平”。

相关论文和代码可以在GitHub上找到。

(机器翻译,轻度译后编辑,仅供参考。)

编辑:陈驭格

原文链接

Was it helpful ?

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注