大型语言模型如何模仿人工翻译过程

分享

其他推荐

由上海交通大学、清华大学及腾讯人工智能实验室组成的研究团队在2023年5月6日发表的一篇研究论文中证实:大型语言模型(LLM)可以模仿人工翻译策略 其作者在论文中指出:“职业译员在处理特定源文本之前通常会有一些准备步骤,包括收集或分析关键字、主题和例句等信息。 
研究人员表示,传统的机器翻译(MT)主要关注源语到目的语的直接对应,却无视这些准备步骤,但基于LLM的翻译则可以模仿人工翻译过程。
 
为验证上述结论,他们提出一种名为MAPS(Multi-Aspect Prompting and Selection)的方法,即“多方面提示与遴选”,目的是把上述准备步骤融入LLM翻译过程
 
MAPS法可以提示LLM对源句进行分析并提取翻译所需的相关知识,随后将其整合到提示语的上下文中,从而引导LLM生成更为准确的译文。

(图片来源:https://slator.com/how-large-language-models-mimic-human-translation-process/)

知识挖掘、整合及遴选
具体而言,MAPS法包括三大步骤:知识挖掘知识整合知识遴选。在知识挖掘环节,LLM会分析源文本,并生成三类翻译相关知识: 

  • 关键词——主要用于传达核心含义并确保文本的忠实性及连贯性;
  • 主题——帮助译员避免由于模凌两可造成的误译,并适应特定主题事项;
  • 示例——提供实例,帮助在目标语中找到恰当的对等语,使译文自然、流畅且引人入胜。

从中获得的知识“用作背景信息”,随后在知识整合环节融入LLM提示语所在的上下文中。这种整合可以为LLM生成更准确的翻译备选版本提供参考。LLM一旦与提取的知识融合,就能深入理解源文本,并生成符合原意的译文。 然而,研究人员表示,“并非所有由LLM生成的知识都对翻译有用。”他们解释说,LLM “产出的内容会扰乱翻译过程,因为这些内容可能无关紧要或有过分渲染之嫌。” 为进一步提升翻译质量,在知识遴选环节采用了过滤机制。该机制旨在消除LLM可能生成的无用知识。 更确切地说,就是用无参照质量评估(QE)对翻译备选版本进行排名,并选择QE得分最高的翻译版本作为最终输出结果。此外,研究人员还探讨了LLM本身用作QE评分器的可能性,彰显出纯粹应用LLM所具备的潜力。

“幻觉”及针对特定领域的准备工作将不复存在
研究人员通过对八个翻译方向(英-中,中-英,英-德,德-英,英-日,日-英,德-法,法-德)进行综合实验,验证了MAPS法的有效性。 同其他基线相比,实验结果始终呈现出显著改善,这表明整合准备步骤同时利用自行生成的知识能够产出更高质量的译文。 MAPS法也有效减少了翻译中的“幻觉”问题,即:LLM会生成错误或虚构的内容。研究人员称,提取的知识“对于解决高达59%的翻译‘幻觉’错误至关重要”。 MAPS法的另一个显著优点是它专注于翻译一般场景,而不依赖特定领域的假设。不同于其他需要做特定领域准备的基于LLM的翻译方法,MAPS法不需要大量术语表、词典或样品池。这一特征增强了MAPS法在应对各种翻译任务和语言对时的实用性及多功能性。

原文链接:

https://slator.com/how-large-language-models-mimic-human-translation-process/

原论文链接:

https://arxiv.org/pdf/2305.04118.pdf

GitHub 链接:

https://github.com/zwhe99/MAPS-mt

 
-END-
转载编辑:Amelia
Was it helpful ?

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注