机器口译与翻译共性

分享

其他推荐

当我开始在语音翻译中尝试大型语言模型(LLMs)时,我立即被它们在解决与口语相关的典型挑战方面的熟练程度所打动。这些挑战包括发音错误(如转录错误)、不一致、语法错误、不流利以及错综复杂的句法,此处仅举几例。虽然这些问题也许看起来很表面,但它们极大地影响了一个翻译系统在现实世界中的可用性。LLMs在级联系统中解决这些挑战的成功可以归结于它们处理语言的非凡能力,对我来说,这种能力似乎密切反映了人类翻译的一些内在特征。

我指的是莫娜·贝克(Mona Baker)于1993年发表、探讨翻译共性的开创性论文。此外,贝克指出,人类翻译具有:

  • 明确程度的显著提高
  • 歧义消除与简化的倾向
  • 对传统“语法”的强烈偏好
  • 避免重复的倾向

虽然围绕这些共性的学术讨论已经减弱,但我对翻译共性的长期浓厚兴趣又恢复了,因为我注意到大型语言模型表现出这些非常相同的特征,尽管它们在翻译中没有明确表现出来。虽然它们通常被认为是LLM的局限性,但我开始将它们视为潜在的特性。在语音翻译中用来提高质量的东西。

在实际的人类口译中,上面列出的特征经常表现为:倾向于完成不完整的句子,使不合语法的陈述连贯,排除错误的开始或自我纠正,以及其他改进。将这些元素中的一些显化地、有控制地引入语音翻译系统似乎是有意义的。在我看来,把它框定为试图人工再造翻译共性(正如贝克提出的)具有创新性,这是以前从未探索过的。公平地说,过去在这方面已经做了一些尝试,但是这个框架是相当计算性的,与翻译没有直接联系。Papi等人2021年的成果是一个最好的例子;它使用机器翻译系统来解决转录问题(正如论文中所建议的,这不仅仅是技术性的),该系统根据(合成)数据进行训练,创造这些数据是为了模拟此类问题并因此纠正它们。

通过利用LLMs的力量,我们现在可以以非凡的——甚至令人惊讶的——高质量实现这种类型的“规范化”(用Baker的话说就是文本的“拉平”)。这些结果非常重要,有助于显著提高翻译体验,根据语言的不同,我们将其量化为25-30个百分点的提高。就上下文而言,即使是3-5个百分点的改进对用户来说也是显而易见的。

然而,需要注意的是,虽然大型语言模型是非常强大的工具,但它们可能是不可预测的,就像语言本身一样不可预测。管理它们的行为需要大量的工作来防止有据可查的幻觉和其他更微妙、不希望的结果,如不希望的偏见等。然而,这种努力无疑是值得的。有了这基础进步的第一步,我现在的目标更高了。正如我在机器口译中的情境意识中讨论的,我的下一个目标是通过对说话者意图的细致入微的理解来锚定翻译,捕捉语气和潜在的含义等。令人鼓舞的是,尽管当前系统存在明显的局限性,但LLM技术完全有能力部分应对这一挑战。

人性化回归:关于专业知识的旁注

对于渴望满足现实世界需求的应用程序来说,这不仅仅是超越基准,而是在实际用例中满足真正的用户期望。将这些系统提升到下一个水平所需的专业知识平衡再次发生变化。实现创新的自然语言处理(NLP)架构需要对翻译、多语言交流和用户期望有深刻的理解。在很长一段时间内,重点从语言知识转移到强调数据、统计和技术框架之后,我们现在正在见证翻译专业知识的复兴。这是一个在语言领域进行创新的超级激动人心的时刻。尽管如此,让我们面对现实吧。这可能不会持续太久。技术发展具有周期性,可以肯定的是,也许会再有这么一天,单靠数据和框架就足以达到语言技术和语音翻译的巅峰。

原文链接

(机器翻译,轻度译后编辑,仅供参考。)

编辑:王云菲

Was it helpful ?