机器翻译质量评估 (MTQE)已经成为公众关注的焦点,因为大型科技公司正在尝试各种方法自动评估机器翻译输出。对MTQE的关注是合理的。利用LLMs分析机器翻译输出,并预测哪些部分需要人工审查,使语言服务提供商(LSP)和管理大量内容的内部本地化团队有机会为现有的机器翻译工作流程带来重要的价值。
LSP和本地化团队面临着对周转时间越来越短的机器翻译服务不断增长的需求。对于LSP、本地化团队和语言学家来说,了解哪些文档提供了更好或更差的机器翻译输出,以及译后编辑所涉及的工作仍然是一项人工任务。有了LLMs,自动评估机器翻译输出变得触手可及,尽管它并非没有复杂性。在今年的Slator大会一个专家小组讨论了LLMs如何仍然”在起点止步不前“这需要在翻译人员的帮助下进行微调。越来越多的研究人员正在分析如何利用人类判断数据微调LLM模型,以提高机器翻译的整体输出。这引发了一波全新的衡量标准,比如多维质量度量(MQM),以及基于这些框架的新提示词技术。
进一步的研究也集中在从上下文和训练数据学习的模型上,但是错误漏检在机器翻译输出方面,表明MTQE需要更多的研究。
因此,大规模全面实施这一目标所需的努力水平仍然很高。Adam Bittlingmayer,ModelFront首席执行官,在2023年4月Slator播客说“任何做MTQE的人都处于领域的顶峰。”
机器翻译,轻度译后编辑,仅供参考。
编辑:张梓琦