谷歌发布了 Gemma 2 Gemma 2 是其开源轻量级语言模型的最新迭代版本,有 90 亿 (9B) 和 270 亿 (27B) 两种参数大小。 与上一版本相比,新版本有望提高性能和推理速度。 Gemma 模型 . 源于谷歌的 Gemma 2 双子座模型Gemma 2 的设计更便于研究人员和开发人员使用,在速度和效率方面都有大幅提高。 与多模态和多语言 Gemini 模型不同,Gemma 2 只专注于语言处理。 在本文中,我们将深入探讨 Gemma 2 的突出功能和进步,将其与前代产品和该领域的竞争对手进行比较,并重点介绍其使用案例和挑战。
构建 Gemma 2
与其前身一样,Gemma 2 模型也是基于仅解码器的转换器架构。 27B 变体主要是在 13 万亿个词组的英语数据上进行训练,9B 模型使用 8 万亿个词组,2.6B 模型使用 2 万亿个词组。 这些标记来自各种来源,包括网络文档、代码和科学文章。 该模型使用与 Gemma 1 和 Gemini 相同的标记符,确保了数据处理的一致性。
Gemma 2 使用一种称为的方法进行预训练。 知识提炼 在这种情况下,它从一个更大的、预先训练过的模型的输出概率中学习。 在初始训练后,模型会通过一个称为指令调整的过程进行微调。 首先是 监督微调 (SFT) 在合成和人工生成的纯英文文本提示-回答对上进行。 之后, 人类反馈强化学习 (RLHF) 用于提高整体性能
Gemma 2:在各种硬件上增强性能和效率
Gemma 2 不仅在性能上优于 Gemma 1,而且还能与两倍于其大小的型号进行有效竞争。 它专为在笔记本电脑、台式机、物联网设备和移动平台等各种硬件设置中高效运行而设计。 Gemma 2 专门针对单 GPU 和 TPU 进行了优化,提高了前代产品的效率,尤其是在资源有限的设备上。 例如,27B 模型在单个GPU 上运行推理时表现出色。 英伟达 H100 张量核 GPU 或 TPU 主机,因此对于需要高性能而又不需要在硬件上投入巨资的开发人员来说,Gemma 2 是一种经济高效的选择。
此外,Gemma 2 还为开发人员提供了跨各种平台和工具的增强调整功能。 无论是使用基于云的解决方案(如 Google Cloud),还是使用流行的平台(如 Axolotl Gemma 2 提供了广泛的微调选项。 与Hugging Face , 英伟达™ TensorRT-LLM 和 谷歌的 JAX 和 Keras 等平台集成允许研究人员和开发人员在不同的硬件配置下实现最佳性能和高效部署。
Gemma 2 与 Llama 3 70B 的比较
如果将 Gemma 2 与 Llama 3 70B 进行比较,这两个模型在开源语言模型中都很突出。 谷歌研究人员称,尽管 Gemma 2 27B 的体积比 Llama 3 70B 小得多,但其性能却可与 Llama 3 70B 相媲美。 此外,Gemma 2 9B 在各种基准测试(如语言理解、编码和解决数学问题)中的表现始终优于 Llama 3 8B。
与 Meta 的 Llama 3 相比,Gemma 2 的一个显著优势是它对印度语言的处理能力。 Gemma 2 的出众之处在于其标记化器,该标记化器专为这些语言而设计,包含 256k 个标记的庞大词汇量,可捕捉语言上的细微差别。 另一方面,尽管 Llama 3 支持多种语言,但由于词汇量和训练数据有限,在对印度脚本进行标记化处理时却显得力不从心。 这使得 Gemma 2 在涉及印度语言的任务中更具优势,成为在这些领域工作的开发人员和研究人员的更佳选择。
使用案例
根据 Gemma 2 模型的具体特点及其在基准测试中的表现,我们确定了该模型的一些实际用例。
- 多语种助手:Gemma 2 针对各种语言(尤其是印度语)的专用标记符使其成为开发针对这些语言用户的多语种助手的有效工具。 无论是用印地语查找信息、用乌尔都语创建教育材料、用阿拉伯语营销内容,还是用孟加拉语撰写研究文章,Gemma 2 都能为创建者提供有效的语言生成工具。 该使用案例的一个真实例子是Navarasa。Navarasa 是基于 Gemma 开发的多语言助手,支持九种印度语言。 用户可以毫不费力地制作出能引起地区受众共鸣的内容,同时遵守特定的语言规范和细微差别。
- 教育工具:Gemma 2 具有解决数学问题和理解复杂语言查询的能力,可用于创建智能辅导系统和教育应用程序,从而提供个性化的学习体验。
- 编码和代码协助:Gemma 2 在计算机编码基准测试中的优异表现表明,它有潜力成为代码生成、错误检测和自动代码审查的强大工具。 它能够在资源有限的设备上良好运行,使开发人员能够将其无缝集成到他们的开发环境中。
- 检索增强生成 (RAG):Gemma 2 在基于文本的推理基准方面表现出色,因此非常适合开发跨领域的 RAG 系统。 它通过综合临床信息为医疗保健应用提供支持,协助法律人工智能系统提供法律建议,支持开发用于客户支持的智能聊天机器人,并促进个性化教育工具的创建。
局限与挑战
Gemma 2 在展示显著进步的同时,也面临着主要与训练数据的质量和多样性有关的限制和挑战。 尽管 Gemma 2 的标记化器支持多种语言,但它缺乏针对多语言能力的专门训练,需要进行微调才能有效处理其他语言。 该模型在处理清晰、结构化的提示时表现良好,但在处理开放式或复杂任务以及讽刺或形象表达等微妙的语言细微差别时却显得力不从心。 它的事实准确性并不总是可靠的,有可能产生过时或不正确的信息,而且在某些情况下可能缺乏常识推理。 虽然我们已经努力解决幻觉问题,尤其是在医疗或 CBRN 场景等敏感领域,但在金融等不太精细的领域,仍然存在生成不准确信息的风险。 此外,尽管已采取控制措施来防止仇恨言论或网络安全威胁等不道德内容的生成,但在其他领域仍存在滥用的风险。 最后,Gemma 2 仅基于文本,不支持多模态数据处理。
总结
与前代产品相比,Gemma 2 在开源语言模型方面取得了显著进步,提高了性能和推理速度。 它非常适合各种硬件设置,无需大量硬件投资即可使用。 然而,在处理细微的语言任务和确保复杂场景中的准确性方面仍存在挑战。 虽然 Gemma 2 可用于法律咨询和教育工具等应用,但开发人员应注意其在多语言功能方面的局限性,以及在敏感语境中可能出现的事实准确性问题。 尽管有这些考虑,但对于寻求可靠语言处理解决方案的开发人员来说,Gemma 2 仍然是一个有价值的选择。
(机器翻译,轻度译后编辑,仅供参考)
编辑:胡跃