由谷歌 DeepMind 和 Meta 的校友创办,总部位于巴黎的初创公司 Mistral AI 自 2023 年以来一直在人工智能界掀起波澜。
Mistral AI 于 2023 年发布的首个模型 Mistral 7B 首次引起了世界的关注。 这个拥有 70 亿个参数的模型以其令人印象深刻的性能迅速赢得了人们的关注,在各种基准测试中超越了 Llama 2 13B 等更大型的模型,甚至可与 拉马 1 34B 的许多指标。 什么设置 Mistral 7B 其独特之处不仅在于它的性能,还在于它的可访问性–模型可以很容易地 下载 甚至可以通过 13.4GB 的洪流下载,使全球的研究人员和开发人员都能随时获得。
该公司在发布信息方面不走寻常路,经常放弃传统的论文、博客或新闻稿,事实证明,这种做法在吸引人工智能社区的注意力方面非常有效。 这种策略加上他们对开源原则的承诺,使 Mistral AI 成为人工智能领域的一个强大参与者。
Mistral AI 在业内的迅速崛起从其最近的融资成功中得到了进一步证明。 在安德森-霍洛维茨(Andreessen Horowitz)领导的一轮融资后,该公司的估值达到了惊人的 20 亿美元。 在此之前,Mistral AI 还获得了 1.18 亿美元的种子轮融资,这是欧洲历史上规模最大的一轮融资,表明投资者对 Mistral AI 的愿景和能力充满信心。
除了技术进步,Mistral AI 还积极参与制定人工智能政策,特别是在围绕欧盟人工智能法案的讨论中,他们主张减少对开源人工智能的监管。
现在,在 2024 年,Mistral AI 再次提高了标准,推出了两款突破性的机型: Mistral Large 2 (又称 Mistral-Large-Instruct-2407)和 Mistral NeMo. 在本综合指南中,我们将深入探讨这些令人印象深刻的人工智能模型的功能、性能和潜在应用。
Mistral Large 2 的主要规格包括
- 1230 亿参数
- 128k上下文窗口
- 支持数十种语言
- 精通80 多种编码语言
- 高级函数调用功能
该机型旨在推动成本效益、速度和性能的发展,使其成为研究人员和希望利用尖端人工智能的企业的极具吸引力的选择。
Mistral NeMo:新的小型机型
Mistral Large 2 代表了 Mistral AI 大型模型的精华,而 2024 年 7 月发布的 Mistral NeMo 则采用了不同的方法。 Mistral NeMo 是与英伟达™(NVIDIA®)合作开发的,它是一个更紧凑的 120 亿参数模型,但仍然具有令人印象深刻的功能:
- 120 亿参数
- 128k 上下文窗口
- 在其大小类别中具有最先进的性能
- Apache 2.0 许可证开放使用
- 量化感知训练以实现高效推理
Mistral NeMo 可直接替换目前使用 Mistral 7B 的系统,在保持易用性和兼容性的同时提供更高的性能。
主要特点和功能
Mistral Large 2 和 Mistral NeMo 都具有几个关键功能,这些功能使它们在人工智能领域脱颖而出:
- 大型上下文窗口: 通过 128k 标记上下文长度,这两个模型都可以处理和理解更长的文本,从而实现更一致和与上下文相关的输出。
- 多语言支持:这两个模型在多种语言中表现出色,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、阿拉伯语和印地语。
- 先进的编码能力:这两种模型在多种编程语言的代码生成方面都表现出卓越的能力。
- 指令跟踪:两种模型在跟踪精确指令和处理多轮对话的能力方面都有显著提高。
- 函数调用:对函数调用的本地支持使这些模型能够与外部工具和服务进行动态交互。
- 推理和问题解决:增强了数学推理和复杂问题解决任务的功能。
让我们深入探讨其中的一些功能,并看看它们在实践中的表现如何。
性能基准
要了解 Mistral Large 2 和 Mistral NeMo 的真正性能,必须查看它们在各种基准测试中的表现。 让我们来看看一些关键指标:
Mistral Large 2 基准
本表显示了各种 LLM 在不同编程语言中的熟练程度。 对 Mistral Large 2 (24.07)、Llama 3.1 (405B) 和 GPT-4o 等机型进行了评估,以了解其理解和生成 Python、C++、Bash、Java、TypeScript、PHP 和 C# 等语言代码的能力。
Llama 3.1 405B 在多种语言中表现出强劲的性能,在 Python 和 Java 中得分尤其高。 这种能力对于涉及代码生成、调试和软件开发的应用至关重要,使这些模型成为开发人员的宝贵工具。
https://mistral.ai/news/mistral-large-2407/
https://mistral.ai/news/mistral-large-2407/
Mistral NeMo 基准测试
虽然 Mistral NeMo 的具体基准测试成绩没有在给定的信息中提供,但它被描述为在其大小类别中具有最先进的性能。 该模型在各种任务中的表现优于 Gemma 2 9B 和 Llama 3 8B 等其他最新开源预训练模型。
Mistral NeMo 基础模型与 Gemma 2 9B 和 Llama 3 8B 的性能比较。
多语种和编码能力
Mistral Large 2 和 Mistral NeMo 的突出特点之一是其卓越的多语言能力。 这在我们日益全球化的世界中尤为重要,因为人工智能模型需要理解和生成多种语言的内容。
例如,Mistral Large 2 支持数十种语言,包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、汉语、日语和韩语。 这种多语言能力不仅限于翻译,还包括对这些语言的细微理解和生成。
为了说明这一点,我们来看一个 Mistral Large 2 用多种语言生成文本的例子:
[INST] 用英语、法语、德语、西班牙语和日语生成简短的问候语。 [/INST]
以下是所需语言的简短问候语:
英语 你好,今天过得怎么样? Bonjour ! 德语:Hallo! 西班牙语:¡Hola! ¿Cómo estás hoy? 日语:こんにちは!今日はお元気ですか?
[INST]
现在,用 Python、Java 和 JavaScript 编写一个简单的 “Hello, World!”程序。 [/INST]
这些示例展示了模型的多语言文本生成和编码能力。
这两个模型都可在各种平台上使用,如 Hugging Face、Mistral AI 平台,以及谷歌云平台、Azure AI Studio、亚马逊 Bedrock 和 IBM watsonx.ai 等主要云服务提供商。
代理范式和函数调用
Mistral Large 2 和 Mistral NeMo 都采用了以代理为中心的设计,这代表了我们与人工智能模型交互方式的范式转变。 这种方法的重点是构建能够与环境互动、做出决策和采取行动以实现特定目标的模型。
支持这种范式的一个关键功能是对函数调用的本地支持。 这使得模型可以与外部工具和服务进行动态交互,从而有效地将其功能扩展到简单的文本生成之外。
让我们以 Mistral Large 2 为例,看看函数调用是如何工作的:
在这个示例中,我们定义了一个获取天气信息的函数,并将其包含在聊天完成请求中。 然后,模型就可以使用该函数检索实时天气数据,展示如何与外部系统交互以提供更准确的最新信息。
Tekken 更高效的标记符
Mistral NeMo 引入了一种名为的新标记符。 Tekken,它基于 Tiktoken 并在 100 多种语言上进行了训练。 与 SentencePiece 等以前的标记符相比,这种新的标记符大大提高了文本压缩效率。
Tekken 的主要功能包括
- 源代码、中文、意大利语、法语、德语、西班牙语和俄语的压缩效率提高 30
- 韩文压缩效率提高 2 倍
- 阿拉伯语的压缩效率提高 3 倍
- 在压缩所有语言中约 85% 的文本时,性能优于 Llama 3 标记化器
这种标记化效率的提高可转化为更好的模型性能,尤其是在处理多语言文本和源代码时。 它允许模型在同一上下文窗口中处理更多信息,从而获得更连贯、与上下文更相关的输出结果。
许可和可用性
Mistral Large 2 和 Mistral NeMo 有不同的许可模式,反映了它们的预期使用情况:
Mistral Large 2
- 根据 Mistral 研究许可证发布
- 允许为研究和非商业目的使用和修改
- 商业用途需要 Mistral 商业许可证
Mistral NeMo
- 根据 Apache 2.0 许可证发布
- 允许开放使用,包括商业应用
两种模型均可通过各种平台获得:
- Hugging Face:基本模型和指导模型的重量均在此处托管
- Mistral AI:: 提供mistral-large-2407(Mistral Large 2)和open-mistral-nemo-2407(Mistral NeMo)。
- 云服务提供商: 可在谷歌云平台的 Vertex AI、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上使用
https://mistral.ai/news/mistral-large-2407/
局限性和伦理考虑
虽然 Mistral Large 2 和 Mistral NeMo 代表了人工智能技术的重大进步,但承认它们的局限性以及使用它们时的道德考虑也至关重要:
- 存在偏见的可能性: 与所有在大型数据集上训练的人工智能模型一样,这些模型可能会继承和放大其训练数据中存在的偏差。 用户应该意识到这一点,并采取适当的保护措施。
- 缺乏真正的理解: 尽管这些模型的能力令人印象深刻,但它们并不具备真正的理解能力或意识。 它们会根据训练数据中的模式生成响应,这有时会导致听起来似乎合理但却不正确的信息。
- 隐私问题: 在使用这些模型时,尤其是在处理敏感信息的应用程序中,考虑数据隐私和安全影响至关重要。
结论
- 了解您的使用案例: 明确定义您希望模型实现的具体任务和目标。 无论是 Mistral 强大的函数调用能力还是高效的多语言文本处理能力,这种理解都将指导您选择模型和微调方法。
- 优化效率: 利用 Tekken 标记符号生成器来显著提高文本压缩效率,尤其是当您的应用程序涉及处理大量文本或多种语言时。 这将提高模型性能并降低计算成本。
- 利用函数调用:通过在模型交互中纳入函数调用来拥抱代理范式。 这可让您的人工智能与外部工具和服务进行动态交互,从而提供更准确、更可操作的输出。 例如,集成天气 API 或其他外部数据源可显著提高模型响应的相关性和实用性。
- 选择正确的平台:确保您将模型部署在支持其功能的平台上,例如 Google 云平台的 Vertex AI、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai。 这些平台提供了必要的基础设施和工具,可最大限度地提高人工智能模型的性能和可扩展性。
(机器翻译,轻度译后编辑,仅供参考)
编辑:胡跃