



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-nemo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-nemo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
隆重推出 Mistral-Nemo:一款功能强大的高级 NLP 学习软件
发现 米斯特拉尔-尼莫是由以下机构共同开发的尖端大型语言模型 (LLM): 密斯特拉尔人工智能 和 英伟达于 2024年7月18日这款最先进的模型(版本 0.1)专为各种高级自然语言处理任务而设计,包括复杂的文本生成、精确的摘要、准确的翻译和深入的情感分析。其卓越的性能令人瞩目。 128k 令牌上下文窗口 这使它脱颖而出,能够以无与伦比的效率处理大量输入和复杂的多方面任务。
🛈 主要亮点:
- ✓ 性能强劲: 配备120亿个参数。
- ✓ 扩展上下文窗口: 支持最多 128k 个Tokens,非常适合篇幅较长的内容。
- ✓ 指令调整: 针对卓越的任务执行和及时响应进行了优化。
- ✓ 多语言精通: 支持超过 10 种语言,包括英语、法语、西班牙语和中文。
- ✓ 高效的Tokens化: 利用 Tekken 分词器实现高效的文本和代码压缩。
预期应用及全球覆盖范围
Mistral-Nemo 专为需要高质量文本生成的应用而精心打造。这包括创新的聊天机器人、高效的内容创作工具、精准的文档摘要以及全面的多语言通信解决方案。其广泛的语言支持确保了其在全球部署和不同用户群体中的灵活性。
技术架构与培训洞察
💻 建筑细节:
建立在坚实的基础上 Transformer架构Mistral-Nemo 的主要规格如下:
- 层数: 40
- 隐藏维度: 14,436
- 头部尺寸: 128
- 人头数: 32
- 激活功能: SwiGLU
先进技术,例如 分组查询注意力 和 滑动窗口注意事项 整合后可进一步提升其性能。
📚 综合训练数据:
该模型使用包含数十亿个来自多语言文本和代码的词元的大型且多样化的数据集进行训练。这种广泛的训练确保了模型能够深入理解各个领域的语言细微差别。
- 数据来源: 包括文献、网页和编程文档。
- 知识门槛: 截至2024年4月。
- 偏见缓解: Mistral AI 积极实施策略以减少偏见,确保数据集能够代表多种文化和语言,从而增强模型的稳健性和公平性。
卓越的性能基准
Mistral-Nemo 在各项关键基准测试中均表现出色:
- ★ 高精度: 在 HellaSwag 和 Winogrande 等任务中取得了令人印象深刻的准确率。
- ★ 品类领导者: 在同等规模的模型中表现优异,尤其是在推理和编码准确性方面。
Mistral-Nemo 与领先的LLM:性能概览
与 Gemma 2 9B 和 Llama 3 8B 等型号相比,Mistral-Nemo 在各项任务中均表现出更优异的性能。其尺寸也明显更大。 128k 上下文窗口 这是一个显著的优势,有助于其在几个关键领域取得领先地位。
🚀 Mistral-Nemo(128k 上下文)
- HellaSwag(0-shot): 83.5%
- 维诺格兰德(0-shot): 76.8%
- 趣味问答(5题): 73.8%
- OpenBookQA(0 次拍摄): 60.6%
- 常识性质量保证(0 次测试): 70.4%
📈 Gemma 2 9B(8k上下文)
- HellaSwag(0-shot): 80.1%
- 趣味问答(5题): 71.3%
- (其他基准较低或未指定)
📈 羊驼 3 8B(8k 上下文)
- HellaSwag(0-shot): 80.6%
- 趣味问答(5题): 61.0%
- (其他基准较低或未指定)

对比基准测试结果突显了 Mistral-Nemo 的领先性能。
如何访问和使用 Mistral-Nemo
🔗 代码示例和 API 访问:
Mistral-Nemo 很容易就能在以下平台上找到: AI/ML API平台 在标识符下 “mistrals/mistral-nemo”。
为详细实施,需全面说明。 API 文档 可为开发人员提供集成和使用方面的指导。
导入openai
client = openai.OpenAI (
api_key= "您的API密钥" ,
base_url= "https://api.ai.cc/v1" ,
)
chat_completion = client.chat.completions.create (
模型= “米斯特拉莱/米斯特拉尔尼莫” ,
messages=[
{ "role" : "system" , "content" : "您是一位乐于助人的AI助手。" },
{ "role" : "user" , "content" : "用简洁的方式解释 Mistral-Nemo 的优势。" }
],
max_tokens= 500 ,
温度= 0.7 ,
);
print ( chat_completion.choices [ 0 ].message.content) 伦理框架与开放许可
👤 负责任的人工智能开发:
Mistral AI 始终秉持人工智能开发中的伦理原则。该组织倡导模型功能透明化,并鼓励负责任地使用人工智能,以减少滥用和意外后果。
📜 许可与无障碍:
Mistral-Nemo 是在许可下发布的 Apache 2.0 许可证这种开放的许可模式允许商业和非商业用途,从而促进了开发者社区的广泛创新和普及。
准备好整合了吗? 点击此处获取 Mistral-Nemo API!
常见问题解答 (FAQ)
Q1: Mistral-Nemo是什么?它的主要用途是什么?
一个: Mistral-Nemo是由Mistral AI和NVIDIA联合开发的高级大型语言模型(LLM)。它专为自然语言处理任务而设计,例如文本生成、摘要、翻译和情感分析。其主要用途包括聊天机器人、内容创作、文档摘要和多语言交流。
Q2:Mistral-Nemo 支持的最大上下文窗口是多少?
一个: Mistral-Nemo 支持高达 10 ... 128,000 个Tokens使其能够处理和理解非常长的输入和复杂的对话或文档。
Q3:Mistral-Nemo 与其他流行的 LLM(如 Gemma 2 9B 或 Llama 3 8B)相比如何?
一个: Mistral-Nemo 通常比类似规模的模型(如 Gemma 2 9B 和 Llama 3 8B)表现更好,这主要归功于其更大的 128k 上下文窗口以及在 HellaSwag 和 Winogrande 等推理和编码准确性基准测试中的出色表现。
Q4: Mistral-Nemo 是否可用于商业用途?
一个: 是的,Mistral-Nemo 是根据以下条款发布的: Apache 2.0 许可证允许商业和非商业用途,促进广泛采用和创新。
Q5:开发者如何访问 Mistral-Nemo?
一个: 开发者可以通过以下方式访问 Mistral-Nemo: AI/ML API平台 使用标识符 “mistrals/mistral-nemo”此外,我们还提供了详细的 API 文档,以指导集成。



登录