



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-nemo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-nemo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
Apresentando Mistral-Nemo: um poderoso LLM para PNL avançada.
Descobrir Mistral-Nemo, um modelo de linguagem de grande porte (LLM) de última geração, desenvolvido em conjunto por IA Mistral e NVIDIA, lançado em 18 de julho de 2024Este modelo de última geração (Versão 0.1) foi projetado para uma ampla gama de tarefas avançadas de processamento de linguagem natural, incluindo geração de texto sofisticada, sumarização precisa, tradução exata e análise de sentimentos perspicaz. Suas notáveis capacidades são evidentes. janela de contexto de token de 128k O que a diferencia é a capacidade de lidar com grandes volumes de dados e tarefas complexas e multifacetadas com uma eficiência incomparável.
🛈 Principais destaques:
- ✓ Desempenho robusto: Equipado com 12 bilhões de parâmetros.
- ✓ Janela de contexto expansiva: Suporta até 128 mil tokens, ideal para conteúdo extenso.
- ✓ Ajustado conforme as instruções: Otimizado para um desempenho superior nas tarefas e para uma adesão rápida.
- ✓ Domínio multilíngue: Disponível em mais de 10 idiomas, incluindo inglês, francês, espanhol e chinês.
- ✓ Tokenização eficiente: Utiliza o tokenizador Tekken para compressão eficaz de texto e código.
Aplicações pretendidas e alcance global
O Mistral-Nemo foi meticulosamente desenvolvido para aplicações que exigem geração de texto de alta qualidade. Isso inclui chatbots inovadores, ferramentas eficientes de criação de conteúdo, sumarização precisa de documentos e soluções abrangentes de comunicação multilíngue. Seu amplo suporte a idiomas garante versatilidade para implantações globais e bases de usuários diversas.
Visão geral da arquitetura técnica e treinamento
💻 Detalhes da arquitetura:
Construído sobre uma base robusta Arquitetura de transformadoresO Mistral-Nemo apresenta as seguintes especificações principais:
- Camadas: 40
- Dimensão Oculta: 14.436
- Dimensões da cabeça: 128
- Número de cabeças: 32
- Função de ativação: SwiGLU
Técnicas avançadas como Atenção de consulta agrupada e Atenção, janela deslizante são integradas para aprimorar ainda mais suas capacidades de desempenho.
📚 Dados de treinamento abrangentes:
O modelo foi treinado em um conjunto de dados extenso e diversificado, abrangendo bilhões de tokens de textos e códigos multilíngues. Esse amplo treinamento garante uma compreensão profunda das nuances da linguagem em diversos domínios.
- Fontes de dados: Inclui literatura, páginas web e documentação de programação.
- Nível de conhecimento limite: Atualizado em abril de 2024.
- Mitigação de Viés: A Mistral AI implementou ativamente estratégias para reduzir o viés, garantindo um conjunto de dados que representa múltiplas culturas e idiomas, aprimorando a robustez e a imparcialidade do modelo.
Indicadores de desempenho excepcionais
Mistral-Nemo tem demonstrado consistentemente um forte desempenho em vários indicadores críticos:
- ★ Alta precisão: Obtém uma precisão impressionante em tarefas como HellaSwag e Winogrande.
- ★ Líder da categoria: Apresenta desempenho superior a modelos comparáveis em sua categoria de tamanho, principalmente em precisão de raciocínio e codificação.
Mistral-Nemo versus os principais LLMs: um panorama de desempenho
O Mistral-Nemo apresenta desempenho superior em um amplo espectro de tarefas quando comparado a modelos como Gemma 2 9B e Llama 3 8B. Seu tamanho substancialmente maior janela de contexto de 128k é uma vantagem significativa, que contribui para suas pontuações elevadas em diversas áreas-chave.
🚀 Mistral-Nemo (contexto de 128k)
- HellaSwag (0 tiros): 83,5%
- Winogrande (0 tiros): 76,8%
- Perguntas e Respostas (5 rodadas): 73,8%
- OpenBookQA (0-shot): 60,6%
- Perguntas e Respostas de Bom Senso (0-shot): 70,4%
📈 Gemma 2 9B (contexto 8k)
- HellaSwag (0 tiros): 80,1%
- Perguntas e Respostas (5 rodadas): 71,3%
- (Outros parâmetros de referência inferiores ou não especificados)
📈 Lhama 3 8B (contexto 8k)
- HellaSwag (0 tiros): 80,6%
- Perguntas e Respostas (5 rodadas): 61,0%
- (Outros parâmetros de referência inferiores ou não especificados)

Resultados comparativos de benchmarks destacam o desempenho líder do Mistral-Nemo.
Como acessar e utilizar o Mistral-Nemo
🔗 Exemplos de código e acesso à API:
Mistral-Nemo está facilmente disponível no Plataforma de API de IA/ML sob o identificador "mistrals/mistral-nemo".
Para uma implementação detalhada, abrangente Documentação da API Está disponível para orientar os desenvolvedores durante a integração e o uso.
importar openai
cliente = openai . OpenAI (
api_key= "SUA_CHAVE_DE_API" ,
base_url= "https://api.ai.cc/v1" ,
)
chat_completion = client.chat.completions.create (
model = "mistralai/mistral-nemo" ,
mensagens=[
{ "role" : "system" , "content" : "Você é um assistente de IA prestativo." },
{ "role" : "user" , "content" : "Explique os benefícios do Mistral-Nemo de forma concisa." }
],
max_tokens= 500 ,
temperatura = 0,7 ,
);
imprimir ( chat_completion .choices[ 0 ].message.content) Quadro Ético e Licenciamento Aberto
👤 Desenvolvimento responsável de IA:
A Mistral AI está profundamente comprometida com as considerações éticas no desenvolvimento de IA. A organização defende a transparência em relação às capacidades dos modelos e advoga pelo uso responsável para mitigar o uso indevido e as consequências indesejadas.
📜 Licenciamento e Acessibilidade:
Mistral-Nemo é lançado sob a licença permissiva. Licença Apache 2.0Este modelo de licenciamento aberto promove ampla inovação e acessibilidade dentro da comunidade de desenvolvedores, permitindo direitos de uso tanto comerciais quanto não comerciais.
Pronto para integrar? Obtenha a API Mistral-Nemo aqui!
Perguntas frequentes (FAQ)
Q1: O que é Mistral-Nemo e quais são seus principais usos?
UM: Mistral-Nemo é um modelo de linguagem de grande escala (LLM, na sigla em inglês) avançado, desenvolvido pela Mistral AI e pela NVIDIA. Ele foi projetado para tarefas de processamento de linguagem natural, como geração de texto, sumarização, tradução e análise de sentimentos. Suas principais aplicações incluem chatbots, criação de conteúdo, sumarização de documentos e comunicação multilíngue.
Q2: Qual é a janela de contexto máxima suportada pelo Mistral-Nemo?
UM: Mistral-Nemo suporta uma impressionante janela de contexto de até 128.000 tokens, permitindo-lhe processar e compreender entradas muito longas e conversas ou documentos complexos.
Q3: Como o Mistral-Nemo se compara a outros LLMs populares como o Gemma 2 9B ou o Llama 3 8B?
UM: O Mistral-Nemo geralmente supera modelos de tamanho semelhante, como Gemma 2 9B e Llama 3 8B, principalmente devido à sua janela de contexto significativamente maior, de 128 mil, e ao seu forte desempenho em benchmarks de raciocínio e precisão de codificação, como HellaSwag e Winogrande.
Q4: O Mistral-Nemo está disponível para uso comercial?
UM: Sim, Mistral-Nemo foi lançado sob a licença Licença Apache 2.0, que permite o uso tanto comercial quanto não comercial, promovendo ampla adoção e inovação.
Q5: Como os desenvolvedores podem acessar o Mistral-Nemo?
UM: Os desenvolvedores podem acessar Mistral-Nemo através do Plataforma de API de IA/ML usando o identificador "mistrals/mistral-nemo"A documentação detalhada da API também está disponível para orientar a integração.
Playground de IA



Conecte-se