



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-tiny',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-tiny",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
Apresentando o Mistral Tiny: Seu modelo de linguagem leve para IA eficiente.
Mistral Tiny, desenvolvido por IA Mistral e lançado oficialmente em Outubro de 2024 (Versão 1.0) é um modelo de linguagem leve e de última geração, projetado para oferecer eficiência notável em diversas tarefas baseadas em texto. Este modelo de tipo de texto é especificamente otimizado para operar com eficácia em ambientes com recursos limitados, garantindo alto desempenho mesmo com recursos computacionais restritos.
Informações básicas:
- ✨ Nome do modelo: Mistral Pequeno
- 👩💻 Desenvolvedor/Criador: IA Mistral
- 🗓️ Data de lançamento: Outubro de 2024
- 🔄 Versão: 1.0
- 📝 Tipo de modelo: Texto
Principais capacidades e especificações
Principais características:
- 📏 Tamanho do modelo: Um compacto 106,6 milhões de parâmetros.
- 💾 Memória VRAM necessária: Apenas 0,4 GB, tornando-o incrivelmente acessível para dispositivos com recursos limitados.
- 📖 Comprimento do contexto: Suporta um extenso comprimento máximo de contexto de 131.072 tokens, permitindo um gerenciamento abrangente do contexto.
- ⚙️ Classe Tokenizadora: Utiliza o LlamaTokenizer com um vocabulário de tamanho 32.000 tokens.
- 🛠️ Estrutura de Treinamento: Construído sobre a arquitetura MistralForCausalLM, compatível com a versão 4.39.1 do Transformers.
Aplicações pretendidas:
Mistral Tiny é perfeitamente adequado para aplicações que exigem respostas rápidas e processamento de baixa latência, sendo ideal para:
- Chatbots
- Geração automatizada de conteúdo
- Ferramentas educacionais
- Resumo de texto eficiente
- Tarefas confiáveis de conclusão de código
Suporte multilíngue:
O modelo oferece suporte robusto a idiomas, incluindo Inglês, francês, alemão, espanhol e italiano., ampliando sua aplicabilidade global.
Arquitetura Técnica e Treinamento
Visão geral da arquitetura:
Mistral Tiny emprega um sistema sofisticado Arquitetura de transformadores, projetado para desempenho ideal:
- 🧱 Camadas: 12 camadas
- 🧠 Atenção, cabeças de vento! 12 cabeças de atenção por camada
- 📏 Tamanho oculto: 768 dimensões
- ↔️ Tamanho intermediário: 3072 dimensões
Essa arquitetura integra técnicas avançadas de atenção, como Atenção por Janela Deslizante (SWA) para gerenciar sequências longas de forma eficiente e manter a coerência contextual.
Dados de treinamento e limite de conhecimento:
O modelo foi rigorosamente treinado em um conjunto de dados diversificado, composto por mais de 7 trilhões de tokens de vários domínios. Este extenso corpus de treinamento garante uma sólida compreensão da linguagem e consciência contextual. O nível de conhecimento necessário para o Mistral Tiny é Setembro de 2023.
Diversidade e Mitigação de Preconceitos:
A Mistral AI priorizou a criação de um conjunto de dados de treinamento diversificado para mitigar ativamente os vieses relacionados a gênero, raça e ideologia. O design do modelo concentra-se em aprimorar sua aplicabilidade em um amplo espectro de contextos e tópicos, promovendo equidade e inclusão.
Indicadores de desempenho:
- 🎯 Precisão: Atinge uma taxa de precisão superior a 85% em tarefas de compreensão da linguagem.
- 📉 Pontuação de Perplexidade: Apresenta um baixo índice de perplexidade, indicando forte capacidade preditiva e alta confiança na geração de linguagem natural.
- 🏆 Pontuação F1: Mantém uma pontuação F1 acima de 0,75 em tarefas de classificação de texto.
Resultados da análise comparativa:
- 📈 MMLU (Compreensão Massiva de Linguagem em Multitarefas): Apresenta alto desempenho em diversas tarefas de compreensão de linguagem.
- 💻 Benchmark HumanEval (Para programação): Garante classificações competitivas entre modelos de tamanhos semelhantes, demonstrando sua capacidade em geração e compreensão de código.
Mistral Tiny vs. Outros Modelos Mistral
Mistral Tiny se destaca como um modelo de linguagem compacto e eficiente, projetado especificamente para velocidade e custo-benefício em aplicações simples. Precisão superior a 85% em tarefas simples.Oferece um valor excepcional para casos de uso direto.
- ➡️ Mistral Pequeno: Este modelo é adequado para tarefas em massa com latência moderada, atingindo Precisão de 72,2% Em relação aos indicadores de desempenho, busca-se equilibrar o desempenho com a utilização de recursos.
- ➡️ Mistral Grande: Excelente em tarefas complexas, oferecendo recursos avançados de raciocínio e suporte multilíngue abrangente. 84,0% de precisão, projetado para cenários extremamente exigentes.
- ➡️ Para aplicações excepcionalmente exigentes que requerem codificação superior e raciocínio complexo, considere Mixtral 8x7B, que fornece até Inferência 6 vezes mais rápida.
(Referenciado de: Instruções Mixtral 8x7B v0.1)
Como usar o Mistral Tiny
Exemplos de código e acesso à API:
Mistral Tiny está prontamente disponível no Plataforma de API de IA/ML sob o identificador "mistralai/mistral-minúsculo"Essa integração perfeita permite que os desenvolvedores incorporem rapidamente o Mistral Tiny em seus projetos.
Para obter orientações detalhadas de implementação, exemplos de código abrangentes e endpoints da API, consulte o guia completo. Documentação da API do AI.cc.
Informações sobre ética e licenciamento
Diretrizes Éticas:
A Mistral AI adere a diretrizes éticas rigorosas, promovendo o uso e o desenvolvimento responsáveis da IA. A organização prioriza a transparência em relação às capacidades e limitações do modelo, incentivando ativamente os desenvolvedores a considerarem cuidadosamente as implicações éticas da implementação de tecnologias de IA em aplicações do mundo real.
Licenciamento:
Mistral Tiny é lançado sob a licença permissiva. Licença Apache 2.0Essa abordagem de código aberto concede direitos de uso tanto comerciais quanto não comerciais, fomentando significativamente a colaboração da comunidade, a inovação e a ampla adoção em diversos setores.
Pronto para aproveitar o poder do Mistral Tiny?
Acesse a API Mistral Tiny e comece a criar seus aplicativos inovadores e eficientes hoje mesmo.
Obtenha a API Mistral Tiny aqui!Perguntas frequentes (FAQ)
P: Para que foi projetado principalmente o Mistral Tiny?
A: Mistral Tiny é um modelo de linguagem leve, otimizado para geração eficiente de texto, sumarização e conclusão de código. É particularmente eficaz em ambientes com recursos limitados que exigem respostas rápidas e baixa latência, como chatbots e ferramentas educacionais.
P: Quais são as principais especificações técnicas do Mistral Tiny?
A: Possui 106,6 milhões de parâmetros, requer apenas 0,4 GB de VRAM, suporta um extenso comprimento de contexto de 131.072 tokens e utiliza o LlamaTokenizer com um vocabulário de 32.000 tokens para um processamento de linguagem robusto.
P: Como o Mistral Tiny se compara ao Mistral Small ou ao Mistral Large?
A: O Mistral Tiny foi desenvolvido para oferecer velocidade e custo-benefício em tarefas simples (mais de 85% de precisão). O Mistral Small lida com tarefas em massa com latência moderada (72,2% de precisão), enquanto o Mistral Large se destaca em tarefas complexas, oferecendo raciocínio avançado e suporte multilíngue (84,0% de precisão).
P: Sob qual licença Mistral Tiny foi lançado?
A: O Mistral Tiny é distribuído sob a licença Apache 2.0, que concede amplas permissões para uso comercial e não comercial, promovendo a colaboração aberta e a inovação.
P: Quais idiomas o Mistral Tiny suporta?
A: O modelo suporta vários idiomas, tornando-o versátil para um público global. Entre eles, estão inglês, francês, alemão, espanhol e italiano.
Playground de IA



Conecte-se