qwen-bg
max-ico04
32 mil
Em
Fora
max-ico02
Bater papo
max-ico03
desativar
Mistral Pequeno
Descubra a Mistral Tiny API, um modelo de linguagem compacto otimizado para velocidade, eficiência, suporte multilíngue e recursos avançados de geração de texto.
Tokens de $1 grátis para novos membros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'mistralai/mistral-tiny',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="mistralai/mistral-tiny",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Uma API com mais de 300 modelos de IA

Economize 20% nos custos e ganhe tokens grátis de $1.
qwenmax-bg
imagem
Mistral Pequeno

Detalhes do produto

Apresentando o Mistral Tiny: Seu modelo de linguagem leve para IA eficiente.

Mistral Tiny, desenvolvido por IA Mistral e lançado oficialmente em Outubro de 2024 (Versão 1.0) é um modelo de linguagem leve e de última geração, projetado para oferecer eficiência notável em diversas tarefas baseadas em texto. Este modelo de tipo de texto é especificamente otimizado para operar com eficácia em ambientes com recursos limitados, garantindo alto desempenho mesmo com recursos computacionais restritos.

Informações básicas:

  • Nome do modelo: Mistral Pequeno
  • 👩‍💻 Desenvolvedor/Criador: IA Mistral
  • 🗓️ Data de lançamento: Outubro de 2024
  • 🔄 Versão: 1.0
  • 📝 Tipo de modelo: Texto

Principais capacidades e especificações

Principais características:

  • 📏 Tamanho do modelo: Um compacto 106,6 milhões de parâmetros.
  • 💾 Memória VRAM necessária: Apenas 0,4 GB, tornando-o incrivelmente acessível para dispositivos com recursos limitados.
  • 📖 Comprimento do contexto: Suporta um extenso comprimento máximo de contexto de 131.072 tokens, permitindo um gerenciamento abrangente do contexto.
  • ⚙️ Classe Tokenizadora: Utiliza o LlamaTokenizer com um vocabulário de tamanho 32.000 tokens.
  • 🛠️ Estrutura de Treinamento: Construído sobre a arquitetura MistralForCausalLM, compatível com a versão 4.39.1 do Transformers.

Aplicações pretendidas:

Mistral Tiny é perfeitamente adequado para aplicações que exigem respostas rápidas e processamento de baixa latência, sendo ideal para:

  • Chatbots
  • Geração automatizada de conteúdo
  • Ferramentas educacionais
  • Resumo de texto eficiente
  • Tarefas confiáveis ​​de conclusão de código

Suporte multilíngue:

O modelo oferece suporte robusto a idiomas, incluindo Inglês, francês, alemão, espanhol e italiano., ampliando sua aplicabilidade global.

Arquitetura Técnica e Treinamento

Visão geral da arquitetura:

Mistral Tiny emprega um sistema sofisticado Arquitetura de transformadores, projetado para desempenho ideal:

  • 🧱 Camadas: 12 camadas
  • 🧠 Atenção, cabeças de vento! 12 cabeças de atenção por camada
  • 📏 Tamanho oculto: 768 dimensões
  • ↔️ Tamanho intermediário: 3072 dimensões

Essa arquitetura integra técnicas avançadas de atenção, como Atenção por Janela Deslizante (SWA) para gerenciar sequências longas de forma eficiente e manter a coerência contextual.

Dados de treinamento e limite de conhecimento:

O modelo foi rigorosamente treinado em um conjunto de dados diversificado, composto por mais de 7 trilhões de tokens de vários domínios. Este extenso corpus de treinamento garante uma sólida compreensão da linguagem e consciência contextual. O nível de conhecimento necessário para o Mistral Tiny é Setembro de 2023.

Diversidade e Mitigação de Preconceitos:

A Mistral AI priorizou a criação de um conjunto de dados de treinamento diversificado para mitigar ativamente os vieses relacionados a gênero, raça e ideologia. O design do modelo concentra-se em aprimorar sua aplicabilidade em um amplo espectro de contextos e tópicos, promovendo equidade e inclusão.

Indicadores de desempenho:

  • 🎯 Precisão: Atinge uma taxa de precisão superior a 85% em tarefas de compreensão da linguagem.
  • 📉 Pontuação de Perplexidade: Apresenta um baixo índice de perplexidade, indicando forte capacidade preditiva e alta confiança na geração de linguagem natural.
  • 🏆 Pontuação F1: Mantém uma pontuação F1 acima de 0,75 em tarefas de classificação de texto.

Resultados da análise comparativa:

  • 📈 MMLU (Compreensão Massiva de Linguagem em Multitarefas): Apresenta alto desempenho em diversas tarefas de compreensão de linguagem.
  • 💻 Benchmark HumanEval (Para programação): Garante classificações competitivas entre modelos de tamanhos semelhantes, demonstrando sua capacidade em geração e compreensão de código.

Mistral Tiny vs. Outros Modelos Mistral

Mistral Tiny se destaca como um modelo de linguagem compacto e eficiente, projetado especificamente para velocidade e custo-benefício em aplicações simples. Precisão superior a 85% em tarefas simples.Oferece um valor excepcional para casos de uso direto.

  • ➡️ Mistral Pequeno: Este modelo é adequado para tarefas em massa com latência moderada, atingindo Precisão de 72,2% Em relação aos indicadores de desempenho, busca-se equilibrar o desempenho com a utilização de recursos.
  • ➡️ Mistral Grande: Excelente em tarefas complexas, oferecendo recursos avançados de raciocínio e suporte multilíngue abrangente. 84,0% de precisão, projetado para cenários extremamente exigentes.
  • ➡️ Para aplicações excepcionalmente exigentes que requerem codificação superior e raciocínio complexo, considere Mixtral 8x7B, que fornece até Inferência 6 vezes mais rápida.
    (Referenciado de: Instruções Mixtral 8x7B v0.1)

Como usar o Mistral Tiny

Exemplos de código e acesso à API:

Mistral Tiny está prontamente disponível no Plataforma de API de IA/ML sob o identificador "mistralai/mistral-minúsculo"Essa integração perfeita permite que os desenvolvedores incorporem rapidamente o Mistral Tiny em seus projetos.

Para obter orientações detalhadas de implementação, exemplos de código abrangentes e endpoints da API, consulte o guia completo. Documentação da API do AI.cc.

Informações sobre ética e licenciamento

Diretrizes Éticas:

A Mistral AI adere a diretrizes éticas rigorosas, promovendo o uso e o desenvolvimento responsáveis ​​da IA. A organização prioriza a transparência em relação às capacidades e limitações do modelo, incentivando ativamente os desenvolvedores a considerarem cuidadosamente as implicações éticas da implementação de tecnologias de IA em aplicações do mundo real.

Licenciamento:

Mistral Tiny é lançado sob a licença permissiva. Licença Apache 2.0Essa abordagem de código aberto concede direitos de uso tanto comerciais quanto não comerciais, fomentando significativamente a colaboração da comunidade, a inovação e a ampla adoção em diversos setores.

Pronto para aproveitar o poder do Mistral Tiny?

Acesse a API Mistral Tiny e comece a criar seus aplicativos inovadores e eficientes hoje mesmo.

Obtenha a API Mistral Tiny aqui!

Perguntas frequentes (FAQ)

P: Para que foi projetado principalmente o Mistral Tiny?

A: Mistral Tiny é um modelo de linguagem leve, otimizado para geração eficiente de texto, sumarização e conclusão de código. É particularmente eficaz em ambientes com recursos limitados que exigem respostas rápidas e baixa latência, como chatbots e ferramentas educacionais.

P: Quais são as principais especificações técnicas do Mistral Tiny?

A: Possui 106,6 milhões de parâmetros, requer apenas 0,4 GB de VRAM, suporta um extenso comprimento de contexto de 131.072 tokens e utiliza o LlamaTokenizer com um vocabulário de 32.000 tokens para um processamento de linguagem robusto.

P: Como o Mistral Tiny se compara ao Mistral Small ou ao Mistral Large?

A: O Mistral Tiny foi desenvolvido para oferecer velocidade e custo-benefício em tarefas simples (mais de 85% de precisão). O Mistral Small lida com tarefas em massa com latência moderada (72,2% de precisão), enquanto o Mistral Large se destaca em tarefas complexas, oferecendo raciocínio avançado e suporte multilíngue (84,0% de precisão).

P: Sob qual licença Mistral Tiny foi lançado?

A: O Mistral Tiny é distribuído sob a licença Apache 2.0, que concede amplas permissões para uso comercial e não comercial, promovendo a colaboração aberta e a inovação.

P: Quais idiomas o Mistral Tiny suporta?

A: O modelo suporta vários idiomas, tornando-o versátil para um público global. Entre eles, estão inglês, francês, alemão, espanhol e italiano.

Playground de IA

Teste todos os modelos de API no ambiente de sandbox antes de integrá-los. Oferecemos mais de 300 modelos para integrar ao seu aplicativo.
Experimente grátis
api-right-1
modelo-bg02-1

Uma API
Mais de 300 modelos de IA

Economize 20% nos custos