qwen-bg
max-ico04
128 mil
Em
Fora
max-ico02
Bater papo
max-ico03
desativar
GPT OSS 20B
Leve, porém poderoso, o GPT OSS 20B suporta fluxos de trabalho com várias etapas, integração de ferramentas e funciona de forma eficiente em hardware com 16 GB de memória.
Tokens de $1 grátis para novos membros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-20b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Uma API com mais de 300 modelos de IA

Economize 20% nos custos e ganhe tokens grátis de $1.
qwenmax-bg
imagem
GPT OSS 20B

Detalhes do produto

O GPT OSS 20B é uma inovação modelo de linguagem de peso aberto Desenvolvido pela OpenAI, especificamente otimizado para casos de uso de IA eficientes, locais e especializadosPossui fortes capacidades de raciocínio e codificação. Este modelo alcança um excelente equilíbrio de Alto desempenho e baixa latência, tornando-o excepcionalmente adequado para dispositivos de borda e aplicações que exigem iteração rápida ou requisitos computacionais menores. Projetado com fluxos de trabalho agéticos Com isso em mente, oferece suporte robusto para raciocínio em cadeia, chamada de funções e execução de código Python, incluindo: esforço de raciocínio personalizável e capacidades de saída estruturada.

🚀 Especificações técnicas

  • ✔️ Tamanho do modelo: 20 bilhões de parâmetros no total, com 3,6 bilhões de parâmetros ativos durante a inferência.
  • ✔️ Compatibilidade: Projetado para funcionar de forma eficiente com 16 GB de memória, priorizando baixa latência e implantação local.
  • ✔️ Arquitetura: Um modelo exclusivamente textual que demonstra excelente capacidade de seguir instruções e uso sofisticado de ferramentas.

📊 Indicadores de desempenho

  • 💡 Desempenho comparável: Atinge níveis de desempenho comparáveis ​​ao modelo proprietário o3-mini da OpenAI em diversas tarefas de raciocínio e codificação.
  • 💡 Implantação eficiente: Altamente eficiente para implantação em hardware de consumo e diversos dispositivos de borda.
  • 💡 Aprendizagem avançada: Destaca-se em cenários de aprendizado com poucos exemplos, raciocínio complexo em várias etapas e integração robusta de ferramentas.

💰 Preços da API

  • 💲 Tokens de entrada: US$ 0,033233 por milhão de tokens
  • 💲 Tokens de saída: US$ 0,153248 por milhão de tokens

Principais capacidades

  • 🧠 Raciocínio Avançado: Oferece níveis de esforço de raciocínio configuráveis ​​(baixo, médio, alto) para equilibrar de forma ideal a precisão com a latência.
  • 🤖 Características Agênticas: Oferece suporte integrado a chamadas de função, navegação na web, execução de código e saídas estruturadas em fluxos de trabalho sofisticados.
  • 💻 Geração de código: Altamente eficaz tanto na criação quanto na edição de código em uma ampla variedade de linguagens de programação.
  • Implantação leve: Projetado para operação eficiente em ambientes com recursos limitados e requisitos de hardware modestos.

🎯 Casos de uso ideais

  • 📱 IA integrada ao dispositivo: Ideal para aplicações que exigem modelos de IA leves, porém poderosos, diretamente em dispositivos de borda.
  • 🔄 Experimentação rápida: Facilita a experimentação e iteração rápidas em tarefas de codificação e análise.
  • 🛠️ Integração flexível: Ideal para aplicações que se beneficiam de raciocínio adaptável e integração abrangente de ferramentas.
  • 🔒 Implantações locais/offline: Uma excelente opção para cenários que priorizam a privacidade e o controle local de dados.

💻 Exemplo de código

 // Exemplo de chamada de API usando GPT OSS 20B via cliente de API da OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # Ou seu endpoint personalizado para GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Você é um assistente útil e conciso."}, {"role": "user", "content": "Explique o conceito de aprendizado de máquina em uma frase."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Ocorreu um erro: {e}") 

Nota: Este exemplo de código Python expandido ilustra uma chamada de API típica para GPT OSS 20B, substituindo o snippet genérico original. Certifique-se de que sua chave de API e base_url estejam configuradas corretamente.

⚖️ Comparação com outros modelos

vs GPT OSS 120B: GPT OSS 20B Opera de forma eficiente com hardware limitado (16 GB de memória), tornando-o ideal para implantação local e rápida, com raciocínio e codificação robustos. Em contraste, GPT OSS 120B, com sua capacidade significativamente maior (120 bilhões de parâmetros), oferece maior precisão e foi projetado para tarefas de grande escala e alto poder computacional.

vs OpenAI o3-mini: GPT OSS 20B Apresenta desempenho comparável ao modelo proprietário o3-mini. Seus principais diferenciais são: acesso de peso livre e configuração flexível, oferecendo benefícios significativos para pesquisadores e desenvolvedores que priorizam a transparência e a personalização.

vs GLM-4.5: Enquanto GLM-4.5 Pode apresentar desempenho superior ao GPT OSS 20B em desafios práticos específicos de codificação e integração de ferramentas avançadas. GPT OSS 20B Mantém alta competitividade em tarefas de raciocínio geral e oferece implantação mais fácil em hardware com recursos limitados.

⚠️ Limitações e Considerações

  • Limite de complexidade: Embora seja mais econômico do que modelos maiores, ele é menos potente do que o GPT OSS 120B para tarefas extremamente complexas.
  • Design de prompts: Os melhores resultados são obtidos por meio de uma engenharia de instruções explícita e bem planejada.
  • Dependência de hardware: O desempenho geral e a latência são diretamente influenciados pelos recursos de hardware subjacentes e pelo tamanho da entrada.
  • Salvaguardas de Produção: Devido à sua natureza de peso variável, as empresas devem implementar medidas de segurança adicionais para garantir a segurança, a proteção e a conformidade da produção.

Perguntas frequentes (FAQs)

P1: Para que serve principalmente o GPT OSS 20B?

O GPT OSS 20B é um modelo de linguagem de código aberto otimizado para casos de uso de IA eficientes, locais e especializados, destacando-se particularmente em tarefas de raciocínio e codificação. Ele foi desenvolvido para cenários que exigem um equilíbrio entre alto desempenho e baixa latência, especialmente em dispositivos de borda.

Q2: Quais são os requisitos de memória para o GPT OSS 20B?

O modelo foi otimizado para funcionar de forma eficiente com 16 GB de memória, tornando-o acessível para implantação em hardware de consumo e diversos dispositivos de borda sem exigir grandes recursos computacionais.

P3: Como o GPT OSS 20B oferece suporte a fluxos de trabalho com agentes?

Oferece suporte robusto para recursos de agentes, incluindo raciocínio configurável em cadeia, chamada de funções confiável, navegação na web, execução de código Python e a capacidade de gerar saídas estruturadas em fluxos de trabalho automatizados complexos.

Q4: O GPT OSS 20B é adequado para tarefas altamente complexas e de grande escala?

Embora seja poderoso para muitas aplicações, o GPT OSS 20B é menos capaz do que modelos muito maiores, como o GPT OSS 120B, para tarefas extremamente complexas e de grande escala. Seu maior destaque é em ambientes com recursos limitados, onde a eficiência e a implantação local são essenciais.

Q5: Que vantagem exclusiva proporciona a sua natureza "sem peso"?

A natureza de código aberto do GPT OSS 20B oferece aos desenvolvedores e pesquisadores acesso completo e flexibilidade para personalização e transparência. Isso beneficia aqueles que necessitam de conhecimento profundo sobre o funcionamento interno do modelo, configurações flexíveis e a capacidade de integrá-lo a sistemas proprietários com controle aprimorado.

Playground de IA

Teste todos os modelos de API no ambiente de sandbox antes de integrá-los. Oferecemos mais de 300 modelos para integrar ao seu aplicativo.
Experimente grátis
api-right-1
modelo-bg02-1

Uma API
Mais de 300 modelos de IA

Economize 20% nos custos