



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-20b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
O GPT OSS 20B é uma inovação modelo de linguagem de peso aberto Desenvolvido pela OpenAI, especificamente otimizado para casos de uso de IA eficientes, locais e especializadosPossui fortes capacidades de raciocínio e codificação. Este modelo alcança um excelente equilíbrio de Alto desempenho e baixa latência, tornando-o excepcionalmente adequado para dispositivos de borda e aplicações que exigem iteração rápida ou requisitos computacionais menores. Projetado com fluxos de trabalho agéticos Com isso em mente, oferece suporte robusto para raciocínio em cadeia, chamada de funções e execução de código Python, incluindo: esforço de raciocínio personalizável e capacidades de saída estruturada.
🚀 Especificações técnicas
- ✔️ Tamanho do modelo: 20 bilhões de parâmetros no total, com 3,6 bilhões de parâmetros ativos durante a inferência.
- ✔️ Compatibilidade: Projetado para funcionar de forma eficiente com 16 GB de memória, priorizando baixa latência e implantação local.
- ✔️ Arquitetura: Um modelo exclusivamente textual que demonstra excelente capacidade de seguir instruções e uso sofisticado de ferramentas.
📊 Indicadores de desempenho
- 💡 Desempenho comparável: Atinge níveis de desempenho comparáveis ao modelo proprietário o3-mini da OpenAI em diversas tarefas de raciocínio e codificação.
- 💡 Implantação eficiente: Altamente eficiente para implantação em hardware de consumo e diversos dispositivos de borda.
- 💡 Aprendizagem avançada: Destaca-se em cenários de aprendizado com poucos exemplos, raciocínio complexo em várias etapas e integração robusta de ferramentas.
💰 Preços da API
- 💲 Tokens de entrada: US$ 0,033233 por milhão de tokens
- 💲 Tokens de saída: US$ 0,153248 por milhão de tokens
✨ Principais capacidades
- 🧠 Raciocínio Avançado: Oferece níveis de esforço de raciocínio configuráveis (baixo, médio, alto) para equilibrar de forma ideal a precisão com a latência.
- 🤖 Características Agênticas: Oferece suporte integrado a chamadas de função, navegação na web, execução de código e saídas estruturadas em fluxos de trabalho sofisticados.
- 💻 Geração de código: Altamente eficaz tanto na criação quanto na edição de código em uma ampla variedade de linguagens de programação.
- ⚡ Implantação leve: Projetado para operação eficiente em ambientes com recursos limitados e requisitos de hardware modestos.
🎯 Casos de uso ideais
- 📱 IA integrada ao dispositivo: Ideal para aplicações que exigem modelos de IA leves, porém poderosos, diretamente em dispositivos de borda.
- 🔄 Experimentação rápida: Facilita a experimentação e iteração rápidas em tarefas de codificação e análise.
- 🛠️ Integração flexível: Ideal para aplicações que se beneficiam de raciocínio adaptável e integração abrangente de ferramentas.
- 🔒 Implantações locais/offline: Uma excelente opção para cenários que priorizam a privacidade e o controle local de dados.
💻 Exemplo de código
// Exemplo de chamada de API usando GPT OSS 20B via cliente de API da OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # Ou seu endpoint personalizado para GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Você é um assistente útil e conciso."}, {"role": "user", "content": "Explique o conceito de aprendizado de máquina em uma frase."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Ocorreu um erro: {e}") Nota: Este exemplo de código Python expandido ilustra uma chamada de API típica para GPT OSS 20B, substituindo o snippet genérico original. Certifique-se de que sua chave de API e base_url estejam configuradas corretamente.
⚖️ Comparação com outros modelos
vs GPT OSS 120B: GPT OSS 20B Opera de forma eficiente com hardware limitado (16 GB de memória), tornando-o ideal para implantação local e rápida, com raciocínio e codificação robustos. Em contraste, GPT OSS 120B, com sua capacidade significativamente maior (120 bilhões de parâmetros), oferece maior precisão e foi projetado para tarefas de grande escala e alto poder computacional.
vs OpenAI o3-mini: GPT OSS 20B Apresenta desempenho comparável ao modelo proprietário o3-mini. Seus principais diferenciais são: acesso de peso livre e configuração flexível, oferecendo benefícios significativos para pesquisadores e desenvolvedores que priorizam a transparência e a personalização.
vs GLM-4.5: Enquanto GLM-4.5 Pode apresentar desempenho superior ao GPT OSS 20B em desafios práticos específicos de codificação e integração de ferramentas avançadas. GPT OSS 20B Mantém alta competitividade em tarefas de raciocínio geral e oferece implantação mais fácil em hardware com recursos limitados.
⚠️ Limitações e Considerações
- ❗ Limite de complexidade: Embora seja mais econômico do que modelos maiores, ele é menos potente do que o GPT OSS 120B para tarefas extremamente complexas.
- ❗ Design de prompts: Os melhores resultados são obtidos por meio de uma engenharia de instruções explícita e bem planejada.
- ❗ Dependência de hardware: O desempenho geral e a latência são diretamente influenciados pelos recursos de hardware subjacentes e pelo tamanho da entrada.
- ❗ Salvaguardas de Produção: Devido à sua natureza de peso variável, as empresas devem implementar medidas de segurança adicionais para garantir a segurança, a proteção e a conformidade da produção.
❓ Perguntas frequentes (FAQs)
O GPT OSS 20B é um modelo de linguagem de código aberto otimizado para casos de uso de IA eficientes, locais e especializados, destacando-se particularmente em tarefas de raciocínio e codificação. Ele foi desenvolvido para cenários que exigem um equilíbrio entre alto desempenho e baixa latência, especialmente em dispositivos de borda.
O modelo foi otimizado para funcionar de forma eficiente com 16 GB de memória, tornando-o acessível para implantação em hardware de consumo e diversos dispositivos de borda sem exigir grandes recursos computacionais.
Oferece suporte robusto para recursos de agentes, incluindo raciocínio configurável em cadeia, chamada de funções confiável, navegação na web, execução de código Python e a capacidade de gerar saídas estruturadas em fluxos de trabalho automatizados complexos.
Embora seja poderoso para muitas aplicações, o GPT OSS 20B é menos capaz do que modelos muito maiores, como o GPT OSS 120B, para tarefas extremamente complexas e de grande escala. Seu maior destaque é em ambientes com recursos limitados, onde a eficiência e a implantação local são essenciais.
A natureza de código aberto do GPT OSS 20B oferece aos desenvolvedores e pesquisadores acesso completo e flexibilidade para personalização e transparência. Isso beneficia aqueles que necessitam de conhecimento profundo sobre o funcionamento interno do modelo, configurações flexíveis e a capacidade de integrá-lo a sistemas proprietários com controle aprimorado.
Playground de IA



Conecte-se