



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-120b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
GPT OSS 120B é de vanguarda, modelo de linguagem de código aberto em larga escala Projetado para raciocínio de alta capacidade, codificação avançada e uma ampla gama de tarefas de propósito geral. Ele equilibra habilmente o desempenho de ponta esperado de modelos com mais de 100 bilhões de parâmetros com notável eficiência de custosdemocratizando o acesso para pesquisadores e desenvolvedores. O GPT OSS 120B se destaca em diversas aplicações, desde geração de texto e raciocínio lógico em várias etapas até compreensão multilíngue abrangente.
⚙️Especificações técnicas
- Desempenho robusto: Atinge uma precisão comparável aos modelos GPT de ponta em testes de raciocínio.
- Habilidade em Programação: Altamente competitivo em desafios de programação acadêmicos e industriais contra outros grandes modelos de fundação.
- Raciocínio versátil: Forte capacidade de raciocínio em múltiplas áreas, incluindo STEM (Ciência, Tecnologia, Engenharia e Matemática), compreensão de linguagem natural e diálogos complexos.
Indicadores de desempenho
- Tamanho do modelo: 120 bilhões de parâmetros
- Janela de contexto: 128 mil tokens
Preços da API
- Tokens de entrada: $ 0,04431 por milhão de tokens
- Tokens de saída: $ 0,4431 por milhão de tokens
💡Principais capacidades
- Raciocínio Avançado: Emprega modos de inferência de cadeia de raciocínio e híbridos para a resolução eficiente de problemas em várias etapas.
- Suporte a entrada multimodal: Processa nativamente entradas de texto e imagem para uma compreensão contextual rica (planejada ou disponível).
- Integração de ferramentas: Suporta o uso de ferramentas externas (por exemplo, execução de Python, navegação na web, chamadas de API) para fluxos de trabalho autônomos.
- Geração de código: Gera e edita código em várias linguagens com desempenho próximo ao de um especialista.
- Contexto escalável: O comprimento de contexto estendido lida de forma eficiente com documentos grandes, bases de código extensas e conversas longas.
🎯Casos de uso ideais
- Análise de documentos em larga escala: Ideal para sintetizar grandes quantidades de informação.
- Desenvolvimento de Software: Assistência avançada para codificação e depuração complexas.
- Pesquisa aprofundada: Suporta projetos que exigem raciocínio complexo e fluxos de trabalho com várias etapas.
- Aplicações de IA multimodal: Excelente para tarefas que envolvem dados textuais e visuais.
- Implantações com foco na redução de custos: Alta capacidade de modelagem com custo-benefício relativo para diversas aplicações.
💻Exemplo de código
🆚Comparação com outros modelos
vs GPT-4o Mini: O GPT OSS 120B apresenta um número significativamente maior de parâmetros, destacando-se no raciocínio de alta capacidade e na geração de código. Em contraste, o GPT-4o Mini foi projetado para operações menores e mais econômicas, com suporte multimodal integrado para texto e imagens.
vs GLM-4.5: Embora o GLM-4.5 apresente mais parâmetros totais e ativos, liderando em integração de ferramentas avançadas e desempenho de tarefas com agentes, o GPT OSS 120B permanece altamente competitivo com fortes benchmarks de raciocínio e maior eficiência em hardware de menor porte.
🚧Limitações e Considerações
- Custo: Reflete suas capacidades avançadas e escala, resultando em custos mais elevados em comparação com modelos menores.
- Design de prompts: O desempenho ideal em tarefas altamente criativas ou de final aberto requer engenharia de instruções explícita.
- Latência e taxa de transferência: Dependendo do tamanho da entrada e da carga do modelo, contextos maiores resultarão em tempos de processamento mais longos.
❓Perguntas frequentes (FAQ)
O que é GPT OSS 120B?
O GPT OSS 120B é um modelo de linguagem de código aberto em larga escala, projetado para raciocínio avançado, codificação e tarefas de IA de propósito geral, equilibrando alto desempenho com custo-benefício.
Quais são as principais funcionalidades do GPT OSS 120B?
Suas principais funcionalidades incluem raciocínio avançado com resolução de problemas em várias etapas, suporte planejado para entrada multimodal (texto e imagem), integração com ferramentas externas, geração de código de nível especializado e gerenciamento de contexto escalável para documentos e conversas extensas.
Como o GPT OSS 120B se compara a outros modelos como o GPT-4o Mini?
O GPT OSS 120B oferece um número significativamente maior de parâmetros (120B) e se destaca no raciocínio complexo e na geração de código, enquanto o GPT-4o Mini é menor, mais econômico e possui suporte multimodal integrado.
Quais são os detalhes de preços da API para o GPT OSS 120B?
O preço da API é definido em US$ 0,04431 por milhão de tokens de entrada e US$ 0,4431 por milhão de tokens de saída.
Quais são as principais limitações do GPT OSS 120B?
As limitações incluem custos mais elevados que refletem sua escala avançada, a necessidade de um projeto de instruções explícito em tarefas altamente criativas e variações de latência/taxa de transferência com base no tamanho da entrada e na carga do modelo.
Playground de IA



Conecte-se