



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-20b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
El GPT OSS 20B es una innovación modelo de lenguaje de peso abierto desarrollado por OpenAI, específicamente optimizado para casos de uso de IA eficientes, locales y especializadosCuenta con sólidas capacidades de razonamiento y codificación. Este modelo logra un excelente equilibrio de Alto rendimiento y baja latencia, lo que lo hace excepcionalmente adecuado para dispositivos de borde y aplicaciones que requieren iteración rápida o menores requisitos computacionales. Diseñado con flujos de trabajo con agentes Teniendo esto en cuenta, proporciona un sólido soporte para el razonamiento en cadena de pensamiento, la llamada a funciones y la ejecución de código Python, completo con esfuerzo de razonamiento personalizable y capacidades de salida estructurada.
🚀 Especificaciones técnicas
- ✔️ Tamaño del modelo: Un total de 20 mil millones de parámetros, con 3.6 mil millones de parámetros activos durante la inferencia.
- ✔️ Compatibilidad: Diseñado para funcionar de manera eficiente con 16 GB de memoria, priorizando una menor latencia y la implementación local.
- ✔️ Arquitectura: Un modelo basado únicamente en texto que demuestra una capacidad superior para seguir instrucciones y un uso sofisticado de las herramientas.
📊 Indicadores de rendimiento
- 💡 Rendimiento comparable: Alcanza niveles de rendimiento comparables a los del modelo propietario o3-mini de OpenAI en numerosas tareas de razonamiento y codificación.
- 💡 Despliegue eficiente: Altamente eficiente para su implementación en hardware de consumo y diversos dispositivos periféricos.
- 💡 Aprendizaje avanzado: Destaca en escenarios de aprendizaje con pocos ejemplos, razonamiento complejo de varios pasos e integración sólida de herramientas.
💰 Precios de API
- 💲 Tokens de entrada: 0,033233 dólares por millón de tokens
- 💲 Tokens de salida: 0,153248 dólares por millón de tokens
✨ Capacidades clave
- 🧠 Razonamiento avanzado: Ofrece niveles de esfuerzo de razonamiento configurables (bajo, medio, alto) para equilibrar de forma óptima la precisión con la latencia.
- 🤖 Características de Agentic: Admite sin problemas la llamada a funciones, la navegación web, la ejecución de código y la generación de resultados estructurados dentro de flujos de trabajo sofisticados.
- 💻 Generación de código: Altamente eficaz tanto en la producción como en la edición de código en una amplia gama de lenguajes de programación.
- ⚡ Despliegue ligero: Diseñado para un funcionamiento eficiente en entornos con recursos limitados y requisitos de hardware modestos.
🎯 Casos de uso óptimos
- 📱 Inteligencia artificial integrada en el dispositivo: Ideal para aplicaciones que requieren modelos de IA ligeros pero potentes directamente en dispositivos periféricos.
- 🔄 Experimentación rápida: Facilita la experimentación y la iteración rápidas en tareas de codificación y análisis.
- 🛠️ Integración flexible: Ideal para aplicaciones que se benefician de una profundidad de razonamiento adaptable y una integración completa de herramientas.
- 🔒 Implementaciones locales/sin conexión: Una excelente opción para situaciones en las que se prioriza la privacidad y el control local de los datos.
💻 Ejemplo de código
// Ejemplo de llamada a la API usando GPT OSS 20B a través del cliente API de OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # O tu endpoint personalizado para GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Eres un asistente útil y conciso."}, {"role": "user", "content": "Explica el concepto de aprendizaje automático en una frase."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Ocurrió un error: {e}") Nota: Este ejemplo de código Python ampliado ilustra una llamada típica a la API de GPT OSS 20B, reemplazando el fragmento de código genérico original. Asegúrese de que su clave API y la URL base estén configuradas correctamente.
⚖️ Comparación con otros modelos
vs GPT OSS 120B: GPT OSS 20B funciona de manera eficiente con hardware limitado (16 GB de memoria), lo que lo hace ideal para una implementación local y rápida con razonamiento y codificación robustos. En contraste, GPT OSS 120BCon su capacidad significativamente mayor (120 mil millones de parámetros), ofrece una mayor precisión y está diseñado para tareas de gran escala y alta capacidad de cálculo.
vs OpenAI o3-mini: GPT OSS 20B demuestra un rendimiento comparable al del modelo propietario o3-mini. Sus principales diferenciadores son: acceso de peso libre y una configuración flexible, que ofrece importantes ventajas a los investigadores y desarrolladores que priorizan la transparencia y la personalización.
vs GLM-4.5: Mientras GLM-4.5 puede superar a GPT OSS 20B en desafíos de codificación prácticos específicos e integración de herramientas avanzadas, GPT OSS 20B Mantiene una sólida competitividad en tareas de razonamiento general y ofrece una implementación más sencilla en hardware con recursos limitados.
⚠️ Limitaciones y consideraciones
- ❗ Límite de complejidad: Si bien resulta más rentable que los modelos más grandes, es menos potente que el GPT OSS 120B para tareas extremadamente complejas.
- ❗ Diseño de la solicitud: Los resultados óptimos se logran mejor mediante una ingeniería de precisión explícita y bien diseñada.
- ❗ Dependencia de hardware: El rendimiento general y la latencia se ven directamente influenciados por las capacidades del hardware subyacente y el tamaño de la entrada.
- ❗ Medidas de seguridad en la producción: Debido a su naturaleza de peso variable, las empresas deben implementar medidas de seguridad adicionales para garantizar la seguridad, la protección y el cumplimiento normativo en la producción.
❓ Preguntas frecuentes (FAQ)
GPT OSS 20B es un modelo de lenguaje de ponderación abierta optimizado para casos de uso de IA eficientes, locales y especializados, destacando especialmente en tareas de razonamiento y codificación. Está diseñado para escenarios que requieren un equilibrio entre alto rendimiento y baja latencia, sobre todo en dispositivos periféricos.
El modelo está optimizado para funcionar de manera eficiente con 16 GB de memoria, lo que permite su implementación en hardware de consumo y diversos dispositivos periféricos sin requerir amplios recursos computacionales.
Ofrece un sólido soporte para funciones de agente, incluyendo razonamiento de cadena de pensamiento configurable, llamada de funciones fiable, navegación web, ejecución de código Python y la capacidad de generar resultados estructurados dentro de flujos de trabajo automatizados complejos.
Si bien el GPT OSS 20B es potente para muchas aplicaciones, su capacidad es menor que la de modelos mucho más grandes, como el GPT OSS 120B, para tareas extremadamente complejas y a gran escala. Destaca especialmente en entornos con recursos limitados, donde la eficiencia y la implementación local son fundamentales.
La naturaleza de libre acceso de GPT OSS 20B proporciona a desarrolladores e investigadores acceso completo y flexibilidad para la personalización y la transparencia. Esto beneficia a quienes requieren un conocimiento profundo del funcionamiento interno del modelo, configuraciones flexibles y la capacidad de integrarlo en sistemas propietarios con un control mejorado.
Campo de juegos de IA



Acceso