qwen-bg
max-ico04
128K
En
Afuera
max-ico02
Charlar
max-ico03
desactivar
GPT OSS 20B
Ligero pero potente, GPT OSS 20B admite flujos de trabajo de varios pasos, integración de herramientas y se ejecuta de manera eficiente en hardware con 16 GB de memoria.
Tokens gratis de $1 para nuevos miembros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-20b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Una API con más de 300 modelos de IA

Ahorre un 20% en costos y $1 en tokens gratis
qwenmax-bg
imagen
GPT OSS 20B

Detalle del producto

El GPT OSS 20B es una innovadora modelo de lenguaje de peso abierto Desarrollado por OpenAI, específicamente optimizado para Casos de uso de IA eficientes, locales y especializadosCuenta con sólidas capacidades de razonamiento y codificación. Este modelo logra un excelente equilibrio entre Alto rendimiento y baja latencia, lo que lo hace excepcionalmente adecuado para dispositivos de borde y aplicaciones que exigen iteraciones rápidas o menores requisitos computacionales. Diseñado con flujos de trabajo de agentes En mente, proporciona un soporte sólido para el razonamiento en cadena de pensamiento, la llamada a funciones y la ejecución de código Python, completo con esfuerzo de razonamiento personalizable y capacidades de salida estructuradas.

🚀 Especificaciones técnicas

  • ✔️ Tamaño del modelo: 20 mil millones de parámetros en total, con 3,6 mil millones de parámetros activos durante la inferencia.
  • ✔️ Compatibilidad: Diseñado para funcionar de manera eficiente con una memoria de 16 GB, priorizando la menor latencia y la implementación local.
  • ✔️ Arquitectura: Un modelo de solo texto que demuestra un seguimiento superior de instrucciones y un uso sofisticado de herramientas.

📊 Puntos de referencia de rendimiento

  • 💡 Rendimiento comparable: Logra niveles de rendimiento comparables al modelo o3-mini propietario de OpenAI en numerosas tareas de razonamiento y codificación.
  • 💡 Implementación eficiente: Altamente eficiente para implementación en hardware de consumo y diversos dispositivos de borde.
  • 💡 Aprendizaje avanzado: Se destaca en escenarios de aprendizaje de pocos disparos, razonamiento complejo de varios pasos e integración sólida de herramientas.

💰 Precios de la API

  • 💲 Tokens de entrada: $0,033233 por millón de tokens
  • 💲 Tokens de salida: $0,153248 por millón de tokens

Capacidades clave

  • 🧠 Razonamiento avanzado: Ofrece niveles de esfuerzo de razonamiento configurables (bajo, medio, alto) para equilibrar de forma óptima la precisión con la latencia.
  • 🤖 Características de Agentic: Admite sin problemas llamadas de funciones, navegación web, ejecución de código y salidas estructuradas dentro de flujos de trabajo sofisticados.
  • 💻 Generación de código: Altamente eficaz tanto en la producción como en la edición de código en una amplia gama de lenguajes de programación.
  • Implementación ligera: Diseñado para un funcionamiento eficiente en entornos con recursos limitados y requisitos de hardware modestos.

🎯 Casos de uso óptimos

  • 📱 IA en el dispositivo: Perfecto para aplicaciones que exigen modelos de IA livianos pero potentes directamente en dispositivos de borde.
  • 🔄 Experimentación rápida: Facilita la experimentación y la iteración rápidas en tareas de codificación y análisis.
  • 🛠️ Integración flexible: Ideal para aplicaciones que se benefician de una profundidad de razonamiento adaptable y una integración integral de herramientas.
  • 🔒 Implementaciones locales/fuera de línea: Una excelente opción para escenarios que priorizan la privacidad y el control de datos locales.

💻 Ejemplo de código

 // Ejemplo de llamada a la API usando GPT OSS 20B a través del cliente API de OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # O su punto final personalizado para GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Eres un asistente útil y conciso."}, {"role": "user", "content": "Explica el concepto de aprendizaje automático en una oración."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"An error occurred: {e}") 

Nota: Este ejemplo de código Python ampliado ilustra una llamada típica a la API para GPT OSS 20B, reemplazando el fragmento genérico original. Asegúrese de que su clave API y base_url estén correctamente configuradas.

⚖️ Comparación con otros modelos

frente a GPT OSS 120B: GPT OSS 20B Funciona eficientemente con hardware limitado (memoria de 16 GB), lo que lo hace ideal para una implementación local y rápida con razonamiento y codificación robustos. Por el contrario, GPT OSS 120B, con su capacidad significativamente mayor (parámetros de 120 B), proporciona mayor precisión y está diseñado para tareas de gran escala y alto consumo de recursos.

frente a OpenAI o3-mini: GPT OSS 20B Demuestra un rendimiento comparable al del modelo propietario o3-mini. Sus principales diferenciadores son acceso de peso abierto y una configuración flexible, que ofrece importantes beneficios a los investigadores y desarrolladores que priorizan la transparencia y la personalización.

frente a GLM-4.5: Mientras GLM-4.5 puede superar a GPT OSS 20B en desafíos de codificación práctica específicos e integración de herramientas avanzadas, GPT OSS 20B Mantiene una fuerte competitividad en tareas de razonamiento general y ofrece una implementación más sencilla en hardware con recursos limitados.

⚠️ Limitaciones y consideraciones

  • Límite de complejidad: Si bien es más rentable que los modelos más grandes, es menos potente que el GPT OSS 120B para tareas extremadamente complejas.
  • Diseño del mensaje: Los resultados óptimos se logran mejor a través de una ingeniería de indicaciones explícita y bien diseñada.
  • Dependencia del hardware: El rendimiento general y la latencia están influenciados directamente por las capacidades del hardware subyacente y el tamaño de la entrada.
  • Medidas de seguridad de producción: Debido a su naturaleza abierta, las empresas deben implementar salvaguardas adicionales para la seguridad, protección y cumplimiento de la producción.

Preguntas frecuentes (FAQ)

P1: ¿Para qué está diseñado principalmente GPT OSS 20B?

GPT OSS 20B es un modelo de lenguaje de peso abierto optimizado para casos de uso de IA eficientes, locales y especializados, especialmente en tareas de razonamiento y codificación. Está diseñado para escenarios que requieren un equilibrio entre alto rendimiento y baja latencia, especialmente en dispositivos edge.

P2: ¿Cuáles son los requisitos de memoria para GPT OSS 20B?

El modelo está optimizado para ejecutarse de manera eficiente con 16 GB de memoria, lo que lo hace accesible para su implementación en hardware de consumo y diversos dispositivos periféricos sin demandar amplios recursos computacionales.

P3: ¿Cómo soporta GPT OSS 20B los flujos de trabajo de agentes?

Ofrece un soporte sólido para funciones de agente, incluido razonamiento en cadena de pensamiento configurable, llamada de funciones confiable, navegación web, ejecución de código Python y la capacidad de generar resultados estructurados dentro de flujos de trabajo automatizados complejos.

P4: ¿GPT OSS 20B es adecuado para tareas de gran escala y altamente complejas?

Si bien es potente para muchas aplicaciones, el GPT OSS 20B es menos capaz que modelos mucho más grandes, como el GPT OSS 120B, para tareas extremadamente complejas y a gran escala. Destaca especialmente en entornos con recursos limitados, donde la eficiencia y la implementación local son clave.

P5: ¿Qué ventaja única proporciona su naturaleza de “peso abierto”?

La naturaleza abierta de GPT OSS 20B ofrece a desarrolladores e investigadores acceso completo y flexibilidad para la personalización y la transparencia. Esto beneficia a quienes requieren un conocimiento profundo de los componentes internos del modelo, configuraciones flexibles y la capacidad de integrarlo en sistemas propietarios con un control mejorado.

Patio de juegos de IA

Pruebe todos los modelos de API en el entorno de pruebas antes de integrarlos. Ofrecemos más de 300 modelos para integrar en su aplicación.
Pruébalo gratis
api-right-1
modelo-bg02-1

Una API
Más de 300 modelos de IA

Ahorre un 20% en costos