



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/QwQ-32B',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/QwQ-32B",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
✨ Presentamos QwQ-32B: un modelo de lenguaje potente y eficiente
El QwQ-32B Es un modelo de lenguaje de vanguardia con 32 mil millones de parámetros, diseñado para un rendimiento excepcional en razonamiento avanzado, codificación y resolución de problemas complejos. Mediante una innovadora combinación de aprendizaje por refuerzo y razonamiento agéntico, QwQ-32B ofrece capacidades que a menudo solo se encuentran en modelos con un número significativamente mayor de parámetros. Cuenta con una amplia ventana de contexto de hasta 131 mil tokens, lo que lo hace increíblemente eficaz para gestionar y comprender flujos de trabajo complejos y extensos.
Este modelo compacto pero robusto destaca por su eficiencia y adaptabilidad, lo que lo posiciona como una opción ideal para agentes de IA dinámicos y tareas de razonamiento especializadas. Logra... casi paridad con modelos mucho más grandes (p. ej., DeepSeek-R1 671B) en estándares exigentes de razonamiento y codificación. QwQ-32B destaca especialmente en la resolución de problemas matemáticos, flujos de trabajo lógicos y razonamiento adaptativo, demostrando un manejo sólido de documentos extensos y tareas con contexto complejo.
⚙️ Especificaciones técnicas
- Tamaño del modelo: 32.5 mil millones de parámetros (31 mil millones sin incrustar)
- Capas: 64 capas de transformador
- Ventana de contexto: 131.072 tokens
- Arquitectura: Transformador con codificación posicional RoPE, activaciones SwiGLU, RMSNorm y sesgo de atención QKV
- Capacitación: Combinación de preentrenamiento, ajuste fino supervisado y aprendizaje de refuerzo de múltiples etapas
- Alineación: Utiliza métodos basados en RL para mejorar la corrección de las respuestas y mitigar el sesgo, particularmente en los dominios matemáticos y de codificación.
💡 Capacidades clave del QwQ-32B
- 🚀 Aprendizaje de refuerzo Razonamiento mejorado: Emplea un aprendizaje profundo de múltiples etapas para lograr una resolución de problemas altamente adaptativa y sofisticada.
- Razonamiento agente: Ajusta dinámicamente las estrategias de razonamiento en función del contexto de entrada complejo y la retroalimentación en tiempo real.
- 📚 Manejo de contexto extendido: Admite entradas de formato muy largo, lo que lo hace ideal para análisis de documentos exhaustivos y diálogos sostenidos.
- 💻 Asistencia de codificación eficiente: Ofrece un gran rendimiento en la generación precisa de código y una depuración efectiva en múltiples lenguajes de programación.
🎯 Casos de uso óptimos
- 🔬 Investigación científica y matemática: Para tareas que requieren razonamiento profundo y estructurado y cálculos complejos.
- 🖥️ Desarrollo de software: Facilitar el diseño de software complejo, la depuración robusta y la síntesis de código eficiente.
- Flujos de trabajo financieros y de ingeniería: Optimización de procesos lógicos y análisis de datos en dominios especializados.
- 🤖 Agentes impulsados por IA: Dotar a los agentes de capacidades de razonamiento flexibles y una mayor adaptabilidad.
🔗 Acceso a la API y documentación
El QwQ-32B El modelo está disponible en el Plataforma API de IA/ML, donde se puede acceder como "QwQ-32B"Integre este poderoso modelo en sus proyectos con facilidad.
Para obtener detalles técnicos completos, guías de integración y ejemplos de código, consulte Documentación de la API proporcionado por el equipo de Qwen.
⚖️ Uso ético y licencias
Pautas éticas: El equipo de Qwen prioriza la seguridad e implementa verificadores basados en reglas durante el entrenamiento para garantizar una alta precisión en los resultados de las tareas matemáticas y de programación. Se recomienda a los usuarios tener precaución con posibles sesgos o imprecisiones al implementar el modelo en dominios menos probados o sensibles.
Licencia: QwQ-32B es de código abierto bajo la Licencia Apache 2.0Esto permite su uso gratuito tanto con fines comerciales como de investigación. Su tamaño compacto y optimizado también facilita su implementación en hardware de consumo, lo que hace que la IA avanzada sea más accesible.
❓ Preguntas frecuentes (FAQ)
P1: ¿Cuáles son las principales fortalezas de QwQ-32B?
A: QwQ-32B destaca en razonamiento avanzado, codificación y resolución estructurada de problemas. Combina aprendizaje por refuerzo y razonamiento agente para lograr un rendimiento comparable al de modelos mucho más grandes, especialmente en tareas que requieren un uso intensivo de matemáticas y lógica.
Q2: ¿Qué tamaño tiene la ventana de contexto de QwQ-32B?
A: QwQ-32B admite una ventana de contexto extendida de hasta 131.072 tokens, lo que le permite gestionar documentos muy largos y conversaciones complejas y ricas en contexto de manera efectiva.
P3: ¿Se puede utilizar el QwQ-32B para proyectos comerciales?
A: Sí, QwQ-32B se publica bajo la licencia Apache 2.0, que permite su uso gratuito para fines comerciales y de investigación.
P4: ¿Es eficiente la implementación del QwQ-32B?
A: Por supuesto. A pesar de sus potentes capacidades, el QwQ-32B está diseñado para ser compacto y eficiente, lo que lo hace compatible incluso con hardware de consumo.
Q5: ¿Dónde puedo encontrar la documentación de la API?
A: La documentación detallada de la API para QwQ-32B está disponible aquí, proporcionando toda la información necesaria para la integración.
Patio de juegos de IA



Acceso