



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'qwen-max-2025-09-23',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="qwen-max-2025-09-23",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
Descubra Qwen Max 23/09/2025: Modelo de lenguaje MoE avanzado de Alibaba
Desarrollado por Alibaba, Qwen Max 2025-09-23 se destaca como un proyecto de vanguardia a gran escala Modelo de lenguaje de mezcla de expertos (MoE) Diseñado para un rendimiento inigualable en diversas aplicaciones de IA. Este potente modelo destaca en interacciones de chat, desafíos de codificación complejos y tareas intrincadas de resolución de problemas, estableciendo un nuevo estándar para los sistemas inteligentes.
Su innovadora arquitectura MoE basada en Transformer incorpora enrutamiento experto, activando inteligentemente solo un subconjunto de parámetros por token. Este diseño garantiza un equilibrio óptimo entre alto rendimiento y una eficiencia computacional impresionante. Con preentrenamiento en más de... 20 billones de tokens A partir de vastos corpus multilingües y específicos de dominio, Qwen Max está preparado para el razonamiento profundo y la generación de texto avanzado.
Especificaciones técnicas y arquitectura central
- ★ Arquitectura: Mezcla de expertos basada en transformadores (MoE) con activación selectiva de expertos para cada token de entrada.
- ★ Parámetros totales: Diseñado para diseños de MoE a gran escala, centrándose en la activación eficiente en lugar del recuento total.
- ★ Datos previos al entrenamiento: Supera los 20 billones de tokens, que abarcan una gran cantidad de inglés, chino y varios de los principales idiomas del mundo.
- ★ Ventana de contexto: Una impresionante cantidad de 262 000 tokens de forma nativa, que respaldan la comprensión y la generación de formatos largos.
- ★ Soporte de idiomas: Optimizado principalmente para inglés y chino, ofreciendo sólidas capacidades bilingües.
- ★ Métodos de entrenamiento: Utiliza ajuste fino supervisado (SFT) y aprendizaje de refuerzo a partir de retroalimentación humana (RLHF) para lograr una calidad de salida superior.
Capacidades y beneficios clave
- ✔ Diseño eficiente de MoE: Ofrece un gran rendimiento con una sobrecarga computacional significativamente reducida, lo que lo hace rentable.
- ✔ Competencia bilingüe: Admite perfectamente tanto inglés como chino, lo que abre amplios escenarios de aplicación en los mercados globales.
- ✔ Experto en codificación y resolución de problemas: Se destaca en la generación de código, la resolución de problemas complejos y la mejora de las experiencias de IA conversacional a través de un razonamiento sofisticado.
- ✔ Ajuste fino avanzado: Emplea sofisticadas estrategias de ajuste para garantizar una generación de alta calidad y una fuerte alineación con las preferencias e instrucciones humanas.
Métricas de rendimiento
Cómo acceder y utilizar Qwen Max
Qwen Max 2025-09-23 está disponible en Plataforma API de IA/MLLos desarrolladores pueden integrar este potente modelo en sus aplicaciones utilizando su nombre designado: "Qwen Max 2025-09-23".
💡 Acceder a la API de Qwen Max
Comience a utilizar la API de Qwen Max 2025-09-23 registrándose en la plataforma.
📄 Documentación detallada de la API
Para obtener pautas de integración completas y ejemplos de código, consulte la documentación oficial de la API.
Pautas éticas y licencias
- ▶ Transparencia: Alibaba se compromete a la transparencia con respecto a las capacidades y limitaciones inherentes de Qwen Max.
- ▶ Uso responsable: Se recomienda encarecidamente a los usuarios que adhieran a prácticas responsables y éticas para evitar el uso indebido o la generación de contenido dañino.
- ▶ Licencia: El uso se rige por los términos de licencia específicos proporcionados por Alibaba Cloud. Los usuarios deben revisar estos permisos y restricciones detenidamente antes de la implementación.
Preguntas frecuentes (FAQ)
Pregunta 1: ¿Qué hace que Qwen Max 2025-09-23 sea único?
A: Su arquitectura Mixture-of-Experts (MoE) basada en Transformer con enrutamiento experto permite un alto rendimiento activando solo un subconjunto de parámetros, lo que garantiza tanto eficiencia como potentes capacidades en chat, codificación y resolución de problemas.
Pregunta 2: ¿Qué idiomas admite principalmente Qwen Max?
A: Qwen Max está optimizado principalmente para inglés y chino, y ofrece una sólida competencia bilingüe para diversos escenarios de aplicación.
Pregunta 3: ¿Qué tan extensa es su ventana de contexto?
A: Cuenta con una impresionante ventana de contexto nativa de 262K tokens, lo que le permite procesar y comprender entradas muy largas y generar respuestas coherentes y extendidas.
Pregunta 4: ¿Dónde puedo encontrar la API para Qwen Max 2025-09-23?
A: El modelo está disponible en el Plataforma API de IA/MLPuedes registrarte allí para obtener acceso a la API e integrarla en tus proyectos.
Pregunta 5: ¿Existen pautas éticas para el uso de Qwen Max?
A: Sí, Alibaba prioriza la transparencia y fomenta el uso responsable y ético para evitar el uso indebido. Los usuarios deben revisar los términos de licencia específicos de Alibaba Cloud para conocer los permisos y restricciones de uso.
Patio de juegos de IA



Acceso