



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'qwen-max-2025-09-23',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="qwen-max-2025-09-23",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
Descubre Qwen Max 2025-09-23: El modelo de lenguaje avanzado del Ministerio de Educación de Alibaba
Desarrollado por Alibaba, Qwen Max 2025-09-23 se erige como un proyecto vanguardista y a gran escala Modelo de lenguaje de mezcla de expertos (MoE) Diseñado para un rendimiento sin igual en diversas aplicaciones de IA. Este potente modelo destaca en interacciones de chat, desafíos de codificación complejos y tareas de resolución de problemas intrincadas, estableciendo un nuevo estándar para los sistemas inteligentes.
Su innovadora arquitectura MoE basada en transformadores incorpora enrutamiento experto, activando de forma inteligente solo un subconjunto de parámetros por token. Este diseño garantiza un equilibrio óptimo entre alto rendimiento e impresionante eficiencia computacional. Con preentrenamiento en más de 20 billones de tokens Gracias a sus vastos corpus multilingües y específicos de cada dominio, Qwen Max está preparada para el razonamiento profundo y la generación avanzada de texto.
Especificaciones técnicas y arquitectura principal
- ★ Arquitectura: Mezcla de expertos (MoE) basada en transformadores con activación selectiva de expertos para cada token de entrada.
- ★ Parámetros totales: Diseñado a medida para diseños de MoE a gran escala, centrándose en la activación eficiente en lugar del número total de dispositivos.
- ★ Datos previos al entrenamiento: Supera los 20 billones de tokens, abarcando un amplio espectro en inglés, chino y varios de los principales idiomas del mundo.
- ★ Ventana de contexto: Un impresionante total de 262.000 tokens nativos, que permiten la comprensión y generación de textos extensos.
- ★ Soporte de idiomas: Optimizado principalmente para inglés y chino, ofrece sólidas capacidades bilingües.
- ★ Métodos de entrenamiento: Utiliza el ajuste fino supervisado (SFT) y el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) para lograr una calidad de salida superior.
Capacidades y beneficios clave
- ✔ Diseño eficiente del MoE: Ofrece un rendimiento sólido con una sobrecarga computacional significativamente reducida, lo que lo hace rentable.
- ✔ Competencia bilingüe: Ofrece compatibilidad total con los idiomas inglés y chino, lo que abre un amplio abanico de posibilidades de aplicación en los mercados globales.
- ✔ Experto en codificación y resolución de problemas: Destaca en la generación de código, la resolución de problemas complejos y la mejora de las experiencias de IA conversacional mediante un razonamiento sofisticado.
- ✔ Ajuste fino avanzado: Emplea sofisticadas estrategias de ajuste fino para garantizar una generación de alta calidad y una sólida alineación con las preferencias e instrucciones humanas.
Métricas de rendimiento
Cómo acceder y usar Qwen Max
Qwen Max 2025-09-23 está disponible fácilmente en el Plataforma API de IA/MLLos desarrolladores pueden integrar este potente modelo en sus aplicaciones utilizando su nombre designado: "Qwen Max 2025-09-23".
💡 Acceda a la API de Qwen Max
Comience a usar la API de Qwen Max (23/09/2025) registrándose en la plataforma.
📄 Documentación detallada de la API
Para obtener directrices de integración completas y ejemplos de código, consulte la documentación oficial de la API.
Directrices éticas y licencias
- ▶ Transparencia: Alibaba se compromete a ser transparente con respecto a las capacidades y limitaciones inherentes de Qwen Max.
- ▶ Uso responsable: Se recomienda encarecidamente a los usuarios que adopten prácticas responsables y éticas para evitar el mal uso o la generación de contenido dañino.
- ▶ Licencias: El uso se rige por los términos de licencia específicos proporcionados por Alibaba Cloud. Los usuarios deben revisar detenidamente estos permisos y restricciones antes de la implementación.
Preguntas frecuentes (FAQ)
P1: ¿Qué hace única a Qwen Max (23 de septiembre de 2025)?
A: Su arquitectura de mezcla de expertos (MoE) basada en transformadores, con enrutamiento de expertos, permite un alto rendimiento al activar solo un subconjunto de parámetros, lo que garantiza eficiencia y potentes capacidades en el chat, la codificación y la resolución de problemas.
P2: ¿Qué idiomas admite principalmente Qwen Max?
A: Qwen Max está optimizado principalmente para inglés y chino, ofreciendo una sólida competencia bilingüe para diversos escenarios de aplicación.
P3: ¿Qué tan amplio es su margen de contexto?
A: Cuenta con una impresionante ventana de contexto nativo de 262.000 tokens, lo que le permite procesar y comprender entradas muy largas y generar respuestas coherentes y extensas.
P4: ¿Dónde puedo encontrar la API para Qwen Max 2025-09-23?
A: El modelo está disponible en el Plataforma API de IA/MLPuedes registrarte allí para obtener acceso a la API e integrarla en tus proyectos.
P5: ¿Existen directrices éticas para el uso de Qwen Max?
A: Sí, Alibaba hace hincapié en la transparencia y fomenta el uso responsable y ético para prevenir el mal uso. Los usuarios deben revisar los términos de licencia específicos proporcionados por Alibaba Cloud para conocer los permisos y restricciones de uso.
Campo de juegos de IA



Acceso