qwen-bg
ico máximo04
256K
En
Afuera
ico-máximo02
Charlar
ico-máximo03
desactivar
Qwen3-Siguiente-80B-A3B Pensamiento
Admite la predicción de múltiples tokens y ventanas de contexto amplias (hasta 1 millón de tokens), lo que permite un razonamiento eficiente en tiempo real y aplicaciones interactivas.
Fichas de $1 gratis para nuevos miembros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'alibaba/qwen3-next-80b-a3b-thinking',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="alibaba/qwen3-next-80b-a3b-thinking",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Más de 300 modelos de IA para OpenClaw y agentes de IA

Ahorra un 20% en costes y obtén fichas gratis de 1 $.
qwenmax-bg
imagen
Qwen3-Siguiente-80B-A3B Pensamiento

Detalles del producto

✨ Presentamos Qwen3-Next-80B-A3B Thinking: Tu IA de razonamiento avanzado

Descripción general

El Qwen3-Siguiente-80B-A3B Pensamiento Este modelo se erige como una IA de chat de primer nivel centrada en el razonamiento, diseñada específicamente para la resolución de problemas complejos de múltiples pasos y tareas avanzadas de razonamiento lógico. Genera de forma nativa patrones de pensamiento estructurados, lo que la hace excepcionalmente competente en ámbitos que exigen un razonamiento analítico profundo, como demostraciones matemáticas complejas, síntesis de código robusta, deducción lógica y planificación de agentes sofisticada.

💡 Especificaciones técnicas

Qwen3-Next-80B-A3B Thinking es un modelo de lenguaje avanzado que cuenta con 80 mil millones de parámetros. Una innovación clave es su arquitectura de mezcla de expertos (MoE) dispersa, que garantiza únicamente Se utilizan activamente 3 mil millones de parámetros por token.Este diseño facilita una eficiencia extraordinaria.

  • ⚙️ Arquitectura: 48 capas con una dimensión oculta de 2048, empleando un diseño híbrido con mecanismos de compuerta y normalización avanzada (RMSNorm).
  • 📖 Ventana de contexto: Admite una amplia 262.000 tokens, extensible hasta 1 millón de tokens con métodos de escalamiento especializados para una comprensión superior de contextos extensos.
  • Eficiencia: Entrenado con estrategias híbridas que optimizan el uso de recursos, ofrece un alto rendimiento en razonamiento complejo, matemáticas, codificación y resolución de problemas de varios pasos, al tiempo que mantiene bajos costos de inferencia y un alto rendimiento.

📈 Pruebas de rendimiento

MMLU (Conocimientos Generales)

78,5%

HumanEval (Generación de código)

82,1%

GSM8K (Matemáticas)

91,2%

Banco MT (Instrucciones a continuación)

84,3%

💰 Precios de API

Aporte:

$0.1575

Producción:

$1.6

🚀 Características principales

  • 🧠 Optimización del modo de pensamiento: Diseñado específicamente para el análisis del razonamiento lógico y la resolución de problemas complejos, genera registros de salida más largos y detallados para una mayor transparencia.
  • Activación dispersa: Activa tan solo 3.000 millones de los 80.000 millones de parámetros por token, lo que permite una inferencia rápida y una importante eficiencia en costes.
  • Predicción de múltiples tokens: Acelera el proceso de decodificación al predecir múltiples tokens simultáneamente, lo que aumenta la velocidad de salida.
  • 🔗 Razonamiento estable de forma extensa: Diseñado para ofrecer una estabilidad inquebrantable a lo largo de extensas cadenas de razonamiento e instrucciones complejas.
  • 🤖 Integración de agentes: Ofrece soporte completo para la llamada a funciones y una integración perfecta en marcos de agentes que requieren soluciones analíticas paso a paso.
  • 🌐 Multilingüe y multimodal: Ofrece una sólida comprensión multilingüe y brinda soporte para diversas tareas de razonamiento en varios idiomas y modalidades a nivel internacional.

🎯 Casos de uso

  • 🔬 Investigación científica: Ideal para la generación de hipótesis profundas y el análisis de datos complejos.
  • 💻 Ingeniería y Matemáticas: Destaca en la resolución de problemas, las demostraciones y la síntesis/depuración de código sofisticado.
  • ⚖️ Análisis jurídico: Permite un análisis detallado de casos legales y la construcción estructurada de argumentos.
  • 📊 Finanzas y negocios: Facilita la elaboración de modelos de riesgo financiero y la planificación estratégica empresarial con pasos de decisión transparentes.
  • ⚕️ Asistencia para el diagnóstico médico: Proporciona transparencia en el razonamiento y explicaciones detalladas para el apoyo al diagnóstico.
  • 📄 Análisis de documentos de contexto extenso: Ideal para flujos de trabajo de análisis y recuperación de documentos que requieren un contexto profundo.

Ejemplo de código

A continuación se muestra cómo interactuar con el modelo de pensamiento Qwen3-Next-80B-A3B mediante API (por ejemplo, la función de autocompletado de chat compatible con OpenAI). Los detalles de implementación pueden variar según el entorno.

 

↔️ Comparación con otros modelos líderes

Vs. Qwen3-32B

Qwen3-Next-80B-A3B se activa únicamente 3 mil millones de parámetros por token, en contraste con la activación completa de Qwen3-32B. Esto hace que Qwen3-Next sea aproximadamente 10 veces más eficiente en costos tanto de entrenamiento como de inferencia. Además, ofrece más de Velocidad de salida 10 veces más rápida en escenarios de contexto extenso (más de 32.000 tokens) al tiempo que se logra una precisión superior en el razonamiento y las tareas complejas.

Vs. Qwen3-235B

A pesar de tener significativamente menos parámetros activos, Qwen3-Next-80B-A3B se acerca notablemente a los niveles de rendimiento del mucho mayor Qwen3-235B de 235 mil millones de parámetros, especialmente en el seguimiento de instrucciones y el razonamiento de contexto largo. Logra un excelente equilibrio entre eficiencia computacional y alta calidad del modelo, lo que lo hace altamente adecuado para entornos de producción.

Vs. Google Gemini-2.5-Flash-Thinking

La variante Qwen3-Next-80B-A3B Thinking supera de forma demostrable a Google Gemini-2.5-Flash-Thinking en áreas críticas como razonamiento en cadena y tareas de instrucción de varios turnosEste rendimiento superior conlleva costes operativos sustancialmente menores, gracias a su activación dispersa y a sus capacidades de predicción multi-token.

Vs. Llama 3.1-70B

Qwen3-Next-80B-A3B ofrece mejoras comprensión del contexto a largo plazo y una estabilidad de razonamiento superior en ventanas de contexto mucho más amplias (escalable hasta 1 millón de tokens), superando significativamente las limitaciones de ventana nativas de Llama 3.1-70B. Su arquitectura MoE dispersa también le otorga una eficiencia superior a gran escala.

❓ Preguntas frecuentes (FAQ)

P1: ¿Qué hace que Qwen3-Next-80B-A3B Thinking sea único para las tareas de razonamiento?

A1: Está diseñado específicamente con una optimización de "Modo de Pensamiento" para la resolución de problemas complejos de múltiples pasos y la secuencia de razonamiento, generando trazas de razonamiento estructuradas por defecto. Su arquitectura MoE dispersa también garantiza la eficiencia sin comprometer las capacidades analíticas profundas.

P2: ¿Cómo beneficia a este modelo la arquitectura MoE dispersa?

A2: La arquitectura dispersa de Mezcla de Expertos (MoE) implica que solo 3 mil millones de sus 80 mil millones de parámetros están activos por token. Esto reduce significativamente los costos de inferencia, aumenta la velocidad de procesamiento y mantiene un alto rendimiento, especialmente para tareas de razonamiento complejas.

P3: ¿Cuál es la ventana de contexto máxima admitida por Qwen3-Next-80B-A3B Thinking?

A3: El modelo admite de forma nativa una ventana de contexto extensa de 262.000 tokens y, con métodos de escalado especializados, se puede ampliar hasta un impresionante millón de tokens, lo que permite una comprensión superior del contexto a largo plazo.

P4: ¿Se puede integrar el pensamiento Qwen3-Next-80B-A3B en los sistemas de agentes?

A4: Sí, admite completamente la llamada a funciones y está diseñado para una integración perfecta en marcos de agentes que requieren soluciones analíticas precisas y paso a paso.

P5: ¿Cómo se compara su rendimiento con el de otros modelos de lenguaje grandes como Llama 3.1-70B?

A5: Qwen3-Next-80B-A3B Thinking ofrece una mejor comprensión del contexto a largo plazo y una mayor estabilidad de razonamiento en ventanas de contexto significativamente más grandes (hasta 1 millón de tokens) en comparación con Llama 3.1-70B. Su arquitectura MoE dispersa también proporciona una eficiencia superior a gran escala.

Campo de juegos de IA

Pruebe todos los modelos de API en el entorno de pruebas antes de integrarlos. Ofrecemos más de 300 modelos para integrar en su aplicación.
Pruébalo gratis
api-right-1
modelo-bg02-1

Más de 300 modelos de IA para
OpenClaw y agentes de IA

Ahorre un 20% en costos