



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/Qwen2.5-Coder-32B-Instruct',
messages: [
{
role: 'system',
content: 'You are SQL code assistant.',
},
{
role: 'user',
content: 'Could you please provide me with an example of a database structure that I could use for a project in MySQL?'
}
],
});
const message = result.choices[0].message.content;
console.log(\`Assistant: \${message}\`);
};
main();
import os
from openai import OpenAI
def main():
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
response = client.chat.completions.create(
model="Qwen/Qwen2.5-Coder-32B-Instruct",
messages=[
{
"role": "system",
"content": "You are SQL code assistant.",
},
{
"role": "user",
"content": "Could you please provide me with an example of a database structure that I could use for a project in MySQL?",
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
if __name__ == "__main__":
main()

Detalle del producto
Descubra Qwen2.5 Coder 32B Instruct: su IA de código avanzado
El Instrucción Qwen2.5 Coder 32B modelo, desarrollado por El equipo Qwen de Alibaba Cloud y liberado el 12 de noviembre de 2024Representa un avance significativo en los modelos de lenguaje de código abierto de gran tamaño (CodeLLM). Como componente clave de la serie Qwen2.5, este modelo de lenguaje causal está diseñado para aumentar la productividad del desarrollador y facilitar el aprendizaje continuo en el ámbito de la programación.
✨ Instantánea del modelo:
- • Nombre del modelo: Instrucción Qwen2.5 Coder 32B
- • Revelador: El equipo Qwen de Alibaba Cloud
- • Versión: Qwen2.5
- • Tipo de modelo: Modelo de lenguaje causal
⭐ Características principales y uso previsto
El Qwen2.5 Coder 32B Instruct se destaca por sus capacidades excepcionales, lo que lo convierte en un activo invaluable para los desarrolladores:
- Excelencia del código: Sobresale en Generación, reparación y razonamiento de código.
- Amplio soporte de idiomas: Soportes más de 40 lenguajes de programación, incluidos los más populares y de nicho como Haskell y Racket.
- Contexto extenso: Proporciona Admite contexto largo de hasta 131.072 tokens, facilitando tareas de codificación complejas.
- Alineación humana: Presenta alineación de preferencias humanas para interacciones más intuitivas y efectivas.
- Aplicación versátil: Ideal para tareas basadas en instrucciones, finalización de código, corrección de errores e integración en asistentes de código.
⚙️ Análisis técnico profundo
Bajo el capó, Qwen2.5 Coder 32B Instruct está construido sobre una arquitectura robusta que garantiza su alto rendimiento:
Aspectos destacados de la arquitectura:
- • Arquitectura de transformador denso
- • Incrustación de posición rotatoria (RoPE)
- • Funciones de activación de SwiGLU
- • Normalización de RMSNorm y sesgo de atención QKV
- • 32.5 mil millones de parámetros
- • 64 capas
- • Longitud del contexto: hasta 131.072 tokens
- • Atención Jefes: 40 para Q, 8 para KV
Datos de entrenamiento: El modelo se entrenó en un amplio conjunto de datos 5,5 billones de tokensEste corpus diverso incluye código fuente, datos básicos de código de texto y datos sintéticos, lo que permite su sólido rendimiento en una multitud de tareas de codificación y lenguajes de programación.
Nivel de conocimiento: Las preguntas de evaluación para LiveCodeBench provienen de Julio a noviembre de 2024, garantizando una evaluación del desempeño actualizada.
🚀 Rendimiento y evaluación comparativa inigualables
El modelo Qwen2.5 Coder 32B Instruct ofrece resultados consistentes rendimiento de primer nivel, rivalizando incluso con modelos propietarios como GPT-4o en capacidades de codificación.
Métricas clave de rendimiento:
- Evaluación humana: 92.7
- MBPP: 90.2
- Banco de código en vivo: 31.4
- Ayuda: 73.7
- Araña: 85.1
- CodeArena: 68.9
Aspectos destacados de la comparación:
- Exactitud: Logra rendimiento de última generación entre los modelos de código abierto, compitiendo directamente con soluciones propietarias como GPT-4o.
- Velocidad: Ofrece una impresionante velocidad de salida de 83,2 tokens por segundo.
- Robustez: Sus meticulosas estrategias de limpieza y equilibrio de datos garantizan Rendimiento excepcional en diversos lenguajes de programación y una identificación eficiente de errores.

Rendimiento comparativo de los modelos de codificador Qwen2.5.
💡 Cómo utilizar la instrucción Qwen2.5 Coder 32B
Integre Qwen2.5 Coder 32B Instruct en sus proyectos sin problemas:
Ejemplos de código:
// Ejemplo de estructura de llamada a la API (marcador de posición) import openai client = openai.OpenAI(api_key="YOUR_API_KEY") response = client.chat.completions.create( model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=[ {"role": "system", "content": "Eres un asistente de código útil."}, {"role": "user", "content": "Escribe una función de Python para invertir una cadena."} ] ) print(response.choices[0].message.content) El modelo es accesible en el Plataforma API de IA/ML bajo el nombre "Qwen2.5-Coder-32B-Instruct"Empezar aquí.
Documentación de la API:
Para obtener detalles completos y guías de integración, consulte el sitio web oficial. Documentación de la API.
⚖️ Pautas éticas y licencias
Alibaba Cloud garantiza el desarrollo y la implementación responsables de Qwen2.5 Coder 32B Instruct:
Alineación ética: La alineación de las preferencias humanas del modelo se evalúa continuamente utilizando el análisis interno. Prueba de referencia de Code Arena, garantizando que las soluciones de código generadas cumplan con las expectativas de los usuarios de manera responsable.
Licencia: Qwen Plus opera bajo términos de licencia específicos proporcionados por Nube de AlibabaSe recomienda encarecidamente a los usuarios que revisen la información de licencia oficial para comprender los permisos y restricciones asociados con su uso.
Acceda a la API de instrucción Qwen 2.5 Coder 32B y a sus detalles de licencia aquí.
❓ Preguntas frecuentes (FAQ)
Q1: ¿Qué es Qwen2.5 Coder 32B Instruct?
A1: Es un modelo de lenguaje grande de código abierto (CodeLLM) de última generación de Alibaba Cloud, diseñado para la generación, reparación y razonamiento de código avanzado, compatible con más de 40 lenguajes de programación.
Q2: ¿Qué lenguajes de programación admite?
A2: Qwen2.5 Coder 32B Instruct es competente en más de 40 lenguajes de programación, abarcando tanto lenguajes convencionales como especializados como Haskell y Racket.
P3: ¿Cómo se compara su rendimiento con el de otros modelos?
A3: Logra un rendimiento de última generación entre los modelos de código abierto y rivaliza con modelos propietarios como GPT-4o en capacidades de codificación, con una velocidad de salida de 83,2 tokens por segundo.
Q4: ¿Cuál es la longitud máxima de contexto que admite?
A4: El modelo proporciona un amplio soporte de contexto largo, capaz de procesar hasta 131.072 tokens.
Q5: ¿Dónde puedo acceder a la API para Qwen2.5 Coder 32B Instruct?
A5: Puede acceder a la API en la plataforma API AI/ML, disponible aquí, donde también se proporciona documentación detallada.
Patio de juegos de IA



Acceso