



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/Qwen2-1.5B-Instruct',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/Qwen2-1.5B-Instruct",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
✨ Qwen2 1.5B Instruct: Un modelo de lenguaje compacto y potente
Presentando Qwen2 1.5B Instrucción, un modelo de lenguaje de vanguardia optimizado para instrucciones, desarrollado por el distinguido equipo Qwen de Alibaba Group. Publicado el 7 de junio de 2024Como versión 2.0, este modelo de texto a texto logra un equilibrio óptimo entre alto rendimiento y utilización eficiente de recursos, lo que lo convierte en una excelente opción para un amplio espectro de aplicaciones de procesamiento del lenguaje natural (PLN).
Información básica:
- Nombre del modelo: Qwen2 1.5B Instrucción
- Desarrollador/creador: Equipo de Qwen (Grupo Alibaba)
- Fecha de lanzamiento: 7 de junio de 2024
- Versión: 2.0
- Tipo de modelo: Modelo de lenguaje de texto a texto
🚀 Características principales y ventajas de rendimiento
Qwen2 1.5B Instruct está diseñado con funciones avanzadas para ofrecer un rendimiento y una eficiencia superiores:
- Instrucciones adaptadas: Optimizado para una mejor comprensión y ejecución de tareas específicas, lo que genera mayor precisión y relevancia.
- Atención de consulta grupal (GQA): Mejora significativamente la velocidad de inferencia y reduce el consumo de memoria, lo que lo hace altamente eficiente para diversas aplicaciones.
- Incrustaciones vinculadas: Aumenta la eficiencia de los parámetros, contribuyendo al tamaño compacto del modelo sin comprometer la capacidad.
- Longitud del contexto extendido: Procesa entradas de hasta 128.000 tokens y genera salidas que contienen hasta 8.000 tokens, lo que permite una comprensión contextual más profunda.
- Soporte multilingüe robusto: Admite 29 idiomas además del inglés y el chino, incluidos francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés y árabe, atendiendo a una base de usuarios global.
✅ Casos de uso y aplicaciones previstos
Qwen2 1.5B Instruct es un modelo muy versátil adecuado para una amplia gama de tareas de procesamiento del lenguaje natural, que incluyen:
- Generación de texto: Crear contenido coherente y contextualmente relevante.
- Pregunta y respuesta: Proporcionar respuestas precisas y perspicaces a las consultas.
- Comprensión del lenguaje: Analizar e interpretar patrones lingüísticos complejos.
- Generación de código: Ayudar a los desarrolladores a generar fragmentos de código y funciones.
- Resolución de problemas matemáticos: Abordar desafíos numéricos y lógicos.
⚙️ Detalles técnicos y arquitectura
Arquitectura:
El modelo se basa en la robusta Arquitectura del transformador, mejorado con varias modificaciones clave:
- Activación de SwiGLU: Mejora la no linealidad y el rendimiento del modelo.
- Atención sesgo de QKV: Refina el mecanismo de atención para un mejor enfoque y comprensión.
- Atención de consulta grupal (GQA): Optimiza el procesamiento para operaciones más rápidas y con mayor eficiencia en el uso de la memoria.
- Tokenizador avanzado: Un tokenizador mejorado diseñado específicamente para un manejo superior de múltiples lenguajes naturales y códigos.
Datos de entrenamiento:
- Fuente de datos y tamaño: El modelo se entrenó en un amplio conjunto de datos que comprendía aproximadamente 18 billones de tokens.
- Nivel de conocimiento: El conocimiento del modelo está actualizado hasta Septiembre de 2024.
- Diversidad y sesgo: Los datos de entrenamiento incorporan un amplio espectro de idiomas y dominios, meticulosamente seleccionados para reducir el sesgo y mejorar la solidez del modelo en diversos temas.
Métricas de rendimiento:
Qwen2 1.5B Instruct demuestra mejoras de rendimiento significativas en comparación con su predecesor.

Imagen: Comparación de rendimiento entre Qwen2 1.5B Instruct y su predecesor.
Comparación con otros modelos:
- Exactitud: Muestra mejoras marcadas respecto de su predecesor en varios puntos de referencia de la industria.
- Velocidad: La implementación de Group Query Attention (GQA) garantiza tasas de inferencia significativamente más rápidas en comparación con versiones anteriores.
- Robustez: Las capacidades multilingües mejoradas y un conjunto de datos de entrenamiento diverso contribuyen a una mejor generalización en una multitud de temas e idiomas.
- Pruebas en el mundo real: En nuestras evaluaciones internas, incluidos análisis exhaustivos como Comparación entre Llama 3 y Qwen 2 y Comparación entre Qwen 2 72B y ChatGPT 4oQwen2 demostró un rendimiento admirable, incluso con indicaciones culturalmente específicas y poco obvias. Se recomienda especialmente para aplicaciones que involucran grupos lingüísticos asiáticos debido a su excelente compatibilidad.
📚 Pautas de uso y ética
Ejemplos de código:
La integración de Qwen2 1.5B Instruct en sus proyectos está diseñada para ser sencilla. A continuación, se muestra un ejemplo típico de finalización del chat:
Nota: Los detalles de implementación específicos pueden variar según el entorno de desarrollo y la integración de API.
Pautas éticas:
El uso responsable y ético es fundamental. Se recomienda encarecidamente a los usuarios que respeten los siguientes principios:
- Respeto derechos de propiedad intelectual al incorporar contenido generado en proyectos personales o comerciales.
- Ser consciente de manera crítica y abordar los riesgos potenciales. sesgos que podrían aparecer en los resultados del modelo.
- Utilice el modelo de forma responsable y evite activamente generar contenido dañino, engañoso o inapropiado.
Licencia:
Qwen2 1.5B Instruct está disponible bajo la autorización Licencia Apache 2.0, lo que permite un amplio uso en aplicaciones comerciales y no comerciales.
❓ Preguntas frecuentes (FAQ)
Q1: ¿Qué es Qwen2 1.5B Instruct?
A1: Qwen2 1.5B Instruct es un modelo de lenguaje de texto a texto compacto y optimizado para instrucciones del equipo Qwen de Alibaba Group, diseñado para un desempeño eficiente en diversas tareas de procesamiento del lenguaje natural.
P2: ¿Cuáles son las características clave que contribuyen a su eficiencia?
A2: Su eficiencia se debe a la Atención de Consulta de Grupo (GQA) para una inferencia más rápida y una memoria reducida, incrustaciones vinculadas para la optimización de parámetros y una longitud de contexto extendida, equilibrando un rendimiento poderoso con un uso eficiente de los recursos.
P3: ¿Cuántos idiomas admite Qwen2 1.5B Instruct?
A3: El modelo ofrece un sólido soporte multilingüe para 29 idiomas, incluida una amplia gama de idiomas globales como inglés, chino, francés, español, japonés, coreano y árabe.
P4: ¿Se puede utilizar Qwen2 1.5B Instruct con fines comerciales?
A4: Sí, Qwen2 1.5B Instruct se publica bajo la licencia Apache 2.0, que permite su uso para aplicaciones comerciales y no comerciales.
P5: ¿Cuál es la fecha límite de conocimiento para este modelo?
A5: Los datos de entrenamiento del modelo garantizan que su conocimiento esté actualizado hasta septiembre de 2024, proporcionando acceso a información y tendencias recientes.
Patio de juegos de IA



Acceso