



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/Qwen2-1.5B-Instruct',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/Qwen2-1.5B-Instruct",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
✨ Qwen2 1.5B Instruct: Un modelo de lenguaje compacto y potente
Presentando Instrucciones Qwen2 1.5B, un modelo de lenguaje de última generación, optimizado para instrucciones, desarrollado por el distinguido equipo Qwen de Alibaba Group. Publicado el 7 de junio de 2024En su versión 2.0, este modelo de conversión de texto a texto logra un equilibrio óptimo entre alto rendimiento y utilización eficiente de los recursos, lo que lo convierte en una excelente opción para un amplio espectro de aplicaciones de procesamiento del lenguaje natural (PLN).
Información básica:
- Nombre del modelo: Instrucciones Qwen2 1.5B
- Desarrollador/Creador: Equipo Qwen (Grupo Alibaba)
- Fecha de lanzamiento: 7 de junio de 2024
- Versión: 2.0
- Tipo de modelo: Modelo de lenguaje de texto a texto
🚀 Características principales y ventajas de rendimiento
El Qwen2 1.5B Instruct está diseñado con funciones avanzadas para ofrecer un rendimiento y una eficiencia superiores:
- Instrucciones optimizadas: Optimizado para una mejor comprensión y ejecución de tareas específicas, lo que se traduce en una mayor precisión y relevancia.
- Atención a consultas grupales (GQA): Mejora significativamente la velocidad de inferencia y reduce el consumo de memoria, lo que la hace altamente eficiente para diversas aplicaciones.
- Incrustaciones vinculadas: Mejora la eficiencia de los parámetros, lo que contribuye al tamaño compacto del modelo sin comprometer su capacidad.
- Longitud de contexto extendida: Procesa entradas de hasta 128.000 tokens y genera salidas que contienen hasta 8.000 tokens, lo que permite una comprensión contextual más profunda.
- Soporte multilingüe sólido: Admite 29 idiomas además del inglés y el chino, incluidos el francés, el español, el portugués, el alemán, el italiano, el ruso, el japonés, el coreano, el vietnamita, el tailandés y el árabe, lo que permite atender a una base de usuarios global.
✅ Casos de uso y aplicaciones previstos
Qwen2 1.5B Instruct es un modelo muy versátil, adecuado para una amplia gama de tareas de procesamiento del lenguaje natural, entre las que se incluyen:
- Generación de texto: Crear contenido coherente y contextualmente relevante.
- Respuesta a preguntas: Proporcionar respuestas precisas y esclarecedoras a las consultas.
- Comprensión del lenguaje: Analizar e interpretar patrones lingüísticos complejos.
- Generación de código: Ayudar a los desarrolladores a generar fragmentos de código y funciones.
- Resolución de problemas matemáticos: Abordar desafíos numéricos y lógicos.
⚙️ Detalles técnicos y arquitectura
Arquitectura:
El modelo se basa en la robustez Arquitectura de transformadores, mejorado con varias modificaciones clave:
- Activación de SwiGLU: Mejora la no linealidad y el rendimiento del modelo.
- Atención al sesgo QKV: Perfecciona el mecanismo de atención para lograr una mejor concentración y comprensión.
- Atención a consultas grupales (GQA): Optimiza el procesamiento para lograr operaciones más rápidas y con un uso más eficiente de la memoria.
- Tokenizador avanzado: Un analizador léxico mejorado, diseñado específicamente para un manejo superior de múltiples lenguajes naturales y código.
Datos de entrenamiento:
- Fuente y tamaño de los datos: El modelo fue entrenado en un extenso conjunto de datos que comprende aproximadamente 18 billones de tokens.
- Punto de corte de conocimiento: El conocimiento del modelo está actualizado hasta Septiembre de 2024.
- Diversidad y prejuicios: Los datos de entrenamiento incorporan un amplio espectro de idiomas y dominios, meticulosamente seleccionados para reducir el sesgo y mejorar la robustez del modelo en diversos temas.
Métricas de rendimiento:
Qwen2 1.5B Instruct demuestra mejoras de rendimiento significativas en comparación con su predecesor.

Imagen: Comparación del rendimiento entre Qwen2 1.5B Instruct y su predecesor.
Comparación con otros modelos:
- Exactitud: Presenta mejoras notables con respecto a su predecesor en diversos indicadores de referencia del sector.
- Velocidad: La implementación de Group Query Attention (GQA) garantiza tasas de inferencia significativamente más rápidas en comparación con las versiones anteriores.
- Robustez: Las capacidades multilingües mejoradas y un conjunto de datos de entrenamiento diverso contribuyen a una mejor generalización en multitud de temas e idiomas.
- Pruebas en el mundo real: En nuestras evaluaciones internas, incluidos análisis exhaustivos como Comparación entre Llama 3 y Qwen 2 y Comparación entre Qwen 2 72B y ChatGPT 4oQwen2 demostró un rendimiento encomiable, incluso ante indicaciones culturalmente específicas y poco evidentes. Se recomienda especialmente para aplicaciones que involucren a grupos lingüísticos asiáticos debido a su sólido soporte.
📚 Normas de uso y éticas
Ejemplos de código:
Integrar Qwen2 1.5B Instruct en tus proyectos está diseñado para ser sencillo. Aquí tienes un ejemplo típico para completar mensajes de chat:
Nota: Los detalles específicos de la implementación pueden variar según su entorno de desarrollo y la integración de la API.
Directrices éticas:
El uso responsable y ético es primordial. Se recomienda encarecidamente a los usuarios que se adhieran a los siguientes principios:
- Respeto derechos de propiedad intelectual al incorporar contenido generado en proyectos personales o comerciales.
- Sea consciente de las posibles amenazas y abórdelas. prejuicios que podrían aparecer en los resultados del modelo.
- Utilice el modelo de forma responsable y evite activamente generar contenido dañino, engañoso o inapropiado.
Licencias:
Qwen2 1.5B Instruct está disponible bajo el permiso Licencia Apache 2.0, lo que permite un uso amplio tanto en aplicaciones comerciales como no comerciales.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué es Qwen2 1.5B Instruct?
A1: Qwen2 1.5B Instruct es un modelo de lenguaje de texto a texto compacto y optimizado para instrucciones, desarrollado por el equipo Qwen de Alibaba Group y diseñado para un rendimiento eficiente en diversas tareas de procesamiento del lenguaje natural.
P2: ¿Cuáles son las características clave que contribuyen a su eficiencia?
A2: Su eficiencia se debe a la atención de consulta grupal (GQA) para una inferencia más rápida y una memoria reducida, incrustaciones vinculadas para la optimización de parámetros y una longitud de contexto extendida, lo que equilibra un rendimiento potente con un uso eficiente de los recursos.
P3: ¿Cuántos idiomas admite Qwen2 1.5B Instruct?
A3: El modelo ofrece un sólido soporte multilingüe para 29 idiomas, incluyendo una amplia gama de idiomas globales como inglés, chino, francés, español, japonés, coreano y árabe.
P4: ¿Se puede utilizar Qwen2 1.5B Instruct con fines comerciales?
A4: Sí, Qwen2 1.5B Instruct se distribuye bajo la licencia Apache 2.0, que permite su uso tanto para aplicaciones comerciales como no comerciales.
P5: ¿Cuál es la fecha límite de conocimiento para este modelo?
A5: Los datos de entrenamiento del modelo garantizan que su conocimiento esté actualizado hasta septiembre de 2024, lo que proporciona acceso a información y tendencias recientes.
Campo de juegos de IA



Acceso