qwen-bg
max-ico04
32 mil
En
Afuera
max-ico02
Charlar
max-ico03
desactivar
Qwen 1.5 (1.8B)
Qwen 1.5 (1.8B), una versión beta de Qwen2, destaca en generación de texto, chatbots y moderación de contenido gracias a su arquitectura basada en transformadores. Supera a la competencia en las pruebas de rendimiento, ofreciendo soporte multilingüe y funciones avanzadas en diversos dominios.
Tokens gratis de $1 para nuevos miembros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });

const main = async () => {
  const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
  const response = await api.completions.create({
    prompt,
    model: 'Qwen/Qwen1.5-1.8B',
  });
  const text = response.choices[0].text;

  console.log('Completion:', text);
};

main();

                                
                                        from openai import OpenAI

client = OpenAI(
    api_key="",
    base_url="https://api.ai.cc/v1",
)


def main():
    response = client.completions.create(
        model="Qwen/Qwen1.5-1.8B",
        prompt="""
  All of the states in the USA:
  - Alabama, Mongomery;
  - Arkansas, Little Rock;
  """,
    )

    completion = response.choices[0].text
    print(f"Completion: {completion}")


main()
Docs

Una API con más de 300 modelos de IA

Ahorre un 20% en costos y $1 en tokens gratis
qwenmax-bg
imagen
Qwen 1.5 (1.8B)

Detalle del producto

Descubra lo poderoso Qwen 1.5 (1.8B), el último avance en la vanguardista serie Qwen de Alibaba Cloud, con modelos de lenguaje de gran tamaño. Esta impresionante serie ofrece una amplia gama de modelos, con escalas que van desde 500 millones hasta la impresionante cifra de 72 000 millones de parámetros. Diseñada para superar a sus competidores, Qwen 1.5 aporta mejoras significativas tanto en rendimiento bruto como en adaptación a las preferencias humanas, estableciendo un nuevo estándar para una IA accesible y robusta.

✨ Desempaquetando Qwen 1.5 (1.8B): Descripción principal

El Qwen 1.5 (1.8B) El modelo, una versión preliminar de la serie Qwen2, es un sofisticado modelo de lenguaje basado en transformadores y exclusivamente decodificador. Ha sido sometido a un exhaustivo preentrenamiento con un corpus sustancial de datos, lo que garantiza un amplio conocimiento y sólidas capacidades generativas. La familia Qwen 1.5 abarca una variedad de tamaños: 0.5B, 1.8B, 4B, 7B, 14B y 72B. Cada tamaño está disponible como modelo de lenguaje base y como modelo de chat alineado con las instrucciones, lo que satisface diversas necesidades de aplicación.

Su arquitectura fundamental se basa en el diseño avanzado de Transformer, incorporando innovaciones clave como:

  • ✅ Activación de SwiGLU: Mejora la no linealidad y el rendimiento del modelo.
  • ✅ Atención sesgo de QKV: Mejora la estabilidad y eficacia del mecanismo de atención.
  • ✅ Atención Consulta Grupal: Optimiza la eficiencia para modelos más grandes.
  • ✅ Atención Híbrida: Una combinación de atención de ventana deslizante y atención total para gestionar el contexto de manera eficaz.

💡Duración del contexto: Qwen 1.5 admite una impresionante Longitud de contexto de token de 32K, lo que le permite procesar y generar secuencias de texto significativamente más largas y complejas, cruciales para aplicaciones avanzadas.

🌐 Capacidades multilingües: Una fortaleza clave es su soporte multilingüe mejorado, que incluye un tokenizador mejorado específicamente adaptado para manejar una amplia gama de lenguajes naturales y códigos de programación con alta precisión.

🚀 Qwen 1.5 contra la competencia

En el panorama en rápida evolución de los grandes modelos lingüísticos, Qwen 1.5 presenta una competencia formidable. Cuando se compara con líderes de la industria como Claude 2.1, GPT-3.5-Turbo, y MixtralQwen 1.5 demuestra consistentemente rendimiento superior a través de varias métricas.

En los benchmarks tradicionales que abarcan capacidades fundamentales como la comprensión y el razonamiento del lenguaje, Qwen 1.5 muestra una solidez excepcional. Además, sus modelos de chat han obtenido puntuaciones impresionantes en benchmarks ampliamente reconocidos como Banco MT y AlpacaEval, lo que indica un alto grado de alineación con las preferencias humanas y la calidad de la conversación.

Tabla de rendimiento de Qwen 1.5

Ilustración del rendimiento de ajuste fino de Qwen 1.5.

La capacidad multilingüe del modelo también es notable, con excelentes resultados en una amplia variedad de idiomas. Ha sido evaluado rigurosamente en numerosos parámetros que abarcan exámenes, tareas de comprensión, traducción y resolución de problemas matemáticos, lo que consolida su versatilidad para aplicaciones globales.

Consejos esenciales de uso para Qwen 1.5

  • ⚙️ Instalación: Para garantizar un funcionamiento fluido y evitar errores comunes, se recomienda encarecidamente instalar transformadores>=4.37.0.
  • ⚠️ Precaución con el modelo base: Para una calidad óptima de generación de texto, generalmente es recomendable no utilizar directamente los modelos de lenguaje base.
  • Técnicas post-entrenamiento: Para liberar todo el potencial de Qwen 1.5, considere aplicar técnicas posteriores al entrenamiento como Ajuste Fino Supervisado (SFT), Aprendizaje de Refuerzo a partir de Retroalimentación Humana (RLHF) o entrenamiento previo continuo en el modelo para tareas o dominios específicos.

⚖️ Acuerdo de licencia para Qwen 1.5

Cada modelo de la serie Qwen 1.5 tiene su licencia específica detallada en el repositorio de Hugging Face. Es importante destacar que... NO Es necesario presentar una solicitud especial para uso comercial, lo que simplifica la implementación para empresas y desarrolladores.

🌟 Conclusión: El futuro de los LLM con Qwen 1.5

El Qwen 1.5 (1.8B) Este modelo representa un logro fundamental en el ámbito de los modelos lingüísticos de gran tamaño. Sus impresionantes capacidades, junto con un rendimiento competitivo y un sólido soporte multilingüe, lo posicionan como una herramienta muy prometedora para una amplia gama de aplicaciones de IA. A medida que este modelo continúa evolucionando, podemos anticipar funciones aún más avanzadas y mejoras de rendimiento, lo que lo convierte en un activo fundamental para la innovación.

❓ Preguntas frecuentes (FAQ)

P: ¿Qué es Qwen 1.5 (1.8B)?
A: Qwen 1.5 (1.8B) es la versión beta de Qwen2, un modelo de lenguaje grande basado en transformador y solo decodificador, desarrollado por Alibaba Cloud, notable por su equilibrio entre rendimiento y eficiencia.

P: ¿Cuáles son las características arquitectónicas clave de Qwen 1.5?
R: Utiliza una arquitectura Transformer con activación SwiGLU, sesgo de atención QKV, atención de consulta de grupo y una combinación de ventana deslizante y atención completa, que admite una longitud de contexto de token de 32K.

P: ¿Cómo se compara Qwen 1.5 con otros LLM como GPT-3.5-Turbo o Mixtral?
A: Qwen 1.5 demuestra un rendimiento superior en capacidades básicas, comprensión del lenguaje, razonamiento y alineación con las preferencias humanas en varios puntos de referencia.

P: ¿Puedo utilizar Qwen 1.5 para fines comerciales?
R: Sí, puedes. No necesitas enviar una solicitud especial para uso comercial. Consulta la licencia específica en el repositorio de Hugging Face de cada modelo.

P: ¿Existen recomendaciones para utilizar Qwen 1.5 de forma efectiva?
A: Se recomienda instalar transformadores>=4.37.0 y aplicar técnicas de post-entrenamiento como SFT o RLHF en lugar de utilizar los modelos base directamente para la generación de texto.

Patio de juegos de IA

Pruebe todos los modelos de API en el entorno de pruebas antes de integrarlos. Ofrecemos más de 300 modelos para integrar en su aplicación.
Pruébalo gratis
api-right-1
modelo-bg02-1

Una API
Más de 300 modelos de IA

Ahorre un 20% en costos