



const { OpenAI } = require('openai');
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const main = async () => {
const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
const response = await api.completions.create({
prompt,
model: 'Qwen/Qwen1.5-72B',
});
const text = response.choices[0].text;
console.log('Completion:', text);
};
main();
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
def main():
response = client.completions.create(
model="Qwen/Qwen1.5-72B",
prompt="""
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
""",
)
completion = response.choices[0].text
print(f"Completion: {completion}")
main()

Detalle del producto
✨ Descubre Qwen 1.5 (72B): Un modelo de lenguaje de IA avanzado
Modelo de lenguaje base Qwen1.5-72B Representa la versión beta de Qwen2, un modelo de lenguaje avanzado basado en transformadores. Preentrenado con un amplio corpus de datos, ofrece mejoras significativas respecto a su predecesor, Qwen.
Las mejoras clave incluyen: soporte multilingüe Para los modelos base y de chat, rendimiento estable con un Longitud de contexto de 32K, y la eliminación de la necesidad de código remoto de confianza, agilizando su implementación y uso.
🧠 Comprensión de la arquitectura del modelo Qwen 1.5 (72B)
Qwen1.5-72B es un miembro destacado de la serie Qwen1.5, que abarca modelos de lenguaje de decodificación en seis tamaños, desde 0.5B hasta 72B. Como el modelo base más grande de esta serie, se basa en un sólido... Arquitectura del transformador.
Las características notables incluyen: Activación de SwiGLU, sesgo de atención QKV y un tokenizador mejorado adaptable a múltiples lenguajes y códigos naturales. También incorpora atención de consulta grupal y una combinación de atención de ventana deslizante y atención completa para un rendimiento mejorado.
💡Nota: Para esta versión beta, Atención de consulta grupal (GQA) y la mezcla de Atención de ventana corrediza (SWA) y actualmente se omiten plena atención.
⭐ Qwen 1.5 (72B) Rendimiento y ventaja competitiva
Qwen1.5-72B demuestra consistentemente sólido desempeño en diversos parámetros de evaluaciónDemuestra capacidades excepcionales en comprensión del lenguaje, razonamiento y tareas matemáticas complejas.
Significativamente, Supera al Llama2-70B en todos los puntos de referencia, consolidando su posición como un modelo de lenguaje de primer nivel en su clase. Su capacidad para manejar de forma fiable un... Longitud de contexto de 32K Se distingue constantemente, garantizando un rendimiento estable en diversos escenarios sin comprometer la eficiencia.
Además, Qwen1.5-72B demuestra ser altamente competitivo con otros modelos líderes en la comunidad, como Mixtral 8x7bLos resultados de referencia confirman su destreza para abordar tareas lingüísticas complejas con precisión y eficiencia, estableciéndolo como un actor importante en el panorama de los modelos de lenguaje basados en transformadores.
Consejos prácticos para usar Qwen 1.5 (72B)
Si bien generalmente se recomienda utilizar Versiones de chat para generación de textoEl modelo base Qwen1.5-72B es invaluable para diversos experimentos y evaluaciones. Esto se debe principalmente a su mínimo sesgo al completar textos.
Puede acceder fácilmente a este poderoso modelo a través de nuestro API de IA/ML Al registrarse en este sitio web.
Quienes implementan el modelo localmente pueden aplicar técnicas avanzadas de post-entrenamiento para mejorar aún más el rendimiento. Considere usar SFT (ajuste fino disperso), RLHF (Aprendizaje de refuerzo con retroalimentación humana), o entrenamiento previo continuo para adaptar los resultados a requisitos específicos y optimizar el rendimiento del modelo.
Acuerdo de licencia de Qwen 1.5 (72B)
El modelo Qwen1.5-72B está gobernado por el Acuerdo de licencia de Tongyi QianwenSe puede acceder a los detalles completos de la licencia en el repositorio del modelo en GitHub o Cara abrazada.
No se requiere una solicitud de uso comercial a menos que su producto o servicio llegue a más de 100 millones de usuarios activos mensuales.
Conclusión: Avanzando en los LLM con Qwen 1.5 (72B)
En conclusión, Qwen1.5-72B representa una avance significativo en modelos lingüísticos fundamentales de código abierto. Ofrece capacidades mejoradas de completación de texto, un sólido soporte multilingüe y un manejo superior del contexto, lo que lo convierte en una herramienta fundamental para investigadores y desarrolladores que buscan ampliar los límites de la IA.
❓ Preguntas frecuentes (FAQ)
P: ¿Qué es Qwen 1.5 (72B)?
A: Qwen 1.5 (72B) es la iteración beta de Qwen2, un modelo de lenguaje avanzado basado en un transformador de 72 mil millones de parámetros, que presenta soporte multilingüe y una longitud de contexto estable de 32K.
P: ¿Cómo se comporta Qwen 1.5 (72B) frente a sus competidores?
R: Supera consistentemente a Llama2-70B en varios puntos de referencia y es altamente competitivo con modelos como Mixtral 8x7b, particularmente conocido por su manejo confiable del contexto de 32K.
P: ¿Qwen 1.5 (72B) es adecuado para uso comercial?
R: Sí, se rige por la licencia Tongyi Qianwen. Solo se requiere una solicitud de uso comercial especial si su producto o servicio supera los 100 millones de usuarios activos mensuales.
P: ¿Cuáles son las principales aplicaciones del modelo base Qwen 1.5 (72B)?
R: Si bien se recomiendan las versiones de chat para la generación directa de texto, el modelo base es ideal para experimentos, evaluaciones y se puede mejorar con técnicas posteriores al entrenamiento como SFT o RLHF para personalizar los resultados.
P: ¿Dónde puedo encontrar los detalles de la licencia y el repositorio de modelos?
A: El acuerdo de licencia de Tongyi Qianwen y los detalles del modelo están disponibles en sus repositorios oficiales en GitHub y Cara abrazada.
Patio de juegos de IA



Acceso