



const { OpenAI } = require('openai');
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const main = async () => {
const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
const response = await api.completions.create({
prompt,
model: 'Qwen/Qwen1.5-72B',
});
const text = response.choices[0].text;
console.log('Completion:', text);
};
main();
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
def main():
response = client.completions.create(
model="Qwen/Qwen1.5-72B",
prompt="""
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
""",
)
completion = response.choices[0].text
print(f"Completion: {completion}")
main()

Detalles del producto
✨ Descubre Qwen 1.5 (72B): Un modelo de lenguaje de IA avanzado
Modelo de lenguaje base Qwen1.5-72B representa la versión beta de Qwen2, un modelo de lenguaje avanzado basado en transformadores. Preentrenado con un vasto corpus de datos, ofrece mejoras significativas con respecto a su predecesor, Qwen.
Las mejoras clave incluyen: Soporte multilingüe para ambos modelos base y de chat, rendimiento estable con un Longitud de contexto de 32Ky la eliminación de la necesidad de código_remoto_de_confianza, simplificando su despliegue y uso.
🧠 Comprensión de la arquitectura del modelo Qwen 1.5 (72B)
Qwen1.5-72B es un miembro destacado de la serie Qwen1.5, que abarca modelos de lenguaje decodificadores en seis tamaños, desde 0,5B hasta 72B. Como el modelo base más grande de esta serie, está construido sobre una base robusta. Arquitectura de transformadores.
Entre las características destacadas se incluyen: Activación de SwiGLU, atención al sesgo QKV y un tokenizador mejorado adaptable a múltiples lenguajes y códigos naturales. También incorpora atención a consultas grupales y una combinación de atención de ventana deslizante y atención completa para un rendimiento optimizado.
💡 Nota: Para esta versión beta, Atención a consultas grupales (GQA) y la mezcla de Atención mediante ventana deslizante (SWA) y actualmente se omite la atención plena.
⭐ Rendimiento y ventaja competitiva de Qwen 1.5 (72B)
Qwen1.5-72B demuestra consistentemente Sólido desempeño en diversos parámetros de evaluación.Demuestra capacidades excepcionales en comprensión del lenguaje, razonamiento y tareas matemáticas complejas.
Significativamente, es Supera a Llama2-70B en todas las pruebas de rendimiento., consolidando su posición como un modelo de lenguaje de primer nivel en su clase. Su capacidad para manejar de manera confiable un Longitud de contexto de 32K Su eficacia la distingue de forma constante, garantizando un rendimiento estable en diversos escenarios sin comprometer la eficiencia.
Además, Qwen1.5-72B demuestra ser altamente competitivo con otros modelos líderes en la comunidad, como Mixtral 8x7bLos resultados de las pruebas comparativas confirman su destreza para abordar tareas lingüísticas complejas con precisión y eficiencia, lo que lo consolida como un actor importante en el panorama de los modelos de lenguaje basados en transformadores.
💡 Consejos prácticos de uso para Qwen 1.5 (72B)
Si bien generalmente se recomienda usar versiones de chat para generación de textoEl modelo base Qwen1.5-72B resulta invaluable para diversos experimentos y evaluaciones. Esto se debe principalmente a su mínimo sesgo al realizar tareas de autocompletado de texto.
Puedes acceder fácilmente a este potente modelo a través de nuestra API de IA/ML al registrarte en este sitio web.
Para aquellos que implementan el modelo localmente, pueden aplicar técnicas avanzadas posteriores al entrenamiento para mejorar aún más el rendimiento. Considere usar SFT (Ajuste fino disperso), RLHF (Aprendizaje por Refuerzo con Retroalimentación Humana)o bien, un preentrenamiento continuo para adaptar los resultados a requisitos específicos y optimizar el rendimiento del modelo.
📜 Acuerdo de licencia de Qwen 1.5 (72B)
El modelo Qwen1.5-72B se rige por el Acuerdo de licencia de Tongyi Qianwen. Se puede acceder a todos los detalles de la licencia en el repositorio del modelo en GitHub o Cara de abrazo.
No se requiere una solicitud de uso comercial a menos que su producto o servicio llegue a más de 100 millones de usuarios activos mensuales.
🚀 Conclusión: Impulsando los programas de maestría en derecho (LLM) con Qwen 1.5 (72B)
En conclusión, Qwen1.5-72B representa un avance significativo en modelos de lenguaje fundamentales de código abierto. Ofrece capacidades mejoradas de autocompletado de texto, soporte multilingüe robusto y manejo de contexto superior, lo que la convierte en una herramienta fundamental para investigadores y desarrolladores que buscan ampliar los límites de la IA.
❓ Preguntas frecuentes (FAQ)
P: ¿Qué es Qwen 1.5 (72B)?
A: Qwen 1.5 (72B) es la versión beta de Qwen2, un modelo de lenguaje avanzado basado en transformadores con 72 mil millones de parámetros, que ofrece soporte multilingüe y una longitud de contexto estable de 32K.
P: ¿Cómo se desempeña Qwen 1.5 (72B) en comparación con sus competidores?
A: Supera sistemáticamente a Llama2-70B en diversas pruebas de rendimiento y es altamente competitivo con modelos como Mixtral 8x7b, destacando especialmente por su manejo fiable del contexto de 32K.
P: ¿Es Qwen 1.5 (72B) apto para uso comercial?
R: Sí, se rige por la licencia Tongyi Qianwen. Solo se requiere una solicitud especial de uso comercial si su producto o servicio supera los 100 millones de usuarios activos mensuales.
P: ¿Cuáles son las principales aplicaciones del modelo base Qwen 1.5 (72B)?
R: Si bien se recomiendan las versiones de chat para la generación directa de texto, el modelo base es ideal para experimentos y evaluaciones, y se puede mejorar con técnicas posteriores al entrenamiento, como SFT o RLHF, para personalizar los resultados.
P: ¿Dónde puedo encontrar los detalles de la licencia y el repositorio de modelos?
A: El acuerdo de licencia de Tongyi Qianwen y los detalles del modelo están disponibles en sus repositorios oficiales en GitHub y Cara de abrazo.
Campo de juegos de IA



Acceso