



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'meta-llama/Llama-3.2-3B-Instruct-Turbo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.2-3B-Instruct-Turbo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
Presentando el Llama 3.2 3B Instruir Turbo, un modelo de lenguaje grande (LLM) de vanguardia de MetaLanzada en septiembre de 2024, esta versión 3.2 modelo de lenguaje de texto a texto Está diseñado por expertos para un rendimiento superior en el seguimiento de instrucciones, manteniendo una eficiencia computacional excepcional. Se distingue por ser una solución ligera y de alta calidad, especialmente eficaz en tareas multilingües.
✨ Capacidades clave
- 💻 3 mil millones de parámetros: Logra una eficiencia computacional significativa y un rendimiento robusto.
- 💭 Seguimiento de instrucciones optimizado: Se destaca en la comprensión y ejecución de instrucciones de usuario complejas.
- 🌍 Soporte multilingüe: Ofrece un rendimiento sólido en una amplia gama de idiomas.
- 📱 Arquitectura ligera: Perfectamente adecuado para informática de borde y aplicaciones de inteligencia artificial móvil.
- 🔧 Altamente personalizable: Ofrece flexibilidad para la integración en requisitos específicos de la industria.
🚀 Casos de uso previstos
Llama 3.2 3B Instruct Turbo es una herramienta versátil para diversas aplicaciones de procesamiento del lenguaje natural (PLN), entre las que se incluyen:
- • Generación de diálogos avanzados
- • Resumen de texto eficiente
- • Servicios de traducción de alta calidad
- • Extracción precisa de entidades
- • Análisis de texto en tiempo real para entornos dinámicos
- • Aplicaciones de inteligencia artificial móvil y de borde para el procesamiento en el dispositivo
- • Agentes de diálogo multilingües inteligentes
🌐 Amplio soporte de idiomas
El sólido desempeño multilingüe del modelo se evidencia en sus puntajes de referencia en varios idiomas clave, incluidos:
- • Inglés
- • Español
- • Francés
- • Alemán
- • italiano
- • portugués
- • tailandés
- • No
💡 Descripción técnica
Arquitectura
Llama 3.2 3B Instruct Turbo aprovecha una arquitectura de transformador optimizada con modelado de lenguaje autorregresivo, que incorpora:
- • 3.21 mil millones de parámetros: Un recuento de parámetros configurado con precisión para lograr la máxima eficiencia.
- • Atención de consulta grupal (GQA): Mejora la escalabilidad y la velocidad de inferencia.
- • Incrustaciones compartidas: Optimizar la huella y el rendimiento del modelo.
- • 128k Longitud del contexto: Permite una comprensión profunda y el procesamiento de entradas más largas.
Datos y procesos de entrenamiento
Llama 3.2 fue entrenado previamente en un conjunto de datos colosal de hasta 9 billones de tokens Procedente de datos públicos en línea. El sofisticado régimen de entrenamiento incluía:
- Incorporación de logits derivados de los modelos Llama 3.1 8B y 70B.
- Destilación de conocimiento implementada después de una poda cuidadosa.
- Varias rondas de alineación, que incluyen:
- Ajuste fino supervisado (SFT)
- Muestreo de rechazo (RS)
- Optimización de preferencias directas (OPD)
Fuente de datos: Una nueva combinación de datos en línea de acceso público, que utiliza hasta 9T tokens durante el entrenamiento.
Nivel de conocimiento: La información del modelo está actualizada hasta Diciembre de 2023.
Diversidad y sesgo: Su sólido y constante desempeño en varios idiomas subraya un conjunto de datos de entrenamiento altamente diverso, lo que minimiza los sesgos inherentes.
📊 Puntos de referencia de rendimiento
Llama 3.2 3B Instruct Turbo muestra un rendimiento excepcional en diversas pruebas de rendimiento. A continuación, se muestra una representación visual de sus capacidades:
Rendimiento multilingüe (Punto de referencia MMLU)
- • Español: 55,1%
- • Francés: 54,6%
- • Alemán: 53,3%
Comparación de modelos
- • Exactitud: Logra un fuerte 63,4% en el benchmark MMLU, presentando un rendimiento altamente competitivo para su tamaño en comparación con modelos más grandes como Llama 3.1 8B (69,4%).
- • Velocidad: Cuenta con una impresionante velocidad de salida de 131,7 tokens por segundo, significativamente más rápido que el promedio.
- • Robustez: Su sólido y constante desempeño en diversos lenguajes y tareas resalta sus excelentes capacidades de generalización.
🔨 Integración y directrices
Ejemplo de código
Los desarrolladores pueden integrar fácilmente Llama 3.2 3B Instruct Turbo. A continuación, se muestra un fragmento de ejemplo que ilustra su uso dentro de una estructura de API similar a OpenAI:
🛡️ Política de uso ético
El despliegue responsable de la IA es fundamental. Las condiciones de uso de Llama 3.2 3B Instruct Turbo prohíben estrictamente:
- • Generación de código malicioso o cualquier interferencia con los sistemas informáticos.
- • Eludir restricciones de uso o medidas de seguridad predefinidas.
- • Participación en cualquier actividad ilegal.
- • Actividades que suponen un riesgo de daño a las personas.
Información sobre licencias
Los modelos Llama 3.2 se distribuyen bajo un acuerdo de licencia específico. Los desarrolladores y organizaciones de la Unión Europea deben tener en cuenta una restricción clave de uso comercial:
Uso comercial prohibido en la UE: Con base en la Política de uso aceptable de Llama 3.2, las personas y organizaciones ubicadas en Actualmente la Unión Europea no está autorizada a utilizar estos modelos con fines comerciales.
Para obtener una comprensión detallada del uso aceptable y los términos de licencia completos, consulte el sitio web oficial. Política de uso de Llama 3.2.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué es Llama 3.2 3B Instruct Turbo?
Es un modelo de lenguaje grande, compacto pero potente, desarrollado por Meta, optimizado para ejecutar instrucciones y gestionar tareas multilingües de forma eficiente. Está diseñado para diversas aplicaciones de PLN en diversas plataformas.
P2: ¿Cuáles son las principales ventajas de este modelo?
Sus principales beneficios incluyen un modesto recuento de 3 mil millones de parámetros para lograr eficiencia, un sólido soporte multilingüe, salida de alta velocidad y su idoneidad para entornos de inteligencia artificial móvil y de borde, lo que ofrece un fuerte potencial de personalización.
P3: ¿Qué idiomas admite efectivamente Llama 3.2 3B Instruct Turbo?
El modelo demuestra un sólido desempeño en inglés, español, francés, alemán, italiano, portugués, tailandés e hindi, entre otros idiomas, como lo validan los puntos de referencia.
P4: ¿Está permitido el uso comercial de Llama 3.2 3B Instruct Turbo en la Unión Europea?
No. Según la Política de uso aceptable de Llama 3.2, las organizaciones e individuos dentro de la Unión Europea actualmente tienen prohibido utilizar los modelos de Llama 3.2 con fines comerciales.
Q5: ¿Cuál es la fecha límite de conocimientos para Llama 3.2 3B Instruct Turbo?
Los datos de entrenamiento del modelo incluyen información hasta diciembre de 2023. Por lo tanto, su base de conocimiento no se extiende más allá de esta fecha.
Patio de juegos de IA



Acceso