



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'meta-llama/Llama-3.2-3B-Instruct-Turbo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.2-3B-Instruct-Turbo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
Presentando el Llama 3.2 3B Instruct Turbo, un modelo de lenguaje grande (LLM) de vanguardia de MetaLanzada en septiembre de 2024, esta versión 3.2 modelo de lenguaje de texto a texto Diseñado con precisión para ofrecer un rendimiento superior en el seguimiento de instrucciones, manteniendo al mismo tiempo una notable eficiencia computacional. Destaca como una solución ligera y de alta calidad, especialmente eficaz en tareas multilingües.
✨ Capacidades clave
- 💻 3 mil millones de parámetros: Logra una eficiencia computacional significativa y un rendimiento robusto.
- 💭 Seguimiento de instrucciones optimizado: Destaca por su capacidad para comprender y ejecutar instrucciones de usuario complejas.
- 🌍 Soporte multilingüe: Ofrece un rendimiento sólido en una amplia gama de idiomas.
- 📱 Arquitectura ligera: Ideal para la computación perimetral y las aplicaciones de IA móvil.
- 🔧 Altamente personalizable: Ofrece flexibilidad para su integración en los requisitos específicos de cada sector.
🚀 Casos de uso previstos
Llama 3.2 3B Instruct Turbo es una herramienta versátil para diversas aplicaciones de procesamiento del lenguaje natural (PLN), entre las que se incluyen:
- • Generación de diálogos avanzados
- • Resumen de texto eficiente
- • Servicios de traducción de alta calidad
- • Extracción precisa de entidades
- • Análisis de texto en tiempo real para entornos dinámicos
- • Aplicaciones de IA para dispositivos móviles y de borde para el procesamiento en el dispositivo
- • Agentes de diálogo multilingües inteligentes
🌐 Amplio soporte lingüístico
El sólido desempeño multilingüe del modelo queda demostrado por sus puntuaciones de referencia en varios idiomas clave, entre ellos:
- • Inglés
- • Español
- • Francés
- • Alemán
- • italiano
- • portugués
- • tailandés
- • No
💡 Resumen técnico
Arquitectura
Llama 3.2 3B Instruct Turbo aprovecha una arquitectura de transformador optimizada con modelado de lenguaje autorregresivo, que incorpora:
- • 3.21 mil millones de parámetros: Un recuento de parámetros configurado con precisión para lograr la máxima eficiencia.
- • Atención a consultas grupales (GQA): Mejora la escalabilidad y la velocidad de inferencia.
- • Incrustaciones compartidas: Optimización del tamaño y el rendimiento del modelo.
- • Longitud del contexto: 128k Permite una comprensión y un procesamiento profundos de datos de entrada más extensos.
Datos y proceso de capacitación
Llama 3.2 fue preentrenado en un conjunto de datos colosal de hasta 9 billones de tokens obtenidos a partir de datos disponibles públicamente en línea. El sofisticado programa de entrenamiento incluyó:
- Incorporación de logits derivados de los modelos Llama 3.1 8B y 70B.
- Destilación del conocimiento realizada tras una cuidadosa selección.
- Varias rondas de alineación, que incluyen:
- Ajuste fino supervisado (SFT)
- Muestreo por rechazo (MR)
- Optimización de preferencias directas (DPO)
Fuente de datos: Una novedosa combinación de datos en línea de acceso público, que utiliza hasta 9 billones de tokens durante el entrenamiento.
Punto de corte de conocimiento: La información del modelo está actualizada hasta Diciembre de 2023.
Diversidad y prejuicios: Su sólido desempeño constante en varios idiomas pone de manifiesto la gran diversidad de su conjunto de datos de entrenamiento, lo que minimiza los sesgos inherentes.
📊 Puntos de referencia de rendimiento
Llama 3.2 3B Instruct Turbo demuestra un rendimiento excepcional en diversas pruebas comparativas. A continuación, se muestra una representación visual de sus capacidades:
Rendimiento multilingüe (Índice de referencia MMLU)
- • Español: 55,1%
- • Francés: 54,6%
- • Alemán: 53,3%
Comparación de modelos
- • Exactitud: Logra un fuerte 63,4% En la prueba comparativa MMLU, presenta un rendimiento altamente competitivo para su tamaño en comparación con modelos más grandes como Llama 3.1 8B (69,4%).
- • Velocidad: Cuenta con una impresionante velocidad de salida de 131,7 tokens por segundo, significativamente más rápido que el promedio.
- • Robustez: Su sólido desempeño constante en diversos idiomas y tareas pone de manifiesto su excelente capacidad de generalización.
🔨 Integración y directrices
Ejemplo de código
Los desarrolladores pueden integrar fácilmente Llama 3.2 3B Instruct Turbo. Aquí hay un fragmento de ejemplo que ilustra su uso dentro de una estructura de API similar a la de OpenAI:
🛡️ Política de uso ético
El despliegue responsable de la IA es primordial. Los términos de uso de Llama 3.2 3B Instruct Turbo prohíben estrictamente lo siguiente:
- • Generación de código malicioso o cualquier interferencia con los sistemas informáticos.
- • Eludir las restricciones de uso o las medidas de seguridad predefinidas.
- • Participar en cualquier actividad ilegal.
- • Actividades que suponen un riesgo para la integridad física de las personas.
📜 Información sobre licencias
Los modelos Llama 3.2 se distribuyen bajo un acuerdo de licencia específico. Los desarrolladores y las organizaciones dentro de la Unión Europea deben tener en cuenta una restricción clave de uso comercial:
Prohibido su uso comercial en la UE: Con base en la Política de uso aceptable de Llama 3.2, las personas y organizaciones ubicadas en el Actualmente, la Unión Europea no está autorizada a utilizar estos modelos con fines comerciales.
Para comprender en detalle el uso aceptable y los términos completos de la licencia, consulte el sitio web oficial. Política de uso de Llama 3.2.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué es Llama 3.2 3B Instruct Turbo?
Se trata de un modelo de lenguaje grande, compacto pero potente, desarrollado por Meta, optimizado para ejecutar instrucciones y gestionar tareas multilingües de forma eficiente. Está diseñado para diversas aplicaciones de PLN en diferentes plataformas.
P2: ¿Cuáles son las principales ventajas de este modelo?
Entre sus principales ventajas se incluyen un modesto número de parámetros de 3.000 millones para mayor eficiencia, un sólido soporte multilingüe, una salida de alta velocidad y su idoneidad para entornos de IA móviles y de borde, lo que ofrece un gran potencial de personalización.
P3: ¿Qué idiomas admite eficazmente Llama 3.2 3B Instruct Turbo?
El modelo demuestra un rendimiento sólido en inglés, español, francés, alemán, italiano, portugués, tailandés e hindi, entre otros idiomas, tal como lo validan las pruebas de referencia.
P4: ¿Está permitido el uso comercial de Llama 3.2 3B Instruct Turbo en la Unión Europea?
No. De acuerdo con la Política de Uso Aceptable de Llama 3.2, las organizaciones y los particulares dentro de la Unión Europea tienen prohibido actualmente utilizar los modelos de Llama 3.2 con fines comerciales.
P5: ¿Cuál es la fecha límite de conocimiento para Llama 3.2 3B Instruct Turbo?
Los datos de entrenamiento del modelo incluyen información hasta diciembre de 2023. Por lo tanto, su base de conocimientos no se extiende más allá de esta fecha.
Campo de juegos de IA



Acceso