



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'meta-llama/Llama-3.2-3B-Instruct-Turbo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.2-3B-Instruct-Turbo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
Présentation de Llama 3.2 3B Instruct Turbo, un modèle de langage de grande taille (LLM) de pointe issu de MétaLancée en septembre 2024, cette version 3.2 modèle de langage texte-texte Conçu avec expertise pour une exécution optimale des instructions tout en conservant une remarquable efficacité de calcul, ce logiciel se distingue comme une solution légère et performante, particulièrement efficace pour les tâches multilingues.
✨ Fonctionnalités clés
- 💻 3 milliards de paramètres : Permet d'atteindre une efficacité de calcul significative et des performances robustes.
- 💭 Suivi des instructions optimisé : Excellente capacité à comprendre et à exécuter des instructions utilisateur complexes.
- 🌍 Assistance multilingue : Offre d'excellentes performances dans un large éventail de langues.
- 📱 Architecture légère : Parfaitement adapté à l'informatique de périphérie et aux applications d'IA mobile.
- 🔧 Hautement personnalisable : Offre une grande flexibilité d'intégration aux exigences spécifiques de l'industrie.
🚀 Cas d'utilisation prévus
Llama 3.2 3B Instruct Turbo est un outil polyvalent pour diverses applications de traitement automatique du langage naturel (TALN), notamment :
- • Génération de dialogue avancée
- • Résumé de texte efficace
- • Services de traduction de haute qualité
- • Extraction précise d'entités
- • Analyse de texte en temps réel pour les environnements dynamiques
- • Applications d'IA embarquées et mobiles pour le traitement sur l'appareil
- • Agents de dialogue multilingues intelligents
🌐 Assistance linguistique étendue
Les excellentes performances multilingues du modèle sont attestées par ses scores de référence dans plusieurs langues clés, notamment :
- • Anglais
- • Espagnol
- • Français
- • Allemand
- • italien
- • portugais
- • thaïlandais
- • Non
💡 Aperçu technique
Architecture
Llama 3.2 3B Instruct Turbo exploite une architecture de transformateur optimisée avec modélisation du langage autorégressive, intégrant :
- • 3,21 milliards de paramètres : Un nombre de paramètres configuré avec précision pour une efficacité optimale.
- • Attention aux requêtes de groupe (GQA) : Améliore l'évolutivité et la vitesse d'inférence.
- • Intégrations partagées : Optimisation de l'encombrement et des performances du modèle.
- • 128k Longueur du contexte : Permet une compréhension et un traitement approfondis de données d'entrée plus longues.
Données et processus d'entraînement
Llama 3.2 a été pré-entraîné sur un ensemble de données colossal pouvant atteindre 9 billions de jetons Les données proviennent de sources publiques en ligne. Le programme d'entraînement sophistiqué comprenait :
- Incorporation des logits dérivés des modèles Llama 3.1 8B et 70B.
- Distillation des connaissances mise en œuvre après un élagage rigoureux.
- Plusieurs cycles d'alignement, comprenant :
- Réglage fin supervisé (SFT)
- Échantillonnage par rejet (RS)
- Optimisation directe des préférences (DPO)
Source des données : Un mélange inédit de données en ligne accessibles au public, utilisant jusqu'à 9T jetons pendant l'entraînement.
Seuil de connaissances : Les informations du modèle sont à jour jusqu'au Décembre 2023.
Diversité et préjugés : Ses performances solides et constantes dans différentes langues soulignent la grande diversité des données d'entraînement, minimisant ainsi les biais inhérents.
📊 Indicateurs de performance
Llama 3.2 3B Instruct Turbo affiche des performances remarquables sur divers tests de performance. Vous trouverez ci-dessous une représentation visuelle de ses capacités :
Performance multilingue (MMLU Benchmark)
- • Espagnol: 55,1%
- • Français: 54,6%
- • Allemand: 53,3%
Comparaison de modèles
- • Précision: Réalise une forte 63,4% sur le benchmark MMLU, présentant des performances très compétitives pour sa taille par rapport à des modèles plus grands comme le Llama 3.1 8B (69,4%).
- • Vitesse: Se targue d'une vitesse de sortie impressionnante de 131,7 jetons par seconde, nettement plus rapidement que la moyenne.
- • Robustesse : Ses performances solides et constantes dans diverses langues et tâches soulignent ses excellentes capacités de généralisation.
🔨 Intégration et lignes directrices
Exemple de code
Les développeurs peuvent facilement intégrer Llama 3.2 3B Instruct Turbo. Voici un exemple de code illustrant son utilisation au sein d'une structure d'API similaire à celle d'OpenAI :
🛡️ Politique d'utilisation éthique
Le déploiement responsable de l'IA est primordial. Les conditions d'utilisation de Llama 3.2 3B Instruct Turbo interdisent formellement :
- • Génération de code malveillant ou toute forme d'interférence avec les systèmes informatiques.
- • Contourner les restrictions d'utilisation ou les mesures de sécurité prédéfinies.
- • S'engager dans des activités illégales.
- • Activités présentant un risque de préjudice pour les individus.
📜 Informations sur les licences
Les modèles Llama 3.2 sont distribués sous un accord de licence spécifique. Les développeurs et les organisations de l'Union européenne doivent prendre en compte une restriction importante concernant leur utilisation commerciale :
Utilisation commerciale interdite dans l'UE : Conformément à la politique d'utilisation acceptable de Llama 3.2, les personnes et les organisations situées dans le L'Union européenne n'est actuellement pas autorisée à utiliser ces modèles à des fins commerciales.
Pour une compréhension détaillée des conditions d'utilisation acceptables et des termes de licence complets, veuillez consulter le site officiel. Politique d'utilisation de Llama 3.2.
❓ Foire aux questions (FAQ)
Q1 : Qu'est-ce que Llama 3.2 3B Instruct Turbo ?
Il s'agit d'un modèle de langage compact et puissant, développé par Meta, optimisé pour l'exécution d'instructions et la gestion efficace des tâches multilingues. Il est conçu pour diverses applications de traitement automatique du langage naturel (TALN) sur différentes plateformes.
Q2 : Quels sont les principaux avantages de ce modèle ?
Ses principaux avantages comprennent un nombre modeste de paramètres de 3 milliards pour une efficacité optimale, une prise en charge multilingue robuste, une sortie à haute vitesse et son adéquation aux environnements d'IA périphériques et mobiles, offrant un fort potentiel de personnalisation.
Q3 : Quelles langues Llama 3.2 3B Instruct Turbo prend-il effectivement en charge ?
Le modèle affiche d'excellentes performances en anglais, espagnol, français, allemand, italien, portugais, thaï et hindi, entre autres langues, comme le confirment les tests de référence.
Q4 : L'utilisation commerciale de Llama 3.2 3B Instruct Turbo est-elle autorisée dans l'Union européenne ?
Non. Conformément à la politique d'utilisation acceptable de Llama 3.2, les organisations et les particuliers au sein de l'Union européenne n'ont actuellement pas le droit d'utiliser les modèles Llama 3.2 à des fins commerciales.
Q5 : Quelle est la date limite de connaissances pour Llama 3.2 3B Instruct Turbo ?
Les données d'entraînement du modèle incluent des informations allant jusqu'à décembre 2023. Par conséquent, sa base de connaissances ne s'étend pas au-delà de cette date.
Terrain de jeu de l'IA



Se connecter