



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-nemo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-nemo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
Présentation de Mistral-Nemo : un LLM puissant pour la PNL avancée
Découvrir Mistral-Nemo, un modèle de langage étendu (LLM) de pointe co-développé par Mistral IA et NVIDIA, publié le 18 juillet 2024Ce modèle de pointe (version 0.1) est conçu pour un large éventail de tâches avancées de traitement automatique du langage naturel, notamment la génération de texte sophistiquée, la synthèse précise, la traduction exacte et l'analyse des sentiments pertinente. Ses performances remarquables Fenêtre de contexte de jeton de 128k Ce qui la distingue, c'est sa capacité à traiter des volumes importants de données et des tâches complexes et multiformes avec une efficacité inégalée.
🛈 Points clés :
- ✓ Performances robustes : Doté de 12 milliards de paramètres.
- ✓ Fenêtre de contexte étendue : Prend en charge jusqu'à 128 000 jetons, idéal pour les contenus longs.
- ✓ Optimisé pour les instructions : Optimisé pour une performance supérieure et une adhésion rapide.
- ✓ Maîtrise multilingue : Capable de prendre en charge plus de 10 langues, dont l'anglais, le français, l'espagnol et le chinois.
- ✓ Tokenisation efficace : Utilise le tokenizer Tekken pour une compression efficace du texte et du code.
Applications prévues et portée mondiale
Mistral-Nemo est conçu avec précision pour les applications exigeant une génération de texte de haute qualité. Il prend notamment en charge des chatbots innovants, des outils performants de création de contenu, la synthèse de documents précise et des solutions de communication multilingues complètes. Sa large compatibilité linguistique garantit une grande adaptabilité aux déploiements internationaux et aux publics variés.
Architecture technique et aperçu de la formation
💻 Détails architecturaux :
Construit sur une base robuste Architecture Transformer, Le Mistral-Nemo présente les caractéristiques techniques clés suivantes :
- Couches : 40
- Dimension cachée : 14 436
- Dimension de la tête : 128
- Nombre de têtes : 32
- Fonction d'activation : SwiGLU
des techniques avancées telles que Attention aux requêtes groupées et Attention à la fenêtre coulissante sont intégrées afin d'améliorer encore ses performances.
📚 Données d'entraînement complètes :
Le modèle a été entraîné sur un ensemble de données vaste et diversifié, comprenant des milliards de jetons issus de textes et de codes multilingues. Cet entraînement approfondi garantit une compréhension fine des nuances linguistiques dans différents domaines.
- Sources de données : Inclut de la documentation, des pages web et de la documentation de programmation.
- Seuil de connaissances : À jour en avril 2024.
- Atténuation des biais : Mistral AI a activement mis en œuvre des stratégies pour réduire les biais en garantissant un ensemble de données représentatif de plusieurs cultures et langues, renforçant ainsi la robustesse et l'équité du modèle.
Performances exceptionnelles
Mistral-Nemo a constamment démontré d'excellentes performances sur divers critères de référence critiques :
- ★ Haute précision : Il atteint une précision impressionnante sur des tâches comme HellaSwag et Winogrande.
- ★ Leader de catégorie : Surpasse les modèles comparables de sa catégorie de taille, notamment en matière de précision du raisonnement et du codage.
Mistral-Nemo contre les meilleurs LLM : un aperçu des performances
Mistral-Nemo affiche des performances supérieures sur un large éventail de tâches par rapport à des modèles tels que Gemma 2 9B et Llama 3 8B. Sa taille nettement supérieure Fenêtre de contexte de 128 ko constitue un avantage significatif, contribuant à ses excellents résultats dans plusieurs domaines clés.
🚀 Mistral-Nemo (contexte de 128k)
- HellaSwag (0-shot) : 83,5%
- Winogrande (0 coup) : 76,8%
- TriviaQA (5 coups) : 73,8%
- OpenBookQA (0-shot) : 60,6%
- Questions-réponses de bon sens (0-shot) : 70,4%
📈 Gemma 2 9B (contexte 8k)
- HellaSwag (0-shot) : 80,1%
- TriviaQA (5 coups) : 71,3%
- (Autres points de référence inférieurs ou non spécifiés)
📈 Lama 3 8B (contexte 8k)
- HellaSwag (0-shot) : 80,6%
- TriviaQA (5 coups) : 61,0%
- (Autres points de référence inférieurs ou non spécifiés)

Résultats comparatifs de référence mettant en évidence les performances exceptionnelles de Mistral-Nemo.
Comment accéder à Mistral-Nemo et l'utiliser
🔗 Exemples de code et accès à l'API :
Mistral-Nemo est facilement disponible sur le Plateforme API IA/ML sous l'identifiant "mistrals/mistral-nemo".
Pour une mise en œuvre détaillée, une approche globale Documentation de l'API est disponible pour guider les développeurs tout au long de l'intégration et de l'utilisation.
importer openai
client = openai . OpenAI (
clé_API = "VOTRE_CLÉ_API" ,
base_url= "https://api.ai.cc/v1" ,
)
chat_completion = client.chat.completions.create (
model= "mistralai/mistral-nemo" ,
messages=[
{ "role" : "system" , "content" : "Vous êtes un assistant IA utile." },
{ "role" : "user" , "content" : "Expliquez les avantages du Mistral-Nemo de manière concise." }
],
max_tokens= 500 ,
température= 0,7 ,
);
imprimer ( chat_completion .choices[ 0 ].message.content) Cadre éthique et licences ouvertes
👤 Développement responsable de l'IA :
Mistral AI est profondément attachée aux considérations éthiques dans le développement de l'IA. L'organisation promeut la transparence concernant les capacités des modèles et encourage une utilisation responsable afin de limiter les risques de mésusage et les conséquences imprévues.
📜 Licences et accessibilité :
Mistral-Nemo est distribué sous licence permissive Licence Apache 2.0Ce modèle de licence ouverte favorise l'innovation et l'accessibilité au sein de la communauté des développeurs en autorisant des droits d'utilisation à la fois commerciaux et non commerciaux.
Prêt à intégrer ? Téléchargez l'API Mistral-Nemo ici !
Foire aux questions (FAQ)
Q1 : Qu'est-ce que le Mistral-Nemo et quelles sont ses principales utilisations ?
UN: Mistral-Nemo est un modèle de langage étendu (LLM) avancé, développé par Mistral AI et NVIDIA. Il est conçu pour les tâches de traitement automatique du langage naturel telles que la génération de texte, la synthèse, la traduction et l'analyse des sentiments. Ses principales applications incluent les chatbots, la création de contenu, la synthèse de documents et la communication multilingue.
Q2 : Quelle est la taille maximale de la fenêtre de contexte prise en charge par Mistral-Nemo ?
UN: Mistral-Nemo prend en charge une fenêtre de contexte impressionnante allant jusqu'à 128 000 jetons, ce qui lui permet de traiter et de comprendre des entrées très longues et des conversations ou documents complexes.
Q3 : Comment Mistral-Nemo se compare-t-il à d'autres LLM populaires comme Gemma 2 9B ou Llama 3 8B ?
UN: Mistral-Nemo surpasse généralement les modèles de taille similaire, tels que Gemma 2 9B et Llama 3 8B, notamment grâce à sa fenêtre de contexte nettement plus grande de 128k et à ses solides performances sur les benchmarks de précision de raisonnement et de codage comme HellaSwag et Winogrande.
Q4 : Mistral-Nemo est-il disponible pour un usage commercial ?
UN: Oui, Mistral-Nemo est distribué sous la licence Licence Apache 2.0, qui autorise une utilisation à la fois commerciale et non commerciale, favorisant ainsi une large adoption et l'innovation.
Q5 : Comment les développeurs peuvent-ils accéder à Mistral-Nemo ?
UN: Les développeurs peuvent accéder à Mistral-Nemo via le Plateforme API IA/ML en utilisant l'identifiant "mistrals/mistral-nemo"Une documentation API détaillée est également disponible pour vous guider dans l'intégration.
Terrain de jeu de l'IA



Se connecter