



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'DiscoResearch/DiscoLM-mixtral-8x7b-v2',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="DiscoResearch/DiscoLM-mixtral-8x7b-v2",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
💡 Comprendre DiscoLM Mixtral 8x7b
DiscoLM Mixtral 8x7b, développé par DiscoResearch et dirigé par Björn Plüster, est un modèle de langage de pointe publié sur 11 décembre 2023En tant que V2 Grâce à son itération, ce modèle de génération de texte utilise une architecture de mélange clairsemé d'experts (MoE) très efficace, ce qui le rend idéal pour un large éventail de tâches avancées de traitement automatique du langage naturel (TALN).
✨ Aperçu des principales caractéristiques
- ✓ Architecture à mélange clairsemé d'experts (MoE) : Exploite 8 groupes d'experts, avec un total considérable de 46,7 milliards de paramètres, tout en optimisant l'efficacité avec seulement 12,9 milliards de paramètres utilisés par jeton lors de l'inférence.
- ✓ Haute performance : Atteint systématiquement des performances de haut niveau dans diverses tâches de traitement automatique du langage naturel, garantissant ainsi des résultats supérieurs.
- ✓ Maîtrise de plusieurs langues : Fonctionne parfaitement en anglais, français, espagnol, italien et allemand.
- ✓ Longueur du contexte étendu : Prend en charge une fenêtre de contexte impressionnante allant jusqu'à 32 768 jetons, permettant une compréhension et une génération plus approfondies.
💬 Applications visées
Le DiscoLM Mixtral 8x7b est conçu pour la polyvalence et excelle dans des applications telles que :
- ● Génération et complétion de texte
- ● Développement de l'IA conversationnelle
- ● Création de contenu efficace
- ● Traduction linguistique de haute qualité
- ● initiatives de recherche avancée en TAL
🔧 Spécifications techniques
Décomposition architecturale
La principale force du modèle réside dans son architecture composée d'un mélange clairsemé d'experts (Ministère de l'Éducation)Cette conception intelligente permet au modèle d'activer uniquement un sous-ensemble spécifique de ses nombreux paramètres pour chaque jeton, établissant ainsi un équilibre optimal entre efficacité de calcul et performances maximales. Elle repose sur le framework robuste Mixtral, finement optimisé pour la modélisation causale du langage.
Données d'entraînement et diversité
DiscoLM Mixtral 8x7b a fait l'objet d'un réglage fin sur une collection riche et diversifiée d'ensembles de données, notamment :
- ● Synthia : Un ensemble de données synthétiques conçu pour les tâches générales de traitement automatique du langage naturel.
- ● MethaMathQA : Spécialement conçu pour la résolution de problèmes mathématiques.
- ● Capybara : Une ressource complète pour le développement de l'IA conversationnelle.
Bien que la taille exacte reste confidentielle, les données d'entraînement proviennent de sources très diverses, ce qui renforce les capacités de généralisation du modèle. Les connaissances du modèle sont à jour au [date manquante]. Décembre 2023Des efforts considérables ont été déployés pour intégrer divers ensembles de données afin d'atténuer les biais ; toutefois, des biais inhérents communs aux grands modèles de langage peuvent encore être présents.
📈 Performances et points de référence
Indicateurs clés de performance
- ● ARC (25 coups) : 67,32
- ● HellaSwag (10 coups) : 86,25
- ● MMLU (5 coups) : 70,72
- ● TruthfulQA (0-shot) : 54,17
- ● Winogrande (5 coups) : 80,72
- ● GSM8k (5 prises de vue) : 25.09
Avantage concurrentiel
DiscoLM Mixtral 8x7b de manière constante surpasse de nombreux modèles contemporainsMeta a démontré ses performances supérieures sur divers benchmarks, notamment avec LLama 2 70B. Son architecture MoE garantit également une vitesse d'inférence efficace et une grande robustesse face à une diversité d'entrées, de sujets et de langages.
📜 Utilisation et licences
Exemples de code
Lignes directrices éthiques
Les utilisateurs sont encouragés à déployer DiscoLM Mixtral 8x7b de manière responsable, en tenant compte des biais potentiels et des implications éthiques. Ce modèle est principalement destiné à à des fins de recherche et ne doit en aucun cas être utilisé pour des activités nuisibles.
Informations sur les licences
DiscoLM Mixtral 8x7b est publié sous le nom de Licence Apache 2.0, qui permet une utilisation à la fois commerciale et non commerciale.
ⓘ Foire aux questions (FAQ)
- Q : Qu'est-ce que DiscoLM Mixtral 8x7b ?
- A: DiscoLM Mixtral 8x7b est un modèle de langage de génération de texte de pointe de DiscoResearch, utilisant une architecture de mélange clairsemé d'experts (MoE) pour des performances et une efficacité élevées dans diverses tâches NLP.
- Q : Quelles langues DiscoLM Mixtral 8x7b prend-il en charge ?
- A: Il maîtrise plusieurs langues, dont l'anglais, le français, l'espagnol, l'italien et l'allemand.
- Q : En quoi son architecture MoE profite-t-elle aux utilisateurs ?
- A : L'architecture Sparse Mixture of Experts permet au modèle d'activer uniquement un sous-ensemble de ses paramètres totaux par jeton, ce qui conduit à une efficacité de calcul optimisée sans compromettre les hautes performances.
- Q : Quelle est la longueur du contexte de ce modèle ?
- A: DiscoLM Mixtral 8x7b prend en charge une longueur de contexte étendue allant jusqu'à 32 768 jetons.
- Q : Sous quelle licence DiscoLM Mixtral 8x7b est-il distribué ?
- R : Le modèle est distribué sous la licence Apache 2.0, autorisant une utilisation commerciale et non commerciale.
Terrain de jeu de l'IA



Se connecter