qwen-bg
max-ico04
32K
Dans
Dehors
max-ico02
Chat
max-ico03
désactiver
DiscoLM Mixtral 8x7b (46,7B)
API DiscoLM Mixtral 8x7b : un modèle de génération de texte puissant avec 46,7 milliards de paramètres, optimisé pour l’efficacité et la performance.
Jetons gratuits de 1 $ pour les nouveaux membres
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'DiscoResearch/DiscoLM-mixtral-8x7b-v2',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="DiscoResearch/DiscoLM-mixtral-8x7b-v2",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Une seule API pour plus de 300 modèles d'IA

Économisez 20 % sur les coûts et recevez des jetons gratuits d'une valeur de 1 $.
qwenmax-bg
image
DiscoLM Mixtral 8x7b (46,7B)

Détails du produit

💡 Comprendre DiscoLM Mixtral 8x7b

DiscoLM Mixtral 8x7b, développé par DiscoResearch et dirigé par Björn Plüster, est un modèle de langage de pointe publié sur 11 décembre 2023En tant que V2 Grâce à son itération, ce modèle de génération de texte utilise une architecture de mélange clairsemé d'experts (MoE) très efficace, ce qui le rend idéal pour un large éventail de tâches avancées de traitement automatique du langage naturel (TALN).

✨ Aperçu des principales caractéristiques

  • Architecture à mélange clairsemé d'experts (MoE) : Exploite 8 groupes d'experts, avec un total considérable de 46,7 milliards de paramètres, tout en optimisant l'efficacité avec seulement 12,9 milliards de paramètres utilisés par jeton lors de l'inférence.
  • Haute performance : Atteint systématiquement des performances de haut niveau dans diverses tâches de traitement automatique du langage naturel, garantissant ainsi des résultats supérieurs.
  • Maîtrise de plusieurs langues : Fonctionne parfaitement en anglais, français, espagnol, italien et allemand.
  • Longueur du contexte étendu : Prend en charge une fenêtre de contexte impressionnante allant jusqu'à 32 768 jetons, permettant une compréhension et une génération plus approfondies.

💬 Applications visées

Le DiscoLM Mixtral 8x7b est conçu pour la polyvalence et excelle dans des applications telles que :

  • Génération et complétion de texte
  • Développement de l'IA conversationnelle
  • Création de contenu efficace
  • Traduction linguistique de haute qualité
  • initiatives de recherche avancée en TAL

🔧 Spécifications techniques

Décomposition architecturale

La principale force du modèle réside dans son architecture composée d'un mélange clairsemé d'experts (Ministère de l'Éducation)Cette conception intelligente permet au modèle d'activer uniquement un sous-ensemble spécifique de ses nombreux paramètres pour chaque jeton, établissant ainsi un équilibre optimal entre efficacité de calcul et performances maximales. Elle repose sur le framework robuste Mixtral, finement optimisé pour la modélisation causale du langage.

Données d'entraînement et diversité

DiscoLM Mixtral 8x7b a fait l'objet d'un réglage fin sur une collection riche et diversifiée d'ensembles de données, notamment :

  • Synthia : Un ensemble de données synthétiques conçu pour les tâches générales de traitement automatique du langage naturel.
  • MethaMathQA : Spécialement conçu pour la résolution de problèmes mathématiques.
  • Capybara : Une ressource complète pour le développement de l'IA conversationnelle.

Bien que la taille exacte reste confidentielle, les données d'entraînement proviennent de sources très diverses, ce qui renforce les capacités de généralisation du modèle. Les connaissances du modèle sont à jour au [date manquante]. Décembre 2023Des efforts considérables ont été déployés pour intégrer divers ensembles de données afin d'atténuer les biais ; toutefois, des biais inhérents communs aux grands modèles de langage peuvent encore être présents.

📈 Performances et points de référence

Indicateurs clés de performance

  • ARC (25 coups) : 67,32
  • HellaSwag (10 coups) : 86,25
  • MMLU (5 coups) : 70,72
  • TruthfulQA (0-shot) : 54,17
  • Winogrande (5 coups) : 80,72
  • GSM8k (5 prises de vue) : 25.09

Avantage concurrentiel

DiscoLM Mixtral 8x7b de manière constante surpasse de nombreux modèles contemporainsMeta a démontré ses performances supérieures sur divers benchmarks, notamment avec LLama 2 70B. Son architecture MoE garantit également une vitesse d'inférence efficace et une grande robustesse face à une diversité d'entrées, de sujets et de langages.

📜 Utilisation et licences

Exemples de code

Lignes directrices éthiques

Les utilisateurs sont encouragés à déployer DiscoLM Mixtral 8x7b de manière responsable, en tenant compte des biais potentiels et des implications éthiques. Ce modèle est principalement destiné à à des fins de recherche et ne doit en aucun cas être utilisé pour des activités nuisibles.

Informations sur les licences

DiscoLM Mixtral 8x7b est publié sous le nom de Licence Apache 2.0, qui permet une utilisation à la fois commerciale et non commerciale.

ⓘ Foire aux questions (FAQ)

Q : Qu'est-ce que DiscoLM Mixtral 8x7b ?
A: DiscoLM Mixtral 8x7b est un modèle de langage de génération de texte de pointe de DiscoResearch, utilisant une architecture de mélange clairsemé d'experts (MoE) pour des performances et une efficacité élevées dans diverses tâches NLP.
Q : Quelles langues DiscoLM Mixtral 8x7b prend-il en charge ?
A: Il maîtrise plusieurs langues, dont l'anglais, le français, l'espagnol, l'italien et l'allemand.
Q : En quoi son architecture MoE profite-t-elle aux utilisateurs ?
A : L'architecture Sparse Mixture of Experts permet au modèle d'activer uniquement un sous-ensemble de ses paramètres totaux par jeton, ce qui conduit à une efficacité de calcul optimisée sans compromettre les hautes performances.
Q : Quelle est la longueur du contexte de ce modèle ?
A: DiscoLM Mixtral 8x7b prend en charge une longueur de contexte étendue allant jusqu'à 32 768 jetons.
Q : Sous quelle licence DiscoLM Mixtral 8x7b est-il distribué ?
R : Le modèle est distribué sous la licence Apache 2.0, autorisant une utilisation commerciale et non commerciale.

Terrain de jeu de l'IA

Testez tous les modèles d'API dans l'environnement de test avant de les intégrer. Nous proposons plus de 300 modèles à intégrer à votre application.
Essai gratuit
api-droite-1
modèle-bg02-1

Une API
Plus de 300 modèles d'IA

Économisez 20 % sur vos coûts