



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dbrx-instruct',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dbrx-instruct",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
💻 Présentation de DBRX Instruct : une nouvelle ère pour les LLM ouverts
DBRX Instruct, développé par DatabricksInstruct est un modèle de langage de grande taille (LLM) révolutionnaire, conçu pour établir de nouvelles références en matière de performance et d'efficacité. Lancée en 2023, cette version 1.0 du modèle Instruct exploite une architecture sophistiquée pour offrir des capacités supérieures dans un large éventail de tâches de traitement automatique du langage naturel.
- ● Nom du modèle : DBRX
- ● Développeur/Créateur : Databricks
- ● Date de sortie : 2023
- ● Version : 1.0 Instructions
- ● Type de modèle : Modèle de langage étendu (LLM)
🔥 Principaux atouts architecturaux et de performance
DBRX Instruct utilise essentiellement un architecture fine de mélange d'experts (MoE)Cette conception innovante intègre 132 milliards de paramètres au total, avec une activation dynamique de 36 milliards de paramètres pour toute entrée donnée, garantissant une efficacité et des performances optimales.
✨ Fonctionnalités principales :
- ✓ Système avancé du ministère de l'Éducation : Il comprend 16 experts capables d'en sélectionner 4, offrant 65 fois plus de combinaisons d'experts possibles que d'autres modèles MoE ouverts importants.
- ✓ Données d'entraînement exhaustives : Pré-entraîné sur un impressionnant ensemble de 12 billions de jetons de données textuelles et de code méticuleusement sélectionnées.
- ✓ Domination des références : Démontre des performances exceptionnelles dans tous les domaines critiques, notamment les connaissances générales, le raisonnement de bon sens, la programmation et le raisonnement mathématique.
- ✓ Surpasse ses pairs : Surpasse systématiquement les principaux modèles ouverts tels que Mixtral Instruct et Code Llama (70B) dans diverses évaluations.
📜 Cas d'utilisation prévus et prise en charge multilingue
DBRX Instruct est conçu comme un maîtrise en droit à vocation généralece qui le rend incroyablement polyvalent pour une multitude d'applications de traitement automatique du langage naturel (TALN).
💬 Idéal pour :
- ✍ Génération de texte : Rédiger un texte cohérent et pertinent au contexte.
- ❓ Réponse aux questions : Fournir des réponses précises et pertinentes aux questions.
- 💻 Génération de code : Générer des extraits de code de haute qualité et résoudre des problèmes de programmation.
- 🔢 Raisonnement mathématique : Excellente maîtrise des tâches nécessitant une compréhension mathématique complexe.
De plus, DBRX Instruct se distingue comme un modèle multilingue, capable de traiter et de générer du contenu dans un large éventail de langues, ce qui renforce son applicabilité mondiale.
🔗 Analyse approfondie : Spécifications techniques et performances
Architecture
DBRX Instruct est construit sur un architecture LLM basée sur un transformateur et un décodeur uniquement, entraîné à l'aide de l'objectif de prédiction du jeton suivant. Son système MoE à granularité fine fait intervenir 16 experts distincts, en sélectionnant dynamiquement 4 pour chaque requête d'entrée afin d'optimiser le traitement.
Qualité des données d'entraînement
Les capacités robustes du modèle proviennent de son pré-entraînement sur 12 billions de jetons de données textuelles et de code méticuleusement organiséesAvec une longueur de contexte maximale de 32 000 jetons, cet ensemble de données est estimé être au moins deux fois plus qu'un ensemble de données utilisé pour la famille de modèles MPT, garantissant ainsi une capacité de compréhension et de génération riche.
📈 Indicateurs de performance par rapport aux modèles leaders :
DBRX Instruct démontre systématiquement des performances supérieures aux autres modèles open source leaders sur les benchmarks standard :
- MMLU : 73,7% (Instructions DBRX) contre 71,4 % (Instruction mixte)
- HellaSwag 10 coups : 89,0% (Instructions DBRX) contre 87,6 % (Instruction mixte)
- WinoGrande : 81,8% (Instructions DBRX) contre 81,1 % (Instruction mixte)
- Défi Databricks : 66,8% (Instructions DBRX) contre 60,7 % (Instruction mixte)
- Évaluation humaine : 70,1% (Instructions DBRX) contre 54,8 % (Instruction mixte)
- GSM8k : 66,9% (Instructions DBRX) contre 61,1 % (Instruction mixte)
💡 Premiers pas avec DBRX Instruct
Accès API
DBRX Instruct est conçu pour une intégration facile via API. Un exemple d'extrait d'API (par exemple, `open-ai.chat-completion` avec `databricks/dbrx-instruct`) démontre sa simplicité d'utilisation pour les développeurs.
📝 Informations sur les licences
DBRX Instruct est disponible pour une utilisation sous la licence Licence de modèle ouvert Databricks, favorisant un large accès et l'innovation.
💬 Foire aux questions (FAQ)
-
Q : Qu'est-ce que le modèle DBRX Instruct ?
A: DBRX Instruct est un puissant modèle de langage open-source de grande taille (LLM) développé par Databricks, connu pour son architecture Mixture-of-Experts (MoE) à grain fin et ses fortes performances sur diverses tâches NLP.
-
Q : En quoi le programme DBRX Instruct diffère-t-il des autres LLM ?
A: Il utilise une architecture MoE unique avec 16 experts (en sélectionnant 4 par entrée), offrant beaucoup plus de combinaisons d'experts et surpassant les principaux modèles ouverts comme Mixtral Instruct et Code Llama (70B) sur des benchmarks clés.
-
Q : Quelles sont les principales applications de DBRX Instruct ?
A: C'est un LLM généraliste idéal pour la génération de texte, la réponse aux questions, la génération de code et les tâches nécessitant de solides compétences en programmation et en raisonnement mathématique.
-
Q : DBRX Instruct est-il multilingue ?
R : Oui, DBRX Instruct prend en charge un large éventail de langages, ce qui le rend adapté aux applications internationales.
-
Q : Sous quelle licence DBRX Instruct est-il disponible ?
A: DBRX Instruct est distribué sous la licence Databricks Open Model License.
Terrain de jeu de l'IA



Se connecter