



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dolly-v2-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dolly-v2-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
🌟 Dolly v2 (7B) : Un LLM open source basé sur le suivi d’instructions
Dolly v2 (7B) est une innovation modèle de langage étendu suivant les instructions développé par DatabricksPublié le 12 avril 2023, ce modèle est basé sur l'architecture Pythia-6.9b et a été optimisé sur un important ensemble de données d'environ 15 000 paires instruction/réponse. À noter que Dolly v2 (7B) est sous licence pour usage commercial, ce qui en fait un outil puissant et accessible pour un large éventail de tâches de traitement automatique du langage naturel.
💡 Informations clés
- Nom du modèle : Dolly v2 (7B)
- Développeur/Créateur : Databricks
- Date de sortie : 12 avril 2023
- Version: 2.0
- Type de modèle : Modèle de langage étendu avec suivi d'instructions
✅ Fonctionnalités et capacités principales
Ce modèle se distingue pour plusieurs raisons :
- • Respect des consignes : Excellente capacité à comprendre et à exécuter des instructions précises.
- • Logiciel libre : Favorise la transparence et le développement axé sur la communauté.
- • Sous licence commerciale : Autorisé pour une utilisation dans des applications commerciales sous la licence Apache 2.0.
- • Formation de haute qualité : Mise au point sur un ensemble de données soigneusement sélectionnées pour une meilleure adhésion aux instructions.
- • Format compact : Avec environ 6,9 milliards de paramètres, il offre un bon équilibre entre performance et efficacité des ressources.
🛠️ Applications visées
Dolly v2 (7B) est polyvalent et peut être appliqué à diverses tâches de traitement du langage naturel, notamment :
- ▪️ Remue-méninges et génération d'idées
- ▪️ Classification de textes
- ▪️ Répondre aux questions fermées et ouvertes
- ▪️ Génération de textes créatifs et factuels
- ▪️ Extraction d'informations à partir de documents
- ▪️ Résumé de textes longs
Assistance linguistique : Ce modèle prend principalement en charge les tâches en langue anglaise.
⚙️ Spécifications techniques
Architecture
Dolly v2 (7B) est construite sur une plateforme robuste Architecture de Pythia-6.9b, un modèle à transformateur réputé pour son évolutivité et ses performances.
Données d'entraînement
Source et taille des données : Le modèle a fait l'objet d'un réglage fin à l'aide du logiciel propriétaire jeu de données databricks-dolly-15kCet ensemble de données de haute qualité comprend environ 15 000 paires instruction/réponse, méticuleusement générées par les employés de Databricks.
Seuil de connaissances : Les connaissances fondamentales de Dolly v2 (7B) sont dérivées de la phase de pré-entraînement Pythia-6.9b, considérablement améliorées par les capacités de suivi des instructions développées au cours du processus de mise au point.
Indicateurs de performance
Bien que Dolly v2 (7B) ne soit pas conçue pour atteindre des scores de référence de pointe par rapport à des modèles plus grands et plus complexes, elle démontre constamment un comportement de suivi des instructions d'une qualité étonnamment élevéeVoici quelques résultats de référence :
| Référence | Score |
|---|---|
| ARC (25 coups) | 0,392 |
| HellaSwag (10 coups) | 0,633838 |
| MMLU (5 coups) | 0,406997 |
| TruthfulQA (0-shot) | 0,444444 |
Comparaison avec d'autres modèles
Bien que Dolly v2 (7 milliards de paramètres) ne surpasse pas des modèles nettement plus grands comme GPT-3 (175 milliards de paramètres) en termes de scores bruts de référence, il offre un avantage convaincant. équilibre entre des performances élevées et des besoins en ressources gérablesce qui le rend très pratique pour de nombreuses applications.
🚀 Consignes d'utilisation
Exemple de code
⚖️ Considérations éthiques
Le développement de Dolly v2 (7B) a intégré de solides considérations éthiques. Les données d'entraînement utilisées ne contiennent ni obscénités, ni propriété intellectuelle protégée, ni informations permettant d'identifier personnellement des personnes non publiques. Il est toutefois important de noter que le modèle peut refléter des biais Ces données sont présentes dans les données générées par les employés de Databricks. Les utilisateurs doivent faire preuve de prudence et être vigilants quant aux biais potentiels dans les résultats des modèles.
📄 Informations sur les licences
Dolly v2 (7B) est distribuée sous la licence Licence Apache 2.0Cette licence permissive offre aux utilisateurs une grande flexibilité pour les applications de recherche et commerciales, favorisant ainsi une large adoption et l'innovation. Pour plus de détails sur les origines de Dolly v2, veuillez consulter la documentation. Annonce de Databricks Dolly v2.
⚠️ Limitations de Dolly v2 (7B)
Bien que puissante, la Dolly v2 (7B) présente certaines limitations à connaître :
- • Pas à la pointe de la technologie : Il n'est pas conçu pour rivaliser avec les performances d'architectures de modèles plus modernes ou nettement plus grandes.
- • Invites complexes : Peut avoir des difficultés avec des consignes syntaxiquement très complexes.
- • Tâches spécialisées : Possède des capacités limitées en matière de résolution de problèmes de programmation et d'opérations mathématiques avancées.
- • Exactitude des faits : Peut produire des erreurs factuelles ou présenter des hallucinations, nécessitant une surveillance humaine.
- • Biais des données : Reflète les biais potentiels inhérents aux données d'entraînement générées par les employés de Databricks.
❓ Foire aux questions (FAQ)
Q1 : Qu'est-ce que Dolly v2 (7B) ?
A1 : Dolly v2 (7B) est un modèle de langage étendu de suivi d'instructions développé par Databricks, basé sur le modèle Pythia-6.9b et affiné sur 15 000 paires instruction/réponse.
Q2 : La Dolly v2 (7B) peut-elle être utilisée pour des projets commerciaux ?
A2 : Oui, Dolly v2 (7B) est distribué sous la licence Apache 2.0, qui autorise à la fois la recherche et l'utilisation commerciale.
Q3 : Quelles sont les principales applications de Dolly v2 (7B) ?
A3 : Il est conçu pour diverses tâches de TALN, notamment le brainstorming, la classification, la réponse aux questions (fermées et ouvertes), la génération de texte, l'extraction d'informations et le résumé.
Q4 : Comment Dolly v2 (7B) se compare-t-il aux modèles plus grands comme GPT-3 ?
A4 : Bien qu'il ne surpasse pas des modèles comme GPT-3 dans les benchmarks bruts, Dolly v2 (7B) offre un bon équilibre entre performances et besoins en ressources nettement inférieurs, ce qui en fait un choix pratique pour de nombreuses applications.
Q5 : Existe-t-il des problèmes éthiques avec Dolly v2 (7B) ?
A5 : Le modèle a été développé en tenant compte de considérations éthiques, en excluant de ses données d’entraînement les contenus obscènes, les données de propriété intellectuelle et les données personnelles non publiques. Cependant, il peut encore refléter des biais de la part des employés de Databricks qui ont généré les données d’ajustement.
Terrain de jeu de l'IA



Se connecter