



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dolly-v2-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dolly-v2-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Produktdetails
🌟 Dolly v2 (7B): Ein Open-Source-LLM mit Befehlsfolgefunktion
Dolly v2 (7B) ist ein innovatives großes Sprachmodell, das Anweisungen befolgt entwickelt von DatabricksDieses am 12. April 2023 veröffentlichte Modell basiert auf der Pythia-6.9b-Architektur und wurde anhand eines umfangreichen Datensatzes von ca. 15.000 Befehls-/Antwortpaaren optimiert. Dolly v2 (7B) ist insbesondere… Lizenz für die kommerzielle NutzungDadurch wird es zu einem leistungsstarken und leicht zugänglichen Werkzeug für eine breite Palette von Aufgaben der natürlichen Sprachverarbeitung.
💡 Wichtige Informationen
- Modellbezeichnung: Dolly v2 (7B)
- Entwickler/Schöpfer: Databricks
- Veröffentlichungsdatum: 12. April 2023
- Version: 2.0
- Modelltyp: Großes Sprachmodell, das Anweisungen befolgt
✅ Kernfunktionen und -merkmale
Dieses Modell zeichnet sich aus mehreren Gründen aus:
- • Befolgen von Anweisungen: Ausgezeichnet im Verstehen und Ausführen expliziter Anweisungen.
- • Open Source: Fördert Transparenz und gemeinschaftsorientierte Entwicklung.
- • Gewerblich lizenziert: Die Verwendung in kommerziellen Anwendungen ist gemäß der Apache 2.0-Lizenz gestattet.
- • Hochwertige Schulung: Feinabgestimmt anhand eines sorgfältig zusammengestellten Datensatzes für optimale Befolgung der Anweisungen.
- • Kompakte Größe: Mit rund 6,9 Milliarden Parametern bietet es ein gutes Gleichgewicht zwischen Leistung und Ressourceneffizienz.
🛠️ Verwendungszweck
Dolly v2 (7B) ist vielseitig und kann für eine Vielzahl von Aufgaben der natürlichen Sprachverarbeitung eingesetzt werden, darunter:
- ▪️ Brainstorming und Ideengenerierung
- ▪️ Textklassifizierung
- ▪️ Beantwortung sowohl geschlossener als auch offener Fragen
- ▪️ Kreative und sachliche Texterstellung
- ▪️ Informationsgewinnung aus Dokumenten
- ▪️ Zusammenfassung längerer Texte
Sprachunterstützung: Das Modell unterstützt in erster Linie Aufgaben in englischer Sprache.
⚙️ Technische Spezifikationen
Architektur
Dolly v2 (7B) basiert auf der robusten Pythia-6.9b-Architektur, ein angesehenes, auf Transformatoren basierendes Modell, das für seine Skalierbarkeit und Leistungsfähigkeit bekannt ist.
Trainingsdaten
Datenquelle und -größe: Das Modell wurde mithilfe des proprietären Verfahrens feinabgestimmt. Databricks-Dolly-15k-DatensatzDieser hochwertige Datensatz umfasst ca. 15.000 Befehls-/Antwortpaare, die von Databricks-Mitarbeitern sorgfältig erstellt wurden.
Wissensgrenze: Das grundlegende Wissen von Dolly v2 (7B) stammt aus der Vortrainingsphase von Pythia-6.9b und wurde durch die im Rahmen des Feinabstimmungsprozesses entwickelten Fähigkeiten zur Befolgung von Anweisungen erheblich erweitert.
Leistungskennzahlen
Obwohl Dolly v2 (7B) nicht darauf ausgelegt ist, Bestwerte im Vergleich zu größeren, komplexeren Modellen zu erzielen, zeigt es dennoch durchweg... überraschend hohe Qualität des Befolgens von AnweisungenNachfolgend einige Vergleichsergebnisse:
| Benchmark | Punktzahl |
|---|---|
| ARC (25-Schuss) | 0,392 |
| HellaSwag (10-Schuss) | 0,633838 |
| MMLU (5-Schuss) | 0,406997 |
| TruthfulQA (0-shot) | 0,444444 |
Vergleich mit anderen Modellen
Auch wenn Dolly v2 (7B) in den Roh-Benchmark-Ergebnissen deutlich größere Modelle wie GPT-3 (175B Parameter) nicht übertreffen mag, bietet es dennoch überzeugende Ergebnisse. Ausgewogenheit zwischen hoher Leistung und überschaubarem Ressourcenbedarfwodurch es für viele Anwendungen äußerst praktisch ist.
🚀 Nutzungsrichtlinien
Codebeispiel
⚖️ Ethische Überlegungen
Bei der Entwicklung von Dolly v2 (7B) wurden strenge ethische Überlegungen angestellt. Die verwendeten Trainingsdaten enthalten weder Obszönitäten noch geschützte geistige Eigentumsrechte oder personenbezogene Daten von nicht-öffentlichen Personen. Es ist jedoch wichtig zu beachten, dass das Modell können Vorurteile widerspiegeln Die von Databricks-Mitarbeitern generierten Daten können Verzerrungen aufweisen. Benutzer sollten daher Vorsicht walten lassen und sich der potenziellen Verzerrungen in den Modellergebnissen bewusst sein.
📄 Lizenzinformationen
Dolly v2 (7B) wird unter der folgenden Bezeichnung veröffentlicht: Apache-2.0-LizenzDiese freizügige Lizenz bietet Nutzern Flexibilität für Forschungs- und kommerzielle Anwendungen und fördert so eine breite Akzeptanz und Innovation. Weitere Informationen zu den Ursprüngen von Dolly v2 finden Sie in der [Dokumentation/Dokumentation einfügen]. Ankündigung von Databricks Dolly v2Die
⚠️ Einschränkungen von Dolly v2 (7B)
Dolly v2 (7B) ist zwar leistungsstark, weist aber auch gewisse Einschränkungen auf, die beachtet werden sollten:
- • Nicht auf dem neuesten Stand der Technik: Es ist nicht darauf ausgelegt, mit der Leistung modernerer oder wesentlich größerer Modellarchitekturen zu konkurrieren.
- • Komplexe Aufgabenstellungen: Kann Schwierigkeiten mit syntaktisch sehr komplexen Aufgabenstellungen haben.
- • Spezialaufgaben: Besitzt nur begrenzte Fähigkeiten bei Programmierproblemen und fortgeschrittenen mathematischen Operationen.
- • Sachliche Richtigkeit: Kann sachliche Fehler enthalten oder Halluzinationen aufweisen, die eine menschliche Aufsicht erfordern.
- • Datenverzerrungen: Spiegelt mögliche Verzerrungen wider, die den von Databricks-Mitarbeitern generierten Trainingsdaten innewohnen.
❓ Häufig gestellte Fragen (FAQ)
Frage 1: Was ist Dolly v2 (7B)?
A1: Dolly v2 (7B) ist ein von Databricks entwickeltes, auf dem Pythia-6.9b-Modell basierendes, instruktionsfolgendes großes Sprachmodell, das auf 15.000 Befehls-/Antwortpaaren feinabgestimmt wurde.
Frage 2: Kann Dolly v2 (7B) für kommerzielle Projekte eingesetzt werden?
A2: Ja, Dolly v2 (7B) wird unter der Apache 2.0-Lizenz veröffentlicht, die sowohl die Nutzung zu Forschungszwecken als auch zu kommerziellen Zwecken erlaubt.
Frage 3: Was sind die Hauptanwendungsgebiete von Dolly v2 (7B)?
A3: Es ist für verschiedene NLP-Aufgaben konzipiert, darunter Brainstorming, Klassifizierung, Beantwortung von Fragen (geschlossen und offen), Textgenerierung, Informationsextraktion und Zusammenfassung.
Frage 4: Wie schneidet Dolly v2 (7B) im Vergleich zu größeren Modellen wie GPT-3 ab?
A4: Auch wenn Dolly v2 (7B) in reinen Benchmarks Modelle wie GPT-3 nicht übertreffen mag, bietet es ein gutes Gleichgewicht zwischen Leistung und deutlich geringerem Ressourcenbedarf und ist daher für viele Anwendungen eine praktikable Wahl.
Frage 5: Gibt es irgendwelche ethischen Bedenken bezüglich Dolly v2 (7B)?
A5: Das Modell wurde unter ethischen Gesichtspunkten entwickelt; obszöne Inhalte, geistiges Eigentum und nicht-öffentliche personenbezogene Daten wurden aus den Trainingsdaten ausgeschlossen. Es kann jedoch weiterhin Verzerrungen der Databricks-Mitarbeiter widerspiegeln, die die Feinabstimmungsdaten erstellt haben.
KI-Spielplatz



Einloggen