



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'togethercomputer/guanaco-65b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="togethercomputer/guanaco-65b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Produktdetails
💡 Guanaco-65B: Ein führender Open-Source-LLM-Chatbot
Der Guanaco-65B ist ein anspruchsvolles 65 Milliarden Parameter Open-Source-Chatbot-Modell. Veröffentlicht 2023 von Tim DettmersDieses fortschrittliche textbasierte Large Language Model (LLM) ist ein Beweis für effiziente Feinabstimmungstechniken. Es wurde durch Anwendung von 4-Bit-QLoRA-Feinabstimmung auf das LLaMA-Basismodell unter Verwendung des umfassenden OASST1-Datensatzes entwickelt.
Guanaco-65B zeichnet sich durch seine außergewöhnliche Leistung aus und erreicht Fähigkeiten, die mit erstklassigen kommerziellen Chatbots wie beispielsweise … vergleichbar sind. ChatGPT Und BARDEDadurch wird leistungsstarke dialogbasierte KI für ein breites Anwendungsspektrum zugänglicher und kostengünstiger.
✅ Hauptmerkmale und Vorteile
- • Wettbewerbsfähigkeit: Zeigt eine mit ChatGPT und BARD vergleichbare Leistung bei prominenten Benchmarks wie Vicuna und OpenAssistant.
- • Verfügbarkeit als Open-Source-Software: Frei zugänglich für lokale Experimente und den Einsatz, demokratisiert den Zugang zu leistungsstarker KI.
- • Effizientes 4-Bit-QLoRA-Training: Basierend auf einem reproduzierbaren und hocheffizienten 4-Bit-QLoRA-Feinabstimmungsprozess.
- • Gewichte der leichten Adapter: Verwendet kompakte Adaptergewichte, die sich nahtlos in die LLaMA-Basismodelle integrieren lassen.
🎯 Vorgesehene Anwendungsfälle
Der Guanaco-65B wurde entwickelt, um Entwickler und Forscher bei der Bereitstellung und dem Experimentieren mit modernsten dialogbasierten KI-Systemen zu unterstützen. Seine Vielseitigkeit macht ihn zur idealen Wahl für verschiedene Anwendungen, darunter:
- • Entwicklung robuster Open-Domain-Chatbots
- • Gestaltung aufgabenorientierter Dialogsysteme
- • Verbesserung der Frage-Antwort-Funktionen
- • Automatisierung von Textzusammenfassungsaufgaben
- • Erstellung vielfältiger und kreativer Textinhalte
🌐 Mehrsprachigkeit
Während Guanaco-65B von Natur aus ein mehrsprachiges ModellDas Training mit dem OASST1-Datensatz, der stark auf ressourcenreiche Sprachen ausgerichtet ist, deutet auf optimale Leistung hin. Daher wird erwartet, dass das Modell in [fehlende Information] die besten Ergebnisse erzielt. Englisch und andere Sprachen mit umfangreichen Ressourcen.
⚙️ Technische Spezifikationen
Architektur:
Der Guanaco-65B nutzt einen LoRA (Low-Rank Adaptation) ArchitekturDies beinhaltet das Hinzufügen spezifischer Adaptergewichte zu allen Schichten des zugrunde liegenden LLaMA-Basismodells. Dieses Design ermöglicht eine hocheffiziente Feinabstimmung und somit umfangreiche Anpassungsmöglichkeiten, wobei die Kernfunktionen des Basismodells sorgfältig erhalten bleiben.
Trainingsdaten:
Das Modell wurde mithilfe des OASST1-DatensatzDieser Datensatz ist für seine Mehrsprachigkeit bekannt, konzentriert sich aber hauptsächlich auf ressourcenreiche Sprachen. Genaue Angaben zur Größe und Vielfalt des Datensatzes werden nicht öffentlich gemacht.
Wissensgrenze:
Der genaue Stichtag für die Kenntnis der Guanaco-65B-Daten ist nicht öffentlich angegebenEs wird allgemein davon ausgegangen, dass die Wissensbasis die Informationen widerspiegelt, die bis zum Abschlussdatum des für die Feinabstimmung verwendeten OASST1-Datensatzes verfügbar waren.
Leistungskennzahlen:
Laut dokumentierten Berichten weist Guanaco-65B eine bemerkenswerte Leistung auf und erreicht folgende Werte: 99,3 Prozent der Leistung von ChatGPT-3.5 Turbo auf den anspruchsvollen Vicuna-Benchmarks. Diese beeindruckende Bewertung wurde sowohl durch menschliche Beurteilung als auch durch eine Analyse mit GPT-4 bestätigt.
🚀 Beispiel für die API-Nutzung
Die Integration von Guanaco-65B in Ihre Anwendungen ist auf Benutzerfreundlichkeit ausgelegt. Hier ist ein typisches API-Nutzungsbeispiel, das die Interaktion mit dem Modell für Chatvervollständigungen veranschaulicht:
# Beispiel-API-Aufruf für die Chatvervollständigung import openai client = openai.OpenAI ( api_key= "YOUR_API_KEY" , base_url= "https://api.together.xyz/v1" ) chat_completion = client.chat.completions.create(model= "togethercomputer/guanaco-65b" , messages=[{ "role" : "system" , "content" : "Sie sind ein hilfreicher Assistent." ,}, { "role" : "user" , "content" : "Was ist die Hauptstadt von Frankreich?" ,},], temperature=0.7, max_tokens=512,) print(chat_completion.choices[0].message.content) Hinweis: Dieser beispielhafte Codeausschnitt setzt die Kompatibilität mit den OpenAI-API-Standards voraus, die häufig von Plattformen wie Together AI unterstützt werden. Weitere Informationen zur API-Integration finden Sie in der Dokumentation. Together AI-Blogbeitrag über Guanaco-65BDie
⚖️ Informationen zu ethischer Nutzung und Lizenzierung
Ethische Richtlinien:
Als Open-Source-Modell Es werden keine spezifischen ethischen Richtlinien formell herausgegeben. für Guanaco-65B durch seinen Entwickler. Daher trägt dieser die Verantwortung für seinen verantwortungsvollen Einsatz, die Berücksichtigung potenziellen Missbrauchs und die Einhaltung ethischer KI-Praktiken. liegt allein in der Verantwortung der Entwickler und Endnutzer.
Lizenztyp:
Der Guanaco-Adaptergewichte sind unter der freizügigen Lizenzierung Apache 2.0 LizenzEs ist jedoch entscheidend zu verstehen, dass die vollständige Nutzung des Guanaco-65B-Modells den Zugriff auf die zugrunde liegenden Daten erfordert. LLaMA-Basismodellgewichte, die geregelt werden von restriktivere LizenzbedingungenDie Nutzer müssen die vollständige Einhaltung beider Lizenzvereinbarungen gewährleisten.
✨ Fazit
Im Wesentlichen stellt der Guanaco-65B ein leistungsstarkes und leicht zugängliches Open-Source-Chatbot-Modell dar, das effektiv mit etablierten kommerziellen KI-Lösungen wie ChatGPT konkurriert. Er unterstreicht nicht nur das bemerkenswerte Potenzial und die Effizienz des 4-Bit-QLoRA-Feintunings, sondern bietet auch einen kostengünstigen und reproduzierbaren Weg zur Entwicklung und zum Einsatz leistungsstarker dialogbasierter KI-Lösungen. Seine Einführung trägt wesentlich zur breiteren Verfügbarkeit fortschrittlicher LLM-Technologie bei.
❓ Häufig gestellte Fragen (FAQ)
Was ist Guanaco-65B?
Guanaco-65B ist ein Open-Source-Chatbot-Modell mit 65 Milliarden Parametern, entwickelt von Tim Dettmers. Es basiert auf dem LLaMA-Basismodell und wurde mithilfe der 4-Bit-QLoRA-Technik feinabgestimmt, wodurch es eine mit führenden kommerziellen KI-Chatbots vergleichbare Leistung bietet.
Wie schneidet Guanaco-65B im Vergleich zu ChatGPT in puncto Leistung ab?
Laut Dokumentation und Benchmarks erreicht Guanaco-65B bei den Vicuna-Benchmarks 99,3 % der Leistung von ChatGPT-3.5 Turbo, wie sowohl von menschlichen Testern als auch von GPT-4 bewertet wurde, was seine hohe Wettbewerbsfähigkeit unterstreicht.
Was ist QLoRA-Feinabstimmung?
QLoRA (Quantized Low-Rank Adaptation) ist eine effiziente 4-Bit-Quantisierungsmethode zur Feinabstimmung großer Sprachmodelle. Sie reduziert den Speicherverbrauch deutlich bei gleichzeitig hoher Leistung und ermöglicht so das Training und den Einsatz massiver Modelle auf gängigerer Hardware.
Kann Guanaco-65B für kommerzielle Zwecke verwendet werden?
Die Gewichte des Guanaco-Adapters unterliegen der Apache-2.0-Lizenz, die im Allgemeinen die kommerzielle Nutzung erlaubt. Die grundlegenden LLaMA-Basismodellgewichte hingegen unterliegen restriktiveren Lizenzbedingungen. Nutzer müssen daher bei jeder kommerziellen Anwendung die Einhaltung beider Lizenzen sicherstellen.
Welche Sprachen werden von Guanaco-65B am besten unterstützt?
Obwohl es sich um ein mehrsprachiges Modell handelt, ist der OASST1-Datensatz, mit dem es trainiert wurde, stark auf ressourcenreiche Sprachen ausgerichtet. Daher ist zu erwarten, dass Guanaco-65B mit Englisch und anderen ähnlich ressourcenreichen Sprachen optimale Ergebnisse erzielt.
KI-Spielplatz



Einloggen