qwen-bg
max-ico04
2K
In
Aus
max-ico02
Chat
max-ico03
deaktivieren
Guanako (65B)
Zugriff auf die Guanaco-65B API. Guanaco 65B ist ein Open-Source-Chatbot-Modell, das mit ChatGPT 3.5 Turbo konkurriert und mithilfe effizienter 4-Bit-QLoRA-Feinabstimmung entwickelt wurde.
Gratis-Tokens im Wert von 1 $ für neue Mitglieder
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'togethercomputer/guanaco-65b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="togethercomputer/guanaco-65b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Eine API für über 300 KI-Modelle

Sparen Sie 20 % der Kosten und erhalten Sie 1 $ gratis!
qwenmax-bg
Bild
Guanako (65B)

Produktdetails

💡 Guanaco-65B: Ein führender Open-Source-LLM-Chatbot

Der Guanaco-65B ist ein anspruchsvolles 65 Milliarden Parameter Open-Source-Chatbot-Modell. Veröffentlicht 2023 von Tim DettmersDieses fortschrittliche textbasierte Large Language Model (LLM) ist ein Beweis für effiziente Feinabstimmungstechniken. Es wurde durch Anwendung von 4-Bit-QLoRA-Feinabstimmung auf das LLaMA-Basismodell unter Verwendung des umfassenden OASST1-Datensatzes entwickelt.

Guanaco-65B zeichnet sich durch seine außergewöhnliche Leistung aus und erreicht Fähigkeiten, die mit erstklassigen kommerziellen Chatbots wie beispielsweise … vergleichbar sind. ChatGPT Und BARDEDadurch wird leistungsstarke dialogbasierte KI für ein breites Anwendungsspektrum zugänglicher und kostengünstiger.

✅ Hauptmerkmale und Vorteile

  • Wettbewerbsfähigkeit: Zeigt eine mit ChatGPT und BARD vergleichbare Leistung bei prominenten Benchmarks wie Vicuna und OpenAssistant.
  • Verfügbarkeit als Open-Source-Software: Frei zugänglich für lokale Experimente und den Einsatz, demokratisiert den Zugang zu leistungsstarker KI.
  • Effizientes 4-Bit-QLoRA-Training: Basierend auf einem reproduzierbaren und hocheffizienten 4-Bit-QLoRA-Feinabstimmungsprozess.
  • Gewichte der leichten Adapter: Verwendet kompakte Adaptergewichte, die sich nahtlos in die LLaMA-Basismodelle integrieren lassen.

🎯 Vorgesehene Anwendungsfälle

Der Guanaco-65B wurde entwickelt, um Entwickler und Forscher bei der Bereitstellung und dem Experimentieren mit modernsten dialogbasierten KI-Systemen zu unterstützen. Seine Vielseitigkeit macht ihn zur idealen Wahl für verschiedene Anwendungen, darunter:

  • Entwicklung robuster Open-Domain-Chatbots
  • Gestaltung aufgabenorientierter Dialogsysteme
  • Verbesserung der Frage-Antwort-Funktionen
  • Automatisierung von Textzusammenfassungsaufgaben
  • Erstellung vielfältiger und kreativer Textinhalte

🌐 Mehrsprachigkeit

Während Guanaco-65B von Natur aus ein mehrsprachiges ModellDas Training mit dem OASST1-Datensatz, der stark auf ressourcenreiche Sprachen ausgerichtet ist, deutet auf optimale Leistung hin. Daher wird erwartet, dass das Modell in [fehlende Information] die besten Ergebnisse erzielt. Englisch und andere Sprachen mit umfangreichen Ressourcen.

⚙️ Technische Spezifikationen

Architektur:

Der Guanaco-65B nutzt einen LoRA (Low-Rank Adaptation) ArchitekturDies beinhaltet das Hinzufügen spezifischer Adaptergewichte zu allen Schichten des zugrunde liegenden LLaMA-Basismodells. Dieses Design ermöglicht eine hocheffiziente Feinabstimmung und somit umfangreiche Anpassungsmöglichkeiten, wobei die Kernfunktionen des Basismodells sorgfältig erhalten bleiben.

Trainingsdaten:

Das Modell wurde mithilfe des OASST1-DatensatzDieser Datensatz ist für seine Mehrsprachigkeit bekannt, konzentriert sich aber hauptsächlich auf ressourcenreiche Sprachen. Genaue Angaben zur Größe und Vielfalt des Datensatzes werden nicht öffentlich gemacht.

Wissensgrenze:

Der genaue Stichtag für die Kenntnis der Guanaco-65B-Daten ist nicht öffentlich angegebenEs wird allgemein davon ausgegangen, dass die Wissensbasis die Informationen widerspiegelt, die bis zum Abschlussdatum des für die Feinabstimmung verwendeten OASST1-Datensatzes verfügbar waren.

Leistungskennzahlen:

Laut dokumentierten Berichten weist Guanaco-65B eine bemerkenswerte Leistung auf und erreicht folgende Werte: 99,3 Prozent der Leistung von ChatGPT-3.5 Turbo auf den anspruchsvollen Vicuna-Benchmarks. Diese beeindruckende Bewertung wurde sowohl durch menschliche Beurteilung als auch durch eine Analyse mit GPT-4 bestätigt.

🚀 Beispiel für die API-Nutzung

Die Integration von Guanaco-65B in Ihre Anwendungen ist auf Benutzerfreundlichkeit ausgelegt. Hier ist ein typisches API-Nutzungsbeispiel, das die Interaktion mit dem Modell für Chatvervollständigungen veranschaulicht:

# Beispiel-API-Aufruf für die Chatvervollständigung import openai client = openai.OpenAI ( api_key= "YOUR_API_KEY" , base_url= "https://api.together.xyz/v1" ) chat_completion = client.chat.completions.create(model= "togethercomputer/guanaco-65b" , messages=[{ "role" : "system" , "content" : "Sie sind ein hilfreicher Assistent." ,}, { "role" : "user" , "content" : "Was ist die Hauptstadt von Frankreich?" ,},], temperature=0.7, max_tokens=512,) print(chat_completion.choices[0].message.content)

Hinweis: Dieser beispielhafte Codeausschnitt setzt die Kompatibilität mit den OpenAI-API-Standards voraus, die häufig von Plattformen wie Together AI unterstützt werden. Weitere Informationen zur API-Integration finden Sie in der Dokumentation. Together AI-Blogbeitrag über Guanaco-65BDie

⚖️ Informationen zu ethischer Nutzung und Lizenzierung

Ethische Richtlinien:

Als Open-Source-Modell Es werden keine spezifischen ethischen Richtlinien formell herausgegeben. für Guanaco-65B durch seinen Entwickler. Daher trägt dieser die Verantwortung für seinen verantwortungsvollen Einsatz, die Berücksichtigung potenziellen Missbrauchs und die Einhaltung ethischer KI-Praktiken. liegt allein in der Verantwortung der Entwickler und Endnutzer.

Lizenztyp:

Der Guanaco-Adaptergewichte sind unter der freizügigen Lizenzierung Apache 2.0 LizenzEs ist jedoch entscheidend zu verstehen, dass die vollständige Nutzung des Guanaco-65B-Modells den Zugriff auf die zugrunde liegenden Daten erfordert. LLaMA-Basismodellgewichte, die geregelt werden von restriktivere LizenzbedingungenDie Nutzer müssen die vollständige Einhaltung beider Lizenzvereinbarungen gewährleisten.

✨ Fazit

Im Wesentlichen stellt der Guanaco-65B ein leistungsstarkes und leicht zugängliches Open-Source-Chatbot-Modell dar, das effektiv mit etablierten kommerziellen KI-Lösungen wie ChatGPT konkurriert. Er unterstreicht nicht nur das bemerkenswerte Potenzial und die Effizienz des 4-Bit-QLoRA-Feintunings, sondern bietet auch einen kostengünstigen und reproduzierbaren Weg zur Entwicklung und zum Einsatz leistungsstarker dialogbasierter KI-Lösungen. Seine Einführung trägt wesentlich zur breiteren Verfügbarkeit fortschrittlicher LLM-Technologie bei.

❓ Häufig gestellte Fragen (FAQ)

Was ist Guanaco-65B?

Guanaco-65B ist ein Open-Source-Chatbot-Modell mit 65 Milliarden Parametern, entwickelt von Tim Dettmers. Es basiert auf dem LLaMA-Basismodell und wurde mithilfe der 4-Bit-QLoRA-Technik feinabgestimmt, wodurch es eine mit führenden kommerziellen KI-Chatbots vergleichbare Leistung bietet.

Wie schneidet Guanaco-65B im Vergleich zu ChatGPT in puncto Leistung ab?

Laut Dokumentation und Benchmarks erreicht Guanaco-65B bei den Vicuna-Benchmarks 99,3 % der Leistung von ChatGPT-3.5 Turbo, wie sowohl von menschlichen Testern als auch von GPT-4 bewertet wurde, was seine hohe Wettbewerbsfähigkeit unterstreicht.

Was ist QLoRA-Feinabstimmung?

QLoRA (Quantized Low-Rank Adaptation) ist eine effiziente 4-Bit-Quantisierungsmethode zur Feinabstimmung großer Sprachmodelle. Sie reduziert den Speicherverbrauch deutlich bei gleichzeitig hoher Leistung und ermöglicht so das Training und den Einsatz massiver Modelle auf gängigerer Hardware.

Kann Guanaco-65B für kommerzielle Zwecke verwendet werden?

Die Gewichte des Guanaco-Adapters unterliegen der Apache-2.0-Lizenz, die im Allgemeinen die kommerzielle Nutzung erlaubt. Die grundlegenden LLaMA-Basismodellgewichte hingegen unterliegen restriktiveren Lizenzbedingungen. Nutzer müssen daher bei jeder kommerziellen Anwendung die Einhaltung beider Lizenzen sicherstellen.

Welche Sprachen werden von Guanaco-65B am besten unterstützt?

Obwohl es sich um ein mehrsprachiges Modell handelt, ist der OASST1-Datensatz, mit dem es trainiert wurde, stark auf ressourcenreiche Sprachen ausgerichtet. Daher ist zu erwarten, dass Guanaco-65B mit Englisch und anderen ähnlich ressourcenreichen Sprachen optimale Ergebnisse erzielt.

KI-Spielplatz

Testen Sie alle API-Modelle in der Sandbox-Umgebung, bevor Sie sie integrieren. Wir bieten über 300 Modelle zur Integration in Ihre App an.
Kostenlos testen
api-right-1
Modell-BG02-1

Eine API
Mehr als 300 KI-Modelle

Sparen Sie 20 % der Kosten