qwen-bg
max-ico04
128K
In
Aus
max-ico02
Chat
max-ico03
deaktivieren
GPT OSS 20B
GPT OSS 20B ist leichtgewichtig und dennoch leistungsstark, unterstützt mehrstufige Arbeitsabläufe, die Integration von Werkzeugen und läuft effizient auf Hardware mit 16 GB Arbeitsspeicher.
Gratis-Tokens im Wert von 1 $ für neue Mitglieder
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-20b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Eine API für über 300 KI-Modelle

Sparen Sie 20 % der Kosten und erhalten Sie 1 $ gratis!
qwenmax-bg
Bild
GPT OSS 20B

Produktdetails

Der GPT OSS 20B ist ein innovatives offenes gewichtetes Sprachmodell entwickelt von OpenAI, speziell optimiert für effiziente, lokale und spezialisierte KI-AnwendungsfälleEs zeichnet sich durch ausgeprägte Denk- und Programmierfähigkeiten aus. Dieses Modell erzielt eine hervorragende Balance aus hohe Leistung und geringe Latenzwodurch es sich außerordentlich gut eignet für Edge-Geräte und Anwendungen, die schnelle Iterationen oder geringere Rechenanforderungen erfordern. Entwickelt mit Agenten-Workflows Vor diesem Hintergrund bietet es robuste Unterstützung für Gedankenketten, Funktionsaufrufe und die Ausführung von Python-Code, komplett mit anpassbarer Denkaufwand und strukturierte Ausgabefunktionen.

🚀 Technische Spezifikationen

  • ✔️ Modellgröße: Insgesamt 20 Milliarden Parameter, davon 3,6 Milliarden aktive Parameter während der Inferenz.
  • ✔️ Kompatibilität: Entwickelt für einen effizienten Betrieb mit nur 16 GB Arbeitsspeicher, mit Fokus auf geringe Latenz und lokale Bereitstellung.
  • ✔️ Architektur: Ein rein textbasiertes Modell, das ein hervorragendes Befolgen von Anweisungen und einen ausgefeilten Umgang mit Werkzeugen demonstriert.

📊 Leistungsbenchmarks

  • 💡 Vergleichbare Leistung: Erreicht bei zahlreichen Denk- und Codierungsaufgaben ein Leistungsniveau, das mit dem proprietären o3-mini-Modell von OpenAI vergleichbar ist.
  • 💡 Effiziente Bereitstellung: Hocheffizient für den Einsatz auf Hardware für Endverbraucher und diversen Edge-Geräten.
  • 💡 Fortgeschrittenes Lernen: Hervorragend geeignet für Lernszenarien mit wenigen Beispielen, komplexe mehrstufige Schlussfolgerungen und robuste Werkzeugintegration.

💰 API-Preise

  • 💲 Eingabe-Tokens: 0,033233 US-Dollar pro Million Token
  • 💲 Ausgabetoken: 0,153248 US-Dollar pro Million Token

Hauptkompetenzen

  • 🧠 Fortgeschrittenes logisches Denken: Bietet konfigurierbare Ebenen des Denkaufwands (niedrig, mittel, hoch), um Genauigkeit und Latenz optimal in Einklang zu bringen.
  • 🤖 Agentische Funktionen: Unterstützt nahtlos Funktionsaufrufe, Web-Browsing, Codeausführung und strukturierte Ausgaben innerhalb komplexer Arbeitsabläufe.
  • 💻 Codegenerierung: Sehr effektiv sowohl beim Erstellen als auch beim Bearbeiten von Code in einer Vielzahl von Programmiersprachen.
  • Leichtgewichtiger Einsatz: Entwickelt für einen effizienten Betrieb in ressourcenbeschränkten Umgebungen mit geringen Hardwareanforderungen.

🎯 Optimale Anwendungsfälle

  • 📱 Geräteinterne KI: Perfekt für Anwendungen, die leichtgewichtige, aber dennoch leistungsstarke KI-Modelle direkt auf Edge-Geräten erfordern.
  • 🔄 Schnelles Experimentieren: Ermöglicht schnelles Experimentieren und Iterieren bei Codierungs- und Analyseaufgaben.
  • 🛠️ Flexible Integration: Ideal für Anwendungen, die von einer anpassungsfähigen Argumentationstiefe und einer umfassenden Werkzeugintegration profitieren.
  • 🔒 Lokale/Offline-Bereitstellungen: Eine ausgezeichnete Wahl für Szenarien, bei denen Datenschutz und lokale Datenkontrolle Priorität haben.

💻 Codebeispiel

 // Beispiel-API-Aufruf mit GPT OSS 20B über den API-Client von OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # Oder Ihr benutzerdefinierter Endpunkt für GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Sie sind ein hilfreicher und prägnanter Assistent."}, {"role": "user", "content": "Erklären Sie das Konzept des maschinellen Lernens in einem Satz."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Ein Fehler ist aufgetreten: {e}") 

Hinweis: Dieses erweiterte Python-Codebeispiel veranschaulicht einen typischen API-Aufruf für GPT OSS 20B und ersetzt den ursprünglichen generischen Code-Platzhalter. Stellen Sie sicher, dass Ihr API-Schlüssel und Ihre `base_url` korrekt konfiguriert sind.

⚖️ Vergleich mit anderen Modellen

vs GPT OSS 120B: GPT OSS 20B Es arbeitet effizient mit begrenzter Hardware (16 GB Arbeitsspeicher) und eignet sich daher ideal für den lokalen und schnellen Einsatz mit robuster Logik und Codierung. Im Gegensatz dazu GPT OSS 120B, mit seiner deutlich größeren Kapazität (120B Parameter) bietet es eine höhere Genauigkeit und ist für umfangreiche, rechenintensive Aufgaben konzipiert.

vs OpenAI o3-mini: GPT OSS 20B Zeigt eine mit dem proprietären Modell o3-mini vergleichbare Leistung. Die wichtigsten Unterscheidungsmerkmale sind: Zugang für offene Gewichtsklassen und flexible Konfigurationsmöglichkeiten, die Forschern und Entwicklern, die Wert auf Transparenz und Anpassbarkeit legen, erhebliche Vorteile bieten.

vs GLM-4.5: Während GLM-4.5 kann GPT OSS 20B bei bestimmten praktischen Programmierherausforderungen und der Integration fortgeschrittener Werkzeuge übertreffen. GPT OSS 20B behält seine hohe Wettbewerbsfähigkeit bei allgemeinen Denkaufgaben und bietet eine einfachere Bereitstellung auf Hardware mit begrenzten Ressourcen.

⚠️ Einschränkungen und Überlegungen

  • Komplexitätsgrenze: Obwohl es kostengünstiger ist als größere Modelle, ist es für extrem komplexe Aufgaben weniger leistungsstark als das GPT OSS 120B.
  • Prompt-Design: Optimale Ergebnisse werden am besten durch explizites und gut durchdachtes Prompt-Engineering erzielt.
  • Hardwareabhängigkeit: Die Gesamtleistung und die Latenz werden direkt von den zugrunde liegenden Hardware-Fähigkeiten und der Größe des Eingangs beeinflusst.
  • Produktionssicherheitsvorkehrungen: Aufgrund der offenen Gewichtskonstruktion sollten Unternehmen zusätzliche Sicherheitsvorkehrungen für die Produktion, die Sicherheit und die Einhaltung der Vorschriften treffen.

Häufig gestellte Fragen (FAQ)

Frage 1: Wofür ist GPT OSS 20B primär konzipiert?

GPT OSS 20B ist ein offenes, gewichtetes Sprachmodell, das für effiziente, lokale und spezialisierte KI-Anwendungsfälle optimiert ist und sich insbesondere bei Aufgaben im Bereich des logischen Denkens und der Codierung auszeichnet. Es wurde für Szenarien entwickelt, die ein ausgewogenes Verhältnis von hoher Leistung und geringer Latenz erfordern, insbesondere auf Edge-Geräten.

Frage 2: Welche Speicheranforderungen gelten für GPT OSS 20B?

Das Modell ist so optimiert, dass es mit nur 16 GB Arbeitsspeicher effizient läuft und sich daher ohne großen Rechenaufwand auf Hardware für Endverbraucher und verschiedenen Edge-Geräten einsetzen lässt.

Frage 3: Wie unterstützt GPT OSS 20B agentenbasierte Workflows?

Es bietet robuste Unterstützung für agentenbasierte Funktionen, einschließlich konfigurierbarer Gedankenkettenlogik, zuverlässiger Funktionsaufrufe, Web-Browsing, Python-Codeausführung und der Möglichkeit, strukturierte Ausgaben innerhalb komplexer automatisierter Arbeitsabläufe zu generieren.

Frage 4: Ist GPT OSS 20B für hochkomplexe, umfangreiche Aufgaben geeignet?

Obwohl GPT OSS 20B für viele Anwendungen leistungsstark ist, ist es bei extrem komplexen und umfangreichen Aufgaben weniger leistungsfähig als deutlich größere Modelle wie GPT OSS 120B. Seine Stärken spielt es vor allem in ressourcenbeschränkten Umgebungen aus, in denen Effizienz und lokaler Einsatz entscheidend sind.

Frage 5: Welchen einzigartigen Vorteil bietet die „offene Gewichtsklasse“?

Die offene Struktur von GPT OSS 20B bietet Entwicklern und Forschern vollen Zugriff und maximale Flexibilität für Anpassungen und Transparenz. Dies ist besonders vorteilhaft für diejenigen, die detaillierte Einblicke in die Modellinterna, flexible Konfigurationen und die Möglichkeit zur Integration in proprietäre Systeme mit erweiterter Kontrolle benötigen.

KI-Spielplatz

Testen Sie alle API-Modelle in der Sandbox-Umgebung, bevor Sie sie integrieren. Wir bieten über 300 Modelle zur Integration in Ihre App an.
Kostenlos testen
api-right-1
Modell-BG02-1

Eine API
Mehr als 300 KI-Modelle

Sparen Sie 20 % der Kosten