



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-20b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Produktdetails
Der GPT OSS 20B ist ein innovatives offenes gewichtetes Sprachmodell entwickelt von OpenAI, speziell optimiert für effiziente, lokale und spezialisierte KI-AnwendungsfälleEs zeichnet sich durch ausgeprägte Denk- und Programmierfähigkeiten aus. Dieses Modell erzielt eine hervorragende Balance aus hohe Leistung und geringe Latenzwodurch es sich außerordentlich gut eignet für Edge-Geräte und Anwendungen, die schnelle Iterationen oder geringere Rechenanforderungen erfordern. Entwickelt mit Agenten-Workflows Vor diesem Hintergrund bietet es robuste Unterstützung für Gedankenketten, Funktionsaufrufe und die Ausführung von Python-Code, komplett mit anpassbarer Denkaufwand und strukturierte Ausgabefunktionen.
🚀 Technische Spezifikationen
- ✔️ Modellgröße: Insgesamt 20 Milliarden Parameter, davon 3,6 Milliarden aktive Parameter während der Inferenz.
- ✔️ Kompatibilität: Entwickelt für einen effizienten Betrieb mit nur 16 GB Arbeitsspeicher, mit Fokus auf geringe Latenz und lokale Bereitstellung.
- ✔️ Architektur: Ein rein textbasiertes Modell, das ein hervorragendes Befolgen von Anweisungen und einen ausgefeilten Umgang mit Werkzeugen demonstriert.
📊 Leistungsbenchmarks
- 💡 Vergleichbare Leistung: Erreicht bei zahlreichen Denk- und Codierungsaufgaben ein Leistungsniveau, das mit dem proprietären o3-mini-Modell von OpenAI vergleichbar ist.
- 💡 Effiziente Bereitstellung: Hocheffizient für den Einsatz auf Hardware für Endverbraucher und diversen Edge-Geräten.
- 💡 Fortgeschrittenes Lernen: Hervorragend geeignet für Lernszenarien mit wenigen Beispielen, komplexe mehrstufige Schlussfolgerungen und robuste Werkzeugintegration.
💰 API-Preise
- 💲 Eingabe-Tokens: 0,033233 US-Dollar pro Million Token
- 💲 Ausgabetoken: 0,153248 US-Dollar pro Million Token
✨ Hauptkompetenzen
- 🧠 Fortgeschrittenes logisches Denken: Bietet konfigurierbare Ebenen des Denkaufwands (niedrig, mittel, hoch), um Genauigkeit und Latenz optimal in Einklang zu bringen.
- 🤖 Agentische Funktionen: Unterstützt nahtlos Funktionsaufrufe, Web-Browsing, Codeausführung und strukturierte Ausgaben innerhalb komplexer Arbeitsabläufe.
- 💻 Codegenerierung: Sehr effektiv sowohl beim Erstellen als auch beim Bearbeiten von Code in einer Vielzahl von Programmiersprachen.
- ⚡ Leichtgewichtiger Einsatz: Entwickelt für einen effizienten Betrieb in ressourcenbeschränkten Umgebungen mit geringen Hardwareanforderungen.
🎯 Optimale Anwendungsfälle
- 📱 Geräteinterne KI: Perfekt für Anwendungen, die leichtgewichtige, aber dennoch leistungsstarke KI-Modelle direkt auf Edge-Geräten erfordern.
- 🔄 Schnelles Experimentieren: Ermöglicht schnelles Experimentieren und Iterieren bei Codierungs- und Analyseaufgaben.
- 🛠️ Flexible Integration: Ideal für Anwendungen, die von einer anpassungsfähigen Argumentationstiefe und einer umfassenden Werkzeugintegration profitieren.
- 🔒 Lokale/Offline-Bereitstellungen: Eine ausgezeichnete Wahl für Szenarien, bei denen Datenschutz und lokale Datenkontrolle Priorität haben.
💻 Codebeispiel
// Beispiel-API-Aufruf mit GPT OSS 20B über den API-Client von OpenAI import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # Oder Ihr benutzerdefinierter Endpunkt für GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Sie sind ein hilfreicher und prägnanter Assistent."}, {"role": "user", "content": "Erklären Sie das Konzept des maschinellen Lernens in einem Satz."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Ein Fehler ist aufgetreten: {e}") Hinweis: Dieses erweiterte Python-Codebeispiel veranschaulicht einen typischen API-Aufruf für GPT OSS 20B und ersetzt den ursprünglichen generischen Code-Platzhalter. Stellen Sie sicher, dass Ihr API-Schlüssel und Ihre `base_url` korrekt konfiguriert sind.
⚖️ Vergleich mit anderen Modellen
vs GPT OSS 120B: GPT OSS 20B Es arbeitet effizient mit begrenzter Hardware (16 GB Arbeitsspeicher) und eignet sich daher ideal für den lokalen und schnellen Einsatz mit robuster Logik und Codierung. Im Gegensatz dazu GPT OSS 120B, mit seiner deutlich größeren Kapazität (120B Parameter) bietet es eine höhere Genauigkeit und ist für umfangreiche, rechenintensive Aufgaben konzipiert.
vs OpenAI o3-mini: GPT OSS 20B Zeigt eine mit dem proprietären Modell o3-mini vergleichbare Leistung. Die wichtigsten Unterscheidungsmerkmale sind: Zugang für offene Gewichtsklassen und flexible Konfigurationsmöglichkeiten, die Forschern und Entwicklern, die Wert auf Transparenz und Anpassbarkeit legen, erhebliche Vorteile bieten.
vs GLM-4.5: Während GLM-4.5 kann GPT OSS 20B bei bestimmten praktischen Programmierherausforderungen und der Integration fortgeschrittener Werkzeuge übertreffen. GPT OSS 20B behält seine hohe Wettbewerbsfähigkeit bei allgemeinen Denkaufgaben und bietet eine einfachere Bereitstellung auf Hardware mit begrenzten Ressourcen.
⚠️ Einschränkungen und Überlegungen
- ❗ Komplexitätsgrenze: Obwohl es kostengünstiger ist als größere Modelle, ist es für extrem komplexe Aufgaben weniger leistungsstark als das GPT OSS 120B.
- ❗ Prompt-Design: Optimale Ergebnisse werden am besten durch explizites und gut durchdachtes Prompt-Engineering erzielt.
- ❗ Hardwareabhängigkeit: Die Gesamtleistung und die Latenz werden direkt von den zugrunde liegenden Hardware-Fähigkeiten und der Größe des Eingangs beeinflusst.
- ❗ Produktionssicherheitsvorkehrungen: Aufgrund der offenen Gewichtskonstruktion sollten Unternehmen zusätzliche Sicherheitsvorkehrungen für die Produktion, die Sicherheit und die Einhaltung der Vorschriften treffen.
❓ Häufig gestellte Fragen (FAQ)
GPT OSS 20B ist ein offenes, gewichtetes Sprachmodell, das für effiziente, lokale und spezialisierte KI-Anwendungsfälle optimiert ist und sich insbesondere bei Aufgaben im Bereich des logischen Denkens und der Codierung auszeichnet. Es wurde für Szenarien entwickelt, die ein ausgewogenes Verhältnis von hoher Leistung und geringer Latenz erfordern, insbesondere auf Edge-Geräten.
Das Modell ist so optimiert, dass es mit nur 16 GB Arbeitsspeicher effizient läuft und sich daher ohne großen Rechenaufwand auf Hardware für Endverbraucher und verschiedenen Edge-Geräten einsetzen lässt.
Es bietet robuste Unterstützung für agentenbasierte Funktionen, einschließlich konfigurierbarer Gedankenkettenlogik, zuverlässiger Funktionsaufrufe, Web-Browsing, Python-Codeausführung und der Möglichkeit, strukturierte Ausgaben innerhalb komplexer automatisierter Arbeitsabläufe zu generieren.
Obwohl GPT OSS 20B für viele Anwendungen leistungsstark ist, ist es bei extrem komplexen und umfangreichen Aufgaben weniger leistungsfähig als deutlich größere Modelle wie GPT OSS 120B. Seine Stärken spielt es vor allem in ressourcenbeschränkten Umgebungen aus, in denen Effizienz und lokaler Einsatz entscheidend sind.
Die offene Struktur von GPT OSS 20B bietet Entwicklern und Forschern vollen Zugriff und maximale Flexibilität für Anpassungen und Transparenz. Dies ist besonders vorteilhaft für diejenigen, die detaillierte Einblicke in die Modellinterna, flexible Konfigurationen und die Möglichkeit zur Integration in proprietäre Systeme mit erweiterter Kontrolle benötigen.
KI-Spielplatz



Einloggen