



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'o1-preview',
messages: [
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="o1-preview",
messages=[
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Produktdetails
Grundlegende Informationen: OpenAI o1-Vorschaumodell
- ✨ Modellname: OpenAI o1-Vorschau
- 🛠️ Entwickler/Schöpfer: OpenAI
- 📅 Veröffentlichungsdatum: 12. September 2024
- ➡️ Version: o1-Vorschau-2024-09-12
- 🧠 Modelltyp: Großes Sprachmodell (LLM)
Überblick
OpenAI o1-Vorschau ist ein hochmodernes Sprachmodell, das speziell für anspruchsvolles Denken und komplexe Problemlösungen in verschiedenen Anwendungsbereichen entwickelt wurde. Es zeichnet sich insbesondere durch folgende Eigenschaften aus: wissenschaftliche Forschung, robuste Programmierung und fortgeschrittene mathematische BerechnungenDie
Hauptmerkmale
- 💡 Gedankenketten-Argumentation (CoT): Erweiterte Funktionen für schrittweise logische Schlussfolgerungen.
- 💻 Verbesserte Leistung: Hervorragende Ergebnisse bei komplexen Codierungs- und Mathematikaufgaben.
- ✅ Selbstprüfung der Fakten: Eingebaute Mechanismen zur Überprüfung der Informationsgenauigkeit.
- 🔒 Verbesserte Sicherheit und Ausrichtung: Entwickelt mit verstärkten Sicherheitsmaßnahmen und besserer Ausrichtung an menschlichen Werten.
Vorgesehene Anwendungsfälle
Das o1-Vorschaumodell eignet sich ideal für Anwendungen, die Folgendes erfordern tiefgründiges analytisches Denken und kann längere Verarbeitungszeiten verarbeiten. Sein Hauptnutzen liegt darin:
- Komplexe Codegenerierung und gründliche Analyse.
- Fortgeschrittene mathematische Problemlösung.
- Umfassende Brainstorming-Sitzungen.
- Vielschichtiger Dokumentenvergleich und -analyse.
Darüber hinaus ist OpenAI o1-preview in der Lage, SymptomanalyseSie hilft dabei, übersehene Differenzialdiagnosen einzugrenzen und zu identifizieren sowie komplexe Testergebnisse im Gesundheitswesen zu interpretieren. Weitere Einblicke in ihre Anwendung im Gesundheitswesen, einschließlich der Identifizierung von Differenzialdiagnosen und der Interpretation komplexer Testergebnisse, finden Sie hier: KI im Gesundheitswesen: Generative KI-Anwendungen und BeispieleDie
Sprachunterstützung
Obwohl keine konkreten Details zur spezifischen Sprachunterstützung offengelegt werden, zeigt das Modell durchweg Folgendes: starke Leistungen in einer Vielzahl von Spracheneinschließlich derjenigen mit begrenzten Ressourcen.
Kontextfenster und Ausgabegrenzen
- 📏 Kontextfenstergröße: 128.000 Token
- ✍️ Maximale Ausgabetoken: 32.768 Token
Beta-Beschränkungen
Während der Beta-Phase sind einige Parameter der Chat-Vervollständigungs-API für das o1-Vorschaumodell derzeit nicht verfügbar. Zu den wichtigsten Einschränkungen gehören:
- Modalitäten: Unterstützt Nur TextBildeingaben werden noch nicht unterstützt.
- Nachrichtentypen: Beschränkt auf Benutzer- und Assistentenmeldungen; Systemmeldungen werden nicht unterstützt.
- Streaming: Nicht unterstützt.
- Werkzeuge & Funktionen: Die Nutzung von Werkzeugen, Funktionsaufrufe und Antwortformatparameter werden nicht unterstützt.
- Logprobs: Nicht unterstützt.
- Feste Parameter: `temperature`, `top_p` und `n` sind auf `1` festgelegt; `presence_penalty` und `frequency_penalty` sind auf `0` festgelegt.
- API-Kompatibilität: Diese Modelle werden weder in der Assistants API noch in der Batch API unterstützt.
Technische Details
Architektur
Das o1-Vorschaumodell basiert auf einem Transformatorbasierte Architekturund beinhaltet bedeutende Verbesserungen seiner Denkfähigkeiten. groß angelegtes Reinforcement Learning um fortgeschrittene Gedankenkettenprozesse durchzuführen.
Trainingsdaten
- 📚 Datenquelle & Größe: Trainiert mit einem umfangreichen Datensatz, aktuell bis Oktober 2023.
- ✂️ Wissensgrenze: Oktober 2023.
Leistungskennzahlen
- Internationale Mathematik-Olympiade: Erreichte ein beeindruckendes 83% Genauigkeit bei einer Eignungsprüfung.
- Codeforces (Wettbewerbsprogrammierung): Erzielte Punkte in der 89. PerzentilDie
- GPQA Diamond Benchmark: Übertraf die Leistungen von promovierten Wissenschaftlern in Physik, Chemie und Biologie.

Vergleich mit anderen Modellen
- 🎯 Genauigkeit: Übertrifft GPT-4o bei den meisten Aufgaben, die ein hohes Maß an Denkvermögen erfordern.
- ⏱️ Geschwindigkeit: Langsamer als frühere Modelle wie GPT-4o, vor allem weil es einen bewussten Ansatz verfolgt, der erst nachdenkt, bevor es antwortet.
- 💪 Robustheit: Zeigt verbesserte Leistung und Stabilität bei strategischen Testzeit-Einreichungen.
Nutzung & Integration
Codebeispiele
Die Integration von OpenAI o1-preview in Ihre Anwendungen erfolgt über die zugehörige API. Nachfolgend finden Sie ein beispielhaftes Codebeispiel, das die grundlegende Interaktion veranschaulicht.
# Beispiel-Python-Code für die Chatvervollständigung von OpenAI o1-preview import openai client = openai.OpenAI() response = client.chat.completions.create( model="o1-preview", messages=[ {"role": "user", "content": "Erkläre Quantenverschränkung in einfachen Worten."} ], # Hinweis: Während der Beta-Phase sind Parameter wie temperature, top_p, tools und streaming festgelegt oder werden nicht unterstützt. # Ausführliche Informationen zur Verwendung finden Sie in der API-Dokumentation. ) print(response.choices[0].message.content) API-Dokumentation
Eine umfassende API-Dokumentation und Installationsanleitungen finden Sie hier: Schnellstart: OpenAI-Modelle einrichtenDie
Hier können Sie die Prinzipien von Argumentationsmodellen genauer untersuchen: Leitfaden zu OpenAI-SchlussfolgerungsmodellenDie
Ethische Richtlinien & Sicherheit
OpenAI hat verbesserte Sicherheitsmaßnahmen für das o1-preview-Modell implementiert, was ein starkes Engagement für eine verantwortungsvolle KI-Entwicklung widerspiegelt:
- Verbesserte Sicherheitsleistung: Bei internen Sicherheitstests zeigte es im Vergleich zu GPT-4o bessere Ergebnisse.
- Innovative Sicherheitsschulungen: Nutzt einen neuen Ansatz, der die Denkfähigkeit des Modells für eine erhöhte Sicherheit ausnutzt.
- Gemeinsame Evaluierung: Kooperiert mit US-amerikanischen und britischen Instituten für KI-Sicherheit zur gründlichen Evaluierung und Prüfung.
Preisgestaltung
Das o1-Vorschaumodell ist über KI/ML-API-Dienste zugänglich. Die aktuelle Preisstruktur ist wie folgt:
- 📥 Eingabe-Tokens: 0,01575 $ pro 1.000 Eingabe-Tokens.
- 📤 Ausgabetoken: 0,063 US-Dollar pro 1.000 Ausgabetoken.
Häufig gestellte Fragen (FAQ)
Frage 1: Was sind die Hauptstärken von OpenAI o1-preview?
A1: Das o1-preview-Modell zeichnet sich durch seine Fähigkeit zu komplexem Denken und Problemlösen aus, insbesondere in den Bereichen Naturwissenschaften, Programmierung und Mathematik, was auf seine fortschrittlichen Chain-of-Thought (CoT)-Denkfähigkeiten zurückzuführen ist.
Frage 2: Wie schneidet o1-preview im Vergleich zu GPT-4o hinsichtlich der Leistung ab?
A2: Obwohl o1-preview aufgrund seines Ansatzes „erst denken, dann antworten“ im Allgemeinen langsamer ist als GPT-4o, übertrifft es GPT-4o bei den meisten Aufgaben, die ein hohes Maß an logischem Denken erfordern, und weist eine höhere Genauigkeit auf.
Frage 3: Was sind die größten Einschränkungen während der o1-Vorschau-Betaphase?
A3: Zu den wichtigsten Einschränkungen der Betaversion gehören die reine Textdarstellung (keine Bilder), fehlende Unterstützung für Streaming, Werkzeug-/Funktionsaufrufe, Systemmeldungen und feste Parameter für `temperature`, `top_p` und `n`. Die Betaversion wird außerdem nicht von den Assistenten- oder Batch-APIs unterstützt.
Frage 4: Wie groß ist das Kontextfenster und wie hoch ist die maximale Ausgabegröße für o1-preview?
A4: Das o1-Vorschaumodell verfügt über ein umfangreiches Kontextfenster von 128.000 Token und kann eine maximale Ausgabe von 32.768 Token generieren.
Frage 5: Wie ist das o1-Vorschaumodell preislich positioniert?
A5: Die Preise betragen 0,01575 US-Dollar pro 1.000 Input-Token und 0,063 US-Dollar pro 1.000 Output-Token und sind über die KI/ML-API-Dienste von OpenAI verfügbar.
KI-Spielplatz



Einloggen