qwen-bg
max-ico04
128K
In
Aus
max-ico02
Chat
max-ico03
deaktivieren
GLM-4.5 Air
Durch die Bereitstellung einer nahezu auf Flaggschiff-Niveau liegenden Leistung bei gleichzeitig deutlich reduzierter Anzahl aktiver Parameter und einem geringeren Speicherbedarf ermöglicht es Unternehmen, fortschrittliche Funktionen großer Sprachmodelle einzusetzen, ohne dass eine umfangreiche Recheninfrastruktur erforderlich ist.
Gratis-Tokens im Wert von 1 $ für neue Mitglieder
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'zhipu/glm-4.5-air',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="zhipu/glm-4.5-air",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Eine API für über 300 KI-Modelle

Sparen Sie 20 % der Kosten und erhalten Sie 1 $ gratis!
qwenmax-bg
Bild
GLM-4.5 Air

Produktdetails

GLM-4.5-Air von Zhipu AI zeichnet sich als ein sehr effizient Und kostengünstig Großes Sprachmodell. Entwickelt mit einem fortschrittlichen Mixture-of-Experts-Ansatz (MoE), verfügt es über insgesamt 106 Milliarden Parameter (davon 12 Milliarden aktive). Es eignet sich hervorragend für eine Vielzahl von Text-zu-Text-Anwendungen und spiegelt die beeindruckende Leistung des vollständigen GLM-4.5 wider. Kontextfenster mit 128.000 TokenDiese Fähigkeit ermöglicht es dem System, außergewöhnlich lange Texte zu verstehen und zu generieren, und das bei gleichzeitig drastisch reduziertem Rechenaufwand.

Technische Spezifikation

🚀 Leistungsbenchmarks

  • Kontextfenster: 128.000 Token
  • Rangliste 6. Platz insgesamt bei 12 Branchen-Benchmarks und einem Durchschnittsergebnis von 59,8.
  • Logisches Denkvermögen: Beeindruckende Ergebnisse bei MMLU-Pro (81,4 %), AIME24 (89,4 %) und Mathematik (98,1 %), gepaart mit soliden Programmierkenntnissen.

📊 Leistungskennzahlen für agentenbasierte Anwendungen

GLM-4.5-Air wurde speziell für agentenbasierte Anwendungen entwickelt und zeichnet sich durch sein robustes Kontextfenster mit 128.000 Token sowie integrierte Funktionsausführungsfunktionen aus. Auf führenden agentenbasierten Benchmarks wie τ-bench und BFCL-v3 erzielt es nahezu gleichwertige Ergebnisse wie Claude 4 SonettInsbesondere in spezialisierten Web-Browsing-Tests (BrowseComp), die komplexes mehrstufiges Denken und die Nutzung von Tools bewerten, zeigt GLM-4.5-Air eine 26,4% GenauigkeitsrateDies übertrifft Claude-4-Opus (18,8 %) und nähert sich dem Spitzenreiter o4-mini-high mit 28,3 % an. Diese Zahlen unterstreichen die ausgewogene und starke Leistung von GLM-4.5-Air in realen, toolgestützten Aufgaben und agentenbasierten Szenarien.

GLM-4.5-Luftleistungsdiagramm

💡 Wichtigste Fähigkeiten

  • Erweiterte Textgenerierung: Erzeugt flüssige, kontextgenaue Ausgaben, die sich für längere Inhalte und komplexe, mehrteilige Dialoge eignen.
  • Effizientes agentenbasiertes Schließen: Verfügt über solide Programmier-, Denk- und Werkzeugnutzungsfähigkeiten sowohl im „Denkmodus“ (komplexe Problemlösung) als auch im „Nicht-Denkmodus“ (sofortige Reaktion).
  • Ressourceneffizienz: Benötigt deutlich weniger GPU-Speicher (einsetzbar auf 16-GB-GPUs) und ist daher eine ausgezeichnete Wahl für reale, hardwarebeschränkte Umgebungen.
  • Hochkompetitiv für praktische Entwicklungs- und Agentenaufgaben, bietet schnelle Codevorschläge und detaillierte Dokumentenanalyse.

💲 API-Preise

  • Eingang: 0,21 $
  • Ausgabe: 1,155 USD

Optimale Anwendungsfälle

  • Kosteneffiziente Konversations-KI: Ideal für Chatbots und virtuelle Assistenten mit hohem Datenaufkommen und geringer Latenz.
  • Leichtgewichtige Programmierhilfe: Bietet Echtzeit-Codevervollständigung, Debugging und effiziente Dokumentationsgenerierung.
  • Komplexe Dokumentenanalyse: Fähig zur Analyse von juristischen, wissenschaftlichen und wirtschaftlichen Texten in großem Umfang.
  • Mobile- und Edge-Bereitstellungen: Eignet sich hervorragend für Umgebungen mit begrenzten Hardware-Ressourcen.
  • Agentische Werkzeuge: Unterstützt die Nutzung von Tools durch Agenten, bietet Funktionen zum Surfen im Web und ermöglicht die Stapelverarbeitung von Inhalten.

Codebeispiel

Vergleich mit anderen Modellen

Vs. Claude 4 Sonett: GLM-4.5-Air bietet ein ausgewogenes Verhältnis von Effizienz und Leistung, liegt aber bei bestimmten Kodierungs- und agentenbasierten Schlussfolgerungsaufgaben leicht hinter Claude 4 Sonnet zurück. Während Claude 4 Sonnet ein größeres Kontextfenster (200.000 Tokens gegenüber 128.000) unterstützt und Bildeingabefunktionen bietet (wodurch es sich besser für multimodale Anwendungen eignet), zeichnet sich GLM-4.5-Air durch Folgendes aus: Open Source, kostengünstiger und mit hoher Zuverlässigkeit bei Funktionsaufrufen und mehrstufiger Argumentation.Die

Im Vergleich zu GLM-4.5: GLM-4.5-Air erreicht etwa 80–98 % der Leistung des Flaggschiffs GLM-4.5, benötigt aber deutlich weniger aktive Parameter (12 Mrd. statt 32 Mrd.) und geringere Ressourcen. Obwohl es bei der reinen Aufgabenpräzision möglicherweise etwas hinterherhinkt, behält es seine soliden Fähigkeiten in den Bereichen logisches Denken, Codierung und Agentenverhalten bei und ist daher… besser geeignet für den Einsatz in hardwarebeschränkten UmgebungenDie

Vs. Qwen3-Coder: GLM-4.5-Air konkurriert effektiv mit Qwen3-Coder in Bezug auf Codierung und Werkzeugnutzung und liefert eine schnelle und präzise Codegenerierung für komplexe Programmieraufgaben. GLM-4.5-Air demonstriert dominante Erfolgsraten und zuverlässige Werkzeugrufmechanismen über Qwen3-Coder.

Vs. Gemini 2.5 Pro: Der GLM-4.5-Air kann in praktischen Logik- und Programmiertests mit dem Gemini 2.5 Pro mithalten. Obwohl der Gemini in einigen spezifischen Programmier- und Logiktests leicht besser abschneidet, bietet der GLM-4.5-Air eine günstiges Gleichgewicht zwischen großem Kontextfenster und agentenbasierten Werkzeugen, optimiert für effiziente Einsätze in der realen Welt.Die

Einschränkungen

  • Die Gesamtleistung und die Anzahl der aktiven Parameter sind im Vergleich zum Flaggschiffmodell GLM-4.5 leicht reduziert.
  • Bei einigen komplexen Aufgaben kann es zu leichten Leistungseinbußen kommen, die grundlegenden Text- und Codefunktionen bleiben jedoch robust.
  • Nicht ideal für Organisationen, die absolute, hochmoderne Genauigkeit über alle anderen Erwägungen stellen.
  • Eine optimale Nutzung des gesamten Kontextes und der Werkzeugunterstützungsfunktionen könnte eine neue Infrastruktur erfordern, um die beste Effizienz zu erzielen.

Häufig gestellte Fragen (FAQ)

❓ Was ist der Hauptvorteil der GLM-4.5-Air von Zhipu AI?

✔️ Der Hauptvorteil der GLM-4.5-Air liegt in ihrer außergewöhnlichen Effizienz und KosteneffektivitätDies wird durch ein Mixture-of-Experts (MoE)-Design mit 12 Milliarden aktiven Parametern erreicht, wodurch es äußerst ressourcenschonend ist.

❓ Welche Kontextfenstergröße hat GLM-4.5-Air?

✔️ Es zeichnet sich durch eine beträchtliche Kontextfenster mit 128.000 Tokenwodurch das Verstehen und Erstellen sehr langer und komplexer Texte ermöglicht wird.

❓ In welchen Bereichen zeigt GLM-4.5-Air eine starke Wettbewerbsleistung?

✔️ Es zeichnet sich aus durch Agentenbasierte Anwendungen, Web-Browsing (übertrifft Claude-4-Opus)und bietet eine starke Leistung beim Codieren, logischen Denken und der Werkzeugnutzung, insbesondere in hardwarebeschränkten Umgebungen.

❓ Was sind die optimalen Anwendungsfälle für GLM-4.5-Air?

✔️ Ideale Anwendungsfälle umfassen Kostengünstige dialogbasierte KI, einfache Unterstützung bei der Codierung, komplexe Dokumentenanalyse und Bereitstellung auf mobilen Geräten und Edge-GerätenDie

❓ Was sind die Hauptbeschränkungen von GLM-4.5-Air?

✔️ Zu den Hauptbeschränkungen gehört die im Vergleich zum Flaggschiff GLM-4.5 etwas geringere Gesamtleistung, wodurch es für anspruchsvolle Szenarien weniger geeignet ist. Absolute, hochmoderne Genauigkeit steht an erster StelleDie

KI-Spielplatz

Testen Sie alle API-Modelle in der Sandbox-Umgebung, bevor Sie sie integrieren. Wir bieten über 300 Modelle zur Integration in Ihre App an.
Kostenlos testen
api-right-1
Modell-BG02-1

Eine API
Mehr als 300 KI-Modelle

Sparen Sie 20 % der Kosten