Aktuelle Nachrichten

Microsoft veröffentlicht Open-Source-Sicherheitstoolkit für Laufzeitschutz von KI-Agenten

10.04.2026 von AICC
Microsoft AI Security Toolkit

Ein neues Open-Source-Toolkit von Microsoft Der Fokus liegt auf der Laufzeitsicherheit, um eine strenge Governance für KI-Agenten in Unternehmen durchzusetzen. Die Veröffentlichung geht auf ein wachsendes Problem ein: Autonome Sprachmodelle führen heute Code aus und greifen auf Unternehmensnetzwerke viel schneller zu, als es herkömmliche Richtlinienkontrollen ermöglichen.Die

KI-Integration bedeutete bisher dialogbasierte Schnittstellen und beratende Copiloten. Diese Systeme hatten nur Lesezugriff auf bestimmte Datensätze, wodurch der Mensch strikt in den Ausführungsprozess eingebunden blieb. Unternehmen setzen nun KI ein. Agentische Rahmenwerke, die selbstständig handelnund verbinden diese Modelle direkt mit internen Anwendungsprogrammierschnittstellen (APIs), Cloud-Speicherrepositorys und Continuous-Integration-Pipelines.

Wenn ein autonomer Agent eine E-Mail lesen, beschließen kann, ein Skript zu schreiben und dieses Skript an einen Server zu senden, wird eine strengere Steuerung unerlässlich.

Statische Codeanalyse und Schwachstellenscans vor der Bereitstellung können die folgenden Probleme nicht bewältigen: nicht-deterministische Natur großer Sprachmodelle (LLMs)Ein einziger Prompt-Injection-Angriff – oder sogar eine einfache Halluzination – könnte einen Agenten dazu veranlassen, eine Datenbank zu überschreiben oder Kundendatensätze zu extrahieren.

Microsofts neues Toolkit legt den Schwerpunkt auf LaufzeitsicherheitDadurch werden Methoden bereitgestellt, um Aktionen zu überwachen, zu bewerten und zu blockieren, sobald ein Modell versucht, sie auszuführen. Dieser Ansatz geht über das alleinige Vertrauen auf vorheriges Training oder statische Parameterprüfungen hinaus.

⚙️ Abfangen der Werkzeugaufrufschicht in Echtzeit

Die Untersuchung der Mechanismen des agentenbasierten Toolaufrufs verdeutlicht dessen Funktionsweise. Wenn ein KI-Agent in einem Unternehmen sein neuronales Kernnetzwerk verlassen muss – beispielsweise um ein Inventarsystem abzufragen –, generiert er einen Befehl zum Zugriff auf ein externes Tool.

Das Framework von Microsoft platziert eine Richtliniendurchsetzungs-Engine direkt zwischen dem Sprachmodell und dem Unternehmensnetzwerk.Jedes Mal, wenn ein Agent versucht, eine externe Funktion auszulösen, fängt das Toolkit die Anfrage ab und prüft die beabsichtigte Aktion anhand zentraler Governance-Regeln. Verstößt die Aktion gegen die Richtlinien (z. B. versucht ein Agent, der nur zum Lesen von Bestandsdaten berechtigt ist, eine Bestellung auszulösen), blockiert das Toolkit den API-Aufruf und protokolliert den Vorfall zur manuellen Überprüfung.

  • Sicherheitsteams erhalten einen überprüfbaren, auditierbaren Protokoll jede autonome Entscheidung
  • Entwickler können komplexe Multiagentensysteme erstellen. ohne die Sicherheitsprotokolle in jede einzelne Modellaufforderung fest zu kodieren
  • Sicherheitsrichtlinien sind von der Kernanwendungslogik entkoppelt. und auf Infrastrukturebene verwaltet

Die meisten Altsysteme wurden nie für die Interaktion mit nicht-deterministischer Software konzipiert. Ältere Mainframe-Datenbanken oder individuell angepasste ERP-Systeme (Enterprise Resource Planning) verfügen nicht über native Schutzmechanismen gegen fehlerhafte Anfragen von Machine-Learning-Modellen. Das Toolkit von Microsoft dient als schützende ÜbersetzungsschichtSelbst wenn ein zugrunde liegendes Sprachmodell durch externe Eingaben kompromittiert wird, bleibt die Systemperimetersicherheit erhalten.

🔓 Einrichtung eines offenen Standards für die Sicherheit von KI-Agenten

Sicherheitsverantwortliche könnten sich fragen, warum Microsoft dieses Runtime-Toolkit unter einer bestimmten Lizenz veröffentlicht hat. Open-Source-LizenzDie Entscheidung spiegelt die Funktionsweise moderner Software-Lieferketten wider.

Entwickler erstellen rasant autonome Arbeitsabläufe mithilfe einer Vielzahl von Open-Source-Bibliotheken, Frameworks und Drittanbietermodellen. Würde Microsoft diese Laufzeitsicherheitsfunktion auf seine eigenen Plattformen beschränken, würden Entwicklungsteams sie wahrscheinlich umgehen und stattdessen auf schnellere, ungeprüfte Workarounds zurückgreifen, um ihre Deadlines einzuhalten.

Die offene Veröffentlichung des Toolkits bedeutet, dass Sicherheits- und Governance-Kontrollen in jeden Technologie-Stack integriert werden können – egal ob eine Organisation lokale Open-Weight-Modelle verwendet, Konkurrenten wie Anthropic einsetzt oder Hybridarchitekturen implementiert.

Die Etablierung eines offenen Standards für die Sicherheit von KI-Agenten ermöglicht es der gesamten Cybersicherheits-Community, sich einzubringen. Sicherheitsanbieter können kommerzielle Dashboards und Integrationen für die Reaktion auf Sicherheitsvorfälle auf dieser offenen Grundlage aufbauen und so die Reife des Ökosystems beschleunigen. Unternehmen vermeiden dadurch die Abhängigkeit von einem einzelnen Anbieter und erhalten gleichzeitig eine einheitlich geprüfte Sicherheitsgrundlage.

📊 Die nächste Phase der KI-Governance in Unternehmen

Unternehmensführung geht über die Sicherheit hinaus und umfasst Finanz- und BetriebsaufsichtAutonome Agenten arbeiten in kontinuierlichen Schleifen aus Schlussfolgerungen und Ausführung und verbrauchen dabei in jedem Schritt API-Token. Startups und etablierte Unternehmen erleben bereits jetzt explosionsartige Kostensteigerungen bei der Implementierung agentenbasierter Systeme.

Ohne Laufzeitüberwachung kann ein Agent, der mit der Analyse eines Markttrends beauftragt ist, tausende Male auf eine teure, proprietäre Datenbank zugreifen, bevor er seine Aufgabe abschließt. Bleibt dies unkontrolliert, kann ein schlecht konfigurierter Agent, der in einer Endlosschleife gefangen ist, innerhalb weniger Stunden enorme Cloud-Computing-Kosten verursachen.

💡 Wichtigste Vorteile:

  • Setzen Sie feste Grenzen für Tokenverbrauch und API-Aufrufhäufigkeit
  • Definieren Sie Grenzen für die Aktionen, die ein Agent innerhalb bestimmter Zeiträume ausführen kann.
  • Verbessern Prognose der Rechenkosten
  • Verhindern, dass außer Kontrolle geratene Prozesse die Systemressourcen erschöpfen

Eine Laufzeit-Governance-Schicht stellt die quantitative Kennzahlen und Kontrollmechanismen Um die Compliance-Vorgaben zu erfüllen, ist dies unerlässlich. Die Zeiten, in denen man sich allein auf Modellanbieter verlassen konnte, um ungeeignete Ergebnisse herauszufiltern, neigen sich dem Ende zu. Die Systemsicherheit hängt nun von der Infrastruktur ab, die die Entscheidungen der Modelle umsetzt.

Die Etablierung eines ausgereiften Governance-Programms erfordert eine enge Zusammenarbeit zwischen den Teams für Entwicklung, Betrieb, Recht und Sicherheit.Sprachmodelle gewinnen ständig an Leistungsfähigkeit, und nur Organisationen, die heute strenge Laufzeitkontrollen implementieren, werden in der Lage sein, die autonomen Arbeitsabläufe von morgen zu bewältigen.

Mehr als 300 KI-Modelle für
OpenClaw & KI-Agenten

Sparen Sie 20 % der Kosten