Aktuelle Nachrichten

Deloitte warnt: Der Einsatz von KI-Agenten überholt Sicherheitsrahmen und -vorschriften.

30.01.2026 von AICC

Ein bahnbrechender Bericht von Deloitte hat eine eindringliche Warnung ausgesprochen: Unternehmen setzen KI-Systeme in einem Tempo ein, das ihre Fähigkeit, angemessene Sicherheitsvorkehrungen und -protokolle zu implementieren, bei Weitem übersteigt. Diese rasante Verbreitung führt zu … ernsthafte Bedenken hinsichtlich Sicherheit, Datenschutz und VerantwortlichkeitDie

Die Studie zeigt, dass agentenbasierte Systeme so schnell von Pilotprojekten in die Serienproduktion übergehen, dass traditionelle Risikokontrollen – die ursprünglich für den Einsatz mit Menschen konzipiert wurden – Mühe haben, mit den Sicherheitsanforderungen autonomer KI-Systeme Schritt zu halten.

📊 Wichtigste Kennzahlen:

  • Nur 21 % der Organisationen haben strenge Governance-Richtlinien für KI-Agenten implementiert.
  • 23 % der Unternehmen derzeit KI-Agenten verwenden
  • Es wird erwartet, dass er steigt auf 74 % innerhalb von zwei Jahren
  • Der Anteil der Nicht-Anwender wird von 25 % auf nur noch 5% im gleichen Zeitraum

⚠️ Schlechte Regierungsführung: Die wahre Bedrohung

Deloitte betont, dass KI-Agenten an sich sind nicht per se gefährlichDie eigentlichen Risiken resultieren vielmehr aus mangelhaftem Kontextmanagement und schwachen Governance-Rahmenbedingungen. Wenn Akteure als autonome Einheiten agieren, können ihre Entscheidungsprozesse und Handlungen schnell intransparent und unkontrollierbar werden.

Ohne robuste Governance-Strukturen wird die Verwaltung dieser Systeme extrem schwierig, und die Absicherung gegen potenzielle Fehler wird nahezu unmöglich.

💡 Experteneinblicke

Laut Ali Sarrafi, CEO und Gründer von Kovant, liegt die Lösung darin "gesteuerte Autonomie"Gut konzipierte Agenten mit klaren Grenzen, Richtlinien und Definitionen – die auf die gleiche Weise verwaltet werden wie Unternehmen ihre menschlichen Mitarbeiter – können Aufgaben mit geringem Risiko innerhalb definierter Leitlinien schnell erledigen, aber bei Überschreitung festgelegter Risikoschwellenwerte werden Menschen hinzugezogen.

„Mit detaillierten Aktionsprotokollen, Beobachtbarkeit und menschlicher Kontrolle bei wichtigen Entscheidungen hören Agenten auf, mysteriöse Bots zu sein, und werden zu Systemen, die man überprüfen, auditieren und denen man vertrauen kann“, erklärt Sarrafi.

Wie der Bericht von Deloitte nahelegt, dürfte die Einführung von KI-Agenten in den kommenden Jahren dramatisch zunehmen. Nur Unternehmen, die die Technologie transparent und kontrolliert einsetzen, werden sich Wettbewerbsvorteile verschaffen.—nicht diejenigen, die einfach am schnellsten liefern.

🛡️ Warum KI-Agenten robuste Schutzmechanismen benötigen

Während KI-Systeme in kontrollierten Demonstrationen beeindruckende Leistungen erbringen, haben sie in realen Geschäftsumgebungen, in denen Systeme fragmentiert und die Datenqualität uneinheitlich ist, häufig Schwierigkeiten.

Sarrafi hebt die Unberechenbarkeit von KI-Agenten in diesen Szenarien hervor: „Wenn einem Agenten zu viel Kontext oder Handlungsspielraum auf einmal gegeben wird, neigt er zu Halluzinationen und unvorhersehbarem Verhalten.“

🔧 Produktionsorientierter Systemansatz:

  • Entscheidungs- und Kontextumfang einschränken dass Modelle mit
  • Zerlegungsoperationen in engere, fokussierte Aufgaben für einzelne Agenten
  • Verhalten besser vorhersehbar und leichter zu kontrollieren
  • Rückverfolgbarkeit und Intervention ermöglichen zur frühzeitigen Fehlererkennung
  • Verhindern Sie Kaskadenfehler durch angemessene Eskalation.

📋 Rechenschaftspflicht für versicherbare KI

Da KI-Agenten in Geschäftssystemen tatsächlich Aktionen ausführen, verändern sich die Paradigmen von Risiko und Compliance grundlegend. Detaillierte Aktionsprotokolle wandeln die Aktivitäten der Agenten in klare, auswertbare Datensätze um.Dadurch können Organisationen jede Aktion bis ins kleinste Detail überprüfen.

Diese Transparenz ist entscheidend für VersichererVersicherer, die sich in der Vergangenheit gegen die Berichterstattung über intransparente KI-Systeme gesträubt haben, profitieren von einer umfassenden Protokollierung. Diese hilft ihnen, genau zu verstehen, was die Mitarbeiter getan haben und welche Kontrollmechanismen vorhanden waren, wodurch die Risikobewertung deutlich erleichtert wird.

Durch die menschliche Überwachung risikokritischer Maßnahmen und durch überprüfbare, wiederholbare Arbeitsabläufe können Organisationen Systeme entwickeln, die für eine umfassende Risikobewertung und einen umfassenden Versicherungsschutz weitaus besser handhabbar sind.

🌐 AAIF-Standards: Ein positiver erster Schritt

Gemeinsame Standards, wie sie beispielsweise von der Agentic AI Foundation (AAIF)Sie sollen Unternehmen bei der Integration verschiedener Agentensysteme unterstützen. Aktuelle Standardisierungsbemühungen konzentrieren sich jedoch eher auf die einfachste Implementierung als auf die tatsächlichen Bedürfnisse größerer Organisationen für den sicheren Betrieb von Agentensystemen.

🎯 Was Unternehmen wirklich brauchen:

  • Zugriffsberechtigungen und rollenbasierte Kontrollen
  • Genehmigungsworkflows für wirkungsvolle Maßnahmen
  • Prüfbare Protokolle und Beobachtbarkeit Systeme
  • Fähigkeiten zu Verhalten überwachen und Vorfälle untersuchen
  • Werkzeuge zu Nachweis der Einhaltung gegenüber Regulierungsbehörden und Interessengruppen

🔐 Identität und Berechtigungen: Die erste Verteidigungslinie

Die Einschränkung dessen, worauf KI-Agenten zugreifen können und welche Aktionen sie ausführen können, ist von entscheidender Bedeutung für die Gewährleistung der Sicherheit in realen Geschäftsumgebungen. Wie Sarrafi anmerkt: „Wenn Agenten weitreichende Berechtigungen oder zu viel Kontext erhalten, werden sie unberechenbar und stellen ein Sicherheits- oder Compliance-Risiko dar.“

Transparenz und Überwachung sind unerlässlich. Um sicherzustellen, dass die Agenten innerhalb der festgelegten Grenzen agieren, ist eine umfassende Überwachung unerlässlich. Nur so können die Beteiligten Vertrauen in die Einführung der Technologie entwickeln.

Wenn jede Aktion protokolliert und verwaltbar ist, können Teams genau sehen, was passiert ist, Probleme umgehend erkennen und besser verstehen, warum bestimmte Ereignisse eingetreten sind. Diese Transparenz, kombiniert mit menschlicher Aufsicht, wo sie erforderlich ist, verwandelt KI-Agenten von undurchschaubaren Blackboxes in Systeme, die überprüft, wiedergegeben und auditiert werden können.

Dieser Ansatz ermöglicht eine schnelle Untersuchung und Behebung von Problemen, was das Vertrauen zwischen Betreibern, Risikoteams und Versicherern gleichermaßen deutlich stärkt.

📘 Deloittes Leitfaden für sichere KI-Governance

Deloittes umfassende Strategie für eine sichere Steuerung von KI-Agenten etabliert definierte Grenzen für die Entscheidungen, die agentengesteuerte Systeme treffen können. Der Ansatz verwendet gestaffelte Autonomiestufen:

Stufe Agentenfunktionen
Stufe 1 Informationen einsehen und Vorschläge abgeben
Stufe 2 Nur begrenzte Maßnahmen mit menschlicher Genehmigung ergreifen
Stufe 3 In nachweislich risikoarmen Bereichen automatisch handeln

Deloitte "Cyber-KI-Blaupausen" Ich empfehle die Implementierung von Governance-Ebenen und die direkte Einbettung von Richtlinien und Fahrplänen zur Einhaltung von Vorschriften in die organisatorischen Kontrollen. Governance-Strukturen, die den Einsatz und die Risiken von KI verfolgen und gleichzeitig die Aufsicht in den täglichen Betrieb einbetten, sind von grundlegender Bedeutung. für den sicheren Einsatz agentenbasierter KI.

👥 Mitarbeiterschulung: Ein entscheidender Bestandteil

Die Vorbereitung der Belegschaft durch umfassende Schulungen ist ein weiterer wesentlicher Aspekt sicherer Unternehmensführung. Deloitte empfiehlt, Mitarbeiter in folgenden Bereichen zu schulen:

  • 🚫 Welche Informationen sie sollte nicht geteilt werden mit KI-Systemen
  • Was tun, wenn Agenten vom Weg abkommen oder sich unerwartet verhalten
  • 👁️ Wie man Ungewöhnliches, potenziell gefährliches Verhalten erkennen in KI-Systemen

⚠️ Warnung: Wenn Mitarbeiter nicht verstehen, wie KI-Systeme funktionieren und welche potenziellen Risiken damit verbunden sind, können sie unbeabsichtigt die Sicherheitsvorkehrungen schwächen und so selbst in den am besten konzipierten Governance-Rahmenwerken Schwachstellen schaffen.

🎯 Fazit: Eine robuste Steuerung und Kontrolle sowie ein gemeinsames organisatorisches Verständnis sind grundlegend für den sicheren Einsatz und Betrieb von KI-Agenten und ermöglichen eine sichere, regelkonforme und nachvollziehbare Leistung in realen Umgebungen.

❓ Häufig gestellte Fragen (FAQ)

Frage 1: Welcher Prozentsatz der Organisationen verfügt derzeit über eine angemessene Governance für KI-Agenten?

Trotz rasant steigender Verbreitung haben nur 21 % der Unternehmen strenge Governance- oder Aufsichtsmechanismen für KI-Systeme implementiert. Diese Governance-Lücke stellt ein erhebliches Risiko dar, da der Einsatz von KI-Systemen in den nächsten zwei Jahren voraussichtlich von 23 % auf 74 % der Unternehmen ansteigen wird.

Frage 2: Was versteht man unter „gesteuerter Autonomie“ und warum ist sie wichtig?

Gesteuerte Autonomie ist ein Ansatz, bei dem KI-Agenten mit klaren Grenzen, Richtlinien und Definitionen arbeiten, ähnlich wie Unternehmen ihre Mitarbeiter steuern. Gut konzipierte Agenten können risikoarme Aufgaben innerhalb definierter Rahmenbedingungen schnell erledigen, greifen aber bei Überschreitung festgelegter Risikoschwellenwerte auf menschliche Expertise zurück. Dieses Framework macht Agenten überprüfbar, auditierbar und vertrauenswürdig – und nicht zu undurchsichtigen Blackboxes.

Frage 3: Warum zögern Versicherer, KI-Systeme zu versichern?

Versicherer zögern, intransparente KI-Systeme zu versichern, da sie das Risiko ohne Kenntnis der Handlungen der Mitarbeiter und der bestehenden Kontrollmechanismen nicht angemessen einschätzen können. Detaillierte Aktionsprotokolle, die menschliche Überwachung risikokritischer Vorgänge und nachvollziehbare Arbeitsabläufe sind unerlässlich, um KI-Systeme versicherbar zu machen. Sie gewährleisten die Transparenz und Verantwortlichkeit, die Versicherer für eine angemessene Risikobewertung und Preisgestaltung benötigen.

Frage 4: Was sind die wichtigsten Bestandteile des gestaffelten Autonomieansatzes von Deloitte?

Das gestaffelte Autonomiemodell von Deloitte umfasst drei Stufen: Stufe 1 erlaubt es Mitarbeitern lediglich, Informationen einzusehen und Vorschläge zu unterbreiten; Stufe 2 gestattet eingeschränkte Aktionen, die jedoch einer menschlichen Genehmigung bedürfen; und Stufe 3 ermöglicht automatisches Handeln in nachweislich risikoarmen Bereichen. Dieser abgestufte Ansatz stellt sicher, dass Mitarbeiter ihre Zuverlässigkeit unter Beweis stellen, bevor ihnen mehr Autonomie gewährt wird.

Frage 5: Warum ist die Mitarbeiterschulung für die Sicherheit von KI-Agenten so wichtig?

Mitarbeiterschulungen sind unerlässlich, da Mitarbeiter, die die Funktionsweise von KI-Systemen und deren potenzielle Risiken nicht verstehen, unbeabsichtigt Sicherheitsvorkehrungen schwächen können. Die Schulungen sollten umfassen, welche Informationen nicht mit KI-Systemen geteilt werden dürfen, wie man auf unerwartetes Verhalten von Agenten reagiert und wie man ungewöhnliches oder potenziell gefährliches Verhalten erkennt. Ohne dieses gemeinsame Wissen können selbst gut konzipierte Governance-Rahmenwerke gefährdet sein.