KI-Agenten sind längst kein Experiment mehr. Sie formulieren E-Mails, liefern Code aus, bewegen Geld, verändern Infrastrukturen und interagieren mit Kundinnen und Kunden. Trotzdem behandeln die meisten Organisationen sie noch wie Randfunktionen - nicht wie vollwertige Identitäten, die sich anmelden, auf Daten zugreifen und reale Auswirkungen haben.
Dieser Beitrag beleuchtet, wie sich digitale Identität und Zugriffsmanagement für autonome Agenten weiterentwickeln müssen, was sich 2026 bereits abzeichnet und worauf technische Teams jetzt Priorität legen sollten. Es geht um Konkretes: hybride Identitätssysteme für Mensch und KI, Governance für nicht-menschliche Akteure und darum, wie man verhindert, dass die Angriffsfläche von morgen schon heute eingebaut wird.
Vom menschenzentrierten IAM zu hybriden Human-KI-Identitätssystemen
Über 20 Jahre lang gingen Identitätssysteme selbstverständlich davon aus, dass Nutzerinnen und Nutzer Menschen sind. Alles andere galt als Ausnahmefall. Das stimmt heute nicht mehr.
Die Explosion nicht-menschlicher Identitäten
Automatisierung, Microservices und KI haben eine neue Klasse von Identitäten geschaffen: Agenten, Bots, Workloads, technische Konten, RPA-Bots, Datenpipelines, SDK-gesteuerte Copilots.
Die Datenlage ist eindeutig:
- Eine von CyberArk unterstützte Analyse zeigt, dass Maschinenidentitäten Menschen inzwischen etwa im Verhältnis 45 zu 1 übertreffen - rund 98 % aller Konten sind nicht-menschlich
- Im "2024 Cloud-Native Security and Usage Report" von Sysdig sind 63 % der Cloud-Nutzer und -Rollen nicht-menschliche Identitäten
- Dasselbe Datenset zeigt, dass sowohl menschliche als auch maschinelle Identitäten im Schnitt nur etwa 2 % ihrer gewährten Berechtigungen tatsächlich nutzen - der Rest bleibt ungenutzt und riskant
Schon ohne KI-Agenten besteht Ihre eigentliche Angriffsfläche also vor allem aus nicht-menschlichen Akteuren - mit übermäßigen Rechten an allen Ecken.
Kommt jetzt autonome KI hinzu, verschärft sich das Bild:
- Rubrik Zero Labs beobachtet in manchen Unternehmen bereits ein Verhältnis von 82 nicht-menschlichen zu einer menschlichen Identität; 90 % der Führungskräfte nennen Identitätsangriffe als ihr größtes Cybersicherheitsproblem
Das Muster ist klar: Identitätsprogramme können nicht-menschliche Identitäten nicht länger als "Sonderfall" behandeln - sie sind der neue Normalfall.
Warum menschliche IAM-Modelle bei autonomen Agenten scheitern
Die meisten IAM-Modelle orientieren sich an einem menschlichen Lebenszyklus: Eintritt, Rollenwechsel, Austritt. Eine Person fängt an, bekommt Gruppen zugewiesen, wird per SCIM in einige Anwendungen bereitgestellt und beim Verlassen wieder entzogen.
KI-Agenten sprengen dieses Modell:
- Sie entstehen und verschwinden in Sekunden, nicht in Jahren.
- Sie können gleichzeitig mehrere Nutzerinnen, Nutzer oder Teams repräsentieren.
- Sie werden von Produkt-, Daten- oder Engineering-Teams eingeführt - nicht von der IT.
- Sie werden häufig über API-Schlüssel oder OAuth erzeugt und tauchen nie im zentralen Verzeichnis auf.
Eine aktuelle Umfrage der Cloud Security Alliance zeigt: Die meisten KI-Agenten besitzen keine saubere, eigene Identität. Sie "reiten mit" auf menschlichen oder geteilten Konten, erben deren gesamte Berechtigungen und erzeugen intransparente, überprivilegierte Zugriffsketten.
Die Folge? Vertriebs-Copilots, die auf jeden einzelnen Kundenaccount zugreifen können, oder Code-Assistenten, die direkt in Produktion deployen - nur weil sie das persönliche Token einer Senior-Entwicklerin oder eines Senior-Entwicklers mitbenutzen.
Trend 1: KI-Agenten laufen bereits in Produktion - meist unsichtbar
Manche Teams sprechen über Agenten, als wären sie ein Problem von morgen. Die Daten widersprechen dem deutlich.
Die Forschung der Cloud Security Alliance für 2026 zeigt: Agenten sind bereits tief in CRM, CI/CD und Kernsysteme eingebettet - doch das Identitätsmanagement hat nicht Schritt gehalten.
Weitere Studien verdeutlichen, wie unsichtbar das alles ist:
- Eine CSA-nahe Untersuchung: Über zwei Drittel der Organisationen können in Protokollen und Monitoring nicht sauber zwischen menschlichen Aktivitäten und Agentenaktivität unterscheiden
- Okta berichtet, dass 88 % der Organisationen bereits Sicherheitsvorfälle im Zusammenhang mit Agenten hatten, aber nur 22 % KI-Agenten als vollwertige Identitäten im IAM behandeln
Die Quintessenz: KI-Agenten befinden sich längst in Ihrer Umgebung. Die meisten davon sind Geister - für Ihre Identitätssysteme praktisch unsichtbar.
Menschliche Nutzer vs. KI-Agenten: andere Identitäts-Mathematik
Vergleichen wir menschliche Nutzer mit KI-Agenten:
| Dimension | Menschliche Nutzer heute | KI-Agenten und autonome Agenten |
|---|---|---|
| Typische Anzahl | Hunderte bis Tausende | Tausende bis Millionen Instanzen |
| Lebenszyklus | Einstellung, Rollenwechsel, Kündigung | Entstehen/Verschwinden durch Code oder Workflows - ohne menschliche Zeitachsen |
| Authentifizierung | SSO, MFA, teils API-Schlüssel | API-Schlüssel, OAuth, Workload-Identitäten, eingebettete Geheimnisse |
| Verantwortliche Stelle | HR, IT, direkte Führungskraft | Produkt-, Daten-, DevOps-Teams, oft ohne klaren Verantwortlichen |
| Sichtbarkeit der Aktivität | Protokolle sind Personen zugeordnet | Vermischt mit menschlichen Logs, Zuordnung unscharf |
| Governance heute | IGA, Rezertifizierungen, Freigabeprozesse | Ad-hoc, geteilte Konten, verstreute Geheimnisse |
Wenn Agenten nur als Erweiterung von Benutzer- oder Infrastrukturkonten behandelt werden, sind Prinzipien wie minimale Rechtevergabe und belastbare Prüfpfade praktisch unmöglich umzusetzen.
Trend 2: Nicht-menschliche Identität ist die neue primäre Angriffsfläche
Sysdig formuliert es unverblümt: Identitäten nutzen nur einen Bruchteil ihrer Berechtigungen - Angreifer lieben das. Überprivilegierte Bots, Tokens und Agenten sind perfekte Ziele.
Die Forschung bestätigt das Bild:
- CyberArk analysiert: Bis zu 98 % aller Identitäten sind nicht-menschlich, jede mit Geheimnissen, die häufig hart codiert, nie rotiert oder über mehrere Clouds verteilt sind
- Sysdig: 63 % der Cloud-Identitäten sind nicht-menschlich. Fehler bei Identität und Berechtigungen treiben den Großteil schwerwiegender Cloud-Vorfälle
KI-Agenten erhöhen den Einsatz weiter:
- Standardmäßig sehr breite Zugriffe in der Einführungsphase.
- Fähigkeit, Aktionen schneller und in größerem Umfang zu verketteten Abläufen zu kombinieren als Menschen.
- Delegierte Zugriffsmuster - sie handeln im Namen von Nutzerinnen und Nutzern -, die klassische Funktionstrennung (Separation of Duties) kaum adressiert.
VentureBeat fasst den Konsens zusammen: Identität ist inzwischen die zentrale Steuerungsebene für KI, und klassische IAM-Ansätze skalieren nicht mehr in die Agentenrealität hinein.
Trend 3: Zero-Trust-Prinzipien werden zur Pflicht für Agenten
Zero-Trust-Modelle: Jede Anfrage wird geprüft, Zugriffe werden strikt begrenzt - unabhängig davon, welche Entität dahintersteht. NIST hat dies als Basis etabliert: Alle Entitäten (nicht nur Menschen) benötigen kontinuierliche Verifikation und minimale Berechtigungen.
In der Praxis konzentrierten sich Zero-Trust-Einführungen jedoch überwiegend auf Menschen. KI-Agenten sprengen diese Beschränkung.
Moderne Konzepte für das Management nicht-menschlicher Identitäten sind sich in einigen Grundprinzipien einig:
- Jeder Agent erhält eine eindeutige Identität. Keine anonymen Skripte oder geteilten Konten mehr.
- Starke Authentifizierung - auf Basis von Workload- oder Agentenidentität, nicht nur mit simplen API-Geheimnissen.
- Granulare, zeitlich begrenzte Berechtigungen - minimaler Zugriff als Standard.
- Kontinuierliche Überwachung des Agentenverhaltens auf Abweichungen oder Kompromittierung.
Forschungsansätze wie SAGA und Aegis Protocol schlagen agentenzentrierte Architekturen mit dezentralen Identitäten und verifizierbaren Nachweisen als integrale Bestandteile vor.
Die Konsequenz: Zero Trust für Agenten ist kein Nice-to-have, sondern eine Grundanforderung. Agenten ohne eindeutige, nachvollziehbare Identität sind ein Anti-Muster für jede Zero-Trust-Architektur.
Trend 4: Neue Identitätsrahmenwerke für KI-Agenten entstehen
Die erste Welle agentenfokussierter Identitätstechnologien ist bereits da.
Standards und Protokolle:
- Agent2Agent: Sichere Identität und Kommunikation für KI-Agenten auf Basis von TLS, JWTs und OpenID Connect.
- Forschung zu LOKA und Trusted-Identity-via-eSIM zielt auf universelle Vertrauensanker für Agentenidentitäten über Plattformgrenzen hinweg.
Kommerzielle Ansätze:
- Oktas Konzept der "sicheren agentischen Unternehmung" ergänzt Erkennung, Agentenregister, Not-Aus-Schalter für Agenten und eine übergreifende IAM-Sicht auf Agenten.
- Agentenorientierte Frameworks und Produkte für nicht-menschliche Identitäten automatisieren Erkennung, Anmeldeinformationen und Monitoring in Agentenmaßstab.
Noch ist der Markt fragmentiert und eher auf Großunternehmen ausgelegt, aber die Richtung ist klar: Agenten erhalten eigene Identitäten, Richtlinien und Governance - statt als unsichtbares Nebenprodukt von Anwendungen mitzuschwimmen.
Trend 5: Vereinheitlichte Governance für menschliche und KI-Identitäten ist das Zielbild
Getrennte Stacks für Menschen, Bots, Workloads und Agenten sind eine Einladung für blinde Flecken. Teams jonglieren heute schon SSO, PAM, CIEM, IGA und Geheimnis-Tools; eine weitere, rein KI-spezifische Identitätsschicht würde die Zersplitterung nur verschärfen.
Der intelligentere Ansatz:
- Eine Steuerungsebene für alle Identitäten: menschlich und nicht-menschlich.
- Automatisierung des Lebenszyklus (Bereitstellung/Änderung/Entzug) über Mitarbeitende, externe Kräfte, Bots, technische Konten und Agenten hinweg.
- Vereinheitlichte Richtlinien und Freigaben - egal, ob eine Person oder ein Agent die Anfrage stellt.
Die Architektur von Iden folgt genau diesem Prinzip. Menschliche und nicht-menschliche Akteure - inklusive KI-Agenten - werden durch universelle Lebenszyklus- und Richtlinienautomatisierung abgedeckt. Agenten sind keine nachträglichen Erweiterungen, sondern erstklassige Objekte im System.
Für schnell wachsende SaaS-Unternehmen mit schlanken Teams ist vereinheitlichte Governance kein Stilthema, sondern eine Überlebensfrage. Niemand hat die Kapazität, parallele Rahmenwerke zu betreiben.
2026-2028: Prognosen zur Identitäts-Governance für KI-Agenten
Die nächsten Jahre werden diese Muster festschreiben:
Prognose 1: Agentenregistrierung und Not-Aus-Schalter werden Standard
Sicherheitsverantwortliche werden ein aktuelles Verzeichnis aller KI-Agenten einfordern:
- Dokumentierte verantwortliche Person und zuständiges Team.
- Klarer Zweck und definierte Datenzugriffe.
- Zentraler Not-Aus-Schalter für die sofortige Deaktivierung.
Oktas "agentische" Audit-Fragen wandern in Ausschreibungen: Wo sind meine Agenten, worauf können sie zugreifen, wer ist verantwortlich?
Prognose 2: Identität wandert von statischen Kontrollen zu agentischen Workflows
Vierteljährliche Reviews und Abnick-Freigaben funktionieren schon für Menschen kaum noch. Für Agenten werden sie von vornherein unbrauchbar sein.
Identitäts-Governance verschiebt sich hin zu agentischen Workflows - KI-gestützten, autonomen Abläufen, die Zugriffe in Echtzeit gewähren, prüfen und berichten. Diese Workflows:
- Bewerten Anfragen anhand von Risiko, Kontext und bisherigem Verhalten.
- Gewähren automatisch zeitlich begrenzte Zugriffe mit minimalen Berechtigungen.
- Erfassen unveränderliche Prüfspuren zu jeder Aktion.
Iden setzt bereits auf Echtzeit-Policy-Engines und kontinuierliche Governance. Genau in diese Richtung bewegt sich der Markt.
Prognose 3: Fein granulierte Zugriffe schlagen Protokollabdeckung
SCIM bot nie wirklich tiefgehende, delegierte Berechtigungen. Moderne Agenten benötigen Kanal-, Repository-, Projekt- und Aktions-Scopes - nicht nur pauschale Anwendungszugriffe.
Die Zukunft sieht so aus:
- Berechtigungen werden auf der kleinstmöglichen Ebene modelliert.
- Funktionstrennung und Just-in-time-Zugriffe greifen auf Workspace-, Projekt- oder Aktionsebene, nicht nur auf Gruppen- oder Applikationsebene.
Iden zielt auf "SCIM-plus" - Tiefe und Granularität, nicht nur die Oberflächenabdeckung klassischer SCIM-Integrationen.
Prognose 4: Regulatorischer Fokus auf Prüfbarkeit von KI
Regelwerke wie SOC 2, ISO 27001, DORA, HIPAA und KI-spezifische Vorgaben fordern zunehmend:
- Unveränderliche Protokolle zu Agentenaktionen, klar getrennt von menschlicher Aktivität.
- Lückenlose Nachweise delegierter Zugriffe (Nutzerin/Nutzer -> Agent -> nachgelagerte Systeme).
- Belegte Minimalberechtigungen für beide - menschliche und nicht-menschliche Identitäten.
Plattformen mit bankentauglicher Verschlüsselung, unveränderlichen Logs und kontinuierlichen Zugriffsüberprüfungen setzen sich durch - Compliance ohne gigantischen manuellen Aufwand.
Prognose 5: Schlanke Teams verlangen wartungsfreie Plug-and-Play-Konnektoren
Teams im Mittelstand verfügen selten über dedizierte IAM-Engineering-Ressourcen, um Agenten mit jeder einzelnen SaaS-Anwendung und internen Applikation individuell zu integrieren. Sie brauchen:
- Universelle Konnektoren für SCIM- und Nicht-SCIM-Anwendungen, inklusive empfindlicher Altsysteme/OT.
- Schnelle Integration (Minuten statt Monate) als gemanagte Dienstleistung.
- KI-gestützte Konnektoren ohne zusätzlichen Entwicklungsaufwand.
Idens innerhalb von 48 Stunden erstellte, KI-generierte Plug-and-Play-Konnektoren ohne laufenden Wartungsaufwand zielen genau auf diesen Bedarf.
Was schlanke IT- und Sicherheitsteams jetzt tun sollten
Wenn Sie das Identitätsmanagement für ein SaaS-lastiges Unternehmen mit 50-2.000 Mitarbeitenden und kleinem Team verantworten, vergessen Sie abstrakte KI-Roadmaps - entscheidend ist Folgendes:
1. Alle KI-Agenten und nicht-menschlichen Identitäten erfassen
- Beginnen Sie mit Copilots, CRM-Erweiterungen, Datenpipeline-Bots und internen Agenten.
- Sammeln Sie API-Schlüssel, OAuth-Anwendungen und technische Konten aus den wichtigsten SaaS-Systemen und CI/CD-Pipelines.
- Kennzeichnen Sie jede Identität mit verantwortlicher Person, Zweck und Datenkritikalität.
Wenn Sie Ihre Agenten nicht aufzählen können, können Sie deren Risiko auch nicht steuern.
2. Jedem Agenten eine eigene, steuerbare Identität geben
- Eliminieren Sie anonyme Skripte - nutzen Sie benannte Workload- oder Agenten-IDs.
- Ordnen Sie jeden Agenten einer Systemverantwortlichen Person und einem klaren Onboarding-/Offboarding-Prozess zu.
- Verlangen Sie Authentifizierungsmechanismen, die protokolliert und überwacht werden können - keine nackten Geheimnisse im Code.
3. Berechtigungen zurechtschneiden und laufende Bereinigung automatisieren
- Nutzen Sie cloud-native Werkzeuge und CIEM-Lösungen, um reale Agentenberechtigungen vollständig zu erfassen.
- Entfernen Sie ungenutzte Berechtigungen konsequent - Identitäten verwenden im Durchschnitt nur etwa 2 % der ihnen gewährten Rechte.
- Automatisieren Sie das regelmäßige Zurücksetzen ungenutzter oder riskanter Berechtigungen und informieren Sie Verantwortliche.
4. Automatisierung des Lebenszyklus für menschliche und nicht-menschliche Identitäten vereinheitlichen
- Steuern Sie alle Lebenszyklusänderungen (Menschen, Externe, technische Konten, Agenten) aus wenigen, verlässlichen Quellen wie HRIS, IdP oder Konfigurationsmanagement.
- Automatisieren Sie Bereitstellung und Entzug in SCIM- und Nicht-SCIM-Anwendungen gleichermaßen.
Kundinnen und Kunden von Iden automatisieren typischerweise rund 175 Anwendungen (inklusive Long Tail), reduzieren Tickets um etwa 80 % und sparen über 30 % SaaS-Kosten ein. Diese Ergebnisse zeigen, wie groß der operative Hebel ist, sobald Automatisierung für nicht-menschliche Identitäten das Niveau menschlicher Prozesse erreicht.
5. Identität als Steuerungsebene für KI-Sicherheit behandeln
- Führen Sie alle Zugriffsentscheidungen für Agenten durch Ihre Identitäts-Governance, nicht über isolierte Einstellungen in einzelnen Tools.
- Erzwingen Sie minimale, zeitlich begrenzte Berechtigungen für alle Agenten in sensiblen Bereichen.
- Speisen Sie Telemetriedaten zu Agenten in Sicherheitsanalysen ein, um Anomalien aufzuspüren.
Wenn ein Agent Daten oder Systeme berühren kann, sollten alle seine Aktionen durch Richtlinien gesteuert und prüfbar sein.
Häufig gestellte Fragen
Wie unterscheidet sich Identitätsmanagement für KI-Agenten von klassischem Benutzer-IAM?
Benutzer-IAM richtet sich an eine vergleichsweise kleine, stabile und in HR-Systemen geführte Menge von Menschen. KI-Agenten hingegen sind hochvolumig, kurzlebig und entstehen oft direkt aus Code oder Konfiguration.
Sie authentifizieren sich über Tokens, Client-Anmeldedaten oder Workload-IDs - nicht über Passwörter oder MFA - und können für viele Menschen zugleich handeln. Delegationsketten, schnelle Lebenszyklen und Maschinengeschwindigkeit bei Ereignissen sprengen nutzerzentrierte IAM-Modelle.
Warum können wir KI-Agenten nicht einfach wie technische Konten behandeln?
Man kann es tun - aber man erbt damit alle klassischen Probleme technischer Konten und verschärft sie zusätzlich.
Technische Konten waren schon bisher ein blinder Fleck: überprivilegiert, selten überprüft, kaum klar verantwortet. KI-Agenten bringen mehr Autonomie, tiefere Datenzugriffe und komplexe Delegation hinzu. Wenn sie nur als "weitere technische Konten" geführt werden, resultieren daraus geteilte Zugangsdaten, unklare Lebenszyklen und fehlende Nachvollziehbarkeit.
Besser ist es, Agenten als eigene Klasse nicht-menschlicher Identität zu führen - mit eindeutiger ID, explizit benannter verantwortlicher Person, fein granularen und zeitlich begrenzten Berechtigungen sowie kontinuierlichem Monitoring.
Wo sollte die Identität von KI-Agenten leben - in SSO, PAM, CIEM oder IGA?
Sie benötigen langfristig alle vier, aber Sie brauchen eine einzige Quelle der Wahrheit für Zugriffe und Richtlinien:
- SSO: Anmeldungen menschlicher Nutzer
- PAM: privilegierte Sitzungen und Geheimnisse
- CIEM: Cloud-Berechtigungen
- IGA (Iden): Lebenszyklus, Richtlinien, Freigaben und Überprüfungen für alle Identitätstypen
Für Agenten wird IGA zur zentralen Steuerungsebene - Richtlinien werden hier definiert und über Integrationen mit SSO, PAM, CIEM und Geheimnisverwaltung durchgesetzt.
Wie setzen wir das Minimalprinzip für KI-Agenten um, ohne die Funktionsfähigkeit zu gefährden?
Versuchen Sie nicht, den perfekten Scope von Anfang an zu entwerfen. Stattdessen:
- Starten Sie mit minimal erforderlichen Berechtigungen für ein erstes Einsatzszenario.
- Überwachen Sie Nutzung und Fehlermeldungen und erweitern Sie nur aus begründetem Anlass.
- Entziehen Sie regelmäßig ungenutzte Berechtigungen automatisiert.
- Nutzen Sie Just-in-time-Eskalation für seltene, besonders sensible Zugriffe - sitzungsbasiert statt dauerhaft.
So gehen reife Teams schon heute mit Administratorrechten für Menschen um - nur mit noch stärkerer Automatisierung, weil das Verhalten von Agenten besser vorhersagbar ist.
Welche Rolle spielt eine Plattform wie Iden?
Iden ist eine vollständige Plattform für Identitäts-Governance in schnell wachsenden Teams - mit universeller Konnektorabdeckung, richtliniengesteuertem Lebenszyklus und erstklassiger Unterstützung für menschliche und nicht-menschliche Identitäten, inklusive Agenten.
Das bedeutet konkret:
- Agenten werden über denselben Lebenszyklus und dieselben Richtlinien eingebunden wie Mitarbeitende und externe Kräfte.
- Agentische, also KI-gesteuerte Workflows übernehmen Bereitstellung, Freigabe und Entzug über den gesamten Technologiestack.
- Unveränderliche Prüfspuren und fein granulare Berechtigungen existieren für jede Identität - egal ob Mensch oder Agent.
Ob Sie Iden oder einen anderen Ansatz wählen: Entscheidend ist, dass Agenten in Ihrer Identitäts-Governance als erstklassige Bürger behandelt werden - nicht als versteckte, unprotokollierte Nebeneffekte.
Identität für KI-Agenten ist kein Nebenprojekt. Hier treffen sich Identitäts-Governance, Sicherheit und die Zukunft von KI. Wenn Sie nicht-menschliche Identitäten ignorieren, werden Sie die kommenden Jahre mit Vorfällen und Audit-Findings beschäftigt sein. Wenn Sie Identität dagegen als zentrale Steuerungsebene für Menschen und Agenten begreifen, bewegen Sie sich schneller, sparen Geld und bleiben sicher.


