Laut Analyse von Palo Alto Networks bergen drei von vier agentenbasierten KI-Projekten erhebliche Sicherheitsprobleme. Der Ansatz sollte sein Projekte rückwärts zu denken…
Hintergrund
KI-Agenten erobern die Arbeitswelt, doch der Hype birgt Gefahren, denn Schnelligkeit geht oft zu Lasten der Sicherheit. Nach einer IBM-Studie** sehen Unternehmen aktuell KI-Agenten nicht länger als Experiment, sondern als unverzichtbaren Bestandteil ihrer digitalen Transformation. Führungskräfte erwarten bis 2025 einen achtfachen Anstieg von KI-gestützten Arbeitsabläufen. Sie versprechen sich davon eine höhere Prozesseffizienz, sinkende Kosten und veränderte Workflows. In der verbesserten Entscheidungsfindung sehen danach Verantwortliche gerade den größten Nutzen.
A) Ergebnisse der Analyse und Empfehlungen
Die Analyse zeigt, dass drei von vier laufenden agentenbasierten KI-Projekten erhebliche Sicherheitsprobleme bergen. Der Grund soll demnach weniger im Code, sondern in einer fehlenden Governance liegen. In über 3.000 Gesprächen mit europäischen Führungskräften wurde laut dem Unternehmen deutlich, dass (Zitat) „viele Projekte ohne klare Zieldefinitionen, verbindliche Kontrollmechanismen oder abgestimmte Sicherheitsrichtlinien gestartet werden.“
Wichtige Fragen dabei sind: Welche Risiken stehen dabei im Zentrum? Und wie können Unternehmen ihnen begegnen? Palo Alto Networks kommentiert für Sie diese Entwicklungen und Herausforderungen wie folgt:
1. Fehlende Zieldefinition: Wenn Projekte ins Leere laufen
"Viele Unternehmen beginnen ihre agentenbasierten KI-Initiativen mit der Technologie, nicht mit den Zielen. Projekte starten, ohne zuvor messbare Geschäftsziele oder Risikogrenzen festzulegen. Dieser „Outcome Drift“ führt zu Abweichungen, unklaren Verantwortlichkeiten und steigenden Budgets, während der Mehrwert ausbleibt. Laut Gartner*** drohen bis 2027 etwa 40 Prozent der Projekte abgebrochen zu werden, weil keine klaren Zielsetzungen vorhanden sind.
Der Ansatz muss sein, Projekte rückwärts zu denken. Nur wenn Unternehmen zu Beginn zwei bis drei konkrete, vom Vorstand genehmigte Ziele festlegen, lassen sich Investitionen steuern und Risiken begrenzen. Ausgehend von gewünschten Ergebnissen und Benchmarks wird die Architektur von KI-Agenten so entwickelt, dass jede Handlung einer autorisierten Identität mit dokumentiertem Zweck zugeordnet werden kann. Dadurch entstehen weniger blinde Flecken und Projekte bleiben steuerbar.
2. Zu weit gefasste Berechtigungen: Wenn Agenten mehr dürfen, als sie sollten
Ein häufiges Problem in der Praxis ist die Vergabe übermäßiger Zugriffsrechte. Agenten erhalten volle Systemrechte oder unzureichend überwachte Berechtigungen. Das ist vergleichbar damit, einem Praktikanten uneingeschränkten Zugang zu allen Unternehmenssystemen zu geben – es erhöht das Risiko unnötig und entspricht nicht dessen Aufgabenfeld. Dieses Vorgehen öffnet Angreifern Tür und Tor.
Abhilfe schaffen Leitplanken, die von Beginn an in die Planung und das Design eingebaut werden. Jede Handlung muss klar autorisiert, nachvollziehbar und im Zweifel durch einen Menschen überprüft werden. Dazu zählen Zero-Trust-Prinzipien, Identitäts- und Privilegientrennung sowie Kontrollen von untergeordneten Agenten.
Kurzlebige Zugangsdaten, mehrstufige Authentifizierung und eine strikte Trennung von Berechtigungen verhindern Kontrollverlust. Ebenso zum Fundament gehören dabei Aktionsprotokolle und kontinuierliche Überwachung. Grundsätzlich gilt: Unternehmen sollten Agenten wie eigenständige Identitäten behandeln. So wird blindes Vertrauen durch sorgfältige Kontrolle ergänzt.
3. Governance-Lücken: Wenn wichtige Akteure außen vor bleiben
Das dritte Risiko ist fehlende Governance. Noch immer betrachten viele Unternehmen agentenbasierte KI als isoliertes IT-Projekt. Bereiche wie Recht, Betrieb, Compliance oder Risikomanagement werden erst spät einbezogen – oder gar nicht. So entstehen Schattenprojekte, Verantwortlichkeiten bleiben unklar und die Sicherheit gerät ins Hintertreffen. Palo Alto Networks empfiehlt deshalb die Einrichtung eines „Governance Council“.
Dieses funktionsübergreifende Gremium soll klare Entscheidungsrechte besitzen, regelmäßig an den Vorstand berichten und verbindliche Standards setzen. Governance wird so zur Grundlage, die Projekte widerstandsfähig, regelkonform und strategisch abgestimmt macht. Unternehmen, die frühzeitig alle relevanten Akteure einbinden und diese Strukturen fest im Board verankern, schaffen damit nicht nur Sicherheit, sondern auch die Basis für eine langfristig erfolgreiche Implementierung von KI-Agenten.
B) Empfohlene Best Practices: Um agentenbasierte KI-Projekte sicher aufzusetzen, sollten Unternehmen bereits im nächsten Quartal folgende Maßnahmen prüfen:
1. Governance
Ein „Agentic Governance Council“ einrichten und Verantwortlichkeiten klar festlegen
Ein zentrales Register führen, das alle Agenten, Datenzugriffe und Verantwortliche dokumentiert
Vor dem Go-live realistische Szenarien und Stresstests („Premortems“) durchführen.
2. Zieldefinitionen
Pro Anwendungsfall messbare Ziele definieren und Risiken mit Grenzwerten versehen
Kritische, irreversible Entscheidungen grundsätzlich einem Menschen vorbehalten
Jede Aktion einer autorisierten Identität mit klar dokumentiertem Zweck zuordnen.
3. Schutzmechanismen
Sichtbarkeit und Kontrolle bei KI-Applikationen
Identitäten von Menschen, Systemen und Agenten unter einer einheitlichen Sicherheitsrichtlinie verwalten
Zugriffsrechte strikt nach dem Prinzip „Least Privilege“ vergeben und regelmäßig erneuern
Ein kontinuierliches Monitoring etablieren und Menschen in kritische Freigaben einbinden."
Ohne klare Zieldefinition, Berechtigungsgrenzen, Leitplanken und automatisierte Kontrollmechanismen drohen bestehende Schwachstellen in Netzwerk-, Cloud- und SaaS-Umgebungen noch verstärkt zu werden.
Dazu auch Thomas Maxeiner, Director Technical Solutions bei Palo Alto Networks (1): „Die Ergebnisse machen deutlich, dass es bei KI-Agenten nicht um reine Technik geht, sondern um die richtigen Rahmenbedingungen. Von Anfang an müssen Governance, klare Zielsetzungen und sichere Identitätskontrollen mitgedacht werden. Nur so lassen sich Innovation und Sicherheit in Einklang bringen.“

(1) Im Bild: Thomas Maxeiner (Bildquelle: Palo Alto Networks).
Querverweis:
Unser Beitrag > Untersuchung zum Einsatz von KI-Agenten in Deutschland und 13 weiteren Ländern von Cloudera
Unser Blogpost > Resilienz gegen Cyberangriffe: Backup-Verfahren als Teil einer übergeordneten Datenschutzstrategie
Unser Beitrag > Wie Generative KI die Bedingungen für Cybersicherheit bei Unternehmen verändert