Agentic AI: Wenn autonome KI-Systeme zum Sicherheitsrisiko werden
Breaking News:
Kathmandu Nepal
Mittwoch, Mai 6, 2026
Von Privilegieneskalation über unkontrollierte Datenexfiltration bis hin zu systemischen Sicherheitslücken – Agentic AI erweitert nicht nur Möglichkeiten, sondern auch die Angriffsfläche. Aktuelle Vorfälle zeigen: Agentic AI ist nicht nur ein Effizienztreiber, sondern kann auch zum Einfallstor für Angriffe und Missbrauch werden. Ein Beispiel ist der ServiceNow-Vorfall aus dem Januar 2026 (CVE-2025-12420). Ein hartcodierter, systemweiter Schlüssel ermöglichte es Angreifern, über die Virtual-Agent-API Administratorrechte zu erlangen.
Doch dieser Fall ist kein Einzelfall – sondern ein Hinweis auf ein strukturelles Problem: Wenn grundlegende Sicherheitsprinzipien nicht konsequent umgesetzt werden, wird Agentic AI selbst zum Risiko.
Reale Risiken mit Agentic AI: Aktuelle Vorfälle und Einordnung
Aktuelle Vorfälle zeigen, dass Agentic AI neue Angriffspfade eröffnet – insbesondere durch Privilegieneskalation, manipulierte Entscheidungslogik und kompromittierte Agenten:
1. Privilegieneskalation durch Agenten
2. Datenexfiltration und -manipulation
3. Supply-Chain-Risiken in der AI-Lieferkette
4. Prompt Injection und Missbrauch von Tools
Warum klassische Sicherheitsmassnahmen versagen
Agentic AI öffnet neue Angriffsvektoren, die von traditionellen Security-Controls nicht erfasst werden:
Unternehmen, die AI-Agenten wie klassische Software behandeln, riskieren stille Kompromittierung, laterale Bewegung und Compliance-Verstösse.
Verantwortungskultur und Agentic AI Security Awareness
Agentic AI verändert nicht nur Technologie, sondern auch Verantwortung. Wer AI-Agenten sicher einsetzen will, braucht eine klare Governance, neue Rollen und gezielte Sensibilisierung.
Die Rolle des «AI Steward»: Verantwortlich für sichere AI-Agenten
Der AI Steward ist zentrale Ansprechperson für Agentic AI Security und Governance, mit den Kernaufgaben:
Diese Rolle ist der Dreh- und Angelpunkt für Agentic AI Security Awareness im Unternehmen.
Automatisierte Security-Controls für AI-Agenten
Für Agentic AI braucht es automatisierte Sicherheitskontrollen, die:
Zentral ist dabei ein Zero-Trust-Ansatz für AI-Agenten: Jede Aktion muss autorisiert, protokolliert und konsequent nach dem Prinzip der geringsten Berechtigung (Least Privilege) beschränkt werden.
Schulung, Kulturwandel und AI Security Awareness
Technische Kontrollen genügen nicht – Sicherheitskultur ist entscheidend:
Organisationen, die Verantwortungskultur, AI Stewardship und Agentic AI Security Awareness verankern, reduzieren nicht nur das Risiko von Vorfällen – sie schaffen die Grundlage für vertrauenswürdige, skalierbare AI-Agenten im Unternehmen.
Best Practices: Was Unternehmen JETZT tun müssen
Wir empfehlen folgende technische Massnahmen für Unternehmen:
Organisatorische Massnahmen für Unternehmen:
Kulturelle Massnahmen:
Fazit: Agentic AI, Fluch oder Segen?
Die entscheidende Frage ist nicht, ob AI sicher ist, sondern ob wir sie sicher gestalten. Agentic AI bietet enorme Chancen – vorausgesetzt, Unternehmen nehmen die Risiken ernst und handeln jetzt.
Konkret heisst das:
So wird Agentic AI nicht zum Risiko, sondern zu einem vertrauenswürdigen strategischen Vorteil.
InfoGuard AG
Lindenstrasse 10
CH6340 Baar
Telefon: +41 (41) 7491900
https://www.infoguard.ch
![]()