Agentische KI-Systeme krempeln die digitale Welt derzeit um – sie denken mit, entscheiden selbst und handeln eigenständig – so verschwimmt die Grenze zwischen technischer Funktion und eigenständigem Akteur. Diese neue Autonomie bringt Sicherheitsrisiken mit sich, die klassische Mechanismen wie Firewalls oder statische Zugriffskontrollen nicht mehr abdecken. Besonders kritisch ist die „lethal trifecta“: der gleichzeitige Zugriff auf vertrauliche Daten, manipulative Inhalte und externe Kommunikationskanäle. Im Gespräch mit Jörg Egretzberger, CEO der TIMETOACT GROUP Österreich, beleuchten wir, welche Risiken daraus entstehen, wie Governance neu gedacht werden muss und welche technischen Maßnahmen Sicherheit und Kontrolle gewährleisten können.

Entstehen durch AI-Agenten neue Risikotypen, die klassische IT-Sicherheitsmodelle – wie Firewalls, IAM oder rollenbasierte Zugriffe – nicht ausreichend adressieren können?

Jörg Egretzberger: Absolut. Wenn AI-Agenten autonom agieren – eigenständig Entscheidungen treffen und Aufgaben ausführen - entstehen völlig neue Angriffsflächen, für die klassische Sicherheitsmaßnahmen wie Firewalls, IAM, rollenbasierte Zugriffe usw. nie konzipiert wurden. Im Gegensatz zu festen Softwareskripten können agentische KI-Systeme ihre Aktionen dynamisch erzeugen, wodurch ganz neue Bedrohungstypen entstehen.

Ein Beispiel ist die Prompt Injection: Angreifer verstecken schädliche Anweisungen in scheinbar harmlosen Daten wie in Dokumenten oder Benutzer-Nachrichten. Traditionelle Sicherheitsmaßnahmen erkennen dies nicht, da es sich nicht um Viren oder bekannte Exploits handelt. Dennoch könnte beispielsweise ein PDF mit verstecktem Text einen KI-Agenten dazu bringen, vertrauliche Informationen über das Web an einen Angreifer zu übermitteln. Solche Vorfälle wurden bereits von Unternehmen berichtet.

Microsoft und das Open Worldwide Application Security Project (OWASP) betrachten Prompt Injection mittlerweile als hohes Risiko und empfehlen mehrere Schichten deterministischer Schutzmaßnahmen – nicht nur heuristische. Die Forschungsgemeinschaft hat außerdem konkrete Design-Patterns zur Absicherung von KI-Agenten veröffentlicht.

Bei TIMETOACT reduzieren wir dieses Risiko, indem wir das Denken und Handeln der Agenten einschränken. Mittels Schema-Guided Reasoning folgen Agenten vordefinierten, geprüften Denkschritten anstelle freier Improvisation, wodurch die Angriffsfläche durch „kreative“ Aktionsketten deutlich reduziert wird.

Wie lässt sich sicherstellen, dass Governance, Verantwortlichkeit und Nachvollziehbarkeit erhalten bleiben und wer „haftet“, wenn ein Agent eine unerwartete Entscheidung trifft?

Egretzberger: Die Verantwortung bleibt immer beim Betreiber. Führende Leitlinien betonen dabei zentrale Prinzipien: Für jeden Agenten muss ein verantwortlicher Business Owner benannt werden. Alle Aktivitäten des Agenten sind durch umfassendes Tracing und Logging vollständig nachverfolgbar und eindeutig zuordenbar – jeder Agent erhält eine eigene Identität mit minimalen Zugriffsrechten. Zudem muss jederzeit ein Eingriff möglich sein, etwa durch menschliche Freigaben für sensible Aktionen oder einen Kill-Switch. Dieser kontrollierte Mechanismus erlaubt es, einen KI-Agenten sofort zu unterbrechen, zu deaktivieren oder in einen sicheren Zustand zu versetzen, um Schaden zu verhindern oder Fehlverhalten zu stoppen.

Auch Governance-Dokumente von OpenAI sowie die Launch- und Post-Launch-Reviews von Google weisen in diese Richtung: Policy-as-Code, regelmäßige Audits, lückenlose Dokumentation von Modellen und Anwendungen sowie kontinuierliches Monitoring. IBM ergänzt diese Ansätze um Vorbereitungen auf den EU AI Act und durchgängige KI-Governance und Observability in produktiven Umgebungen.

Im AI Strategy & Research Hub der TIMETOACT GROUP setzen wir diese Prinzipien konsequent um. Durch Schema-Guided Reasoning (SGR) machen wir die Schlussfolgerungen großer Sprachmodelle test- und nachvollziehbar und prüfen datenbasiert die einzelnen logischen Schritte. Jeder Prozess wird vollständig protokolliert. Bei Bedarf bieten wir lokale, air-gapped Implementierungen von KI-Modellen an, was sich in Projekten beispielsweise im Finanzsektor bewährt hat. Dadurch reduzieren wir Risiken und vereinfachen Audits.

Welche technischen Maßnahmen sind nötig, um die Sicherheit von agentischen KI-Systemen zu gewährleisten – etwa im Hinblick auf dynamische Autorisierung, Kontextsensitivität, Datenabschottung und Schutz vor Prompt Injection?

Egretzberger: Um eine vertrauenswürdige KI zu schaffen, gilt der Grundsatz: Zero Trust gegenüber Agenten – verbunden mit gründlichen Tests. Dafür braucht es ein mehrschichtiges Schutzkonzept, das Risiken aus verschiedenen Perspektiven minimiert.

Erstens: Die dynamische Autorisierung und Identitätsverwaltung. Jeder Agent erhält eine eigene Identität mit zeitlich begrenzten, minimalen Zugriffsrechten (Just-in-Time, Least Privilege). Risikobehaftete Tool-Aufrufe werden durch Policy Engines überprüft, sensible Aktionen erfordern menschliche Freigaben. Große Anbieter wie Microsoft, Google und OpenAI setzen diesen Ansatz bereits konsequent um.

Zweitens: Die strikte Datenisolation. Sensible Daten müssen vollständig von externen Kommunikationskanälen getrennt bleiben. Netzwerke werden deaktiviert, wenn kritische Daten verarbeitet werden, und Code-Ausführung erfolgt in isolierten Umgebungen. Die sogenannte „lethal trifecta“ – also der gleichzeitige Zugriff auf Daten, Inhalte und Kommunikationskanäle – darf nie in einer einzigen Sitzung auftreten.

Drittens: Der Schutz vor Prompt Injection. Hier kombinieren wir deterministische Maßnahmen wie Output-Sanitisierung, Tool-Call-Whitelists und Ausgangsfilter mit probabilistischen Prüfungen. Wir orientieren uns an etablierten Methoden aus der Forschung – etwa zur Kontextminimierung, strukturierten Planung und doppelten LLM-Validierung. Ein „zweites KI-Augenpaar“ zur Kontrolle erhöht dabei die Sicherheit erheblich.

Viertens: Observability, Red Teaming und klare Schutzrichtlinien. Wir identifizieren potenzielle Risiken proaktiv und schließen sie gezielt. Das umfasst vollständige Nachvollziehbarkeit aller Agentenschritte, gezieltes Red Teaming gegen Injektionen und Datenabfluss sowie verbindliche Schutzmechanismen bei Eingaben, Ausgaben und Tool-Aufrufen. Führende KI-Anbieter integrieren solche Audit- und Überwachungsmechanismen bereits standardmäßig.

Unser Ansatz bei TIMETOACT setzt zusätzlich auf Schema-Guided Reasoning (SGR). Damit definieren wir das logische Vorgehen von Agenten im Voraus und machen es testbar – ihr Verhalten wird vorhersehbar und überprüfbar.

Blogbeitrag, was bedeutet Zero Trust bedeutet
Blog 30.09.20

Zero Trust – oder lassen Sie jeden rein?

Was bedeutet Zero Trust? Wie funktioniert es und welchen Nutzen hat es? Diese und weitere Fragen beantworten wir in unserem Blogbeitrag!

Teaser Bild Interview Roher Jakober Kopie
Blog 29.06.22

Zero Trust dank modernem Authorization Management

Wie können Unternehmen eine Zero Trust Policy implementieren? Und was muss dabei berücksichtigt werden? Diesen Fragen stellten sich Pascal Jacober, Sales Director Europe bei PlainID, und Marco Rohrer, Chairman & Co-Founder der IPG, in einem Interview.

Blog

[eBook] Willkommen im Zeitalter der AI Agents!

Ein digitales Team, das Mails schreibt, Daten analysiert & Kunden betreut – klingt nach Sci-Fi? Mit Google Agentspace wird das Realität. Entdeckt jetzt, wie AI Agents Euch den Alltag erleichtern!

Titelbild zum Expertenbericht IAM im Spital - Gesundheitswesen
Blog 23.06.20

Brauchen wir ein "Patient-IAM"?

Die Dynamik einer Pandemie kollidiert mit der Schwerfälligkeit der Institutionen bei der Einführung Elektronischer Patientenakten.

Atlassian Cloud Free trial - Kostenfrei Testen
Offering 02.09.22

Atlassian Cloud testen

Jetzt Atlassian Cloud-Produkte wie Jira und Confluence kostenlos testen und evaluieren.

Ein blonder, männlicher Mitarbeiter der novaCapta sitzt mit einem Laptop auf dem das Windows-Logo sowie als Aufkleber das novaCapta Logo zu sehen sind, auf einem roten Sofa im Büro der novaCapta in Hannover.
Event 25.11.25

Webinar: Was können Copilot (Chat) KI-Agents?

Microsoft 365 und Azure souverän absichern, Daten vor Zugriffen durch Dritte schützen und gleichzeitig noch KI nutzen – (Wie) geht das?

Event Archive 22.10.24

AI Meetup 2024

Führende AI-Experten der TIMETOACT GROUP und aus unserem Partnernetzwerk laden Sie zu einem spannenden Abend im schönen Hauptquartier des AI Village ein, an dem wir das Thema Künstliche Intelligenz (AI) aus pragmatischer Sicht auf den Prüfstand stellen und konkrete Anwendungsbereiche aus der Praxis näher beleuchten.

Nov 26
Navigationsbild zu Data Science
Service

AI & Data Science

Wir bieten umfassende Lösungen im Bereich Data Science, Machine Learning und AI, die auf Ihre spezifischen Herausforderungen und Ziele zugeschnitten sind.

Gruppe Kollaborativ G Suite Google Workspace
Produkt

Google Workspace 30 Tage gratis testen

Nur mit CLOUDPILOTS erhalten Kunden Google Workspace 30 Tage kostenfrei und ohne Verpflichtungen. Schreibt einem unserer Mitarbeiter und wir richten es Euch ein!

News

IBM übergibt “Trusted AI” Projekte an Linux Foundation AI

Wir begrüßen es sehr, dass die Linux Foundation drei besonders leistungsfähige SW-Komponenten der IBM (z.T. bereits Open Source) in ihren Linux Foundation AI Canon aufgenommen hat.

Headerbild zur AI Factory for Insurance
Service 05.07.21

AI Factory for Insurance

Die AI Factory for Insurance ist ein innovatives Organisationsmodell in Verbindung mit einer flexiblen, modularen IT-Architektur. Sie ist eine Innovations- und Umsetzungsfabrik, um KI-Modelle systematisch zu entwickeln, zu trainieren und in digitalen Geschäftsprozessen einzusetzen.

Kompetenz

Optimieren Sie Ihre SAFe-Prozesse mit AI

Entdecken Sie, wie unsere AI-unterstützte Flow Reporting Lösung Ihr agiles Arbeiten revolutioniert. Unseren Experten zeigen wie. Jetzt mehr erfahren!

News 19.09.23

6 Monate Atlassian Cloud kostenlos testen: So geht das!

Um Usern eine reibungslose Migration in die Cloud zu ermöglichen, hat Atlassian ein Paket mit attraktiven Anreizen geschnürt. Die Incentives umfassen unter anderem eine kostenfreie 6-Monate...

Event 26.11.25

Enterprise RAG Challenge #3: Agents and Reasoning

This challenge explores how intelligent systems can combine retrieval-augmented generation (RAG) with agentic reasoning to deliver trustworthy, explainable results for complex real-world problems.

Produkt

Google AI

Innovationen, die Euer Unternehmen auf das nächste Level bringen!

Blog 16.09.24

Business Innovation und Digitale Transformation mit AI

Die Implementierung von AI bietet enormes Potenzial für Unternehmen – von Effizienzsteigerungen bis hin zu völlig neuen Geschäftsmodellen. Doch wie jede technologische Revolution birgt sie auch Risiken und Fallstricke. In diesem Blogbeitrag werfen wir einen Blick auf die Potenziale von AI für Unternehmen und auf die häufigsten Fehler, die Sie bei der Einführung vermeiden sollten.

Event 22.04.21

Webcast: AI Factory for Insurance

Im Webcast erfahren Sie, warum das Thema Künstliche Intelligenz für Versicherer so wichtig ist. Wir erklären Ihnen was die die AI Factory for Insurance genau ist und welche fünf Elemente die Factory ausmachen. Anschließend zeigen wir auf, wie diese konkret bei Versicherungen umgesetzt wird und wie sie sich in andere/ähnliche Initiativen eingliedern lässt.

May 11
Service

Artificial Intelligence: Effizienz steigern mit AI-Beratung

Artificial Intelligence im Unternehmen: Mit AI-Beratung und -Strategie Prozesse automatisieren und Effizienz steigern. Jetzt Reifegrad prüfen!

Event 04.06.25

TIMETOACT auf der Big Data & AI World Frankfurt

Auch TIMETOACT ist 2025 wieder mit dabei – mit einem eigenen Stand und einem zukunftsweisenden Vortrag gemeinsam mit IBM, der die nächste Evolutionsstufe von Business Intelligence beleuchtet.

Event

Designing Trustworthy AI

Im Mittelpunkt steht die Frage, wie sich vertrauenswürdige KI-Systeme entwickeln und skalieren lassen – auf Basis einer sicheren Datenarchitektur und mit Blick auf die nächste Generation: Agentic AI.

Bleiben Sie mit dem TIMETOACT GROUP Newsletter auf dem Laufenden!