IAM für Künstliche Intelligenz

In unseren Insights haben wir vor einigen Monaten aufgezeigt, welche Potenziale Künstliche Intelligenz in modernen Unternehmen entfalten kann – von effizienter Prozessautomatisierung bis hin zu intelligenten Entscheidungssystemen (https://www.ipg-group.com/blog/expertenberichte/ki-blog). Doch mit der zunehmenden Autonomie dieser Systeme wächst auch der notwendige Druck, sie strukturiert zu steuern, zu protokolieren und abzusichern.

Insbesondere der Zugriff auf sensible Daten und Systeme durch KI-Agenten wirft neue Fragen auf: Welche Identität steckt hinter einer maschinellen Handlung? Wer trägt die Verantwortung? Und wie lassen sich diese Zugriffe nachvollziehbar und regelkonform gestalten? Zudem gilt zu beachten, dass der Austausch von Daten zwischen KI Agenten über neue Arten von Schnittstellen stetig steigen wird.

Dieser Folgebeitrag richtet sich an Unternehmen, die KI bereits produktiv einsetzen oder dies gerade planen. Er zeigt anhand konkreter Use Cases und Begriffsdefinitionen auf, warum Identitätsmanagement – gerade für KI – zur zentralen Voraussetzung für Sicherheit, Transparenz und Governance wird. Denn eines ist klar: Im Bereich Identitäten und Zugriffssteuerung muss sich noch viel bewegen, wenn KI skalierbar und vertrauenswürdig betrieben werden soll.

Was ist ein KI-Agent der einen KI-Workload abarbeitet?

Konkret sprechen wir in diesem Umfeld von Agentic AI – beziehungsweise handelt es sich um den gängigen Begriff der Lösungen von KI Anbietern. Agentic AI ist eine spezielle Form  von KI-Applikationen welche befähigt wurde definierte Ziele zu verfolgen, ohne dass eine enge menschliche Aufsicht und Interaktion im Prozess nötig ist. 

OpenAI beschreibt diese Art von KI System wie folgt: "Sie zeichnen sich durch die Fähigkeit aus, Handlungen auszuführen, die über einen längeren Zeitraum hinweg konsistent zur Erreichung von Zielen beitragen, ohne dass ihr Verhalten vorher festgelegt wurde." 

Ein KI-Agent ist also eine softwarebasierte Einheit, die innerhalb eines definierten Aufgabenbereichs eigenständig handelt – etwa durch das Verarbeiten von Informationen, das Treffen von Entscheidungen oder das Auslösen von Aktionen in angebundenen Systemen. Solche Agenten können in Form eines Chatbots, eines Dokumentenverarbeitungsmoduls oder einer Prognosekomponente auftreten. Gemeinsam ist ihnen, dass sie zunehmend autonome Rollen in betrieblichen Abläufen übernehmen und damit als digitale Akteure gleichwertig zu Mitarbeitern in Prozesskontexten auftreten, deren Handeln strukturiert steuerbar und nachvollziehbar sein muss. Damit ein solcher Agent sicher in eine Unternehmensumgebung eingebunden werden kann, benötigt er eine klar definierte digitale Identität – vergleichbar mit der eines Mitarbeitenden, aber zugeschnitten auf seine Funktion als technische Instanz.

Im Rahmen dieser Identitätszuordnung wird ein KI-Agent typischerweise als sogenannte Machine Identity geführt. Diese beschreibt eine digitale Identität, die nicht an eine natürliche Person gebunden ist, sondern an eine Maschine, ein System oder eben eine künstliche Intelligenz. Machine Identities bestehen aus technischen Zugangsmitteln wie Tokens, Zertifikaten oder Dienstkonten und dienen der Authentifizierung sowie Autorisierung in verschiedenen Systemen. Doch im Gegensatz zu klassischen Hintergrundprozessen übernehmen KI-Agenten auch inhaltliche Verantwortung – etwa bei der Beurteilung von Rechnungen oder der Empfehlung geschäftsrelevanter Entscheidungen. Dadurch verschiebt sich der Fokus von rein technischer Sicherheit hin zu steuerbarer Verantwortung.

In der Praxis übernehmen KI-Agenten konkrete Aufgabenpakete – sogenannte KI-Workloads. Ein solcher Workload beschreibt die Gesamtheit der Aktivitäten, die ein KI-Agent innerhalb eines bestimmten Prozesses ausführt: von der Datenaufnahme über die Verarbeitung bis hin zur Ausgabe oder Interaktion mit anderen Systemen. Diese Workloads können einfache Aufgaben automatisieren oder komplexe Abläufe eigenständig steuern. Ihre zunehmende Bedeutung in zentralen Geschäftsprozessen verlangt nach einem strukturierten Umgang – insbesondere, wenn sie dauerhaft und systemübergreifend operieren.

Der fachliche und technische Rahmen eines Agentic AI Agents ist typischerweise wie folgt definiert:

Im Kern wird der AI Agent definiert, üblicherweise auf Basis einer vorhandenen AI Plattform oder eines AI Frameworks – hier gilt es das Thema IAM entsprechend einzubetten.

Der Agent wird mit Zielvorgaben versorgt und es wird im Vorfeld definiert, welche Werkzeuge (Systeme, Anwendungen, Spreadsheets, IT Tools, etc.) zur Abarbeitung der Aufgaben verwendet werden dürfen.

Es ist zudem nicht unüblich, dass Agenten die Aufgaben als «digitales Teamplay» lösen und spezialisierte (Sub) Agents für bestimmte Teilaufgaben zur Verfügung stehen.

Die Agenten haben dabei zumeist Zugriff auf:

  • Unternehmensdaten
  • Unternehmensanwendungen
  • Frei zugängliche Daten im Internet
  • Durch AI generierte Daten

Die Agenten interagieren darüber hinaus mit «Human Stakeholdern»:

  • In der definierten Abteilung des Unternehmens
  • Abteilungs, oder Teamübergreifend
  • Mit anderen Agenten, die in anderen Teams einen Human Stakeholder aufweisen

Dieser Kontext kann in Umfang und Komplexität noch deutlich ausgeweitet vorliegen, soll hier aber den nötigen Bedarf an Governance und Identitäten-Management aufzeigen. Zumal diese Agenten oft in kritischen Prozessbereichen, wie dem Einkauf und HR, zum Einsatz kommen.

Use Cases für AI Agents oder Workloads mit Identität, zwei Beispiele:

Automatische Verarbeitung von Eingangsrechnung – Fokus Identität

In einem mittelgrossen Unternehmen wird eine KI-basierte Lösung eingeführt, um die Verarbeitung von Eingangsrechnungen zu automatisieren. Die Lösung übernimmt die gesamte Eingangsverarbeitung: Sie liest Rechnungen aus dem E-Mail-Postfach aus, extrahiert die relevanten Informationen mittels OCR, prüft die formale und inhaltliche Richtigkeit der Daten, und löst – bei unkritischen Fällen – direkt die Buchung im ERP-System aus. Bei Abweichungen oder Schwellenwertüberschreitungen wird ein manueller Freigabeprozess über ein internes Workflow-Tool gestartet.
Diese KI-Lösung übernimmt damit einen zentralen Workload im Bereich der Finanzabwicklung – und zwar rund um die Uhr, über Systemgrenzen hinweg. Um diese Aufgaben erfüllen zu können, benötigt sie technische Benutzerkonten in verschiedenen Systemen: im E-Mail-System zum Abrufen eingehender Rechnungen, im Filesystem zur temporären Ablage, im ERP zur Erfassung von Buchungen, im Workflow-Tool zur Initiierung von Freigabeprozessen sowie in der Archivdatenbank zur revisionssicheren Ablage.
Jedes dieser Benutzerkonto benötigt Berechtigungen in den jeweiligen Systemen – doch keines dieser Konten steht für sich allein und darf daher aus Governance-Sicht auch nie isoliert betrachtet werde, da sonst der Audit-Trail des gesamten Vorgangs nicht vollständig ist. Daher ist es entscheidend, dass diese technischen Konten einer übergeordneten logischen Identität zugeordnet werden, welche die KI-Rechnungsverarbeitung abbildet. Diese logische Identität wiederum muss einer natürlichen Person im Unternehmen zugewiesen sein, beispielsweise der verantwortlichen Führungskraft im Bereich Finance Automation (ob die Zuweisung an eine natürliche Person notwendig ist und wie lange noch, behandelt dieser Blog Post von IPG: https://www.ipg-group.com/blog/expertenberichte/ki-blog.
Das zentrale Identity and Access Management (IAM) System übernimmt seine tragende Rolle exakt bei diesen Fragestellungen. Es aggregiert die Informationen aus den verschiedenen Zielsystemen, erkennt technische Konten manuell oder automatisch und führt sie zu einer logischen Identität zusammen – zum Beispiel mit dem Namen „Service Automatisierte Rechnungsverarbeitung“. Diese Identität wird im IAM nicht nur als Bündel technischer Berechtigungen verstanden, sondern als eigenständige digitale Identität mit definierten Aufgaben, Gültigkeitszeiträumen und Verantwortlichkeiten.
Das IAM-System stellt sicher, dass diese digitale Identität stets einer natürlichen Person zugeordnet ist – inklusive klarer Vertretungsregelungen für Urlaubs- und Abwesenheitszeiten oder zum Beispiel beim Austritt der zuständigen Person. So ist jederzeit nachvollziehbar, wer im Unternehmen letztlich die Verantwortung für die KI-gestützte Rechnungsverarbeitung trägt. Im Falle von Sicherheitsprüfungen oder internen Audits kann somit exakt ausgewiesen werden, welche Person welche Systemzugriffe – direkt oder indirekt über eine technische Identität mit KI– ermöglicht oder ausgelöst hat.

Darüber hinaus bietet das IAM eine wichtige Governance-Funktion: Es überwacht, ob Zugriffsrechte konsistent sind, ob Konten doppelt vergeben wurden oder eine Funktionstrennung verletzt wurde. Vielleicht setzt man in Zukunft ja bewusst zwei KI Agents ein, um eine Funktionstrennung sauber abzubilden. 
In Summe stellt das IAM-System also die zentrale Plattform dar, um einen automatisierten Workload wie die KI-basierte Eingangsrechnungsverarbeitung nicht nur effizient, sondern auch sicher, nachvollziehbar und regelkonform zu betreiben. Es verbindet technische Benutzerkonten, funktionale Identitäten und natürliche Personen zu einem belastbaren Identitätsmodell – und schafft damit die Grundlage für Vertrauen und Kontrolle in automatisierten Prozessen.
 

Chatbot statt Intranet – Fokus Zugriffe

Stellen wir uns vor, ein Unternehmen möchte im Intranet einen intelligenten Chatbot einsetzen. Dieser soll Mitarbeitenden dabei helfen, auf verschiedene interne Informationen zuzugreifen – etwa auf eigene HR-Daten wie Urlaubstage oder Gehaltsinformationen, den aktuellen Status ihrer Projekte, KPIs aus BI-Systemen oder den Stand ihrer IT-Tickets. Der Nutzen ist klar: einfache, zentrale Informationsabfrage über natürliche Sprache. Doch sobald es um sensible Daten geht, muss sichergestellt werden, dass der Chatbot nur solche Informationen ausliefert, zu denen der jeweilige Nutzer berechtigt ist. Eine klassische Herausforderung im Bereich Zugriffssicherheit.

Um diese Zugriffskontrolle technisch sauber und flexibel umzusetzen, bietet sich eine Architektur an, die auf dem Prinzip von Policy Enforcement Point (PEP) und Policy Decision Point (PDP) basiert. Der Chatbot selbst übernimmt die Rolle des PEP: Er fängt die Benutzeranfrage ab und prüft, ob es sich um eine geschützte Aktion handelt. Entscheidet der Chatbot, dass eine Autorisierung notwendig ist, wird die Anfrage an einen PDP weitergeleitet. Dort wird geprüft, ob der anfragende Benutzer – je nach Rolle, Kontext, Uhrzeit oder Abteilung – berechtigt ist, die gewünschte Information zu erhalten. Erst wenn der PDP dies freigibt, liefert der Bot die entsprechende Antwort.

In der Praxis lassen sich Lösungen von Anbietern wie Immuta, Aserto, Privacera und Oso nutzen, um diese Architektur umzusetzen – je nach konkretem Anwendungsfall in Kombination oder einzeln.

Immuta

Immuta beispielsweise eignet sich ideal für den Schutz von Datenquellen wie Data Warehouses oder Data Lakes. Der Chatbot kann über APIs oder Abfragen auf diese Plattformen zugreifen, etwa um aktuelle Umsatzzahlen oder Personalstatistiken anzuzeigen. Immuta stellt dabei sicher, dass nur die jeweils erlaubten Daten ausgeliefert werden – etwa durch dynamische Maskierung von Gehältern oder durch Filterung von Zeilen, auf die der Nutzer keinen Zugriff hat. Die Entscheidung, was ein Nutzer sehen darf, trifft Immuta anhand zentral verwalteter Richtlinien, die auf Rollen, Attributen und Kontext basieren.

Aserto

Aserto wiederum bietet sich an, um die Autorisierung innerhalb des Chatbots selbst oder auf der API-Ebene umzusetzen. Wenn der Bot zum Beispiel eine interne API aufruft, um Informationen zu Projekten oder IT-Tickets abzurufen, leitet Aserto diese Anfrage an seine Policy-Engine weiter. Diese basiert auf dem Open Policy Agent (OPA) und trifft Entscheidungen gemäss definierter Regeln – zum Beispiel: „Projektleiter dürfen Teamstatus abrufen“, oder „Zugriff auf sensible APIs ist nur während der Arbeitszeit über das Firmen-VPN erlaubt“. So wird nicht nur die Identität, sondern auch der Kontext bei jeder Anfrage berücksichtigt.

Privacera

Privacera übernimmt in dieser Architektur eine übergeordnete Rolle im Bereich Data Governance und Compliance. Es stellt sicher, dass alle Datenzugriffe nachvollziehbar und dokumentiert sind – zum Beispiel im Rahmen der DSGVO. Darüber hinaus kann Privacera Richtlinien zentral verwalten und an unterschiedliche Datenquellen wie Snowflake, S3 oder BI-Plattformen durchreichen. Im Zusammenspiel mit dem Chatbot bedeutet das: Alle sensiblen Datenzugriffe, die der Bot vermittelt, sind abgesichert, protokolliert und regelkonform.

Oso

Oso hingegen ist eine besonders entwicklerfreundliche Lösung, die direkt im Anwendungscode des Chatbots integriert werden kann. Mit Oso lassen sich Zugriffsrichtlinien in einer leicht verständlichen Sprache definieren – beispielsweise: „Ein Mitarbeiter darf nur eigene HR-Daten sehen“ oder „Ein Teamleiter darf auf die Daten seiner direkten Mitarbeitenden zugreifen“. Diese Regeln sind versionierbar, testbar und direkt im Git-Workflow des Entwicklerteams eingebunden. Das macht Oso besonders geeignet für schnell wachsende, intern entwickelte Bots oder SaaS-Anwendungen.

Im Zusammenspiel dieser vier Komponenten entsteht eine moderne, sichere Architektur: Der Chatbot dient als Interaktionsschnittstelle und PEP. Die tatsächliche Zugriffserlaubnis wird entweder über Oso im Code entschieden, über Aserto an API-Schnittstellen kontrolliert, durch Immuta auf Datenebene geregelt oder durch Privacera verwaltet, protokolliert und revisionssicher gemacht. Jede Benutzeranfrage durchläuft diesen Sicherheitsmechanismus, bevor sie eine Antwort erhält. Dadurch ist gewährleistet, dass niemand über den Chatbot unberechtigt auf sensible Informationen zugreifen kann – egal ob im HR-, Finance-, IT- oder Projektkontext.

Risiken und Herausforderungen

Es ist bereits problemlos möglich für Geschäftsprozesse wertsteigernde agentenbasierte Systeme auf der Grundlage der derzeitigen Fähigkeiten von LLM (Large Language Model) zu entwickeln. Die Nutzung von Agentic AI bietet Unternehmen schon heute erhebliche Effizienzsteigerungen zu erzielen.

Dies erfordert nach unserer Betrachtung aber bestimmte Grundvoraussetzungen. Nebst den klassischen Problemen wie die Datenqualität oder die Integration in bestehende Systeme, kann es bei Mitarbeitenden Bedenken hinsichtlich Fairness oder Ethik geben. Genau deshalb muss künstliche Intelligenz transparent agieren. Es muss gewährleistet sein, dass Aktionen der KI-Systeme eindeutig nachvollziehbar sind und im Einklang mit den Unternehmensrichtlinien stehen. Ein robustes Identitäts- und Zugriffsmanagement ist hierfür unerlässlich. Gerade bei Personalprozessen ist nicht gewünscht, dass ein KI-Agent sämtliche besonders schützenswerte Daten einsehen kann.

Wir sehen im Kontext IAM und der Transaktionen durch Agenten in Prozessen drei Handlungsfelder:

  1. Definition und Begrenzung des Handlungsrahmens durch einen Agenten
    a. Eine definierte digitale Identität und die Steuerung dieser gewährt nur den nötigen und relevanten Zugriff auf Daten und Systeme und der digitale Aktionsradius ist klar abgegrenzt (ähnlich einer Rollendefinition für einen Mitarbeiter
     
  2. Protokollierung und Nachvollziehbarkeit
    a. Alle Interaktionen und Entscheidungen inkl. der jeweiligen Teilergebnisse werden geloggt und mit der Identität verknüpft und können im Bedarfsfall transparent nachvollzogen werden
     
  3. Kontrolle und Feedback
    Eine digitale Identität erlaubt eine granulare Prozesssteuerung der Agenten und zum Beispiel das Einfordern einer Bestätigung durch einen Human Stakeholder bei hochkritischen Zugriffen auf Daten. Oder entsprechend die Bestätigung einer Entscheidung, wenn Schwellwerte überschritten werden.

Ausblick und Fazit

In den nächsten fünf Jahren wird sich das Zusammenspiel von Künstlicher Intelligenz und Identity & Access Management (IAM) grundlegend verändern – sowohl in der technischen Umsetzung als auch in der strategischen Bedeutung für Unternehmen. Während IAM bisher vor allem als Rückgrat für Benutzerverwaltung, Zugriffssteuerung und Berechtigungsnachweise diente, wird es zunehmend zur zentralen Instanz für Vertrauensmanagement in automatisierten und KI-gesteuerten Systemen.

Ein entscheidender Wandel wird darin bestehen, dass KI-Instanzen selbst als handelnde Identitäten begriffen und entsprechend verwaltet werden müssen. Heute sind Dienstkonten oder technische Benutzer oft nur ein Anhang der IT – künftig werden KI-gestützte Prozesse als autonome digitale Akteure auftreten, die Entscheidungen treffen, Prozesse auslösen und mit anderen Systemen interagieren. Damit stellt sich die Frage: Wer ist diese „Identität“, welche Rechte darf sie haben, wer ist verantwortlich für ihr Handeln – und wie lässt sich das über System- und Zeitgrenzen hinweg nachvollziehen?

IAM-Systeme werden daher deutlich dynamischer und kontextsensitiver werden müssen. Statt statischen Rollenmodellen werden flexible, attributbasierte und kontextabhängige Zugriffskontrollmodelle dominieren, die in Echtzeit bewerten, ob eine Aktion zulässig ist. Gleichzeitig müssen IAM-Plattformen in der Lage sein, Beziehungen zwischen natürlichen und künstlichen Identitäten abzubilden – etwa indem eine KI-Identität dauerhaft oder zeitlich begrenzt einer verantwortlichen Person zugewiesen ist. Diese Zuweisung muss revisionssicher dokumentiert, transparent steuerbar und in Notfällen sofort übersteuerbar sein.

Auch regulatorisch wird sich der Druck erhöhen. Nationale und internationale Regelwerke wie der EU AI Act oder entsprechende schweizerische Datenschutzrichtlinien verlangen künftig einen nachvollziehbaren, ethisch und rechtlich einwandfreien Umgang mit KI-Systemen. IAM wird dabei zur tragenden Instanz, wenn es darum geht, maschinelle Entscheidungen menschenzentriert zu kontrollieren – durch technische Verankerung von Verantwortlichkeit, Einschränkungen und Prüfpfaden.

Technisch gesehen wird sich IAM enger mit anderen Disziplinen verzahnen: mit Security Information and Event Management (SIEM) zur Echtzeitüberwachung, mit Data Governance für kontrollierte Datennutzung und mit Policy-Engines, die Richtlinien zentral interpretieren. Die Grenze zwischen Identitätsmanagement, Berechtigungssteuerung und intelligenter Prozesslenkung wird verschwimmen – zugunsten eines ganzheitlichen Sicherheits- und Kontrollmodells.

IAM wird in den kommenden Jahren vom klassischen Berechtigungswerkzeug zur strategischen Plattform für die sichere Nutzung von KI. Wer frühzeitig beginnt, KI-Identitäten strukturiert zu erfassen, Verantwortlichkeiten verbindlich zuzuordnen und Zugriffe kontextsensitiv zu steuern, schafft die Voraussetzung für eine automatisierte Zukunft, die nicht nur effizient, sondern auch vertrauenswürdig und regelkonform ist. Hierzu empfiehlt IPG die Erstellung Machine IAM Policy oder die Ergänzung der bestehenden IAM-Richtlinie.  KI mag der Motor der Digitalisierung sein – doch IAM ist das Lenksystem.

Dieser Text wurde mit Unterstützung von KI geschrieben, Aufbau, Themenauswahl und inhaltliche Expertise sind aber durch die Autoren eingeflossen.

Autoren:

Stephan Pfeiffer
Geschäftsführer X-INTEGRATE Software & Consulting GmbH
Foto von Claudio Fuchs - IPG - Experts in IAM
Claudio Fuchs
CEO IPG Information Process Group AG

Sprechen Sie uns gerne an!

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.

Bitte Captcha lösen!

captcha image
Blog

IAM für Künstliche Intelligenz

Welche Identität steckt hinter einer maschinellen Handlung? Wer trägt die Verantwortung? Und wie lassen sich diese Zugriffe nachvollziehbar und regelkonform gestalten? Jetzt mehr erfahren.

Event

Künstliche Intelligenz in der Rechnungsprüfung

Webcast 06.Oktober: Techniken des maschinellen Lernens können die Prüfung von Rechnungen in der privaten Krankenversicherung effektiv unterstützen. „Natural Language Processing“ ermöglicht so die Klassifikation von kurzen Texten aus den Tabellen von Rechnungen.

Oct 06
Teaser Berechtigungen v2
Blog 15.03.22

Berechtigungen mit Hilfe künstlicher Intelligenz

Sind die Berechtigungen der Mitarbeitenden noch den Aufgaben entsprechend angemessen oder haben sich diese im Laufe der Zeit verändert?

Branche

Künstliche Intelligenz im Treasury Management

Optimieren Sie Treasury-Prozesse durch KI: Automatisierte Berichte, Vorhersagen und Risikomanagement.

Kompetenz

Künstliche Intelligenz im Identity & Access Management

Künstliche Intelligenz im Identity & Access Management

Titelbild zum Expertenbericht IAM Legacy
Blog 13.12.21

IAM Legacy - Ist mein IAM noch zukunftsfähig?

Sollten Sie sich diese Frage stellen, hilft dieser Fachbericht mit Überlegungen und Denkanstössen zu entscheiden, ob ihre IAM Lösung eine Verjüngungskur benötigt oder ob ein Ersatz ebenfalls eine diskutierbare Möglichkeit darstellt.

Bild zum Expertenbericht Customer IAM
Blog 30.06.21

Customer IAM - die praktische Einordnung ins IAM

Wie sieht das CIAM von der konkret, praktischen Seiten aus? Was ist dabei zu berücksichtigen und vor welche Herausforderungen steht man dabei?

Regulatorien Teaserbild CH und EU
Kompetenz

IAM - Regulatorien

Regulatorische Anforderungen im Bereich Cybersecurity werden immer komplexer. Mit unseren Compliance-Lösungen unterstützen wir Sie dabei, Risiken zu minimieren und Vorschriften effizient einzuhalten.

Übersicht

IAM Implementierung

Erfolgreiche IAM-Implementierung mit IPG: Sicher, effizient und maßgeschneidert für Ihre Anforderungen

Teaserbild Referenz IAM Kritikalität
Blog 07.03.23

Kritikalität im IAM

Jede Person im Unternehmen, mit Zugriff auf ein IT-System, stellt ein mögliches Sicherheitsrisiko dar. Ein Leitfaden für die Bewertung und Handhabung von kritischen Zugriffen gibt es in unserem aktuellen Blogbeitrag.

Übersicht

IAM Managed Service

Vereinfachen Sie Ihr IAM-Management mit den Managed Services von IPG. Maximale Sicherheit, Compliance und Effizienz – ohne zusätzlichen Aufwand

Übersicht

IAM Schulungen von IPG

Wissen ist der Schlüssel zur Sicherheit – mit unseren IAM-Schulungen bleiben Sie immer einen Schritt voraus.

Teaserbild Expertenbericht IAMcloud Journey von IPG
Blog 30.03.23

Der Weg in die Cloud: Optimierung Ihres IAM

Identity Management aus der Wolke - vom On-Prem IAM zum Cloud IAM. Erfahren Sie, welche Best Practices für einen erfolgreichen Journey.

Blogbeitrag, wie Sie One Identity Safeguard und One Identity Manager verkuppeln
Blog 22.12.20

Administrationstiefe von IAM-Systemen

In unseren IAM-Projekten haben wir regelmäßig mit Prüferinnen und Prüfern der internen Revision zu tun. Insbesondere während der ersten Projektschritte ereilen uns immer wieder die Fragen: Woran erkenne ich denn jetzt im IAM-System, ob Herr Meier auf das Share XYZ Zugriff hat? Was sind aktuell seine wirksamen Berechtigungen?

die bayerische
Referenz 22.02.24

PAM und IAM für «die Bayerische»

Das Versicherungsunternehmen «die Bayerische» schützt die sensiblen Daten seiner Kunden mit IAM und PAM. Damit werden alle regulatorischen Anforderungen erfüllt sowie die Cybersicherheit unterstützt.

Customer IAM Azure
Blog

Customer IAM mit Azure

Das Customer IAM von Azure ermöglicht die Verwaltung von Identitätsinformationen und die Zugriffsteuerung für verschiedene Kunden-Identitäten.

Titelbild zum Expertenbericht IAM im Spital - Gesundheitswesen
Blog 23.06.20

Brauchen wir ein "Patient-IAM"?

Die Dynamik einer Pandemie kollidiert mit der Schwerfälligkeit der Institutionen bei der Einführung Elektronischer Patientenakten.

Bild zum Blogbeitrag 20 Jahre IPG - IAM Experte im Wandel der Zeit
Blog 27.10.21

IAM im Wandel der Zeit.

Die IPG Group feiert 20 Jahre Firmenbestehen. Als Pionier für Identity & Access Management haben wir den Wandel des IAM nicht nur miterlebt, sondern aktiv mitgestaltet. Das Thema «IAM» mag wohl oberflächlich nicht geändert haben, inhaltlich hat sich aber viel gewandelt.

Blog 14.03.25

Die Bedeutung des Anforderungsmanagements im IAM

Ein effektives Anforderungsmanagement ist entscheidend für den Erfolg von IAM-Projekten. Entdecken Sie in unserem Blog, wie es klare Ziele setzt, Missverständnisse vermeidet und Compliance sichert.

Titelbild zum Expertenbericht Securitity - Remote arbeiten im Homeoffice
Blog 01.06.20

Corona Lessons Learnt für IAM?

Für die «virtuelle Weiterführung» von IAM Projekten war die IPG in den meisten Fällen in der Lage remote weiterzuarbeiten. Das sind unsere Learnings aus dieser Zeit.

Bleiben Sie mit dem TIMETOACT GROUP Newsletter auf dem Laufenden!