Richtige Umsetzung von agentischer KI in der Praxis

Teilen
Richtige Umsetzung von agentischer KI in der Praxis
Photo by Igor Omilaev / Unsplash

Agentische KI ist kein theoretisches Konzept mehr. Autonome Agenten treffen Entscheidungen, kombinieren Daten aus unterschiedlichen Systemen und handeln zielgerichtet ohne vordefinierten Ablauf. Das verändert die Anforderungen an Governance, Datenschutz und Informationssicherheit grundlegend. Ein Panel im Rahmen der PriSec Germany mit Vortragenden von PwC Legal, PwC Cyber Security Consulting und der GEA Group hat gezeigt, woran betroffene Unternehmen jetzt arbeiten und wo die typischen Stolperfallen liegen.

Was agentische KI von klassischen KI-Systemen unterscheidet

Klassische generative KI verarbeitet Eingaben und liefert Antworten. Agentische KI verfolgt Ziele, plant Schritte selbst, ruft Tools auf, schreibt in Systeme zurück und interagiert mit anderen Agenten. Genau diese Autonomie ist der Punkt, an dem bestehende Kontrollkonzepte ins Leere laufen. Wer einem Agenten Zugriff auf HR-Daten und Finanzdaten gibt, schafft potenziell neue Verarbeitungszwecke, die in keiner Verarbeitungstätigkeit dokumentiert sind. Wer einen Agenten Code schreiben oder Tickets schließen lässt, gibt einen Teil der Betriebsverantwortung an ein System ab, dessen Handeln nicht deterministisch ist.

Rechtlich fallen die meisten autonomen Agenten unter die KI-Verordnung. Der konkrete Risikoklassifizierungsbedarf hängt vom Einsatzkontext und vom Autonomiegrad ab, nicht vom Modell selbst.

Die fünf Baustellen

Risiko- und Relevanzanalyse vor der Policy. Eine “AI Policy” ohne darunterliegende Risiko- und Anwendungsfallanalyse ist nur Papier. Sinnvoller wäre es, zuerst die Anwendungsfälle zu klassifizieren (Autonomiegrad, Datenkategorien, betroffene Prozesse, Reversibilität der Entscheidung) und erst danach Vorgaben zu formulieren. Die Praxis zeigt oft: eine schlanke Policy mit klaren “By Design”-Anforderungen plus separate Procedures für Hochrisiko-Szenarien funktioniert besser als ein 80-seitiges Dokument, das niemand liest.

Datenflusstransparenz wiederherstellen. Agenten kombinieren Daten aus Quellsystemen, an die in der ursprünglichen DSGVO-Dokumentation niemand gedacht hat. Hier braucht es eine erneute Bestandsaufnahme: Welche Datenquellen darf der Agent abfragen, welche Zweckbindung gilt, wie wird Data Leakage über APIs oder Internetzugang verhindert, wie wird die Löschung nachgewiesen. Ohne diese Grundlage ist Art. 5 DSGVO nicht haltbar.

Human in the Loop auch technisch verankern. “Der Mensch entscheidet am Ende” ist als Satz wertlos, wenn der Agent in der Zwischenzeit drei Systeme verändert hat. Kontrollpunkte müssen in den Agent-Workflow eingebaut sein, nicht nachgelagert. Das betrifft besonders schreibende Aktionen, externe Kommunikation und Entscheidungen mit rechtlicher Wirkung.

Shadow AI ernst nehmen. Mitarbeitende setzen heute agentische Tools eigenständig ein, oft mit Unternehmensdaten. Das klassische Verbot funktioniert nicht. Wirksamer ist eine Kombination aus klarer Liste freigegebener Tools, technischer Steuerung über Identity- und DLP-Lösungen sowie regelmäßiger Awareness-Arbeit, die den legitimen Bedarf der Fachbereiche aufnimmt.

Angriffsoberfläche verstehen. Prompt Injection, Memory Poisoning, Tool Misuse und kompromittierte MCP-Server sind reale Angriffsvektoren. Gleichzeitig verkürzt sich auf der Angreiferseite die Zeit von der Schwachstellenentdeckung bis zum Exploit drastisch. Verteidigung muss ebenfalls automatisiert und KI-gestützt arbeiten, klassische statische Kontrollen reichen nicht mehr.

Die organisatorische Hürde

Die schwierigste Aufgabe ist nicht technisch.

Datenschutz, Informationssicherheit, Product Security und Data Governance sitzen in vielen Unternehmen in getrennten Einheiten mit eigenen Taxonomien und Tools. Agentische KI zwingt diese Disziplinen zur Integration, weil ein Agent gleichzeitig Datenschutz-, Sicherheits-, KI-rechtliche und produkthaftungsrelevante Fragen aufwirft.

Wer hier wartet, bis ein Vorfall die Zuständigkeiten klärt, zahlt drauf.

Konkrete Schritte: gemeinsame Risikotaxonomie zwischen den Disziplinen, feste Abstimmungstermine zwischen Datenschutz und IT-Security, ein einheitliches Inventar für KI-Anwendungsfälle, klare Eskalationswege für agentische Vorfälle.

Die regulatorische Großwetterlage

Über 65 KI- und Datenschutzgesetze weltweit, mehr als 140 weitere im Verfahren, und keine erkennbare Harmonisierung.

Für global tätige Unternehmen heißt das: weder die DSGVO noch der EU AI Act allein reichen als Steuerungsgrundlage.

Es braucht ein laufendes regulatorisches Monitoring, das in die Roadmap-Planung zurückgespielt wird, und eine differenzierte Sicht auf Markt- und Anwendungskontexte.

Was ist zu tun?

Wenn ihr Unternehmen agentische KI evaluiert oder bereits einsetzt, sind drei Schritte sofort möglich.

  • Erstens: ein Inventar aller geplanten und laufenden agentischen Anwendungsfälle mit Autonomiegrad, Datenkategorien und Eskalationspfad.
  • Zweitens: ein gemeinsamer Termin zwischen Datenschutz, Informationssicherheit und der Fachseite, der genau dieses Inventar bewertet.
  • Drittens: eine ehrliche Antwort auf die Frage, ob eure bestehenden Kontrollen schreibende, autonome Aktionen tatsächlich abdecken oder ob ihr nur lesende KI-Nutzung im Blick habt.

Agentische KI ist beherrschbar, aber nur mit einer Governance, die mit der Technologie mitwächst. Wer jetzt die Strukturen schafft, hat in zwölf Monaten einen handfesten Wettbewerbsvorteil. Wer wartet, dokumentiert später Vorfälle.


Transparenzhinweis: Dieser Beitrag wurde mit Unterstützung generativer KI (Claude Opus 4.7, Anthropic) erstellt und vor Veröffentlichung redaktionell geprüft.

Weiterlesen