Der AI Act unter dem Messer: Was die Omnibus-Einigung vom 7. Mai bedeutet
In den frühen Morgenstunden des 7. Mai 2026 haben sich Europäisches Parlament und Rat auf eine vorläufige Einigung zum sogenannten Digital Omnibus on AI verständigt. Es ist die erste substanzielle Änderung der KI-Verordnung (Verordnung (EU) 2024/1689), bevor deren zentrale Hochrisiko-Pflichten überhaupt in Kraft getreten sind. Das wirft Fragen auf, die weit über technische Details hinausgehen.
Der Trilog war ursprünglich am 28. April nach rund zwölf Stunden ohne Ergebnis abgebrochen worden. Streitpunkt war nicht die viel zitierte Verschiebung der Hochrisiko-Pflichten, sondern die Frage, wie KI-Komponenten in regulierten Produkten (Anhang I) behandelt werden sollen. Eine Woche später lag dann doch ein Kompromiss am Tisch, formell gefasst unter zypriotischer Ratspräsidentschaft, deren Mandat am 30. Juni endet. Die formelle Annahme durch beide Co-Gesetzgeber soll vor dem 2. August 2026 abgeschlossen sein, dem ursprünglichen Geltungsbeginn der Hochrisiko-Pflichten.
Was sich konkret ändert
Neue Geltungsdaten für Hochrisiko-KI
Die wichtigste materielle Änderung betrifft die Anwendungsdaten der Pflichten aus Kapitel III Abschnitt 1 bis 3:
- 2. Dezember 2027 für eigenständige Hochrisiko-Systeme nach Anhang III (Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, Strafverfolgung, Grenzkontrolle)
- 2. August 2028 für KI-Systeme als Sicherheitskomponenten in regulierten Produkten nach Anhang I
Damit ersetzt der Gesetzgeber den ursprünglich vorgesehenen Stichtag 2. August 2026 durch fixe Termine. Die Verschiebung war ein Eingeständnis der Realität: Die harmonisierten Normen, ohne die eine Konformitätsbewertung nach Artikel 43 praktisch nicht möglich ist, sind schlicht nicht fertig. Auch die Benennung der notifizierten Stellen hinkt hinterher.
Die Verpflichtung zur Kennzeichnung KI-generierter Inhalte (Artikel 50 Absatz 2) gilt ab 2. Dezember 2026 statt ursprünglich vorgesehener 2. Februar 2027. Hier hat der Gesetzgeber also angezogen, nicht gelockert.
Neues Verbot in Artikel 5: Nudifier und KI-generiertes CSAM
Inhaltlich am weitesten geht die Aufnahme einer neuen verbotenen Praktik. Untersagt werden KI-Systeme, die Material über sexuellen Kindesmissbrauch oder nicht einvernehmliche intime Darstellungen einer identifizierbaren Person erzeugen. Das Verbot trifft drei Konstellationen:
- Inverkehrbringen mit dem Zweck der Erzeugung solcher Inhalte
- Inverkehrbringen ohne angemessene Schutzmaßnahmen gegen eine solche Erzeugung
- Verwendung durch Betreiber zu diesem Zweck
Erfasst sind Bilder, Video und Audio. Unternehmen haben bis zum 2. Dezember 2026 Zeit, ihre Systeme anzupassen. Der Auslöser dieser Bestimmung war nach Berichten von Tech Policy Press die Welle sexueller Deepfakes durch Grok im Winter 2025/2026 mit Millionen dokumentierter Fälle. Auf Ebene des AI Act ist das eine Verschiebung: Während der Digital Services Act bisher primär die Verbreitung adressiert, greift die neue Bestimmung am Modell selbst an.
Industrielle KI: das eigentliche Hauptthema aus Sicht der deutschen Industrie
Der Dauerstreit drehte sich um Anhang I, also KI in Maschinen, Spielzeug, vernetzten Geräten und Medizinprodukten. Das Parlament wollte diese Sektoren komplett aus dem AI Act lösen und auf die jeweiligen sektoralen Sicherheitsregime verweisen. Durchgesetzt hat sich am Ende eine engere Lösung: Nur der Maschinensektor (einer von zwölf) wird ausgenommen, und auch das nur unter der Bedingung gleichwertiger Schutzniveaus. Die Kommission ist verpflichtet, KI-spezifische Anforderungen vor dem 2. August 2028 in die sektorale Gesetzgebung zu integrieren.
Politisch interessant ist, wer sich hier durchgesetzt hat. Bundeskanzler Merz hatte sich entgegen seinem Koalitionspartner SPD persönlich für eine weitere Ausnahme starkgemacht. Frankreich und Italien zogen mit. Die Grünen sprechen von einem deutsch-EVP-Coup. Das Parlament hat zugestanden, das Council blieb beim engeren Zuschnitt.
Weitere Änderungen, die in der Praxis Wirkung entfalten werden
- Engere Definition von Sicherheitskomponenten: KI-Funktionen, die nur unterstützen oder optimieren und deren Ausfall keine Gesundheits- oder Sicherheitsrisiken erzeugt, fallen nicht mehr automatisch in die Hochrisiko-Kategorie.
- Bias-Korrektur mit besonderen Kategorien personenbezogener Daten: Die Verarbeitung sensibler Daten zur Erkennung und Korrektur von Verzerrungen wird unter Schutzmaßnahmen ausdrücklich erlaubt, und zwar für Hochrisiko- wie Nicht-Hochrisiko-Systeme. Das ist eine bewusste Lockerung gegenüber dem Ausgangstext, der diese Möglichkeit deutlich enger gefasst hatte.
- Ausweitung der KMU-Privilegien auf Small Mid-Caps: Unternehmen, die bisher zwischen den Stühlen saßen, profitieren jetzt von einigen Erleichterungen.
- Zentralisierte Durchsetzung beim AI Office für bestimmte General-Purpose-AI-Systeme.
- Weniger streng formulierte AI-Literacy-Pflicht: Aus einer Ergebnis- wird tendenziell eine Bemühenspflicht.
Pro: Was die Befürworter ins Feld führen
Der Tenor der Industrieverbände und der Kommission ist erkennbar: Der AI Act ist in seiner ursprünglichen Form schlicht nicht implementierbar gewesen.
DigitalEurope hat im Vorfeld unermüdlich darauf hingewiesen, dass eine KMU mit einem Hochrisiko-System anfänglich bis zu 319.000 Euro Compliance-Kosten und danach bis zu 150.000 Euro jährlich tragen müsste. Andere Studien beziffern die Anfangskosten inklusive Zertifizierung und Personal mit 600.000 Euro, was bei kleinen Unternehmen 30 bis 40 Prozent des Gewinns auffressen kann. Mit dem Draghi-Bericht im Hintergrund, der 750 bis 800 Milliarden Euro zusätzlicher Investitionen pro Jahr für die EU veranschlagt, wird Regulierung zur Wettbewerbsfrage.
Cecilia Bonefeld-Dahl von DigitalEurope nennt die Einigung einen ersten konkreten Schritt, um europäische Führungsrolle bei KI in Reichweite zu halten. Gleichzeitig kritisiert sie, dass Medizintechnik weiter zwischen MDR und AI Act zerrieben wird, weil dieser Sektor nicht ausgenommen wurde.
CCIA Europe, deren Mitgliederliste sich wie das Who-is-Who des US-Big-Tech liest, geht weiter und nennt das Ergebnis ein „verpasste Gelegenheit" und „das absolute Minimum". Die Verbände hatten unter anderem die Streichung der Registrierungspflicht für selbstklassifizierte Nicht-Hochrisiko-Systeme gefordert. Die ist aber im Text geblieben. Aus dieser Perspektive ist die Einigung eine Abschwächung, die nicht weit genug geht.
Auch der Council selbst betont die Wettbewerbsdimension: Reduktion wiederkehrender Verwaltungskosten, Rechtssicherheit, harmonisierte Umsetzung über die Union hinweg. Das Verbot von Nudifier-Apps wird als Beleg dafür angeführt, dass Vereinfachung nicht zulasten des Schutzes gehen müsse.
Aus Sicht der Compliance-Praxis trägt vor allem ein Argument: Die ursprünglichen Stichtage waren ohne fertige Normen schlicht nicht erfüllbar. Wer im August 2026 ein Konformitätsbewertungsverfahren nach Artikel 43 hätte durchführen müssen, hätte sich auf Mutmaßungen über noch nicht veröffentlichte CEN-CENELEC-Dokumente stützen müssen. Eine Verschiebung um 16 Monate (Anhang III) bzw. zwei Jahre (Anhang I) ist insofern weniger Geschenk als Reparatur.
Kontra: Die Kritik der Bürgerrechtsorganisationen
Auf der anderen Seite steht eine breite Koalition: EDRi, noyb, ICCL und über 130 weitere zivilgesellschaftliche Organisationen, die schon im November 2025 von der "größten Rückabwicklung digitaler Grundrechte in der EU-Geschichte" gesprochen haben. Auch wenn der finale Text milder ausfällt als der ursprüngliche Kommissionsentwurf, bleiben die strukturellen Einwände bestehen.
Erstens das Verfahren selbst: Der Omnibus-Prozess wurde in sechs Monaten durchgepeitscht, ein konsolidierter Trilogtext umfasst rund 170 Seiten. Die Kommission hat ihre eigenen Better-Regulation-Grundsätze nach Auffassung der Kritiker nicht beachtet, eine ordentliche Folgenabschätzung fehlt. Die übliche demokratische Kontrolle wurde dem politischen Druck der Frist 2. August 2026 geopfert.
Zweitens die Substanz: Selbst wenn der ursprünglich vorgesehene komplette Wegfall der Registrierungspflicht für selbstklassifizierte Nicht-Hochrisiko-Systeme abgewendet werden konnte, bleibt die Lockerung bei der Verarbeitung besonderer Kategorien personenbezogener Daten zur Bias-Korrektur ein Einfallstor. Hier wird die strenge Logik der DSGVO mit ihren Artikeln 9 und 22 zugunsten einer KI-spezifischen Erleichterung verschoben. Das CDT Europe hatte in einem ausführlichen Brief vor den möglichen Folgen für die Grundrechte gewarnt.
Drittens der politische Rahmen: Der AI Omnibus ist nicht das Hauptthema, sondern der Vorbote. Der noch ausstehende Data Omnibus wird die DSGVO, die ePrivacy-Richtlinie und den Data Act öffnen. Dort drohen aus Sicht der Kritiker die wirklich tiefgreifenden Eingriffe: eine engere Definition des personenbezogenen Datums, KI-Training als legitimes Interesse im Sinn von Artikel 6 Absatz 1 lit. f DSGVO, eine Verlagerung der Cookie-Regeln aus der ePrivacy in die DSGVO. Wer den AI Omnibus heute schluckt, hat morgen weniger politische Munition gegen einen substanzielleren GDPR-Eingriff.
Michael McNamara, einer der beiden Berichterstatter im Parlament, hat in einem Interview mit Tech Policy Press selbst eingeräumt, dass eine Verlagerung in sektorale Gesetze "deregulierend statt vereinfachend" wirken könne. Genau diese Sorge teilt die Zivilgesellschaft.
Was das für die Praxis bedeutet
Für die Compliance-Praxis lassen sich aus heutiger Sicht ein paar Linien ziehen:
KI-Systeme nach Anhang III: Wer bisher auf den 2. August 2026 hingearbeitet hat, hat jetzt rund 16 Monate mehr Zeit. Das verschafft Luft für die Fertigstellung der Konformitätsbewertung, die Anbindung an ein ISMS nach ISO 27001 und die Integration mit DSGVO-Pflichten (insbesondere DSFA nach Artikel 35 DSGVO). Die zusätzliche Zeit ist allerdings kein Anlass, Vorbereitungen zurückzustellen. Die fehlenden Normen werden nicht von selbst auftauchen, und die Implementierungstiefe der Anforderungen aus Artikel 9 bis 15 AI Act unterschätzt man leicht.
KI in regulierten Produkten (Anhang I): Hier ist das Bild komplexer geworden. Maschinen sind raus aus dem AI Act, Medizinprodukte und andere Sektoren bleiben drin. Wer Medtech-Produkte mit KI-Komponenten entwickelt, sieht sich weiter mit der parallelen Compliance unter MDR/IVDR und AI Act konfrontiert. Die Einigung bringt hier wenig Erleichterung.
Generative KI: Die Kennzeichnungspflicht aus Artikel 50 Absatz 2 kommt einen Monat früher als ursprünglich geplant (2. Dezember 2026). Wer Inhalte mit synthetischem Audio, Bild, Video oder Text auf den Markt bringt, sollte die Implementierung der Wasserzeichen-Mechanik nicht weiter aufschieben.
Nudifier-Verbot: Auch wenn die meisten Kunden nicht direkt betroffen sind, ist der Stichtag 2. Dezember 2026 für Anbieter generativer Modelle relevant. Die Anforderung „angemessener Schutzmaßnahmen" ist unbestimmt und wird in der ersten Welle von Aufsichtsverfahren konkretisiert werden müssen.
Bias-Erkennung mit besonderen Datenkategorien: Die neue Möglichkeit ist mit Schutzmaßnahmen verknüpft. Wer sie nutzt, sollte ein klares Konzept aufsetzen, das die DSGVO-Erforderlichkeit dokumentiert, technische und organisatorische Maßnahmen beschreibt und sich in das bestehende Verarbeitungsverzeichnis nach Artikel 30 DSGVO integriert.
Wie es weitergeht
Die formale Annahme durch Parlament und Rat soll vor dem 2. August 2026 abgeschlossen sein. Erst dann wird der Text im Amtsblatt veröffentlicht und tritt in Kraft. Bis dahin gilt formell der ursprüngliche AI Act. Wer jetzt Kompromissvorgriffe macht, sollte das Restrisiko abdecken: Sollte die Annahme aus politischen Gründen scheitern, gelten ab 2. August 2026 die unveränderten Hochrisiko-Pflichten.
Der eigentliche Härtetest steht aber mit dem Data Omnibus noch bevor. Dort werden die Eingriffe in die DSGVO und ePrivacy verhandelt, ohne den Druck einer harten Deadline. Wer sich über die schnelle AI-Omnibus-Einigung freut oder über sie aufregt, sollte einen Blick auf den nächsten Akt werfen. Die deregulatorische Logik ist dieselbe, die Folgen für den Datenschutz potenziell weitreichender.
Einordnung
Die Verschiebung der Hochrisiko-Stichtage war meiner Ansicht nach fachlich notwendig, weil die Normen nicht fertig sind. Insofern ist hier weniger Deregulierung als Realitätskorrektur passiert. Das Nudifier-Verbot ist substantiell und richtig, auch wenn es die DSA-Logik durchbricht.
Bedenklich finde ich zwei Punkte. Erstens das Tempo: Eine so junge und komplexe Verordnung wie den AI Act im laufenden Implementierungsprozess zu öffnen, schafft Rechtsunsicherheit und untergräbt die Planungsgrundlage all jener Unternehmen, die sich seit zwei Jahren auf die ursprünglichen Anforderungen vorbereitet haben. Das habe ich selbst in meiner Beruflichen Praxis mehrfach vermittelt bekommen. Wer ehrlich gearbeitet hat, wird kaum belohnt. Wer abgewartet hat, hat Zeit gewonnen.
Zweitens die Erweiterung der Bias-Ausnahme bei besonderen Datenkategorien. Hier wird ein Konflikt zwischen zwei berechtigten Anliegen, dem Schutz vor diskriminierender KI und dem Schutz besonders sensibler Daten, zugunsten des ersten aufgelöst. Die Logik ist nachvollziehbar, die Praxis wird aber zeigen, ob die Schutzmaßnahmen tragen oder ob hier ein faktischer Freibrief entsteht.
Der wahre Lackmustest des Omnibus-Pakets steht aber jetzt noch aus. Im Data Omnibus geht es um die Substanz der DSGVO. Wer dort zu viel Spielraum öffnet, wird zwei Jahrzehnte europäischer Datenschutzkultur in Frage stellen. Insofern ist die heutige Einigung weniger Endpunkt als Vorzeichen.
Quellen und weiterführende Lektüre
- Pressemitteilung Europäisches Parlament vom 7. Mai 2026
- Pressemitteilung des Rates vom 7. Mai 2026
- Laura Caroli, Tech Policy Press: What the EU AI Omnibus Deal Changes for the AI Act and What Lies Ahead
- Bird & Bird: Digital Omnibus on AI Provisional Agreement Reached at the May Trilogue
- Timelex: The AI Omnibus deal: what survived the trilogue?
- IAPP: EU agrees to amend AI Act, clarifies overlap with machinery rules
- EDRi: Reject the proposals to undermine transparency in the AI Act
- DigitalEurope: Joint industry statement on the AI omnibus
- CCIA Europe: AI Omnibus: EU Negotiators Miss Opportunities as They Seal Deal
Transparenzhinweis: Dieser Beitrag wurde mit Unterstützung generativer KI (Claude Opus 4.7, Anthropic) erstellt und vor Veröffentlichung redaktionell geprüft.