Schuldig bis zum Beweis des Gegenteils

Teilen
Schuldig bis zum Beweis des Gegenteils
Photo by Majid Abparvar / Unsplash

Der Rentner Ian Clayton ist 67 Jahre alt, hat keinen Eintrag im Strafregister. An einem Februartag 2026 betritt er eine Filiale der britischen Kette Home Bargains in der Nähe von Liverpool und wird Sekunden später von einem Mitarbeiter aufgefordert, das Geschäft zu verlassen. Begründung: Er sei laut System ein Ladendieb mit Hausverbot. Das System heißt Facewatch, scannt jedes Gesicht in Echtzeit und gleicht es mit einer von Händlern selbst gepflegten Liste verdächtiger Personen ab. Auf Claytons Nachfrage schickt Facewatch ihm später ein Foto mit der Behauptung, er habe Waren in einer Tasche versteckt. Eine Straftat, die er nie begangen hat.

Der Fall, von Der Standard und zuvor vom Guardian dokumentiert, ist kein Einzelfall. Im Mai 2024 wurde eine 19-Jährige unter dem Pseudonym „Sara" in einer Manchester-Filiale derselben Kette aufgrund einer Falsch­identifikation öffentlich des Diebstahls bezichtigt, durchsucht, aus dem Geschäft gewiesen und danach in zahlreichen weiteren Geschäften landesweit gesperrt. Big Brother Watch, die Bürgerrechts­organisation, die Sara unterstützt, beziffert solche Fälle als „Spitze des Eisbergs". Allein im Vormonat hat Facewatch über 50.000 Treffermeldungen an Geschäfte ausgespielt.

Was hier passiert, ist eine Privatisierung der Strafverfolgung mit den Mitteln der Massen­überwachung, abgewickelt über ein Subskriptionsmodell. Der Hersteller wirbt mit 99,98 Prozent Genauigkeit. Die unabhängige Forschung sagt etwas anderes.

Die technischen Realitäten

Das britische National Physical Laboratory hat die Falsch-Positiv-Rate von Gesichts­erkennungs­technologie unter realistischen Bedingungen gemessen. Das Ergebnis: 0,04 Prozent bei weißen Personen, 4 Prozent bei asiatischen, 5,5 Prozent bei schwarzen Personen. Eine Diskriminierung in Hardware und Trainingsdaten, mathematisch nicht zu wegreden. Bei 50.000 Treffermeldungen pro Monat reden wir, je nach demografischer Zusammen­setzung der Kundschaft, schnell von vier- bis fünfstelligen Zahlen falsch beschuldigter Personen jährlich. Allein in Großbritannien.

Die Architektur verschärft das Problem. Die Watchlists werden nicht etwa durch eine Behörde oder ein Gericht kuratiert, sondern von den teilnehmenden Händlern selbst befüllt. Eine Ladendetektivin lädt CCTV-Standbilder hoch, ein Moderator bei Facewatch wertet aus, das Foto landet in der Datenbank. Eine richterliche Prüfung findet zu keinem Zeitpunkt statt. Die Beweismittel­kette, die im Strafverfahren selbstverständlich wäre, fehlt komplett. Wer einmal auf der Liste steht, wird auch in anderen Filialen anderer Ketten erkannt und ausgewiesen, ohne von dem Eintrag zu wissen.

Hinzu kommt das, was der Hersteller selbst als „menschlichen Fehler" bezeichnet. In Claytons Fall hieß das: Er sei nie korrekt im System gewesen, sein Eintrag werde gelöscht. Was als Beruhigung gemeint sein dürfte, ist die Bestätigung des strukturellen Problems: Es gibt keinen prozeduralen Mechanismus, der einen falschen Eintrag verhindert, nur einen, der ihn nachträglich repariert, sofern die betroffene Person beharrlich genug ist und es schafft, überhaupt eine Antwort zu erhalten.

Wäre Facewatch in der EU zulässig?

Die kurze Antwort lautet: nein, jedenfalls nicht in der vorliegenden Konstruktion. Die längere Antwort braucht ein paar Differenzierungen.

Anforderungen der DSGVO: Was Facewatch verarbeitet, sind biometrische Daten zur eindeutigen Identifizierung natürlicher Personen im Sinne von Art. 9 Abs. 1 DSGVO. Damit greift das grundsätzliche Verarbeitungs­verbot, das nur durch eine der eng gefassten Ausnahmen des Art. 9 Abs. 2 durchbrochen werden kann. Für den Einzelhandel kommen praktisch nur drei in Betracht, und keine davon trägt.

Eine ausdrückliche Einwilligung nach Art. 9 Abs. 2 lit. a scheidet aus, weil das System gerade durch Erfassung aller Vorbeigehenden funktioniert. Der EDSA hat in seinen Leitlinien 3/2019 zur Videoüberwachung und 5/2022 zur Gesichtserkennung mehrfach klargestellt, dass eine Einwilligung in einem öffentlich zugänglichen Bereich, in dem das System spontan biometrische Templates aller Personen erstellt, schon konstruktiv unmöglich ist. Wer den Laden betritt, soll ja gerade nicht entscheiden müssen, ob er biometrisch erfasst wird oder nicht.

Auch die in Großbritannien herangezogene Konstruktion eines „berechtigten Interesses" trägt unter DSGVO nicht. Art. 9 Abs. 2 enthält schlicht keine Ausnahme für berechtigte Interessen privater Akteure. Das ist kein Versehen des Gesetzgebers, sondern eine bewusste Entscheidung. Die ICO hat das übrigens auch in Großbritannien festgestellt, als sie 2023 acht Verstöße bei Facewatch identifizierte. Dass es trotzdem weitergeht, liegt am politischen Druck, nicht an der Rechtslage.

Eine Konstruktion über Art. 9 Abs. 2 lit. f (Geltend­machung von Rechts­ansprüchen) ist denkbar, aber nur im konkreten Verfahren gegen eine identifizierte Person, nicht als prophylaktische Massen­überwachung jedes Kunden.

Anforderungen der KI-Verordnung: Hier wird es komplexer. Art. 5 Abs. 1 lit. h KI-VO verbietet biometrische Echtzeit-Fern­identifizierung in öffentlich zugänglichen Räumen, allerdings explizit nur „zu Strafverfolgungszwecken". Ein privater Händler ist keine Strafverfolgungs­behörde, und damit greift dieses Verbot direkt nicht. Aber die Geschichte endet damit nicht.

Anhang III Nr. 1 der KI-VO stuft biometrische Identifizierungs­systeme als Hochrisiko-KI ein, wenn sie nicht ausdrücklich verboten sind. Das löst die vollen Pflichten aus Kapitel III aus: Risikomanagement­system, Daten­qualitäts­anforderungen, technische Dokumentation, Protokollierung, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit, Cybersicherheit, Konformitäts­bewertung, Registrierung in der EU-Datenbank. Hinzu kommt, dass die nationale Umsetzung der KI-Verordnung in einigen Mitgliedstaaten den Einsatz biometrischer Identifizierung im privaten Bereich darüber hinaus beschränken oder ganz untersagen kann.

Selbst wenn ein Anbieter all diese Pflichten erfüllen würde, bliebe das DSGVO-Problem ungelöst. Die KI-VO ergänzt die DSGVO, sie ersetzt sie nicht.

Anforderungen der Grundrechtecharta der EU: Art. 7 und Art. 8 der Charta der Grundrechte (privates Leben, Schutz personenbezogener Daten) sowie die ständige EuGH-Rechtsprechung verlangen, dass massenhafte Datenverarbeitung anlasslos und ohne konkrete Verdachts­momente nur zur Verhinderung schwerer Kriminalität und unter strikter Verhältnismäßigkeit zulässig ist. Ladendiebstahl im Wert von wenigen Euro fällt offenkundig nicht in diese Kategorie.

Die Voraussetzungen für eine zulässige Konstruktion

Damit eine Facewatch-ähnliche Anwendung in der EU rechtmäßig betrieben werden könnte, müssten kumulativ mehrere Voraussetzungen erfüllt sein. Das wird in der Realität kaum gelingen, ist aber zum Verständnis der Hürden hilfreich:

Erstens müsste der Anwendungsbereich auf eine 1:1-Authentifizierung mit ausdrücklicher Einwilligung beschränkt sein. Etwa ein Stamm­kunden­programm, bei dem registrierte Mitglieder freiwillig ihr Gesicht hinterlegen und beim Betreten erkannt werden, in einer baulich getrennten Schleuse, ohne Erfassung anderer Kunden. Der EDSA hat solche Konstruktionen in den Leitlinien 3/2019 ausdrücklich für möglich erklärt.

Zweitens müsste die Verarbeitung nach Art. 35 Abs. 3 lit. b DSGVO einer Datenschutz-Folgenabschätzung unterzogen werden. Bei umfangreicher Verarbeitung besonderer Kategorien ist das zwingend, und die Aufsichts­behörde wird in vielen Mitgliedstaaten zu konsultieren sein.

Drittens müsste die Hochrisiko-Klassifizierung nach KI-VO mit allen damit verbundenen Pflichten umgesetzt werden, einschließlich Konformitäts­bewertung und Registrierung. Ein bloßer Vertrag mit einem Anbieter reicht nicht; der Verantwortliche bleibt in der Pflicht.

Viertens, und das ist im Facewatch-Modell strukturell ausgeschlossen, müsste es ein nachvollziehbares, gerichtlich nachprüfbares Verfahren für die Aufnahme und Entfernung von Personen aus der Liste geben. Mit klarer Beweislast, Anhörung und Rechtsmittelweg. Das gibt es bei Facewatch nicht und ist auch im Geschäftsmodell nicht vorgesehen.

Fünftens müsste das System die Bias-Problematik nachweislich adressieren, was nach aktueller Studienlage technisch noch niemand glaubhaft demonstriert hat.

Die Privatisierung der Überwachung

Was den Facewatch-Fall über den juristischen Befund hinaus interessant macht, ist die Verschiebung, die er sichtbar werden lässt.

Wir reden hier nicht über staatliche Überwachung. Wir reden über eine privatwirtschaftliche Infrastruktur, die mit den Mitteln staatlicher Strafverfolgung operiert, aber ohne deren rechts­staatliche Bindungen.

Kein Richter­vorbehalt, keine Unschulds­vermutung, kein Anspruch auf rechtliches Gehör, keine Aktenein­sicht, keine Berufung. Sara wurde aus zahlreichen Geschäften im ganzen Land verbannt, ohne je vor Gericht gestanden zu haben oder auch nur informiert worden zu sein.

Das ist die eigentliche dystopische Pointe. Ein Staat, der eine solche Infrastruktur aufbauen würde, müsste sich vor Verfassungs­gerichten und Aufsichts­behörden rechtfertigen. Ein privates Unternehmen verkauft sie als Software-as-a-Service. Die rechts­staatlichen Schranken werden nicht durch Gesetzes­änderung umgangen, sondern durch Outsourcing.

Für Compliance-Verantwortliche im DACH-Raum heißt das zweierlei. Zum einen, dass Anfragen aus dem Einzelhandel oder von Sicherheits­dienstleistern, ähnliche Systeme zu evaluieren, mit großer Vorsicht zu behandeln sind. Eine Datenschutz-Folgenabschätzung wird in den meisten Fällen zum Ergebnis kommen, dass die Verarbeitung unzulässig ist. Zum anderen, dass die Diskussion um digitale Souveränität eben nicht nur die Frage betrifft, wo Daten gespeichert werden, sondern auch, wer entscheiden darf, wer eines Verbrechens verdächtig ist und welche prozeduralen Sicherungen dabei gelten.

Wo wir hinschauen sollten

Die EU hat mit DSGVO und KI-Verordnung einen Rahmen geschaffen, der Facewatch-ähnliche Konstruktionen weitgehend unterbindet. Das ist die gute Nachricht. Die schlechte ist, dass dieser Rahmen nicht von selbst wirkt. Es braucht Aufsichts­behörden, die ihn durchsetzen, und Verantwortliche, die nicht auf den Pitch eines Anbieters mit „99,98 Prozent Genauigkeit" hereinfallen.

Schon in Großbritannien hat sich gezeigt, wie schnell selbst dokumentierte Rechts­verstöße folgenlos bleiben können, wenn der politische Wille zur Durchsetzung fehlt. Der ehemalige britische Polizei­minister hat sich in dieser Sache offenbar aktiv für den Anbieter eingesetzt, obwohl die ICO acht DSGVO-Verstöße festgestellt hatte. Was im Vereinigten Königreich abseits des EU-Rahmens passiert, kann in der EU nicht passieren, weil die rechtliche Architektur eine andere ist. Es kann aber passieren, dass ähnliche Systeme klamm­heimlich eingeführt werden und niemand hinschaut, bis die ersten falsch beschuldigten Personen sich vor Gericht wehren.

Meine Empfehlung an Unternehmen, die mit Sicherheits- oder Loss-Prevention-Anliegen an mich herantreten: Wenn jemand euch Echtzeit-Gesichtserkennung im Verkaufsraum verkaufen will, lasst die Finger davon.

Die wenigen Konstellationen, in denen es zulässig wäre, rechtfertigen den Aufwand nicht, und der Rest ist ein Bußgeldrisiko bis zu 4 Prozent des Konzern­jahresumsatzes plus reputatorischer Schaden, wenn die ersten Klayton-Fälle in der österreichischen oder deutschen Presse landen.

Ian Clayton sagte zu Reportern, das Gefühl, vor allen Kunden des Supermarkts als Dieb angesprochen zu werden, sei ihm nicht aus dem Magen gewichen, weder am selben Tag noch am Tag danach. Das ist die menschliche Pointe einer Software, die mit 99,98 Prozent Genauigkeit wirbt. Die anderen 0,02 Prozent sind reale Menschen mit realen Geschichten. Und die Forschungs­zahlen legen nahe, dass die tatsächliche Fehlerquote ein Vielfaches höher liegt, je nach Hautfarbe.

Die Frage, die wir in Europa in den nächsten Jahren beantworten müssen, ist nicht primär technisch. Sie lautet, ob wir bereit sind, rechts­staatliche Standards an private Anbieter outzusourcen, weil es bequem und billig ist. Die rechtliche Antwort der EU ist klar nein. Es liegt an uns, dass sie auch praktisch nein bleibt.


Quellen:

  • „Gesichtserkennungssystem 'Facewatch' macht Unschuldige zu Ladendieben", Der Standard, 4. Mai 2026.
  • „Shoppers Falsely Accused of Stealing by Stores Using AI Facial Recognition Tech", Novara Media, Mai 2026.
  • Big Brother Watch, „Landmark legal challenges launched against facial recognition", 2024.
  • Big Brother Watch, „Submission to UK Government Consultation on a new legal framework", Februar 2026.
  • National Physical Laboratory, Studie zu Falsch-Positiv-Raten, 2025.
  • EDSA Leitlinien 3/2019 (Videoüberwachung) und 5/2022 (Gesichtserkennung).
  • VO (EU) 2016/679 (DSGVO), insb. Art. 9, Art. 22, Art. 35.
  • VO (EU) 2024/1689 (KI-VO), insb. Art. 5, Anhang III.
  • Charta der Grundrechte der EU, Art. 7 und 8.

Weiterlesen

Ubuntu 26.04 LTS: Ein guter Moment um Linux zu entdecken

Ubuntu 26.04 LTS: Ein guter Moment um Linux zu entdecken

Letzte Woche hat Canonical Ubuntu 26.04 LTS veröffentlicht, Codename "Resolute Raccoon". Als Long-Term-Support-Release wird diese Version fünf Jahre lang mit Sicherheitsupdates versorgt, also bis April 2031. Das Release bringt unter anderem TPM-gestützte Vollverschlüsselung, Rust-basierte Kernwerkzeuge für mehr Speichersicherheit sowie verbesserte Unterstützung für App-Berechtigungen. Unter der Haube arbeitet

Von Michael Mrak