Claude für die Rechtsbranche: Was Anthropics neue MCP-Connectoren bedeuten

Teilen
Claude für die Rechtsbranche: Was Anthropics neue MCP-Connectoren bedeuten
Photo by Iñaki del Olmo / Unsplash

Anthropic hat am 12. Mai 2026 ein umfangreiches Paket für die Rechtsbranche vorgestellt: über zwanzig neue MCP-Connectoren zu der Software, auf der juristische Arbeit aufsetzt, dazu zwölf praxisfeldspezifische Plugins. Claude soll damit vom reinen Schreibassistenten zum integrierten Werkzeug entlang des gesamten anwaltlichen Workflows werden, von Vertragslebenszyklus über E-Discovery bis zur Mandatsverwaltung.

Was ist neu?

Die Connectoren binden Claude an Systeme an, die in international ausgerichteten Großkanzleien längst Standard sind: Ironclad und Docusign für CLM, iManage und NetDocuments für DMS, Relativity und Everlaw für E-Discovery, Datasite für M&A-Datenräume, Harvey und Thomson Reuters CoCounsel als spezialisierte Legal-AI-Layer. Über Claude für Word, Outlook, Excel und PowerPoint arbeitet das Modell direkt in der Microsoft-Umgebung, in der die meisten Juristen ohnehin sitzen.

Die zwölf Plugins decken klassische Praxisfelder ab, darunter Commercial Legal, Corporate Legal, Employment, Privacy Legal, Litigation und IP. Jedes Plugin startet mit einem kurzen Setup-Interview, das Playbook, Eskalationsketten und Risikokalibrierung der Kanzlei abfragt. Damit will Anthropic die generische KI-Antwort durch kanzleispezifische Outputs ersetzen. Bemerkenswert ist auch die Public-Service-Schiene mit Free Law Project, Courtroom5 und BoardWise, die Selbstvertreter und Legal-Aid-Organisationen adressiert.

Untermauert wird das Ganze mit Benchmark-Zahlen. Harvey berichtet, dass Claude Opus 4.7 auf dem hauseigenen BigLaw Bench 90,9 Prozent erreicht, dem höchsten Wert aller bisherigen Claude-Modelle.

Die rechtlichen Risiken bleiben

Für DACH-Kanzleien und Rechtsabteilungen ist das Angebot reizvoll, aber zwei Risikofelder sind 2026 nicht mehr theoretisch.

Halluzinationen sind kein reines US-Phänomen! Damien Charlotin, Rechtswissenschaftler an der HEC Paris, betreibt eine Datenbank gerichtlich sanktionierter KI-Fehlerfälle. Stand April 2026 liegen weltweit über 1.300 dokumentierte Verfahren vor, etwa 800 davon in den USA. Im DACH-Raum hat sich die Lage in den letzten zwölf Monaten zugespitzt:

  • Das AG Köln (Beschluss vom 02.07.2025, 312 F 130/25) rügte einen Fachanwalt für Familienrecht, der einen vollständig halluzinierten Schriftsatz mit erfundenen Urteilen, fiktiven Monografien und nicht existenten Randziffern eingereicht hatte. Das Gericht qualifizierte das ausdrücklich als Verstoß gegen das Sachlichkeitsgebot nach § 43a Abs. 3 BRAO.
  • Das Kammergericht Berlin folgte Anfang Mai 2026 mit einer grundsätzlichen Rüge in einem Familienrechtsfall.
  • Weitere Entscheidungen liegen vom OLG Celle, LG Hildesheim und VGH Mannheim vor.
  • Der österreichische OGH wies eine Nichtigkeitsbeschwerde als unbrauchbar zurück, die mit erfundenen OGH-Zitaten gespickt war.

BRAK (Leitfaden Dezember 2024) und DAV (Initiativ-Stellungnahme Nr. 32/2025) stellen klar: Es gibt kein Grundvertrauen in KI-Output. Sämtliche Fundstellen sind zu prüfen, auch wenn keine konkreten Hinweise auf Halluzinationen vorliegen. Eine RAK-Düsseldorf-Studie vom Februar 2026 fand in 15 Prozent KI-zitierter Urteile in Schriftsatz-Entwürfen Fehler. Die Diskussion um persönliche Innen- und Außenhaftung von Syndikusrechtsanwälten nach § 280 BGB, § 823 Abs. 2 BGB i.V.m. § 266 StGB und § 14 Abs. 2 Nr. 8 BRAO läuft seit Anfang 2026 in den Fachmedien.

Datenschutz und Berufsgeheimnis. Anthropic sitzt in den USA. Anfragen über claude.ai und Claude Desktop laufen ausschließlich auf US-Servern, eine EU-Datenresidenz steht nur über AWS Bedrock Frankfurt oder Google Vertex AI Frankfurt zur Verfügung. Der Transfer stützt sich auf Standardvertragsklauseln nach Art. 46 DSGVO; Anthropic ist nicht unter dem EU-U.S. Data Privacy Framework zertifiziert. Der US CLOUD Act bleibt einschlägig, der physische Serverstandort allein bietet keinen vollen Schutz.

Für österreichische und deutsche Anwälte kommt das anwaltliche Berufsgeheimnis hinzu (§ 9 RAO bzw. § 43a BRAO, strafrechtlich flankiert durch § 121 StGB Ö bzw. § 203 StGB DE). Free-, Pro- und Team-Plan scheiden für mandatsbezogene Daten aus, weil entweder kein AVV existiert oder das Datenschutzniveau nicht ausreicht. Nur Claude Enterprise oder die Anthropic-API mit kommerziellen Bedingungen (Stand Januar 2026) bieten einen AVV nach Art. 28 DSGVO, vertragliches Training-Opt-out und für Enterprise-API-Kunden Zero Data Retention.

Im August 2025 änderte Anthropic die Consumer-Bedingungen so, dass Eingaben standardmäßig zum Modelltraining genutzt wurden, ein aktives Opt-out war bis zum 28. September 2025 nötig. Das wurde datenschutzrechtlich als Dark Pattern eingestuft und sollte allen, die mit Mandantendaten arbeiten, eine Warnung sein.

Eine eigene Risikodimension öffnet Claude Cowork: Der agentische Modus mit Zugriff auf lokale Dateisysteme, Browser und externe Dienste schafft Angriffsvektoren über Prompt Injection, die klassische Chatbot-Risiken deutlich übersteigen. Für produktive Mandatsarbeit ist Cowork Stand heute nicht empfehlenswert.

Was Kanzleien und Rechtsabteilungen jetzt tun sollten

Wer Claude in der juristischen Praxis einsetzen will, sollte zumindest folgende Punkte berücksichtigen:

  1. Plan-Auswahl: Enterprise oder API mit AVV, niemals Free, Pro oder Team für mandatsbezogene Daten.
  2. AVV, Subprozessorenliste, SCCs und TOMs gegen das eigene Vendor-Register und Verarbeitungsverzeichnis (Art. 30 DSGVO) abgleichen.
  3. DSFA nach Art. 35 DSGVO bei Hochrisiko-Szenarien wie Massendatenanalyse oder automatisierter Entscheidungsvorbereitung in Strafsachen.
  4. Schriftliche KI-Policy mit klaren Vorgaben, welche Daten in welche Tools dürfen, und Schulung der Mitarbeiter.
  5. Verbindliche Validierungspflicht für jeden KI-Output, insbesondere Fundstellen, Zitate und Rechtsregeln. Die Quellenprüfung ist nach BRAK und DAV nicht verhandelbar.
  6. Vorbereitung auf den EU AI Act (Frist für viele Hochrisiko-Pflichten: 2. August 2026), inklusive KI-Inventar und Risikoklassifizierung.

Fazit

Anthropic liefert mit Claude für die Rechtsbranche ein technisch beeindruckendes Paket, das vor allem für US-Großkanzleien und internationale Inhouse-Teams direkt einsatzfähig ist. Im DACH-Raum bleibt der Einsatz möglich, aber die rechtlichen Leitplanken sind enger gezogen, als das Marketing vermuten lässt. Halluzinationen Gegenstand wachsender gerichtlicher Verfahren und berufsrechtlicher Diskussion. Drittlandtransfer, Berufsgeheimnis und EU AI Act verlangen eine strukturierte Vorab-Prüfung. Die Faustregel bleibt: KI kann juristische Arbeit beschleunigen, sie kann sie nicht verantworten.


Transparenzhinweis: Dieser Beitrag wurde mit Unterstützung generativer KI (Claude Opus 4.7, Anthropic) erstellt und vor Veröffentlichung sorgfältig redaktionell geprüft.

Weiterlesen