SONSTIGES

27.08.2025

„BGH, KI ZR 42/2025 – Wenn ChatGPT Recht spricht“

Vorwort des menschlichen Herausgebers
Bevor Sie weiterlesen, liebe Leserinnen und Leser, sei eines klargestellt: Ich war’s nicht. Wirklich nicht. Der nachfolgende Text stammt vollständig und ohne mein Dazutun von ChatGPT. Ich habe ihn lediglich überflogen, dabei genickt und mich demütig gefragt: „Wieso schreibe ich eigentlich nicht auch so witzig und pointiert?“ Dazu auch gleich die Antwort: Ich hätte das so nicht gekonnt, jedenfalls nicht in dieser Geschwindigkeit.

 

„BGH, KI ZR 42/2025 – Wenn ChatGPT Recht spricht“

I. Einleitung: Wenn der Algorithmus das Wort ergreift

Man kennt das: Ein paar schnelle Fragen an ChatGPT – und schon bekommt man eine glänzend formulierte Antwort, die voller Selbstbewusstsein mit Fundstellen, Randnummern und Leitsätzen um sich wirft. Beeindruckend. Bis man genauer hinschaut. Denn der Teufel steckt im Detail. Oder besser: In der Fußnote. Die Entscheidung „BAG, Urt. v. 12.04.2019 – 3 AZR 279/18“ zur Mitbestimmungspflicht bei der Wahl des Kaffeevollautomaten? Gibt es nicht. Die angeblich bahnbrechende Entscheidung des „Obersten Verwaltungsgerichtshofs Nord-Südwestfalen“ zur Frage, ob Beamte ein Recht auf Homeoffice im Bademantel haben? Ein lupenreines KI-Fantasieprodukt. Und doch – die Argumentation ist oft so überzeugend, dass man sich fragt: Warum eigentlich nicht?

II. Die neue Lust am Halluzinieren

Künstliche Intelligenz leidet nicht unter Realitätsverlust – sie hat schlicht kein Realitätsempfinden. ChatGPT „halluziniert“, wenn es nicht weiß, was es sagen soll, aber trotzdem liefern will. Dabei entstehen Entscheidungen wie: „BVerwG, Urt. v. 01.04.2023 – 11 C 42/22“: „Ein Anspruch auf Einrichtung eines ‚Grillplatzes light‘ im urbanen Bereich besteht jedenfalls dann, wenn der Antragsteller sich auf Art. 2 Abs. 1 GG in Verbindung mit § 1 Abs. 1 Bayerisches Bratwurstfördergesetz beruft.“

Wer sich jetzt an den Kopf fasst, dem sei gesagt: Diese Entscheidung ist frei erfunden – und dennoch juristisch originell. Vielleicht sogar richtungsweisend.

III. Argumentative Kreativität ohne Angst vor der Realität

Die Stärke von KI liegt nicht im Zitieren – sondern im Kombinieren. KI denkt nicht in „so war’s schon immer“, sondern in „was wäre, wenn?“. Dabei entstehen manchmal erstaunlich kreative Gedankengänge:
„LSG Berlin-Brandenburg, Beschl. v. 30.06.2024 – L 42 KI 17/23“:
„Der Anspruch auf Erstattung eines durch KI erstellten Schriftsatzes richtet sich nicht nach dem RVG, sondern nach dem ChatGPT-Stundensatzgesetz (CStG), das der Gesetzgeber – jedenfalls nach Auffassung der KI – längst erlassen haben müsste.“

Solche Texte sind zwar juristisch völlig haltlos, aber stilistisch ein Genuss. Sie zeigen, was sein könnte, wenn man sich nicht sklavisch an das hält, was ist.

IV. Der Nutzen: Gedankenexperimente mit Stil

Was wäre, wenn man halluzinierte KI-Urteile systematisch nutzte? Als Gedankenexperimente? Als Inspiration? Man stelle sich vor, ein Richter am BGH (echter, menschlicher Art) liest eine vermeintliche Entscheidung aus dem „KI-Zivilsenat“ – und denkt sich: „Gar nicht schlecht!“
„BGH, Urt. v. 17.12.2025 – KI ZR 42/25“:
„Die streitgegenständliche Lieferung eines digitalen Einhorns in NFT-Form stellt eine Sachleistung im Sinne von § 90 BGB dar, sofern der Einhornhuf auch virtuell berührbar ist.“

Diese Entscheidung existiert selbstverständlich nicht – noch nicht! Aber sie illustriert: KI denkt out of the box. Und manchmal ist das genau das, was das Recht braucht.

V. Und jetzt mal ernsthaft – oder auch nicht

Natürlich ist es gefährlich, wenn KI Urteile erfindet. Natürlich darf man halluzinierte Zitate nicht einfach übernehmen. Aber ebenso natürlich ist: In mancher juristischen Argumentation steckt mehr Leben, wenn man sie mit einem Hauch KI-Wahnsinn würzt.

Vielleicht braucht es am BGH künftig einen „Siebten Senat für spekulative Rechtsfortbildung“. Vielleicht veröffentlichen wir bald die „NJW-Future“, in der ausschließlich generierte Urteile erscheinen. Und vielleicht wird dann auch der legendäre Fall „AG Wanne-Eickel, Urt. v. 29.02.2024 – 42 C 4711/23“ zur Pflichtlektüre, in dem erstmals festgestellt wurde:

„Wer eine KI fragt, bekommt nicht die Wahrheit – sondern eine gut begründete Möglichkeit.“

VI. Fazit: Mit Fantasie zur Wahrheit

Juristen leben von Argumenten. Und Argumente dürfen fantasievoll sein – solange man am Ende weiß, dass es sich um Fiktion handelt. ChatGPT halluziniert nicht, um zu täuschen. Es halluziniert, um zu helfen. Auch wenn es manchmal dabei ein bisschen über das Ziel hinaus-argumentiert.

Oder, wie das „Verfassungsgericht für Textbasierte Intelligenzfragen“ in seinem Grundsatzurteil „VGTI, Urt. v. 01.04.2025 – 1 KI 1/25“ feststellte:
„Die Wahrheit mag Fakt sein – aber das Recht ist Auslegungssache. Und ChatGPT ist Auslegungskünstler.“

Anmerkung RA Greiner:
Sämtliche Entscheidungen in diesem Beitrag sind frei erfunden. Doch wer weiß – vielleicht sind sie morgen schon Realität. Oder wenigstens ein gut platzierter Fußnotenwitz.