SONSTIGES
27.08.2025
„BGH, KI ZR 42/2025 – Wenn ChatGPT Recht spricht“
![]() |
Vorwort des menschlichen Herausgebers „BGH, KI ZR 42/2025 – Wenn ChatGPT Recht spricht“ I. Einleitung: Wenn der Algorithmus das Wort ergreiftMan kennt das: Ein paar schnelle Fragen an ChatGPT – und schon bekommt man eine glänzend formulierte Antwort, die voller Selbstbewusstsein mit Fundstellen, Randnummern und Leitsätzen um sich wirft. Beeindruckend. Bis man genauer hinschaut. Denn der Teufel steckt im Detail. Oder besser: In der Fußnote. Die Entscheidung „BAG, Urt. v. 12.04.2019 – 3 AZR 279/18“ zur Mitbestimmungspflicht bei der Wahl des Kaffeevollautomaten? Gibt es nicht. Die angeblich bahnbrechende Entscheidung des „Obersten Verwaltungsgerichtshofs Nord-Südwestfalen“ zur Frage, ob Beamte ein Recht auf Homeoffice im Bademantel haben? Ein lupenreines KI-Fantasieprodukt. Und doch – die Argumentation ist oft so überzeugend, dass man sich fragt: Warum eigentlich nicht? II. Die neue Lust am HalluzinierenKünstliche Intelligenz leidet nicht unter Realitätsverlust – sie hat schlicht kein Realitätsempfinden. ChatGPT „halluziniert“, wenn es nicht weiß, was es sagen soll, aber trotzdem liefern will. Dabei entstehen Entscheidungen wie: „BVerwG, Urt. v. 01.04.2023 – 11 C 42/22“: „Ein Anspruch auf Einrichtung eines ‚Grillplatzes light‘ im urbanen Bereich besteht jedenfalls dann, wenn der Antragsteller sich auf Art. 2 Abs. 1 GG in Verbindung mit § 1 Abs. 1 Bayerisches Bratwurstfördergesetz beruft.“ Wer sich jetzt an den Kopf fasst, dem sei gesagt: Diese Entscheidung ist frei erfunden – und dennoch juristisch originell. Vielleicht sogar richtungsweisend. III. Argumentative Kreativität ohne Angst vor der RealitätDie Stärke von KI liegt nicht im Zitieren – sondern im Kombinieren. KI denkt nicht in „so war’s schon immer“, sondern in „was wäre, wenn?“. Dabei entstehen manchmal erstaunlich kreative Gedankengänge: Solche Texte sind zwar juristisch völlig haltlos, aber stilistisch ein Genuss. Sie zeigen, was sein könnte, wenn man sich nicht sklavisch an das hält, was ist. IV. Der Nutzen: Gedankenexperimente mit StilWas wäre, wenn man halluzinierte KI-Urteile systematisch nutzte? Als Gedankenexperimente? Als Inspiration? Man stelle sich vor, ein Richter am BGH (echter, menschlicher Art) liest eine vermeintliche Entscheidung aus dem „KI-Zivilsenat“ – und denkt sich: „Gar nicht schlecht!“ Diese Entscheidung existiert selbstverständlich nicht – noch nicht! Aber sie illustriert: KI denkt out of the box. Und manchmal ist das genau das, was das Recht braucht. V. Und jetzt mal ernsthaft – oder auch nichtNatürlich ist es gefährlich, wenn KI Urteile erfindet. Natürlich darf man halluzinierte Zitate nicht einfach übernehmen. Aber ebenso natürlich ist: In mancher juristischen Argumentation steckt mehr Leben, wenn man sie mit einem Hauch KI-Wahnsinn würzt. Vielleicht braucht es am BGH künftig einen „Siebten Senat für spekulative Rechtsfortbildung“. Vielleicht veröffentlichen wir bald die „NJW-Future“, in der ausschließlich generierte Urteile erscheinen. Und vielleicht wird dann auch der legendäre Fall „AG Wanne-Eickel, Urt. v. 29.02.2024 – 42 C 4711/23“ zur Pflichtlektüre, in dem erstmals festgestellt wurde: „Wer eine KI fragt, bekommt nicht die Wahrheit – sondern eine gut begründete Möglichkeit.“ VI. Fazit: Mit Fantasie zur WahrheitJuristen leben von Argumenten. Und Argumente dürfen fantasievoll sein – solange man am Ende weiß, dass es sich um Fiktion handelt. ChatGPT halluziniert nicht, um zu täuschen. Es halluziniert, um zu helfen. Auch wenn es manchmal dabei ein bisschen über das Ziel hinaus-argumentiert. Oder, wie das „Verfassungsgericht für Textbasierte Intelligenzfragen“ in seinem Grundsatzurteil „VGTI, Urt. v. 01.04.2025 – 1 KI 1/25“ feststellte: Anmerkung RA Greiner: |