Bei Gericht die geistigen Ergüsse künstlicher Intelligenz ungeprüft zu nutzen, hat negative Folgen. Wir stellen die bekanntesten Fälle vor.
Es bietet sich an, KI auch bei der Analyse von Rechtsstreitigkeiten und bei seinen eigenen Schriftsätzen zu verwenden, die einem da ja auch gleich von ChatGPT und anderen Chatbots angeboten werden. Solche Dokumente sind schon oft auf den ersten Blick an der Formatierung zu erkennen. Nicht so schnell fällt es aber auf, wenn Verweise auf die Gesetzgebung und Rechtsprechung verfälscht sind oder völlig ins Leere laufen.
ChatGPT kann keinen Anwalt ersetzen
In New York reichte im Mai 2023 der Anwalt namens Steven Schwartz einen Antrag im Verfahren “Mata v. Avianca“ mit Hilfe des Chatbots ChatGPT ein. Schwartz verwies auf Fälle wie “Petersen gegen Iran Air“ oder “Martinez gegen Delta Airlines“ mit angeblichen Urteile und Aktenzeichen, die frei erfunden waren. Im Juni 2024 wurde in einer Studie der Stanford University festgestellt, dass juristische KI-Tools noch unzuverlässig seien. Die KI fasst teilweise Inhalte falsch zusammen, gibt falsche Zitate an oder erfindet sogar angebliche Dokumente und Beweismittel, die es aber in der Realität nie gab.
In Deutschland noch keine Leitlinien für die KI-Nutzung bei Gericht
Die Anwaltsvereinigung American Bar Association erstellte im Juli 2024 Leitlinien für die KI-Nutzung durch Anwältinnen und Anwälte. In Deutschland ist man noch nicht ganz so weit. Die Konsequenzen für das Einbringen von falschen Inhalten, die eine KI generiert hat, können sich über Vertrauensverlust und Ansehensverlust bis hin zur Androhung von rechtlichen Konsequenzen erstrecken.
KI erstellte fehlerhaftes Zitat
In einer Angelegenheit über einen Unterrichts-/Coachingvertrag musste das Oberlandesgericht Celle im April 2025 zur Position der Beklagten an vier Stellen feststellen: „Die von der Beklagten genannte Fundstelle kann der Senat nicht überprüfen, da es sich insoweit um ein Fehlzitat handelt, das weder bei juris noch bei beck-online unter den genannten Parametern (Datum / Aktenzeichen / Fundstelle) aufrufbar ist.“ (OLG Celle, Beschluss vom 29. April 2025 – 5 U 1/25).
Fachanwalt für Familienrecht „sollte die Rechtslage kennen„
In einer Umgangssache am Amtsgericht Köln, die im Juli 2025 entschieden wurde, hatte ein Rechtsanwalt in einem Schriftsatz KI verwendet. Dem Gericht fielen die im Antrag enthaltenen Fehler auf. Das Gericht wurde deutlich: „Der Verfahrensbevollmächtige hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen. Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43 a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen (Weyland/Bauckmann, 11. Aufl. 2024, BRAO § 43a Rn. 39; Henssler/Prütting/Henssler, 5. Aufl. 2019, BRAO § 43a Rn. 140). Der Verfahrensbevollmächtige ist Fachanwalt für Familienrecht und sollte die Rechtslage kennen.“. (AG Köln, Beschluss vom 2. Juli 2025 – 312 F 130/25).
Die KI-Verteidigung war „dysfunktional“ und „gedankenlos„
In einem Rechtsstreit um ein Verkehrsdelikt ging das Kammergericht Berlin im Juli 2025 den Rechtsanwalt hart an: „Die Verwaltungsbehörde und zwei gerichtliche Instanzen solcherart mit einer dysfunktionalen und gedankenlosen „Verteidigung“ zu befassen, ist unter verschiedenen Gesichtspunkten bedenklich. So enthält die anwaltliche Rechtsmittelschrift eine Vielzahl unwahrer Behauptungen zum Verfahrensgeschehen (§ 43a Abs. 3 Satz 2 BRAO). In dem Verfahren 3 ORbs 46/25 ist dem Verteidiger zugutegehalten worden, dass dies „eher als gedankenlos denn als bewusst täuschend erscheinen mag“.
Daran dürfte nicht mehr festzuhalten sein. Der Senat hat zudem im selben Verfahren entschieden, dass einer in dieser sinnlosen Weise automatisierten Prozessführung der Erfolg selbst dann zu versagen sein könnte, wenn sie einmal, gewissermaßen als Zufallstreffer, einen allein auf Verfahrensrüge zu beachtenden Rechtsfehler „aufzeigen“ sollte.“ KG Berlin, Beschluss vom 25. August 2025, 3 ORbs 164/25, 3 ORbs 164/25 – 122 SsRs 33/25)
ChatBot hatte bei Gericht Halluzinationen
In einem Beschluss vom September 2025 mahnte das Landgericht Frankfurt am Main etwas freundlicher, aber immer noch klar. „Die Kammer hofft, dass die Fälschungen nicht vom Klägervertreter selbst vorgenommen wurden, sondern von einem Chatbot ‚halluziniert‘ worden sind.“ (LG Frankfurt, Beschluss vom 25. September 2025 – 2-13 S 56/24)
Fazit
Es wird noch eine ganze Weile dauern, bis man bei KI-Chatbots nicht mehr mit Hochstaplerei rechnen muss. Die KI wird sich ziemlich sicher zum unverzichtbaren Werkzeug auch in der Kanzlei oder im Gericht entwickeln. Es bleibt aber ratsam, bei Streitigkeiten vor Gericht die Angaben aus dem KI-Chatbot nicht ungeprüft zu übernehmen.
Bernd Rohlfs, Gesellschaft für freie Informationssysteme. Rohlfs führte freundlicherweise für uns ein Interview mit dem Betreiber des Portals OpenJur.de durch.


















