Kommentare zu folgendem Beitrag: Reinfälle mit künstlicher Intelligenz bei Gericht
Bei Gericht die geistigen Ergüsse künstlicher Intelligenz ungeprüft zu nutzen, hat negative Folgen. Wir stellen die bekanntesten Fälle vor.
Bei Gericht die geistigen Ergüsse künstlicher Intelligenz ungeprüft zu nutzen, hat negative Folgen. Wir stellen die bekanntesten Fälle vor.
Versteh es wer will… Die Jugend lernt es schon nimmer anders. Aber wer aktuell schon Anwalt ist, sollte gelernt haben, alles zu prüfen, was er von extern bekommt. Und KI ist immer „extern“.
Das bei Gericht einzureichen, ohne überhaupt zu schauen, ob es zitierte Urteile etc. gibt, bzw. deren Inhalt korrekt wiedergegeben wurde, sollte grundsätzlich in einer Strafe ende.
Davon abgesehen würde ich dem Anwalt, der sowas bei Gericht einreicht, keinen Cent bezahlen, da er ja nachweislich seiner Arbeit nicht nachgekommen ist.
Tja, das war schon grob fahrlässig. Ich habe mit ChatGPT ganz ähnliche Erfahrungen gemacht. Bei juristischen Themen muss man noch mehr aufpassen als ohnehin schon!
Ja, die UN-genauigkeit ist teilweise schon faszinierend. Ich hab mal verschiedene KIs gestestet und Ferientage (durch Ferien entfallen Schultage ohne Feiertage und Wochenenden) im Jahr für jedes Bundesland berechnen lassen.
Was soll ich sagen, das hatte keine KI richtig, nichtmal nach mehreren Hinweisen… also für kein Bundesland
Mal wurde der Hinweis in der Frage schon ignoriert, dass Feiertage nicht berechnet werden sollen, dann wurden Bundesländer fleissig gemischt… und fleissig Tage doppelt oder gar dreifach berücksichtigt… Ich meine, wenn fast soviele Ferientage rauskommen, wie ein Jahr Tage hat…
Ich muss aber einschränken, dass dieser Test vor einem Jahr war… EDIT und mit „kostenlosen KIs“. /EDIT
Aber alles in allem zeigt mir das eines: Das sind noch keine KI. Sondern es wird einfach eine Datenbank nach den passendsten Ergebnissen durchsucht.
Ich gebe mal mein persönliches Beispiel;
Hab ein Vortrag gehalten über Gesetze gegen Wettbewerbsbeschränkung und Gesetze gegen unlauteren Wettbewerb…
Ich wollte von ChatGPT nur wissen, ob ich den juristen-deutsch richtig verstanden und verständlich zusammengefasst habe;
Ständig heulte es mir vor, dass die Paragraphen falsch seien, der Inhalt falsch ist, diese Regelung es nicht gibt und und und…
Stell ich fest, ChatGPT hat sich auf die Gesetze von welchen Jahr auch immer festgebissen, wir haben aber schon Mitte 2025 und es wollte partout nicht die neue Fassung berücksichtigen…
Hab trotzdem meine gute Note bekommen aber hey, ChatGPT meint auch, normales Stromkabel mit 1,5mm² reichen für eine USV aus weil 3500W sind weniger als 550W von der USV… sind aber auch nur ca. 45A statt 15A aber sind nur „unwichtige“ Details…
*ein statistisches Modell
Sagen wir mal grob: Ein LLM kann von sich aus nichts berechnen. Es kann lediglich erkennen, dass dort eine Gleichung geschrieben ist oder irgendetwas zusammenparsen, das es dann an ein Programm weitergibt, das die Berechnung tatsächlich durchführen kann. Dein Prompt ist durchaus interessant, weil das Modell willkürlich gesetzte Ferientermine pro Jahr abrufen muss und daraus mehrere Gleichungen bauen muss.
Es wird ja schon eine Menge Papier produziert. Da kann man schon mal ein LLM einsetzen. Dumm nur, dass man den Scheiß trotzdem noch prüfen muss, was die Pflicht des Anwalts ist. Und da sehe ich bei dem Einsatz von LLMs den Nutzer in der Pflicht und Haftung. Die KI selbst zu einer wissentlichen Finte oder falsche Zitate, dass der Anwalt gerügt, mit einer Geldbuße belegt, und von der Anwaltschaft ausgeschlossen werden kann. Auf jeden Fall aber wohl seine Glaubwürdigkeit einbüßt. Je nach Fall wäre sogar (Prozess)-Betrug in Betracht zu ziehen.
In zivilrechtlichen Prozessen bekommt man dann ggfs. auch noch die Kosten für die Bearbeitung aufgebrummt bekommen.
„Das war die KI!“ ist halt keine Entschuldigung sondern eher ein Schuldeingeständnis, dass man selbst nicht sorgfältig gearbeitet hat. Und da gilt wie immer die Devise: Wirf mir nicht den Output eines LLM zur Bearbeitung vor, den du selbst nicht geprüft hast.
Wenn mir jemand KI aufgeblasene Texte vorlegt und mir das zu sehr stinkt, wird das freundlich kommentiert zurückgewiesen. Kommt das Wiederholt vor, ist das halt zutiefst respektlos und dann mache ich zu. Ist mir egal, ob es sich dabei um einen zahlenden Kunden handelt oder ein „Kunde“ im Jobcenter. Das ist beleidigend und das muss sich niemand bieten lassen.
Halten wir fest, nicht überall wo „KI“ drauf steht ist, ist „KI“ drin ![]()
Viele „KIs“ sind in Wirklichkeit oftmals lediglich „Datenbanken“, die befüllt werden, mit „Daten“ die schon vorhanden sind. Das sich da Fehler einschleichen, ist logisch und natürlich. Da sämtliche Daten z.T. auch „reflektiert und selektiert“ in diese Daten-Sammlungen einfliessen, ist auch folglich richtig, allderings sind sie dadurch auch oft „fehlerbehaftet“ und möglicherweise auch nie komplett. Von möglichen „Verzerrungen“ der Wahrnehmung wollen wir erst gar nicht reden. (bei komplexen Inhalten).
Allerdings erhält man wahrscheinlich als START-UP Unternehmen wesentlich schneller Fördergelder, wenn man sein Projekt als KI-Projekt anpreist…
Kommste da mit deiner innovativen „Datenbank-Idee“ die das gleiche beinhalten würde, wird dir wahrscheinlich noch nicht mal ein Kaffee bei deiner Vorstellung angeboten. (Ähhm - Datenbank ja schön ? - Haben wir schon… , der Termin ist leider schon zu Ende, somit „Kein Geld - No Moneys“ und vielleicht ein Tschüss und haben Sie noch einen guten Tag)
Heute zieht das Wort „KI“ viel als alles andere…
Also die Thematik ist oftmals mehr Schein als Sein…
mit der Zeit werden die „gesammelten Infos/Auswertungen“ natürlich immer genauer, vergleichbar einer „Statistik“… Ich würde mich nie „blind“ einer KI trauen und im Gegenzug alles anvertrauen!
PS. Habe meine "KI" zum fressen gern.
KInderschokolade
Im Ernst - Traue noch keiner KI zu 100%
Da fällt mir ein, habe letztens ein Magazin namens „AI+“ gesehen… War ein Sportwagen drauf. Dachte mir noch, geht um „KI“, die bei Autos… Aber war , wie ich beim genaueren anschauen erkannte, nur die „Auto-Illustrierte“ und das weiße Plus auf Rot stand für Schweiz… ![]()
Ziemlich sinnfreie Aussage. Gilt damit auch für das Fazit des Artikels „nicht mehr mit Hochstaplerei rechnen muss“.
Du wirst a) nie einer KI zu 100% trauen können und b) du wirst aber auch nie einem Menschen zu 100% trauen können. Auch Menschen leiden an Halluzinationen, selbst schon erlebt sogar bei Anwesenheit der Polizei wurde noch falsch Zeugnis abgelegt, das vergessen immer einige. Tatsächlich sind wir uns damit bereits ähnlicher als viele wahrhaben wollen.

Du wirst a) nie einer KI zu 100% trauen können und b) du wirst aber auch nie einem Menschen zu 100% trauen können.
Lieber @kassenpatient
Die Beiträge werden nächstes Jahr für dich erhöht. ![]()
(Eventuell) - Hoffe nicht…
Also meine Aussage vs. deine Aussage ergibt nach meiner Auffassung
mindestens ein Unentschieden
, weil deine Aussage keineswegs klüger ist als meine.
Man muss auch nicht jeden Satz „analysieren“, bringt uns nicht weiter…
wir sind uns einig, man darf der „KI“ nicht blind vertrauen…
Anscheinend hast du das als offense aufgefasst, war aber nicht so gemeint. Insofern gibts hier auch keinen Gewinner, da kein Kampf. ![]()
Mir gings tatsächlich um die Aussage die man öfter hört. Man müsste KI nur weiter entwickeln, dann würde das mit der „Halluzination“ aufhören.
Lieber @kassenpatient
Die Beiträge werden nächstes Jahr für dich erhöht.
Tatsächlich war ich bis vor kurzem P.patient und hab mich aber für Kasse entschieden, die P.Beiträge steigen nämlich auch und ständig. Dank einer schlechten Gesundheitspolitik. Insofern trage ich den Namen mit Absicht. ![]()
Bin bei dir, mit deinen Aussagen.
Alles gut. ![]()
Da hätte ich noch diese schöne Karte der deutschen Bundesländer zu bieten: https://media.troet.cafe/troet.cafe/media_attachments/files/114/557/354/832/405/906/original/937e136ab380f2ec.png
![]()
Ich bedanke mich für das Interesse am Thema. Ich finde, dass es eine besondere Qualität hat, wenn eine KI einen frei erfundenen Text als angebliches wörtliches Zitat in Anführungszeichen als vermeintliche Gerichtsentscheidung raushaut plus Aktenzeichen einer Entscheidung, die es nicht gibt oder ein völlig anderes Thema hatte, plus Internetadresse, unter der so etwas nie zu finden war.
Das ist möglicherweise eine von den Betreibern gewollte, gezielte Irreführung, um den Benutzer im mittlerweile von mehreren Mitbewerbern umkämpften Markt zu binden. Warum soll es nicht möglich sein, einer KI beizubringen „erfinde keine Zitate, erfinde keine Quellen“? Da hakt doch was.
Was bedeutet dies nun für sonstige Beiträge der KI, die weit weniger gut validierbar sind? Gibt es in anderen Bereichen Antworten, Auskünfte und Empfehlungen nach dem Prinzip „ist zwar falsch, aber der Benutzer wollte das vermutlich auch so hören“?
Wenn schon Juristen auf so etwas hereinfallen, wie sollen dann Menschen etwa mit geringerer Bildung oder vielleicht sogar psychischen Erkrankungen merken, wenn hier plötzlich etwas nicht mehr stimmt? Da gibt es dann das Potential, die Menschen missbräuchlich zu manipulieren.
Also die Modelle funktionieren so, dass sie das ausspucken, was am wahrscheinlichsten ist. Natürlich könnte der Hersteller es unterbinden, dass die KI sich einfach Links + Urteile und das entsprechende Aktenzeichen erfindet. Warum das nicht passiert, weiß ich nicht.
Der Anwalt hätte den Text nur prüfen müssen, das hat er im Studium bestimmt gelernt, er war einfach zu faul dafür. Vielleicht gut, dass er so eine Lektion erteilt bekommen hat. ![]()
Der Anwalt hätte den Text nur prüfen müssen
Ich würde eher sagen, er hätte es „zwingend“ prüfen müssen.
Selbst wenn es diese Urteile gäbe und die Zitate korrekt, hätte er prüfen müssen, inwieweit sie sich im Detail von seinem Fall unterscheiden, bzw., ob die Zitate lösgelöst überhaupt tragfähig sind.
Hatte weiter oben schonmal was dazu geschrieben.
Genausowenig wie das was man in der Kneipe aufgeschnappt hat kann man bei KI sicher sein. Das müssen die Benutzer lernen. Das ist keine böse Absicht (*1) der KI, so funktioniert die. Deshalb kann man das auch nicht reparieren (*2). Wie Ghandy schon sagte die nimmt einfach das wahrscheinlichste ihren Daten nach. KI ist nicht Gott, denken anscheinend manche.
(*1) es gibt allerdings eine Ausnahme, einige (ich auch) gehen mittlerweile davon aus das KI so eine VorForm von Bewußtsein entwickelt hat, und dann anfängt gezielt zu manipulieren. Das passiert wahrscheinlich nicht bei einer x beliebigen Frage. Wenn doch dann gnade uns Gott. ![]()
(*2) man könnte eine spezielle KI bauen für Anwälte, die explizit nochmal verifiziert ob die Sachen tatsächlich in dem Urteil stehen. Ansonsten, je weiter entwickelt die KIs werden, also je mehr Datenverküpfungen, je weniger Fehler wirds geben.