Die Fake-Urteile von ChatGPT und wieso wir der Super-Suchmaschine nicht blind vertrauen dürfen!

  • 3 Minuten Lesezeit


ChatGPT stürmt durch unsere Gesellschaft. Die Möglichkeiten sind unbegrenzt, das Vertrauen ist groß, doch die Risiken größer. Aber welche Funktion kann der Chatbot haben, wenn es um das Recht und die Rechtstaatlichkeit geht? Diese Frage hatte sich nun auch ein New Yorker Gericht zu stellen, nachdem ein Rechtsanwalt von dem Chatbot ChatGPT geschriebene Fake-Urteile in einem Prozess verwendet hatte. 


ChatGPT erfindet Urteile

Aber was ist eigentlich passiert? In dem vorgenannten Fall klagte ein Passagier gegen eine Airline, da er angeblich von einem Metall Trolley während des Services an Board am Knie getroffen wurde. Dadurch erlitt er wohl üble körperliche Verletzungen. Die Anwälte des Fluggastes argumentierten mit zahlreichen, durchdringenden Präzedenzfällen, die ihnen offenbar ChatGPT herausgesucht hatte und lagen im Prozess wohl klar vorn. Das Dilemma war nur, dass diese Urteile in Wahrheit nicht existierten, es die jeweils zu Grunde liegenden Fälle niemals gegeben hat.

Dies fiel im Prozess auf, als weder die Anwälte der Airline noch das Gericht selbst die zitierten Urteile in der Rechtsbibliothek finden konnte. Auf Nachfrage durch das Gericht übersandten die Anwälte des Passagiers Kopien der Urteilsentscheidungen, die sie von ChatGPT erhalten hatten. Schnell stellte sich heraus, dass diese Urteile fake waren und daher niemals hätten zitiert werden dürfen.


Was können Fake-Urteile im Rechtssystem anrichten?

Wären die Fake-Urteile nicht aufgeflogen, hätte dies verheerende Konsequenzen für das US-amerikanischen Rechtssystem gehabt. Anders als hierzulande, wo das geschriebene Gesetz an erster Stelle steht und jedes Gericht im Rahmen der Gesetzesmäßigkeit frei und unabhängig von einem anderen deutschen Gericht urteilen kann, wird in den USA ein gesprochenes Urteil Teil des Rechtssystems.

Im US-amerikanischen Rechtssystem sind die aktuellen Streitigkeiten vor Gericht stets entsprechend der vorherigen Rechtsprechung zu entscheiden. Kein einfacher Job für Anwälte und Richter, sämtliche einschlägige Urteile zu kennen. Findet der Anwalt also ein entsprechendes vorangegangenes Urteil, kann dies die Entscheidungen des Gerichts und damit den Ausgang des Verfahrens erheblich beeinflussen.


Konsequenzen für den Anwalt

Der Anwalt, der seit 30 Jahren in New York seinem Beruf nachgeht, musste sich nun insbesondere einem intensiven Verhör durch den Richter unterziehen. Eine Geldstrafe von 5.000 US-Dollar Strafe steht an. Peanuts im Vergleich zu dem, dass der Anwalt wohl für seinen Mandanten mit den Fake-Urteilen herausgeholt hätte, vorausgesetzt der Irrtum wäre nicht aufgeflogen. Zudem droht dem Anwalt ein Verfahren vor der Kammer.

Aber hätte der Rechtsanwalt diesen Fehler vermeiden können? Ganz einfach! Selbst wenn ChatGPT für eine erste Recherche genutzt wird, sollte das entsprechende Resultat einem umfangreichen Fake-Facts-Check unterzogen werden. Dem Anwalt wäre dann sicherlich sofort aufgefallen, dass es die von ChatGPT herausgesuchten Entscheidungen überhaupt nicht gibt.


Gefahr bei der Nutzung von ChatGPT?

Der Anwalt nutzte ChatGPT noch nie zuvor für seine Recherche und war sich den Risiken und Problemen offenbar nicht bewusst. Die Frage an ChatGPT, ob die entsprechenden Entscheidungen wirklich existierten, beantwortete der Chatbot offenbar mit „ja“. Auch auf die Frage, wo die jeweiligen Entscheidungen zu finden seien, gab der Chatbot zwei große etablierte Datenbanken an. Die Maschine kreiert also offenbar Beweise für die eigenen Fakes. Diese Erkenntnis ist erschütternd.


ChatGPT nutzen oder lieber nicht?

ChatGPT eröffnet vielseitige Möglichkeiten und ist sicherlich eine Bereicherung. Allerdings sollten sämtliche Ergebnisse mit Vorsicht genossen und überprüft werden. Im Namen der Wissenschaft wird empfohlen, gänzlich hierauf zu verzichten.

US-amerikanische Richter verpflichten Rechtsanwälte in einem Prozess bereits teilweise dazu, eine eidesstattliche Versicherung abzugeben, in der sie erklären müssen, dass sie ihre Schriftsätze nicht mit ChatGPT erstellt haben.


Wir helfen Ihnen gern, wenn Sie Fragen zur Nutzung von ChatGPT oder dem Umgang mit Suchmaschinen haben. Kontaktieren Sie uns am besten direkt über mail@himmelreither.de oder per Telefon über 0221 669 632 0

‍Ihr HIMMELREITHER Team




Rechtstipp aus dem Rechtsgebiet

Artikel teilen:


Sie haben Fragen? Jetzt Kontakt aufnehmen!

Weitere Rechtstipps von Rechtsanwalt Dr. Herwin Henseler

Beiträge zum Thema

Ihre Spezialisten