USA: “Fluggastrechte-Anwalt” blamiert sich mit Chat-GPT-Schriftsatz

Print Friendly, PDF & Email

Ein U.S.-amerikanischer Rechtsanwalt blamierte sich vor Gericht, in dem er auf Urteile aus der Vergangenheit, die es gar nicht gibt, verwiesen hat. Die Vorbereitung auf den Prozess hat der vermeintliche „Fluggastrechteexperte“ einfach Chat-GPT überlassen.

Die Auswirkungen waren für ihn und seinen Mandanten fatal, denn auf die Entscheidungen, auf die er in seinem Vorbringen verwiesen hat, hätte er eigentlich gar nicht zurückgreifen dürfen. Es gab sie schlichtweg nicht, denn sie waren frei erfunden. Chat-GPT hatte beispielsweise Urteile gegen Iran Air oder Delta aus dem Nähkästchen gezaubert, die nie ergangen sind. Auch gab keine derartigen Prozesse.

Für den Anwalt war die Sache nicht nur peinlich, sondern er brockte sich auch Ärger ein. Unter Eid musste er versichern, dass er das Gericht in New York nicht vorsätzlich habe täuschen wollen, sondern sich fahrlässig auf Chat-GPT verlassen habe. Er räumte ein, dass es sich um einen schweren Fehler handelte, dass er die Arbeit der KI nicht vor dem Einbringen des Schriftsatzes bei Gericht geprüft habe.

Laptop (Foto: Unsplash/Thomas Lefebvre).
Laptop (Foto: Unsplash/Thomas Lefebvre).
Werbung