Anwalt glaubt ChatGPT

Anwalt glaubt ChatGPT

Ein Anwalt im US-Bundesstaat Utah soll mittels künstlicher Intelligenz vergangene Rechtsurteile zitiert haben, die es nie gegeben hat. Ein juristisch nicht lizenzierter Mitarbeiter habe die Angaben verfasst und dabei den ChatBot ChatGPT verwendet, so hieß es in einer Anhörung. Der Anwalt selbst habe die Daten nicht mehr überprüft.

Ein Gericht sanktionierte den Anwalt nun mit mehreren Geldstrafen. In den USA haben Präzedenzfälle eine größere Bedeutung als in Deutschland; sie können ausschlaggebend sein für den Ausgang eines Verfahrens. Daher ist ein falsches Zitieren vor Gericht ein gewichtiger Fehlgriff.

Bereits 2023 hatte sich ein ähnlicher Fall in New York ereignet. Auch hier lieferte ChatGPT zurückliegende Fake-Urteile, deren Existenz nicht kontrolliert wurde. Die Anwälte der Gegenseite kontrollierten dies aber schon, und so flog die Sache auf.

loading ...
1/1

Ich freue mich, wenn Du diese Seite weiterempfiehlst.
 

Schade, noch keine Kommentare.
Schreibe hier den ersten Kommentar:
(freiwillige Angabe)
(freiwillige Angabe; Spam-Links werden gelöscht!)
(freiwillige Angabe; wird nicht veröffentlicht)
Zitate bitte mit eckigen Klammern umschließen: [ ... ]

Die von Ihnen eingegebenen Daten (nur der Kommentartext ist Pflichtfeld) werden gespeichert, um den Kommentar auf dieser Seite anzeigen zu können. Ihre IP-Adresse wird nicht gespeichert.

Beachten Sie auch die Datenschutzerklärung.

Bitte die Lösung angeben (Spamschutz):
4 + 5 = 
  
(c) www.ki-mensch.de     - 42ms -     Kontakt     Impressum     Datenschutz     RSS-Feed