Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

Ehemaliger Trump-Anwalt räumt KI-generierte Fehler bei juristischen Zitaten ein

Algoine News
Summary:
Der ehemalige Anwalt von Donald Trump, Michael Cohen, gab zu, seinem Anwalt irrtümlicherweise falsche Zitate aus Rechtsfällen zur Verfügung gestellt zu haben, die von Google Bard, einem KI-Chatbot, erstellt wurden. Da Cohen derzeit nicht auf juristischem Gebiet tätig ist, wurde argumentiert, dass die falsch interpretierten Informationen hätten bewertet werden müssen, bevor sie in Gerichtsdokumenten präsentiert wurden. Anfang dieses Jahres wurde ein anderer Anwalt kritisiert, weil er KI verwendet hatte, um unzuverlässige Gerichtsreferenzen zu generieren. Diese Beispiele beleuchten die Herausforderungen und Risiken, die mit dem Einsatz von KI für die juristische Forschung verbunden sind.
Donald Trumps ehemaliger Anwalt Michael Cohen räumte einen Fehler ein, indem er seinem Anwalt falsche Fallzitate zur Verfügung stellte, die versehentlich von Google Bard, einem Chatbot mit künstlicher Intelligenz (KI), generiert wurden. Cohen, der in Trumps bevorstehendem Strafprozess als Zeuge in den Zeugenstand treten wird, gab kürzlich in einer Gerichtsakte zu, dass er seinem Anwalt David Schwartz falsche juristische Zitate geschickt hatte, die von dem KI-Chatbot generiert wurden. Darin hieß es: "Zahlreiche falsche Zitate - neben denen, die Herr Cohen entdeckte, aber in dem Antrag nicht verwendete - waren die Ausgabe von Google Bard, das Herr Cohen fälschlicherweise als erstklassige Suchmaschine und nicht als KI-Dienst wie Chat-GPT auffasste." Es wurde jedoch die Behauptung aufgestellt, dass Cohen, der kein aktiver Anwalt war, die Informationen lediglich an seinen Anwalt weitergegeben habe, was implizierte, dass sie vor ihrer Aufnahme in die Rechtsdokumentation hätten bewertet werden müssen. In der Erklärung hieß es: "Herr Cohen, der kein aktiver Anwalt ist, hat kein Bewusstsein mehr für die Risiken, die mit der Verwendung von KI-Programmen für rechtliche Ermittlungen verbunden sind, und es besteht auch keine ethische Verantwortung, seine Forschung zu validieren." Die Erklärung bekräftigte die Notwendigkeit einer zusätzlichen Bewertung und kam zu dem Schluss: "Im Wesentlichen hat Herr Cohen Herrn Schwartz mit dem versorgt, was er für echte Zitate hielt, die er online entdeckt hatte. Mr. Schwartz, der diese Zitate nicht verifizierte, fügte sie dem Antrag hinzu." Insbesondere die Verwirrung über den Einsatz von KI hat in der Vergangenheit zu Problemen für andere Anwälte geführt. Wie Cointelegraph bereits berichtete, geriet Steven Schwartz, ein Anwalt, der mit einer New Yorker Anwaltskanzlei namens Levidow, Levidow & Oberman zusammenarbeitet, in die Kritik, weil er KI verwendete, um falsche Gerichtszitate zu erstellen. Obwohl Schwartz darauf beharrte, dass er ChatGPT zum ersten Mal für juristische Recherchen verwendete, ermahnte ihn der Vorsitzende Richter und erklärte: "Sechs der vorgelegten Fälle scheinen falsche Gerichtsurteile mit gefälschten Zitaten und internen Referenzen zu sein.

Published At

12/31/2023 7:16:39 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch