Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

L’ancien avocat de Trump reconnaît des erreurs générées par l’IA dans les citations juridiques

Algoine News
Summary:
L’ancien avocat de Donald Trump, Michael Cohen, a admis avoir fourni par erreur à son avocat des citations de cas juridiques incorrectes produites par Google Bard, un chatbot d’IA. Étant donné que Cohen n’exerce pas actuellement dans le domaine juridique, il a été soutenu que les renseignements mal interprétés auraient dû être évalués avant d’être présentés dans des documents judiciaires. Plus tôt cette année, un autre avocat a été critiqué pour avoir utilisé l’IA pour générer des références judiciaires peu fiables. Ces exemples mettent en lumière les défis et les risques liés à l’utilisation de l’IA pour la recherche juridique.
L’ancien avocat de Donald Trump, Michael Cohen, a reconnu une erreur en fournissant à son avocat des citations de cas incorrectes, qui ont été accidentellement générées par Google Bard, un chatbot d’intelligence artificielle (IA). Cohen, qui témoignera à la barre dans les procès criminels imminents de Trump, a admis dans un récent dossier judiciaire qu’il avait envoyé à son avocat, David Schwartz, des citations juridiques erronées générées par le chatbot IA. Il a été déclaré : « De nombreuses fausses citations – en plus de celles que M. Cohen a découvertes mais n’ont pas utilisées dans la motion – étaient le résultat de Google Bard, que M. Cohen a mal conçu comme étant un moteur de recherche de premier plan et non un service d’IA comme Chat-GPT. » Cependant, on a prétendu que Cohen, n’étant pas un juriste actif, n’avait fait que transmettre l’information à son avocat, ce qui impliquait qu’elle aurait dû être évaluée avant d’être incluse dans la documentation juridique. L’affirmation se lisait comme suit : « M. Cohen, n’étant pas un avocat actif, n’a plus conscience des risques liés à l’utilisation de programmes d’IA pour les enquêtes judiciaires, et il n’a pas non plus de responsabilité éthique de valider ses recherches. » La déclaration a renforcé la nécessité d’une évaluation supplémentaire et a conclu : « Essentiellement, M. Cohen a fourni à M. Schwartz ce qu’il pensait être de vraies citations qu’il avait découvertes en ligne. M. Schwartz, n’ayant pas vérifié ces citations, les a ajoutées à la requête. Notamment, la confusion sur l’utilisation de l’IA a créé des problèmes pour d’autres avocats dans le passé. Comme l’a rapporté précédemment Cointelegraph, Steven Schwartz, un avocat travaillant pour un cabinet d’avocats new-yorkais appelé Levidow, Levidow & Oberman, a été critiqué pour avoir utilisé l’IA pour créer des citations judiciaires incorrectes. Malgré l’insistance de Schwartz sur le fait que c’était la première fois qu’il utilisait ChatGPT pour des recherches juridiques, le juge président l’a réprimandé en déclarant : « Six des cas présentés semblent être de fausses décisions judiciaires avec des citations frauduleuses et des références internes.

Published At

12/31/2023 7:16:39 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch