L'ex avvocato di Trump riconosce gli errori generati dall'intelligenza artificiale nelle citazioni legali
Summary:
L'ex avvocato di Donald Trump, Michael Cohen, ha ammesso di aver erroneamente fornito al suo avvocato citazioni errate di casi legali prodotti da Google Bard, un chatbot AI. Poiché Cohen non è attualmente praticato nel campo legale, è stato sostenuto che le informazioni mal interpretate avrebbero dovuto essere valutate prima di essere presentate nei documenti del tribunale. All'inizio di quest'anno, un altro avvocato è stato criticato per aver utilizzato l'intelligenza artificiale per generare riferimenti giudiziari inaffidabili. Questi esempi fanno luce sulle sfide e sui rischi legati all'utilizzo dell'IA per la ricerca legale.
L'ex avvocato di Donald Trump, Michael Cohen, ha riconosciuto un errore nel fornire al suo avvocato citazioni errate del caso, che sono state generate accidentalmente da Google Bard, un chatbot di intelligenza artificiale (AI). Cohen, che salirà sul banco dei testimoni negli imminenti processi penali di Trump, ha ammesso in un recente documento depositato in tribunale di aver inviato al suo avvocato, David Schwartz, citazioni legali errate generate dal chatbot AI. È stato affermato: "Numerose citazioni false - insieme a quelle che il signor Cohen ha scoperto ma non utilizzato nella mozione - sono state l'output di Google Bard, che il signor Cohen ha erroneamente concepito come un motore di ricerca di alto livello e non un servizio di intelligenza artificiale come Chat-GPT".
Tuttavia, è stato sostenuto che Cohen, non essendo un professionista legale attivo, si è limitato a trasmettere le informazioni al suo avvocato, il che implica che avrebbero dovuto essere valutate prima della loro inclusione nella documentazione legale. L'affermazione recitava: "Il signor Cohen, non essendo un avvocato attivo, non ha più la consapevolezza dei rischi legati all'utilizzo di programmi di intelligenza artificiale per indagini legali, né c'è una responsabilità etica per convalidare la sua ricerca". La dichiarazione ha rafforzato la necessità di un'ulteriore valutazione e ha concluso: "In sostanza, il signor Cohen ha fornito al signor Schwartz quelle che pensava fossero vere citazioni che ha scoperto online. Il signor Schwartz, non riuscendo a verificare queste citazioni, le ha aggiunte alla mozione".
In particolare, la confusione sull'uso dell'IA ha creato problemi ad altri avvocati in passato. Come segnalato in precedenza da Cointelegraph, Steven Schwartz, un avvocato che lavora con uno studio legale di New York chiamato Levidow, Levidow & Oberman, è stato criticato per aver utilizzato l'intelligenza artificiale per creare citazioni giudiziarie errate. Nonostante l'insistenza di Schwartz sul fatto che fosse la prima volta che utilizzava ChatGPT per la ricerca legale, il giudice che presiedeva lo ha ammonito affermando: "Sei dei casi presentati sembrano essere false sentenze giudiziarie con citazioni fraudolente e riferimenti interni.
Published At
12/31/2023 7:16:39 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.