Anthropic contesta la causa intentata dalle etichette musicali per presunte violazioni del copyright nell'addestramento dell'IA
Summary:
Anthropic, l'azienda di intelligenza artificiale dietro il modello Claude, ha risposto a una causa intentata da diverse etichette musicali, tra cui Universal Music Group, per presunta violazione del copyright. La società contesta le affermazioni e sostiene che il caso è stato archiviato nel tribunale sbagliato. Anthropic risponde alle accuse di utilizzare il suo strumento di intelligenza artificiale per procurarsi testi di canzoni protette da copyright, affermando che lo strumento non è progettato per tale scopo e che qualsiasi evento è un "bug". La causa è una delle tante battaglie legali in corso tra gli sviluppatori di intelligenza artificiale e le industrie creative per la presunta violazione del copyright durante l'addestramento del modello di intelligenza artificiale.
L'azienda di intelligenza artificiale Anthropic, creatrice del modello di intelligenza artificiale Claude, ha risposto a una causa intentata da diverse società musicali, tra cui Universal Music Group (UMG), per presunta violazione del copyright. Anthropic ha presentato la sua confutazione il 16 gennaio, sostenendo che non solo le accuse dei ricorrenti sono errate, ma anche il tribunale in cui è stato presentato il caso è inadatto. "Le accuse di danni irreparabili da parte dei querelanti mancano di credibilità a prima vista. Al momento opportuno e nel giusto sistema giudiziario, i querelanti avranno ampio margine di manovra per mettere alla prova le loro argomentazioni giuridiche sostanziali".
Le accuse originali di Universal Music Group, Concord Publishing e ABKCO Music & Records suggerivano che Anthropic avesse fatto un uso "illegale" e una duplicazione e distribuzione "non autorizzata" di una vasta gamma di loro materiale protetto da copyright mentre programmava i suoi modelli di intelligenza artificiale. In risposta, Anthropic ha etichettato queste accuse non solo come un "assalto a questa classe emergente di strumenti digitali", ma come un grossolano fraintendimento sia della tecnologia che della prospettiva legale.
I ricorrenti hanno anche espresso le loro obiezioni all'utilizzo da parte di Anthropic del suo strumento di intelligenza artificiale generativa per ottenere testi di canzoni protetti da copyright. Anthropic ha chiarito che il loro strumento "non è destinato a riprodurre contenuti protetti da copyright" e se ciò si è verificato si è trattato semplicemente di un "problema tecnico" che ha aggirato le sue garanzie. La denuncia iniziale faceva riferimento ad almeno 500 canzoni di artisti famosi come Beyonce, The Rolling Stones e The Beach Boys, affermando che l'IA aveva violato il loro copyright.
Respingendo queste accuse, Anthropic ha dichiarato che le case discografiche hanno presentato "zero prove" o addirittura identificato un notevole sottoinsieme di utenti, oltre a loro stessi, che hanno inserito suggerimenti che hanno portato alla generazione di testi protetti da copyright. "Le persone comuni non utilizzerebbero uno degli strumenti di intelligenza artificiale generativa tecnologicamente più avanzati e potenti per visualizzare ciò che possono individuare più facilmente e rapidamente utilizzando i browser Web standard".
Anthropic è stata fondata da ex dipendenti di OpenAI, creatori di ChatGPT, e si è assicurata investimenti da pesi massimi come Google e Amazon. Lo scontro con Anthropic è una delle tante battaglie legali in corso tra gli sviluppatori di IA e una miriade di editori creativi, artisti e aziende che li accusano di un certo grado di violazione del copyright durante la costruzione di modelli di IA. Un altro esempio degno di nota di tali controversie è la recente causa intentata dal New York Times contro OpenAI, in cui l'organizzazione giornalistica accusa il modello di intelligenza artificiale di rappresentare una minaccia per la sua integrità giornalistica plagiando i suoi contenuti e rendendoli liberamente accessibili agli utenti finali.
Published At
1/18/2024 3:36:58 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.