Ação judicial histórica: New York Times vs OpenAI e Microsoft - Violação de direitos autorais ou uso justo?
Summary:
O New York Times (NYT) está em um grande processo de violação de direitos autorais contra a OpenAI e a Microsoft por usar seu conteúdo de arquivo para treinar modelos de IA sem permissão. O processo pode remodelar a regulamentação da IA e os direitos dos criadores de conteúdo. Especialistas jurídicos acreditam que a OpenAI está buscando uma interpretação mais ampla do "uso justo" para promover avanços de IA, enquanto o NYT argumenta que esse uso não é uso justo. A ação também enfatiza a falta de um marco legal em relação ao uso de dados de treinamento de IA. Os criadores de conteúdo estão atualmente confiando na Lei de Direitos Autorais para proteger seus direitos de propriedade intelectual, uma situação que pode mudar com a introdução da Lei de Transparência do Modelo da AI Foundation. O resultado do processo está sendo aguardado ansiosamente, pois espera-se que influencie futuras discussões sobre regulamentação de IA, inovação tecnológica, direitos de propriedade intelectual e considerações éticas para treinamento de modelos de IA.
O New York Times (NYT) se envolveu em um grande conflito legal contra a OpenAI e a Microsoft, acusando-as de violação de direitos autorais porque usaram os dados de arquivo do jornal para treinar seus modelos de IA sem permissão. Os lados opostos têm trocado opiniões, com a OpenAI descartando as alegações do NYT como infundadas, enquanto o NYT responde que o uso de suas informações pela OpenAI não se qualifica como "uso justo" em nenhuma circunstância. A disputa levou a IA e os campos jurídicos a observar de perto devido ao seu potencial impacto na regulamentação da IA e na preservação dos direitos dos criadores.
Em uma tentativa de aprofundar as complexidades legais da disputa, o Cointelegraph consultou Bryan Sterba, de Lowenstein Sandler, e Matthew Kohel, de Saul Ewing. Sterba sugeriu que a OpenAI está defendendo uma aplicação mais ampla da justificativa de "uso justo", uma postura não amplamente refletida na legislação existente, mas vista como crítica para a evolução da IA generativa. Ele acrescentou que a OpenAI enquadra isso como basicamente uma questão de política pública, uma postura tomada em outras jurisdições para impedir o bloqueio da progressão da IA. Sterba também mencionou como é difícil prever a decisão de um tribunal, mas confirmou que o NYT tem um forte argumento para violação de direitos autorais.
Kohel destacou que as apostas neste processo são notavelmente altas. Ele revelou que o NYT está buscando bilhões em danos, argumentando que a OpenAI está dando seu conteúdo exclusivo, normalmente reservado para assinantes pagos. De acordo com Kohel, uma decisão contra uma alegação de violação permitiria que a OpenAI e outras entidades de IA utilizassem e replicassem livremente o conteúdo lucrativo do NYT, um dos ativos mais significativos do jornal.
Kohel enfatizou que a legislação atual não aborda explicitamente o uso de dados no treinamento de modelos de IA. Consequentemente, os criadores de conteúdo, incluindo os NYTs e autores como Sarah Silverman, estão recorrendo à Lei de Direitos Autorais para garantir seus direitos de propriedade intelectual. No entanto, isso pode mudar, já que os legisladores dos Estados Unidos revelaram a Lei de Transparência do Modelo da Fundação AI em dezembro, que, se aprovada, regulamentará a utilização e a transparência dos dados de treinamento.
Na defensiva, a OpenAI propôs dar aos editores a opção de "opt-out" da coleta de dados, descrevendo-a como a "coisa certa". Sterba comentou que a ideia de opt-out forneceria pouco conforto para o NYT e outros editores, que permanecem alheios quanto de seu conteúdo protegido por direitos autorais OpenAI já compilou.
À medida que o litígio continua, ele destaca uma estrutura legal em rápida mudança em torno da IA; uma questão de preocupação tanto para criadores quanto para desenvolvedores. Kohel sublinhou a necessidade de desenvolvedores e criadores se manterem informados e citou a ordem executiva aprovada pelo presidente Biden em outubro de 2023 como evidência de que os legisladores estão tomando conhecimento do impacto social da IA. Juntamente com os direitos de propriedade intelectual, a segurança nacional é outra área de preocupação. Ele aconselhou os criadores de conteúdo a registrarem seus trabalhos no Escritório de Direitos Autorais, pois usar seu conteúdo para treinar modelos de IA pode exigir que os desenvolvedores paguem taxas de licenciamento. O veredicto pendente desta disputa legal está sendo aguardado com ansiedade e pode influenciar muito as futuras deliberações sobre a regulamentação da IA, o equilíbrio entre o crescimento tecnológico e os direitos de propriedade intelectual e considerações éticas sobre o treinamento de modelos de IA com dados públicos.
Published At
1/15/2024 1:16:34 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.