Google orienta troca de direitos autorais de IA em meio a crescentes processos judiciais e pede regulamentação mais clara
Summary:
Enfrentando inúmeros processos sobre direitos autorais e direitos de privacidade em inteligência artificial (IA), o Google defende seus métodos de treinamento de IA e fornece medidas de proteção para usuários de produtos de IA contra violações de direitos autorais. No entanto, essa proteção é seletiva, levantando questões sobre responsabilidade, direitos criativos e o crescente campo da IA. Em meio a discussões e batalhas legais, a gigante da tecnologia e outras empresas como Microsoft e Adobe estão continuamente fortalecendo suas políticas para proteger os usuários e a integridade da IA. Também há pedidos crescentes de artistas por leis e regulamentos mais claros que regem o conteúdo gerado por IA. O cenário jurídico futuro inegavelmente moldará não apenas os princípios legais, mas também os princípios éticos que orientam as amplas aplicações da IA.
À luz das crescentes consultas legais sobre direitos autorais e direitos de privacidade em relação à inteligência artificial (IA), o Google se vê às voltas com inúmeros processos judiciais. Apesar disso, o Google continua a manter seus métodos de treinamento de IA e assume a responsabilidade de proteger os usuários de produtos de IA de alegações de violação de direitos autorais. No entanto, as medidas de proteção do Google se estendem apenas a sete de seus produtos de IA, excluindo sua ferramenta de busca Bard. Muitos veem essa proteção seletiva como um convite para debater a salvaguarda da criatividade, a responsabilidade e o crescente campo da IA. A postura do Google é vista como mais do que apenas uma resposta à crescente pressão, mas como um movimento estratégico projetado para proteger o ambiente de IA em expansão.
O crescimento da IA generativa reacendeu os debates sobre direitos autorais ao perguntar se os dados de treinamento para modelos de IA e os resultados resultantes infringem a propriedade intelectual (PI) proprietária de entidades privadas. Se tais alegações contra o Google se provarem verdadeiras, isso pode custar significativamente à empresa e impedir o crescimento da IA generativa. Para tranquilizar seus usuários, a política legal do Google visa proteger os dados de treinamento e o conteúdo gerado. Sob esta política, o Google assume a responsabilidade por quaisquer violações de IP vinculadas aos dados usados na criação de seus modelos de IA. Também visa proteger os usuários contra alegações de que o conteúdo criado por seus serviços de IA viola os direitos de privacidade de outras pessoas.
O Google afirma que os dados públicos usados para treinamento de IA não são equivalentes a roubo, violação de privacidade ou violação de direitos autorais. No entanto, essa alegação enfrenta críticas significativas, já que o Google é acusado de usar indevidamente dados pessoais e protegidos por direitos autorais para seus modelos de IA. Uma ação coletiva chega a sugerir que o Google baseou seus recursos de IA em dados roubados de milhões de usuários da web.
Considerando isso, a disputa legal vai além do Google; ele invoca questões mais amplas, como quem realmente possui dados da internet e até que ponto esses dados podem treinar modelos de IA que geram resultados comercialmente lucrativos.
A artista de tokens não fungíveis (NFT) Amitra Sethi vê o recente anúncio do Google como um passo significativo e positivo. Ela afirma que a extensão da proteção legal aos usuários contra possíveis acusações de direitos autorais de conteúdo gerado por IA mostra uma maior compreensão dos possíveis desafios de IA no setor criativo.
Sethi ressalta que entender todos os aspectos dessa política é essencial. A apólice pode não cobrir todos os cenários, e a proteção que ela oferece pode variar dependendo de cada caso. Por exemplo, em casos de plágio flagrante via IA, a situação legal fica mais complicada, instando os artistas a tomar medidas proativas para proteger seu trabalho criativo.
Sethi destaca isso ao compartilhar o registro de direitos autorais de seu gênero artístico único, "SoundBYTE", afirmando a necessidade de os artistas protegerem ativamente suas obras para uma afirmação de direitos mais fácil se contestada.
A comunidade global de artistas, à luz desses desenvolvimentos, está se reunindo para defender leis e regulamentos mais claros para conteúdo gerado por IA. Evidente por ferramentas recentes como Glaze e Nightshade, os esforços para proteger as criações dos artistas estão em alta. O Glaze faz pequenos ajustes de arte que alimentam dados ruins para geradores de arte de IA, enquanto o Nightshade permite que os artistas "envenenem" os dados de pixel para raspadores de IA.
Essa conversa contínua não se limita ao Google. Gigantes da tecnologia como Microsoft e Adobe tomaram medidas para proteger seus clientes contra acusações semelhantes de direitos autorais. A Microsoft defende os usuários de sua ferramenta de IA generativa, Copilot, afirmando sua legalidade, e a Adobe aplica diretrizes dentro de suas ferramentas de IA, garantindo que os usuários não violem involuntariamente as leis de direitos autorais; também oferece serviços de IA repletos de escudos legais contra invasões externas.
Casos judiciais inevitáveis que surgirão da IA inevitavelmente moldarão não apenas as estruturas legais, mas também os princípios éticos que orientam os futuros sistemas de IA. Tomi Fyrqvist, CFO do aplicativo social descentralizado Phaver, espera um aumento de ações judiciais dessa natureza nos próximos anos. Embora alguns possam ser oportunistas, outros, diz ele, serão válidos.
Published At
10/26/2023 1:01:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.