Google dirige l’échange de droits d’auteur AI au milieu de l’augmentation des poursuites judiciaires et appelle à une réglementation plus claire
Summary:
Confronté à de nombreux procès concernant les droits d’auteur et les droits à la vie privée dans le domaine de l’intelligence artificielle (IA), Google défend ses méthodes d’entraînement à l’IA et fournit des mesures de protection aux utilisateurs de produits d’IA contre les violations du droit d’auteur. Cependant, cette protection est sélective, ce qui soulève des questions sur la responsabilité, les droits créatifs et le domaine croissant de l’IA. Au milieu des disputes et des batailles juridiques, le géant de la technologie et d’autres entreprises comme Microsoft et Adobe renforcent continuellement leurs politiques pour protéger les utilisateurs et l’intégrité de l’IA. Les artistes réclament également de plus en plus de lois et de réglementations plus claires régissant le contenu généré par l’IA. Le futur paysage juridique façonnera indéniablement non seulement les principes juridiques, mais aussi les principes éthiques qui guideront les vastes applications de l’IA.
À la lumière des questions juridiques croissantes concernant les droits d’auteur et les droits à la vie privée en relation avec l’intelligence artificielle (IA), Google se retrouve aux prises avec de nombreuses poursuites judiciaires. Malgré cela, Google continue de s’en tenir à ses méthodes d’entraînement de l’IA et assume la responsabilité de protéger les utilisateurs de produits d’IA contre les allégations de violation du droit d’auteur. Cependant, les mesures de protection de Google ne s’étendent qu’à sept de ses produits d’IA, à l’exception de son outil de recherche Bard. Nombreux sont ceux qui considèrent cette protection sélective comme une invitation à débattre de la sauvegarde de la créativité, de la responsabilité et du domaine en plein essor de l’IA. La position de Google est considérée comme plus qu’une simple réponse à la pression croissante, mais comme une décision stratégique conçue pour protéger l’environnement en pleine expansion de l’IA.
La croissance de l’IA générative a relancé les débats sur le droit d’auteur en se demandant si les données d’entraînement des modèles d’IA et les résultats qui en résultent enfreignent la propriété intellectuelle (PI) exclusive d’entités privées. Si de telles allégations contre Google s’avèrent vraies, cela pourrait coûter cher à l’entreprise et entraver la croissance de l’IA générative. Pour rassurer ses utilisateurs, la politique légale de Google vise à protéger les données d’entraînement et les contenus générés. En vertu de cette politique, Google assume la responsabilité de toute violation de la propriété intellectuelle liée aux données utilisées dans la création de ses modèles d’IA. Il vise également à protéger les utilisateurs contre les allégations selon lesquelles le contenu créé par ses services d’IA viole les droits à la vie privée d’autrui.
Google affirme que les données publiques utilisées pour l’entraînement de l’IA ne sont pas équivalentes à un vol, à une violation de la vie privée ou à une violation du droit d’auteur. Cependant, cette affirmation fait l’objet de critiques importantes, car Google est accusé d’utiliser à mauvais escient des données personnelles et protégées par le droit d’auteur pour ses modèles d’IA. Un recours collectif suggère même que Google a fondé ses capacités d’IA sur des données volées à des millions d’internautes.
Compte tenu de cela, le litige juridique s’étend au-delà de Google ; il soulève des questions plus larges, telles que la véritable propriété des données Internet et la mesure dans laquelle ces données peuvent entraîner des modèles d’IA qui génèrent des résultats commercialement rentables.
L’artiste Amitra Sethi, spécialiste des jetons non fongibles (NFT), considère la récente annonce de Google comme une étape importante et positive. Elle affirme que l’extension de la protection juridique aux utilisateurs contre les accusations potentielles de droits d’auteur provenant du contenu généré par l’IA montre une meilleure compréhension des défis possibles de l’IA dans le secteur de la création.
Sethi insiste sur le fait qu’il est essentiel de comprendre tous les aspects de cette politique. La police peut ne pas couvrir tous les scénarios, et la protection qu’elle offre peut varier en fonction de chaque cas. Par exemple, dans les cas de plagiat flagrant via l’IA, la situation juridique se complique, incitant les artistes à prendre des mesures proactives pour protéger leur travail créatif.
Sethi souligne cela en partageant l’enregistrement des droits d’auteur de son genre artistique unique, « SoundBYTE », affirmant la nécessité pour les artistes de sécuriser activement leurs œuvres pour faciliter l’affirmation des droits en cas de contestation.
À la lumière de ces développements, la communauté mondiale des artistes se mobilise pour plaider en faveur de lois et de réglementations plus claires pour le contenu généré par l’IA. Comme en témoignent les outils récents comme Glaze et Nightshade, les efforts pour protéger les créations des artistes sont en augmentation. Glaze effectue des ajustements mineurs des illustrations qui alimentent les générateurs d’art de l’IA en mauvaises données, tandis que Nightshade permet aux artistes d’empoisonner les données de pixels pour les scrapers d’IA.
Cette conversation en cours ne se limite pas à Google. Des géants de la technologie comme Microsoft et Adobe ont pris des mesures pour protéger leurs clients contre des accusations similaires de droits d’auteur. Microsoft défend les utilisateurs de son outil d’IA générative, Copilot, en déclarant sa légalité, et Adobe applique des directives dans ses outils d’IA, en veillant à ce que les utilisateurs ne violent pas involontairement les lois sur le droit d’auteur ; il propose également des services d’IA dotés de boucliers juridiques contre les empiètements extérieurs.
Les procès inévitables qui découleront de l’IA façonneront inévitablement non seulement les cadres juridiques, mais aussi les principes éthiques guidant les futurs systèmes d’IA. Tomi Fyrqvist, directeur financier de l’application sociale décentralisée Phaver, s’attend à une augmentation des poursuites de cette nature dans les années à venir. Bien que certains puissent être opportunistes, d’autres, dit-il, seront valables.
Published At
10/26/2023 1:01:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.