Anthropic révise ses conditions d’utilisation : s’engage à protéger les données de ses clients et à lui apporter un soutien juridique contre les réclamations en matière de droits d’auteur
Summary:
Anthropic, une start-up d’IA dirigée par d’anciens scientifiques d’OpenAI, a mis à jour ses conditions d’utilisation commerciales pour assurer à ses clients que leurs données ne seront pas utilisées pour l’entraînement de modèles de langage volumineux. À partir de janvier 2024, tous les résultats de ses modèles d’IA appartiendront aux clients commerciaux. Le cabinet a également promis de soutenir les clients confrontés à des problèmes juridiques en raison d’allégations de droits d’auteur liées à l’utilisation de ses services ou produits. La société a l’intention de couvrir tous les règlements ou jugements approuvés résultant de violations du droit d’auteur par son IA.
Anthropic, une société d’IA spécialisée dans la technologie générative, a assuré que les informations des clients ne seront pas exploitées lors d’une formation importante de modèles de langage, conformément aux révisions des conditions d’utilisation de Claude, son outil de développement. La société s’engage également à aider les utilisateurs dans les conflits de droits d’auteur. L’organisation, qui est gérée par d’anciens scientifiques d’OpenAI, a modifié ses conditions de service commercial pour mieux illustrer sa position. À partir de janvier 2024, les réformes indiquent que tous les résultats générés par les modèles d’IA d’Anthropic sont détenus par les clients commerciaux de l’entreprise. Le développeur de Claude « ne prévoit aucune acquisition de droits sur le contenu du client dans le cadre des présentes conditions ».
Au cours du second semestre 2023, OpenAI, Microsoft et Google se sont engagés à aider la clientèle confrontée à des problèmes juridiques découlant d’allégations de droits d’auteur liées à l’utilisation de leurs technologies. Un engagement similaire a été pris par Anthropic dans ses conditions révisées de service commercial pour protéger les clients contre les accusations de violation du droit d’auteur provenant de leur utilisation sanctionnée des services ou des produits de l’entreprise. Anthropic déclare que les utilisateurs « bénéficieront désormais d’une protection et d’une tranquillité accrues lors de la construction avec Claude, ainsi que d’une API plus facile à utiliser ».
De plus, Anthropic couvrira les règlements ou jugements approuvés résultant de violations du droit d’auteur par son IA, dans le cadre de son engagement de défense juridique. Cela s’applique aux clients de l’API Claude et à ceux qui utilisent Claude via Bedrock, l’ensemble d’outils d’IA générative d’Amazon.
Il convient de noter que les conditions indiquent clairement qu’Anthropic n’a pas l’intention d’obtenir des droits sur le contenu des clients et qu’aucune des parties n’a les droits sur la propriété intellectuelle ou le contenu de l’autre, implicitement ou autrement.
L’efficacité des technologies d’IA très avancées, telles que Claude, GPT-4 et LlaMa d’Anthropic, connues sous le nom de grands modèles de langage (LLM), dépend de l’apprentissage de données textuelles étendues. Les LLM apprennent à partir d’une variété de structures linguistiques, de méthodes et de données récentes, ce qui améliore leur précision et leur perception contextuelle.
En octobre, Universal Music Group a intenté une action en justice contre Anthropic AI pour violation présumée du droit d’auteur sur « de nombreuses œuvres protégées par le droit d’auteur – y compris de multiples paroles de composition musicale » détenues ou supervisées par des éditeurs.
Cependant, Anthropic n’est pas la seule entreprise à faire face à de tels défis juridiques. Julian Sancton, un auteur, poursuit OpenAI et Microsoft pour utilisation prétendument non autorisée de ses travaux de non-fiction pour l’entraînement de modèles d’IA, y compris ChatGPT.
Published At
1/6/2024 2:18:44 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.