Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

Anthropic überarbeitet Nutzungsbedingungen: Versichert Kundendatenschutz und rechtliche Unterstützung gegen Urheberrechtsansprüche

Algoine News
Summary:
Anthropic, ein KI-Startup, das von ehemaligen OpenAI-Wissenschaftlern geleitet wird, hat seine kommerziellen Nutzungsbedingungen aktualisiert, um Kunden zu versichern, dass ihre Daten nicht für das Training großer Sprachmodelle verwendet werden. Ab Januar 2024 werden alle Ergebnisse der KI-Modelle im Besitz der gewerblichen Kunden sein. Die Kanzlei hat auch versprochen, Mandanten zu unterstützen, die aufgrund von Urheberrechtsvorwürfen im Zusammenhang mit der Nutzung ihrer Dienstleistungen oder Produkte mit rechtlichen Problemen konfrontiert sind. Das Unternehmen beabsichtigt, alle genehmigten Vergleiche oder Urteile abzudecken, die sich aus Urheberrechtsverletzungen durch seine KI ergeben.
Anthropic, ein KI-Unternehmen, das sich auf generative Technologien spezialisiert hat, hat versichert, dass Kundeninformationen während umfangreicher Sprachmodelltrainings nicht genutzt werden, wie aus den Überarbeitungen der Nutzungsbedingungen für Claude, sein Entwicklertool, hervorgeht. Das Unternehmen verpflichtet sich auch, den Nutzern bei Urheberrechtskonflikten zu helfen. Die Organisation, die von ehemaligen OpenAI-Wissenschaftlern geleitet wird, änderte ihre kommerziellen Nutzungsbedingungen, um ihre Position besser zu verdeutlichen. Ab Januar 2024 sehen die Reformen vor, dass alle von den KI-Modellen von Anthropic generierten Ergebnisse den gewerblichen Kunden des Unternehmens gehören. Der Entwickler von Claude "sieht im Rahmen dieser Bedingungen keinen Erwerb von Rechten an Kundeninhalten vor". In der zweiten Hälfte des Jahres 2023 versprachen OpenAI, Microsoft und Google, Kunden bei rechtlichen Problemen zu unterstützen, die sich aus Urheberrechtsvorwürfen im Zusammenhang mit der Nutzung ihrer Technologien ergeben. Eine ähnliche Verpflichtung wurde von Anthropic in seinen überarbeiteten Geschäftsbedingungen für kommerzielle Dienstleistungen eingegangen, um Kunden vor Vorwürfen der Urheberrechtsverletzung zu schützen, die sich aus ihrer sanktionierten Nutzung der Dienstleistungen oder Produkte des Unternehmens ergeben. Anthropic erklärt, dass die Benutzer "jetzt mehr Schutz und Ruhe genießen werden, wenn sie mit Claude bauen, zusammen mit einer benutzerfreundlichen API". Darüber hinaus wird Anthropic genehmigte Vergleiche oder Urteile abdecken, die sich aus Urheberrechtsverletzungen durch seine KI ergeben, als Teil seines rechtlichen Verteidigungsversprechens. Dies gilt sowohl für Kunden der Claude-API als auch für diejenigen, die Claude über Bedrock, das generative KI-Toolset von Amazon, verwenden. Es ist erwähnenswert, dass die Bedingungen klarstellen, dass Anthropic nicht beabsichtigt, sich Rechte an Kundeninhalten zu sichern, und dass keine der Parteien die Rechte an geistigem Eigentum oder Inhalten der anderen Partei hat, weder stillschweigend noch anderweitig. Die Effizienz hochentwickelter KI-Technologien wie Claude, GPT-4 und LlaMa von Anthropic, die als große Sprachmodelle (LLMs) bekannt sind, hängt davon ab, dass sie auf der Grundlage umfangreicher Textdaten unterrichtet werden. LLMs lernen aus einer Vielzahl von Sprachstrukturen, Methoden und neuen Daten, was ihre Präzision und kontextuelle Wahrnehmung verbessert. Im Oktober reichte die Universal Music Group eine Klage gegen Anthropic AI wegen angeblicher Urheberrechtsverletzungen an "zahlreichen urheberrechtlich geschützten Werken - einschließlich mehrerer musikalischer Kompositionstexte" ein, die sich im Besitz von Verlagen befinden oder von diesen beaufsichtigt werden. Anthropic ist jedoch nicht das einzige Unternehmen, das mit solchen rechtlichen Herausforderungen konfrontiert ist. Julian Sancton, ein Autor, verklagt sowohl OpenAI als auch Microsoft wegen angeblich unbefugter Nutzung seiner Sachbücher für das Training von KI-Modellen, einschließlich ChatGPT.

Published At

1/6/2024 2:18:44 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch