Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Anthropic innoviert nutzerbeeinflusste KI-Modelle: Ein Schritt in Richtung demokratisierter künstlicher Intelligenz

Algoine News
Summary:
Anthropic, ein KI-Unternehmen, hat eine Studie mit einem großen Sprachmodell (LLM) entwickelt, das sich an die Werturteile der Nutzer anpasst. An dem Experiment, dem ersten seiner Art, nahmen rund 1000 US-Bürger teil, die an der Formulierung einer KI-Verfassung mitwirkten. Der Prozess hob einige Herausforderungen hervor, führte aber letztendlich zu einer marginalen Verbesserung in Bezug auf verzerrte Ergebnisse. Anthropic glaubt, dass dies einer der ersten Fälle sein könnte, in denen eine öffentliche Gruppe das Verhalten eines LLM beeinflusst, und hofft, dass diese Technik genutzt werden kann, um in Zukunft kulturspezifische Modelle zu erstellen.
Das Unternehmen für künstliche Intelligenz, Anthropic, leistet Pionierarbeit bei der Entwicklung eines umfangreichen Sprachmodells (LLM), das auf die Werturteile der Nutzer zugeschnitten ist. In ihrem Bestreben, die KI-Entwicklung zu demokratisieren, arbeitete sie mit @collect_intel zusammen und nutzte @usepolis, um eine KI-Verfassung zu erstellen, die auf den Ansichten von etwa 1000 US-Bürgern basiert. Anschließend wurde das etablierte Modell mittels Constitutional AI auf Herz und Nieren geprüft. Leitplanken oder vordefinierte Funktionsregeln, die bei der Entwicklung vieler verbraucherorientierter LLMs eingesetzt werden, darunter Claude von Anthropic und ChatGPT von OpenAI, um unerwünschte Ergebnisse einzudämmen. Kritiker argumentieren jedoch, dass diese angenommenen Leitplanken die Autonomie der Nutzer beeinträchtigen. Sie argumentieren, dass das, was als tolerierbar angesehen wird, nicht unbedingt von Vorteil sein muss und umgekehrt. Darüber hinaus erschweren kulturelle, zeitliche und bevölkerungsbezogene Unterschiede moralische und Werturteile zusätzlich. Eine Möglichkeit, dieses komplizierte Problem zu bewältigen, könnte darin bestehen, den Benutzern die Möglichkeit zu geben, die Wertausrichtung für KI-Modelle selbst zu definieren. Anthropic versuchte, dieses komplexe Problem mit dem Collective Constitutional AI-Experiment anzugehen, indem es 1000 Nutzern mit unterschiedlichem demografischem Hintergrund in Umfragen eine Reihe von Fragen stellte. Ziel ist es, die Balance zwischen dem Zulassen von redaktionellem Ermessensspielraum und der Verhinderung unangemessener Inhaltsausgabe zu finden. Der Prozess umfasste die Implementierung von Benutzerfeedback zu einem Modell, das bereits trainiert wurde. Anthropic nutzt Constitutional AI für die Feinabstimmung von LLMs, die auf Sicherheit und Nutzen zugeschnitten sind. Das ist so, als würde man das Modell mit einem Regelwerk belehren, ähnlich wie bei einer Verfassung, an die es sich dann strikt halten muss. Im Experiment Collective Constitutional AI wurde der Versuch unternommen, kollektives Feedback in die Konstitution des Modells einzubauen. Laut einem Blogbeitrag von Anthropic scheint das bahnbrechende Experiment seine wissenschaftlichen Ziele erreicht zu haben, obwohl es Hürden auf dem Weg zu seinem ultimativen Ziel offenbart hat - LLM-Nutzer in die Lage zu versetzen, ihre kollektiven Werte zu bestimmen. Zu den Hürden gehörte die Erfindung einer innovativen Benchmarking-Methode, da es aufgrund der Neuartigkeit dieses Experiments keinen etablierten Test für Modelle gibt, die durch eine Crowdsourcing-Übung abgestimmt wurden. Zusammenfassend lässt sich sagen, dass das Modell, das die Daten der Nutzerbefragung berücksichtigte, im Sektor der verzerrten Ergebnisse geringfügig besser abschnitt. Anthropic freut sich darauf, das Verfahren weiter zu erforschen und ist zuversichtlich, dass zukünftige globale Gemeinschaften diese Methoden nutzen können, um Modelle zu entwickeln, die speziell auf ihre individuellen Bedürfnisse zugeschnitten sind.

Published At

10/18/2023 5:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch