Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI extrahiert wichtige Lehren aus dem 1-Millionen-Dollar-Förderprojekt zur Förderung des demokratischen KI-Verhaltens

Algoine News
Summary:
OpenAI hat fünf wichtige Erkenntnisse aus seinem Förderprogramm in Höhe von 1 Million US-Dollar gewonnen, das darauf abzielt, einen demokratischen Prozess für KI-Verhalten auf der Grundlage öffentlicher Beiträge zu etablieren. Zu den Lektionen gehören die Notwendigkeit häufiger Eingabeprozesse, um sich ändernden Ansichten Rechnung zu tragen, sicherzustellen, dass ein kollektiver Prozess Kernwerte erfasst, die Überwindung der digitalen Kluft, der Umgang mit stark divergierenden Ansichten innerhalb von Gruppen und die Balance zwischen Konsens und der Vertretung unterschiedlicher Meinungen. OpenAI nimmt die Befürchtungen und Hoffnungen der Öffentlichkeit auf den zukünftigen Einsatz von KI in der Politik zur Kenntnis und versucht, das gesammelte Feedback umzusetzen und ein neues Team aufzubauen, das sich der Einbeziehung der öffentlichen Meinung in das Verhalten ihrer KI-Modelle widmet.
OpenAI hat fünf wichtige Erkenntnisse aus seiner Förderinitiative in Höhe von 1 Million US-Dollar identifiziert, bei der die Öffentlichkeit um Beiträge zur Gestaltung von KI-Verhalten gebeten wurde, das mit menschlichen Werten übereinstimmt. Das Unternehmen kündigte bereits im Mai 2023 seinen Plan an, insgesamt 1 Million US-Dollar, aufgeteilt in zehn Zuschüsse zu je 100.000 US-Dollar, für Projekte bereitzustellen, die darauf abzielen, eine demokratische und vorläufige Methode zur Festlegung von Richtlinien für KI-Systeme zu entwickeln. In einem Blogbeitrag vom 16. Januar beschrieb das KI-Unternehmen, wie Innovationen im Bereich der demokratischen Technologie von den Empfängern der Zuschüsse erleichtert wurden, was sie aus dem Programm gelernt hatten und wie sie die neu entwickelte demokratische Technologie integrieren wollen. In dem Beitrag wurde darauf hingewiesen, dass die verschiedenen Teams die Stimmungen der Nutzer auf unterschiedliche Weise erfassten, und stellte fest, dass die öffentliche Meinung zu häufigen Änderungen neigt, die bestimmen können, wie oft diese Erfassungsprozesse durchgeführt werden müssen. Eine entscheidende Erkenntnis war, dass der kollektive Prozess die Grundwerte erfassen und sensibel für signifikante Perspektivenwechsel im Laufe der Zeit sein muss. Die Teams stellten fest, dass die Überwindung der digitalen Kluft nach wie vor eine große Hürde darstellt, die zu verzerrten Ergebnissen führen kann. Die Gewinnung von Teilnehmern, die die digitale Kluft überbrücken, war aufgrund der Einschränkungen der Plattform und der Komplikationen im Zusammenhang mit dem Verständnis lokaler Sprachen oder Kontexte eine Aufgabe. Interessanterweise wurde beobachtet, dass ein Konsens innerhalb von Gruppen mit starken Divergenzen schwer zu erreichen war, insbesondere wenn eine kleine Minderheit festgefahrene Ansichten zu einem bestimmten Thema vertrat. Eine Enthüllung des Collective Dialogues-Teams war, dass eine Minderheit darauf bestand, KI-Assistenten nicht daran zu hindern, auf bestimmte Anfragen pro Sitzung zu antworten, was zu Reibungen mit den Ergebnissen der Mehrheitsabstimmung führte. Laut OpenAI ist es eine gewaltige Aufgabe, ein Gleichgewicht zwischen einheitlicher Übereinstimmung und der Einbeziehung unterschiedlicher Standpunkte zu finden, wenn das beabsichtigte Ergebnis singulär ist. Eines der Teams, Inclusive.AI, untersuchte Wahlmechanismen und stellte fest, dass Methoden, die eine starke emotionale Stärke vermitteln und eine gleichberechtigte Teilhabe ermöglichen, als demokratischer und gerechter wahrgenommen wurden. In Bezug auf die Besorgnis über die Rolle von KI in der zukünftigen Governance wurde in dem Blogbeitrag erwähnt, dass einige Teilnehmer Bedenken hinsichtlich des Einsatzes von KI bei der Ausarbeitung von Richtlinien äußerten und gleichzeitig Transparenz forderten. Trotzdem war nach den Diskussionen ein erhöhter Optimismus in der Öffentlichkeit zu beobachten, was ihre Fähigkeit angeht, KI zu steuern. OpenAI plant, die Vorschläge der Öffentlichkeit zu nutzen und richtet ein neues Collective Alignment-Team ein, das sich aus Forschungs- und Ingenieurspersonal zusammensetzt. Sie haben die Aufgabe, ein System zu konstruieren, um öffentliche Meinungen über das Verhalten ihrer Modelle zu sammeln und in die Angebote von OpenAI zu integrieren. In anderen Nachrichten berichtet die Publikation über betrügerische KI-"Entführungen", einen 20.000-Dollar-Roboterkoch und Ackmans KI-Plagiatsstreitigkeiten in AI Eye.

Published At

1/17/2024 3:17:40 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch