Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI tire les leçons clés d’un projet de subvention de 1 million de dollars visant à promouvoir le comportement démocratique de l’IA

Algoine News
Summary:
OpenAI a tiré cinq enseignements clés de son programme de subventions de 1 million de dollars visant à établir un processus démocratique pour le comportement de l’IA, basé sur les commentaires du public. Les leçons apprises comprennent la nécessité d’avoir des processus de saisie fréquents pour s’adapter à l’évolution des points de vue, de s’assurer qu’un processus collectif capture les valeurs fondamentales, de s’attaquer à la fracture numérique, de gérer les points de vue divergents au sein des groupes et d’équilibrer le consensus tout en représentant des opinions divergentes. Constatant les appréhensions et les espoirs du public quant à l’utilisation future de l’IA dans les politiques, OpenAI cherche à mettre en œuvre les commentaires recueillis et met en place une nouvelle équipe, dédiée à l’intégration de l’opinion publique dans le comportement de ses modèles d’IA.
OpenAI a identifié cinq points clés à retenir de son initiative de subvention de 1 million de dollars qui visait à obtenir l’avis du public sur la façon de façonner un comportement de l’IA qui s’aligne sur les valeurs humaines. La société a annoncé en mai 2023 son plan de distribution d’un total de 1 million de dollars, répartis en dix subventions de 100 000 dollars chacune, pour des projets visant à développer une méthode démocratique et préliminaire pour décider des lignes directrices des systèmes d’IA. Dans un article de blog daté du 16 janvier, la société d’IA a détaillé comment l’innovation dans la technologie démocratique avait été facilitée par les bénéficiaires de subventions, ce que le programme leur avait appris et comment ils prévoyaient d’intégrer la technologie démocratique nouvellement développée. L’article a noté que les différentes équipes ont récolté les sentiments des utilisateurs de diverses manières, déclarant que l’opinion publique était sujette à des changements fréquents, ce qui peut dicter la fréquence à laquelle ces processus de collecte doivent avoir lieu. L’une des principales compréhensions était que le processus collectif doit tenir compte des valeurs fondamentales et être sensible à tout changement important de perspective au fil du temps. Les équipes ont constaté que la réduction de la fracture numérique reste un obstacle important, ce qui peut entraîner des résultats biaisés. Recruter des participants qui franchissent la fracture numérique a été une tâche difficile en raison des contraintes de la plateforme et des complications liées à la compréhension des langues ou des contextes locaux. Il est intéressant de noter qu’il a été observé qu’il était difficile d’obtenir un consensus au sein des groupes présentant de fortes divergences, en particulier lorsqu’une petite minorité avait des opinions bien arrêtées sur un sujet spécifique. Une révélation de l’équipe de Dialogues collectifs a été une minorité catégorique sur le fait de ne pas limiter les assistants d’IA à répondre à certaines questions par session, ce qui a provoqué des frictions avec les résultats du vote majoritaire. Selon OpenAI, trouver un équilibre entre un accord uniforme et l’inclusion de points de vue divers est une tâche ardue lorsque le résultat escompté est unique. L’une des équipes, Inclusive.AI, a examiné les mécanismes de vote et a constaté que les méthodes véhiculant une forte force émotionnelle et permettant une participation égale étaient perçues comme plus démocratiques et équitables. En ce qui concerne les préoccupations concernant le rôle de l’IA dans la gouvernance future, le billet de blog mentionne que certains participants ont exprimé des appréhensions quant à l’utilisation de l’IA dans la rédaction des politiques tout en appelant à la transparence. Malgré cela, à l’issue des discussions, un optimisme accru a été observé parmi le public quant à leur capacité à guider l’IA. OpenAI prévoit d’utiliser les suggestions du public et met en place une nouvelle équipe d’alignement collectif composée de personnel de recherche et d’ingénierie. Ils sont chargés de construire un système de collecte et d’intégration des opinions publiques sur le comportement de leurs modèles dans les offres d’OpenAI. Dans d’autres nouvelles, la publication fait état de « kidnappings » frauduleux d’IA, d’un chef robot de 20 000 $ et des litiges de plagiat d’IA d’Ackman dans AI Eye.

Published At

1/17/2024 3:17:40 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch