Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Anthropic innove dans les modèles d’IA influencés par l’utilisateur : un pas vers la démocratisation de l’intelligence artificielle

Algoine News
Summary:
Anthropic, une société d’IA, a développé une étude impliquant un grand modèle de langage (LLM) qui s’adapte aux jugements de valeur des utilisateurs. L’expérience, la première du genre, a impliqué environ 1000 citoyens américains qui ont contribué à la formulation d’une constitution de l’IA. Le processus a mis en évidence certains défis, mais a finalement permis d’obtenir une amélioration marginale en termes de résultats biaisés. Anthropic pense qu’il pourrait s’agir de l’un des premiers cas où un groupe public influence le comportement d’un LLM et espère que cette technique pourra être utilisée pour créer des modèles culturellement spécifiques à l’avenir.
La société d’intelligence artificielle, Anthropic, est pionnière d’une expérience sans précédent dans le développement d’un modèle de langage de taille (LLM) adapté aux jugements de valeur des utilisateurs. Dans sa quête de démocratisation du développement de l’IA, il a collaboré avec @collect_intel et a utilisé @usepolis pour établir une constitution de l’IA fondée sur les opinions d’environ 1000 citoyens américains. Par la suite, le modèle établi a été mis à l’épreuve par l’intermédiaire de l’IA constitutionnelle. Des garde-fous ou des règles de fonctionnement prédéfinies utilisées dans la conception de nombreux LLM destinés aux consommateurs, y compris Claude d’Anthropic et ChatGPT d’OpenAI, pour limiter les résultats indésirables. Néanmoins, les critiques soutiennent que ces garde-fous adoptés empiètent sur l’autonomie de l’utilisateur. Ils soutiennent que ce qui est jugé tolérable n’est pas nécessairement bénéfique et vice versa. De plus, les différences culturelles, temporelles et démographiques compliquent encore les jugements moraux et de valeur. Une façon de résoudre ce problème complexe pourrait être de permettre aux utilisateurs de définir eux-mêmes l’alignement des valeurs pour les modèles d’IA. Anthropic a tenté de s’attaquer à ce problème complexe avec l’expérience d’IA constitutionnelle collective, en posant des questions à 1000 utilisateurs de divers contextes démographiques via des sondages. L’objectif consiste à trouver l’équilibre entre permettre la discrétion éditoriale et empêcher la production de contenu inapproprié. Le processus impliquait la mise en œuvre des commentaires des utilisateurs sur un modèle déjà formé. Anthropic utilise l’IA constitutionnelle pour affiner les LLM sur mesure en matière de sécurité et d’utilité. Cela revient à instruire le modèle avec un ensemble de règles de gouvernance, un peu comme une constitution, qu’il doit ensuite respecter strictement. Dans l’expérience de l’IA constitutionnelle collective, la tentative a été faite d’amalgamer la rétroaction collective dans la constitution du modèle. Selon un article de blog d’Anthropic, l’expérience révolutionnaire semble avoir atteint ses objectifs scientifiques malgré les obstacles révélateurs pour atteindre son objectif ultime - permettre aux utilisateurs de LLM de déterminer leurs valeurs collectives. Parmi les obstacles, il y avait l’invention d’une méthode d’analyse comparative innovante, car il n’existe pas de test établi pour les modèles réglés par le biais d’un exercice de crowdsourcing en raison de la nouveauté de cette expérience. En conclusion, le modèle intégrant les données des sondages auprès des utilisateurs a obtenu des résultats légèrement meilleurs dans le secteur des résultats biaisés. Anthropic se réjouit d’explorer davantage la procédure et espère que les futures communautés mondiales pourront tirer parti de ces méthodologies pour créer des modèles qui répondent spécifiquement à leurs besoins individuels.

Published At

10/18/2023 5:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch