Live Chat

Crypto News

Cryptocurrency News 1 months ago
ENTRESRUARPTDEFRZHHIIT

Remaniement chez OpenAI : des chercheurs clés démissionnent en raison de points de vue différents sur les priorités de sécurité de l’IA

Algoine News
Summary:
Des chercheurs clés de l’équipe d’OpenAI qui se concentrent sur les risques potentiels de l’IA ont démissionné ou ont été réaffectés en raison de désaccords sur les priorités de l’organisation. Cela fait suite au départ d’Ilya Sutskever, scientifique en chef d’OpenAI, et de Jan Leike, co-responsable de l’équipe de super alignement. Leike a souligné le besoin urgent de ressources pour la recherche sur la sécurité, critiquant OpenAI pour avoir donné la priorité au développement de produits plutôt qu’à la sécurité de l’IA. La récente décision de dissoudre l’équipe « Superalignment » est intervenue dans le cadre de la restructuration interne en cours de l’entreprise. Sutskever avait précédemment indiqué que les décisions du conseil visaient à assurer l’adhésion d’OpenAI au développement de l’AGI pour le bien de l’humanité.
Dans les nouvelles récentes, OpenAI a vu un changement complet dans son équipe qui enquêtait avec véhémence sur les dangers potentiels de l’intelligence artificielle, tous les membres quittant leur poste ou étant réaffectés à diverses factions de recherche. Cela suit de près la décision du scientifique en chef et cofondateur d’OpenAI, Ilya Sutskever, de rendre publique sa décision de quitter l’entreprise. De plus, la haute autorité de l’équipe de super alignement d’OpenAI, Jan Leike, anciennement associée à DeepMind, a démissionné de son poste et a officiellement communiqué sa démission sur la plateforme X. Le départ de Leike a été attribué à sa méfiance à l’égard des objectifs actuels de l’entreprise, qu’il perçoit comme se concentrant sur le raffinement des produits plutôt que sur l’affirmation de l’importance de la sécurité de l’IA. Dans une série de publications, Jan Leike n’était pas d’accord avec les directives d’OpenAI et a exhorté la direction à tenir compte de la sécurité et de la préparation en ce qui concerne la progression de l’AGI ou de l’intelligence artificielle générale, une forme théorique d’intelligence artificielle censée égaler ou même surpasser les capacités humaines dans l’exécution d’un large éventail de tâches. Après avoir consacré trois ans de sa carrière à OpenAI, Leike a exprimé ses inquiétudes concernant le traitement préférentiel de l’organisation pour le développement de produits glamour, mettant de côté le développement crucial d’une culture et de systèmes sains centrés sur la sécurité de l’IA. Il a insisté avec véhémence sur la nécessité de réaffecter des ressources, principalement des prouesses informatiques, pour soutenir les recherches substantielles axées sur la sécurité dirigées par son équipe, une tâche qui a été ostensiblement ignorée. OpenAI a entrepris la formation d’un nouveau groupe de recherche en juillet de l’année précédente, dans le but de se préparer à l’émergence possible d’une intelligence artificielle génialement efficace capable de dépasser et de dominer ses inventeurs humains. À la tête de cette nouvelle faction se trouvait le scientifique en chef et cofondateur d’OpenAI, Ilya Sutskever, soutenu par 20 % des ressources informatiques d’OpenAI. À la lumière de la récente vague de démissions, OpenAI a décidé de démanteler l’équipe de « Superalignement » et d’intégrer ses responsabilités dans d’autres entreprises de recherche relevant de sa compétence. Cette décision est perçue comme consécutive aux changements de restructuration au sein de l’organisation, qui ont eu leur origine dans la résolution de la crise de gestion qui a frappé en novembre 2023. Sutskever a joué un rôle important dans l’éviction momentanée du PDG Altman du conseil d’administration d’OpenAI au cours de cette période, qui a été rapidement réintégré suite à la résistance du corps des employés. Sutskever aurait expliqué au personnel que la détermination du conseil d’administration à démettre Sam Altman de son poste était alignée sur son mandat de s’assurer que le développement de l’IAG d’OpenAI est dans le meilleur intérêt de l’humanité. En tant que personne cruciale parmi les six membres du conseil, Sutskever a fait écho à l’engagement du conseil à renforcer la mission d’OpenAI en harmonie avec l’objectif commun plus large.

Published At

5/18/2024 2:30:32 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch