Les vétérans d’OpenAI et le partenaire de Y Combinator lancent « Safe Superintelligence, Inc. » pour améliorer la sécurité de l’IA
Summary:
Ilya Sutskever, ancien scientifique en chef d’OpenAI, et Daniel Levy, ancien ingénieur d’OpenAI, ont collaboré avec Daniel Gross, ex-partenaire de l’accélérateur de startups Y Combinator, pour lancer Safe Superintelligence, Inc. (SSI). La société basée aux États-Unis vise à améliorer la sécurité et les capacités de l’intelligence artificielle (IA). Outre les inquiétudes concernant la sécurité de l’IA, d’anciens employés d’OpenAI et de grandes personnalités de la technologie, dont le cofondateur d’Ethereum Vitalik Buterin, le PDG de Tesla Elon Musk et le cofondateur d’Apple Steve Wozniak, ont appelé à une pause dans la formation de l’IA pour prendre en compte les risques potentiels.
Ilya Sutskever, l’ancien scientifique en chef et cofondateur d’OpenAI, ainsi que Daniel Levy, l’ancien ingénieur d’OpenAI, se sont associés à Daniel Gross, ancien partenaire de l’accélérateur de startups Y Combinator, pour lancer Safe Superintelligence, Inc. (SSI). L’objectif et le produit de cette nouvelle entreprise se reflètent dans son titre. SSI, présent à Palo Alto et Tel Aviv aux États-Unis, vise à faire avancer l’intelligence artificielle (IA) en développant conjointement des mesures et des capacités de sécurité, comme l’a annoncé le trio fondateur le 19 juin en ligne. Ils ont souligné leur objectif unique d’éviter les distractions causées par les questions de gestion ou les cycles de produits, avec un modèle commercial qui garantit que la sûreté, la sécurité et le progrès sont protégés des influences commerciales à court terme.
Avant de quitter OpenAI le 14 mai, Sutskever, ainsi que Gross, ont partagé leurs préoccupations concernant la sécurité de l’IA. Sutskever a joué un rôle vague dans l’entreprise après avoir quitté son conseil d’administration à la suite de la réintégration du PDG Sam Altman. Daniel Levy faisait partie des chercheurs qui ont quitté OpenAI peu de temps après Sutskever. Sutskever et Jan Leike ont dirigé l’équipe Superalignment d’OpenAI, formée en juillet 2023, pour examiner comment diriger et contrôler des systèmes d’IA plus intelligents que nous, appelés intelligence artificielle générale (AGI). Lors de sa création, OpenAI a attribué 20 % de sa capacité de calcul à cette équipe.
Cependant, Leike a également quitté l’organisation en mai et dirige maintenant une équipe chez Anthropic, une startup d’IA soutenue par Amazon. La société a fait valoir ses précautions de sécurité dans un message détaillé du président de la société, Greg Brockman, mais a dissous l’équipe de Superalignment après le départ de ses chercheurs en mai.
Les anciens enquêteurs d’OpenAI ne sont pas les seuls à exprimer des appréhensions quant à l’avenir de l’IA. Au milieu du remaniement du personnel chez OpenAI, le cofondateur d’Ethereum, Vitalik Buterin, a qualifié l’AGI de « risquée ». Cependant, il a également partagé que de tels modèles sont considérablement moins un « risque de catastrophe » que la cupidité des entreprises et les forces armées.
Elon Musk, ancien partisan d’OpenAI, PDG de Tesla, et Steve Wozniak, cofondateur d’Apple, se sont joints à plus de 2 600 experts et chercheurs en technologie pour demander un arrêt de six mois de la formation des systèmes d’IA afin de réfléchir au « risque profond » qu’il comporte.
L’annonce de lancement de SSI mentionne également que la société cherche à recruter des chercheurs et des ingénieurs.
Published At
6/20/2024 12:45:47 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.