Los veteranos de OpenAI y el socio de Y Combinator lanzan 'Safe Superintelligence, Inc.' para mejorar la seguridad de la IA
Summary:
Ilya Sutskever, ex científico jefe de OpenAI, y Daniel Levy, ex ingeniero de OpenAI, han colaborado con Daniel Gross, ex socio de la aceleradora de startups Y Combinator, para lanzar Safe Superintelligence, Inc. (SSI). La empresa, con sede en Estados Unidos, tiene como objetivo mejorar la seguridad y las capacidades de la inteligencia artificial (IA). Además de las preocupaciones sobre la seguridad de la IA, los ex empleados de OpenAI y las principales figuras tecnológicas, incluido el cofundador de Ethereum, Vitalik Buterin, el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, han pedido una pausa en la capacitación de IA para considerar los riesgos potenciales.
Ilya Sutskever, ex científico jefe y cofundador de OpenAI, junto con Daniel Levy, ex ingeniero de OpenAI, se han asociado con Daniel Gross, socio anterior de la aceleradora de startups Y Combinator, para lanzar Safe Superintelligence, Inc. (SSI). El enfoque y el producto de esta nueva empresa se reflejan en su título. SSI, con presencia en Palo Alto y Tel Aviv en los Estados Unidos, tiene como objetivo impulsar la inteligencia artificial (IA) mediante el desarrollo conjunto de medidas y capacidades de seguridad, como anunció el trío fundador el 19 de junio en línea. Destacaron su enfoque único en evitar las distracciones causadas por asuntos de gestión o ciclos de productos, con un modelo de negocio que garantiza que la seguridad, la protección y el progreso estén protegidos de las influencias comerciales a corto plazo.
Antes de dejar OpenAI el 14 de mayo, Sutskever, junto con Gross, compartieron preocupaciones sobre la seguridad de la IA. Sutskever desempeñó un papel vago en la empresa después de dejar su junta directiva tras la reincorporación del CEO Sam Altman. Daniel Levy fue uno de los investigadores que abandonó OpenAI poco después de Sutskever. Sutskever y Jan Leike encabezaron el equipo de Superalineación de OpenAI, formado en julio de 2023, para examinar cómo dirigir y controlar sistemas de IA más inteligentes que nosotros, conocidos como inteligencia artificial general (AGI). Durante sus inicios, OpenAI asignó el 20% de su capacidad computacional a este equipo.
Sin embargo, Leike también dejó la organización en mayo y ahora lidera un equipo en Anthropic, una startup de IA respaldada por Amazon. La compañía argumentó sus precauciones de seguridad en una publicación detallada del presidente de la compañía, Greg Brockman, pero disolvió el equipo de Superalineación después de que sus investigadores se fueran en mayo.
Los ex investigadores de OpenAI no son los únicos que expresan aprensión sobre el curso futuro de la IA. En medio de la reorganización del personal en OpenAI, el cofundador de Ethereum, Vitalik Buterin, calificó a AGI de "arriesgada". Sin embargo, también compartió que tales modelos son considerablemente menos "riesgo de fatalidad" que la codicia corporativa y las fuerzas armadas.
El ex partidario de OpenAI, el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, se unieron a más de 2.600 expertos e investigadores en tecnología que solicitaron una pausa de seis meses en la capacitación de sistemas de IA para reflexionar sobre el "profundo riesgo" que conlleva.
El anuncio de lanzamiento de SSI también mencionó que la compañía está buscando reclutar investigadores e ingenieros.
Published At
6/20/2024 12:45:47 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.