Los especialistas en IA se unen para mejorar la protección de los denunciantes en medio de preocupaciones de seguridad
Summary:
Los antiguos miembros del personal de destacadas empresas de IA están abogando por una mayor protección de los denunciantes para permitir que se expresen abiertamente las preocupaciones relacionadas con el riesgo sobre el desarrollo de la IA. La petición "Derecho a advertir a la IA" tiene como objetivo fomentar una apertura que dé la bienvenida a las críticas y brinde protección legal a los denunciantes que destaquen los riesgos graves de la IA. La campaña refleja las crecientes aprensiones sobre las medidas de seguridad de los nuevos modelos de IA, especialmente los que involucran inteligencia artificial general.
Los antiguos miembros del personal de destacadas empresas de IA están abogando por salvaguardas más sólidas para los denunciantes dentro de estas empresas, para promover la transparencia sobre los riesgos potenciales en la evolución de los sistemas complejos de IA. Una petición, titulada "Derecho a advertir a la IA", fue iniciada el 4 de junio por 13 ex profesionales que actualmente trabajan en OpenAI (ChatGPT), Anthropic (Claude) y DeepMind (Google). Este ilustre grupo también incluía a luminarias de la IA como Yoshua Bengio, Geoffrey Hinton y Stuart Russell. Su objetivo es convencer a las principales empresas de IA para que permitan a su personal compartir sus aprensiones sobre los riesgos de la IA internamente y con el público en general.
William Saunders, ex empleado de OpenAI y partidario de la campaña, declaró que es imperativo contar con un mecanismo para divulgar información sobre riesgos a expertos independientes, autoridades gubernamentales y al público en general cuando se trata de posibles innovaciones tecnológicas peligrosas. Observó que, en la actualidad, aquellos con el conocimiento más profundo de los sistemas de IA de frontera y los riesgos asociados podrían dudar en expresar sus temores debido al temor a la reacción violenta y a los estrictos contratos de confidencialidad.
La propuesta viene con cuatro sugerencias clave. La primera es revocar las cláusulas de no menosprecio relacionadas con los riesgos para que las empresas no puedan amordazar a los empleados ni penalizarlos por expresar su preocupación por los riesgos de la IA. A continuación, proponen establecer canales anónimos para que las personas expresen sus preocupaciones sobre los riesgos de la IA, fomentando así una atmósfera que dé la bienvenida a la crítica abierta. Su último llamamiento es la protección legal de los denunciantes, garantizando que las empresas no tomen represalias contra los empleados que corran el riesgo de estar expuestos a graves riesgos de IA. Saunders describió estos principios como un "enfoque proactivo" que alentará a las empresas de IA a crear IA que no solo sea beneficiosa sino también segura.
La campaña es un derivado de las crecientes aprensiones sobre cómo los laboratorios de IA han pasado por alto las medidas de seguridad al desarrollar sus nuevos modelos, particularmente cuando se trata de inteligencia artificial general (AGI), que tiene como objetivo desarrollar software que imite la inteligencia humana y pueda aprender de forma independiente. Daniel Kokotajlo, un exempleado de OpenAI, compartió que su decisión de renunciar a la empresa se debió a su pérdida de fe en el manejo responsable de los propósitos de AGI por parte de la empresa. Kokotajlo opinó que el enfoque cultural de "muévete rápido y rompe cosas" es incompatible con una tecnología que es tan potente y tan incomprendida como la AGI.
Helen Toner, ex directora de OpenAI, reveló en un podcast de Ted AI el 28 de mayo que se rumoreaba que Sam Altman, el CEO de OpenAI, había sido despedido de la compañía por retener información crítica de la junta.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.