Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

El NIST busca la opinión del público sobre el desarrollo seguro y ético de los sistemas de IA

Algoine News
Summary:
El Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) ha emitido una Solicitud de Información (RFI, por sus siglas en inglés) para recopilar comentarios del público sobre el desarrollo y la aplicación seguros de la inteligencia artificial (IA). Bajo la dirección de la Orden Ejecutiva del presidente Biden, el NIST está buscando información sobre la gestión de riesgos de la IA generativa y las formas de disminuir la desinformación generada por la IA. El instituto también está sondeando áreas efectivas para el red-teaming, una estrategia utilizada para identificar las vulnerabilidades del sistema. La solicitud forma parte de una iniciativa más amplia del NIST para apoyar a la comunidad de IA en el desarrollo responsable y fiable de sistemas de IA, escalando el enfoque centrado en el ser humano hacia la seguridad y la gobernanza de la IA.
El Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) del Departamento de Comercio de los Estados Unidos ha emitido una Solicitud de Información (RFI, por sus siglas en inglés) como parte de sus deberes en virtud de la última Orden Ejecutiva sobre el desarrollo y la implementación seguros y éticos de la inteligencia artificial (IA). El instituto ha abierto un proceso de participación pública hasta el 2 de febrero para recopilar información crucial que se utilizará para probar la seguridad de los sistemas de IA. La secretaria de Comercio, Gina Raimondo, mencionó que la directiva ejecutiva de octubre del presidente Joe Biden, que instruye al NIST a desarrollar directrices, fomentar estándares consensuados y construir entornos de prueba para la evaluación de IA, motiva esta iniciativa. Este plan tiene como objetivo ayudar al sector de la IA en el desarrollo seguro, fiable y ético de la IA. La solicitud de información del NIST invita a las empresas de IA y al público a conocer sus opiniones sobre la gestión de riesgos de la IA generativa y la reducción de los riesgos de desinformación inducidos por la IA. La IA generativa, que puede crear texto, imágenes y videos basados en indicaciones ambiguas, ha provocado tanto entusiasmo como preocupaciones. Se teme la pérdida de puestos de trabajo, los disturbios en las elecciones y la posibilidad de que la tecnología exceda la competencia humana, lo que podría producir resultados desastrosos. La RFI también busca información sobre las áreas óptimas para ejecutar el red-teaming durante el examen de riesgos de IA y establecer las mejores prácticas. El término "red-teaming", derivado de las simulaciones de la Guerra Fría, se utiliza para referirse a un método en el que un grupo, conocido como el "equipo rojo", imita situaciones o ataques adversos concebibles para descubrir los puntos débiles y las vulnerabilidades de un sistema, proceso u organización. Esta técnica se ha utilizado durante mucho tiempo en ciberseguridad para detectar nuevas amenazas. Una nota relacionada es que el primer evento público de equipo rojo en los EE. UU. tuvo lugar en agosto en una conferencia de ciberseguridad organizada por AI Village, SeedAI y Humane Intelligence. El anuncio de un nuevo consorcio de IA por parte del NIST en noviembre, junto con un aviso oficial en el que se solicitaban solicitudes con las cualificaciones pertinentes, fue un hito importante. El objetivo de este consorcio es desarrollar y ejecutar políticas y medidas específicas para garantizar que los responsables políticos de EE. UU. opten por un enfoque centrado en el ser humano para la seguridad y la administración de la IA.

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch