El Parlamento Europeo aprueba una histórica Ley de IA de la UE, allanando el camino para la regulación mundial de la IA
Summary:
El Parlamento Europeo ha aprobado la Ley de IA de la UE, una de las primeras regulaciones integrales de IA en todo el mundo. La Ley tiene por objeto garantizar la seguridad, el respeto de los derechos fundamentales y el apoyo a la innovación. Clasifica los sistemas de IA en función del riesgo que suponen, desde "inaceptable" hasta "mínimo". La legislación exige que los desarrolladores de IA proporcionen resúmenes detallados de sus datos de entrenamiento para el desarrollo del sistema y se adhieran a la legislación de derechos de autor de la UE. La ley, que inicialmente enfrentó el rechazo de las empresas tecnológicas, recibió recientemente elogios de IBM. Simboliza un paso adelante en el fomento de ecosistemas de IA abiertos y fiables.
El 14 de marzo, la ley de IA de la Unión Europea se convirtió en ley con la aprobación explícita del Parlamento Europeo, siendo pionera en la regulación integral de la IA a nivel mundial. La ley, aplicable en 27 Estados miembros de la UE, tiene como objetivo garantizar que la tecnología de IA sea segura y respete los derechos fundamentales dentro de la UE, al tiempo que fomenta la innovación, como se indica en el sitio web del Parlamento Europeo. El respaldo legislativo obtuvo 523 votos a favor, 46 en contra y 49 abstenciones.
Antes de emitir su voto, se celebró una rueda de prensa virtual, en la que los eurodiputados Brando Benifei y Dragos Tudorache expresaron sus puntos de vista a los medios de comunicación, calificándolo de día trascendental en el camino hacia la regulación de la IA. Benifei destacó que la ley permitiría el desarrollo de una IA que priorice la seguridad y un enfoque centrado en el ser humano, según las áreas prioritarias descritas por el Parlamento Europeo.
Esta legislación, propuesta inicialmente hace cinco años, cobró impulso el año pasado coincidiendo con el desarrollo y despliegue masivo de modelos de IA influyentes. Tras largas negociaciones, el Parlamento llegó a un acuerdo provisional en diciembre de 2023. Posteriormente, el acuerdo fue aprobado por 71 votos a favor y 8 en contra por las comisiones de Mercado Interior y Libertades Civiles el 13 de febrero. Al llevarse a cabo la votación final, Tudorache hizo hincapié en la importancia de la cooperación internacional en la gobernanza de la IA.
Tras esta acción legislativa, se realizarán pequeños ajustes lingüísticos durante la fase de traducción de la ley que garanticen la comprensión en todas las lenguas de los Estados miembros. Un segundo procedimiento de votación para el proyecto de ley tendrá lugar en abril, y es probable que su publicación en el diario oficial de la UE se produzca en mayo, según informa EuroNews. A partir de noviembre comenzarán a aplicarse las prohibiciones de prácticas prohibidas, según ha confirmado Benifei.
La Ley de IA de la UE clasifica los modelos de aprendizaje automático en cuatro categorías según los niveles de riesgo social, y los modelos de alto riesgo están sujetos a regulaciones más estrictas. La categoría más alta, "riesgo inaceptable", prohíbe los sistemas de IA que suponen una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto incluye la puntuación social gubernamental para los juguetes de los asistentes de voz que provocan comportamientos de riesgo.
Las aplicaciones de alto riesgo incluyen infraestructuras críticas, educación y formación profesional, componentes de seguridad de productos y aplicación de la ley, entre otros, que interfieren con los derechos fundamentales de las personas. La categoría de "riesgo limitado" abarca la transparencia en el uso de la IA, con ejemplos como la interacción con chatbots de IA y la identificación obligatoria de contenidos generados por IA. Para ayudar a las organizaciones en el cumplimiento, la UE desarrolló una herramienta, «The EU AI Act Compliance Checker».
La ley también prevé el «uso gratuito» de aplicaciones de IA de «riesgo mínimo», incluidos los videojuegos habilitados para IA y los filtros de spam, que, según la UE, constituyen actualmente la inmensa mayoría de los sistemas de IA en uso en la UE.
Los modelos de IA generativa recibieron disposiciones adicionales debido a su popularidad y a la accesibilidad de los chatbots de IA, como ChatGPT, Grok y Gemini. Los desarrolladores de modelos de IA de propósito general deben presentar resúmenes detallados de sus datos de entrenamiento utilizados para el desarrollo del sistema y cumplir con la legislación de derechos de autor de la UE.
Aunque la Ley de Inteligencia Artificial de la UE se enfrentó a una reacción negativa previa de las empresas locales y las empresas tecnológicas que advirtieron sobre la excesiva regulación que impide la innovación, recibió elogios recientes del gigante de la industria IBM. Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, elogió a la UE por aprobar una legislación de IA inteligente y completa que equilibra el riesgo, se alinea con las prácticas éticas de IA de IBM y fomenta ecosistemas de IA abiertos y confiables.
Published At
3/13/2024 2:57:48 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.