La Comisión Europea propone penalizar las imágenes CSA generadas por IA y los deepfakes
Summary:
La Comisión Europea tiene la intención de criminalizar las imágenes generadas por IA y los deepfakes relacionados con el abuso sexual infantil (CSA). Esta propuesta incluye un nuevo delito penal para la transmisión en vivo de CSA, una actualización de las leyes relativas a la presentación de informes de CSA y la criminalización de los chatbots de IA con temática pedófila. Estas medidas tienen como objetivo frenar la CSA, mejorar la concienciación sobre la seguridad en línea, agilizar la denuncia de delitos y proporcionar ayuda financiera a las víctimas. Se insta a los Estados miembros a mejorar la vigilancia, mientras que el Parlamento Europeo y el Consejo decidirán sobre la forma final de la propuesta. La propuesta se basa en el Reglamento de 2022 y en la creciente concienciación sobre los peligros de los deepfakes.
En respuesta a la naturaleza evolutiva del abuso sexual infantil (CSA, por sus siglas en inglés), la Comisión Europea ha declarado su intención de prohibir potencialmente el uso de imágenes basadas en inteligencia artificial, deepfakes y chatbots de IA con temática de abuso infantil. La propuesta tiene como objetivo modificar las leyes, incluido el establecimiento de un nuevo delito penal que involucra la transmisión en vivo de CSA. Además, busca prohibir la posesión y difusión de guías que promuevan la pedofilia. Esta iniciativa es un paso para modernizar las regulaciones establecidas en 2011, sugiriendo la denuncia obligatoria de los delitos. El objetivo más amplio es frenar la CSA, mejorar la concienciación sobre la seguridad en línea, facilitar la denuncia de delitos y adoptar ayudas como la indemnización financiera para las víctimas.
Antes de la propuesta, la Comisión llevó a cabo una evaluación de impacto, señalando la importancia del aumento de la presencia en línea y de las tendencias tecnológicas de vanguardia como factores que impulsan la ASAC. La propuesta también insta a los Estados miembros a fomentar una mayor vigilancia. Existe una creciente preocupación por la manipulación de la tecnología para producir material de ASAC, con el temor de que dicho contenido simulado pueda obstaculizar la identificación de víctimas reales por parte de los organismos encargados de hacer cumplir la ley. Dada la rápida proliferación de la IA generativa, los legisladores ven una clara necesidad de revisar las regulaciones existentes.
Sin embargo, la forma final de las enmiendas propuestas está en manos de los colegisladores del Parlamento Europeo y del Consejo. Una vez que se llegue a un consenso sobre las modificaciones de la actual Directiva de lucha contra la ASAC, la aplicación comenzaría 20 días después de su publicación en el Diario Oficial de la UE.
De acuerdo con el protocolo legislativo estándar, la propuesta de la Comisión Europea está sujeta a la aprobación o modificación del Parlamento Europeo (PE) y del Consejo de Ministros. En caso de controversias, ambos órganos pueden sugerir enmiendas, a las que seguirían negociaciones y una votación final.
En mayo de 2022, la Comisión recomendó que se añadiera legislación sobre las obligaciones de los proveedores de servicios digitales de utilizar tecnología automatizada para la detección y notificación de actividades de CSA y grooming. La presente propuesta se considera un complemento de la propuesta de Reglamento de 2022.
Sin embargo, hay un aumento notable en el reconocimiento de las amenazas potenciales que plantean los deepfakes y las imágenes generadas por IA, especialmente desde que la propuesta se presentó hace menos de dos años y se centró en el escaneo de mensajes privados.
Published At
2/7/2024 11:44:44 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.