Las llamadas automáticas deepfake imitan al presidente Biden para entrometerse en las primarias de New Hampshire
Summary:
Durante el fin de semana del 20 y 21 de enero, los residentes de New Hampshire recibieron llamadas automáticas generadas por IA que imitaban la voz del presidente Joe Biden, pidiéndoles que se abstuvieran de participar en las elecciones primarias. La oficina del fiscal general del estado lo consideró desinformación y las investigaciones para encontrar su fuente están en curso. Ocurrió un incidente similar con un audio deepfake del líder demócrata de Manhattan, Keith Wright, lo que indica que las falsificaciones de audio se están convirtiendo en el método preferido por los actores maliciosos para entrometerse en la política. Los expertos aconsejan precaución al interactuar con contenido de fuentes desconocidas o dudosas.
Durante el fin de semana del 20 y 21 de enero, los residentes de New Hampshire se encontraron en el extremo receptor de una inesperada petición política. Las llamadas telefónicas automatizadas que imitaban la voz del presidente de Estados Unidos, Joe Biden, instaron a los lugareños a no participar en las elecciones primarias del 23 de enero. Estas llamadas automáticas se originaron a partir de una herramienta de inteligencia artificial (IA) capaz de replicar voces, conocida como deepfake, con la evidente intención de perturbar las elecciones presidenciales de 2024.
Las dudosas llamadas sugirieron que los residentes se abstuvieran de votar, como se captó en una grabación de audio de NBC: "Votar este martes solo refuerza la ambición de los republicanos de reelegir a Donald Trump. Su valioso voto contará en noviembre, no el próximo martes".
La oficina del fiscal general del estado se apresuró a desacreditar estas llamadas como una difusión de información errónea, instando a los votantes de New Hampshire a ignorar por completo el mensaje de las llamadas. Por otro lado, un representante del expresidente Donald Trump negó cualquier participación de él o de su equipo de campaña. Actualmente, la fuente detrás de estas llamadas tergiversadas está bajo investigación.
En un desarrollo relacionado, surgió una controversia política similar relacionada con audio falso. El 21 de enero se descubrió un audio deepfake que se hacía pasar por el líder demócrata de Manhattan, Keith Wright, donde se escuchaba dicha voz criticando a su compañera asambleísta demócrata, Inez Dickens. Según el informe de Politico, a pesar de que algunos descartaron el audio como falso, logró engañar al menos a un político por un momento.
La expresidenta del Concejo Municipal y demócrata de Manhattan, Melissa Mark-Viverito, confesó a Politico que inicialmente cayó en el engaño: "Me sorprendió. Al principio creí que era auténtico".
Los expertos especulan que estas partes maliciosas prefieren las manipulaciones de audio en lugar de las de vídeo, ya que el escrutinio de la audiencia suele ser mayor y está más atento a los trucos visuales. El asesor de inteligencia artificial Henry Ajder compartió con el Financial Times: "Todo el mundo está familiarizado con Photoshop o, al menos, es consciente de su existencia".
En el momento de la publicación de esta noticia, aún no se ha encontrado una forma infalible de identificar o desalentar los deepfakes. Para navegar por esto, los expertos aconsejan al público que ejerza discernimiento al interactuar con contenido de fuentes desconocidas o cuestionables, especialmente cuando se trata de acusaciones extraordinarias.
Published At
1/23/2024 7:25:04 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.