Robo deepfake chama presidente Biden para interferir nas primárias de New Hampshire
Summary:
No fim de semana de 20 e 21 de janeiro, os moradores de New Hampshire receberam chamadas geradas por IA imitando a voz do presidente Joe Biden, pedindo que se abstivessem da eleição primária. A Procuradoria-Geral do Estado considerou que se trata de desinformação e as investigações para encontrar sua fonte estão em andamento. Um incidente semelhante com um áudio deepfake do líder democrata de Manhattan, Keith Wright, aconteceu, indicando que as falsificações de áudio estão se tornando um método preferido por atores mal-intencionados para se intrometer na política. Especialistas recomendam cautela ao interagir com conteúdo de fontes desconhecidas ou duvidosas.
No fim de semana de 20 e 21 de janeiro, os moradores de New Hampshire se viram diante de um apelo político inesperado. Ligações telefônicas automatizadas imitando a voz do presidente dos Estados Unidos, Joe Biden, pediram aos moradores locais que não participem das eleições primárias de 23 de janeiro. Essas chamadas de robô se originaram de uma ferramenta de inteligência artificial (IA) capaz de replicar vozes, conhecida como deepfake, com a intenção evidente de interromper as eleições presidenciais de 2024.
As chamadas duvidosas sugeriam que os moradores se abstivessem de votar, como capturado em uma gravação de áudio pela NBC: "Votar nesta terça-feira só reforça a ambição dos republicanos de reeleger Donald Trump. Seu valioso voto contará em novembro, não na próxima terça-feira."
O gabinete do procurador-geral do estado foi rápido em desacreditar essas ligações como uma disseminação de desinformação, pedindo aos eleitores de New Hampshire que ignorassem completamente a mensagem nas ligações. Por outro lado, um representante do ex-presidente Donald Trump negou qualquer envolvimento dele ou de sua equipe de campanha. Atualmente, a fonte por trás dessas ligações deturpadas está sob investigação.
Em um desenvolvimento relacionado, uma controvérsia política semelhante envolvendo áudio falso emergiu. Um áudio deepfake que se passava pelo líder democrata de Manhattan, Keith Wright, foi descoberto em 21 de janeiro, onde a referida voz foi ouvida criticando a colega de assembleia democrata, Inez Dickens. De acordo com a reportagem do Politico, apesar de alguns descartarem o áudio como falso, ele conseguiu enganar pelo menos um insider político por um momento.
A ex-presidente da Câmara Municipal e democrata de Manhattan, Melissa Mark-Viverito, confessou ao Politico que inicialmente caiu no engano: "Fiquei surpresa. Inicialmente, acreditei que fosse autêntico."
Especialistas especulam que essas partes maliciosas preferem manipulações de áudio em vez de vídeo, já que o escrutínio do público costuma ser maior e mais atento a truques visuais. O consultor de IA Henry Ajder compartilhou com o Financial Times que "todos estão familiarizados com o Photoshop ou, pelo menos, cientes de sua existência".
No momento da publicação desta notícia, uma maneira infalível de identificar ou desencorajar deepfakes ainda não foi encontrada. Para navegar por isso, os especialistas aconselham o público a exercer discernimento ao interagir com conteúdo de fontes desconhecidas ou questionáveis, especialmente quando alegações extraordinárias estão envolvidas.
Published At
1/23/2024 7:25:04 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.