Le chiamate robotizzate deepfake imitano il presidente Biden per intromettersi nelle primarie del New Hampshire
Summary:
Durante il fine settimana del 20-21 gennaio, i residenti del New Hampshire hanno ricevuto chiamate robotiche generate dall'intelligenza artificiale che imitavano la voce del presidente Joe Biden, chiedendo loro di astenersi dalle elezioni primarie. L'ufficio del procuratore generale dello stato ha ritenuto che si trattasse di disinformazione e sono in corso indagini per trovarne la fonte. Un incidente simile con un audio deepfake del leader democratico di Manhattan Keith Wright si è verificato, indicando che i falsi audio stanno diventando il metodo preferito da attori malintenzionati per intromettersi nella politica. Gli esperti consigliano cautela quando si interagisce con contenuti provenienti da fonti sconosciute o dubbie.
Durante il fine settimana del 20-21 gennaio, i residenti del New Hampshire si sono trovati a ricevere un inaspettato appello politico. Le telefonate automatizzate che imitano la voce del presidente degli Stati Uniti Joe Biden hanno esortato la gente del posto a non partecipare alle elezioni primarie del 23 gennaio. Queste robo-call hanno avuto origine da uno strumento di intelligenza artificiale (AI) in grado di replicare le voci, noto come deepfake, con l'evidente intento di disturbare le elezioni presidenziali del 2024.
Le chiamate dubbie suggerivano che i residenti si astenevano dal voto, come catturato in una registrazione audio della NBC: "Votare questo martedì rafforza solo l'ambizione dei repubblicani di rieleggere Donald Trump. Il vostro prezioso voto conterà a novembre, non martedì prossimo".
L'ufficio del procuratore generale dello stato si è affrettato a screditare queste chiamate come una diffusione di disinformazione, esortando gli elettori del New Hampshire a ignorare completamente il messaggio nelle chiamate. D'altra parte, un rappresentante dell'ex presidente Donald Trump ha negato qualsiasi coinvolgimento suo o del suo team elettorale. Attualmente, la fonte dietro queste chiamate travisate è sotto indagine.
In uno sviluppo correlato, è emersa una controversia politica simile che coinvolge l'audio falso. Il 21 gennaio è stato scoperto un audio deepfake che impersonava il leader democratico di Manhattan Keith Wright, in cui si sentiva la suddetta voce criticare il collega membro dell'assemblea democratica, Inez Dickens. Secondo il rapporto di Politico, nonostante alcuni abbiano liquidato l'audio come falso, è riuscito a ingannare almeno un insider politico per un momento.
L'ex presidente del consiglio comunale e democratica di Manhattan, Melissa Mark-Viverito, ha confessato a Politico di essere inizialmente caduta nell'inganno: "Sono stata colta alla sprovvista. All'inizio ho creduto che fosse autentico".
Gli esperti ipotizzano che questi malintenzionati preferiscano le manipolazioni audio piuttosto che i video, poiché il controllo del pubblico è spesso più alto e più attento all'inganno visivo. Il consulente per l'intelligenza artificiale Henry Ajder ha condiviso con il Financial Times: "Tutti hanno familiarità con Photoshop o, per lo meno, ne conoscono l'esistenza".
Al momento della pubblicazione di questo articolo, non è ancora stato trovato un modo infallibile per identificare o scoraggiare i deepfake. Per affrontare questo problema, gli esperti consigliano al pubblico di esercitare discernimento quando si interagisce con contenuti provenienti da fonti sconosciute o discutibili, soprattutto quando si tratta di accuse straordinarie.
Published At
1/23/2024 7:25:04 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.