Il ruolo dell'IA nella manipolazione del sentimento degli elettori nelle elezioni statunitensi del 2024 e gli sforzi per contrastare la disinformazione.
Summary:
L'eventuale impatto dell'intelligenza artificiale sulla manipolazione del sentimento degli elettori nelle elezioni presidenziali statunitensi del 2024 e gli sforzi per contrastare la disinformazione sui social media vengono evidenziati. Attori legati alla Cina stanno sfruttando supporti visivi generati dall'intelligenza artificiale in una campagna volta a obiettivi politicamente divisivi, mentre l'IA viene utilizzata anche per individuare e prevedere minacce di disinformazione. Si stanno valutando misure per regolamentare le manipolazioni profonde e l'IA negli annunci politici, e Google prevede di rendere obbligatoria la divulgazione dell'IA per gli annunci delle campagne politiche.
L'uso dell'intelligenza artificiale (IA) sulle piattaforme dei social media viene considerato un potenziale rischio per influenzare il sentimento degli elettori nelle prossime elezioni presidenziali statunitensi del 2024. I giganti della tecnologia e le entità governative statunitensi monitorano attivamente il problema della disinformazione. Un recente rapporto dell'unità di ricerca di Microsoft, il Microsoft Threat Analysis Center (MTAC), ha rivelato che "attori affiliati alla Cina" stanno utilizzando i media visivi generati dall'IA in una campagna diffusa che mira a temi politicamente divisivi e a screditare figure politiche e simboli statunitensi. Il rapporto prevede che la Cina continuerà a migliorare questa tecnologia nel tempo, sollevando preoccupazioni riguardo alla sua futura implementazione su scala più ampia. Tuttavia, l'IA viene anche utilizzata per individuare e contrastare la disinformazione. Ad esempio, Accrete AI ha implementato un software basato sull'IA che fornisce previsioni in tempo reale sulle minacce della disinformazione sui social media, in base a un contratto stipulato con il U.S. Special Operations Command (USSOCOM). Il CEO di Accrete, Prashant Bhuyan, ha sottolineato la significativa minaccia rappresentata dai deepfake e altre applicazioni dell'IA sui social media, evidenziando l'ambiente non regolamentato in cui gli avversari sfruttano le vulnerabilità e manipolano il comportamento attraverso la diffusione intenzionale della disinformazione. Nelle elezioni statunitensi del 2020, secondo un rapporto del MIT, gli "allevamenti di troll" hanno raggiunto un numero impressionante di 140 milioni di americani ogni mese. Gli allevamenti di troll sono gruppi organizzati di troll su internet che mirano a interferire con le opinioni politiche e con i processi decisionali. Di conseguenza, i regolatori negli Stati Uniti stanno esplorando modi per regolamentare i deepfake prima delle prossime elezioni. Il 10 agosto, la Commissione Federale per le Elezioni degli Stati Uniti ha votato all'unanimità per avanzare una petizione per regolamentare gli annunci politici che utilizzano l'IA, riconoscendo i deepfake come una significativa minaccia per la democrazia. Google ha anche adottato misure per affrontare questo problema, annunciando il 7 settembre che aggiornerà la sua politica relativa ai contenuti politici a metà novembre 2023, rendendo obbligatoria la divulgazione dell'uso dell'IA per gli annunci delle campagne politiche. L'obbligo di divulgazione si applicherà a contenuti che presentano elementi sintetici che rappresentano in modo inaccurato individui o eventi reali o di aspetto realistico.
Published At
9/8/2023 1:41:08 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.