OpenAI contrasta le campagne online utilizzando la sua intelligenza artificiale per l'inganno digitale
Summary:
OpenAI, una società di intelligenza artificiale, è intervenuta per fermare diverse campagne online che utilizzavano la sua tecnologia per manipolare l'opinione pubblica globale. La società ha disattivato gli account coinvolti in tali attività negli ultimi tre mesi. I malfattori hanno sfruttato l'intelligenza artificiale per produrre commenti, nomi e biografie, nonché per tradurre e modificare il testo per i loro scopi ingannevoli. OpenAI ha dichiarato che queste operazioni segrete erano incentrate su varie controversie, dal conflitto Russia-Ucraina alle critiche al governo cinese. L'azienda ha inoltre chiarito che tali campagne ingannevoli non hanno registrato alcun aumento significativo del coinvolgimento o della portata del pubblico grazie ai loro servizi.
OpenAI, un'importante società di intelligenza artificiale, ha recentemente fatto deragliare diverse campagne online che miravano a sfruttare la sua tecnologia AI per manipolare l'opinione pubblica globale. Il 30 maggio, OpenAI, fondata da Sam Altman, ha dichiarato di aver chiuso alcuni account collegati a tentativi di influenza subdoli. La società ha confermato che nell'ultimo trimestre ha bloccato cinque iniziative surrettizie che miravano a utilizzare i suoi modelli per l'inganno online.
I malintenzionati hanno utilizzato l'intelligenza artificiale per produrre commenti per le pubblicazioni, fabbricare nomi e biografie per gli account dei social network, nonché tradurre e modificare il testo. OpenAI, gli sviluppatori di ChatGPT, hanno riferito che un'operazione nota come "Spamouflage" ha utilizzato i loro servizi per sondare i social media e produrre contenuti multilingue su piattaforme come X, Medium e Blogspot. L'obiettivo era quello di influenzare l'opinione pubblica e plasmare i risultati politici. L'intelligenza artificiale è stata impiegata anche per correggere il codice e amministrare i database insieme ai siti web.
OpenAI ha rivelato un'operazione chiamata "Bad Grammar" che ha preso di mira nazioni come l'Ucraina, la Moldavia, gli Stati baltici e gli Stati Uniti, sfruttando i modelli OpenAI per alimentare i bot di Telegram e generare commenti politicizzati. Un collettivo noto come Doppelganger ha utilizzato l'intelligenza artificiale per produrre commenti in varie lingue, pubblicarli su X e 9GAG, allo scopo di manipolare l'opinione pubblica.
L'azienda ha anche menzionato un'entità chiamata "International Union of Virtual Media" che ha sfruttato l'intelligenza artificiale per comporre articoli, titoli e contenuti web di lunga durata per il sito Web associato. Secondo quanto riferito, anche la società commerciale STOIC, che utilizzava l'intelligenza artificiale per creare articoli e dialoghi sui social media su piattaforme come Instagram, Facebook, X e siti Web correlati, è stata interrotta da OpenAI.
Secondo OpenAI, i post di queste diverse operazioni spaziavano su una serie di argomenti come l'invasione russa dell'Ucraina, il conflitto di Gaza, le elezioni indiane, la politica occidentale e americana e le critiche rivolte al governo cinese da dissidenti cinesi e amministrazioni straniere.
Secondo quanto riferito, per la prima volta, un'azienda leader nel settore dell'intelligenza artificiale ha svelato come i suoi strumenti unici siano stati sfruttati per la doppiezza online. Ben Nimmo, ricercatore principale di OpenAI, ha dichiarato al New York Times che i loro casi di studio mostrano esempi ottenuti da alcune campagne di influenza attualmente attive, più diffuse e di lunga data. OpenAI ha concluso che queste operazioni non sembravano ottenere alcun coinvolgimento o portata significativa del pubblico grazie ai loro servizi.
Published At
5/31/2024 7:05:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.