OpenAI frustra campanhas on-line usando sua IA para engano digital
Summary:
A OpenAI, uma empresa de inteligência artificial, interveio para impedir várias campanhas online que estavam usando sua tecnologia para manipulação da opinião pública global. A empresa desativou contas envolvidas nessas atividades nos últimos três meses. Os malfeitores exploraram a IA para produzir comentários, nomes e biografias, bem como para traduzir e editar texto para seus propósitos enganosos. A OpenAI afirmou que essas operações secretas se concentraram em várias controvérsias, desde o conflito Rússia-Ucrânia até críticas ao governo chinês. A empresa esclareceu ainda que tais campanhas enganosas não experimentaram nenhum aumento significativo no engajamento ou alcance do público devido aos seus serviços.
A OpenAI, uma proeminente empresa de inteligência artificial, recentemente descarrilou várias campanhas online que visavam explorar sua tecnologia de IA para manipulação da opinião pública global. Em 30 de maio, a OpenAI, fundada por Sam Altman, declarou que havia encerrado certas contas ligadas a esforços de influência dissimulados. A empresa confirmou que, no último trimestre, bloqueou cinco iniciativas sub-reptícias com o objetivo de empregar seus modelos de fraude online.
Os meliantes implantaram IA para fabricar comentários para publicações, fabricar nomes e biografias para contas de redes sociais, bem como traduzir e editar textos. A OpenAI, desenvolvedora do ChatGPT, informou que uma operação conhecida como "Spamouflage" utilizou seus serviços para sondar mídias sociais e produzir conteúdo multilíngue em plataformas como X, Medium e Blogspot. O objetivo era influenciar a opinião pública e moldar os resultados políticos. A IA também foi empregada para retificar códigos e administrar bancos de dados junto com sites.
A OpenAI revelou uma operação chamada "Bad Grammar" que teve como alvo nações como Ucrânia, Moldávia, Estados Bálticos e EUA, explorando modelos OpenAI para alimentar bots do Telegram e gerar comentários politizados. Um coletivo conhecido como Doppelganger usou IA para produzir comentários em vários idiomas, postá-los no X e no 9GAG, com o propósito de manipulação da opinião pública.
A empresa também mencionou uma entidade chamada "União Internacional de Mídia Virtual" que aproveitou a IA para compor artigos longos, manchetes e conteúdo da web para seu site associado. A empresa comercial STOIC, que utilizava IA para criar artigos e diálogos de mídia social em plataformas como Instagram, Facebook, X e sites relacionados, também teria sido interrompida pela OpenAI.
De acordo com a OpenAI, as postagens dessas diversas operações variavam sobre uma variedade de tópicos, como a invasão russa da Ucrânia, conflito em Gaza, eleições indianas, política ocidental e americana e críticas dirigidas ao governo chinês por dissidentes chineses e administrações estrangeiras.
Alegadamente pela primeira vez, uma empresa líder em IA revelou como suas ferramentas exclusivas foram exploradas para duplicidade online. Ben Nimmo, investigador principal da OpenAI, afirmou ao The New York Times que seus estudos de caso mostram exemplos obtidos de algumas campanhas de influência atualmente ativas, mais prevalentes e mais antigas. A OpenAI concluiu que essas operações não pareciam ganhar nenhum engajamento ou alcance significativo do público devido aos seus serviços.
Published At
5/31/2024 7:05:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.