OpenAI e Microsoft se unem para impedir ataques cibernéticos afiliados ao Estado que exploram ferramentas de IA
Summary:
A OpenAI e a Microsoft colaboraram para impedir cinco ataques cibernéticos afiliados ao Estado que exploraram grandes modelos de linguagem, incluindo o GPT-4 da OpenAI. Os ataques, ligados à China, Irã, Coreia do Norte e Rússia, tiveram como objetivo utilizar IA para várias atividades cibernéticas, levando a OpenAI a reforçar suas medidas de defesa. Apesar dos esforços contínuos da OpenAI e de outros para abordar a cibersegurança da IA, as ameaças persistem, levando mais de 200 organizações a juntarem-se ou formarem iniciativas focadas na promoção da segurança da IA e na resolução de questões de cibersegurança.
A OpenAI, a organização por trás do popular software ChatGPT, se uniu ao principal investidor Microsoft para evitar com sucesso cinco ataques cibernéticos apoiados pelo governo. Ligados a uma seleção de potências estrangeiras, incluindo a inteligência militar russa, a Guarda Revolucionária do Irã, bem como os governos chinês e norte-coreano, os hackers tinham como objetivo aprimorar suas habilidades usando grandes modelos linguísticos (LLMs), sistemas sofisticados baseados em IA que podem gerar respostas impressionantemente humanas por meio da análise de extensos dados textuais.
A OpenAI identificou as invasões cibernéticas como originárias de dois grupos chineses conhecidos como Charcoal Typhoon e Salmon Typhoon. Outras tentativas de infiltração foram associadas ao Irã através da Crimson Sandstorm, à Coreia do Norte através da Emerald Sleet, e à Rússia através da Forest Blizzard. De acordo com a OpenAI, os grupos buscaram usar o GPT-4 para várias tarefas que vão desde pesquisa de ferramentas corporativas e de segurança cibernética, geração de scripts, depuração de código, orquestração de campanhas de phishing, evasão de detecção de malware, tradução de documentos técnicos complexos e exploração de comunicação via satélite e tecnologia de radar. A detecção dessas atividades levou à suspensão das contas envolvidas.
Essa descoberta ocorreu quando a OpenAI estava se movendo para impor uma proibição abrangente do uso de produtos de IA por redes de hackers patrocinadas pelo Estado. Embora tenha sido bem-sucedida em frustrar essas tentativas específicas, a empresa reconheceu a dificuldade contínua de evitar qualquer potencial uso indevido.
Após o aumento da ocorrência de deepfakes e fraudes gerados por IA após a introdução do ChatGPT, os legisladores aumentaram sua vigilância sobre desenvolvedores de IA generativa. Para apoiar os avanços no campo da cibersegurança de IA, a OpenAI anunciou um programa de concessão de US$ 1 milhão em junho de 2023, que visa fortalecer e quantificar a influência de soluções de segurança cibernética baseadas em IA.
Apesar dessas medidas defensivas e do esforço contínuo para evitar a geração de conteúdo prejudicial ou inadequado pelo ChatGPT, os hackers ainda encontraram maneiras de superar essas barreiras, manipulando o chatbot para gerar tal conteúdo.
Mais de 200 organizações, entre elas OpenAI, Microsoft, Anthropic e Google, recentemente se associaram ao governo Biden para formar o AI Safety Institute e o U.S. AI Safety Institute Consortium (AISIC). O esforço coletivo é projetado para promover a evolução segura da inteligência artificial, combater deepfakes produzidos por IA e atender aos desafios de segurança cibernética. Esta iniciativa surge na sequência do lançamento do Instituto de Segurança de IA dos EUA (USAISI), criado após a ordem executiva do Presidente Joe Biden do final de outubro de 2023 com foco na segurança da IA.
Published At
2/15/2024 11:46:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.