Vulnerabilidades dos assistentes de IA e crescentes preocupações de segurança: nossos dados estão seguros?
Summary:
O artigo discute as crescentes preocupações de segurança no cenário de assistentes de Inteligência Artificial (IA). Ele destaca uma série de estudos que demonstram as potenciais vulnerabilidades e riscos de violação associados a essas ferramentas. O autor enfatiza a necessidade de os desenvolvedores priorizarem o aspecto de segurança da IA e uma ação regulatória rápida. A peça também sugere que os usuários limitem o compartilhamento de informações confidenciais com assistentes de IA até que ações de proteção substanciais estejam em vigor.
O lançamento do ChatGPT no final de 2022 marcou um ponto crucial na tecnologia, onde a inteligência artificial (IA) deu um salto significativo para o mainstream. Em resposta, sejam gigantes da tecnologia estabelecidas ou startups iniciantes, todos tentaram capitalizar essa tendência de IA revelando uma variedade de assistentes de IA. Esses auxílios virtuais se transformaram em nossos conselheiros, companheiros e confidentes confidenciais em aspectos profissionais e pessoais de nossas vidas; assim, confiamos neles informações delicadas. No entanto, a sua promessa de salvaguardar a nossa informação levanta uma questão importante – estamos verdadeiramente protegidos?
Um estudo realizado pela Universidade de Ber-Gurion em março revelou uma verdade preocupante: nossos segredos podem não ser tão seguros quanto acreditamos. Os pesquisadores descobriram um método de ataque que pode decodificar respostas de assistentes de IA com precisão alarmante, demonstrando uma falha crítica no design do sistema em várias plataformas, como o Copilot da Microsoft e o ChatGPT-4 da OpenAI, exceto o Gemini do Google.
É alarmante notar que os pesquisadores poderiam aplicar a mesma ferramenta de descriptografia - uma vez criada para um serviço como o ChatGPT - para decodificar outras plataformas sem esforços adicionais. Revelações semelhantes de vulnerabilidade em sistemas de assistentes de IA vêm circulando há algum tempo. Mais recentemente, em 2023, uma coalizão de pesquisadores de várias universidades americanas e do Google DeepMind mostrou que, ao solicitar que o ChatGPT repetisse palavras específicas, ele poderia derramar partes de seus dados de treinamento memorizados, incluindo identificadores de usuários, URLs, endereços Bitcoin e muito mais.
Esses problemas de segurança se tornam ainda mais gritantes com modelos de código aberto. Um estudo de caso recente destacou a capacidade de um invasor de se infiltrar no serviço de conversão Hugging Face e comandar qualquer modelo enviado por meio dele. Isso representa ameaças significativas, pois os adversários podem potencialmente substituir ou plantar modelos maliciosos, expondo conjuntos de dados privados.
A crescente influência dos assistentes de IA é inegavelmente atraente. Mas com o aumento do poder vem uma maior suscetibilidade a ataques. Refletindo sobre isso em um post recente no blog, Bill Gates pintou a imagem de um assistente de IA ou "agente" abrangente tendo acesso a todos os nossos dispositivos, obtendo assim insights abrangentes sobre nossas vidas. No entanto, com preocupações de segurança não abordadas que assolam o cenário da IA, corremos o risco de ter nossas vidas sequestradas, incluindo as de qualquer indivíduo ou entidade associada, caso esses agentes caiam em mãos erradas.
Apesar das preocupações iminentes, não somos impotentes. Examinando o cenário de IA, no final de março, a Câmara dos Representantes dos EUA impôs uma proibição rigorosa ao uso do Copilot da Microsoft por funcionários do Congresso. Este movimento seguiu o relatório do Cyber Safety Review Board em abril, que considerou a Microsoft culpada por descuidos de segurança que levaram a uma violação de e-mail no verão de 2023 afetando funcionários do governo dos EUA.
No passado, gigantes da tecnologia como Apple, Amazon, Samsung e Spotify, bem como titãs financeiros como JPMorgan, Citi e Goldman Sachs proibiram o uso de bots para seus funcionários. Atores conhecidos no reino da IA, Microsoft e OpenAI prometeram publicamente sua adesão a práticas responsáveis de IA no ano passado; no entanto, ainda há ações tangíveis a serem vistas.
Os compromissos são um bom começo, mas devem ser apoiados por acções. Como consumidores, talvez o passo mais proativo que podemos tomar seja exercer discrição ao compartilhar informações confidenciais com bots de IA. Pausar o uso desses bots até que medidas de proteção adequadas estejam em vigor pode ser apenas o impulso necessário para levar empresas e desenvolvedores a priorizar a segurança em sistemas de IA.
Published At
4/10/2024 11:30:34 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.