Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

IBM Security revela 'Audio-jacking' alimentado por IA: uma nova ameaça às conversas ao vivo

Algoine News
Summary:
Cientistas de segurança da IBM descobrem uma técnica de "audio-jacking" que emprega IA generativa para sequestrar e alterar conversas ao vivo sem ser detectada. O sistema fácil de construir requer apenas três segundos da voz de uma pessoa para cloná-lo, substituindo o áudio original por um manipulado. A técnica poderia ser potencialmente usada para fins antiéticos, como transferir fundos para contas incorretas ou modificar secretamente conteúdo de notícias ao vivo e discursos políticos.
Em um novo desenvolvimento alarmante, os cientistas de segurança da IBM descobriram um método imprevisto e simples para assumir e alterar discussões ao vivo, aproveitando o poder da inteligência artificial (IA). Essa técnica, chamada de "audio-jacking", depende significativamente de variantes de IA generativas, como o ChatGPT da OpenAI e o Llama-2 da Meta, incluindo também a tecnologia de áudio deepfake. Em sua pesquisa, a equipe orientou a IA a analisar o áudio de fontes duplas em uma conversa em tempo real, semelhante a um telefonema. Ao detectar uma palavra-chave ou frase especificada, a IA interviria para adulterar o áudio relevante, antes de transmiti-lo ao destinatário pretendido. De acordo com a notação do blog da IBM Security, o teste foi concluído com a IA apreendendo eficientemente o áudio de um participante, enquanto outra pessoa pedia que eles compartilhassem seus dados bancários. A IA ainda substituiu a voz original por áudio deepfake, comunicando um número de conta alternativo. Os destinatários estavam alheios a este ataque. Embora o lançamento de tais ataques exigisse alguma forma de conspiração ou engano, projetar o sistema de IA não representava obstáculos substanciais. A construção dessa prova de conceito (PoC) foi chocantemente simples – uma quantidade significativa de tempo foi gasta para entender como extrair áudio do microfone e entregá-lo à IA generativa. Convencionalmente, projetar um sistema autônomo para intervir segmentos de áudio específicos e substituí-los por arquivos de áudio autogerados em movimento exigiria conhecimentos substanciais de ciência da computação. No entanto, com a moderna tecnologia de IA generativa, o processo se torna mais gerenciável. O blog esclareceu ainda que apenas três segundos da voz de uma pessoa são suficientes para duplicá-la e esses deepfakes agora são predominantemente executados via APIs. O risco de roubo de áudio vai além de enganar indivíduos para transferir fundos para contas incorretas. Os pesquisadores alertaram que ele também pode servir como uma ferramenta de censura clandestina com a capacidade de alterar conteúdo de notícias ao vivo ou modificar discursos políticos transmitidos ao vivo.

Published At

2/5/2024 8:20:06 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch