Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

IBM Security revela el 'audio-jacking' impulsado por IA: una nueva amenaza para las conversaciones en vivo

Algoine News
Summary:
Los científicos de seguridad de IBM descubren una técnica de "secuestro de audio" que emplea IA generativa para secuestrar y alterar conversaciones en vivo sin ser detectadas. El sistema, fácil de construir, requiere solo tres segundos de la voz de una persona para clonarlo, reemplazando el audio original por uno manipulado. La técnica podría utilizarse con fines poco éticos, como transferir fondos a cuentas incorrectas o modificar de forma encubierta el contenido de las noticias en directo y los discursos políticos.
En un nuevo y alarmante desarrollo, los científicos de IBM Security han descubierto un método inesperadamente simple para tomar el control y alterar las discusiones en vivo aprovechando el poder de la inteligencia artificial (IA). Esta técnica, denominada "audio-jacking", depende en gran medida de variantes de IA generativa, como ChatGPT de OpenAI y Llama-2 de Meta, que también incluyen tecnología de audio deepfake. En su investigación, el equipo dirigió a la IA para que analizara el audio de fuentes duales en una conversación en tiempo real, similar a una llamada telefónica. Al detectar una palabra clave o frase específica, la IA intervendría para manipular el audio relevante, antes de transmitirlo al destinatario previsto. Según la notación del blog de IBM Security, la prueba concluyó con la IA apoderándose de manera eficiente del audio de un participante mientras otra persona le pedía que compartiera sus datos bancarios. La IA reemplazó aún más la voz original con audio deepfake, comunicando un número de cuenta alternativo. Los destinatarios no se dieron cuenta de este ataque. Si bien lanzar tales ataques requeriría algún tipo de intriga o engaño, el diseño del sistema de IA no planteó obstáculos sustanciales. La construcción de esta prueba de concepto (PoC) fue sorprendentemente simple: se dedicó una cantidad significativa de tiempo a comprender cómo extraer el audio del micrófono y entregarlo a la IA generativa. Convencionalmente, el diseño de un sistema autónomo para intervenir segmentos de audio específicos y sustituirlos con archivos de audio autogenerados sobre la marcha exigiría importantes conocimientos de informática. Sin embargo, con la tecnología moderna de IA generativa, el proceso se vuelve más manejable. El blog aclaró además que solo tres segundos de la voz de una persona son suficientes para duplicarla y que estos deepfakes ahora se ejecutan predominantemente a través de API. El riesgo de secuestro de audio se extiende más allá de engañar a las personas para que transfieran fondos a cuentas incorrectas. Los investigadores han advertido que también puede servir como una herramienta de censura clandestina con la capacidad de alterar el contenido de las noticias en vivo o modificar los discursos políticos transmitidos en vivo.

Published At

2/5/2024 8:20:06 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch