Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

IBM Security rivela l'"audio-jacking" basato sull'AI: una nuova minaccia per le conversazioni dal vivo

Algoine News
Summary:
Gli scienziati di IBM Security scoprono una tecnica di "audio-jacking" che impiega l'intelligenza artificiale generativa per dirottare e alterare le conversazioni dal vivo senza essere rilevate. Il sistema, facile da costruire, richiede solo tre secondi di voce di una persona per clonarlo, sostituendo l'audio originale con uno manipolato. La tecnica potrebbe essere potenzialmente utilizzata per scopi non etici, come il trasferimento di fondi su conti errati o la modifica segreta di contenuti di notizie in diretta e discorsi politici.
In un nuovo allarmante sviluppo, gli scienziati di IBM Security hanno scoperto un metodo inaspettatamente semplice per prendere il controllo e modificare le discussioni in tempo reale sfruttando la potenza dell'intelligenza artificiale (AI). Questa tecnica, definita "audio-jacking", dipende in modo significativo dalle varianti dell'IA generativa, come ChatGPT di OpenAI e Llama-2 di Meta, che includono anche la tecnologia audio deepfake. Nella loro ricerca, il team ha diretto l'IA ad analizzare l'audio da due fonti in una conversazione in tempo reale, simile a una telefonata. Al rilevamento di una parola chiave o di una frase specificata, l'IA interviene per manomettere l'audio in questione, prima di trasmetterlo al destinatario previsto. Secondo la notazione del blog di IBM Security, il test si è concluso con l'IA che ha sequestrato in modo efficiente l'audio di un partecipante mentre un'altra persona chiedeva loro di condividere i propri dati bancari. L'IA ha ulteriormente sostituito la voce originale con l'audio deepfake, comunicando un numero di account alternativo. I destinatari erano ignari di questo attacco. Mentre il lancio di tali attacchi richiederebbe una qualche forma di intrigo o inganno, la progettazione del sistema di IA non poneva ostacoli sostanziali. La costruzione di questo proof-of-concept (PoC) è stata incredibilmente semplice: è stata spesa una notevole quantità di tempo per capire come estrarre l'audio dal microfono e consegnarlo all'IA generativa. Convenzionalmente, la progettazione di un sistema autonomo per intervenire su specifici segmenti audio e sostituirli con file audio autogenerati in movimento richiederebbe notevoli competenze informatiche. Tuttavia, con la moderna tecnologia di intelligenza artificiale generativa, il processo diventa più gestibile. Il blog ha inoltre chiarito che solo tre secondi della voce di una persona sono sufficienti per duplicarla e tali deepfake vengono ora eseguiti prevalentemente tramite API. Il rischio di audio-jacking va oltre l'inganno delle persone nel trasferire fondi su conti errati. I ricercatori hanno avvertito che potrebbe anche servire come strumento di censura clandestina con la capacità di alterare il contenuto delle notizie in diretta o modificare i discorsi politici trasmessi in diretta.

Published At

2/5/2024 8:20:06 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch