Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

IBM Security révèle le « détournement audio » alimenté par l’IA : une nouvelle menace pour les conversations en direct

Algoine News
Summary:
Les scientifiques d’IBM Security découvrent une technique de « détournement audio » qui utilise l’IA générative pour détourner et modifier les conversations en direct sans être détectées. Le système facile à construire ne nécessite que trois secondes de la voix d’une personne pour le cloner, remplaçant ainsi l’audio original par un son manipulé. La technique pourrait être utilisée à des fins contraires à l’éthique, telles que le transfert de fonds sur des comptes incorrects ou la modification secrète du contenu des informations en direct et des discours politiques.
Dans un nouveau développement alarmant, les scientifiques d’IBM Security ont découvert une méthode d’une simplicité inattendue pour prendre le contrôle et modifier les discussions en direct en tirant parti de la puissance de l’intelligence artificielle (IA). Cette technique, appelée « audio-jacking », dépend considérablement des variantes de l’IA générative, telles que ChatGPT d’OpenAI et Llama-2 de Meta, qui incluent également la technologie audio deepfake. Dans ses recherches, l’équipe a demandé à l’IA d’analyser l’audio provenant de deux sources dans une conversation en temps réel, semblable à un appel téléphonique. Lors de la détection d’un mot-clé ou d’une phrase spécifique, l’IA interviendrait alors pour altérer l’audio concerné, avant de le transmettre au destinataire prévu. Selon la notation du blog d’IBM Security, le test s’est terminé par la saisie efficace par l’IA de l’audio d’un participant pendant qu’une autre personne lui demandait de partager ses données bancaires. L’IA a ensuite remplacé la voix d’origine par un deepfake audio, communiquant un autre numéro de compte. Les destinataires n’étaient pas conscients de cette attaque. Bien que le lancement de telles attaques nécessiterait une certaine forme d’intrigue ou de tromperie, la conception du système d’IA n’a pas posé d’obstacles substantiels. La construction de cette preuve de concept (PoC) a été étonnamment simple : beaucoup de temps a été consacré à comprendre comment extraire l’audio du microphone et le transmettre à l’IA générative. Traditionnellement, la conception d’un système autonome permettant d’intervenir sur des segments audio spécifiques et de les remplacer par des fichiers audio auto-générés en déplacement exigerait des compétences informatiques substantielles. Cependant, avec la technologie moderne de l’IA générative, le processus devient plus facile à gérer. Le blog a en outre précisé que seulement trois secondes de la voix d’une personne suffisent pour la dupliquer et que ces deepfakes sont désormais principalement exécutés via des API. Le risque d’audio-jacking va au-delà de la duperie des individus pour qu’ils transfèrent des fonds sur des comptes incorrects. Les chercheurs ont averti qu’il pourrait également servir d’outil de censure clandestin avec la capacité de modifier le contenu des informations en direct ou de modifier les discours politiques transmis en direct.

Published At

2/5/2024 8:20:06 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch