Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

IBM Security enthüllt KI-gestütztes "Audio-Jacking": eine neue Bedrohung für Live-Konversationen

Algoine News
Summary:
IBM Security-Wissenschaftler entdecken eine "Audio-Jacking"-Technik, bei der generative KI eingesetzt wird, um Live-Gespräche unbemerkt zu kapern und zu verändern. Das einfach zu erstellende System benötigt nur drei Sekunden der Stimme einer Person, um sie zu klonen, und ersetzt den Originalton durch einen manipulierten. Die Technik könnte möglicherweise für unethische Zwecke verwendet werden, z. B. für die Überweisung von Geldern auf falsche Konten oder die heimliche Änderung von Live-Nachrichteninhalten und politischen Reden.
In einer alarmierenden neuen Entwicklung haben IBM Security-Wissenschaftler eine unerwartet einfache Methode entdeckt, um Live-Diskussionen zu übernehmen und zu verändern, indem sie die Leistungsfähigkeit von künstlicher Intelligenz (KI) nutzen. Diese Technik, die als "Audio-Jacking" bezeichnet wird, hängt maßgeblich von generativen KI-Varianten wie ChatGPT von OpenAI und Llama-2 von Meta ab, die auch Deepfake-Audiotechnologie enthalten. In ihrer Forschung wies das Team die KI an, Audio aus zwei Quellen in einem Echtzeitgespräch zu analysieren, ähnlich wie bei einem Telefonanruf. Bei der Erkennung eines bestimmten Schlüsselworts oder einer bestimmten Phrase würde die KI dann eingreifen, um das relevante Audio zu manipulieren, bevor es an den beabsichtigten Empfänger übertragen wird. Laut der Blog-Notation von IBM Security endete der Test damit, dass die KI das Audio eines Teilnehmers effizient erfasste, während eine andere Person ihn aufforderte, seine Bankdaten weiterzugeben. Die KI ersetzte außerdem die ursprüngliche Stimme durch Deepfake-Audio, das eine alternative Kontonummer übermittelte. Die Empfänger bekamen von diesem Angriff nichts mit. Während das Starten solcher Angriffe eine Form von Intrige oder Täuschung erfordern würde, stellte die Entwicklung des KI-Systems keine wesentlichen Hindernisse dar. Die Konstruktion dieses Proof-of-Concept (PoC) war schockierend einfach – es wurde viel Zeit aufgewendet, um zu verstehen, wie man Audio aus dem Mikrofon extrahiert und an die generative KI weitergibt. Herkömmlicherweise würde die Entwicklung eines autonomen Systems, das in bestimmte Audiosegmente eingreift und sie durch unterwegs selbst generierte Audiodateien ersetzt, erhebliche Informatikkenntnisse erfordern. Mit moderner generativer KI-Technologie wird der Prozess jedoch überschaubarer. Der Blog stellte weiter klar, dass nur drei Sekunden der Stimme einer Person ausreichen, um sie zu duplizieren, und dass solche Deepfakes mittlerweile überwiegend über APIs ausgeführt werden. Das Risiko von Audio-Jacking geht über das Täuschen von Einzelpersonen hinaus, um Geld auf falsche Konten zu überweisen. Die Forscher haben davor gewarnt, dass es auch als heimliches Zensurwerkzeug dienen könnte, das in der Lage ist, Live-Nachrichteninhalte zu verändern oder live übertragene politische Reden zu modifizieren.

Published At

2/5/2024 8:20:06 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch