Deepfake-Robo-Anrufe imitieren Präsident Biden, um sich in die Vorwahlen in New Hampshire einzumischen
Summary:
Am Wochenende vom 20. bis 21. Januar erhielten die Einwohner von New Hampshire KI-generierte Robo-Anrufe, die die Stimme von Präsident Joe Biden nachahmten und sie aufforderten, sich der Vorwahl zu enthalten. Die Generalstaatsanwaltschaft des Bundesstaates stufte es als Fehlinformation ein, und die Ermittlungen zur Suche nach der Quelle dauern an. Ein ähnlicher Vorfall ereignete sich mit einem Deepfake-Audio des demokratischen Führers von Manhattan, Keith Wright, was darauf hindeutet, dass Audio-Fälschungen zu einer bevorzugten Methode böswilliger Akteure werden, um sich in die Politik einzumischen. Experten raten zur Vorsicht bei der Interaktion mit Inhalten aus unbekannten oder dubiosen Quellen.
Am Wochenende des 20. und 21. Januar sahen sich die Einwohner von New Hampshire mit einem unerwarteten politischen Appell konfrontiert. Automatisierte Telefonanrufe, die die Stimme von US-Präsident Joe Biden nachahmen, forderten die Einheimischen auf, nicht an den Vorwahlen am 23. Januar teilzunehmen. Diese Robo-Anrufe stammen von einem Tool mit künstlicher Intelligenz (KI), das in der Lage ist, Stimmen zu replizieren, ein sogenanntes Deepfake, mit der offensichtlichen Absicht, die Präsidentschaftswahlen 2024 zu stören.
Die dubiosen Aufrufe deuteten darauf hin, dass sich die Einwohner der Stimme enthalten sollten, wie in einer Audioaufnahme von NBC festgehalten wurde: "Die Wahl an diesem Dienstag stärkt nur den Ehrgeiz der Republikaner, Donald Trump wiederzuwählen. Ihre wertvolle Stimme wird im November zählen, nicht erst am kommenden Dienstag."
Die Generalstaatsanwaltschaft des Bundesstaates diskreditierte diese Anrufe schnell als Verbreitung von Fehlinformationen und forderte die Wähler von New Hampshire auf, die Botschaft in den Anrufen vollständig zu ignorieren. Auf der anderen Seite bestritt ein Vertreter von Ex-Präsident Donald Trump jegliche Beteiligung von ihm oder seinem Wahlkampfteam. Derzeit wird die Quelle hinter diesen falsch dargestellten Anrufen untersucht.
In einer ähnlichen Entwicklung kam es zu einer ähnlichen politischen Kontroverse um gefälschte Audiodateien. Am 21. Januar wurde ein Deepfake-Audio entdeckt, das sich als Keith Wright, der Führer der Demokraten in Manhattan, ausgab, und in dem die besagte Stimme zu hören war, die ihre demokratische Parlamentskollegin Inez Dickens kritisierte. Laut dem Bericht von Politico gelang es dem Audio, zumindest einen politischen Insider für einen Moment zu täuschen, obwohl einige es als Fälschung abtaten.
Die ehemalige Sprecherin des Stadtrats und Demokratin von Manhattan, Melissa Mark-Viverito, gestand gegenüber Politico, dass sie zunächst auf die Täuschung hereingefallen sei: "Ich war verblüfft. Anfangs habe ich geglaubt, dass es authentisch ist."
Experten spekulieren, dass diese böswilligen Parteien Audiomanipulationen dem Video vorziehen, da das Publikum oft genauer unter die Lupe genommen wird und mehr auf visuelle Tricks achtet. Der KI-Berater Henry Ajder teilte der Financial Times mit: "Jeder ist mit Photoshop vertraut oder weiß zumindest, dass es ihn gibt."
Zum Zeitpunkt der Veröffentlichung dieses Artikels ist ein narrensicherer Weg, um Deepfakes zu erkennen oder zu verhindern, noch nicht gefunden. Um dies zu bewältigen, raten Experten der Öffentlichkeit, bei der Interaktion mit Inhalten aus unbekannten oder fragwürdigen Quellen Urteilsvermögen walten zu lassen, insbesondere wenn es sich um außergewöhnliche Vorwürfe handelt.
Published At
1/23/2024 7:25:04 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.