Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

Deepfake Robot Çağrıları, Başkan Biden'ın New Hampshire Ön Seçimlerine Karışmasını Taklit Ediyor

Algoine News
Summary:
20-21 Ocak hafta sonu, New Hampshire sakinleri, Başkan Joe Biden'ın sesini taklit eden ve ön seçimlerden kaçınmalarını isteyen yapay zeka tarafından oluşturulan robot çağrılar aldı. Eyalet başsavcılığı bunu yanlış bilgi olarak değerlendirdi ve kaynağını bulmak için soruşturmalar devam ediyor. Manhattan demokrat lideri Keith Wright'ın deepfake sesiyle benzer bir olay yaşandı ve bu da sahte ses kayıtlarının kötü niyetli aktörler tarafından siyasete karışmak için tercih edilen bir yöntem haline geldiğini gösteriyor. Uzmanlar, bilinmeyen veya şüpheli kaynaklardan gelen içerikle etkileşime girerken dikkatli olunmasını tavsiye ediyor.
20-21 Ocak hafta sonu, New Hampshire sakinleri kendilerini beklenmedik bir siyasi savunmanın sonunda buldular. ABD Başkanı Joe Biden'ın sesini taklit eden otomatik telefon görüşmeleri, yerel halkı 23 Ocak'taki ön seçimlere katılmamaya çağırdı. Bu robot çağrılar, 2024 başkanlık seçimlerini bozma niyetiyle deepfake olarak bilinen sesleri kopyalayabilen bir yapay zeka (AI) aracından kaynaklandı. Şüpheli çağrılar, NBC tarafından bir ses kaydında yakalandığı gibi, sakinlerin oy kullanmaktan kaçındığını öne sürdü: "Bu Salı günü oy kullanmak, yalnızca Cumhuriyetçilerin Donald Trump'ı yeniden seçme hırsını güçlendiriyor. Değerli oylarınız önümüzdeki Salı günü değil, Kasım ayında sayılacak." Eyalet başsavcılığı, bu çağrıları yanlış bilgi yayma olarak itibarsızlaştırmak için hızlı davrandı ve New Hampshire seçmenlerini aramalardaki mesajı tamamen görmezden gelmeye çağırdı. Öte yandan, eski başkan Donald Trump'ın bir temsilcisi, kendisinin veya kampanya ekibinin herhangi bir katılımını reddetti. Şu anda, bu yanlış tanıtılan çağrıların arkasındaki kaynak araştırılıyor. İlgili bir gelişmede, sahte ses içeren benzer bir siyasi tartışma ortaya çıktı. 21 Ocak'ta Manhattan demokrat lideri Keith Wright'ın kimliğine bürünen bir deepfake ses keşfedildi ve söz konusu sesin demokrat meclis üyesi Inez Dickens'ı eleştirdiği duyuldu. Politico'nun raporuna göre, bazıları sesi sahte olarak reddetse de, bir an için en az bir siyasi içeriden kişiyi aldatmayı başardı. Eski Belediye Meclisi Başkanı ve Manhattan demokratı Melissa Mark-Viverito, Politico'ya başlangıçta aldatmacaya düştüğünü itiraf etti: "Şaşırdım. Başlangıçta gerçek olduğuna inandım." Uzmanlar, bu kötü niyetli tarafların video yerine ses manipülasyonlarını tercih ettiğini, çünkü izleyici incelemesinin genellikle daha yüksek ve görsel hilelere karşı daha dikkatli olduğunu düşünüyor. Yapay zeka danışmanı Henry Ajder, Financial Times'a verdiği demeçte, "herkes Photoshop'a aşinadır veya en azından varlığından haberdardır" dedi. Bu haber makalesinin yayınlandığı tarihte, deepfake'leri tanımlamanın veya caydırmanın kusursuz bir yolu henüz bulunamamıştır. Bu konuda gezinmek için uzmanlar, özellikle olağanüstü iddialar söz konusu olduğunda, bilinmeyen veya şüpheli kaynaklardan gelen içerikle etkileşime girerken halka ayırt edici olmalarını tavsiye ediyor.

Published At

1/23/2024 7:25:04 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch