Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

डीपफेक रोबो-कॉल ने न्यू हैम्पशायर प्राइमरी में हस्तक्षेप करने के लिए राष्ट्रपति बिडेन की नकल की

Algoine News
Summary:
20-21 जनवरी के सप्ताहांत में, न्यू हैम्पशायर के निवासियों को राष्ट्रपति जो बिडेन की आवाज की नकल करते हुए एआई-जनित रोबो-कॉल प्राप्त हुए, जिसमें उन्हें प्राथमिक चुनाव से दूर रहने के लिए कहा गया। राज्य के अटॉर्नी जनरल के कार्यालय ने इसे गलत सूचना के रूप में माना और इसके स्रोत को खोजने के लिए जांच जारी है। मैनहट्टन डेमोक्रेटिक नेता कीथ राइट के डीपफेक ऑडियो के साथ एक समान घटना हुई, यह दर्शाता है कि ऑडियो नकली राजनीति में हस्तक्षेप के लिए दुर्भावनापूर्ण अभिनेताओं द्वारा एक पसंदीदा तरीका बन रहे हैं। विशेषज्ञ अज्ञात या संदिग्ध स्रोतों से सामग्री के साथ बातचीत करते समय सावधानी बरतने की सलाह देते हैं।
20-21 जनवरी के सप्ताहांत में, न्यू हैम्पशायर के निवासियों ने खुद को एक अप्रत्याशित राजनीतिक याचिका के अंत में पाया। अमेरिकी राष्ट्रपति जो बिडेन की आवाज की नकल करने वाले स्वचालित फोन कॉल ने स्थानीय लोगों से 23 जनवरी को प्राथमिक चुनाव में भाग नहीं लेने का आग्रह किया। ये रोबो-कॉल एक कृत्रिम बुद्धिमत्ता (एआई) उपकरण से उत्पन्न हुए हैं, जो आवाजों की नकल करने में सक्षम है, जिसे डीपफेक के रूप में जाना जाता है, जिसका स्पष्ट इरादा 2024 के राष्ट्रपति चुनावों को बाधित करना है। संदिग्ध कॉल ने सुझाव दिया कि निवासियों ने मतदान से परहेज किया, जैसा कि एनबीसी द्वारा एक ऑडियो रिकॉर्डिंग में कब्जा कर लिया गया है: "इस मंगलवार को मतदान केवल डोनाल्ड ट्रम्प को फिर से चुनने के लिए रिपब्लिकन की महत्वाकांक्षा को बढ़ाता है। आपका बहुमूल्य वोट नवंबर में गिना जाएगा, न कि आगामी मंगलवार को। राज्य के अटॉर्नी जनरल के कार्यालय ने इन कॉलों को गलत सूचना के प्रसार के रूप में बदनाम करने की जल्दी की, न्यू हैम्पशायर के मतदाताओं से कॉल में संदेश को पूरी तरह से अनदेखा करने का आग्रह किया। दूसरी ओर, पूर्व राष्ट्रपति डोनाल्ड ट्रम्प के एक प्रतिनिधि ने उनकी या उनकी अभियान टीम की किसी भी भागीदारी से इनकार किया। वर्तमान में, इन गलत कॉल के पीछे का स्रोत जांच के दायरे में है। इसी तरह का एक राजनीतिक विवाद सामने आया जिसमें नकली ऑडियो भी शामिल है। मैनहट्टन लोकतांत्रिक नेता कीथ राइट का प्रतिरूपण करने वाला एक डीपफेक ऑडियो 21 जनवरी को खोजा गया था, जहां उक्त आवाज को साथी डेमोक्रेटिक असेंबली सदस्य, इनेज़ डिकेंस की आलोचना करते हुए सुना गया था। पोलिटिको की रिपोर्ट के अनुसार, कुछ लोगों द्वारा ऑडियो को नकली के रूप में खारिज करने के बावजूद, यह एक पल के लिए कम से कम एक राजनीतिक अंदरूनी सूत्र को धोखा देने में कामयाब रहा। पूर्व सिटी काउंसिल स्पीकर और मैनहट्टन डेमोक्रेट, मेलिसा मार्क-विवेरिटो ने पोलिटिको को कबूल किया कि वह शुरू में धोखे के लिए गिर गई थी: "मुझे अचंभित कर दिया गया था। मैंने शुरू में इसे प्रामाणिक माना। विशेषज्ञों का अनुमान है कि ये दुर्भावनापूर्ण पार्टियां वीडियो के बजाय ऑडियो जोड़तोड़ पसंद करती हैं क्योंकि दर्शकों की जांच अक्सर दृश्य प्रवंचना के प्रति अधिक और अधिक चौकस होती है। एआई सलाहकार हेनरी अजदर ने फाइनेंशियल टाइम्स के साथ साझा किया, "हर कोई फ़ोटोशॉप से परिचित है या, कम से कम, इसके अस्तित्व से अवगत है। इस समाचार लेख के प्रकाशन के समय, डीपफेक की पहचान करने या उसे हतोत्साहित करने का एक मूर्खतापूर्ण तरीका अभी तक नहीं मिला है। इसे नेविगेट करने के लिए, विशेषज्ञ जनता को अज्ञात या संदिग्ध स्रोतों से सामग्री के साथ बातचीत करते समय विवेक का प्रयोग करने की सलाह देते हैं, खासकर जब असाधारण आरोप शामिल हों।

Published At

1/23/2024 7:25:04 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch