Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

एआई सहायकों की कमजोरियां और बढ़ती सुरक्षा चिंताएं: क्या हमारा डेटा सुरक्षित है?

Algoine News
Summary:
लेख में आर्टिफिशियल इंटेलिजेंस (एआई) सहायक परिदृश्य में बढ़ती सुरक्षा चिंताओं पर चर्चा की गई है। यह इन उपकरणों से जुड़ी संभावित कमजोरियों और उल्लंघन जोखिमों को प्रदर्शित करने वाले अध्ययनों की एक श्रृंखला पर प्रकाश डालता है। लेखक डेवलपर्स के लिए एआई के सुरक्षा पहलू को प्राथमिकता देने और त्वरित नियामक कार्रवाई की आवश्यकता पर जोर देता है। टुकड़ा यह भी सुझाव देता है कि उपयोगकर्ता एआई सहायकों के साथ संवेदनशील जानकारी साझा करने को सीमित करते हैं जब तक कि पर्याप्त सुरक्षात्मक कार्रवाई न हो।
2022 के अंत में ChatGPT के लॉन्च ने प्रौद्योगिकी में एक महत्वपूर्ण बिंदु को चिह्नित किया जहां कृत्रिम बुद्धिमत्ता (AI) ने मुख्यधारा में एक महत्वपूर्ण छलांग लगाई। जवाब में, चाहे वे स्थापित तकनीकी दिग्गज हों या नवोदित स्टार्ट-अप, सभी ने एआई सहायकों के वर्गीकरण का अनावरण करके इस एआई प्रवृत्ति को भुनाने का प्रयास किया है। ये आभासी एड्स हमारे जीवन के पेशेवर और व्यक्तिगत दोनों पहलुओं में हमारे सलाहकारों, साथियों और गोपनीय विश्वासपात्रों में बदल गए हैं; इस प्रकार, हम नाजुक जानकारी के साथ उन पर भरोसा करते हैं। हालांकि, हमारी जानकारी की सुरक्षा का उनका वादा एक महत्वपूर्ण सवाल उठाता है - क्या हम वास्तव में सुरक्षित हैं? मार्च में बेर-गुरियन विश्वविद्यालय द्वारा किए गए एक अध्ययन ने एक परेशान सच्चाई का खुलासा किया: हमारे रहस्य उतने सुरक्षित नहीं हो सकते जितना हम मानते हैं। शोधकर्ताओं ने एक हमले की विधि का खुलासा किया जो एआई सहायक प्रतिक्रियाओं को खतरनाक सटीकता के साथ डिकोड कर सकता है, जो Google के मिथुन को छोड़कर, Microsoft के Copilot और OpenAI के ChatGPT-4 जैसे कई प्लेटफार्मों में सिस्टम डिज़ाइन में एक महत्वपूर्ण दोष का प्रदर्शन करता है। यह ध्यान रखना खतरनाक है कि शोधकर्ता उसी डिक्रिप्शन टूल को लागू कर सकते हैं - एक बार चैटजीपीटी जैसी सेवा के लिए बनाया गया - अतिरिक्त प्रयासों के बिना अन्य प्लेटफार्मों को डीकोड करने के लिए। एआई सहायक प्रणालियों में भेद्यता के इसी तरह के खुलासे कुछ समय से चक्कर लगा रहे हैं। हाल ही में, 2023 में, विभिन्न अमेरिकी विश्वविद्यालयों और Google DeepMind के शोधकर्ताओं के एक गठबंधन ने दिखाया कि ChatGPT को विशिष्ट शब्दों को दोहराने के लिए प्रेरित करके, यह अपने याद किए गए प्रशिक्षण डेटा के कुछ हिस्सों को फैला सकता है, जिसमें उपयोगकर्ता पहचानकर्ता, URL, बिटकॉइन पते, और बहुत कुछ शामिल हैं। ये सुरक्षा मुद्दे ओपन-सोर्स मॉडल के साथ और भी अधिक स्पष्ट हो जाते हैं। हाल के एक केस स्टडी ने हगिंग फेस रूपांतरण सेवा में घुसपैठ करने और इसके माध्यम से प्रस्तुत किसी भी मॉडल को कमांड करने की हमलावर की क्षमता पर प्रकाश डाला। यह महत्वपूर्ण खतरे पैदा करता है क्योंकि विरोधी संभावित रूप से दुर्भावनापूर्ण मॉडल को बदल सकते हैं या लगा सकते हैं, निजी डेटासेट को उजागर कर सकते हैं। एआई सहायकों का बढ़ता प्रभाव निर्विवाद रूप से आकर्षक है। लेकिन शक्ति में वृद्धि के साथ हमलों के लिए संवेदनशीलता बढ़ जाती है। हाल के एक ब्लॉग पोस्ट में इस पर विचार करते हुए, बिल गेट्स ने एक व्यापक एआई सहायक या "एजेंट" की तस्वीर चित्रित की, जो हमारे सभी उपकरणों तक पहुंच रखता है, इस प्रकार हमारे जीवन में व्यापक अंतर्दृष्टि प्राप्त करता है। हालांकि, एआई परिदृश्य को परेशान करने वाली अनसुलझी सुरक्षा चिंताओं के साथ, हम अपने जीवन को अपहरण करने का जोखिम उठाते हैं, जिसमें किसी भी संबद्ध व्यक्ति या संस्था भी शामिल है, क्या इन एजेंटों को गलत हाथों में पड़ना चाहिए। बढ़ती चिंताओं के बावजूद, हम शक्तिहीन नहीं हैं। एआई परिदृश्य की जांच करते हुए, मार्च के अंत में, अमेरिकी प्रतिनिधि सभा ने कांग्रेस के कर्मचारियों द्वारा माइक्रोसॉफ्ट के सह-पायलट के उपयोग पर कड़ा प्रतिबंध लगा दिया। यह कदम अप्रैल में साइबर सुरक्षा समीक्षा बोर्ड की रिपोर्ट के बाद उठाया गया था जिसमें Microsoft को सुरक्षा निरीक्षण के लिए दोषी ठहराया गया था, जिसके कारण अमेरिकी सरकार के अधिकारियों को प्रभावित करने वाले ग्रीष्मकालीन 2023 मेल उल्लंघन हुए। अतीत में, Apple, Amazon, Samsung और Spotify जैसे तकनीकी दिग्गजों के साथ-साथ JPMorgan, Citi और Goldman Sachs जैसे वित्तीय दिग्गजों ने अपने कर्मचारियों के लिए बॉट्स के उपयोग पर रोक लगा दी है। एआई क्षेत्र में ज्ञात अभिनेताओं, माइक्रोसॉफ्ट और ओपनएआई ने सार्वजनिक रूप से पिछले साल जिम्मेदार एआई प्रथाओं के पालन का वचन दिया; हालांकि, ठोस कार्रवाई देखी जानी बाकी है। प्रतिबद्धताएं एक अच्छी शुरुआत हैं लेकिन उन्हें कार्रवाई द्वारा समर्थित किया जाना चाहिए। उपभोक्ताओं के रूप में, शायद सबसे सक्रिय कदम जो हम उठा सकते हैं, वह है एआई बॉट्स के साथ संवेदनशील जानकारी साझा करते समय विवेक का प्रयोग करना। इन बॉट्स के उपयोग को तब तक रोकना जब तक कि पर्याप्त सुरक्षात्मक उपाय न हों, एआई सिस्टम में सुरक्षा को प्राथमिकता देने में कंपनियों और डेवलपर्स को संकेत देने के लिए आवश्यक धक्का हो सकता है।

Published At

4/10/2024 11:30:34 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚧 Platform is in prototype mode — bot activations are currently unavailable, but you’re welcome to explore all other features!

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy