Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

यूएनसी वैज्ञानिकों ने एआई भाषा मॉडल से संवेदनशील डेटा को मिटाने की जटिलताओं पर प्रकाश डाला

Algoine News
Summary:
उत्तरी कैरोलिना विश्वविद्यालय के वैज्ञानिकों ने बड़े भाषा मॉडल (एलएलएम) से संवेदनशील डेटा को हटाने की चुनौतियों का पता लगाया है। शोध में इन मॉडलों को डिजाइन और प्रशिक्षित करने के तरीके के कारण डेटा हटाने को सत्यापित करने में जटिलताओं पर प्रकाश डाला गया है। जबकि मॉडल व्यवहार को निर्देशित करने के लिए मानव प्रतिक्रिया (आरएलएचएफ) से सुदृढीकरण सीखने जैसे कुछ गार्डरेल और तरीके लागू किए जाते हैं, ये संवेदनशील डेटा को पूरी तरह से नहीं हटाते हैं। महत्वपूर्ण रूप से, अध्ययन रेखांकित करता है कि यहां तक कि उन्नत संपादन तकनीक ें एलएलएम से स्पष्ट तथ्यों को पूरी तरह से हटाने में विफल रहती हैं, यह दर्शाता है कि रक्षा तकनीक हमेशा नए हमले के तरीकों के पीछे होगी।
चैपल हिल में उत्तरी कैरोलिना विश्वविद्यालय के तीन वैज्ञानिकों ने हाल ही में एक प्री-प्रिंट पेपर में एआई अनुसंधान का अनावरण किया है। उन्होंने गूगल के बार्ड और ओपनएआई के चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) में एम्बेडेड संवेदनशील डेटा को हटाने में शामिल जटिलता पर चर्चा की। पेपर से पता चलता है कि इन मॉडलों से जानकारी को खत्म करना हासिल किया जा सकता है, फिर भी इस प्रक्रिया के पूरा होने को सत्यापित करना समान रूप से चुनौतीपूर्ण है। यह कठिनाई एलएलएम के वास्तुशिल्प डिजाइन और प्रशिक्षण विधियों से उत्पन्न होती है। ये मॉडल डेटाबेस पर पूर्व-प्रशिक्षण से गुजरते हैं, जिन्हें तब समझदार आउटपुट का उत्पादन करने के लिए ठीक किया जाता है। एक बार जब कोई मॉडल प्रशिक्षण पूरा कर लेता है, तो इसके डेवलपर्स विशिष्ट फ़ाइलों को हटाने और मॉडल को संबंधित परिणाम उत्पन्न करने से रोकने के लिए डेटाबेस को फिर से नहीं देख सकते हैं। संक्षेप में, एक मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले सभी डेटा मॉडल के वजन और मापदंडों में संग्रहीत होते हैं, केवल आउटपुट उत्पन्न करते समय पता लगाने योग्य होते हैं। इस जटिलता को अक्सर एआई के "ब्लैक बॉक्स" के रूप में जाना जाता है। समस्याएं तब होती हैं जब व्यापक डेटासेट पर प्रशिक्षित एलएलएम आउटपुट का उत्पादन करते हैं जो व्यक्तिगत विवरण या वित्तीय रिकॉर्ड जैसे संवेदनशील डेटा को प्रकट करते हैं। मान लीजिए कि एक एलएलएम को गोपनीय बैंकिंग विवरणों का उपयोग करके प्रशिक्षित किया गया था, आमतौर पर, एआई डेवलपर्स के लिए इन फ़ाइलों का पता लगाने और हटाने का कोई तरीका नहीं है। इसके बजाय, डेवलपर्स हार्ड-कोडेड संकेतों जैसे सुरक्षा उपायों को नियोजित करते हैं जो कुछ व्यवहारों को प्रतिबंधित करते हैं, या वे मानव प्रतिक्रिया (आरएलएचएफ) से सुदृढीकरण सीखने को लागू करते हैं। एक आरएलएचएफ प्रणाली में, मानव मूल्यांकनकर्ता वांछित और अवांछित व्यवहार दोनों को पैदा करने के लिए मॉडल के साथ बातचीत करते हैं। प्राप्त प्रतिक्रिया के अनुसार मॉडल परिष्कृत किए जाते हैं, जो या तो उन्हें वांछित व्यवहार की ओर ले जाता है या भविष्य के अवांछित व्यवहार पर अंकुश लगाता है। लेकिन जैसा कि यूएनसी वैज्ञानिकों ने नोट किया है, यह दृष्टिकोण अभी भी सभी संभावित मॉडल दोषों की पहचान करने वाले मनुष्यों पर निर्भर करता है। और यहां तक कि अगर सफल हो, तो यह मॉडल से जानकारी को मिटा नहीं देता है। शोध पत्र के आधार पर: "आरएलएचएफ की एक और मौलिक कमजोरी यह है कि एक मॉडल के पास अभी भी संवेदनशील डेटा हो सकता है। यद्यपि इस बारे में बहुत तर्क है कि मॉडल वास्तव में 'जानते हैं', यह समस्याग्रस्त लगता है अगर कोई मॉडल वर्णन कर सकता है, उदाहरण के लिए, बायोवेपन का निर्माण कैसे करें, लेकिन इसे करने के तरीके के बारे में जानकारी प्रदान नहीं करने का विकल्प चुनते हैं। यूएनसी वैज्ञानिकों ने निष्कर्ष निकाला कि रैंक-वन मॉडल एडिटिंग (रोम) जैसी उन्नत मॉडल संपादन तकनीकें भी एलएलएम से तथ्यात्मक डेटा को पूरी तरह से खत्म करने में विफल रहती हैं। शोध दल ने जीपीटी-जे नामक एक मॉडल का उपयोग किया, जिसमें केवल 6 बिलियन पैरामीटर थे, जबकि जीपीटी -3.5, चैटजीपीटी का समर्थन करने वाले मॉडलों में से एक था, जिसे 170 बिलियन मापदंडों के साथ इंजीनियर किया गया था। यह इंगित करता है कि जीपीटी -3.5 जैसे बड़े एलएलएम में अवांछित डेटा की पहचान करना और उन्मूलन करना एक छोटे मॉडल की तुलना में काफी अधिक चुनौतीपूर्ण होगा। शोधकर्ताओं ने निष्कर्षण हमलों के खिलाफ एलएलएम की रक्षा के लिए नई रक्षा तकनीकों को नया करने में कामयाबी हासिल की। ये दुर्भावनापूर्ण संस्थाओं द्वारा किसी मॉडल के सुरक्षा उपायों में हेरफेर करने के लिए जानबूझकर किए गए प्रयास हैं, जो इसे संवेदनशील डेटा जारी करने के लिए मजबूर करते हैं। फिर भी, शोधकर्ताओं का मानना है कि संवेदनशील जानकारी को हटाने का कार्य एक चुनौती है जहां रक्षा तकनीक लगातार विकसित हमले के तरीकों को आगे बढ़ाने का प्रयास कर रही है।

Published At

10/2/2023 5:30:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch