Live Chat

Crypto News

Cryptocurrency News 10 months ago
ENTRESRUARPTDEFRZHHIIT

मेटा ने 'पर्पल लामा' का अनावरण किया: डेवलपर्स के लिए एक व्यापक एआई सुरक्षा टूलकिट

Algoine News
Summary:
मेटा ने "पर्पल लामा" का अनावरण किया, जो जनरेटिव एआई मॉडल के लिए सुरक्षा उपायों के साथ एक टूलकिट है। उपकरणों का यह सूट डेवलपर्स को जेनरेटिव एआई मॉडल का उपयोग करके सुरक्षित और सुरक्षित अनुप्रयोगों के निर्माण में सहायता करने के लिए समर्पित है। "पर्पल लामा" शब्द "रेड टीमिंग" (दोषों की पहचान करने के लिए सक्रिय हमले) और "ब्लू टीमिंग" (खतरों को कम करने के लिए प्रतिक्रियाशील रणनीतियों) की संयुक्त रणनीतियों से लिया गया है। टूलकिट में खतरे की मात्रा का परिमाणन, असुरक्षित कोड सुझावों की आवृत्ति मूल्यांकन और साइबर हमलों से निपटने के लिए निरंतर मूल्यांकन के लिए मैट्रिक्स शामिल हैं। प्राथमिक इरादा मॉडल पाइपलाइन में असुरक्षित कोड और अवांछित आउटपुट को कम करना है, साइबर अपराधियों के लिए शोषण के अवसरों को कम करना है।
7 दिसंबर को मेटा के सौजन्य से जनरेटिव आर्टिफिशियल इंटेलिजेंस मॉडल की सुरक्षा और बेंचमार्किंग के लिए डिज़ाइन किए गए उपकरणों के एक सेट का खुलासा हुआ। टूलकिट, जिसे "पर्पल लामा" कहा जाता है, डेवलपर्स को मेटा से एक ओपन-सोर्स मॉडल लामा -2 सहित जेनरेटिव एआई टूल के साथ सुरक्षित और सुरक्षित रूप से निर्माण करने में सहायता करने के लिए स्थापित किया गया है। पर्पल लामा का लक्ष्य सुरक्षित और जिम्मेदार उत्पादक एआई अनुभवों के निर्माण के लिए खेल के मैदान को समतल करना है। इसमें वाणिज्यिक उपयोग और अनुसंधान के लिए लाइसेंस योग्य उपकरण, मूल्यांकन और मॉडल शामिल हैं। मेटा के रिवर्स के अनुसार, "पर्पल लामा" में "पर्पल" शब्द "ब्लू टीमिंग" और "रेड टीमिंग" के संयोजन से संबंधित है। रेड टीमिंग एक रणनीति अपनाती है जहां डेवलपर्स या आंतरिक परीक्षक संभावित त्रुटियों, दोषों या अवांछित आउटपुट और इंटरैक्शन की पहचान करने के लिए उद्देश्यपूर्ण रूप से एआई मॉडल के खिलाफ हमले शुरू करते हैं। यह अभ्यास डेवलपर्स को संभावित हानिकारक हमलों के खिलाफ रणनीति बनाने और सुरक्षा या सुरक्षा दोषों से बचाव करने में सक्षम बनाता है। ब्लू टीमिंग तुलनात्मक विपरीत के रूप में कार्य करता है, जिसमें डेवलपर्स या परीक्षक उत्पादन में ग्राहक या उपभोक्ता मॉडल के खिलाफ वास्तविक दुनिया के खतरों को कम करने के लिए आवश्यक रणनीतियों की पहचान करने के लिए लाल टीमिंग हमलों का मुकाबला करते हैं। मेटा इंगित करता है कि रक्षात्मक (ब्लू टीम) और अटैकिंग (लाल टीम) दोनों पदों को फ्यूज करना वास्तव में उन चुनौतियों से निपटने के लिए महत्वपूर्ण है जो जनरेटिव एआई पेश करते हैं। इसलिए, बैंगनी-टीमिंग दोनों टीमों की जिम्मेदारियों को जोड़ती है और संभावित जोखिमों का मूल्यांकन और कम करने के लिए एक संयुक्त प्रयास प्रस्तुत करती है। मेटा का दावा है कि इस रिलीज के माध्यम से बड़े भाषा मॉडल (एलएलएम) के लिए साइबर सुरक्षा सुरक्षा मूल्यांकन का पहला सूट अनावरण किया गया है। इसमें एलएलएम साइबर सुरक्षा जोखिम को मापने के लिए मेट्रिक्स, असुरक्षित कोड सुझावों की आवृत्ति का आकलन करने के लिए उपकरण, और हानिकारक कोड उत्पन्न करने या साइबर हमलों में सहायता करने में कठिनाई बढ़ाने के लिए एलएलएम का मूल्यांकन करने के लिए उपकरण शामिल हैं। मुख्य उद्देश्य साइबर अपराधियों के लिए मॉडल शोषण के लाभों को समवर्ती रूप से सीमित करते हुए असुरक्षित कोड और अवांछित आउटपुट को कम करने के लिए सिस्टम को मॉडल पाइपलाइनों में शामिल करना है। प्रारंभिक रिलीज, जैसा कि मेटा एआई टीम कहती है, का उद्देश्य व्हाइट हाउस प्रतिबद्धताओं में हाइलाइट किए गए जोखिमों से निपटने के लिए उपकरण प्रदान करना है।

Published At

12/7/2023 9:30:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch